Download PDF - Gaceta Sanitaria

Document related concepts

Aprendizaje basado en árboles de decisión wikipedia , lookup

Árbol de decisión wikipedia , lookup

Árbol de decisión alternativo wikipedia , lookup

Diagrama de decisión binario wikipedia , lookup

Transcript
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
NOTA METODOLÓGICA
Aproximación a la metodología basada en árboles de decisión
(CART). Mortalidad hospitalaria del infarto agudo de miocardio
Javier Trujillanoa,b / Antonio Sarria-Santamerac,d / Aureli Esquerdae / Mariona Badiaa / Matilde Palmac / Jaume Marchb
Unidad de Cuidados Intensivos, Hospital Universitario Arnau de Vilanova, Lleida, España; bDepartamento de Ciencias Médicas
Básicas, Universidad de Lleida, IRBLLEIDA, Lleida, España; cAgencia de Evaluación de Tecnología Sanitaria, ISCIII, Madrid, Red
IRYSS, Madrid, España; dDepartamento de Ciencias Sanitarias y Médicosociales, Universidad de Alcalá, Madrid, España;
e
Laboratorio de Bioquímica, Hospital Universitario Arnau de Vilanova, Lleida, España.
a
(Approach to the methodology of classification
and regression trees)
Resumen
Objetivo: Realizar una aproximación a la metodología de árboles de decisión tipo CART (Classification and Regression
Trees) desarrollando un modelo para calcular la probabilidad
de muerte hospitalaria en infarto agudo de miocardio (IAM).
Método: Se utiliza el conjunto mínimo básico de datos al alta
hospitalaria (CMBD) de Andalucía, Cataluña, Madrid y País
Vasco de los años 2001 y 2002, que incluye los casos con
IAM como diagnóstico principal. Los 33.203 pacientes se dividen aleatoriamente (70 y 30 %) en grupo de desarrollo (GD
= 23.277) y grupo de validación (GV = 9.926). Como CART
se utiliza un modelo inductivo basado en el algoritmo de Breiman, con análisis de sensibilidad mediante el índice de Gini
y sistema de validación cruzada. Se compara con un modelo de regresión logística (RL) y una red neuronal artificial (RNA)
(multilayer perceptron). Los modelos desarrollados se contrastan en el GV y sus propiedades se comparan con el área
bajo la curva ROC (ABC) (intervalo de confianza del 95%).
Resultados: En el GD el CART con ABC = 0,85 (0,86-0,88),
RL 0,87 (0,86-0,88) y RNA 0,85 (0,85-0,86). En el GV el CART
con ABC = 0,85 (0,85-0,88), RL 0,86 (0,85-0,88) y RNA 0,84
(0,83-0,86).
Conclusiones: Los 3 modelos obtienen resultados similares
en su capacidad de discriminación. El modelo CART ofrece
como ventaja su simplicidad de uso y de interpretación, ya
que las reglas de decisión que generan pueden aplicarse sin
necesidad de procesos matemáticos.
Abstract
Objective: To provide an overview of decision trees based
on CART (Classification and Regression Trees) methodology.
As an example, we developed a CART model intended to estimate the probability of intrahospital death from acute myocardial infarction (AMI).
Method: We employed the minimum data set (MDS) of Andalusia, Catalonia, Madrid and the Basque Country (20012002), which included 33,203 patients with a diagnosis of AMI.
The 33,203 patients were randomly divided (70% and 30%)
into the development (DS; n = 23,277) and the validation (VS;
n = 9,926) sets. The CART inductive model was based on Breiman’s algorithm, with a sensitivity analysis based on the Gini
index and cross-validation. We compared the results with those
obtained by using both logistic regression (LR) and artificial
neural network (ANN) (multilayer perceptron) models. The developed models were contrasted with the VS and their properties were evaluated with the area under the ROC curve
(AUC) (95% confidence interval [CI]).
Results: In the DS, the CART showed an AUC = 0.85 (0.860.88), LR 0.87 (0.86-0.88) and ANN 0.85 (0.85-0.86). In the
VS, the CART showed an AUC = 0.85 (0.85-0.88), LR 0.86
(0.85-0.88) and ANN 0.84 (0.83-0.86).
Conclusions: None of the methods tested outperformed the
others in terms of discriminative ability. We found that the CART
model was much easier to use and interpret, because the decision rules generated could be applied without the need for
mathematical calculations.
Key words: Classification and Regression Trees. Artificial Neural Networks. Logistic Regression.
Palabras clave: Árboles de decisión. Red neuronal artificial.
Regresión logística.
Introducción
Correspondencia: Javier Trujillano.
Hospital Arnau de Vilanova. Unidad de Cuidados Intensivos.
Avda. Rovira Roure, 80. 25198 Lleida. España.
Correo electrónico: [email protected]
Recibido: 12 de diciembre de 2006.
Aceptado: 27 de julio de 2007.
n la toma de decisiones en medicina es importante buscar metodologías que sean precisas y
nos ayuden a resolver los problemas que surgen
a la hora de clasificar, estratificar o pronosticar
a nuestros pacientes1.
Esta labor de clasificar adquiere más importancia
si se dirige a crear directrices de planificación o en la
E
65
Gac Sanit. 2008;22(1):65-72
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
Figura 1. Esquema de partición dicotómica en la construcción del árbol de decisión.
A
Y
B
RAÍZ
20 10
5
4
Xⱕ3
5 10
3
X>3
2
Yⱕ3 2
4 1
1
1
2
3
4
5
1
15
9
Y>3
1
3
X
A) Problema de clasificación en el plano con 2 variables X e Y.
B) Estructura simple de árbol de decisión con partición dicotómica de variables (v. texto para interpretación).
es sobre la variable X (valores por encima de 3); si son
valores por encima de 3 se constituye un nodo hoja (1)
que clasifica correctamente 15 puntos. Si el valor de X
no supera a 3 (tenemos 5 puntos y 10 cruces) y surge
la segunda pregunta sobre la variable Y (por encima
del valor 3), si son valores superiores a 3 en el nodo
hoja (3) se clasifican 9 cruces y un punto. Si
el valor de Y no supera a 3 se concluye en el nodo hoja
(2) con 4 puntos y una cruz. Podríamos seguir haciendo
particiones sucesivas hasta conseguir una clasificación
pura. Naturalmente, en la mayoría de las ocasiones no
se encuentra una clasificación absoluta o el árbol necesario para conseguirla es muy grande (podríamos llegar a un árbol con tantos nodos hojas como registros
disponibles en nuestra base de datos).
La clasificación de patrones se realiza según una
serie de preguntas sobre las variables predictoras, empezando por el nodo raíz (el primero o de origen) y siguiendo el camino determinado por las respuestas a
las preguntas en los nodos internos, hasta llegar a un
nodo hoja. La etiqueta asignada a este nodo hoja es
la que determina la clasificación asignada.
La serie de preguntas/respuestas (que acaba en
cada nodo hoja) constituye una regla de decisión.
Un árbol quedará resumido en el conjunto de reglas de decisión que lo compone. Para la interpretación de estas reglas se aplica un punto de vista lógico y la plausibilidad clínica. Puede decirse que la forma
de pensar en medicina se aproxima a utilizar y sintetizar reglas de decisión que generalizan los problemas
clínicos o diagnósticos; por ello, los árboles de decisión pueden ser bien aceptados por los médicos asistenciales.
El objetivo de este trabajo es acercarnos a la metodología CART, analizar un ejemplo (estratificar la mortalidad debida a un infarto agudo de miocardio [IAM] en
pacientes ingresados), comparar con otras metodologías
elaboración de guías de actuación generales. A la hora
de afrontar este problema de clasificación se han utilizado diversas aproximaciones metodológicas1.
Los distintos métodos empleados deben enfrentarse a 4 sucesivas barreras: a) seleccionar qué variables
se utilizan como predictoras; b) analizar el tipo de variables y su naturaleza (p. ej., si siguen patrones de normalidad); c) valorar la posibilidad de interacciones entre
las variables, y d) plantearse si el modelo resultante será
útil en la práctica asistencial.
La utilización (en los últimos 10 años) de árboles
de decisión, y entre ellos los de tipo CART (Classification
and Regression Trees), aporta una aproximación que
intenta solucionar estas 4 barreras y muestra, en algunas
aplicaciones, ciertas ventajas respecto a otros modelos2. Su utilización se ha extendido a áreas de la biología y la medicina3-9.
Un árbol de clasificación es una forma de representar
el conocimiento obtenido en el proceso de aprendizaje inductivo. Puede considerarse como la estructura resultante de la partición binaria recursiva del espacio de
representación a partir del conjunto de registros utilizados. Cada registro está formado por el conjunto de
valores de las variables predictoras y el valor de la variable resultado que corresponde a cada caso. Esta partición binaria recursiva se plasma en una organización
jerárquica del espacio de representación que puede modelarse mediante una estructura tipo árbol. Cada nodo
interior contiene una pregunta sobre una variable predictora concreta (con un hijo para cada una de las 2
posibles respuestas) y cada nodo hoja se refiere a un
resultado (o clasificación)10.
Un esquema sencillo puede apreciarse en la figura 1. El problema es separar (clasificar) entre los 2 tipos
de figuras (puntos y cruces) en el plano utilizando los
valores de las 2 variables (X e Y). Se parte del nodo
raíz con 20 puntos y 10 cruces. La primera pregunta
Gac Sanit. 2008;22(1):65-72
66
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
donde i y j son las categorías de la variable predictora
y p es proporción.
La función de criterio ⌽(s,t) para la división s en el
nodo t se define como:
(regresión logística [RL] múltiple y red neuronal artificial
[RNA]), según los resultados del ejemplo, y mostrar sus
posibles ventajas y desventajas de forma general.
⌽(s,t) = g(t) – pLg(tL) – pRg(tR)
Método
donde pL es la proporción de casos de t enviados
al nodo hijo de la izquierda, y pR al nodo hijo de la derecha.
Cuando se comienza en el nodo raíz t = 1 (y también en las particiones sucesivas), se busca la división
s*, de entre todas las posibles de S, que de un valor
con mayor reducción de la impureza:
Base de datos. Variables
Estudio retrospectivo realizado con el conjunto mínimo básico de datos al alta hospitalaria (CMBD) de Andalucía, Cataluña, Madrid y País Vasco de los años 2001
y 2002, que incluye los casos con IAM como diagnóstico principal. Los datos de esta base (así como la definición de sus variables) ya se han descrito en otros
trabajos11. Los 33.203 pacientes se dividen aleatoriamente (70-30%) en grupo de desarrollo (GD = 23.277)
y grupo de validación (GV = 9.926). Utilizamos las 10 variables predictoras que mostraron más importancia en
el análisis univariante (sexo, edad en años, hipertensión arterial [HTA], fibrilación ventricular [FV], arritmia,
insuficiencia cardíaca, accidente cerebrovascular agudo
[ACVA], insuficiencia respiratoria [IResp], insuficiencia
renal [IRenal] y shock), y como variable de salida el estado (vivo/muerto) al alta hospitalaria.
⌽(s*,1) = max ⌽ (s,1)
seS
Luego se divide el nodo 1 en 2 nodos hijos (t = 2 y
t = 3) utilizando la división s*. Este valor de la función
de impureza, ponderado por la proporción de todos los
casos del nodo t, es el valor del que se informa en el
árbol como «mejora».
En el proceso sucesivo de construcción y crecimiento
del árbol se debe asignar una clase (etiqueta) a cada
nodo (desde la raíz hasta los nodos hoja). El procedimiento de asignación de clase debe hacerse por medio
de una función de asignación, en la que se tiene en
cuenta la probabilidad a priori asignada a cada clase
(según la base de datos empleada), la pureza de la partición y la proporción final de casos que aparecen en
los nodos hojas. Al igual que puede determinarse la pureza para un nodo concreto, puede evaluarse de forma
conjunta para todo el árbol.
El crecimiento de un árbol continúa hasta que se
produce cualquiera de estas 3 posibilidades: sólo hay
una observación (caso) en cada nodo hoja, todas las
observaciones tienen la misma probabilidad asignada
en los nodos hoja (es imposible determinar el criterio
de máxima pureza), o se ha fijado un límite externo de
la profundidad (número de niveles máximo) del crecimiento del árbol. El árbol que se ha generado de esta
forma clasifica correctamente los registros utilizados en
su proceso de aprendizaje (se dice que este «sobreaprendizaje» se obtiene porque el modelo ha «sobreajustado» los datos empleados en esta fase), pero cuando se enfrente a nuevos registros no se asegura su
capacidad de generalización.
El árbol complejo que se ha creado debe simplificarse para que alcance esta capacidad de generalización. Se utiliza un método de podado del árbol. El procedimiento asegura que sólo se retiran los nodos que
incrementan muy poco la precisión del árbol. Se utiliza una medida de coste-complejidad (que combina los
criterios de precisión frente a complejidad en el número
de nodos y velocidad de procesamiento), buscando el
árbol que obtiene menor valor en este parámetro. Los
Desarrollo de un árbol de clasificación (CART)
El proceso pueden esquematizarse en 4 fases: construcción (building) del árbol, parada (stopping) del proceso de crecimiento del árbol (se constituye un árbol
máximo que sobreajusta la información contenida en
nuestra base de datos), podado (pruning) del árbol haciéndolo más sencillo y dejando sólo los nodos más importantes y, por último, selección (selection) del árbol
óptimo con capacidad de generalización.
La construcción del árbol comienza en el nodo raíz,
que incluye todos los registros de la base de datos. A
partir de este nodo el programa debe buscar la variable más adecuada para partirlo en 2 nodos hijos. Para
elegir la mejor variable debe utilizarse una medida de
pureza (purity) en la valoración de los 2 nodos hijos posibles (la variable que consigue una mayor pureza se
convierte en la utilizada en primer lugar, y así sucesivamente). Debe buscarse una función de partición (splitting function) que asegure que la pureza en los nodos
hijos sea la máxima. Una de las funciones más utilizada
es la denominada Gini (se alcanza un índice de pureza que se considera como máximo).
El índice de Gini en el nodo t, g(t), se puede formular
del modo siguiente:
g(t) = ⌺ p (j/t) p (i/t)
J⫽i
67
Gac Sanit. 2008;22(1):65-72
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
árboles más sencillos (podados con este criterio) aseguran una mayor capacidad de generalización.
De todos los árboles podados posibles debe seleccionarse el mejor. El mejor árbol (árbol solución) será
el que consigue menor error en el ajuste de los registros utilizados en su proceso de aprendizaje. Pero esta
condición no es suficiente, debe ajustar bien la base
de datos utilizada en su aprendizaje, pero también debe
ajustar registros no empleados en esta fase. Para conseguir este objetivo hay diversos métodos.
El método más común (implementado en los programas de mayor utilización), que no precisa un conjunto de prueba independiente, se denomina validación
cruzada. La validación cruzada es un método de remuestreo que aprovecha el total de la información disponible en la base de datos sin prescindir de una parte
de sus registros.
En la validación cruzada se divide de forma aleatoria la base de datos utilizada en la fase de aprendizaje (conjunto de aprendizaje) en N partes (normalmente
10). De forma secuencial, cada una de estos subconjuntos se reserva para emplearse como conjunto de
prueba frente al modelo de árbol generado por los
N-1 subconjuntos restantes. Obtenemos así N modelos diferentes, donde se puede evaluar la precisión
de las clasificaciones tanto en el conjunto de aprendizaje (N-1) como en los subconjuntos de prueba (N), y
podemos seleccionar el árbol óptimo cuando la precisión se alcance tanto en uno como en otro subconjunto.
Las diferencias principales entre los distintos algoritmos de construcción de árboles de decisión radican
en las estrategias de poda y en la regla adoptada para
partir los nodos.
bajo la curva ROC (ABC) y porcentaje de correcta clasificación (PCC) con sus correspondientes intervalos
de confianza (IC) del 95%14,15.
Utilizamos el test de Bland-Altman para comparar
las probabilidades individuales obtenidas por cada modelo16.
Los cálculos estadísticos se realizaron con el programa SPSS 12.0.
Resultado
Modelo de árbol de decisión CART
El software que utilizamos (DTREG versión 3.5) utiliza de forma básica las características que hemos descrito en nuestra aproximación metodológica: modelo inductivo según el algoritmo de Breiman (forma de
construcción del árbol), con análisis de sensibilidad basado en índice de Gini y sistema de validación cruzada.
Los otros parámetros utilizados (requeridos por el
programa) fueron: control del tamaño del árbol (hoja con
registros superiores a 15 y profundidad del árbol
menor a 10), control del podado por reducción de error
estándar, no selección del criterio de partición inicial y
asignación de probabilidad de las categorías según la
original de la base de datos.
Los resultados que se obtienen se muestran en las
figuras 2 y 3. Como se puede apreciar, hay 2 subgrupos diferenciados según la variable sexo.
El árbol sólo ha utilizado 7 variables que, ordenadas según la importancia asignada, son: shock, edad,
FV, insuficiencia cardíaca, sexo, ACVA e IRenal. El modelo se resume en 19 reglas de decisión (con las combinaciones de las 7 variables utilizadas).
Por ejemplo una de las reglas de decisión (fig. 2)
es:
Si es hombre y no presenta shock, y si tiene menos
de 68,5 años y FV, el modelo le asigna una probabilidad de mortalidad hospitalaria del 19,75%.
Simplemente observando los 2 árboles se detectan diferencias entre hombre y mujer. Los 2 árboles se pueden evaluar según aspectos clínicos y demuestran el diferente comportamiento entre hombres
y mujeres (con mayor probabilidad de muerte a priori
para las mujeres). También se observa el distinto peso
de las variables (primero pregunta sobre la existencia de shock por su importancia en el pronóstico), para
la edad el punto de corte diferente según sexo y, posteriormente, aparecen las otras variables que se consideran importantes. No hace falta realizar ningún
cálculo para obtener la probabilidad asignada siguiendo cada la regla de decisión que nos lleva a cada
nodo final.
Modelo de regresión logística múltiple y red neuronal artificial
Utilizamos un modelo de RL con posibilidad de selección de variables por pasos.
Para el desarrollo de la RNA utilizamos una arquitectura de perceptrón multicapa (MLP, multilayered perceptron) entrenado con algoritmo de retropropagación
del error (backpropagation). Este tipo de RNA es
una de las más utilizadas en el ámbito de la medicina12.
Para la creación de la RNA utilizamos el programa
comercial Qnet 97 (Vesta Services Inc.). Los parámetros de entrenamiento modificables en el software (momento, coeficiente de aprendizaje, etc.) fueron optimizados para alcanzar el mejor resultado de la red13.
Comparación de los modelos
Para comparar los distintos modelos se medirán sus
propiedades de sensibilidad (S), especificidad (E), área
Gac Sanit. 2008;22(1):65-72
68
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
Figura 2. Árbol de decisión (subgrupo hombres).
Hombre
8,62%
Shock
73,01
No shock
5,54%
ⱕ 68,5 años
2,46%
FV no
1,68%
FV sí
19,75%
IC no
1,25%
ACVA no
1,12%
> 68,5 años
9,84%
IC sí
6,73%
FV no
8,88%
IC no
7,26%
ACVA sí IRenal no IRenal sí
29,47%
5,21%
28,71%
ACVA no
6,78%
FV sí
38,94%
IC sí
15,41%
ACVA sí
45,31%
ACVA: accidente cerebrovascular agudo; FV: fibrilación ventricular; IC: insuficiencia cardíaca; IRenal: insuficiencia renal aguda. En fondo gris se incluyen los nodos terminales. Los porcentajes expresan la probabilidad de mortalidad hospitalaria asignada.
Figura 3. Árbol de decisión (subgrupo mujeres).
Mujer
15,67%
Shock
79,19%
No shock
10,36%
ⱕ 70,5 años
3,53%
> 70,5 años
13,53%
ⱕ 64,5 años
1,53%
FV no
12,33%
> 64,5 años
5,93%
FV no
5,16%
ACVA no
4,67%
FV sí
25,00%
ACVA sí
38,46%
ⱕ 83,5 años
9,78%
IC no
7,98%
FV sí
52,67%
> 83,5 años
18,79%
IC sí
14,90%
ACVA: accidente cerebrovascular agudo; FV: fibrilación ventricular. IC: insuficiencia cardíaca. En fondo gris se incluyen los nodos terminales. Los porcentajes expresan
la probabilidad de mortalidad hospitalaria asignada.
gístico) con los valores de los coeficientes beta por medio
de su ecuación matemática.
Modelo de regresión logística múltiple
El resultado de la RL se muestra en la tabla 1. La
variable arritmia quedó excluida en el análisis por pasos
como no significativa. La tabla nos da información sobre
la importancia de las variables (orden de los exponentes
B), el grado de significación estadística y la posibilidad
de cálculo de probabilidad asignada (por el modelo lo-
Modelo de red neuronal artificial
La arquitectura óptima para el modelo se seleccionó de forma empírica y consta de 3 capas (una de en-
69
Gac Sanit. 2008;22(1):65-72
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
Tabla 1. Resultados del ajuste del modelo de regresión logística. Variable dependiente: mortalidad hospitalaria
por infarto agudo de miocardio
Variable
Coeficiente beta
DE
p
Exponente (B)
IC del 95%
0,176
0,066
0,399
2,074
0,544
1,921
1,209
0,885
3,675
–7,907
0,057
0,003
0,061
0,090
0,059
0,145
0,109
0,107
0,079
0,217
0,002
0,000
0,000
0,000
0,000
0,000
0,000
0,000
0,000
1,192
1,068
1,491
7,956
1,722
6,828
3,351
2,422
39,439
1,067-1,332
1,062-1,073
1,324-1,679
6,664-9,499
1,534-1,934
5,143-9,066
2,708-4,148
1,966-2,985
33,802-46,017
Sexo (Mujer)
Edad (años)
HTA
FV
Insuficiencia cardíaca
ACVA
IResp
IRenal
Shock
Constante
ACVA: accidente cerebrovascular agudo; DE: desviación estándar; FV: fibrilación ventricular; HTA: hipertensión arterial; IC: intervalo de confianza; IRenal: insuficiencia
renal; IResp: insuficiencia respiratoria.
ne en la tabla 2. Se aprecia que hay pocas diferencias
entre los modelos en sus propiedades evaluadas. Se
aprecia una menor sensibilidad en los modelos CART,
pero recordamos que están trabajando con menos variables.
En la figura 4 se muestran los gráficos de BlandAltman obtenidos en el GD, y observamos que entre
el modelo de RL y RNA hay menos diferencias (en las
probabilidades de muerte hospitalaria individuales) que
entre el modelo RL y el tipo CART (que muestra también la característica de ser discreto por sus 19 reglas
de decisión). Atribuimos este resultado a que en este
ejemplo todas las variables (menos la EDAD) son categóricas, por lo que el modelo RNA presenta más dificultades para encontrar interrelaciones entre las variables y así poder diferenciarse del modelo RL.
Tabla 2. Comparación de la precisión de los 3 modelos
de clasificación de probabilidad de mortalidad hospitalaria
por infarto agudo de miocardio en los grupos de desarrollo
(n = 23.277) y validación (n = 9.926)
Desarrollo
RL
RNA
CART
Validación
RL
RNA
CART
ABC (IC)
PCC (IC)
S (IC)
E (IC)
0,87 (0,86-0,88)
0,85 (0,84-0,86)
0,85 (0,85-0,86)
92 (91-92)
92 (91-92)
92 (91-92)
76 (75-77)
76 (75-77)
74 (73-75)
93 (92-93)
93 (92-93)
93 (92-93)
0,86 (0,85-0,88)
0,84 (0,83-0,86)
0,85 (0,83-0,86)
92 (91-92)
92 (91-92)
92 (91-92)
77 (76-78)
77 (76-78)
73 (72-74)
93 (92-94)
93 (92-94)
93 (92-94)
ABC: área bajo la curva ROC; CART: modelo de árbol de clasificación tipo CART;
E: especificidad; IC: intervalo de confianza; PCC: porcentaje de correcta clasificación; RL: modelo de regresión logística; RNA: modelo de red neuronal artificial; S:
sensibilidad.
Discusión
trada, una oculta y una de salida). La capa de entrada
con las 10 variables predictoras, la oculta con 4 nodos,
y la de salida con un nodo que reflejaba la probabilidad de mortalidad hospitalaria, con redes más complejas
no obtuvimos mejores resultados. La RNA, aun siendo sencilla, tiene un total de 44 parámetros (10 de la
capa de entrada por 4 de la capa oculta más 4 de comunicación entre la capa oculta y el nodo de salida).
El programa Qnet nos muestra el orden de importancia de las variables de entrada (que en este caso siguieron un patrón similar al conseguido por regresión
logística que sólo utiliza 9 parámetros).
En este ejemplo que hemos analizado, los resultados globales no diferencian (en la capacidad de discriminación) un modelo superior a otro, pero puede ser
que en otras aplicaciones un modelo supere a los
demás. El ejemplo también nos ha señalado que con
las mismas variables predictoras los modelos son capaces de asignar, en algunos casos, probabilidades de
muerte diferentes.
Las limitaciones que pueden argumentarse se centran en cada una de las metodologías empleadas: podríamos haber buscado interacciones entre las variables e incluirlas en el modelo de RL, utilizar otros tipos
de RNA o arquitecturas más sofisticadas para conseguir mejores resultados con las redes, o aplicar otros
algoritmos en el desarrollo de los árboles de decisión17.
También podrían haberse empleado otras metodologías, como el análisis discriminante o la lógica fuzzy18,19.
Comparación de los distintos modelos
Los 3 modelos obtenidos con el GD se enfrentaron
también al GV. El resumen de los resultados se expo-
Gac Sanit. 2008;22(1):65-72
70
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
Figura 4. Gráficos de Bland-Altman de los modelos de predicción de mortalidad en el grupo de validación.
A
0,6
0,4
P RL-P CART
0,4
P RL-P RNA
B
0,6
0,2
0,0
–0,2
0,2
0,0
–0,2
–0,4
–0,4
–0,6
–0,6
0,0
0,2
0,4
0,6
0,8
0,0
1,0
(P RL + P RNA)/2
0,2
0,4
0,6
0,8
(P RL + P CART)/2
P CART: probabilidades según árbol de decisión CART; P RL: probabilidades según regresión logística; P RNA: probabilidades según red neuronal artificial. Las líneas
horizontales corresponden a ± 2 desviaciones estándar. A) RL comparado con RNA. B) RL comparado con CART.
– Posibilidad de utilizar variables continuas o discretas. Los 3 modelos ofrecen esa posibilidad.
– Selección de variables según la importancia y la
aportación de información. En RL y CART se hace de
forma automática, y en RNA debe hacerse de forma
«manual» (aunque hay otros programas que incorporan esta posibilidad).
– Modelo de asignación de probabilidad. El modelo RL es parámetrico (asignación según modelo logístico). El basado en CART es no paramétrico y las redes
son el paradigma de aproximación universal de funciones.
– Interrelación de variables. En RL deben incluirse
en el modelo, CART analiza las interrelaciones en sus
reglas de decisión y en RNA pueden tenerse en cuenta todas las posibilidades.
– Interpretación de resultados. Aquí la ventaja está
a favor del CART, es menor en RL y, en el caso de las
RNA, son una caja negra en la interpretación de sus
parámetros20.
Los modelos no son excluyentes: ante un mismo problema deben barajarse distintas metodologías que pueden colaborar en la búsqueda de un resultado óptimo21.
Tabla 3. Comparación de propiedades generales entre
los modelos basados en regresión logística (RL), red neuronal
artificial (RNA) y árbol de decisión tipo CART
Accesibilidad
Tipos de variables
Selección de variables
Importancia de variables
Interrelación de variables
Modelo
Interpretación de resultados
RL
RNA
CART
++
++
++
++
+
+
++
–
++
–
+
+++
+++
–
–
++
++
++
++
++
+++
Se ha graduado desde (–), peor, a (+++), mejor, las propiedades evaluadas.
En definitiva, con la misma información (mismas variables) pueden construirse distintas aproximaciones en
un problema de clasificación. No hay una metodología
que sea mejor en todos los casos, pero sí que expresan distintas capacidades que deben ser valoradas (tabla 3):
– Accesibilidad. Los paquetes estadísticos de uso
habitual incluyen la RLM. Hay infinidad de publicaciones en medicina que emplean esta metodología. Los
modelos basados en RNA y CART no son tan accesibles, ya que precisan programas específicos de menor
difusión.
Como conclusión, podemos afirmar que los modelos basados en árboles de decisión ofrecen como ventaja una simplicidad en su utilización e interpretación
ya que sus reglas de decisión no necesitan procesos
matemáticos para ser interpretadas.
71
Gac Sanit. 2008;22(1):65-72
Document downloaded from http://www.elsevier.es, day 11/07/2017. This copy is for personal use. Any transmission of this document by any media or format is strictly prohibited.
Trujillano J et al. Aproximación a la metodología basada en árboles de decisión (CART). Mortalidad hospitalaria del infarto agudo
de miocardio
Agradecimientos
11. Sendra JM, Sarria-Santamera A, Inigo J, Regidor E. Factores asociados a la mortalidad intrahospitalaria del infarto de
miocardio. Resultados de un estudio observacional. Med Clin
(Barc). 2005;125:641-6.
12. Trujillano J, March J, Sorribas A. Aproximación metodológica al uso de redes neuronales artificiales para la predicción
de resultados en medicina. Med Clin (Barc). 2004;122 Supl
1:59-67.
13. Trujillano J, March J, Badia M, Rodríguez A, Sorribas A. Aplicación de las Redes Neuronales Artificiales para la estratificación de riesgo de mortalidad hospitalaria. Gac Sanit.
2003;17:504-11.
14. Hanley JA, McNeil BJ. The meaning and use of the area under
a receiver operating characteristic (ROC) curve. Radiology.
1982;143:29-36.
15. Bland JM, Altman DG. Statistical methods for assessing agreement between two methods of clinical measurement. Lancet.
1986;1:307-10.
16. Podgorelec V, Kokol P, Stiglic B, Rozman I. Decision trees:
an overview and their use in medicine. J Med Syst. 2002;
26:445-63.
17. Colombet I, Ruelland A, Chatellier G, Gueyffier F, Degoulet
P, Jaulent MC. Models to predict cardiovascular risk: comparison of CART, Multilayer perceptron and logistic regression. Proc AMIA Symp. 2000;156-60.
18. Harper PR. A review and comparison of classification algorithms for medical decision making. Health Policy. 2005;71:
315-31.
19. Schwarzer G, Nagata T, Mattern D, Schmelzeisen R, Schumacher M. Comparison of fuzzy inference, logistic regression,
and classification trees (CART). Prediction of cervical lymph
node metastasis in carcinoma of the tongue. Methods Inf Med.
2003;42:572-7.
20. Raubertas RF, Rodewald LE, Humiston SG, Szilagyi PG. ROC
curves for classification trees. Med Decis Making. 1994;14:16974.
21. Costanza MC, Paccaud F. Binary classification of dyslipidemia from the waist-to-hip ratio and body mass index: a comparison of linear, logistic, and CART models. BMC Medical
Research Methodology. 2004;4:7-17.
El presente trabajo ha contado con la financiación parcial
de la Red Temática de Investigación Cooperativa de Investigación de Resultados y Servicios Sanitarios G03/202.
Bibliografía
1. Tom E, Schulman KA. Mathematical models in decision analysis. Infect Control Hosp Epidemiol. 1997;18:65-73.
2. Crichton NJ, Hinde JP, Marchini J. Models for diagnosing chest
pain: is CART helpful? Stat Med. 1997;16:717-27.
3. Saegerman C, Speybroeck N, Roels S, Vanopdenbosch E,
Thiry E, Berkvens D. Decision support tools for clinical diagnosis of disease in cows with suspected bovine spongiform
encephalopathy. J Clin Microbiol. 2004;42:172-8.
4. Bachur RG, Harper MB. Predictive model for serious bacterial infection among infants younger than 3 months of age.
Pediatrics. 2001;108:311-6.
5. Gerald LB, Tang S, Bruce F, Redden D, Kimerling ME, Brook
N, et al. A decision tree for tuberculosis contact investigation.
Am J Respir Crit Care Med. 2002;166:1122-7.
6. Thoefner MB, Ersboll BK, Jansson N, Hesselholt M. Diagnostic
decision rule for support in clinical assessment of the need
for surgical intervention in horses with acute abdominal pain.
Can J Vet Res. 2003;67:20-9.
7. Vlahou A, Schorge JO, Gregory BW, Coleman RL. Diagnosis of ovarian cancer using decision tree classification of mass
spectral data. J Biomed Biotechnol. 2003;5:308-14.
8. Pavlopoulos SA, Stasis ACH, Loukis EN. A decision tree-based
method for the differential diagnosis of aortic stenosis from
mitral regurgitation using heart sounds. Biomed Eng Online.
2004;3:21-37.
9. Perrier A, Nendaz MR, Sarasin FP, Howarth N, Bounameaux
H. Cost-effectiveness analysis of diagnostic strategies for suspected pulmonary embolism including helical computed tomography. Am J Respir Crit Care Med. 2002;167:39-44.
10. Electronic Statistics Textbook. Tulsa, OK: StatSoft [citado 8
Feb 2006]. Disponible en: http://www.statsoft.com/textbook/stcart.html
Gac Sanit. 2008;22(1):65-72
72