Regresion Logística
Regresion Logística
La regresión logística (RL) forma parte del conjunto de métodos estadísticos que caen bajo tal
denominación y es la variante que corresponde al caso en que se valora la contribución de diferentes
factores en la ocurrencia de un evento simple.
La RL va a contestar a preguntas tales como: ¿Se puede predecir con antelación si un cliente que
solicita un préstamo a un banco va a ser un cliente moroso?. ¿Se puede predecir si una empresa va a
entrar en bancarrota?. ¿Se puede predecir de antemano que un paciente corra riesgo de un infarto?.
FACTORES DE CONFUSIÓN: Durante el proceso de selección del modelo de regresión más adecuado,
el que mejor se ajusta a los datos disponibles, hay que considerar un último aspecto adicional,
especialmente si el proceso de selección de variables se hace mediante el método manual de obligar
a que todas las variables entren en el modelo y es el propio investigador el que paso a paso va
construyendo el modelo de regresión más conveniente.
Durante el proceso de incorporación de variables, al eliminar una variable de uno de los modelos de
regresión estimados, hay que observar si en el modelo de regresión resultante al excluir esa variable,
los coeficientes asociados al resto de variables introducidas en el modelo varían significativamente
respecto al modelo de regresión que sí incluía dicha variable. Si así sucede, significa que
dicha variable podría ser un factor de confusión, al no mostrar una relación significativa con la
variable que estamos estudiando directamente, pero sí indirectamente, al relacionarse con otras
variables, que en sí mismas pueden estar significativamente relacionadas con la variable de estudio.
En dicho caso, es conveniente no excluir la variable en cuestión del modelo de regresión, aunque no
cumpla los requisitos para permanecer en él, obligando a que permanezca, de modo que aunque no
se incluya su interpretación al evaluar los resultados del modelo, se ajusta el resultado del resto de
variables seleccionadas por su posible efecto.
Ejemplo: Al estudiar una muestra aleatoria de una población de diabéticos y analizando la posible
relación lineal entre la Tensión arterial sistólica (TAS) como variable respuesta y las variables
independientes (edad y género de los pacientes), se obtendrá un modelo de regresión donde el
género de los pacientes es significativo, es decir, existirá una ecuación diferente de predicción para
hombres y otro para mujeres.
Sin embargo, si se controlase también el índice de masa corporal (IMC) introduciéndolo en la
ecuación, posiblemente la variable género no sería significativa, mientras que pasaría a serlo el IMC.
En ese caso el IMC sería un factor de confusión que deberíamos incluir en la ecuación y ello aunque
su coeficiente no fuera significativo.
En esta línea, hay que tener cuidado con los términos relación, correlación o significación y
causalidad. Que dos factores estén relacionados no implica de ninguna manera que uno sea causa
del otro. Es muy frecuente que una alta dependencia indique que las dos variables dependen de una
tercera que no ha sido medida (factor de confusión).
VARIABLES DUMMY: Las variables explicativas de tipo nominal con más de dos categorías deben ser
incluidas en el modelo definiendo variables dummy.
Ejemplo del sentido de las variables dummy: Si una variable nominal (raza, religión, grupo sanguíneo,
etc.) consta de k categorías deben crearse entonces (k − 1) variables dicotómicas que son las llamadas
variables dummy asociadas a la variable nominal. Las (k − 1) variables dicotómicas se denotan por
(Z1 , Z2 ,L , Zk −1 ). A cada categoría o clase de la variable nominal le corresponde un conjunto de
valores de los Zi con el cual se identifica dicha clase.
En esta línea, si la variable nominal de interés es el grupo sanguíneo (tipo 0, tipo A, tipo B, tipo AB),
entonces se tendrían los siguientes valores de las variables dummy para cada grupo sanguíneo:
Grupo sanguíneo Z1 Z2 Z3
0 0 0 0
A 1 0 0
B 0 1 0
AB 0 0 1
Si se ajusta un modelo que incluya una variable nominal con k clases, ésta debe ser sustituida por las
(k − 1) variables dummy, y a cada una de ellas corresponderá su respectivo coeficiente.
Si una variable recoge datos del tabaco con las respuestas (Nunca fumó, Ex‐fumador, fuma 20 ó más
cigarrillos diarios), hay 4 posibles respuestas por lo que se construyen (4‐1=3) variables dummy
dicotómicas (valores 0, 1), existiendo diferentes posibilidades de codificación, que conducen a
interpretaciones diferentes, siendo la más habitual:
I1 I2 I3
Nunca fumó 0 0 0
Ex- fumador 1 0 0
< de 20 cigarrillos diarios 0 1 0
≥ 20 cigarrillos diarios 0 0 1
En esta codificación el coeficiente de la ecuación de regresión para cada variable dummy (siempre
transformado con la función exponencial), se corresponde al odds‐ratio de esa categoría con
respecto al nivel de referencia (la primera respuesta), en el ejemplo cuantifica cómo cambia el riesgo
respecto a no haber fumado nunca.
I1 I2
Respuesta 1 0 0
Otra posibilidad es una variable cualitativa de tres respuestas:
Respuesta 2 1 0
Respuesta 3 1 1
I1 I2
Cuando una categoría no pueda ser considerada de forma natural
Respuesta 1 ‐1 ‐1
como nivel de referencia, como por ejemplo el grupo sanguíneo, un
Respuesta 2 1 0
posible sistema de clasificación es:
Respuesta 3 0 1
cada coeficiente de las variables dummy (indicadoras) tiene una interpretación directa como cambio
en el riesgo con respecto a la media de las tres respuestas.
EL MODELO LOGÍSTICO
Sea Y una variable dependiente binaria (con dos posibles valores: 0 y 1). Sean un conjunto de k
variables independientes, (X1 , X2 , L , Xk ) , observadas con el fin de predecir/explicar el valor de Y.
P [Y = 1 / X1 , X2 , L , Xk ] a P [Y = 0 / X1 , X2 , L , Xk ] = 1 − P [Y = 1 / X1 , X2 , L , Xk ]
β = (β1 , β2 , L , βk )
FUNCIÓN DE VEROSIMILITUD
Con el fin de estimar β = (β1 , β2 , L , βk ) y analizar el comportamiento del modelo estimado se toma
una muestra aleatoria de tamaño n dada por (xi , yi )i=1, 2, L, n donde el valor de las variables
independientes es xi = (xi1, xi2 , L , xik ) e yi ∈ [0,1] es el valor observado de Y en el i‐ésimo elemento
de la muestra.
L [β /(x1 , y1 ),(x2 , y2 ), L , (xn , yn )] = ∏ piy i (1 − pi )1− y i donde pi = p (xi ;β) = p [(xi1, xi2 , L , xik );β]i=1,2, L,n
n
i=1
⎧0 si β1 X1 + L + βk Xk < c0
⎪
MODELO LINEAL: ⎨ β1 X1 + L + βk Xk si c0 < β1 X1 + L + βk Xk ≤ c1 c0 , c1 son cons tan tes
⎪1 si β1 X1 + L + βk Xk > c1
⎩
El modelo logístico establece la siguiente relación entre la probabilidad de que ocurra el suceso,
dado que el individuo presenta los valores (X = x1 , X = x2 , L , X = xk ) :
P [Y = 1 / x1 , x2 , L , xk ] = 1
(− β0 − β1x1 − β2x 2 − L − βk xk )
1+e
El objetivo es hallar los coeficientes (β0 , β1 , L , βk ) que mejor se ajusten a la expresión funcional.
P [Y = 1 / X1 , X2 , L , Xk ] p(X1 , X2 , L , Xk ; β)
Odds (ratio de riesgo) = = = eβ1 +β2 X 2 L +βk Xk
1 − P [Y = 1 / X1 , X2 , L , Xk ] 1 − p(X1 , X2 , L , Xk ; β)
En medicina, por ejemplo, el ratio del riesgo, habitualmente, indica la presencia de una determinada
enfermedad objeto de análisis.
Tomando logaritmos neperianos en la expresión anterior, se obtiene una expresión lineal para el
modelo:
⎡ P [Y = 1 / X1 , X2 , L , Xk ] ⎤
Logit [P(Y = 1)] = Ln ⎢ ⎥ = β1 + β2 X2 + L + βk Xk
⎣ 1 − P [Y = 1 / X1 , X2 , L , Xk ]⎦
Aquí se aprecia que el estimador del parámetro β2 se podrá interpretar como la variación en el
término Logit (logaritmo neperiano del cociente de probabilidades) originada por una variación
unitaria en la variable X2 (suponiendo constantes el resto de variables explicativas).
Cuando se hace referencia al incremento unitario en una de las variables explicativas del modelo,
aparece el concepto de oods‐ratio como el cociente entre los dos odds asociados (el obtenido al
realizar el incremento y el anterior al mismo).
Bondad de ajuste del modelo.‐ Se utilizan dos tipos de contrastes: (a) Contrastes que analizan la
bondad de ajuste desde un punto de vista global. (b) Contrastes que analizan la bondad de ajuste
paso a paso.
Evalúa la bondad de ajuste del modelo construyendo una tabla de contingencia a la que aplica un
contraste tipo chi‐cuadrado.
Calcula los deciles de las probabilidades estimadas (p̂i )i=1,2,L,n , (D1 ,D2 ,L ,D9 ) , dividiendo los datos
observados en diez categorías dadas por: A j = {(p̂i )i=1,2,L,n ∈[D j−1 , D j ) j=1,2,L10 }, donde D0 = 0 y
D10 = 1
El estadístico de contraste:
∑ p̂i
10 (e j − n j pj )2 ⎧ n j ≡ nº casos en A j ( j = 1,L ,10) i∈A j
T=∑ donde ⎨ pj =
j=1 n j pj (1 − pj ) ⎩ e j ≡ nº yi = 1 en A j ( j = 1,L ,10) nj
[
p‐valor del contraste: P χ28 ≥ Tobservado ]
Diagnósticos del modelo.‐ Mediante el análisis de los residuos del modelo y de su influencia en la
estimación del vector de parámetros se evalúa la bondad del ajuste caso por caso.
yi − p̂i
) Residuos estandarizados: zi =
p̂i (1 − p̂i )
yi − p̂(i)
) Residuos studentizados: sti = , donde p̂(i) es la estimación de pi obtenida en la
p̂(i) (1 − p̂(i) )
observación i‐ésima.
⎧ − 2Ln p̂i si yi = 1
⎪
) Residuos desviación: (di )i=1,L,n = ⎨
⎪ − 2Ln(1 − p̂ ) si y = 0
⎩ i i
Medidas de Influencia.‐ Cuantifican la influencia que cada observación ejerce sobre la estimación del
vector de parámetros o sobre las predicciones hechas a partir del mismo de forma que, cuanto más
grande son, mayor es la influencia que ejerce una observación en la estimación del modelo
denotando por W = diagonal [ p̂i (1 − p̂i )], se calcula a partir de la matriz H = W X(X' W X) −1 X' W
) Las medidas (distancia de Cook, Dfbeta) miden el impacto que tiene una observación en la
estimación de los parámetros.
COOK i = [
1 ˆ ˆ '
p
] [
β − β(i) (X' W X) βˆ − βˆ (i) ] donde β̂(i) son estimaciones EMV de β
βˆ 1 − βˆ 1(i)
Dfbeta.‐ Influencia en la estimación de una componente de β1 : Dfbeta1i =
st (βˆ )
1
β̂1(i) son estimaciones máximo verosímiles (EMV) de β1
Señalar que la variable nominal Zona tiene cuatro categorías y debería ser sustituida por 3 variables
dummy:
Zona Madrid Z1 Z2 Z3
Norte 0 0 0
Sur 1 0 0
Este 0 1 0
Oeste 0 0 1
Sin considerar este hecho, introduzcamos los datos en SPSS. Después se ponderan los datos
(Datos/Ponderar casos/frecuencia).
Se selecciona la variable dependiente (Virus) y las covariables (variables independientes: Zona y RH).
Ahora tenemos que indicarle al SPSS las variables categóricas, se pulsa el botón [Categóricas].
El estadístico (‐2LL) mide hasta qué punto un modelo se ajusta bien a los datos. El resultado de esta
medición recibe también el nombre de desviación. Cuanto más pequeño sea el valor, mejor será el
ajuste.
Como en [Opciones] se había solicitado el historial de iteraciones, la salida del ordenador muestra un
resumen del proceso iterativo de estimación del primer parámetro β0 , como se observa el proceso
ha necesitado dos ciclos para estimar correctamente el término constante β0 = 0,084 , porque la
variación de (‐2LL) entre el primer y segundo bucle ha cambiado en menos del criterio fijado por el
programa (0,001).
Por defecto se ha empleado un punto de corte (0,5) de la probabilidad de Y para clasificar a los
individuos. Esto significa que aquellos sujetos para los que la ecuación – con éste único término –
calcula una probabilidad < 0,5 se clasifican como Virus=0 (No tienen anticuerpos), mientras que si la
probabilidad resultante es ≥ 0,5 se clasifican como Virus=1 (tienen anticuerpos).
En este primer paso el modelo ha clasificado correctamente a un 52,1% de los casos, y ningún caso
de 'No hay virus' ha sido clasificado correctamente.
En este primer bloque, en la ecuación de regresión sólo aparece el parámetro estimado β0 = 0,084 ,
el error estándar E.T = 0,025 y la significación estadística con la prueba de Wald, que es un
estadístico que sigue una ley Chi‐cuadrado con 1 grado de libertad, y la estimación de la
OR = eβ0 = e0 ,084 = 1,088 .
Se observa como disminuye el (‐2LL) respecto al paso anterior (el modelo sólo con la constante tenía
un valor de este estadístico de 8729,445, mientras que ahora se reduce a 8711,623), y el proceso
termina con tres bucles.
Los coeficientes calculados son para la constante β0 = 0,120 , para la variable Zona, respectivamente,
los coeficientes de Z1, Z2 y Z3 (0,103 ; 0,093 ; 0,413), y para la variable RH el coeficiente 0,046.
El estadístico chi‐cuadrado para este contraste es la diferencia entre el valor de (‐2LL) para el modelo
sólo con la constante (‐2LL = 8729,445) y el valor (‐2LL) para el modelo actual (‐2LL = 8711,623), es
decir, el cociente o razón de verosimilitudes:
En general, la razón de verosimilitudes (RV) es útil, para determinar si hay una diferencia significativa
entre incluir en modelo todas las variables y no incluir ninguna, dicho de otro modo, RV sirve para
evaluar sí las variables tomadas en conjunto, contribuyen efectivamente a ‘explicar’ las
modificaciones que se producen en P(Y = 1).
La fila primera (PASO) es la correspondiente al cambio de verosimilitud (de ‐2LL) entre pasos
sucesivos en la construcción del modelo, contrastando la hipótesis nula H0 de que los
coeficientes de las variables añadidas en el último paso son cero.
La segunda fila (BLOQUE) es el cambio en ‐2LL entre bloques de entrada sucesivos durante la
construcción del modelo. Si como es habitual en la práctica se introducen las variables en un
solo bloque, la Chi‐Cuadrado del Bloque es el mismo que la Chi‐Cuadrado del Modelo.
Los coeficientes de determinación tienen valores muy pequeños, indicando que sólo el 0,3% o el
0,4% de la variación de la variable dependiente es explicada por las variables incluidas en el modelo,
y debe mejorar cuando se vayan incluyendo variables más explicativas del resultado o términos de
interacción.
– 2 logaritmo de la verosimilitud (–2LL) mide hasta qué punto un modelo se ajusta bien a los
datos. El resultado de esta medición recibe también el nombre de desviación. Cuanto más
pequeño sea el valor, mejor será el ajuste.
La prueba de Hosmer‐Lemeshow es otra prueba para evaluar la bondad del ajuste de un modelo de
regresión logística (RL).
Parte de la idea de que si el ajuste es bueno, un valor alto de la probabilidad predicha (p) se asociará
con el resultado 1 de la variable binomial dependiente, mientras que un valor bajo de p (próximo a
cero) corresponderá (en la mayoría de las ocasiones) con el resultado Y=0.
Para cada observación del conjunto de datos, se trata de calcular las probabilidades de la variable
dependiente que predice el modelo, ordenarlas, agruparlas y calcular, a partir de ellas, las
frecuencias esperadas, y compararlas con las observadas mediante una prueba chi‐cuadrado.
Sobre este razonamiento, una forma de evaluar la ecuación de regresión y el modelo obtenido
es construir una tabla 2×2 clasificando a todos los individuos de la muestra según la
concordancia de los valores observados con los predichos o estimados por el modelo, de
forma similar a como se evalúan las pruebas diagnósticas.
Una ecuación sin poder de clasificación alguno tendría una especificidad, sensibilidad y total de
clasificación correctas igual al 50% (por el simple azar). Un modelo puede considerarse aceptable si
tanto la especificidad como la sensibilidad tienen un nivel alto, de al menos el 75%.
Por último, SPSS ofrece las variables de la ecuación, los coeficientes de regresión con sus
correspondientes errores estándar (ET), el valor del estadístico de Wald para evaluar la hipótesis
nula ( pi = 0 ), la significación estadística asociada, y el valor de la OR= exp( βi ) con sus intervalos de
confianza.
Para estimar, mediante el modelo, la tasa de anticuerpos entre sujetos del ESTE (1‐Norte, 2‐Sur, 3‐
Este y 4‐Oeste) que tienen RH negativo, se tendría que sustituir en la ecuación los valores
(Z1 = 0, Z2 = 1, Z3 = 0, RH = 2)
P [anticuerpos] = 1
(− 0 ,120 + 0 ,093. 1 + 0 ,046 . 2)
= 0,937
1+e
RH(−1,3) 90
= = 0,573
RH(−1,3) + RH(−0 ,3) 90 + 67
Sin embargo, puesto que Zona ha de tratarse a través de las variables dummy (indicadoras), en este
caso crear la variable (Zona*RH) sería incorrecto. Para hacer el ajuste incorporando la interacción de
Zona y RH no se debe indicar a SPSS que maneje Zona a través de variables dummy, sino que deben
construirse las tres variables dummy previamente y luego los tres productos procedentes de éstas
con RH. La tabla de contingencia resultante sería:
El proceso de iteración se realiza para ocho coeficientes. Los coeficientes calculados son,
respectivamente, para la constante β0 = 0,074 , y para la variables Z1, Z2, Z3, RH, Z1_RH, Z2_RH,
Z3_RH.
El estadístico chi‐cuadrado para este contraste es la diferencia entre el valor de (‐2LL) para el modelo
sólo con la constante (‐2LL = 8729,445) y el valor (‐2LL) para el modelo actual (‐2LL = 8705,834), es
decir, el cociente o razón de verosimilitudes:
En general, la razón de verosimilitudes (RV) es útil, para determinar si hay una diferencia significativa
entre incluir en modelo todas las variables y no incluir ninguna, dicho de otro modo, RV sirve para
evaluar sí las variables tomadas en conjunto, contribuyen efectivamente a ‘explicar’ las
modificaciones que se producen en P(Y = 1).
Por último, SPSS ofrece las variables de la ecuación, los coeficientes de regresión con sus
correspondientes errores estándar (ET), el valor del estadístico de Wald para evaluar la hipótesis
nula ( pi = 0 ), la significación estadística asociada, y el valor de la OR= exp( βi ) con sus intervalos de
confianza.
P [anticuerpos] = 1
1 + e(− 0 ,074 + 0 ,034 Z1 − 1,548 Z2 − 0 ,216Z 3 + 0 ,016 Z1 _ RH + 0 ,646 Z2 _ RH + 0 ,075 Z 3 _ RH)
NOTA.‐ Las variables con un error estándar mayor que 1 no entrarían en el modelo sean o no
significativas, o las que tienen un OR muy grande o cercano a cero.
El OR= exp( βi ) es una medida estadística que cuantifica el riesgo que representa poseer el factor
correspondiente o no poseerlo, suponiendo que el resto de variables del modelo permanecen
constantes. Un odds‐ratio próximo a 1 (OR = eβi ) , es decir, un coeficiente βi cercano a cero, indicará
que cambios en la variable explicativa asociada no tendrán efecto alguno sobre la variable
dependiente. Para determinar si el OR es significativamente distinto de 1 se calcula su intervalo de
confianza [ OR < 1 es un factor protector, OR = 1 es un factor que no es protector ni de riesgo,
OR > 1 es un factor de riesgo]. Es significativo cuando su p_valor (Signatura) < 0,05
Las variables que entran en la ecuación son Z2, Z2_RH, sólo hay que analizar estas dos variables y se
inicia el procedimiento de nuevo con el Método Introducir.
SPSS ofrece las variables que dejará en la ecuación, sus coeficientes de regresión con sus
correspondientes errores estándar, el valor del estadístico de Wald para evaluar la hipótesis nula
(Pi=0), la significación estadística asociada, y el valor de la OR (exp(B)) con sus intervalos de
confianza.
En el paso 4 habían entrado las variables (Z2, Z3, Z2_RH, Z3_RH), en el paso 5 queda eliminada
la variable Z3_RH porque tiene el mayor OR próximo a cero, el intervalo de confianza del OR
cubre el 1 (no tiene efecto alguno sobre la variable dependiente).
En el paso 5 habían entrado las variables (Z2, Z3, Z2_RH), en el paso 6 queda eliminada la
variable Z3 porque el intervalo de confianza del OR cubre el 1, en consecuencia, no tiene efecto
alguno sobre la variable dependiente.
Las variables que entran en la ecuación son Z2, Z2_RH, sólo hay que analizar estas dos variables y se
inicia el procedimiento de nuevo con el Método Introducir.
Infección
Atención Sí (1) No (0)
Estudio (1) 7 37 7.22
OR = = 0,279
14 . 37
Establecida (0) 14 22
Si se considera la variable edad del paciente (< 40 años, ≥40 años), se introduce una variable de
confusión en la relación que pudiera existir en la relación (atención ‐ desarrollar infección).
Infección
Atención Sí (1) No (0)
Estudio (1) 2 22 2. 9
Edad < 40 (1) OR1 = = 0,41
Establecida (0) 2 9 2 . 22
La asociación entre la atención y la infección puede ser omitida o falsamente detectada en caso de
que exista un factor de confusión. Un factor de confusión es el que se asocia con la atención de
enfermería y la infección de los pacientes.
Se calcula el OR de la atención
establecida respecto a la atención
nueva.
El OR es 0,297 y su intervalo de
confianza no contiene la unidad,
por lo tanto es un OR significativo.
Como única medida de la asociación entre la atención y la infección, se calcula el odds‐ratio dentro
de cada categoría o estrato formado por los dos grupos de edad (menores de 40 y mayores de 40).
Una medida única global se obtiene como un promedio ponderado de los odds‐ratio dentro de los
estratos (odds‐ratio de Mantel‐Haenszel).
Si la Signatura asintótica hubiera sido menor que 0,05 no se podría haber aplicado Mantel‐Haenszel,
teniendo que aplicar otro método (regresión logística).
P [Infección = 1] = 1
( 1,078 + 1,364 . Edad − 0 ,985. Atención)
1+e
En este sentido, se procede a volver hacer de nuevo una regresión logística binaria, quitando la
variable de confusión, con la variable dependiente (Infección) y la variable independiente Atención.
Se elige el Método Introducir.
La variable Atención, sin introducido la variable de confusión Edad, tiene un intervalo de confianza
que no cubre el 1, por lo que es significativa sobre la variable respuesta (Infección).
Al introducir los datos en una tabla de contingencia de 4 entradas, ponderando las respectivas
frecuencias, se tendrán ([Link] = 24 configuraciones).
Satisfecho
La variable Nacionalidad de tipo nominal tiene más de dos categorías, es razonable plantear que sea
manejada como una variable dummy.
Debe recordarse que el conjunto de variables dummy constituye un todo indisoluble con el cual se
suple a una variable nominal. Cualquier decisión que se adopte o valoración que se haga concierne al
conjunto íntegro.
Para una alumna colombiana de primaria, los valores de las variables son: Género=2,
Nacionalidad (Z1=0, Z2=1), Estudios=2:
P [ Insatisfacción] = 1 = 0,745
1 + e( 0 ,777 − 1,619 . 1 − 0 ,129 . 2 + 0 ,013. 2 )
Para un alumno rumano de primaria, los valores de las variables son: Género=1, Nacionalidad
(Z1=1, Z2=0), Estudios=2:
P [ Insatisfacción] = 1
( 0 ,777 + 0 ,061. 1 − 0 ,129 . 1 + 0 ,013. 2 )
= 0,324
1+e
Para una alumna española de primaria, los valores de las variables son: Género=2, Nacionalidad
(Z1=0, Z2=0), Estudios=2:
P [ Insatisfacción] = 1
( 0 ,777 − 0 ,129 . 2 + 0 ,013. 2 )
= 0,367
1+e
Adviértase que en las variables de la ecuación, por el Método Introducir (entran todas las
variables en el análisis), no se ha analizado el intervalo de confianza (IC) de los coeficientes.
De haberlo hecho, los coeficientes de las variables (Z1, Género y Estudios), respectivamente, tienen
un intervalo de confianza que cubre el 1, es decir, hay un riesgo de 1, por lo que debían salir estas
variables de la ecuación y volver a realizar el análisis.
En el caso de haber utilizado el Método Adelante RV (método automático por pasos, hacia delante,
que utiliza la prueba de la Razón de Verosimilitud para comprobar las covariables a incluir o excluir),
éstas variables hubieran salido de la ecuación: