0% encontró este documento útil (0 votos)
197 vistas85 páginas

Guadalupe Santos Sanchez

Este documento presenta la tesis de Guadalupe Santos Sánchez para obtener el título de Licenciada en Matemáticas Aplicadas de la Benemérita Universidad Autónoma de Puebla. La tesis evalúa la validez y confiabilidad del cuestionario SF-36 para medir la calidad de vida en mujeres con Lupus. El documento incluye agradecimientos, introducción, índice general y tres capítulos que cubren los conceptos de confiabilidad y validez, análisis factorial y la validación y confiabilidad
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
197 vistas85 páginas

Guadalupe Santos Sanchez

Este documento presenta la tesis de Guadalupe Santos Sánchez para obtener el título de Licenciada en Matemáticas Aplicadas de la Benemérita Universidad Autónoma de Puebla. La tesis evalúa la validez y confiabilidad del cuestionario SF-36 para medir la calidad de vida en mujeres con Lupus. El documento incluye agradecimientos, introducción, índice general y tres capítulos que cubren los conceptos de confiabilidad y validez, análisis factorial y la validación y confiabilidad
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA

FACULTAD DE CIENCIAS FÍSICO MATEMÁTICAS

Validez y confiabilidad del cuestionario de


calidad de vida SF-36 en mujeres con
LUPUS, Puebla

TESIS

PARA OBTENER EL TÍTULO DE


Lic. en Matemáticas Aplicadas

PRESENTA
Guadalupe Santos Sánchez

DIRECTORES DE TESIS
Dra. Gladys Linares Fleites
Dra. Hortensia Josefina Reyes Cervantes

PUEBLA, PUE. ENERO 2017


Gracias a esas personas importantes en mi vida, que siempre estuvieron
listas para brindarme toda su ayuda, ahora me toca regresar un poquito de
todo lo inmenso que me han otorgado. Con todo mi cariño está tesis se las
dedico a ustedes:
Papá: José Edmundo Santos Sánchez
Mamá: Basilia Sánchez Alcalá
Hermanos: Eladia, Filiberto, Juan, Balbina, José Alberto, Seferino,
Marcelo, Marı́a Julia, Marı́a del Roció.
Novio: Antonio Pérez González

I
Agradecimientos

Le agradezco a dios por haberme acompañado y guiado a lo largo de mi


carrera, por ser mi fortaleza en los momentos de debilidad y por brindarme
una vida llena de aprendizajes, experiencias y sobre todo felicidad.

Le doy gracias a mis padres por apoyarme en todo momento, gracias a


sus consejos y palabras de aliento me han ayudado a crecer como persona y a
luchar por lo que quiero, por los valores que me han inculcado y por confiar
en mı́.

A mis hermanos: Gracias por su apoyo, cariño y por estar en los momen-
tos más importantes de mi vida. Este logro también es de ustedes.

A mi novio: La ayuda que me has brindado ha sido sumamente importan-


te, estuviste a mi lado inclusive en los momentos y situaciones más tormen-
tosas, siempre ayudándome. No fue sencillo culminar con éxito este proyecto,
sin embargo siempre fuiste muy motivador y esperanzador, me decı́as que lo
lograrı́a perfectamente. Me ayudaste hasta donde te era posible, incluso más
que eso. Muchas gracias, Moris.

A mis directores de tesis: Gladys Linares Fleites y Hortensia Josefina Re-


yes Cervantes por darme la oportunidad de realizar esta tesis, muchas gracias
por la orientación, el seguimiento y la supervisión de la misma, pero sobre
todo por la motivación y el apoyo recibido a lo largo de estos años.

A los investigadores del área de la salud de la Benemérita Universidad


Autónoma de Puebla. En especial, a la Dra. Socorro Méndez Martı́nez por
todo el apoyo y la facilidad que me fue otorgada, como hacer uso de los datos,
para determinar la confiabilidad y validez del cuestionario SF-36.

¡Muchas gracias a todos!

II
Introducción

El interés fundamental de esta tesis es comprender y desarrollar la infor-


mación propuesta en la literatura sobre las técnicas estadı́sticas relacionadas
con la confiabilidad y validez de instrumentos de medición.
Antes de entrar propiamente en el tema, podrı́amos decir que un cuestio-
nario (constructo, escala, subescala, etc.) es un instrumento utilizado para
la recolección de información. La problemática, al momento de la recolec-
ción de datos en ciertas áreas de investigación donde la medición no puede
hacerse directamente, se centra en la construcción de los instrumentos a em-
plear con esta finalidad, de manera que permitan recabar información válida
y confiable.
La confiabilidad consiste en determinar hasta donde las respuestas de un
instrumento de medición aplicado a un conjunto de individuos, son estables
independientemente del individuo que lo aplique y el tiempo en el que es
aplicado. La validez es el grado en el que el instrumento mide lo que queremos
medir y el modelo factorial suele proponerse como uno de los métodos de
validación de constructo por lo que profundizamos en el mismo: la aplicación
de estos conceptos se realiza con el apoyo del instrumento SF-36 que mide la
Calidad de Vida Relacionada con la Salud.
El concepto de ((calidad de vida)) se introduce como un criterio más a
considerar cuando se define el estado de salud de una persona. Debido a que
la calidad de vida se basa en mediciones con una carga variable de subjetivi-
dad, se requieren métodos de evaluación válidos, reproducibles y confiables.
El mejor conocimiento de las evaluaciones para medir la calidad de vida per-
mitirá incorporar estos instrumentos en la evaluación integral de individuos,
en la conducción de ensayos clı́nicos y en la investigación de servicios de
salud.
Los principales objetivos que se persiguen en esta tesis son los siguientes:
1.- Investigar los conceptos de confiabiliadad y validez de constructo, ası́
como, los procedimientos para estimarlos.
2.- Analizar el análisis factorial exploratorio y el análisis factorial con-
firmatorio como técnicas fundamentales de la validez de instrumentos de

III
IV Introducción

medición.
3.- Determinar la confiabilidad y validez del cuestionario SF-36 mediante
el uso del software R-Commander (de distribución libre).

La tesis está estructurada en tres capı́tulos. El primero se refiere a los con-


ceptos de confiabilidad y validez de instrumentos de medición. En el segundo
se desarrolla el análisis factorial en sus dos modalidades: el exploratorio y
confirmatorio. En el tercer capı́tulo se desarrolla el proceso de validación y
confiabilidad del cuestionario de calidad de vida SF-36. Finalmente, se pre-
sentan las conclusiones y la bibliografı́a utilizada.
Índice general

Agradecimientos II

Introducción III

Lista de figuras VII

Lista de tablas IX

1. Confiabilidad y validez 1
1.1. Confiabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1. Procedimientos para estimar la confiabilidad . . . . . 2
[Link]. El modelo clásico de la confiabilidad . . . . . 2
[Link]. Confiabilidad de consistencia interna . . . . . 5
1.1.2. Interpretación del coeficiente de confiabilidad . . . . . 7
1.2. Validez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Conceptos preliminares básicos . . . . . . . . . . . . . 9
1.2.2. Procedimientos para estimar la validez . . . . . . . . . 10
[Link]. Validez de Constructo . . . . . . . . . . . . . 10
1.2.3. Importancia de la validez . . . . . . . . . . . . . . . . 11

2. Análisis Factorial 12
2.1. Conceptos preliminares básicos . . . . . . . . . . . . . . . . . 12
2.2. El modelo del análisis factorial . . . . . . . . . . . . . . . . . . 13
2.3. Análisis Factorial Exploratorio (AFE) . . . . . . . . . . . . . . 18
2.3.1. Pertinencias del Análisis Factorial Exploratorio . . . . 18
2.3.2. Métodos de estimación para la obtención de factores . 20
[Link]. Componentes Principales . . . . . . . . . . . 20
[Link]. Máxima verosimilitud . . . . . . . . . . . . . 22
2.3.3. Rotación de factores . . . . . . . . . . . . . . . . . . . 24
[Link]. Rotaciones ortogonales . . . . . . . . . . . . . 25
2.4. Análisis Factorial Confirmatorio (AFC) . . . . . . . . . . . . . 28

V
VI ÍNDICE GENERAL

2.4.1. El modelo del Análisis Factorial Confirmatorio . . . . . 29


2.4.2. El Análisis Confirmatorio frente al Exploratorio . . . . 30
2.4.3. Fases del Análisis Factorial Confirmatorio . . . . . . . 32
[Link]. Especificación del modelo . . . . . . . . . . . 32
[Link]. Identificación del modelo . . . . . . . . . . . . 34
[Link]. Estimación de parámetros . . . . . . . . . . . 38
[Link]. Evaluación del ajuste del modelo . . . . . . . 41
2.4.4. Interpretación del modelo . . . . . . . . . . . . . . . . 46

3. Validación y confiabilidad del cuestionario SF-36 48


3.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . 48
3.1.1. Instrumento de medición . . . . . . . . . . . . . . . . 49
3.2. Análisis de la validez del cuestionario SF-36 . . . . . . . . . . 51
3.2.1. Análisis preliminares . . . . . . . . . . . . . . . . . . . 51
3.2.2. Análisis Factorial Exploratorio . . . . . . . . . . . . . 52
3.2.3. Análisis Factorial Confirmatorio . . . . . . . . . . . . 59
3.3. Análisis de la confiabilidad del cuestionario SF-36 . . . . . . . 60
3.4. Discusión de los resultados . . . . . . . . . . . . . . . . . . . 61

Conclusiones Generales 62

A. Confiabilidad y validez con R-Commander 63

B. Instrumento 66

Bibliografı́a 71
Índice de figuras

2.1. Diferencias entre el diagrama de flujos de los modelos de Análi-


sis Factorial Confirmatorio y Análisis Factorial Exploratorio
con 6 variables y 2 factores. . . . . . . . . . . . . . . . . . . . 30

3.1. Gráfico de sedimentación. . . . . . . . . . . . . . . . . . . . . 54

A.1. Formatos de ficheros importables en R. . . . . . . . . . . . . 63


A.2. Análisis Factorial con R-Commander. . . . . . . . . . . . . . 64
A.3. Menú para el Análisis Factorial. . . . . . . . . . . . . . . . . 65

VII
VIII ÍNDICE DE FIGURAS
Índice de cuadros

1.1. Interpretación de la magnitud del coeficiente de confiabilidad


de un instrumento. Fuente: Ruı́z Bolivar (2002). . . . . . . . . 7

2.1. Diferencias entre el Análisis Factorial Confirmatorio y Explo-


ratorio. Fuente: Lévy & Varela . . . . . . . . . . . . . . . . . . 31

3.1. Escalas del instrumento SF-36. . . . . . . . . . . . . . . . . . . 50


3.2. KMO y prueba de esferecidad de Bartlett. . . . . . . . . . . . 51
3.3. Componentes principales. . . . . . . . . . . . . . . . . . . . . 52
3.4. Varianza total explicada. . . . . . . . . . . . . . . . . . . . . 53
3.5. Resultados del modelo monofactorial. . . . . . . . . . . . . . 55
3.6. Matriz de saturaciones, ı́tems agrupados por nueve factores. . 56
3.7. Matriz de saturaciones, ı́tems agrupados por ocho factores. . . 57
3.8. Índices bondad de ajuste del modelo monofactorial. . . . . . . 59
3.9. Índices de bondad de ajuste del modelo de ocho factores. . . . 60
3.10. Coeficiente alfa de Cronbach. . . . . . . . . . . . . . . . . . . 60

IX
Capı́tulo 1

Confiabilidad y validez

Frecuentemente los investigadores necesitan tener seguridad que el ins-


trumento que utilizan para extraer cierta información de cualquier fenómeno
mida lo que realmente quieren medir y que sea coherente, para esto todo
instrumento de medición debe tener dos importantes caracterı́sticas que son
la confiabilidad y validez. La confiabilidad nos indica el grado en el que la
aplicación repetida del instrumento al mismo sujeto, produzca los mismos
resultados y la validez se refiere al grado en el que un instrumento mide lo
que se supone que debe medir. Por esta razón es muy importante que el
investigador deba averiguar u obtener la confiabilidad y validez del instru-
mento utilizado en su estudio, ya que si los datos obtenidos no son confiables
y válidos, lo resultados merecen poco interés [3] y [16].

El concepto de confiabilidad es distinto del concepto de la validez. En


el sentido más usual del término (no el único), un instrumento es válido si
comprueba o mide aquello que pretendemos medir. Un instrumento puede
ser válido, porque mide lo que decimos que mide y queremos medir, pero lo
puede medir con un margen de error grande; con instrumentos parecidos o
en mediciones sucesivas hubiéramos obtenido resultados distintos. También
puede haber una confiabilidad alta (los sujetos están clasificados, ordenados,
con poco margen de error) y a la vez el instrumento puede carecer de validez,
porque no mide lo que se pretende o lo que se dice que se está midiendo, [24].

La confiabilidad y la validez de un instrumento no son cualidades comple-


tamente independientes. Un instrumento de medición que no sea confiable
no puede ser válido, pues si es errático, incongruente e inexacto tampoco
medirá con validez el atributo en cuestión. Sin embargo, un instrumento de
medición puede ser confiable y no obstante carecer de validez; más aún, un
alto grado de confiabilidad no comprueba la validez de un instrumento para

1
2 CAPÍTULO 1. CONFIABILIDAD Y VALIDEZ

determinado propósito, [32].

1.1. Confiabilidad
En este capı́tulo se estudian los conceptos preliminares básicos de la con-
fiabilidad y se mencionan los procedimientos para su estimación. La con-
fiabilidad, también denominada precisión, corresponde al grado con que los
puntajes de una medición se encuentran libres de error de medida. Es decir,
al repetir la medición en condiciones constantes estas deberı́an ser similares.
Este concepto se relaciona con la estabilidad del instrumento en sı́ mismo,
independiente del individuo quien lo aplique (observador) y del momento en
que es aplicado (tiempo). En principio la confiabilidad expresa el grado de
precisión de la medida, una manera de verificar la precisión es medir lo mis-
mo varias veces, o varios observadores independientes miden lo mismo para
obtener una media que se estima más precisa que lo que un único observador
ha estimado. Otro concepto que nos ayuda a comprender qué entendemos
por confiabilidad es el de consistencia o predictibilidad, [24].
Otra manera de aproximarse al concepto de confiabilidad es preguntar-
se: ¿Hasta dónde los resultados obtenidos con un instrumento de medición
constituyen la medida “verdadera” de la propiedad que se pretende medir?
Todavı́a existe otra posibilidad de cómo podemos enfocar la confiabilidad de
un instrumento de medición; ella responde a la siguiente cuestión: ¿cuánto
error está implı́cito en la medición de un instrumento? Se entiende que un
instrumento es menos confiable en la medida que hay un mayor margen de
error implı́cito en la medición. De acuerdo con esto, la confiabilidad puede
ser definida como la ausencia relativa de error de medición en el instrumen-
to, [29].
Finalmente, lo que nos va a decir un coeficiente de confiabilidad es si el ins-
trumento diferencia adecuadamente a los sujetos en aquello que mide el test o
escala. Con un test o escala pretendemos diferenciar a los sujetos; establecer
quién tiene más o menos del rasgo que medimos.

1.1.1. Procedimientos para estimar la confiabilidad


[Link]. El modelo clásico de la confiabilidad
En la teorı́a clásica de los test se supone que la puntuación observada
de una persona en una prueba está compuesta por una puntuación verdade-
ra más algún error no sistemático de medición. La puntuación verdadera se
define como la puntuación obtenida por un individuo si todas las condicio-
nes, tanto internas como externas, estuvieran controladas y el instrumento
1.1. CONFIABILIDAD 3

de medición fuera “perfecto”. Pero, esta condición es sólo hipotética, ya que


como sabemos en toda medición hay un error de medición implı́cito. El error
se refiere al aumento o disminución de la medición, como resultado de dife-
rentes factores que determinan el error de medición; éstos dependen, algunas
veces, de una validación inadecuada del instrumento de medida y otras, de
las condiciones externas bajo las cuales se realiza la medición, [29].
La puntuación verdadera de una persona en una prueba particular se define
como el promedio de las puntuaciones que obtendrá si presentara la prue-
ba un número infinito de veces, por este motivo la puntuación verdadera de
una persona no puede medirse exactamente, ası́ que tiene que ser estimada
a partir de su puntuación observada en la prueba.
Por consecuencia, la puntuación observada puede ser expresada en los
términos del modelo siguiente:

xt = x v + xe . (1.1.1)

En donde:
xt = Puntuación observada, puntuación total de un individuo,
xv = Puntuación verdadera, que representa lo que un individuo realmente
sabe o siente (depende de lo que se esté preguntando o midiendo),
xe = Puntuación debida a errores de medición, que puede tener signo más
o signo menos [24] y [29].

La Teorı́a Clásica de los Test (TCT) opta por describir más detalladamen-
te el componente de error a partir de la inclusión de algunos supuestos sobre
su comportamiento a lo largo de un conjunto de mediciones en una pobla-
ción según (Gulliksen, 1950; Lord & Novick, 1968; Nunnally, 1987; Thorndike,
1989,1996; Muñiz, 1996; Martı́nez, 1996; Herrera et al., 2000). Citados en [6].
Estos son los siguientes:
a) El valor esperado del error aleatorio es igual a cero.
b) El error se distribuye normalmente con media cero y varianza s2e .
c) El error aleatorio de medición en una prueba no se encuentra correlacio-
nado con la puntuación verdadera en la prueba, con el error de medición en
otra prueba ni con la puntuación verdadera en otra prueba.
d) Las varianzas de las puntuaciones observadas, las puntuaciones verdaderas
y del error son finitas y mayores que cero.

La varianza cuantifica todo lo que hay de diferencia entre los sujetos. La


fórmula básica de la confiabilidad parte del hecho de que la varianza de las
puntuaciones totales de un test podemos descomponerla de la siguiente ma-
nera:
4 CAPÍTULO 1. CONFIABILIDAD Y VALIDEZ

s2t = s2v + s2e . (1.1.2)

En donde:

s2t = Varianza total, expresa todo lo que hay de diferente en las pun-
tuaciones totales; unos sujetos tienen puntuaciones totales más altas, otras
más bajas, etc, la varianza será mayor si los sujetos difieren mucho entre sı́.
Si lo que pretendemos con un instrumento de medida es clasificar, detectar
diferencias, una varianza grande estará asociada en principio a una mayor
confiabilidad.

s2v =Varianza verdadera, expresa todo lo que hay de diferente debido a


que los sujetos son distintos en lo que pretendemos medir, o dicho de otra
manera, expresa todo lo que hay de diferente debido a lo que los ı́tems tie-
nen en común, de relación, y que es precisamente lo que queremos medir. El
término verdadero no hay que entenderlo en un sentido cuasi filosófico, aquı́
la varianza verdadera es la que se debe a respuestas coherentes (o respues-
tas relacionadas), y esta coherencia (o relación verificada) en las respuestas
suponemos que se debe a que los ı́tems miden lo mismo.

s2e = Varianza debida a errores de medición, o debida a que los ı́tems mi-
den en parte cosas distintas, a lo que no tienen en común. Puede haber otras
fuentes de error (respuestas descuidadas, falta de motivación al responder,
etc.), pero la fuente de error que controlamos es la debida a falta de relación
entre los ı́tems, que pueden medir cosas distintas o no muy relacionadas. El
error aquı́ viene a ser igual a incoherencia en las respuestas, cualquiera que
sea su origen (incoherencia serı́a aquı́ responder no cuando se ha respondido
sı́ a un ı́tem de formulación supuestamente equivalente) [24] y [29].

La confiabilidad enfocada desde el punto de vista de la teorı́a del error de


medición, nos llevarı́a a establecer una relación inversa con respecto a la con-
fiabilidad, en los términos siguientes: a mayor error implı́cito en la medición,
menor confiabilidad; mientras que a menor error, mayor confiabilidad. En
términos prácticos, esto significa que si podemos estimar la varianza de error
de una medida, también podemos estimar su confiabilidad. Todo lo cual nos
lleva a que la confiabilidad puede ser vista como la proporción de la varianza
“verdadera” con respecto a la varianza total:
1.1. CONFIABILIDAD 5

s2v
rtt = (1.1.3)
s2t
En términos verbales, la ecuación (1.1.3) se expresa como:

Varianza debida a lo coherente en las respuestas


Confiabilidad = Varianza debida a lo coherente y no coherente en las repuestas

En la varianza total influye tanto lo que se responde de manera coherente


o relacionada, como lo que hay de incoherente o inconsistente (por la causa
que sea), la confiabilidad expresa la proporción de consistencia o coherencia
empı́rica. La confiabilidad de una prueba equivale a la razón entre la varianza
de las puntuaciones verdaderas y la varianza de los puntajes totales, y en esta
medida expresa la proporción de la varianza total en un grupo de puntajes
que corresponde o puede ser atribuida a las variaciones entre las puntuaciones
libres de error. Esta noción puede observarse en la siguiente ecuación que se
deduce de las fórmulas (1.1.2) y (1.1.3) [6],

s2e
rtt = 1 −
s2t
Existen varias maneras para estimar la confiabilidad de una medida, las
más conocidas son: (a) confiabilidad de reaplicación (test-retest); (b) confia-
bilidad de versiones equivalentes (pruebas paralelas) y (c) confiabilidad de
consistencia interna.
Acontinuación nos referiremos a esta última.

[Link]. Confiabilidad de consistencia interna


Este tipo de confiabilidad permite determinar el grado en que los ı́tems
de una prueba están correlacionados entre sı́. La confiabilidad de consistencia
interna, pone énfasis en las puntuaciones de los sujetos y no en el conteni-
do o el formato de los reactivos. Por lo tanto, si los ı́tems del instrumento
correlacionan positivamente entre sı́, éste será homogéneo, independiente-
mente del tipo de contenido que se haya utilizado. Por el contrario, la prueba
será heterogénea si los reactivos no tienen una correlación positiva entre sı́,
aun cuando aparentemente estén midiendo el mismo rasgo. Como se puede
comprender, la distinción entre lo homogéneo y lo heterogéneo no es una di-
cotomı́a, sino un continuo. Por otra parte, la homogeneidad está relacionada
con la caracterı́stica de unidimensionalidad de una prueba, la cual indica que
el instrumento mide una sola variable (un rasgo) en lugar de una combina-
ción de ellas. Si una prueba es homogénea, podemos suponer que todos los
6 CAPÍTULO 1. CONFIABILIDAD Y VALIDEZ

ı́tems miden una caracterı́stica común, [29].

Existen diferentes procedimientos para estimar la confiabilidad de con-


sistencia interna. Algunos de los más conocidos son los siguientes: (a) Dos
mitades, corregido por la fórmula de Spearman-Brown; (b) Kuder-Richardson
y (c) Alpha de Cronbach, [29].
A continuación nos referiremos a este último.

Coeficiente Alfa de Cronbach (α)

El coeficiente α fue propuesto en 1951 por Cronbach como un estadı́stico


para estimar la confiabilidad de una prueba, o de cualquier compuesto obte-
nido a partir de la suma de varias mediciones. Para evaluar la confiabilidad
o la homogeneidad de las preguntas o ı́tems, es común emplear el coeficiente
Alfa de Cronbach cuando se trata de alternativas de respuestas policotómicas,
como las escalas tipo Likert; la cual puede tomar valores entre 0 y 1, donde:
0 significa confiabilidad nula y 1 representa confiabilidad total [7] y [24].
El coeficiente α de Cronbach puede ser calculado por medio de dos formas:
1.- Mediante la varianza de los ı́tems y la varianza del puntaje total, [7],
[16] y [25].
P 2
k Si
α= [1 − ], (1.1.4)
k−1 St2

Donde:
α: Coeficiente de confiabilidad de la prueba o cuestionario.
k: Número de ı́tems del instrumento.
2
S
Pt : Es la Varianza total del instrumento.
2
Si : Es la Suma de la varianza individual de los ı́tems, i = 1, ..., k

2.- Mediante la matriz de correlación de los ı́tems.

k p̄
α= . (1.1.5)
1 + p̄(k − 1)

Donde
k: Número de ı́tems.
p̄: Promedio de las correlaciones lineales entre cada uno de los ı́tems, [7] y [24].
1.1. CONFIABILIDAD 7

1.1.2. Interpretación del coeficiente de confiabilidad


El coeficiente de confiabilidad es un coeficiente de correlación, teórica-
mente significa correlación del test consigo mismo, [7] y [29].
Sus valores oscilan entre cero (0) y uno (1.00). Una manera práctica de inter-
pretar la magnitud de un coeficiente de confiabilidad puede ser guiada por
la escala mostrada en el Cuadro 1.1.

Cuadro 1.1: Interpretación de la magnitud del coeficiente de confiabilidad de


un instrumento. Fuente: Ruı́z Bolivar (2002).

No hay normas para determinar que coeficiente de confiabilidad resulta


aceptable, algunas valoraciones pueden encontrarse en libros de texto y por
diversos autores, pero son sólo orientadoras. En la práctica cada coeficiente
hay que valorarlo en su situación: tipo de instrumento (define un rasgo muy
simple o muy complejo), tipo de muestra (homogénea o heterogénea) y uso
pretendido del instrumento (mera investigación sobre grupos o toma de de-
cisiones sobre sujetos) [24].
Los valores del coeficiente de confiabilidad oscilan entre 0 y 1, pero ocasio-
nalmente podemos encontrar valores negativos, simplemente porque no se
cumplen en un grado apreciable las condiciones de estos modelos; en este
caso (valor negativo) podemos interpretar este coeficiente como cero, [24].

El coeficiente de confiabilidad puede interpretarse de la siguiente manera:

1. Expresa la proporción de varianza debida a lo que los ı́tems tienen de


relacionado, un coeficiente de .70 indica que el 70 % de la varianza (diferen-
cias en los totales) se debe a lo que los ı́tems tienen en común (de coherencia
en las respuestas), y un 30 % de la varianza se debe a errores de medición o
a lo que de hecho tienen los ı́tems de no relacionado. De esta interpretación
podemos decir que es una interpretación literal, que se desprende directa-
mente de la fórmula (Suma de covarianzas/Varianza total).
8 CAPÍTULO 1. CONFIABILIDAD Y VALIDEZ

2. Es una estimación del coeficiente de correlación que podemos esperar


con un test similar, con el mismo número y tipo de ı́tems. Esta interpreta-
ción se deriva directamente del modelo teórico propuesto por Cronbach. De
un universo o población de posibles ı́tems hemos escogido una muestra de
ı́tems que es la que conforma nuestro instrumento. Si la confiabilidad es alta,
con otra muestra de ı́tems de la misma población de ı́tems obtendrı́amos unos
resultados semejantes (los sujetos quedarı́an ordenados de manera similar).

3. El coeficiente de confiabilidad nos dice, si un test discrimina adecua-


damente, si clasifica bien a los sujetos, si detecta bien las diferencias que
existen entre los sujetos de una muestra. Diferencias ¿En qué? En aquello
que es común a todos los ı́tems y que es lo que pretendemos medir. Es más,
sin diferencias entre los sujetos no puede haber un coeficiente de confiabilidad
alto. La confiabilidad es una caracterı́stica positiva siempre que interese de-
tectar diferencias que suponemos que existen. Esto sucede cuando medimos
rasgos de personalidad, actitudes, etc. medir es, de alguna manera, establecer
diferencias.

4. Índice de precisión. Hemos visto que el coeficiente de confiabilidad ex-


presa una proporción, la proporción de varianza verdadera o varianza debida
a lo que los ı́tems tienen en común. También sabemos que un coeficiente de
correlación elevado al cuadrado expresa una proporción (la proporción de
varianza compartida por dos variables). Es decir que la raı́z cuadrada de una
proporción equivale a un coeficiente de correlación. En este caso la raı́z cua-
drada de un coeficiente de confiabilidad equivale al coeficiente de correlación
entre las puntuaciones obtenidas (con nuestro instrumento) y las puntua-
ciones verdaderas (obtenidas con un test ideal que midiera lo mismo). Este
coeficiente se denomina ı́ndice de precisión [24].

Finalmente la interpretación del coeficiente de confiabilidad se comple-


menta con el cálculo y uso del error tı́pico o margen de error; es la oscilación
probable de las puntuaciones si los sujetos hubieran respondido a una serie de
tests paralelos; a mayor confiabilidad (a mayor precisión) bajará la magnitud
del error probable [24].

1.2. Validez
En el tema anterior, nos enfocamos en determinar hasta donde las res-
puestas de un instrumento de medición aplicado a un conjunto de individuos,
son estables independientemente del individuo que lo aplique y el tiempo en
1.2. VALIDEZ 9

el que es aplicado. Ası́ como también analizamos los diferentes procedimien-


tos para estimar la confiabilidad. A continuación, nos interesa estudiar si el
instrumento de medición es válido, esto se refiere a verificar si el instrumento
de medición mide lo que realmente queremos medir, para esto empezamos con
los conceptos preliminares básicos de validez, después con los procedimientos
para estimar, y finalmente la importancia de la validez.

1.2.1. Conceptos preliminares básicos


Tradicionalmente la validez de un cuestionario, se habı́a presentado como
la cualidad del instrumento para medir los rasgos o caracterı́sticas que se
pretenden medir. Por medio de la validación se trata de determinar si real-
mente el cuestionario mide aquello para lo que fue creado. Últimamente, el
concepto de validez se ha modificado considerablemente. Cronbach en 1971
señalaba que la validación es el proceso por medio del cual el investigador
que desarrolla cuestionarios obtiene evidencia para sustentar sus inferencias.
Este proceso de validación requiere un estudio empı́rico dirigido a recolectar
la evidencia requerida. La validez se ve como una evaluación -más que una
caracterı́stica- de cuán apropiadas y adecuadas son las interpretaciones y los
usos que se hacen de los resultados del cuestionario.
La validez de un instrumento tiene que ver con las preguntas siguien-
tes: ¿qué miden los puntajes del test? y ¿qué predicen dichas puntuaciones?
(Guilford, 1954; Nunnally, 1967; Anastasi, 1976; Magnusson, 1982) [26].

La validez no es una propiedad del cuestionario; aunque, por costumbre,


se sigue hablando de la validez del cuestionario. La validez es una cuestión
de grado. No existe en términos absolutos. No se puede decir que el cuestio-
nario es válido o inválido. Aumenta o disminuye dependiendo de la calidad
de la evidencia que la sustenta. Nuevas evidencias pueden incrementarla o
reducirla.
Hoy dı́a la validación de una inferencia se presenta como el proceso de
determinar si la teorı́a y las evidencias empı́ricas respaldan esta inferencia.
La validez se refiere siempre a un tipo de uso o interpretación especı́fico. No
se puede hablar de la validez de un cuestionario sea cual fuere su uso. A veces
los usos son muy próximos, pero aun ası́ hay diferencias. La validez es un
concepto unitario. No se puede hablar de diferentes tipos de validez (conte-
nido, constructo, criterio). Se habla más bien de un concepto –validez- y de
diversos tipos de evidencia. Sin embargo, en la literatura es común encontrar
el término: tipos de validez, para referirse a los diferentes procedimientos
para estimar la validez [22].
10 CAPÍTULO 1. CONFIABILIDAD Y VALIDEZ

1.2.2. Procedimientos para estimar la validez


La validez ası́ como la confiabilidad de un instrumento, comprende dife-
rentes aspectos y técnicas de evaluación. Cuando investigamos la validez en
un instrumento determinado, intentamos responder tres tipos de cuestiones,
que aluden a igual número de tipos de validez. Estas cuestiones son:
1. ¿Cuán representativo es el comportamiento elegido como muestra del
universo que se intenta representar? (validez de contenido).
2. ¿Qué significado tiene el comportamiento con respecto a los atributos
del individuo que son de interés para la medición? (validez de constructo).
3. ¿Hasta dónde se puede predecir el rendimiento del sujeto o su apren-
dizaje en un programa de entrenamiento (o hasta dónde se puede anticipar
su nivel de desempeño en el trabajo), a partir de su ejecución en la prueba?
(validez predictiva).
A continuación solo nos referiremos a la validez de constructo [30].

[Link]. Validez de Constructo


La validez de constructo intenta responder la pregunta ¿hasta dónde un
instrumento mide realmente un determinado rasgo latente o una caracterı́sti-
ca de las personas y con cuánta eficiencia lo hace? Esta pregunta tiene sentido,
particularmente en los instrumentos que se utilizan en la investigación psico-
educativa, en este campo se hacen mediciones indirectas de ciertas variables
internas del individuo que denominamos constructos, [3] y [7].
En consecuencia, es necesario que podamos mostrar evidencia de que, efec-
tivamente, el instrumento mide el rasgo que pretende medir [30].
Cronbach (1960) ha sugerido los pasos siguientes para establecer la va-
lidez de constructo: (a) identificar las construcciones que pudieran explicar
la ejecución en el instrumento; (b) formulación de hipótesis comprobables a
partir de la teorı́a que enmarca a cada construcción; y (c) recopilación de
datos para probar estas hipótesis, [9].
El término constructo se usa en psicologı́a para referirse a algo que no es
observable, pero que literalmente es construido por el investigador para re-
sumir o explicar las regularidades o relaciones que él observa en la conducta.
Por tanto, la mayorı́a de los nombres de rasgos se refieren a constructos. Para
las preguntas acerca de si el instrumento revela algo significativo respecto de
las personas, se usa el término validez de constructo. La validez de constructo
es la principal de los tipos de validez, y que la validez de constructo es el
concepto unificador que integra las consideraciones de validez de contenido
y de criterio en un marco común para probar hipótesis acerca de relaciones
teóricamente relevantes. Entre los procedimientos o técnicas estadı́sticas uti-
1.2. VALIDEZ 11

lizados para la contrastación de la validez de constructo destaca en mayor


medida el Análisis Factorial. En general, podemos decir que esta es la técnica
por excelencia utilizada para la validación de constructo, [32].

1.2.3. Importancia de la validez


Si comparamos la confiabilidad con la validez, nos damos cuenta que la
obtención de la primera puede ser reducida básicamente a una cuestión técni-
ca. Sin embargo, la validez es mucho más que eso. Tiene que ver con el aspecto
sustantivo de la ciencia misma. También se relaciona con la epistemologı́a,
en tanto que teorı́a del conocimiento, y con los paradigmas cientı́ficos. No
obstante, las dificultades prácticas que se presentan para lograr obtener me-
didas válidas y confiables, dentro del paradigma de la ciencia clásica, en los
últimos años se han desarrollado una serie de métodos, técnicas y procedi-
mientos, que facilitan, cada vez más, esta tarea. Pero, más que el manejo
de todo este instrumental tecnológico (métodos estadı́sticos, procedimien-
tos electrónicos, paquetes computarizados, etc.), lo más importante es que
el investigador se haga consciente de la necesidad de utilizar instrumentos
apropiados, técnicamente bien calibrados, a fin de garantizar la utilidad y
significado de los resultados obtenidos. Queda claro entonces que la cons-
trucción de instrumentos de medición no se reduce a la simple presentación
de un listado de preguntas en un formato determinado. Construir “buenos”
instrumentos de medición es, primero que todo, una tarea técnica, que requie-
re, por parte del investigador, un entrenamiento especı́fico para acometerla
con éxito. Construir un instrumento técnicamente bien hecho implica, en sı́
mismo, una investigación. De allı́ que cuando se requiera hacer un estudio
(trabajo o tesis de grado, trabajo de ascenso, investigación libre) antes de
tomar la seria decisión de construir un instrumento de medición, sin ser un
especialista en el área, se deberı́a averiguar previamente acerca de la exis-
tencia de la disponibilidad comercial de dicho instrumento en el mercado,
o a través de otros investigadores. Si después de esta indagación se llega a
determinar que el instrumento no existe y que es indispensable trabajar en
el desarrollo del mismo, lo más recomendable serı́a buscar el asesoramiento
técnico especializado, [30].
Capı́tulo 2

Análisis Factorial

En numerosas áreas de Psicologı́a y de Ciencias del Comportamiento no


es posible medir directamente las variables que interesan; por ejemplo, los
conceptos de inteligencia y de clase social. En estos casos es necesario reco-
ger medidas indirectas que estén relacionadas con los conceptos que intere-
san. Las variables que interesan reciben el nombre de variables latentes y la
metodologı́a que las relaciona con variables observadas recibe el nombre de
Análisis Factorial.
El análisis factorial es una técnica utilizada para descubrir agrupaciones
de variables de tal forma que las variables de cada grupo están altamente
correlacionadas, y los grupos están relativamente incorrelacionados. De es-
te modo se consigue reducir un número de variables intercorrelacionadas a
un número inferior de factores no correlacionados, que permiten explicar la
mayor parte de variabilidad de cada una de las variables.

2.1. Conceptos preliminares básicos


El problema de encontrar factores que expliquen los datos fué plantea-
do por primera vez por Charles Spearman (1863-1945), que observó que los
niños que obtenı́an buenas puntuaciones en un test de habilidad mental tam-
bién las obtenı́an en otros, lo que le llevó a postular que eran debidas a un
factor general de inteligencia, el factor g (Spearman, 1904). L. Thurstone
(1887-1955) estudió el modelo con varios factores y escribió uno de los pri-
meros textos de análisis factorial (Thurstone, 1947). El análisis factorial fue
considerado hasta los años 60 como una técnica psicométrica con poca base
estadı́stica, hasta que los trabajos de Lawley y Maxwell (1971) establecieron
formalmente la estimación y el contraste del modelo factorial bajo la hipóte-
sis de normalidad. Desde entonces, las aplicaciones del modelo factorial se

12
2.2. EL MODELO DEL ANÁLISIS FACTORIAL 13

han extendido a todas las ciencias sociales, [10].


Los constructos teóricos que son objeto de investigación por las ciencias
sociales no son directamente medibles y es necesaria la utilización de indica-
dores manifiestos para su medición. La relación entre el constructo teórico y
sus indicadores manifiestos definirá la validez de la medida obtenida.
Existen modelos formales cuyo cometido se centra en el análisis empı́rico
de las relaciones entre variables observadas y variables latentes; entre ellos, el
análisis factorial es el modelo más utilizado en la investigación psicométrica.
El análisis factorial engloba un conjunto de modelos matemático estadı́sticos
que analizan las relaciones de dependencia entre variables. Su objetivo es
explicar la variabilidad contenida en p variables observadas por medio de m
variables latentes, es decir, analizar la estructura interna o dimensionalidad
de los datos. El análisis factorial (AF) se haya estrechamente unido al estudio
de la validez interna de un test o cuestionario y en el ámbito psicométrico es
la técnica más utilizada.

2.2. El modelo del análisis factorial


El modelo matemático del análisis factorial (AF) supone que cada una
de las p variables observadas es función de un número m factores comunes
(m < p) más un factor especı́fico o único. Tanto los factores comunes como
los especı́ficos no son observables y su determinación e interpretación es el
resultado del AF.
Analı́ticamente, supondremos un total de p variables observables tipifi-
cadas, la existencia de m variables latentes llamadas factores comunes y p
factores únicos. El modelo se define de la siguiente forma:

x1 = λ11 f1 + · · · + λ1m fm + u1
x2 = λ21 f1 + · · · + λ2m fm + u2
.
.
.
xp = λp1 f1 + · · · + λpm fm + up

que podemos expresar de forma matricial como:

X = ΛF + U (2.2.1)
.
14 CAPÍTULO 2. ANÁLISIS FACTORIAL
       
x1 λ11 · · · λ1m f1 u1
.  · · ·   .  .
       
X=
 · ,Λ =  ·
 · · ,F =  · ,U =  · 
    
·  · · ·  ·  ·
xp λp1 · · · λpm fm up

donde:

X: es el vector de las variables observadas.


Λ: es la matriz factorial. Recoge las cargas factoriales ó (saturaciones).
λij : es la correlación entre la variable i y el factor j.
F: es el vector de factores comunes.
U: es el vector de factores únicos o factores especı́ficos, [20] y [21].

Hipótesis del modelo


1.- Los factores comunes fj son incorrelacionados e identicamente distribui-
dos con media 0 y varianza 1, para j = 1, 2, ..., m.

2.- Los factores especı́ficos ui son incorrelacionados y distribuidos con media


0 y varianza ψi2 , para i = 1, 2, ..., p.

3.- fj y ui tienen distribuciones independientes para todas las combinaciones


de i y j con i = 1, 2, ..., p y j = 1, 2, ..., m.

El modelo del análisis factorial presenta las siguientes propiedades:

= E(XX t )−E(X)[E(X)]t
P
1.- La matriz de covarianzas de X es Cov(X) =

como E(X) = 0, entonces:

= E(XX t ) = [σij ]
P
Cov(X) =
donde:
σii = V ar(Xi ) y σij = Cov(Xi , Xj ) .

2.- Cov(F ) = E(F F t ) = Im donde Im es la matriz identidad de orden m.

3.- Cov(U ) = E(U U t ) = Ψ donde Ψ = diag(ψ12 , ..., ψp2 ).


2.2. EL MODELO DEL ANÁLISIS FACTORIAL 15

4.- Cov(F, U ) = E(F U t ) = 0, donde 0 es la matriz cero de orden m × p.

5.- El parámetro λij es la covarianza entre la variable Xi y el factor común fj .

Cov(X, F ) = E(XF t )
= E((ΛF + U )F t )
= E(ΛF F t + U F t )
= ΛE(F F t ) + E(U F t )
= Λ.
P
6.- La matriz de covarianzas coincide con la matriz de correlaciones, R = ,
la razón es que todas las variables observadas están tipificada. Es decir,

= E(XX t )
P
=
R 
1 r12 · · · r1p
r21 1
 · · · r2p 

 · · · 
=
 ·
.
 · · 

 · · · 
rp1 rp2 · · · 1

Un modelo factorial que verifica las hipótesis anteriores, sobre todo que
los factores son incorrelacionadas y de varianza uno, se dice que tiene factores
ortogonales y recibe el nombre de modelo factorial ortogonal. Sin embargo,
los factores comunes están generalmente correlacionados y su matriz de co-
varianzas, E[F F t ], no es necesariamente diagonal. Por lo tanto, cuando se
requiere un sistema no ortogonal, los factores pueden ser rotados a forma
oblicua. Un modelo factorial que tiene factores oblicuos, se denomina modelo
factorial oblicuo [2] y [5].

Teoremas fundamentales

Teorema 1 (Teorema de Thurstone). Bajo la hipótesis del modelo factorial


se verifica:
X
= ΛΛt + Ψ. (2.2.2)
16 CAPÍTULO 2. ANÁLISIS FACTORIAL

Demostración.
= E(XX t )
P
= E[(ΛF + u)(ΛF + U )t ]
= ΛE[F F t ]Λt + E[U U t ] + ΛE[F U t ] + E[U F t ]Λt
= ΛΛt + Ψ .

Desarrollando el resultado de Thurstone, se tiene que:

Cov(Xi , Xj ) = P
rij
= m k=1 λik λjk i 6= j i, j : 1, ..., p.

V ar(Xi ) = 1P
= m 2 2
k=1 λik + ψi i : 1, ..., p.

= R = ΛΛt + Ψ
P

 
1 r12 · · · r1p     2 
λ 11 · · · λ1m λ 11 · · · λ p1 ψ1 0 · · · 0
r21 1 · · · r2p 
  · · ·
  · · · 
 · · · 
  
 · · ·   
 = · · ·  · · · + · · · .
 · · ·      

 ·
  · · ·  · · ·   · · ·
· · 
λp1 · · · λpm λ1m · · · λpm 0 · · · 0 ψp2
rp1 rp2 · · · 1

Los elementos de la diagonal de ΛΛt son llamados comunalidades y los


elementos de ψ son llamadas varianzas especı́ficas o unicidades, [10] y [11].

Teorema 2. La varianza de la variable Xj se descompone de la siguiente


forma:
1 = h2j + ψj2
donde
h2j es la comunalidad, que se define como parte de la varianza que es debida
a los factores comunes.
ψj2 es la unicidad, que se define como parte de la varianza que es debida a
los factores especı́ficos.

Demostración.
2.2. EL MODELO DEL ANÁLISIS FACTORIAL 17

De R = ΛΛt + Ψ se tiene 1 = λ2j1 + · · · + λ2jk + ψj2 para j = 1, 2, ..., p.


Ahora bien si se denota h2j = λ2j1 + · · · + λ2jk se tiene 1 = h2j + ψj2 .

Teorema 3. Se puede reproducir la correlación entre las variables observa-


bles a partir de las cargas factoriales:
rij = λi1 λj1 + · · · + λim λjm .

Demostración.
Se deduce directamente de R = ΛΛt + Ψ.

La matriz de correlaciones reducida, R∗ , se obtiene de R substituyendo los


unos de
 la diagonal por las comunalidades.
2

h1 r12 · · · r1p
r21 h22 · · · r2p 
 

 · · · 
R =  .
 · · · 

 · · · 
rp1 rp2 · · · h2p

Evidentemente se verifica que R = R∗ + Ψ, lo cual implica que [11]:

R∗ = ΛΛt . (2.2.3)

Teorema 4. Se verifica:
1. El modelo factorial existe si R es la suma de una matriz semidefinida po-
sitiva y una matriz diagonal con elementos no negativos.

2. El número m de factores comunes es el rango de la matriz reducida R∗ .

3. Las comunalidades son aquellos valores 0 ≤ h2i ≤ 1, tales que R∗ es matriz


semidefinida positiva (tiene m valores propios positivos).

Demostración.
Es una consecuencia de la relación entre R∗ y Λ en la ecuación (2.2.3).
La matriz factorial Λ es de rango completo, es decir, rang(Λ) = m. A su
vez, la matriz simétrica ΛΛt es también de rango m y semidefinida positiva
y, por ello, el número de factores comunes coincide con el rango de la matriz
reducida de correlaciones [10].
18 CAPÍTULO 2. ANÁLISIS FACTORIAL

2.3. Análisis Factorial Exploratorio (AFE)


Los ı́tems tienen un peso especificado distinto según sea su relación con
cada factor; por lo general en cada factor hay ı́tems con pesos grandes y
otros próximos a cero, los ı́tems que más pesan en cada factor son los que
lo definen. El AFE se reduce a la búsqueda de estos pesos, de manera que,
expliquen toda la varianza presente en las variables originales, [33].
El AFE nos indica cómo tienden a agruparse los ı́tems o variables, es decir,
el grado de relación (correlación) de cada ı́tem con cada factor. Los factores
comunes equivalen a constructos hipotéticos o conceptos subyacentes o la-
tentes (no observables directamente) deducidos de las correlaciones entre las
variables.
El proceso que sigue el AFE se puede resumir en los siguientes tres pasos:
1. Determinar si es pertinente realizar un AF.
2. Elegir el método para extraer los factores, esto es, estimar las saturaciones.
3. Rotar la solución a fin de facilitar su interpretación, [25].

2.3.1. Pertinencias del Análisis Factorial Exploratorio


Cuando se pretende analizar la conveniencia de la aplicación del AF a
un conjunto de variables, se analizan criterios y se realizan contrastes de
hipótesis previos a la extracción de los factores. Entre ellos destacamos los
siguientes:

1.- La evaluación de coeficientes de correlación de Pearson de las variables


observables altamente significativas.

El cual consiste en observar la matriz de correlaciones entre las variables


que entran en el análisis, esto se realiza a partir de la matriz de datos origi-
nales. Se trata simplemente de comprobar si existe un gran número de altas
correlaciones. Para saber si estas correlaciones son significativas podemos ha-
cer pruebas de hipótesis sobre los coeficientes de correlación. Las hipótesis
de la prueba son H0 : ρ = 0 vs H1 : ρ 6= 0.
Usualmente, en los softwares, se proporciona el grado de significación de
cada una de estas correlaciones, los valores de p. Se rechazará a la hipótesis
nula, H0 : ρ = 0, cuando el valor de p es menor que el valor de significancia α.

2.- Que el determinante de la matriz de correlación sea relativamente bajo,


próximo a cero.
2.3. ANÁLISIS FACTORIAL EXPLORATORIO (AFE) 19

3.- Que el cálculo del ı́ndice de Kaiser-Meyer-Olkin (KMO) > 0,60.

Un coeficiente de correlación parcial mide la correlación existente entre


dos variables una vez que se han descontado los efectos lineales de otras va-
riables. En un modelo factorial se pueden interpretar esos efectos de otras
variables como los correspondientes a factores comunes. Por lo tanto, el coefi-
ciente de correlación parcial entre dos variables serı́a equivalente al coeficiente
de correlación entre los factores especı́ficos de dos variables. De acuerdo con
el modelo de AF los coeficientes de correlación teóricos calculados entre cada
par de factores especı́ficos o comunes son nulos por hipótesis. Si los coeficien-
tes de correlación parcial constituyen una aproximación a dichos coeficientes
teóricos, deben estar próximos a cero, [20].
La medida del estadı́stico KMO se define como:
2
P P
i6=j rij
KM O = P P i6=j2 P P 2
i6=j i6=j rij + i6=j i6=j aij

donde:
rij : representa el coeficiente de correlación simple entre las variables i- ésima
y j- ésima.
aij : representa la correlación parcial entre las variables i- ésima y j- ésima.

En el caso de que exista una adecuación de los datos a un modelo de AF,


el término del denominador que contiene los coeficientes aij , será pequeño y,
consecuentemente, la medida del estadı́stico KMO estará próxima a 1.
Un valor de la medida KMO de 0.80 a 0.90 es muy bueno, mientras que los
valores por debajo de 0.50 no son aceptables.

4.- Que el resultado del test de Bartlett sea significativo.

El objetivo es comprobar que la matriz de correlaciones es significativa-


mente distinta de la matriz identidad, o sea, H0 : R = I vs H1 : R 6= I.
Si la matriz de correlaciones fuera la matriz identidad no habrá correlación
entre variables y no tendrı́a sentido llevar a cabo un AF. El test de esferi-
cidad de Bartlett nos permite hacer esta comparación. Si se considera que
H0 : R = I ⇔ |R| = 1, las hipótesis se pueden plantear de la siguiente
manera: H0 : |R| = 1 vs H1 : |R| = 6 1. La hipótesis alternativa asume que
el determinante de R, indicador de la varianza generalizada de dicha matriz,
es distinto de uno. Un determinante próximo a cero indica que una o más
variables pueden expresarse como combinación lineal de las otras variables.
Rechazar H0 serı́a indicativo de correlaciones entre las variables observables
y tendrá sentido el AF [32].
20 CAPÍTULO 2. ANÁLISIS FACTORIAL

El estadı́stico de prueba es:


 
2 1
χ =− n−1− ln |R|
6(2p + 5)

donde:
n: es la dimensión de la muestra.
p: es el número de variables observadas que entran a formar parte de la ma-
triz de correlaciones.
|R|: es el determinante de la matriz de correlaciones (observada).

La utilización de este test presupone que los datos provienen de una dis-
tribución normal multivariante y bajo este supuesto el estadı́stico de prueba
se distribuye χ2 con 2(p21−p) grados de libertad, [20].

2.3.2. Métodos de estimación para la obtención de


factores
Existen diferentes métodos de estimación para obtener los factores comu-
nes, aquı́ expondremos el de Componentes Principales (CP) y las bases del
procedimiento de estimación por máxima verosimilitud (ML), por ser la que
utiliza R-Commander para ejecutar el Análisis Factorial.

[Link]. Componentes Principales

Consiste en estimar las puntuaciones factoriales mediante las puntuacio-


nes tipificadas de las primeras k componentes y la matriz de cargas factoriales
mediante las correlaciones de las variables originales con dichas componentes.

Recordemos que las componentes principales se expresan en función de


las variables originales como:
C1 = c11 X1 + · · · + c1p Xp
C2 = c21 X1 + · · · + c2p Xp
.
.
.
Cp = cp1 X1 + · · · + cpp Xp .
Se puede demostrar que este sistema es reversible. De modo, que las
variables originales se expresan en función de las componentes
2.3. ANÁLISIS FACTORIAL EXPLORATORIO (AFE) 21

X1 = c11 C1 + · · · + c1p Cp
X2 = c21 C1 + · · · + c2p Cp
.
.
.
Xp = cp1 C1 + · · · + cpp Cp .
Una hipótesis que plantea el modelo factorial es que las componentes de-
ben estar tipificadas, ahora bien, las componentes C no están tipificadas, esto
se puede resolver usando las componentes tipificadas, las cuales se obtienen
al dividir cada componente por su desviación tı́pica, es decir,
Ck
Zk = √ para k=1,2,...,p,
θk
despejando Ck se tiene que
p
Ck = θk Zk para k=1,2,...,p. (2.3.1)

Sustituyendo (2.3.1) en las expresiones de las variables originales se tiene,


p p p
Xj = c1j θ1 Z1 + c2j θ2 Z2 + · · · + cpj θp Zp para j=1,2,...,p.

Pero teniendo en cuenta que ckj θk = rkj , entonces

Xj = r1j Z1 + r2j Z2 + · · · + rpj Zp para j=1,2,...,p. (2.3.2)


Si agrupamos los ultimos (p − m) términos en (2.3.2) tenemos

Xj = r1j Z1 + r2j Z2 + · · · + rmj Zm + (rm+1,j Zm+1 + · · · + rpj Zp ). (2.3.3)

Por otro lado, la ecuación de la variable j-ésima en el modelo factorial es de


la forma

Xj = λj1 f1 + λj2 f2 + · · · + λjm fm + uj . para j=1,2,...,p. (2.3.4)

Comparando (2.3.3) y (2.3.4), podemos ver que los m factores fk se es-


timan mediante las m primeras componentes principales tipificadas Zk y
además se tiene las estimaciones de los coeficientes λjk :

λ
bjk = rkj .

Dadas las estimaciones anteriores se obtiene la estimación de la comunalidad

h2j = λ
b b2 + λ
j1
b2 + · · · + λ
j2
b2 ,
jm
22 CAPÍTULO 2. ANÁLISIS FACTORIAL

y la estimación del factor único uj

bj = rm+1,j Zm+1 + rm+2 Zm+2 + · · · + rpj Zp .


u
Finalmente, la especificidad o unicidad, es decir, la parte de la varianza
debida al factor especı́fico, será:

ψbj2 = 1 − b
h2j .

[Link]. Máxima verosimilitud


Este método está basado en el modelo dado por la ecuación X = ΛF + U ,
asumiendo la hipótesis de normalidad multivariante, consiste en aplicar el
modelo de máxima verosimilitud. Puede emplearse con la matriz de correla-
ciones o con la matriz de covarianzas muéstrales. Este método tiene la ventaja
de que las estimaciones obtenidas no dependen de la escala de medida de las
variables.

Supongamos que las n observaciones de las p variables P provienen de una


distribución normal con µ y matriz de covarianzas ( ) , es decir, X =
t
P
(X1 , ..., Xp ) ∼ Np (µ, ). Entonces, el logaritmo de la función de verosimili-
tud puede ser expresado como:
X n X n n X−1 
£ = ln c − ln + (n − p − 1) ln |S| − tr S , (2.3.5)
2 2 2
en donde:
c: es un término constante.
n: es el número de observaciones.
p:
P es el número de variables observables.
: es la matriz de covarianzas poblacionales.
S: es la matriz de covarianzas muéstrales.

El máximo de la función dada en la ecuación (2.3.5) debe ser, omitiendo


funciones constantes de las observaciones, igual a:
n h X  X−1 i n
= − ln ΛΛt + Ψ + tr(S(ΛΛt + Ψ)−1 ) .

M = − ln + tr S
2 2

La estimación de las cargas factoriales se obtiene minimizando la función


X X  X−1 
F = ln + tr S − ln |S| − p, (2.3.6)

2.3. ANÁLISIS FACTORIAL EXPLORATORIO (AFE) 23

= ΛΛt + Ψ. Dicha minimización es equivalente a maximizar la


P
con
función dada por la ecuación (2.3.5).
Las derivadas respecto de Λ y Ψ son
∂F X−1 X  X−1
=2 −S Λ,
∂Λ

∂F X−1 X  X−1 
= diag −S .
∂Ψ

Por lo tanto, las ecuaciones a resolver para obtener estimaciones de Λ y


Ψ son:
X−1 X  X−1 X−1 X  X−1 
−S L = 0, diag −S =0

P−1
= ΛΛt + Ψ y Λt
P
con las restricciones, Λ es diagonal.

La última condición es sólo una restricción para concretar una solución,


puesto que si Λ es solución, también lo es ΛT , siendo T matriz ortogonal.

Con cualquier método de estimación conseguir una estructura factorial


clara y simple depende en buena medida del número de factores. El número
de factores que se desea extraer debe estar bien justificado, por lo tanto,
exponemos y valoramos otros procedimientos para determinar el número de
factores que se deben extraer en el AFE.

1.- En el procedimiento de Kaiser-Gutman se extraen y rotarán solamen-


te los factores que en el primer análisis (antes de las rotaciones) tienen un
eigenvalor (o valor propio) mayor de 1. Este procedimiento tiene el inconve-
niente de que pudieran existir diferencias muy pequeñas (por ejemplo entre
un factor con un eigenvalor de 1.01 y otro de 0.99).

2.- Utilizar el gráfico de sedimentación, en el que aparecen en el eje X el


número de componentes o factores y en el eje Y los eigenvalores o varianza
24 CAPÍTULO 2. ANÁLISIS FACTORIAL

explicada por cada factor. El punto de corte para establecer el número de


factores que se van a rotar se sitúa en el punto de inflexión de la lı́nea des-
cendente que va uniendo los diversos eigenvalores.

3.- Para reducir el número de factores de manera no arbitraria se pueden


encontrar varias orientaciones, como eliminar los factores en los que ninguna
variable tiene un peso superior a 0.30 [26].

2.3.3. Rotación de factores


La matriz de cargas factoriales tiene un papel importante para interpretar
el significado de los factores. Cuando los factores son ortogonales cuantifican
el grado y tipo de la relación entre éstos y las variables originales. En la
práctica, los métodos de extracción de factores pueden no proporcionar ma-
trices de cargas factoriales adecuadas para la interpretación.
En ocasiones es difı́cil interpretar el significado de los factores a partir de
la matriz de cargas factoriales, sobre todo si aparecen varios factores compar-
tiendo variables. Puede haber distintas variables que muestren correlaciones
altas con varios factores haciendo difı́cil su interpretación. Las rotaciones son
transformaciones lineales que facilitan la interpretación sin alterar la propor-
ción de varianza explicada por los factores [25].
La rotación de factores transforma la matriz factorial inicial en otra de-
nominada matriz factorial rotada, de más fácil interpretación. La matriz fac-
torial rotada es una combinación lineal de la primera y explica la misma
cantidad de varianza inicial. El objetivo de la rotación es intentar aproximar
la matriz factorial al principio de estructura simple (Thurstone 1947, citado
en [20]). Según este principio, la matriz factorial debe reunir las siguientes
caracterı́sticas:

1.- Cada factor debe contener cargas altas y cargas próximas a cero.
2.- Cada variable debe ser explicada por un solo factor.
3.- No deben existir factores con la misma distribución, es decir, los factores
distintos deben presentar distribuciones de cargas altas y bajas distintas.

Estas caracterı́sticas no suelen lograrse, lo que se trata es alcanzar una


solución lo más aproximada posible a ello.

Existen varios métodos de rotación que podemos agrupar en dos grandes


tipos: ortogonales y oblicuos. Tanto en las rotaciones ortogonales como en las
de tipo oblicuo, la comunalidad de cada variable no se ve modificada; sin em-
2.3. ANÁLISIS FACTORIAL EXPLORATORIO (AFE) 25

bargo, cambia la varianza explicada por cada factor. Los dos tipos de rotación
son útiles y suele recomendarse hacer los dos, pero si se tiene que elegir el de
interpretación más sencilla, lo habitual es optar por la rotación ortogonal que
suele ser de hecho la opción preferida, aunque no necesariamente la mejor, [8].

[Link]. Rotaciones ortogonales


En las rotaciones ortogonales los factores se rotan de tal modo que los
ángulos entre ellos sean siempre ángulos rectos. La rotación ortogonal de
factores hace variar las cargas factoriales y, por lo tanto, el significado de
los factores. Sin embargo, las diferentes soluciones factoriales analı́ticas son
matemáticamente equivalentes ya que explican la misma cantidad de varianza
en cada variable y en el conjunto de la matriz. Además los factores rotados
reproducen las correlaciones de forma precisa al igual que las soluciones no
rotadas, [20].

Teorema 5. Toda rotación ortogonal de una solución es también solución.

Demostración.
Si m > 1, la matriz factorial no es única, es decir, si existen Λ y Ψ de
modo que R = ΛΛt + Ψ, entonces para toda matriz ortogonal T:

R = (ΛT )(T t Λt ) + Ψ = (ΛT )(ΛT )t + Ψ.

Aunque los elementos ΛT son diferentes de los coeficientes iniciales Λ, su


capacidad para generar las covarianzas no cambia. Por lo tanto, toda rota-
ción ortogonal de una solución es también solución, [10], [20] y [21].

Las rotaciones ortogonales se basan en la idea de maximizar la varianza


de los cuadrados de las cargas factoriales, con lo que se consigue que los va-
lores se dispersen al máximo, aumentando los mayores y disminuyendo los
más pequeños. Dada una matriz factorial Λ, queremos encontrar una matriz
ortogonal T tal que la nueva matriz factorial B = ΛT defina unos factores
que tengan una estructura más simple. Dentro de los métodos de rotación
ortogonal se encuentran las rotaciones Quartimax, Varimax y Equamax. El
más popular de estos es el procedimiento de rotación Varimax, al que nos
referiremos a continuación.
26 CAPÍTULO 2. ANÁLISIS FACTORIAL

Rotación varimax
El principal objetivo del método Varimax, es eliminar las saturaciones
negativas y describir los datos por tan pocas saturaciones como sea posible.
Esto se realiza, como veremos, maximizando una cierta función de los cua-
drados de las saturaciones a través de un procedimiento iterativo.

Se describirá un procedimiento que es una variante del método Varimax


original ideado por Kaiser en 1958. Lo esencial de este procedimiento es que
en cada iteración todos los factores se rotan simultáneamente. Denotemos
por L0 la matriz de p × k de factores no rotados. La i-ésima fila la de L0 ,
denotada por li , es un vector de orden k. Sea T de k×k una matriz de rotación
ortogonal cuya r-ésima columna es τr con r = 1, ..., k. La matriz Λ = [λir ] de
cargas factoriales rotadas está dada por Λ = L0 T y ası́ λir = li τr . Definiremos
los escalares
p
X
dr = λ2ir
i=1
X
dr = (li τr )2 .
i

Ası́, dr es la suma de los cuadrados de las saturaciones de la r-ésima


columna de Λ. El criterio χ, maximizado en el método Varimax simultaneo,
está dado por
k
" p  2 #
X X
2 d r
χ= lir −
r=1 i=1
p
" #
X X
4 d2r
= λir −
r i
p
" #
2
X X d
= (li τr )4 − r .
r i
p
De esta definición es claro que χ representa la suma de los cuadrados de las
desviaciones de los valores de λir , cada uno medido como una desviación de
las correspondientes columnas de media dpr . La maximización es con respecto
a los elementos de τ .
Puesto que las columnas de τ satisfacen las condiciones τrt τr = 1 y τrt τs = 0
(r 6= s), debemos igualar a cero la derivada con respecto a los elementos de
τ la expresión:
2.3. ANÁLISIS FACTORIAL EXPLORATORIO (AFE) 27

XX
y =χ−2 ars τrt τs
r s

donde los coeficientes ars son multiplicadores indeterminados tales que Asr
es idéntico a Ars .
Usando las expresiones anteriores encontramos que la derivada de y con
respecto al vector τs está dado por:
"   #
∂y X
3 ds X X
=4 (li τs ) li − 4 (li τs li ) − 4 ars τr
∂τs i
p i r

∂y X λis
 X
=4 cis − ds li − 4 Ars τr ,
∂τs i
p r

donde cir = (li τr )3 = (λir )3 .


∂y
La expresión ∂τs
es la s-ésima columna de la matriz

   
1
4 L0 C L0 ΛD − τ A ,
p
donde C es la matriz p×k con elementos cir , A es la matriz simétrica de orden
k con elementos Ars y D es la matriz diagonal cuyos elementos son d1 , ..., dk .
∂y
Ası́, tomando
h en cuenta
  todos
i los valores de s, tenemos que ∂τ = 4(B − τ A)
1
con B = L0 C − p
ΛD .

La matriz ortogonal τ que maximiza χ satisface ası́ la ecuación τ A = B.


Puede demostrarse que si A es definida positiva y simetrica; la ecuación
anterior correspondea un máximo para χ. Entonces, de τ A = B tenemos
A = τ t B = Λt C − p1 λt ΛD. Ası́ la matriz del lado derecho es simétrica
cuando χ se máximiza. El elemento r-ésimo diagonal de A es:
!2
X 1 X
λ4ir − λ2ir .
i
p i

De la definicion de χ se ve que tr(A) es su valor máximo. Las matrices τ ,


A y B que satisfacen τ A = B se encuentran por un procedimiento iterativo.
Comenzemos con una aproximacion inicial τ , esta produce una aproximación
inicial L1 = Lo τ1 para Λ, y de L1 obtenemos aproximaciones C1 , D1 y B1
para C, D y B respectivamente. Ahora se tiene que encontrar una matriz
28 CAPÍTULO 2. ANÁLISIS FACTORIAL

simétrica y definida positiva A y una matriz ortogonal τ2 que satisfaga la


ecuación τ2 A1 = B1 . Si multiplicamos cada lado de esta ecuación por su
transpuesta tenemos A21 = B1t B1 .

La matriz B1t B1 es una matriz simétrica y definida positiva de orden k.


Por lo tanto, podemos expresarla en la forma U ∆U , donde U es ortogonal y
∆ es matriz diagonal de elementos positivos. Ası́, es posible encontrar A1 en
la forma A1 = u∆U t y de τ2 A1 = B1 se tiene que τ2 esta dado por τ2 = B1 A−1
1 .

El procedimiento se repite con τ3 en lugar de τ2 y si es necesario, con


una sucesión de matrices τs . Puede demostrarse que para τ1 suficientemente
cerca de τ , esta sucesión converge a τ . La sucesión de matrices As , corres-
pondiente es tal que, los valores de tr(As ) forman una sucesión ascendente
de valores que convergen al máximo del criterio χ. En la práctica una buena
aproximación inicial de τ es innecesaria, ası́ que comúnmente se toma τ = I
y L1 = L0 . En general, se requieren pocas iteraciones, [21].

2.4. Análisis Factorial Confirmatorio (AFC)


Cuando el investigador tiene suficientes conocimientos previos para for-
mular hipótesis concretas sobre la relación entre indicadores y dimensiones
latentes, su interés se centra en contrastar estas hipótesis. Por ejemplo, al tra-
ducir o adaptar cuestionarios ya desarrollados sabemos qué ı́tems deberı́an
medir qué dimensiones. El modelo de análisis factorial confirmatorio (AFC)
corrige las deficiencias inherentes a la perspectiva exploratoria y conduce
a una mayor concreción de las hipótesis que deben ser contrastadas. Su es-
pecificación difiere de la perspectiva exploratoria en aspectos esenciales como:

– Permitir restricciones en algunas saturaciones. Lo habitual es su-


poner la validez de cada ı́tem, es decir, que satura en un único factor. Se
delimita ası́ el concepto de factor común a aquel que subyace únicamente a
sus indicadores concretos y se evita introducir factores de difı́cil interpreta-
ción.

– Permitir contrastes estadı́sticos de las hipótesis especificadas.

– Permitir componentes únicas correlacionadas. Aunque es un recurso


poco elegante, se justifica por la existencia de otros factores sin interés, como
un método de medición común que no se desea explicitar en la especificación
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 29

[18].

2.4.1. El modelo del Análisis Factorial Confirmatorio

La estructura de covarianzas del AFC es muy similar a la del AFE, a la


que simplemente se le impondrán algunas restricciones. Para introducirnos
en el AFC es necesario presentar una serie de convenciones y términos no
utilizados hasta el momento. Los ı́tems o indicadores o variables manifiestas
u observables, son aquellas que se miden directamente. Por lo general, se les
asignan letras latinas mayúsculas, como X y Y. Los factores o variables la-
tentes, no observables, son aquellas que no pueden ser medidas directamente,
se les denota con las letras griegas, como ε y δ, [1].

Desde el punto de vista del AFC, la respuesta de cada sujeto en cada ı́tem
esta generada por unas variables no observadas (factores latentes) que expli-
can la variabilidad de las respuestas en el ı́tem. Previsiblemente, el factor
latente nunca explicará de forma totalmente satisfactoria la variabilidad de
las respuestas del ı́tem. A esta parte no explicada por el factor se le denomina
error de medida (también llamado unicidades o factores especı́ficos), [16].

Suponga que se observa un vector X de respuestas, p -variado,Pde una


población que tiene media µ y matriz de varianzas y covarianzas tales
que:
Pm
X1 = j=1 λij ξj + δi para i = 1, 2, ...., p.

donde:
X1 , X2 , ...., XP : son las variables observadas.
ξ1 , ξ2 , ..., ξm : son los factores.
λij : es el peso (o contribución) del factor común j en la variable i.

λij se llaman cargas, pesos o saturaciones factoriales. En forma matricial


el modelo quedarı́a de la siguiente forma, [1] y [19]:

X = Λξ + δ (2.4.1)
30 CAPÍTULO 2. ANÁLISIS FACTORIAL

x1 = λ11 f1 + · · · + λ1m ξm + δ1
x2 = λ21 f1 + · · · + λ2m ξm + δ2
.
.
.
xp = λp1 f1 + · · · + λpm ξm + δp .
El modelo se suele representar en un diagrama de flujos, acorde con su
especificación. Convencionalmente, los rectángulos representan ı́tems y las
elipses, factores comunes. Flechas unidireccionales entre factores comunes
e ı́tems expresan saturaciones. Flechas bidireccionales indican correlaciones
entre factores comunes o únicos. La Figura 2.1 muestra los diagramas de
dos posibles modelos de AFE y de AFC, [18]. En el modelo de AFC, los
factores únicos de las variables v1 y v4 que podrı́an compartir método de
medición están correlacionados. Se resalta que v1 , v2 y v3 son indicadores
exclusivamente de f1 mientras que v4 , v5 y v6 lo son sólo de f2 .
En un principio, los programas para estimar modelos de AFC eran escasos y
requerı́an conocimientos de álgebra matricial. Actualmente, existe una gran
variedad de ellos, todos accesibles y sencillos de utilizar (en algunos, el usuario
se limita a dibujar el diagrama del modelo) que permiten estimar cualquier
modelo de ecuaciones estructurales, [18].

Figura 2.1: Diferencias entre el diagrama de flujos de los modelos de Análisis


Factorial Confirmatorio y Análisis Factorial Exploratorio con 6 variables y 2
factores.

2.4.2. El Análisis Confirmatorio frente al Exploratorio


Los análisis factoriales exploratorio y confirmatorio no se distinguen sólo
por la intención del investigador (explorar, ver qué sale, o confirmar hipóte-
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 31

sis previamente establecidas); suponen también procedimientos (y programas


de computadora) distintos. La principal diferencia conceptual entre los dos
análisis es que, mientras que el AFE consiste en una búsqueda de relaciones
subyacentes, en el AFC el investigador parte de un modelo a priori de dichas
relaciones. Explı́citamente las principales caracterı́sticas distintivas del AFC
son: (a) el número de factores es establecido de antemano por el investiga-
dor; (b) el investigador decide de antemano las saturaciones de cada variable
observable sobre cada factor y (c) la relación entre los factores en el modelo
se especifica de antemano, [17] y [19].

En el cuadro 2.1, se presentan de manera resumida las caracterı́sticas del


AFE y del AFC. La principal particularidad del análisis confirmatorio es que
la estructura del modelo es totalmente controlable y manipulable por el in-
vestigador, por lo que en el cuadro se presentan aquellas condiciones que son
más habituales y que constituyen el paradigma del análisis, [14] y [19].

Cuadro 2.1: Diferencias entre el Análisis Factorial Confirmatorio y Explora-


torio. Fuente: Lévy & Varela

Las hipótesis del AFE (clásico) son muy rı́gidas, y no permiten incorporar
elementos importantes del conocimiento sustantivo de los expertos. Las limi-
taciones del AFE son ampliamente superadas en el AFC al poder especificar
suposiciones más realistas, [14].

Una ventaja que se ha señalado frecuentemente a favor del análisis confir-


matorio es la posibilidad que tiene el investigador para establecer relaciones
32 CAPÍTULO 2. ANÁLISIS FACTORIAL

entre los factores. En el acercamiento tradicional, o ningún factor correla-


ciona -rotación ortogonal- o todos lo hacen -rotación oblicua-, mientras que
en el acercamiento confirmatorio puede establecerse a priori un conjunto de
condiciones más flexibles en torno a la relación entre los factores; por ejem-
plo, que dos correlacionen entre y otros dos no estén correlacionados, [17].

A pesar de las diferencias observadas entre ambos procedimientos, la es-


tructura factorial obtenida mediante el AFE constituirá una aproximación va-
lida al futuro modelo confirmatorio, y las cargas factoriales extraı́das podrán
ser empleadas para fijar de antemano algún parámetro a un valor determi-
nado, [19].

De esta forma, el investigador que pretenda medir un constructo deberı́a


identificar previamente sus dimensiones subyacentes y establecer una serie de
variables observables como indicadores de esas dimensiones latentes. El AFC
contrastarı́a los datos con el modelo teórico presentado y calcuları́a ı́ndices de
ajuste que informarán si dicho modelo constituye una representación plausi-
ble de la realidad, [19].

2.4.3. Fases del Análisis Factorial Confirmatorio


Como ya se ha mencionado, el AFC tiene como objetivo determinar si un
modelo de medida especificado por el investigador, basándose en hipótesis
teóricas o en un AFE previo, es consistente con la realidad. Para llegar a
obtener alguna conclusión al respecto, es preciso abordar una serie de fases,
comunes al conjunto de los procedimientos que operan con los SEM. Las fases
esenciales en la ejecución del AFC son:
1. La especificación del modelo.
2. La identificación del modelo.
3. La estimación de parámetros.
4. La evaluación del ajuste del modelo, [19].

[Link]. Especificación del modelo


Para establecer la estructura del modelo el investigador se basa en estudios
previos (como el AFE) o en un sólido sustento teórico. Establecer formalmen-
te un modelo implica tomar decisiones respecto a los siguientes aspectos: (1)
el número de factores comunes, (2) el número de variables observables, (3) la
relación entre las variables observables y los factores comunes, (4) la relación
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 33

entre los factores comunes, (5) la relación entre los factores especı́ficos y las
variables observables, y (6) las relaciones entre factores especı́ficos.

La relación entre las variables observadas y las variables latentes se ex-


presa como:

X = Λξ + δ (2.4.2)
ésta ecuación implica que cada variable observable serı́a función de la contri-
bución de cada factor común y el error de medida o factores especı́ficos que
tiene asociado.

En las ecuaciones y análisis que se presentarı́an a lo largo de este capı́tulo


se sigue el procedimiento habitual de asumir que todas las variables están
desviadas respecto a sus medias, con un valor esperado igual a cero, E [X] =
E [ξ] = E [δ] = 0, lo que explica la ausencia de un término constante.
Se asume además la independencia entre factores comunes y especı́ficos:
cov [ξδ t ] = 0.
P
Si denotamos como a la matriz de covarianzas entre las variables ob-
servables (X) del modelo (2.4.2), resulta que:

= E (XX t ) − E (X) [E (X)]t


P

= E (Λξ + δ) (Λξ + δ)t


 

= ΛE [ξξ t ] Λt + ΛE [ξδ t ] + E [δξ t ] Λt + E [δδ t ].

Si hacemos Φ = E [ξξ t ] y Θ = E [δδ t ] entonces


P
puede escribirse como:

X
= ΛΦΛt + Θ. (2.4.3)

Es muy importante, para desarrollos posteriores analizar el contenido


P de
la expresión (2.4.3) y centrar nuestra atención en los parámetros: , Φ, Θ.
De la ecuación (2.4.3), se tiene:

= E (XX t ) = [σij ] siendo σii = V ar (Xi ) y σij = Cov (Xi , Xj )


P
La matriz
p(p+1) 3
con i, j = 1, ...p. El número de elementos distintos es: 2
.
34 CAPÍTULO 2. ANÁLISIS FACTORIAL

La matriz Λ contiene las p × m saturaciones o cargas factoriales, siendo


λij la saturación de la variable Xi con el factor común ξj .

La matriz Φ = E [ξξ t ] = [φrs ] siendo φrr = V ar (ξr ) y φrs = Cov (ξr , ξs )


con r, s = 1, ...m. El número de elementos distintos: m(m+1)
2
.

La matriz Θ = E [δδ t ] = [θij ] siendo θii = V ar (δi ) y θij = Cov (δi , δj ) con
i, j = 1, ...p. El número de elementos distintos: p(p+1)
2
.

La matriz de coeficientes de estructura Q = ΛΦ = [qij ] siendo qij =


corr (Xi , ξj ).

Por lo tanto, la ecuación (2.4.3) expresa los p(p+1)


2
elementos distintos de
P m(m+1) p(p+1)
en función de p × m + 2
+ 2 parámetros desconocidos de las
matrices Λ, Φ y Θ. Ası́, los parámetros que se deberı́an estimar aparecen
vinculados mediante la expresión (2.4.3), a los valores de las varianzas y co-
varianzas poblacionales de las variables observadas, [1] y [19].

El AFC se reduce, a grandes rasgos, a obtener estimaciones de las matri-


ces Λ, Φ yP Θ que hagan que la matriz de varianzas y covarianzas poblacional
estimada obtenida a partir de ellas, sea lo más parecida posible a la ma-
triz de varianzas y covarianzas muestral que se obtiene a partir de los valores
muéstrales de las variables observadas. Pero, para poder entrar en el proce-
dimiento de estimación, es necesario abordar previamente el problema de la
identificación que se plantea en el método del AFC, [1].

[Link]. Identificación del modelo

Hemos visto que en el método de AFC disponemos de información sobre


las varianzas y covarianzas muéstrales de las variables observables y con ella
hemos de estimar una serie de parámetros (cargas factoriales, varianzas y
covarianzas de los factores comunes, y las varianzas y covarianzas de los fac-
tores especı́ficos). Al igual que ocurre con un sistema de ecuaciones lineales,
podemos disponer en principio de más ecuaciones que incógnitas, del mismo
o de mayor número de incógnitas que ecuaciones. Pues bien, la identifica-
ción del modelo de AFC hace referencia, precisamente, a la cuestión de si
los parámetros del modelo
P pueden o no ser determinados de forma única. De
esta forma, la matriz (o en su caso, la matriz muestral S) es la fuente de
la identificación y cada parámetro de las matrices Λ, Φ y Θ corresponderá
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 35
P
con un parámetro o una combinación lineal de parámetros de , [1] y [19].

A la hora de determinar si un modelo está o no identificado, caben tres


soluciones posibles:

1. Que esté exactamente identificado, en cuyo caso se podrá estimar cada


parámetro
P estructural a partir de una única combinación de los elementos de
, por lo que tendrı́an una única solución.

2. Que el modelo esté sobre identificado, estando todos los parámetros


identificados, al menos un parámetro podrá obtenerse a partir de dos o más
ecuaciones diferentes.

3. Que el modelo esté infra identificado, en cuyo caso no serı́a posible


establecer ecuaciones de covarianza para alguno de los parámetros, por lo
que no todos podrı́an ser estimados.

En palabras de Long (1983) citado en [1], si se intenta estimar un modelo


que no esté identificado, los resultados que se obtendrı́an serán estimaciones
arbitrarias de los parámetros lo que desembocará en interpretaciones carentes
de sentido. Si no se imponen restricciones a los parámetros a estimar, nece-
sariamente habrá un número infinito de soluciones posibles para los mismos.
Consideremos un modelo de AF como el planteado en la ecuación (2.4.2).

X = Λξ + δ.
P
Por otra parte, la matriz que contiene las varianzas y covarianzas de
las variables observables puede descomponerse tal y como se mostró en la
ecuación (2.4.3),

= ΛΦΛt + Θ.
P

Si no se impone ningún tipo de restricción a los parámetros Λ, Φ y Θ, y si


existe un conjunto de parámetros que cumplen la ecuación (2.4.3), entonces
habrá un infinito número de ellos.
Veámoslo:
Sea M cualquier matriz de orden s × s no singular, por lo tanto, invertible.
Si definimos,

Λ̈ = ΛM −1 ; ξ¨ = M ξ
36 CAPÍTULO 2. ANÁLISIS FACTORIAL

entonces,

Λ̈ξ¨ + δ = (ΛM −1 ) (M ξ) + δ

= Λ ((M −1 ) M ) ξ + δ

= Λξ + δ

de tal forma que si X cumple la ecuación (2.4.2), también se cumple que:

X = Λ̈ξ¨ + δ.

La matriz de covarianzas de ξ¨ vendrá dada por:


h i
Φ̈ = E ξ¨ξ¨t

= E (M ξ) (M ξ)t
 

= M E [ξξ t ] M t

= M ΦM t .

Si operamos en la ecuación (2.4.3) se obtiene que:


 
−1
Λ̈Φ̈Θ̈ = (ΛM −1 ) (M ΦM t ) (M t ) Λt + Θ
 −1  −1
= Λ (M M −1 ) Φ M t M T Λ +Θ

= ΛΦΛt + Θ,
P
de modo que, si cumple la ecuación (2.4.3), también se cumple que:
P
= Λ̈Φ̈Λ̈t + Θ.

Dado que las matrices marcadas con “¨”solo serı́an iguales en el caso en
que M = I, la matriz identidad, existen infinitas matrices M invertibles que
dan lugar a infinitas soluciones del modelo. En consecuencia, este modelo se
definirı́a como no identificado.

¿Qué tipo de restricciones pueden imponerse a los parámetros? Por ejem-


plo, si una carga factorial de la matriz Λ se fija a cero, λij = 0, estaremos
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 37

indicando que el factor ξj no afecta causalmente a la variable observada Xi .


Si fijamos a cero un elemento de la matriz Φ, φij = 0 estaremos señalando
que los factores ξi y ξj no están correlacionados. Si todos los elementos fuera
de la diagonal se fijan a cero, los factores serán ortogonales (como ocurre
en el AFE). Restricciones similares se pueden imponer a los elementos de la
matriz Θ.

A pesar de que la forma más efectiva de comprobar si un modelo está iden-


tificado es demostrando algebraicamente que es posibleP igualar cada paráme-
tro estructural a una combinación de los elementos de , en la práctica esta
tarea es tediosa y compleja; por lo que en la literatura se han propuesto
una serie de reglas o condiciones necesarias que suelen demostrarse como lo
suficientemente exigentes para garantizar la identificación del modelo; estas
nos permiten determinar más fácilmente el estatus de identificación de un
modelo. En este sentido, el investigador deberı́a centrarse en las siguientes
condiciones:

1. Comparar la información disponible (varianzas y covarianzas muéstra-


les) con el número de parámetros que han de estimarse. El número de paráme-
tros a estimar ha de ser menor o igual que el número de varianzas-covarianzas
muéstrales.

2. Establecer una escala para los factores comunes. Esto se consigue fi-
jando la saturación de una de las variables observadas por factor a 1 o la
varianza de cada factor a 1.

3. Analizar la relación entre las variables observables y los factores comu-


nes:
- Cuando solo hay un factor, el modelo puede estar identificado si hay al
menos tres indicadores con cargas no nulas sobre él.
- Que habiendo al menos tres indicadores por factor, los errores asociados
con los indicadores no estén correlacionados entre sı́, cada indicador carga
solo sobre un factor y los factores pueden covariar entre ellos.
- En el caso de disponer únicamente de dos indicadores serı́a necesario que
exista correlación entre los factores, los errores asociados con cada indicador
no están correlacionados y cada indicador carga solo sobre un factor.

4. Fijar arbitrariamente el coeficiente de regresión entre las variables ob-


servadas y los términos de error al valor 1.

Cualquier modelo que cumpla las condiciones anteriores estará identifica-


38 CAPÍTULO 2. ANÁLISIS FACTORIAL

do (o sobre identificado) y se podrá proceder a la estimación de sus paráme-


tros.

La información disponible son siempre las p(p+1) 2


varianzas-covarianzas
muéstrales. Como el número de parámetros a estimar es p × m + m(m+1) 2
+
p(p+1)
2
, el modelo estará sin identificar si no se imponen, al menos p × m +
m(m+1)
2
restricciones. Sólo si hay más varianzas y covarianzas muéstrales que
parámetros, el modelo estará sobre identificado, [1] y [19].

En la práctica para posibilitar la identificación y, posteriormente, la esti-


mación de los parámetros del modelo, es preciso imponer restricciones fijando
alguno de esos parámetros a una constante. La principal razón de esta fija-
ción a priori, radica en la necesidad de otorgarle una escala de medición a
las variables latentes, dado que, al ser constructos que no se miden de forma
directa, carecen de métrica. Para ello, se iguala a 1 la saturación (λij ) de
un indicador por factor, de tal forma que el indicador elegido actuará como
variable de referencia de ese constructo. Otra opción es estandarizar las va-
riables latentes fijando de antemano su varianza a 1, solución que resultará
especialmente útil cuando la métrica de los indicadores de una misma varia-
ble latente sea diferente, [19].

[Link]. Estimación de parámetros


El proceso de estimación tiene como objetivo encontrar los valores, a par-
tir de los datos muéstrales, de Λ, Φ y Θ, tal que cumplan las restricciones
impuestas en el proceso de identicación y que generen una matriz de cova-
P
rianzas estimada c que sea tan próxima como sea posible a la matriz de
covarianzas muestral S. Ası́,Pla matriz residual R obtenida de la diferencia
entre ambas matrices S − c deber a ser próxima a cero, [19].

A partir de lo descrito, el proceso de estimación del AFC puede sinteti-


zarse en los dos pasos siguientes:

1. Dada la matriz de covarianzas muestral S, se estima el modelo hipo-


tetizado: lo que supone encontrar valores para las matrices, Λ, Φ y Θ, que
satisfagan la ecuación(2.4.3), pero habrá que rechazar todas aquellas solucio-
nes que no cumplan las restricciones que se han impuesto en la identificación
del modelo. Llamemos genéricamente Λ, b Φ b y Θ,
b a las matrices que si cumplan
las restricciones impuestas en el proceso de identificación, éstas generan una
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 39
P
matriz estimada c.

2. Se determina el ajuste del modelo hipotetizado. Esto es, se determina


P
en qué medida c esta próxima a S. Para determinar el grado de proximi-
dad
 entre ambas
 matrices es preciso definir una función de ajuste entre ellas:
P
F S − c , [1] y [19].

Ası́, el objetivo final es obtener, del conjunto de valores de los paráme-


P
tros, aquellos que generen
 unamatriz estimada c que minimice su función
P
de ajuste con S: F = S − c ≈ 0. El proceso estima las varianzas y cova-
rianzas en cada iteración (que es considerado como un mı́nimo local) y en el
mı́nimo final de la función de minimización, se calculará el ajuste y todos los
estimadores. Esto significa que la matriz de covarianzas estimada (también
llamada reproducida) y la matriz de covarianzas observable son próximas y
por ello se ha llegado al mı́nimo. Si la matriz residual es próxima a cero el
ajuste es bueno, [19].

Si la función de minimización o ajuste llega a un mı́nimo final, ello sig-


nifica que la función converge hacia una solución y que se ha llegado a una
cierta correspondencia entre la matriz reproducida y la observada. Si el valor
de la función de ajuste es igual a cero, esto supone que después de un cierto
número de iteraciones se ha llegado a la matriz observada y que el ajuste es
perfecto.
Existen varias funciones de ajuste que difieren según el método de estimación
empleado. Los métodos de estimación de parámetros habitualmente utiliza-
dos son: mı́nimos cuadrados no ponderados, mı́nimos cuadrados generalizados
y máxima verosimilitud, [1], [19] y [20].

La estimación por mı́nimos cuadrados no ponderados (ULS, por sus siglas


en inglés) toma como estimadores a los valores que minimizan la siguiente
función de ajuste:
 X " 2 #
1 X
FU LS S, = tr S− (2.4.4)
d d
2

donde:

tr: indica la traza de la matriz.


S:
P es la matriz de covarianza odservada.
c: es la matriz de covarianza reproducida por el modelo.
40 CAPÍTULO 2. ANÁLISIS FACTORIAL

Este método tiene dos limitaciones que hacen que no sea muy utilizado:
(1) no existen contrastes estadı́sticos asociados a este tipo de estimación y,
(2) los estimadores dependen de la escala de medida de las variables observa-
bles. Sin embargo, una ventaja de este método es que no es necesario asumir
ningún tipo de distribución teórica de las variables observadas, frente al su-
puesto de normalidad multivariada que asumen otros métodos de estimación.

La estimación por mı́nimos cuadrados generalizados (GLS, por sus siglas


en inglés) se basa en ponderar la matriz cuya traza se calcula en la ecuación
(2.4.4) mediante la inversa de la matriz de covarianzas muestral, esto es: [20]
 P h P i2
FGLS S, c = 12 tr S − c S −1 .

La estimación por máxima verosimilitud (ML, por sus siglas en inglés)


implica minimizar la función de ajuste:

 X  X   X 
\−1 d
FM L S, = tr S + ln − ln |S| − p, (2.4.5)
d

donde:
p: es el número de variables observadas.
P
Obsérvese que cuanto más se aproximen las matrices, S y c, más se
aproximará S c−1 a la matriz identidad p × p, como la traza de esa ma-
P
triz identidad es p, el primer término de la ecuación (2.4.5) se aproximará p
cuando las matrices estén próximas, compensándose con el término p de la
expresión. Por otra parte, la diferencia de los logaritmos de la diferencia de
P
los determinantes de S y c tenderán a cero, dado que, cuando las matrices
estén próximas, también lo estarán sus determinantes. Por lo tanto, cuando
las matrices sean iguales la función de ajuste sera cero, [20].

El método de estimación más común en los modelos de estructuras de


covarianzas es el de ML, que proporciona estimaciones coherentes, eficientes,
invariante al tipo de escala y no sesgadas cuando se cumple el supuesto de
normalidad multivariada, [19].

Es importante que los datos sometidos al análisis sean los originales ya


que en el proceso iterativo se estiman las varianzas y las covarianzas de la
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 41

matriz reproducida y no las correlaciones, [20].

En la práctica un modelo no está identificado cuando la función de mi-


nimización no converge y es incapaz de llegar a un mı́nimo final y encontrar
un estimador para cada parámetro. Cuando el proceso iterativo es exitoso, se
podrá proceder a la evaluación del ajuste del modelo y, en el caso de que sea
aceptable, a la interpretación de los parámetros finalmente obtenidos, [19].

[Link]. Evaluación del ajuste del modelo


Antes de pasar a interpretar los resultados del AFC que se ha efectuado,
es necesario determinar hasta qué punto el modelo asumido se ajusta a los
datos muéstrales.

En cuanto a la evaluación de la calidad del modelo, el escalar obtenido


como resultado de la función de ajuste empleada, junto con la matriz resi-
dual resultante de la diferencia entre matrices observada y predicha por el
modelo, serán el punto de partida para la obtención de los ı́ndices de bondad
de ajuste, ı́ndices que informaran de hasta qué punto la estructura definida
a través de los parámetros del modelo reproduce la matriz de covarianzas de
los datos muéstrales, [19].

En este sentido el modelado mediante estructuras de covarianzas no se


sustenta en un único estadı́stico que describa la adecuación de las predic-
ciones realizadas por el modelo. Es por ello que la evaluación de la bondad
de ajuste de un modelo es más un proceso relativo que un criterio absoluto,
por lo que se recomienda la evaluación complementaria de tres tipologı́as de
ı́ndices de ajuste global:

• Índices de ajuste absoluto: determinan el grado en el que el modelo


predice, a partir de los parámetros estimados, la matriz de covarianzas ob-
servada. Entre estos ı́ndices destacan, el ı́ndice χ2 , el ı́ndice de bondad de
ajuste (GFI: Goodness of Fit Índex), el residuo estandarizado cuadrático me-
dio (SRMR: Standardized Root Mean Square Residual) y el error cuadráti-
co medio de aproximación (RM-SEA: Root Mean Square Residual Error of
Aproximation).

• Índices de ajuste incremental: comparan el ajuste global del modelo


propuesto con un modelo de referencia, habitualmente un modelo nulo en el
que no se especifica ninguna relación entre las variables. El ı́ndice del ajuste
42 CAPÍTULO 2. ANÁLISIS FACTORIAL

normado (NFI: Normed Fit Index), el ı́ndice de bondad de ajuste compa-


rativo (CFI: Comparative Fit Index), el ı́ndice de bondad de ajuste (GFI:
Goodness of Fit Index) y el ı́ndice de bondad de adecuación ajustado (AGFI:
Adjusted Goodness of Fit Index) son algunos ejemplos. Por lo general estos
ı́ndices son fáciles de interpretar ya que sus valores oscilan entre 0 (ajuste
ineficaz del modelo a los datos) y 1 (ajuste perfecto), considerándose habi-
tualmente 0.90 como un inicio de ajuste apropiado.

• Índices de parsimonia: ponen en relación el ajuste alcanzado con el


número de parámetros libres del modelo. Entre ellos se destacan el ı́ndice
de calidad de ajuste de parsimonia (PGFI: Parsimonious Goodness of Fit
Index) y el ı́ndice de ajuste normado de parsimonia (PNFI: Parsimonious
Normed Fit Index). La interpretación de estos ı́ndices no se realiza en térmi-
nos absolutos, sino comparando diferentes modelos con el fin de determinar
cuál de ellos goza de una mayor parsimonia. Ası́, cuanto mayor es el valor del
ı́ndice mayor es la parsimonia del modelo. La interpretación inversa la recibe
otro ı́ndice de parsimonia, el criterio de información de Akaike (AIC: Akaike
Information Criterion), que informa de una mayor parsimonia a medida que
decrece su valor, [19].

En la actualidad, los softwares estadı́sticos como LISREL (Scientific Soft-


ware International), AMOS (SPSS) y EQS 6 Structural Equations (Multiva-
riante Software) proporcionan una gran variedad de ı́ndices de ajuste, incluso
cuando estos ya no se consideran apropiados en la literatura cientı́fica (por
ejemplo, NFI del EQS; GFI y AGFI en LISREL, etc). Esta abundancia de
indicadores genera en ocasiones confusión al investigador, sobre todo cuan-
do alguno de estos ı́ndices tienen tendencia a sobrevalorar el ajuste de los
modelos, pudiendo llevar a la falsa conclusión de que el modelo es adecuado
cuando no lo es, [17].

Estadı́stico X 2 para el contraste global del modelo.


El ı́ndice de ajuste por excelencia en los modelos AFC es χ2 . El pun-
to de partida serı́a compararlasmatrices de covarianzas observada (S) y la
P
de covarianzas reproducida c , en el caso de que sean iguales, no habrá
P
diferencia entre las dos y no rechazarı́amos la hipótesis H0 : S = c. Única-
mente en este caso el modelo estarı́a perfectamente identificado y arrojarı́a
un estadı́stico χ2 de cero con cero grados de libertad. Por lo tanto, podemos
establecer las siguientes hipótesis:
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 43

P P
H0 : S = c vs Ha : S 6= c.

Para el contraste de estas hipótesis en Blenter y Bonett se propone el


estadı́stico:

χ2 = N ∗ FM
0
L (2.4.6)

donde:
N : es el número de datos.
0
FM L : es el valor que toma la función de ajuste al realizar la estimación por
máxima verosimilitud.

El estadı́stico se distribuye, bajo la hipótesis nula como una χ2 con los


siguientes grados de libertad:
g.l = p(p+1)
2
− k.

Siendo p el número de variables observadas y k el número de parámetros


que se han de estimar, asociados a la hipótesis nula, que varı́an en función
de cada modelo, [1].

No rechazamos que S = c en el caso de que χ2 sea suficientemente pe-


P
queño (es decir, el valor de p sea superior a, por ejemplo, α = 0,05).

El estadı́stico se utiliza, para contrastar la validez del modelo teórico


propuesto por el investigador. Sin embargo, este ı́ndice rara vez es utilizado
como prueba única o concluyente de bondad del ajuste del modelo. En la
práctica, interesa más cuantificar el grado de ajuste (o desajuste) del modelo
que simplemente rechazar o no la hipótesis nula, [20].
Por lo tanto, se ha optado por complementar el ı́ndice de ajuste basado en el
estadı́stico χ2 con otro conjunto de indicadores. De hecho, en la práctica, si
un modelo presenta un buen ajuste a través del CFI y del RMSEA conjun-
tamente, es muy poco probable que el modelo no sea adecuado a los datos.
Estos ı́ndices de ajuste son, por tanto, una buena guı́a en la búsqueda del
modelo que mejor se ajusta a los datos, [4] y [17].
44 CAPÍTULO 2. ANÁLISIS FACTORIAL

Índices comparativos de ajuste.

El software libre R 3.2.4 (paquete R-commander) ofrecen, además del


estadı́stico χ2 como ı́ndice de ajuste global, un segundo estadı́stico que deno-
minaremos modelo χ2 independiente (también llamado modelo de referencia).
Este estadı́stico se distribuye también como una χ2 bajo la hipótesis nula de
que existe una completa independencia entre las variables observadas (matriz
de correlaciones es la identidad) y tendrı́a tantos grados de libertad como el
número de datos menos el número de parámetros independientes (varianzas)
que se han de estimar, [1]. Los ı́ndices que se proponen son comparativos en
el sentido de que comparan el valor del modelo teórico que se evalúa, con el
modelo independiente.

Índice CFI

Este ı́ndice fue desarrollado por Blenter 1992 citado en [17] a partir del
ı́ndice previo NFI, que corrige para evitar que tome valores más allá del ran-
go 0-1. El CFI compara el χ2 de dos modelos: un modelo independiente que
mantiene que no existe relación entre las variables del modelo, y el modelo
teórico propuesto por el investigador.
Esta comparación se corrige por los grados de libertad de uno y otro modelo
del siguiente modo:

(χ2indep −glindep )−(χ2teorico −glteorico )
CF I =
.
(χ2indep −glindep )

Conforme el X 2 del modelo teórico propuesto disminuye, el numerador


y denominador se igualan, por lo que la situación ideal es que ambos sean
equivalentes (CFI =1); esto es que el valor del estadı́stico χ2 del modelo
teórico sea cero. En general se considera que el CFI debe estar en torno a
0.95 para considerar que el modelo se ajusta adecuadamente a los datos (va-
lor mı́nimo de buen ajuste es 0.90). Este valor, sin embargo, es relativo ya
que, en modelos de gran complejidad el χ2 siempre se alejara del cero, lo
que hace disminuir el CFI. Por lo tanto, la interpretación del ı́ndice CFI se
debe valorar conjuntamente con otros ı́ndices, teniendo en cuenta el tipo de
modelo que se está analizando, [1] y [17].
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 45

Índice RMSEA
El ı́ndice de bondad de ajuste más robusto propuesto a la fecha es el
Error Cuadrático Medio de Aproximación (RMSEA). Este ı́ndice ha sido
desarrollado como una medida absoluta de la diferencia de la estructura de
relaciones entre el modelo propuesto y los valores de covarianza en población
medida Steiger, 1990. Su cálculo es como sigue:
q
δc
RM SEA = (glteorico T
)(N −1)

en este caso el término δbT = max (χ2teorico − glteorico , 0) .

La importancia de este ı́ndice radica en que refleja una diferencia abso-


luta entre el modelo propuesto y los datos observados, tomando en cuenta el
número de estimaciones y el tamaño de la muestra implicada por el modelo
bajo prueba. Es muy importante notar que este ı́ndice, debido a su origen y
propiedades estadı́sticas, compara el modelo con la estructura de relaciones
entre las variables en la población.

El ı́ndice RMSEA y su intervalo de confianza, cuando toman valores me-


nores a 0.05 es indicio de que el ajuste entre el modelo y los datos es muy
bueno, pero si sus valores resultan entre 0.05 y 0.08 el ajuste del modelo a los
datos es razonable; mientras que si sus valores están entre 0.08 y .10 indica
un ajuste pobre o mediocre. Ahora bien, el modelo deberá de rechazarse si los
valores del ı́ndice RMSEA resultan mayores a 0.10. No obstante lo anterior,
por razones prácticas debe incorporarse evidencia que refuerce los resultados
obtenidos. Para ello se recurre a interpretar otros ı́ndices de bondad de ajus-
te, [4], [15], [17] y [19].

Índice RMR y SRMR.


El último grupo de ı́ndices que analizaremos son los basados en los resi-
duos que son un promedio de las diferencias entre las covarianzas muéstrales
y las estimadas que se derivan del modelo. Esto es:
r Pp P
i 2
i=1 j=1 (sij −σij )
RM R = ,
c
p(p+1)
2

donde p es el número de variables observadas.


Como los residuos sin estandarizar están afectados por la escala en que se
mide la variable, se suelen utilizar los residuos estandarizados construyéndo-
46 CAPÍTULO 2. ANÁLISIS FACTORIAL

se el llamado SRMR que está acotado entre 0 y 1. El ajuste se considera


aceptable si el SRMR toma valores inferiores a 0.08 (preferentemente inferior
a 0.05).

Se considera por lo tanto aconsejable presentar estos ı́ndices de ajuste


junto con el χ2 del modelo teórico propuesto, sus grados de libertad y la
probabilidad asociada, [1] y [15].

2.4.4. Interpretación del modelo


Hasta el momento nos hemos centrado en evaluar la bondad de ajuste glo-
bal del modelo. Ahora el siguiente paso, a la hora de determinar su idoneidad
en la descripción de los constructos, es evaluar el ajuste de sus componentes,
que en el caso del AFC serán los parámetros del modelo confirmatorio espe-
cificado.

En el caso de que tanto el ajuste global como individual sea aceptable, el


modelo será consistente con los datos y se podrá proceder a su interpretación
y presentación matricial y/o ecuacional. Si el ajuste no es bueno, se proce-
derá a reespecificar el modelo, para lo que será necesario realizar un análisis
minucioso de los resultados obtenidos. En concreto, con el fin de mejorar la
bondad de ajuste del modelo habrá que examinar, al menos, los siguientes
aspectos:

• Prueba de significación de parámetros: El estadı́stico t informa de la


significación estadı́stica de cada parámetro a partir de la razón entre el valor
del estimador y su error tı́pico. Para un nivel de significancia α ≤ 0,05, un
valor t comprendido entre -1.96 y 1.96, indicará que el parámetro en cuestión
no es estadı́sticamente significativo, por lo que será necesario eliminarlo o
dejarlo a un valor determinado.

• Matriz de residuos normalizados: El análisis de los residuos normali-


P
zados permitirá identificar errores de predicción entre las matrices c y S.
Todo residuo cuyo valor este fuera de los lı́mites entre -2.58 y 2.58, para un
nivel de significancia α ≤ 0,01, indicará que no se ha podido reproducir con-
venientemente, a partir de los parámetros del modelo, la covarianza entre el
par de variables implicado.

• Índices de Modificación (IM): son calculados por todos los parámetros


fijos del modelo, informando del cambio esperado en el valor de χ2 si se libera
2.4. ANÁLISIS FACTORIAL CONFIRMATORIO (AFC) 47

un determinado parámetro fijo y reestima de nuevo el modelo manteniendo


estables el resto de parámetros. De esta forma, el IM será el valor resultante
de la diferencia en el χ2 entre el modelo que tiene el parámetro fijado y el
que lo mantiene libre. Un IM ≥ 3,84 indica que se produce una disminución
estadı́sticamente significativa en el valor de χ2 . Se toma esta referencia por
ser el valor teórico de χ2 para 1 grado de libertad y un nivel de significancia
de 0.05, [4] y [19].

Es importante tener presente que la reespecificacion del modelo se ha de


llevar a cabo gradualmente y siempre apoyándose en una justificación teórica
que sustente el cambio o corrección impuesta. Ası́, si hay más de un paráme-
tro no significativo se ha de eliminar primero el que tenga una razón critica
más baja y proceder a continuación a examinar la bondad de ajuste del nue-
vo modelo corregido. La razón es que la modificación de un solo parámetro
incidirá en la estimacion de los demás, de tal forma que un parámetro que
no era significativo en el modelo original puede llegar a serlo en el modelo
reespecificado, [19].

Sin embargo, existen muchos problemas que pueden generarse como con-
secuencia de una reespecificacion poco meditada. Si el investigador cae en la
tentación de ir incorporando o eliminando relaciones sin más, hasta lograr
un ajuste razonable y no tiene en cuenta si estas modificaciones están o no
sustentadas por el marco teórico de su investigación, puede provocarse que
el modelo al que se llega no sea generalizable (Mccallumn, Roznowski y Ne-
cowitz, 1992), [1].
En este mismo sentido, Padhazur 1982 y Sorbom 1989 citado en [1], afirman
que es cientı́ficamente incorrecto modificar un modelo simplemente para que
mejore su ajuste, ya que el cambio debe ser teóricamente interpretable y el
investigador debe ser capaz de justificar cual es el motivo para añadir una
relación causal determinada.
Capı́tulo 3

Validación y confiabilidad del


cuestionario SF-36

En este capı́tulo se presenta la aplicación de los criterios estudiados en


esta tesis a un instrumento del área de Salud que se está usando para abordar
problemas reales de gran relevancia en la salud.

3.1. Planteamiento del problema


El Lupus Eritematoso Sistémico (LES) es una enfermedad denominada
autoinmune, es decir, provoca una alteración en el sistema inmunológico que
lo lleva a desconocer el cuerpo del enfermo. Este padecimiento no discrimina:
ataca el corazón, riñones, las articulaciones, el cerebro y cualquier otro órgano
y tejido por igual. El nivel de daño que provoca en el cuerpo y los órganos que
afecta varı́a en cada paciente. En México, lo padecen 1.5 millones de personas,
pero podrı́an padecerlo un número mayor, ya que el tiempo estimado para un
diagnóstico correcto es de dos a cinco años, según la Federación Española de
Enfermos de LUPUS. En este lapso la aplicación de medicamentos erróneos
puede alterar el curso de la verdadera enfermedad y provocar complicaciones;
no hay cifras que señalen el número de casos que son mal diagnosticados a
pesar de que en México se reportan de dos a ocho casos por cada 100 mil
habitantes al año.
No existe una prueba especı́fica que permita determinar si una persona padece
la enfermedad. El diagnóstico se basa en la presencia de al menos cuatro de
los once criterios establecidos por la Asociación Americana de Reumatologı́a
(ACR); los que presentan un mayor porcentaje son: el aumento de anticuerpos
anticelulares, sensibilidad a la luz, dolor de cabeza, dolor en articulaciones y
manchas rojizas en mejillas y nariz, conocidas como “alas de mariposa”, [27].

48
3.1. PLANTEAMIENTO DEL PROBLEMA 49

El Lupus Eritematoso Sistémico (LES) es una enfermedad de causa des-


conocida, aunque la herencia, el entorno y los cambios hormonales juegan
un papel importate que afecta a todas las edades, pero con mayor frecuencia
a adultos entre los 18 y 50 años con predominio del sexo femenino, en una
proporción de un hombre por cada 10 a 12 mujeres. La prevalencia del LES
varı́a en los distintos grupos de población, oscilando entre 300 y 400 pacien-
tes por cada 100.000 habitantes. Es más común en ciertos grupos étnicos,
especialmente los afroamericanos, [23].
Aparte de los factores fisiológicos antes mencionados, el LES puede afectar
de diversas formas la Calidad de Vida Relacionada con la Salud (CVRS) de
quienes padecen esta enfermedad, más concretamente a nivel de la actividad
fı́sica, sexual, mental y social. Desde el punto de vista subjetivo, la calidad
de vida relacionada con la salud es la valoración que realiza una persona,
de acuerdo con sus propios criterios del estado fı́sico, emocional y social en
el que se encuentra en un momento dado, y refleja el grado de satisfacción
con una situación personal a nivel: fisiológico (sintomatologı́a general, dis-
capacidad funcional, situación analı́tica, sueño, respuesta sexual), emocional
(sentimientos de tristeza, miedo, inseguridad, frustración) y social (situación
laboral o escolar, interacciones sociales en general, relaciones familiares, amis-
tades, nivel económico, participación en la comunidad, actividades de ocio,
entre otras), [31].
La calidad de vida relacionada con la salud en pacientes con LES se ha ve-
nido evaluando a través de instrumentos tanto genéricos como especı́ficos.
Según [34] en una revisión de literatura sobre instrumentos de CVRS utiliza-
dos en estudios con pacientes con LES se ha encontrado que las áreas de la
CVRS más afectadas en estos pacientes han sido la percepción de salud, la
fatiga, el dolor corporal, la actividad funcional a nivel laboral, la autonomı́a,
las relaciones sociales, familiares y la desesperanza aprendida (respecto a la
imprevisibilidad de la enfermedad del LES).

Dado que para las personas con LUPUS en el estado de Puebla no se ha


validado ningún instrumento de medición, se tomó el cuestionario SF-36 y
se realizó una adaptación cultural. El objetivo de este estudio, realizado por
investigadores del área de la Salud de la BUAP, es validar dicho instrumento.

3.1.1. Instrumento de medición


El cuestionario de salud SF-36 fue desarrollado a principios de los noven-
ta, en Estados Unidos, para su uso en el Estudio de los Resultados Médicos
(Medical Outcomes Study, MOS). Es una escala genérica que proporciona
un perfil del estado de salud y es aplicable tanto a los pacientes como a la
50CAPÍTULO 3. VALIDACIÓN Y CONFIABILIDAD DEL CUESTIONARIO SF-36

población general. Ha resultado útil para evaluar la calidad de vida relacio-


nada con la salud (CVRS) en la población general y en subgrupos especı́ficos,
comparar la carga de muy diversas enfermedades, detectar los beneficios en
la salud producidos por un amplio rango de tratamientos diferentes y valorar
el estado de salud de pacientes individuales. Sus buenas propiedades psi-
cométricas, que han sido evaluadas en más de 400 artı́culos, y la multitud de
estudios ya realizados que permiten la comparación de resultados, lo convier-
ten en uno de los instrumentos con mayor potencial en el campo de la CVRS.

El SF-36 evalúa aspectos de la calidad de vida en poblaciones adultas


(mayores de 16 años). El producto de su aplicación es la construcción de
ocho conceptos o escalas de salud resultado del promedio de la suma de las
preguntas contenidas en el cuestionario. Estos conceptos son: a) función fı́si-
ca (FF), b) rol fı́sico (RF), c) dolor corporal (DC), d) salud general (SG),
e) vitalidad (VT), f) función social (FS), g) rol emocional (RE) y h) salud
mental (SM).
Además de los ocho conceptos de salud, el SF-36 incluye el concepto general
de cambios en la percepción del estado de salud actual y en la del año an-
terior. La respuesta a esta pregunta describe la transición de la percepción
respecto al mejoramiento o empeoramiento del estado de salud. En el cua-
dro I se presenta una descripción de las escalas de salud y sus respectivas
interpretaciones de acuerdo con resultados bajos o altos por cada escala, [13].

Cuadro 3.1: Escalas del instrumento SF-36.


3.2. ANÁLISIS DE LA VALIDEZ DEL CUESTIONARIO SF-36 51

Este cuestionario fue aplicado a pacientes de un hospital del estado de


Puebla.
El muestreo fue por conveniencia, se encuestó a 90 mujeres mayores a 18
años, a quienes se les aplicó, de manera individual el cuestionario de Salud
SF-36 compuesto por 36 preguntas (ı́tems) que valoran los estados tanto
positivos como negativos de la Calidad de Vida Relacionada con la Salud
(CVRS), en mujeres con el Lupus Eritematoso Sistémico (LES) del estado
de Puebla (México).

3.2. Análisis de la validez del cuestionario SF-


36
A continuación se muestran los resultados obtenidos en el análisis de la
validez del cuestionario SF-36 utilizando el paquete R-Commander. En el
anexo A se muestra el procedimiento.

3.2.1. Análisis preliminares


Antes de aplicar el Análisis Factorial se debe comprobar si la correla-
ción entre las variables analizadas es lo suficientemente grande como para
justificar la factorización de la matriz de coeficientes de correlación. Esta
comprobación se realizó mediante el test de Bartlett (1950) y el ı́ndice de
KMO cuyos resultados, se observan en el Cuadro 3.2.

Cuadro 3.2: KMO y prueba de esferecidad de Bartlett.

El ı́ndice de KMO es de 0.82 lo que indica que se puede realizar el AF,


por otro lado la prueba de Bartlett es significativa, ya que P < alfa, y por
52CAPÍTULO 3. VALIDACIÓN Y CONFIABILIDAD DEL CUESTIONARIO SF-36

consecuente se rechaza la hipótesis nula de que la matriz de coeficientes de


correlación no es significativamente distinta de la matriz identidad. Por lo
anterior concluimos que la muestra es adecuada para la realización del AFE.

3.2.2. Análisis Factorial Exploratorio


Esta sección consiste en la obtención de los valores y vectores propios de
la matriz de coeficientes de correlación que se obtienen a partir de la matriz
de datos.

Para determinar el número de factores a extraer se realizó un análisis mul-


tidimensional con el método de Componentes Principales (CP), empleando el
software R-Commander. Este método calcula tantas componentes principales
como variables originales y, ası́ pues, se reproduce la totalidad de la varianza.

Por la regla de Kaiser-Guttman extraemos tantos factores como auto-


valores mayores que uno se encuentren: en nuestro caso extraemos nueve
componentes. Ver cuadro 3.3

Cuadro 3.3: Componentes principales.

Las siguientes salidas en R-Commander ( ver cuadro 3.4 ) son:

- Standard deviation: es la varianza asociada a cada factor (el cuadra-


do de las desviaciones estándar) viene expresada por su valor propio o raı́z
caracterı́stica de la matriz de coeficientes de correlación o de la matriz de
covarianzas.

– Proportion of Variance: es la proporción de la varianza que explica cada


componente principal. Su suma es igual a 1.
3.2. ANÁLISIS DE LA VALIDEZ DEL CUESTIONARIO SF-36 53

– Cumulative proportion: es la proporción acumulada, se calcula sumándo-


las progresivamente.

Por ejemplo: Observamos que las dos primeras componentes agrupan un


42.9 % de la variación, o lo que es lo mismo, hay un 57.1 % de variación que
no se explica.

Cuadro 3.4: Varianza total explicada.

El objetivo del AFE es obtener la estructura factorial más simple desde


el punto de vista de su interpretación más esencial, siguiendo los criterios de
parsimonia establecidos por Thurstone en 1947, [10] y [11].
Tenemos un modelo con nueve factores y con una varianza total explicada
del 73.358 %.

En el gráfico de sedimentación, obtenido mediante el paquete R-Commander,


se observa claramente que la primera componente podrı́a ser extraı́da (ver
Figura 3.1) ya que explica 34.36 % de la varianza total.
54CAPÍTULO 3. VALIDACIÓN Y CONFIABILIDAD DEL CUESTIONARIO SF-36

Figura 3.1: Gráfico de sedimentación.

En primer lugar consideramos el análisis monofactorial para analizar sı́


todos los indicadores saturan en un único factor; para esto utilizamos el
software R-Commander. Los resultados se muestran en el Cuadro 3.5.
Las salidas generadas en el Cuadro 3.5 son:

Primero da la unicidad de cada ı́tem, es decir, el porcentaje de varianza


de cada uno de los ı́tems que no ha podido ser explicado por el factor que se
ha extraı́do.
Por ejemplo: el 87.1 % de la varianza del primer ı́tem no ha sido explicado
por el factor extraı́do, el 80.5 % de la varianza del segundo ı́tem no ha sido
explicado por el factor extraı́do, el 59.3 % de la varianza del noveno ı́tem no
ha sido explicado por el factor extraı́do, etc.

Segundo, da las saturaciones de los ı́tems con el factor extraı́do, es decir


que explica el 32.5 % de la varianza.

Y finalmente, un test cuya hipótesis nula es que un sólo factor es suficien-


te; observemos que el valor de χ2 es muy alto y el p-valor muy bajo a 0.05
por lo que se rechaza la hipótesis de que un solo factor es suficiente.
3.2. ANÁLISIS DE LA VALIDEZ DEL CUESTIONARIO SF-36 55

Cuadro 3.5: Resultados del modelo monofactorial.

A continuación realizaremos el análisis factorial exploratorio utilizando el


56CAPÍTULO 3. VALIDACIÓN Y CONFIABILIDAD DEL CUESTIONARIO SF-36

software R-Commander, con los 9 factores extraı́dos por el método de CP.


Los resultados se muestran en el Cuadro 3.6.

Cuadro 3.6: Matriz de saturaciones, ı́tems agrupados por nueve factores.

Veamos que en el factor 9 solo se tiene un ı́tem por lo que tendrı́amos


problemas de identificación y convergencia, ya que al realizar el Análisis Fac-
torial Confirmatorio éste requiere que cada factor tenga al menos dos ı́tems,
ası́ que descartamos el hecho de que los indicadores saturan en nueve factores.

Estimamos el modelo de ocho factores utilizando el paquete R-Commander,


usando el método de ML para extraer los factores y presentando la rotación
varimax. En el Cuadro 3.7 se muestran los resultados del análisis.
3.2. ANÁLISIS DE LA VALIDEZ DEL CUESTIONARIO SF-36 57

Cuadro 3.7: Matriz de saturaciones, ı́tems agrupados por ocho factores.

En el Cuadro 3.7 se muestran las saturaciones de cada ı́tem en cada fac-


tor, como en realidad se trata de coeficientes de correlación se interpretan
de la misma manera. Los ı́tems que pertenecen a cada factor son aquellos
que tienen el peso mayor en un factor y mucho menores en los demás. Al-
gunos autores indican que en ningún caso debe ser muy inferior a 0.40; sin
58CAPÍTULO 3. VALIDACIÓN Y CONFIABILIDAD DEL CUESTIONARIO SF-36

embargo, para Gorsuch (1993, p. 208) una correlación ı́tem-factor de 0.35 es


suficiente para asumir la relación ı́tem factor e interpretarlo con claridad, y
Kline (1994) señala 0.30 como un valor orientador aceptable (citados en [25]).

A continuación se describe la interpretación de cada uno de los factores


y los ı́tems:

Factor 1: Función Fı́sica (FF). Grado en que la salud limita las activi-
dades fı́sicas tales como el autocuidado, caminar, subir escaleras, inclinarse,
coger o llevar pesos y los esfuerzos moderados e intensos. Asociado a las va-
riables 3, 4, 5, 6, 7, 8, 9, 10, 11, 12.

Factor 2: Salud Mental (SM). Salud mental general, incluyendo depresión,


ansiedad, control de la conducta o bienestar general. Asociado a las variables
19, 24, 25, 26, 28, 29, 30, 31, 32.

Factor 3: Rol Fı́sico (RF). Grado en que la salud fı́sica interfiere en el


trabajo y otras actividades diarias, incluyendo rendimiento menor que el
deseado, limitación en el tipo de actividades realizadas o dificultad en la rea-
lización de actividades. Asociado a las variables 13, 14, 15, 16.

Factor 4: Rol Emocional (RE). Grado en que los problemas emocionales


interfieren en el trabajo u otras actividades Diarias. Asociado a las variables
17, 18, 20.

Factor 5: Salud General (SG). Valoración personal de la salud, que inclu-


ye la salud actual, las perspectivas de salud en el futuro y la resistencia a
enfermar. Asociado a las variables 1, 34, 36, 2.

Factor 6: Dolor Corporal (DC). Intensidad del dolor y su efecto en el tra-


bajo habitual, tanto fuera de casa como en el Hogar. Asociado a las variables
21, 22.

Factor 7: Función Social (FS). Grado en que los problemas de salud fı́sica
o emocional interfieren en la vida social habitual. Asociado a las variables
33, 35.

Factor 8: Vitalidad (VT). Sentimiento de energı́a y vitalidad, frente al


sentimiento de cansancio y agotamiento. Asociado a las variables 23, 27.
3.2. ANÁLISIS DE LA VALIDEZ DEL CUESTIONARIO SF-36 59

3.2.3. Análisis Factorial Confirmatorio

Para confirmar los resultados del AFE se realizó el AFC sobre la ma-
triz de correlación de la muestra total, para esto se utilizó el programa R-
Commander.

Primero lo aplicamos al modelo monofactorial:


Los ı́ndices bondad de ajuste de este modelo se muestran en el Cuadro 3.8,
donde se tiene que la prueba χ2 fue significativa por lo tanto rechazamos la
hipótesis nula de que los indicadores saturan en un único factor, RMSEA es
de 0.129 lo que indica un ajuste pobre; SRMR es de 0.109 por lo cual no es
aceptable.

Cuadro 3.8: Índices bondad de ajuste del modelo monofactorial.

Después aplicamos el AFC para los ocho factores lo cual nos indica que la
prueba χ2 = 917.0971 con 566 gl (p = 4.494937e-19 < 0.001) fue significativa
y por lo tanto rechazamos la hipotesis nula de un perfecto ajuste del modelo
a los datos, de modo que con esta prueba el modelo no es adecuado. Sin
embargo, el ı́ndice CFI = 0.8 a pesar de no llegar a 0.90 fue ligeramente
próximo, por lo que se da por aceptable el ajuste del modelo a los datos. El
valor del ı́ndice RMSEA = 0.08348538 con su intervalo de confianza al 90 %
y el ı́ndice SRMR = 0.08178055 sugieren un ajuste razonablemente bueno
(ver cuadro 3.9.)
60CAPÍTULO 3. VALIDACIÓN Y CONFIABILIDAD DEL CUESTIONARIO SF-36

Cuadro 3.9: Índices de bondad de ajuste del modelo de ocho factores.

Concluı́mos que el modelo de ocho factores es adecuado.

3.3. Análisis de la confiabilidad del cuestio-


nario SF-36
El análisis de la consistencia interna del instrumento se llevó a cabo, em-
pleando el paquete R-Commander, mediante el coeficiente Alfa de Cronbach.
El Cuadro 3.10 muestra los resultados obtenidos.

Cuadro 3.10: Coeficiente alfa de Cronbach.

La confiabilidad del instrumento de 36 ı́tems presentó un α = 0.9329, lo


que confiere a la escala una consistencia interna muy alta o elevada. El análisis
3.4. DISCUSIÓN DE LOS RESULTADOS 61

ı́tem a ı́tem proporciona el α de la escala si se elimina un ı́tem cada vez. En la


última columna de esta salida se observan las correlaciones de cada ı́tem con
la suma de los otros ı́tems, un ı́ndice de homogeneidad de cada ı́tem. Puede
observarse que todos los ı́tems son importantes dado que la eliminación de
alguno de ellos hace disminuir el coeficiente Alfa de Cronbach.

3.4. Discusión de los resultados


Se realizó el análisis factorial exploratorio y el análisis factorial confirma-
torio con rotación varimax del cuestionario SF-36 con el fin de comprobar la
estructura del instrumento y sus dominios. Los factores se seleccionaron me-
diante la aplicación de la regla de Kaiser(conservar factores con valor propio
mayor a 1) y mediante el análisis del gráfico de sedimentación. Los resultados
mostraron 8 factores, los cuales explican el 60 % de la varianza total de los
datos, lo que produjo un agrupamiento de los 8 dominios equivalentes a los
encontrados por los autores del instrumento. También se realizó la Confiabi-
lidad utilizando el coeficiente Alfa de Cronbach el cual fue mayor a 0.9, lo
que indica que hay muy buena consistencia interna.

Los resultados encontrados en este estudio muestran que el SF-36 presen-


ta propiedades psicométricas estables y se puede utilizar como un cuestio-
nario válido y seguro para determinar un perfil multidimensional del estado
de salud y calidad de vida de las personas con LUPUS en el estado de Puebla.
Conclusiones Generales

Esta tesis cumplió los objetivos que se trazaron inicialmente:

1.- Se explicarón los conceptos básicos de confiabiliadad y validez de cons-


tructo, ası́ como, los procedimientos para estimarlos.

2.- Se estudió el modelo del análisis factorial. Se describierón los procedi-


miento que sigue el análisis factorial exploratorio, y los métodos de estimación
para la obtención de factores. Se investigó y estructuró el análisis factorial
confirmatorio describiendo el modelo y las fases de esté análisis.

3.- Se aplicarón los criterios estudiados en esta tesis al instrumento SF-36


mediante el uso del software R-Commander (de distribución libre). Para la
verificación de la validez se realizó inicialmente el análisis factorial explora-
torio, y por último, se desarrolló el análisis factorial confirmatorio.

Esta tesis aporta información sobre confiabilidad y validez de instrumen-


tos de medición, para los investigadores y los profesionales de la salud, que
desean sustentar sus investigaciones al emplear el cuestionario analizado en
esta tesis, cuya validez y confiabilidad ha sido confirmada.

62
Apéndice A

Confiabilidad y validez con


R-Commander

R-Commander es un paquete adicional de R concebido como una inter-


faz gráfica (Graphical User Interface – GUI) que incorpora funciones para el
análisis estadı́stico y generación de gráficos. Consigue, a través de un sistema
de ventanas, convertir a R en un entorno amigable que facilita enormemente
su utilización. [28]

La opción de Importar datos permite trabajar con datos almacenados en


formato ASCII, con datos creados con software estadı́stico (STATA, Mini-
tab, SPSS...) o con datos provenientes de programas como Excel o Acces. El
menú accesible por medio de esta opción muestra los formatos importables
desde R-Commander (véase la Figura A.1). Los pasos a seguir son:

Datos → Importar datos → Tipo de datos → Dirección del fichero.

Figura A.1: Formatos de ficheros importables en R.

Un conjunto de datos, en lenguaje R, es simplemente un objeto más. De


este modo, R-Commander permite tener cargados, de manera simultánea,
distintos conjuntos de datos, y el usuario decide cuál de ellos es el activo con
total libertad en cada momento.

63
64APÉNDICE A. CONFIABILIDAD Y VALIDEZ CON R-COMMANDER

Veamos ahora como realizar el AF directamente desde R-Commander. Esco-


gemos el método de máxima verosimilitud junto con la opción de extraer 8
factores, bajo el supuesto, no confirmado, de que los datos muéstrales pro-
ceden de una distribución normal multivariada. Para acceder al submenú
Análisis dimensional (ver figura A.2), los pasos a seguir son:

Estadı́sticos → Análisis dimensional → Análisis factorial.

Figura A.2: Análisis Factorial con R-Commander.

Entre las técnicas ofrecidas en el submenú de análisis dimensional, desta-


camos:

1. Fiabilidad de la escala. Calcula el Alfa de Cronbach (véase el capı́tulo


1).

2. Análisis factorial. En este subcuadro de diálogo (véase la Figura A.3)


especificamos las variables sobre las cuales se va a llevar a cabo el análisis y
el número de factores que incluiremos en nuestro modelo. La estimación de
las cargas factoriales se hace suponiendo que los datos proceden de una dis-
tribución normal multivariada y emplea el algoritmo desarrollado por Lawley
y Maxwell, es decir, al indicar que realice un AF automáticamente por de-
fecto R-Commander aplicar a el método de máxima verosimilitud (véase el
capı́tulo 2, sección 3.2). Las rotaciones que se pueden hacer son la ortogonal
Varimax y la oblicua Promax (vease el capı́tulo 2, sección 3.3).

3. Una vez realizado un AF, permite realizar un AFC. La salida de este


análisis, se limita a proporcionar el ı́ndice de ajuste basado en el estadı́stico
(véase el capı́tulo 2).
65

Figura A.3: Menú para el Análisis Factorial.


Apéndice B

Instrumento
MARQUE UNA SOLA RESPUESTA

1.-En general, usted dirı́a que su salud es:

1. Excelente
2. Muy buena
3. Buena
4. Regular
5. Mala

2.-¿Cómo dirı́a que es su salud actual, comparada con la de hace un año?

1. Mucho mejor ahora que hace un año


2. Algo mejor ahora que hace un año
3. Más o menos igual que hace un año
4. Algo peor ahora que hace un año
5. Mucho peor ahora que hace un año

LAS SIGUIENTES PREGUNTAS SE REFIEREN A ACTIVIDADES O COSAS QUE USTED PODRÍA HACER EN
UN DÍA NORMAL

3.-Su salud actual, ¿le limita para hacer esfuerzos intensos, tales como correr, levantar objetos pesados, o parti-
cipar en deportes agotadores?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

4.-Su salud actual, ¿le limita para hacer esfuerzos moderados, como mover una mesa, pasar la aspiradora, jugar
a los bolos o caminar más de una hora?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

5.-Su salud actual, ¿le limita para coger o llevar la bolsa de la compra?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

66
67

6.-Su salud actual, ¿le limita para subir varios pisos por la escalera?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

7.-Su salud actual, ¿le limita para subir un solo piso por la escalera?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

8.-Su salud actual, ¿le limita para agacharse o arrodillarse?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

9.-Su salud actual, ¿le limita para caminar un kilómetro o más?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

10.-Su salud actual, ¿le limita para caminar varias manzanas (varios centenares de metros)?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

11.-Su salud actual, ¿le limita para caminar una sola manzana (unos 100 metros)?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

12.-Su salud actual, ¿le limita para bañarse o vestirse por sı́ mismo?

1. Sı́, me limita mucho


2. Sı́, me limita un poco
3. No, no me limita nada

LAS SIGUIENTES PREGUNTAS SE REFIEREN A PROBLEMAS EN SU TRABAJO O EN SUS ACTIVIDADES CO-


TIDIANAS.

13.-Durante las 4 últimas semanas, ¿tuvo que reducir el tiempo dedicado al trabajo o a sus actividades cotidianas,
a causa de su salud fı́sica?

1. Sı́
2. No

14.-Durante las 4 últimas semanas, ¿hizo menos de lo que hubiera querido hacer, a causa de su salud fı́sica?

1. Sı́
2. No

15.-Durante las 4 últimas semanas, ¿tuvo que dejar de hacer algunas tareas en su trabajo o en sus actividades
cotidianas, a causa de su salud fı́sica?

1. Sı́
68 APÉNDICE B. INSTRUMENTO

2. No

16.-Durante las 4 últimas semanas, ¿tuvo dificultad para hacer su trabajo o sus actividades cotidianas (por
ejemplo, le costó más de lo normal), a causa de su salud fı́sica?

1. Sı́
2. No

17.-Durante las 4 últimas semanas, ¿tuvo que reducir el tiempo dedicado al trabajo o a sus actividades cotidianas,
a causa de algún problema emocional (como estar triste, deprimido, o nervioso?

1. Sı́
2. No

18.-Durante las 4 últimas semanas, ¿hizo menos de lo que hubiera querido hacer, a causa de algún problema
emocional (como estar triste, deprimido, o nervioso)?

1. Sı́
2. No

19.-Durante las 4 últimas semanas, ¿no hizo su trabajo o sus actividades cotidianas tan cuidadosamente como
de costumbre, a causa de algún problema emocional (como estar triste, deprimido, o nervioso)?

1. Sı́
2. No

20.-Durante las 4 últimas semanas, ¿hasta qué punto su salud fı́sica o los problemas emocionales han dificultado
sus actividades sociales habituales con la familia, los amigos, los vecinos u otras personas?

1. Nada
2. Un poco
3. Regular
4. Bastante
5. Mucho

21.-¿Tuvo dolor en alguna parte del cuerpo durante las 4 últimas semanas?

1. No, ninguno
2. Sı́, muy poco
3. Sı́, un poco
4. Sı́, moderado
5. Sı́, mucho
6. Sı́, muchı́simo

22.-Durante las 4 últimas semanas, ¿hasta qué punto el dolor le ha dificultado su trabajo habitual (incluido el
trabajo fuera de casa y las tareas domésticas)?

1. Nada
2. Un poco
3. Regular
4. Bastante
5. Mucho

LAS PREGUNTAS QUE SIGUEN SE REFIEREN A CÓMO SE HA SENTIDO Y CÓMO LE HAN IDO LAS COSAS
DURANTE LAS 4 ÚLTIMAS SEMANAS. EN CADA PREGUNTA RESPONDA LO QUE SE PAREZCA MÁS A CÓMO
SE HA SENTIDO USTED.

23.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió lleno de vitalidad?

1. Siempre
2. Casi siempre
69

3. Muchas veces
4. Algunas veces
5. Sólo alguna vez
6. Nunca

24.-Durante las 4 últimas semanas, ¿cuánto tiempo estuvo muy nervioso?

1. Siempre
2. Casi siempre
3. Muchas veces
4. Algunas veces
5. Sólo alguna vez
6. Nunca

25.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió tan bajo de moral que nada podı́a animarle?

1. Siempre
2. Casi siempre
3. Muchas veces
4. Algunas veces
5. Sólo alguna vez
6. Nunca

26.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió calmado y tranquilo?

1. Siempre
2. Casi siempre
3. Muchas veces
4. Algunas veces
5. Sólo alguna vez
6. Nunca

27.-Durante las 4 últimas semanas, ¿cuánto tiempo tuvo mucha energı́a?

1. Siempre
2. Casi siempre
3. Muchas veces
4. Algunas veces
5. Sólo alguna vez
6. Nunca

28.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió desanimado y triste?

1. Siempre
2. Casi siempre
3. Muchas veces
4. Algunas veces
5. Sólo alguna vez
6. Nunca

29.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió agotado?

1. Siempre
2. Casi siempre
3. Muchas veces
70 APÉNDICE B. INSTRUMENTO

4. Algunas veces
5. Sólo alguna vez
6. Nunca

30.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió feliz?

1. Siempre
2. Casi siempre
3. Algunas veces
4. Sólo alguna vez
5. Nunca

31.-Durante las 4 últimas semanas, ¿cuánto tiempo se sintió cansado?

1. Siempre
2. Casi siempre
3. Algunas veces
4. Sólo alguna vez

32.-Durante las 4 últimas semanas, ¿con qué frecuencia la salud fı́sica o los problemas emocionales le han difi-
cultado sus actividades sociales (como visitar a los amigos o familiares)?

1. Siempre
2. Casi siempre
3. Algunas veces
4. Sólo alguna vez
5. Nunca

POR FAVOR, DIGA SI LE PARECE CIERTA O FALSA CADA UNA DE LAS SIGUIENTES FRASES.

33.-Creo que me pongo enfermo más fácilmente que otras personas.

1. Totalmente cierta
2. Bastante cierta
3. No lo sé
4. Bastante falsa
5. Totalmente falsa

34.-Estoy tan sano como cualquiera.

1. Totalmente cierta
2. Bastante cierta
3. No lo sé
4. Bastante falsa
5. Totalmente falsa

35.-Creo que mi salud va a empeorar.

1. Totalmente cierta
2. Bastante cierta
3. No lo sé
4. Bastante falsa
5. Totalmente falsa

36.-Mi salud es excelente.

1. Totalmente cierta
2. Bastante cierta
3. No lo sé
4. Bastante falsa
5. Totalmente falsa
Bibliografı́a

[1] Aldás Manzano, J.: Análisis factorial confirmatorio. Disponible


en [Link]
[Link], Octubre 2016.
[2] Anónimo: Análisis factorial. Disponible en [Link]
[Link]/LECCION/factorial/[Link], Octubre 2016
[3] Ary, Jacobs y Razavieh (1982): Introducción a la investigación
Pedagógica. 2a. ed., Mc Graw Hill Interamericana. México.
[4] Batista Forguet, J. M.; Coenders, G. y Alonso, J. (2004):
Análisis factorial confirmatorio. Su utilidad en la validación de cuestio-
narios relacionados con la salud. Med. Clin. (Barcelona); Vol.122, Supl
1, pp.: 21-27.
[5] Caballero Dı́az, Francisco F., (2011): Selección de modelos me-
diante criterios de información en análisis factorial, aspectos teóricos
y computacionales. Tesis de doctorado para la obtención del tı́tulo de
Doctor por la Universidad de Granada.
[6] Cervantes, Vı́ctor H. (2005): Interpretaciones del coeficiente
alpha de Cronbach. Departamento de Psicologı́a. Universidad Nacional
de Colombia. Bogotá, Colombia. Avances en medición, Vol.3, pp: 9-28.
[7] Corral Yadira (2009): Validez y confiabilidad de los instrumen-
tos de investigación para la recolección de datos. Revista Ciencias de la
educación. Vol.19, n.33, pp: 228-247.
[8] Costello, A. y Osborne, J. (2005): Best practices in exploratory
factor analysis: four recommendations for getting the most from your
analysis. Practical Assessment, Research and Evaluation, ISSN: 1531-
7714, Vol.10, n.7, pp.: 1-9.
[9] Cronbach, L. J (1960): Essentials or Psychological testing. New
York: Harper and Row.

71
72 BIBLIOGRAFÍA

[10] Cuadras, C. M. (2012): Nuevos métodos de análisis multivariante.


CMC Editions. Barcelona, Spain.

[11] Dallas E. Johnson (2000): Métodos multivariados aplicados al


análisis de datos. International Thomson Editores, S.A. de C.V. Educa-
ción, México. 544p.

[12] De la Fuente Fernández, Santiago. Análisis factorial. Disponi-


ble en [Link]
MULTIVARIANTE/FACTORIAL/[Link], Octubre 2016

[13] Gemma Vilaguta; Montse Ferrera; Luis Rajmil (2004) El


cuestionario de salud SF-36 español: una década de experiancia y nuevos
desarrollos. Disponible en [Link]
[Link], Octubre 2016

[14] González Deben, A. y Vázquez Villazón, M. (1999): El análisis


factorial confirmatorio: una herramienta para la validación de pruebas
psicodiagnósticas. Revista cubana de psicologı́a Vol.16, n.2, pp: 114-118.

[15] González Montesı́nos, M. J. y Backho E. (2010): Validación de


un cuestionario de contexto para evaluar sistemas educativos con Mode-
los de Ecuaciones Estructurales. RELIEVE, Vol. 16, n.2.

[16] Hernández Sampieri, R. Fernandez Collado, C. y Baptista


Lucio, P. (2006): Metodologı́a de la Investigación. Mc Graw Hill
Interamericana. México. 850p.

[17] Herrero, J. (2010): El Análisis Factorial Confirmatorio en el estudio


de la Estructura y Estabilidad de los Instrumentos de Evaluación: Un
ejemplo con el Cuestionario de Autoestima CA-14. Intervención Psico-
social, Vol. 19, n.3 pp: 289-300, ISSN: 1132-0559.

[18] Joan Manuel Batista-Fogueta, Germá. Coenders y Jordi


Alonso. (2004) Análisis factorial confirmatorio. Su utilidad en la
validación de cuestionarios relacionados con la salud Disponible en
[Link] Oc-
tubre 2016

[19] Levy Mangin J. P. y Varela Mallou J. (2006): Modelización


con Estructuras de Covarianza en Ciencias Sociales. Temas Esenciales,
Avanzados y Aportaciones Especiales. Netbiblio, S.L. 544p.
BIBLIOGRAFÍA 73

[20] Levy Mangin, J. P. y Varela Mallou, J. (2005): Análisis Mul-


tivariable para las Ciencias Sociales. Pearson S.A. 896p.

[21] Linares Fleites, G. (2006): Análisis de Datos Multivariados. Edito-


rial Benemérita Universidad Autónoma de Puebla. Facultad de Ciencias
de la Computación. México. 277p.

[22] Menéndez, A: Validez, confiabilidad y utilidad. Dis-


ponible en [Link]
5cf112bb-5811-4a9a-8d1e-1ba213c5eef7/0/[Link], Octu-
bre 2016.

[23] Molina, J.F., Anaya, J.M., & Molina, J. Lupus Eritematoso: Ma-
nual práctico para médicos y pacientes (2a. ed.).Medellı́n, Colombia:
CIB. (2005).

[24] Morales Vallejo, P. (2007): La fiabilidad de los test y escalas. Ma-


drid: Universidad Ponticia Comillas.

[25] Morales Vallejo, P. (2013): El análisis factorial en la construcción


e interpretación de test, escalas y cuestionarios. Madrid: Universidad
Ponticia Comillas.

[26] Nunally, J. (1978): Psychometric theory. 2a. ed., Mc Graw Hill. New
York.

[27] Periodico: El universal (2014) disponible en: http:


//[Link]/nacion-mexico/2014/
[Link], Octubre 2016.

[28] R-Commander una interfaz gráfica para R. disponible en:


[Link] Octubre 2016.

[29] Ruiz Bolı́var, Carlos. Confiabilidad. Programa Inter-


institucional Doctorado en Educación. Disponible en http:
//[Link]/blogRedDocente/alexisduran/wp-content/
uploads/2015/11/[Link], Octubre 2016

[30] Ruiz Bolı́var, Carlos. Validez. Programa Interinstitucional Docto-


rado en Educación. Disponible en [Link]
pe/images/7/74/[Link], Octubre 2016

[31] Schwartzmann, L. Calidad de vida relacionada con la salud: aspectos


conceptuales. Ciencia y Enfermerı́a 2, 9-21. (2003).
74 BIBLIOGRAFÍA

[32] Solı́s Baas Neyfis Vanessa: Confiabilidad y Validez de constructo de


instrumentos de medición, Tesis de maestro en Ciencias, BUAP, FCFM,
Mayo 2014.

[33] Stapleton, C. D. (1997): Basic Concepts in Exploratory Factor


Analysis (EFA) as a Tool to Evaluate Score Validity: A Right-Brained
Approach. Paper presented at the annualmeeting of the Southwest Edu-
cational Research Association, Austin, reproducido en How To Series.

[34] Thumboo, J., & Strand, VHealth-related quality of life in patients


with systemic lupus erythematosus: an update. The Annals, Academy of
Medicine, Singapore, 36, 115-122.(2007).

También podría gustarte