0% encontró este documento útil (0 votos)
53 vistas62 páginas

Análisis Factorial: Técnicas y Métodos

Este documento describe el análisis factorial, un método estadístico multivariante utilizado para reducir un conjunto de variables correlacionadas a un número menor de factores no observables. Primero, analiza la matriz de correlaciones entre las variables para verificar la estructura factorial subyacente. Luego, extrae los factores principales y rotación de factores para interpretarlos, calculando también las cargas y puntuaciones factoriales. Finalmente, valida el modelo factorial resultante.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPT, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
53 vistas62 páginas

Análisis Factorial: Técnicas y Métodos

Este documento describe el análisis factorial, un método estadístico multivariante utilizado para reducir un conjunto de variables correlacionadas a un número menor de factores no observables. Primero, analiza la matriz de correlaciones entre las variables para verificar la estructura factorial subyacente. Luego, extrae los factores principales y rotación de factores para interpretarlos, calculando también las cargas y puntuaciones factoriales. Finalmente, valida el modelo factorial resultante.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPT, PDF, TXT o lee en línea desde Scribd

TÉCNICAS

ESTADÍSTICAS

MULTIVARIANTES I

1
FORMULACIÓN DEL PROBLEMA

ANÁLISIS DE LA MATRIZ DE CORRELACIÓN

EXTRACCIÓN DE FACTORES

DETERMINACIÓN DEL NÚMERO DE


FACTORES

ROTACIÓN DE FACTORES

VALIDACIÓN DEL MODELO

INTERPRETACIÓN DE FACTORES CÁLCULO DE PUNTUACIONES


FACTORIALES
2
PASO 1

FORMULACIÓN DEL PROBLEMA

3
ANÁLISIS FACTORIAL
El modelo Factorial está motivado por el siguiente argumento:

Supongamos que las variables objeto de nuestro estudio pueden agruparse mediante
sus correlaciones, de manera que, todas las variables dentro de un grupo están
altamente correlacionadas entre ellas, pero tienen correlaciones relativamente bajas
con otras variables que a su vez se encuentran en grupos diferentes.

Es razonable pensar, que cada grupo de variables represente una variable no observable
directamente, o Factor, que sea el responsable de las correlaciones observadas.

La existencia de este tipo de estructura y su estudio es el objetivo del Análisis


Factorial.

4
EL MODELO FACTORIAL

X  ( X1 , ...., Xp )
El modelo Factorial postula que X es linealmente dependiente de unas pocas variables
aleatorias inobservables, F1, F2,...,Fm, llamadas Factores comunes y p adicionales fuentes

de variación 1, 2,...,p llamadas Factores específicos, únicos, o errores.

X 1  1  1,1 F1  1,2 F2  ...  1, m Fm  1


X 2  2  2,1 F1  2,2 F2  ...  2, m Fm   2
 
X p   p   p ,1 F1   p ,2 F2  ...  p ,m Fm   p

X( p1)  μ ( p1)  L F  ε
(pm) (m1) (p1)

El coeficiente ljk se denomina carga de la j-ésima variable en el k-ésimo Factor.


La matriz L es la matriz de cargas.
j se encuentra asociada sólo con la j-ésima variable Xj .
5
 1,2 
 X 1  1   1,1   1 0 0 0 0 
 X 2  2   2,1 2,2   0 2 0 0 0 
F
 X      3,2   1    0 0  3 0 0 
 X 3  3   3,1  F2   0 0 0  0 
 4 4 4,1 4,2   4 
   0 0 0 0 
 X 5  5   5,5 5,2   5

6
Como las cantidades determinadas por F no son observables se hace necesario
introducir algunas suposiciones adicionales:

• E(F)=0
• Cov(F)= E(FF’)= I Es decir, los Factores comunes son incorrelados.
• E()=0,
 1 0  0
 
0 2  0
Cov( )  E  '    
   
 
0 0   p 

• F y  son independientes : Cov(,F)=E(F’)=0 .

Todas estas hipótesis, y la relación funcional entre las variables y los Factores, constituyen
el modelo Factorial ortogonal.

Σ  Cov (X)  E (X  μ)(X  μ) '  E  (LF  ε)(LF  ε) '   E (LF  ε) (LF) ' ε '  
 LE (FF ')L ' E ( F ')L ' LE (F ')  E ( ')  LL '  
7
Σ  Cov(X)  LL ' 
A partir de la expresión anterior, obtenemos los siguientes resultados:

Var  X j   2j ,1  2j ,2  ...  2j , m   j  h2j (comunalidad )   j (varianza especifica)

COMUNALIDAD: Expresa la parte de cada variable (su variabilidad) que puede ser explicada
por los factores comunes a todas ellas.

- ESPECIFICIDAD: Es el término opuesto a comunalidad ya que expresa la parte específica


de cada variable que escapa a los factores comunes

Cov  X i , X j   i ,1 j ,1  i ,2 j ,2  ...  i ,m  j ,m

•COV (X,F)=E(X-)F´ = E (LF+)F´= L E(FF´)+E(F´)=L. Cov( X j , Fk )   j ,k

Si las variables están estandarizadas la matriz de cargas coincide con los


coeficientes de correlación entre variables y factores. 8
OBSERVACIONES:
1.- No siempre existe solución.
.
p( p  1) p 1
El modelo supone que p p
2 2

varianzas y Covarianzas de X se pueden reproducir de pm cargas Factoriales  j ,k

y p varianzas específicas j
Ejemplo: Sirve para comprobar que no siempre existe solución exacta al modelo para un
m fijo.
Sea p=3 y m=1, supongamos la siguiente matriz de Covarianzas de X 1, X2 y X3 (todas

ellas estandarizadas) y el modelo que queremos ajustar es unifactorial:

 1 0.9 0.7  X 1  1  1,1 F1   1


 0.9 1 0.4 
  X 2   2  2,1 F1   2
 0.7 0.4 1 
  X 3   3  3,1 F1   3
2
1  1,1  1 , 0.9  1,121 , 0.7  1,131 ,
Σ  LL '  1  22,1  2 , 0.4  2,131 , 1  23,1  3
9
Se tiene por lo tanto un sistema de 6 ecuaciones con 6 incógnitas que se resuelve
fácilmente obteniéndose:
2
1,1  1.575  11  1.255, pero una correlación no puede ser mayor que 1.

También se obtiene que 1=-0.575 que es un valor imposible por ser negativo
para una varianza.
Cuando
2.- No m1
existe existirán
solución muchas soluciones.
única.
Sea matriz Tmm ortogonal

X- = LF +  = LTT´F +  = L*F* +  Donde L*= LT, y F*=T´F

Como E(F*)=T´E(F)= 0 y Cov(F*)=T´Cov(F)T = T´T = I, es imposible para las observaciones básicas

en X distinguir entre las cargas Factoriales producidas por L y las cargas L* tras una rotación ortogonal.

Es decir los Factores F y F* tienen las mismas propiedades estadísticas, y aunque las cargas L*

son en general diferentes a las cargas L, ambas generan la misma matriz de Covarianzas . Es decir:

10
= LL´ +  = LTT´L´ +  = (L*) (L*)´ +
EJERCICIO DE AUTOEVALUACIÓN

 F1 F2 
 
 X1 0.6 0.5 
L   X2 0.7 0.4 
 
 X3 0.3 0.9 
X 0.6 0.6 
 4

L es matriz de saturación OBTENIDA A PARTIR DE LA MATRIZ DE


CORRELACIONES DE LAS VARIABLES Xi. Calcular:

[Link] y Especificidad de X1 .
[Link] de los Factores Específicos.
[Link] de X1 y X2 .
[Link] de de X1 y F2 .

11
PASO 2

EXAMEN DE LA MATRIZ DE CORRELACIONES.

12
EXAMEN DE LA MATRIZ DE CORRELACIONES.
Un primer paso en el Análisis Factorial será calcular la matriz de
correlaciones R para comprobar si las variables altamente correlacionadas.
Se pueden utilizar diferentes métodos para comprobar el grado de asociación
entre ellas, aquí se destacan:
•Evaluación del determinante de R, un determinante bajo indicará altas
intercorrelaciones entre las variables (aunque no debe ser 0 ya que eso indicaría
dependencia lineal entre ellas). Es conveniente por tanto que sea bajo su valor.
•Test de esfericidad de Bartlett: comprueba si la matriz de correlaciones se
ajusta a la matriz identidad (ausencia de correlación significativa entre las variables),
indica que la nube de puntos se ajustará a una esfera perfecta, siendo la hipótesis nula:
Ho: R= I , siendo la alternativa H1: R≠I

 1 
Si las variables están incorreladas  B 2    n  1  (2 p  5)  ln  R    12 2
 6  2
 p  p

Rechazaremos la hipótesis nula si  B 2   12


2
p 2

 p ,

13
•Índice KMO de Kaiser-Meyer-Olkin: Este índice viene dado por:

 i , j
r 2

i  j j 1
KMO  p p

 i , j  i , j
r 2

i  j j 1
rp 2

i  j j 1

Según este criterio:

si KMO  0.5 valor inaceptable, se desaconseja A.F.


 si 0.5  KMO  0.6 valor demasiado bajo


 si 0.6  KMO  0.8 valor mediocre

 si KMO 0.8 valor excelente.

14
Medida de adecuación de la muestra MSAj (evaluado para cada variable),

 j, j '
r 2

j ' j
MSAj 
 j, j '  j, j '
r 2

j ' j
 rp 2

j ' j

Recomendación: Evaluar el índice KMO y si este toma valores por debajo de 0.6
eliminar aquella variable Xj que tengan un menor valor MSAj siempre que este sea

menor que 0.5.

15
EJEMPLO :

El departamento de recursos humanos de una empresa


evalúa a 48 aspirantes a un puesto de trabajo según 15
criterios, dando una calificación de 0 a 10 en cada uno de
ellos a cada aspirante. Estos criterios son: ‘forma de la letra’
‘aspecto’ ‘capacidad académica’ ‘amabilidad’
‘autoconfianza’ ‘lucidez’ ‘honestidad’ ‘arte vender’
‘experiencia’ ‘empuje’ ‘ambicion’ ‘captar conceptos’
‘potencial’ ‘trabajo en grupo’ y ‘conveniencia’

16
Ejemplo

Utilizando la base de datos de 48 entrevistados para acceder a puestos de trabajo,


En primer lugar examinamos los índices de Kaiser-Meyer Olkin:

Medida de adecuación de KMO (general) = 0.78377561.


 
Para cada variable:

Forma Auto Arte


letra Aspecto Amabilidad confianza Lucidez Honestidad vender Experiencia

0.7701 0.7633 0.6413 0.8104 0.7769 0.5813 0.9056 0.7691

Capacidad Captar Trab Conve


Empuje Ambición académica concept Potencial grupo niencia
0.8407 0.8226 0.3623 0.8024 0.8800 0.7177 0.7636

La variable Capacidad Académica tiene un índice bajo y vamos a eliminarla del Análisis
Factorial

17
Una vez eliminada, confirmamos que todas las variables tienen valores aceptables (por
encima de 0.5).

Forma Aspecto Amabilidad Auto Lucidez Honestidad Arte

Letra Confianza Vender


0.7753 0.7520 0.6534 0.8080 0.7860 0.5782 0.91370
Experiencia Empuje Ambicion Captar Potencial Trab Conveniencia

Concept Grupo
0.7950 0.8535 0.8294 0.8109 0.8434 0.7564 0.8036

18
PASO 3

EXTRACCIÓN DE LOS FACTORES.

19
MÉTODOS DE ESTIMACIÓN.

Nuestro objetivo es determinar los diferentes parámetros i, j i


En los casos en los que las unidades en que hemos medido nuestras variables no sean del
mismo tipo, con varianzas parecidas y medidas en unidades similares, es más usual trabajar
con las variables estandarizadas y por tanto con la matriz R en lugar de con la matriz de
Covarianzas .

Existen diferentes métodos de cálculo. Es prudente utilizar más de un método ya que si el


modelo Factorial (lineal) es adecuado para el problema las soluciones deben ser consistentes
entre si.

20
Método de las Componentes Principales.
La descomposición espectral de la matriz de Covarianzas  produce el resultado:

  1 e1' 
 '

 e 
  1e1e1 ' 2 e2 e2 ' ...   p e p e p '   
1 e1 , 2 e 2 ,...,  p ep  2 2 
  
  e' 
 p p
Recordamos que: Σ  Cov(X)  LL ' 

En este modelo: L  1 e1 , 2 e 2 ,...,  p ep   0


Se observa que las cargas Factoriales son : j ej

El valor se corresponde con la j-ésima Componente Principal salvo un factor de


escala que es j

21
Esta no es la representación que nos interesa. Es preferible utilizar algunas de las
columnas de L, sólo aquellas que provengan de los autovalores mayores ya que, cuando
los p-m últimos autovalores son pequeños, es prácticamente despreciable la aportación de
m+1em+1e’m+1+...+pepep’ a .

  1e1'   1 e11 2 e21  m em1 


   
'
 2 e 2   1 e12 2 e22  m em 2 
 1 e1 , 2 e 2 ,..., m em     LL ' L 
        
  e'   e 2 e2 p  m emp 
 m m  1 1p

En esa Factorización podemos incluir los Factores únicos o específicos. Para ello restamos
los elementos de la diagonal de -LL’, es decir:
m
i   i ,i   2i , j para i=1,2,...,p.
j 1
22
La pregunta de cómo elegir m, se responde de la misma forma que lo hicimos para
determinar el número de componentes principales a retener.

La matriz residual: S- (LL’+) será una representación del error cometido


Ejemplo
Utilizando la base de datos de 48 entrevistados para acceder a puestos de trabajo,

La descomposición de la matriz de correlaciones ahora nos produce Tabla :

Autovalores Proporcion Acumulada


7.5033 0.5360 0.5360
2.0031 0.1431 0.6790
1.3810 0.0986 0.7777
0.8018 0.0573 0.8350
0.5974 0.0427 0.8776
... ... ...

23
Vamos a retener sólo los 3
primeros Factores que
recogen por encima del 75%
de la variabilidad tipificada.

La interpretación de los coeficientes de esta matriz se corresponde con la correlación


entre los ejes y las variables. La matriz L, está reordenada de tal forma que las primeras
variables sean las mas influyentes en la orientación del primer Factor, las siguientes del
24
segundo, etc
Parte de la matriz de Correlaciones Reproducida aparece a continuación:

 for _ let aspecto amabil  


 0.7064 0.2449 0.2667  
Rest  LL '   0.2449 0.3531 0.3272  
 0.2667 0.3272 0.8780  
 
    

La Comunalidad de la variable forma de la letra es:

h2 for_let= 0.7064=0.4452 + 0.66762 + 0.25042

La varianza especifica de la variable tipificada aspecto es por


tanto
2 2
aspecto  1  haspecto  1  0.3531  0.6469
Y la matriz residual

 0.2936 0.0061 0.0396 


 0.0061 0.6469 0.0524 
R res  R  R est 
0.0396 0.0524 0.1220 
     

25
La Comunalidad final para todas las variables se encuentra en buenos números excepto
para la variable aspecto (0.3531), que como parece lógico no se encuentra relacionada con
los tres Factores retenidos.

Form amabilida auto honestida arte experienci captar trabaj


letra aspecto d confianza lucidez d vender a empuje ambicion concept potencial grupo convenir
0.7064 0.3531 0.8780 0.8739 0.8182 0.8262 0.8826 0.7557 0.7778 0.8746 0.8336 0.829 0.6777 0.8001

26
Método del Factor Principal.
Este método se va a razonar en función de la matriz de correlaciones (trabajamos con variables
tipificadas) en lugar de la de covarianzas, en este caso las hipótesis del modelo factorial nos
llevan a las ecuaciones:
= LL’ +

Los elementos de la diagonal principal son: i ,i  1  hi2  i

Si la contribución del Factor específico i es restada de la diagonal, o equivalentemente


2
reemplazamos 1 por hi , la matriz resultante será: -=LL’

Entonces se tiene la siguiente matriz de correlación muestral reducida:

 h1*2 r1,2  r1, p 


 
 r1,2 h2*2  r2, p 
Rr 
    
 
r r2, p *2 
 hp 
 1, p

27
Se Factoriza dicha matriz a través de m Factores comunes. En particular denotemos la
Factorización por:

donde L r
(1)
Rr = Lr(1) Lr(1) ‘

es la matriz de cargas estimada por:


Lr1   ˆ1(1) eˆ 1(1) , ˆ2(1) eˆ (21) ,..., ˆm(1) eˆ (m1) 
Que son los m mayores autovalores y sus correspondientes autovectores de la matriz
Rrque recogen la máxima variabilidad de Rr.

A partir de estas cargas estimamos la varianza específica como


m
 i
(1)
 1    i, j
(1) 2

j 1

Y las Comunalidades:
m
( hi )   i , j 
~ (1) 2 (1) 2

j 1
Y el proceso vuelve a comenzar. Es decir se vuelve a obtener otra nueva solución L(r2 ) y i(2)

El proceso iterativo concluye cuando converjan las Comunalidades estimadas.

28
Existen varios métodos de estimación inicial de la comunalidad:

Utilizando los coeficientes de determinación R2 de la ecuación de regresión lineal


múltiple en que cada variable se explica a través de todas las demás.

Como la mayor correlación en la fila i-esima de la matriz R.

Por el cuadrado del coeficiente de correlación múltiple entre X i y las demás variables

1
(hi(,0i ) ) 2  1 
r i ,i

En el caso de que se utilice la matriz S, para estimar la varianza especifica se utiliza el


término si,i correspondiente al i-esimo elemento de la diagonal de la matriz S -1 como en el
apartado 3.

29
Método de Máxima Verosimilitud.
Este método requiere realizar algunas suposiciones adicionales:

Los Factores comunes F (F1,...,Fm) y los Factores específicos  sigan distribuciones

normales multivariantes. Esto simplemente procede de suponer que las variables


originales se extraen de una normal multivariante de dimensión p.

El número de Factores comunes se fija de antemano (m) con lo que generalmente exige
la utilización previa de un Análisis de Componentes Principales o bien el conocimiento del
número de Factores subyacentes.

En primer lugar se crea la función de verosimilitud de la muestra:


np n
1 n 
L(μ, Σ)   2  exp    (x j   ) '  1 ( x j   ) 
 
2 Σ 2
2  j 1 

sustituyendo  = LL’+  , se obtiene una expresión que depende de L y .

np n
1 n 
L( L,  )   2  exp    (x j  x )  L ' L    ( x j  x ) ' 
  1
2 L'L  2
2  j 1 
30
Este modelo, no obstante tiene indeterminaciones dado que L puede no ser elegido de forma
única (ya que es valida cualquier transformación ortogonal de L). Por ello se impone otra
nueva restricción:
L '  1 L  Δ matriz
diagonal

El objetivo es maximizar la expresión anterior sujeta a esta restricción. La solución de


este método generalmente se lleva a cabo por métodos de análisis numérico.

Observación:
A veces este proceso de cálculo provoca la aparición de Comunalidades superiores a la
unidad .Esta anomalía que se conoce con el nombre de caso ‘ultra Heywood’, se soluciona
corrigiendo artificialmente el valor por el máximo posible que es 1 (caso Heywood). Esta
condición supone la no existencia de unicidad en esa variable.

31
Ventajas de este método.

Una ventaja de la utilización de este método consiste en la propiedad de invarianza


respecto a las escalas de medida. Esto quiere decir que se obtendrá el mismo resultado
utilizando la matriz de Covarianzas que utilizando la matriz de correlaciones. Además es
irrelevante que se utiliza el estimador insesgado de  o el de máxima verosimilitud (S o Sn).

Otra ventaja consiste en la posibilidad de efectuar inferencia sobre los resultados,


es decir sobre la adecuación del modelo a los m Factores comunes.
Ho: =LL’ + 
H1:  otra matriz definida positiva.
Usando el estadístico de Barttlet rechazamos Ho, a un nivel
 si:

ˆˆ ˆ
 2 p  4m  5  LL'  
 n 1  ln   2( p  m )2  p  m ( )
 6  Sn  

32
Para este método los criterios que nos ayudan a decidir el número de Factores a
retener serán más bien pseudoestadísticos. Cabe citar los siguientes:

El propio test de la chi-cuadrado (verosimilitud) de Bartlett. El número de


observaciones debe exceder al de variables al menos en 50 unidades.

El índice de Akaike (AIC). El número de Factores que se considera el óptimo será el
que produzca un menor valor de este índice. Tiende a incluir Factores estadísticamente
significativos pero de escasa trascendencia práctica.

Criterio bayesiano de Schwarz’s, es similar al anterior pero se muestra menos


inclinado a incluir Factores intrascendentes.

Coeficiente de confiabilidad de Tucker-Lewis. Se espera que se encuentre por


encima de 0.75.
Podemos mantener el criterio gráfico de Catell aunque con reservas, pero no el de
las proporciones de variabilidad recogidas por las componentes.
33
Ejemplo 2.4.
En la siguiente tabla mostramos un resumen de los contrastes antes comentados sobre los
datos del ejemplo que venimos analizando

Akaike Schwarz’s Coeficiente de Test p-valor


fiabilidad
Tucker
N=2 60.38 -59.37 0.73 R 0.0001
N=3 18.36 -78.93 0.83 R 0.0001
N=4 8.91 -67.81 0.86 R 0.0009
N=5 6.42 -51.58 0.86 R 0.0043
N=6 0.78 -40.39 0.892 ? 0.0325
N=7 -8.57 -34.77 0.985 A 0.3633
N=8 -6.89 -19.99 1.03 A 0.6034

34
PASO 4

ROTACIÓN DE LOS FACTORES.

35
ROTACIÓN DE FACTORES.

Otro de los objetivos del Análisis Factorial:

LA INTERPRETACIÓN DE LOS FACTORES PREVIAMENTE OBTENIDOS.

Las cargas originales conseguidas inicialmente rara vez serán fácilmente


interpretables

SOLUCIÓN

ROTAR LOS FACTORES HASTA QUE SE CONSIGA UNA ESTRUCTURA MÁS


SENCILLA DE INTERPRETAR.

IDEALMENTE QUISIÉRAMOS QUE CADA VARIABLE ESTUVIERA:

altamente correlacionada (tuviera cargas altas) con un único Factor

poco correlacionada (cargas pequeña) con el resto de los m-1 Factores.

36
¿QUÉ OCURRE AL ROTAR UN CONJUNTO DE FACTORES?

 No cambia la proporción de inercia total explicada.

 No cambian las Comunalidades de cada variable .

 Si se ven afectados los coeficientes que dependen directamente de la


posición de las componentes respecto a las variables originales (cargas
Factoriales, definidas por 
i, j

y que una vez transformadas las denotaremos por *i , j

La transformación hacia una estructura más simple puede determinarse


gráficamente en muchas circunstancias.

Los Factores comunes incorrelados se pueden visualizar como vectores que


formen ejes perpendiculares.

37
Si m=2, una gráfica de los pares de cargas para cada variable i ˆ
i ,1
ˆ
, i ,2 
permite visualizar p puntos (tantos como variables). Los ejes pueden
visualmente ser rotados un ángulo  y las nuevas cargas que denotaremos por

*i , j
se determinan por la relación:

 cos  sen  
Lˆ *  Lˆ T T= 
  sen  cos  

Cuando m  2 no es tan fácil determinar visualmente una posible rotación

Por ello se utilizan métodos de rotación ortogonal algo más sofisticados,


generados de forma analítica.

38
  p  ˆ* 
2

ROTACIÓN VARIMAX.   

i, j
 
 ˆ*
4   hˆ  
Esta rotación selecciona la 1 m  p   
i 1
 i  
V   
i, j
 
transformación T que maximice: p j 1  i 1  hˆi 
 p 
 
 
 
ˆ *i , j
Es decir, busca los valores de 
que maximizan V sujeto a mantener la m
Comunalidad de cada variable   
j 1
* 2
i, j  hi2

Este método simplifica las columnas de la matriz de Factores, en el sentido de conseguir


que cada Factor rotado tenga unas cargas Factoriales altas sólo con unas pocas
: variables. Las demás deben tener correlaciones próximas a 0 con el Factor.

V representa la varianza de sus cargas Factoriales cuadráticas. Para evitar que los
Factores con sumas de cargas Factoriales altas tengan más peso, se aplica la
normalización que resulta de dividir cada carga Factorial por su Comunalidad

Fijadas unas Comunalidades que determinan un número de Factores comunes, la


rotación varimax da una solución única, cualquiera que sea el método utilizado
previamente (Factor principal, componentes principales, máxima verosimilitud,...).

Es recomendable principalmente cuando el número de Factores es reducido.


39
ROTACIÓN QUARTIMAX.

Se utiliza para conseguir que cada variable tenga una correlación alta con muy
pocos Factores cuando es elevado el número de estos. Lo que busca es
maximizar la varianza de las cargas Factoriales cuadráticas para cada variable,
sujeto a mantener la Comunalidad constante para cada variable.
p m

   * 2
i, j
Es decir, busca maximizar i 1 j 1

m
sujeto a mantener la Comunalidad de cada variable:   
j 1
* 2
i, j  hi2

Es recomendable cuando el número de Factores es elevado .

40
 1 
 
 0.505 1 
La matriz de Correlaciones obtenida a  0.569 0.422 1 

partir de datos conteniendo medidas de  0.602 0.467 0.926 1 
diferentes huesos es:  0.621 0.482 0.877 0.874 1 
 
 0.603 0.450 0.878 0.894 0.937 1 

Estimadores de Cargas Factoriales
carga estimadas una vez
  rotado los Factores por
F1 F2 el método varimax.
Variable F*1 F*2
Longitud del cráneo 0.602 0.2 0.484 0.411
Anchura del cráneo 0.467 0.154 0.375 0.319
Longitud del fémur 0.926 0.143 0.603 0.717
Longitud de la tibia 1 0 0.519 0.855
Longitud del húmero 0.874 0.476 0.861 0.499
Longitud del cubito 0.894 0.327 0.744 0.594
Utilizando los estimadores de las cargas Factoriales no rotadas, obtener
•Las varianzas específicas de cada variable.
•Las comunalidades.
•La proporción de varianza explicada mediante cada Factor.
•La matriz residual.
•Repetir los apartados anteriores utilizando los estimadores de las cargas Factoriales rotadas.
41
Estimadores Cargas Factoriales
de carga  después de rotar

Variable F1 F2 F*1 F*2

Longitud del cráneo 0.602 0.2 0.484 0.411


Anchura del cráneo 0.467 0.154 0.375 0.319
Longitud del fémur 0.926 0.143 0.603 0.717
Longitud de la tibia 1 0 0.519 0.855
Longitud del húmero 0.874 0.476 0.861 0.499
Longitud del cubito 0.894 0.327 0.744 0.594

F1 al F2 al F1 F2
cuadrado cuadrado Comunalidades rotado^2 rotado^2 Comunalidades

0,362404 0,04 0,402404 0,234256 0,168921 0,403177

0,218089 0,023716 0,241805 0,140625 0,101761 0,242386

0,857476 0,020449 0,877925 0,363609 0,514089 0,877698

1 0 1 0,269361 0,731025 1,000386

0,763876 0,226576 0,990452 0,741321 0,249001 0,990322

0,799236 0,106929 0,906165 0,553536 0,352836 0,906372

42
F1 al F2 al F1 F2
cuadrado cuadrado Comunalidades rotado^2 rotado^2 Comunalidades

0,362404 0,04 0,402404 0,234256 0,168921 0,403177

0,218089 0,023716 0,241805 0,140625 0,101761 0,242386

0,857476 0,020449 0,877925 0,363609 0,514089 0,877698

1 0 1 0,269361 0,731025 1,000386

0,763876 0,226576 0,990452 0,741321 0,249001 0,990322

0,799236 0,106929 0,906165 0,553536 0,352836 0,906372

4,418751 4,420341

4,001081 0,41767 2,302708 2,117633

¿Qué significado tienen estos valores?

43
Ejemplo2.5:

Para mejorar la interpretación del análisis efectuados sobre los candidatos a puestos
de trabajo, se llevó a cabo una rotación VARIMAX. La matriz ortogonal que
optimizaba la transformación fue:

1 2 3
0.83682 0.35867 0.41364
-0.22434 0.91382 -0.33853
-0.49941 0.19049 0.84516

L*=LT

Varianza de cada Factor


Factor1 Factor2 Factor3
5.6996 2.6881 2.4999

44
El primer eje Factorial, representa el potencial empresarial del candidato, su
ambición, empuje,...
El segundo se asocia a la experiencia.
El tercero a la forma de ser.

LA ROTACIÓN, MEJORA CONSIDERABLEMENTE LA INTERPRETACIÓN. 45


PASO 5

BONDAD DEL AJUSTE

46
BONDAD DEL AJUSTE REALIZADO A PARTIR DE LA MATRIZ DE
CORRELACIONES REPRODUCIDA.

Las Comunalidades estimadas nos proporcionan una medida del grado en que
cada variable depende conjuntamente o viene explicada por los m Factores.

Pueden considerarse medidas de bondad de ajuste de cada una de las p variables.

Otra medida de la bondad de ajuste:


m
Comparar la matriz de correlación muestral
observada frente a la matriz de correlación
rˆi , j   *i ,k *j ,k r
i, j  rˆi , j 
k 1
reproducida (LL’)

CONTRASTES DE SIGNIFICACIÓN DE LAS CORRELACIONES RESIDUALES

1
Test de Kelley r
i, j  rˆi , j   resij 
n
r i, j  rˆi , j 
2

 
Test basado en la chi-cuadrado H0: ri , j  rˆi , j  resij  0 i, j ri, j
  p2 ( p 1) / 2 ( )

p p

  r  rˆi , j 
2
i, j
Caracterización de la matriz residual i 1 j 1
RMSR   0.07 47
p( p  1) / 2
1
En el ejemplo de los candidatos a puestos de trabajo: n=48 -   0.1443
48

Sólo hay dos valores cuya correlación residual es mayor en valor absoluto que nuestra
referencia (forma_letra y experiencia, y aspecto con trabajo en grupo).

 ri,j  rˆi, j 
2


i, j ri,j
2
 1.8686  14(13) 2
/ 2 (0.1)   91 (0.1)  108.66058

RMSR=0.0538 < 0.07

La solución es bastante asumible.

Valores de variables por debajo de 0.1 y la media por debajo de 0.07


48
MATRIZ DE PROYECCIONES O DE PUNTUACIONES.

El Análisis Factorial se encuentra muy interesado en los parámetros del modelo


Factorial.

Sin embargo los valores estimados de los Factores comunes para cada una de
las observaciones, coordenadas de las observaciones en los Factores
Comunes, también deberán obtenerse.

Estas cantidades suelen servir como entradas para procedimientos posteriores


(regresión, discriminante, etc..).

Con la representación gráfica de estas observaciones sobre el espacio Factorial


(generalmente sobre planos Factoriales) se detectarán agrupaciones de
observaciones, outliers, así como una caracterización de las observaciones
según la interpretación que tengan los Factores.

Estos valores, a no ser que se realice el método de las componentes principales en


cuyo caso se obtienen de forma directa, deben estimarse.

49
La regresión múltiple es una de las técnicas más utilizadas para llevar a cabo esta
estimación. De esta forma el valor del Factor α para la observación i deberá obtenerse
como:

ˆ i  ˆ1 xi1  ˆ2 xi 2    ˆ p xip

ˆ j es el coeficiente de la variable j en la estimación del modelo lineal para la variable


subyacente o Factor subyacente Fα (en los paquetes informáticos se les suele
denominar SCORE).
En forma matricial la ecuación anterior se
representa por:
ˆ  XBˆ
ψ

Si se utilizan las variables estandarizadas (Análisis Factorial sobre la matriz de correlaciones),


X se convierte en la matriz Z y lo que buscamos será:

ˆ
ˆ  ZB
ψ
50
ˆ
ˆ  ZB
ψ
1
Multiplicando ambos lados de la ecuación por la izquierda por Z'
1 1
n
ˆ
ˆ  Z'ZB
Z'ψ
n n
1
Z'Z = R (matriz de correlaciones de las variables originales)
n
1
ˆ = L (matriz de correlaciones entre las variables originales y los factores)
Z'ψ
n

ˆ
L  RB ˆ = R -1L
B ˆ  ZR -1L
ψ
1
 11   m1   z11  z1 p   r11  r1 p   l11  l1m 
      
    
              
     l 
 1n   mn   zn1  znp   rp1  rpp   p1  l pm 

Los valores estimados de los Factores para cada observación dependen las variables
originales estandarizadas, de la inversa de matriz de correlaciones y de la matriz L de
cargas. 51
La proyección de la observación i:

1  l1 
 r11  r1 p   
  i   zi1 zi 2

 zip      
  l2 
 
r  r   
 p1 pp 
 l p 

Representación de los candidatos a puestos


de trabajo en los dos primeros ejes.

Dos de las personas con mayor experiencia


(41 y 42) se encuentran mal valorados
respecto al primer Factor (carecen de
ambición, autoconfianza, etc. ).

52
EJEMPLO RESUELTO CON SAS.
El fichero empleo contiene información sobre el porcentaje de gente empleada en
nueve industrias diferentes en Europa el año 1980. Se va a seguir los pasos necesarios
para realizar Análisis Factorial sobre la matriz de correlaciones por diferentes métodos.
En primer lugar, comenzamos creando el conjunto de datos

data empleo;
input pais $ 1-12 agricultura mineria industria abastecimiento
construccion servicios finanzas serv_social transporte;
cards;
Belgica 3.3 0.9 27.6 0.9 8.2 19.1 6.2 26.6 7.2
Dinamarca 9.2 0.1 21.8 0.6 8.3 14.6 6.5 32.2 7.1
Francia 10.8 0.8 27.5 0.9 8.9 16.8 6.0 22.6 5.7
RFAlemana 6.7 1.3 35.8 0.9 7.3 14.4 5.0 22.3 6.1
Irlanda 23.2 1.0 20.7 1.3 7.5 16.8 2.8 20.8 6.1
Italia 15.9 0.6 27.6 0.5 10.0 18.1 1.6 20.1 5.7
Luxemburgo 7.7 3.1 30.8 0.8 9.2 18.5 4.6 19.2 6.2
Holanda 6.3 0.1 22.5 1.0 9.9 18.0 6.8 28.5 6.8
Gran Bretaña 2.7 1.4 30.2 1.4 6.9 16.9 5.7 28.3 6.4
............. .......................................
Rusia 23.7 1.4 25.8 0.6 9.2 6.1 0.5 23.6 9.3
Yugoslavia 48.7 1.5 16.8 1.1 4.9 6.4 11.3 5.3 4.0
;

53
proc Factor, realiza por defecto el Análisis Factorial por el método de las
componentes principales.
La opción msa nos va a servir para saber si la matriz de datos se adecúa a la
realización de Análisis Factorial.

proc Factor data=empleo msa ;


var agricultura--transporte;
run;

Los índices son demasiado pobres, lo que significa que no se debe llevar a cabo AFC
para este conjunto de variables. Lo que procede será eliminar las variables que tengan
índices de adecuación muestral bajos.

Se elimina la variable finanzas que es la que posee un menor valor del índice.

54
proc Factor data=empleo MSA;
var agricultura--servicios serv_social transporte;
run;

Se vuelve a realizar el análisis, eliminando la variable industria.


proc Factor data=empleo MSA;
var agricultura mineria abastecimiento construccion servicios serv_social
transporte;
Run;

Sigue sin ser satisfactorio, por lo tanto, eliminamos la variable construcción:


55
proc Factor data=empleo MSA;
var agricultura mineria abastecimiento servicios serv_social transporte;
run;

Kaiser's Measure of Sampling Adequacy: Overall MSA = 0.60645038


agricultura mineria abastecimiento servicios serv_social transporte
0.61521 0.38407 0.66494 0.55031 0.71101 0.68740

proc Factor data=empleo scree ;


VAR agricultura mineria abastecimiento servicios serv_social transporte;
run;
Eigenvalues of the Correlation Matrix: Total
= 6 Average = 1
  Eigenvalue Difference ProportionCumulative
1 2.89878 1.28856 0.4831 0.4831
2 1.61023 0.86320 0.2684 0.7515
3 0.74703 0.34784 0.1245 0.8760
4 0.39919 0.16143 0.0665 0.9425
5 0.23776 0.13075 0.0396 0.9822
6 0.10701   0.0178 1.0000

La opción scree permitie visualizar gráficamente la


secuencia de autovalores para ayudarnos en la
decisión de los Factores a retener 56
proc Factor data=empleo out=solucion1 outstat=solucion2 reorder n=2
Rotate=VARIMAX;
VAR agricultura mineria abastecimiento servicios serv_social
transporte;
run;

57

proc print data=solucion1;


run;

Obs pais agricultura mineria ... transporte Factor1 Factor2


1 Belgica 3.3 0.9 ... 7.2 1.19484 -0.20323
2 Dinamarca 9.2 0.1 ... 7.1 1.15326 -0.94173
3 Francia 10.8 0.8 ... 5.7 0.54269 -0.52030
RFAleman
4 6.7 1.3 ... 6.1 0.38740 -0.05383
a
.. .. .. .. .. .. .. ..
26 Yugoslavia 48.7 1.5 ... 4.0 -2.06082 -0.05942

58
proc print data=solucion2;
run;

59
Representación de las variables en el plano Factorial,

Se utiliza la matriz de cargas.

¿Dónde tenemos esta matriz?

En el conjunto de datos solucion2


Sólo necesitamos la información contenida en las observaciones donde la variable _type_
vale ‘PATTERN’

Además deberemos intercambiar filas por columnas,

Utilizamos el procedimiento transpose

proc transpose data=solucion2 out=represen;


where _type_='PATTERN';
run;
proc print data=represen;
run;

60
%plotit (data=represen, plotvars=Factor1 Factor2, labelvar=_name_, href=0, ref=0);

61
Representación de las observaciones (paises) en el plano Factorial) utilizando
el conjunto de datos solucion1:

%plotit(data=solucion1, labelvar=pais, plotvars=Factor1 Factor2, tsize=1.5,


symsize=0.5, color=cream, colors=red, ls=125, href=0, vref=0);
run;

62

También podría gustarte