0% encontró este documento útil (0 votos)
80 vistas7 páginas

Análisis Factorial: Métodos y Aplicaciones

El documento describe el modelo de análisis factorial, el cual relaciona variables latentes con variables observadas mediante una regresión múltiple. Explica que el análisis factorial busca nuevas variables o factores que expliquen los datos observados y la estructura de sus covarianzas. También describe los métodos para estimar los parámetros del modelo, incluyendo el método de los factores principales y el método de máxima verosimilitud, así como técnicas de rotación de factores para lograr una interpretación más sencilla.

Cargado por

Darnely C.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
80 vistas7 páginas

Análisis Factorial: Métodos y Aplicaciones

El documento describe el modelo de análisis factorial, el cual relaciona variables latentes con variables observadas mediante una regresión múltiple. Explica que el análisis factorial busca nuevas variables o factores que expliquen los datos observados y la estructura de sus covarianzas. También describe los métodos para estimar los parámetros del modelo, incluyendo el método de los factores principales y el método de máxima verosimilitud, así como técnicas de rotación de factores para lograr una interpretación más sencilla.

Cargado por

Darnely C.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Darnely Caraballo Camilo

1084755

Análisis Factorial

El modelo de Análisis Factorial es un modelo de regresión múltiple que relaciona


variables latentes con variables observadas.
El Análisis Factorial tiene muchos puntos en común con el análisis de
componentes principales, y busca esencialmente nuevas variables o factores que
expliquen los datos. En el análisis de componentes principales, en realidad, sólo se
hacen transformaciones ortogonales de las variables originales, haciendo hincapié en la
varianza de las nuevas variables. En el análisis factorial, por el contrario, interesa más
explicar la estructura de las covarianzas entre las variables.
Al igual que en el método de los componentes principales, para efectuar el análisis fac-
torial, es necesario que las variables originales no estén correladas porque si lo estuvieran no
habría nada que explicar de las variables.

Consideramos un conjunto de p variables observadas x’= (x1, x2, . . . , xp) que se asume

relacionadas con un número dado de variables latentes f1, f2, . . . , fk, donde k < p,

1
mediante una relación del tipo

x1 = λ11 f1 + · · · + λ1k fk + u1
..
.

xp = λp1 f1 + · · · + λpk fk + up

o de modo más preciso


x = Λf + u.

donde ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
λ11 · · · λ1k f1 u1
⎜ ⎟ ⎜ .. ⎟ , u = ⎜ .. ⎟ .
Λ = ⎝ ... . . . ... ⎠ , f = ⎝ . ⎠ ⎝ . ⎠
λp1 · · · λpk fk up
Los λij son los pesos factoriales que muestran como cada xi depende de factores comunes
y se usan para interpretar los factores. Por ejemplo, valores altos relacionan un factor con
la correspondiente variable observada y así se puede caracterizar cada factor.
Se asume que los términos residuales u1 , . . . , up están incorrelados entre sí y con los
factores f1 , . . . , fk . Cada variable ui es particular para cada xi y se denomina variable
específica.
Dado que los factores no son observables, se puede fijar arbitrariamente su media en 0
y su varianza en 1, esto es, se consideran variables estandarizadas que están incorreladas
entre sí, de modo que los pesos factoriales resultan ser las correlaciones entre las variables
y los factores.
Así, con las suposiciones previas, la varianza de la variable xi es
X
k
σ 2i = λ2ij + ψi
j=1

donde ψi es la varianza de ui .
De este modo, la varianza de cada variable observada se puede descomponer en dos
partes. La primera h2i , denominada comunalidad, es
X
k
h2i = λ2ij
j=1

2
y representa la varianza compartida con las otras variables por medio de los factores
comunes. La segunda parte, ψi , se denomina varianza específica y recoge la variabilidad
no compartida con las otras variables.
La definición del modelo implica que la covarianza entre las variables xi y xj es

X
k
σ ij = λil λlj .
l=1

Las covarianzas no dependen en absoluto de las variables específicas, de hecho, basta con
los factores comunes. De este modo, la matriz de covarianzas Σ de las variables observadas
es
Σ = ΛΛ0 + Ψ

donde Ψ es una matriz diagonal cuyos componentes son las varianzas específicas: Ψ =
diag(ψ i ).
Lo contrario también se verifica: dada la descomposición de la varianza anterior, se
puede encontrar un modelo factorial para las variables originales, x, con k factores.
En la práctica se tienen que estimar los parámetros del modelo a partir de una muestra,
de modo que el problema se centra en encontrar los valores Λ̂ y Ψ̂ tales que la matriz de
covarianzas muestral S es aproximadamente

S ≈ Λ̂Λ̂0 + Ψ̂

Se tienen dos métodos de estimación de los términos anteriores: el método de los


factores principales y el método de máxima verosimilitud.

Método de los factores principales

Es una técnica basada en autovalores y autovectores pero en lugar de operar sobre la


matriz de covarianzas se opera sobre la llamada matriz de covarianzas reducida,

S ∗ = S − Ψ̂

donde Ψ̂ es una matriz diagonal que contiene las estimas de ψi .

3
Los elementos diagonales de S∗ contiene las comunalidades estimadas (las partes de las

varianzas de cada variable explicada por los factores comunes). Al contrario que el análisis
de componentes principales, el análisis factorial no pretende recoger toda la varianza
observada de los datos, sino la que comparten los factores comunes. De hecho, el análisis
factorial se centra más en recoger las covarianzas o correlaciones que aparecen entre las
variables originales.

El procedimiento es iterativo: se parte de unas comunalidades estimadas a partir de las

correlaciones entre las variables observadas y luego se efectua un análisis de componentes


principales sobre la matriz S∗.

Método de la máxima verosimilitud

Este método es el habitualmente preferido por los estadísticos. Asumiendo normalidad


en los datos se define una distancia F , entre la matriz de covarianzas observada y los valores
predichos de esta matriz por el modelo del análisis factorial. La expresión de dicha distancia

es
F = ln |ΛΛ0 + Ψ| + ³traza S |ΛΛ´0 + Ψ|
−1
− ln |S| − p

Las estimaciones de los pesos factoriales se obtienen minimizando esta función, y esto

es equivalente a maximizar la función de verosimilitud del modelo k factorial asumiendo

normalidad.

Estimación del número de factores

El hecho de tomar un número adecuado de factores k para representar las covarianzas


observadas es muy importante: entre una solución con k ó con k + 1 factores se
pueden encontrar pesos factoriales muy diferentes, al contrario que en el método de
componentes principales, donde los primeros k componentes son siempre iguales.
Una ventaja del método de máxima verosimilitud es que lleva asociado un test estadís-
tico para estimar el número de factores.

4
Rotación de los factores

En el Análisis Factorial no existe una solución única para determinar la matriz de


pesos, de hecho, se puede multiplicar por una matriz ortogonal M de orden k × k de modo
que

x = Λf + u =

= (ΛM)(M 0 f ) + u,

y este nuevo modelo verifica las mismas propiedades que el anterior: tiene como factores
f ∗ = M 0 f y como matriz de pesos ΛM. En este caso, la matriz de covarianzas de las
variables originales es
Σ = (ΛM)(ΛM)0 + Ψ,

que como MM 0 = I, se reduce a que Σ = ΛΛ0 + Ψ como antes; de este modo se explica
de manera [Link] matriz de covarianzas de las variables originales.
Puede ser que la solución sea más interpretable mediante el uso de alguna matriz or-
togonal, lo que lleva al concepto de rotación de los factores. Según Thurstone, la intención
fundamental al realizar una rotación es encontrar una estructura simple. Las propiedades
que debe cumplir son

Cada fila de la matriz factorial de pesos debe contener, al menos, un cero.

Cada columna de la matriz factorial de pesos debe contener, al menos, k ceros.

Cada par de columnas de la matriz factorial de pesos debe contener varias variables
cuyos pesos sean nulos en una columna pero no en la otra.

Si hay más de cuatro factores cada par de columnas de la matriz factorial de pesos
debe contener un número elevado de variables con pesos nulos en ambas columnas.

De manera recíproca, si hay más de cuatro factores, en cada par de columnas de la


matriz factorial de pesos sólo un número pequeño de variables debe contener pesos
no nulos.

5
Cuando se consigue una estructura simple, las variables observadas se encuentran en
grupos mutuamente excluyentes de modo que los pesos son altos en unos pocos factores
y bajos en el resto.

Tipos de rotaciones

Hay dos posible tipos de rotaciones: ortogonales y oblicuas.


La ventaja principal de las rotaciones ortogonales es su simplicidad, ya que los pesos
representan las correlaciones entre los factores y las variables, sin embargo esto no se
cumple en el caso de las rotaciones oblicuas. Entre las rotaciones ortogonales se encuentran
dos tipos principales:

Rotación Varimax: Fue propuesta por Kaiser (1958), y trata de que los factores tengan
unas pocas saturaciones altas y muchas casi nulas en las variables. Esto hace que haya
factores con correlaciones altas con un número pequeño de variables y correlaciones nulas
en el resto, quedando así redistribuida la varianza de los factores.

Rotación Cuartimax: Trata que una variable dada esté muy correlacionada con un
factor y muy poco correlacionada con el resto de factores. Se usa menos frecuentemente
que la anterior.
Entre las rotaciones oblicuas, la más empleada es:

Rotación Oblimín: Trata de encontrar una estructura simple sin que importe el hecho
de que las rotaciones sean ortogonales, esto es, las saturaciones no representan ya la
correlaciones entre los factores y las variables. Se considera un parámetro que controla el

grado de correlación entre los factores, con valores preferentemente entre −0,5 y 0,5.
En cualquier caso, el hecho de rotar los factores siempre es controvertido ya que se
pueden elegir los ejes que resulten de mayor conveniencia. Sin embargo, se puede considerar
que una rotación es sólo un medio para conseguir unos ejes que permitan describir los
puntos de la muestra de la manera más simple posible.

6
Como ejemplo para la aplicación análisis factorial en R, usaremos :
1. una muestra de los años de vida esperados por país, edad y sexo datos 1971.
[Link] muestra de consumo de drogas entre 1634 estudiantes universitarios. Se
consideraron 13 tipos de sustancias y, así, 13 variables con 5 niveles de respuesta
(desde consumo nulo hasta consumo habitual).

También podría gustarte