100% encontró este documento útil (1 voto)
209 vistas14 páginas

ACP

Este documento presenta un análisis de componentes principales de variables relacionadas con la contaminación atmosférica en 41 ciudades de EE.UU. Los tres primeros componentes principales, que capturan el 85% de la varianza, se pueden etiquetar como calidad de vida, tiempo húmedo y tipo de clima. La cantidad de SO2 se explica principalmente por el componente de calidad de vida, relacionado con un entorno más pobre y climático que empeora cuando aumenta la contaminación.

Cargado por

facenuna
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
209 vistas14 páginas

ACP

Este documento presenta un análisis de componentes principales de variables relacionadas con la contaminación atmosférica en 41 ciudades de EE.UU. Los tres primeros componentes principales, que capturan el 85% de la varianza, se pueden etiquetar como calidad de vida, tiempo húmedo y tipo de clima. La cantidad de SO2 se explica principalmente por el componente de calidad de vida, relacionado con un entorno más pobre y climático que empeora cuando aumenta la contaminación.

Cargado por

facenuna
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ANÁLISIS DE COMPONENTES PRINCIPALES - Ejemplo.

‐ Muestra de 41 ciudades de USA donde se


midieron diferentes variables relacionadas con la contaminación atmosférica.

SO2 Neg.Temp Empresas Poblacion Viento Precip Días

Phoenix 10 70,3 213 582 6 7,05 36


Little Rock 13 61 91 132 8,2 48,52 100
San Francisco 12 56,7 453 716 8,7 20,66 67
Denver 17 51,9 454 515 9 12,95 86
Hartford 56 49,1 412 158 9 43,37 127
Wilmington 36 54 80 80 9 40,25 114
Washington 29 57,3 434 757 9,3 38,89 111
Jacksonville 14 68,4 136 529 8,8 54,47 116
Miami 10 75,5 207 335 9 59,80 128
Atlanta 24 61,5 368 497 9,1 48,34 115
Chicago 110 50,6 3344 3369 10,4 34,44 122
Indianapolis 28 52,3 361 746 9,7 38,74 121
Des Moines 17 49 104 201 11,2 30,85 103
Wichita 8 56,6 125 277 12,7 30,58 82
Louisville 30 55,6 291 593 8,3 43,11 123
New Orleans 9 68,3 204 361 8,4 56,77 113
Baltimore 47 55 625 905 9,6 41,31 111
Detroit 35 49,9 1064 1513 10,1 30,96 129
Minneapolis‐St. Paul 29 43,5 699 744 10,6 25,94 137
Kansas City 14 54,5 381 507 10 37 99
St. Louis 56 55,9 775 622 9,5 35,89 105
Omaha 14 51,5 181 347 10,9 30,18 98
Alburquerque 11 56,8 46 244 8,9 7,77 58
Albany 46 47,6 44 116 8,8 33,36 135
Buffalo 11 47,1 391 463 12,4 36,11 166
Cincinnati 23 54 462 453 7,1 39,04 132
Cleveland 65 49,7 1007 751 10,9 34,99 155
Columbus 26 51,5 266 540 8,6 37,01 134
Philadelphia 69 54,6 1692 1950 9,6 39,93 115
Pittsburgh 61 50,4 347 520 9,4 36,22 147
Providence 94 50 343 179 10,6 42,75 125
Memphis 10 61,6 337 624 9,2 49,10 105
Nashville 18 59,4 275 448 7,9 46 119
Dallas 9 66,2 641 844 10,9 35,94 78
Houston 10 68,9 721 1233 10,8 48,19 103
Salt Lake City 28 51 137 176 8,7 15,17 89
Norfolk 31 59,3 96 308 10,6 44,68 116
Richmond 26 57,8 197 299 7,6 42,59 115
Seattle 29 51,1 379 531 9,4 38,79 164
Charleston 31 55,2 35 71 6,5 40,75 148
Milwaukee 16 45,7 569 717 11,8 29,07 123

Las variables son:

— Contenido en SO2
(Temp): Temperatura anual en grados F
(Emp): Número de empresas mayores de 20 trabajadores
(Pob): Población (en miles de habitantes)
(Viento): Velocidad media del viento
(Precipt): Precipitación anual media
(Días): Días lluviosos al año

1
En principio interesa investigar la relación entre la concentración en SO2 y el resto de variables,
utilizamos un análisis de componentes principales para eliminar relaciones entre las variables.

Se realiza un análisis de componente principales sobre todas las variables salvo SO2.

En la salida de resultados de R se observan varias gráficas descriptivas exploratorias donde se


presentan varios datos anómalos (outliers), por ejemplo Chicago.

Se obtienen los componentes principales a partir de la matriz de correlaciones para emplear las
mismas escalas en todas las variables.

Los primeros tres componentes tienen todos varianzas (autovalores) mayores que 1 y entre los tres
recogen el 85% de la varianza de las variables originales.

 El primer componente se le podría etiquetar como calidad de vida con valores negativos altos en
empresas y población indicando un entorno relativamente pobre.

 El segundo componente se puede etiquetar como tiempo húmedo, y tiene pesos altos en las
variables precipitaciones y días.

 El tercer componente se podría etiquetar como tipo de clima y está relacionado con la
temperatura y la cantidad de lluvia.

Aunque no se encontrasen etiquetas claras para los componentes, siempre es interesante calcular
componentes principales para descubrir si los datos se encuentran en una dimensión menor. De
hecho, los tres primeros componentes producen un mapa de los datos donde las distancias entre los
puntos es bastante semejante a la observada en los mismos respecto a las variables originales.

Se realiza un análisis de regresión de la variable SO2 sobre los tres factores: claramente la cantidad
de SO2 se explica mediante el primer componente de calidad de vida (relacionado con el entorno
humano y el clima) que cuando empeora aumenta, a su vez, la contaminación.

2
ANÁLISIS DE COMPONENTES PRINCIPALES CON SPSS

El objetivo del Análisis de Componentes Principales es identificar a partir de un conjunto de p


variables, otro conjunto de k (k < p) variables no directamente observables, denominadas factores,
tal que:
‐ k sea un número pequeño
‐ Se pierda la menor cantidad posible de información
‐ La solución obtenida sea interpretable.

‐ Evaluación de lo apropiado de realizar el análisis.


Pasos en el Análisis de
‐ Extracción de los factores.
Componentes Principales:
‐ Cálculo de las puntuaciones factoriales para cada caso.

Descriptivos univariados.‐ Muestra, para cada variable, el número de casos válidos, la media y
desviación típica.

Solución inicial.‐ Permite obtener las comunidades iniciales, los autovalores de la matriz analizada y
los porcentajes de varianza asociada a cada valor.

3
MATRIZ DE CORRELACIONES

Coeficientes.‐ Muestra la matriz con los coeficientes de correlación entre las variables utilizadas en el
análisis.

Niveles de significación.‐ Incluye en la matriz de correlaciones los niveles críticos asociados a este
coeficiente.

Determinante.‐ Muestra el determinante de la matriz de correlaciones: El valor del determinante


aparece en una nota a pie de tabla. Los determinantes próximos a cero están indicando que las
variables utilizadas están linealmente relacionadas, lo que significa que el análisis factorial, es una
técnica pertinente para analizar esas variables.

Inversa.‐ Muestra la inversa de la matriz de correlaciones. Esta matriz es la base para el cálculo de
Comunalidades iniciales en algunos métodos de extracción y para el cálculo de la matriz anti‐imagen.

Reproducida.‐ Muestra la matriz reproducida. Es la matriz de las correlaciones que se obtiene a partir
de la solución factorial hallada. Si el modelo es bueno y el número de factores el adecuado, la
estructura factorial debe ser capaz de reproducir la matriz de correlaciones.
En la diagonal de la matriz reproducida se encuentran las Comunalidades finales.
Junto con la matriz de correlaciones reproducidas se muestra la matriz de correlaciones residuales, la
cual contiene los residuos, es decir, las diferencias entre las correlaciones observadas y las
correlaciones reproducidas.
Si el modelo es el correcto, el número de residuos con valores elevados debe ser mínimo.

Anti‐imagen.‐ Muestra la matriz de covarianzas anti‐imagen y la matriz de correlaciones anti‐imagen.


La matriz de covarianzas anti‐imagen contiene los negativos de las covarianzas parciales y la matriz de
correlaciones anti‐imagen contiene los coeficientes de correlación parcial cambiados de signo (la
correlaciones entre dos variables se parcializa teniendo en cuenta el resto de las variables incluidas en
el análisis).
En la diagonal de la matriz de correlaciones anti‐imagen se encuentra las medidas de adecuación
muestral para cada variable. Si el modelo factorial elegido es adecuado para explicar los datos, los
elementos de la diagonal del a matriz de correlaciones anti‐imagen deben tener un valor próximo a 1
y el resto de elementos deben ser pequeños.

KMO y prueba de esfericidad de Bartlett.‐ La media de adecuación muestral KMO (Kaiser‐Meyer‐


Olkin) contrasta si las correlaciones parciales entre las variables son suficientemente pequeñas.
Permite comparar la magnitud de los coeficientes de correlación observados con la magnitud de los
coeficientes de correlación parcial. EL estadístico KMO varía entre 0 y 1. Los valores pequeños indican
que el análisis factorial puede no ser una buena idea, dado que las correlaciones entre los pares de
variables no pueden ser explicadas por otras variables. Los menores que 0.5 indican que no debe
utilizarse el análisis factorial con los datos muestrales que se están analizando.

La prueba de esfericidad de Bartlett.‐ Contrasta la hipótesis nula de que la matriz de correlaciones es


una matriz identidad, en cuyo caso no existirían correlaciones significativas ente las variables y el
modelo factorial no sería pertinente.

La opción [Extracción] permite controlar varios aspectos relacionados con la fase de extracción de
los factores. Entre otras cosas, permite decidir que modelo factorial se desea utilizar, en qué matriz
de datos basar el análisis y cuántos factores deben extraerse.

4
Matriz de correlaciones.‐ El análisis se basa en la matriz de correlaciones, en la matriz de
correlaciones reducida, o en la matriz de correlaciones anti‐imagen, según el método seleccionado.

Matriz de covarianza.‐ El análisis se basa en la matriz de varianzas covarianzas reducida, o la matriz


de covarianzas anti‐imagen, según el método seleccionado.

Autovalores mayores que.‐ Si la matriz analizada es la de correlaciones, esta opción permite utilizar
el tamaño de los autovalores como un criterio para decidir si el número de factores que estarán
presentes en la solución factorial. Por defecto se extraen los factores cuyos autovalores son mayores
que la unidad (a este criterio se le denomina regla K1).
Si la matriz analizada es la de varianzas‐covarianzas, la regla se expresa el número de veces que un
autovalor debes sea mayor que el autovalor promedio de la matriz para que le correspondiente factor
sea retenido en la solución.
El autovalor que actúa por defecto es 1, pero este valor puede cambiarse introduciendo otro distinto
(entre cero y el número de variables) en el correspondiente cuatro de texto.

Numero de factores.‐ Permite especificar el número de factores exacto que se desea incluir en la
solución. Se debe introducir el número en el cuadro de texto.

Solución factorial sin rotar.- Muestra las saturaciones o cargas factoriales sin rotar, las
Comunalidades y los autovalores de la solución factorial.
Gráfico de sedimentación.- Muestra la representación gráfica de la magnitud de los autovalores.
El corte en la tendencia descendente sirve de regla para la determinación del número de factores
óptimo que deben estar presentes en la solución. Siempre se muestra la representación de los
autovalores de la matriz de correlaciones (o de covarianzas) originales, independientemente del
método de extracción seleccionado.

Nº de iteraciones para convergencia.‐ Este cuadro de texto permite establecer el número máximo de
iteraciones que los algoritmos pueden realizar para encontrar una solución factorial final. El valor por
defecto es 25, habitualmente suficiente para obtener una solución. Este valor puede cambiarse
introduciendo un entero positivo.

La opción [Rotación] permite controlar que tipo de rotación llevar a cabo. Se puede definir el
método de rotación que deseamos utilizar para facilitar su interpretación de la solución factorial y
solicitar la representación gráfica de las saturaciones. Por defecto, no se encuentra seleccionado
ningún método de rotación.

5
Ninguno.‐ No se aplica ningún método de rotación. Es la opción la que actúa por defecto. Cuando la
solución consta de un único factor y no se ha marcado esta opción el visor de resultados muestra un
mensaje de advertencia.

Varimax.‐ Método de rotación ortogonal que minimiza el número de variables que tiene saturaciones
altas en cada factor. Simplifica la interpretación de los factores optimizando la solución por columna.

Quartimax.- Método de rotación ortogonal que minimiza el número de factores necesarios para
explicar cada variable. Simplifica la interpretación de las variables observadas optimizando la
interpretación por filas.

Equamax.‐ Método de rotación que es combinación del método varimax, que simplifica los factores, y
el método Quartimax, que simplifica las variables. Se minimiza tanto el número de variables que
saturan alto en un factor como el número de factores necesarios para explicar una variable.

Oblimin directo.- Método para la rotación oblicua (no ortogonal). Cuando delta e igual a cero (el
valor por defecto), las soluciones son las más oblicuas. A medida que delta se va haciendo más
negativo, los factores son menos oblicuos. Para anular el valor por defecto de delta, puede
introducirse un número menor o igual a 0.8.

Delta.- El valor de delta permite controlar el grado de oblicuidad que pueden llegar a alcanzar los
factores de la solución.

Promax.- Rotación oblicua que permite que los factores estén correlacionados. Puede calcularse más
rápidamente que una rotación Oblimin directa, por lo que es útil para grandes conjuntos de datos.

Kappa.- Parámetro que controla el cálculo de rotación de Promax. El valor por defecto es 4. Este valor
es adecuado para la mayoría de los análisis.

Solución rotada.‐ Permite obtener una o más tablas con los resultados del proceso de rotación. Al
seleccionar una rotación ortogonal, esta opción permite obtener la matriz de estructura factorial
rotada y la matriz de transformación necesaria para rotar los factores a partir de la solución inicial.
Además, en la tabla de porcentajes de varianza explicada aparecen columnas adicionales que
contienen la varianza total explicada por los factores rotados.
Al seleccionar una rotación oblicua, esta opción permite obtener la matriz de configuración rotada,
que contiene las saturaciones de las variables en los factores, y la matriz de estructura, que contiene
las correlaciones entre las variables observadas y los factores (cuando la rotación es ortogonal, ambas
matrices son idénticas).
Además, ofrece la matriz de correlaciones entre los factores y desecha la matriz de transformación
para la rotación. En la tabla de porcentajes de varianza explicada sólo se incluyen los autovalores de
los factores rotados (ya que no tiene sentido hablar de porcentajes de varianza independientes).

6
Gráficos de saturaciones.‐ Esta opción genera un gráfico de dispersión que refleja la ubicación de las
variables en el espacio definido por los factores. Se trata de un gráfico de las saturaciones.
El gráfico muestra, por defecto, los tres primeros factores de la solución factorial en un gráfico
tridimensional.
Si se desea representar otros factores, es necesario editar el gráfico y elegir esos otros factores.

Nº máximo de iteraciones para convergencia.- Permite determinar el número máximo de iteraciones


que puede recorrer el algoritmo para la estimación de la solución rotada. Por defecto se efectúan un
máximo de 25 iteraciones, lo que es suficiente para la mayoría de las situaciones.

La opción [Puntuaciones] se obtiene una estimación de las puntuaciones de los sujetos en cada uno
de los factores resultantes de la extracción a fin de valorar la situación relativa de cada sujeto en
esos ‘constructor hipotéticos’ capaces de resumir la información contenida en las variables
originales.
El cuadro de diálogo Puntuaciones factoriales contiene las opciones que permiten solucionar las
estimaciones de las puntuaciones factoriales y seleccionar el método de estimación que se desea
utilizar para obtener tales estimaciones.

Señalar que por defecto se encuentra seleccionado el método de Regresión, que es el de uso más
generalizado. Las opciones del método no tiene efecto alguno cuando se ha señalado componentes
principales como método de extracción, ya que en ese modelo factorial las puntuaciones factoriales
no son estimadas sino calculadas directamente a partir de las variables originales.

Guardar como variables.‐ Activando esta opción se guardan automáticamente en el Editor de datos
las puntuaciones factoriales estimadas para cada sujeto en cada uno de los factores obtenidos en la
solución factorial.
Para ello, el SPSS crea en el archivo de datos activo tantas variables nuevas como factores contenga la
solución factorial. Si no se selecciona esta opción no es posible acceder a los métodos de estimación
de las puntuaciones factoriales.

Regresión.‐ Método de estimación de las puntuaciones factoriales en el que las estimaciones


resultantes tienen una media cero y una varianza igual al cuadrado de la correlación múltiple entre las
puntuaciones factoriales estimadas y los valores factoriales verdaderos.
Las puntuaciones factoriales estimadas con este método pueden estar correlacionadas incluso cuando
los factores son ortogonales.

Bartlett.‐ Método de estimación de las puntuaciones factoriales en el que las estimaciones


resultantes tiene una media de cero.
Este método minimiza la suma de cuadrados de los factores únicos ( es decir, minimiza la unicidad
correspondiente a cada una de las variables incluidas en el análisis).

7
Anderson‐Rubin.‐ Este método de estimación es una modificación del método de Bartlett que
asegura la ortogonalidad de las puntuaciones factoriales estimadas. Las estimaciones resultantes
tienen una media de cero, una desviación típica de uno y son independientes entre sí (incluso en el
que se haya solicitado una solución rotada oblicua).

Mostrar matriz de coeficientes de las puntuaciones factoriales.‐ Esta opción permite obtener una
tabla con los pesos o ponderaciones necesarios para calcular las puntuaciones factoriales a partir de
las variables originales. Esta opción se encuentra desactivada por defecto. Por tanto, para obtener la
matriz de coeficientes no basta con solicitar las puntuaciones factoriales.

El cuadro [Opciones] permite controlar algunos aspectos relacionados con le tratamiento que deben
recibir los valores perdidos y el formato en las tablas de resultados que genera el Visor de
resultados.

Excluir casos según la lista.‐ Es la opción por defecto.


Se excluyen el análisis los sujetos que tengan valores perdidos en cualquiera de las variables
trasladadas a la lista de variables. Es el tratamiento más consistente de todos: sólo se incluyen en los
análisis los casos completos (es decir, los casos con puntuación válida en todas las variables
seleccionadas). Sin embargo, conviene tener en cuenta que esta forma de tratar los valores perdidos
puede suponer la pérdida de un gran número de casos y la consiguiente reducción del tamaño
efectivo de la muestra.

Excluir casos según pareja.‐ Los sujetos con valor perdido en una variable se excluyen del análisis sólo
para el cálculo de los estadísticos en los que esté implicada esa variable.
Este método permite aprovechar más cantidad de información que la anterior, pero, puesto que no
todas las correlaciones se calculan sobre el mismo número de sujetos, podrían obtenerse matrices de
correlaciones inconsistentes imposibles de analizar posteriormente.

Reemplazar por la media.‐ Los valores perdidos de una variable se sustituyen por la media de esa
variable. Si en una variable existen muy pocos casos con valor perdido, reemplazar el valor perdido
por la media no constituye un problema importante. Pero en la medida de que el número de valores
perdidos aumenta, la sustitución por la tiene el efecto de centrar las variables disminuyendo su
variabilidad.

Ordenados por el tamaño.‐ Esta opción sirve para ordenar las variables de las tablas de resultados en
función de la magnitud (en valor absoluto) de los coeficientes de esas tablas (saturaciones,
correlaciones, etc.). La ordenación se realiza de forma ascendente: primero las variables con
coeficientes más altos. Si no se marca esta opción, las tablas muestran las variables en el mismo orden
en el que han sido trasladadas a la lista de Variables del cuadro de diálogo de Análisis factorial.

8
Suprimir valores absolutos menores que.‐ Esta opción permite suprimir de las tablas de resultados
los coeficientes cuyo valor absoluto sea menor que el valor establecido en el cuadro de texto.
El valor por defecto es 0,10, pero este valor puede cambiarse introduciendo un valor distinto.
Esta opción es de gran ayuda: al desaparecer de la tabla los coeficientes excesivamente pequeños (en
valor absoluto), se facilita notablemente la interpretación de los resultados.

Una vez señaladas las opciones, en la pantalla adjunta basta con pulsar [Continuar] para que el Visor
SPSS nos facilite los resultados.

Se obtienen las medias y desviaciones


típicas de cada variable en estudio.

Matriz de las correlaciones con la significación de cada componente.


Para que se puede realizar el ACP, es necesario que las variables presenten factores comunes. Es
decir, que estén muy correlacionadas entre sí.
Los coeficientes de la matriz de las correlaciones deben de ser grandes en valor absoluto.
Se obtienen los componentes principales a partir de la matriz de correlaciones para emplear las
mismas escalas en todas las variables.

9
En este caso, según se observa en la parte inferior de la matriz de las correlaciones, el valor del
determinante es 0,14

Test de esfericidad de Barlett.‐ Para comprobar


que las correlaciones entre las variables son
distintas de cero de modo significativo, se
comprueba si el determinante de la matriz es
distinto de uno, es decir, si la matriz de
correlaciones es distinta de la matriz unidad.

Si las variables están correlacionadas hay muchos valores altos en valor absoluto fuera de la diagonal
principal de la matriz de correlaciones, además, el determinante es menor que 1 (el máximo valor
del determinante es 1 sí las variables están incorreladas).

H0 : R  1
El test de Barlett realiza el contraste: 
H1 : R  1
El determinante de la matriz da una idea de la correlación generalizada entre todas las variables.
El test se basa en la distribución 2 de Pearson donde los valores altos llevan a rechazar la hipótesis
nula H0 , así, la prueba de esfericidad de Barlett contrasta si la matriz de correlaciones es una matriz
identidad, que indicaría que el modelo factorial es inadecuado.

Por otra parte, la medida de la adecuación muestral de Kaiser‐Meyer‐Olkin contrasta si las


correlaciones parciales entre las variables son suficientemente pequeñas. El estadístico KMO varía
entre 0 y 1. Los valores pequeños indican que el análisis factorial puede no ser una buena idea, dado
que las correlaciones entre los pares de variables no pueden ser explicadas por otras variables. Los
menores de 0,5 indican que no debe utilizarse el análisis factorial con los datos muestrales que se
están analizando.

La Comunalidad asociada a la variable j‐ésima es la


proporción de variabilidad de dicha variable
explicada por los k factores considerados.

Equivale a la suma de la fila j‐ésima de la matriz factorial. Sería igual a 0 si los factores comunes no
explicaran nada la variabilidad de una variable, y sería igual a 1 se quedase totalmente explicada.

La varianza asociada a cada


factor se utiliza para
determinar cuántos factores
deben retenerse.

10
Los tres primeros factores tienen todos varianzas (autovalores) mayores que 1, y entre los tres
recogen el 85% de la varianza de las variables originales.

 El primer componente se le podría etiquetar como calidad de vida con valores negativos altos en
empresas y población indicando un entorno relativamente pobre.

 El segundo componente se puede etiquetar como tiempo húmedo, y tiene pesos altos en las
variables precipitaciones y días.

 El tercer componente se podría etiquetar como tipo de clima y está relacionado con la
temperatura y la cantidad de lluvia.

Aunque no se encontrasen etiquetas claras para los componentes, siempre es interesante calcular
componentes principales para descubrir si los datos se encuentran en una dimensión menor. De
hecho, los tres primeros componentes producen un mapa de los datos donde las distancias entre los
puntos es bastante semejante a la observada en los mismos respecto a las variables originales.

El Gráfico de la varianza asociada a cada factor se utiliza para determinar cuántos factores deben
retenerse. Típicamente el gráfico muestra la clara ruptura entre la pronunciada pendiente de los
factores más importantes y el descenso gradual de los restantes (los sedimentos)

Otra opción es utilizar el criterio de Kaiser, que consiste en conservar aquellos factores cuyo autovalor
asociado sea mayor que 1.

Saturaciones factoriales:

11
En la diagonal de la matriz reproducida se encuentran las Comunalidades finales.
Junto con la matriz de correlaciones reproducidas se muestra la matriz de correlaciones residuales, la
cual contiene los residuos, es decir, las diferencias entre las correlaciones observadas y las
correlaciones reproducidas.
Si el modelo es el correcto, el número de residuos con valores elevados debe ser mínimo.

Representación tridimensional de las saturaciones factoriales para los tres primeros factores:

Se realiza un análisis de regresión de la variable SO2 sobre los tres factores. Para ello, en SSPS:

12
La salida del visor de SSPS muestra:

El estadístico de Durbin‐Watson de 1,926 deja claro que la no autocorrelación de los factores.

13
SO2  30,049  14,917(factor score 1)  2,777(factor score 2)  0,448(factor score 3)

La cantidad de SO2 se explica claramente mediante el primer componente de calidad de vida (con
valores negativos altos en empresas y población indicando un entorno relativamente pobre).

14

También podría gustarte