0% encontró este documento útil (0 votos)
109 vistas76 páginas

Validez Factorial en Análisis Exploratorio

Este documento introduce el análisis factorial como una técnica para medir variables latentes mediante la agrupación de variables observables relacionadas. Explica que el análisis factorial exploratorio ayuda a dar una medida a las variables latentes agrupando variables observables que miden el mismo constructo subyacente. También describe diferentes métodos de extracción de factores como el análisis de componentes principales y la factorización de ejes principales, así como criterios para determinar el número de factores a extraer.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
109 vistas76 páginas

Validez Factorial en Análisis Exploratorio

Este documento introduce el análisis factorial como una técnica para medir variables latentes mediante la agrupación de variables observables relacionadas. Explica que el análisis factorial exploratorio ayuda a dar una medida a las variables latentes agrupando variables observables que miden el mismo constructo subyacente. También describe diferentes métodos de extracción de factores como el análisis de componentes principales y la factorización de ejes principales, así como criterios para determinar el número de factores a extraer.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Analisis Factorial

Medidas, Validez y Fiabilidad


Dr. José Ignacio Azuela
Introducción
Introducción
Introducción
Introducción
En ciencias sociales es muy común que querramos medir y explicar
comportamientos y, en general, variables que no son medibles
directamente. Es decir que son inobservables (variables latentes).

Sin embargo, sí se pueden medir los diferentes elementos que las


componen (las variables latentes se componen de variables
observables).
Introducción
Introducción
Introducción
Introducción
Satisfaccion

My shopping The shopping I am happy with the


I think I made the expecta0ons experience on products/services I
right decision by have been met this m-site has have bought on this
using this m-site been satisfactory
by this m-site m-site

ε1 ε2 ε3 ε4
Introducción
En resumen, el Análisis Factorial Exploratorio nos ayuda a dar una
medida a las Variables Latentes.

En palabras llanas, agrupa el conjunto de variables observables que, por


sí solas, quizá no medirían la variable pero en conjunto sí.

A lo largo de este tema, usaremos el Análisis Factorial Exploratorio como


herramienta para construir y evaluar la fiabilidad y validez de nuestras
medidas.
¿Qué v. observables integrarán la v. latente?
La selección de variables observables que integrarán la variable latente
Hene que estar jusHficada con base en la literatura previa.

Las Variables Latentes suelen ser conceptos que han sido definidos
teóricamente.

Estas definiciones han sido tranformadas en indicadores (variables


observables) previamente por invesHgadores. En resumen, acuda a la
literatura y podrá idenHficar las variables observables que intregrán su
variable latente.
Validez
La validez es una medida de qué tan bien nuestras variables observables
representan los efectos subyacentes del constructo.

Un constructo es valido si todos los indicadores que lo componen son


causados por el constructo en cues9ón. En este caso, los indicadores que
componen el constructo están altamente correlacionados entre ellos.

En resumen, una medida es válida cuando los ítems que la componen son
causados por ella; éstos se relacionan entre sí y, por tanto, la variable mide lo
que se supone debe medir.
Validez
Evaluar la validez involucra comparar medidas con uno o más
estándares. Hay distintos estándares lo que conduce a distintos tipos de
de validez:
i. Validez por Juicio de Expertos (validez de contenido)

ii. Validez de criterio (criterion-related validity)

iii. Validez de constructo


Validez de Constructo
El Análisis Factorial Exploratorio es una técnica para medir la Validez de
Constructo. Éste analiza si se conforma un conjunto entre los ítems que
se incluyeron en la medida. Es decir, si los ítems se correlacionan entre
sí.

El uso del análisis factorial es adecuado cuando las variables observables


se miden en escalas métricas (escalas de intervalo y de razón).

Recuerde que las escalas Likert son consideradas escalas métricas.


Validez de Constructo
Procure emplear escalas comparables de lo contrario no podrá realizar el análisis factorial

Escala likert
1= Totalmente en Desacuerdo 7= Totalmente de Acuerdo
1= Totalmente en Desacuerdo 6= Totalmente de Acuerdo
Escala de Clasificación
1= Muy Sa)sfecho 7= Muy InsaDsfecho
ConDnuo
Número de consumos

Se recomienda disponer de un número de observaciones cinco veces, incluso diez veces,


mayor que el número de variables a uDlizar (requerido para validar constructos)*.
Validez de Constructo
*El número de observaciones necesarias para realizar el análsis es objeto de
discusión. Hay opiniones que sugieren una muestra entre 5 y 10 veces el nùmero de
variables observables en la encuesta (Trespalacios et al. 2005).

Mientras que otros sugieren que al menos se debe de contar con 300 observaciones
(Tabachnick & Fidell, 2012).

Finalmente, hay quienes sugieren la siguiente tabla (Comrey & Lee, 1992):
i. 100 observaciones, una muestra pobre.
ii. 300 observaciones, una muestra buena.
iii. 1000 observaciones, una muestra excelente.

• NOTA: véase KMO.


Validez de Constructo
Contrastes Previos
Test de Esfericidad de Bartlett. Test para probar la hipótesis nula de no correlación
entre variables.

Test para probar la hipótesis de que la matriz de correlación es una matriz de


identidad, que indica que las variables no estan correlacionadas y, por lo tanto, no
conforman un constructo.

Este debe ser significativo (p<.05) para que el Análisis Factorial sea aplicable.
Contrastes Previos
Kaiser-Mayer y Olkin (KMO). Es una medida de la adecuación muestral que contrasta
si las correlaciones parciales entre las variables son pequeñas.

Toma valores entre 0 y 1. Mientras más se aproxime al 1 mayor será la adecuación


de los datos. Valores por debajo de 0.5 no son aceptables.

1. Maravilloso: Valores en los .90


2. Meritorio: Valores en los .80
3. Medio: Valores en los .70
4. Mediocre: Valores en los .60
5. Miserable: Valores en los .50
6. Inaceptable: Valores por debajo de .50

*estat kmo (comando post es\mación)


Extracción de Factores
Existen siete métodos que permiten la extracción de los factores:

i. Componentes Principales (PCF por sus siglas en ingles).


ii. Mínimos cuadrados no ponderados.
iii. Mínimos cuadrados generalizados.
iv. Máxima verosimilitud.
v. Factorización de ejes principales (Conocido también como Análisis Factorial
[PF]).
vi. Análisis Alfa
vii. Análisis Imagen.
Factorización de Ejes Principales (PF)
PF refleja constructos (variables latentes) que explican la varianza
compartida de un conjunto ítems.

PF divide la varianza en: 1) varianza compartida y 2) varianza única


(error). La varianza compartida mide qué tanto de la varianza de un ítem
puede ser explicada por el resto de ítems.

PF trata de explicar la varianza compartida entre el conjunto de ítems.


Factorización de Ejes Principales (PF)
Se emplea para reflejar constructos (variables latentes) que no son
medidas directamente.

Para ello es necesario tener hipótesis respecto a la estructura que


subyace a las variables. Por lo que se recomienda la construcción de un
modelo teórico; los ítems de una encuesta fueron diseñados para medir
una o más variable latente.
Componentes Principales (PCF)
PCF se centra en la reducción de volumen de datos. Éste no disHngue
entre varianza comparHda y varianza única (error) y, por tanto, trata de
explicar toda la varianza.

PCF es muy común en MarkeHng pues no requiere ninguna hipótesis


respecto a la estructura que subyace a las variables (por lo que es más
común su uso en el AFE).

Lo anterior significa que el PCF transforma los datos en componentes


pero no necesariamente mide variables latentes.
Componentes Principales (PCF)
Por tal moHvo, el PCA se recomienda cuando no se ha construido un
modelo teórico. Es decir, cuando los ítems no fueron diseñados para
medir una variable latente, sino más bien, cuando se desea reducir
datos.

En ambos casos (PCF y PF), lo que se busca es agrupar aquellas variables


que correlacionan entre sí, y las diferencias prácHcas entre ambos son
insignificantes (Thompson, 2004).

* Aclaración, ambos PCA y Análisis Factorial son métodos de extracción de factores


dentro del Análisis Factorial
Componentes Principales vs. Factorización de Ejes Principales

¿Cuál usar?

Si desea explicar tanta varianza como sea posible dentro de un conjunto


de ítems con una única dimensión; entonces PCF es la opción.

Use PCF cuando tiene un conjunto de ítems que considera todos miden
el mismo concepto; de tal modo que pueda identificar si este
(componente) explica una parte sustancial del total de la varianza del
conjunto de ítems.
Componentes Principales vs. Factorización de Ejes Principales

Si desea identificar dos o más variables latentes que representen


dimensiones de una misma variable; entonces PF es la mejor opción.

Por ejemplo, si tiene 9 ítems para medir una variable latente


multidimensional. Si esta variable se constituye de 3 dimensiones, PF
identificará el conjunto de ítems que se agrupan en cada dimensión.

Por oposición, puede tener 9 ítems pero, en este caso, para medir una
variable latente; entonces le interesa PCF.
Componentes Principales vs. Factorización de Ejes Principales

PF PCF
Número de Factores
Una vez que se ha elegido el método de extracción de factores (PCA o PAF), lo
siguiente es determinar el número de factores. Existen diferentes criterios para
determinar el número de factores a extraer:

1. Criterios teóricos fijados a priori


2. Porcentaje acumulado de la varianza
3. Criterio de Kaiser (eigenvalue > 1) ( autovalores/valores propios).
4. Gráfico de sedimentación o Test del codo
5. Proporción explicada por cada factor

¿Cuál debemos emplear? Lo deseable y apropiado es el uso simultaneo de los


dis\ntos criterios
Número de Factores
1. Fijar a priori el número. ÚHl cuando se dispone de información previa
del fenómeno a estudiar y, por tanto, se espera un número de factores.

Por ejemplo, cuando su instrumento fue diseñado para medir N número


de variables latentes, entonces debería esperar el mismo número de
factores.

Este Hpo de criterios debería ir acompañado de un modelo teórico que


sustente a las variables latentes.
Componentes Principales vs. Factorización de Ejes Principales

Tres variables Una variable


latentes latente
Número de Factores
2. Fijar un porcentaje subje1vo mínimo de varianza que desea conservar
para el análisis y, en base a ello, seleccionar el número de factores. En otras
palabras, se debe fijar el porcentaje acumulado de la varianza que se desea
explicar.

Por ejemplo, si el nivel fijado es de 80%, entonces debería elegir factores hasta
lograr esa proporción. Sin embargo, el porcentaje a explicar es un tema que aún
se discute y no hay un cifra exacta.

En las ciencias naturales, se sugiere que el porcentaje de varianza a explicar sea


del 95%. Mientras que en las ciencias sociales éste se sitúa entre el 50 y 60%
(Hair et al. 1995).
Número de Factores
2. Fijar un porcentaje subje1vo mínimo de varianza que desea
conservar para el análisis y, en base a ello, seleccionar el número de
factores.
Número de Factores
3. Criterio de Kaiser (eigenvalue > 1). Bajo este criterio se elegirán aquellos factores
cuyo eigenvalue/auto-valor sea mayor que 1. Eigenvalue indica la can\dad total de
varianza que explica ese factor para las variables consideradas como grupo.
Número de Factores
4. Gráfico de sedimentación (test del codo). Se sitúa en el eje de las X los factores y en el de la Y el porcentaje
explicado por cada factor (o el valor propio/auto-valor), se seleccionan factores hasta que la inclusión de uno
más no aporte mucha información. Se selccionan factores hasta la inflexión, excluyendolo.
Scree plot of eigenvalues after factor

4
screeplot

3
Este es un comando
Eigenvalues

post [Link]ón
2
1
0

0 2 4 6 8
Number
Número de Factores
5. Proporción explicada por cada factor. Este es otro criterio, no muy
extendido, para determinar el número de factores/componentes. Consiste en
fijar una proporción de variación que debe explicar cada factor para que sea
considerado.

Aunque algunos emplean criterios subjeQvos, lo sugerido es esQmar una


proporción, ésta puede ser calculada dividiendo el total de la variación (100)
entre el número de variables observables(p), es decir: 100/p.

Si seguimos nuestro ejemplo entonces tendríamos 100/7= 14.28, lo que significa


que sólo podríamos considerar aquellos factores cuya variación sea igual o mayor
a 14.28.
Número de Factores
5. Proporción explicada por cada factor.
Rotación de Factores
Hasta aquí sabemos que nuestros items se agrupan en dos factores. Sin
embargo, no sabemos cuáles ni en qué factor se agrupan.

Para ello, es necesario analizar la Matriz de Cargas Factoriales; en ella


podemos iden1ficar qué item corresponde a cada factor.

Por lo general, se deben considerar los ítems con cargas factoriales igual o
superiores a 0.5.
Rotación de Factores
En este caso, observamos que todos los ítems 9enen cargas igual o superiores
a .5 en el Factor 1. Sin embargo, tambien se observa que los items im1 e im2
tambien 9enen carga superior a 0.5 en el Factor 2. ¿Qué hacer?
Items por cada Factor
¿Son deseables factores/componentes con un solo ítem?

Es posible que sus resultados arrojen un factor que se integre por un solo
ítem.
• Variables Latentes: un solo ítem no define una variable latente.
• Reducción de datos: no Dene senDdo aunque puede proceder.

Desde el punto de vista técnico se requiere de dos ítems por factor.

Aunque, en el caso de definición de variables latentes, se hace una


recomendación más conservadora que involucre de 3 a 4 ítems.
Rotación de Factores
Cuando hay más de un factor puede ocurrir que las cargas factoriales o coeficientes
de correlación no permiten una clara interpretación.

Puede darse el caso que una misma variable esté relacionada con más de un factor.
Cuando esto pasa, puede efectuarse una rotación de factores. La rotación de
factores, maximiza los ítems con alto peso y minimiza aquellos de bajo peso de
modo que facilita la interpretación.

Existen varios \pos de rotación y éstos suelen dividirse en dos grupos:


1. Los que manFenen la ortogonalidad donde se impide a los factores correlacionar entre ellos
(rotación ortogonal) y,
2. Los que no manFenen la ortogonalidad (rotación oblicua), que permite a los factores
correlacionar entre ellos.
Rotación Ortogonal
El término ortogonal significa “no relacionado”, en este contexto se refiere a que se
hace la rotación manteniendo independientes los factores.

Antes de la rotación, todos los factores son independientes (no están


correlacionados) al rotarlos ortogonalmente nos aseguramos de que permanezcan
no correlacionados.

En resumen, la rotación ortogonal impide que los factores correlacionen.


Rotación Ortogonal
1. Varimax. Uno de los métodos de rotación más u\lizado. Minimiza el numero de
variables con saturaciones altas en cada factor. Lo que simplifica la interpretación
de los factores.

2. Quar\max. Rotación que minimiza el número de factores necesarios para


explicar cada variable. Simplifica la interpretación de las variables observadas.
Esto consigue que una variable observable tenga una carga factorial alta en un
solo con un factor y baja con los demás
Rotación de Factores
En STATA, la rotación de factores es post-es\mación; por tanto, es necesario hacer el
Análisis Factorial y, posteriormente, solicitar la rotación.

rotate
(STATA calcula default rotación ortogonal)
(Concretamente, STATA calcula rotación varimax)
Rotación de Factores
Al rotar los factores (rotación ortogonal-varimax) mejora la interpretación. Anteriormente, los items im1 & im2
mostraban cargas factoriales superiores a .5 en los Factores 1 y 2. Luego de la rotación vemos que se resuleve el
problema y se crean dos factores. Factor1: im4, im5, im6, im7; Factor2: im1, im2, im3. La nueva pregunta es:
¿por qué dos factores si se esperaba uno?
Rotación de Factores

Factor2

Factor1
Rotación Oblicua
En algunos casos no es razonable pensar que los factores son ortogonales.
Podríamos esperar que, por ejemplo, el Factor 1 correlacione con el Factor 2.

Piense por ejemplo en la relación que podrían guardar Sa\sfacción y Calidad.


Podemos permi\r que los factores correlacionen a través de la Rotación Oblicua.

1. Oblimin directo.

2. Promax.
rotate, promax
Caso PrácIco
Se desea obtener una medida de la Imagen de Marca. De la literatura se tomaron los
siguientes ítems (use base de datos [Link]):

1. im1
2. im2
3. im3
4. im4
5. im5
6. im6
7. im7
Caso PrácIco

factor

factor [varlist], opciones

factor im1 im2 im3 im4 im5 im6 im7, pcf


Caso PrácIco
Resultados
Caso PrácIco/Contrastes Previos
Contrastes Previos a la
Extracción de Factores

Test de esfericidad
de Bartle]
Debe ser significa_vo p<.05

Lo que indica que se rechaza


la hipótesis nula de que la
matriz de correlación es una
Matriz de Iden_dad.

En resumen, los indicadores


se relacionan
Caso PrácIco/Contrastes Previos

Contrastes Previos a la
Extracción de Factores

Solicitamos KMO
estat kmo

KMO> .5

Lo que indica adecuación de


la muestra
Caso PrácIco/Numero de Factores
Una vez saFsfechos los contrastes
previos a la extracción de
factores, se idenFfican el número
de factores a extraer:

1) % acumulado de la varianza:
entre el 50 y 60&

2) Autovalores > 1

3) Gráfico de Sedimentación

4) % de la varianza explicado por


cada factor
Caso PrácIco/Numero de Factores
Una vez saFsfechos los contrastes
previos a la extracción de
factores, se idenFfican el número
de factores a extraer:

1) % acumulado de la varianza:
entre el 50 y 60

Los Factores 1 y 2 acumulan hasta


el 69.52% de la varianza
acumulada.

Por tanto, deberíamos elegir esos


dos factores
Caso PrácIco/Numero de Factores
Una vez saFsfechos los contrastes
previos a la extracción de
factores, se idenFfican el número
de factores a extraer:

2) Autovalores > 1

Los Factores 1 y 2 presentan


autovalores superiores a 1

Por tanto, deberíamos elegir esos


dos factores
Caso PrácIco/Numero de Factores
Una vez saFsfechos los contrastes Scree plot of eigenvalues after factor
previos a la extracción de

4
factores, se idenFfican el número
de factores a extraer:

3
Eigenvalues
3) Gráfico de Sedimentación

2
screeplot

1
Deberíamos elegir factores 1 y 2

0
0 2 4 6 8
Number
Caso PrácIco/Numero de Factores
Una vez saFsfechos los contrastes
previos a la extracción de
factores, se idenFfican el número
de factores a extraer:

4) % de la varianza explicado por


cada factor

100/7 (siete variables


observables)= 14.28. Se deben
elegir factores cuya varianza
explicada sea igual o superior a
14.28%

Por tanto, deberíamos elegir los


Factores 1 y 2.
Caso PrácIco/Rotación de Factores

La matriz de cargas factorales rotadas nos indica que tenemos dos factores:
Factor1: im4, im5, im6, im7 (Imagen de Marca--Kim et al., 2019)
Factor2: im1, im2, im3 (Imagen de Marca--Davis et al., 2009)
Caso PrácIco/Rotación de Factores

La matriz de cargas factorales rotadas nos indica que tenemos dos factores:
Factor1: im4, im5, im6, im7 (Imagen de Marca--Kim et al., 2019)
Factor2: im1, im2, im3 (Imagen de Marca--Davis et al., 2009)
Re-esImación
¡Nosotros necesitamos una escala, no dos!

La rotación nos ayudó a idenFficar dos factores,


mejorando sensiblemente la interpretación de los
factores.

Sin embargo, nuestro propósito es desarrolar una


escala; por lo tanto, hemos de seleccionar los items
que representen la dimensión que deseamos
emplear y volver a esFmar el análisis factorial.
Creación de la variable
Hemos usado Análisis Factorial para iden9ficar el conjunto de ítems que
conforman una variable latente.

En nuestro caso hemos iden9ficado que im1, im2 e im3 conforman la variable
latente Imagen de Marca. La pregunta ahora es ¿cómo transformar esos tres
ítems en una sola variable?

Hay dos alterna9vas:


1. Mediante una nueva variable que sea el promedio de los valores de im1, im2 e im3.
2. Una alternaDva más compleja es esDmar lo que se denomina factor. Esto es un valor
estandarizado con media 0 y desviación estándar 1.
Creación de la variable
Una ventaja del factor sobre la media es que en éste, el peso de cada uno de
los ítems es diferenciado; basado en qué tan fundamental es para el factor.

Por ejemplo, im1 9ene una carga factorial de .911; por lo tanto este 9ene
mayor peso en el factor que im2 cuya carga factorial es de .823.

Por oposición, cuando generamos la media del total de los ítems éstos
cuentan de la misma forma sin importar su carga factorial; es decir se
considera que todos los ítems muestran la misma magnitud para definir a la
variable latente.
Creación de la variable

Para generar el valor medio de los ítems:

egen imagen_de_marca= rowmean (im1 im2 im3)

Para hacer el factor (post-esHmación):

predict imagen_de_marca, norotate


Creación de la variable
Fiabilidad (reliability)
Una vez que se ha esHmado el AFE se puede idenHficar la estructura de
una variable latente.

Se han validado los constructos, lo que significa que, éstos miden


aquello para lo que fueron diseñados (en nuestro ejemplo: Imagen de
Marca, AcHtud hacia la Marca).

Sabemos pues que las variables observables incluidas para medir


Imagen de Marca (por ejemplo), se correlacionan entre sí; pero no
sabemos si ésta es un medida consistente.
Fiabilidad (reliability)
Por tanto, la validación es una condicion necesaria pero no suficiente
pues es necesario evaluar la fiabilidad del constructo (variable latente).

Es decir, evaluar la capacidad de que la medida produzca resultados


consistentes (a través del Hempo y entre disHntos sujetos de análisis).

Para lograr lo anteriormente señalado se empleará el Alfa de Cronbach


que es una medida de Consistencia Interna.
Alfa de Cronbach (Consistencia Interna)
Alfa toma valores en 0 y 1. Mientras más se aproxime el coeficiente a la
unidad, mayor será la consistencia interna de la escala.

En general, se considera que hay buena consistencia interna cuando se


Henen valores superiores a .8

Sin embargo, el Alfa de Cronbach es sensible al número de ítems en la


escala (este puede crecer o disminuir dependiendo de si la escala Hene
pocos o muchos ítems).
Alfa de Cronbach (Consistencia Interna)
George & Mallery (2003)* ofrecen las siguientes recomendaciones:

i. 𝛼= .9; excelente**
ii. 𝛼> .8; bueno
iii. 𝛼> .7; aceptable
iv. 𝛼> .6; cues,onable
v. 𝛼> .5; pobre
vi. 𝛼< .5; inaceptable

NOTAS:
• George D and Mallery P, 2003. SPSS for Windows step by step: A simple guide and reference. 11.0 update (4th ed.). Boston: Allyn & Bacon.
• ** Valores por encima de .90 y definiLvamente por encima de .95 no son deseables pues indican que todas las variables observables miden
exactamente el mismo fenómeno y, por lo tanto, no son una medida valida del constructo (Hair et al., 2017).
Alfa de Cronbach (Interpretación)
Alfa toma la varianza observada en el constructo y la considera la
verdadera varianza. Alfa se interpreta como el raHo que se obHene de
dividir la varianza verdadera entre el total de la varianza.

1
𝜎,-./0/-.0
𝛼= 1 1
𝜎,-./0/-.0 + 𝜎-..2.

𝛼= .80 significa que el 80% de la varianza en la escala representa el


verdadero valor de la variable, y 20% es un error aleatorio.
Alfa de Cronbach (Consistencia Interna)
Una idea ampliamente asociada a Alfa de Cronbach es que ésta es una
medida de “unidimensionalidad” de las encuestas. Es decir, que puede
ser una medida efecHva para todos los ítems dentro de una encuesta.

Lo anterior solo puede ser cierto si la encuesta midiera únicamente un


factor (una única variable latente).

En realidad Alfa mide la fiabilidad (consistencia interna) de una variable


latente. Por tanto, debe ser aplicado un Alfa por cada constructo.
Alfa de Cronbach en STATA

alpha
alpha [variables independientes], opciones

alpha im1 im2 im3

alpha im1 im2 im3, asis casewise item


Alfa de Cronbach en STATA

asis [as is] tomar el signo de cada ítem tal como es. Le
indicamos a STATA que no queremos que haga cambios en los signos de
nuestras variables

casewise: borrar casos con valores faltantes

item: mostrar correlaciones “ítem-test” e “ítem-rest”


Alfa de Cronbach en STATA

α =.8232

Tomando como referencia las recomendaciones de George & Mallery (2003); un valor alfa de .8232
es bastante bueno.

Por tanto, si la escala ha sido validada, se puede decir que esta variable mide efecFvamente la Imagen
de Marca y ésta es una medida consistente a través del Fempo y entre disFntos sujetos.
Alfa de Cronbach en STATA

Número de
observaciones
Alfa de Cronbach en STATA

Todos los ítems Lenen signo posiLvo; lo que significa


que los ítems están posiLvamente relacionados con la
escala.

Si un ítem toma signo negaLvo, entonces habría que


pensar en: 1) reverse-code, 2) eliminarlo
Alfa de Cronbach en STATA

Reporta la correlación de cada ítem con el resto de los


ítems.

Por ejemplo la correlación entre im1 y los otros dos


ítems es .7737
Alfa de Cronbach en STATA

Reporta el valor de Alfa si eliminamos un ítem. Por


ejemplo, si reLramos im3 el valor de alfa sería .7856

En este caso, eliminar im3 no mejora el valor de alfa.


En algunos casos, la eliminación de un ítem puede
mejorar el valor de Alfa.

También podría gustarte