100% encontró este documento útil (3 votos)
14K vistas12 páginas

Escala de Likert

El documento describe la escala Likert, un instrumento común para medir actitudes. La escala Likert consiste en una serie de afirmaciones con las que las personas indican su grado de acuerdo o desacuerdo utilizando una escala de 5 puntos. El documento explica cómo construir y analizar escalas Likert de manera válida y confiable.

Cargado por

Eli Zabeth
Derechos de autor
© Attribution Non-Commercial (BY-NC)
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (3 votos)
14K vistas12 páginas

Escala de Likert

El documento describe la escala Likert, un instrumento común para medir actitudes. La escala Likert consiste en una serie de afirmaciones con las que las personas indican su grado de acuerdo o desacuerdo utilizando una escala de 5 puntos. El documento explica cómo construir y analizar escalas Likert de manera válida y confiable.

Cargado por

Eli Zabeth
Derechos de autor
© Attribution Non-Commercial (BY-NC)
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Universidad de Viña del Mar

Escuela de Ciencias Sociales


Carrera de Sociología

TECNICAS CUANTITATIVAS

ESCALA LIKERT

La escala Likert, creada en 1932 por el psicólogo norteamericano Rensis Likert


(1903-1981), es el instrumento más usado para medir actitudes. La escala Likert es un
conjunto de aseveraciones (items) ante las cuales la persona expresa su grado de acuerdo
o desacuerdo o indecisión. Cada ítem tiene habitualmente cinco opciones de respuesta:
Muy de acuerdo (MA), De acuerdo (A), Indeciso (I), En desacuerdo (D) y Muy en
desacuerdo (MD). No hay respuestas correctas o incorrectas.

Hay items positivos, que expresan actitud positiva hacia el objeto, e items
negativos, que expresan actitud negativa hacia el objeto. Si estamos midiendo actitud
hacia la televisión, un ítem positivo sería “la televisión sirve para estar al día en muchos
temas” y uno negativo sería “ver televisión es perder el tiempo”. Es conveniente que la
escala tenga ambos tipos de items para controlar la tendencia a estar de acuerdo con las
aseveraciones o a contestar mecánicamente.

Los puntajes van de 1 a 5, dando mayor puntaje a la opción de respuesta que


indica actitud positiva hacia el objeto. Si el ítem es positivo, la opción MA recibe 5
puntos; si es negativo, la opción MD recibe 5 puntos. En el ejemplo del párrafo anterior,
recibe puntajes máximos quien está muy de acuerdo con que la televisión sirve para estar
al día, y muy en desacuerdo con que ver televisión es perder el tiempo.

El puntaje de una persona en la escala es la suma de los puntajes que ha obtenido


en los items. A mayor puntaje en la escala, más positiva es su actitud.

La escala Likert se aplica habitualmente como parte de un cuestionario, que puede


contener varias escalas y otros instrumentos. La escala Likert es una escala sumatoria:
sus puntajes son la suma de los puntajes de los items. Otras escalas sumatorias son las de
items con opciones de respuesta de 0 a 10, y las de items dicotómicos (1=sí, 0=no).

La escala Likert fue diseñada para medir actitudes pero, por lo fácil que es
construirla, contestarla y analizarla, y porque sus propiedades psicométricas (validez,
confiabilidad) son relativamente fáciles de evaluar, es usada para medir opiniones,
percepciones, valores, aspectos de personalidad y otras variables. Por ejemplo, la
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
pregunta “¿Qué le pareció la selección de fútbol en el último partido?” puede tener las
opciones de respuesta “muy bien”, “bien”, “regular”, “mal” y “muy mal”, con puntajes 5
a 1 respectivamente.

Un problema de esta escala radica en el elemento conductual de las actitudes: es


la distancia que hay entre la respuesta a palabras escritas en un papel y la conducta real.
Las palabras aíslan la conducta, la sacan de contexto real. Revelan en parte el deber ser.
Son la respuesta verbal a una situación simbólica. La conducta se da en una situación
concreta, en un contexto con muchos otros elementos, no equivalente a la respuesta
escrita. Pero no tenemos mejor alternativa: una buena medición debe contextualizar lo
más posible el estímulo que aparece en el papel.

Una limitación de toda medición en papel es que exige un grado mínimo de


comprensión de lectura. En general, es problemático aplicarla a niños o a personas de
muy bajo nivel educacional o con grados de analfabetismo.

Hay varias recetas para escribir items. Aquí hay unas cuantas:

• Evitar aseveraciones que se refieran a hechos del pasado. Las personas suelen
contestar tratando de ser consistentes con su actitud actual. Si simplemente no
recuerdan, suelen idealizar el pasado o inventarlo.
• Evitar items que contengan dos o más aseveraciones. En vez de un ítem con dos
aseveraciones, es preferible dos items con una cada uno.
• Los items deben ser cortos, estar escritos en forma directa, con palabras simples,
entendibles y familiares para el que contesta.
• Evitar items extremos, en que todos o nadie estarán de acuerdo. Los items extremos
no discriminan y, por lo tanto, no entregan información. Las diferencias en los
extremos de la escala no se detectan con items extremos sino con el uso de las
opciones de respuesta de los items.
• Evitar palabras como ‘sólo’, ‘solamente’, ‘principalmente’, y similares.
• No usar, salvo que se justifique, palabras como ‘todos’, ‘nadie’, ‘siempre’, ‘nunca’,
‘ninguno’, etc.
• Evitar aseveraciones de hechos objetivos o de conocimientos.

¿Cuántos items debe tener una escala? No se recomienda más de quince o veinte
items. Una escala larga puede aburrir y hacer que las respuestas al resto de la escala no
sean contestadas o lo sean mecánicamente. Esto depende de las características de las
personas a las que se les va a aplicar y del lugar donde se hará. Por otra parte, cuantos
más items haya, mayor será la confiabilidad, porque el error sistemático tenderá a
compensarse.

Aunque la confiabilidad de una escala aumenta al tener más items, el aumento va


disminuyendo al agregar (ver más adelante el coeficiente Spearman-Brown). También se
supone que una escala mide una sola dimensión y esto es menos sostenible al haber más
items.
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
Las etapas en la construcción de la escala son:

1. Definir el concepto nominal y operacionalmente.

2. Construcción de items. Escribir items positivos y negativos. (Crear más de los


necesarios, para posibles reemplazos.)

3. Aplicar un pretest. Los sujetos del pretest, de características similares a los que se
les va a aplicar la escala definitiva, contestan los items e indican qué problemas han
tenido al hacerlo.

4. Se analizan los items, la validez y confiabilidad de la escala y, si corresponde, se


modifican.

5. Se aplica la escala.

Para cada persona se suman los puntajes que obtuvo en los items. La suma es su
puntaje en la escala. Esto se hace porque, aunque las opciones de respuesta de los items
son variables ordinales, se les considera cuantitativas porque tienen más de tres
categorías de respuesta. Esto se justifica además, teóricamente, en que la actitud que la
subyace es continua, cuantitativa.

ANALISIS DE LOS ITEMS

El análisis de los items sirve para determinar cuáles se mantendrán en la escala y


cuáles se han de eliminar. Se espera que los items discriminen y que se correlacionen
positivamente entre sí.

Un ítem discrimina si separa a los sujetos en el ítem en forma similar a como los
separa en la actitud, expresada en el puntaje de la escala. Para evaluarlo se pueden tomar
los grupos de los cuartiles extremos (4° y 1°) en el puntaje total y comparar sus
promedios en el ítem mediante un Anova. Otra forma de hacerlo es correlacionar los
puntajes del ítem y la escala.

Likert indica algunas posibles causas de que un ítem no discrimine:


• Es poco entendible.

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
• Se refiere a algo diferente del resto de los items (por lo tanto, personas en
diferentes posiciones de la escala tienen igual probabilidad de estar de acuerdo).

• Es respondido igual (o casi igual) por todo el grupo. Esto se da habitualmente en


items muy extremos. La correlación disminuye si los items tienen poca varianza.
Esta atenuación también ocurre cuando se disminuye el número de opciones de
respuesta de los items.

Los items deben estar correlacionados entre sí. Por lo tanto, deben estar también
correlacionados con la escala, que es la suma de los items. Un ítem que discrimina
adecuadamente está también correlacionado con los demás items y con la escala. Si dos
items están correlacionados, quiere decir que miden lo mismo, el mismo concepto.
Cuanto más alta es la correlación, mayor es la medición común del concepto.
Sin embargo, si la correlación entre dos items, y de cada uno con los demás, es
extremadamente alta, conviene eliminar uno porque está midiendo lo mismo que el otro.
Además de alargar inútilmente la escala, da doble ponderación al aspecto medido.
Los items que están poco correlacionados miden cosas diferentes. Hay que tener
presente que aunque un ítem no esté correlacionado con ninguno otro, su correlación con
la escala no será 0 porque el ítem es parte de la escala. Cuando hay pocos items conviene
correlacionar cada ítem con la escala sin el ítem.
Se deben eliminar los items que están poco correlacionados con los demás y con
la escala. Si la correlación es negativa hay que considerar invertir su codificación. Un
ítem debe ser también eliminado si está correlacionado positivamente con algunos items
y negativamente con otros; además, probablemente su correlación con la escala será baja.

Un ítem poco correlacionado no aporta a la escala y disminuye su validez y su


confiabilidad. Un peligro al eliminar muchos items es que algunas dimensiones pueden
quedar con muy pocos items o con ninguno.

CONFIABILIDAD: CONSISTENCIA INTERNA

Se han analizado antes dos formas de confiabilidad: la estabilidad del


instrumento y el grado de acuerdo entre jueces. Se verá aquí otra forma de confiabilidad,
la consistencia interna, especialmente aplicable a escalas y tests.
La consistencia interna de un instrumento consiste en que cada parte de la escala
mida lo mismo, produzca resultados similares, de manera que sea indiferente cuál parte
del instrumento usamos en nuestra medición.
Los primeros métodos usados fueron los de equivalencia, como el ‘split-half’, que
correlaciona los puntajes de las dos mitades del test. Si miden lo mismo, si son
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
equivalentes, la correlación será alta. Ésta no indica la confiabilidad del instrumento
sino la de cada una de las mitades. Está atenuada porque cada parte tiene la mitad de los
items del test. (Se sabe que la confiabilidad aumenta al alargar un test.)

La fórmula de Spearman-Brown sirve para estimar la confiabilidad al alargar o


acortar un instrumento, al aumentar o disminuir el número de items:
kr '
r=
1 + (k − 1)r '

en que r’ es la confiabilidad de la escala inicial, k es el tamaño de la nueva escala con


respecto a la escala inicial (por ejemplo, k=2 si se aumenta al doble, k=.5 si se acorta a la
mitad), y r es la confiabilidad de la nueva escala.

Por ejemplo, se quiere acortar un test de treinta a veinte items, eligiéndolos al


azar. Si la confiabilidad del test de treinta items es .85, la confiabilidad estimada del
nuevo test será:

r= 3 ( )
2 (.85)
= .79
1+ 2
3 ( )
− 1 (.85)

en que k = 20/30 = 2/3. El nuevo test tendrá una confiabilidad de .79.

Si se duplica el tamaño del test, como cuando sabemos la confiabilidad de las


mitades y queremos conocer la del test entero, k = 2. Se puede ver que en este caso, la
fórmula del coeficiente de Spearman-Brown se simplifica a:

2r '
r=
1+ r '

Por ejemplo, si la correlación de las mitades ( r ' ) es .60, la confiabilidad del test
2(.60)
entero será r = = .75
1 + (.60)

Se puede también usar la fórmula de Spearman-Brown para estimar cuántos items


se necesitan para conseguir una determinada confiabilidad:

r (1 − r ')
k=
r '(1 − r )

Por ejemplo, si un escala de quince items tiene confiabilidad .70, ¿cuántos items
se estima debería tener para que la confiabilidad fuera .80? La respuesta es 26 items.
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
No hay una relación proporcional entre el aumento del largo del test y el aumento
de la confiabilidad. Ésta crece en menor proporción, y es aun menor al continuar
aumentando k, y también menor cuanto mayor sea r. Esto se debe al factor ‘techo’: r
no puede ser mayor de 1.

La objeción que se hace al método de ‘split-half’ es que el cansancio o la


reactividad pueden hacer diferentes las respuestas de cada mitad. Esto se puede superar
correlacionando los puntajes de los items pares e impares. Pero, dado que la ubicación de
los items en la escala es arbitraria, pueden haber muchas correlaciones.

Si se parte un test en todos las posibles pares de mitades y se calcula una


correlación para cada par, el promedio de estas correlaciones es numéricamente igual al
coeficiente α creado por Lee Cronbach en los años 50.

El coeficiente α es la medida más usada para medir confiabilidad de escalas y


tests. Mide el grado en que los items son consistentes, en que miden lo mismo, que van
en la misma dirección.

El cálculo de α no se realiza correlacionando todos los pares de mitades, sino de


una manera más fácil, usando la matriz de covarianza de los items.

Es sabido que si x = x1 + x2 , la varianza de x es igual a la suma de la varianza de


x1 más la de x2 más dos veces la covarianza de x1 y x2 . Si x es la suma de k
elementos, su varianza es:

k k k
s = ∑ s + 2∑
2
x
2
i ∑ Cov ij , en que i<j.
i =1 i =1 j=1

Si una escala Likert tiene dos items, su varianza es la suma de las varianzas de
cada ítem más dos veces su covarianza. Si hay k items, la varianza es la suma de las
varianzas de los k items más dos veces la suma de las covarianzas de todos los pares de
items.
Los elementos de la matriz de covarianzas son las varianzas en la diagonal
principal y las covarianzas en los dos triángulos (arriba y abajo de la diagonal principal).
Es una matriz simétrica porque los dos triángulos son iguales. La suma de todos los
elementos de la matriz es igual a la varianza de la escala.
Los items pueden variar conjuntamente con otros items (covarianzas) o
separadamente (varianzas). Las covarianzas indican variación compartida por los items;
se puede decir que es varianza ‘buena’. En la diagonal principal, las varianzas indican
variación no compartida por los items; se puede decir que es varianza ‘mala’. Las
covarianzas indican consistencia de los items; las varianzas indican inconsistencia.
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
Cuanto mayores son los valores de las covarianzas y menores los de las varianzas, más
consistente es la escala.

La fórmula de α es:

⎛ k

k ⎜ ∑ si2 ⎟
α= ⎜1 − i=1 2 ⎟
k −1⎜ sx ⎟
⎜ ⎟
⎝ ⎠
2
en que k es el número de items, si2 es la varianza del ítem i, y s x es la varianza de la
escala total. La fórmula contiene un factor de corrección (k / k-1) y la proporción de
varianza ‘buena’ (igual a uno menos la proporción de varianza ‘mala’).

Los valores de α van de 0 a 1. Se considera que un valor superior a .70 ó .80 es


aceptable. Si es menor, pueden desecharse los items que menos aportan a la
confiabilidad de la escala (la salida de Spss indica qué pasaría si se eliminara cada ítem).

Se presenta abajo una salida de Spss a la que he agregado comentarios. Muestra


el análisis de la consistencia interna de una escala Likert.

Una escala Likert de cinco items es aplicada a doce personas. En la tabla de datos
siguiente, los items están en las columnas y las personas en las líneas.

ITEMS
1 2 3 4 5

3 2 1 4 3
4 2 2 4 4
4 3 2 5 3
3 2 2 5 2
2 1 1 4 2
3 1 2 3 3
4 4 3 5 3
4 3 3 5 4
3 3 2 4 4
2 3 1 3 2
3 3 3 3 3
5 4 3 3 3

--------------------------------------------------------------

Se muestra a continuación la matriz de covarianzas (llamada a veces,


como en esta salida de Spss, ‘de varianza-covarianza’). Es simétrica:
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
sus triángulos superior e inferior son iguales. Spss muestra sólo uno,
el inferior. En la diagonal principal aparecen las varianzas de cada
ítem.

VARIANCE-COVARIANCE MATRIX

ITEM1 ITEM2 ITEM3 ITEM4 ITEM5


ITEM1 0.787879
ITEM2 0.515152 0.992424
ITEM3 0.515152 0.492424 0.628788
ITEM4 0.181818 0.090909 0.090909 0.727273
ITEM5 0.363636 0.181818 0.272727 0.090909 0.545455

---------------------------------------------------------------

R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

N of
Statistics for Mean Variance Std Dev Variables
SCALE 15.0000 9.2727 3.0451 5

----------------------------------------------------------------

ITEM-TOTAL Statistics

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

ITEM1 11.6667 5.3333 .7687 .6098


ITEM2 12.4167 5.7197 .5374 .7064
ITEM3 12.9167 5.9015 .7118 .6436
ITEM4 11.0000 7.6364 .1929 .8175
ITEM5 12.0000 6.9091 .4683 .7281

Alpha = .7537

El coeficiente α es aceptable (.7537), pero la última columna (‘Alpha if Item Deleted’)


nos dice que puede aumentar a .8175 si se elimina el ítem 4. Se puede ver la baja
correlación de este ítem con el conjunto de los demás: .1929 (columna ‘Corrected Item-
Total Correlation’).

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
A continuación, los cambios que ha producido la eliminación del ítem 4:

R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

N of
Statistics for Mean Variance Std Dev Variables
SCALE 11.0000 7.6364 2.7634 4

ITEM-TOTAL Statistics

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

VAR00001 7.6667 4.0606 .7793 .6996


VAR00002 8.4167 4.2652 .5781 .8099
VAR00003 8.9167 4.4470 .7656 .7155
VAR00005 8.0000 5.4545 .4743 .8375

Alpha = .8175

Ejercicio 1. Calcular α a partir de la siguiente matriz de covarianzas. Después


calcularlo eliminando sólo el item1, después sólo el item 2, después sólo el item 3.

Item 1 Item 2 Item3


Item 1 10 5 4
Item 2 5 5 3
Item 3 4 3 8

Ejercicio 2. Analizar la siguiente salida de Spss para una escala de cinco items.

R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

ITEM1 14.0667 6.7810 .4441 .6667


ITEM2 12.4000 6.8286 .5282 .6434
ITEM3 12.4000 7.1143 .2396 .7515
ITEM4 13.1333 6.2667 .5402 .6282
ITEM5 12.5333 4.8381 .6430 .5696

Alpha = .7066

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
A veces puede aparecernos un α negativo. En la fórmula de α se puede ver que
k

∑s
i =1
2
i
esto es posible sólo si es mayor que 1, o sea, si el numerador es mayor que el
sx2
denominador. Para que esto ocurra, la suma de las covarianzas tiene que ser negativa.

Esto puede producirse:

(1) cuando los items negativos no han sido recodificados;

(2) si los items tienen realmente covarianzas negativas porque miden cosas diferentes, y
hay que rehacer la escala.

El coeficiente KR20 de Kuder-Richardson es usado para medir la consistencia


interna de escalas de items dicotómicos. La fórmula es similar a α, con la varianza (piqi)
del ítem dicotómico i.

⎛ k

k ⎜ ∑ pi q i ⎟
KR20 = ⎜1 − i=1 2 ⎟
k −1⎜ sx ⎟
⎜ ⎟
⎝ ⎠

Una escala de items dicotómicos presenta aseveraciones y las personas optan por
las respuestas ‘sí’ o ‘no’, con puntajes 1 y 0 respectivamente. p es la proporción de
personas de acuerdo con el ítem, y q es la proporción en desacuerdo; por lo tanto, p + q
= 1.

El promedio de un ítem dicotómico es p y su varianza es pq. Para demostrar esto


empecemos calculando el promedio Lo haremos con la siguiente tabla, en que las
frecuencias están expresadas en proporciones (p y q) cuya suma es n = 1.

x f fx
1 p p
0 q 0
1 p

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
El promedio de la variable dicotómica es: X =
∑ fx = p = p .
n 1

El promedio de un item dicotómico es la proporción de casos de acuerdo con el


ítem. Por lo tanto, si el promedio = p = .60, quiere decir que 60 % de las personas está
de acuerdo.

Que tenga sentido calcular el promedio de una variable dicotómica, que el


resultado sea interpretable, significa que es una variable cuantitativa. Hay que recordar
que esto es posible sólo si los valores asignados a las respuestas son 1 (sí) y 0 (no).

Demostremos que la varianza de un ítem dicotómico es pq usando la siguiente

tabla. La fórmula de la varianza en tablas de frecuencia es: s =


2 ∑ f ( x − X )2
n

x f x- X (x - X )2 f (x - X )2
1 p q q2 pq2
0 q -p p2 p2q
1 pq(p+q)

Dado que p+q=1, y que n=1, la varianza de un ítem dicotómico es:

Σ f ( x − X ) 2 pq
s2 = = = pq
n 1

El coeficiente KR20 fue creado por G. F. Kuder y M. W. Richardson a fines de


los años 30. El coeficiente α de Cronbach, creado unos quince años después, es una
generalización del KR20 para todo tipo de items.

INTERPRETACION DE PUNTAJES

La escala Likert diferencia personas: a mayor puntaje, más positiva es su actitud.


Sin embargo, no es posible interpretar un puntaje en forma absoluta, sino con respecto al
grupo. Salvo que una persona tenga el puntaje máximo o el mínimo, o muy cercanos a
ellos, no se puede decir que tenga una actitud positiva o negativa. No existe un puntaje

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]
neutral; no lo es el puntaje central de la escala (el punto medio entre el mínimo y el
máximo posibles).

Tampoco estar sobre la mediana de los puntajes del grupo indica una actitud
positiva; sólo que se está en la mitad de la muestra que tiene una actitud más favorable (o
menos desfavorable).

Cuando los puntajes son estandarizados (se transforman a desviaciones standard:


puntaje z), los valores son referidos al grupo, y sirven para comparar.

Si se aplica la escala a una o más muestras, grande(s) y representativa(s) de una


población específica, se pueden asociar puntajes a percentiles. En este caso se habla de
establecer normas, que permiten interpretar puntajes refiriéndolos a la población. Se dice
que la escala ha sido estandarizada. Los puntajes, expresados en percentiles, sirven para
comparar, no ya con el grupo o muestra, sino con lo que podría ser considerada la
población.

VENTAJAS DE LA ESCALA LIKERT

• Es un instrumento estructurado, lo que disminuye sus problemas de confiabilidad:


las personas reciben los items presentados de la misma manera, con igual
introducción, recomendaciones, formato y opciones de respuesta.

• Aplicada en un cuestionario, es rápida y barata. Puede abarcarse a gran cantidad


de personas. El costo por persona es relativamente bajo.

• Como los items no consisten en preguntas sino en aseveraciones, la persona se


siente más libre para opinar sobre temas comprometedores. La ‘responsabilidad’
de lo afirmado en la aseveración se traslada del entrevistado al entrevistador.

• Como cada ítem tiene varias opciones y los puntajes de los items se suman, la
escala muestra las diferencias entre las actitudes de las personas. Esto hace
inncecesario formular items extremos (que además no discriminan) para detectar
diferencias.

• Los datos que produce son fáciles de manejar usando programas estadísticos, que
habitualmente contienen los coeficientes necesarios para evaluar las propiedades
de la escala.

• Si la escala tiene buena validez y confiabilidad, puede ser usada como


instrumento permanente.

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, [Link] Viña del Mar, julianrc@[Link]

Common questions

Con tecnología de IA

Eliminating items from a Likert scale can significantly affect its reliability and validity. When items that correlate poorly with the overall scale or other items are removed, the computation of scores becomes more consistent, enhancing the scale's internal consistency or reliability. Items with negative correlations or low correlation with the total scale score do not contribute positively to the measurement of the construct and may introduce noise or bias. However, excessive elimination can lead to under-representation of the measured concept if essential sub-dimensions are inadvertently excluded, thus weakening construct validity. Thus, each item removal must be carefully weighed to maintain an optimal balance between internal consistency and comprehensive representation of the attitude or belief being measured .

Cronbach's alpha coefficient is a critical measure that assesses the internal consistency or reliability of a set of Likert scale items. This statistic quantifies the extent to which all items in a test measure the same underlying characteristic, providing an estimate of consistency across items. A high Cronbach's alpha value, typically above 0.70 or 0.80, indicates that the items have high shared variance and are measuring the same construct. This consistency suggests that the items effectively contribute to a unified measure of the attitude or belief being studied. The use of covariance among items in the computation ensures that the alpha value reflects both their shared and unique contributions, guiding researchers in refining or redeveloping scales to achieve optimal reliability .

The structure of a Likert scale item contributes effectively to measuring attitudes through its use of statements with multiple response options that range from strong agreement to strong disagreement. This design allows each item to assess the degree of a respondent's attitude toward a specific statement. By including both positive and negative items, the scale can control for response bias such as the tendency to agree indiscriminately. The variation in response options enables nuanced distinctions between different attitudes. Furthermore, by summing the scores of individual items, the scale produces a cumulative measure of attitude strength that reflects both individual responses and the relative importance of each item. This structure ensures that the Likert scale provides a reliable and valid measure of attitudes across multiple domains .

Paper-based Likert scales have several limitations in measuring attitudes. Firstly, they require a minimum level of reading comprehension, making them inappropriate for children or individuals with low literacy levels or educational backgrounds. Secondly, responses on a Likert scale are verbal reactions to symbolic situations, which may not accurately reflect real-world behaviors or contexts. This disconnection can lead to inaccuracies as the responses may not translate into actual conduct when faced with similar real-life situations. Furthermore, these scales often reveal the idealized or expected behavior rather than actual attitudes owing to social desirability bias. Additionally, crafting effective items is challenging as they must avoid complexity, extreme statements, and multiple assertions within a single item, all of which can skew the data collected .

Item variance and covariance are key statistical concepts in measuring the consistency of a Likert scale. Variance within each item reflects the extent of response variability, which, if too high, may indicate poor item quality or relevance. Covariance, on the other hand, indicates how well items measure the same concept by sharing variance. High covariance among items suggests that responses are more consistent, highlighting a reliable scale. In contrast, high variance indicates inconsistency or noise. A balance where covariance significantly outweighs variance implies that the scale items together reliably measure the intended construct. The variance-covariance matrix and Cronbach's alpha provide insight into these relationships, guiding revisions to improve scale reliability .

The Spearman-Brown prediction formula aids in adjusting the reliability of Likert scales by estimating the impact of changing the number of items on the scale's reliability. By using this formula, researchers can predict how the reliability of a scale will alter when items are added or removed, assisting in deciding the optimal scale length for reliable measurement. The formula is particularly useful when considering the trade-off between scale length and respondent fatigue or disengagement. Additionally, it helps determine the necessary number of items to achieve a desired reliability level, guiding the scale refinement process to balance between comprehensive measurement and practical administration .

Conducting a pretest is a critical step in developing a Likert scale as it identifies potential issues with item clarity, relevancy, and respondent understanding before the main study. A pretest involves administering the scale to a sample similar to the target population, allowing developers to observe respondents' interactions with the items. It reveals ambiguities, complex wording, and misplaced items that might confuse participants, leading to inconsistent responses. Feedback from the pretest helps in refining the wording, format, and structure of items, ensuring that they are direct, simple, and aligned with the measured construct. This step enhances the validity and reliability of the scale by ensuring that it measures what it is intended to measure effectively .

The Likert scale is a popular choice for attitude measurement in research due to its structured nature, ease of construction, and ability to provide reliable and valid measurements. Its structured format promotes uniform administration and response, which enhances reliability. The simple yet flexible design makes it suitable for a wide range of constructs beyond attitudes, including opinions, perceptions, and values. Additionally, it is cost-effective, easily administered to large samples, and produces data amenable to statistical analysis. Finally, the summative scoring system captures fine distinctions in attitudes among individuals, contributing to its utility and wide acceptance in both academic and applied research settings .

Standardized scores enhance the interpretability of Likert scale results by transforming individual scores into a common metric, such as z-scores, which express results in terms of standard deviations from the mean. This transformation enables comparison across different groups or conditions and facilitates the interpretation of scores relative to a normative or reference group. By establishing percentiles, standardized scores allow for direct comparison between individual scores and a defined population, providing insights into how an individual ranks in terms of attitude or opinion. This approach supports generalization and application of findings to broader contexts, thereby increasing the utility of the Likert scale results .

Item-writing guidelines are crucial to the effectiveness of Likert scales as they help ensure clarity, relevance, and the ability to discriminate between different levels of attitude. Effective items are clear, focused, and composed of simple, familiar language to avoid confusion and misinterpretation by respondents. Guidelines discourage the use of items with multiple assertions or extreme language, as these can muddle measurement and fail to provide meaningful distinctions between attitudes. Additionally, avoiding factual or knowledge-based questions ensures that items measure attitudes rather than recall or recognition. By adhering to these guidelines, items will better reflect nuanced differences in respondents' attitudes and improve the scale's psychometric properties, thereby enhancing its utility and reliability .

También podría gustarte