El surgimiento de los estudios sobre atención: El enfoque cognitivo
Durante la Segunda Guerra Mundial quedó claro que las personas tenían una
capacidad muy limitada para actuar ante las múltiples señales procedentes de
diversos canales. Poco era lo que la psicología podía aportar entonces para
resolver problemas relacionados con la guerra, de modo que los investigadores
se sintieron motivados para tratar de descubrir algo más sobre las limitaciones
del desempeño humano.
Welford (1952) llevó a cabo un experimento mediante el cual demostró que,
cuando dos señales se presentaban en una rápida sucesión y el sujeto debía
responder a ambas también con rapidez, el tiempo de reacción 1 ante la
segunda dependía de la asincronía en la aparición del estímulo (Stimulus Onset
Asynchrony, SOA2, por sus siglas en inglés) existente entre la presentación del
primer estímulo y el segundo. Cuando el segundo se presentaba tras una SOA
muy breve, el tiempo de reacción a éste último fue más lento que cuando la SOA
entre estímulos fue más amplia. Wclford llamó "periodo refractario psicológico"
(PRP) a este retraso en la respuesta a un segundo estímulo en la condición de
SOA breve. Welford mostró que por cada milisegundo de reducción de la SOA
hubo un incremento en el tiempo de reacción al segundo estímulo.
Para Welford, este fenómeno sugería la presencia de una especie de “ cuello de
botella" (bottleneck), de manera que había que finalizar el proto del primer
estímulo antes de comenzar el procesamiento del siguiente. Cuando la SOA es
prolongada, tenemos tiempo para procesar el primer estímulo antes de que
llegue el segundo, por lo que no se observa refractariedad
El Tiempo de Reacción (TR) es el periodo que transcurre entre la aparición de
un Estímulo (E) y la emisión de la Respuesta (R) correspondiente. Algunos
ejemplos típicos de tareas de TR son las siguientes: TR simple (presionar un
pulsador cuando se escuche un pitido); TR de elección (presionar el pulsador A
ante la presentación de un cuadrado rojo y el pulsador B ante un cuadrado azul);
TR disyuntivo (presionar un pulsador ante la presentación de un número par y no
ejecutar respuesta ante un número impar); tarea igual-diferente (presionar el
pulsador A si los dos estímulos son de la misma fonna y el pulsador B si son de
formas diferentes). Generalmente, las tareas de TR requieren al participante
ejecutar la respuesta lo más rápidamente posible, pero evitando errores.
La SOA se define como el intervalo temporal que transcurre entre la aparición de
un primer estimulo A y la aparición de otro posterior B. Debe distinguirse del lSI
(Jnter Stimulus lnterval, intervalo entre estímulos), que se define como el
intervalo temporal que transcurre entre la desaparición de un primer estímulo A y
la aparición de otro posterior B.
Primeros experimentos sobre atención selectiva auditiva: la escucha dicótica
Broadbent (1971) explicó que había buenas razones para investigar a la
audición en lugar de la visión: no podemos mover los oídos del mismo modo que
los ojos, y tampoco podemos cerrar los oídos para no recibir la información que
no deseamos. Aunque en el capítulo introductorio dijimos que nuestra atención
no se dirige necesariamente hacia el lugar al que movemo los ojos, por lo
general sí solemos hacerlo. Sin embargo, ante un estímulo auditivo, el
procesamiento selectivo debe basarse en procesos centrales neurológicos más
que en otros de carácter periférico o mecánico.
Un paradigma experimental muy utilizado fue la escucha dicótica. En él se
presentaban dos estímulos simultáneos (por lo genetos, aunque no siempre) en
ambos oídos mediante auriculares, y se pedía al participante que realizara una
determinada tarea. En las tareas de atención selectiva, se le solicitaba que
atendiera al mensaje que se le por un oído y que ignorara el que recibía
simultáneamente por el otro
Los primeros trabajos realizados estuvieron interesados en el estudio de la
atención selectiva. Los resultados obtenidos por Broadbent ( 1952, 1954),
Cherry (1953) y Poulton {1953, 1956) mostraban que las diferentes
características acústicas que existían entre las voces y la separación fisica de
las localizaciones ayudaban a seleccionar el mensaje. La señal más eficaz era la
separación física. Estos resultados llevaron a confirmar que el oyente puede
atender selectivamente a estímulos que poseen alguna característica o rasgo
físico en común y rechazar aquellos que no lo posean.
Recopilando todos estos hallazgos, Broadbent (1958) sugirió que los estímulos
ante los que no se necesita emitir una respuesta son, si es posible, ignorados
antes de llegar a procesarlos por completo. Además, y dado que las
características fisicas del input constituyen señales eficaces para discernir los
mensajes, debía de existir un filtro que permitiera a la información poseedora de
dicha característica atravesarlo para su ulterior procesamiento. Así, en los
mensajes inatendidos sólo parecían detectarse las propiedades fisicas del input,
y eran éstas las que guiaban la configuración del filtro.
Supuestos del modelo de flujo de información de Broodbent
Parte del mérito de Broadbent residió en empezar a concebir el desempeño
humano como procesamiento de la información. A partir de sus propias
investigaciones y de otros hallazgos de la época, Broadbent propuso una nueva
concepción de la mente en la que los procesos psicológicos podían describirse
como un flujo de información que atravesaba el sistema nervioso. El modelo de
Broadbent acabaría siendo el punto de partida de las modernas teorías sobre
atención, y la estructura y los principios en os que se asentaba dicho modelo
marcaron la pauta de las investigaciones posteriores. Podemos decir que
Broadbent extrajo tres conclusiones principales:
1) era importante analizar las funciones humanas en tpminos de flujo de
información que atraviesa el organismo.
El concepto de información procede de la teoría de la comunicación (Shannon y
Weaver, 1949). La información se puede describir matemáticamente, y no todas
las señales llevan la misma cantidad de información. A medida que aumenta la
incertidumbre, lo hace también la cantidad de información potencial. Fitts y
Posner (1973) ofrecen una introducción accesible al tema y ponen el ejemplo del
lanzamiento de una moneda al aire. La af!nnación "será cara o cruz" no contiene
información, porque no reduce nuestra incertidumbre sobre de qué lado caerá la
moneda. Sin embargo, si nos dicen "es cruz", no tendremos incertidumbre y
habremos obtenido información. Así pues, lo que hace la información es reducir
la cantidad de incertidumbre presente en una situación
A Broadbent le preocupó el tema de la transmisión de la información dentro del
sistema nervioso. Dicha transmisión es máxima cuando un estímulo determinado
siempre da lugar a la misma respuesta. Cuando esto sucede, no existe
incertidumbre entre el input estimular y el output de la respuesta.
Relacionadas con las mediciones de la información se descubren las mediciones
de la redundancia. En cualquier situación en la que haya menos de la cantidad
máxima de información habrá redundancia
2) como sistema de comunicaciones, todo el sistema nervioso podía
considerarse un único canal cuyo índice de transmisión de la información
era limitado
3) la sección de capacidad limitada del sistema nervioso debía de ir
precedida de un filtro selectivo, un interruptor que protegiera al sistema de
posibles sobrecargas y que sólo permitiera pasar una pequeña parte
seleccionada de la información entrante. El resto de la información
quedaría bloqueado
Estas tres grandes conclusiones gozaron de bastante aceptación, al igual que la
necesidad de que existiera un almacén temporal a corto plazo pre !o al filtro
selectivo. Este almacén temporal era una memoria en la que podría guardarse,
en paralelo, la información no seleccionada durante breves periodos de tiempo.
Este modelo de Broadbent acabó conociéndose como la "teoría del filtro". Cabe
destacar que, aunque en este modelo la información entre en paralelo en el
sistema, sólo permanece en esa memoria temporal por poco tiempo.
Descripción del modelo de flujo de información de Broadbent
Broadbent supone implícitamente que si una señal facilita la selección, la
naturaleza de dicha señal representa el nivel de análisis que ha alcanzado La
información seleccionada. Sin embargo, no existe un motivo real para suponer
que, puesto que las señales físicas son eficaces para seleccionar un mensaje en
lugar de otro, los mensajes sólo se procesen hasta el nivel físico. Es
perfectamente plausible que se produzca un procesamiento mucho más
completo de todos los inputs; lo que sucede es que las señales físicas son la
mejor manera de seleccionar canales.
Pero volvamos a Broadbent ( 1958). Por aquel entonces, éste era un modelo
elegantemente sencillo. El sistema humano de procesamiento de la información
tenía que estar protegido de las sobrecargas y, por tanto, precedido por un filtro
selectivo que pudiera conectarse a cualquier canal que fuera necesario, en
función de ciertas características físicas del input sensorial.
Una de las contribuciones más importantes de Broadbent fue la de elaborar uno
de los primeros flujogramas o diagramas de flujo de la informacion través del
sistema nervioso.
Retos para la teoría del filtro
Una de las ventajas que tienen las teorías rigurosas es que generan potentes
predicciones. A 1 llegar la década de 1960 aparecieron resultados
experimentales que desafiaron la teoría original de Broadbent. Cabe destacar
que se habían conservado muchos de los supuestos originales, como la
existencia de cierto límite en la capacidad computacional del cerebro y la
presencia de un filtro selectivo que introducía un "cuello de botella" (bottleneck)
en el procesamiento
La versión de la teoría del filtro de 1958 se encontró con un obstáculo inmediato tras
la aparición de una serie de estudios realizados por Moray . Mediante diversos
experimentos de sombreado, Moray observó que cuando se repetía un conjunto
pequeño de palabras en el oído desatendido, la memoria de reconocimiento era muy
mala para esas palabras, incluso pocos segundos después de su presentación. Si
estas palabras no sombreadas hubieran recibido atención, deberían haber sido
fácilmente nocidas. Este resultado es consistente con la teoría del filtro, y parece
confirmarla
Sin embargo, algunos de los hallazgos de Moray no coincidían con las previsiones
de la teoría de Broadbent
En la década de 1 960, Treisman aportó más pruebas experimentales que no encajaban
con la teoría del filtro original. Vio que, aunque una persona esté atendiendo al caudal de
eventos que recibe por un canal atendido, puede penetrar información del mensaje
inatendido, especialmente si existe una relación significativa entre aquello a lo que se está
atendiendo en ese momento y lo que está entrando por el canal desatendido. Se pidió a los
participantes que sombrearan un relato (relato 1) en un oído y que ignoraran el relato 2 que
se les presentaba a la vez por el otro oído. Mientras el sujeto sombreaba el relato 1, éste
cambiaba al otro oído, al supuestamente desatendido. El relato 2 dejó de presentarse en el
oído desatendido y apareció otro nuevo (relato 3) para sustituir al relato 1 en el oído
atendido. Según la teoría inicial de Broadbent, los participantes habrían dirigido su filtro
selectivo al oído o canal atendido y desconocerían el significado de la información del canal
bloqueado. Así pues, al cambiar los relatos, deberían haber seguido inmediatamente
atendiendo al relato nuevo, al 3. Sin embargo, Treisman encontró que cuando se
cambiaban los relatos, estas personas sombreaban algunas palabras del relato 1 del oído
desatendido antes de elegir el relato 3, que se les presentaba por el oído al que debían
atender.
¿Es la selección más tardía que temprana?
La propuesta de Deutsch y Deutsch se ha considerado como la primera teoría de "selección
tardía". En ella seguía existiendo un cuello de botella pero el límite del procesamiento en
paralelo se situaba mucho más próximo a la fase de respuesta que a la de identificación
La idea de que cualquier señal entrante pudiera estar conectada con todas las demás
señales posibles parecía descabellada. En la actualidad, con el advenimiento del
conexionismo y sus métodos computacionales en paralelo, este proceso de comparación
múltiple ya no se considera dificil, pero a principios de la década de 1960 se comparaba al
cerebro con los ordenadores, que eran entonces unos dispositivos en serie de capacidad
limitada. Así pues, Deutsch y Deutsch propusieron una analogía sencilla.
Deutsch y Deutsch propusieron que sólo las señales presentes más importantes activaban
otros procesos como el almacenamiento en la memoria y la respuesta motora.
Este modelo considera que todos los mensajes sensoriales se analizan perceptivamente en
el nivel más elevado. Cuando el sujeto se encuentra en un estado de activación (arousal)
normal, la señal de nivel más alto entra en la memoria o provoca una respuesta. Sin
embargo, si el individuo está soñoliento o dormido, la señal sólo provocará una respuesta si
atraviesa el nivel actual del sistema de activación fluctuante. Así, Deutsch y Deutsch (1963)
proponen que, en todos los casos, la persona responderá ante la señal de mayor
importancia o será alertado por ella, siempre y cuando la actividad de la señal se encuentre
por encima del nivel de activación actual. De este modo, no se seleccionará el mensaje
más importante en un nivel temprano, sino después de un procesamiento completo.
Otras pruebas coherentes con la idea de que la selección podría realizarse de acuerdo con
el significado fueron aportadas por Gray y Wedderburn ( 1960) mediante una modificación
de un experimento de amplitud de memoria dividida
Comienza el debate temprano-tardío
Aunque Treisman había aportado parte de la evidencia experimental llevó a los Deutsch a
proponer su visión tardía de la selección atencional, esta investigadora consideró que lo
más adecuado era modificar la teoría original de Broadbent.
Treisman ( 1964a) propuso que el filtro no funcionaba corno un mecanismo de "todo o
nada" (filtro rígido), como Broadbent había dicho. En lugar de bloquear toda la información
que no cumpliera el criterio de seleccion de la atención, el filtro "atenuaría" o reduciría la
intensidad de los canales inatendidos. Si la información entrante no fuera bloqueada por
completo, entonces parte de la información coherente con las expectativas actuales, o bien
información relevante para la persona
Treisman propuso inicialmente que el sistema n 'oso contenía una serie de unidades de
diccionario, cada una de las ..:tiales umbrales se correspondía con una palabra. Cada
palabra tenía distintos en función de su notoriedad y de su probabilidad. Si el filtro atenuado
actuaba reduciendo el input perceptivo de los canales desatendidos, solo cuando las
palabras fueran muy probables o notorias tendrían un umbral suficientemente bajo para que
el pequeño input perceptivo hiciera activarse esa unidad del diccionario. Así pues, la
presencia de un atenuador podría explicar de una forma bastante simple cómo afecta lo
inatendido y permitir al mismo tiempo que la selección efectuada de los canales didos sea
casi perfecta en la mayoría de los casos.
Primeros experimentos sobre atención selectiva visual
A diferencia de la información auditiva, que consiste en un patrón de frecuencias
distribuidas a lo largo del tiempo, la información visual se distribuye en el espacio y
generalmente permanece en el tiempo. En los experimentos visuales se puede mostrar
toda la presentación simultáneamente en paralelo, lo que permite diseñar distintas clases
de experimentos
Los experimentos de Sperling
En una serie clásica de experimentos, George Sperling ( 1960) investigó la capacidad de de
las personas para informar selectivamente de ítems que han sido presentados visualmente
durante periodos de tiempo muy breves
Sperling presentó los estímulos mediante un taquistoscopio (caja opaca en la que la
persona mira por un extremo y el estímulo se sitúa en el otro). Sin embargo, dado que la
caja es opaca y oscura por dentro, el participante no ve el estímulo hasta que se enciende
una luz. Mediante el uso de unas lámparas especiales que se encienden y se apagan con
gran rapidez se puede controlar cuidadosamente la duración de la luz y, por tanto, el tiempo
de exposición, con una precisión de milisegundos. El uso de espejos permite añadir varios
"campos" de visualización a la caja, cada uno de ellos con su propio control de iluminación
Sperling ( 1 960) descubrió que, cuando a los participantes se les presentaban matrices
visuales de doce letras durante 50 ms, y se les solicitaba recuerdo posterior de las mismas
sólo podían informar de unos 4 o 5 items. Sin embargo, estas personas decían que les
parecía toda la presentación durante un breve periodo de tiempo después de ésta
terminara.
Sperling creyó que el patrón de los resultados demostraba la existencia de un almacén de
memoria visual con gran capacidad, que decaía con rapidez y que, a menos que la
información visual de este almacén adquiriera otro estado más permanente, se perdía. Este
breve almacén de información visual recibió el nombre de "memoria icónica" por parte de
Neisser ( 1967), y es análogo al almacén sensorial a corto plazo situado entre los sentidos
y el filtro selectivo del modelo de Broadbent.
El efecto de superioridad del informe parcial
Aunque Sperling investigaba lo que ahora denominamos memoria icónica, sus resultados
son importantes en los estudios sobre atención, porque pueden decir algo acerca de qué
señales son más eficaces que otras para guiar la atención selectiva entre los estímulos
presentes en una exposición visual compleja. En la condición de IP, la atención selectiva
permite que los estímulos señalados sean preferentemente recordados.
Evidencia experimental de una codificación por separado de la identidad y de la posición
(en la visión
Eriksen y Rohrbaugh (1970) llevaron a cabo un experimento utilizando una señal en forma
de barra. Al igual que en los experimentos de Averbach y Coriell (1 961 ), observaron que la
precisión de la respuesta disminuyó con la demora de la señal. Sin embargo, el
descubrimiento más importante fue que, a medida que disminuía la probabilidad de
recordar la letra adecuada en la posición correcta, aumentaba la de recordar un ítem
adyacente al target. Por norma general, cuando los participantes cometieron un error, lo
más probable fue recordar otra letra que había aparecido en la presentación (lo que
habitualmente se conoce como error de posición o de ubicación).
Los experimentos de enmascaramiento selectivo de Mewhort, Campbell, Marchetti y
Campbell ( 1981) demuestran que diversas propiedades de un estímulo se ven interferidas
selectivamente por distintos tipos de máscaras. Sus resultados proporcionan más pruebas
sobre la codificación por separado de la identidad del estimulo (qué es) y la posición del
mismo (dónde está). Por su parte, Styles y Allport (1986) realizaron una serie de
experimentos en los que los participantes no sólo tenían que recordar la identidad de la
letra central de un grupo de cinco, sino que también tenian que anotar en el lugar
correspondiente de una hoja de respuestas cualquier otra letra que hubieran visto.
La duración de la exposición se controló mediante enmascaramiento patrón visual, y la
relación semántica, de características y categorial entre el target y los distractores se
manipuló de diversas formas. Este procedimiento nos permitió observar la evolución
temporal de la selectividad del recuerdo y el desarrollo de la información sobre la posición
en cada
En resumen, existe un buen cúmulo de evidencias que indican que, aunque los
participantes digan que han "visto" todos los ítems de una presentación breve, tienen una
capacidad considerablemente limitada para los con precisión en su totalidad. Sin embargo,
también sucede que se pueden recordar muchos más ítems de los que somos capaces de
ubicar correctamente en su posición durante una presentación estimular. El IP lo supera al
informe total cuando hace referencia a la identidad. Los atributos físicos, como el color o la
posición, constituyen señales cficienara la selección de la información, y como tales
parecen respaldar la de una selección "temprana" en atención visual.
Información pertinente e información no atendida
Norman (1968) creía que los inputs sensoriales se sometían a un exhaustivo
procesamiento automático e inconsciente antes de "conocerse" conscientemente. Creía
que este procesamiento descansaba, en su mayor parte en el almacén permanente de
información a largo plazo. Las caracteristicas sensoriales del input señalan
automáticamente ciertas ubicaciones en la memoria semántica, de manera que si el input
coincide con alguna representación almacenada, se accederá a su significado. Si el input
es una palabra sin sentido, es decir, carece de representación preexistente, no se
encontrará ningún significado, lo cual nos indica que ese input no es una palabra. Por tanto,
según el modelo de Norman, la selección de la información se produce después de acceder
la información a la memoria semántica, y tanto las fuentes de información atendidas como
las no atendidas generan, de forma automática y sin esfuerzo, huellas rnnésicas. Una vez
activadas las huellas mnésicas, se asignan valores de pertinencia a las mismas en función
de las tareas cognitivas en curso.
Asimismo, el modelo de Norman tiene algunos puntos en común con el de Deutsch y
Deutsch (1963), pero considera que la atención es una cuestión de grados más que un
análisis completo de todos los inputs al más alto nivel. En todos los niveles de
procesamiento se asignan valores de pertinencia que pueden cambiar en función del
procesamiento ulterior. Un mensaje que al principio parezca poco pertinente puede acabar
considerándose que lo es más si se sigue procesando. Por último, la mayoría de los
mensajes serán rechazados, dejando sólo el más pertinente para seguir procesándolo con
mayor detenimiento.
El modelo de Norman explica fácilmente el efecto de la semántica, problemático para la
teoría original del filtro. Las palabras muy probables que se presenten en el oído no
atendido recibirán atención debido al efecto de la pertinencia determinada por el contexto.
Lewis (1970) realizó un experimento que mostraba cómo afectaba a la velocidad de
sombreado la relación entre el mensaje sombreado o atendido y el no sombreado o no
atendido. Las palabras que se presentaban en el oído no atendido estaban o bien
relacionadas semánticamente o bien no relacionadas con el mensaje sombreado. Aunque
los participantes fueron incapaces de recordar nada del oído no atendido, el tiempo que
tardaron en decir las palabras sombreadas fue mayor cuando existía una relación
semántica entre ambos mensajes. El modelo de Norman predecía este efecto, ya que el
procesamiento semántico inconsciente ralentizaba el de las palabras atendidas.
En conclusión, se puede afirmar que experimentos como los descritos aportan más pruebas
de que los procesos selectivos en la atención se producen después de acceder al
significado de las palabras.
Más modelos de atención selectiva
Otros partidarios de la selección tardía defendieron sus propias versiones de una teoría
atencional. Estas propuestas seguían siendo estructurales y giraban en torno a la
localización de un cuello de botella en el que finalizaría el procesamiento en paralelo y
comenzaría el procesamiento en serie.
Modificaciones a la teoría del filtro
Broadbent (1971, 1982) modificó en parte su teoría original, aunque argumentó que, dado
que el modelo de 1958 era muy general, los cambios introducidos no eran muy importantes
El filtrado consistiría en un agrupamjento del input en función de características simples, y
esta información pasaría posteriormente a niveles superiores. Los resultados del filtrado
representan "evidencia" del estío, no evidencias concretas del mundo exterior. Así pues,
aunque la evidencia indique que un estado del entorno o estímulo es más probable que
otro, esto no es seguro. Sin embargo, aunque pueda existir ambigüedad en cuanto al
estado del mundo exterior, el output del canal de capacidad limitada debe ser definido.
Broadbent llamó a esto "estado de categoría". Para determinar qué estado de categoría se
ajusta más a la evidencia es necesario tomar una decisión, y, a diferencia de la teoría de la
información en la que se basaba el modelo de 1958, Broadbent (1971) enmarca su
explicación dentro de la teoría de la decisión estadística. Esto permite incorporar .! · cepto
de ruido o incertidumbre al sistema.
Así pues, en primer lugar, el filtrado selectivo relaciona los estados de los estimulos con
estados de evidencia. En lugar del filtro de tipo todo o nada que propugnaba el modelo de
1958, Broadbent aceptó la modificación que introdujo Treisman en la teoría del filtro
original, lo que permitía emitir respuestas ante algunos estímulos basadas en menos
evidencia que ante otros. Ahora, como explicaba en su artículo de 1982, el filtro se
consideraba como una estrategia que permitía realizar la tarea en condiciones en las que
de otra forma se produciría interferencia. El filtrado no bloqueaba todo lo relacionado con lo
no atendido; algunas características podian atravesarlo, y otras podían desencadenar otros
procesos posteriores.
Otro de los conceptos que se introdujo en 1971 fue el de pigeonholing, que referencia al
proceso que relaciona la evidencia procedente del filtro con un estado de categoría
Bundesen ( 1 990) planteó una teoría unificada del reconocimiento visual y de la selección
atencional en la que modelaba explícitamente estos dos mecanismos atencionales
propuestos por Broadbent (1971), el filtrado y el pigeonholing. El trabajo de Bundesen
posee una marcada orientación matemática y contiene modelos matemáticos detallados de
muchas tareas de atención visual. Sin embargo, aquí dejaremos a un lado las matemáticas
para centrarnos simplemente en los conceptos de filtrado y pigeonholing.
Bundesen define el filtrado como una selección de elementos del campo visual, y el
pigeonholing como una selección de categorías. El mecanismo de filtrado incrementa la
probabilidad de seleccionar elementos de la categoría de interés "sin que exista un sesgo a
favor de percibir los elementos como pertenecientes a una categoría en particular"