0% encontró este documento útil (0 votos)
113 vistas131 páginas

Apuntes Percepción

Este documento presenta un resumen de los principales enfoques en la historia de la percepción. Comienza con las influencias iniciales del racionalismo y el empirismo. Luego describe la teoría clásica formulada por Helmholtz y Wundt, que veía la percepción como una síntesis de sensaciones elementales. Finalmente, presenta la teoría de la Gestalt, que rechazaba el atomismo y veía la configuración de las relaciones entre los componentes como lo más importante en la percepción.

Cargado por

Anfly Rodríguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
113 vistas131 páginas

Apuntes Percepción

Este documento presenta un resumen de los principales enfoques en la historia de la percepción. Comienza con las influencias iniciales del racionalismo y el empirismo. Luego describe la teoría clásica formulada por Helmholtz y Wundt, que veía la percepción como una síntesis de sensaciones elementales. Finalmente, presenta la teoría de la Gestalt, que rechazaba el atomismo y veía la configuración de las relaciones entre los componentes como lo más importante en la percepción.

Cargado por

Anfly Rodríguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

P. de la Percepción. Cap. 1 Psicología UNED.

2020-2021 Dolores Latorre

Capítulo 1. Introducción: Historia y Enfoque General

1. INFLUENCIAS INICIALES

Las primeras teorías científicas de la percepción estuvieron influidas por el


sentido común o la reflexión filosófica. La reflexión filosófica moderna,
intentando responder a en qué medida nuestros sentidos nos proporcionan
un conocimiento válido del mundo, y hasta qué punto podemos confiar en
ellos, se polarizó en torno a 2 posturas contrapuestas:

1. Racionalismo. Los sentidos no son una fuente fiable de conocimiento porque nos pueden
engañar. No pueden ser el fundamento último del conocimiento. El conocimiento indudable y
cierto tiene su fundamento en la razón.
• René Descartes decía que se podía dudar de todo menos del hecho de pensar (Cogito ergo
sum), donde encontró el fundamento de toda certeza comenzando por la propia existencia.
Creía que la mente estaba dotada de ideas innatas, no dependientes de la experiencia y base de
las certezas fundamentales.
2. Empirismo. No es seguro que el conocimiento cierto sea posible. Los empiristas se
interesaban por determinar cómo era el conocimiento y valorar el grado de certeza que podía
ofrecer. Todo conocimiento empieza por los sentidos y procede de la experiencia. Las
sensaciones eran los elementos irreductibles del conocimiento y el conocimiento es la
asociación de esos elementos simples.
• John Locke describía la mente como un papel en blanco sobre el que se escribe la
experiencia. Los elementos de la mente eran las ideas (elementos simples) que tenían su
origen en las sensaciones o en la reflexión.
• David Hume utilizó 2 términos:
- Impresión, para referirse a los datos sensoriales y perceptivos.
- Idea, como débiles copias de las impresiones.

Charles Bell (1811) y François Magendie (1822) demostraron que las funciones sensoriales
estaban mediadas por nervios diferentes a los motores.

Johannes Müller (1820) formuló la doctrina de la energía específica de los nervios: cada
sensación está determinada por la actividad específica de los nervios sensoriales (transmisión),
independiente al estímulo.

La psicofísica surgió en el s. XIX:

 Ernst H. Weber (1834) introdujo el concepto de diferencia apenas perceptible


(incremento mínimo que debe sufrir un estímulo para que notemos un incremento en la
sensación).
 Gustav T. Fechner (1860) publicó Elementos de Psicofísica. A partir de Fechner la
psicofísica se interesó en establecer relaciones matemáticas entre estímulos y sensaciones (con
mediciones y escalas), métodos representados por la Ley de Fechner.

Más tarde se acuñó el término de percepción. Thomas Reid (filósofo escocés, s. XVIII) pensó que
una teoría del conocimiento basada exclusivamente en sensaciones (empirismo) estaba abocada al
escepticismo respecto del valor real de los conocimientos (lo que ocurrió con Hume). Reid distinguió
entre sensación y percepción y consideraba que la existencia de los objetos es percibida directamente.
La percepción incluye 2 elementos:

1
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
o La concepción de objeto (categorización del objeto).
o La irresistible convicción de la existencia del objeto (existencia objetiva).

2. LA TEORÍA CLÁSICA

La teoría clásica fue formulada por Helmholtz y reelaborada por Wundt. En 1856
Helmholtz publicó Tratado de Óptica Fisiológica y en 1863 Sobre la Sensación de
Tono. Son publicaciones consideradas el fundamento de la percepción visual y
auditiva. Para Helmholtz el uso de métodos comportamentales o introspectivos no
suponía un cambio de disciplina, sino el desarrollo de la fisiología por otros medios.

Wundt (discípulo de Helmholtz) intentó fundar una ciencia específica de lo mental


basada en la introspección. Publicó Fundamentos de Psicología Fisiológica (1879) y
fundó un laboratorio de psicología experimental.

Eduard Titchener (discípulo de Wundt) formuló una teoría clásica de la percepción conocida como
estructuralismo.

En líneas generales, diremos que el punto de vista clásico (de origen empirista) afirma que la
percepción está determinada por estructuras mentales, resultado de un proceso de aprendizaje
perceptivo a partir de las experiencias sensoriales elementales.

2.1. La sensación como unidad de análisis

Para la teoría clásica, la investigación perceptiva:

 Analiza las sensaciones básicas, diferenciando las modalidades sensoriales.


 Subdivide cada modalidad en sensaciones elementales.
 Busca los estímulos físicos más simples que evocan cada sensación.
 Investiga los receptores elementales que responden al estímulo.

La psicofísica acuñó los conceptos de umbral absoluto y umbral diferencial para medir la
sensación.

Aunque el mismo concepto de sensación no estuvo ausente de problemas. Wundt proponía que toda
sensación tiene 2 atributos: cualidad e intensidad.

Külpe utilizó de forma sistemática el término atributo para caracterizar las sensaciones: los atributos
son necesarios para que se dé la sensación pero diferentes de la misma. Para Külpe, las sensaciones (5
sentidos) necesitan 3 atributos: cualidad, intensidad y duración. La visión y el tacto poseían el 4º
atributo de la extensión.

Un problema de considerar a las sensaciones como unidades fundamentales es no poder distinguirlas


una vez forman parte de un compuesto. P. ej. la mezcla de colores produce un nuevo color, pero en el
nuevo color no hay rastro de las sensaciones de los colores que produjeron la mezcla. Para Titchener,
cada matiz distinto de color era una sensación elemental diferente. Para Helmholtz, los resultados de
la mezcla de colores eran más fiables que la introspección para detectar los componentes elementales
(en el caso del color sólo 3 componentes).

2.2. La percepción como síntesis de sensaciones

 Estímulo distante. Hace referencia a las propiedades físicas de los objetos (tamaño, forma,
distancia...)

2
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
 Estímulo próximo. Hace referencia a las propiedades de la
estimulación sobre los receptores (p. ej. en la visión, el estímulo
próximo se refiere a la imagen sobre la retina).

Las características más importantes que captamos de los objetos son las
distantes. Lo que se impone en la percepción visual son las características y
no la imagen retiniana. La percepción de esas características distantes no
son una respuesta sensorial directa, sino una percepción compleja aprendida. Por tanto, la percepción
visual de los objetos se compone de:

 Sensaciones visuales no espaciales (matiz, brillo...).


 Imágenes de sensaciones no visuales asociadas con esas sensaciones en la experiencia previa
con los objetos.

Constancias: A pesar de los cambios, existe la constancia en la percepción. El color permanece


constante aunque cambie la iluminación, o el tamaño permanece constante aunque cambie la
distancia del objeto.

Helmholtz formuló el principio de verosimilitud: Percibimos aquellos objetos y acontecimientos


que, bajo condiciones normales, serían los que produjeran el conjunto de estimulación sensorial
afectiva que estamos recibiendo. Es decir, percibimos las características que son más probables sobre
la base de la experiencia previa.

2.3. La inferencia inconsciente

Helmholtz pensó que existe un proceso por el que percibimos un objeto del mismo tamaño o color, a
pesar de los cambios en la distancia o la iluminación, a través de una inferencia inconsciente de
las sensaciones, al margen de la voluntad consciente del observador. Tuvo defensores y detractores y
hoy en día se ha reformulado.

Actualmente se puede interpretar como que el estímulo próximo es pobre en cuanto a la información
que proporciona y necesita ser completada por toda la constelación de conocimientos que va
proporcionando la experiencia.

3. LA PRIMERA MITAD DEL SIGLO XX

3.1. La teoría de la Gestalt

Para la Gestalt las sensaciones, como elementos de la vida anímica, eran inexistentes. Gestalt viene
del alemán (configuración o forma total) y designa el interés por centrar la investigación perceptiva en
el estudio de las relaciones que estructuran las distintas partes de una escena, más que en los
elementos sensoriales que la componen.

3.1.1. Fenomenología

La introspección de los primeros psicólogos estructuralistas requería un complicado y largo


entrenamiento, lo que con frecuencia inducía en el observador una tendencia acorde con las
inclinaciones teóricas del investigador, influyendo en los resultados.

Para la Gestalt la experiencia consciente del observador también constituye la fuente principal de los
datos. Se interesaban por los datos de conciencia tal como aparecían de forma inmediata, sin
contaminar con prejuicios teóricos inducidor por el entrenamiento. En la Gestalt se habla de
descripción fenomenológica para diferenciar la introspección clásica y la actitud de auto-

3
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
observación buscada por los gestaltistas. Se trataba de respetar los datos inmediatos de la percepción
e intentar describirlos de la forma más objetiva posible.

3.1.2. Configuración

Los líderes de la Gestalt (Wertheimer, Köhler y Kofka) rechazaron el atomismo y el empirismo. Lo


importante en la percepción es la configuración del campo perceptivo, la forma en que se relacionan
los componentes de la escena, la totalidad estructurada pro esas relaciones. El todo es diferente de la
suma de sus partes porque las relaciones entre los componentes provocan la aparición de
propiedades emergentes, pertenecientes a un conjunto como tal, pero que ninguno de los
componentes posee por sí mismo. P. ej. en una melodía lo importante no son los elementos sino las
relaciones entre notas.

Los gestaltistas preferían analogías


tomadas de la física antes que de la
química, como el campo perceptivo es
análogo a los campos magnéticos o
eléctricos. P. ej., la presencia de una
partícula con carga eléctrica positiva
define un campo eléctrico, pero si se añade
una segunda partícula, la estructura del campo se modifica dependiendo de la carga.

3.1.3. Innatismo

La Gestalt rechazó el empirismo. Para ellos los principios organizadores de la percepción no tenían su
origen en la experiencia ni eran resultado del aprendizaje, sino de la interacción de las estructuras
cerebrales con el medio. Esas estructuras serían innatas o el resultado de la maduración.
Consideraban al cerebro como un ejemplo de Gestalt física, un sistema físico que funciona como una
totalidad dinámica, tendente a un estado de equilibrio de energía mínima. Creían que los mecanismos
de los procesos perceptivos eran campos electromagnéticos generados por actividad neuronal. Así
formularon la doctrina del isomorfismo psicofísico. Afirmaron que en la percepción del espacio, el
tiempo y la forma, la organización del campo perceptivo era una representación de la organización
dinámica de los procesos fisiológicos subyacentes (isomorfismo entre el funcionamiento del
psiquismo y el del cerebro).

Los gestaltistas eran conscientes de las constancias y las ilusiones, lo que explicaban por las
propiedades dinámicas del cerebro como Gestalt Física. Formularon el principio de Prägnanz o
principio mínimo, que establece que en situaciones en las que son posibles más de una
interpretación de una escena visual, el sistema perceptivo impondrá la interpretación más simple.

3.2. El conductismo

Para el conductismo los datos fundamentales en investigación se encontraban en el comportamiento,


y se centró en el estudio de los factores que modificaban la conducta de los organismos. Realizaron
sus principales aportaciones en el campo del aprendizaje y la motivación. El estudio de la percepción
fue escaso, por lo que no se puede hablar de una teoría conductista de la percepción. Su interés se
focalizó en la relación entre estímulos y respuestas, donde se manipulaba una única dimensión, y se
obtenía una respuesta de carácter mensurable.

El conductismo sí aportó metodología e introdujo rigor en la experimentación y precisión en las


medidas y en el lenguaje. En investigación de la percepción el conductismo la redujo al estudio de la
conducta discriminativa, donde lo más interesante era la adquisición y el análisis de variables que
determinaban el control de la conducta por parte de los estímulos. Pero cometieron el error de pensar
4
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
que los estímulos manipulados por el investigador, estímulos nominales, eran lo mismo que los
estímulos funcionales, que son los que realmente influyen en el organismo.

3.3. Teoría de la percepción directa

James J. Gibson (1950, 1966, 1979) desarrollo la teoría ecológica de la percepción, que
comparte posiciones con el conductismo y la Gestalt. De la Gestalt adopta la oposición al atomismo,
aunque no creía que el fundamento de la percepción estuviera en la estructura orgánica, sino en el
estudio del medio ambiente en el que está inmerso ese organismo. Se trataría de analizar la
estimulación para localizar la información relevante a cada situación.

3.3.1. Percepción ecológica

Gibson piensa que el análisis perceptivo debe centrarse en la conformación óptica ambiental.
Con esto quiere indicar el patrón global de la estimulación, por oposición a
aspectos parciales de la misma, como son las sensaciones.

 Las sensaciones se definen en términos de luminancia. Las luminancias


cambian con los cambios de iluminación. Son las cantidades de luz medidas
por un fotómetro.
 La conformación óptica se mide en términos de los márgenes existentes
entre áreas de diferente luminancia. Es un concepto relacional.

Gibson decía que el patrón de estimulación que llega a los sentidos contiene toda la información
necesaria para determinar qué ha de percibirse. La supuesta pobreza del estímulo sería para Gibson el
resultado de estudiar la percepción en condiciones restrictivas, privando al organismo de información
que está disponible en condiciones cotidianas. La teoría clásica ha fomentado la investigación en la
que un observador estático, mirando por un orificio, tiene acceso a información peculiar desde un solo
punto de vista. La percepción cotidiana es dinámica y cambia a medida que el observador se mueve.

Óptica ecológica: Gibson (1966, 1979) la ofreció como alternativa a la óptica geométrica clásica,
que construye sus representaciones sobre el concepto de rayo de luz. La trayectoria de un rayo
corresponde aprox. a la de un fotón, por lo que la óptica geométrica puede utilizar líneas rectas para
representar esa trayectoria y predecir, con aceptable aproximación, la posición de las imágenes. Pero
trata al ojo humano como una cámara oscura, asemejando el ojo humano a una cámara fotográfica.
Para Gibson es un error, porque se fundamenta en abstracciones. La óptica geométrica es una ciencia
de la luz y no una ciencia de la visión. La ciencia de la visión necesita hacer referencia al organismo y
la relación del organismo con el medio. Necesita hacer referencia a la forma particular en que se
configura para el organismo el ambiente, por lo que es necesaria la óptica ecológica.

La óptica ecológica se organiza en torno a los conceptos de información y propiedad funcional


(invariantes de la estimulación que están en consonancia con el cuerpo del observador).

En su libro Los sentidos considerados como sistemas perceptivos introduce el concepto de


información: contrapone al concepto de energía. La energía es la estimulación de las células
receptoras; los receptores responden a una energía particular. Pero los órganos sensoriales son
sistemas perceptivos que responden a estímulos de un orden superior. Los sistemas perceptivos
responden a la información que hace referencia a los objetos mismos. Gibson no formalizó el término
sino que lo utilizó para acentuar el carácter objetivo de la percepción (informativa), en cuanto que
“informa sobre algo” (especificidad). Los sentidos captan características reales de los objetos que no
nos son dadas en la energía que llega a los receptores sino en las relaciones que determinan la
estructura de la conformación óptica.

5
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
En su libro La aproximación ecológica a la percepción visual (1979), Gibson introduce el concepto de
affordance, que es una extensión del concepto de información. Las propiedades funcionales de este
concepto están especificadas en la estructura de la conformación óptica, añadiendo un aspecto que las
cuantifica: son invariantes que están en consonancia con el cuerpo del observador mismo. Por
ejemplo, propiedades funcionales de superficies: “sentarse sobre ella” (silla), “subir
por ella” (escalera). Gibson mantiene que nuestro sistema perceptivo es capaz de
captar estas propiedades directamente. La investigación de la percepción debería
estudiar las propiedades de nuestros sentidos como sistemas perceptivos, como
totalidades dinámicas estructuradas, cuya capacidad de captar información y
propiedades funcionales sobrepasa con mucho la de sus componentes. El objetivo
investigador no se logrará descomponiendo el sistema y mirando “dentro de la
cabeza”, sino estudiando el medio ambiente.

3.3.2. Percepción directa

Gibson atribuye carácter directo a la percepción. Para la teoría clásica la estimulación es pobre a la
hora de informar, por lo que necesitamos suplirla con los recuerdos y la experiencia acumulada. Pero
Gibson cree que lo que percibimos está determinado por la conformación estimular y no necesitamos
esos recuerdos. Gibson quiere decir que la información se encuentra en el medio ambiente y que los
procesos del organismo no lo explican:

La percepción del medio ambiente es directa, no está mediada por imágenes retinianas, neuronales o
mentales. Percepción directa es la actividad de obtener la información de la conformación óptica de la
luz. Es la captación de información que implica la actividad exploratoria de buscar, mirar a las cosas
(Gibson, 1979). Destacan 2 aspectos de las palabras de Gibson:

 Su oposición a cualquier tipo de mediación basada sobre representaciones.


 Su concepción de la percepción como un proceso activo.

Su oposición a cualquier tipo de representación le ha enfrentado a las teorías del procesamiento de la


información que han predominado desde mediados del siglo xx. También le ha enfrentado a la
investigación neurofisiológica que trata de estudiar los componentes de los sistemas perceptivos y la
función de los mismos. Gibson prácticamente ignoró todo un conjunto de datos fisiológicos. Gibson
mantuvo en percepción una postura similar a la mantenida por los primeros conductistas respecto al
aprendizaje: los procesos intermedios no proporcionan datos relevantes para una teoría de la
percepción

En cuanto a percepción como proceso activo, Gibson lo utiliza para manifestar la importancia que la
locomoción del observador tiene para cambiar el patrón estimular y para especificar la información
presente, por ejemplo, en el flujo óptico. También para reconocer la importancia que la motivación
puede tener para captar una determinada propiedad funcional en el estímulo. Pero el acto de percibir
no es activo en el sentido constructivista clásico, es una síntesis de la información de los sentidos y de
la experiencia previa del observador. Para Gibson toda la información está en la estimulación, el
observador no aporta ninguna, sino que capta aquella con la que se encuentra en sintonía (realismo).

La teoría de Gibson es fuerte en su posición ecológica más que en la percepción directa. Su posición es
compartida por muy pocos psicólogos, ya que no incorpora los datos de la fisiología.

3.4. Otras influencias

Hubo distintas formas de funcionalismo que concebían el proceso perceptivo como una transacción en
la que los estímulos y el observador se implican mutuamente de forma que para definir el estímulo
funcional o efectivo para un determinado observador es necesario conocer su conducta previa. Así
6
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
estímulo y conducta están inmersos en un círculo de interacción. Este transaccionalismo tuvo su
origen en los escritos John Dewey y dio origen a trabajos donde destaca Adelbert Ames.

Muy influyente fue el funcionalismo probabilista de Egon Brunswick quien, igual que Gibson,
acentuó la importancia de estudiar situaciones ecológicamente válidas, en las que la estimulación no
estuviera empobrecida sino que fuera representativa de las situaciones en las que el organismo vive, y
de las situaciones hacia las que el investigador quiere generalizar sus conclusiones. Brunswick
pensaba que el aprendizaje perceptivo es el proceso que lleva al organismo a confiar en aquellas claves
estimulares que están altamente correlacionadas con alguna propiedad física de los objetos o de los
acontecimientos.

El concepto de sensación como elemento componente de la percepción, fue progresivamente


abandonado. El estudio de cada modalidad sensorial continuó siendo tarea de la psicofísica.
Aparecieron métodos directos ideados por S.S. Stevens para conseguir escalas de razón en la medición
de las respuestas sensoriales. Stevens formuló su ley potencial psicofísica y dio origen a lo que se
conoce como nueva psicofísica para distinguirla de la psicofísica clásica fechneriana.

4. LA SEGUNDA MITAD DEL SIGLO XX

A mediados del siglo xx se produjo un cambio. Las actitudes conductistas cedieron rápidamente el
paso a los procesos subyacentes a la conducta de los organismos. Se cayó en la cuenta del carácter
cognoscitivo de esos procesos, como la conducta humana, y surgió la psicología cognitiva que
proporcionó al estudio de la percepción un marco donde muchas de las ideas clásicas fueron
reformuladas. Este marco ayudó a integrar otras dos corrientes de investigación científica: los avances
de la investigación fisiológica y el computacionalismo.

4.1. La psicología cognitiva

La psicología cognitiva ha sido muy frecuente en la psicología experimental. La teoría clásica, el


estructuralismo e incluso la Gestalt pueden ser consideradas versiones de la psicología cognitiva. Pero
el término psicología cognitiva se utiliza para designar una versión particular de mediados del siglo
XX: procesamiento de información; ofreció una aproximación al estudio de los procesos cognitivos
considerando la mente humana como un sistema capaz de manejar símbolos de forma similar a un
ordenado. La metáfora del ordenador servirá de guía para estudiar los procesos mentales.

Los procesos mentales pueden ser analizados como una serie de fases o estadios.
Cada estadio recibe una información de entrada, opera sobre esa información, la
transforma, y produce la información de salida. Para el procesamiento de
información, como para el estructuralismo y la Gestalt (en oposición a Gibson y los
conductistas), el estudio de los procesos que transforman la información de
entrada (input) y producen una determinada salida (output) son el objeto de
estudio de la psicología. La percepción es una fase del procesamiento mediante la
que el organismo construye una representación del medio para guiar su actividad.

4.1.1. Sistemas

El procesamiento de la información considera la cognición como una actividad resultante de la


interacción de los componentes del sistema. Concede mayor importancia a la estructura y
organización funcional resultante que a la interacción de sus componentes. Posición entre el
estructuralismo y la Gestalt.

7
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre

Figura 1.2. Diagrama de flujo. Sistema A, recibe 2 inputs (a y b). Cada rectángulo representa un conjunto de
operaciones que producen un output. Cada output es el input de la siguiente fase (c), que acaba produciendo una
salida final (O) para el sistema A.

El diagrama de flujo representa los sistemas


perceptivos como conjuntos de subsistemas que
están compuestos de inputs y outputs.

Palmer y Kimchi (1986) han llamado


descomposición recursiva a la posibilidad
de subdividir un sistema en otros subsistemas,
cada uno con un input, una función y un output.
En la figura, el sistema total A está compuesto
por 3 subsistemas, p. ej. visual (a), táctil (b) y
ambos (c). Este esquema de análisis es recursivo
porque se puede aplicar una y otra vez hasta que
se llega al último nivel donde no se
descompone. Los componentes del último nivel
son las características primitivas y si son
procesos, operaciones elementales.

4.1.2. Información, codificación y representación

Shannon trataba de medir la información en términos de “probabilidad de emisión de un mensaje”


(cuanto menor es la probabilidad de emisión de un mensaje, mayor es su valor de información), lo que
no tuvo éxito. Más adelante se usó el concepto de información como sinónimo de conocimiento
(chunk, propuesto por Miller en 1956, como unidad de información; el nº de chunks que se puede
mantener en la memoria inmediata es el número de ítems que la persona recuerda).

Información es la cantidad de conocimiento que una persona adquiere o posee sobre el medio. En
percepción no se trata de la cantidad de información que hay en la estimulación sino de la cantidad de
conocimiento que el observador adquiere sobre la base de esa estimulación.

Codificación y de representación: Para el procesamiento de información el conocimiento está


organizado en la mente en forma de imágenes u otros formatos. La información del medio necesita ser
trasladada por medio de un conjunto de procesos de codificación. La percepción es un conjunto de
estos procesos, mediante los que se genera una representación mental del medio.

4.1.3. Características de los procesos

Los procesos del sistema perceptivo pueden organizarse:

 De forma serial. Cuando los procesos se llevan a cabo en secuencia, uno tras otro, y cada uno
recibe como input el output final que le precede.
 En paralelo. Actúan simultáneamente, y su input es independiente del output de otros
procesos.

Los primeros modelos mostraban una organización serial. Posteriormente los modelos en paralelo
ganaron terreno. La rapidez de los procesos perceptivos visuales parecía requerir una estructura en la
que numerosas operaciones pudieran realizarse simultáneamente, y una división del trabajo de forma
8
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
que distintos componentes del sistema se especializaran en llevar a cabo varias funciones. P. ej. un
componente se especializaría en el color, otro en procesar la forma, y un tercero en el movimiento.

Otra dimensión es la dirección que sigue el flujo de procesamiento:

 De abajo a arriba: Cuando el procesamiento está constituido por un conjunto de operaciones


sobre los datos del input para construir representaciones más complejas.
 De arriba a abajo: Cuando el procesamiento tiene lugar desde las representaciones más
complejas, como objetivos o creencias, que actúan mediante feedback sobre las operaciones
más simples.

Con respecto a las influencias del feedback:

 Procesos dirigidos por los datos cuando operan con independencia de esas influencias.
 Procesos dirigidos conceptualmente, cuando operan bajo su influencia.

La teoría de la visión de David Marr está concebida de abajo a arriba y fundamentalmente dirigida por
los datos. Otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las
creencias ejercen sobre lo percibido: de arriba a abajo. Pero la mayor parte de las teorías defienden la
coexistencia de los dos tipos de procesamiento: teorías interactivas

Caracterización de los procesos:

 Automáticos. Conjunto o secuencia de operaciones que se pone en funcionamiento ante la sola


presencia de un estímulo. La secuencia puede incluir tanto procesamiento de abajo a arriba
como de arriba a abajo. Puede ser innato o adquirido. Si depende de la práctica, su
automaticidad debe entenderse como una cuestión de grado, no como una propiedad del tipo
todo o nada.
 Controlados. Las circunstancias para necesitar el control atencional varían, por ej. si se trata
de una secuencia nueva o la situación es peligrosa.

La automaticidad y el control son características complementarias. Cuanto más automático es un


proceso, menos atención requerirá, y cuanto menor grado de automatismo, más necesaria la atención.

4.1.4. Métodos

El estudio del tiempo de reacción es una de las principales variables dependientes


para hacer inferencias acerca de los procesos perceptivos y los procesos mentales. El
método sustractivo lo introdujo F. C. Donders en 186. De acuerdo con este método,
el tiempo empleado en la realización de una tarea podía dividirse en fases o estadios,
cada uno correspondiente a una operación elemental componente de la tarea.
Donders utilizó tareas simples (A, B y C).

 Tarea A, tarea de tiempo de reacción simple o tarea de detección:


presentación de un único estímulo al que el observador debe responder lo
antes posible con una única respuesta.
 Tarea B, tarea de tiempo de reacción de elección o tarea de discriminación: se presentan dos o
más estímulos y un número equivalente de respuestas, cada una asociada a un estímulo. El
observador debe contestar con la respuesta asociada a ese estímulo.
 Tarea C, tarea de tiempo de reacción selectivo o tarea responde/no respondas: se presentan
dos o más estímulos y el observador responder a uno y no al resto.

9
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
Donders supuso que cada tarea estaba compuesta de un número determinado de procesos
elementales y que restando al tiempo de reacción empleado en responder a la inmediatamente más
simple, podía aislar el tiempo empleado en cada proceso elemental. La lógica de Donders es tributaria
de supuestos excesivamente restrictivos, aunque con resultados interesantes en situaciones que
cumplían dichos supuestos. Sus tareas han quedado como tareas fundamentales en percepción. Más
adelante, el método de los factores aditivos de Sternberg contribuyó a profundizar en la investigación
cognitiva.

La Teoría de Detección de Señales (TDS) surgió en la investigación psicológica cuando la psicofísica


comenzó a prestar atención a los procesos de respuesta a estímulos simples. Esta teoría puso de
manifiesto que una respuesta simple en una tarea de detección encaminada a determinar un umbral
absoluto, no refleja de forma incontaminada el funcionamiento de un sistema sensorial, sino que hay
procesos de decisión implicados en la emisión de la respuesta. La TDS ha sido utilizada dentro del
procesamiento de información para mejorar las inferencias sobre medidas de precisión.

El desarrollo de los modelos matemáticos en procesamiento de la información fue extraordinario,


sobre todo las teorías mediante simulación en ordenador, que al incorporar en su funcionamiento una
teoría, permite contrastar sus predicciones y explorar sus consecuencias con mucha precisión.

4.2. El computacionalismo

El computacionalismo representa la madurez teórica del procesamiento de


información y la apertura de la psicología cognitiva a la interacción con otras
disciplinas. Para unos el ordenador era una metáfora. Para otros era mucho
más: el ordenador y la mente tenían una clase de sistemas de procesamiento
de información que Newell y Simón llamaron sistemas de símbolos físicos
(Newell, 1980). El estudio de estos sistemas y la búsqueda de una teoría
general de los mismos constituyeron los objetivos de la ciencia cognitiva.
La ciencia cognitiva surgió como multidisciplinar y convergía el interés por investigar los procesos
cognitivos de disciplinas dispares como la psicología cognitiva, la neurociencia, la inteligencia
artificial, la lingüística, la filosofía de la mente y la antropología.

4.2.1. La teoría de David Marr

David Marr procedía del campo de la neurociencia teórica y estuvo interesado en la teoría abstracta
del cerebro. Posteriormente se centró en la investigación de la visión y sintetizó su teoría en su libro
Vision, una de las contribuciones más importantes del siglo xx al en percepción visual.

David Marr vio el carácter fragmentario de la investigación psicofísica y de la investigación fisiológica


de la visión. La psicofísica era casi exclusivamente descriptiva y la fisiológica daba explicaciones
excesivamente simples. Las investigaciones de los años 60 estaban centradas en la búsqueda de
detectores, pero en sí mismos —pensaba Marr— no nos dicen nada sobre cómo llevan a cabo la
detección de características, ni cómo se integra la información para producir una representación
integrada del medio. Decía (irónicamente) que pretender entender la visión estudiando sólo las
neuronas era como pretender entender el vuelo de las aves analizando sólo las plumas. Una teoría de
la visión adecuada debía interesarse por los procesos de construcción de las representaciones, para lo
que se requiere una aproximación computacional que permita construir máquinas que “vean”.

4.2.1.1. Los niveles de análisis

Para David Marr los sistemas complejos de procesamiento de información serían explicados y
comprendidos:

10
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
 Determinando los puntos de vista desde los que el sistema puede ser estudiado: niveles de
análisis. Cada nivel de análisis está determinado por un tipo de pregunta que nos hacemos
acerca del sistema y la explicación adecuada a cada nivel es la respuesta a esa pregunta.
 Integrando la información proporcionada por cada uno de ellos.

David Marr propuso 3 niveles de análisis fundamentales:

a) Nivel computacional. Especifica de forma abstracta el problema que un sistema de


procesamiento de información tiene que resolver. ¿Qué hace el sistema? Una explicación
apunta a los objetivos y finalidad del sistema. David Marr utilizó como ejemplo una caja
registradora, que hace operaciones aritméticas elementales. La explicación de una caja
registradora deberá especificar las operaciones que hace y encontrará el porqué de esas
operaciones en la aritmética. En el caso de la visión, deberá especificar los objetivos
fundamentales del sistema; siguiendo a Aristóteles, puede definirse como objetivo
fundamental del sistema visual descubrir a partir de imágenes qué existe en el mundo y dónde.
b) Nivel Algorítmico. Especifica cómo se llevan a cabo las operaciones o procesos del sistema.
Aquí hay que especificar una representación que codifique el input y el output, y un algoritmo
que lleve a cabo la correspondencia entre ambos. En una caja registradora, el nivel algorítmico
determinaría si la representación es decimal o binaria, y qué algoritmo es utilizado. En un
ordenador, el nivel algorítmico es el nivel del programa donde se especifican, en un lenguaje
concreto, los pasos para resolver un problema. Este nivel se pregunta por, y busca
explicaciones relacionadas con el modo en que un sistema resuelve los problemas.
c) Nivel de Implementación. Se interesa por la naturaleza de la realización física del sistema, por
la tecnología. En la caja registradora las preguntas de este nivel tendrían que ver con la
maquinaria y circuitos electrónicos; en el caso de un sistema visual, tendrían que ver con
circuitos integrados o con neuronas.

Los tres niveles de análisis pueden estar muy relacionados entre sí. Pero es
conveniente distinguirlos con el fin de tener claro qué explicación es adecuada
a cada pregunta. Al tratar de explicar el comportamiento de sistemas
complejos carece de sentido buscar la explicación como si hubiera una única.
La explicación sólo tiene sentido en relación con la pregunta.

4.2.1.2. Los niveles de organización del procesamiento visual

Para David Marr el problema fundamental de la percepción visual es construir una descripción
invariante de la forma y de la posición de las cosas a partir de imágenes. Procesar el color o el
movimiento de los objetos es secundario, subordinado al objetivo primordial. Un input inicial es una
imagen bidimensional generada por valores de intensidad de los puntos de imagen que corresponden
a la excitación de los receptores. Encontramos tres fases de procesamiento:

a) El Esbozo Primario. Su objetivo es hacer explícita la información de la imagen


bidimensional:
 Cambios de intensidad.
 Distribución geométrica
 Organización de esos cambios.
El input es la imagen inicial. El output es un conjunto de primitivas simples —bordes, barras,
manchas y terminaciones— agrupadas por principios de organización tipo Gestalt. Estas
primitivas son elementos simbólicos a partir de los que se construyen las representaciones
siguientes.
b) El esbozo 2Vi-D. Se hace explícita la información de orientación y profundidad de las
superficies visibles. Se especifican los contornos y las discontinuidades en orientación y
11
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
profundidad, en un sistema de coordenadas centradas en el observador. Se trata de recuperar
información acerca de las superficies de la escena en 3D; pero la consecución de la 3ª
dimensión no es perfecta, por eso se llama esbozo 2Vi-D, ya que los valores de orientación y de
profundidad obtenidos se refieren al observador. El procesamiento en esta fase tiene dos
características:
1. Modularidad. Implica que los procesos se producen de forma especializada por los
componentes del sistema visual; un módulo procesa el color, otro procesa el
movimiento, otro la textura, otro la disparidad binocular, etc.
2. Paralelismo. Implica que el funcionamiento de cada módulo es independiente de los
demás pero se realizan al mismo tiempo. El input para cada módulo es el resultado de
la fase de esbozo primario. El output aquí está formado por la información que
proporciona cada módulo (color, movimiento...). Además, la integración de la
información de cada módulo sobre orientación y profundidad de cada punto de la
escena, permite recuperar una representación de las superficies.
c) El modelo 3-D. El sistema
visual obtiene una
representación de las
formas y de su organización
espacial centrada en el
objeto, utilizando una
representación jerárquica y
modular de primitivas
volumétricas y superficie. El
input es el resultado de la
fase anterior y el resultado
final son modelos
tridimensionales
organizados jerárquicamente, cada uno constituido por una configuración espacial de ejes en
torno a los que se engarzan las primitivas volumétricas. A distintos niveles de magnitud, una
primitiva volumétrica —en este caso un cilindro— se engarza en torno a un eje provocando una
representación de un cuerpo humano entero, un brazo, un antebrazo y una mano (Figura 1.3.).

4.2.2. El conexionismo

La teoría de David Marr es una teoría computacional simbólica. Los bordes, las manchas, las barras y
las terminaciones son entidades elementales simbólicas porque tienen un significado. Cuando existe
una correspondencia uno a uno entre los elementos, se dice que es una representación local.

En los años 80 surgió el conexionismo con objeto de aproximar la teoría de los procesos cognitivos a
la teoría del cerebro, teoría también conocida con el nombre genérico de redes neuronales. La
conexión entre dos unidades puede ser más o menos fuerte que la conexión de cada una de ellas con
una tercera unidad. Las conexiones entre unidades pueden ser excitatorias o inhibitorias. Estas
diferentes fuerzas de conexiones excitatorias e inhibitorias se llama patrón de conectividad. Las
diferentes entradas que una unidad recibe determinan el estado de activación de la unidad. La función
de output determinará la correspondencia entre el estado de activación y el output del sistema; un
ambiente especificará el medio en el que debe funcionar la red.

En la figura 1.4 las unidades son círculos y las conexiones líneas. Tiene 3 capas, cada una formada por
unidades elementales:

 1ª Capa, unidades de input activadas por el medio ambiente.

12
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
 Capa intermedia, unidades ocultas
(no establecen contacto directo con el
input o el output) que modifican las
conexiones en función de la información
que reciben, tanto de las unidades de
input como de otras unidades ocultas que
las conectan.
 3ª Capa, determina el output de la
red.

No se puede establecer una correspondencia “uno a uno” entre las entidades del mundo representado
y las unidades de la red. Cada entidad del mundo está representada por el patrón de activación del
conjunto de unidades, y cada unidad puede estar implicada en la representación de
muchas entidades del mundo. Cada unidad puede responder a un aspecto
restringido del objeto, como el color o la forma. Ante la presencia de un objeto, las
unidades de la red responderán cada una al aspecto concreto correspondiente; p.
ej., una manzana no estará representada por una única unidad sino por un
conjunto de unidades. Ninguna unidad en la red mantiene una relación especial
con la manzana, sino que cualquier unidad puede formar parte de otros patrones de
activación que correspondan a otros objetos.

La investigación con redes neuronales ha puesto de manifiesto que la acción coordinada de las
unidades de una red da origen a propiedades emergentes que simula procesos cognitivos. Esto
permite aproximar entre sí los conceptos mentales de la psicología cognitiva y los conceptos
fisiológicos de la neurociencia.

La utilización de modelos de redes neuronales no está reñida con teorías simbólicas.

4.3. Los avances de la fisiología

En los años 50, con la invención de los microelectrodos y el registro unicelular, la implicación de los
fisiólogos en la investigación perceptiva se hizo habitual. Cabe resaltar las investigaciones realizadas
en la retina de las ranas por investigadores como Barlow (1953) y Lettvin, Maturana, McCulloch y
Pitts (1959). Descubrieron un tipo de células ganglionares en la retina que respondían únicamente
cuando un pequeño disco oscuro aparecía en su campo de visión. La rana se orientaba hacia el objeto
e iniciaba una serie de respuestas tendentes a cazar y comerse el objeto. Los investigadores
denominaron a esas células «detectores de bichos»

«La retina de la rana era capaz de transmitir un mapa, cuya función principal era responder de forma
invariante a distintos patrones de estimulación externa a pesar de los cambios en luminancia»
(Barlow, 1972).

La investigación neurofisiológica produjo descubrimientos que llevaron a los investigadores al


convencimiento de que cada neurona individual en el sistema visual era capaz de llevar a cabo tareas
mucho más complejas que las que hasta entonces se habían pensado. No se limitaban a transmitir
información sobre la intensidad luminosa, sino que eran capaces de informar sobre las características
elementales de un patrón y sobre la organización jerárquica de esos elementos, detectando la distancia
a la que se encontraban los objetos, e ignorando las causas irrelevantes de las variaciones en
iluminación.
13
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
La mente, como el cerebro, comenzaron a ser considerados como sistemas complejos de
procesamiento de información. La relación entre psicología cognitiva y neurociencias ha sido cada vez
más estrecha, dando origen a la moderna Neurociencia Cognitiva, empresa interdisciplinaria que
investiga la relación entre los procesos psicológicos y las estructuras cerebrales mediante la utilización
de técnicas de neuroimagen. La tomografía por emisión de positrones (PET) y la resonancia
magnética funcional (fMRI), permiten el registro de la actividad cerebral durante la realización de una
tarea.

5. MARCO TEÓRICO

En la medida en que el computacionalismo representa la madurez del procesamiento de información,


el marco general de la teoría de la visión propuesta por David Marr constituye un punto de inflexión
en la investigación perceptiva, porque representa el nuevo punto de partida de la moderna teoría de la
percepción visual.

5.1. La función de la visión

Dentro del objetivo general de supervivencia y de reproducción, la visión proporciona información


precisa y a distancia sobre los objetos y la posición espacial de los mismos en el medio ambiente, a
partir de la luz que reflejan. Mediante esta información el organismo dirige las acciones que
garanticen su supervivencia.

La visión a veces nos engaña. Pero las ilusiones ópticas no constituyen la norma sino la excepción.
Normalmente la visión es verídica y proporciona al organismo una información lo suficientemente
precisa como para guiar sus acciones.

La visión tiene la propiedad de ser a distancia, valor adicional para la


supervivencia, pues permite adquirirla sin entrar en contacto con los objetos y
comprometer su seguridad. Comparte esta característica con la audición y el
olfato, pero la información espacial que estos sentidos nos dan no es tan
precisa. El tacto y el gusto tienen que entrar en contacto con el observador para
proporcionar información.

La luz que llega al observador depende de numerosos factores: iluminación, reflectancia de sus
superficies, geometría, punto de vista del observador, etc. Estos factores cambian continuamente, y a
pesar de ello mantienen constante el color, la forma y el tamaño,

El problema central de la percepción consistiría en recuperar las propiedades válidas del mundo
externo a partir de la información de los sentidos.

5.2. El procesamiento de la información

Para Gibson el problema de una teoría de la percepción se reducía a identificar en la estimulación las
variables responsables de la constancia perceptiva, los invariantes en relación a los cambios en el
punto de vista del observador y a los cambios en la iluminación. Pero la identificación de los aspectos
relevantes en la estimulación es solamente el primer paso, ya que es necesario tomar en consideración
las diferentes fases mediante las que el sistema visual procesa la información estimular y la convierte
en conocimiento. Esto implica describir los diferentes tipos de representaciones que el sistema visual
construye y los procesos que permiten la codificación de los estímulos, la progresiva organización de
la escena visual y la construcción de las representaciones fundamentales. Una representación no
debe entenderse como una especie de fotografía dentro de la cabeza, sino como un complejo sistema
de correspondencias entre las características del medio y los códigos neuronales.

14
P. de la Percepción. Cap. 1 Psicología UNED. 2020-2021 Dolores Latorre
Figura 1.5. Fases del procesamiento visual:

Análisis
Recuperación Representación
Input de la Categorización Output
de Superficies del Objeto
Imagen del Objeto

 Fase 1. Análisis de la imagen bidimensional proporcionada por la distribución de la


luminancia, que llega a los receptores.
 Fase 2. Recuperación del trazado tridimensional de las superficies visibles.
 Fase 3. Obtención de la representación volumétrica de los objetos en coordenadas. Finalmente
se obtiene una representación perceptiva de los objetos individuales y de la escena concreta.
 Última fase. Categorización. Las representaciones perceptivas alcanzan un significado al entrar
en relación con el mundo conceptual del observador. El mundo percibido es asimilado e
integrado en el sistema de conocimiento.

Esta postura es constructivista porque toma en consideración los procesos del sistema visual y el
conocimiento del observador que da significado a lo percibido. Sin embargo, el empirismo sólo
tomaba en consideración la experiencia adquirida y retenida en la memoria. Pero hay que tener en
cuenta también la experiencia de las especies que, tras siglos de evolución, originaron la especie
humana, a través de la selección natural, que proporciona desde el nacimiento unos mecanismos cuya
maduración y funcionamiento dependen de la experiencia (no son una hoja en blanco como
afirmaban los empiristas). La disyuntiva herencia vs medio carece de sentido en la actualidad.

5.3. Mecanismos neuronales

El estudio de la percepción visual formaba parte de la óptica fisiológica


tal como la entendía Helmholtz, pero el desarrollo de la psicología de la
percepción visual se centró en el análisis de la experiencia consciente y
en el estudio de los factores estimulares que determinaban esos estados
de consciencia. La referencia a mecanismos fisiológicos se limitaba a los órganos de los sentidos. A
partir de la mitad del s. XX empezó a cambiar, y en la actualidad la relación entre psicología y
fisiología del cerebro es cada vez más estrecha. La moderna neurociencia cognitiva relaciona los
fenómenos perceptivos tradicionalmente estudiados por la psicología y las estructuras cerebrales.

15
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre

Capítulo 2. La percepción del color

INTRODUCCIÓN

Razones por las que la percepción del color ocupa un papel central en la
percepción visual:

1. Recoge aportaciones de la física, la fisiología, las ciencias de la


computación, la lingüística y la antropología social, junto con la
psicología, contribuyendo a mejorar nuestro conocimiento sobre este
tipo de percepción. Es un modelo ideal y a la vez concreto para
comprender la naturaleza interdisciplinar de la investigación cognitiva.
2. Nuestros conocimientos sobre el procesamiento del color están relativamente bien
fundamentados en comparación con otras áreas de la investigación perceptiva, y el grado de
acuerdo entre investigadores es mayor.
3. El procesamiento del color ejemplifica la forma en que teorías opuestas pueden resultar
complementarias, si se amplía el marco teórico de referencia. Durante casi un siglo la teoría
tricromática y la teoría de los procesos oponentes fueron consideradas irreconciliables. Pero el
valor explicativo de cada una de ellas depende del nivel de organización perceptiva.

El porqué de que percibamos conscientemente los colores como lo hacemos se fundamenta en tres
principios:

 Tricromaticidad
 Procesamiento oponente
 Constancia.

Estos tres principios pertenecen a niveles bajo e intermedio en el procesamiento perceptivo del color.
Los factores de alto nivel se relacionan con nuestro sistema conceptual, con la categorización de los
colores.

1. LA APARIENCIA DEL COLOR

Isaac Newton descubrió la composición espectral de la luz cuando hizo pasar un rayo de luz solar a
través de un prisma; observó la aparición de un arco iris mostrando los colores del espectro
luminoso. Comprobó que estos colores eran fundamentales porque haciendo pasar un rayo de cada
color por un segundo prisma, el color no volvía a descomponerse.

La luz puede ser descrita en términos de onda y en términos de corpúsculo, siendo cada término de
diferente utilidad para entender los fenómenos del color.

 Onda: es útil para comprender su composición espectral y los aspectos cualitativos del color.
 Corpúsculo: resulta apropiada para referirnos a la cantidad de luz asociada a los colores.

1.1. La cantidad de luz y su medida

Las medidas de la cantidad de luz dimanan de una concepción corpuscular de la luz. La luz está
compuesta por paquetes elementales («cuantos») de energía (E), llamados fotones, que constituyen
la unidad de medida de la cantidad de luz. La medición de la cantidad de luz puede hacerse desde dos
perspectivas:

1
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
 Radiometría. Considera la luz como cualquier otro tipo de E, sin hacer referencia al uso que
puede hacerse de ella.
 Fotometría. Toma en consideración únicamente la cantidad de luz visualmente efectiva (que
se percibe), introduciendo un factor de corrección en las medidas radiométricas basado en la
sensibilidad de nuestros receptores. Encontramos los siguientes conceptos fotométricos:
o Iluminancia (E). Cantidad de luz visualmente efectiva que incide sobre una
superficie. Su valor depende de dos factores:
 Distancia entre la superficie iluminada y la fuente de iluminación1, siendo
menor cuanto mayor es la distancia.
 Ángulo de desviación de la perpendicular.
La cantidad de iluminancia es menor cuanto mayor es dicho ángulo. La unidad de
medida de la iluminancia es el lux.
o Luminancia (L). Cantidad de luz visualmente efectiva emitida por una fuente de luz
extensa. Su unidad de medida es la candela por metro cuadrado (cd • m 2). Es
importante tomar en consideración la proporción de cantidad de luz recibida que una
superficie emite, que viene dada por el cociente entre la cantidad de luz emitida
(luminancia) y la cantidad de luz recibida (iluminancia) y se denomina reflectancia.

1.2. El espectro electromagnético

La luz como onda se relaciona con los distintos tipos de energía (E) que componen el espectro
electromagnético.

El espectro electromagnético ordena


los tipos de E en función de la
longitud de onda. Sólo la parte del
espectro comprendida entre los 400
y 700 nm, tiene efectividad visual y
constituye el espectro visible.

El diferente grado de refracción de


las longitudes de onda permite
observar los componentes del
espectro luminoso cuando se hace
pasar un rayo de luz solar a través de
un prisma.

 Las longitudes de onda corta, que son más fuertemente refractadas, presentan una apariencia
violeta (400 nm) o azulada (480 nm) cuando se las ve sobre fondo oscuro.
 Las longitudes de onda larga tienen apariencia anaranjada (610 nm) o roja (700 nm) cuando
son vistas sobre fondo oscuro.
 El verde (540 nm) y el amarillo (580 nm) ocupan posiciones intermedias en el espectro visible.

La distribución espectral es la función que describe la cantidad de luz contenida en cada una de las
longitudes de onda. La luz solar contiene una cantidad aproximadamente igual en todas las longitudes
de onda, predominando la onda larga. Una lámpara de tungsteno contiene muy poca luz en las
longitudes de onda cortas y, dentro del espectro visible, la cantidad de luz que proyecta está
linealmente relacionada con la longitud de onda por lo que los colores rojos tienden a predominar. En
una lámpara fluorescente todas las longitudes están relativamente bien representadas y, aunque la

2
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
distribución no es igual para todas las longitudes de onda, es un tipo de luz que se aproxima a la luz
natural.

1.3. La codificación del color

Newton se dio cuenta de que los rayos de luz no tienen un color


determinado. El color es una sensación consciente resultante de la
interacción de nuestros sentidos con la estimulación luminosa. La
longitud de onda es el parámetro estimular preferentemente
relacionado con la sensación de color. Los procesos de codificación
del color son los encargados de transformar un código físico
(longitud de onda) en un código psicológico (experiencia consciente de color).

Las estrategias para estudiar la codificación del color son:

 Psicofísicas. Estudian la relación entre la manipulación de las características del estímulo


luminoso y la experiencia de color. Históricamente, este tipo de investigación ha preparado el
terreno para la investigación fisiológica.
 Fisiológicas. Describen y miden la experiencia sensorial y relacionan las características de esa
experiencia con los parámetros de la estimulación. Se estudia la relación de las características
estimulares y de la experiencia sensorial, con los distintos componentes del sistema visual. La
fisiología identifica esos componentes y determina su relación con los parámetros estimulares
y con la experiencia de color.

1.4. Los atributos del color

En nuestra experiencia consciente del color se describen tres atributos psicológicos que hacen
referencia a la experiencia consciente (diferentes de las dimensiones físicas):

 Matiz (hue). Hace referencia a la cualidad que diferencia un color de otro (cualitativo) que nos
permite clasificarlo como rojo, verde o azul. En el espectro luminoso existe una alta
correlación entre longitud de onda y matiz (arcoíris). Estos colores forman parte del grupo de
colores espectrales. Pero no debe confundirse el matiz con la longitud de onda porque
existen los colores no espectrales, como los púrpuras y morados, que sólo pueden
obtenerse mediante la mezcla de dos o más luces monocromáticas. Ambos (espectrales y no
espectrales) son colores cromáticos. Otros (blanco, gris, negro) son acromáticos y se
comprenden mejor en relación con la dimensión de claridad que con el matiz.
 Saturación (saturation). Hace referencia a la pureza cromática que presenta el color. La
sensación visual permite hacer un juicio sobre el grado en que un estímulo cromático difiere de
un acromático independientemente de su brillo. En general, el estímulo acromático de
referencia suele ser el blanco, por ello también suele definirse, de un modo más informal,
como el grado de mezcla con blanco que presenta un estímulo cromático. Por ejemplo, un
color rosa es un rojo con poca saturación (blanco+rojo).
 Brillo/claridad (brightness /lightness). Son dos atributos distintos aunque relacionados.
o El brillo es el atributo por el que un estímulo visual aparece más o menos intenso. Hace
referencia a la mayor o menor cantidad de luz (emitida) y a veces es definido de modo
informal como luminancia percibida, que va de brillante a tenue.
o La claridad es un atributo asociado a la percepción de estímulos que reflejan luz. A
veces se define como reflectancia percibida. Todas las superficies coloreadas tienen
algún grado de claridad, más clara o más oscura, que aparecen de forma más patente
en las superficies acromáticas, donde aparecen colores que oscilan entre los blancos y
los negros, pasando por una amplia gama de grises.
3
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
1.5. Sistemas de ordenación de los colores

(1.5.1 no entra)

1.5.2. La codificación de la longitud de onda

El primer paso en la codificación de la longitud de onda tiene lugar en los receptores. Los bastoncillos
y conos determinan dos sistemas de visión con características diferentes. El sistema de visión
escotópica depende de los bastoncillos y está adaptado a las situaciones de bajo nivel de
iluminación. Los bastoncillos son extremadamente sensibles a la luz y no difieren entre sí en su
respuesta a la longitud de onda pero sí en la sensibilidad a cada longitud de onda.

El estudio psicofísico de la respuesta del sistema de visión escotópica a la longitud de onda se realiza
mediante un experimento de igualación escotópica. Se presenta un campo visual —p. ej., un
círculo—en dos mitades. Una mitad contiene la luz de prueba, que puede tener un conjunto
determinado de longitudes de onda. La otra mitad contiene una luz primaria, que sólo puede variar en
intensidad. La tarea del observador es manipular la intensidad de la luz primaria hasta igualarla a la
luz de prueba. El resultado es que, con baja iluminación (condiciones escotópicas) los observadores
pueden ajustar la intensidad de la luz primaria
hasta igualarla, lo que muestra que la distribución
espectral relativa es irrelevante para el
funcionamiento del sistema visual escotópico; éste
sólo es sensible a la cantidad de luz. Pero la
intensidad de la luz primaria para conseguir la
igualación no es la misma para todas las luces de
prueba, lo que indica que el sistema de visión
escotópica es más sensible a unas longitudes de
onda que a otras.

Figura 2.3: El sistema es poco sensible a las longitudes


de onda extremas y de máxima sensibilidad a las
longitudes de onda medias en el entorno de los 510 nm.

El sistema de visión fotópica (conos) está


adaptado a situaciones de alta iluminación y relacionado con la codificación diferencial de la longitud
de onda. Unos conos son más sensibles a las longitudes de onda cortas, otros a las de onda media y
otros a las de onda larga. A través del experimento de igualación de color (fundamento de la
colorimetría), a partir de Helmholtz y Maxwell se han obtenido los datos fundamentales para su teoría
del color.

Un experimento de igualación de color es similar al experimento de igualación


escotópica. El campo visual dividido en dos mitades contiene una luz de prueba
(con cualquier distribución espectral) y el observador ha de manipular la
intensidad de tres luces primarias, hasta conseguir que los dos lados del campo
visual sean indistinguibles. En el experimento la distribución espectral de las tres
luces primarias permanece constante y el observador sólo puede modificar la cantidad de cada luz
primaria. El resultado es que, con alta iluminación —condiciones fotópicas— los observadores pueden
igualar todas las luces de prueba. Las dos partes del campo visual, a pesar de que tienen la misma
apariencia, no tienen la misma distribución espectral, por lo que al color resultante de la mezcla de las
tres luces primarias se le da el nombre de metámero.

4
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
Ninguno de los colores
primarios puede obtenerse por
la mezcla de los otros dos. Para
obtener tres luces que puedan
ser utilizadas como primarias,
sus longitudes de onda deben
estar ampliamente separadas
en el espectro visible. Para
tipificar las referencias
colorimétricas, la CIE ha
utilizado como primarios de su
sistema R G B (rojo, verde,
azul) tres luces de 700, 546.1 y
435.8 nm.

Las unidades tricromáticas se establecen por referencia a un experimento de igualación donde el estímulo
de prueba es un blanco con un espectro igual de energía en todas las longitudes de onda. Las cantidades de luz
de cada luz primaria necesarias para igualar este blanco son las que se toman como unidad de referencia.

En la Figura 2.4 se observa que para igualar las longitudes de onda entre 435.8-546.1 nm, los valores
de R que hay que añadir tienen un valor negativo. Significa que la igualación en ese rango no se logra
mezclando las 3 luces primarias, pero sí cuando la cantidad de R se mezcla con la luz del estímulo de
prueba; se disminuye la saturación del estímulo y se logra que el color sea igualado por la mezcla de G
y B. Es decir, manipulando 3 luces primarias se permite establecer un sistema descriptivo que incluye
todos los colores.

La ecuación del color determina la cantidad de cada luz primaria que es necesaria para lograr la
igualación del color (E), correspondiente a una determinada longitud de onda (k). Por ejemplo, en la
Figura 2.4 la ecuación de la longitud de onda de 475 nm es:

E475 = - 0,045R + 0,032G + 0,186B

Ha sido necesario proyectar 0,045 unidades tricromáticas de R en el campo de prueba para lograr la
igualación (valor negativo).

La mezcla de luces puede expresarse en términos de una ecuación lineal:

 Superposición. Si a ambos lados de la ecuación se suma una constante, la igualación persiste


(ley aditiva de Grassmann).
 Homogeneidad. Una igualación persiste si ambos términos de la ecuación se multiplican por
una constante. La mezcla de colores también tiene las propiedades simétrica y transitiva.

Propiedad simétrica: el estímulo A iguala el color del estímulo B; el estímulo B iguala el color del estímulo A.

Propiedad transitiva: si A iguala a B y B iguala a C, A iguala a C.

5
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
1.5.3. El diagrama de cromaticidad

La cantidad de luz en una mezcla es igual a la suma de las cantidades de cada luz primaria. Se puede
definir un sistema de coordenadas basado en la contribución proporcional de cada luz primaria al
total de la mezcla. Así:

r = R/(R+G+B)

Los valores r, g y b son las coordenadas de cromaticidad (contribución proporcional de cada luz
primaria a la mezcla).

Figura 2.5: diagrama basado en el


sistema X Y Z cuyos valores primarios
no corresponden a un conjunto
particular de luces primarias, sino que
son transformaciones lineales del
sistema R G B, hechas para tipificar la
representación y para que todos los
valores triestímulo fueran positivos.

 Las coordenadas X e Y
construyen un sistema de
representación de todos los colores.
 En el perímetro de la línea curva
continua se representan las distintas
longitudes del espectro luminoso con
sus matices de color en el grado
máximo de pureza de excitación.
 La línea recta que une 400 nm
con 700 nm es la zona de colores
púrpura no espectral.
 El centro del diagrama es la zona
de colores acromáticos con el punto D, valor del estímulo acromático y referencia al sistema de
unidades tricromáticas usado.
 A los colores situados en el diagrama de cromaticidad se les puede determinar su longitud de
onda dominante, así como su pureza de excitación.
 La longitud de onda dominante de un estímulo de color está correlacionada con el matiz
perceptivo del mismo. En el diagrama de cromaticidad se puede determinar mediante una
línea que, desde el punto D, pasando por el punto
correspondiente al color que se quiere
determinar (Q), corta el perímetro del diagrama.
 El punto de intersección determina la longitud de
onda dominante (λd).
 La pureza de excitación correlaciona con la
saturación y es el cociente entre la distancia
desde D a Q, y la distancia de la recta que une D
con λd pasando por Q. La pureza de excitación es
cero cuando D y Q coinciden y 1 cuando Q y λd
coinciden.

Fig. 2.5.5. No viene en el libro


P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
El diagrama de cromaticidad nos permite determinar los pares de colores complementarios,
parejas de colores que producen una igualación con un color acromático determinado. Los puntos
opuestos del perímetro que están unidos por una recta que pasa por el punto de referencia D,
determinan longitudes de onda que son complementarias. No todas las longitudes de onda tienen
complementaria.

1.6. La mezcla de pigmentos

No toda mezcla de colores es aditiva. El caso más frecuente es la mezcla


de pigmentos (paleta de pintor). La mezcla suele llamarse sustractiva por
las longitudes de onda que son absorbidas y las que son reflejadas por los
pigmentos. P. ej., un pigmento azul absorbe longitudes de onda altas y
refleja las bajas; un pigmento amarillo absorbe longitudes de onda bajas
y refleja longitudes de onda altas. Al absorber el azul las altas y el
amarillo las bajas, en la mezcla las longitudes de onda más reflejadas son
las medias, que producen verde. Es la consecuencia de una supresión de
longitudes de onda por la reflectancia de cada pigmento. En una mezcla de luces, el azul y amarillo
hubieran producido un efecto gris, ya que azul y amarillo son complementarios.

2. TRICROMATICIDAD

La teoría tricromática fue propuesta en 1777 por George Palmer y vuelta a descubrir por Thomas
Young en 1802. Posteriormente fue elaborada por Maxwell y Helmholtz (teoría tricromática de Young
y Helmholtz).

 Vertiente psicofísica. Defendía que las sensaciones de color fundamentales eran tres: rojo,
verde y azul.
 Vertiente fisiológica. Existen tres tipos de receptores sensibles a longitudes de onda.

Según Helmholtz, cada receptor responde a una longitud de onda y es sensible a un rango de
longitudes de onda amplio, por lo que se da cierto solapamiento entre la sensibilidad de los tres
receptores. Cada receptor es ciego al color; sin embargo, cualquier longitud de onda es capaz de
estimular de forma diferente a cada receptor. El patrón de activación es responsable directo de la
experiencia de color.

La fisiología actual nos permite afirmar que, en los receptores, la codificación del color tiene lugar de
acuerdo con los postulados fundamentales de la teoría tricromática.

2.1. Las deficiencias cromáticas

 La ceguera al color —acromatopsia— reduce la visión a la dimensión de claridad en la gama


de blancos, grises y negros. Las personas que la padecen no necesitan más que una luz
primaria en un experimento de igualación ya que sólo pueden basar su discriminación en la
dimensión de brillo-claridad.
 Más frecuente es la dicromatopsia. Quien la padece sólo tiene dos de los tres tipos de
receptores del color, sólo necesita utilizar dos luces primarias para igualar una luz de prueba
en un experimento de igualación de colores.
Hay 3 tipos de dicromatopsia:
o Los protanopas carecen de receptores de onda larga. Si una luz roja se hace más
brillante que una luz verde, el protanopa confundirá estos colores.
o Los deuteranopas carecen de receptores de onda corta. Es más común que la
protanopia y afecta también a la discriminación entre el verde y el rojo (daltonismo).

7
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
La apariencia del color para protanopas y deuteranopas es similar, las longitudes de
onda medias tienden a aparecer azules y las largas tienden a aparecer amarillas. En
medio de estas dos bandas hay un punto acromático de color gris que permite
discriminar a protanopas de deuteranopas ya que para los primeros tiene lugar en los
492 nm y para los segundos en los 498 nm.
o Los tritanopas carecen de receptores de ondas cortas y son poco frecuentes entre la
población. La apariencia que toman los colores para el tritanopa es de verde para las
longitudes de onda cortas y rojo para las largas. El punto gris de neutralidad
cromática lo presentan en los 570 nm.

Hay otras anomalías tricromáticas debidas a un funcionamiento anómalo de los receptores. Estas
personas tienden a igualar cualquier color con una mezcla de 3 luces primarias pero la mezcla difiere
de la de una persona normal.

2.2. Fisiología de los fotorreceptores

A mediados del s. XX la investigación fisiológica aísla y extrae el fotopigmento


de los bastoncillos, la rodopsina, que cuando es expuesto a la luz sufre
modificaciones químicas que producen un cambio gradual en el potencial de membrana. El proceso
no cambia a pesar de que cambie la longitud de onda absorbida. Aunque los cuantos de longitud de
onda corta poseen más E que los cuantos de longitud de onda larga, la secuencia de reacciones es la
misma cuando se absorben unos que cuando se absorben otros; es a lo que se llama univarianza
(Rushton, 1965), donde el fotopigmento establece una correspondencia entre toda la gama de
longitudes de onda del espectro visible y un único tipo de output que es la tasa de absorción. La
respuesta de la rodopsina no codifica información sobre la composición espectral. Por ello no somos
capaces de discriminar luces de diferente color en condiciones de visión escotópica. La rodopsina es
más sensible a las longitudes de onda media que a las bajas o altas. Univarianza significa que, una vez
absorbidos, los cuantos de cualquier longitud de onda tienen el mismo efecto visual. Wald y Brown
(1956) comprobaron que el grado de solapamiento entre la función de absorción de la rodopsina y la
función de sensibilidad espectral escotópica es prácticamente perfecto.

Los conos han podido ser aislados por ingeniería genética. Existen tres tipos:

 Conos S. Muestran mayor capacidad de absorción para las longitudes de onda corta; tienen
una sensibilidad máxima, en torno a los 440 nm.
 Conos M. Muestra mayor capacidad de absorción para las longitudes de onda medias, con un
máximo en torno a los 530 nm.
 Conos L. Más sensible a las longitudes de onda largas y su pico máximo se sitúa en torno a los
560 nm. Son los más abundantes en la
retina, aprox. el doble que los conos M. Los
más escasos son los conos S.

Según Rusell y Karen DeValois, la razón entre los


conos L, M y S viene a ser aprox. de 10 : 5 : 1.

La figura 2.6 presenta la absorción relativa de cada


tipo de cono. Existe solapamiento entre las
distribuciones de absorción, mucho mayor en M y L.
Ante una misma longitud de onda la respuesta de
cada tipo de cono es diferente. El funcionamiento es
parecido a lo anticipado por Helmholtz.

8
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
3. PROCESAMIENTO OPONENTE

3.1. Fenómenos que cuestionan la teoría tricromática

a) Tareas de clasificación de colores. Hering observó que,


cuando se pedía a los sujetos el agrupamiento de un conjunto
de fichas de diferentes colores, el número de categorías más
frecuentemente utilizado era cuatro: rojo, verde, azul y amarillo.
b) Combinaciones de colores. La teoría tricromática no es capaz de explicar por qué no
podemos tener experiencia de determinadas combinaciones. P. ej., el naranja responde a una
mezcla de rojo y amarillo, pero no existe experiencia de colores que respondan a combinación
de rojo y verde o de azul y amarillo (responde a la mezcla de pigmentos pero no de luces).
c) Deficiencias cromáticas. Las deficiencias cromáticas guardan relación con la falta de
determinados fotorreceptores. La pérdida de la experiencia de color no ocurre de forma
individualizada, sino que tiene lugar por pares, y los emparejamientos no son arbitrarios sino
que afectan al par rojo-verde o al par azul-amarillo.
d) Posefecto de color. Si un observador fija su vista en una superficie coloreada durante cierto
tiempo y, a continuación, cambia su mirada a una superficie blanca, esta adquirirá la
apariencia del color oponente.

*Fije su mirada en el punto negro


central de la Figura 2.7 durante treinta
segundos. A continuación traslade su
mirada a la zona blanca de la derecha.
Observar que la superficie blanca
adquiere las tonalidades de los colores
oponentes. El posefecto de color está
relacionado con el fenómeno de
adaptación cromática, que consiste
en la perdida de sensibilidad para un
determinado matiz como consecuencia
de una exposición repetida.

Ernst Mach propuso la existencia de seis colores fundamentales: rojo, verde, azul, amarillo,
blanco y negro. La teoría que se opuso con más fuerza a la teoría tricromática fue la de Ewald
Hering.

3.2. Teoría de Hering

Hering sostuvo la existencia de seis colores en pares: amarillo-azul, rojo-verde y blanco-negro


(tres sistemas retinianos). Para Hering, cada receptor estaba dedicado al procesamiento de un par de
colores oponentes y la respuesta de los receptores no era monofásica (excitatoria) sino bifásica
(excitatoria e inhibitoria). Asumió la existencia de tres sustancias visuales en la retina, cada una capaz
de experimentar un cambio químico en una de dos direcciones antagónicas:

 Asimilación. Codificación del azul, verde y negro.


 Desasimilación. Codificación del amarillo, rojo y blanco.

En cada par, el primer miembro estaba asociado con la desasimilación y el segundo con la asimilación.

9
P. de la Percepción. Cap. 2 Psicología UNED. 2020-2021 Dolores Latorre
3.3. Teoría de Hurvich y Jameson

Estos autores utilizaron el procedimiento de la cancelación de matiz. El observador juzga la apariencia


de una luz de prueba. P. ej., si aparece verdosa, se añade roja y si aparece rojiza se añade verde, hasta
cancelar la impresión
(cancelación mutua de
matices oponentes); así se
adquiere una tonalidad
verde, roja o gris.

Figura 2.8.

 A: Fuerza del par


azul-amarillo. En
longitudes de onda bajas
(<500 nm) predominan los
amarillentos.
 B: Fuerza del par
rojo-verde. El matiz rojo
está presente en longitudes
de onda bajas y algo en altas.
En longitudes de onda
medias predomina el verde.
 C: Superposición de
las funciones anteriores;
para acentuar el carácter
oponente se ha dado a los matices azul y verde valores negativos (aunque los valores de las luces son
siempre positivos).

3.3. Teoría de Hurvich y Jameson

Hurvich y Jameson propusieron una teoría de la codificación del color de dos fases. La teoría
tricromática era correcta en el nivel de los receptores. Sin embargo, en una segunda fase se producía
una nueva codificación en términos de procesos oponentes: par rojo-verde y par azul-amarillo.
Postularon además la existencia de un tercer mecanismo no oponente: par blanco-negro, para
procesar la claridad. Los autores postularon la existencia de determinados mecanismos neuronales
para explicar los datos psicofísicos.

3.4. Investigaciones de DeValois

De Valois, Abramov, y Jacobs (1966) descubrieron en el núcleo geniculado lateral (NGL) del tálamo de
primates, células que respondían selectivamente al color, de forma similar a la postulada por la teoría
de los procesos oponentes. Unas células eran activadas por la luz roja e inhibidas por la luz verde, y
otras respondían de forma opuesta, se activaban ante la luz verde y eran inhibidas por la luz roja. Lo
mismo para el par azul-amarillo. Además encontraron células no oponentes, algunas eran excitadas
por cualquier tipo de longitud de onda e inhibidas por la ausencia de luz y
otras eran activadas por la ausencia de luz e inhibidas por su presencia. Las
células descubiertas presentaban un patrón acorde con la teoría de los
procesos oponentes. Y junto con los tres tipos de fotorreceptores del color
proporcionaron un impulso a las teorías duales.

10
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre

Capítulo 3. Procesamiento visual inicial

INTRODUCCIÓN

En el estudio de la percepción visual, la forma es el determinante principal del reconocimiento. Las


investigaciones que vamos a estudiar aquí son teorías de las primeras fases del procesamiento de la
forma. El capítulo está organizado en torno a tres aportaciones:

1. Investigación fisiológica del sistema visual.


2. Investigación psicofísica.
3. Teoría computacional de la visión.

Cada una de ellas plantea un punto de partida diferente para entender los primeros pasos del
procesamiento.

1. LAS INVESTIGACIONES DE HUBEL Y WIESEL

En 1981 David Hubel y Torsten Wiesel recibieron el premio Nobel de fisiología y medicina por sus
trabajos sobre los campos receptivos de las células del córtex estriado. Trabajaron con Stephen
Kuffler, quien descubrió la organización de los campos receptivos de las células ganglionares en
términos oponentes entre el centro y el contorno. Clasificaron estas células en tres clases:

1. Células simples. 2. Células complejas. 3. Células hipercomplejas.

1.1. Tipos de células

Células simples

Tienen campos receptivos con una forma más complicada que las células ganglionares o las del núcleo
geniculado del tálamo, cuyos campos receptivos son circulares. Continúa teniendo la estructura
antagónica “centro-contorno”, donde tanto uno como otro puede ser excitador (on) o inhibidor (off).
Un punto de luz proyectado sobre una zona on es un estímulo suficiente para aumentar la tasa de
disparo de una célula. y un punto de luz proyectado sobre una zona off disminuye la tasa de disparo.
Cuando los estímulos son mayores que un punto de luz, la respuesta de la célula aumenta de forma
lineal a medida que aumenta la cantidad de luz sobre una zona excitadora, o disminuye a medida que
aumenta la cantidad de luz sobre una zona inhibidora (naturaleza lineal).

El estímulo óptimo es aquel que mejor se ajusta a la forma de su campo receptivo; la geometría de los
campos receptivos da lugar a diferentes tipos de células simples. La mayor parte tienen campos
receptivos alargados y responden preferentemente a líneas o bordes de una determinada orientación y
posición en la retina. Unas tienen un área excitadora en un lado y otra área inhibidora en el otro, por
lo que responden preferentemente a bordes de luminancia formados por la transición de luz a
oscuridad (detectores de bordes). Otras células presentan campos receptivos con una zona central
alargada, que puede ser excitadora 0 inhibidora, flanqueada a uno y otro lado por zonas antagónicas.
Responden preferentemente a líneas claras u oscuras de una determinada orientación y posición en la
retina (detectores de líneas o detectores de barras). El tamaño de los campos receptivos de las células
simples depende de su posición en la retina con relación a la fóvea. En la zona de la fóvea los campos
receptivos son más pequeños que en la periferia.

Hubel (1999) ha propuesto un modelo que ilustra las conexiones entre cuatro células con campos
receptivos circulares y una célula simple.

1
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
Cada una de las cuatro células
que conectan con la simple
tiene un campo receptivo de
centro on y contorno off y los
centros de estas cuatro células
se encuentran dispuestos a lo
largo de una línea. Podemos
entender que el campo
receptivo de la célula simple
consistirá en una región
excitadora estrecha y alargada
que estará flanqueada por una
región inhibidora y que un
estímulo luminoso semejante a
una línea será capaz de activar
a su máximo nivel a esa célula
simple.

Células complejas

Descubiertas por Hubel y Wiesel, son las más abundantes en la corteza visual estriada (75%);
responden solamente a líneas que tienen una orientación específica. Las diferencias con las células
simples son:

1. Campos receptivos algo más grandes.


2. No responden de forma específica a la posición de una línea dentro del campo receptivo.
Cualquier posición dentro del campo receptivo es capaz de provocar la excitación.
3. Son muy sensibles al movimiento de las líneas. No responden si son estimuladas encendiendo
o apagando pequeños puntos de luz estacionarios. Si una línea se mueve a lo largo del campo
receptivo, la respuesta es máxima y se mantiene desde el momento en que el estímulo entra en
el campo visual, hasta que lo abandona.
4. La respuesta no es lineal respecto a la cantidad de luz recibida.

En la figura 3.2 la célula compleja


recibe información de tres células
simples. Todos los campos
receptivos de las células simples
tienen la misma orientación, pero
están distribuidos de forma que se
solapan sobre la totalidad del
campo receptivo de la célula
compleja. La célula compleja se
activará siempre que su campo
receptivo sea estimulado por una
línea con la orientación apropiada,
pero será breve si la estimulación es
estática, porque sólo un número
pequeño de células simples
disparará y pronto se adaptarán.
Sin embargo si el estímulo se
mueve a lo largo del campo

2
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
receptivo de la célula compleja, un número mayor de células simples disparará sucesivamente,
evitando el problema de la adaptación y manteniendo la excitación sostenida de la célula compleja.
Aunque entre un 10 y un 20 % en las láminas superficiales de la corteza estriada, muestran
selectividad a la dirección del movimiento y no se podría explicar con este esquema.

Células hipercomplejas

La característica fundamental es una disminución de su respuesta cuando la longitud de la línea que la


estimula aumenta por encima de un límite. Hoy este tipo de células suele denominarse células con
inhibición final, porque se tiende a pensar que son grupos particulares de células, tanto simples
como complejas, que presentan una sensibilidad gradual a la presencia de una terminación.

1.2. La arquitectura de la corteza estriada

1.2.1. Organización retinotópica

La corteza estriada preserva la topografía de la retina, ya que las áreas que son adyacentes en la retina
proyectan sobre áreas en la corteza que también son adyacentes.

La imagen de la figura (autorradiografía)


corresponde al campo visual derecho del
estímulo y en ella aparecen tanto las
líneas radiales como las líneas
semicirculares del estímulo conectadas
entre sí con las relaciones topográficas
apropiadas. La representación de la
distancia entre las líneas radiales tiende a
igualarse en la autorradiografía, a pesar
de que en el estímulo la distancia entre las
líneas es muy diferente. Esta diferencia
entre las relaciones métricas de la
representación en la corteza y en el
estímulo se conoce con el nombre de
magnificación cortical, y es una
distorsión característica de la
representación retinotópica de la corteza
estriada debida a que la zona central de la retina ocupa un área más amplia en la corteza que la zona
periférica, como consecuencia de la mayor densidad de receptores existente en el centro de la retina.
Está relacionada con el análisis que la corteza visual realiza en el centro de la retina, más detallado
que en la periferia.

1.2.2. Columnas de dominio ocular

Si se introduce un electrodo en la
corteza estriada, perpendicular a su
superficie, se comprueba que todas
las células a lo largo responden de
forma preferente a la estimulación de
determinado ojo y no (o en menor
medida) al otro ojo. Si el electrodo se
introduce de forma oblicua a la
superficie, en paralelo, el predominio

3
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
de un ojo sobre el otro se alterna, repitiéndose la secuencia a lo largo de la trayectoria. Esto se obtiene
con técnicas de registro unicelular, y pone de manifiesto una organización de la corteza en columnas,
cada una formada por conjuntos de células que responden con preferencia a un ojo, y todas ellas
organizadas de forma alternante respecto al ojo dominante.

La Figura 3.4 muestra un corte tangencial a la superficie del área VI de un


mono: la organización alternante de columnas claras y oscuras de cada ojo
respectivamente. La transición brusca que se produce desde las zonas
claras a las oscuras es propia de la capa 4C; en el resto de las capas la
alternancia es más suave y gradual, pasando de columnas con preferencia
por un ojo, a otras con menor preferencia y a otras claramente binoculares,
antes de llegar a las columnas con preferencia por el otro ojo.

1.2.3. Columnas de orientación

La forma en que se organiza la preferencia de las células simples y complejas a la orientación presenta
una curiosa regularidad. La preferencia por una orientación permanece constante si la penetración del
electrodo de registro es perpendicular a la superficie de la corteza. Todas las capas de la corteza
muestran preferencia por una determinada orientación excepto la capa 4. Si la penetración del
electrodo es paralela a la superficie, aparece una secuencia regular de cambios en la preferencia por la
orientación, y cada vez que el electrodo avanza unas 50 micras cambia la preferencia por la
orientación unos 10º de ángulo, bien en sentido de las agujas del reloj, bien en sentido contrario. Esta
distribución hace que en aprox. un milímetro, el cambio de preferencia sea de unos 180º.

1.2.4. Organización modular

Propuesta por Hubel y Wiesel (1968). Según Hubel (1999), las 6 capas de la corteza están organizadas
en módulos o hipercolumnas, distribuidas de forma perpendicular a la superficie. Las dimensiones de
los módulos varían de una capa a otra, pero la organización funcional es la misma.

En la figura 3.5 se muestran las


columnas alternantes de dominio
ocular, izquierdo y derecho (I D I
D...). También se muestra la
organización de las columnas de
orientación, especificando los
cambios a los que son sensibles. En
opinión de Hubel y "Wiesel, estas
unidades funcionales constituyen el
mosaico fundamental que organiza la corteza estriada.

Las investigaciones de Hubel y Wiesel han demostrado que la organización de la corteza visual
estriada depende de factores de herencia y medio ambiente. Estudiando las células de la corteza
estriada de gatos pequeños en condiciones normales y en condiciones de privación visual,
comprobaron que:

 Existen células que responden selectivamente a la orientación en los recién nacidos.


 Existen periodos críticos en las primeras semanas donde es necesaria la estimulación
ambiental para lograr un desarrollo normal de las células de la corteza estriada.

El periodo crítico no es el mismo para todas las propiedades de la estimulación visual:

 En la sensibilidad a la orientación, oscila entre la 1ª y la 5ª semana de vida.


4
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
 En el dominio ocular, oscila entre la 5ª y la 10ª semana de vida.

Parece que el periodo crítico se relaciona con el nivel que ocupan las células en el sistema visual, y
tiene lugar antes para aquellas que ocupan un nivel más bajo, ya que su maduración es un requisito
necesario para el desarrollo de células que operan a un nivel más alto.

2. APROXIMACIÓN PSICOFÍSICA

2.1. El análisis de la frecuencia espacial

Para Hubel y Wiesel, las células de la corteza estriada responden selectivamente a características
estimulares simples, como la orientación y el movimiento de líneas y bordes. Pero un análisis más
detallado revela dificultades en esta interpretación:

 Una línea luminosa puede ser el mejor estímulo para una determinada
célula, pero otros estímulos podrían estimularla.
 Suponer que el análisis más elemental del patrón estimular que realiza el
cerebro lo hace en términos de líneas y bordes requeriría una teoría de la
percepción capaz de mostrar que todo el conjunto de formas y objetos es
analizable en esos términos.

Entonces, ¿esa respuesta representa el nivel más elemental de análisis de los objetos que el sistema
visual realiza?

La teoría de la frecuencia espacial surgió como una alternativa; sostiene que el análisis más
elemental de los objetos, realizado por el sistema visual, es en términos de componentes de frecuencia
espacial. El patrón estimular debe ser considerado como una onda compleja de intensidad luminosa
que es analizada por el cerebro en términos de sus componentes elementales de frecuencia espacial.
Las células de la corteza estriada actúan como filtros espaciales, respondiendo selectiva y
preferentemente a una determinada banda de frecuencias.

2.2. El concepto de frecuencia espacial

Una onda se puede analizar en componentes simples llamados ondas sinusoidales.

Figura 3.6:

 A; onda sinusoidal referida al


dominio del espacio.
 B; estímulo correspondiente a la
onda sinusoidal.
 Eje horizontal de A: espacio
estimular.
 Eje vertical de A: cambios en
intensidad.

El estímulo varía en intensidad a lo


largo de la dimensión horizontal con oscilaciones suaves de zonas claras y oscuras de igual amplitud a
intervalos iguales. Este tipo de estímulo recibe el nombre de enrejado; el de la Figura 3.6 es un
enrejado sinusoidal, donde las transiciones entre zonas claras y oscuras son suaves y continuas.
Cuando las transiciones son bruscas (Figura 3.7) es un enrejado de onda cuadrada. Las ondas
sinusoidales son los elementos más simples en que podemos analizar una onda, y los enrejados

5
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
sinusoidales son los estímulos más simples que podemos utilizar para estudiar la sensibilidad del
sistema visual a la frecuencia espacial.

Todo enrejado sinusoidal se caracteriza


por cuatro parámetros:

1. La frecuencia espacial. Viene


dada por la anchura de las zonas
claras y oscuras. Si son anchas tendrá
menor frecuencia espacial, ya que el
número de ciclos por unidad de
distancia en la onda asociada al
enrejado será también menor. La
unidad de distancia es el grado de ángulo visual. El ángulo visual nos permite relacionar todas las
medidas con el observador.

En la figura 3.8 puede verse: una flecha (h)


colocada cerca del observador (o) produce
una imagen retiniana mayor que otra flecha
(h') más alejada. Para cada flecha trazamos
dos líneas que interceptan sus dos extremos
y convergen en el ojo del observador;
entonces obtenemos dos ángulos visuales,
α1 y α2, tales que α1 > α2. Los ángulos están
directamente relacionados con el tamaño
de la imagen retiniana, y éste está
directamente relacionado con el tamaño del estímulo, e inversamente relacionado con la distancia del
estímulo. En el caso de la frecuencia espacial se utiliza el número de ciclos por grado de ángulo visual
(c/gav), que indica directamente las características espaciales del estímulo, independientemente del
tamaño o de la distancia.

2. La amplitud de onda de un enrejado es la mayor o menor intensidad luminosa de sus zonas


claras u oscuras. El concepto de contraste se refiere a la diferencia entre zonas claras y oscuras:

Contraste = (Imax - Imin) / (Imax + Imin)

Imax = punto de máxima intensidad. Si Imax=Imin  contraste=0

Imin = punto de mínima intensidad. Si Imin=0  contraste=1


3. La fase de un enrejado se refiere a la posición de la oscilación de la onda sinusoidal en un
momento dado que sirve como punto de referencia. Se mide en grados (de 0 a 360º).

1. Fase seno. Es el punto de comienzo de la inflexión en sentido positivo.


2. Fase coseno. La onda comienza en el punto de máximo valor positivo de amplitud (90º).
3. Fase antiseno. La onda comienza en el punto de comienzo de la inflexión en sentido negativo
(180º).
4. Fase anticoseno. La onda comienza en el punto de mínimo valor de amplitud (270º).

4. La orientación de un enrejado se refiere al grado de desviación de la vertical que presentan sus


zonas claras y oscuras. Se expresa en grados a partir de la vertical en sentido contrario al reloj.
6
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
2.3. El análisis de Fourier

Podemos utilizar la teoría del análisis de ondas de la física para investigar la validez y el alcance del
patrón de estimulación visual en términos de ondas.

En 1822, Jean Fourier propuso su teorema fundamental sobre las ondas: cualquier onda, tenga la
forma que tenga, se puede expresar de manera única como la superposición (suma) de ondas
sinusoidales de frecuencias y amplitudes definidas.

La figura 3.9 muestra la aplicación del


teorema en una onda cuadrada.

Fila F: gráfico de dicha onda.


Teóricamente, sus componentes
armónicos son infinitos; en la práctica
una onda cuadrada puede aproximarse
mediante la suma de un número finito
de componentes.

Fila E: la suma de los componentes A,


B, C y D produce una onda compleja
que se aproxima a la onda cuadrada. La
adición de armónicos de mayor
frecuencia aproximaría la onda
compleja al ideal representado en F.

Los componentes de una onda cuadrada son ondas sinusoidales que guardan relaciones entre sí:

 Componente fundamental (primer componente). Consiste en una onda sinusoidal de igual


frecuencia y amplitud que la onda cuadrada.
 Componentes armónicos. Su frecuencia es un múltiplo impar de la frecuencia fundamental y
su amplitud varía en función de su orden.
o Tercer armónico (segundo componente). Tiene 3 veces la frecuencia del componente
fundamental y 1/3 de su amplitud.
o Quinto armónico (tercer componente). Tiene 5 veces la frecuencia del componente
fundamental y 1/5 de su amplitud.
o Etc.

Cada nuevo armónico que se añade contribuye al total una amplitud cada vez más pequeña, por lo que
en la práctica, la síntesis de una onda cuadrada puede aproximarse bastante utilizando un pequeño
conjunto de armónicos, aunque en teoría el número de componentes sinusoidales de una onda
cuadrada sea infinito.

Figura 3.10. La imagen original (centro) ha sido filtrada, eliminando los componentes de frecuencia espacial
alta a la izq., y los componentes de frecuencia espacial baja a la dcha.

Como puede comprobarse en


la figura 3.10, los
componentes de frecuencia
espacial baja proporcionan
información sobre los

7
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
aspectos globales de la imagen, mientras que los de alta frecuencia la proporcionan de los detalles.

2.4. El análisis de Fourier como modelo

Cabe preguntarse si el sistema visual tiene filtros diferencialmente


sintonizados a un determinado rango de frecuencias espaciales con
preferencia a otras. Si éste fuera el caso, entonces cabe pensar que la corteza
visual se comporta como un analizador Fourier, que descompone el patrón
estimular en sus elementos constituyentes de frecuencia espacial. Se trataría
de asumir la existencia de un conjunto de receptores que responden
diferencialmente a distintas frecuencias espaciales, de modo que las frecuencias espaciales altas serían
procesadas por canales diferentes a los que procesan las frecuencias espaciales medias y bajas.

2.5. Evidencia experimental

La evidencia experimental más relevante a favor de la existencia de filtro de frecuencia espacial es de


carácter psicofísico. La psicofísica es la parte de la investigación psicológica que trata de establecer
relaciones entre las características físicas de los estímulos y la experiencia consciente, utilizando
métodos comportamentales. En los métodos comportamentales se analiza cuidadosamente la
ejecución del sujeto en tareas precisas que permiten hacer inferencias sobre la naturaleza de los
procesos que intervienen en la tarea. Se han utilizado tareas de detección para medir el umbral de
contraste de los sujetos y ha sido el comportamiento del sistema en situaciones de umbral el que ha
permitido inferir la existencia de diferentes filtros de frecuencia espacial.

Umbral de contraste. Es el contraste mínimo necesario para distinguir un enrejado sinusoidal de


una escena de luminancia homogénea. Para determinar la cantidad de contraste necesaria se utiliza el
método de ajustes, donde el sujeto controla el contraste hasta que el enrejado resulta mínimamente
perceptible. Como valor de contraste del umbral se toma el que produce un % de respuestas correctas
determinado.

2.5.1 La función de Sensibilidad al Contraste (FSC)

Si realizamos un experimento psicofísico de medición del umbral de contraste utilizando un variado


número de enrejados sinusoidales de diferentes frecuencias espaciales, obtendremos la función de
sensibilidad al contraste de un observador determinado.

Sensibilidad al contraste. Es el valor recíproco del umbral de contraste; la sensibilidad al


contraste de una persona será mayor cuanto menor sea el valor de contraste de su umbral. Esta
función relaciona la sensibilidad al contraste con la
frecuencia espacial de los enrejados empleados.

La Figura 3.11 presenta una FSC típica de una


persona adulta en condiciones de visión fotópica. La
función suele ser representada en coordenadas
logarítmicas y tiene forma de U invertida. Los
puntos representan la sensibilidad máxima para
cada frecuencia espacial. El punto óptimo de
sensibilidad se sitúa entre los 4 y los 5 ciclos por
grado de ángulo visual, y decae progresivamente a
medida que aumenta la frecuencia espacial; por
encima de aprox. 50 ciclos por grado de ángulo
visual no somos capaces de percibir diferencias

8
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
entre un enrejado y una superficie de luminancia homogénea.

Si el experimento se hiciera en condiciones de visión escotópica, la sensibilidad a las frecuencias sería


mucho menor, pero afectaría más a las altas que a las bajas, porque al faltar la contribución de los
conos se perdería agudeza visual en los detalles.

2.5.2. Predicciones a partir de la FSC

La función de sensibilidad al contraste sirve para explorar si hay filtros


especialmente sintonizados a un determinado rango de frecuencias
espaciales. Campbell y Robson (1968) utilizaron la FSC para comparar la
sensibilidad a las ondas cuadradas con la sensibilidad a las ondas
sinusoidales. Suponían que, si el sistema visual posee filtros sintonizados a
diferentes frecuencias espaciales, y realiza un análisis del patrón estimular en
términos de componentes sinusoidales, entonces la respuesta al umbral de
detección de un enrejado de onda cuadrada está determinada por la
respuesta de los filtros a los distintos componentes sinusoidales de la onda
cuadrada.

Predicciones:

 Si comparamos el umbral de detección de una onda cuadrada de 26 c/gav con el de una onda
sinusoidal de la misma frecuencia, no debe haber ninguna diferencia porque el sistema visual
está respondiendo sólo a una onda sinusoidal de 26 c/gav. Aunque la onda cuadrada tiene más
componentes sinusoidales, el sistema visual no es sensible a los mismos ya que incluso el
armónico de menor frecuencia, que tendrá 78 c/gav, no cae dentro del rango de frecuencias
que el sistema visual detecta.
 Si comparamos el umbral de detección de una onda cuadrada de 2 c/gav con el de una onda
sinusoidal de la misma frecuencia, entonces el umbral para la detección de la onda cuadrada
debe ser más bajo, es decir, la sensibilidad más alta que para la onda sinusoidal, porque la
onda cuadrada tendrá, además del componente fundamental de 2 c/gav, un armónico de 6
c/gav, cuyo umbral de detección es más bajo que el correspondiente al fundamental según la
FSC.

Campbell y Robson comprobaron que las predicciones eran confirmadas. Concluyeron que el sistema
visual está dotado de filtros sintonizados a rangos determinados de frecuencia espacial.

2.5.3. Los posefectos de frecuencia espacial

Los posefectos constituyen un fenómeno


que proporciona información sobre la
existencia y naturaleza de distinto tipo de
receptores. La figura 3.12 presenta la
posible relación entre la FSC y un conjunto
de hipotéticos filtros espaciales. Si existen
múltiples filtros espaciales, la FSC es el
resultado de la actividad de todos; es la
envolvente que encierra y reúne el
comportamiento de muchos más canales,
cada uno de ellos sintonizado a un rango
limitado de frecuencias espaciales.

9
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
Supongamos que sometemos a un sujeto a una exposición prolongada de un enrejado sinusoidal de
una frecuencia espacial. A continuación comprobamos la sensibilidad al contraste, verificando el
estado de su FSC, y lo comparamos con el estado de la FSC previo a la adaptación:

 Primera hipótesis: no existen múltiples filtros, sino que la


frecuencia espacial se procesa por un único canal y la FSC refleja el
estado de ese canal. Entonces la adaptación producida por la
exposición prolongada al enrejado afectará a todas las frecuencias
espaciales y la FSC posterior a la adaptación mostrará una menor
sensibilidad,
 Segunda hipótesis: si existen varios canales sintonizados a diferentes frecuencias espaciales, la
adaptación producida por la exposición prolongada afectará únicamente a los receptores
sintonizados con esa frecuencia, por lo que la FSC posterior a la adaptación mostrará una
menor sensibilidad únicamente para las frecuencias iguales a las utilizadas en la fase de
adaptación, mostrando una especie de bache en la zona correspondiente a esas frecuencias
espaciales.

Blakemore y Campbell (1969) confirmaron experimentalmente la aparición de baches, mientras que la


sensibilidad para las frecuencias que no habían sufrido adaptación permanecía sin cambio. Estos
datos favorecen la existencia de canales múltiples.

2.5.4. Manipulación de la fase de los enrejados

Otro experimento favorable a los múltiples canales o filtros es el hecho de que la síntesis de dos ondas
sinusoidales que están en la misma fase produce una onda compleja cuya amplitud es igual a la suma
de las amplitudes de los componentes sinusoidales; pero la síntesis de dos ondas sinusoidales cuyos
componentes tienen una diferencia de fase de 180° produce una onda compleja cuya amplitud es igual
a la diferencia de las amplitudes componentes.

Figura 3.13 muestra la forma de las


ondas de los enrejados utilizados por
Graham y Nachmias (1971).

 Fila inferior: forma de las


ondas complejas utilizadas como
estímulo.
 Dos primeras filas:
componentes sinusoidales utilizados
para sintetizar los estímulos.

La amplitud y frecuencia de los


componentes es la misma para
ambos estímulos. Lo único que varía
de un estímulo a otro es la secuencia de fase de sus componentes.

Razonamiento de Graham y Nachmias:

 Si el sistema visual funciona de acuerdo con un modelo de canal único en el que el estímulo se
procesa como una totalidad, el estímulo correspondiente a la onda A será más fácil de detectar
que el correspondiente a la onda B, ya que el contraste es mayor en A que en B.

10
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
 Si el sistema visual analiza el estímulo respondiendo diferencialmente a sus componentes
sinusoidales, entonces los dos estímulos mostrarán el mismo umbral de detección, ya que la
amplitud y frecuencia de sus componentes es la misma.

Los resultados mostraron que el umbral de detección era igual para los dos estímulos.

Debe quedar claro que aún no se ha podido aislar esos filtros en el nivel fisiológico. Por ahora son
entidades hipotéticas hacia cuya existencia apuntan gran cantidad de resultados experimentales.

3. LA APROXIMACIÓN COMPUTACIONAL

3.1. El esbozo primario

El propósito del esbozo primario es hacer explícitos los cambios de intensidad de la imagen, así como
la distribución de esos cambios y su organización geométrica. La descripción explícita se hace
especificando las características primitivas simbólicas, que según David Marr son:

 Bordes.  Terminaciones.
 Barras.  Manchas.

Los parámetros fundamentales son:

 Posición.  Orientación.
 Tamaño.  Contraste.

El punto de partida es la imagen bidimensional. El resultado final es una representación simbólica


que, organizada en conjuntos de características con principios de agrupamiento, servirán como
descripción básica a los restantes niveles de procesamiento. David Marr creía que el sistema visual se
hace simbólico muy pronto, en la primera fase de procesamiento, dando lugar a una descripción de la
imagen reducida en comparación con la imagen original, pero que conserva lo importante para su
análisis.

Marr asume que los mecanismos visuales operan con un conjunto de constricciones o supuestos
respecto a la naturaleza de las imágenes, supuestos de carácter general que hacen referencia tanto a la
naturaleza de las superficies en el mundo visual, como al modo en que esas superficies se representan
en la imagen. Las superficies constitutivas de las imágenes visuales son estables, tienen un alto grado
de homogeneidad y las transiciones de luminancia dentro de ellas tienden a ser suaves y no bruscas.

El esbozo primario incluye dos subfases:

 Esbozo primario bruto. Marr estudió los procesos que permiten pasar de la descripción
analógica (distribución de luminancia) a la descripción simbólica (características primitivas).
 Esbozo primario completo. Dedicada a la exposición de los principios de organización que
permiten agrupar las características primitivas en conjuntos y zonas.

3.2. El esbozo primario bruto

El punto de partida del procesamiento visual es la imagen más simple que pueden producir nuestros
receptores: una representación bidimensional de los distintos niveles de intensidad luminosa. Es una
representación monocromática, monocular y estática, como la superficie de una televisión en blanco y
negro compuesta por puntos elementales o píxeles, cada uno con su nivel de intensidad luminosa.

El esbozo primario bruto proporciona una descripción de los cambios de luminancia en diferentes
escalas, y clasifica los que sean relevantes en las categorías de características primitivas. David Marr

11
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
(1980) y la mayoría de investigadores en inteligencia artificial (IA) han prestado atención a la
clasificación de los bordes.

3.3. Bases fisiológicas del esbozo primario bruto

Marr también prestó atención a la realización física de estos procesos en el cerebro humano.
Especialmente a los mecanismos capaces de realizar el cómputo de los puntos de cruce de cero. Este
autor pensó que el campo receptivo de las células ganglionares y de las del núcleo geniculado lateral
del tálamo, muestran características similares a las del operador utilizado por ellos.

<- Figura 3.21. Mecanismo fisiológico


hipotético (Marr y Hidreth) para
implementar el procesamiento de la
detección de puntos de cruce de cero:

o P: campo receptivo de una célula


geniculada con centro on y entorno off.
o Q: campo receptivo de una célula
con centro off y entorno on.

Cuando ambos campos están activados es


porque se produce un punto máximo de
contraste (punto cero).

o Y: célula que recibe la información y dispara; actúa como un detector de puntos de cruce de
cero.
o B: forma en que un conjunto de mecanismos alineados son capaces de detectar un segmento
orientado de puntos de cruce de cero dentro de los límites de orientación, delimitados aprox.
por las líneas representadas.

Marr asumió que las células del núcleo geniculado (Figura 3.21), de forma que un conjunto de células
con centro off y entorno on estén alineadas y adyacentes a un conjunto alineado de células con centro
on y entorno off, forman la base para lograr el cómputo de los puntos de cruce de cero.

Cuando ambas filas de células estén activas simultáneamente, se producirá la presencia de puntos de
cruce de cero entre ellas. Si otro conjunto de células, en un nivel de procesamiento superior, recibe
información de ambas, y dispara sólo cuando están activas, estas células Y actuarán como detectores
de puntos de cruce de cero. Si a su vez están sintonizadas a orientaciones diferentes y se organizan en
alineamientos de una orientación determinada, tendremos la base para la detección de segmentos de
puntos de cruce de cero, base sobre la cual se lleva a cabo el cómputo de las características primitivas
en la teoría de Marr. La función que llevarían a cabo las células simples de la corteza estriada es
detectar los puntos de cruce de cero de esta forma.

3.4. Valoración de la teoría de David Marr

En el campo de la visión de máquinas se han desarrollado muchos algoritmos diferentes que resultan
más o menos útiles dependiendo de la aplicación a la que se dedica. Una problemática para la teoría
de Marr y Hildreth ha resultado ser la forma en que resuelve el problema de la integración de escalas
de puntos de cruce de cero. Marr y Hildreth nunca ofrecieron un algoritmo preciso. Sin embargo cabe
recalcar que la principal aportación de David Marr fue la nueva forma de pensar que introdujo, al
teorizar sobre la percepción visual apuntando a los problemas centrales que toda teoría debe resolver
en cada nivel de procesamiento.

12
Psicología de la Percepción. Cap. 3 UNED 2020-2021 Dolores Latorre
CONCLUSIÓN

Es importante en este capítulo observar que los conceptos de filtros de frecuencia espacial y detectores
de características son los conceptos fundamentales sobre los que se basa gran parte de la teoría de la
percepción de la forma en la actualidad. El propósito del esbozo primario bruto es, según Marr,
obtener una descripción simbólica de características primitivas del mundo físico, y sobre la base de
esta descripción construir las siguientes etapas del procesamiento visual. El filtrado de las frecuencias
espaciales queda reducido a una mera fase previa de análisis de la escena, en diferentes escalas, al
servicio de la determinación de las características.

Muchas investigaciones actuales sobre distintos aspectos de la percepción visual, como el análisis de
la textura, de las superficies, de la visión estereoscópica, etc., encuentran mucho más eficaz para sus
propósitos partir de una descripción del input en términos de frecuencias espaciales.

Palmer (1999) propone el esquema de


la figura 3.22, donde el
procesamiento más básico y
fundamental sería el de análisis de los
componentes de frecuencia espacial
del estímulo, que serviría de
fundamento a los demás. El
procesamiento de bordes también
necesitaría del análisis de la
frecuencia espacial pero sería llevado
a cabo de forma modular y en
paralelo con otros tipos de análisis.
Las características importantes
quedan reducidas a los bordes, pero
incluso el análisis de estos pierde el carácter fundamental que David Marr le concede en su teoría.

13
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre

Capítulo 4. El espacio tridimensional

INTRODUCCIÓN

El espacio visual tiene altura, anchura y profundidad. ¿Cómo consigue el sistema una
representación de este espacio? Lo plantearemos desde una perspectiva
constructivista, que concibe la percepción visual como un conjunto de procesos que, a
partir de la información que proporciona la luz, trata de construir una representación
de la escena que permita reconocer los objetos y guiar la acción del organismo,
buscando en la escena bidimensional las claves, indicadores o indicios para alcanzar
la representación tridimensional.

Una alternativa al constructivismo es la perspectiva ecológica de Gibson, donde no tiene sentido


buscar la representación bidimensional porque la percepción visual es directa, no está mediada por
ninguna representación, sino que es la extracción por el observador de la información presente en el
estímulo y la información acerca de la profundidad está tan presente en la información proporcionada
por el patrón general de estimulación como cualquier otra.

1. LAS CLAVES DE PROFUNDIDAD

Se han propuesto diferentes esquemas de clasificación de las distintas claves de profundidad.

1.1. Claves monoculares

1.1.1. Claves estáticas:

Pueden ser de dos tipos:

1. Claves oculares

Acomodación: Cambio en la forma del cristalino, necesario para mantener la imagen focalizada
sobre la retina. Si el objeto está alejado, el cristalino disminuye de grosor y se hace plano para facilitar
el enfoque de los rayos, que llegan en paralelo. Si el objeto se aproxima, los rasgos divergen a medida
que se acercan al ojo, el cristalino aumenta su convexidad, aumenta el grosor y facilita el enfoque. Este
proceso se lleva a cabo por acción de los músculos ciliares cuya contracción provoca el aumento de
grosor y cuya relajación lo disminuye. Si el sistema tiene información sobre la tensión de los músculos
ciliares, puede obtener información sobre la distancia hasta el objeto.

Las investigaciones sobre la acomodación como indicador de distancia han demostrado que solo es
efectivo en distancias cortas (< 2,5 m), e incluso aquí no se emplea si hay que hacer juicios directos
sobre la distancia, sino en juicios sobre el tamaño del objeto. El sistema visual calcularía el tamaño del
objeto tomando en cuenta la información proporcionada por la acomodación.

Este indicador proporciona información sobre la distancia absoluta a la que se encuentra el objeto.
La mayor parte de indicadores monoculares de profundidad proporcionan distancia relativa.

2. Claves pictóricas

1. Perspectiva lineal: el conjunto de reglas que permite a los artistas crear proyecciones
bidimensionales de objetos tridimensionales. El plano sobre el que lo hacen es el plano de proyección
y se sitúa perpendicularmente a la línea de visión que va desde el observador al objeto. En

1
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
percepción visual, perspectiva lineal se refiere a las relaciones dentro de la escena visual que subyacen
a ese conjunto de reglas y, en parte, a la percepción de la distribución espacial.

Una de las reglas básicas es la convergencia de paralelas: las líneas paralelas en el espacio
tridimensional se presentan en dos dimensiones por líneas que convergen hacia un único punto, el
punto de fuga. La línea del horizonte es la línea que pasa por dos o más puntos de fuga conjuntos de
líneas paralelas que se extienden en la superficie.

En la figura 4.1. el punto de fuga está situado en la línea del horizonte y divide el espacio visual en
una zona superior y otra inferior. La línea del horizonte de una superficie es la que pasa por 2 ó más
puntos de fuga de conjuntos de líneas paralelas.

La perspectiva lineal basada en la convergencia de


paralelas produce una comprensión lateral de las
superficies implicadas (Figura 4.2.).

La inclinación produce en el observador una


producción trapezoidal de la superficie, de forma que
el borde inclinado hacia el observador parece más
largo que el contrario, provocando una comprensión
lateral que tiende a concentrarse en el punto de fuga.

La convergencia de paralelas nos permite entender la


relación entre el punto de fuga y la orientación de los
bordes de una superficie. El punto de fuga de un
borde puede concebirse como el término final de la
proyección de un borde si se extiende infinitamente
en la distancia. Así que existe una relación uno a uno
entre el punto de fuga y la orientación de un determinado conjunto de bordes:

 Para cada orientación de un borde hay un correspondiente punto de fuga.


 Cada punto en el plano de la
proyección es el punto de fuga de un
conjunto de bordes paralelos con misma
orientación.

El punto de fuga de un borde contiene


información específica sobre su orientación.
Esta relación no varía aunque cambie el
punto de observación; cada uno de fuga
permanece fijo en su posición de
correspondencia y esta contribuye a
estructurar un entramado de relaciones
altamente informativas sobre la organización
tridimensional de una escena.

2. Altura relativa: la posición de los objetos en relación a la línea del horizonte es un importante
indicador de profundidad. Generalmente los objetos próximos a la línea del horizonte son percibidos
como más lejanos. La potencia de la altura relativa como clave de profundidad o distancia depende de
la presencia de un marco de referencia (línea del horizonte), que se potencia por la presencia de
textura. En ausencia de un marco de referencia queda casi anulado.

2
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
3. Perspectiva aérea: se refiere a los cambios en contraste y color de la percepción de los objetos a
gran distancia. El contraste tiende a reducirse y la imagen parece más borrosa por la dispersión de la
luz provocada por partículas de polvo y agua en la atmósfera. La lejanía acentúa las tonalidades
azuladas por la longitud de ondas cortas, que son fácilmente perturbadas por partículas de la
atmósfera, y experimentan una mayor dispersión.

4. Tamaño relativo: si dos objetos son presentados simultáneamente en el campo visual, o en próxima
sucesión, el que produzca una imagen retiniana mayor parecerá estar más cerca. En la Figura 4.2. el
segmento largo aparece más cercano al observador que el corto.

5. Tamaño familiar: ante objetos familiares, como barajas o monedas, al conocer el tamaño del
objeto, el tamaño de la imagen proyectada sobre el observador es un buen indicador de la distancia a
la que se encuentra el objeto.

6. Gradiente de textura: casi todas las superficies tienen una estructura de unidades o elementos
distribuidos con relativa regularidad (textura). El gradiente es la proporción en que una
determinada propiedad cambia a lo largo de un continuo. El gradiente de textura sería el cambio
gradual que la percepción de la textura de una superficie experimenta a medida que esta se encuentra
más alejada del observador; el tamaño será progresivamente más pequeño y la densidad aumentará a
medida que la superficie se aleja.

El gradiente también da información sobre la


orientación en profundidad o la curvatura. En
la Figura 4.3., en B se muestra cómo un
cambio de gradiente informa sobre la
existencia de una esquina, y en C la ruptura
de 2 gradientes informa sobre un borde.

James Gibson formuló la aproximación


exológica al estudio de la percepción y
consideró que el gradiente de densidad de
textura proporciona mucha información
sobre la profundidad porque afecta a la
estructura general del patrón estimular y
proporciona una escala absoluta de distancia
respecto a la que se puede medir toda otra distancia.

7. Sombreado y sombras: la posición relativa entre la fuente de iluminación, la superficie y el


observador determina la cantidad de luz que llega al último. Sombreado son los cambios en el patrón
de luminancia que se produce como consecuencia de la variación en el ángulo que forman la luz y la
superficie. Hay distintos tipos:

Sombreado especular: propio de


superficies brillantes (espejo); depende
de la posición del observador y la
dirección de la iluminación.

Sombreado difuso o Lambertiano:


propio de superficies mate, cuya
reflectancia es igual en todas direcciones.
La cantidad de luz reflejada depende de
su orientación respecto a la fuente de luz,

3
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
siendo máxima en los puntos donde la luz incide perpendicularmente. Cuando superficies de la misma
reflectancia presentan ángulos diferentes respecto a la misma fuente de iluminación, pueden dar lugar
a bordes de iluminación. El sombreado indica los aspectos volumétricos, sobre todo concavidades y
convexidades. Gibson observó que la
percepción de una escena tiende a
organizarse como si estuviera iluminada
por una sola fuente de luz desde arriba; esto
sería una constricción en el sistema
perceptivo, resultado del proceso evolutivo
(adaptación al medio).

Figura 4.4: en la fila superior se ven bultos


convexos y en la fila inferior concavidades.
Es reversible si se da la vuelta. Los objetos
iluminados superiormente y oscurecidos
inferiormente se perciben como convexos.
Si es a la inversa se perciben como
oquedad.

Ramachandran afirma que existe una sola


fuente de luz enraizada en nuestro sistema visual, y su localización depende de diferentes factores que
interactúan entre sí. Las máscaras de Ramachandran (Figura 4.5) están fotografiadas en su lado
cóncavo, pero son percibidas como si lo estuvieran por el convexo, lo que pone de manifiesto la
influencia de la experiencia previa y del contexto. Nuestro sistema visual prefiere ver caras normales
convexas aunque tenga que asumir que la luz viene de abajo. El efecto del contexto se comprueba si
fijamos la atención sobre los dos círculos entre ambas caras (entonces el sistema visual asume que la
luz viene de arriba); pero si miramos los círculos de las caras parecen invertidos (como si la luz viniese
de abajo).

Una sombra es donde no llega la


iluminación por estar bloqueada. La
forma de la sombra depende de varios
factores:

 Proximidad de la fuente de
iluminación.
 Dirección de la fuente de
iluminación.
 Forma del objeto que proyecta la
sombra.
 Relieve de la superficie sobre la
que es proyectada.
 Posición relativa entre fuente,
objeto y superficie.

Figura 4.6:

 A: Sombras unidas al objeto; percepción de esferas descansando en la superficie y alineadas


diagonalmente en profundidad izq-dcha.
 B: Sombras que se van separando de los objetos, alineadas en dirección perpendicular a la
línea de visión; se perciben las esferas como si estuvieran a diferentes alturas y en el mismo
plano frontal.
4
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
8. Interposición: los objetos más alejados pueden quedar total o parcialmente ocultos por la presencia
de otros interpuestos en la línea de visión. Si uno aparece parcialmente encubierto, el sistema visual
tiende a percibir como más alejado al tapado y cercano al interpuesto. Esto es un potente indicador de
profundidad, aunque sólo proporciona información ordinal sobre la distancia en relación con el
observador y no sobre la magnitud de las distancias. Si A oculta a B y B oculta a C, C es el más alejado
y A es el más cercano.

1.1.2. Claves dinámicas:

La percepción cotidiana ocurre en un medio en el que nosotros nos movemos en relación a los objetos
o estos se mueven en relación a marcos de referencia. El movimiento del observador y de los objetos
da lugar a nuevas claves de profundidad y distancia.

1. Paralaje de movimiento: cuando un observador se mueve lateral con respecto al campo de visión,
los objetos –a diferentes distancias– proyectan imágenes en la retina que se mueven en sentido y
velocidades diferentes. El paralaje del movimiento es el desplazamiento diferencial de las
imágenes, debido a un cambio lateral en la posición del observador y a la distancia relativa de los
objetos con respecto al punto de fijación.

Coloca el dedo pulgar de cada mano a distintas distancias en la línea de visión y alinéalos con
un 3er objeto más alejado. Mueve la cabeza hacia la dcha. y notarás que los 2 dedos se mueven
hacia la izq. en relación al 3er objeto; el dedo más cercano se mueve más lejos y más rápido.

Los objetos más cercanos parecen desplazarse más lejos y a mayor velocidad, mientras que los más
alejados lo hacen más lentamente. Pero el sentido del movimiento depende de la distancia y de la
posición del punto de fijación. Los objetos más cercanos al observador que el punto de fijación, se
mueven en sentido contrario al observador, mientras que los más alejados que el punto de fijación se
mueven en el mismo sentido.

El paralaje del movimiento es efectivo a grandes distancias, incluso cuando no hay otras claves de
profundidad. Su efectividad aumenta con información espacial rica y con varios puntos de referencia.

2. Flujo óptico: para Gibson, el paralaje de movimiento es una consideración parcial de un patrón
global de estimulación al que llamó flujo óptico, para tomar en consideración las transformaciones
del patrón global de estimulación cuando un observador se mueve en el medio.

Fig. 4.7: el sentido del movimiento para todos los puntos que se encuentran por delante del punto de
fijación es contrario al sentido del movimiento del observador, mientras que el de los puntos por
detrás del punto de fijación es igual que el del observador. La velocidad se va haciendo menor a
medida que las direcciones se aproximan al punto de fijación y aumentan a medida que se alejan del
mismo.

Una aportación más original de


Gibson fue la del flujo óptico
cuando el movimiento se dirige
hacia el objeto o se aleja
frontalmente, que es cuando se
produce un fenómeno de
expansión óptica, consistente en
que el punto de fijación
permanece estático en la fóvea
mientras el resto de puntos
divergen hacia el exterior en todas
5
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
direcciones, a una velocidad mayor cuanto más alejados del punto de fijación. Cuando la velocidad de
expansión es alta, el patrón de expansión produce la impresión de que la superficie se echa encima del
observador, y cuando se aleja del punto de referencia, se produce contracción óptica.

3. El efecto de profundidad cinética: los cambios en el patrón de estimulación producido por el


movimiento también dan información sobre profundidad. Wallach y O’Connell han estudiado el
efecto de profundidad cinética (Figura 4.8). Con un objeto estático no se percibe profundidad,
sino una sombra bidimensional (como las sombras chinescas), pero cuando se hace rotar al objeto en
torno al eje vertical, la sombra aparece rotando en profundidad. El patrón bidimensional de cambios
en la sombra proyectada consiste en una sucesión
de líneas que varían en longitud y orientación, pero
que el observador percibe como la forma invariante
de un palo que rota en profundidad sobre un eje. El
sistema visual impone la perspectiva de una forma
rígida rotando en profundidad, como si estuviera
sesgado.

Para explicarlo, los psicólogos empiristas opinan


que el sesgo está determinado por la experiencia,
ya que la rotación de formas rígidas es más
frecuente en el medio que las deformaciones
plásticas bidimensionales. Los psicólogos de la
Gestalt opinan que interpretarlo en términos de
una forma rígida es más simple. Es un ejemplo del carácter constructivo de la percepción ante
estimulaciones ambiguas.

1.2. Las Claves binoculares

Proporcionan información sobre la distancia, combinando información de cada uno de los ojos.

1.1.2. Convergencia binocular

Cuando fijamos la vista en un objeto, las líneas de visión de cada ojo convergen en el punto de fijación ,
y el ángulo formado por estas líneas es el ángulo de convergencia. Su importancia radica en que su
tamaño varía en función de la distancia a la que se encuentra el punto de fijación:

 Si el objeto se aproxima, el ángulo de convergencia tiende a hacerse mayor.


6
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
 Si el objeto se aleja, el ángulo de convergencia tiende a disminuir.

La convergencia binocular, como la acomodación, es una clave fisiológica porque la información que
proporciona se refiere a los ajustes oculomotores que controlan la posición de los ojos.

Figura 4.9:

o P = punto de fijación.
o D = ojo derecho.
o I = ojo izquierdo.
o D = distancia a la que se encuentra
el objeto.
o I – D = distancia interpupilar
(aprox. 65 mm).

La distancia interpupilar es el arco de un


círculo y la distancia (d) es su radio, con lo
que resulta el ángulo C:

C = 65 / d
C = Ci + Cd --> ángulos correspondientes a
la desviación de cada ojo al converger sobre el punto de fijación.

¿El sistema visual utiliza esta información? Sí, pero solo en distancias cortas, porque la variación del
ángulo tiene lugar en distancias de 1-2 m. Por encima de los 3 m la posición de los ojos no cambia
mucho.

A medida que un objeto se aleja varían la convergencia y la acomodación. Si tapamos un ojo, la


información del cristalino no tapado es suficiente para guiar al mecanismo de convergencia.

1.1.2. La estereoscopia

Proporciona información acerca de la distancia relativa de los objetos sobre la base del
desplazamiento lateral que la proyección de un objeto experimenta en las retinas de ambos ojos.

1. Conceptos fundamentales

 Puntos correspondientes: puntos de cada retina sobre los que cae la proyección. Un punto a en
la retina derecha y un punto b en la izquierda son puntos correspondientes cuando ambos
tienen la misma posición en su respectiva retina. Cada punto de una retina tiene su
correspondiente punto en la otra. La estimulación en ambas retinas provoca fusión binocular:
el objeto es visto como un único objeto en el espacio a pesar de que hay dos puntos
estimulados.
 Horópter: conjunto de puntos en el espacio visual que, dada una determinada fijación ocular,
proyectan su imagen en puntos correspondientes de las dos retinas. Se define en relación al
punto de fijación y cambia cuando este
cambia.

Desde la teoría de la óptima


geométrica, suponiendo que los ojos
son esferas perfectas que rotan en torno
a ejes que pasan por el punto nodal

7
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
de cada ojo, el horópter longitudinal, que se define en el plano horizontal, está constituido por una
circunferencia que pasa por el punto de fijación y el punto nodal de cada ojo, la circunferencia Vieth-
Müller. El horópter vertical sería la recta perpendicular al plano de visión; tiende a estar inclinado
en la dirección de la línea de visión, alejándose del observador por encima del punto de fijación y
acercándose a él por debajo. El horópter longitudinal tampoco se ajusta a la predicción, sino que
tiende a quedarse próximo a la circunferencia de Vieth-Müller, en dirección a la línea paralela a la
distancia interocular que pasa por el punto de fijación.

Esto refleja una desviación sistemática respecto a la posición de los puntos determinada teóricamente
(Fig. 4.10).

Punto nodal: punto en que el rayo principal de luz corta al eje óptico. Se encuentra a unos 17 mm de la imagen
formada en la retina. El ojo humano tiene 2 puntos nodales, pero con una distancia entre ellos muy pequeña,
por lo que son tratados como uno solo.

 Disparidad binocular: cuando un punto no proyecta su imagen en puntos correspondientes de


las dos retinas, las imágenes en cada ojo resultan más diferentes cuanto mayor sea el
desplazamiento lateral de una proyección respecto de la otra.

Alinea los dos pulgares con un tercer objeto más lejano, cerrando el ojo izquierdo.
Cuando los dedos están alineados con el objeto, cerramos el ojo derecho y abrimos el izq.
Veremos que los objetos ya no están alineados.

Se llamó paralaje binocular en los comienzos de la


psicología experimental, pero el desplazamiento de
la imagen en la disparidad binocular está fijado por
la distancia interocular, mientras que en el paralaje
el desplazamiento de la imagen depende de la
amplitud del movimiento lateral. En la disparidad
binocular, el desplazamiento de imágenes es
simultáneo y en el paralaje de movimiento es
sucesivo.

La disparidad binocular puede informar sobre la


posición de objetos en el espacio tridimensional, por
el desplazamiento y la magnitud del objeto, respecto
al punto de fijación.

El desplazamiento de los objetos más próximos que el punto de fijación se produce en sentido
contrario al desplazamiento de las imágenes producido por nuestro abrir y cerrar de ojos
(disparidad cruzada). Los objetos más alejados de nosotros que el punto de fijación se desplazan
en el mismo sentido (disparidad no cruzada).

Figura 4.11:

o P = punto de fijación.
o C -> produce el desplazamiento de sus proyecciones hacia la zona lateral de las retinas (más
cercano al observador).
o F -> produce el desplazamiento de sus proyecciones hacia la zona nasal de las retinas (más
alejado del observador).

La magnitud del desplazamiento es un indicador cuantitativo de la distancia del objeto:

8
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
 Si el objeto se aleja del punto de fijación aproximándose al observador, su disparidad cruzada
aumenta.
 Si el objeto se aleja del punto de fijación alejándose del observador, su disparidad no cruzada
aumenta.

La disparidad binocular puede producir dos efectos:

 Estereoscopia. Es la percepción de la profundidad producida por la disparidad binocular.


Cuando la disparidad es pequeña, las imágenes se fusionan en una sola, situada a una
distancia del observador diferente a la que corresponde al horópter.
 Imágenes dobles. Ponen en marcha un proceso de rivalidad binocular.

La disparidad cruzada produce la percepción del objeto por delante del horópter y la no cruzada por
detrás. En ambos casos, la dirección de la línea de visión al objeto fusionado es el promedio de las
direcciones visuales predichas a partir de las 2 imágenes monoculares.

2. Procedimientos estereoscópicos

Los estereogramas son pares de imágenes prácticamente iguales que difieren en el desplazamiento
lateral de sus elementos. Cada imagen del par se denomina media-imagen y cuando cada una
estimula un ojo distinto a la vez, la imagen fusionada produce sensación de profundidad. Los inventó
Wheatstone en 1838 junto con el estereoscopio, aparato que permitía la presentación por separado en
cada ojo de los componentes de un estereograma (Figura 4.12).

Si cada media-imagen es presentada


simultáneamente a un ojo diferente, se
producirá la segregación de la imagen
fusionada en tres planos de profundidad.

En la figura 4.12, la posición relativa de las


figuras geométricas se debe a que el
desplazamiento de las imágenes del
estereograma se ha realizado hacia el exterior
(disparidad cruzada). Con disparidad no
cruzada el orden de aparición de las figuras
habría sido inverso.

Hasta los años 60 se pensaba que la


percepción estereoscópica de profundidad era
la consecuencia de la disparidad retiniana del contorno y de los bordes de cada media-imagen y que la
percepción monocular de la forma era requisito previo para la fusión binocular.

3. El problema de la correspondencia: El sistema visual tiene que determinar qué puntos o partes de
la imagen de un ojo corresponden a qué puntos o partes de la imagen del otro. Para la esteroscopia
tradicional se suponía que la forma y los bordes de la imagen monocular podían guiar el proceso de
fusión de la imagen estereoscópica. Pero Bela Julesz (1971) demostró que se podía producir
estereoscopia utilizando estereogramas de puntos aleatorios.

9
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
4. Estereogramas de puntos aleatorios: Consiste en una pareja de medias-imágenes. Cada una son
miles de puntos colocados aleatoriamente, cuyo desplazamiento lateral produce una fuerte sensación
de profundidad cuando las dos medias-imágenes se ven estereoscópicamente. Julesz generó un patrón
de puntos en una matriz bidimensional de 100x100, donde cada celda estaba ennegrecida generando
un punto, o se dejaba en blanco aleatoriamente. La matriz correspondiente al otro ojo era idéntica,
excepto que los puntos de una pequeña submatriz rectangular central habían sido desplazados una
columna en sentido lateral. La visión estereoscópica de este estereograma provoca la percepción de
una superficie rectangular (la submatriz) situada a distinto nivel de profundidad que la matriz grande.

Los estereogramas de puntos aleatorios demostraron que la forma y los bordes de la imagen
monocular no son necesarios para
guiar la resolución del problema
de la correspondencia. Es
suficiente una mera disparidad
para que se produzca la
segregación de una imagen en
diferentes planos de profundidad.
También muestran que la
estereoscopia no es un
procesamiento tardío, sino que
tiene lugar pronto y proporciona
información sobre la forma de los
objetos.

5. Características de la estereoscopia humana: Bajo las mejores condiciones perceptivas, la agudeza


esereocópica se encuentra en el rango de los 2-6 segundos de ángulo. La sensibilidad es mayor para la
disparidad cruzada que para la no cruzada; depende de factores espaciales como la excentricidad de
los estímulos, y la distancia entre estos y el punto de fijación. Para excentricidad y distancia, la
sensibilidad disminuye cuando aumentan sus valores.

La magnitud de disparidad dentro de la cual se produce estereoscopia está limitada a un área en torno
al horópter, el área de fusión de Panum, que es menor en el entorno del punto de fijación que en
la periferia (<10 minutos de ángulo en la visión central y >30 minutos, a partir de 15º en la periferia).

Figura 4.14:

 F = punto de fijación.
 A = punto en el horópter
que proyecta fuera de la fóvea. Sus
proyecciones a y a’ proyectan sobre
puntos de las dos retinas.
 B = punto cuyas
proyecciones (b y b’) muestran
disparidad cruzada.

La interpretación clásica del área


de Panum ha considerado que el
área representaba propiedades fijas
de una región determinada de la
retina. Hoy sabemos que esto es

10
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
erróneo porque el tamaño y la forma dependen de características del estímulo y del procedimiento
utilizado para medirla. Schor, Word y Ogawa encontraron que los objetos grandes tenían áreas
mayores que los pequeños y lo mismo ocurría con las imágenes borrosas comparadas con las nítidas.

6. Mecanismos fisiológicos de la estereoscopia: Barlow, Blakemore y Pettigrew descubrieron


neuronas en la corteza visual primaria (V1) que respondían a la disparidad binocular. Posteriormente
se han encontrado en áreas como la V2 y la V3. Estas neuronas muestran alta tasa de disparo cuando
un determinado estímulo incide en puntos de las dos retinas que no son correspondientes. Unas
responden a niveles de disparidad bajos y otras, a altos; unas lo hacen a la disparidad cruzada, y otras
a al no cruzada. Destaca la investigación de DeAngelis, Cumming y Newsome (1998, 2000) en el área
temporal medial (MT) de monos. Descubrieron que en esta zona había una clara organización
funcional de la estereoscopia con tres características:

1) Las neuronas selectivas a la disparidad estaban organizadas en columnas de acuerdo con


valores particulares de disparidad, de forma que las que mostraban preferencia por una
disparidad binocular formaban parte de la misma columna.
2) Las neuronas selectivas a la disparidad estaban agrupadas a lo largo de MT como parches
intercalados con otros que no mostraban selectividad.
3) En los parches con buena selectividad a la disparidad, la preferida variaba de forma gradual y
continua de columna a columna del MT.

Esto indica que el área MT contiene un mapa de disparidad binocular. DeAngelis quiso comprobar si
estas neuronas estaban implicadas en la percepción de profundidad. Estimuló eléctricamente grupos
de neuronas cuando los monos realizaban tareas de discriminación de la profundidad, utilizando
estereogramas de puntos aleatorios estáticos. El resultado fue que la microestimulación provocaba un
sesgo sistemático en los juicios perceptivos de los monos en la dirección de la disparidad preferida por
las neuronas estimuladas.

1.2.3. Rivalidad binocular

La disparidad binocular, si no sobrepasa la magnitud del área de Panum


produce estereoscopia. Si la disparidad es grande y sí lo sobrepasa, se producen
imágenes dobles, aunque por lo general este fenómeno (diplopía) no suele
llegar a producirse, porque las imágenes dobles provocan rivalidad binocular y ambas imágenes
compiten por acceder a la consciencia. Cuando los estímulos son pequeños la rivalidad es total, de
forma que una imagen domina sobre otra durante 1-4 s y se percibe como única. Se produce una
alternancia continua entre ambas imágenes, probablemente por la fatiga de las neuronas responsables
de su respectiva percepción consciente. Cuando los estímulos son grandes, la rivalidad produce una
imagen consciente compuesta de trozos de cada imagen.

La visión binocular normal implica:

 Estereoscopia, que fusiona los puntos dentro del área de Panum


 Rivalidad binocular, que resuelve la competición entre imágenes dobles.

1.3. Relación entre las claves de profundidad

En la percepción ordinaria todas las claves actúan de forma conjunta integrando la información para
lograr una percepción consistente tridimensional. La percepción de la profundidad está
sobredeterminada por el conjunto de factores, por lo que la ausencia de una clave no supone un
obstáculo para que el sistema visual obtenga la adaptación adecuada.

11
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
1.3.1. Dominancia

Se produce cuando el sistema visual ignora la información de una clave en favor de otra. Ejemplo: la
habitación de Ames, que opone la información de la perspectiva y la del tamaño familiar. Es una
habitación distorsionada de forma trapezoidal.

El observador mira dentro a través de un orificio, por lo que la habitación parece rectangular.
Personas de igual altura se sitúan en distintas posiciones y el observador percibe que están a la misma
distancia pero con estaturas diferentes. El tamaño familiar debería igualar el tamaño de las personas,
pero la información es ignorada y el tamaño de las personas queda determinado por el tamaño de la
imagen proyectada en la retina.

1.3.2. Compromiso

A veces, la resultante del conflicto entre las informaciones proporcionadas por las distintas claves es
un valor intermedio entre los valores de profundidad proporcionados por cada clave. Bruno y Cutting
(1988) manipularon valores de cuatro claves: tamaño relativo, posición respecto al horizonte, oclusión
y paralaje de movimiento. Construyeron estímulos que combinaban los valores de esas claves y los
participantes evaluaban, de 0 a 99, la magnitud de profundidad. El grado de profundidad percibida
era el resultado de sumar la información proporcionada por cada una de las claves. Los observadores
integraban la información de las claves de acuerdo con una simple regla aditiva. Parece como si la
información proporcionada por cada clave fuera independiente de la información proporcionada por
las otras.

1.3.3. Interacción

En el caso de las claves que producen información relativa sobre la profundidad, necesitarían
interactuar entre sí para obtener información absoluta. Por ejemplo, la disparidad binocular por sí
sola no proporciona información absoluta de la distancia a los objetos. La interacción entre esta y la
convergencia permitiría generar un mapa métrico de la profundidad de los objetos, ya que la
convergencia binocular proporciona el valor de distancia real y, a partir de aquí, se pueden escalar las
proporciones de disparidad de profundidad relativa.

12
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
2. TEORÍAS DE LA PERCEPCIÓN ESPACIAL

2.1. Aproximación constructivista

Con raíces en el empirismo filosófico. Helmholtz, y después Boring, Epstein, Hochberg y Rock,
contribuyeron a reformular las ideas centrales.

La percepción tiene lugar por fases que se complementan unas a otra. Inicialmente, la información
proporcionada por la imagen retiniana o estímulo próximo no es adecuada para determinar por sí sola
la percepción, ya que es ambigua y necesita la información de otros procesos psicológicos
(aprendizaje, memoria...). Como la retina es una superficie bidimensional, la percepción
tridimensional no puede ser un fenómeno perceptivo primario sino derivado.

2.1.1. La constancia del tamaño

Si la percepción del tamaño estuviera


determinada por el tamaño del ángulo
visual, los objetos variarían en tamaño
percibido cuando variase su distancia al
observador, como ocurre cuando la
distancia es muy grande. Pero cuando
la distancia no es muy grande, el
desplazamiento en profundidad no
provoca un cambio en el tamaño
percibido a pesar de que el ángulo
disminuye. Este fenómeno se llama
constancia del tamaño.

Se han hecho muchos experimentos y


se ha visto que, efectivamente, el
tamaño aparente no disminuye en
función de la distancia de acuerdo con
la variación que experimenta el tamaño
de la imagen retiniana, sino que se aproxima mucho más a la curva teórica de constancia (Fig. 4.16).

Procedimiento: se toma como referencia un objeto situado cerca del observador, una figura
geométrica (p. ej., un triángulo) de cualquier tamaño. Como variable se utiliza otro objeto
(otro triángulo) a mayor distancia, cuyo tamaño puede hacerse aumentar o disminuir. El
observador ha de ajustar el tamaño del objeto distante hasta que le parezca del mismo tamaño
que el cercano.

2.1.2. Tomar en consideración la distancia

La explicación constructivista de constancia del tamaño ha enfatizado siempre que el sistema visual
evalúa el tamaño basándose no sólo en el ángulo visual o tamaño de la imagen retiniana, sino también
en la distancia a que el objeto se encuentra situado. Helmholtz fue el primero en considerar que
teníamos en cuenta la distancia por medio de una inferencia inconsciente: el sistema visual primero
registra el tamaño de la imagen retiniana y después modifica la información de acuerdo con la
información disponible sobre la distancia a la que se encuentra el objeto.

La formulación moderna se conoce como hipótesis de la invarianza tamaño-distancia, que se limita a


suponer que la imagen retiniana guarda la misma relación con el tamaño y la distancia percibidos que
con el tamaño y distancia físicos.
13
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
Si el ángulo visual (α) proyectado
en un objeto sobre la retina es
directamente proporcional al
tamaño del objeto (h) e
inversamente proporcional a la
distancia (d) del objeto:

tan (α) = h/d


La hipótesis de la invarianza
tamaño-distancia supone que la
imagen retiniana guarda la misma
relación con el tamaño percibido (h) y la distancia percibida (d p):

tan (α) = hp/dp

hp = dp • tan (α)
El tamaño percibido es igual a la distancia percibida multiplicada por la tangente del ángulo visual. A
medida que un objeto se aleja del observador, el ángulo visual disminuye pero el tamaño percibido
permanece.

2.1.3. Evidencia a favor de la hipótesis de la invarianza tamaño-distancia

1. La ley de Emmert: Existe un fenómeno


perceptivo que permite mantener constante el
tamaño de la imagen retiniana y cambiar la
distancia: las posimágenes.

Fig. 4.17: fijar la vista en el círculo negro 30 sg. A


continuación cambiar al blanco. La visión pierde
sensibilidad y aumenta hacia el color oponente, por
lo que verá un círculo de color blanco intenso de
mayor tamaño. El tamaño del círculo proyectado
en la posimagen aumenta a medida que la
superficie está más alejada de usted. Esto ilustra que el tamaño aparente de una posimagen es
directamente proporcional a su distancia percibida desde el observador (Emmert, 1881).

Es el fenómeno opuesto a la situación normal en que un cambio en distancia se acompaña de una


constancia del tamaño percibido, pero ambas experiencias son la expresión de un mismo principio. Si
el sistema visual multiplica el tamaño retiniano por la distancia percibida para producir el tamaño
percibido, cuando el ángulo visual decrece al aumentar la distancia, el producto será la constancia del
tamaño. Pero si el ángulo visual permanece constante y se aumenta la distancia, el tamaño aparente
aumentará como indica la ley de Emmert.

14
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
2. Percepción del tamaño e indicadores de profundidad: Holway y Boring idearon un experimento
donde el observador estaba situado en la intersección de dos pasillos en forma de L:

 Primer pasillo. Un disco de luz ajustable en tamaño que se colocaba a una distancia fija del
observador (3 m).
 Segundo pasillo. Se colocaba otro disco de referencia y en cada ensayo se variaba la distancia,
entre 3 y 36,5 m, a la que era presentado. Este segundo disco tenía un tamaño que era elegido
por el experimentador en cada ocasión, de forma que el ángulo visual que proyectaba sobre la
retina fuera siempre de 1º

El observador tenía que ajustar el


tamaño del primer círculo hasta que le
pareciese igual al círculo de referencia.
Estudiaron la ejecución de los sujetos
bajo las siguientes condiciones:

a) Visión binocular normal.


b) Visión monocular.
c) Utilizando una pantalla de
reducción, una pantalla opaca con una
apertura para mirar con un solo ojo
d) Similar a la anterior,
eliminando los posibles puntos de
referencia mediante telas y colgantes
oscuros.

El ángulo visual proyectado por el estímulo de referencia, y por tanto, la imagen retiniana, se
mantenía constante.

 Si los sujetos percibían constancia en el tamaño, hubieran tenido que aumentar el disco de
ajuste de la misma forma que los experimentadores aumentaban el tamaño del disco de
referencia.
 Si la degradación de los indicadores de distancia era perfecta, su ajuste hubiera debido
mantenerse constante a lo largo del experimento.

Cualquier condición de degradación de las claves que deteriorase la estimación de la distancia,


hubiera tenido que producir ajustes intermedios.

Figura 4.18:

 a) y b) -> el ajuste efectuado estaba próximo al necesario para mantener la constancia en el


tamaño aparente, incluso a) tendía a exagerar
 c) -> el aumento del disco de ajuste, a medida que aumentaba la distancia del disco de
referencia, era mucho menor que en a) y b).
 d) -> la degradación de las claves de distancia era mayor; la tendencia en c) se acentuaba aún
más y la función se aproximaba a la constancia típica de una situación en la que el único
indicio disponible para el observador era el ángulo visual.

A la hora de juzgar el tamaño de los objetos, las personas pueden tomar en consideración varios
factores diferentes. Por ejemplo, las instrucciones respecto al punto de referencia pueden influir en la
percepción del tamaño. Gilinsky (1955) realizó un experimento donde presentó a los participantes un

15
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
triángulo de referencia a diferentes distancias. Les pidió que ajustaran el tamaño de otro triángulo de
acuerdo con el tamaño percibido:

 Las instrucciones objetivas solicitaban el ajuste del triángulo variable de forma que igualara el
tamaño del triángulo de referencia
 Las instrucciones retinianas pedían a los observadores imaginar que se tomaban fotografías
de los dos triángulos, y si un triángulo era más distante que otro, produciría una imagen más
pequeña.

Resultados:

 Bajo instrucciones retinianas, el tamaño del triángulo variable disminuía a medida que
aumentaba la distancia del triángulo de referencia. -> Como explicación se acepta que el juicio
que se hace de naturaleza directamente perceptiva.
 Bajo instrucciones objetivas, tendían a exagerar la constancia del tamaño. Este fenómeno se
ha denominado sobreconstancia. -> Como explicación se acepta que la respuesta del
observador está mediada por procesos cognitivos de cálculo e inferencia, que llevan a esa
sobreestimación de la constancia.

2.2. La aproximación ecológica

O percepción directa. Fue formulado por Gibson y representa una forma de entender la percepción
frontalmente, en oposición a la postura constructivista.

Para él, el planteamiento clásico consistente en buscar claves de profundidad está equivocado. La
investigación debe tomar en consideración el patrón total de estimulación, no la proyección
geométrica de aspectos parciales sobre la retina. La ambigüedad del estímulo es fruto de un análisis
inadecuado, no de una insuficiencia del patrón para determinar la percepción.

Gibson pensaba que la óptica geométrica no era el instrumento adecuado y trató de crear una óptica
ecológica cuyo principio fundamental es que la luz del medio ambiente transmite energía e
información, porque está estructurada de una forma determinada en cada uno de los múltiples
puntos de vista que el medio ambiente ofrece al observador. El concepto de información está ligado al
de estructura: la estructuración de la luz en un punto de vista concreto consiste en el conjunto de
perspectivas de los objetos que el observador es capaz de captar desde ese punto de vista, incluyendo
las perspectivas cambiantes de los objetos que se mueven.

Por tanto, el estímulo carece de ambigüedad y toda la información está presente en la estimulación o
conformación óptica (optic array). Por eso, no hay que recurrir a procesos constructivos de
carácter no perceptivo, sino que la percepción es directa.

En resumen, la teoría es ecológica porque acentúa la riqueza informativa de la estimulación ordinaria,


por oposición a la estimulación de las situaciones
experimentales.

2.2.1. La constancia del tamaño desde una


perspectiva ecológica

Explicar las constancias perceptivas para Gibson es


simplemente descubrir en la estimulación la
información invariante que determina la percepción
de esa constancia. En el caso de la constancia del
tamaño. No hay que tomar en consideración la
16
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
distancia percibida, sino que es el gradiente de densidad de textura el que proporciona la escala
absoluta de distancia. La percepción del tamaño es una función de la cantidad de textura que el objeto
oculta al observador.

El suelo (con su gradiente de textura), que se hacen más denso a medida que aumenta la distancia, es
la escala respecto a la cual se valora el tamaño de los objetos. Los objetos se perciben como iguales en
tamaño porque cada uno de ellos oculta la misma cantidad de textura. La relación entre tamaño y
cantidad de elementos de textura ocultados no cambia y esta invariante es la responsable de la
constancia del tamaño.

2.2.2. Resultados experimentales

En un experimento, Gibson colocó estacas de distintas alturas y a diferentes


distancias del observador. Los observadores debían elegir la estaca que más
se aproximara a la que en cada ensayo tenían que estimar. En estas
condiciones, el tamaño de la imagen retiniana es tan pequeño que el cálculo
del tamaño percibido resulta prácticamente imposible. A pesar de ello,
Gibson encontró que los observadores mantenían la constancia del tamaño
incluso en los casos en que las estacas estaban más alejadas, por lo que concluyó que la explicación de
la constancia del tamaño no necesita complicados cálculos, sino que es más simple suponer que los
observadores prestan atención a la cantidad de elementos de la textura del terreno que cada objeto
cubre y que responden directamente a esta característica.

No parece que esta explicación pueda adoptarse como explicación general del fenómeno. Para que la
oclusión de la textura pueda informar sobre el tamaño relativo de los objetos, se necesitan unas
condiciones bastante restrictivas que no suelen darse en la percepción ordinaria. Además, los
elementos que componen la textura deben ser del mismo tamaño y, si no es así, no es posible percibir
constancia de tamaño.

No parece que las relaciones que Gibson descubrió entre tamaño y oclusión de textura sea una
explicación general. Sino que hay que tomar en consideración otros factores.

3. POSIBLE RECONCILIACIÓN

Neisser propuso la existencia de tres sistemas perceptivos diferentes:

1. Dedicado al control de la acción del organismo en el medio ambiente. Presenta características


similares a las que Gibson propuso para el sistema perceptivo visual en general.
2. Especializado en la discriminación e identificación de objetos y situaciones familiares. Tiene
unas características similares a las que los constructivistas propusieron como propias de la
percepción visual
3. Encargado de la percepción interpersonal, de las situaciones de interacción social con otros
seres humanos.

Si esto fuese correcto, nos encontraríamos con que las dos teorías podrían tener razón. A su vez,
ambas estarían equivocadas en cuanto que pretenden generalizar para un único sistema de percepción
visual las características propias de uno de los subsistemas.

La propuesta de Neisser tiene antecedentes en la historia de la investigación perceptiva. Joel Norman


ha propuesto que las vías visuales dorsal y ventral corresponden a dos sistemas visuales con
características similares a los postulados de Neisser, de forma que la vía dorsal sería el sistema
especializado en el control visual de la conducta motora y la vía ventral, un sistema dedicado al
reconocimiento e identificación de los objetos. Ha elaborado también el paralelismo entre la
17
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
aproximación ecológica y la vía visual dorsal y la aproximación constructivista y el sistema visual
ventral.

3.1. Los sistemas visuales dorsal y ventral

Ungerleider y Mishkin fueron los primeros en presentar evidencia experimental sobre la existencia de
dos vías diferenciadas. La vía ventral proyectaba desde la corteza occipital hasta la temporal inferior y
la vía dorsal, desde la corteza occipital hasta la corteza parietal posterior. Sugirieron que la vía ventral
era una vía dedicada a la discriminación e identificación de objetos y la dorsal, a la localización. A
partir de entonces, se suelen llamar la vía del qué y la vía del dónde (ventral y dorsal,
respectivamente).

Desde esta propuesta, la investigación con personas ha obligado a reinterpretar la función de las dos
vías. Una es la de Milner y Goodale: tanto la vía ventral como la dorsal procesan información sobre las
características de los objetos y sobre sus relaciones espaciales. Lo que las diferencia es el uso que
hacen de la información: la vía ventral se especializa en el procesamiento de las características
permanentes y las relaciones de los objetos, permitiendo la formación de presentaciones perceptivas a
largo plazo que cumplen una función básica para identificar y clasificar los objetos, de modo que la
finalidad primaria es la acumulación de conocimiento de estos.

La vía dorsal tiene que ver con la información cambiante sobre la localización y la disposición con
respecto a los efectores del sujeto y su
función tiene que ver con el control
visual online de las habilidades
motoras, por lo que puede
considerarse como una extensión
cortical de los módulos que controlan
los movimientos guiados visualmente
en los vertebrados y que implican
estructuras subcorticales como los
colículos superiores y el núcleo
pulvinar del tálamo.

Milner y Goodale han dado mucha


información experimental a favor de
la diferenciación funcional de estos
dos sistemas.

3.2. Las disociaciones neuropsicológicas

A la hora de hacer inferencias sobre los mecanismos


responsables de una determinada disfunción, hay que
distinguir entre dos tipos de disociaciones funcionales:

 Disociación simple: lo que se observa en los


pacientes es una deficiencia en un tipo de tarea
determinada cuando la ejecución se compara al grupo
control. Para ello, eligen una tarea de control también,
en la que ambos grupos no difieran, de modo que se

18
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
aseguran de que la disfunción es específica al daño y no una deficiencia generalizada.
Las disociaciones simples nos pueden poner en la pista de una determinada asociación entre
un área determinada del cerebro y una función psicológica concreta, pero no pueden
establecer de forma clara la existencia de esta asociación porque tienen problemas de
interpretación inevitables, como que las dos tareas sean igualmente sensibles a las diferencias
entre el grupo de pacientes y el grupo de control, lo cual suele fallar.
 Disociación doble: los problemas interpretativos se resuelven con la disociación doble, donde
es necesario encontrar un paciente o grupo con un patrón de disociación opuesto al
encontrado en el primer grupo. Así, la comparación de los dos grupos añade evidencia a favor
de la especificidad de la disfunción, ya que en la tarea en la que el primer grupo fracasa, el otro
es como los controles y al revés.
Podemos preguntarnos si existe una disociación doble entre grupos con lesiones en la vía
ventral y no en la dorsal y al revés. La respuesta es sí.

3.2.1. Percepción sin coordinación visomotora

Los pacientes con daño en la corteza parietal posterior presentan problemas para dirigir visualmente
acciones o un movimiento hacia una posición determinada en el espacio, lo que se define como ataxia
óptica, pero no suelen tener problemas para describir la posición relativa de los objetos en el espacio.
Por lo que la deficiencia es sólo de la interacción visomotora.

Algunos de estos pacientes tampoco pueden girar sus manos para alcanzar un objeto o acertar con la
apertura al cogerlo, pero sí describir el tamaño del objeto o su orientación. Estos síntomas muestran
que el problema no está ligado solo al espacio sino que afecta también al tamaño, la forma y la
orientación.

Además de presentar clara disociación entre una percepción preservada y una coordinación alterada,
los problemas de coordinación también presentan un alto grado de disociación entre sí. Algunos
pacientes no pueden utilizar la información visual para controlar la postura de sus manos pero sí
controlan la dirección en que inician un movimiento; otros pacientes presentan el patrón opuesto;
otros pueden no tener problemas oculomotores concretos pero son incapaces de guiar visualmente su
mano hacia un objeto.

Existen buenas razones para pensar que los mecanismos de control motor están altamente
especializados.

3.2.2. Coordinación visomotora sin percepción

Este aspecto ha sido más complicado de detectar y un caso interesante ha


sido el de DF (mujer de 34 años), que sufrió un daño cerebral irreversible
como consecuencia de un envenenamiento por monóxido de carbono. Eso
le hizo incapaz de reconocer las caras de sus familiares y amigos ni objetos
familiares, incluso no podía percibir la diferencia entre un cuadrado y un
triángulo, pero no tenía problemas para reconocer a las personas por la
voz o los objetos mediante el tacto.

En este diagnóstico de agnosia perceptiva visual había características


adicionales: no podía dibujar un objeto presentado visualmente pero sí de memoria. Podía
discriminar colores y cambios en luminancia, pero no detectar la orientación de los objetos. El
problema con la orientación no parecía tener su origen en la corteza visual primaria porque todas las
pruebas mostraban que el procesamiento en esta área estaba intacto.

19
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
Las primeras pruebas neuroanatómicas mostraron que el daño era difuso, caso frecuente en la anoxia.
No obstante, estudios posteriores mostraron que las zonas ventrolaterales de la corteza occipital
estaban particularmente afectadas, mientras que la corteza V1 estaba preservada. El problema
fundamental de DF es de naturaleza perceptiva, preferentemente relacionado con la percepción de la
forma. Se procesa la luminancia y el color, pero no las formas definidas por diferencias en luminancia
o color. Lo mismo si los contornos están definidos por la dirección del movimiento o los planos de
profundidad. Los principios gestálticos de proximidad o semejanza no están operativos.

Sin embargo era capaz de utilizar la información basada en el tamaño, la forma y la orientación para
controlar muchos movimientos guiados visualmente (p. ej., puede alcanzar la manilla de la puerta
para abrirla, andar sorteando obstáculos, etc.). Sin embargo no es capaz de discriminar o identificar la
información cuando se le pide que la describa.

Estos casos, como el de DF y los de ataxia óptica, muestran las características de una doble
disociación:

 En DF, las lesiones se centran en la zona ventrolateral de la corteza occipital, con claros
problemas perceptivos, pero con capacidad para utilizar la información visual para controlar
sus acciones, intacta.
 En ataxia óptica, los pacientes con daño en la corteza parietal posterior no muestran
problemas perceptivos cuando tienen que describir los objetos, pero sí para actuar sobre ellos
guiados por la información que perciben.

3.3. La propuesta de Norman

3.3.1. Características de los dos sistemas de Norman

a) Función. El sistema ventral analiza la información para reconocer e


identificar los estímulos; el sistema dorsal lo hace para guiar
visualmente el comportamiento del organismo.
b) Sensibilidad. El sistema ventral es más sensible a las frecuencias espaciales altas y el dorsal,
a las bajas: el ventral está más preparado para procesar los detalles y el dorsal, los aspectos
globales y el movimiento.
c) Memoria. El ventral está relacionado con el sistema de memoria, para llevar a cabo el
reconocimiento; el dorsal no tiene memoria a largo plazo, sino memoria de corta duración que
permita la integración de la información online.
d) Velocidad. El dorsal es más rápido porque recibe proyecciones del sistema magnocelular,
mientras que el ventral las recibe del parvocelular, que es más lento.
e) Consciencia. El ventral está más relacionado con la toma de consciencia que el dorsal, que
parece funcionar con precisión de forma inconsciente.
f) Marco de referencia y métrica. Para reconocer los objetos, el ventral necesita un marco de
referencia alocéntrico. Sin embargo, el dorsal necesita marcos de referencia egocéntricos.
Igualmente, el dorsal necesita información sobre la distancia absoluta, mientras que el ventral
se limita a la distancia relativa.
g) Imput visual. El sistema ventral está especializado en la visión central controlada por la
fóvea. El sistema dorsal está especializado en la visión periférica. Estos aspectos están ligados
a las proyecciones magno y parvo celulares, y difieren en su grado de dependencia para
procesar la profundidad. El sistema dorsal sufre cuando se ve obligado a trabajar sólo con
claves monoculares; no así el sistema ventral.

Hay que tener en cuenta que ambos sistemas llevan a cabo operaciones semejantes, porque operan
con formas, tamaños y distancias. En las personas con visión normal, los dos actúan de forma
20
P. de la Percepción. Cap. 4 UNED 2020-2021 Dolores Latorre
integrada e intercambian la información. Son las situaciones experimentales las que nos permiten
disociar para ver qué información aporta cada cual.

3.3.2. Relación entre los dos sistemas y las teorías perceptivas

La propuesta de Norman es que una teoría de la percepción visual necesita una aproximación dual
que incorpore características diferenciales de ambos sistemas; el problema de las aproximaciones
constructivista y ecológica sería que han tomado la parte por el todo: la primera ha entendido la
percepción como un proceso de construcción, y la segunda como un proceso de extracción directa de
la información. La propuesta de Norman proporciona un marco de unificación de las teorías fuertes.

1. Las claves de profundidad: Para Norman, el sistema ventral y el dorsal son capaces de procesar la
estructura tridimensional del espacio, aunque el ventral lo hace a través de claves monoculares de
naturaleza pictórica y el dorsal por la captación de invariantes y la utilización de claves binoculares
como la estereoscopia. Norman propone que se utilice clave para los indicadores del sistema ventral e
invariante para clasificar a los del dorsal. Las diferencias entre claves e invariantes serían:

a) Son procesadas por distintos centros cerebrales, como la vía ventral y dorsal.
b) La extracción de información invariante está incorporada en la configuración física del sistema
dorsal; las claves son algorítmicas, susceptibles de cambio en el grado de información que
proporcionan.
c) Los invariantes son extraídos directamente, mientras que las claves sirven de base a procesos
de inferencia más o menos conscientes.
d) Los invariantes son innatos y las claves aprendidas.

Apoya su propuesta en muchas observaciones.


Aglioti, De Souza y Goodale demostraron que ante
una estimulación ilusoria llamada ilusión de
Ebbinghaus, los observadores mostraban influencia
de la ilusión si se les pedía que juzgaran el tamaño de
los dos círculos centrales pero no si se les pedía que
cogieran los círculos centrales y se medía la amplitud
de la apertura de los dedos al cogerlos, como si la
ilusión pudiera engañar al ojo pero no a la mano.

2. La percepción del tamaño: El experimento


anterior ilustra que los factores que determinan la
percepción del tamaño pueden ser diferentes según
intervenga en su percepción el sistema ventral o el dorsal. La ilusión de Ebbinghaus es probable que
se deba a procesos de inferencia que consideran diferentes aspectos de la escena visual, como postulan
los constructivistas. El sistema dorsal no se ve afectado por estos factores, y por eso la ilusión falla al
coger los círculos.

Norman ha enfatizado la importancia de la concepción dual para explicar el fenómeno de


sobreconstancia. Un factor importante eran las instrucciones objetivas. Cuanto mayor es la influencia
de los procesos de inferencia, estimación y familiaridad, mayor es la implicación del sistema visual
ventral. Pero bajo instrucciones retinianas, más relacionadas con lo percibido y menos con la
cognición, la estimación del tamaño depende de la información de los invariantes y no se produce
sobreconstancia.

21
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre

Capítulo 5. Percepción del movimiento

Cuando interactuamos con objetos en movimiento, o cambiamos de posición,


movemos alguna parte del cuerpo, etc., podemos percibir ese movimiento. Pero
también aunque no haya desplazamiento físico por parte de los objetos ni del
observador.

¿Cómo se percibe el movimiento en cada circunstancia?

La percepción del movimiento proporciona información crucial sobre la dirección y velocidad de los
objetos del medio. Ward y Enns (2001) señalan otras funciones importantes:

1) Poder seguir la trayectoria de los objetos mediante movimientos oculares.


2) Formar objetos mediante la separación de la figura y el fondo, p. ej., agrupando las partes que
se mueven en una misma dirección y segregando el objeto del fondo inmóvil mediante el
principio de destino común.
3) Extraer de la estructura tridimensional del objeto a partir del patrón de movimiento,
obteniendo diversas perspectivas.
4) Identificar el objeto a partir del movimiento (p. ej., un ave).

Por una razón de adaptación, el sistema visual es extraordinariamente sensible a la percepción del
movimiento; su investigación ha sido una de las áreas que más desarrollo ha alcanzado en la
percepción visual.

1. MOVIMIENTO REAL

Cuando se percibe movimiento como consecuencia del desplazamiento de un objeto o un punto en el


espacio, nos referimos a movimiento real. Muchos desplazamientos de objetos no los podemos
percibir por estar por debajo de nuestro umbral de detección. Por ejemplo, el movimiento de la luna;
únicamente podemos inferir que dichos objetos se han movido.

1.1. Umbrales de detección del movimiento

La investigación clásica utilizaba como estímulos puntos que se desplazaban vertical u


horizontalmente. El umbral de detección del movimiento es la magnitud mínima de distancia (para el
umbral de desplazamiento) o de velocidad (para el umbral de velocidad) que puede detectar un
observador cuando examina un objeto en movimiento continuo. Aubert (1886) utilizó, como estímulos
experimentales, puntos o líneas luminosos que se desplazaban horizontalmente a una velocidad cte.
sobre un fondo que giraba.

Resultados:

 El umbral de detección del movimiento variaba, según se tratara de un movimiento absoluto


(desplazamiento de un punto luminoso sobre un fondo uniforme) o de un movimiento relativo
(desplazamiento sobre un fondo que proporciona puntos de referencia estacionarios: por
ejemplo, líneas inmóviles perpendiculares o paralelas a la trayectoria del punto luminoso;
Figura 5.1).
 El umbral era aprox. 0.03° de ángulo visual/segundo (unos .25 mm/segundo) cuando los
observadores fijaban su vista sobre el objeto que se movía (punto luminoso a 50 cm) y se
proporcionaba un marco de referencia (fondo con textura de líneas inmóviles). Bajo estas
condiciones, el movimiento mínimo que se puede detectar es de .25 mm/segundo.

1
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
 Cuando se eliminaba el marco de referencia y el punto se desplazaba sobre un fondo oscuro, el
umbral aumentaba.
 El efecto del marco de referencia (fondo de líneas) indicaría que el sistema visual es más
sensible al movimiento relativo, que al movimiento absoluto. Este efecto no se produce cuando
la exposición de los estímulos es muy corta (< 4 segundos), y sí cuando los estímulos se
exponen al menos durante 16 segundos. Estos serían los umbrales de movimiento cuando el
observador fija su vista en el objeto que se mueve. En ambos casos el movimiento se capta en
la fóvea, donde la sensibilidad al mismo es máxima.

También se puede percibir movimiento cuando el observador fija la vista en un punto inmóvil y no en
el objeto que se mueve. En este caso el movimiento se capta en zonas de la retina distintas a la fóvea,
en la parafóvea o la periferia visual, donde la sensibilidad al movimiento decrece. El umbral de
detección del movimiento aumenta, y en consecuencia la sensibilidad decrece, a medida que la imagen
se desplaza desde la fóvea hacia la periferia, siendo el umbral de detección mayor en la periferia que
en la fóvea. Cuando el movimiento se capta en la periferia se observan fenómenos paradójicos:

«Paradoja de Aubert-Fleisch». Consiste en la impresión de que un objeto se mueve más lento


cuando se fija la vista en él y es captado en la fóvea, que cuando se fija la vista en un objeto inmóvil y
el objeto en movimiento es percibido en la periferia. Si la sensibilidad al movimiento es máxima en la
fóvea y decrece hacia la parafóvea y la periferia, sería de esperar el resultado contrario, es decir la
percepción de que un objeto se mueve más rápido cuando se fija la vista en él. Lo que se produce en
este caso es una infravaloración de la velocidad.

Demostraciones de efectos paradójicos

Resalte de la percepción del movimiento en la periferia visual

Aunque la sensibilidad al movimiento es mayor en la fóvea, el movimiento captado en la periferia


visual «resalta» más.

Paradoja de Aubert-Fleisch

Frente a una pared extienda un brazo. Cierre los ojos y mueva varias veces el brazo hacia la derecha y
la izquierda a una velocidad moderada. Tras unos minutos, abra los ojos y mire a la pared intentando
determinar la velocidad de la mano y la trayectoria del brazo. A continuación, coja un bolígrafo y
realice los mismos movimientos que antes pero fíjese exclusivamente en el bolígrafo e intente seguirlo
con la vista (fóvea). Advertirá que el movimiento de la mano parece más lento y la trayectoria es más
corta que cuando miraba a la pared (visión periférica).

2
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
2. ILUSIONES DE MOVIMIENTO

2.1. Posefectos de movimiento

Son fenómenos que se producen tras la observación prolongada de un movimiento continuo y


constante, en los que la dirección del movimiento que se percibía inicialmente cambia, y ahora se
percibe en sentido contrario, decayendo su velocidad gradualmente. Ejemplos:

— Ilusión de la cascada: Si se observa una cascada fijando la vista en un


punto durante un minuto o más, y a continuación se dirige la mirada hacia
el paisaje o un objeto inmóvil, se percibe un movimiento en dirección
hacia arriba (contraria a la cascada).

— Posefecto de la espiral o ilusión de la espiral de Plateau: Si se fija la


vista durante un minuto o más, en una espiral que gira (como una peonza)
y después se fija la vista en un objeto inmóvil, el movimiento percibido
inicialmente se percibirá en sentido contrario.

— Movimiento paradójico: Se puede producir observando la lista de créditos de una película mientras
se fija la vista en un objeto sin movimiento del fondo de la pantalla. Si después se cambia la mirada a
un objeto inmóvil se percibe el movimiento hacia abajo (en dirección contraria a los créditos). Se
percibe el posefecto de movimiento, pero no se percibe un cambio en la posición percibida de los
objetos que se mueven.

Los posefectos de movimiento estarían causados por la adaptación de los detectores de movimiento.
Los detectores específicos de una dirección se llegan a adaptar como consecuencia de la exposición a
la estimulación continuada y la sensibilidad decrece. Por tanto, cuando posteriormente se fija la vista
en otro objeto, se pueden activar los detectores específicos de otras direcciones de movimiento, dando
la impresión de que el movimiento es opuesto.

Explicaciones posibles:

 Las células del área VI que responden a una dirección específica de movimiento se adaptan
mejor a esa dirección.
 Los posefectos no se producen cuando hay rivalidad binocular. Las áreas del córtex implicadas
en la percepción del movimiento serían las responsables.

2.2. Movimiento auto-cinético

Consiste en la percepción del desplazamiento lento y continuo de un punto


luminoso estacionario (ausencia total de movimiento), cuando se observa
en total oscuridad durante >2 minutos. El movimiento cambia de
dirección cada 10 segundos aprox. La ilusión no se produce bajo condiciones que permiten observar
que el punto es inmóvil, p. ej., cuando se ilumina parte de la zona donde se encuentra. El efecto
disminuye si se coloca algún objeto cercano, porque proporciona un marco de referencia. Se percibe
con mayor claridad cuando el foco de la luz es de baja intensidad, se observa con un sólo ojo, o existe
fatiga o somnolencia.

2.3. Movimiento inducido

Ilusión de movimiento en un objeto inmóvil, consecuencia de la presencia simultánea de otro objeto


en movimiento, generalmente de mayor tamaño, que circunda al primero. P. ej., la percepción de
desplazamiento en la luna a través de las nubes cuando hay viento.

3
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
Para percibir movimiento inducido es necesaria la presencia de al menos 2 objetos, uno de ellos en
movimiento. La ilusión se produce más fácil cuando los objetos se presentan sobre fondo homogéneo.

Duncker (1929) descubrió este movimiento; presentó como estímulo un punto luminoso rodeado por
un rectángulo luminoso sobre fondo homogéneo, en una habitación oscura. Si el rectángulo se
desplazaba en una dirección, el punto se percibía desplazándose hacia el otro lado.

Procedimientos para inducir movimiento:

 Se presentan en el campo visual dos puntos, uno en reposo y otro en movimiento. Según
Duncker, se percibe movimiento en los dos puntos únicamente cuando el movimiento real del
punto que se desplaza está por encima del umbral (no es demasiado lento); pero cuando el
movimiento real no se detecta, sólo se percibe el movimiento inducido.
 Ante dos objetos simultáneos en el campo visual, uno mayor que rodea al otro, con
independencia de cuál se desplace y siempre que el movimiento esté cercano o por debajo del
umbral de detección, se percibirá sólo el movimiento del objeto situado en el centro hacia el
exterior. Si el movimiento está por encima del umbral y el objeto en movimiento es el
circundante, se percibirá el movimiento de ambos. El objeto circundante y de mayor tamaño
actúa como marco de referencia para el otro objeto.

Explicaciones:

Según Duncker (1929), la percepción del movimiento inducido se produce como consecuencia del
desplazamiento relativo de los objetos en el campo visual. Si uno de los objetos rodea al otro, tiene
mayor tamaño, etc., actuaría como el fondo sobre el cuál se percibe el movimiento, debido a un
cambio relativo en las posiciones de los dos objetos.

Wallach (1959) afirma que el movimiento inducido podría deberse a que el sistema visual es más
sensible al movimiento relativo entre dos objetos que al movimiento de un único objeto.

Rock (1983) opina que cuando el movimiento relativo entre dos objetos está por encima del umbral, y
el movimiento absoluto de cada objeto está por debajo del umbral (demasiado lento para ser
detectado), el sistema visual asume que el objeto más grande y que rodea al más pequeño está
inmóvil, y asigna el movimiento al pequeño. Esto se apoya en que el movimiento inducido no se
produce cuando:
4
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
a) El movimiento del objeto circundante está por encima del umbral, por lo que se percibe el
movimiento de ambos objetos.
b) Se introduce alguna condición que permite observar el movimiento del objeto circundante (p.
ej., iluminar la habitación); en este caso no se observa movimiento inducido en el objeto más
pequeño, sino únicamente el desplazamiento del objeto circundante.

2.4. Movimiento aparente

En 1912, Wertheimer publicó un artículo sobre el movimiento aparente o estroboscópico, considerado


el inicio de la Psicología de la Gestalt. Tuvo como sujetos experimentales a Kóhler y Koffka y
presentaba como estímulos dos líneas paralelas verticales separadas por una distancia de 1 cm. Se
observaron distintos fenómenos que dependían fundamentalmente del intervalo temporal entre la
presentación de las líneas (Véase Figura 5.3):

 Cuando el intervalo era largo (200 milisegundos o más) se percibía una sucesión de líneas sin
ningún tipo de movimiento (primero una y después la otra).
 Si el intervalo temporal era muy corto (menos de 30 milisegundos), las dos líneas se percibían
simultáneamente. En ninguno de los dos casos se percibía movimiento.
 Cuando el intervalo de presentación entre las 2 líneas era intermedio (30-60 ms.) se observaba
un movimiento parcial, donde la primera línea parecía trasladarse hasta la mitad de la
distancia y la segunda línea parecía recorrer el resto.
 Hacia los 60 ms. Se percibía movimiento.

A este fenómeno de percepción de movimiento en ausencia de desplazamiento se le denominó


movimiento aparente o movimiento óptimo.

Se descubrió el movimiento “Fi” o movimiento puro, que aparece en el intervalo temporal entre
30-200 ms., cuya consecuencia es la percepción de movimiento sin que se viera el objeto que se
movía.

5
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre

2.4.1. Condiciones que determinan la percepción del movimiento aparente

Korte (1915) analizó el movimiento aparente variando la intensidad de los estímulos (I), la distancia
entre estímulos (DEE) y el intervalo temporal entre los mismos (IEE). Sus resultados se conocen
como las «leyes de Korte».

― Si se mantiene constante el intervalo temporal entre estímulos (IEE), la distancia óptima para
obtener movimiento aparente varía directamente con la intensidad de los estímulos; una
mayor distancia requeriría una intensidad mayor y viceversa.
― Si se mantiene constante la distancia entre estímulos (DEE), el valor óptimo del intervalo
temporal entre estímulos (IEE) para que se produzca movimiento aparente varía inversamente
con la intensidad de los estímulos; un mayor IEE requeriría una intensidad menor y viceversa.
― Si se mantiene constante la intensidad de los estímulos (I), el valor óptimo de la distancia
entre estímulos (DEE) varía directamente con el intervalo entre estímulos (IEE); una mayor
distancia requeriría un IEE mayor y viceversa.

Figura 5.4:

 A: disposición estimular en la que simultáneamente se presentan varias luces que se encienden


en los tiempos TI y T2, con una tasa de alternancia adecuada para que se observe movimiento
aparente.
 B: la situación de A se percibe en B, un movimiento en línea recta de izquierda a derecha.
 C: se presentan las posibles trayectorias de movimiento, que además podrían aumentar a
medida que aumenta el número de estímulos.
6
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
Esta situación representa el problema de la correspondencia, que parece que se debe a la adopción,
por parte del sistema visual, de determinadas reglas como la proximidad espacial y temporal entre
estímulos, porque se percibe movimiento entre los que presentan distancias más cortas o entre
trayectorias que requieren menor tiempo.

Ejemplos de movimiento aparente: anuncios luminosos, imágenes de cine, televisión, ordenador.


Percibimos movimiento, pero en realidad se presenta como estímulo
una escena inmóvil que se sustituye por otra. La tasa de cambio en el
cine es de aprox. 24 veces/s, en TV 30 veces/s, y en pantalla de
ordenador 60 veces/s.

2.4.2. Tipos de movimiento aparente

Braddick (1974) diferencia:

 Movimiento de corto alcance. Es el que se percibe en las pantallas (cine, ordenador...).


o Desplazamientos cortos (< .25º de ángulo visual).
o Tasas de alternancia rápidas (20-80 ms).
o Percepción monocular y con anterioridad a la integración de la información que
procede de ambos ojos y al análisis de la forma y color.
o Se estudia mediante la técnica de cinematograma de puntos aleatorios, donde se
colocan puntos al azar en cada escena, manipulando distintas variables, y ver qué
intervalos espacio-temporales dan lugar a la percepción del movimiento.
 Movimiento de largo alcance. Se percibe en los experimentos de la Gestalt y en los
anuncios luminosos.
o Se observa en distancias largas (>20º de ángulo visual).
o Período temporal de alternancia entre estímulos > 200 ms.
o Se da en etapas de procesamiento más tardías.
o Es binocular y requiere la integración de la información de ambos ojos, la formación de
unidades perceptivas y un análisis de la forma y el color.

Pero el análisis del movimiento podría ser más complejo. Es posible que lo que reflejan las diferencias
entre los 2 tipos de movimiento sea a un único proceso, que ante una estimulación diferente da
respuestas diferentes.

Análisis del movimiento según Lu y Sperling (1995, 1996):


Procesamiento abajo-arriba,
- Sistema de 1er orden: su información básica es la luminancia. equivalentes al movimiento de
corto alcance. Se detecta el
- Sistema de 2º orden: su información básica es la textura. movimiento a través de circuitos
simples. Son monoculares,
- Sistema de 3er orden: equivalente al movimiento de largo sensibles y rápidos.
alcance. Es binocular, poco sensible y lento. Es el más versátil
de los 3 sistemas. Analiza cualquier tipo de estimulación. Utiliza procesos abajo-arriba y arriba-abajo.
Interviene la atención.

3. MECANISMOS FISIOLÓGICOS

3.1. Detectores de movimiento

No conocemos con exactitud los mecanismos fisiológicos de la percepción del movimiento. ¿Existen
neuronas especializadas en la detección de la dirección del movimiento? En los años 60, utilizando la
técnica de registros unicelulares, se identificaron neuronas sensibles al movimiento en una

7
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
determinada dirección en los sistemas nerviosos de ranas, palomas, conejos, ardillas, gatos y monos.
La ubicación de estas neuronas es diferente según la escala filogenética. En organismos más inferiores
(p. ej. conejos), aparecen en las células ganglionares de la retina, indicando que el procesamiento sería
fundamentalmente periférico, mientras que en organismos más evolucionados (p. ej. gatos),
únicamente un 1% de células ganglionares son sensibles al movimiento; no se han encontrado
neuronas ganglionares sensibles al movimiento en monos. Indicaría que en los organismos superiores
el movimiento se procesa a un nivel más central.

En los humanos, en estudios psicofísicos sobre posefectos de movimiento de la cascada, se sugiere que
como consecuencia de una exposición continuada a una estimulación, determinadas neuronas llegan a
fatigarse y la fatiga puede sesgar el sistema hacia la dirección opuesta. Se estudió mediante la técnica
de «adaptación selectiva», donde se expone a los sujetos durante un período de tiempo prolongado a
un estímulo en movimiento; por ejemplo, un patrón de líneas que se desplaza en una determinada
dirección. Esto provoca una disminución en la sensibilidad que no se generaliza a otras direcciones o
velocidades distintas. Los datos obtenidos apoyan la existencia de neuronas sensibles al movimiento y
sintonizadas a una dirección y/o velocidad específicas.

En los humanos, los detectores de la dirección del movimiento no son periféricos y se encuentran en el
córtex visual. Mitchell (1975) presentó un estímulo adaptador (movimiento en una determinada
dirección) a los observadores en un sólo ojo y obtuvieron posefecto de movimiento a una dirección
específica. Si los detectores de la dirección del movimiento estaban ubicados en la retina, no debería
producirse transferencia del posefecto de movimiento al ojo que no había sido estimulado. Pero los
resultados mostraron que se producía el posefecto en ambos ojos. Esto indicaría una transferencia del
posefecto entre ambos ojos, por lo que los detectores estarían situados en el córtex visual (donde se
combina la información sensorial). P. ej., la transferencia no se produce en observadores con visión
binocular deficiente, lo que refuerza esta afirmación. Debe haber fusión binocular, ya que cuando cada
ojo observa movimiento en direcciones distintas no se produce el posefecto de movimiento.

3.2. Análisis cortical del movimiento

¿Se produce un análisis cortical del movimiento? Se conoce que la mayoría de las células del área VI
son sensibles al movimiento de barras y bordes. Si son sensibles a una dirección específica, su tasa de
disparo será mayor ante esa dirección. Algunas neuronas responden de forma selectiva no sólo a una
determinada dirección del movimiento sino también a una determinada velocidad.

Las neuronas del área VI parece que sólo responden a un desplazamiento de la imagen en la retina; el
procesamiento más complejo se realiza en las áreas MT y MST del lóbulo temporal (Figura 4.20, tema
4). La evidencia procede de:

 Estudios sobre el efecto de lesiones experimentales producidas en los


primates, donde se produce una lesión experimental inyectando una toxina
que destruye determinados centros nerviosos. Los resultados muestran que
la ejecución en una tarea de detección de la dirección del movimiento se
deteriora sensiblemente cuando se produce una lesión en una pequeña
parte del área MT. Sin embargo, si el estímulo se presentaba en una parte
distinta a la lesionada, la ejecución era normal. La lesión no afectaba a la
ejecución en tareas distintas, como p. ej. la percepción del color.
 Algunos estudios clínicos en humanos procedentes del campo de la Neuropsicología, que
indican cómo las lesiones en esta parte del cerebro dejan intactas la percepción de la forma o el
color pero dificultan o impiden totalmente la percepción del movimiento. Estos pacientes lo
que perciben son instantáneas en las que los objetos cambian bruscamente de posición.

8
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
4. MODELOS DE DETECCIÓN DEL MOVIMIENTO

El mecanismo por el que algunas células del córtex visual responden selectivamente a la dirección del
movimiento es desconocido. Para explicarlo algunos modelos proponen detectores que comparan la
percepción de un estímulo visto en una posición determinada (A) y en un tiempo (ti), con ese mismo
estímulo en una posición distinta (B) y en otro tiempo (t2).

Reichardt (1957) desarrolló el primer modelo sobre la disposición y funcionamiento de las neuronas
sensibles a la dirección y velocidad del movimiento en insectos
(Figura izq.).

Este modelo propone varias unidades neuronales:

a) Neuronas representadas por A y B, son receptores visuales


contiguos, que se comportarían como células corticales simples,
que responden a líneas o bordes con orientación y posición.
b) Neuronas representadas en C, que comparan las señales
que provienen de A y de B.

El supuesto básico es: cuando un estímulo (luz o borde) se


desplaza a lo largo de una serie de receptores contiguos, se
detectará en el primer receptor visual (en este caso A) de la
misma forma que en el segundo (B), pero con una demora
temporal (dt) determinada por la distancia entre los receptores A
y B, y por la velocidad de desplazamiento del objeto. En C, se
comparan las señales neuronales de A y de B, que si llegan al
mismo tiempo, C responderá señalando movimiento del estímulo. Cada sistema (A y B) está
sintonizado a una dirección específica del movimiento. El sistema señalará la presencia de
movimiento hacia la derecha (de A hacia B) porque el movimiento en dirección contraria (de B hacia
A) producirá señales que no llegan al mismo tiempo. Además de la sintonización a una dirección, las
unidades neuronales A y B están sintonizadas a una determinada velocidad. Es decir, la velocidad
puede determinar que las señales procedentes de A y B lleguen o no al mismo tiempo. Cuando el
estímulo presente mayor velocidad, se necesitarán demoras temporales más cortas para sincronizar
las señales. Van Santeen y Sperling (1996) modificaron el modelo de Reichardt para proporcionar una
explicación para la detección del movimiento en humanos.

Adelson y Movshon (1982) propusieron un modelo en dos etapas, para explicar el movimiento en
patrones complejos formados por
enrejados que se desplazan en
direcciones distintas (Figura 5.6).

 Las unidades de la primera etapa


computarían la dirección del movimiento
de cada enrejado componente
(movimiento local).
 Las unidades que actúan en la
segunda etapa combinarían la
información de los enrejados
componentes para extraer la dirección del
patrón compuesto (movimiento global).

9
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
Cuando se presenta este tipo de estímulos, determinadas células del área VI responden a la dirección
de los componentes, al movimiento local, pero no responden a la dirección del patrón compuesto, al
movimiento global; mientras que las células del área MT responden a ambos tipos de movimiento. El
procesamiento en la primera etapa se desarrollaría en el área VI, mientras que en la segunda etapa se
llevaría a cabo en el área MT.

5. PERCEPCIÓN DE ACONTECIMIENTOS

En estos estudios se analizan los cambios percibidos en la estructura del estímulo a través del tiempo.

5.1. Percepción de la causalidad

Michotte (1946) fue pionero en sus trabajos sobre percepción de la causalidad, centrándose en
examinar las condiciones que determinan que un acontecimiento se perciba como causa de otro. P. ej.,
el movimiento de las bolas de billar: cuando una bola golpea a otra y la segunda se mueve, se percibe
que el movimiento de la primera bola es la causa del desplazamiento de la segunda. Lo mismo ocurre
con la percepción de acontecimientos.

Michotte plantea que se puede percibir la conexión causal entre determinados acontecimientos sin
recurrir a experiencias previas, y es necesario que se cumplan estas condiciones:

a) La presencia de dos objetos A y B.


b) Que el movimiento de uno de los objetos se perciba primero.
c) Que el impacto del objeto A sobre el objeto B se perciba en la fóvea (fijar la vista en B).
d) Que no existan discontinuidades pronunciadas entre tiempo, espacio y dirección del
movimiento.

Las condiciones límite para percibir la causalidad serían:

a) Cuando el tiempo transcurrido entre el impacto de A sobre B y el comienzo del movimiento de


B es menor que 100 milisegundos.
b) Cuando A no alcanza completamente a B sino que quedan separados por una distancia
mínima.
c) Cuando la dirección del movimiento de B es algo diferente de la del movimiento de A. Si estas
discontinuidades se acentúan no se percibe causalidad.

Michotte utilizó unos cuadraditos observados a través de la ranura de una pantalla. Identificó 3 tipos
de efecto (Figura 5.7).

Figura:

1.- Efecto de lanzamiento: A y B inmóviles;


A hacia B; colisión A-B; parada de A y
movimiento de B. Para que se perciba se
requiere que:

 La dirección de B sea aprox. igual a


la de A.
 La velocidad de B sea aprox. igual a
la de A.

2.- Efecto de arrastre: desplazamiento A-B;


colisión A-B; desplazamiento A-B (unidos).

10
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
Para que se perciba:

 Se ha de percibir el movimiento de A.
 Se ha de percibir el movimiento conjunto A-B.

3.- Efecto de disparo: la velocidad de B, tras la colisión, es superior a la de A. La “impresión” es que B


sale disparado por la colisión con A.

En estudios posteriores se constatan diferencias individuales, por lo que la percepción de la


causalidad podría estar influida por experiencias anteriores del observador.

5.2. Movimiento biológico

Johansson (1976) diseñó un procedimiento para estudiar el movimiento del


cuerpo humano, que consistió en vestir a unos actores completamente de negro
y colocar unos discos luminosos en sus articulaciones (hombros, codos,
muñecas, caderas, ingles, rodillas, tobillos).

https://youtu.be/1F5ICP9SYLU

El/los actor/es permanecían inmóviles o realizaban movimientos (correr, andar, flexiones, baile, etc.)
en una habitación oscura. Los movimientos se filmaron en una película y los observadores debían
distinguir los movimientos a partir de los focos.

― Resultados: los observadores distinguían perfectamente los movimientos, pero no podían


distinguir la forma (cuerpo humano) cuando el actor permanecía inmóvil en cualquier postura,
donde se percibían un conjunto de luces colocadas más o menos al azar sobre un fondo oscuro.

Runeson y Fryckholm (1981) analizaron la estimación de levantamiento de pesos a partir de los


movimientos de los actores. Se observaba una secuencia de conductas en la que los actores simulaban
levantamiento de pesos o lanzaban sacos de arena, con la técnica de Johansson. Los observadores
estimaban el peso.

― Resultados: se obtuvo un índice fiable de la estimación del peso.

La evidencia sobre la percepción del movimiento biológico procede de estudios posteriores utilizando
técnicas similares que han permitido la identificación del sexo del actor en función de la forma de
caminar. Los bebés de cuatro meses son capaces de percibir el movimiento biológico.

Estudios recientes han identificado neuronas selectivas al movimiento biológico en monos y un


aumento en la actividad del surco temporal en humanos ante la observación de estímulos similares a
los descritos en la percepción del movimiento biológico.

5.3. Movimiento propio y flujo óptico

En la teoría de la percepción directa de Gibson (1966, 1979), lo importante en la percepción es


descubrir las estructuras de información presentes en el medio ambiente. En su opinión, si se conoce
bien la información real que pueden usar los observadores, los modelos de procesamiento de la
información resultan innecesarios. Un supuesto básico de la teoría de la percepción directa es que el
factor determinante en la percepción es la interacción directa del observador y el objeto, por lo que
cualquier discusión sobre atributos, transformación de la estimulación o codificación sensorial, carece
de sentido. El modelo de Gibson es un intento por determinar la forma en que la luz reflejada en los
objetos físicos transmite información acerca del medio ambiente.

11
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
El estímulo para Gibson es la conformación óptica: conjunto de rayos de luz que incide sobre el
observador en un punto de observación determinado. Considera que en la generación del percepto el
factor ―casi― determinante es el estímulo. Por ello, en la teoría de la percepción directa, el
observador atiende a la conformación óptica pero no le otorga significado, ya que viene determinado
por el estímulo. La conformación óptica, contiene información invariante sobre los cambios de
intensidad de luz, delimitando contornos o bordes. Los invariantes consisten en características
relativamente permanentes de la situación a pesar de los movimientos del observador.

El movimiento del sujeto cambian el punto de vista y, por tanto, la conformación óptica, como
consecuencia del movimiento (ojos, cabeza...); es lo que se llama flujo óptico (Capítulo 4) que
proporciona información acerca de la naturaleza del movimiento:

 Sobre la distancia o perspectiva del movimiento. Permite el control visual de la


 Sobre el movimiento propio. locomoción, la postura y la dirección,
la evitación de obstáculos, etc.

Figura 5.9: ejemplo de la situación más simple de flujo óptico, donde el observador fija la vista en el
punto de fijación (objeto) y se desplaza para aproximarse o retroceder.

 Aproximación: el patrón estimular característico es el que se representa en A, donde las flechas


representan un patrón de flujo óptico de expansión a medida que el observador se acerca.
 Retroceso: en B se presenta un ejemplo de patrón de flujo óptico de contracción.

Patrones mucho más complejos se generarían si el observador mueve los ojos o la cabeza al mismo
tiempo que se desplaza.

Según Gibson, la dirección del movimiento vendría indicada por el foco de expansión óptica, que se
sitúa en el centro del patrón de flujo, y que puede aportar información acerca de la distancia del
objeto. Debido a la expansión, cuando nos dirigimos hacia un lugar a una velocidad constante, el
tamaño de la imagen retiniana del objeto aumenta rápidamente, para poder determinar el «tiempo de
impacto» y evitar colisiones.

Durante la II G. M., Gibson diseñaba pruebas para pilotos, y se pudo descubrir el patrón de flujo
óptico. Observó que cuando una película filmada desde la cabina al aterrizar, se proyectaba después
en una pantalla, se producía una deformación sistemática de la imagen del suelo. Pero cuando
presentó la película a observadores ajenos a la investigación, indicaban que no observaban ninguna
deformación, sino que percibían su propio movimiento en una dirección determinada.

12
Psicología de la Percepción. Cap. 5 UNED 2020-2021 Dolores Latorre
Warren, Morris y Kalish (1988) presentaron a los observadores unas películas donde, mediante
puntos que se desplazaban en el espacio, se simulaban distintos patrones de flujo óptico que se
generarían al caminar. El observador debía proporcionar un juicio de dirección (dcha. o izq.) con
respecto a un objetivo de la línea del horizonte.

― Resultados: los observadores fueron muy precisos en sus respuestas, incluso cuando los
patrones de flujo estaban formados por muy pocos puntos; indicaría que el sistema visual
puede determinar la dirección a partir del flujo óptico.

Se ha examinado si los mecanismos de expansión óptica informan de la


aproximación a un objeto o posición determinados. Los pilotos muestran
que los más eficaces al realizar una tarea de simulación de aterrizajes
(menos maniobras y correcciones) eran los que presentaban mayor
sensibilidad a los cambios de tamaño.

Diversos trabajos han aportado otras características sobre la percepción de trayectorias curvas a partir
del flujo óptico:

 La percepción de la dirección es independiente de la posición retiniana (con la excepción de


una ligera ventaja en la fóvea).
 La información efectiva no es el foco de expansión per se sino el patrón de flujo global que lo
define.

En investigaciones sobre mecanismos fisiológicos se indica que las células del área MST responden
ante situaciones estimulares características del flujo óptico, como desplazamientos en el área frontal,
rotaciones, y patrones de expansión y contracción.

13
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre

Capítulo 6. Percepción de la Forma I. Organización perceptiva

Normalmente percibimos un mundo formado por objetos estructurados,


escenas complejas más que rasgos simples. La percepción de objetos del
mundo real constituye un nivel superior a la simple detección de
características en el proceso perceptivo. Es un proceso complejo y de difícil
explicación. La estimulación que incide en los millones de fotorreceptores de
la retina es energía electromagnética, luz reflejada desde los objetos reales del medio ambiente, que
forma una imagen retiniana, una distribución bidimensional (un mosaico) de luz de diferentes
intensidades y longitudes de onda. La información es ambigua y no está organizada.

En la percepción de la forma el objetivo de estudio es comprender los procesos por medio de los
cuales el sistema visual genera la experiencia perceptiva de un objeto a partir de la información
contenida en la imagen retiniana. Los fenómenos de los que se ocupa la percepción de la forma, son el
resultado del proceso perceptivo, e incluyen la experiencia perceptiva y los datos obtenidos mediante
la utilización de tareas experimentales (agrupamiento, segregación de la textura, discriminación de
formas, etc.). La organización perceptiva facilita la extracción de regularidades presentes en los
objetos naturales, permitiendo la segregación y agrupamiento de la estimulación. Los procesos de
detección nos permiten descubrir la presencia de uno o varios objetos. La discriminación nos
permite diferenciar un objeto de otro. Los procesos más complejos, identificación y
reconocimiento, permiten determinar el objeto en cuestión, e implican la intervención de otros
procesos psicológicos como la representación en la memoria de una imagen determinada.

Estos procesos están jerarquizados en cuanto a su funcionamiento y al grado de información


estimular que requieren. Los más complejos requieren la intervención de los más simples e
información estimular más precisa.

1. ORGANIZACIÓN PERCEPTIVA

Definiciones de organización perceptiva:

 Teoría de la Gestalt: conjunto de factores o condiciones que permiten la constitución del


objeto percibido.
 Pomerantz y Kubovy (1986): proceso que permite la percepción de determinadas relaciones
entre elementos estimulares discretos e inconexos y que a la vez determina su interpretación.
 Palmer (1999): estructuración de los elementos de la información visual en unidades
perceptivas más amplias, como los objetos y las relaciones entre los mismos.
 Sekuler y Blake (1994): proceso que permite extraer regularidades presentes en los objetos
naturales, que el sistema visual utiliza para organizar la estimulación ambigua.
 Desde una perspectiva amplia, se trata de un conjunto de procesos necesarios para extraer
regularidades de la imagen y representarlas en un formato útil para procesos posteriores como
los implicados en el reconocimiento del objeto.

Las posturas teóricas se preguntan:

 ¿Cómo se segregan las unidades estimulares para dar lugar a la percepción de objetos?
 ¿Cómo se agrupan los elementos estimulares, discretos e inconexos, para dar lugar a unidades
perceptivas más amplias como objetos o superficies?

1
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
1.1. Principios de organización perceptiva

La Gestalt describe la forma en que se llevan a cabo 2 mecanismos básicos de la organización


perceptiva:

1.1.1. Principios de segregación de la figura y el fondo

Segregación de objetos: Percepción de una figura que se destaca sobre un fondo; organización
perceptiva más elemental. Descubierta por Rubin en 1915 a partir de figuras reversibles.

En la figura a la izq. se observa una región


blanca y otra negra, delimitadas por un
contorno. Se percibe mejor como figura
cuando el tamaño es
más pequeño (A).

El dibujo de Shepard (1990) a la derecha: se percibe al mismo tiempo el


candelabro y el rostro de frente pero no se puede percibir al mismo tiempo la
palmatoria y los dos rostros de perfil, que pueden actuar de figura o fondo
dependiendo de que el sistema visual asigne una u otra región, igual que en la
figura anterior.

En las obras de Escher se alterna la percepción de figuras (reversibles):

Rubin desarrolló una serie de descripciones sobre las características diferenciales de la figura y el
fondo:

a) La figura tiene carácter de objeto, el fondo no.


b) La figura tiene forma, el fondo no. La forma procede del contorno que la delimita.
c) La figura tiene color de superficie mientras que el fondo es menos denso.
d) La figura está localizada frente al fondo.
e) Resulta más fácil discriminar figuras entre sí que fondos.
f) La figura se conecta más fácilmente a significados que el fondo.

Rubin y otros investigadores, establecieron las condiciones estimulares que permiten predecir qué
partes del campo visual se percibirán como figura o como fondo («principios de organización de la
figura y el fondo» de la Gestalt).

2
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre

En la figura a la dcha., tenderán a percibirse como


figura las áreas envueltas (A), simétricas (B), convexas
(C), las orientadas vertical-horizontal, un menor
tamaño relativo y mayor contraste con el contorno
global (partes más oscuras de D, E y F). Tenderán a
percibirse como fondo las áreas envolventes,
asimétricas, cóncavas, las que presenten orientación
oblicua, un tamaño relativo mayor y un menor
contraste con el contorno global.

Cuadro 6.1. Principios de organización figura-fondo

Áreas envolventes Tenderán a percibirse como fondo.


Áreas envueltas Tenderán a percibirse como figura.
Áreas convexas Tenderán a percibirse como figuras.
Áreas cóncavas Poca/menor probabilidad de percibirse como figuras.
Orientación vertical-horizontal Se perciben como figuras.
Orientación oblicua Poca/menor probabilidad de percibirse como figuras.
Tamaño Las de menor tamaño tenderán a percibirse como figura con prioridad
a las de mayor tamaño.
Contraste Las áreas con mayor contraste con el contorno global se percibirán
más fácilmente como figuras (que las que presentan menos
contraste).

1.1.2. Principios del agrupamiento perceptivo

Wertheimer (1925) advirtió que, a igualdad de otras circunstancias, los elementos estimulares
discretos e inconexos, cuando se presentan simultáneamente, tienden a percibirse como patrones o
unidades perceptivas más amplios o distintos, en función de determinadas propiedades.

<- Figura 6.4: en la parte superior la organización


percibida es ambigua, porque puede percibirse un
cuadrado formado por puntos o distintas organizaciones
alternativas: filas, columnas o diagonales de puntos. Sin
embargo, los elementos estimulares discretos se pueden
agrupar en función de una serie de principios (Ver Cuadro
6.2). Aquí los elementos se agrupan por semejanza en color
(A), tamaño (B) y forma (C). En D los elementos se
agrupan por proximidad. En E se ve un ej. de
agrupamiento por buena continuidad. En F se ven ejemplos
de los principios de cierre y destino común (las flechas
indican el movimiento de los puntos). En G se presentan
ejemplos de principios de agrupamiento extrínseco.

Palmer (1992) ha sugerido unos principios de agrupamiento


perceptivo:

 Principios de agrupamiento intrínseco, en los que se


encuadrarían los principios clásicos de la Gestalt: los elementos estimulares discretos se
agrupan en unidades perceptivas más amplias o distintas en función de su proximidad,
3
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
semejanza en color, forma, tamaño, etc. Se forman agregados perceptivos en los que los
elementos estimulares se perciben con una relativa independencia
 Principios de agrupamiento extrínseco, donde los elementos estimulares discretos se agrupan
y forman unidades perceptivas distintas en función de la actuación de elementos externos
añadidos al estímulo inicial. Se percibe un objeto más cohesionado que en el agrupamiento
intrínseco.

Por ejemplo, el hecho de encerrar los elementos estimulares discretos en una figura geométrica, puede
determinar que se agrupen (principio de región común), o, el hecho de que se conecten los distintos
elementos, puede producir que se perciban como una unidad (principio de conexión o cohesión de
elementos) (Figura 6.4).

Cuadro 6.2. Principios de agrupamiento perceptivo

Proximidad Los elementos más próximos tienden a agruparse entre sí (unidades perceptivas).
Semejanza Los elementos más semejantes tienden a agruparse entre sí (forma, color, tamaño,
orientación...).
Cierre Las formas cerradas tienden a percibirse con preferencia a las abiertas.
Buena continuación Se tiende a percibir cambios suaves en la estimulación con buena preferencia a
cambios pronunciados.
Destino común Los elementos que presentan una misma pauta de movimiento se percibirán como
formando una misma unidad perceptiva.

1.1.3. Limitaciones de la Teoría de la Gestalt

 Los principios de organización perceptiva formulados por los


gestaltistas han sido considerados vagos e imprecisos:
o Los principios no se aplican siempre de la misma forma ante
los mismos fenómenos. Por ejemplo, en las figuras
reversibles o ambiguas, dirigir la atención hacia una parte
determinada puede hacer que se inviertan las relaciones
entre la figura y el fondo.
o Se pueden aplicar principios de organización perceptiva que
presentan una contraposición teórica a un mismo patrón
estimular. Por ejemplo, los principios de simetría y convexidad, que intervienen en la
segregación de la figura y el fondo, entran en conflicto, prevaleciendo generalmente el
principio de convexidad, lo que iría en contra del principio teórico de la Gestalt según
el cual se percibirá la organización más simple.
 Los principios son meramente descriptivos y no se ha desarrollado una teoría que proporcione
una explicación sobre los mismos. La escasa experimentación y la metodología se han basado
fundamentalmente en demostraciones fenomenológicas, lo que presenta el inconveniente de
que, al estar basado en una impresión subjetiva, no permite determinar objetivamente el que
una respuesta sea o no correcta, ni obtener datos numéricos que permitan contrastar las
teorías.

Sin embargo:

 Algunos autores consideran las demostraciones de la Gestalt como auténticos experimentos.


Según Rock, la manipulación en los estímulos puede considerarse como una variable
independiente, mientras que la variable dependiente consistiría en el percepto que se obtiene.
 Se han desarrollado métodos de cuantificación (cuantitativos) en el estudio del agrupamiento.

4
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre

2. DESARROLLOS POSTERIORES EN EL ESTUDIO DE LA ORGANIZACIÓN


PERCEPTIVA

2.1. Investigaciones sobre la segregación de la figura y el fondo

Se han centrado en el análisis de los mecanismos que diferencian a la figura y el fondo, basándose en
el procesamiento de la información.

2.1.1. Componentes de frecuencia espacial y segregación de la figura y el fondo

Diferenciación funcional en la percepción de la figura y el fondo: Julesz (1978) sugirió mecanismos


diferentes de procesamiento para la figura y el fondo. Partiendo de la Gestalt, que afirma que la figura
está más articulada y tiene carácter de objeto, mientras que el fondo no, y de la predicción de que la
región del campo visual que presenta más detalles se percibe como figura, propuso que:

 El procesamiento de la figura se caracterizaría por un análisis de los detalles de la imagen.


 El procesamiento del fondo se caracterizaría por un análisis de estructuras más globales.

Actualmente conocemos que la zona espectral que contiene frecuencias espaciales altas contiene
información sobre los detalles de la imagen (grano fino) mientras que la zona espectral que contiene
frecuencias espaciales bajas lleva información sobre aspectos globales de la imagen (grano grueso).

Existe una asociación entre los componentes de frecuencia espacial de las imágenes y la percepción de
la figura y el fondo. Wong y Weisstein (1983) presentaban líneas nítidas (grano fino) y borrosas (grano
grueso) en las dos regiones de una figura reversible (la copa y las caras de Rubin). Los sujetos
detectaban líneas nítidas o borrosas cuando se presentaban en el contexto de la figura o en el del
fondo.

Figura 6.5:

 Izquierda: se presenta la región del campo visual (A, B o C), en la que se presentaba la línea a
detectar. Cuando se presentaba en A, la copa era la figura, cuando se presentaba en B y C, las
caras eran la figura. Las líneas nítidas, que presentarían componentes de alta frecuencia
espacial, se detectaban mejor en el contexto de una figura que en el de un fondo. Cuando la
línea era borrosa se detectaba mejor en el contexto de un fondo.
 Derecha: Klymenko y Weisstein (1986) utilizaron también figuras reversibles, pero rellenando
las regiones correspondientes a la figura y el fondo con enrejados sinusoidales de distinta
frecuencia espacial. Registraron el número de veces que cada región se percibía como figura y
como fondo en función de que se hubiera rellenado el espacio con enrejados de altas o bajas
frecuencias espaciales. Resultados: la región rellena con enrejados de alta frecuencia espacial
(las caras) se percibían como figura un mayor número de veces

Los resultados apoyan que el análisis de la figura se caracterizaría por una inspección detallada de las
áreas más pequeñas del campo visual, y la información relevante en este caso serían los detalles y los
5
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
contornos. El análisis del fondo sería responsable de la extracción de la información global del campo
visual.

2.1.2. Asignación unilateral de bordes

Driver y Baylis (1996), intentaron determinar el papel de la asignación de bordes a la región de la


figura o a la del fondo. Proponen que los bordes que dividen regiones adyacentes del campo visual se
asignan unilateralmente.

Figura 6.6 (prueba de Driver y Baylis):

Un borde (línea quebrada entre la zona


clara y oscura) divide la zona delimitada
por el rectángulo en dos partes, una más
pequeña y oscura y una más grande y
clara. El borde se puede asignar a
cualquiera de las dos regiones del estímulo,
la figura o el fondo, y una vez asignado se
denomina contorno que delimita la figura,
o contorno que delimita el fondo. De
acuerdo con la Gestalt, el tamaño relativo y
el contraste determinarían que la parte
más pequeña y con mayor contraste tienda
a percibirse como figura y la parte más
grande y con menor contraste como fondo.
Por lo tanto, en los estímulos (A) y (B), la parte más pequeña y oscura se percibiría como figura y la
parte más grande y clara se percibiría como fondo.

En los experimentos hechos con estas figuras se presentaba un estímulo similar a (A) y (B) ―estímulo
previo―, y una vez desaparecía se presentaba inmediatamente uno de los estímulos de comparación
(C, D, E, o F). Los observadores comparaban si los bordes (línea quebrada) del estímulo previo y de
comparación, eran iguales o diferentes. Se predijo que la atención selectiva a la línea quebrada
resultaría imposible, dado que siempre se percibiría una figura delimitada por un contorno, en lugar
de un borde aislado. También se predijo que los observadores rendirían mejor en la tarea de
comparación cuando los estímulos de comparación correspondieran a las figuras que cuando
correspondieran a fondos. Según esta hipótesis, el borde se asigna a un único lado y, de acuerdo con la
manipulación realizada sobre el estímulo previo, la parte más pequeña se percibiría como figura desde
el principio, por lo que sería más fácil reconocer el contorno en la tarea de comparación.

Esta predicción sólo podría mantenerse en el caso de que los observadores no atendieran
exclusivamente a la línea quebrada. Porque si lo hiciesen así, la ejecución en la tarea sería igual en los
dos casos, puesto que la ventaja de asignar el borde a la figura cuando se presenta el ensayo previo
desaparecería.

Resultados:

 Los observadores asignaron el borde a un único lado del campo visual, el correspondiente a la
figura.
 Los sujetos rendían mejor (empleaban menos tiempo y cometían menos errores) cuando
juzgaban si el contorno de la figura era igual al de comparación, que cuando juzgaban si el
contorno correspondiente al fondo y el de comparación eran iguales.

6
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
Esto confirmó la hipótesis de asignación unilateral de bordes. Los autores concluyeron que la
asignación de los bordes que dividen la figura y el fondo es unilateral y espontánea y no depende de la
atención.

2.1.3. Influencia de los procesos de reconocimiento en la segregación de la figura y el


fondo

Parece obvio que, para reconocer un objeto, es necesario segregar ese objeto del fondo o de otros
objetos, y luego compararlo con una representación en la memoria. Esto fue cuestionado por Lowe
(1987) a través de las investigaciones de Peterson.

Peterson, Harvey y Weidenbacher (1991) presentaron estímulos reversibles: un rectángulo que


contenía una parte central negra rodeada por unas partes laterales blancas. Los sujetos tenían que
observar los estímulos durante un tiempo e informar cada vez que se produjera una inversión, es
decir, siempre que la región del campo visual cambiara a fondo o viceversa. En una serie de ensayos se
proporcionaban instrucciones para intentar ver la parte central como figura, en otra serie para que
intentaran ver las partes laterales como figura.

Resultados: los observadores percibían la parte central como figura un mayor número de veces.

En otra serie de ensayos, en los estímulos las dos partes estaban igualadas en los factores que
determinan la formación de la figura como área, tamaño relativo, etc., pero las zonas correspondientes
a la figura (parte oscura del estímulo) y al fondo (partes laterales blancas del estímulo) en ocasiones
parecían un objeto familiar y en otras no (Figura 6.7)

Resultados: las zonas familiares se percibían con mayor frecuencia como figura. Al invertirla ya no
podían ser reconocidos los objetos como familiares. Los autores lo interpretaron como una evidencia a
favor de que el procesamiento de objetos familiares puede comenzar con anterioridad a que se haya
completado la segregación de la figura e influir en ésta.

Estos autores propusieron que los procesos de reconocimiento que contribuyen a la segregación de la
figura y el fondo actuarían sobre los bordes que dividen el campo visual, y no sobre los contornos ya
asignados a la figura o el fondo. Una vez detectados los bordes, los procesos de reconocimiento
actuarían sobre las zonas situadas a ambos lados de los mismos influyendo en la segregación de la
figura y el fondo. El modelo no supone que el proceso completo de reconocimiento de la figura se

7
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
complete con anterioridad a la segregación de la figura y el fondo, sino que algunos procesos de
reconocimiento actúan en paralelo al proceso de segregación de las dos partes del campo visual. Lo
que es compatible con las teorías del reconocimiento basadas en la detección de bordes.

2.2. Investigaciones sobre agrupamiento perceptivo

Se iniciaron en la década de los 50.

2.2.1. Agregados perceptivos y configuraciones

 Agregados perceptivos. Unidades perceptivas formadas en base al agrupamiento de


elementos discretos e inconexos que presentan una propiedad común.
 Configuraciones. Unidades perceptivas distintas a los elementos de que están formadas y en
la que se percibe la relación entre las partes.

De estas relaciones surgen propiedades emergentes distintas a los elementos componentes y que no se
pueden explicar en base a los mismos.

En la parte superior de la Figura 6.8 se


observan elementos estimulares
discretos:

 En A se presenta un ejemplo de
agregados perceptivos que se agrupan
por proximidad.
 En B, se presentan ejemplos de
configuraciones.

El agrupamiento de los elementos


discretos da lugar a unidades perceptivas
distintas y diferenciadas. La percepción
de relaciones entre los elementos
discretos da lugar a propiedades
emergentes como la simetría en el
estímulo 4, repetición en 1 y 2, y la
simetría y el cierre en el estímulo 3.

Tipos de propiedades emergentes:

 Relaciones entre los elementos componentes de los estímulos que dan lugar a simetría, cierre,
repetición, reflexión, intersección, y conjunción de elementos.
 Relaciones espaciales entre los contornos, como la intersección de líneas y los extremos de las
mismas.
 Orientación tridimensional de las superficies.
 Claves pictóricas de profundidad.
 Dirección de la iluminación de la escena.
 Percepción de profundidad estereoscópica.

Esta enumeración no agota el número de propiedades emergentes y es posible que en futuras


investigaciones se descubran algunas otras.

8
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
Pomerantz (1981) considera el agrupamiento como una operación efectuada sobre los estímulos. Sus
efectos pueden reflejarse en la ejecución en tareas experimentales, lo que permite obtener una medida
del agrupamiento.

Supuesto general de Pomerantz: cuando en un patrón estimular los elementos componentes se


organizan en una configuración, debería resultar muy difícil ―o imposible― el procesamiento
independiente de los elementos. Se predijo que la atención selectiva sería muy difícil o imposible
cuando los elementos componentes forman una configuración.

Se utilizaron los estímulos de la


Figura 6.8. Los sujetos debían
clasificarlas en dos grupos. Se les
indicaba que atendieran
exclusivamente al elemento
componente que permitía
discriminar un estímulo de otro.
(Cuadro 6.3 y Figura 6.9).

Resultados: los estímulos se


clasificaron más rápidamente en la
condición de control que en la de
atención selectiva. Esto refleja que
la atención selectiva por separado
resultó imposible, ya que de otra
forma los tiempos de clasificación
hubieran sido iguales en las
condiciones de control y atención
selectiva. Indica que los estímulos

se agruparon percibiéndose como un todo.

En un segundo estudio transformaron los estímulos rotando 90° el elemento derecho.

Resultados: el tiempo empleado en las dos condiciones (control y atención selectiva) era similar y, en
consecuencia, los elementos estimulares no se agruparon y se percibían como elementos separados.
Otros autores, como Rock (1986), consideran una interpretación alternativa que los estímulos
presentados en este experimento son agregados perceptivos, y los paréntesis se agrupan por
proximidad y se perciben como una unidad. Lo que indican los resultados es que se puede atender
selectivamente a los elementos estimulares cuando se agrupan formando agregados perceptivos, pero
esto no es posible cuando los elementos estimulares se agrupan formando configuraciones.

Cuadro 6.3. Condiciones experimentales de Pomeranz y Garner, 1973)

CONDICIÓN DE CONTROL

Tarea en la que en cada ensayo se presenta uno de los 2 estímulos asociado a una respuesta; requiere
discriminación entre estímulos. Ejemplo: Clasificar el estímulo 1 (( en un grupo y el 3 ( ) en otro.

CONDICIÓN DE ATENCIÓN SELECTIVA

Se presenta en cada ensayo uno de los 4 estímulos, cada dos asignados a una respuesta. Requiere
discriminación por pares. Ejemplo: Clasificar 1 (( y 3 ( ) en un grupo y 4 )( y 2 )) en otro. Para realizar
eficazmente la tarea basta con atender al paréntesis de la izquierda porque diferencia a 1 y 3, y a 4 y 2.

9
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
2.2.2. Cuantificación del agrupamiento perceptivo

Kubovy y Wagemans (1995) determinaron cuantitativamente la potencia de distintos tipos de


agrupamiento midiendo la probabilidad de respuesta a estímulos que presentaban organizaciones
ambiguas (Figura 6.10.A). Los elementos estimulares (puntos) se pueden agrupar y, como
consecuencia, se percibirían líneas que presentan distinta orientación. Los sujetos realizaron una
tarea de elección forzosa en la que observaban cada uno de los estímulos ambiguos durante 300
milisegundos, y a continuación elegían una de las cuatro posibles respuestas. Esto permitía calcular la
probabilidad de percibir cada tipo de agrupamiento.

Beck y Palmer (2002), para medir el


agolpamiento presentaron una fila
de elementos distintos, por ejemplo
círculos y cuadrados, que se alternan
con la excepción de uno que se repite
para inducir agrupamiento (Figura
6.10.B). Los observadores debían
identificar el elemento adyacente
que se repite presionando una llave
de respuestas si era un cuadrado, y
otra llave si era un círculo. La
potencia del agrupamiento se
examinó presentando tres
condiciones:

 Control, con círculos y


cuadrados situados a la misma
distancia unos de otros
 Dos condiciones
experimentales, donde los elementos
estimulares se agrupaban por
proximidad dentro de cada grupo, o
entre grupos (Fig. 6.10.B).

Resultados: el elemento que se repite se identificaba más rápidamente en la condición intragrupo que
en grupos distintos. Se obtuvieron resultados semejantes con semejanza, color, región común y
conexión de elementos.

2.2.3. Teoría computacional de la


visión y agrupamiento perceptivo

David Marr (1976) diseñó un programa de


ordenador con la finalidad de examinar qué
sucede una vez que se ha obtenido la
descripción de características de nivel
inferior. El programa aplicaba los
principios de agrupamiento perceptivo para
identificar las estructuras que se obtenían a
partir de la reunión de determinados
elementos que compartían propiedades
comunes.

10
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
Figura 6.11:

 En A se presenta la imagen de un oso de peluche que constituye la imagen de entrada.


 En B se presentan los niveles de gris de la imagen de entrada.
 En C se muestra una versión abreviada de la descripción de características simples.

El sistema visual detectaría muchas características situadas en posiciones distintas y con una
determinada orientación. Sin embargo persistiría la ambigüedad en el estímulo. El resultado se
presenta en la parte inferior de la figura. Se identifican estructuras perceptivas diferentes en base al
agrupamiento de características que comparten alguna propiedad común.

 En D, la estructura del contorno global del osito presenta un agrupamiento de características


simples basado en el principio de buena continuación.
 En E, la estructura correspondiente a ojos y nariz presenta un agrupamiento de características
en base a los principios de semejanza y proximidad.
 En F, la estructura correspondiente al hocico muestra la actuación del principio de cierre y
reúne las características simples que forman una figura ovalada.

Esto se obtuvo sin un conocimiento previo por parte del programa acerca de las estructuras que estaba
buscando con la aplicación.

Hay imágenes que no permiten la extracción de determinadas estructuras a menos que se le


proporcione información al programa. En la Figura 6.12 el programa no extrajo estructuras diferentes
para las dos hojas situadas en el
recuadro, en la imagen de niveles
de gris, sino que aparecían como
un único objeto. Posiblemente
porque los niveles de gris en esa
zona eran muy homogéneos. Marr
resolvió el
problema «indicándole» al
programa que los segmentos
adyacentes de la imagen
pertenecían a dos objetos
diferentes, y de esta forma, el
programa extrajo las estructuras
representadas en la parte inferior
de la Figura 6.12.

Ginsburg (1986) mantiene que la


percepción visual de la forma se
basa en un procesamiento
espacial y que los principios de organización perceptiva son un resultado del filtrado espacial de las
imágenes estimulares.

Figura 6.13: aplicación de un filtro paso-bajo que elimina la información sobre altas frecuencias en la
parte izquierda, que produce como resultado las imágenes de la derecha.

 La R inicial inmersa en un fondo de ruido se percibe en la derecha como una letra R (principio
de segregación figura-fondo)

11
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
 En B, los cuadrados se organizan en
columnas (principio de proximidad).

2.3. Segregación de la textura

El contorno se delimita en base a diferencias


intensas de color o brillo y define una
segregación en el patrón estimular: la región
correspondiente a la figura y la región
correspondiente al fondo. También se puede
lograr esta segregación en base a las

diferencias en las texturas de los estímulos.

Texturas: patrones visuales formados por


conjuntos de pequeños elementos repetidos y
distribuidos sobre un área, aleatoriamente o en
una posición regular. En la Fig. 6.14,
aparentemente los diferentes grupos de textura
establecen un contorno entre las diferentes
regiones del patrón estimular, lo que es
puramente subjetivo.

2.3.1. Procedimiento experimental

La hipótesis inicial sobre segregación de texturas


establecía que una región del patrón estimular se segregaría más fácil y rápidamente cuando los
elementos locales fueran muy similares y se diferenciaran del resto.

Beck (1966) presentó patrones texturados (Figura 6.15) donde los elementos diferían:

 Sólo en la forma (T vs. L).


 En la forma y la dirección (T vs. L inclinada).
 Únicamente en la orientación (T vs. T inclinada).
 Sólo en la posición horizontal-vertical (T vs. T invertida).

Los observadores debían indicar cuál era la región que se segregaba del resto.

Resultados: el factor fundamental para la segregación de regiones en base a la textura era la diferencia
en orientación o inclinación más que la diferencia en forma.

Estudios posteriores indicaron que la segregación de regiones en base a la textura se produce más fácil
y rápidamente cuando los elementos difieren en orientación, tamaño o luminancia, y menos cuando
difieren únicamente en forma.

12
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
2.3.2. Teorías

Bela Julesz trató de averiguar cuáles eran los atributos de los patrones texturados que permiten
discriminar unas regiones de otras. Propuso la Teoría de los textones, donde sugería que la
segregación rápida y sin esfuerzo (automática) estaba determinada por características locales
fundamentales, denominadas textones, a las que el sistema visual sería especialmente sensible.

Los resultados de investigaciones han permitido acotar los textones a:

a) Los extremos de las líneas.


b) Las intersecciones de líneas.
c) Manchitas alargadas con una longitud, color y orientación determinados.

La segregación inmediata estaría determinada por la diferencia en la naturaleza de los textones y las
diferencias en el número (densidad) de los textones (Figura 6.16). Julesz y Bergen (1983)
desarrollaron un modelo en el que distinguen dos sistemas:

a) Uno preatencional, en el que la información se procesaría en paralelo, rápidamente y sin el


concurso de la atención (procesamiento inicial).

b) Un sistema atencional, etapa de procesamiento más tardío, en que la información se procesa en


serie, lentamente, y requiere atención a determinadas características del patrón estimular.

Textones: elementos básicos o primitivas perceptivas en el sistema preatencional que determina la


segregación inmediata de la textura. El sistema preatencional detectaría diferencias locales en el
número y naturaleza de los textones y se produciría la segregación automática. Los patrones
texturados que presenten propiedades diferentes a las que definen los textones serían ignorados por el
sistema preatencional y se detectarían por medio de un examen detallado del patrón estimular y la
atención a determinadas características del mismo.

Resultados de investigaciones posteriores indican que todos los textones no son igualmente eficaces a
la hora de determinar los límites que permiten la segregación de la textura. Generalmente las
diferencias en color tienen preponderancia sobre las diferencias en forma. Los resultados de Treisman
y Gelade (1980) revelan que la segregación de la textura es automática y sin esfuerzo cuando los
13
Psicología de la Percepción. Cap. 6 UNED 2020-2021 Dolores Latorre
elementos en las regiones de los patrones texturados difieren en una única dimensión (color o forma)
pero no cuando difieren en una combinación de dimensiones, para lo que se requiere más escrutinio
(Figura 6.17).

La teoría de los textones no explica en base a qué procesos se lleva a cabo la segregación. Los
resultados de los trabajos como los de Beck y otros autores apoyarían que, en determinados patrones,
la segregación de la textura estaría determinada por la respuesta de los canales de frecuencia espacial
a las diferentes regiones texturadas del patrón estimular.

14
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre

Capítulo 7. Percepción de la forma II. Detección y discriminación de formas visuales

1. DETECCIÓN DE FORMAS VISUALES

Como procedimiento general en una tarea estándar de detección, se presentan


formas visuales (puntos, figuras geométricas, etc.) bajo condiciones de
degradación, para que resulte difícil, y el observador debe indicar la presencia o
ausencia del objeto. Para incrementar la dificultad, se utilizan procedimientos
de degradación de los estímulos; p. ej., se reduce el tiempo de exposición, se
reduce el contraste, se enmascaran los estímulos o se presentan formas
incompletas. La diferenciación del objeto en el contexto puede realizarse sobre
la base de color, movimiento, forma, profundidad, etc.

1.1. Detección de patrones de puntos

Procedimientos desarrollados por Uttal en los años 70.

1.1.1. Procedimiento de enmascaramiento visual

Consiste en la presentación de estímulos (patrones de puntos) a los que se superpone un patrón de


ruido (puntos aleatorios). Se conoce como «procedimiento de enmascaramiento visual». El
ruido enmascara el estímulo original degradándolo, de manera que la tarea de detección resulta muy
difícil (Figura 7.1).

 Cuando se presenta el patrón sin degradar (A), el estímulo se detecta perfectamente, incluso
cuando la exposición es muy breve.
 Cuando se presenta el patrón degradado (B) es más difícil detectar la línea recta de puntos del
patrón original. El grado de degradación al superponer la máscara depende del número de
elementos de esa máscara.
 Se puede observar cómo el aumento en el número de puntos en el patrón de ruido (C) produce
a su vez un aumento en la dificultad de detección.

Este procedimiento es adecuado para estudiar el efecto de la organización espacial de elementos


discretos (patrón) sobre la percepción de la forma visual, ya que los patrones de puntos pueden
considerarse como no familiares. Los puntos aislados no aportan suficiente información para
determinar la percepción de la forma. A partir de una configuración de puntos organizados se podrá
detectar un patrón.
1
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
Se ha constatado que algunas configuraciones se detectan más fácilmente cuando se mantienen
constantes otros factores, como la densidad de puntos o el espaciamiento entre puntos. Lo importante
es la geometría global.

1.1.2. Factores que afectan a la detectabilidad de las formas visuales

Se han estudiado dos tipos de patrones: líneas y figuras geométricas.

Figura 7.2 (A)

 Número de puntos: Los


resultados indican que las líneas se
detectan mejor cuando el patrón tiene
5 puntos, peor cuando tiene menos, y
sin mejora cuando tiene más de 5.
 Orientación de las líneas: Se
presentan líneas de 7 puntos en 4
orientaciones, vertical, horizontal y
oblicuas (hacia dcha. o izq.). No se
encontraron diferencias en función de
la orientación, por lo que se concluye
que la detección es independiente de la
orientación.
 Tipo de configuración de
puntos (líneas rectas, curvas, etc.): Los
resultados muestran que se detectan
mejor las líneas rectas que las curvas o
ángulos.

Uttal sugiere que los resultados se deben a la actuación de la regla de periodicidad lineal, según la
cual, las líneas rectas formadas por puntos constituyen el estímulo más potente en la detección de
formas visuales, ya que el sistema visual es especialmente sensible a estas.

Figura 7.2 (B)

Partes fundamentales. Se produjo una distorsión en distintas partes de un triángulo mediante la


eliminación de puntos en los lados, ángulos o aleatoriamente, y se examinó en qué condición se
detectaba mejor el triángulo. Los resultados mostraron que la eliminación de puntos en los ángulos
del triángulo empeoraba ligeramente la detección, pero el empeoramiento era más drástico cuando se
eliminaban puntos en los lados. Esto podría deberse a que la distorsión de los lados afecta a la
geometría global del patrón.

Figura 7.2 (C)

Orientación de las figuras. Se utilizaron estímulos similares a los presentados en la Figura 7.2.C. Los
resultados indicaron que la detección es independiente de la orientación.

Figura 7.2 (D)

Organización global del patrón. Afecta directamente a la geometría global. Se detectan mejor las
formas regulares (cuadrados) que las irregulares (paralelogramos); se detectan más fácilmente los
patrones más organizados que los menos organizados.

2
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
1.2. Detección de la simetría

Patrón simétrico: invarianza de una configuración de elementos bajo determinadas


transformaciones.

Simetrías relevantes en el estudio de la percepción:

a) Patrones simétricos generados por medio de la transformación de reflejo o simetría bilateral.


b) Patrones simétricos generados por la transformación de traslación o simetría traslacional.
c) Patrones simétricos generados por cambio en la orientación o simetría rotacional.

1.2.1. Patrones estimulares y


procedimientos experimentales

E. Mach publicó “El análisis de las


sensaciones” (1906), donde encontramos
una descripción de los tipos de simetría.

Figura 7.3:
 En A, el reflejo en espejo genera
simetría bilateral.
 En B, la repetición del objeto
produce simetría traslacional.
 En C, se presenta una orientación
diferente, generando simetría rotacional.

En la parte inferior se presentan los


mismos tipos de simetría (patrón ornamental).

Mach observó que resulta más fácil la detección de la simetría bilateral que la de traslación o rotación.
Julesz (1971) observó que la simetría bilateral se detecta automáticamente, mientras que la simetría
por traslación o rotación requería de un escrutinio.

¿Qué tipo de simetría es más saliente? Diversos estudios utilizan patrones simétricos con elementos
discretos (puntos, líneas...) o figuras geométricas, donde el procedimiento experimental consiste en
presentar los estímulos durante un periodo breve (< 160 ms) y se mide el tiempo empleado en
detectarlos.

― Resultados: la simetría bilateral se detecta más rápidamente que la de rotación o de traslación.


Algunos autores sugieren que ocurre por la posibilidad de comparar las 2 regiones contiguas al
eje de simetría.

Se han utilizado estímulos muy variados:

Fig. 7.4. Diversos estímulos utilizados en


estudios sobre detección de la simetría.

3
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
Procedimientos experimentales utilizados:

 Procedimientos psicofísicos;
o Determinación del umbral de detección de la simetría (tiempo mínimo necesario para
detectar la simetría).
o Tarea de determinación del umbral de contraste (contraste mínimo necesario para
detectar la simetría).
 Tareas de tiempo de reacción; tiempo empleado en la detección.
 Tareas de precisión; porcentaje de detecciones correctas.
 Tareas de discriminación de la orientación; precisión en la detección del eje de simetría.
 Tareas de discriminación de patrones simétricos; donde se degrada el patrón superponiendo
ruido.

1.2.2. Factores que influyen en la detección de la simetría

a) La presentación central o periférica del patrón en el campo visual, es decir, que


coincida o no con el punto de fijación, afecta a la detección de la simetría. Lo
estudios al respecto indican que la influencia de la posición central del patrón
depende del tipo de estímulo:

 Los estímulos simples, como figuras aleatorias (Figura 7.4), contienen frecuencias espaciales
bajas, por lo que la detección de la simetría no se ve afectada por la posición central del patrón.
 Los estímulos complejos, como patrones texturados (Figura 7.4) con frecuencias espaciales
altas, hacen que la detección de la simetría se vea facilitada por la posición central del patrón y
deteriorada a medida que se aleja a posiciones periféricas.

Julesz (1971) sugirió la intervención de dos mecanismos en la detección de la simetría:

 Uno que extraería globalmente las relaciones simétricas del patrón cuando los estímulos
contienen frecuencias espaciales bajas.
 Uno de comparación, punto por punto, de todos los elementos del patrón cuando los estímulos
contienen frecuencias espaciales altas.

b) En el estudio de la detección de patrones simétricos con respecto a que presentan ligeras


distorsiones, se suelen presentar tres tipos de patrones:

 Perfectamente simétricos.
 Con una ligerísima distorsión.
 Patrones aleatorios (no simétricos) que se presentan como distractores.

Los observadores tienen que detectar los simétricos y no simétricos. Los resultados de Barlow y
Reeves (1979) utilizando este procedimiento muestran que el mecanismo de detección de la simetría
es muy potente ya que se pueden detectar distorsiones mínimas. Wagemans y cols. (1992) observaron
el efecto sobre la detección de una distorsión producida por la observación desde un punto de vista no
frontal, (Figura 7.4.F). Los resultados mostraron que el tiempo de reacción aumentaba a medida que
la distorsión era mayor.

c) La detección de la simetría puede ser afectada por el agrupamiento perceptivo de los elementos. Se
han utilizado como estímulos patrones similares a los presentados en la Figura 7.5:

 En la parte superior se presentan 2 patrones simétricos formados por líneas (A y B), y un


patrón simétrico formado por puntos (C).

4
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
 En la parte inferior, se presenta un patrón no simétrico (D) semejante a los anteriores pero con
una distorsión de la simetría desplazando algunos elementos, y un patrón aleatorio no
simétrico (E).
Locher y Wagemans (1993)
utilizaron patrones similares
formados por líneas (vertical,
horizontal y oblicuas) o puntos; en
las figuras formadas por líneas, se
percibiría un patrón simétrico
verticalmente y otro horizontal. Pero
en el patrón formado por puntos, se
percibía agrupamiento sin patrón
orientado, ya que los puntos no
determinan una orientación clara.

El planteamiento era que la


ejecución en la tarea de detección de
la simetría sería mejor en los
patrones de líneas, pero que no habría diferencias entre los patrones agrupados formados por líneas o
por puntos. Los resultados indican que la ejecución en la detección de la simetría se ve facilitada
cuando los elementos estimulares se agrupan espacialmente, con independencia de que sean líneas o
puntos.

d) Orientación del eje de simetría: El primer estudio experimental dedicado a analizar la influencia de
la orientación del eje de simetría sobre la detección de la misma se debe a Goldmeier (1937).
Presentaba a los observadores un patrón estimular con simetría bilateral horizontal y vertical. A
continuación presentaba dos estímulos de prueba, uno con simetría sobre el eje vertical, otro sobre el
eje horizontal. Los observadores indicaban cuál de los dos estímulos se parecía más al primer patrón.
Resultó que los observadores elegían el patrón de prueba con simetría a partir del eje vertical.

En otros experimentos se ha comparado la detección de la simetría bilateral sobre el eje vertical, con
simetría bilateral sobre los ejes horizontal y oblicuo. Palmer y Hemenway (1978) analizaron el efecto
de la presentación de figuras con diversos grados de simetría en varias orientaciones. Los patrones
estimulares diferían en simetría y orientación (Figura 7.6).

Se presentó:
a) Simetría sobre un único
eje (vertical, horizontal u
oblicuo).
b) Simetría doble (sobre dos
ejes).
c) Simetría cuádruple (sobre
cuatro ejes).
d) Figuras casi simétricas.

Se presentaban en orientación:

a) Vertical (0º).
b) Horizontal (90°).
c) Oblicuas (45° y -45°).

El observador presionaba una


5
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
llave de respuesta si el patrón les parecía simétrico y otra si asimétrico. Resultados: la simetría se
detectaba mejor ante una orientación vertical, en segundo lugar en la orientación horizontal y por
último en las orientaciones oblicuas. También se manifestó un claro efecto de los grados de simetría,
detectándose mejor los patrones con mayor grado.

Se han propuesto modelos para explicar los resultados obtenidos. Palmer y Hemenway (1978)
propusieron un proceso en dos etapas:

1. Análisis tosco y selección de un posible eje de simetría sobre el cual se


refleja el patrón.
2. Comparación de las dos mitades del patrón y, con fundamento en esta
comparación, se determinaría si el patrón es o no simétrico.

Jenkins (1983) propuso tres procesos:

1. Detección de si la orientación del patrón es uniforme.


2. Agrupación de los elementos que forman el patrón alrededor del eje, formando de esta manera
una estructura más amplia.
3. Determinación de si la estructura obtenida en el proceso anterior es simétrica.

El problema de estos modelos es que son más bien estrategias, y no tanto teorías que expliquen la
detección de la simetría bilateral.

2. DISCRIMINACIÓN DE FORMAS VISUALES

Consideremos una tarea sencilla de discriminación, la denominada igual-diferente. Se presenta a los


observadores dos objetos y se les pide que indiquen si son iguales o diferentes. Los observadores
tienen que detectar los objetos, realizar una comparación y emitir un juicio.

 Proceso de detección: asegura que se perciban los estímulos.


 Proceso de discriminación: los objetos pueden diferenciarse sobre la base de la presencia de
determinadas propiedades. Además, se requiere que la información se almacene durante un
periodo breve.
 Emisión de un juicio: interviene un proceso de decisión.

2.1. Propiedades componentes y globales de los estímulos

Garner (1974, 1978) desarrolló una teoría descriptiva de las propiedades estimulares en la que
distingue:

 Propiedades componentes. Constituyen los atributos del estímulo:


o Dimensiones. Son aquellas propiedades que se presentan siempre con un nivel
positivo. Los niveles de una dimensión son mutuamente excluyentes porque se dan en
un grado o en otro, que es lo que define la dimensión en un estímulo. En la Figura 7.7,
la dimensión forma presenta dos niveles: círculo y cuadrado. La dimensión tamaño
presenta también dos niveles: grande y pequeño. Un estímulo se define sobre la
presencia de determinados niveles en cada dimensión (cuadrado grande o círculo
pequeño). Los niveles son mutuamente excluyentes.
o Características. Son propiedades componentes que se dan en un único nivel. En la
Figura 7.7 se presenta una línea vertical a la que se le ha añadido la característica (línea
horizontal) en el extremo superior, inferior, o en ambos. Las dimensiones poseen
niveles, mientras que las características no. La eliminación de una dimensión como la

6
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
forma o el tamaño tendría como consecuencia la eliminación del estímulo, mientras
que la eliminación de una característica no.
 Propiedades globales. Se refieren a la figura como un todo y son:
o Todos simples, estímulos en los que se describen todos sus componentes.
o Plantillas, prototipos.
o Propiedades configuracionales, estímulos definidos por las relaciones espaciales entre
las propiedades componentes que da lugar al surgimiento de propiedades emergentes.

Las propiedades componentes y configuracionales están presentes al mismo tiempo en el estímulo. En


la Figura 7.8, a la izquierda hay cuatro líneas con distintas orientaciones, y a la derecha cuatro figuras
generadas a partir de combinaciones de las líneas anteriores. Las líneas que forman las figuras son las
propiedades componentes del estímulo, las relaciones espaciales entre las propiedades componentes
que determinan que las figuras se configuren de una determinada manera son las propiedades
configuracionales.

7
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
El estudio de las propiedades de los estímulos relevantes para determinar su discriminabilidad se ha
centrado principalmente en dos aspectos:

1. El análisis de las interacciones entre las propiedades componentes (dimensiones del estímulo).
2. El examen de qué tipo de propiedades (componentes o configuracionales) domina el proceso
de discriminación.

2.1.1. Relaciones entre dimensiones estimulares

Shepard (1964) advirtió que algunas dimensiones físicas del estímulo se combinan de forma que no es
posible percibirlas por separado; p. ej., la saturación, la claridad y el matiz, que se perciben en un
color único. El cambio en una de estas dimensiones produciría un cambio cualitativo en el estímulo
que daría lugar a una percepción distinta. Otras dimensiones, como la forma y el tamaño, se pueden
percibir como dimensiones separadas. Garner denominó a estas interacciones, integral y separable
respectivamente, y un tercer tipo de interacción, la configuracional, que es cuando las dimensiones
físicas se combinan de forma que se sigue percibiendo la identidad de las dimensiones originales, pero
surgen propiedades cualitativamente diferentes (p. ej., la altura y anchura de un rectángulo se
combinan dando lugar a áreas y formas).

El procedimiento para analizar las relaciones entre distintas dimensiones consiste en comparar la
ejecución en diversas condiciones experimentales. Se presentan subconjuntos de cuatro estímulos
formados por dos dimensiones y los observadores los clasifican.

8
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
Figura 7.9.

 En la parte superior hay cuatro estímulos formados por dos dimensiones: forma y tamaño.
Cada dimensión con dos valores; círculo y cuadrado en la dimensión forma, y grande y
pequeño en la dimensión tamaño.
 Estímulo 1: definido por el nivel círculo de la dimensión forma y el nivel pequeño de la
dimensión tamaño.
 Estímulo 2: definido por los niveles cuadrado y pequeño.
 Estímulo 3: definido por los niveles círculo y grande.
 Estímulo 4: definido por los niveles cuadrado y grande.

El observador ha de clasificar cada estímulo. La variable dependiente es la latencia. Los números


indican el estímulo específico. En A y B, indican el subconjunto o conjunto de estímulos que se
pueden presentar.

 Condición de control: se presentan dos estímulos en cada bloque de ensayos y el observador


debe clasificar cada estímulo. Los estímulos presentados en esta condición varían únicamente
en un nivel de una dimensión, mientras que la otra dimensión permanece constante (línea de
base).
 Condición de variación correlacionada: se presentan dos estímulos en cada bloque de ensayos.
En esta condición las dos dimensiones varían de forma relacionada.
 Condición de variación ortogonal: se presentan los cuatro estímulos en cada bloque de ensayos
y las dos dimensiones varían de forma independiente. Los observadores deben atender
exclusivamente a la dimensión relevante para la discriminación, ignorando la irrelevante. Si la
latencia en esta condición es mayor que en la condición de control o en la de variación
correlacionada, se dice que se ha producido una interferencia de la dimensión irrelevante en el
procesamiento de la dimensión relevante.

Para considerar las dimensiones como integrales o separables, se observan los resultados en estos
experimentos:

 Las dimensiones se consideran separables cuando en las condiciones de control, variación


correlacionada y variación ortogonal, se presentan latencias similares. Esto indicaría que es
posible la atención selectiva a cada una de las dimensiones por separado.
 Las dimensiones se consideran integrales cuando en la condición de variación correlacionada
se presentan latencias más cortas que en la condición de control, y en la condición de control
latencias más cortas que en la de variación ortogonal.

Algunos autores proponen que los estímulos separables se procesarían analíticamente a partir de sus
dimensiones, mientras que los integrales se procesarían como un todo unitario sobre la base de su
semejanza global y sólo posteriormente se analizarían sus dimensiones componentes. Esto implica
que en el primer caso la diferenciación perceptiva entre las dimensiones es posible y en el segundo
caso no.

Aunque hay polémica entre la dicotomía procesamiento global/analítico, algunos autores señalan que
el hecho de que diferentes dimensiones presenten una semejanza, no implica que no se puedan
diferenciar entre sí. En los experimentos de Melara, Marks y Potts, presentando estímulos muy
similares que sólo diferían mínimamente (p. ej., en saturación y brillo), los observadores eran capaces
de identificar la dimensión que había sido cambiada. Por tanto, el que se perciba semejanza entre
dimensiones no excluye que se puedan percibir sus diferencias.

9
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
2.1.2. Contribución de las propiedades componentes y configuracionales en la
discriminación

a) Kímchi (1994) diseñó los estímulos utilizados en la parte superior de la Figura 7.8:
1. En un primer experimento se presentaron las líneas de la parte superior izq., que
difieren en su orientación (vertical, horizontal, oblicuas). La tarea consistía en
discriminar la orientación de las líneas, que se presentaban por pares, de modo que a lo
largo del experimento aparecían todas las posibles combinaciones dos a dos. Los
resultados mostraron que la discriminación entre las orientaciones vertical y horizontal
era más fácil que con orientaciones oblicuas.
2. En un segundo experimento se presentaron los estímulos situados en la parte superior
dcha., generados a partir de la combinación de las líneas de la izquierda, lo que
permitía manipular las propiedades componentes y configuracionales. P. ej., el
cuadrado y el rombo presentan propiedades componentes distintas pero la misma
propiedad configuracional de cierre. Por el contrario, el cuadrado y la cruz presentan
idénticas propiedades componentes y distintas propiedades configuracionales. La tarea
era idéntica a la del experimento anterior. Los resultados mostraron que los estímulos
que mejor se discriminaban eran los que presentaban propiedades configuracionales
distintas, con independencia de que las propiedades componentes fueran iguales o no.
Se discriminaban peor los estímulos que presentaban propiedades configuracionales
iguales.
b) Los efectos de superioridad del objeto y superioridad configuracional son indicativos de la
predominancia de las propiedades globales de los estímulos en la discriminación. Weisstein y
Harris (1974) utilizaron figuras semejantes a las presentadas en la parte intermedia de la
Figura 7.8: líneas en distinta orientación (A) o líneas formando un patrón bidimensional (B) o
un objeto tridimensional (C). Los observadores debían indicar cuál de las dos líneas oblicuas
aparecía en el estímulo presentado en cada ensayo. Los resultados indicaron que las líneas
oblicuas se discriminaban mejor cuando se presentaban en el contexto de un objeto (C) que
cuando se presentaban en un patrón bidimensional (B) o solas (A).

El efecto de superioridad configuracional hace referencia a la mejor ejecución en la discriminación de


líneas y estímulos simples cuando se presentan en un contexto que permite la formación de
configuraciones, que cuando se dan aislados. Pomerantz, Sager y Stoever (1977) utilizaron estímulos
semejantes a los presentados en la parte inferior de la Figura 7.8, donde presentaban 4 estímulos, 3 en
la misma orientación y 1 en distinta orientación. Podían ser líneas solas o en configuraciones. Los
observadores debían indicar la posición del estímulo en distinta orientación, en una de las cuatro
esquinas de la pantalla. Los resultados mostraron que el tiempo de reacción en la tarea de
discriminación era menor cuando las líneas formaban parte de una configuración que cuando se
presentaban solas.

Los resultados sugieren que las propiedades configuracionales de los estímulos son más relevantes
para realizar la discriminación que las propiedades componentes.

2.2. Primacía del procesamiento de la información global y local

2.2.1. Hipótesis de la primacía global

Navon (1977) diseñó estímulos que permitían la independencia de las características globales y
locales, así como el control del relieve y familiaridad de las mismas. Creó patrones jerárquicos, letras
grandes (nivel global) formadas por letras pequeñas (nivel local). Los estímulos eran congruentes
cuando la identidad de las letras grandes y pequeñas era la misma, y eran incongruentes cuando la
identidad de las letras grandes y pequeñas era diferente (Figura 7.10, A).
10
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre

Utilizó dos condiciones de atención:

 Atención selectiva al nivel global, donde los sujetos tenían que atender exclusivamente a las
letras grandes.
 Atención selectiva al nivel local, donde los sujetos tenían que atender únicamente a las letras
pequeñas.

Los resultados revelaron dos efectos:

 Ventaja global, con tiempos de reacción más cortos ante el nivel global que ante el nivel local.
 Interferencia unidireccional, cuando en la situación de incongruencia la identificación del
nivel global no se vio interferida por la presencia de letras locales diferentes, es decir, los
tiempos de reacción a los estímulos congruentes e incongruentes fueron similares. Por el
contrario, la identificación de las letras locales fue interferida por la presencia de letras
globales distintas.

Esto ha sido interpretado por el autor como un apoyo a la hipótesis de primacía global en el
procesamiento de las formas visuales.

2.2.2. Factores que afectan a la primacía del procesamiento

1. Densidad del patrón estimular. Martin (1979), varió la densidad de los elementos locales que
formaban el patrón global, presentando patrones densos (con muchos elementos locales) o poco
densos (con pocos elementos locales). Encontró que cuando el patrón global era denso, se obtenía
primacía global, y cuando el patrón global tenía pocos elementos locales, se producía primacía local.

2. Calidad de la forma. Hoffman (1980) manipuló la calidad de las letras globales y locales
introduciendo una degradación en los estímulos (eliminando algunos trazos de las letras) tanto en las
letras globales como en las locales. Los resultados mostraron primacía global cuando se degradaban
las letras locales, y primacía local cuando se degradaban las letras globales.

3. Tamaño de los estímulos. Kinchla y Wolfe (1979) utilizaron una tarea de atención dividida y
presentaron estímulos de varios tamaños de 4.8° a 22° de ángulo visual. Encontraron:

 Primacía global cuando los tamaños de los estímulos eran pequeños (menos de 7º de ángulo
visual).
11
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
 Ninguna diferencia con estímulos intermedios (7º y 10º de ángulo visual).
 Primacía local cuando los estímulos eran grandes (> 10º de ángulo visual).

Estos resultados sugerirían que el tamaño absoluto de los estímulos desempeña un papel crucial en la
primacía y determina una transición desde una primacía global a una local. Pero en un estudio
posterior, Lamb y Robertson (1990) mostraron que la transición en la primacía en función del tamaño
dependía del contexto (conjunto de tamaños presentados) más que del tamaño absoluto:

 Cuando el conjunto era de tamaños pequeños (de 1.5° a 6o) el cambio de primacía global a
local se producía entre 1.5º y 3º.
 Cuando el conjunto era de tamaños grandes (de 3º a 8º) la transición se producía entre 3º y
6º, por lo que no se podía considerar el tamaño absoluto como determinante del cambio en la
primacía del procesamiento.

4. Posición retiniana de la información global y local. Según Navon y


Norman (1983), estos estudios pueden haber sesgado los resultados. Al
utilizar letras compuestas (H, E y S grandes formadas con pequeñas)
presentadas en el centro de la pantalla, las letras locales de la barra central de
las letras globales caen siempre en la fóvea o cerca, mientras que las letras
globales caen en la parafóvea y se van desplazando hacia la periferia con el aumento del tamaño. La
agudeza visual es máxima en la fóvea y decrece gradualmente al aumentar la excentricidad, por lo que
este tipo de estímulos presentados centralmente ha podido favorecer el procesamiento local.

Ante este problema, Navon y Norman utilizaron una tarea de atención selectiva presentando
estímulos grandes y pequeños en los que la excentricidad de las características globales y locales era
idéntica (Fig.7.10, B; letras C). Sus resultados revelaron ventaja global en las dos condiciones de
tamaño. Pero no se podía conocer a qué se debían las diferencias en los resultados.

Luna y cols. (1995, 1997) presentaron dos tipos de estímulos: con igual excentricidad y con diferente
excentricidad. Los resultados mostraron que el aumento en el tamaño de los estímulos sólo producía
transición hacia la primacía local cuando la excentricidad estaba desigualada (Hs y Ss) pero no cuando
la información global y local se presentaba en la misma posición retiniana (Cs). Esto ocurrió con
patrones densos y con patrones con pocos elementos locales.

5. Duración de la exposición de los estímulos. Paquet y Merikle (1984) presentaron estímulos durante
10, 40 y 100 ms. Los resultados revelaron que se producía interferencia del nivel global sobre el local
únicamente en la duración de la exposición más breve. La variable “duración de la exposición” no
parece afectar a la ventaja global cuando se utilizan valores moderadamente breves. Los resultados
anteriores de Luna y cols., utilizando estímulos con excentricidad controlada, indican que sólo el
efecto de interferencia es afectado por la duración de la exposición: a mayor duración de la exposición,
menor interferencia entre los dos niveles. Aunque estudios posteriores muestran que el efecto de
ventaja puede acentuarse cuando la duración de la exposición es muy breve (10 ms.).

En general, parece que las variables mencionadas afectan a la primacía del procesamiento global
cuando la excentricidad de la información global y local es desigual, y sesga el procesamiento hacia el
nivel local, lo que se reduce si la excentricidad de los dos niveles es la misma.

2.2.3. Origen de la primacía del procesamiento

Hasta la fecha no se ha determinado con claridad el origen de la primacía del procesamiento. Hay
autores que sugieren un origen perceptivo y que la primacía global está mediada por el contenido de
los componentes de frecuencia espacial. Diversos estudios indican que la eliminación de los

12
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
componentes de baja frecuencia espacial (filtrado) elimina o reduce el efecto de primacía global. Sin
embargo, hay resultados que indican una disociación entre los dos efectos de primacía. Tanto en
sujetos normales como en pacientes con lesiones cerebrales, en algunas ocasiones se produce ventaja
global y no interferencia y viceversa, lo que sugiere mecanismos diferentes. La ventaja la determinaría
un mecanismo perceptivo, mientras que la interferencia estaría asociada a un mecanismo atencional.

2.3. Teoría de la integración de características

Esta teoría (TIC) fue desarrollada por A. Treisman y cols. desde los años 80. Tiene sus raíces en el
estructuralismo. El punto de partida es que, aunque fenomenológicamente percibimos un mundo
estructurado en objetos, el proceso de percepción parte del análisis de características simples y
componentes estimulares, es decir, características aisladas, que posteriormente se organizan en
formas. Uno de los supuestos básicos es que las características simples se procesan de forma
automática, mientras que los objetos requieren la focalización de la atención.

2.3.1. Evidencia comportamental

Los autores han tratado de identificar las características funcionales extraídas por el sistema visual.

1. Tarea de búsqueda visual: consiste en detectar un objetivo entre distractores, por ejemplo, un
círculo negro entre círculos blancos. La TIC predice que:

1. Los objetivos que puedan discriminarse de los distractores a


partir de una característica simple, se detectarán
automáticamente sin intervención de la atención.
2. La búsqueda se llevará a cabo en paralelo.
3. La detección no se verá afectada por el número de
distractores.

Cuando el objetivo está definido por una conjunción de


características, p. ej., un círculo negro entre triángulos negros y
círculos blancos (forma y color), la TIC predice que:

1. Será necesaria la intervención de la atención para detectar el objeto.


2. La búsqueda será serial.
3. El número de distractores afectará a la detección del objetivo.

Aquí el objetivo presenta características comunes con los distractores y la discriminación será más
difícil; además, la dificultad en la discriminación aumentará, a medida que aumenta el número de
distractores.

2. Segregación de la textura. En este caso la teoría predice que


cuando dos regiones del campo visual se puedan discriminar en base
a una característica simple su segregación será automática. Por el
contrario, cuando las diferentes texturas estén formadas por
conjunciones de características simples, la segregación de las regiones
texturadas requerirá más escrutinio.

3. Formación de conjunciones ilusorias. Cuando se presta atención a otros objetos presentes en el


campo visual o la atención esta sobrecargada, la TIC predice que:

 La combinación de las características simples para formar un objetivo dará lugar a


conjunciones ilusorias, que son combinaciones erróneas de características simples.

13
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
Treisman y Schmid (1982) presentaban dos dígitos y una serie de letras (X roja, T azul y O verde) en
una tarea de atención dividida. Los sujetos combinaban erróneamente las características de las letras
(por ejemplo, T roja o X verde).

2.3.2. Modelo de percepción del objeto

El supuesto básico en el modelo de Treisman


y cols. es que las características se registran y
codifican en módulos especializados, de
forma automática, en paralelo y sin atención
localizada. Cada módulo consta de mapas de
características para cada dimensión y para
cada valor de la dimensión que codifica.

Supuestos del modelo:

1. Cuando se activa uno de los mapas se


detecta automáticamente la característica.
2. Cuando el objetivo requiere la
localización y unión de características, se
necesita la atención.

La atención selecciona en un «mapa de


localizaciones» los límites de las
características, sin que esto implique la
detección de las mismas, y se recupera de
forma automática la información sobre las activadas y su posición, por medio de conexiones en las
diferentes localizaciones en los módulos. El nivel más elevado representa la recombinación de las
propiedades que se han extraído a partir de cada módulo especializado y que permiten la percepción
de objetos, escenas y eventos.

El modelo explica la mayor parte de la evidencia empírica, pero no con contextos diferentes, y cuando
las características se definen a partir de posefectos visuales, frecuencia espacial con dirección del
contraste y del color, y características espaciales. Además, determinadas combinaciones de
características simples pueden detectarse automáticamente sin la intervención de la atención, sobre
todo cuando presentan grandes diferencias entre sí.

Estudios recientes indican que algunos módulos interactúan. Kubovy, Cohén y Hollier (1999)
examinaron la supuesta independencia de los módulos que procesan las características simples de
forma y color. Desarrollaron la «Detección de la Gestalt», procedimiento en el que se presentaban
como estímulos patrones texturados utilizando un procedimiento de presentaciones visuales rápidas
(Figura 7.13, inferior). En los estímulos, el límite que divide las dos regiones segregadas del patrón
estimular se determina a partir de:

 Color (A).  Relación ortogonal de las


 Forma (B). características en el patrón estimular
 Forma y color (C). (E).
 Conjunción de las características
simples de forma y color (D).

En los dos últimos casos se generaban dos límites distintos: forma y color (Figura 7.13, superior).

14
Psicología de la Percepción. Cap. 7 UNED 2020-2021 Dolores Latorre
Los sujetos debían detectar el límite de
la textura; otras veces localizar si el
límite era horizontal o vertical. Los
resultados mostraron que cuando la
información era consistente (el límite
entre regiones texturadas estaba
definido por color y forma, patrón C),
se detectaba mejor que cuando la
información era inconsistente
(patrones D y E), indicando que los
módulos que procesan el color y la
forma no eran independientes. Por
tanto, uno de los supuestos del modelo
queda en entredicho.

A pesar de estas limitaciones, es


innegable la influencia que ha tenido la
TIC en el desarrollo de la investigación
en atención visual y percepción del
objeto.

15
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre

Capítulo 8. Reconocimiento visual

INTRODUCCIÓN

Nos centraremos aquí en el reconocimiento de objetos y caras. Uttal (1988)


define el reconocimiento como la acción de clasificar, categorizar o
conceptuar un determinado estímulo como miembro de una clase. El
reconocimiento es más complejo que la detección o la discriminación. Para
poder percibir las semejanzas y diferencias entre estímulos, se añade el
requisito de la memoria (recuerdo de una o varias clases de estímulos).
También requiere la asignación de significado al objeto.

¿Cómo es posible que podamos reconocer una gran diversidad de estimulación, cuando la imagen es
bidimensional y estática, es decir, un patrón de luz sobre los órganos sensoriales de la visión? Se
reconocen los objetos sin dificultad y con rapidez, aproximadamente a los 100-200 ms (aunque son
necesarios unos 100 milisegundos más para ser conscientes de ello).

1. RECONOCIMIENTO DE OBJETOS

El mecanismo básico es la comparación de la imagen con una representación almacenada en la


memoria. P. ej., cuando buscamos nuestro coche en un aparcamiento, tendremos que comparar la
imagen que estamos viendo con una representación almacenada en la memoria.

Pero, ¿qué tipo de procesos permiten derivar una descripción adecuada de la imagen? ¿Cómo se
almacenan esas descripciones? ¿Cómo se realiza la comparación?

1.1. Comparación de plantillas

Una propuesta inicial consistía en suponer que para cada carácter alfanumérico debería haber una
plantilla almacenada en la memoria con la cual comparar la imagen correspondiente al nuevo
patrón visual. Cuanto más se ajustara el patrón a esa plantilla, mayor probabilidad de que se
reconociera la imagen (Figura 8.1.). Sería útil para el reconocimiento de patrones cuya forma básica es
relativamente constante, sin demasiadas
variaciones. P. ej., para que los cajeros
automáticos reconozcan talones bancarios
mediante plantillas, las formas básicas de los
números se representan siempre con los mismos
caracteres, tamaño y posición. La comparación
de plantillas no sería útil para reconocer
patrones complejos u objetos naturales.

Los problemas de este procedimiento están


relacionados con su falta de economía. Si tuviéramos
que comparar con una plantilla la forma de la letra P
(Figura 8.2), el proceso sería interminable por la gran
variedad de formas que puede haber de la letra;
necesitaríamos tener almacenadas en la memoria
infinidad de plantillas, y el proceso sería lento y

1
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
costoso. Además, no sería posible cuando los
patrones cambiasen de orientación, tamaño o
posición, o tuvieran alguna deformación.

Una solución sería que las imágenes fueran


sometidas previamente a un proceso de
normalización y se compararan con las
plantillas almacenadas (Figura 8.3), como por
ejemplo complementar la descripción del
objeto con información sobre la distancia y la
orientación. Los resultados de algunos estudios
muestran la eficacia de este procedimiento.

1.2. Análisis de características

El sistema visual dispondría de detectores específicos de características geométricas simples, como


líneas, ángulos, curvas, etc., y el reconocimiento se obtendría mediante la detección de las
características definitorias.

El primer modelo de reconocimiento basado en las características, el denominado «pandemónium»,


fue desarrollado por Selfridge (1959, 1960) y alcanzó reconocimiento por las investigaciones de Hubel
y Wiesel (1962), que mostraron la capacidad de respuesta selectiva por parte de las células del córtex
visual del mono y el gato. En este modelo cada número o letra se representa internamente por una
lista de características locales que definen su forma (líneas verticales, horizontales y oblicuas, ángulos
rectos, curvas, etc.). Cuando se presenta un patrón nuevo se hace una lista de sus características y se
compara en paralelo (todas a la vez) con las listas de características de patrones conocidos en la
memoria. Si se ajusta a alguna característica, se reconoce y se clasifica.

El sistema consta de una serie de mecanismos o «demonios»:

 Los «demonios de la imagen» forman una representación interna del patrón estimular.
 Los «demonios de las características» analizan la imagen y responden cuanto está presente la
característica a la que son sensibles.
 Los «demonios cognitivos» son responsables del reconocimiento de patrones específicos
(letras, números).
 El «demonio de la decisión» proporciona la respuesta final.

Este sistema actúa recogiendo las respuestas anteriores y buscando combinaciones de características
que definen el patrón. Si encuentra características pertinentes, envía su información al «demonio de
la decisión».

Este mecanismo no es aplicable en


muchos casos. P. ej., para reconocer la
letra E tendríamos una lista de
características que respondería a una
línea vertical y tres líneas horizontales. El
problema es que la lista no es suficiente
para facilitar el reconocimiento, porque
con las mismas características se podrían
reconocer otras figuras (Figura 8.4). Por
lo tanto, sería necesario especificar las
relaciones entre las ellas. Una dificultad
2
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
mayor sería definir un patrón complejo, como p. ej., un insecto, lo que resultaría imposible.

1.3. Descripciones estructurales

Incluyen la descripción de las características de un patrón, las relaciones entre las mismas y su
disposición espacial. P. ej., la descripción estructural de la letra E consistiría en la lista de una línea
vertical, cuatro ángulos rectos y tres línea horizontales. Esto permite la comparación de los patrones
nuevos con las representaciones almacenadas.

Sin embargo no garantizaría el reconocimiento del objeto en situaciones en las que se produce un
cambio en la imagen debido al movimiento del sujeto o del objeto (cambios de puntos de vista).

Una propuesta para este problema es la de las descripciones estructurales basadas en el objeto, que
incluye el marco de referencia perceptivo o eje intrínseco. Al especificar la relación de las partes
del objeto con el eje principal, se mantiene la constancia del objeto.

Cuando la relación entre el objeto y el marco de referencia permanece constante, el reconocimiento es


posible a pesar de los cambios en la imagen. Ante un marco de referencia intrínseco o centrado en el
objeto, el reconocimiento pasa a ser independiente de las transformaciones (Figura 8.5).

La excepción a esta regla serían


casos en que existan marcos de
referencia alternativos, donde el
reconocimiento dependerá del que
sea seleccionado (Figura 8.6,
(cuadrados y diamantes).

La utilización de un sistema de
coordenadas espaciales centrado
en el objeto no resuelve todos los
problemas. Este modelo presenta
problemas cuando existe una gran
variedad de objetos pertenecientes
a una misma clase, cuando el
objeto se dobla por alguno de sus ejes, o cuando se
les añade alguna parte.

1.4. Teoría de Marr y Nishihara (1978, 1982)

Es una teoría del reconocimiento basada en ejes de


coordenadas, desarrollado en el contexto de la
Inteligencia Artificial. Intenta explicar cómo se
transforman los patrones estimulares en una
representación simbólica en la que se explicitan
forma, orientación, posición, movimiento, etc., a través de varias etapas en las que se generan:

 Esbozo primario. Procesamiento de bajo nivel que


 Esbozo 2 ½ D. no implica interpretación.
 Modelo 3D.

3
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
Proceso:

 Esbozo primario: Se crea un «esbozo primario», cambios de intensidad que representan


bordes, manchas, barras, y su distribución geométrica (con posiciones y orientaciones).
Llevaría a una representación de estructuras globales (gradientes de densidad, contorno y
textura) denominada «esbozo primario completo».
 Esbozo 2 ½ D: Aporta información sobre la distancia relativa de las partes de la superficie, su
orientación en relación con la línea de visión y la presencia de discontinuidades, siempre desde
el punto de vista del observador. Si se produce un desplazamiento del sujeto o del objeto, la
representación cambia.
 Modelo 3D: Definido a partir de un sistema de coordenadas basado en los ejes naturales del
objeto, lo que permite mantener la descripción del objeto en relación al marco de referencia,
cuando se producen cambios en el punto de vista del que se observa.

Los autores, proponen una organización modular de


las descripciones del objeto (mecanismos de
procesamiento independientes) y una representación del
objeto basada en primitivos volumétricos que se
pueden localizar en los objetos y analizar en términos de
ejes de coordenadas, que serían los conos
generalizados, superficies generadas a partir del
movimiento de una sección transversal a lo largo de un
eje principal. La sección puede variar en tamaño pero su
forma permanece constante (Figura 8.7). No todos los
objetos pueden describirse mediante conos
generalizados.

En la Figura 1.3 del capítulo 1, se ilustra cómo se


representaría la figura humana según esta propuesta:

El cilindro de la izq. es un modelo 3D global.


Se presentan modelos 3D de más bajo nivel
jerárquicamente. Permiten especificar
posiciones, longitudes y orientación de las
partes. Cuando un objeto se desplaza cambia
el punto de vista pero se mantiene cte. la
relación de las partes con el eje natural.

La teoría de Marr y Nishihara casi no tiene aplicación en psicología porque es un modelo de IA.
Además, en esta teoría no se asume el conocimiento previo.

1.5. Modelo de reconocimiento por componentes

Biederman (1987) y Hummel y Biederman (1992), en una


extensión del modelo de Marr y Nishihara, parten de una
idea similar a la de los modelos de reconocimiento de
palabras mediante fonemas: un conjunto finito de
primitivos y sus posibles combinaciones (aproximadamente
36), de formas volumétricas simples, que denomina
«geones», y son de cuatro tipos básicos: esferas, cilindros,

4
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
bloques y cuñas; con los que se obtienen primitivos tridimensionales a partir de imágenes
bidimensionales. Los geones son características invariantes desde cualquier punto de vista (Figura
8.8).

El supuesto fundamental es que los geones pueden diferenciarse sobre la base de propiedades
perceptivas de la imagen bidimensional, independientes del punto de vista. Serían propiedades que
facilitarían la constancia del objeto. Esto permite el reconocimiento de objetos complejos desde
componentes simples. La representación de un objeto sería una descripción estructural que especifica
la relación entre los componentes del objeto (orientación, tamaño relativo y unión de los
componentes).

Biederman adopta como base perceptiva para explicar la generación de geones, una propuesta de
Lowe (1985), que relaciona la organización perceptiva y el reconocimiento de patrones, donde el
sistema visual humano habría desarrollado la capacidad de detectar determinadas organizaciones de
los elementos de la imagen (simetría, alineamiento, conexión...) que no surgen por casualidad y se
corresponden con propiedades significativas de los objetos.

Las propiedades no accidentales: (simetría, paralelismo, rectitud/curvatura,


conexión y coterminación), serían responsables de mantener la constancia del
objeto y se consideran características. Son invariantes, es decir, su
correspondencia con el objeto permanece a pesar de los cambios en el punto de
vista. El principio básico de organización sería que el sistema visual consideraría
que determinadas propiedades de los bordes de la imagen bidimensional
constituyen una evidencia de su presencia en los objetos tridimensionales.

El reconocimiento por componentes se produciría de la siguiente forma:

 Extracción de la información de los bordes a partir de los cambios en luminancia, para obtener
las propiedades no accidentales de la imagen, que sirven para identificar los geones.
 Paralelamente, se produciría la “división del objeto” en regiones cóncavas, para identificar los
geones.

El resultado permitiría especificar el tipo de


geones, su posición y sus relaciones espaciales
(tamaño, posición relativa, etc.). Hasta aquí el
procesamiento es abajo-arriba. Cuando se
activa la descripción de los geones, se activa la
de los almacenados en la memoria y se lleva a
cabo el proceso de comparación en paralelo
que conduce a la identificación del objeto
(Cuadro 8.1).

Estudios de Biederman, 1987:

1.- Un primer grupo de estudios se dedicó a


examinar si el reconocimiento del objeto era
más rápido y preciso cuando se presentaban
sólo los geones básicos o cuando se pre
sentaba el objeto detallado. Se dibujaron
objetos comunes completos incompletos (sin
algún componente esencial), y objetos
complejos con múltiples componentes (Figura

5
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
8.9), presentados durante 100 milisegundos a los participantes.

― Resultados: el tiempo de reacción era aproximadamente igual en los dibujos de objetos


simples completos e incompletos. El tiempo de reacción para objetos más complejos fue más
corto. Esto apoya la hipótesis del modelo de reconocimiento por componentes, que afirma que
los objetos pueden identificarse correctamente a partir de una serie limitada de geones
básicos. El hecho de obtener una ligera ventaja ante los objetos complejos (con mayor número
de componentes) se interpretó como prueba a favor del supuesto de que cuantos más geones
contenga un objeto, más rápidamente se compara con las descripciones almacenadas en la
memoria.

2.- Un segundo grupo de estudios examinó el efecto de


la degradación del estímulo sobre el reconocimiento.
Se presentaron dibujos completos, junto con dibujos
en los que se degradaron partes fundamentales
(propiedades no accidentales) o partes que no
afectaban (Figura 8.9)

― Resultados: el reconocimiento empeoraba


considerablemente cuando el estímulo
presentaba una degradación que afectaba a las
propiedades no accidentales (dibujos de la taza
y la copa, parte derecha) porque no se podían
identificar los geones. Cuando la degradación
no afectaba a las propiedades no accidentales
(parte intermedia de la figura), se podían
identificar los geones y reconocer el objeto.

El modelo presenta la ventaja de que permite


contrastar algunas de las hipótesis y los resultados son
consistentes. También presenta dificultades, como la
propuesta artificial de los 36 geones y la
determinación de sus relaciones espaciales.

No existe evidencia empírica de que los geones constituyan la base fundamental para categorizar los
objetos, aunque Tanaka (1996) ha encontrado células en la corteza inferotemporal de macacos que
responden a patrones simples volumétricos, de extraordinario parecido a los geones de Biederman.

1.5.1. Modelo PDP de la teoría del reconocimiento por componentes

En estos modelos se considera que el reconocimiento consiste en la activación de una red formada por
unidades de computación artificiales similares a las neuronas, que procesan la información de forma
distribuida y en paralelo.

Modelo JIM

Desarrollado por Hummel y Biederman (1992), constituye una implementación de la teoría de


reconocimiento por componentes, con poco paralelismo, ya que presenta una complejidad progresiva
(secuencialidad). Es una red neuronal conexionista de siete capas (Figura 8.10).

 Primera capa (L1). Mosaico de células sintonizadas a la orientación, cuyos campos receptivos
se solapan; se extraerían los bordes.

6
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
 Segunda capa (L2). Se extraerían tres tipos de características: vértices, ejes de simetría y
manchas, que permiten discriminar entre tipos de geones.
 Tercera capa (L3). Se codifican los atributos de los geones, como la forma de su eje principal
(recta o curva), si existe paralelismo, la orientación burda (vertical, horizontal, oblicua),
aspecto (alongado o achatado) forma de la sección (recta o curva), tamaño, posición
horizontal, posición vertical, etc. Cada geón queda definido por el valor que presenta en cada
uno de estos atributos.
 Cuarta y quinta capas (L4 y L5). Reciben la información sobre la posición en el campo visual,
tamaño y orientación de los geones, que procede de las células de la capa L3. Se especifican las
relaciones espaciales entre los geones: orientación, posición y tamaño relativo.
 Sexta capa (L6). Sus células reciben las unidades de salida de L3 y L5, que constituyen una
descripción estructural de un objeto en términos de geones. Estas unidades representan el
conjunto de todas las descripciones de geones posibles. Se corresponde con la etapa de
identificación de geones del modelo de reconocimiento por componentes anterior.
 Séptima capa (L7). Las células responden a los objetos definidos en base a grupos de células de
la capa anterior (L6).

Figura 8.10:

7
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
2. RECONOCIMIENTO DE CARAS

La relación entre los elementos componentes de la cara (ojos, boca, nariz, etc.) da lugar a la formación
de una configuración en la que se percibe el estímulo como un todo, con características propias e
independientes de las de sus componentes. Son estímulos biológica y socialmente importantes que
aportan información sobre características relevantes de las personas, que pueden influir en el
aprendizaje y la interacción social.

Las tareas más utilizadas suelen ser las de igual-diferente, en las que los sujetos deben comparar dos
caras, o algún componente de las mismas, y señalar si son iguales o no, y tareas de reconocimiento, en
las que deben señalar si la cara se había presentado anteriormente.

2.1. Procesamiento de las características componentes de las caras

En los años 70 se partía del supuesto teórico de que el sistema visual analizaba las caras basándose en
las características que las componen, y desde aquí se realizaba la descripción (ojos azules, nariz
afilada, etc.). ¿Las características se procesarían por separado o como una unidad perceptiva en la que
se produce una interacción en la percepción de características? ¿La percepción de los ojos sería
influida por la percepción de la nariz o el color del pelo?

Bradshaw y Wallace (1971) construyeron caras variando algunas características (Figura 8.11).

a. Punto de partida.

b. Se modifica nariz y barbilla.

c. Se modifica también el pelo y la boca.

d. Se modifican, además, los ojos y las líneas de la cara.

*Similar al que se emplea en ámbitos policiales.

Los observadores proporcionan juicios “igual-diferente”.

Resultados. El tiempo empleado en emitir un juicio sobre


las diferencias de caras era más corto cuanto más
características diferentes se presentaban en las caras (p. ej.,
latencias más cortas en a y d que en a y b). Los autores
concluyeron que las características de las caras se procesan
de forma independiente y secuencial y no como una unidad.
Los observadores inspeccionarían el pelo, ojos, nariz, etc.,
hasta encontrar diferencias. Los resultados son poco
concluyentes porque:

1. Las demandas de la tarea inducen a la estrategia de buscar diferencias.


2. Las caras con más diferencias en sus características también las presentan globales, por lo que
no se puede excluir que el procesamiento se haya realizado globalmente.

2.2. Interacciones entre características componentes en el reconocimiento de caras

Sergent (1984) diseñó estímulos que consistían en ocho caras distintas, combinando dos barbillas, dos
colores de ojos y dos distribuciones del espacio interno de la cara (distancia entre los componentes),
en una tarea igual-diferente.

8
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
Resultados: confirmaron los obtenidos anteriormente, y además, cuando las caras diferían en una
característica, las diferencias se percibían más rápidamente si era la barbilla. Cuando a la diferencia
entre barbillas se añadía otra (ojos o distribución del espacio), la percepción era todavía más rápida.
Esto indicaría que las características no se perciben independientes, sino a través de una interacción e
influencia mutua.

Explicaría algunos efectos del contexto, el cual se puede manifestar de varias formas:

 Un reconocimiento más preciso de las características componentes cuando se presentan en el


contexto de una cara normal, que cuando se presentan en el contexto de una cara
distorsionada.
 Una dificultad en la comparación de características aisladas de una cara con un patrón
almacenado en la memoria.
 Un efecto de facilitación por parte de patrones bien estructurados de la búsqueda perceptiva
de características componentes en caras esquemáticas.

2.3. Procesamiento configuracional de las caras

Los resultados de Sergent (1984) indican que las características componentes de las
caras no se procesan independientes. ¿El procesamiento global de las caras se debe
exclusivamente a la interacción de las características o al hecho de que esas
características no se representan independientes en la descripción del sistema visual?
Si no se representan de manera independiente, se procesarían como una
configuración tipo Gestalt.

Tanaka y Farah (1993) partieron de una hipótesis:

 Si las características componentes se representan independientes, el reconocimiento de las


mismas por separado será igual cuando se presenten aisladas que cuando se presenten en una
cara.
 Si la representación de las características no es independiente, se reconocerán peor cuando se
presenten aisladamente.

Se presentaron a los observadores una serie de caras y tenían que asociarlas con un nombre (Juan,
Pedro...). Se presentaban dos pruebas de reconocimiento:

 Una de reconocimiento de características componentes en un contexto de caras que diferían en


una sola característica, donde los observadores tenían que indicar si esa característica
pertenecía o no a la cara asociada (Juan, Pedro).
 Otra de reconocimiento de dos características componentes presentadas aisladamente, donde
los observadores debían indicar cuál pertenecía a una cara (Juan, Pedro).

Resultados: el reconocimiento de características componentes era peor cuando se presentaban


aisladamente. Se concluyó que la representación de caras está basada en una descripción global de la
imagen. Los resultados difieren de los encontrados con estímulos diferentes (objetos, palabras o caras
invertidas), que se reconocen con igual precisión cuando se presentan aisladas o en un contexto
global.

Esto sugiere que las caras se almacenan globalmente en la memoria, pero no responde a la pregunta
de si las caras se perciben globalmente. También sugiere que la representación visual inicial de las
caras puede ser diferente de la de otras formas visuales.

9
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
Farah, Wilson, Drain y Tanaka (1998) incorporaron dos paradigmas perceptivos en lugar de
paradigmas de memoria:

 Paradigma de atención selectiva. Se presentan dos caras simultáneamente y los


observadores tenían que indicar si una característica era igual o diferente en ambas.
Presupuestos:
o Si el sistema visual proporciona una descripción explícita de las características
componentes, entonces será posible compararlas en las dos caras sin ninguna
interferencia por parte del resto.
o Si la representación que proporciona el sistema visual es una representación global, las
características a comparar sufrirán interferencia por parte del resto (ojos, nariz...).
Condición de control: se presentaron las mismas caras invertidas, para que se mantuvieran las
propiedades geométricas pero no fuera posible una representación global.
Resultados: mostraron mayor interferencia en la comparación de características cuando las
caras se presentaron en posición recta que cuando se presentaron invertidas.
 Paradigma del enmascaramiento. Las máscaras presentadas podían ser características
componentes de las caras o caras completas, y su finalidad era examinar cuál de estos aspectos
distorsionaba más la percepción: si las caras se perciben como un todo, la representación de
las características componentes desempeñaría un papel poco importante y las máscaras
formadas por caras completas distorsionarían más el reconocimiento. Se presentaron, además,
otras formas visuales como palabras, objetos y caras invertidas, con el fin de examinar si los
efectos eran específicos de la percepción de caras o generales.
Resultados: la ejecución en la tarea fue peor cuando la máscara era una cara que cuando
estaba formada por características componentes.

En conjunto, los resultados muestran que la percepción de caras está menos basada en la
descomposición de partes que la del resto de formas visuales. Sugiere que las características
componentes no se procesan de forma independiente, sino como una configuración en la que se
perciben los componentes (ojo, nariz, boca...), así como la relación entre los mismos.

3. DIFERENCIAS ENTRE EL RECONOCIMIENTO DE CARAS Y OBJETOS

En la actualidad no se conoce si estos mecanismos son iguales o diferentes. No


obstante, se dispone de evidencia empírica que sugiere que el reconocimiento de
caras podría ser un tipo especial de reconocimiento visual. Algunos estudios
sugieren que las caras se procesan como un todo, mientras que los objetos y caras
invertidas se procesan en base a sus componentes. Si se observa la fotografía de
un rostro familiar en posición recta, no observamos ninguna dificultad en
reconocerlo, pero si se invierte la dificultad es notable. Se ha intentado analizar si
las caras invertidas se procesan de forma diferente.

Resultados obtenidos:

 Cuando las caras se presentan invertidas, sus características componentes se procesan


independientemente y no como una configuración.
 Las características relacionales (relaciones espaciales entre las características componentes) se
distorsionan cuando las caras están invertidas o con un cambio >90º.
 La configuración se distorsiona más que las características componentes cuando se presentan
en caras invertidas, y este efecto se debe a un déficit en la codificación de la información
configuracional.

10
Psicología de la Percepción. Cap. 8 UNED 2020-2021 Dolores Latorre
A nivel neuronal, los estudios con registros unicelulares en primates muestran respuestas selectivas a
las caras por parte de neuronas en el giro fusiforme del córtex inferotemporal.

A nivel neuropsicológico, con pacientes que presentan lesiones cerebrales, se muestra una disociación
entre el reconocimiento de objetos y caras:

 Las lesiones en el giro fusiforme del córtex inferotemporal en el hemisferio derecho,


generalmente causan prosopagnosia (incapacidad para reconocer caras), pero prácticamente
no afectan al reconocimiento de objetos.
 La misma lesión en el hemisferio izquierdo, causaría incapacidad para reconocer objetos, pero
deja casi intacta la capacidad para reconocer caras.

Estudios neuropsicológicos indican la existencia de mecanismos específicos en el reconocimiento, que


concuerdan con los datos obtenidos con registros unicelulares en monos, así como en humanos
mediante técnicas de registro electrofisiológico.

Con técnicas de neuroimagen se observa la existencia de distintos componentes modulares en el


reconocimiento visual:

 Con PET (tomografía por emisión de positrones) se indicó que


determinadas regiones de la vía ventral se activaban cuando se realizaba
una tarea de reconocimiento de caras.
 Con fMRI (resonancia magnética funcional) se obtuvieron los mismos
resultados, y de forma más precisa en el giro fusiforme y el sulcus temporal
superior.

Kanwisher (1997) determina que una pequeña región del giro fusiforme derecho se activa
selectivamente durante la percepción de caras y no con objetos.

Sin embargo, otros autores defienden que la especialización es «superficial», ya que el córtex visual
contiene un gran número de áreas que responden selectivamente a determinados estímulos, pero las
computaciones que se realizan en estas áreas son muy semejantes.

11
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre

Capítulo 9. Apéndice metodológico

1. PSICOFÍSICA CLÁSICA

Para la mayoría de historiadores, Wundt representa el nacimiento de la Psicología Experimental por


sus trabajos en el ámbito de la Psicofísica, influencia decisiva en el desarrollo de la Psicología
Experimental.

Dos factores influyeron en la aparición de la Psicofísica:

 El contexto, el clima intelectual de mediados del siglo XIX.


 El objeto de estudio centrado en los acontecimientos de la experiencia consciente.

En los trabajos pioneros de Fechner el objetivo fundamental consistió en investigar las leyes que
permiten determinar las relaciones entre la experiencia sensorial (dominio psicológico) y la
estimulación (dominio físico). Fechner, en Elementos de Psicofísica (1860) puso la “primera piedra”
de la construcción de la Psicología Experimental. Se centra en tres aspectos:

1. Desarrollo de métodos psicofísicos para la Cuantificación de los


umbrales absoluto y diferencial.
 El umbral absoluto es el valor de la dimensión física
por encima y por debajo de la cual, se detecta o no el
estímulo; o la cantidad mínima de estimulación capaz
de producir una sensación.
 El umbral diferencial es el incremento mínimo en la
estimulación que permite detectar un cambio en la
sensación.
2. Estudio de la medida de la dimensión psicológica; se construyó
una escala, cuyo valor cero se estableció en base al umbral
absoluto y, se adoptó como unidad de medida las diferencias
apenas perceptibles (d.a.p.), que constituyen el correlato
psicológico del umbral diferencial, asumiendo la igualdad de
éstas.
3. El establecimiento de las relaciones entre el dominio psicológico y el dominio físico a través de
la formulación de su ley, según la cual la intensidad de la sensación es proporcional al
logaritmo de la intensidad del estímulo.

S = K log(I)

o S es la magnitud de la experiencia subjetiva.


o I es la intensidad del estímulo o magnitud física.
o K es una constante que depende de la dimensión.

Supone que para que la sensación aumente en progresión aritmética, la intensidad del estímulo
debería aumentar en progresión geométrica.

1.1. Métodos psicofísicos indirectos

Son utilizados en la psicofísica fechneriana en relación con la determinación de los umbrales absoluto
y diferencial.

1
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
1.1.1. Método de los estímulos constantes

Se presenta siempre un conjunto fijo de estímulos elegido de antemano.

• Determinación del umbral absoluto

Consiste en la presentación repetida de un estímulo graduado en un rango de 5 a 9 de intensidad. El


valor más bajo de los utilizados no debe producir casi nunca sensación, mientras que el valor de
intensidad más alto debe producirla casi siempre. Por ejemplo un tono: el tono de intensidad más baja
no debe oírse casi nunca y el tono de intensidad más alta casi siempre. Para determinar estos valores
extremos se requiere una serie de presentaciones previas con el fin de determinar el valor de
intensidad más bajo y más alto. El resto presenta intensidades intermedias de forma que unas veces
produzcan sensación y otras no.

El procedimiento consiste en la
presentación de cada valor de intensidad
del estímulo en un orden aleatorio
durante 100 o más veces. En cada ensayo,
el observador indica si ha percibido o no
el estímulo. Los resultados se representan
en la denominada función psicométrica:
la intensidad del estímulo se representa
en el eje horizontal (abscisas) y la
proporción de respuestas «Sí», en el eje
vertical (ordenadas). Convencionalmente
se toma como valor del umbral absoluto el
valor de intensidad del estímulo que se ha
detectado un 50% de las veces. En la
figura 9.1 el umbral absoluto es 170.

• Determinación del umbral diferencial

Se presenta al observador dos tipos de estímulos:

 Estímulo estándar, que se mantiene con la misma intensidad


durante todo el experimento y es el estímulo sobre el que se
averigua el umbral diferencial.
 Estímulo de comparación o de prueba. La intensidad varía
a lo largo de los ensayos presentados en la sesión experimental.

Generalmente se utiliza un rango de 5 a 9 valores de intensidad. El requisito es que el estímulo más


bajo y el más alto se juzguen casi siempre como mayores y menores que el estímulo estándar. Por otra
parte, el número de estímulos con intensidad más alta y más baja que el estándar debe ser
aproximadamente igual. La tarea del observador consiste en juzgar si el estímulo de comparación es
mayor, o menor que el estándar.

 El estímulo de comparación que se juzga el 75% de las veces como mayor que el estándar se
toma como umbral superior.
 El estímulo de comparación que se juzga el 25% de las veces como mayor que el estímulo
estándar se toma como umbral inferior.
 El estímulo de comparación que se juzga el 50% de las veces como mayor que el estímulo
estándar se corresponde con el punto de igualdad subjetiva (PIS).

2
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
Figura 9.2:

 Intensidad del umbral superior = 200.


 Intensidad del umbral inferior = 140.
 Umbral diferencial (UD): UD = (Us-Ui)/2; (200-140/2 = 30)

 La diferencia entre Us y Ui es
el intervalo de incertidumbre (Ii);
(Ii = 60)

Este método de los estímulos


constantes presenta el inconveniente
de que requiere mucho tiempo para
determinar el umbral, al utilizar un
rango muy amplio de intensidades
que ofrecen poca información (sobre
todo las extremas).

1.1.2. Método de los límites

• Determinación del umbral


absoluto

Se lleva a cabo presentando los


estímulos en series ascendentes y
descendentes que se van alternando
sucesivamente. En las series
ascendentes, se presenta en primer
lugar un estímulo muy por debajo
del umbral, que no produce
sensación nunca, y se va
aumentando gradualmente hasta
que el observador comienza a
detectar el estímulo. Cuando se
alcanza el límite se finaliza la serie.
Si la serie es descendente el
procedimiento es el contrario: se
presenta un estímulo muy por
encima del umbral que produce
sensación siempre, y se va
disminuyendo su intensidad hasta
que el sujeto no lo percibe.

Los puntos de transición (en que se produce un cambio en la respuesta de «Sí» a «No» o viceversa) de
varias series se promedian para determinar el umbral absoluto.
3
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
• Determinación del umbral diferencial

Consiste en presentar dos pares de estímulos:

 Estímulo estándar, cuya intensidad se mantiene constante.


 Estímulo de comparación, cuya intensidad se varía en series ascendentes
y descendentes.

El observador debe indicar si el estímulo de comparación es igual, mayor o menor que el estándar.

 Las series ascendentes comienzan con estímulos de comparación que se juzgan como menores
que el estándar.
 En los ensayos siguientes se aumenta la intensidad del estímulo de comparación de manera
progresiva hasta que se juzga mayor que el estándar. En este punto se interrumpe la serie y se
procede a presentar la siguiente.

Normalmente se produce una transición en la que el observador responde igual que el estándar antes
de que se observe la transición a mayor que el estándar. Con las series descendentes se procede de la
misma forma.

Tabla 9.2.:

Intensidad del estímulo = 100.

Punto de transición inferior


(Ti): valor de intensidad del
estímulo en el que la respuesta
cambia de menor a igual.

Punto de transición superior


(Ts): cambio de la respuesta
mayor a igual.

Ts = Ti porque en algunos casos


los observadores no utilizan la
categoría igual.

Se calcula la media aritmética,


sumando los Ts y los Ti de todas
las series y dividiendo por el
número de series. Así se
obtiene:

 Us, límite superior.


 Ui, límite inferior.

Se calcula:

Intervalo de incertidumbre (Ii): diferencia entre Us y Ui.

Ii = Us - Ui 110-88=22

Umbral diferencial (UD): indica el incremento mínimo requerido para que se pueda percibir una
diferencia entre estímulos.

4
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre

UD = (Us - Ui)/2 (110-88)/2 = 11

Punto de igualdad subjetiva (PIS): se percibe el estímulo de prueba y el estándar como iguales.

PIS = (Us + Ui)/2 (110 + 88)/2 = 99

Error constante (EC): cometido al comparar los estímulos.

EC = PIS – Es 99 – 100 = -1

Este método reduce los valores de intensidad de los estímulos y los concentra en unos pocos en torno
al umbral. Requiere menor número de estímulos y es más rápido que el anterior. Presenta el
inconveniente de que sólo los dos últimos estímulos de cada serie aportan información. Es necesario
controlar dos tipos de errores:

»El error de habituación, que se produce por la tendencia de los


observadores a proporcionar la misma respuesta en los ensayos
anteriores, y que tendría como consecuencia un valor del umbral
menor en las series descendentes, ya que el observador seguiría
proporcionando la respuesta “Sí”; mientras que en los ensayos
ascendentes el valor del umbral sería mayor, ya que el observador
seguiría proporcionando la respuesta “No” en algunos ensayos, a pesar de haber percibido ya el
estímulo. Para controlar el error hay que presentar el mismo número de series ascendentes y
descendentes, de manera que se anula el sesgo propio de cada tipo de serie.

»El error de anticipación ocurre cuando el observador, a través de su experiencia con las series,
advierte que en algún momento su sensación tiene que cambiar y anticipa este cambio. Para controlar
este error hay que variar aleatoriamente el primer estímulo de cada serie.

1.1.3. Método de los ajustes o error promedio

Es prácticamente igual al método de los límites, pero es el observador quien controla la variación en el
estímulo que permite la medida de los umbrales. Requiere que el estímulo pueda graduarse
fácilmente.

• Determinación del umbral


absoluto (Tabla 9.3.)

El observador ajusta el estímulo,


disminuyendo su intensidad en
algunos ensayos hasta que no lo
detecta, o aumentándola en otros
ensayos hasta que lo detecta.

• Determinación del umbral


diferencial (Tabla 9.4.)

Se establece mediante los ajustes de la


intensidad del estímulo de
comparación que realiza el observador
hasta que iguala al estímulo estándar.

5
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
• Limitaciones de los métodos
psicofísicos indirectos

Los métodos indirectos únicamente


proporcionan una medida de la cantidad de
energía estimular necesaria para producir
un cambio en la respuesta, no una medida
de la sensación.

 Por una parte, los experimentos


realizados en el campo de la
psicoacústica demostraron que las
d.a.p. no son siempre iguales.
 Por otra parte, la evidencia
empírica pone de manifiesto que el
umbral puede variar:
a) Entre sujetos en la misma
situación experimental; p.
ej. los sujetos más cautos
pueden responder menos
veces de las que detectan el estímulo.
b) Intra-sujetos en diversas situaciones experimentales; p. ej. variaciones en el umbral de
un mismo sujeto debidas a la práctica, la fatiga, la motivación, etc.
c) Dependiendo del método utilizado.
d) Como consecuencia del efecto de variables motivacionales manipuladas mediante
instrucciones.

Los resultados de diversos experimentos psicofísicos pusieron de manifiesto que la función de Weber
(S / J = K) en la que Fechner basó su ley, y según la cual el incremento del estímulo necesario para
percibir un cambio en la sensación es proporcional a la intensidad del estímulo, presenta variaciones
en las distintas modalidades sensoriales y en los valores más bajos del rango estimular. Esto pone en
entredicho la ley de Fechner.

 Para intentar solucionar el problema de la variabilidad en el umbral se adoptó un criterio


estadístico y se determinó el umbral absoluto según el valor de intensidad del estímulo que se
detecta un 50% de las veces.
 Para paliar los efectos de las actitudes y motivaciones de los sujetos, se introdujeron ensayos
en blanco, o ensayos en los que no se presenta el estímulo.

Se denomina:

 Ruido (R) a los ensayos en los que no se presenta el estímulo.


 Señal + ruido o simplemente señal (SR) a los ensayos en los que se presenta
el estímulo.

La tarea a realizar por los observadores consiste en contestar «Sí» o «No» ante la presentación de
cada estímulo, sobre la base de que lo haya detectado o no. Generalmente se presenta el mismo
número de ensayos SR que de ensayos R, mezclados aleatoriamente, lo que permite controlar que los
observadores falseen las respuestas intencionadamente o que cometan sesgos.

6
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
Los «ensayos en blanco» permiten analizar la ejecución de los sujetos relacionando la tasa de aciertos
(porcentaje de respuestas «Sí» ante la presentación de SR) con la de falsas alarmas (porcentaje de
respuestas «Sí» ante la presentación de R) y observar si se produce un sesgo en la respuesta.

Ejemplo. Se ha realizado un experimento para determinar el umbral absoluto. Los resultados de dos
observadores (A y B) han sido:

 Tasa de aciertos del 80% igual para ambos.


 Tasa de falsas alarmas del 20 % para A y del 75% para B.

La elevada tasa de falsas alarmas en el observador B podría indicar que el


observador B ha cometido un sesgo hacia la respuesta “Sí”, cuando en
realidad no se presentaba el estímulo. Para corregir este sesgo tenemos la fórmula:

P = (PA C – PFa ) / (100 – PFa )

 P es el porcentaje real de aciertos.


 PA C es el porcentaje de aciertos.
 PFA el porcentaje de falsas alarmas.

PObser v a dor A = (80 – 20) / (100 – 20) = .75

PObser v a dor B = (80 – 75) / (100 – 75) = .20

Los resultados obtenidos aplicando la fórmula de corrección estarían más próximos a la tasa de
aciertos real de los observadores.

1.2. Teorías del umbral

La teoría del umbral alto (Blackwell,


1963) asume la teoría clásica: “sólo
cuando se traspasa el umbral de
sensación se producirá sensación y no
en el caso contrario”. Ante la
presentación de la señal (SR) se
producirá sensación con una
probabilidad (p), y no con la
probabilidad complementaria (1-p).
Cuando se presenta ruido (R) no se
traspasa el umbral y no se produce
sensación, por lo que la probabilidad de
que se produzca sensación ante la
presentación de R será 0, y la
probabilidad de que se produzca no-
sensación a la presentación de R será 1.

Se asume que el sistema optará por


responder «Sí» siempre que se ha
producido sensación (probabilidad 1) y
«No» en el caso contrario (probabilidad
0). En el caso de que el resultado del proceso sensorial sea no-sensación, se responderá «Sí»
(tendencia a adivinar) con una determinada probabilidad (g) y «No» con la probabilidad
complementaria (1-g).
7
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre

En la teoría del umbral bajo (Luce, 1963) el supuesto básico es que tanto la presentación de SR
como la de R, producirán sensación con una determinada probabilidad y no-sensación con la
probabilidad complementaria. Se considera que el umbral es traspasado, en algunas ocasiones, ante la
presentación de R.

Proceso sensorial: ante la presentación de


SR se producirá sensación con una
determinada probabilidad (p) y no-
sensación con la probabilidad
complementaria (1-p); y ante la
presentación de R, se producirá sensación
con una determinada probabilidad (q) y no-
sensación con la probabilidad
complementaria (1-q).

Proceso de decisión: Si se ha producido


sensación, la respuesta será afirmativa con
una probabilidad determinada (f) y negativa
con la probabilidad complementaria (1-f). Si
no se ha producido sensación la respuesta
será “Sí” con una probabilidad (g) y “No”
con la probabilidad complementaria (1-g).

En esta teoría la regla de decisión es más


flexible que en la propuesta anterior y se
contempla la influencia de variables
motivacionales. La manipulación de estas
variables, como información sobre la probabilidad de presentación de SR y R, y ganancias-pagos
asociadas con respuestas correctas e incorrectas, puede inducir sesgos en las respuestas en los dos
sentidos. Los experimentos confirman las predicciones de la teoría.

2. TEORÍA DE DETECCIÓN DE SEÑALES (TDS)

Se presentan 2 clases de estímulos:

a) (SR), señal o señal+ruido; de intensidad muy débil, sobre un fondo de


ruido (R) ► ensayos SR.
b) (R); fondo de ruido cuando no está presente la señal ► ensayos R.

El observador ha de indicar en cada ensayo si se ha presentado la señal o no.

La TDS prescinde del concepto de umbral y supone que ante cualquier estimulación SR o R, el
resultado del proceso sensorial consiste en una sensación que puede adoptar múltiples valores. Cada
valor tiene una probabilidad de ocurrencia ante SR y ante R. También considera que el sistema
sensorial está sometido a fluctuaciones, por lo que el nivel de la sensación puede variar ante el mismo
estímulo, adoptando distintos valores, o, por el contrario que sea idéntico ante la presentación de SR y
R. La TDS considera que interviene:

 Un proceso relacionado con el sistema sensorial, cuyo resultado es una sensación de


determinada intensidad.
 Un proceso cognitivo o proceso de decisión, cuyo resultado es la respuesta.
8
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
La TDS supone que la sensación puede ser producida tanto por la presentación de SR como por la de
R. En ambos casos la sensación es de la misma naturaleza.

 Cuando se presenta SR, el conjunto de


valores de sensación será distinto a cuando se
presenta R.
 Cuando la señal es más intensa que el
ruido, las sensaciones que suscite SR serán
superiores a las que suscite R.
 Los valores más altos de sensación se
producirán con una mayor probabilidad ante
la presentación de SR.
 Los valores más bajos se producirán
con mayor probabilidad ante la presentación
de R (no excluye que en determinados
ensayos puedan darse valores altos y bajos de
sensación ante R y SR).

Lo que diferenciará al valor de sensación cuando se presenta SR y R es su distribución de


probabilidad.

El índice del proceso sensorial es d', que es la distancia entre las distribuciones de SR y R, y se verá
afectada exclusivamente por variables que influyen en la intensidad de SR y R.

En función del grado de solapamiento entre las distribuciones puede ocurrir:

1) Cuando las distribuciones de SR y R están completamente separadas, los valores de sensación


de cada una no están asociados con la otra, por lo que la detección sería fácil y perfecta.
2) Cuando las distribuciones de SR y R están totalmente superpuestas, los valores de sensación
tendrían la misma probabilidad de provenir de SR que de R, por lo que la detección sería
imposible.
3) Cuando las distribuciones de SR y R están parcialmente solapadas, se presenta una zona de
incertidumbre en la que los valores de sensación pueden provenir tanto de SR como de R.
Cuando la distancia entre las distribuciones de SR y R es grande, el valor d' será mayor que
cuando la distancia es pequeña.

La selección del criterio puede


realizarse de dos formas

1. Criterio c: el observador
puede seleccionar un punto sobre el
eje de sensación; el segmento de la
derecha corresponderá a SR,
asociado a la respuesta «Sí», y el de
la izquierda a R, asociado a la
respuesta «No».
2. El observador establece el
criterio en base a la razón de
verosimilitud o cociente entre las
distribuciones de probabilidad de SR y R.

Por lo que respecta a la distribución de la señal SR:

9
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
 La zona correspondiente a esta distribución, a la derecha del criterio, representa la proporción
de casos en que el observador responde «Sí» ante la presentación de SR o tasa de aciertos
P(Sí/SR).
 La zona correspondiente a la distribución de SR que está situada a la izquierda del criterio,
representa la proporción de casos en los que el observador responde «No» ante la
presentación de SR, es decir la tasa de fallos P(No/SR).

Por lo que respecta a la distribución de ruido R:

 La zona correspondiente a esta distribución y que está situada a la derecha del criterio,
representa la proporción de casos en que el observador responde «Sí» ante la presentación de
R, o sea la tasa de falsas alarmas P(Sí/R).
 La zona correspondiente a la distribución de R situada a la izquierda del criterio representa la
proporción de casos en los que el sujeto responde «No» ante la presentación de R, es decir, la
tasa de rechazos correctos P(No/R).

2.2. Índices correspondientes al proceso sensorial (d') y al proceso de decisión

En una tarea de detección hay dos tipos de ensayos aleatorios:

Se presenta la señal más ruido (SR), generalmente un estímulo de intensidad débil sobre un fondo de
ruido.

Se presenta ruido (R) (no necesariamente acústico). El sujeto responde «SÍ» o «No», según crea que
ha detectado la señal o no, y decide si la evidencia favorece la hipótesis de que se ha presentado SR o
R. Esta tarea se denomina Tarea Sí/No.

Los resultados se analizan mediante una matriz de resultados 2x2 para relacionar la situación
estimular con la respuesta del sujeto (Cuadro 9.1) En las celdillas de la
matriz se obtienen cuatro resultados:

1. Aciertos, cuando se presenta SR y el sujeto contesta «SÍ».


2. Rechazos correctos, cuando se presenta R y el sujeto contesta
«No».
3. Falsas Alarmas, cuando se presenta R y el sujeto contesta «Sí».
4. Fallos, cuando se presenta SR y el sujeto contesta «No».

Las probabilidades de estos


resultados se calculan
dividiendo la frecuencia
correspondiente a cada
celdilla por el número de
"ensayos SR o R. (Cuadro
9.2). Se obtiene la tasa de
aciertos, P(Sí/SR); rechazos correctos, P(No/ R); falsas alarmas, P(Sí/ R); y fallos, P(No/ SR).

 Las probabilidades correspondientes a los ensayos SR son complementarias. Una vez conocida
la tasa de aciertos, la tasa de fallos está determinada.
 Lo mismo con las probabilidades correspondientes a los ensayos R, una vez conocida la tasa de
falsas alarmas, la tasa de rechazos correctos está determinada.

10
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre

 Sin embargo, las probabilidades correspondientes a la tasa de fallos y rechazos correctos son
independientes entre sí.
 Igual con las probabilidades correspondientes a la tasa de aciertos y falsas alarmas, que
también son independientes entre sí.

En TDS, se consideran únicamente la tasa de aciertos y la de falsas alarmas.

Por ejemplo: se ha realizado


un experimento de detección
en el que se ha presentado 100
veces SR y 100 veces R. Los
resultados en la matriz serían
los siguientes:

A partir de P(Sí/SR) y P(Sí/R)


se calcula d’ y el criterio c.

Procedimiento:

1. Cálculo del índice de sensibilidad d’

A. Distribución correspondiente a la señal:

1) Calcular tasa de aciertos


P(Sí/SR) = 30/100) = 0,3
2) Buscar la distribución normal en las tablas:
― La puntuación típica de la tasa de aciertos, z(Sí/SR) = 0,525
― El valor de la ordenada Y en ese punto, Y z(Sí/SR) = 0,348

B. Distribución correspondiente a R:

1) Calcular la tasa de falsas alarmas


P(Sí/R) = 15/100 = 0,15
2) Buscar en las tablas de la distribución normal:
― La puntuación típica correspondiente a la tasa de falsas alarmas, z(Sí/R) = 1,037 el valor de la
ordenada Y en ese punto, Y z(Sí/R) = 0,233

C. Calcular el índice de sensibilidad d’ = z(Sí/R) – z(Sí/SR) = 1,037 – 0,525 = 0,51

― Un valor d’ = 0 indica falta de discriminación y valores elevados (buena detección). Si aparecen


valores negativos el observador ha contestado lo contrario de lo que debía.

2. Cálculo del criterio

A. Cálculo del criterio c, referido al eje de sensación:

― Representar en la distribución de SR la puntuación z(SÍ/SR) = .525, y trazar el criterio c de


forma que sea perpendicular a dicho punto. El criterio c está referido a la media de la
distribución de la señal.

11
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
― Representar en la distribución de R la puntuación z{SÍ/R)= 1.037, y trazar el criterio c de
manera que sea perpendicular a este punto. En este caso el criterio c, está referido a la media
de la distribución de R.
― Aplicar la fórmula c = -0.5[z(Sí/SR)+z(Sí/R)]= .062

B. Cálculo del criterio sobre el eje de la razón de verosimilitud β:

― Calcular 13 según la formula, B = Y z(SÍ/SR)/Y z(S/R) = 0.348/0.233 = 1,49


o Valor del criterio = 1, indica un punto de selección del criterio que no está sesgado
o Valor de criterio >1, indica un criterio estricto.
o Valor de criterio <1, indica un criterio laxo.

La TDS considera que los índices del


proceso sensorial y el proceso de decisión
son independientes:

 El índice del proceso sensorial, d’


está afectado por variables sensoriales que
inciden en la distancia entre las
distribuciones de SR y R, como la
intensidad de los estímulos, cuanto mayor
sea la intensidad mayor será el valor de d’.
 El índice del proceso de decisión
está afectado por el conocimiento por parte
de los sujetos de la frecuencia relativa de SR
y R (probabilidades a priori) y por variables
motivacionales (incentivos, ganancias y
pérdidas asociados a respuestas correctas y
errores, etc.).

Esto permite la obtención de dos medidas:

 Medida de la sensibilidad del


observador, independiente del criterio, que
permanece prácticamente invariante.
 Medida y control del criterio que
utiliza el observador para tomar decisiones.

Fig. 9.7. Forma en que distintas variables podrían afectar a los


procesos sensorial y de decisión.

2.3. Curva ROC

Consiste en variar las instrucciones que influyen sobre la conducta de decisión del observador,
mediante indicaciones de que adopte un criterio gradualmente más estricto o más laxo. Se obtiene una
tasa de aciertos y falsas alarmas que determinan un punto diferente en el gráfico y la unión de estos
puntos da lugar a la representación de la curva.
12
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
Dado que los parámetros físicos de la estimulación se mantienen constantes, aunque se varíen las
instrucciones, el índice correspondiente al proceso sensorial d' no varía, y es independiente de la
posición del criterio de decisión.

Figura 9.8. Curvas ROC.

 Curva A: se han proporcionado instrucciones


para adoptar un criterio laxo, intermedio o estricto.
Cada condición produciría una tasa distinta de aciertos
y falsas alarmas que genera los tres puntos diferentes
de la curva.
o El punto más a la izquierda
correspondería a un criterio muy estricto, en el que las
tasas de aciertos y falsas alarmas son bajas.
o El punto situado más a la derecha
correspondería a un criterio muy laxo en el que ha
aumentado considerablemente la tasa de aciertos y
también la de falsas alarmas.
o El punto intermedio se correspondería
con una tasa de aciertos y falsas alarmas intermedias
entre las anteriores.
 Curva B: se han generado cinco puntos
distintos a base de la información proporcionada a los
sujetos sobre las probabilidades a priori.
 Curva C: se presenta una familia de curvas del tipo de las que predice la TDS. La distancia
entre las curvas estaría determinada por la separación entre las distribuciones de SR y R. A
medida que aumenta esta separación, la detección es más perfecta y la curva se acerca a la
esquina superior izquierda. La diagonal representa el caso en que las distribuciones de SR y R
están totalmente solapadas, la tasa de aciertos es igual a la de falsas alarmas, y la detección no
es posible.

3. MÉTODOS DE CONSTRUCCIÓN DE ESCALAS SENSORIALES

Los métodos indirectos no permiten obtener una medida directa de las sensaciones, sino que
proporcionan una medida de la cantidad de energía estimular necesaria para producir una inflexión
en la respuesta de los sujetos (energía estimular necesaria para detectar un estímulo). La inflexión en
la respuesta es pasar de no-sensación a sensación (umbral absoluto). Para establecer una diferencia
entre estímulos, la inflexión sería pasar de sensación a mayor o menor sensación (umbral diferencial).
La medición se realiza sobre la entrada (el estímulo físico) y no sobre su salida (respuesta).

Pero para establecer una escala de atributos sensoriales se necesita la salida del
sistema sensorial (sensación) ya que ésta no presenta una relación puntual con los
cambios en la intensidad del estímulo, tal y como predecía la ley de Fechner. El
desarrollo de la acústica a principios del s. XX permitió probar algunas
predicciones de la ley. Por ejemplo: un sonido de doble intensidad que otro sonido
debería producir una sensación doble a la del primero; sin embargo, los resultados
mostraron que ambos sonidos podían producir una sensación prácticamente igual.
Por eso, para determinar de qué forma aumenta la sonoridad cuando aumenta la
intensidad del estímulo, es necesario tener en cuenta tanto la entrada (estímulo físico) como la salida
(sensación subjetiva), para determinar las relaciones entre las variaciones en la intensidad del
estímulo y las sensaciones, o la relación funcional entre estímulo físico-respuesta psicológica.
13
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
3.1. Métodos directos

Se clasifican en función del tipo de escala que se obtiene al aplicarlos: nominales, ordinales, de
intervalo o de razón.

3.1.1. Estimación de magnitud

Se presentan estímulos de diferente intensidad y los observadores deben


realizar estimaciones numéricas sobre la magnitud de la sensación que
producen. El procedimiento adopta dos modalidades:

 Se presenta un estímulo de intensidad fija (estímulo de referencia) y el experimentador


comunica que la sensación tiene un determinado valor numérico (módulo). En los siguientes
ensayos, se presenta una serie de 15 a 20 estímulos diferentes al de referencia, aleatoriamente
en cada sesión, y en un orden diferente para cada observador. La tarea del observador consiste
en asignar números a la sensación, en relación con el valor del estímulo de referencia. Si la
magnitud de la sensación es el doble de la del estímulo de referencia le asigna valor 20. Si es la
mitad 5, etc.
 Se presentan los estímulos aleatoriamente y el observador emite el juicio sobre la magnitud de
la sensación, asignando igualmente valores numéricos. El experimentador no proporciona
ningún valor como módulo.

Los resultados con ambos suelen ser muy parecidos. Generalmente se realizan dos o tres sesiones con
cada observador. Los resultados de todos se combinan para determinar la escala, utilizando como
promedios la mediana o la media geométrica. No es aconsejable la media aritmética porque es
sensible a valores muy altos, muy bajos o poco representativos.

3.2.1. Producción de magnitud

Se proporciona al observador el valor


numérico de la magnitud de sensación que
produce un estímulo. El observador manipula
la intensidad de otros estímulos, de forma
que igualen a de la sensación que se le ha
proporcionado en cada ensayo. Los estímulos
han de variar de forma continua.

La pendiente de la recta es más pronunciada


en el método de producción de magnitud que
en el de estimación de magnitud, por el efecto
de “regresión a la media” en los juicios de los
observadores; consiste en la tendencia a
evitar los juicios extremos (muy altos o muy
bajos). Es decir, el sujeto tiende a evitar valores numéricos extremos al estimar magnitudes
(ordenadas), y tienden a no utilizar valores extremos en el ajuste del estímulo cuando producen
magnitudes (abscisas). Es aconsejable utilizarlos juntos en los experimentos para obtener
concordancia en los resultados (índice de validez).

3.2. La ley psicofísica potencial

Un siglo después de la propuesta de Fechner, Stevens (1957) formuló la “Ley psicofísica”. La relación
entre la magnitud de la sensación y la intensidad del estímulo es una función potencial: S = cek

14
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
S = magnitud de la sensación

c = constante arbitraria que determina la unidad de la escala

E = intensidad del estímulo

k = exponente que varía en función de las modalidades sensoriales y las condiciones estimulares

 Si k = 1, la función es lineal, porque la longitud percibida es proporcional a la intensidad del


estímulo (longitud aparente en el gráfico).
 Si k > 1, la función aparece positivamente acelerada, porque la sensación aumenta
rápidamente a medida que se incrementa el estímulo (electrochoque en el gráfico).
 Si k < 1, la forma de la función es negativamente acelerada, porque crece más lentamente que
el aumento en la intensidad del estímulo (estimación del brillo).

*Si la transformación logarítmica de los datos da como resultado una función lineal, los datos se
ajustan a una función potencial (fig. 9.10.B).

Fig. 9.1 0. Forma que adopta la función potencial según el valor del exponente k. En A los ejes se han
representado en una escala lineal. En B en una escala logarítmica.

3.3. Método de ajuste de modalidades sensoriales y validez de la ley psicofísica


potencial

Los métodos conducentes a escalas de


razón requerían que los observadores
poseyeran una cierta destreza en el
manejo de los números. Para obviar
este problema, Stevens diseñó el
procedimiento de ajuste de
modalidades sensoriales distintas.
Consiste en presentar un estímulo en
una modalidad sensorial (por ejemplo,
un sonido), y a continuación presentar
un segundo estímulo de modalidad
sensorial diferente (por ejemplo, una
vibración en la palma de la mano). Se
pide a los observadores que
15
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
modifiquen la intensidad del segundo estímulo hasta que las sensaciones producidas por ambos les
parezcan iguales.

En la figura 9.1 1 , el eje v ertical es la v ibración e n dB, y el horizontal es el ruido sonoro en dB.

La técnica de ajuste entre modalidades se ha utilizado en gran número de investigaciones para validar
la ley potencial y los resultados de numerosos experimentos proporcionan un fuerte apoyo a esta ley .
Es aplicable a cualquier continuo que presente variaciones cuantitativas en la magnitud sensorial. Por
ejemplo, en continuos como el brillo. Estos continuos se denominan protéticos. A diferencia de los
anteriores, en los continuos metatéticos las sensaciones varían de forma cualitativa, por ejemplo, un
cambio en la longitud de onda de un estímulo luminoso puede provocar un cambio en la apariencia de
azul a verde. En este caso los observadores emitirían juicios sobre la cualidad y no sobre la cantidad,
por lo que la ley no se podría aplicar.

3.4. Limitaciones de la propuesta de Stevens

 La medida: el problema estriba en determinar qué es lo que se mide con la


utilización de los métodos directos. Una crítica se ha centrado en la utilización
de números. El problema se intentó resolver apelando a que en el método de
ajuste de modalidades no se utilizan números y los resultados son, en general,
equiparables a los obtenidos con el método de estimación de magnitud. Pero Stevens pareció
aceptar que la medida no es tan directa.
 La adecuación de la ley potencial como una descripción de los resultados psicofísicos: la ley
sólo se mantiene cuando se utilizan métodos directos, y tampoco de forma invariable.
 Hood y Finkelstein (1979) sobre estimación del brillo: muestran que la ley potencial no
describe de manera adecuada los datos.
 Luce y Mo (1965) sobre estimación de peso: los resultados se desvían sistemáticamente de la
ley potencial.
 McKenna (1985): el hecho de que se obtenga una función potencial únicamente con métodos
directos cuestiona la validez de la ley.

Existe controversia en relación con los datos individuales. Por lo tanto, la ley psicofísica potencial
ofrecería una descripción empírica razonable, pero no perfecta, de la relación entre la intensidad de
los estímulos y los juicios sobre la magnitud de las sensaciones.

3.5. Interpretación de la ley potencial

3.5.1. Interpretación sensorial

Stevens (1970) consideraba la ley potencial como un reflejo de la actividad del sistema sensorial.
Desde este punto de vista, la ley potencial se debería a procesos biológicos periféricos. Pero
numerosos datos contradicen esta interpretación, ya que el exponente de la función potencial no
debería variar por la influencia de factores no sensoriales.

Algunas investigaciones muestran lo contrario, ya que el exponente de la ley potencial varía en


función de factores como:

1) La posición del estímulo de referencia en el rango de valores estimulares utilizados; el


exponente es menor cuando el estímulo de referencia se elige de entre los estímulos más
débiles o más intensos que cuando presenta una intensidad intermedia.
2) El rango de intensidades presentadas en el experimento.
3) La posición del estímulo de referencia en la serie estimular.

16
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
3.5.2. Interpretaciones cognitivas

Las interpretaciones alternativas consideran exclusivamente la actuación de procesos cognitivos.


Warren señala que los juicios que emiten los observadores no son juicios sobre la magnitud de las
sensaciones sino sobre los estímulos; los sujetos tomarían como base determinados atributos físicos
de los estímulos relacionados con la magnitud sensorial, a partir de relaciones aprendidas
previamente. Por ejemplo, al emitir juicios sobre el brillo, el observador tomaría en consideración la
distancia entre el objeto y la fuente de iluminación sobre la base de experiencias previas.

En opinión de Baird (1997), la estimación de la distancia visual está influenciada igualmente por el
contexto y otros factores que afectan a los juicios psicofísicos.

Poulton (1968, 1989), en su hipótesis sobre el rango de valores estimulares, señala que lo que refleja el
tamaño del exponente de la función potencial son variaciones en las condiciones experimentales, y no
diferencias en los sistemas sensoriales.

4. TIEMPO DE REACCIÓN

Es el tiempo transcurrido entre la presentación del estímulo y el inicio de la respuesta.

El desarrollo histórico en el estudio de la cronometría mental presenta varias etapas:

1. La «prehistórica», anterior a 1850. Se desarrollan las primeras técnicas de medida de los


procesos mentales en el ámbito de la astronomía. Los resultados tienen poca repercusión. En
el ámbito de la fisiología hubo una actitud negativa por parte de los científicos ante la
posibilidad de medición de la tasa de conducción nerviosa, basada en la creencia de que
presenta los mismos rangos que la velocidad de la luz.
2. Con Helmholtz (1850) comienza la etapa «dorada» y sus trabajos obtuvieron una gran difusión
y gran repercusión porque:
a. Propició el inicio real de la cronometría mental en la Psicología Experimental.
b. Porque la cronometría mental va unida a la fisiología, lo que se encuentra en el análisis
de la problemática del TR como variable dependiente.
En esta época surge el método de substracción de Donders (1868) o la aplicación de las curvas
de velocidad y precisión al estudio de los movimientos motores de Woodworth (1899).
El notable desarrollo experimental se vio frenado hasta 1900 por la crítica de Külpe al
supuesto de aditividad, que sostenía que el hecho de eliminar o añadir procesos podría tener
una influencia en la configuración de todos ellos.
3. En 1969, con la traducción del trabajo de Donders «Sobre la velocidad de los procesos
mentales», y la publicación del trabajo de Saúl Stenberg sobre las ampliaciones del método de
Donders, se produce un «renacimiento» que ha influido en la investigación en Psicología
Cognitiva.

4.1. Tareas de TR

Tareas de TR descritas por Donders:

 Tarea de tiempo de reacción simple. Se presenta un único


estímulo, por ejemplo un destello luminoso; el observador da una
respuesta tan pronto como lo haya percibido. En esta tarea únicamente estaría implicado el
proceso de detección.
 Tarea de tiempo de reacción de elección. Se pueden presentar dos o más estímulos en
cada ensayo, por ejemplo una luz roja y una azul, y el observador tiene que responder de

17
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
manera diferente a cada una de ellas. Los procesos implicados serían detección,
discriminación y selección de respuesta.
 Tarea de tiempo de reacción selectivo. Se presentan dos estímulos; el observador tiene
que responder únicamente ante el estímulo que le indique el experimentador. Los procesos
implicados en esta tarea serían detección del estímulo y discriminación.

4.2. Problemática específica del tiempo de reacción

4.2.1. La medida del TR

El hecho de utilizar el TR como VD en los experimentos debe tener en cuenta una serie de problemas
que pueden distorsionar la interpretación de los resultados. En primer lugar hay que determinar
aquellos parámetros y condiciones que producen variaciones en los TR.

Los problemas más importantes que nos encontramos son:

 Según Pachella (1974) debemos preguntarnos ¿sobre qué estamos midiendo cuando utilizamos
el TR? La definición operativa más aceptada es “intervalo temporal entre la presentación del
estímulo y el inicio de la respuesta”. En opinión de Pachella, sus efectos pueden confundirse
con los efectos de las condiciones experimentales. Por ejemplo, cuando consideramos las
diferencias entre presentación del estímulo simultánea o sucesiva, y también en modalidades
sensoriales que presentan características temporales distintas (como es el caso de visión y
audición, etc.). La definición del inicio de la respuesta, debe tener en cuenta aquellos aspectos
sensoriales que pueden influenciar su puesta en marcha.
 En relación con las distribuciones del tiempo de reacción, la situación ideal en un experimento
es que la respuesta del sujeto refleje la cantidad de tiempo mínima requerida para realizar una
respuesta correcta. Sin embargo, a menudo nos encontramos en los resultados de los
experimentos tiempos adulterados (excesivamente cortos o excesivamente largos). El
promedio de los TR nos aporta escasa información, dado que la medida está muy influida por
valores extremos. Para eliminar este problema, el criterio en algunas investigaciones consiste
en eliminar las puntuaciones más altas o más bajas, lo que presenta el problema de que la
elección del criterio para hacerlo puede ser arbitraria, y se puede perder información.

Una alternativa diferente es utilizar la mediana. Este procedimiento presenta el


problema de que destruye la distribución estándar del tiempo de reacción y la
interpretación de los resultados se modifica. Más grave es cuando se comparan
condiciones experimentales con desigual número de ensayos, donde se produce un
sesgo si el tamaño de la muestra de medianas es pequeño, debido al error aleatorio de obtener con
mayor probabilidad una muestra de medianas cuyo percentil verdadero no está cercano al 50%.

Un procedimiento más adecuado consiste en transformar las puntuaciones del TR en puntuaciones de


latencia media; para Tukey (1977), eliminar los valores adulterados convierte la distribución de la
latencia en una distribución simétrica.

4.2.2. Técnicas de velocidad y precisión

Las relaciones entre TR y errores se han utilizado como medidas combinadas de ejecución para
examinar los procesos psicológicos básicos implicados en el TR (Pachella, 1974). Consiste en diseñar
condiciones que acentúen la velocidad o la precisión.

Sperling y Dosher (1986) señalan dos procedimientos:

18
P. de la Percepción. Tema 9 Psicología UNED Dolores Latorre
a) Procedimiento clásico de TR, aportando una matriz de pagos para la velocidad, y
penalizaciones por los errores.
b) Procedimiento de tiempo límite, donde la respuesta debe darse en un tiempo predeterminado
para evitar penalizaciones si se supera este tiempo.

¿Cómo se induce velocidad? En ambos procedimientos:

 Se aumentan los pagos por responder rápido.


 Se disminuyen las penalizaciones por los errores.
 Se acorta el tiempo límite.
 Se disminuye el intervalo temporal de señal para la respuesta.

¿Cómo se acentúa la precisión? En ambos procedimientos:

 Se aumenta la penalización por cometer errores.


 Se aumenta el tiempo límite.
 Se aumenta la duración de la señal para la respuesta.

Los resultados de la precisión se representan en función del TR y la función obtenida presenta una
curva que representa un crecimiento continuo desde un nivel base hasta que se alcanza la asíntota.

5. TÉCNICAS Y PROCEDIMIENTOS EXPERIMENTALES EN EL ESTUDIO DE LA


PERCEPCIÓN

Los procedimientos psicofísicos, se utilizan fundamentalmente en aquellas investigaciones


encaminadas a determinar la sensibilidad de los mecanismos del sistema perceptivo.

 El método de adaptación selectiva consiste en reducir la sensibilidad de un estímulo


(estímulo de prueba) mediante la exposición previa y prolongada a otro estímulo (estímulo
adaptador). La reducción en la sensibilidad es mayor cuando los dos estímulos presentan
semejanzas en alguna dimensión y es mínima cuando son muy diferentes en todas las
dimensiones.
 El procedimiento de enmascaramiento consiste en la presentación simultánea de dos
estímulos; uno (estímulo que enmascara) reduce la sensibilidad del otro (estímulo de prueba)
que presenta características parecidas al primero, por lo que para detectarlo es necesario
elevar el umbral en aquella dimensión estimular que presenta semejanzas con las del estímulo
que enmascara.
 El procedimiento de suma subumbral consiste en la presentación simultánea de dos
estímulos, uno de los cuales (estímulo subumbral), aunque no se percibe aisladamente, eleva o
reduce el umbral del otro estímulo (estímulo de prueba).

En los procedimientos experimentales, objetivo fundamental es contrastar las predicciones


teóricas acerca de la relación entre los hechos y los procesos perceptivos básicos, en función de las
manipulaciones sistemáticas de las variables estimulares.

19

También podría gustarte