0% encontró este documento útil (0 votos)
20 vistas63 páginas

Conducta Elicitada: Habituación y Sensibilización

El documento aborda la conducta elicitada, habituación y sensibilización, explicando cómo las respuestas automáticas a estímulos se producen a través de un arco reflejo mediado por neuronas. Se discuten los conceptos de habituación, que es la disminución de la respuesta ante estímulos repetidos, y sensibilización, que es el aumento de la respuesta, así como su relación con el condicionamiento clásico, donde se asocian estímulos neutros con respuestas incondicionadas. Además, se presentan diferentes procedimientos de condicionamiento y sus características, así como métodos para medir la respuesta condicionada.

Cargado por

tortajadapau01
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
20 vistas63 páginas

Conducta Elicitada: Habituación y Sensibilización

El documento aborda la conducta elicitada, habituación y sensibilización, explicando cómo las respuestas automáticas a estímulos se producen a través de un arco reflejo mediado por neuronas. Se discuten los conceptos de habituación, que es la disminución de la respuesta ante estímulos repetidos, y sensibilización, que es el aumento de la respuesta, así como su relación con el condicionamiento clásico, donde se asocian estímulos neutros con respuestas incondicionadas. Además, se presentan diferentes procedimientos de condicionamiento y sus características, así como métodos para medir la respuesta condicionada.

Cargado por

tortajadapau01
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

TEMA 1: CONDUCTA ELICITADA, HABITUACIÓN Y

SENSIBILIZACIÓN

La conducta elicitada o incondicionada es una respuesta automática y estereotipada a


estímulos ambientales específicos. El reflejo es la forma más simple de conducta
incondicionada. Ejemplos: reflejo palpebral, respuesta de sobresalto, estornudo
provocado por polvo, reflejo de oclusión respiratoria…

Estas respuestas permiten adaptar nuestra conducta a situaciones de riesgo.

Está conducta (reflejo) supone una conexión innata entre estímulo y respuesta. (Al
estímulo señal o elicitante le sigue una respuesta).

En los vertebrados los reflejos simples están mediados por 3 neuronas:

 Neurona sensorial o aferente: transmite el mensaje sensorial a la médula


espinal.
 Neurona motora o eferente: activa el músculo involucrado en la respuesta
refleja.
 Interneurona: donde se comunican neurona sensorial y motora

Estas tres neuronas forman el arco reflejo (que posibilita un acto reflejo).

Las pautas de acción modal

Las respuestas reflejas simples son compartidas por muchas especies diferentes.
Otras son específicas de una especie o conjunto de especies. A estas conductas
elicitadas típicas de especies concretas las llamamos Pautas de Acción Modal (PAM).

Con frecuencia se trata de formas complejas de conducta social en las que intervienen
un conjunto coordinado de músculos diferentes. Se han identificado: en el
comportamiento sexual, la defensa de territorio, la agresión, la captura de presas.

Ejemplo: Alimentación de crías de gaviota arenquera (La cría picotea el pico de su


progenitor para estimular la regurgitación).

El estímulo señal o desencadenante es el estímulo que desencadena la respuesta (ej:


pico largo con un punto rojo)

Organización secuencial de la conducta

Conducta apetitiva: primeros componentes de la secuencia conductual. Permite


poner al organismo en contacto con los estímulos que generarán la conducta
consumatoria. Conductas variables y susceptibles de ser modificadas mediante el
aprendizaje.

Conducta consumatoria: Donde se obtiene el resultado de la conducta. Se da al final


de la secuencia conductual. Son conductas más estereotipadas (no varían entre
individuos, ej: comer).

1.2 Efectos de la estimulación repetida

Habituación y sensibilización

Tendemos a pensar que una respuesta elicitada (ej: un reflejo) se dará siempre de la
misma forma cuando se presente). En realidad, estas respuestas son más plásticas y
cambiables.

Habituación: Disminución de la tendencia a responder como consecuencia de la


estimulación repetida.

Sensibilización: Incremento de la tendencia a responder como consecuencia de la


estimulación repetida.

Ejemplos: Epstein

Utilizaban lima y limón, se introducía zumo de limón en la boca de personas (provoca


una respuesta de salivación). Hacían diferentes ensayos y medían el nivel de
salivación. A lo largo del tiempo, la salivación disminuía. Se observa una habituación.
En el ensayo 11 en vez de presentar limón presentaban lima, y la respuesta
aumentaba. El resultado muestra que nos habituamos a estímulos específicos, si
cambias el alimento no habrá esta habituación.

La deshabituación consiste en recuperar la respuesta al estímulo habituado a causa


de la interpolación de otro estímulo. (Después de dar la lima, si se vuelve a dar el
limón no habrá la habituación que antes había).

También medían la evaluación hedónica (cómo sienten los estímulos). Pasa lo mismo
que en el caso anterior.
Otro ejemplo: Bashinski

En pantalla se presentan diferentes estímulos. Se mide el tiempo de fijación del bebé


en la pantalla. A la mitad de los bebés se presentaba un estímulo y a la otra mitad otro
estímulo.

La gráfica muestra el tiempo de fijación de bebés.

En el grupo 4x4 hay habituación, y en el 12x12 primeramente se da una


sensibilización, que después de un tiempo se convierte en habituación.

Conclusión: la atención también disminuye, y cuando el patrón es más complejo


primero se da sensibilización.

Otro ejemplo: Groves y Thompson

Mide la respuesta de sobresalto en ratas. El aparato estabilimétrico mide cuánto ha


saltado la rata

Al principio el sobresalto de la rata es alto cuando suena el estímulo intenso, pero


cuando el estímulo se repite en el tiempo, este sobresalto desaparece.

Si el estímulo para un tiempo y se vuelve a presentar, se vuelve a dar una


deshabituación.
(La deshabituación solo se da cuando se presenta otro estímulo).

Si repetimos la misma comida que nos gusta durante muchos días, nos acabamos
habituando.

La respuesta a un estímulo puede disminuir por otros fenómenos que no sea


habituación:

 Adaptación sensorial: Pérdida de sensibilidad de los órganos sensoriales (por


ejemplo, debido a una estimulación demasiado fuerte como un destello de luz
que nos ciega temporalmente).
 Fatiga motora: no se activaría el músculo o conjunto de músculos implicados
en la respuesta.

Teoría del proceso dual

Plantea que existen 2 procesos que actúan en diferentes partes del SN. Un proceso de
habituación que actúa sobre el E-R, que dificulta la activación de este arco reflejo (E-
R). En paralelo pueden existir procesos de sensibilización, que actúa sobre el sistema
de estado, que determinaran cierta tendencia a responder

Proceso de Habituación: Actúa exclusivamente sobre el sistema E-R (arco reflejo).


Proceso que dificulta la activación del arco reflejo anulando la tendencia a responder.

Proceso de Sensibilización: Actúa sobre el sistema de estado (otras partes del


sistema nervioso que determinan la tendencia a responder del organismo). Una
activación general que predispone a responder. Sólo se activa con eventos
excitadores.

Los cambios que observemos reflejan la acción combinada de estos dos procesos,
dependiendo de cuál gane observaremos un efecto de habituación o de
sensibilización.
(No confundir el efecto de habituación o sensibilización con el proceso de habituación
y sensibilización)

Los dos procesos compiten y gana el de habituación, que produce el efecto de


habituación.

El efecto neto (lo que se observe) dependerá de la fuerza de cada proceso.

Experimento de Davis

Dos grupos con intensidad de sonido de fondo diferente (60 db y 80 db). El primer
grupo muestra efecto de habituación y el segundo efecto de sensibilización.

Características de la habituación y la sensibilización

1. Especificidad del estímulo


 Habituación: es específica al estímulo que se presenta repetidamente
(si cambiamos el estímulo la respuesta se recupera, recordemos la
lima).
 Sensibilización: no es específica al estímulo. La reactividad
incrementa para diversos estímulos (por ejemplo, ante un estado de
hambre, miedo etc, aumenta nuestra reactividad para casi cualquier
estímulo).
2. Curso temporal
 Sensibilización: normalmente efecto relativamente breve que pasa a
habituación.
 Habituación: Dos tipos: Habituación a corto plazo (HCP, segundos o
minutos) /Habituación a largo plazo (HLP, muchos días)

TEMA 2: FUNDAMENTOS DEL CONDICIONAMIENTO CLÁSICO

Condicionamiento clásico: introducción


Hasta ahora hemos visto dos formas sencillas de aprendizaje: la habituación y la
sensibilización.

Si sólo aprendiésemos mediante estos mecanismos, estaríamos limitados a cambios


en las respuestas que ya son parte del repertorio conductual del organismo.

Otra forma importante de aprendizaje: aquella que nos permite aprender sobre las
relaciones entre estímulos y así predecir la ocurrencia de ciertos acontecimientos y
ajustar nuestra conducta en consecuencia.

Pávlov realiza los primeros estudios sobre condicionamiento clásico. Estudia la


salivación de los perros ante estímulos que anunciaban que iba a comer. Estas
respuestas ante la expectativa de comida se llaman secreciones psíquicas.

En el condicionamiento clásico hay estímulos que provocan una respuesta automática.


(Comida en la boca provoca salivación, como esto no es aprendido se llama estímulo y
respuesta incondicionadas, EI y RI).

Habrá otros estímulos que no provoquen esa respuesta incondicionada, como una
campana. Se llaman estímulos neutros (EN).

Durante el condicionamiento clásico se empareja un EN con un EI, que provoca la


respuesta incondicionada.

En general, este emparejamiento se repite múltiples veces. A cada emparejamiento se


le llama ensayo de condicionamiento o ensayo.

Después de los emparejamientos, cuando se presente solo la campana se producirá la


respuesta. Un estímulo condicionado, EC, (Condicionado porque ha habido
aprendizaje), provocará una respuesta condicionada.

El condicionamiento clásico es un tipo de aprendizaje por el cual un organismo llega a


asociar estímulos y a anticipar hechos.

La curva de adquisición de la respuesta condicionada (aprendizaje) incrementa de


manera progresiva, a medida que se realizan más ensayos.

Ejemplo: Desde que tuve aquel accidente de coche no soy capaz de subirme a ningún
coche.

EC: Coche

EI: Accidente de coche

RC: Rechazo
RI: Dolor

Condicionamiento clásico: situaciones experimentales

Algunas situaciones son condicionamiento apetitivo y otras aversivo (de defensa).


Depende de si el EI me provoca querer acercarme o alejarme por miedo, dolor…

Condicionamiento apetitivo:

- Condicionamiento de salivación
- Seguimiento del signo

Condicionamiento aversivo (de defensa):

- Condicionamiento de parpadeo
- Condicionamiento de aversión al sabor
- Condicionamiento del miedo o REC

Condicionamiento de parpadeo

Se estudió con conejos y niños. Con conejos el condicionamiento de parpadeo


necesita muchos ensayos.

Condicionamiento del miedo

Obviamente es difícil explorar estas cuestiones experimentalmente con personas…


por ello habitualmente ratas. Procedimiento habitual: Técnica de respuesta emocional
condicionada o supresión condicionada (REC)

Se utilizan cajas de Skinner. Se utiliza como EI pequeñas descargas, que provocan RI


de miedo, sobresalto…

Como EN se producen tonos, luces, clicks… que al emparejarse con el EI generan un


EC que consiguen una RC.

El miedo se mide indirectamente, por ejemplo, viendo como suprime una acción en
curso (al sonar el tono, interrumpe la actividad del animal). Pasos:

1. Se entrena a las ratas para llevar a cabo una conducta instrumental (apretar
una palanca para conseguir comida)
2. Mientras los animales están presionando la palanca se presentan ensayos de
condicionamiento clásico en los que un estímulo neutro (por ejemplo, una luz)
va seguida de una descarga eléctrica (EI aversivo).
3. Cuando el estímulo neutro se condiciona (se asocia al EI y por lo tanto pasa a
ser un EC), la rata muestra miedo ante la luz. Este miedo provoca una
respuesta de inmovilización que interfiere con la conducta instrumental.

Para medir cuanto suprime la conducta utilizamos el índice de Razón de Supresión


(RS). RS=A/(A+B).

A: Número de respuestas durante la presentación del EC. (3 en el dibujo)

B: Número de respuestas durante el periodo previo a la presentación del EC.

Cálculo RS primera imagen: A= 1 B= 10 1/ (1+10) = 0,09. Mucho condicionamiento

Cálculo segunda imagen: 10/ (10+10) = 0,5. No condicionamiento

Cuanto menor sea el número, más supresión de la conducta.

Automoldeamiento o seguimiento del signo

Son cajas de Skinner para palomas. Como EI se utiliza la comida, y como EC


iluminaciones de teclas.

Conforme el animal asocia la iluminación de la tecla con la comida, la respuesta


condicionada que va a hacer es picotear la tecla.

EC: Iluminación de tecla

EI: Comida
RC: Picotear la tecla.

Heart y Jenkins (1974) utilizan una caja con un pasillo largo de tal manera que la luz
que precede a la comida (el EC) queda lejos del comedero.

La luz indica que el comedero estará abierto unos segundos. La paloma picotea la luz
(seguimiento del signo) de forma innecesaria, y en ocasiones incluso esto provoca que
no llegue a tiempo al comedero.

Aversión al sabor

Nuestras preferencias y rechazo a ciertos alimentos también pueden estar influidas por
procesos de condicionamiento.

Se le da al animal acceso a un sabor (ej. Dulce), este sabor actúa como EN que se
convertirá a EC.

A este animal se le produce un malestar gastrointestinal con una inyección.

La RC consistirá en que el animal al asociarlo evitará ese sabor...

A menos consumo más aversión.

Características de la aversión al sabor

1. Aparece después de muy pocos ensayos de condicionamiento (incluso 1 único


ensayo)
2. Sucede incluso aunque pase mucho tiempo entre la presentación del EC y la
aparición del EI (incluso horas).

Bernstein demostró que pacientes con cáncer sometidos a quimioterapia desarrollaban


aversión a los alimentos consumidos antes del tratamiento.

Presentación temporal EC/EI (procedimientos)

Intervalo entre estímulos: tiempo que pasa entre que empieza el EC, hasta que
empieza el EI.
4 tipos de procedimientos:

Procedimiento de demora

El EN o EC está presente hasta que se presente el EI, coincidiendo durante una parte
del tiempo.

De demora corta: Menos de 1 minuto desde que se inicia el EC hasta que se inicia el
EI

De demora larga: Habitualmente 5-10 minutos desde que se inicia el EC hasta que se
inicia el EI.

Procedimiento de huella
Igual que en el procedimiento de demora, el EC aparece antes que el EI. A diferencia
del de demora, en éste el EC acaba antes de que se presente el EI

Intervalo de huella: El lapso en el que ya ha desaparecido el EC y todavía no ha


aparecido el EI.

Procedimiento simultáneo
EC y EI se presentan a la vez.
Procedimiento hacia atrás
EI aparece un poco antes que el EC.

El procedimiento que mejor provoca un condicionamiento es el de demora corta, ya


que permite asociarlos. Ya que, si van a la vez, se pueden identificar como un solo
estímulo.

¿Cómo medimos la respuesta condicionada?

Se hace mediante un ensayo de prueba.

En los ensayos de prueba se realiza una presentación aislada del EC (sin el EI): así
podemos observar la respuesta que es debida al EC (por lo tanto, aprendida) sin la
interferencia de la RI que producirá el EI.

Estos ensayos de prueba a veces se hacen al final del condicionamiento y otras veces
periódicamente a lo largo del mismo.

Si pensamos en los procedimientos que acabamos de ver… en realidad en los de


demora y huella toda respuesta que se produzca durante el EC y antes de que
aparezca el EI podemos estar seguros de que es condicionada.

Diferentes formas de cuantificar la RC:

 Magnitud de la respuesta (Ej: gotas de saliva)


 Proporción de ensayos en los que se observa la respuesta. (probabilidad de
respuesta)
 Latencia de la respuesta (tiempo que pasa desde el inicio del EC hasta que se
da la respuesta.

Procedimientos de control en el condicionamiento clásico

Para estar seguros de que los cambios observados se deben al condicionamiento


clásico, necesitamos comparar estos cambios con los de una condición de control
(grupo control).
Control descorrelacionado o desemparejado: Expongo los dos estímulos de
manera desemparejada.

Control verdaderamente aleatorio: Se presentan los dos estímulos al azar.

Contigüidad versus continencia

Contigüidad es que se presentan conjuntamente. Rescorla plantea que el


condicionamiento clásico no depende de la contigüidad, sino del valor informativo del
EC respecto el EI (emparejar EC y EI no siempre provoca condicionamiento).

Para que haya condicionamiento es necesario que el EC sea un buen predictor del EI
(es decir, debe existir una relación de contingencia entre ambos).

El concepto de contingencia

La contingencia está relacionada con el valor informativo del EC, en relación con la
presencia/ausencia del EI.

El índice matemático más habitual es:

La probabilidad de que ocurra el EI cuando el EC está presente, menos la probabilidad


de que ocurra el EI en ausencia del EC.

Si da 0, no hay condicionamiento y obtendremos 0.

En la tabla el EC siempre se coloca en las filas, y el EI en las columnas. Como


combinamos estos eventos, tenemos 4 posibilidades.

 EC (tono) + EI (descarga), se representa con a)


 EC (tono) + No ocurre el EI, representado en b)
 No hay EC y se presenta el EI (descarga), representado en c)
 No hay EC ni EI, representado en d)

La probabilidad la haríamos, EI cuando ocurre EC, menos EI en ausencia de EC: A


entre el total de las filas (a/(a+b) y C entre el total de la fila (c/(c+d))
Volvemos a las dos situaciones anteriores:

Tratemos de rellenar la tabla de contingencia para cada caso.

Situación 1

- EI NO EI
EC 4 0
NO EC 0 4

4/4= 1 0/4=0, por lo tanto, siguiendo la fórmula =1


Situación 2

- EI NO EI
EC 4 0
NO EI 4 0

4/4= 1 4/4=1. Siguiendo la fórmula =0


El concepto de contingencia
Experimento de Rescorla
Experimento con ratas y media la Razón de Supresión.

El 0,4 es quien más miedo tiene. La Razón de Supresión, cuanto más cerca del 0
indica mayor miedo. Sus valores van de 0 a 0,5.

Condicionamiento inhibitorio

Hasta ahora hemos hablado de situaciones en las que el EC predice la ocurrencia del
EI (condicionamiento excitatorio).

Pero ¿qué pasa si el EC predice la ausencia del EI? En este caso el EC también es
una señal fiable de algo, y por lo tanto proporciona información (condicionamiento
inhibitorio). El EC predice que no se presenta el EI.

EC+= Excitatorio / EC-= Inhibitorio

Para que un EC se convierta en inhibidor ha de existir un marco excitador, donde


podrán desarrollarse conductas inhibitorias. (Ejemplo: bullying a un niño en clase, y
cuando llega el profesor a clase este bullying para).

Hay dos formas de estudiar este condicionamiento clásico inhibidor:


 Estándar:

Se combinan ensayos excitadores con ensayos inhibidores. La aparición del


EC inhibitorio señala la NO ocurrencia del EI. (Policía hace que no se lleve a
cabo el peligro potencial: EI)
 Diferencial

En los EC inhibitorios no se presenta el EC excitatorio. No está tan claro el


marco excitador. El marco excitador lo da el propio contexto. (Semáforo hace
que no se lleve a cabo el EI).

Condicionamiento inhibidor: ¿Cómo medirlo?

Muchas veces la inhibición es conductualmente silenciosa (no muestran respuestas


como de miedo…). Hay sistemas bidireccionales que pueden aumentar o disminuir y
permiten medirlo (ritmo cardíaco).

a) Sistemas bidireccionales de conducta: Se pueden medir directamente.


(ritmo cardíaco, respiración, temperatura
b) Mostrarse conductualmente silencioso: No vemos cambios en la conducta
del animal. Para considerar que algo es un inhibidor condicionante ha de pasar
dos pruebas:
1) Prueba de sumación: Si presento EC excitador y inhibidor, deberían
sumarse las dos fuerzas. Si sumamos la excitación a la inhibición,
debería tener capacidad de reducir la excitación.
2) Prueba de retraso: Se convierte el EC inhibidor en un excitador. Si se
demuestra que el estímulo tarda más en convertirse en excitador que
un estímulo neutro, se considera inhibidor.

TEMA 3: MECANISMOS DEL CONDICIONAMIENTO CLÁSICO

La estructura asociativa del condicionamiento clásico

Hay 2 perspectivas en situaciones de condicionamiento clásico: que se aprendan


asociaciones estimulo-estimulo o asociaciones estimulo-respuesta.

Asociaciones E-R

Experimento de Pávlov, el tono (EC) produce una respuesta que es la salivación.

Asociaciones E-E

Se presenta el tono con la comida, el tono se asocia con la comida. Por eso al
presentarse el tono, activa el recuerdo de la comida que a su vez activa la salivación.

Para contrastar entre estas dos interpretaciones el condicionamiento clásico estudios


sobre:

 Devaluación del reforzador. Se emparejaba un tono con la comida. La


respuesta medida es la aproximación al comedero. Según:
o La teoría E-E: el tono se asociará con la comida, que a su vez activa la
aproximación
o La teoría E-R: se da una asociación entre el tono y la aproximación, sin
tener que avocar a la comida.

La devaluación consiste en la segunda fase añadir LiCl a la comida (provoca


náuseas).
o La teoría E-E: El tono provocará rechazo
o La teoría E-R: El tono provocará aproximación, porqué ya existe esta
relación entre estimulo y respuesta.
 Precondicionamiento sensorial: Los dos estímulos deben de haberse
asociado, porque, aunque que los dos sean neutros uno puede afectar al otro.
Favorece la interpretación de la teoría E-E

Normalmente se asume que la perspectiva E-E tiene más apoyo.

Variables que afectan al condicionamiento clásico

Para determinar si algo es EC o EI nos hemos de fijar en el sistema de respuesta que


estemos midiendo.

¿Qué criterios determinan la eficacia de los EC y EI para producir condicionamiento?

1) Saliencia de los estímulos: Cómo de significativos son los estímulos para el


animal. Se miden con la intensidad, pero también depende del estado biológico
del animal. A más intensidad mayor saliencia, que provocará un mejor
condicionamiento.
2) Naturaleza del EC y del EI: relevancia o pertinencia EC-EI: Cómo de bien
encajan el EC y el EI. Experimento en el que se utilizan varios EC y EI de
diferente naturaleza, uno es de naturaleza interoceptiva (la estimulación es
dentro del organismo) y el otro exteroceptivo (estimulación de fuera). Fases del
experimento:
a. Fase 1: Todos los sujetos beben agua con azúcar. Cuando están
bebiendo el líquido, está activo un estímulo audiovisual (luz y tono).
Cuando se apaga el estímulo, se acaba el acceso al líquido. Los dos
estímulos de esta parte son ECs, uno interoceptivo y otro exteroceptivo.
b. Fase 2: Se distinguen dos grupos basándose en lo que ocurre después,
en el EI que reciben.
 GRUPO 1: Inyección de cloruro de litio, provoca malestar
gástrico. (EI interoceptivo, causa dolor, estimula los intestinos)
 GRUPO 2: Después de consumir agua dulce reciben una
descarga eléctrica (EI exteroceptivo).

Hay dos tipos de pruebas:

1. Tienen acceso al agua con azúcar, pero no están activos tono y luz
2. Beben agua sin sabor, pero hay tono y luz.
Resultados:

 1º: Tiene más miedo a consumir agua cuando está el azúcar, pero
no el tono y la luz. Se asocia el azúcar con el cloruro de litio.
 2º: Tiene más miedo a consumir cuando está el tono y luz. Asocia
con la descarga eléctrica el tono y la luz.
3) La novedad de los EC y EI: Si un EC o EI son familiares, el aprendizaje es
más lento que si son completamente nuevos. Inhibición latente o efecto de la
preexposición: Los experimentos sobre este efecto incluyen dos fases:
1. Fase de preexposición: Se expone a los sujetos a presentaciones
repetidas del EC, volviéndolo habitual e irrelevante.
2. Fase de prueba: El EC se empareja con el EI mediante los métodos
del condicionamiento clásico.

Se observa que los sujetos pre-expuestos al EC tardan más tiempo en


relacionarlo con el EI

4) Fuerza biológica: Pavlov dice que la diferencia entre la fuerza biológica de EI


y EC es necesaria para el condicionamiento clásico. (La fuerza biológica del EI
ha de ser mayor que la del EC, que inicialmente es neutro). Si durante el
proceso el EC aumenta su fuerza biológica (provoca la RC), podrá ser utilizado
como EI
Diseño experimental del condicionamiento clásico de segundo orden
(orden superior):
 Grupo 1 (experimental): Se presenta tono y descarga. Luego se presenta
luz seguida de tono. Finalmente, el tono acabará provocando miedo. La luz
predice la aparición del EC y provoca miedo
 Grupo 2: Se presenta tono y descarga, y posteriormente luz y tono
desemparejados. La luz no producirá miedo porque no se ha emparejado
con el estímulo que sí provoca miedo (tono).
 Grupo 3: En la primera fase se presentan tono y descarga desemparejados,
luego se presentan luz y tonos emparejados. No se produce miedo.

De todos los modelos, el único que puede explicar el condicionamiento de


segundo orden es el de E-E, porque primero asocia la luz con el tono, luego
tono con descarga, y la luz lleva la respuesta del miedo.

Condicionamiento en compuesto
 Ensombrecimiento: En su experimento, Mackintosh dice que la presencia de un
estímulo (EC1), que acompaña a otro (EC2) en un compuesto, dificulta
(ensombrece) el condicionamiento de este. Si el estímulo A es más saliente
que B, se condicionará más rápido y dificultará el condicionamiento de B.
Experimento: Para el grupo de ensombrecimiento se presentan los dos
estímulos juntos (AB). Para el grupo control, solo se presenta el estímulo de

baja intensidad (B). Así, se observa como la presencia de A altera el control de


la conducta por el estímulo más débil, b. En términos más precisos, diremos
que A ha restado a B poder de asociación con el reforzador.
 Bloqueo: En su experimento, Kamin dice que un estímulo (EC1) previamente
condicionado impide (bloquea) el condicionamiento de otro estímulo (EC2) si
se presentan en compuesto.

El modelo de Rescorla i Wagner

Los trabajos sobre condicionamiento en compuesto influyeron en la aparición de la


teoría de Rescorla-Wagner.

Ensombrecimiento: Sugiere que hay competición entre los estímulos (ECs)


presentes en un ensayo para ganar fuerza asociativa con el EI.

Bloqueo: El procesamiento del EI es el parámetro principal del condicionamiento


clásico, el efecto de bloqueo se produce porque el EI ya es esperado.

Rescorla y Wagner recogieron las ideas de Karim y propusieron una teoría del
condicionamiento clásico basada en la sorpresividad del EI.

Se produce condicionamiento cuando el EI es sorpresivo (para que se produzca


condicionamiento debe existir discrepancia entre el EI que se espera y el que
realmente se presenta)

La fuerza asociativa del EC


La fuerza asociativa del EC (V ec) es una variable intermedia que manifiesta el valor
del aprendizaje de la relación entre el EC y el EI:

- Nos da un valor de la fuerza de la asociación entre el EC y el EI.

La fuerza asociativa del EC es limitada, toma valores de 0-1. Cuando el EC ya es


totalmente predecible (fuerza asociativa igual a 1) decimos que hemos llegado a la
asíntota del aprendizaje.

α = saliencia del EC. Cómo el sistema cognitivo está pendiente de procesar el


estímulo, depende de la saliencia del EC (importancia que tiene la aparición del
estímulo para el sujeto. Esta entre 0 y 1.

β = saliencia del EI. Está entre 0 y 1. Normalmente es mayor que alfa, porque EI es
relevante, cuando aparece provoca reacción en el sujeto, altera lo que está haciendo y
tiene influencia sobre su actividad, en cambio el EC puede ser un estímulo neutro.
Cuando se hacen simulaciones se le da un valor superior al de alfa. Se añade un valor
de procesamiento variable, para ver si la presentación es esperable o no.

La regla delta del aprendizaje: (λ – V ec N-1)  Tiene en cuenta lambda y la fuerza


asociativa del EC que viene de la experiencia previa del ensayo n. Se
llama así porque mientras haya discrepancia entre ambos valores, habrá
margen para aprender la relación (discrepancia = lo que queda por
aprender). El margen de aprendizaje se reduce cuando tiende a 0 (ya no
podemos aprender más). Este factor variable expresa la sorpresa de su
presentación: si es esperado o no.

λ = nivel asintótico de aprendizaje. Es lo que podemos o deberíamos conocer (en una


situación de CC, la relación entre EC y EI), valor a alcanzar, constante. Valores de 0 a
1 donde 1 refleja las situaciones en las que hay que aprender algo (situaciones donde
está presente el EI) y 0 donde tenemos que aprender que n va a ocurrir nada
(situaciones donde no está presente el EI. Cuando lo que tienes que aprender
(lambda) se acerca a lo que ya está aprendido (V ec N-1) la discrepancia disminuye.
Si no hay EI, lambda es =0, si hay EI, lambda =1

Ejemplo:

Valor de la Fuerza Asociativa del EC en el Ensayo 10: 0,5 x 1x (0-1) = -0.5

Fuerza Asociativa del EC acumulada después del Ensayo 10: 1 – 0,5 = 0,5

Valor de la Fuerza Asociativa del EC en el Ensayo 11: 0,5 x 1 x (0-0,5) = -0,25

Fuerza Asociativa del EC acumulada después del Ensayo 11= 0,5 – 0,25 = 0,25

En el ensayo 13 los valores de aproximarán más a 0. Al hacer extinción, se convierte


ese estímulo en estímulo neutro (se borra el aprendizaje previo).

La sorpresividad del EI depende de todos los estímulos presentes en la situación


experimental:

(Sumatorio de todos los estímulos presentes)

No obstante, la fuerza asociativa de cada elemento se calcula independientemente.

Se hacen 4 cálculos, cuánto ha cambiado para la luz y cuánto ha cambiado para el


tono.
La variación de la fuerza asociativa del TONO será: 0,5 x 1 x (1-0) = 0,5. (Como es el
primer ensayo, en el acumulado de estímulos se pone 0)

La fuerza asociativa del TONO será: 0 + 0,5= 0,5

En la luz se obtiene lo mismo que en el tono (0,5 y 0,5).

La variación de la fuerza asociativa TOTAL es: 0,5 x 1 x (1- 0,5 del tono + 0,5 de la
luz) = 0

La fuerza asociativa TOTAL: 0,5 + 0 = 0.5

Extinción del condicionamiento clásico

En la extinción, se presenta el estímulo solo, sin el EI. Se espera que haya una
disminución en la respuesta condicionada (RC).

La extinción no es olvido. En el olvido se puede disminuir la RC con el tiempo, en la


extinción se presenta el EC sin EI.

La extinción no supone un borrado del aprendizaje previo-. Dos fenómenos lo


demuestran:

 Recuperación espontánea: Cuando se empieza a presentar el EC sin el EI, el


miedo va desapareciendo (fuerza asociativa tiende a 0). Después de un tiempo
se deja de presentar el EC y más tarde se vuelve a presentar. Rescorla dice
que los animales han borrado el aprendizaje previo, por lo tanto, los animales
dejarían de tener miedo. Lo que realmente pasa es que la respuesta extinguida
(miedo) reaparece después de haber estado un tiempo sin presentarse el EC.
 Renovación: Una respuesta que se ha condicionado y después se ha
extinguido, puede reaparecer si se cambia el contexto de esta extinción.
(Adquiero miedo en un contexto A, si voy a un contexto B y aparece el mismo
EC se puede dar una reaparición del miedo).

TEMA 4: CONDICIONAMIENTO INSTRUMENTAL


Hasta ahora hemos estudiado situaciones en las que estímulos provocaban
respuestas en el organismo. (La presencia de un estímulo activa automáticamente una
respuesta).

Pero hay otras situaciones en las que la relación se invierte: los estímulos son
consecuencia de la conducta. (Ej: si entramos en una habitación que está a oscuras
podemos manipular el interruptor de la luz y hacer que se ilumine). Primero
ejecutamos una conducta i después aparece la consecuencia.

Podemos decir que nuestra conducta es el instrumento que nos permite modificar el
entorno. Por este motivo, recibe el nombre de conducta instrumental.

La diferencia básica entre el condicionamiento clásico y el instrumental es la


naturaleza de los elementos que se asocian. En el condicionamiento clásico los
elementos asociados son dos estímulos que no se pueden manipular, mientras que en
el condicionamiento instrumental los dos elementos son una conducta i un estímulo
que si son manipulables.

El condicionamiento clásico nos permite anticipar hechos o su ausencia, mientras que


el condicionamiento instrumental permite alterar nuestro entorno con el objetivo de
hacerlo más agradable.

Orígenes: Thorndike y Skinner

El primer investigador dedicado al estudio del condicionamiento instrumental fue


Thorndike. Sus trabajos estudiaban la inteligencia animal y consistían en presentar
una serie de problemas a unos gatos para estudiar como los solucionaban.

Usaba unas cajas de madera. Cuando Thorndike metía a un gato en una de estas
cajas, observaba que el animal no sabía qué hacer para poder escapar y acceder al
bol de comida que se encontraba en el exterior. Medía el tiempo que tardaba el gato
en conseguir salir.
En los primeros ensayos, los gatos gastaban todo el tiempo establecido sin lograr el
objetivo. A medida que se iba presentando el mismo problema a los mismos gatos,
observaba que el tiempo que necesitaba para escapar se reducía de manera
progresiva. (Esto indicaba que habían aprendido a solucionar el problema).

Thorndike explica este aprendizaje mediante el ensayo y error. Los gatos realizaban
diferentes conductas hasta que alguna proporcionaba la solución al problema.

Las conductas defectuosas tendían a desaparecer y se seleccionaban aquellas que


tenían éxito.

Cuando un animal ejecuta una conducta que va seguida de un evento agradable, los
estímulos presentes en aquel momento y la respuesta quedan conectados en el futuro.
Mientras que, si la consecuencia es aversiva, la conexión se debilita.

Esto se conoce como la ley del efecto: Si una respuesta ejecutada en presencia de
un estímulo va seguida de un hecho satisfactorio, la asociación entre E y R se
fortalece. Si R va seguida de un hecho molesto, la asociación se debilita.

Situaciones experimentales

Ensayos discretos

En el procedimiento de Thorndike, el animal queda cerrado en la caja problema hasta


que ejecuta la conducta instrumental que lo liberaba y le daba acceso a la comida.
Después, el animal es retirado de la situación experimental hasta el siguiente ensayo.

Solo se permite una respuesta por ensayo.

La tarea de ensayo discreto más utilizada es la de laberintos (corredor y laberinto en


forma de T o Y).

El corredor tiene una caja de salida i otra de meta. Se coloca al animal en la salida y
se abre la puerta que permite al animal llegar hasta la meta donde hay un reforzador,
como comida. (Se calcula la velocidad de carrera o el tiempo que tarda el animal en
iniciar el recorrido. La velocidad de carrera aumenta a medida que se repiten los
ensayos y el tiempo de salida disminuye).

El laberinto en forma de T estudia la conducta de selección ya que contiene un brazo


de salida y dos metas. El punto de unión entre el brazo de salida y las dos metas se
llama punto de elección. En este punto el animal decidirá dónde ir. (Se suele medir el
porcentaje de elección. 50% muestra aleatoriedad a la hora de elegir, mientras que
variaciones indican que el animal aprende dónde se encuentra la comida).
Operante libre

Skinner creó un procedimiento que permitía el estudio de la conducta de manera


continua. Introdujo el concepto de respuesta operante que se define a partir del efecto
que tiene una conducta sobre el entorno del animal.

La conducta operante tiene la propiedad de modificar el entorno. En el laboratorio, se


estudia la respuesta operante mediante la caja de Skinner. La caja contiene un
espacio en el que se sitúa el animal. Hay diferentes elementos que sirven para
ejecutar respuestas y presentar estímulos.

En ratas normalmente se usan palancas y en las palomas teclas. En ambos casos,


cada vez que se ejecuta la respuesta de tirar la palanca o picotear la luz se registra en
ordenador. Cuando esta respuesta se ejecuta se activa un mecanismo que da comida.
La comida es un reforzador ya que, al presentarse inmediatamente después de la
respuesta, refuerza la conducta.

A diferencia de los ensayos discretos, aquí es el animal quien decide cuando y con
qué frecuencia realizará la conducta. Skinner propone la tasa de respuesta para
analizar la conducta operante.

La tasa de respuesta es la frecuencia en que la conducta aparece por unidad de


tiempo. La manera más habitual de medir la tasa de respuesta es el registro
acumulativo. Muestra el número total de respuestas que se han producido hasta un
momento concreto.

Al representar gráficamente un registro acumulativo situamos el tiempo en el eje X y


las respuestas acumuladas en el eje Y.
Si la rata no ejecuta la respuesta operante tendremos que el registro acumulativo solo
crece en sentido horizontal, ya que el tiempo transcurre. Es la inclinación de la
pendiente lo que nos da información sobre la frecuencia de ejecución de la respuesta
operante. De manera que pendientes suaves indican que la tasa de respuesta es baja,
mientras que pendientes muy inclinadas muestran tasas de respuesta altas.

Moldeo

Al situar a una rata en una caja de condicionamiento por primera vez, difícilmente esta
ejecutará la respuesta de manera espontánea. Se ha de ir entrenando a la rata en
diferentes fases.

El primer paso consiste en presentar reforzadores independientemente de la conducta


que esté realizando la rata.

Toda conducta compleja se puede desglosar en conductas más simples. El


moldeamiento se basa en reforzar estas unidades básicas hasta que la rata acabe
completando la tarea. (Ejemplo: si una rata ha de presionar una palanca, primero se
reforzará cuando se acerque a la palanca, luego cuando se ponga de pie, etc.). Una
vez que cada una de estas unidades básicas ya sean incorporadas, no se refuerzan.
Se va restringiendo el refuerzo hasta que la rata acaba realizando la conducta.

Procedimiento del condicionamiento instrumental

Hasta ahora hemos visto una situación muy concreta de condicionamiento


instrumental: la aparición de una respuesta que iba seguida de un estímulo agradable.

Hay muchas más situaciones de condicionamiento instrumental: una respuesta


ejecutada puede comportar una consecuencia (si un hijo pega a su hermano, los
padres le castigan sin televisión, por ejemplo).

Los hechos pueden ser agradables (dar un helado, permitir ver la tele…) o
desagradables (castigar sin tele, reñir al perro…). A los desagradables se les llama
aversivos y a los agradables apetitivo.
Contingencia positiva respuesta-consecuencia: la ejecución de la conducta provoca
que aparezca el estímulo (o al menos aumenta la probabilidad de que aparezca).

Contingencia negativa respuesta-consecuencia: la ejecución de la conducta provoca


que desaparezca el estímulo (o al menos disminuye la probabilidad de que aparezca).

Los procedimientos de condicionamiento instrumental se clasifican en función de la


contingencia positiva o negativa.

 Reforzamiento positivo: Una respuesta provoca la aparición de un estímulo


apetitivo. (Poner una moneda en una máquina y que salga un refresco, cobrar
a fin de mes…) Si se presenta la respuesta, el estímulo apetitivo aparece, si no
hay respuesta, no.
 Castigo o castigo positivo: La conducta provoca la aparición de un estímulo
aversivo. (Poner los dedos en un enchufe y recibir una descarga, tocar una
cafetera nada más salir el café y nos quemamos…). Las consecuencias de
este castigo sobre la conducta provocan que esta tienda a disminuir o
desaparecer.
 Refuerzo negativo: Una persona con fobia a los perros puede salir corriendo
si se encuentra uno. Un conductor puede llevar su coche al mecánico antes de
un viaje largo. En los 2 casos, se establece una contingencia negativa entre
estimulo aversivo y respuesta. (La persona que huye, se aleja del estímulo, que
es el perro. El conductor puede evitar una avería y sus consecuencias.
Hay una diferencia en los dos ejemplos: En el primero, la persona se encuentra
al estímulo aversivo (perro) i la respuesta ha provocado la desaparición del
estímulo. Este procedimiento se llama escapada. En el segundo, el estímulo
aversivo (avería) no se ha llegado a producir, se trata de un procedimiento de
evitación.
 Castigo negativo o entrenamiento de omisión: Un adolescente responde
mal a sus padres y estos le quitan el móvil una semana. La policía quita puntos
del carnet a un conductor que iba a 140. En los dos ejemplos se da una
contingencia negativa entre estímulo apetitivo y conducta. Si se produce la
conducta, se retira un estímulo agradable para la persona.

(El término castigo se refiere a procedimientos que provocaran una reducción en la


frecuencia de la conducta. Refuerzo se refiere a que la frecuencia tenderá a
incrementar. No confundir refuerzo negativo con castigo).

Elementos del condicionamiento operante

Para comprender la conducta instrumental se han de tener en cuenta 3 elementos i las


relaciones que se establecen entre ellos: estímulos discriminantes o antecedentes, las
respuestas i las consecuencias.

Estímulo discriminante

Es el estímulo que aparece antes de ejecutar la conducta instrumental. Thorndike en


su ley del efecto, consideraba que el estímulo discriminante controlaba la conducta
instrumental.

Sin embargo, Skinner demostró que la conducta instrumental estaba controlada por el
estímulo reforzador, es decir, por las consecuencias de la conducta. (Por ejemplo, si
damos comida a una rata por presionar una palanca observamos que la tasa de
conducta aumenta. Pero si dejamos de dar el reforzador, la rata deja de hacer la
conducta.)

El estímulo discriminante aporta un papel informativo sobre la disponibilidad o no del


reforzador. Si los estímulos del entorno anticipan la disponibilidad del reforzador y
estamos motivados para obtenerlo, realizaremos la conducta adecuada para obtener
el reforzador.

La respuesta instrumental

Hay conductas más fáciles de condicionar que otras. Thorndike observó con sus gatos
que al intentar condicionar respuestas como rascarse como condicionamiento
instrumental, a pesar de que el gato aprendía a ejecutarla para obtener el reforzador,
la forma de la conducta variaba a lo largo del tiempo (en ensayos posteriores ya no lo
hacía).

Thorndike propuso el concepto de pertenencia para explicar este comportamiento:


Determinadas conductas son coherentes con el reforzador por la historia evolutiva de
la especie. (Manipular objetos, colgarse de paredes… son comportamientos naturales
de un gato en un espacio cerrado, mientras que rascarse no lo es cuando trata de
escapar de un espacio cerrado).

Los hermanos Breland fueron los primeros en publicar datos sobre la dificultad de
entrenar determinadas conductas siguiendo el condicionamiento instrumental. Usaron
el término Misbehavior (mala conducta). Entrenaban animales para Zoos, anuncios de
televisión y otras actuaciones públicas y observaron dificultades o imposibilidad para
condicionar ciertas conductas específicas.

(Ejemplos: querían que un oso cogiera unas monedas y las introdujese dentro de una
caja. Al principio, se le entrenó con una sola moneda y aprendió fácilmente la
conducta, mediante la cual adquiría comida como un reforzador. Pero cuando se le
dieron dos monedas a la vez, en vez de ponerlas en la caja, el oso sostenía las
monedas entre las manos durante unos minutos i las fregaba, y repetía esta
conducta.)

¿Como era posibles que estas respuestas que no presentaba un reforzador se


mantuvieran con tanta fuerza? Los Berlands se dieron cuenta que las conductas
erróneas eran esas que los osos realizaban normalmente como parte de su repertorio
de conductas para la recolección de comida. Estas conductas que estaba tan ligadas
con las respuestas innatas de los sujetos las llamaron derivas instintivas.

El condicionamiento instrumental promueve una reducción en el rango de respuestas


que ejecutará un individuo. ¿Pero podemos condicionar a un animal para que ejecute
cada vez una respuesta diferente para conseguir el reforzador?

Page i Neuringer demostraron que el condicionamiento instrumental se puede utilizar


para provocar una variabilidad en la conducta. (Experimento: grupo experimental solo
recibe comida si la secuencia de golpes con el pico es diferente a las que había
realizado en los otros ensayos. Grupo control no tiene restricciones. Al final se observa
que los del grupo control repetían la misma secuencia mientras que el grupo
experimental mostraba un 75% de secuencias diferentes.)

Estímulo reforzador

Hay una gran variedad de estímulos que pueden funcionar como reforzadores y hay
reforzadores que inicialmente eran estímulos neutros y con un entrenamiento
específico se han convertido en reforzadores eficaces.

Un reforzador se define como cualquier consecuencia que, presentada junto a una


conducta, aumenta la probabilidad de que la conducta se repita en el futuro. (Esto
indica que no se pueden saber las propiedades reforzadoras de un estímulo a priori,
sino que nos basamos en los efectos que tiene en la conducta).

Hull definía un reforzador no por sus características, sino por sus propiedades a la
hora de reducir una necesidad. (Ejemplo: para un gato que lleva mucho sin comer, la
comida actuará como reforzador, pero si el animal está saciado, la comida perderá su
valor de reforzador). (Cantidad y calidad del reforzador influirán en la respuesta
instrumental que se desarrolle).

Premarck afirma que una actividad preferida reforzará una actividad menos preferida si
van conjuntas. (Por ejemplo, si un niño dedica un 70% del tiempo a mirar la televisión
y un 30% a leer, podemos reforzar la conducta de leer si la hacemos contingente con
la conducta de mirar la televisión). Hacer contingentes dos conductas implica restringir
la preferida y establecer que solo tendrá acceso si previamente dedica un tiempo a la
menos preferida.

Determinados estímulos que no tienen fuerza biológica también tienen la capacidad de


reforzar los comportamientos con los que son contingentes. (Ejemplo: el empleo diario
tiene como consecuencia el dinero. El dinero no es un estímulo con fuerza biológica,
como lo son la comida, el agua o el placer sexual. Hay un proceso de aprendizaje
mediante el cual el dinero se convierte en un reforzador eficaz, ya que hemos
asociado el dinero a todo lo que podemos adquirir con el)

Es posible que un estímulo condicionado clásicamente con un EI pueda servir como


reforzador. Ya lo vimos en el condicionamiento de segundo orden, donde un EC (luz)
emparejado con un EI, este EC puede utilizarse como un EI si se empareja con un EC
nuevo (tono)

En el condicionamiento instrumental el papel de EI lo hace el reforzador. El papel de


EC primario es el estímulo neutro que se convertirá em un reforzador condicionado o
secundario después de juntarlo con el reforzador primario. Posteriormente, el
reforzador secundario puede actuar como sustituto del reforzador primario para
reforzar una conducta con la que se presenta contingentemente.

Skinner hizo una demostración de la capacidad de un reforzador secundario para


reforzar una conducta instrumental. En una primera fase del experimento presentó
repetidamente a unas ratas un sonido junto con comida. Durante esta fase del
experimento los animales no habían de hacer ninguna conducta para obtener comida
(condicionamiento clásico).
En la segunda fase, se dejó de presentar la comida y a pesar de eso los animales
aprendieron a presionar la palanca cuando esta conducta activaba el sonido.

Un reforzador generalizado es un tipo de reforzador condicionado que se ha juntado


con muchos reforzadores primarios diferentes.

Hay algunas variables como la cantidad y la naturaleza del reforzador que determinan
directamente la tasa de la respuesta. Hutt manipuló la cantidad y la calidad del
reforzador que unas ratas obtenían por presionar una palanca. Diferentes grupos de
ratas obtenían cantidades pequeñas, medianas o grandes de comida si realizaban la
respuesta. La comida consistía en una masa liquida de agua, leche y harina. Hutt
manipuló la calidad de la comida haciendo más agradable la masa añadiéndole
sacarina y haciendo más desagradable añadiéndole ácido cítrico. Los resultados
fueron que la tasa de respuesta de presión de palanca incrementaba de manera
directamente proporcional a la cantidad i calidad del reforzador.

Crespi entrenó a 3 grupos de ratas para correr por un corredor para obtener comida.
Durante una primera fase del experimento, cada grupo recibía una cantidad diferente
de reforzador cuando llegaba a la caja meta (Uno recibía 4 bolas de comida, otro 16 y
otro 64). Al final de este entrenamiento, el grupo que recibía más bolas era el que
corría más rápido.

Hizo una manipulación en la segunda fase: igualó la cantidad de bolas (16 todos). Por
lo tanto, un grupo pasaba de recibir 4 a 16 bolas, otro seguía con las mismas (grupo
control) y otro que pasó de recibir 64 a 16.

Evidentemente el grupo control no sufrió ningún cambio, mientras que el grupo que en
un inicio había recibido una cantidad más pequeña, mostró una velocidad de carrera
superior al grupo control, y el grupo que había pasado a recibir menos bolas mostró
una velocidad inferior al grupo control.

En definitiva, los efectos de contraste positivo y negativo ponen en evidencia que los
efectos de la cantidad de un reforzador dependen de la cantidad de los reforzadores
previos que el individuo había experimentado.
Relación respuesta-reforzador: contigüidad temporal y contingencia

La perspectiva tradicional es que la contigüidad temporal es la condición que


determina si se formarán asociaciones. (Ej: si entro en una habitación a oscuras y
enciendo el interruptor, la luz se enciende inmediatamente y detectamos la relación).
¿Pero qué sucedería si se introduce una demora entre los dos acontecimientos?

La investigación realizada mostró que a medida que se incrementaba la demora entre


respuesta y reforzador, el aprendizaje era más débil.

Dickinson realizó un experimento en el que las ratas tenían que presionar la palanca
para obtener comida. La manipulación consistía en introducir distintas demoras entre
la respuesta y el reforzador. En 4 grupos diferentes se utilizaron demoras de 2, 4, 24 y
64 segundos.

Se midió la tasa de palanca y se obtuvo que a medida que se incrementaba la demora


la tasa disminuía.

Hay mecanismo que no proporcionan la recompensa inmediatamente (pulsar el botón


de un ascensor y esperar a que llegue). ¿Qué hace que podamos aprender la relación
entre respuesta y reforzador a pesar de la demora?

Entre la relación entre pulsar el botón y que llegue el ascensor aparecen una serie de
estímulos (se enciende la luz del botón, puede haber sonido, etc. Hasta que llega el
ascensor). ¿Serán estos los estímulos responsables de que podamos aprender la
relación entre conducta y reforzador?

Hay dos formas para controlar esta interferencia de la demora:

 Utilización de reforzadores secundarios: dinero, reforzamiento verbal… señalan


la demora del reforzador primario
 El procedimiento de marcado: mantiene la atención del sujeto sobre la
respuesta precedente.

Lieberman, McIntosh y Thomas fueron los primeros en hablar del concepto de


hipótesis de marcado. Utilizaron un aparto (una caja de salida que daba paso a una
caja de elección). En la pared del fondo de esta caja había dos pasillos paralelos y que
desembocaban en una caja común de demora. Los dos pasillos se distinguen por el
color (uno negro otro blanco). Finalmente, la caja de demora daba paso a la caja meta
donde se proporcionaba la comida.

Los sujetos eran ratas y un ensayo consistía en dejar a la rata en la caja de salida, se
abría la puerta que comunicaba con la caja de elección y el animal había de escoger
uno de los dos pasillos. Al pasar por uno de los dos el animal entraba a la caja de
demora donde quedaba confinado durante 60 segundos y posteriormente se abría la
puerta que daba acceso a la meta. (Las ratas encontraban comida si habían
seleccionado un pasillo en concreto, el que se quería en aquel ensayo). No obstante,
los animales escogían el brazo correcto en un 50% de ocasiones, por lo tanto, no
había aprendizaje, lo que demuestra el efecto de la demora.

El experimento constaba de un segundo grupo, que recibía el mismo trato con la única
diferencia que una vez escogido uno de los dos brazos, el experimentador los cogía y
los situaba en la caja de demora, y 60 segundos más tarde los volvía a coger y los
metía en la caja meta donde encontraban o no la comida. Llamaron a esta
manipulación marcaje de la conducta. A diferencia del grupo no marcado, tenían un
90% de elecciones correctas.

La explicación dada por Lieberman es que cuando se produce un efecto intenso se


marca la respuesta que se estaba realizando en aquel momento. El efecto de marcaje
seria facilitar el registro a la memoria de lo que sucedía en el momento de marcaje y
de esta manera asociar mejor la respuesta con la consecuencia.

Estos ejemplos muestran que la contigüidad temporal no es suficiente para establecer

asociaciones.

El papel de la contingencia es más importante que el de contigüidad (igual que en


condicionamiento clásico).

El concepto de contingencia es el mismo que se describió en el módulo de


condicionamiento clásico, pero, en este caso, en lugar de tratarse de la contingencia
entre el estímulo condicionado y el estímulo incondicionado, se trata de la contingencia
entre la conducta (o respuesta) y el estímulo (que puede ser apetitivo o aversivo, y que
también recibe el nombre de "consecuencia"). De esta manera, la contingencia
respuesta-consecuencia se refiere a la capacidad predictiva de la conducta sobre las
consecuencias, es decir, describe hasta qué punto el hecho de realizar una conducta
altera la probabilidad de que un determinado estímulo o consecuencia aparezca. Para
calcular esta contingencia necesitamos conocer dos probabilidades: por un lado, la
probabilidad con la que aparece el estímulo o consecuencia cuando se realiza la
respuesta y por otro lado la probabilidad con la cual aparece el estímulo o
consecuencia cuando la respuesta no se ha realizado.

Para hacer el cálculo de contingencia también podríamos hacer el método de tablas


como en el condicionamiento clásico, pero en este caso se trata de la contingencia
entre la respuesta y el estímulo consecuente.

Programas de reforzamiento positivo

Un programa de reforzamiento es el conjunto de criterios que determinan si una


conducta irá seguida de reforzador o no.

Estos criterios se establecen en término del número de respuestas necesarias que se


han de ejecutar y de cuánto tiempo ha de transcurrir desde el último reforzador para
que el siguiente esté disponible.

Programas de refuerzo continuo

Prácticamente todos los ejemplos seguían este programa. Significa que cada vez que
aparece la respuesta operante va seguida de un reforzador. Es útil para mantener la
tasa de respuesta.

No todas las conductas siempre llevan a obtener el reforzador. (Un jugador de


baloncesto no siempre que tire encestará). No obstante, la respuesta se mantiene (no
dejaremos de tirar).
Estos programas en los que la respuesta no siempre va seguida del reforzador reciben
el nombre de programas de reforzamiento parcial o intermitente, y hay dos tipos: de
razón o de intervalo.

Programas de razón

La respuesta se ha de dar en un determinado nombre de veces antes de proporcionar


el reforzador. Cuando el nombre de respuesta necesario para cada reforzador es
constante recibe el nombre de razón fija (RFn), donde n es el valor de la razón.

Por ejemplo, una rata que está sometida a un programa de reforzamiento RF25,
recibirá el reforzador cada 25 respuestas.

Si la razón es lo suficientemente grande se puede observar que los animales dejan de


responder durante un tiempo cada vez que se les presenta el reforzador.

Programas de intervalo

A diferencia de los de razón donde el único requisito para obtener el reforzador es dar
un cierto número de respuestas. En los programas de intervalo hay una segunda
condición que implica que ha de haber transcurrido una determinada cantidad de
tiempo des del último reforzador para que vuelva a estar disponible. Hay de dos tipos:

 Intervalo fijo: Por ejemplo, se da el reforzador cada 10 segundos siempre que


se dé la respuesta
 Intervalo variable: Si se da la conducta, se puede obtener el reforzador en un
promedio de diez segundo.

Comparación de los programas de razón y de intervalo


En los programas fijos, tanto de razón como de intervalo, se observa una pausa
después del reforzador. No obstante, hay diferencias en la tasa de respuesta que
generan.

Los programas de razón provocan una tasa mucho más alta que los programas de
intervalo.

Extinción de la respuesta instrumental


La absencia de reforzador provoca la extinción de la respuesta instrumental.

Efecto del reforzamiento parcial en la extinción (ERPE): esperamos que las


respuestas instrumentales que se hayan reforzado bajo programas de reforzamiento
continuo se extingan más fácilmente que las reforzadas con programas de
reforzamiento parcial.

Estructura asociativa del condicionamiento instrumental

Throndike describió los elementos implicados en el condicionamiento instrumental: la


respuesta (R.), la consecuencia o reforzador (C.) y los estímulos (E) en presencia de
los cuales se produce la respuesta.

Desde un punto de vista asociativo, la existencia de los tres elementos permite pensar
en la posibilidad de tres asociaciones diferentes:

- Una asociación entre estímulos y la respuesta (E-R)


- Una asociación entre la respuesta y la consecuencia (R-C)
- Una asociación entre los estímulos y las consecuencias (E-C)
¿Pero que evidencia hay de la formación de asociaciones E-R?

Rescorla y Nevin reconocen que la evidencia de estas asociaciones es indirecta y se


basan en el hecho de que, una vez aprendida la respuesta instrumental, no dejamos
de responder totalmente, aunque se devalúe el reforzador completamente.

TEMA 5: EL CONTROL POR EL ESTÍMULO

Tanto Thorndike como Skinner dicen que las respuestas instrumentales y los
reforzadores no ocurren en el vacío, sino ante estímulos concretos. (Ejemplo: la
conducta de estudiar está relacionada con estímulos presentes en la universidad, será
más difícil estudiar en verano, con estímulos muy diferentes).

Identificación y medida del control por el estímulo

Con frecuencia el control por el estímulo hace referencia al hecho de que algunas
dimensiones de un estímulo son relevantes (y, por tanto, propician la conducta
instrumental), mientras que otras dimensiones no lo son.

Respuesta diferencial y discriminación del estímulo

El control por el estímulo de la conducta instrumental se demuestra mediante


variaciones en la respuesta (respuesta diferencial) relacionadas con las variaciones
de los estímulos.

Existe discriminación del estímulo siempre que los sujetos respondan de forma
diferente ante los distintos estímulos.

Se dice que existe generalización del estímulo siempre que el sujeto no responde de
forma diferencial ante estímulos distintos.

La capacidad de discriminar se manifiesta en prácticamente todos los animales.

En la actualidad, se considera que una de las mejores medidas de la discriminación (o


del control por estímulo) la proporcionan los gradientes de generalización.
En la gráfica se observa que la conducta de picoteo en la paloma 107 está controlada
de manera mucho más intensa por el color rojo que por el triángulo blanco (picotea
mucho con el rojo y muy poco con el triángulo), mientras que en la paloma 105 lo que
controla la conducta de picoteo del animal es el triángulo blanco.

Experimento de Guttman y Kalish

En este experimento se realizaba un entrenamiento en el que una tecla se iluminaba


con una longitud de onda de 580nm. Los animales aprendían que, si picoteaban la
tecla durante su iluminación, su conducta era reforzada (bajo un programa de
intervalo, estudiado en el condicionamiento instrumental). Por el contrario, si
picoteaban cuando la tecla estaba apagada, la conducta no era reforzada.

Después del entrenamiento se pasaba a la fase de prueba, en la que se presentaba la


tecla iluminada del mismo color que en el entrenamiento y también de otros colores
diferentes, y se medía la conducta de picoteo de las palomas ante cada color.

En los resultados se observa que la respuesta más elevada de las palomas aparecía
ante el color que se había utilizado en el entrenamiento y, conforme el color iba
alejándose más de este color entrenado, la respuesta era menor. Es decir, los
gradientes de generalización muestran que la generalización y la discriminación
dependen del grado de similitud entre estímulos. (La gráfica adopta una forma de
Gauss, en función de lo similar que sea el color al entrenado).
Gradiente de generalización plano

Un gradiente de generalización totalmente plano (una línea horizontal) indica que


existe una generalización total entre estímulo de entrenamiento y los estímulos de
prueba (el animal responde igual ante todos los estímulos de la prueba).

Por ejemplo: Si las aves del experimento de Guttman y Kalish hubiesen sido ciegas al
color, habríamos obtenido un gradiente de generalización plano.

Factores de aprendizaje en el control por estímulo

En los experimentos de discriminación y generalización, los estímulos que anuncian la


disponibilidad del reforzador se denominan E+ ED. Además, los estímulos que
anuncian que el reforzador no estará disponible se denominan E- o EΔ.

Aunque en el experimento de Guttman y Kalish que se ha visto en transparencias


anteriores se intercalaba un E+ (la tecla de 580nm) con espacios de tiempo con la
tecla apagada, en ocasiones se realizan entrenamientos en discriminación en los que
se utiliza un estímulo concreto como E+ y otro estímulo concreto como E-.

El E+ es un estímulo discriminativo para la ejecución de la respuesta (es decir, indica


al sujeto que sus respuestas instrumentales serán reforzadas).

El E- es un estímulo discriminativo para la supresión de la respuesta (es decir, indica


al sujeto que sus respuestas instrumentales no serán reforzadas).

Experimento de Jenkins y Harrison

La gráfica muestra los resultados de la prueba de generalización. En la gráfica se


observa que el G2 (el grupo que había aprendido previamente una discriminación en la
que el E+ era un tono de 1000 Hz y el E- un tono de 950 Hz) muestra un gradiente
muy acusado, mientras que en el grupo G3 el tono del sonido no parece controlar la
conducta de los animales, porque responden igual ante diferentes tonos en la prueba
de generalización. En el grupo G1 el nivel de discriminación observado es intermedio
(no tan fino como el del G2, pero sí mayor que el del G3).
Este experimento muestra que es más probable que una dimensión concreta de un
estímulo (la frecuencia de los tonos en este caso) adquiera el control sobre la
conducta instrumental si el E+ y el E- difieren. Es lo que ocurre en el grupo G2, en el
que los animales debían aprender en el entrenamiento a discriminar entre dos tonos
de frecuencias ligeramente diferentes (1000 Hz versus 950 Hz). Por el contrario, en el
G1 los animales deben discriminar entre un tono de 1000 Hz (E+) y la ausencia del
tono (E-).

Pensemos que el tono E+ tiene diversas características (frecuencia, intensidad,


timbre...) y por tanto es posible que en la discriminación del G1 no cobre tanta
importancia la frecuencia del tono sino otras de sus características. Por el contrario, en
el G2 es la diferencia en frecuencia del tono la que permite discriminar el E+ del E-
durante el entrenamiento y por ello esta característica adquiere más control sobre la
conducta de los animales, mostrando por ello un gradiente de generalización más
acusado en la prueba.

Teoría de Spence

Factores de aprendizaje en el control por el estímulo

La teoría de Spence sobre el aprendizaje de discriminación se pregunta qué se


aprende en el entrenamiento de discriminación.

Según Spence, el reforzamiento de una respuesta en presencia de un E+ condiciona


en el E+ propiedades excitatorias que llegan a provocar la conducta instrumental en
las futuras presentaciones de ese estímulo (E+ activa la respuesta).

Por el contrario, el no reforzamiento de las respuestas durante las presentaciones del


E- condiciona propiedades inhibitorias en el E- que sirven para inhibir la conducta
instrumental en las futuras presentaciones del E-.
Spence consideraba que la respuesta diferencial al E+ y al E- refleja la excitación y la
inhibición que se han condicionado al E+ y E- respectivamente (teoría de la excitación-
inhibición del aprendizaje discriminativo).

El gráfico muestra los resultados del experimento de Honig y sus colaboradores. Este
experimento da apoyo a la idea de la teoría de Spence de que alrededor de los E+ se
forman gradientes de generalización excitatorios y alrededor de los E- se forman
gradientes de generalización inhibitorios.

Resultados:

- El entrenamiento en discriminación puede producir tanto condicionamiento


excitatorio al E+ como condicionamiento inhibitorio al E-
- El gradiente excitatorio tenía forma de U invertida, con la mayor tasa de
respuesta en el E+ original.
- El gradiente inhibitorio tenía la forma opuesta, con el menor nivel de respuesta
ante el E- original.

Este experimento proporciona un fuerte apoyo a la teoría de Spence.

Además, lo que se aprende acerca del E+ puede influir en la respuesta al E- y lo que


se aprende acerca del E- puede influir en la respuesta al E+. Esto es especialmente
claro en las ‘’discriminaciones intradimensionales’’ (cuando el E+ y el E- pertenecen a
la misma modalidad sensorial (dos tonos de misma frecuencia, por tanto, solo difieren
en una característica del estímulo). Se trata de discriminaciones de ‘’expertos’’: como
las que realizan catadores de vino o aceite.
En el grupo en el que se entrena a animales en una discriminación intradimensional
compleja ( E+ y E- similares: 550 nm y 555 nm), se observa en la fase de prueba un
desplazamiento del máximo de respuesta hacia la izquierda. Es decir, el máximo de
respuestas no se da ante el E+, sino que se desplaza.

De forma general, se espera que este máximo se desplace en dirección contraria al E-


(como aquí el E- era de longitud superior, el máximo de respuesta se desplaza hacia
longitudes de onda más bajas).

Resultados del experimento de Hanson

El único estímulo en cuya presencia se ha reforzado la respuesta (el E+) no es


necesariamente el que posteriormente evoca la tasa de respuesta más alta.
El efecto de desplazamiento del máximo está en función de la semejanza entre los
estímulos E+ y E- del entrenamiento discriminativo original.

El mayor desplazamiento del máximo ocurre tras un entrenamiento discriminativo en el


que E+ y el E- son muy similares.

Con colores más diferentes (550 y 590 nm) el efecto se atenúa.

La teoría de Spence permite explicar estos resultados.

La teoría de Kenneth Spence

En torno a un estímulo Ed+ se produce un gradiente de generalización excitatorio.


Gradiente de motivación.

En torno a un Ed- se produce un gradiente de generalización inhibitorio. Gradiente de


desmotivación.

La generalización neta es el resultado de la suma de la excitación y la inhibición.

Por tanto, para Spence los gradientes (excitatorio e inhibitorio) se superpondrán y el


grado de semejanza entre el E+ y el E-.

Para Spence, los animales aprenden acerca de las propiedades absolutas de los
estímulos
Una explicación alternativa del desplazamiento del máximo es el fenómeno de
transposición de Kohler.

Los pollos eligen el gris claro. ¿Cómo se explica esto? Según Kohler, se trata de un
aprendizaje relacional.

En la primera fase los animales aprenden a elegir el estímulo más brillante: Regla
relacional. En la segunda aplican la regla relacional al elegir el estímulo más brillante.

De acuerdo con Kohler, nos encontramos ante un caso de aprendizaje relativamente


complejo.

La teoría de Spence tiene otra explicación:

Spence apela a la interacción entre gradientes de generalización excitatorios e


inhibitorios. Según Spence, el estímulo que ha actuado de E+ en el entrenamiento
genera a su alrededor un gradiente excitatorio y el que ha actuado como E- genera un
gradiente inhibitorio. Si los gradientes de ambos estímulos se solapan lo suficiente, es
posible que el gradiente neto sea mayor ante estímulos que se alejan del E+ en
dirección contraria al E-.

TEMA 6: EMOCIÓN

La emoción es un estado mental, físico y conductual asociado a cómo avaluamos lo


que nos pasa.

Las emociones son fenómenos de corta duración, relacionados con sentimientos,


estimulación, intención y expresión, que nos ayudan a adaptarnos a las oportunidades
y retos que enfrentamos durante los sucesos significativos de la vida.
Las emociones tienen 4 componentes básicos que están interrelacionados:

 Sentimientos (experiencia subjetiva)


 Estimulación corporal (respuestas motoras)
 Intención (componente motivacional)
 Social-expresivo (expresiones faciales).

Funciones de las emociones

Las emociones cumplen tanto funciones de afrontamiento como funciones sociales.

Funciones de afrontamiento

Las emociones dirigen nuestras conductas de forma que resulta adaptativa (nos
permiten afrontar retos y amenazas). Ejemplo: la emoción de miedo ante un estímulo
amenazante nos puede llevar a huir, cumpliendo una función protectora.

Funciones sociales

Las emociones no sólo tienen una función de afrontamiento, también existe una
función social:

- Comunicamos nuestros sentimientos a otras personas


- Influyen y facilitan la interacción social
- Crean, mantienen y rompen relaciones

Teorías sobre las emociones

Hay dos tipos de teorías: la teoría de emociones discretas y las teorías cognitivas de la
emoción.
Teoría de las emociones discretas

Propone que las personas experimentamos un número pequeño de emociones,


aunque éstas pueden combinarse de manera compleja.

Las emociones están relacionadas con aspectos evolutivos  Asco: arrugar la nariz,
cerrar los ojos… Todo esto hace que sea más difícil que algo dañino pueda entrar en
nuestro organismo.

Una evidencia que apoya la base evolutiva de las emociones viene del hecho de que
estas emociones se observan ya en niñas/os de pocas semanas. Además, las
expresiones emocionales son parecidas entre especies diferentes.

Si las emociones discretas son producto de la evolución debería observarse cierta


universalidad en las expresiones emocionales (es decir, que las expresiones sean
similares en diferentes culturas).

Paul Eckman (años 60) estudió una sociedad de Nueva Guinea que no tenía contacto
con el occidente: observó que algunas emociones básicas parecían universales
(alegría, asco, sorpresa, tristeza, miedo, ira, desprecio, orgullo…). El orgullo es la
única emoción que aún no está clara, por lo tanto, se habla de 7.

Las emociones secundarias, serían más dependientes de la cultura. Por ejemplo, los
celos.

Teorías cognitivas de la emoción

En vez de poner énfasis en la base biológica de las emociones, lo ponen en la idea de


que las emociones son básicamente consecuencia del pensamiento. Por lo tanto, hay
tantas emociones como pensamientos y no podemos establecer fronteras entre ellas.

Hay tres teorías cognitivas de la emoción:

 Teoría de las emociones de James-Lange: Las emociones son una


consecuencia de la interpretación que hacemos de las reacciones corporales
que experimentamos ante ciertos estímulos. (Ejemplo: si vemos un oso
temblamos, el corazón se acelera y corremos. Todas estas reacciones hacen
que tengamos una experiencia de miedo)

Críticas a James-Lange:
- La mayor parte de cambios fisiológicos se producen demasiado despacio
mientras que muchas reacciones emocionales son instantáneas, y por tanto es
difícil que estos cambios fisiológicos sean la causa de la experiencia de la
emoción
- Muchas reacciones corporales ocurren sin que seamos conscientes (ejemplo:
contracción del hígado) por tanto es difícil que las utilicemos para inferir
nuestra emoción
- Se dan reacciones corporales similares para emociones diferentes (corazón
acelerado  ira, miedo o amor)

 Teoría de las emociones de Cannon-Bard: Se asume que las reacciones


corporales y la experiencia emocional ocurren de forma simultánea

 Teoría bifactorial de las emociones: Plantea que las explicaciones anteriores


son demasiado simples y propone que la experiencia emocional depende de
dos factores:
o Activación fisiológica: un acontecimiento provoca una activación
fisiológica, pero esta activación es inespecífica (igual o similar para
distintas emociones)
o Interpretación de la causa de esa activación: cuando detectamos esa
activación examinamos las circunstancias para decidir qué emoción
estamos sintiendo, para poder etiquetar esta activación

(Por ejemplo, al encontrarnos al oso, se produce una activación fisiológica


y nosotros la interpretamos según las circunstancias)

¿Cuál de las teorías es más apropiada? Todas ellas apuntan aspectos relevantes
Habituación de las emociones

Ya estudiamos que la estimulación repetida podía provocar cambios en la respuesta


ante ciertos estímulos. Ahora veremos cómo se aplican estos conceptos a las
reacciones emocionales y sus efectos posteriores. Concretamente nos centraremos en
la teoría del proceso oponente de Solomon y Corbit.

Teoría del proceso oponente

Solomon y Corbit plantean que las respuestas emocionales a diversos estímulos


(ejemplo: drogas) tienen dos características importantes:

- Las reacciones emocionales son bifásicas (tienen dos fases):


o Emoción primaria: es la emoción que se observa como reacción al
estímulo
o Emoción secundaria: es la emoción que ocurre cuando el estímulo
desaparece (postefecto), que es opuesta a la emoción primaria.
Ejemplo: efecto psicoactivo del alcohol

- Las reacciones emocionales cambian con la experiencia: concretamente, la


reacción primaria se debilita y la reacción secundaria o post efecto se
fortalece. Es decir, en el ejemplo del alcohol o drogas, se espera que se dé
una habituación de la reacción primaria a la droga (lo que llamamos tolerancia
a la droga, ya no se disfruta como al inicio), y que el postefecto o resaca
posterior sean más intensos

Esta teoria es homeostática, es decir, parte de la idea de que el organismo trata de


mantener la neutralidad emocional, contrarrestando las desviaciones respecto a esta
neutralidad (es decir, trata de contrarrestar los equilibrios).
Así, según esta teoria un estimulo emocional activa un proceso primario o proceso a
(ejemplo: felicidad). Este proceso primario desvía a la persona de la neutralidad
emocional y provoca que el organismo active un proceso oponente, lo que llamamos
un proceso b (ejemplo: tristeza).

Los cambios en la respuesta emocional serán consecuencia del resultado neto de


ambos procesos (la reacción emocional que se observe será igual a la fuerza del
proceso a menos la fuerza del proceso b).

Además, la teoría asume que en las primeras presentaciones dele estímulo, el proceso
oponente o b no es del todo eficiente:

1. El proceso b se activa más tarde que el proceso a (gráfica de procesos


oponentes subyacentes). Debido a este retraso en el proceso oponente, al
inicio la reacción emocional primaria alcanza su pico más alto.
2. El proceso b es menos intenso que el a, y por tanto no contrarresta
totalmente la reacción emocional primaria.

También, cuando el estímulo desaparece el proceso a se desactiva inmediatamente,


mientras que el proceso b tarda más tiempo en desactivarse. Es en ese momento
cuando se manifiesta la reacción emocional secundaria o postefecto.
¿Cómo explica la teoría del proceso oponente que, después de familiarizarnos con
ciertos estímulos (pensemos en el ejemplo de las drogas utilizado previamente), las
reacciones primarias dejen de ser tan fuertes y el post-efecto se intensifique? La teoría
asume que, después de la exposición repetida al estímulo:

- El proceso b se activa cada vez antes


- El proceso b se hace más intenso
- El proceso b se desactiva cada vez más lentamente tras la desaparición del
estímulo

(fijaos que la teoría del proceso oponente únicamente espera cambios en el proceso b,
mientras que asume que el proceso a se mantiene igual)

TEMA 7: MOTIVACIÓN

¿Qué es la motivación?
La motivación se refiere a impulsos, necesidades, apetitos, deseos, intereses de
origen interno, pero que interactúan con factores externos y pueden ser en parte
inducidos por estos factores externos.

Por ejemplo, si pensamos en un estado motivacional interno de hambre (ganas de


comer, deseo de comer), éste dependerá en parte de causas internas al organismo
(privación de comida) pero también pueden contribuir estímulos externos (ej. el olor a
comida que viene desde la cocina, que nos “abre el apetito”).

Además, los estados internos no son directamente observables (son variables


intermedias), lo que observamos son los factores antecedentes (internos y externos) y
la conducta resultante. Por ejemplo, en el ejemplo de un estado motivacional de
hambre, la conducta observable podría ser la de comer.

Propiedades de la conducta motivada:

1. Dirigida a metas: La motivación provoca conductas dirigidas a objetivos.


Por tanto, podemos entenderlas como conductas instrumentales.
2. Intensidad y persistencia: Entendemos que la motivación va ligada a una
actividad persistente y/o intensa que nos ocupa una proporción considerable
de tiempo (ej. si vemos a una persona que está intentando resolver un acertijo
y le dedica tiempo y esfuerzo entenderemos que está más motivado que otra
persona que abandona la tarea repetidamente, muestra menor concentración
etc).

Interacción entre motivación y emoción

Un estado motivacional también implica un estado emocional. Por tanto, motivación y


emoción son dos conceptos que están íntimamente relacionados.

Ejemplo: miedo.

- La emoción implica un componente motivacional (ejemplo: orientación a la


huida)
- Además de motivar la conducta, las emociones actúan como indicadores de la
eficacia de la conducta motivada.

Dos grandes ámbitos de la motivación


Dentro de la motivación se habla de dos grandes ámbitos, que implican teorías
diferentes: el ámbito de la motivación biológica y el de la motivación sociocognitiva.

La motivación biológica se refiera a metas y motivos primarios: determinados por


la constitución biológica del organismo (obtención de reforzadores primarios que
satisfacen necesidades biológicas, ejemplo: la alimentación)

La motivación sociocognitiva se refiere a metas y motivos secundarios:


determinados por la constitución subjetiva del organismo (obtención de reforzadores
sociales y subjetivos o individuales). Se refiere a necesidades que se definen a nivel
de cada individuo y que dependen de su experiencia individual y aprendizaje social.

Ejemplos de la motivación sociocognitiva, podemos pensar en ejemplos como la


motivación relacionada con la filiación de grupos, aprobación social, amistad, defensa
de valores, cumplimiento del deber, etc.

Pilares clásicos de la motivación

Las teorías clásicas han hecho hincapié en los aspectos referidos al estado interno del
organismo como a los aspectos externos, y para ello han apelado a tres conceptos
importantes:

- Impulso
- Incentivo
- Homeostasis

Tal y como veremos a continuación, el impulso y la homeostasis estarían


relacionados con el estado interno del organismo, mientras que el incentivo con el
impacto de la estimulación externa sobre el estado motivacional.

El impulso

La teoría del impulso de Clark Hull ha tenido mucha importancia en el área de la


motivación. Hoy en día se sabe que algunos de los supuestos de la teoría no son
correctos, pero el concepto de impulso es una parte importante de las teorías sobre la
motivación.

Hull entendió los estados de impulso (drive), como el hambre o la sed, en términos
de alteraciones fisiológicas que producen un estado de activación general, y
también producen estímulos internos específicos, como por ejemplo contracciones del
estómago o sequedad de boca.

La función principal de los estados de impulso es activar la conducta.


Pero un aspecto criticado de la teoría de Hull es que entendía los estados de impulso
como algo inespecífico (es decir, necesidades diferentes, como el hambre o la sed,
activarían un estado de impulso común). De esta manera, según Hull, un estado de
impulso relacionado con el hambre no aumentaría, según Hull, la probabilidad de que
se realizasen conductas relacionadas con la obtención de alimento, sino que
simplemente activaría de forma general al organismo, de la misma forma que lo haría
la sed. Por tanto, los estados de impulso no organizarían ni orientarían la conducta,
sino que simplemente energizarían la conducta.

Hull relaciona los estados de impulso con el reforzamiento. La disminución de un


estado de impulso funcionaría como mecanismo reforzador de la conducta (la comida
no es un reforzador en sí mismo, sino el hecho de que ingiriendo este alimento
disminuimos la sensación de hambre).

A diferencia de lo que pensaba Hull, la investigación muestra que los estados de


impulso no simplemente funcionan aportando energía a la conducta, sino que también
orientarían la conducta, favoreciendo la realización de ciertas conductas e inhibiendo
otras. Además, aunque la reducción del impulso puede funcionar reforzando la
conducta, la conducta a menudo se activa y mantiene por otras causas. En parte,
estas otras causas están relacionadas con el concepto de incentivo que el mismo Hull
(1952) incorporó posteriormente en su teoría.

El incentivo

Si únicamente nos basásemos en los estados de impulso, la motivación sería


simplemente una forma de reducir estos estados. Por ejemplo, comeríamos
simplemente para disminuir el hambre. Sabemos que de hecho muchas veces las
propiedades sensoriales de los alimentos influyen de forma importante en el inicio de
la ingesta y la cantidad de alimento que ingerimos.

Por tanto, estas cualidades sensoriales de los estímulos serán muy importantes
porque influirán en su capacidad para atraer y motivar (energizar) la conducta hacia
ellos. Así, desde la motivación de incentivo se hará hincapié en el placer que provocan
las cualidades sensoriales de los estímulos (ej., el placer de saborear un alimento que
nos gusta mucho).

Llamaremos motivación de incentivo a la motivación basada en la expectativa o


anticipación de las propiedades afectivas o hedónicas de los reforzadores.

La homeostasis
Por homeostasis nos referimos a la tendencia del organismo al mantenimiento del
equilibrio interno a través de actividades dirigidas a la regulación de distintos
parámetros fisiológicos (temperatura, nivel de glucosa, etc.)

Las actividades de regulación pueden ser de tipo fisiológico (ejemplo: el hígado retiene
agua cuando falta agua en el organismo) o de tipo conductual (ejemplo: la conducta de
beber agua).

También podemos aplicar este concepto de motivación regulatoria a aspectos


motivacionales más cognitivos (no tan vinculados a necesidades biológicas). Por
ejemplo, podemos entender que también estaríamos motivados a mantener un
equilibrio entre nuestra conducta y las normas morales y/o culturales, lo cual ayudaría
a mantener un estado de coherencia personal.

Autodeterminación

Además de los tres pilares clásicos, hay otro pilar: la autodeterminación. Se entiende
como la necesidad psicológica de autonomía personal y de autorregulación de la
conducta.

Se relaciona con la sensación de que la conducta se realiza por decisión propia y sin
presiones externas.

Subraya la existencia de motivos o necesidades psicológicas: el ser humano aspira


a ciertos estados cognitivos que actuarían como incentivos.

Este pilar se relaciona con lo que llamamos “motivación intrínseca” (situaciones en


las que la conducta se lleva a cabo por el interés que suscita o por el disfrute que
proporciona).

Así, entendemos que un nivel elevado de autodeterminación se relaciona con la


existencia de una motivación intrínseca para realizar una tarea. Por tanto, según el
grado de autodeterminación se distingue entre motivación intrínseca y extrínseca:

Relación entre motivación intrínseca y extrínseca

¿Qué pasa si reforzamos externamente una conducta intrínsecamente motivada?

Aunque podríamos pensar que debería añadir motivación extrínseca a la ya existente


motivación intrínseca, y por tanto aumentar la motivación global, existe evidencia de
que las recompensas externas pueden tener efectos perjudiciales sobre la
motivación intrínseca y provocar que disminuya el interés por la tarea.

Para ilustrar esta idea, Lepper, Greene i Nisbett llevaron a cabo un estudio con 3
grupos de niños (3-5 años) a los que les gustaba dibujar (intrínsicamente
motivados). Se les pedía a los niños que realizasen el dibujo:

- Grupo recompensa esperada: en este grupo se les indicaba a los niños que si
hacían el dibujo se les daría un diploma
- Grupo sin recompensa: en este grupo se les daba la opción de dibujar, pero
no se les decía nada sobre ningún diploma.
- Grupo recompensa no esperada: en este grupo no se les decía nada sobre el
diploma, pero después de dibujarlo se les daba uno.

Prueba: 1-2 semanas después, se medía el tiempo que los niños de cada grupo
pasaban dibujando cuando se les daba la opción de dibujar o realizar otras
actividades.

El grupo 1 pasó menos tiempo dibujando que los otros dos. Por lo tanto, parece
que, si los niños realizaban la tarea esperando recibir un premio, la motivación
intrínseca disminuía. La recompensa en sí misma no tuvo un efecto perjudicial, ya que
la recompensa no esperada obtuvo resultados similares al grupo sin recompensa.
La disminución en la motivación intrínseca por recompensas externas podría
explicarse porque estas recompensas harían que disminuya la sensación de
autodeterminación, de autonomía.

En este sentido, se ha utilizado el concepto de principio de sobre justificación para


explicar estos resultados: ya que existe una recompensa externa que explica nuestra
motivación, no es necesario que atribuyamos nuestros esfuerzos a un interés
intrínseco por la misma, y por tanto esto nos lleva a inferir que realizamos la acción a
causa de esta recompensa externa (dejamos de pensar que sentimos motivación por
la actividad en sí misma).

¿En qué situaciones las recompensas externas disminuyen la motivación intrínseca?

1. Recompensas esperadas: la disminución en la motivación intrínseca ocurre


cuando las recompensas son esperadas, no cuando no lo son.
2. Recompensas tangibles versus recompensas verbales: Las tangibles (ej.
dinero, premios etc.) perjudican a la motivación intrínseca, mientras que las
verbales o intangibles (como los elogios) no lo hacen.

Variables de la motivación

Existen diversidad de variables que han sido estudiadas en relación con la motivación,
pero aquí nos centraremos en las expectativas de control. Es decir, si entendemos
que la conducta instrumental está motivada por la búsqueda de ciertas metas, el grado
en que percibamos que tenemos control sobre distintos aspectos de nuestro entorno
influirá sobre nuestra motivación.

Un fenómeno ampliamente estudiado que está relacionado con las expectativas de


control es la indefensión aprendida.

Indefensión aprendida

Seligman, Overmier y Maier realizaron los primeros estudios que exploraron las
consecuencias de exponer a perros a descargas eléctricas incontrolables sobre su
aprendizaje posterior a situaciones en las que sí tenían control. Estos primeros
estudios mostraron que la exposición a descargas incontrolables deterioraba el
aprendizaje posterior. A este efecto se le conoce como indefensión aprendida.

Este efecto se ha investigado extensamente y, mayoritariamente, mediante estudios


con ratas y humanos. Un diseño frecuentemente utilizado en ratas para estudiar la
indefensión aprendida es el diseño triádico que se muestra a continuación.
Si volvemos al diseño anterior y lo analizamos según los conceptos estudiados en el
condicionamiento instrumental, vemos que el grupo escapable tanto en la primera fase
como en la segunda está sometido a un procedimiento de reforzamiento negativo
(existe una contingencia negativa entre la respuesta instrumental y la descarga, que es
un estímulo aversivo). Por el contrario, en el grupo acoplado en la primera fase la
contingencia es nula, mientras que en la segunda fase sí existe una contingencia
negativa entre la respuesta instrumental y la descarga (es decir, pueden evitar-escapar
de la descarga si realizan la respuesta).

Con este tipo de diseño, el resultado habitual es que los grupos “escapable” y “control”
aprenden rápidamente durante la fase de prueba a escapar/evitar la descarga,
mientras que en el grupo “inescapable” se observa un aprendizaje más lento
(recordemos que la fase 2 es igual para los tres grupos, y existe control sobre la
estimulación aversiva). Fijaos que el hecho de que el grupo escapable muestre
resultados similares al grupo de control indica que no es la exposición a estimulación
aversiva por sí misma la que provoca el deterioro en el aprendizaje posterior, sino el
hecho de que esta estimulación sea incontrolable.

A partir de estos resultados, se planteó la hipótesis de la indefensión aprendida


(Seligman, 1975). Según esta hipótesis, durante la fase de descargas inescapables,
los animales del grupo acoplado crean la expectativa de que su conducta no puede
controlar los acontecimientos del entorno (expectativa de contingencia nula entre su
conducta y los sucesos del entorno). En consecuencia, esta expectativa dificulta el
aprendizaje posterior, cuando los animales sí pueden controlar los acontecimientos
mediante su conducta. Es decir, la exposición a situaciones incontrolables produce
indefensión debido al desarrollo de la expectativa de que los acontecimientos son
independientes de la conducta.

No confundir el efecto de indefensión aprendida, que es el resultado que se observa


en experimentos como los descritos, y la hipótesis de la indefensión, que es una
posible explicación de este efecto.
La indefensión aprendida también se ha encontrado en humanos. Se realiza un
experimento: En la primera fase se expone a los participantes a un problema que
deben resolver, pero para algunos participantes la tarea es en realidad irresoluble. La
tarea es determinar la característica relevante de estímulos que varían en varias
características.

Es un experimento de este tipo se diseñarían típicamente dos condiciones:

1. Condición tarea resoluble: Conforme la persona va escogiendo izquierda o


derecha, el/la experimentador/a le da feedback informativo sobre si la elección
es correcta o no y así la persona puede ir aprendiendo a resolver la tarea. Por
tanto, si se esfuerza, la persona puede descubrir la característica relevante
para hacer la elección correcta en cada ensayo.
2. Condición tarea irresoluble: Independientemente de lo que la persona
escoja, el experimentador le ofrece feedback aleatorio (a veces le dice correcto
y a veces incorrecto)

Siguiendo con nuestro ejemplo, después de someterse a la fase 1, tanto las personas
de la condición “tarea resoluble” como las de la condición “tarea irresoluble” se
exponen a una segunda fase en la que ambos grupos deben resolver problemas
moderadamente difíciles (multiplicaciones, anagramas…) y que son resolubles. Por
ejemplo, podemos imaginar que se les ofrecen los anagramas que aparecen más
abajo y los participantes deben reordenar las letras formando palabras del castellano.

Lo que esperaríamos en esta situación es que las personas que realizaron la tarea
irresoluble en la fase 1 muestren más dificultades para resolver la tarea de la fase 2,
en comparación con las personas que en la primera fase realizaron una tarea
resoluble.

Podemos resumir las consecuencias del desarrollo de una indefensión aprendida en


tres tipos de déficits:

Déficits motivacionales: Disminución en la aparición de conductas voluntarias.

Déficits de aprendizaje: Dificultades de adquisición de nuevos aprendizajes en


situaciones en las que sí existe control o contingencia entre la conducta y el resultado.

Déficits emocionales: Estudios con humanos muestran que después de una


experiencia incontrolable se observa un incremento de sentimientos de incompetencia,
frustración etc.

Los estudios sobre los efectos que tienen las experiencias de incontrolabilidad en
humanos han supuesto una reformulación de la hipótesis de la indefensión aprendida
que plantea que los efectos que estas experiencias de incontrolabilidad tengan en las
personas dependerán de una variable mediadora: el estilo atribucional (atribución:
inferencia sobre las causas por las que ha ocurrido un determinado suceso).

La introducción de esta variable mediadora implica que la exposición a situaciones


incontrolables no producirá automáticamente en todas las personas la expectativa de
falta de control en el futuro, sino que dependerá del tipo de atribuciones o
explicaciones que desarrolla la persona para explicar lo ocurrido.

Podemos clasificar los estilos atribucionales de las personas según tres dimensiones:

- Internalidad-externalidad: según la tendencia de la persona a atribuir lo que


ocurre a factores que dependen de ella misma (atribución interna) o a factores
externos a ella (atribución externa).
- Estabilidad-inestabilidad: según la tendencia de la persona a atribuir los
acontecimientos a factores que se mantendrán estables en el tiempo
(atribución estable) o a factores pasajeros o temporales (atribución inestable).
- Generalidad-especificidad: según la tendencia de la persona a atribuir lo que
ocurre a causas que se aplicarán a multitud de ámbitos o situaciones
(atribución general) o a causas que se aplican a situaciones concretas
(atribución específica).

En función de los tres ejes anteriores, podemos describir los estilos atribucionales
optimistas y pesimistas, que tendrán más o menos probabilidad de desarrollar
indefensión aprendida. Para ello debemos tener en cuenta que un aspecto relevante
es si las atribuciones se están realizando en relación con un suceso positivo o a un
suceso negativo (es decir, es relevante la valencia del suceso).

El estilo atribucional optimista se caracteriza por la tendencia a realizar


atribuciones internas, estables y generales al referirse a sucesos con valencia positiva
(éxitos), y realizar atribuciones externas, inestables y específicas cuando se trata de
sucesos con valencia negativa (fracasos).

El estilo atribucional pesimista se caracteriza por el patrón inverso. Es decir, la


tendencia a realizar atribuciones externas, inestables y específicas al referirse a
sucesos con valencia positiva (éxitos), y realizar atribuciones internas, estables y
globales cuando se trata de sucesos con valencia negativa (fracasos).

DUDAS AME (1,2 y 3)

Se espera que haya menos respuesta en el grupo experimental que en el control.


Hay más rechazo en Anna (control) que en Marc (experimental). EI  dolor de
estómago EC  plato de gambas

Ejercicio de la vainilla y la canela

EN  vainilla y canela / EI  rechazo

En el Precondicionamiento sensorial, en el experimental se presenta condicionamiento


del miedo. En la fase 1 se presenta luz y tono conjuntamente (dos EC). En la fase 2,
se empareja el tono al EI, la descarga. En la prueba, se presenta la luz, que no se ha
presentado en la fase 2. El grupo muestra miedo a la luz, aunque no se haya
relacionado directamente con el tono.

Ejercicio 1:

EI  bullying

EC  el niño (EC2) / parada de bus (EC1)

RC  miedo

Condicionamiento de segundo orden  El niño provoca bullying, después se


encuentra al niño en la parada de autobús, por tanto, se desarrollará el miedo al pasar
por la parada.

La diferencia con el Precondicionamiento es el orden de las fases. En el


Precondicionamiento sensorial, en la fase uno es EC1  EC2 y en la fase dos EC2 
EI. En el de segundo orden es EC2 EI y EC1  EC2

Ejercicio 2:

EI  accidente de coche
EC  olor de ambientador y coche

RI  dolor

RC  rechazo al ambientador y coche

Precondicionamiento sensorial  el olor del ambientador se relacionaba con el coche.


Al tener el accidente de coche, se asocia con el olor. Por tanto, también hay alteración
al olor del ambientador.

En la inhibición latente hay menor condicionamiento del EC en el grupo experimental


que en control, ya que en el experimental hay una preexposición del EC y en el control
no. (Inhibición latente  Un EC que ya es conocido dificulta más el condicionamiento.

DUDAS AME (TEMA 4)

Hipótesis del marcado  Las ratas pasan de la caja de salida a una caja de elección.
Aquí los animales pueden escoger si entran por el pasillo negro o blanco, y
posteriormente llegan a la caja de demora. Se les deja 60 segundos y pasan a la caja
meta. SI escogieron el brazo blanco, obtendrán la comida, sino no. Es difícil que los
animales aprendan que el brazo escogido es lo que determina que adquieran la
comida.

El porcentaje de respuestas correctas se mantenía al 50% todo el tiempo (aleatorio).


En el segundo grupo (grupo marcado), los animales escogen un brazo, y una vez
escogido el experimentador las agarra y las mueve hasta la caja de demora (haciendo
más relevante la conducta que acaban de hacer, de escoger el color). Por lo tanto, si
que eran capaces de reconocer cual era el color que habían de escoger.

1. Al darle un bombón por traerle comida. Y al darle otro bombón al cederle un


sitio en el sofá. Reforzador bombón CI  traerle comida y cambiarse de sitio
2. Castigo positivo, ya que castiga su conducta mojándole con agua. CI  decirle
que no puede cambiar a la chica. Estímulo  agua
3. No, hace referencia al castigo positivo, ya que habla de darle descargas.

DUDAS AME TEMA 5

También podría gustarte