0% encontró este documento útil (0 votos)
16 vistas16 páginas

Condicionamiento Instrumental

El condicionamiento instrumental se basa en la relación entre respuestas y reforzadores, donde la efectividad del aprendizaje depende de la variabilidad de la conducta y la historia previa de respuestas exitosas. E.L. Thorndike y B.F. Skinner fueron pioneros en el estudio de este tipo de condicionamiento, destacando la importancia de la Ley del Efecto y el moldeamiento de respuestas. Los procedimientos de reforzamiento, castigo y omisión son fundamentales para modificar conductas, y la efectividad de los reforzadores está influenciada por su calidad, cantidad y la relación entre la respuesta y el resultado.

Cargado por

Alejandra b
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
16 vistas16 páginas

Condicionamiento Instrumental

El condicionamiento instrumental se basa en la relación entre respuestas y reforzadores, donde la efectividad del aprendizaje depende de la variabilidad de la conducta y la historia previa de respuestas exitosas. E.L. Thorndike y B.F. Skinner fueron pioneros en el estudio de este tipo de condicionamiento, destacando la importancia de la Ley del Efecto y el moldeamiento de respuestas. Los procedimientos de reforzamiento, castigo y omisión son fundamentales para modificar conductas, y la efectividad de los reforzadores está influenciada por su calidad, cantidad y la relación entre la respuesta y el resultado.

Cargado por

Alejandra b
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

CONDICIONAMIENTO INSTRUMENTAL: la obtención de un reforzador depende de la ocurrencia

previa de una respuesta

El condicionamiento instrumental a menudo implica la construcción, o la síntesis, de una nueva


unidad de conducta a partir de los componentes preexistentes de respuesta que ya se producen en
el repertorio del organismo

tambien se pueden condicionar respuestas completamente nuevas como la fuerza, velocidad y


coordinacion para lanzar un balon de futbol 60 yardas campo abajo

La creación de nuevas respuestas por moldeamiento depende de la variabilidad inherente a la


conducta. El aprendiz puede lanzar elbalón 25, 32, 29 o 34 yardas en intentos sucesivos.
Estavariabilidad permite al entrenador establecer la siguiente aproximación sucesiva en 33 yardas
y más

Todos los estudios de habituación, sensibilización condicionamiento clásico están interesados en


los mecanismos de conducta provocada. El condicionamiento clásico refleja cómo los organismos
se adaptan a los acontecimientos de su entorno que no controlan directamente.

En el instrumental los estímulos que enfrenta un organismo son el resultado o consecuencia de su


conducta (dirigida a una meta o instrumental), es decir que es necesario responder para producir
un estimulo o resultado medioambiental deseado

la conducta se produce porque acciones similares produjeron el mismo tipo de resultado en el


pasado

conducta instrumental: se produce porque anteriormente fue eficaz para producir cierta
consecuencia

ej poner una moneda en la maquinita, estudiar para tener buenas notas, girar la llave para
encender el auto

para investigar la conducta instrumental es necesario el control experimental de las variables,


porque observar solo el comportamiento en su entorno natural no permite saber si la acción se
produce por aprendizaje o por simple reacción al estímulo.

Podríamos pensar que el perro ladra con la intención de que el intruso se vaya (conducta
instrumental: ladrar para lograr un resultado).

Pero también puede ser que el perro ladre simplemente porque percibe un estímulo nuevo (el
intruso) y deja de hacerlo cuando este desaparece.

HISTORIA

PRIMERAS INVESTIGACIONES: psicólogo estadounidense [Link]. queria estudiar inteligencia


animal influido por la teoria de la evolucion de darwin (que capacidades intelectuales humanas
estan en los animales)

colocar a un animal hambriento (a menudo un gato joven) en la caja problema con unpoco de
comida colocada fuera de la vista del sujeto. La tarea para el animal era aprender cómo salir de la
caja y conseguir la comida
En la caja A, la respuesta requerida era tirar de unanillo para liberarunpestillo

Enla caja I la respuesta requerida era empujar hacia abajo una palanca, que liberaba unpestillo.

.Inicialmentelos gatos eran lentos para responder correctamente, pero con la práctica continuada
de la tarea, sus latencias de salida de la caja se volvieron cada vez más cortas.

l interpretó los resultados de sus estudios como un reflejo del aprendizaje de una nueva asociación
E—R no porque los animales comprendieran el mecanismo etc etc

estímulos de estar en la caja problema (E)y la respuesta de escape efectiva (R

LEY DEL EFECTO

si una R en presencia de un E es seguida por un evento satisfactorio, la asociaciónentre el E y la R


se fortalece. Si la respuesta es seguida por un evento molesto, la asociación E—R se debilita

explica r hábitos compulsivos que son difíciles de romper

Una vez que comience con una bolsa de palomitas de maíz mientras ve una película, no podrá
dejar de comer porque la vista y el olor de las palomitas de maíz (E) le obligan a tomar un poco
más de palomitas de maízy comer (R)

Una vez aprendido, se producen respuestas habituales debido a que son provocadas por
unestímulo antecedente y no porque resulten en una consecuencia deseada

PROCEDIMIENTOS DE ENSAYO DISCRETO

similares al método utilizado por Thorndike

El uso de laberintos en las investigaciones de aprendizaje fue introducido a comienzos del siglo XX
por el psicólogo estadounidense Small

el corredor o callejon recto:conducta medida por la velocidad de carrera de una caja a otra que
suele aumentar con los ensayos; y latencia de respuesta osea cuanto tarda en salir de la caja de
inciio y comienza a correr, tambien suelen acortarse

laberinto T: extudiar cuestiones máa complejas como si las ratas pueden distinguie a su madre de
otra hembra y aprender cuando no haya ninguna de las dos (preferencia condicionada)
PROCEDIMIENTOS DE OPERANTE LIBRE

después de llegar a la caja de meta el animal es retirado del aparato por un tiempo antes de volver
a la caja de inicio para su próximo ensayo

,los procedimientos de operante libre inventados por skinner permiten al animal repetir la
respuesta instrumental sin limitación una y otra vez sin ser extraído del aparato sino hasta el final
de una sesión experimental. (permite estudiar la conducta que ocurre de manera natural)

Skinner propuso el concepto de el operante como una manera de dividir la conducta en unidades
medibles signiñcativas. (la conducta no cae perfectamente en unidades ya que es continua y una
actividad lleva a la otra)

cuando la rata presiona la palanca, una bolita de alimento cae automáticamente en la taza del
alimento

Las actividades que tienen el mismo efecto ambiental se con— sideran instancias de la misma
respuesta operante

presionar la palanca” se considera una sola respuesta operante, aunque la rata use diferentes
movimientos (pata derecha, izquierda o la cola).

Lo importante es que todas esas acciones producen el mismo resultado ambiental: activar el
sensor y obtener comida.

Por eso se dice que la conducta se define funcionalmente (por su efecto), no topográficamente
(por su forma o movimientos específicos).

, el resultado operativo es la medida fundamental de éxito de los numerosos operantes utilizados

. Esto contrasta con conductas tales como el patinaje artístico o la gimnasia. En esos casos, la
forma en que se realiza algo es tan importante como el impacto de la conducta en el entorno.
Conseguir una pelota enla canasta es una conducta operante. La realización de una salida graciosa
de las barras paralelas no lo es

Sin embargo, cualquier respuesta que se requiere para producir una consecuencia deseada es una
respuesta instrumental porquees “instrumento” en la producción de unresultado particular.
PRIMERA FASE O FASE PRELIMINAR DEL CONDICIONAMIENRTO: entrenamiento del compartimento

implica el condicionamiento clásico: se empareja sonido del dispositivo de entrega con la comida y
genera la respuesta condicionada de ir a buscar la comida que cayó

Ahora ya podemos condicionar la respuesta operante

moldeamiento de respuesta

Se va gradualmente reforzando cualquier aproximacion a la conducta, primero dandole comida


cuando hace cualquier cosa medianamente relacionanda con presionar la palanca como pararse en
sus patitas, luego solo cuando lo hace cerca a la palanca etc

El éxito del moldeamiento de la conducta implica tres componentes.

definir claramente la respuesta final que se desea

valorar claramente el nivel de inicio del desempeño, no importa lo lejos que esté de la respuesta
final que interesa.

dividir la progresión desde el punto de inicio hasta la conducta objetivo final en pasos de
entrenamiento adecuados o aproximaciones sucesivas

EJECUCION DEL PKAN DE ENTRENAMIENTO: requiere reforzamiento de las aproximaciones


sucesivas y no reforzamiento para las formas de respuesta anteriores

Si los pasos de moldeamiento están demasiado separados, o se pasa demasiado tiempo en una
etapa en particular, el progreso puede no ser satisfactorio.

Elproceso de moldeamiento se aprovecha de la variabilidad de la conducta para mover


gradualmente la distribución de las respuestas lejos del punto de inicio del entrenando y hacia
respuestas que son completamente nuevas en el repertorio del aprendiz

TASA DE RESPUESTA COMO MEDIDA DE LA CONDUCTA OPERANTE

el método de operante libre permite la observación continua de la conducta durante largos


periodos. el organismo, en lugar del experimentador, determina la frecuencia de su respuesta
instrumental.

para observar los cambios en la probabilidad de la conducta en el tiempo.

Las medidas de latencia y velocidad de respuesta que se utilizan comúnmente en los


procedimientos de ensayo discreto no describen la probabilidad de repeticiones de una respuesta.
Skinner propuso que la tasa de ocurrencia de la conducta operante (por ejemplo, la frecuencia de
la respuesta por minuto)

+TASA + PROBABILIDAD

. La respuesta instrumental puede producir el estímulo apetitivo, como cuando cortar el césped
resulta en un pago. Alternativamente, la respuesta instrumental puede desactivar o eliminar un
estímulo aversivo, como en el cierre de una ventana para detener la entrada de la lluvia
El que el resultado de un procedimiento de condicionamiento sea un aumento o una disminución
en la tasa de respuesta dependerá de si un estímulo apetitivo o aversivo está involucrado y si la
respuesta produce o elimina el estímulo

PROCEDIMIENTOS BASICOS DE CI

REFORZAMIENTO POSITIVO: la respuesta instrumental produce un estímulo apetitivo. Si no se


produce la respuesta,no se presenta el estímulo apetitivo. Produce un aumento en la tasa de R

CASTIGO POSITIVO: la respuesta instrumental produce un estímulo desagradable o aversivo. Hay


una contingencia positiva entre la respuesta instrumentaly el resultado del estímulo aversivo.
producen una disminución en la tasa de respuesta instrumental.

REFORZAMIENTO NEGATIVO: la respuesta instrumental elimina un estímulo aversivo. Por tanto,


existe una contingencia negativa entre la respuesta instrumentaly el estímulo aversivo.
Losprocedimientos de reforzamiento negativo aumentan la respuesta instrumental

ENTRENAMIENTO DE OMISIÓN O CASTIGO NEGATIVO o RDO: la respuesta instrumental resulta en


la eliminación de un estímulo agradable o apetitivo. implica una contingencia negativa entre la
respuesta y un evento ambiental y resulta en una disminución en la respuesta instrumental. el
entrenamiento de omisión implica el reforzamiento de otras conductas.

RDO (reforzamiento diferencial de otras conductas) tratamiento consiste en reforzar (premiar)


todas las conductas que no sean la conducta problema, dentro de un cierto intervalo de tiempo.

el individuo recibe periódicamente el estímulo apetitivo siempre y cuando realice una conducta
diferente a la respuesta especificada por el procedimiento

ELEMENTOS DEL CI

RESPUESTA INSTRUMENTAL
Algunas respuestas son más fácilmente modiñcadas que otras.

El resultado de los procedimientos de condicionamiento instrumental depende en parte de la


naturaleza de la respuesta que está siendo condicionada.

estereotipia: thorndike y skinner hicieron hincapie en que el reforzamiento aumenta la


probabilidad de que la R instrumental se repita. Es decir que este tipo de C genera repeticiones de
la misma R generando uniformidad en la conducta.

variabilidad de la conducta: Sin embargo, esto no quiere decir que el condicionamiento


instrumental no pueda ser utilizado para producir respuestas creativas o variables.

en ausencia de un reforzamiento explícito de la variabilidad, la respuesta se vuelve más


estereotipada con un condicionamiento instrumental continuo

el reforzamiento puede aplicarse no solo a conductas visibles o motoras, sino también a


características abstractas de la conducta, como su variabilidad o novedad.

} Para un grupo (el grupo VAR, de variabilidad), el sistema solo daba puntos cuando el rectángulo
era diferente a los anteriores: en tamaño, forma o posición.

los participantes a los que se pide dibujar rectángulos del mismo tamaño aprenderán a
hacerlo,pero puedenvariar la ubicacióny la forma de los rectángulos que dibujan.

en la mayoría de los casos, el reforzamiento:

aumenta la conducta creativa y la productividad,

sin reducir la motivación intrínseca,

siempre que se use de manera adecuada.


relevancia o pertinencia: en el cc para que el condicionamiento se produzca rápidamente, el EC
tiene que ser pertinente o relevante para el El

Una conducta no puede ser reforzada por un reforzador si no está naturalmente ligada a ese
reforzador en el repertorio del animal

Los gatos sí podían aprender parcialmente a hacer esas respuestas (rascarse o bostezar) para
lograr escapar, pero las conductas no se mantenían puras.

Conforme el entrenamiento avanzaba:

Los gatos dejaban de rascarse vigorosamente, y solo simulaban el movimiento (por ejemplo,
levantaban la pata pero sin rascarse realmente).

En el caso del bostezo, abrían la boca, pero no realizaban el bostezo completo.

pertinencia: ciertas respuestas son naturalmentepertinentes con el reforzador debido a la historia


evolutiva del animal.

deriva instinta: ciando se quiere enseñar a un animal a hacer algo con refuerzo de comida se
generan respuestas adicionales que son instintivas en la obtención de comida, como frotar objetos
en los mapaches o esparcirlos en el suelo con los cerdos

Las conductas aprendidas tienden a “derivarse” o ser reemplazadas por respuestas innatas
compatibles con el sistema motivacional que se activa (en este caso, el de la alimentación).

cómo se puede diagnosticar si una conducta forma parte de un sistema conductual (como el de
alimentación, defensa o reproducción).

Si una respuesta aparece tanto durante el condicionamiento instrumental (como deriva instintiva)
como durante el condicionamiento clásico (cuando se activa el mismo sistema), eso demuestra
que la conducta pertenece al mismo sistema biológico

Cuando se usaba comida como reforzador, las ratas mostraban durante el aprendizaje
instrumental respuestas relacionadas con la alimentación (olfatear, morder, lamer el lugar donde
aparecía la comida).

Luego, en experimentos clásicos donde una luz o sonido se emparejaba con la comida, aparecían
exactamente esas mismas respuestas.

Resultado:

Las respuestas “espontáneas” que surgían durante el entrenamiento instrumental (la deriva
instintiva) no eran simples interferencias o errores, sino manifestaciones naturales del sistema de
alimentación activado por el reforzamiento.

REFORZADOR INSTRUMENTAL

cantidad y calidad

variables obvias que se esperaría que determinaran la efectividad del reforzamiento positivo

Si un reforzador es muy pequeño y de mala calidad, no aumentará la respuesta instrumental.


un programa de razónprogresiva el participante tiene que hacer un mayor número de respuestas
para obtener el reforzador. A medida que el esfuerzo requerido aumenta, se observa cuánto está
dispuesto el sujeto a trabajar por la recompensa.

uando el reforzador duraba solo 10 segundos, Chad dejaba de responder rápidamente. Es decir,
cuando tenía que presionar muchas veces el botón, ya no valía la pena por tan poca recompensa.

Con un reforzador de 105 segundos, la caída fue más lenta: Chad siguió respondiendo más tiempo.

Con el reforzador de 120 segundos, mantuvo la conducta (presionar el botón) durante más
tiempo, incluso cuando debía presionar 30 o 40 veces para obtenerlo.

Cuanto mayor es la magnitud del reforzador, más eficaz resulta para mantener la conducta
instrumental (la respuesta aprendida).

contraste conductual: La efectividad de un reforzador depende no sólo de su calidad y cantidad,


sino también de lo que el sujeto recibió previamente.

Los efectos del contraste conductual pueden ocurrir ya sea debido a un cambio en la magnitud de
una recompensa previa o debido a una recompensa anticipada

El contraste conductual no solo ocurre cuando ya cambió la recompensa, sino también por la
anticipación de una recompensa más grande o más intensa que la actual.

Eso se llama contraste anticipatorio

contraste anticipatorio negativo

La clave está en el contraste de magnitud de recompensa:

La sacarina es una recompensa moderada.

La cocaína es una recompensa enormemente intensa.

Como el cerebro anticipa la recompensa mayor (la cocaína), la sacarina —que viene antes—
pierde su valor hedónico (ya no resulta tan placentera).

RELACION R- REFORZADOR

En algunos casos hay una fuerte relación entre lo que una persona hace y las consecuencias de esa
acción como colocar dinero en la maquina expendedora.
En otros casos no existe una relación entre la conducta y un resultado. Usted puede usar su
sombrero de la suerte para un examen y obtener una buena calificación, pero la calificación no
estaría causada por el sombrero

La relación entre la conducta y sus consecuencias también puede ser probabilística. Por ejemplo,
es posible que tenga que marcar varias veces antes de llegar a hablar con su amigo por teléfono.

Para ser eficaz, usted tiene que saber cuándo tiene que hacer algo para obtener un reforzador y
cuándo es probable que lo reciba independientemente de sus acciones. La conducta instrumental
eficiente requiere sensibilidad a la relación respuesta—reforzador.

dos tipos de relacion

a)temporal: tiempo entre la respuesta y el reforzador. Un caso especial de relación temporal es la


contigíiidad temporal que es la entrega del reforzador inmediatamente después de la respuesta

el reforzamiento inmediato es mucho más eficaz.

La respuesta en ratas disminuyó con bastante rapidez con aumentos en la demora del
reforzamiento

problema de la asignacion credito: Cuando el reforzamiento se demora después de la ejecución de


una respuesta específica, R1, el participante no deja de hacer cosas. Después de realizar
R1,elparticipante puede realizar R2,R3, R4, y así sucesivamente. Si el reforzador es producido por
R1 y no ha sido entregado sino hasta algún tiempo después, el reforzador puede ocurrir
inmediatamente después de alguna otra respuesta, digamos R6

b) relacion cusal o contingencia R-reforzador: medida en que la respuesta instrumental es


necesaria y suficiente para producir el reforzador.

LOs factores temporales y causales son independientes el uno del otro. Una relación temporal
fuerte no requiere una relación causal fuerte, y viceversa. Por ejemplo, hay una fuerte relación
causal entre enviar la ropa a la tintorería y tener ropa limpia de nuevo. Sin embargo, el retardo
temporal puede ser un día o dos.

maneras de superar el problema: proporcionar un reforzador secundario o condicionado


inmediatamente después de la respuesta instrumental ( estímulo condicionado que se asoció
anteriormente con el reforzador. Estímulos verbales en el entrenamiento, como “bueno”, “sigue
adelante” ).

Otra técnica que facilita el aprendizaje con el reforzamiento demorado consiste en marcar la
respuesta instrumental mediante la introducción de un breve destello de luz o ruido después de la
respuesta objetivo, o levantar al animal e introducirlo a una caja de retención durante el intervalo
de demora

experimento de demora de 30s en ratas

contingencia respuesta reforzador: medida en que la entrega del reforzador depende de la


ocurrencia previa de la respuesta instrumenta

Incluso cuando hay una relación causal perfecta

(es decir, el reforzador siempre depende de la respuesta = alta contingencia), el aprendizaje no se


produce si el refuerzo se demora demasiado.

el experimento de superstición de Skinner

Skinner colocó palomas en cámaras experimentales separadas y preparó el equipo para ofrecer un
poco de comida cada 15 segundos, independientemente delo que las palomas estuvieran haciendo

reforzamiento accidental emparejamiento accidental de una respuesta con la entrega del


reforzador. cualquier respuesta que una paloma llevó a cabo justo antes de que consiguiera el
alimento gratuito quedó fortalecida y posteriormente aumentó en frecuencia debido al
reforzamiento fortuito.

la respuesta se llevó a cabo con la suficiente frecuencia para ser identificada como conducta
supersticiosa

los conductistas pensaban que la contigúidadtemporal era el principal factor responsable del
aprendizaje. Elexperimento de Skinner apareció para apoyar este punto de vista, y sugirió que una
contingencia respuesta—reforzador positiva no era necesaria para el condicionamiento
instrumental

REINTERPRETACION DEL EXPERIMENTO DE SUPERSTICION


El estudio de Staddon y Simmelhag (1971)

Ellos repitieron y mejoraron el experimento:

Encontraron dos tipos de respuestas:

Respuestas interinas

Ocurrían a mitad del intervalo entre reforzadores.

Ejemplos: caminar, aletear, moverse por la jaula.

Aparecían inmediatamente después de comer, cuando era poco probable recibir alimento pronto.

Se interpretan como conductas de espera o desplazamiento, no como supersticiones.

Respuestas terminales

Ocurrían justo antes de la entrega del alimento.

Ejemplos: orientarse hacia el comedero, picotear la pared del compartimento.

Eran consistentes y predecibles entre individuos.

Se interpretan como conductas anticipatorias, relacionadas con la expectativa del refuerzo.

Conclusiones principales

Las palomas no actuaban supersticiosamente por coincidencia temporal.

En realidad, sus conductas estaban organizadas temporalmente en relación con el momento


esperado del refuerzo.

Esto implica que no basta la contigüidad (que algo ocurra al mismo tiempo) para explicar el
aprendizaje.

Las conductas observadas son el resultado de procesos adaptativos naturales, en los que los
animales ajustan su comportamiento al ritmo del entorno.

Las respuestas terminales (como mirar o picotear el comedero) son conductas típicas de la
especie (respuestas preorganizadas tipicas del sistema de alimentación) que aparecen cuando se
acerca la comida, porque el animal anticipa el refuerzo.

Ejemplo: la paloma se acerca al comedero justo antes de que salga la comida.

Las respuestas interinas (como caminar, girar o aletear) aparecen después de comer y mucho
antes del siguiente refuerzo. No están relacionadas con la comida, sino con otras motivaciones o
impulsos del animal, como moverse o explorar mientras “espera”. (busqueda focalizada posterior a
la comida justo despues de comer, luego cuando hay menos chance dee encontrar comida
busqueda general y proxima a la siguiente entrega busqueda focalizada osea cerca al comedero)

cómo influye la capacidad de controlar los reforzadores (positivos o negativos) en el aprendizaje y


la conducta.
Cuando hay una contingencia fuerte entre la respuesta (lo que hace el animal) y el reforzador (la
consecuencia), significa que el animal controla el resultado.

Ejemplo: si el perro aprende que presionar una palanca hace que pare la descarga eléctrica, tiene
control.

Pero si el reforzador (o estímulo aversivo, como una descarga) ocurre igual, sin importar lo que
haga, entonces no hay control.

indefension aprendida: la exposición previa a eventos incontrolables (como castigos inevitables)


reduce la motivación y la capacidad de aprender a evitar el daño

A unos perros les daban descargas eléctricas inevitables, sin forma de detenerlas.

Luego los ponían en una situación donde sí podían escapar (saltando una barrera).

Resultado: no aprendían a escapar, ni siquiera cuando era fácil hacerlo.

diseño triadico: usado en experimentos de indefension aprendida

La principal diferencia entre los grupos E y U es la presencia de una contingencia reforzador—


respuesta para el grupo E pero no para el grupo U durante la fase de exposición. Portanto, la
diferencia en la tasa de aprendizaje entre estos dos grupos muestra que los animales son sensibles
a la contingencia reforzador—respuesta

La hipótesis de indefensión aprendida fue la primera explicación importante delos resultados de


los estudios que emplean el diseño triádico

asume que durante la exposición a descargas incontrolables, los animales aprenden que las
descargas son independientes de su conducta y llegan a esperar que seguirán siendo
independientes de su conducta en el futuro.

El déficit de aprendizaje se produce En primer lugar, la expectativa de la falta de control reduce la


motivación para realizar una respuesta instrumental. En segundo lugar, incluso si llevan a cabo la
respuesta y quedan reforzados en la fase de condicionamiento, la expectativa previamente
aprendida de falta de control hace que sea más difícil para los sujetos aprender que su conducta es
ahora eficaz en la producción del reforzamiento.

efecto de indefensión aprendida. El efecto es el patrón de los resultados obtenidos con el diseño
triádico (interrupción del condicionamiento instrumental causada por la exposición previa a la
descarga inevitable).es un hallazgo firmemente establecido.

la hipótesis de la indefensión aprendida es una explicación del efecto, la cual ha sido polémica
desde su introducción

Alternativas a la hipótesis de la indefensión


hipótesis del dé]icit de actividad: los animales del grupo U muestran un défici de aprendizaje
enseguida de la exposición a la descarga inevitable debido a que las descargas inevitables orillan a
los animales a ser inactivos o a congelarse (como R al miedo) Sin embargo, no puede explicar los
casos en los que la exposición a la descarga ineludible perturba el aprendizaje Por ejemplo, las
ratas fueron deficientes en el aprendizaje de seleccionar el brazo correcto de un laberinto Y.
Elfracaso para aprender esta respuesta de escape no fue debido a la falta de actividad, sino a la
elección incorrecta .

La hipótesis de déficit de atención: La exposición a descargas inevitables reduce la atención del


animal hacia su propia conducta Es decir, el animal deja de fijarse en lo que hace y en sus
consecuencias

.más exitosa que la hipótesis del déficit de actividad

Explica por qué algunos animales sí pueden recuperarse si se les ayuda a prestar atención a las
consecuencias de sus actos. Por ejemplo, si se usan señales (luces, sonidos, pistas) que llaman su
atención o indican cuándo responder, los efectos de la indefensión disminuyen o desaparecen.

por qué la exposición a descargas evitables no es tan mala

la conducta de escape, que es un tipo de conducta instrumental ocurre cuando un organismo


realiza una acción para detener o eliminar un estímulo aversivo

Lo definitorio (lo que caracteriza esta conducta) es que la respuesta pone fin a un estímulo
negativo

Cuando el animal termina la descarga eléctrica, eso es un cambio externo (algo que pasa fuera del
cuerpo).

Pero además, al hacer la acción (como presionar la palanca), el cuerpo genera sensaciones
internas (proprioceptivas), llamadas señales de retroalimentación sensorial.

Esas sensaciones son señales internas que le indican al cerebro que la acción se reali

En el aprendizaje instrumental, no sólo los estímulos externos (como la descarga o la luz) sirven
como señales. También las señales internas que produce la propia respuesta (como sentir que se
movió el cuerpo) pueden asociarse con el reforzador o con el alivio del estímulo aversivo.

Cuando un animal recibe descargas inevitables e impredecibles (no puede escapar ni


controlarlas),

su sistema nervioso se vuelve más sensible al miedo.

Esto produce dos efectos:

Aprende el miedo más rápido después de esa experiencia.

Le cuesta más eliminar ese miedo (es decir, el miedo condicionado tarda más en extinguirse).
Las señales de seguridad se asocian consistentemente con la ausencia de peligro. Por eso, con el
tiempo, se convierten en inhibidores del miedo porque predicen que no habrá descarga

En los animales que no pueden evitar las descargas no se forman señales de seguridad.

Como resultado, todo el contexto (la jaula, el sonido, el ambiente) se asocia con miedo. Esto
explica por qué los animales (y también las personas en situaciones de trauma) pueden desarrollar
miedo generalizado a todo el entorno, incluso cuando ya no hay peligro.

un grupo de ratas recibió las descargas inevitables usuales en la fase de exposición, al final de cada
presentación de la descarga, las luces de la sala se apagaron durante 5 segundos como una señal
de seguridad. La introducción de esta señal de seguridad eliminó totalmente los efectos
perjudiciales de la exposición a la descarga en el posterior aprendizaje del traslado de escape

Aprender a predecir el cese de la descarga y la ausencia de ésta puede ser tan importante como
ser capaz de escapar de las descargas

el control de un evento estresante no tiene que ser nuestra única estrategia de afrontamiento.

Aprender a predecir cuándo nos encontraremos con el evento estresante (y cuándo no) puede ser
igual de eficaz enla reducción de los efectos nocivos del estrés
los organismos son sensibles a la contigiiidad, así como a la contingencia entre una respuesta
instrumental y un reforzador. Por lo general, estos dos aspectos de la relación entre la respuesta y
el reforzador actúan conjuntamente para producir el aprendizaje

consecuencias a largo plazo de la estimulación incontrolable dependen de una región-del cerebro


medio conocida como núcleo del rafe dorsal (NRD). justo ventral a otra región clave, la sustancia
gris periacueductal

puede regular la actividad neuronal en otras regiones del sistema nervioso central. Lo hace a través
de las neuronas que liberan el neurotransmisor serotonina (5 HT). proyectan las regiones
implicadas en el estrés y el miedo

activa las neuronas 5—HT en el NRD y tiene un efecto sensibilizador, mejorando el aumento de la
cantidad de 5—HT liberada en sitios distantes.

cuando el individuo tiene control sobre lo que sucede (por ejemplo, puede escapar o evitar la
descarga), su corteza prefrontal ventromedial (CPFvm) se activa.

Las neuronas excitatorias de la CPva activan interneuronas GABAérgicas dentro del NRD.

Las interneuronas GABAérgicas inhiben las neuronas serotonérgicas del NRD (es decir, reducen la
liberación excesiva de serotonina).

Esa inhibición del NRD evita que se produzca el patrón de hiperactividad asociado con la
indefensión aprendida

condicionamiento del miedo depende de las neuronas en la amígdala cerebral. De entrada, el EC y


el El parecen estar asociados dentro de la región basolateral de la amígdala cerebral, mientras que
el desempeño de la RC está orquestado por el núcleo central. La evidencia sugiere que la
estimulación incontrolable mejora las RC relacionadas con el miedo a través de las neuronas 5—HT
que se proyectan hacia la amígdala basolateral

Elefecto calmante de la estimulación controlable se ha ligado de nuevo a la CPva region


infralimbica que envía una proyección a la región celular intercalada de la amígdala cerebral (Esta
porción de la amígdala cerebral se compone de células inhibidoras (GABAérgicas) que se proyectan
hacia el núcleo central las conductas de miedo

La inhibición de la región infralímbica antes del condicionamiento no tuvo ningún efecto,

una historia de control conductual reduce la expresión de miedo, pero no su adquisición.

También podría gustarte