0% encontró este documento útil (0 votos)
14 vistas19 páginas

Tema 8 2022 - 2023

Cargado por

mireiagruiz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPT, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
14 vistas19 páginas

Tema 8 2022 - 2023

Cargado por

mireiagruiz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPT, PDF, TXT o lee en línea desde Scribd

Tema 8: Programas de reforzamiento y conducta de elección

Principios de Aprendizaje y Conducta. Domjan, M. (2010) Cap 6

1. PROGRAMAS SIMPLES DE REF. INTERMITENTE


-Programas de Razón
-Programas de Intervalo
-Comparación de los programas de razón y de intervalo
2. CONDUCTA DE ELECCIÓN: PROGRAMAS CONCURRENTES
-Medidas de la conducta de elección
-La ley de igualación
-Mecanismos de la ley de igualación

3. ELECCIÓN COMPLEJA
-Programas encadenados concurrentes
-Estudios sobre el Autocontrol
PROGRAMAS DE REFORZAMIENTO
(Esquema de los programas que estudiaremos)

CONTÍNUO
Programas
de PARCIAL O
Reforzamie INTERMITENTE
nto

SIMPLES COMPLEJOS
RAZÓN: Fija o Variable (RF o
Programas concurrentes
RV)

INTERVALO: Fijo o Variable Programas encadenados


(IF o IV) concurrentes
PROGRAMAS DE
REFORZAMIENTO

CONTÍNUO
Programas
de PARCIAL O
Reforzamie INTERMITENTE
nto

SIMPLES COMPLEJOS
RAZÓN: Fija o Variable (RF o Programas Concurrentes
RV)
Programas encadenados
INTERVALO: Fijo o Variable concurrentes
(IF o IV)
1. PROGRAMAS SIMPLES DE REF. INTERMITENTE
Programas de Razón
Se refuerza solo si ha ocurrido una cantidad determinada de RI (nº de RI)
a. Programa de Razón fija (RF)
Tasa 0 de Rs después del Rfzmnto: Pausa Posreforzamiento
Tasa de Rs alta y estable: Carrera de la Razón
Incremento súbito requerimiento razón  Tensión de la razón
b. Programa de Razón variable (RV)

Programas de Intervalo
Se refuerza una R solo si ha pasado un determinado tiempo desde la última
presentación del reforzador*
a. Programas de Intervalo fijo (IF)
Patrón de respuesta que se desarrolla con los programas IF
Festón del intervalo fijo
b. Programas de Intervalo variable (IV)
*Fuera del laboratorio es + común disponibilidad limitada de los reforzadores.
Registros acumulativos de los programas simples de
reforzamiento intermitente (Figura 6.2 tomada de Domjan, 2010):

RF / IF = Pausa predecible después del Reforzamiento y tasas altas de RI


antes de la administración del siguiente reforzador.
RV / IV = Tasas estables de Rs sin pausas predecibles
Comparación entre los programas de razón y de intervalo

Estudio de Reynolds, 1975:


(Figura 6.3 tomada de Domjan, 2010)

Prog. Razón  Favorecen T.E.R. + cortos


 Función de retroalimentación: Relación fuerte entre tasa de Rs
y frecuencia del Rf
PROGRAMAS DE REFORZAMIENTO

CONTÍNUO

Programas
de
Reforzamie PARCIAL O
nto INTERMITENTE

SIMPLES COMPLEJOS

(Razón e Intervalo) Programas Concurrentes


Programas encadenados
concurrentes
2. CONDUCTA DE ELECCIÓN: PROGRAMAS CONCURRENTES
Consta de 2 RI alternativas, cada una seguida de un reforzador con su propio
programa de reforzamiento (activos al mismo tiempo).

Medición de la Conducta de Elección Tasa Relativa de cada RI

Ci/ (Ci+Cd)=  Si Ci = Cd = 0,5


 Si Ci > Cd = Ci>0,5

Programa de reforzamiento  influye en la distribución conducta.

Si Ci y Cd siguen un Programa (IV60 – IV60) La tasa de RI será la misma


en ambos (0,5) porque tienen la misma probabilidad de ser reforzadas (no
hay ventaja en elegir más una de las opciones que la otra)
Tasa Relativa de Refuerzo

ri/ (ri + rd)=  Si ri = rd = 0,5


 Si ri > rd = ri>0,5
La Ley de Igualación
Formulada por Herrnstein (1961), indica que las elecciones entre RIs no se hace
de forma caprichosa, sino que dependen de la Tasa de Rf.

(Tomada de Domjan, 2010)


Expresiones matemáticas de la Ley de Igualación:

Ci/Ci+Cd = Ci/Cd = ri/rd


ri/ri+rd

Ambas representan el mismo principio: Las tasas relativas de


respuesta igualan las tasas relativas de reforzamiento.

La Ley de igualación cambió la forma en la que pensamos sobre la


conducta instrumental: la tasa de una respuesta particular no
depende únicamente de su propio programa de reforzamiento,
sino también de las tasas de reforzamiento de otras actividades
alternativas disponibles.
A veces no se cumple la Ley de Igualación (Tasas relativas de RI no
siempre se igualan exactamente con las Tasas Relativas de Rf )
Solución:
Ci/Cd = p (ri/rd)s

s = Sensibilidad de la conducta de elección a las Tasas relativas de Rf.


Influida por diferentes variables (Ej. Especie animal elegida,
dificultad en el cambio de alternativa…)

En una igualación perfecta s=1

Subigualación  s < 1 (se da más a menudo)


Sensibilidad reducida de la R de elección a las Tasa relativas de Rf

p = Sesgo (o preferencia) de respuesta (alternativas de RI y de Rf diferentes)


En ausencia de sesgo, p=1
Mecanismos de la Ley de Igualación

La Ley de Igualación describe cómo se distribuyen las Rs, pero no


explica los mecanismos responsables.
Aproximaciones que estudian cómo los organismos elegimos
diferentes fuentes de reforzamiento.
Las Rs se distribuyen  obtención de la máxima cantidad de
reforzamiento posible  MAXIMIZACIÓN
Niveles de análisis
• Molecular
• Molar

• Mejoramiento
• Maximización Molecular:
Molecular Se escoge la alternativa que tiene más
probabilidad de ser reforzada en ese momento (cambia del programa A al B a
medida que la probabilidad del reforzamiento en el programa B aumenta)
• Maximización Molar:
Molar Centradas en conjuntos de cdtas. que ocupan un
período de tiempo  distribuyen sus Rs de modo que a la larga la
cantidad de reforzamiento sea máxima.
• Mejoramiento: operan en una escala temporal entre las tas. molares y
moleculares (“decisiones inocentes”)
 Se refiere a hacer algo mejor (no mejor a largo plazo o la mejor
alternativa en ese momento, sino “solo hacer que la situación sea mejor”)
 Cambio de alternativa para mejorar tasa local reforzamiento
 Da como resultado la igualación

Tasa local de R: Número de respuestas/tiempo dedicado a esa alternativa


Ej. Tasa total I: 75/HORA; Tasa local I: 75/20 MINUTOS o 225/HORA.
3. ELECCIÓN COMPLEJA
Elegir una alternativa hace que otras alternativas no estén disponibles y la
elección puede involucrar metas a largo plazo
Programas de ref.
 Eslabón de
Encadenados –Concurrentes elección
(elección con compromiso)  Eslabón terminal

(Figura 6.6 tomada de Domjan, 2010)


Resultados: la cdta. de elección está determinada por las
características del refuerzo en los elementos terminales.

Los sujetos prefieren las alternativas de RV:

Porque ocasionalmente este tipo de programas dan la


oportunidad de tener Rf por un nº pequeño de RI
ESTUDIOS SOBRE EL AUTOCONTROL
Autocontrol: Elegir una recompensa grande demorada frente a una recompensa
pequeña pero inmediata (+ fácil si la alternativa tentadora no está claramente
disponible)
•Procedimiento elección directa: no muestran autocontrol
•Procedimiento encadenado concurrente: sí muestran autocontrol
Si se añade demora a ambas elecciones: se muestra autocontrol

Si se impone una demora


suficiente

(Figura 6.7 tomada de Domjan, 2010)


Explicaciones del Autocontrol:
Valor del reforzador: Se reduce en función del tiempo de espera
* Función de descuento del valor: Disminuye el valor del Rf en
función del tiempo que el sujeto tiene que esperar la administración
del Rf.
V=M/(1+KD)

(Tomada de Domjan, 2010)


Si la elección ocurre en T1 se elegirá la respuesta pequeña (opción impulsiva), pero las funciones
. descontadoras se cruzan con demoras mayores

(Figura 6.9 tomada de Domjan, 2010)


* ¿Puede enseñarse el autocontrol?
Entrenar a las personas con recompensas demoradas parece tener
efectos generalizados en incrementar su tolerancia a la
recompensa demorada.

Estudio de la preferencia de la recompensa inmediata o demorada


de Eisenberger y Adornetto (1986)
Resultados  Siempre que las tareas de entrenamiento
implicasen bajo esfuerzo, el entrenamiento con la recompensa
demorada incrementó la preferencia por la recompensa más
grande demorada = AUTOCONTROL

También podría gustarte