0% encontró este documento útil (0 votos)
225 vistas25 páginas

Condicionamiento Operante de Skinner

1) B.F. Skinner fue un psicólogo estadounidense que desarrolló la teoría del condicionamiento operante. 2) Realizó experimentos con ratas en los que accionar una palanca les proporcionaba comida como refuerzo, aumentando la frecuencia de esa conducta. 3) Aplicó los principios del condicionamiento operante para entrenar diversos animales a través del refuerzo, logrando que realizaran diferentes tareas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
225 vistas25 páginas

Condicionamiento Operante de Skinner

1) B.F. Skinner fue un psicólogo estadounidense que desarrolló la teoría del condicionamiento operante. 2) Realizó experimentos con ratas en los que accionar una palanca les proporcionaba comida como refuerzo, aumentando la frecuencia de esa conducta. 3) Aplicó los principios del condicionamiento operante para entrenar diversos animales a través del refuerzo, logrando que realizaran diferentes tareas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

DOCUMENTO Nº 1

Nacido en Pensylvania, EEUU., obtuvo el título de Psicólogo en Harvard en 1931.


Es considerado como el precursor del condicionamiento operante. Sostuvo que el
refuerzo es elemento fundamental para el control de la conducta. Diseñó un
aparato muy importante para la investigación psicológica.
DEFINICIÓN:
Fue B.F. Skinner, psicólogo norteamericano contemporáneo, quien descubrió un
segundo tipo de condicionamiento denominado:Condicionamiento Operante.
El experimento llevado a cabo por Skinner fue el siguiente: colocó a una rata
blanca hambrienta (privada de alimento por 24 horas) en una caja bien aislada en
la que se encuentra una palanca que puede ser accionada por el animal. Si la rata
acciona la palanca, un dispositivo mecánico deja caer una bolilla de alimento al
comedero instalado dentro de la misma caja dentro de la misma caja, cerca de la
palanca.
En un comienzo, el comportamiento del animal en la caja de experimentación es
más o menos caótico: explora la caja y corre de aquí para allá, sin tocar la
palanca. Al cabo de un tiempo, y por casualidad acciona la palanca y el alimento
cae en el comedero p. La rata ingiere la bolilla y vuelve a accionar la palanca,
repitiéndose lo sucedido anteriormente. El proceso se repite con insistencia y la
rata corre sin cesar del comedero a la palanca.
La característica esencial del condicionamiento operante reside en
el refuerzo (alimento) que percibe la conducta operante (accionar la palanca).
La expresión Condicionamiento Operante refleja el hecho de que el animal
opera, o actúa, de acuerdo con el ambiente natural o el del laboratorio, para
producir un efecto. El efecto producido determinará si el animal ejecuta de nuevo
una respuesta, o si continuará comportándose como antes.
Es la teoría del aprendizaje que intenta explicar la conducta que es nueva para el
organismo proponiendo que dicha conducta se adquiere debido a que las
consecuencias que percibe el organismo aprendiz aumentan o disminuyen la
frecuencia de aparición d esas conductas.
Conducta operante: es un comportamiento que es nuevo para el organismo por
que no se encuentra programado en su código genético.
Evento reforzante: se trata de la entrega de algún estímulo del ambiente que
satisface alguna necesidad del organismo que aprende (la entrega de un premio).
Estímulo reforzante: es un estímulo del ambiente que aplicado al organismo que
aprende tiene la capacidad de hacer que aumente la frecuencia de aparición de
alguna conducta.
TIPOS DE APRENDIZAJE SEGÚN EL CONDICIONAMIENTO OPERANTE.

1
Aprendizaje por reforzamiento: es el aprendizaje en el cuál la conducta es nueva
para el organismo aumenta su frecuencia de aparición luego de recibir algún
estímulo reforzante.
Aprendizaje por evitación: es el aprendizaje donde el organismo aprende una
conducta nueva que termina o impide la aplicación de algún estímulo aversivo
(desagradable), y aumenta la frecuencia de aparición de esa conducta para que
no regrese.
Aprendizaje supersticioso: es el aprendizaje donde alguna consecuencia
casualmente reforzante o aversiva aumenta la frecuencia de aparición de alguna
conducta.
Aprendizaje por castigo: es el aprendizaje donde un organismo aumenta la
frecuencia de aparición de las conductas que no fueron seguidas o que no
recibieron ningún estímulo aversivo o desagradable.
Olvido: todas las conductas que no reciben o que dejan de recibir reforzamiento
tienden a disminuir su frecuencia de aparición y a desaparecer.
El esquema del condicionamiento operante es el siguiente:
Estímulo Condicionado : Palanca dentro de la caja.
Respuesta Condicionada : Accionar la palanca.
Estímulo Incondicional : Bolilla de alimento
Respuesta Incondicional : Comer
PROGRAMAS DE REFORZAMIENTO:
En el estudio de los programas son esenciales un sistema de notación y una
terminología. La especificación sin ambigüedades de los programas es sólo un
requisito necesario en un sistema de notación, los sistemas ideales podrían
emplearse para generar procedimientos experimentales de interésconductual y
explicarían el análisis de la conducta bajo un programa determinado. Hay ventajas
y desventajas en todos los sistemas de notación que se han utilizado para
describir los programas (Ferster y Skinner, 1957, Findley, 1962, Mechner, 1959,
Schoenfeld, Cumming y Hearst, 1956). Las designaciones de los programas
hechos por Ferster y Skinner proporcionan un conjunto de términos que tienen
connotaciones para todos aquellos que están familiarizados con la literatura sobre
programas.
En un programa de razón, una respuesta es reforzada después de la emisión de
cierto número de respuestas designado a partir de la última respuesta reforzada o
algún otro evento especificado. El número requerido puede ser fijo o variable,
dando lugar al reforzamiento de razón fija (RF) y al de razón variable (RV). En un
programa de intervalo, una respuesta es reforzada después de un período
designado a partir de algún evento (comúnmente, el último reforzamiento). En el
reforzamiento de intervalo fijo (IF)el tiempo entre el inicio del intervalo y la
disponibilidad del reforzamiento es fijo, y la siguiente respuesta después de la
2
terminación del período es reforzada. El reforzamiento de intervalo variable (IV) es
semejante, excepto que los períodos designados son de duración variable. *El
evento que inicia el período puede ser el reforzamiento, el fin de un período previo
(disponibilidad limitada), cambios en los estímulos discriminativos o una respuesta
(programas en tándem). Una característica esencial de los programas de intervalo
es que no se hacen específicas explícitas acerca de las respuestas entre la
indicación del intervalo y la disponibilidad del reforzamiento está disponible
después de un tiempo fijo a partir de la respuesta precedente inmediata (RDB) no
constituye, estrictamente hablando, un programa de intervalo.
La disponibilidad del reforzamiento en los programas de razón e intervalo puede
restringirse aún más si se imponen especificaciones adicionales que
establezcan límites a aquellos períodos en los que una respuesta puede ser
reforzada, por ejemplo, en un programa de intervalo, en vez de reforzar la primera
respuesta que ocurre después del final del intervalo, el período de disponibilidad
puede limitarse a una duración específica. Ferster y Skinner designan a los
programas de intervalo así calificados, como de disponibilidad limitada.
Igualmente, otra restricción sobre la disponibilidad de reforzamiento descrita por
Ferster y Skinner consiste en que el tiempo entre una respuesta designada y la
respuesta subsecuente (o series de respuestas) debe ser menor que una duración
específica (rda) o debe exceder una duración especificada (rdb).
Otros procedimientos útiles de análisis de los efectos de los programas de razón e
intervalo son las combinaciones de estos programas. En un programa tándem, la
disponibilidad del reforzamiento está determinada por una secuencia particular
ordenada de programas componentes en que, exceptuando el último componente,
la única consecuencia de la respuesta que termina un componente es que inicia el
siguiente componente. En los programas concurrentes, cualquiera de dos
programas independientes, programados al mismo tiempo determinan la
disponibilidad del reforzamiento es determinada conjuntamente por las
interacciones en los requisitos de número y tiempo; por ejemplo, en un programa
conjuntivo de razón fija, intervalo fijo, la disponibilidad del reforzamiento es
depende de la emisión de un número de respuestas dado y del paso de un
período mínimo desde el último reforzamiento. En un programa entrelazado
(interlocking) de razón fija, intervalo fijo, la disponibilidad del reforzamiento
depende de la emisión de un número de respuestas que cambia como función del
tiempo a partir del último reforzamiento.
Ferster y Skinner definen otros programas, que son secuencias de programas
simples. Los programas múltiples combinan dos o más programas, estando cada
uno de ellos acompañado por un estímulo diferente. Los programas encadenados
son similares a los tándem en que la disponibilidad del reforzamiento depende de
una secuencia ordenada de programas componentes; pero en los programas
encadenados los programas componentes (o elcambio en los componentes) están
correlacionados a los estímulos.
¿CÓMO HA UTILIZADO SKINNER A LOS ANIMALES PARA ESTUDIAR
ELREFORZAMIENTO OPERANTE?
3
Por lo general, los psicólogos experimentales no han relacionado
sus leyes y teorías con casos de aprendizaje en la vida real. Sin embargo,
el profesorSkinner y sus colegas han tenido bastante éxito con
el entrenamiento de animales. Es probable que aún entrenadores profesionales de
animales, por medio del estudio de los procedimientos utilizados en el
condicionamiento operante, pudieran mejorar sus técnicas. En un periodo escolar,
dándole alimento a un pichón hambriento en el momento oportuno, Skinner logro
implantar en el ave tres o cuatro respuestas bien definidas, como girar en redondo,
caminar por el piso recorriendo una trayectoria en forma de ocho, estirar el
pescuezo y golpear con una patita.
La tesis básica de Skinner es que, ya en el organismo tiende a futuro a hacer lo
que esta haciendo en el momento del reforzamientos, se puede, poniendo un sebo
en cada etapa, obligarlo hacer lo que se desea. Utilizando esta tesis como base de
su procedimiento, ha enseñado a unas ratas a que usen una canica para obtener
alimento de una maquina automática, también a unos pichones a que jueguen una
especie de tenis, y a unos perros a que hagan funcionar el pedal de un bote
de basura, para conseguir un hueso.
Skinner ha concentrado sus estudios en animales inferiores por que su
comportamiento es más simple, por que las condiciones circundantes pueden ser
mejor controladas, por que los procesos básicos pueden ser más palpables y se
pueden registrar durante mayores periodos de tiempo, así como las observaciones
no se complican por relaciones sociales entre los sujetos y los psicólogos.
La caja de Skinner es una caja común y corriente, hecha para contener una rata,
una palanca y un artificio que deja caer una bolita de alimento cada vez que la rata
oprime una palanca. Los artificios de registro están colocados fuera de la caja,
para que el experimentador pueda ir a su casa en la noche y ver a la mañana
siguiente lo que estuvo haciendo la rata. También hay cajas de Skinner para el
estudio de palomas y otros animales. Una rata o una paloma aprenden
rápidamente en una caja de Skinner por que en la caja hay muy pocas cosas que
pueden hacer. Skinner dice: "la indicación más escueta del proceso es: hacemos
que cierta consecuencia sea contingente – dependiente – de ciertas propiedades
físicas de la conducta el movimientohacia arriba de la cabeza- y entonces
observamos la conducta del animal para aumentar su frecuencia."
La conducta de una conducta puede ser reforzada de manera que estirar el
pescuezo se vuelva habitual. Colocamos la paloma en la jaula de modo que el
experimentador pueda ver la cabeza del animal en una escala fijada al otro lado
de la jaula. Así, establecemos la altura en la que normalmente se encuentra la
cabeza; posteriormente escogemos una altura que solo se ha alcanzado pocas
veces. El experimentador mantiene la vista en la escala rápidamente abre la caja
del alimento, cada vez que la cabeza del pájaro pasa arriba del nivel establecido.
Como resultado de este procedimiento el aprendizaje se realiza... "Observemos un
cambio inmediato con respecto a la frecuencia con que la cabeza sobrepasa la
línea. También observamos y esto es de gran importancia teórica, que la cabeza
empieza a rebasar alturas mayores. Podemos aumentar la altura casi
4
inmediatamente, si damos el alimento en el momento adecuado. En uno o dos
minutos, la posición del pájaro a cambiado a tal grado que ahora el punto mas alto
de su cabeza rara vez se encuentra a menos altura que la primera que habíamos
escogido."
Entrenando a dos palomas separadamente, Skinner realizo una escena social en
la cual hay una especie de competencia entre dos palomas que juegan a algo
parecido al tenis de mesa. Realizo este entrenamiento mediante reforzamientos
operantes. Primero las palomas fueron reforzadas cuando solo empujaban la
pelota. Cuando esta iba a dar al otro pichón, era reforzado el primero. También
entreno palomas para que coordinen su conducta en danzas de conjunto, que
rivalizan con la destreza de los más hábiles bailarines humanos.
Los procedimientos del reforzamiento pueden variar de acuerdo con los intervalos
de tiempo y él numero de respuestas entre los esfuerzos. Un programa de
refuerzo es una pauta de conductas que merecen "recompensa" basado en un
intervalo de tiempo fijo y un numero también fijo de respuestas entre las
recompensas. En un laboratorio Skinner y Ferster, han logrado realizaciones
apropiadas a cada uno de los nueve diferentes programas de intervalos
radiofónicos. Cuando se presenta un estimulo, la paloma ejecuta el acto apropiado
ese programa especifico. Skinner cree que lo que ha logrado hace muy plausible
la idea de ampliar los resultados del laboratorio de la vida cotidiana de la gente es
mas complicado, pero de la misma naturaleza básica que el aprendizaje de un
animal mediante el condicionamiento operante.
En los experimentos de condicionamiento operante, las distintas especies de
organismos estudiados no han dados resultados muy diversos. " Se han obtenido
resultados que puedan ser equiparados, tanto con palomas, ratas, perros,
monos, niños y más recientemente... con sujetos humanos con algún
padecimiento sicótico. A pesar de las enormes diferencias filogeneticas, todos
estos organismos han demostrado tener extraordinaria similitud de propiedades en
el proceso del aprendizaje".
EJEMPLIFICACIÓN :
Veamos un ejemplo de Condicionamiento Operante que se da en la vida diaria:
supongamos que el señor Sánchez va con su hijito de 3 años a comprar a la
bodega. Al niño le encantan los dulces y al verlos, le pide a su papá que le compre
uno. El señor Sánchez se niega, y el niño empieza a llorar. Como el padre no
quiere que su hijo llore le compra un dulce. Otro día al volver a la tienda ocurre lo
mismo: el padre se niega inicialmente pero, al llorar el niño, cede y le compra el
dulce. En las semanas siguientes seguirá sucediendo lo mismo.
¿Qué ha ocurrido?
Simplemente que el niño "aprendió" a llorar para obtener lo que quiere, en ese
caso los dulces. ¿Cómo?; por condicionamiento operante. Siguiendo el esquema
mencionado, el proceso fue el siguiente:
Estímulo Condicionado : Ver los dulces y tener a su padre con él.
5
Respuesta Condicionada : Llorar.
Estímulo Incondicional : Compra de dulce.
Respuesta Incondicional : Satisfacción al comer el dulce.
¿CÓMO FUNCIONA EL CONDICIONAMIENTO OPERANTE DE SKINNER?
Skinner considera que la sicología es predecir y controlar la conducta de los
organismos individuales, e insiste en que la sicología se limita al estudio de la
conducta observable; sus únicos datos son los que se adquieren por
la observación.
La sicología de Skinner es un tipo de ciencia meramente de ingieren define el
aprendizaje como un cambio en la probabilidad de una respuesta. En la mayoría
de los casos este caso es originado por el acondicionamiento operante.
En este sentido el acondicionamiento operante es el proceso didáctico en él por el
cual una respuesta se hace más probable o más frecuente. En el proceso del
acondicionamiento operante el rebosamiento aumenta la probabilidad de
repetición de ciertas respuestas.
Skinner cree que casi toda la conducta humana es producto de un reforzamiento
operante.
Pongámonos en el lugar de un estudiante de cuarto grado, llamada Dale Cooper,
en una posible aula en el año 1975. A la primera campanada los estudiantes
entran a clases, a la segunda campanada se mantienen en silencio. Una vez
realizados los primeros ejercicios el profesor dice: "aritmética". Dale a sido
condicionado a que con esta indicación coloque su cilindro de aritmética en su
maquina de enseñanza localice el lugar donde se quedo la ultima clase y prosiga
condicionándose para seguir contestando los problemas. Transcurridos 20
minutos el profesor dice: "lectura" y 20minutos mas tarde dice: "ortografía". Cada
palabra es él estimulo apropiado para que Dale cambie el cilindro de su maquina.
Después viene el descanso. Al sonar una campana con distintos sonidos salen al
lugar destinado a juegos. Aquí el equipo a sido mecanizado de manera que
necesita muy poca supervisión por parte del maestro o de otros miembros
del personal el maestro utiliza el periodo de descanso para revisar, preparar y
lubricar las maquinas.
La sicología que serviría de base para utilizar las maquinas de enseñanza para la
educación de Dale a sido ideada por B. F. Skinner (1904). Skinner a encontrado
que el acondicionamiento operante a resultado sumamente efectivo en el cambio
del entrenamiento de animales y tiene confianza de que tendrá igual éxito cuando
se aplique a niños y jóvenes. En acondicionamiento operante los maestros son
considerados arquitectos y edificadores de la conducta de los estudiantes.
Los objetivos didácticos se dividen en un gran numero de pasos muy pequeños y
se refuerzan uno por uno. Los operantes serie de actos son reforzados esto es se
refuerzan para que incrementen la probabilidad de su recurrencia en el futuro.

6
Este proceso es de primerísima importancia que los profesores empleen
programas de rebosamiento debidamente cronometrados y espaciados.
El profesor Skinner se opone a que los psicólogos y los profesores usen términos
tales como "fuerza de voluntad, sensación, imagen, impulso o instinto" que se
supone que se refieren a eventos no fiscos. La conducta es el movimiento de un
organismo o de sus partes, en un marco de referencia suministrado por el propio
organismo o por varios objetos externos o campos de fuerza.
Un condicionamiento operante es una serie de actos que consigue que un
organismo haga algo; levante la cabeza, mueva una placa, diga caballo. En el
proceso del condicionamiento operante hace que las respuestas cambien.
Señala que en la vida humana en varias actividades incluyendo la educación la
gente cambia constante mente las probabilidades de respuesta de otras personas
mediante la formación de conciencias de reforzamiento. El reforzamiento operante
mejora la eficacia de la conducta. Mediante el reforzamientos aprendemos a
mantener el equilibrio, caminar, practicar juegos fiscos y manejar herramientas e
instrumentos, realizamos una serie de movimientos, y la probabilidad de que
repitamos esos movimientos mejora y aumenta. Así el rebosamiento operante
mejora la eficacia de la conducta.
Siempre que algo refuerza una forma particular de conducta las probabilidades de
que se repita tal conducta son mayores. La misión de los psicólogos es adquirir
una mejor comprensión de las condiciones bajo las cuales los reforzamientos
operan mejor y así abrir el camino al control cultural por medio de
la ingeniería social. A los muchos reforzamientos naturales de la conducta, pueden
observares un ejercicio de reforzamientos artificiales. Cualquier lista de valores es
una lista de valore condicionados. Estamos constituidos de maneras que bajo
ciertas circunstancias el alimento, el agua, el contacto sexual, ara que cualquier
conducta que los produzca es muy problema que los repita. Otras cosas pueden
adquirir estos valores. Un organismo puede ser reforzado por casi cualquier
situación.
¿QUÉ TEORIA PSICOLOGICA SIRVE DE BASE A LOS PROCEDIMIENTOS DE
ENSEÑANZA DE SKINNER?
En todos sus estudios y exposiciones, el profesor Skinner se ha adherido
rigurosamente a la convicción básica de que los psicólogos deben restringir sus
estudios a las correlaciones entre los estímulos y las respuestas sin inmiscuirse
con psicologías que "hagan creer", basadas en eslabones constituidos por fuerzas
fisiológicas y mentales entre estímulos y respuestas. Los partidarios de la
oposición de Skinner, consideran que el estudio de estas variableses...
"una filosofía fingida que quiere demostrar la verdad, sin tener pruebas suficientes"
En un sentido la sicología de Skinner, de la conducta operante, es una ampliación
de las psicologías mecanicistas anteriores de estimulo – respuesta, el
conexionismo según Thorndike y la escuela de conductismo desarrollada por
Watson, que trata de reducir todos los fenómenos psicológicos a elementos
7
físicos. Thorndike utilizó tanto los elementos físicos como los mentales, pero sus
estudios sobre el hombre fueron siempre mecanicistas. Watson también, aunque
mecanicista, limito sus estudios a la conducta de los organismos biológicos.
Skinner, igual que Thorndike y Watson, supone que el hombre es neutro y pasivo
y que toda conducta puede describirse en términos mecanicistas. En sus estudios
sobre el hombre y los animales, es constantemente mecanicista y elementista;
para él, la sicología es la "ciencia de la conducta"
¿ CUÁL ES EL SIGNIFICADO DE LA CIENCIA DE LA CONDUCTA?
Skinner considera que hay un grande y determinante porvenir para la ciencia de la
conducta. De acuerdo con sus puntos de vista, como la ciencia de la conducta
tiene como objeto demostrar las consecuencias de las practicas culturales, hay
razón para creer que la presencia de tal ciencia será una señal esencial de
la cultura o culturas que sobrevivirán en el futuro y que la cultura que es probable
que perdure, es aquella en la que los métodos de la ciencia sean mas fielmente
aplicados a los problemas de la conducta humana. Por tanto, en todos sus
trabajos ha luchado constantemente por ser científico hasta el enésimo grado.
Skinner considera a la ciencia como " más que una serie de actitudes, es algo que
intenta encontrar un orden, uniformidad, realizaciones legales en los sucesos de la
naturaleza. Empieza como todos comenzamos, observando pequeños episodios,
pero pronto pasa a la regla general, a la ley científica". Así pues se ha colocado a
la altura de los representantes contemporáneos de la ciencia atomista e inductiva,
siguiendo las orientaciones anteriores de Francis Bacon y John Stuart Mill. Solo se
puede adquirir el sabor de los trabajos de Skinner leyendo sus librosy
sus informes se hace evidente el frecuente uso que hace de los artículos definidos
Él y La, que contrasta con el poco uso de los artículos indefinidos Un, Uno, Una.
Como otros científicos "realistas" suponen que esta actitud hace sus trabajos más
objetivos y que sus informes sobre estudios resultan mas "científicos"
DEFINICIÓN "REALISTA" DE LA CIENCIA
Skinner trabaja con la suposición básica de que hay un orden en la naturaleza,
inclusive en la conducta humana y que la función de la ciencia es descubrir el
orden. Este es el cometido de un científico realista, en contraste con el relativista.
Dentro del punto de vista realista de Skinner, la ciencia tiene por misión el
descubrimiento de las leyes preexistentes que gobiernan el mundo en el que nos
movemos. El conocimiento de estas leyes mejora nuestra capacidad de predicción
y por tanto gobierna mejor las variables que hacen que las cosas sucedan.
Supone que esto es tan cierto en sicología como en física o en química. Así el
hombre, por medio del descubrimiento de las leyes y organizándolas en sistemas
queda capacitado para hacer frente en forma efectiva a los aspectos del mundo
natural.
Skinner reconoce que " ya es tiempo de insistir de que la ciencia no progresa
mediante pasos cuidadosamente estudiados que se llaman <experimentos< cada
uno de los cuales tiene un bien definido principio y fin. La ciencia es un proceso
continuo y a menudo desordenado y accidental". Sin embargo, Skinner no
8
reconoce el principio relativista de que la realidad consiste en lo que logramos
hacer con lo que nos llega y es"... definible como algo que puede, debe o causan
diferencias a algo o a alguien"...
PROPIEDADES INTRÍNSECAS DE LOS PROGRAMAS:
Antes de intentar mostrar cómo la conducta es mantenida por un programa
determinado, necesitamos considerar un poco más las implicaciones de la
especificación de un programa de reforzamiento de respuestas en el paso del
tiempo. De hecho, ¿qué estamos especificando cuando designamos un programa,
y cómo estas especificaciones empiezan a controlar la conducta? La complejidad
de las variables interactuantes que controlan la ejecución de los tipos más
sencillos de programas no puede ser sobreenfatizada. Algunas de estas
relaciones entre los reforzamientos y las respuestas en el tiempo estarán
determinadas aproximada e indirectamente. Por ejemplo, cuando decimos que la
trigésima respuesta a partir del reforzamiento previo va a ser reforzada (RF 30), o
que la respuesta que ocurre 5 minutos después del reforzamiento previo va a ser
reforzada (IF 5), se obtendrán necesariamente ciertas condiciones en cada ciclo
del programa y serán diferentes en ambos programas. Para considerar lo más
obvio, en el caso del RF, el número de respuestas emitidas cuando el reforzador
se presente siempre será el mismo, mientras que en un IF el número puede variar
y, de hecho, variará. El tiempo entre los reforzamientos sucesivos depende
directamente de la tasa de respuesta del sujeto en el caso del RF 30, y está
limitado en el límite inferior solamente por el tiempo mínimo para emitir 30
respuestas, mientras que en el IF 5, el tiempo entre los reforzamientos sucesivos
tiene un límite inferior fijo y es esencialmente independiente de la tasa
moderadamente alta de respuesta del sujeto bajo circunstancias comunes.
El grado en que las características consistentes y recurrentes de un programa,
como la constancia en el número de respuestas emitidas en un RF o la constancia
aproximada en el tiempo interreforzamientos en el IF, son factores que determinan
las ejecuciones en un asunto que debe determinarse experimentalmente. Es
probable que en algunos valores paramétricos la mayoría de, (si no es que todas),
estas propiedades de un programa producirán alguna consecuencia conductual ;
pero algunas de las características son más importantes que otras. En algunos
casos la falta de especificación exacta, como el tiempo entre reforzamientos en el
RF o el número de respuestas por reforzamiento en el IF, pueden ser por
importancia conductual.
La relación temporal entre la respuesta que se refuerza y la respuesta precedente
inmediata es una característica sutil pero muy importante, determinada en forma
inherente por la especificación del RF 30 o del IF 5. LA relación es diferente para
los programas de razón y de intervalo, y esta diferencia constituye una de las
principales distinciones entre dichos programas. En el RF, la probabilidad de que
la siguiente respuesta RN, sea reforzada es independiente del tiempo entre ella y
la respuesta precedente (el tiempo entre respuestas), mientras que en el programa
de intervalo, la probabilidad de que la siguiente respuesta sea reforzada aumenta
con el tiempo transcurrido desde la última respuesta.
9
CLASIFICACION SEGÚN SKINNER:
En el condicionamiento operante y el análisis experimental de la conducta, Skinner
intenta clasificar la relación entre el Paradigma de...
Pavlov: la conexión se producía entre un estímulo nuevo y una respuesta refleja.
Thorndike: la conexión entre un estímulo dado y una respuesta nueva.
Skinner distingue 2 tipos de respuestas (respondiente y operante) y 2 tipos de
condicionamiento (de tipo E y de tipo R).
Skinner acentuó la importancia de la conducta operante y su condicionamiento:
La conducta operante, con su relación singular con el mabiente, presenta un
campo de investigación importante e independiente. Los aspectos de la conducta
respondiente que se ha considerado como datos fundamentales en la ciencia de la
conducta no pueden, como hemos visto, extrapolarse a la conducta como un todo,
y la información que aportan tampoco es demasiado valiosa en el estudio de la
conducta operante.
APORTACIONES DEL CONDICIONAMIENTO OPERANTE.
 Propuso ocuparse solamente del comportamiento que se puede observar y
cuantificar claramente.
 Propuso ocuparse menos de lo que ocurre dentro del organismo que
aprende.
 Estudia el origen de las conductas.
 Concedió la mayor importancia al ambiente en el cuál se encuentra el
organismo que aprende.
 Consideró que el proceso de aprendizaje es igual en los humanos que en
los animales.
 Propuso las definiciones científicas de lo que son la conducta y
la psicología.

PROCEDIMIENTOS EN EL CONDICIONAMIENTO OPERANTE


Los procedimientos presentados a continuación se basan en la distinción derivada
de la ley de efecto de L. Thorndike, la cual establece "que las respuestas que
generan satisfacción tienen más posibilidades de repetirse, lo cual no sucede con
las que no la producen, que tienen mayor probabilidad de repetirse".
Entrenamiento de Recompensa. El único aspecto esencial de este entrenamiento,
es que la recompensa sigue a la respuesta de modo sistemático. Dentro de
este método de entrenamiento, el progreso del aprendizaje se mide por una tasa
de respuesta; es decir, el número de respuestas por unidad de tiempo.

10
Entrenamiento de Evitación. En la forma usual de experimento de evitación, el
sujeto, al responder a una señal –estímulo discriminativo–, evita la aparición de un
estímulo nocivo.
El entrenamiento de escape es un procedimiento en el que no se emplea ninguna
señal de aviso definida. Se relaciona estrechamente con el entrenamiento de
evitación y se asume como una de sus subvariedades. En este método, la
respuesta operante termina con un estímulo nocivo.
Entrenamiento de Omisión. En el entrenamiento de omisión, el refuerzo positivo –
más adelante se ampliará el significado de estos conceptos– se efectúa cuando el
organismo no puede dar una respuesta particular; es decir, si la respuesta
especificada se realiza, se omite el reforzamiento. En este aspecto, difiere del
procedimiento de extinción, en el que nunca se efectúa el reforzamiento.
Entrenamiento con Castigo. Este procedimiento consiste en hacer que se efectúe
algún estímulo nocivo, como un choque eléctrico o la introduccióndentro de la
boca de una solución ácida moderada, al momento de efectuarse una respuesta
especificada. En el entrenamiento de castigo, el estímulo nocivo ocurre después
de la respuesta.
REFORZADORES Y REFORZAMIENTO:
El término reforzamiento tiene dos significados diferentes. En un sentido empírico,
el reforzamiento se refiere a cualquiera de una amplia variedad de condiciones
que pueda introducirse en una situación de aprendizaje para aumentar la
probabilidad de que una determinada respuesta reaparezca en la misma situación.
En el ámbito teórico, el término varía de un autor a otro: Hull (1934) lo iguala con
la reducción del impulso; Skinner (1938) y Tolman (1932) lo manejan como
estímulo; para Thorndike (1911) es una satisfactor o un perturbador; Guthrie
(1935) lo considera como algo que altera una situación; Sheffield (1948) y Denny y
Adelman (1955) lo ven como una causante de conducta.
En varios sentidos, los reforzadores se pueden concebir en términos de
recompensa; tanto la recompensa como el reforzador, incrementan la posibilidad
de que se repita una respuesta previa. Pero cabe hacer una distinción entre la
categoría de los tipos de refuerzos:
Reforzador positivo: es aquel estímulo que se añade al entorno y que trae consigo
un incremento de la respuesta precedente o que determina que en el futuro dicha
respuesta se repita –"aparece algo agradable"–.
Reforzador negativo: es aquel estímulo que elimina algo desagradable –o cuya
remoción es reforzante– del entorno, lo que deriva en un aumento de la
probabilidad de que la respuesta precedente ocurra nuevamente en el futuro. El
reforzador negativo le enseña a un individuo que la ejecución de
ciertaacción elimina un elemento negativo que existe en el entorno. Este tipo de
refuerzo actúa en dos tipos de aprendizaje –ya mencionados–: el
condicionamiento de evitación y el condicionamiento de escape.

11
PROGRAMAS DE REFORZAMIENTO:
En la práctica experimental, el reforzamiento puede efectuarse en cada ensayo o
después de cada respuesta correcta o puede ocurrir con menos frecuencia. El
primer procedimiento es el de reforzamiento parcial o intermitente, el cual se
administra de acuerdo a un programa en el cual el reforzamiento ocurre en la
primera repuesta, después de un periodo dado –programas de intervalo– o tras un
número específico de respuestas –programas de razón–. El intervalo puede
permanecer constante entre refuerzo y refuerzo –fijos– o cambiar al azar –
variados–. El segundo procedimiento es el de reforzamiento continuo, desarrollado
por Skinner, en el cual el reforzamiento sigue a la primera respuesta, que se
efectúa después de un periodo específico medido desde el último reforzamiento.
CASTIGO:
Se entiende por castigo un estímulo desagradable o doloroso que disminuye o
elimina la posibilidad de que en el futuro se repita una conducta. Cuando se habla
de la aparición de un estímulo desagradable –v.g., una nalgada o una descarga
eléctrica–, se hace referencia al castigo positivo; contrariamente, cuando se hace
referencia a la eliminación –desaparición– de un estímulo agradable, se habla de
castigo negativo –v.g., prohibirle a un niño que salga a jugar porque obtuvo malas
calificaciones–.
Frecuentemente se utiliza con el propósito de reducir la tasa de respuesta. En el
castigo, las respuestas van seguidas de un estímulo aversivo.
La presentación de un estímulo aversivo dependiente y contingente a la ocurrencia
de una operante, recibe el nombre técnico de "castigo"; que puede ser
administrado de las siguientes maneras:
Una operante que nunca ha sido reforzada.
Una operante que está siendo mantenida por el reforzamiento.
Una operante que está siendo extinguida.
El castigo de la conducta durante el período de mantenimiento. En el experimento
se castiga cada una de las respuestas de disco emitidas por un pichón, mismas
que han sido mantenidas bajo un programa de reforzamiento positivo de IV. El
estimulo aversivo consiste en un choque eléctrico que se le da a un animal a
través de electrodos implantados en el pecho. Asimismo, una gran intensidad de
castigo podrá eliminar completamente la conducta, mientras que una intensidad
leve podrá no tener ningún efecto. Cuando se suspende la presentación del
castigo, la tasa de respuesta se incrementa avanzando a un nivel mayor que el
mantenido originalmente por el programa de reforzamiento.
Los efectos iniciales del castigo. Cuando por primera vez se administra el castigo,
el procedimiento podrá provocar respuestas respondientes tales como correr y
saltar por todos lados; o trata de salir de la jaula o cámara. Estas conductas
se irán reduciendo mediante la habilitación, también que la cámara sea segura y el
estímulo aversivo se presente eficazmente. Si no se eliminan las respondientes,
12
nuestros registros serán afectados o contaminadas con los intentos de escape y
evitación del organismo.
Los efectos del castigo sobre otras conductas que están siendo reforzadas. El
castigo indirectamente actúa para facilitar la ocurrencia de determinadas
conductas. No podemos esperar que una conducta se extinga por la aplicación de
un castigo o se reduzca en otras situaciones. Lo que realmente ocurre
opuestamente; pues se facilita la aparición de la conducta cuando se deja de
castigar.
El castigo de la conducta mantenida por varios programas de reforzamiento y
durante la extinción. Los efectos del castigo dependen también en gran medida,
del programa de reforzamiento positivo que está manteniendo la respuesta
castigada.
El castigo como estímulo discriminativo. El castigo no siempre necesita producir
una reducción en la tasa de respuestas. Supongamos que solo se castiga la
respuesta en aquellas ocasiones en que también se le refuerza, y que no se le
castiga cuando no se le refuerza. Dentro de esta situación, el castigo se convertirá
en un estímulo discriminativo. Como consecuencia, la tasa de respuesta será alta
en presencia del castigo.

CUADRO RESUMEN

Efectos sobre la
Principio Característica
Conducta

Presentación o retirada de
Aumenta la frecuencia de
Reforzamiento un acontecimiento después
la respuesta.
de una respuesta.

Presentación o retirada de
Disminuye la frecuencia de
Castigo un acontecimiento después
la respuesta.
de una respuesta.

Cese de la presentación de Disminuye la frecuencia de


Extinción un acontecimiento reforzante la respuesta anteriormente
después de una respuesta. reforzada.

Reforzamiento de la Aumenta la frecuencia de


Control, estimular y
respuesta en presencia de la respuesta en presencia
entrenamiento
un estímulo (E0) pero no en de (E0) y disminuye en
endiscriminación.
presencia de otro (E1). presencia de (E1).

13
TRIPLE RELACIÓN DE CONTINGENCIA
Esta relación de contingencia hace referencia a la secuencia de acontecimientos
que ocurren frente a un comportamiento aprendido:
Por una parte hay un evento antecedente, que se asume como aquellas
características precedentes a una respuesta.
Triple esquema de respuesta: son las respuestas cognitivas –¿Qué se piensa del
evento?–, respuestas emocionales–afectivas –¿Qué se siente con respecto al
evento?– y las respuestas motoras –¿Cuáles acciones desencadena el evento?–.
Finalmente aparece un conjunto de circunstancias consecuentes en las que se
dan los reforzamientos, los castigos y donde se arraiga o elimina la respuesta.
PARALELO ENTRE EL CONDICIONAMIENTO CLÁSICO Y EL OPERANTE:
La distinción principal entre el condicionamiento clásico y el operante se hace
sobre bases operacionales. Los dos hacen referencias a procedimientos de
entrenamiento, para los cuales la aparición del estímulo incondicionado queda
determinada por la respuesta del sujeto.
Similitudes Centrales
 El fenómeno de la extinción, entendido como la disminución de la fuerza de
repuesta causada por el no–reforzamiento o como el decaimiento de una
respuesta condicionada, es común a los dos tipos de condicionamiento.
 Como se ha observado en lo estudiado hasta ahora, una respuesta que se
ha extinguido, recupera su fuerza con el descanso.
 En ambos tipos de condicionamiento se presenta una característica
de discriminación de los estímulos, tanto si el sujeto es reforzado para que
responda a un estímulo, como si se le condiciona para que produzca una
respuesta condicionada.

Diferencias Relevantes
 El condicionamiento clásico es una forma de aprendizaje estímulo–estímulo
–preparación de respuestas–, mientras que el operante es un aprendizaje
estímulo–respuesta –se fija la respuesta–.
 Retomando las leyes del condicionamiento clásico, se evidencia un
principio de continuidad, mientras que en el condicionamiento operante se
implica además una ley de efecto –o de concreción de una respuesta–.
 Una diferencia altamente relevante es el tipo de respuesta. En el
condicionamiento clásico la respuesta incondicionada o condicionada es
siempre la misma, mientras que en el condicionamiento operante, aunque
existe un cierto margen de predictibilidad, las repuestas suelen ser distintas.

REFORZAMIENTO Y FUERZA DE RESPUESTA:

14
La persistencia de la conducta en el tiempo, alterada e intensificada por el
reforzamiento, implica que una alta frecuencia de reforzamiento tendrá efectos
acumulados y fortalecerá la conducta en mayor grado que una baja frecuencia de
reforzamiento. La función "moldeadora" del reforzamiento, su efecto al cambiar
ciertas propiedades de la conducta correlacionadas con el reforzamiento, en
mayor grado que los efectos "cuantitativos" de un reforzador sobre la conducta.
Aquí se consideran las pruebas empíricas que relacionan la fuerza generalizada
de la respuesta con las propiedades cuantitativas del reforzador. Se toma en
cuenta, sobre todo, la relación entre la frecuencia de reforzamiento y la tasa de
respuesta.
La noción de que el reforzamiento crea una "reserva" de respuestas fue
un concepto integrativo importante del trabajo inicial de Skinner. En los veinte
años subsecuentes casi no hubo ninguna investigación acerca de las relaciones
cuantitativas generales entre la tasa de respuesta y el reforzamiento; por ejemplo,
en la obra Schedules of Reinforcement ("Programas de reforzamiento") se hace
poco hincapié en las relaciones funcionales entre la tasa y los parámetros de los
programas intermitentes. En años recientes, se ha desarrollado nuevamente un
interés activo por el tópico, pero sólo una pequeña porción del trabajo
contemporáneo sobre la fuerza de respuesta.
Múltiples experimentos han demostrado que la tasa de respuesta se relaciona
directamente con la fuerza de reforzamiento en los programas de intervalo; de
hecho, se encuentra una relación profesional. Aún así, en otros experimentos se
observa claramente esta relación. Como Herrnstein observa, esta insensibilidad de
la tasa de respuesta a la frecuencia de reforzamiento disminuye probablemente
nuestro interés en el concepto de fuerza de respuesta. Por lo general, parece que
la tasa de respuesta no es muy sensible a la frecuencia de reforzamiento en
situaciones que abarcan un solo programa con una sola llave de respuesta y la
frecuencia de reforzamiento más a menudo en situaciones que comprenden en
programas establecidos concurrentemente, ciertos programas en serie y
programas múltiples. Experimentos recientes la mayoría de ellos que incluyen al
responder en programas concurrentes sobre llaves de respuestas presentes
simultáneamente, señalan que, bajo ciertas condiciones, es posible diseñar
situaciones en donde la frecuencia de reforzamiento sea factor determinante en la
respuesta del sujeto. Estos resultados pueden considerarse, en parte, como una
confirmación y ampliación de la conclusión de Anger de que la frecuencia relativa
de reforzamiento de los diferentes TERs. Las dependencias simples de tasa
respecto a la frecuencia de reforzamiento se obtienen más a menudo en
situaciones en que la tasa relativa de respuesta bajó dos o más condiciones,
puede relacionarse con la frecuencia relativa de reforzamiento bajo esas
condiciones.
La relación entre la tasa de respuesta y la frecuencia de reforzamiento constituye
un excelente ejemplo del modo en que diferentes aspectos del reforzamiento
intermitente determinan conjuntamente una ejecución. De acuerdo con Herrnstein,
las relaciones ordenadas entre las tasas relativas de respuesta y las frecuencias
15
de reforzamiento en programas concurrentes IV IV, dependen, en realidad, de las
relaciones separadas entre la respuesta y la frecuencia de reforzamiento en las
dos llaves de respuesta. Su análisis implica que la frecuencia de reforzamiento
debe operar para controlar la tasa en situación con una sola llave de respuesta.
Sin embargo, en las situaciones con una sola llave de respuesta, la tasa de
respuesta en un IV no se relaciona a menudo con la frecuencia de reforzamiento
en forma directa, quizá debido a que el efecto selectivo del reforzamiento de TERs
particulares se torna abrumadoramente dominante. Los efectos de reforzamiento
parecen interactuar con (y ocultar), los efectos de la privación sobre la tasa de
respuesta. Bajo ciertas condiciones, la tasa de respuesta se relaciona legalmente
con el grado de privación, aún cuando no se obtiene una relación ordenada entre
la tasa de respuesta y la privación en muchos experimentos que implican
reforzamiento intermitente. La privación es más importante durante las etapas
iniciales del condicionamiento cuando aún no se desarrolla una fuerte conducta
condicionada. Una historia prolongada de reforzamiento intermitente atenúa los
efectos de la privación, de tal modo que se torna menos importante en el
mantenimiento de la conducta por el programa.
La relación entre la tasa de respuesta y la magnitud de reforzamiento es aún más
oscura que sus relaciones con la frecuencia de reforzamiento o con el nivel de
privación. Los cambios en la magnitud de reforzamiento pueden o no cambiar la
tasa de respuesta. Hay indicaciones de que el tipo de situación en que arrojan
relaciones sensibles entre la tasa y la frecuencia de reforzamiento también
muestran relaciones ordenadas entre la tasa y magnitud de reforzamiento.
Además, cambios en la magnitud del reforzador tienen un efecto en situaciones en
que la tasa de respuesta es elevada. Cuando ya se ha condicionado a un animal,
reforzador de pequeña magnitud, presentado con bastante frecuencia, puede
sostener una enorme cantidad de conducta; cantidades mayores del reforzador
pueden no tener un efecto proporcionalmente mayor. Esta falta de correlación con
la tasa ha conducido a soslayar la magnitud de reforzamiento como un factor en la
respuesta controlada por programas y ha favorecido la tendencia errónea a
considerar al reforzamiento como un efecto constante con magnitudes por debajo
de algún valor de umbral, no teniendo carácter de reforzadores y siendo
igualmente efectivas como reforzadores todas las magnitudes por arriba de ese
valor.
Se puede obtener una relación directa entre la magnitud de un reforzador y el
producto de respuesta en una situación en la que la respuesta no se mantiene en
forma regular. En un experimento no publicado, llevado a cabo por el autor en
colaboración con B.F. Skinner, se reforzaron respuestas en el mismo valor de
parámetro de RF en presencia de dos estímulos discriminativos diferentes, cada
uno de los cuales se correlacionaba con una distinta duración de acceso al
reforzador. Con valores de RF de hasta 300, hubo poca diferencia en la tasa
promedio de respuesta bajo las dos condiciones, pero en el RF de 600 la tasa en
la condición correlacionada con la duración de diez segundos de reforzador, fue
mucho mayor que la tasa en presencia del estímulo correlacionado con la duración
de cinco centímetros de reforzador.
16
PROGRAMAS DE REFORZAMIENTO
Programas Simples de Reforzamiento Positivo.
Son en los cuales, no es necesario reforzar las ocurrencias de una respuesta
para poder incrementar o mantener su tasa.
Programas de Reforzamiento Intermitente.
Cuando el medio solo refuerza alguna de las respuestas emitidas por un
organismo.
Los programas son la fuerza principal del control conductual y por tanto su estudio
constituye una parte muy importante dentro del estudio de la conducta.
Programas Simples de Reforzamiento.
 RAZÓN. Establece que deberá emitirse un determinado número de
respuestas antes que una emisión reforzada.
 Razón Variable (RV). El número de respuestas requerido para el
reforzamiento varia de un reforzamiento a otro de una manera irregular, pero
siempre manteniendo una característica repetitiva, seguidas de un número que
indica el valor promedio de las razones.
 Razón Fija (RF). Requiere consistentemente del mismo número de
respuestas por cada reforzamiento.
 INTERVALO. Establece que deberá pasar un determinado tiempo antes
que una respuesta sea reforzada.
 Intervalo Variable (IV). Donde varia la cantidad de tiempo que deberá
pasar antes de que una respuesta sea reforzada.
 Intervalo Fijo (IF). Es aquel que mantiene constante el tiempo establecido
para el reforzamiento.

Ejecuciones Características.
 Adquisición. Ocurre cuando inicialmente se comienza a reforzar las
respuestas del animal en base a un determinado programa.
 Mantenimiento. Mantenimiento de la tasa, reforzador.

Efecto de los Programas.


 Razón Variable (RV). Proporcionan tasas de respuesta muy altas y casi
constantes, algunas veces aproximándose a los límites físicas del organismo.
 Intervalo Variable (IV). También proporcionan tasas de respuesta casi
constante, pero las tasas comúnmente tienen valores inferiores a aquellas
producidas por los programas de RV.

Cámaras Experimentales Acopladas.


Al utilizar las cámaras es posible mantener constantes el tiempo y la frecuencia del
reforzamiento, y comparar directamente los efectos de los programas de
reforzamiento de RV y de IV.
17
Factores que influencian la tasa de respuesta en los programas RV e IV.
Reforzamiento diferencial de tiempo entre respuestas (TER). Es la cantidad de
tiempo que pasa entre dos respuestas, cada emisión dentro de una secuencia
termina un tiempo entre respuestas, medida a partir de la ocurrencia de la
respuesta anterior.
TER largos. Tasas bajas de respuesta.
TER cortos. Tasas altas de respuesta.
La tasa de respuesta está influenciada por el reforzamiento diferencial de los
TERs.
Los RV. Tasas más elevadas porque refuerzan los TER cortos.
Los IV. Tasas más bajas porque refuerzan los TER bajos.
Factores que influencian la estabilidad de la respuesta.
La propiedad de los programas IV y RV para mantener tasas de respuestas
estables, dependerá de su naturaleza variable; una tasa de respuesta se
mantendrá estable un tanto que no se le exija al organismo estar demasiado
tiempo sin reforzamiento y en tanto que no exista un elemento discriminable del
programa que invariablemente anteceda la ocurrencia o la no ocurrencia del
reforzamiento.
Programa de reforzamiento Múltiple.
Consiste de dos o más programas independientes, los cuales se presentan al
organismo en forma sucesiva, cada uno de ellos en presencia de un estímulo
característico. Los programas múltiples son programas combinados, en los que se
agrega un estímulo discriminativo característico.
Ejemplo: Un pichón con disco iluminado con diferentes colores (roja RF) (verde
RV) (azul Extinción).
Cuando los programas individuales se usan en forma combinada, muestran las
mismas características que cuando son aplicadas individualmente. Pero también
las respuestas de un organismo en un determinado momento y bajo determinadas
condiciones, están determinadas parcialmente por la ejecución y por las
consecuencias que esa ejecución ha tenido en el pasado y bajo otras condiciones.
Ejemplo: La conducta de un hombre durante la noche estará determinada
parcialmente por lo que ocurrió en el día, por lo cual, la ejecución de un
determinado programa será ligeramente diferente, cuando se trate de un programa
múltiple, no cuando se trate de un programa individual.
Hay dos procedimientos para el estudio de las interacciones existentes entre dos
programas compuestos:
Se pueden estudiar la diferencia entre la ejecución de un determinado programa
cuando se presenta solo o como un componente de un programa múltiple.
18
Se puede estudiar la diferencia en las ejecuciones de un programa que se emplea
como componentes en dos o más programas múltiples diferentes.
Programa de reforzamiento Compuesto.
Es aquel que refuerza una sola respuesta de acuerdo a los requisitos de dos o
más programas operando al mismo tiempo. La ocurrencia de una respuesta podrá
ser reforzada cuando se hayan cubierto los requisitos de cualquiera de esos
programas.
Programas Conjuntivos. Es en el cual se deben cumplir los requisitos de ambos (o
todos) programas para que una respuesta sea reforzada.
Diagramas de programas de reforzamiento.
RDB = reforzamiento diferencial de tasas bajas de respuesta.
RDA = reforzamiento diferencial de tasas altas de respuesta.
Programa de reforzamiento Concurrente.
Comprende el reforzamiento de dos o más respuestas de acuerdo a dos o más
programas de reforzamiento operando al mismo tiempo.
Ejemplo: Uno de los programas reforzará al organismo cuando éste emita una
respuesta sobre la llave izquierda, mientras que el otro programa reforzará al
organismo cuando emita una respuesta sobre la llave derecha.
La programación concurrente está presente en todas partes. Aún cuando
solamente una respuesta sea reforzada, existirá programación concurrente en el
sentido de que toda la conducta restante está siendo extinguida. El término
concurrente se reserva para aquellos casos en que se dispone un programa
explícito adicional para una segunda respuesta.
Puede pasar que ocurra un encadenamiento de la conducta (cuando en este caso
el pichón, la cual se mantiene por el reforzamiento que se da después de que ha
ocurrido el último picotazo sobre la segunda llave, lo cual ocasiona que el ave
frecuentemente pica sobre la primera llave y posteriormente va a picar sobre la
segunda llave para obtener reforzamiento.
Con lo cual a menudo se agrega un requisito a los programas concurrentes, que
es el exigir que en los casos en que el ave cambie de una respuesta a otra,
deberá pasar un determinado tiempo antes de que una respuesta sea reforzada.
Con esto se ayuda a garantizar que la conducta de cambiar de llave nunca será
reforzada, para obtener la independencia de las dos respuestas.
Programación Concurrente de Cadenas de Respuestas.
Consiste en sustituir el reforzamiento primario que se utiliza en los programas
concurrentes IV, por el uso de reforzamiento condicionado.
CONTROL AVERSIVO

19
Son aquellos estímulos cuya eliminación incrementa la tasa de respuestas
(aversivos).
Cuando la eliminación de un estímulo aversivo mantiene o incrementa una tasa de
respuesta, el estímulo recibe el nombre de reforzador negativo.
Escape. La respuesta da término a un estímulo aversivo después de que se ha
iniciado la presentación del estímulo; el organismo no puede evitar la presentación
del estímulo aversivo.
La Adquisición de la respuesta de Escape. Es cuando por primera vez se le
presenta al organismo un estímulo aversivo, éste le evocará algunas
respondientes, tales como saltar o correr alrededor de la cámara.
Mantenimiento de la respuesta de Escape. La tasa de respuestas mantenida por el
procedimiento de escape, es una función de la intensidad del estímulo aversivo,
de la misma manera que la tasa de respuestas mantenida con alimento, es una
función del grado de privación.
Extinción de la respuesta de Escape: Se presenta el estímulo aversivo sin que las
ocurrencias de la respuesta sean reforzadas con la terminación del estímulo
aversivo. Este procedimiento da como resultado una lenta reducción en la
frecuencia de la respuesta, lo que por lo general es errática.
El estímulo aversivo no se vuelve a presentar, además de suspender el
reforzamiento de la respuesta también elimina uno de los estímulos discriminativos
(el estímulo aversivo) que en un principio estuvo asociado con el reforzamiento.
Evitación. Una respuesta evita o pospone el comienzo de un estímulo aversivo.
Factores que mantienen la respuesta.
Extinción de la Conducta de Evitación. La evitación normalmente se extinguirá
si se presenta el estímulo incondicionado (el choque) a pesar de que el animal
responda durante la presentación del estímulo condicionado. O también si el
estímulo incondicionado no se vuelve a presentar más.
Condicionamiento de Evitación Temporal.
Evitación y Emoción. A menudo se dice que evitamos un estímulo aversivo por
miedo, no nos gusta o nos molesta y aunque estos tipos de comentarios
satisfacen las necesidades de uso común realmente no describe las condiciones
que controlan nuestra conducta. Lo que realmente describen estas afirmaciones,
no son los reforzadores negativos que mantienen nuestra conducta de evitación,
sino las conductas respondientes, principalmente de tipo emocional, las cuales
son evocadas concurrentemente por los estímulos aversivos condicionados
basados en el estímulo que estamos evitando. Podrá ser que
las emociones ocurran en conexión con la conducta de evitación, pero eso no
significa que sean sus causantes básicos.
Castigo.

20
LA OPERACIÓN CONJUNTA DEL REFORZMIENTO DIFERENCIAL Y LA
FUERZA DE RESPUESTA:
La tesis sostiene que la mayor parte del responder controlado por programas es
resultado de la operación conjunta del reforzamiento diferencial de TERs y de los
efectos generalizados del reforzamiento por fortalecer la respuesta. Los
programas de reforzamiento refuerzan selectivamente diferentes TERs. Una
magnitud y frecuencia determinadas de reforzamiento tienen una relación
cuantitativa con la tasa de respuesta. Las diferentes fuerzas de respuesta
originadas por el reforzamiento darán como resultado diferentes distribuciones de
TERs, y de este modo interactuarán con el reforzamiento selectivo de TERs del
programa. Aun cuando se ha avanzado considerablemente en la identificación de
los efectos de reforzamiento en los TERs y en la tasa promedio de respuesta por
separado todavía no está claro cómo estos factores se interrelacionan incluso en
los programas simples.
Desafortunadamente, ha habido pocos experimentos referidos a las interacciones
entre el reforzamiento selectivo de diferentes TERs y las distribuciones de TERs,
determinada por una frecuencia en particular de reforzamiento. Generalmente los
experimentos dedicados al análisis de los TERs no buscan complicaciones
adicionales cambiando deliberadamente le frecuencia de reforzamiento, y cuando
ésta cambia, el efecto no es grande. Por lo contrario los experimentos sobre la
fuerza de respuesta se hacen generalmente en aquellas situaciones en que se
hacen poco hincapié en el análisis en términos de los TERs, Simplemente, no se
sabe cómo es que las diferencias de tasa de respuesta promedio, que son
resultado de diferentes tasas de reforzamiento, cambian la forma de las
distribuciones de los TERs. Es necesario tener información adicional para integrar
los efectos que tiene el reforzamiento de fortalecer la emisión de respuestas con
sus efectos de moldear la conducta y, actualmente, las conclusiones a que se ha
llegado en los experimentos que se ocupan de uno u otro de estos efectos del
reforzamiento, son a menudo conflictivas. Podemos dar como ejemplos algunos
experimentos que hacen hincapié en la dependencia de la tasa de respuestas de
uno u otro de estos aspectos alternativos del reforzamiento. Reynolds ha
demostrado que la proporcionalidad entre la frecuencia relativa de reforzamiento y
la tasa relativa de respuesta puede aplicarse a programas múltiples que consten
de componentes IV y RF. Cuando la frecuencia de reforzamiento de cualquier
componente se hizo variar mientras se mantenía constante el parámetro de
reforzamiento del otro componente, las tasas relativas de respuesta de ambos
componentes cambiaron de tal manera que fueron proporcionales a la frecuencia
relativa de reforzamiento. En este experimento, el efecto de la frecuencia de
reforzamiento disimuló efectivamente cualquier tendencia de estos programas a
generar diferentes tasas promedio de respuestas a través del reforzamiento
diferencial de TERs.
En contraposición con el resultado de Reynolds, Ferster y Skinner (1957) y Clark
(1959) encontraron que programas diferentes producían distintas tasas de
respuesta incluso cuando se hacía que la frecuencia promedio de reforzamiento
21
fuera idéntica, empleando un procedimiento de experimento acoplado. Ferster y
Skinner establecieron ejecuciones igualadas en parejas de aves. Con IV, antes de
cambiar a RV el programa de un miembro de la pareja. En cuanto al otro miembro
de la pareja, el IV se cambió de tal manera que la administración de comida al ave
que estaba en RV programada la disponibilidad limitada. Aunque en base a
su informe resulta difícil decir exactamente cómo cambió la frecuencia de
reforzamiento, ésta fue la misma para las dos aves. No obstante, las tasas de
respuestas del ave RV fueron más altas que las del ave IV acoplada. Este
experimento demuestra que una contingencia de reforzamiento de razón puede
contrarrestar los efectos de la frecuencia de reforzamiento. El solo cambio de la
frecuencia de reforzamiento no puede explicar el mayor incremento de tasa que
tuvo el ave que se hizo cambiar de IV a RV, pues el ave que estaba en el IV
acoplado fue reforzada con la misma técnica.
CONTROL DE EVENTOS AUTÓNOMOS:
Puede lograrse un control voluntario de los procesos fisiológicos que hasta ahora
se consideraban involuntarias y automáticos, si se emplea el reforzamiento de
modo similar a como se utiliza para adquirir el control sobre el acto consumatorio
de beber. Existen numerosos informes acerca de la adquisición de un control
notable sobre funciones corporales que normalmente se consideran reflejas o
involuntarias. Así se informa que los faquires hindúes son capaces de acelerar o
desacelerar su ritmo cardíaco, de evitar el sangrado de zonas específicas del
cuerpo cuando se pasan un alfiler o un cuchillo a través del tejido, y de controlar
su respiración o incluso su ritmo metabólico, de tal manera que pueden ser
enterrados vivos durante largos períodos (Years – Brown, 1930). Algunos de estos
poderes notables, como el control voluntario de las actividades gastrointestinales,
han sido documentadas por Behanan (1937.
Si podemos detectar confiablemente estos eventos autónomos y aparearles una
señal externa y un reforzamiento, tenemos las condiciones necesarias para lograr
un control operante. Con la necesidad de enviar información desde los cohetes, se
han creado técnicas de miniaturización y técnicas telemétricas para los
experimentos fisiológicos y psicológicos. Es posible implantar quirúrgicamente
aparatos sensibles minúsculos, o tragarlos o simplemente llevarlos consigo
(Mackay, 1961). Por ejemplo, los micrófonos pueden detectar el ritmo cardíaco; los
termistores pueden detectar latemperatura corporal total o la temperatura local que
manifiesta el flujo sanguíneo local; los medidores de tensión pueden detectar
contracciones musculares suaves, etc. Cuando estos aparatos sensibles detectan
una respuesta deseada, puede hacerse que activen una señal fácilmente
discriminable que quizá ayude a la persona o al animal a discriminar la presencia
de esa acción. Y si hay un reforzamiento que sigue al acto, se puede motivar al
animal a controlarla. Si el condicionamiento operante no fuera posible con tales
respuestas, por lo menos podrían estudiarse muchos casos de condicionamiento
clásico (en el que tal vez no sea necesario controlar la respuesta o incluso su
ocurrencia). En los trabajos de varios investigadores soviéticos se proporcionan
múltiples ejemplos de tales tipos de condicionamiento. Además, Shearn (1962)ha
22
demostrado que el ritmo cardíaco puede ser disminuido o acelerado por sujetos
humanos que son reforzados por llevar a cabo un cambio de tasa adecuado.
Pérez – Cruet (1962) ha inducido extrasístoles por medio de condicionamiento
operante. No sólo pueden estudiarse respuestas autónomas, sino también
movimientos operantes estándar pueden condicionarse satisfactoriamente
sacudidas del pulgar tan ligeras que no son detectables sin la ayuda de un
electromiógrafo. En realidad, cuando la actividad eléctrica se oye a través de un
altavoz y se muestra en un osciloscopio, los sujetos pronto aprenden a lograr un
control tan sorprendente sobre sus músculos que pueden tocar redobles de
tambor y todo tipo de ritmos con contracciones musculares, de otro modo no
serían detectables. Después de este aprendizaje, algunos sujetos retienen este
delicado control muscular, incluso sin el sonido que proporciona la
detecciónelectrónica.
DISCRIMINACION
Control de estímulos de la Conducta Operante.
Después de que las respuestas que integran una operante ha sido reforzada en
presencia de un determinado estímulo durante varias veces, este estímulo
adquiere control sobre la operante.
Estímulo Discriminativo. Es aquel en cuya presencia una determinada porción
de conducta es altamente probable; debido a que anteriormente esa conducta fue
reforzada en presencia de ese estímulo, no por ello la provocan.
Generalización. Un organismo o su conducta generalizan a todos aquellos
estímulos en cuya presencia la tasa de respuesta se incremente después de que
la respuesta ha sido reforzada en presencia de algunos de esos estímulos.
Direcciones de la Generalización.
La generalización ocurrirá ante los estímulos que estén compuestos de los
mismos parámetros físicos y que solo diferían en el valor de los parámetros.
Se espera que la generalización ocurra ante estímulos que poseen aspectos
perceptibles en común con el estímulo que originalmente estableció la ocasión de
reforzamiento.
Generalización de Respuesta.
El reforzamiento de una respuesta no solo da como resultado un incremento en la
frecuencia de las respuestas que integran a esa operante, sino que también
producen un incremento en la frecuencia de aquellas otras respuestas parecidas.
Discriminación y Generalización.
Se dice que un organismo discrimina entre dos estímulos cuando se comporta de
manera diferente en presencia de cada uno de ellos.
El gradiente de generalización revela la discriminación, siempre que un organismo
responda con una tasa diferente en presencia de cada uno de los estímulos.
23
Formación de una discriminación.
La discriminación entre dos estímulos se hará cada vez más pronunciada si se
añade el reforzamiento diferencial. Cuando se refuerza una ejecución en
presencia de un estímulo dejándola sin reforzamiento en presencia de un segundo
estímulo, se incrementa la tasa de respuesta reforzada, en cambio la otra se
reduce, y se estudia a través del tiempo.
Determinantes Heredables de la Atención.
Los organismos nacen con diversas disposiciones a atender a los aspectos
particulares del medio. Un organismo atenderá selectivamente solo algunos de los
estímulos que se encuentren a su alrededor, entre los cuales es capaz de
discriminar.
Determinantes Ambientales de la Atención.
La experiencia previa también puede ser la causa de que un organismo atienda a
un solo estímulo de entre un conjunto de ellos o esas propiedades, aún cuando
todos ellos tengan la misma asociación consistente con el reforzamiento de las
respuestas.
Si se trata de introducir nuevos estímulos, por lo general será ignorada por el
organismo, a menos que se cambien las condiciones de reforzamiento.
Estímulos Supraordenados.
Son estímulos en cuya presencia una determinada propiedad y no otra, ha
establecido en el pasado la ocasión de reforzamiento de una respuesta.
Transferencia del Control de Estímulos.
La atención puede ser transferida de un conjunto de estímulos a otro conjunto
diferente, mediante el procedimiento de presentación simultánea de ambos
estímulos que originalmente controlan la respuesta.
Precondicionamiento Sensorial.
Existen algunos experimentos que indican que la transferencia de control algunas
veces ocurre sin el reforzamiento explícito.
RESUMIENDO
El término de condicionamiento operante se debe a Skinner, y en el principio es
equivalente al de aprendizaje instrumental propugnado por Thorndike. El término
se refiere a un proceso en el que la frecuencia de suceso de la unidad de la
conducta (respuesta) se modifica como efecto de las consecuencias que lleva
aparejadas esa conducta. Además, el condicionamiento operante invierte la
situación respecto al condicionamiento operante invierte la situación respecto al
condicionamiento clásico, que pasa a ser R – E. Es el refuerzo experimentado
como consecuente al comportamiento lo que ocasiona
 
24
 
 

25

También podría gustarte