Download El Condicionamiento Operante

Document related concepts

Condicionamiento operante wikipedia , lookup

Modificación de conducta wikipedia , lookup

Reforzamiento wikipedia , lookup

Enseñanza programada wikipedia , lookup

Teoría del aprendizaje social wikipedia , lookup

Transcript
I.
CONDICIONAMIENTO OPERANTE
1.- Introducción
El condicionamiento operante constituye uno de los mecanismos de
aprendizaje de mayor importancia teórica y práctica: por una parte, es
seguramente el más investigado y mejor comprendido, y por otra es
fuente de algunas de las más significativas aplicaciones de la
psicología a problemas concretos.
En una primera aproximación, se diferencia del CC en un aspecto
esencial: En el CO, la secuencia de sucesos depende de la conducta
del organismo. En el CC, lo que sucede a lo largo de una sesión está
prefijado por el psicólogo, y la secuencia de estímulos que se
administran es independiente de que el organismo responda o no.
Los mecanismos que hemos estudiado hasta ahora permiten a un
organismo aprender acerca de aspectos de su entorno que no resultan
controlables. El CO permite a un organismo aprender a controlar
ciertos aspectos del medio mediante su conducta.
En sentido estricto, el C. Operante es un caso particular de C.
Instrumental. El C. Instrumental se refiere a los mecanismos por los
cuales un organismo aprende a dar una respuesta más
frecuentemente (o menos) en virtud de los eventos(o “consecuencias”)
que siguen sistemáticamente a dicha respuesta. El C. Operante se
refiere a los casos en los que dicha respuesta se define como un
operante, es decir, en virtud de sus propiedades funcionales. Sin
embargo, la importancia relativa del C. operante es tan grande que a
menudo ambos términos (“operante” e “instrumental”) se emplean
como sinónimos.
1
1.1.- Antecedentes
1.1.1.- Thorndike:
Interesado en la inteligencia animal, a partir de presupuestos
darwinianos, presenta en su tesis doctoral (1898) un estudio sobre el
comportamiento de animales en situaciones-problema muy simples.
Utilizando estas situaciones (mediante las llamadas "cajas-problema")
comprueba que los animales aprenden a solucionar el problema por
ensayo y error: al principio, su conducta es caótica y dan con la
solución (accionar el mecanismo de apertura de la caja de forma que
puedan salir y alcanzar la comida) por pura casualidad, pero en
sucesivos ensayos el tiempo que tarda el animal en dar la respuesta
relevante disminuye de forma progresiva y sistemática, y las
respuestas erráticas se reducen hasta casi desaparecer.
A partir de esta clase de estudios, Thorndike formula en 1911 la Ley
del Efecto:
Si una respuesta en una situación estimular dada es seguida por
un suceso satisfactorio o placentero, la relación entre la situación
y la respuesta se fortalece, de forma que el organismo tendrá más
tendencia a dar esa respuesta en esa situación. Si por el contrario
va seguida de un suceso nocivo o desagradable, la respuesta
tenderá a no darse.
1.1.2.- Primeros conductistas
Desde el punto de vista del conductismo watsoniano, la anterior
formulación resultaba muy inadecuada, ya que se basa en estados
internos del organismo ("satisfactorio", "desagradable", etc.)
inobservables y dudosos. Por otra parte, el intento de Thorndike de
definir los “estados satisfactorios” como aquellos que el organismo no
hacía nada por evitar, etc., incurría en circularidades que los críticos
señalaron en repetidas ocasiones.
1.1.3.- Skinner
En los años 30-40, Skinner, adoptando un marco teórico más amplio,
consistente y operativo, reformula la ley del efecto como "ley de
refuerzo":
Ciertos sucesos (refuerzos), cuando siguen consistentemente a
una respuesta de un organismo, aumentan su probabilidad
Desentendiéndose de las interpretaciones asociacionistas y, en gran
medida, de los antecedentes estimulares de la conducta, pone el
énfasis en la relación entre la respuesta y los eventos que la siguen
consistentemente.
2
Una de las aportaciones teóricas más significativas de Skinner es la
reconceptualización de la respuesta como "operante", es decir, definida
exclusivamente por sus propiedades funcionales (en contraposición a
otros aspectos, como la topografía o la intensidad – ver Tema 1)
Desde el punto de vista de la metodología de investigación, Skinner se
decanta por los procedimientos de “operante libre”, en contraposición a
los de “ensayo discreto”.
Procedimientos de ensayo discreto:



El organismo es sometido a sucesivos “ensayos”, entre los cuales
normalmente es necesario manipularlo físicamente (por ejemplo,
volver a meter el gato en la caja problema).
Son ventajosos para estudiar bastantes cuestiones, pero presentan
dos inconvenientes: la manipulación del organismo puede interferir
con el proceso natural de aprendizaje (por ejemplo, si le resulta
estresante); y no nos da ninguna información sobre lo que haría el
organismo si pudiera emitir la respuesta tan a menudo como
quisiera (es decir, no podemos utilizar la tasa de R como variable
dependiente).
Ejemplos de dispositivos: laberintos, corredores, las cajas-problema
de Thorndike, etc.
Procedimientos de operante libre:



Las sesiones no se dividen en ensayos, sino que el O. está en una
situación en la que puede emitir la respuesta en cualquier momento
y con cualquier frecuencia.
Se han mostrado óptimos para el estudio de muchos aspectos
generales del C.O.
El dispositivo más típico es la Caja de Skinner, junto con el
registro acumulativo, que permiten estudiar detalladamente la
evolución de la tasa de respuesta bajo las situaciones de
aprendizaje.
1.2.- El fenómeno/procedimiento básico
El fenómeno nuclear del CO consiste en la implantación de una
contingencia entre una respuesta emitida por un organismo y un
suceso ambiental (“consecuente” o “consecuencia”) que sigue
consistentemente a esa respuesta. Como resultado, la probabilidad de
la respuesta se ve sistemáticamente modificada a medida que la
situación se repite.
[ R. Op.  Consecuencia ambiental ]  P(R)
3
En el caso más sencillo, se sitúa a un organimo en una determinada
situación controlada (e.g., en una caja de Skinner y con cierto grado de
privación previa de alimento), y se le suministra como consecuente
(reforzador) una cierta cantidad de comida cada vez que emite una
respuesta concreta y predeterminada por el psicólogo (apretar una
palanca, picotear un disco, etc.). Se comprueba que la frecuencia de la
respuesta elegida aumenta sistemáticamente a medida que transcurre
el tiempo (recuérdese que en esta clase de experimentos, de "operante
libre", no cabe hablar de ensayos propiamente dichos, sino que se
trata de una situación contínua en la que el organismo lleva la
iniciativa).
1.3.- Conceptos principales
1.3.1.- Respuesta



Puede ser cualquier respuesta incluida en el repertorio conductual
del organismo, seleccionada arbitrariamente por el psicólogo.
Operante o respuesta operante: es el caso más frecuente. Se
define por los efectos que opera en el ambiente (de ahí su nombre).
Así, por ejemplo, cualquiera de las formas en que un organismo
puede accionar una palanca se consideran como casos de una
misma respuesta u operante. Es decir, puede hacerse abstracción
de la topografía concreta de la respuesta (que se ejecute con un
miembro u otro, con movimientos diferentes, etc.), aunque ésto va a
depender en cada caso de lo que al psicólogo le interese que el
organismo aprenda.
Típicamente, es una respuesta motora voluntaria, aunque puede
tratarse también de una respuesta autonómica o visceral (e.g.,
aumento de la tasa cardiaca), e incluso de una acción de carácter
lingüístico o cognitivo.
1.3.2.- Consecuente, consecuencia


Suceso que afecta sistemáticamente a la probabilidad de la
respuesta a la que sigue consistentemente.
Reforzador o refuerzo: es un consecuente que aumenta la
frecuencia de R a la que sigue.

Un refuerzo puede ser positivo (p.ej. aparición de un E apetitivo) o
negativo (no-aparición o retirada de un E aversivo).

Castigo: es un consecuente que reduce la frecuencia de R a la que
sigue.

Un castigo puede también ser positivo (p.ej. aparición de un
suceso aversivo) o negativo (no-aparición o retirada de un suceso
apetitivo).
4

Es muy importante no confundir un reforzador con un “estímulo o
suceso agradable”. Un estímulo es un reforzador, por definición, en
virtud de su efecto en el aumento de la respuesta a la que sigue, y
no por su supuesta inducción de un estado subjetivo en un
organismo

Asimismo, es importante observar que el refuerzo o el castigo no
tienen por qué ser necesariamente “estímulos” en sentido estricto.
Por ejemplo, el permitir o impedir al organismo realizar
determinadas conductas pueden actuar como refuerzos o castigos
respectivamente.
1.3.3.- Contingencia

Es la relación estadística entre la emisión de un operante y la
administración de una consecuencia. A menudo se emplea la
expresión "contingencias de refuerzo" o "contingencias de
reforzamiento" para referirse al proceso por el cual un organismo ha
adquirido una determinada respuesta (e.g. "la presencia de
patrones de retraimiento social que llamamos timidez depende de
las contingencias de refuerzo" significa que se atribuye la
frecuencia diferencial de un conjunto de respuestas al vínculo
estadístico que han tenido en el historial del sujeto con cierto tipo
de consecuencias).

Por lo tanto, contingencia significa aquí lo mismo que en CC, sólo
que ahora se establece entre una respuesta y un suceso ambiental,
en vez de entre dos sucesos ambientales.
1.3.4.- Estímulo discriminativo



Estímulo cuya presencia es informativa sobre la disponibilidad de
un consecuente.
Es opcional: no tiene por qué haber un E discriminativo explícito.
Se suele denotar ED o E+ a los estímulos que indican la
disponibilidad de un consecuente, y E o E- a los que informan de
su no-disponibilidad.
1.3.5.- Respuesta incondicionada


Es la respuesta natural del organismo al reforzador (por ejemplo, la
salivación, deglución,etc. en el caso en que el reforzador es un
trozo de alimento).
En general, no juega ningún papel en el condicionamiento operante.
1.3.6.- Adquisición

Procedimiento y proceso en el cual se establece una contingencia
entre un operante y un reforzador, de forma que la frecuencia de
aquél aumenta.
5

Significado análogo al del CC
1.3.7.- Extinción


Procedimiento y proceso en el cual se elimina una contingencia
entre un operante y un reforzador, de forma que la frecuencia de
aquél decae.
Significado análogo al del CC
1.3.8.- Moldeado o moldeamiento (shaping)


Consecución gradual de una R que no estaba presente en el
repertorio conductual del organismo (o lo estaba con una
probabilidad muy baja) mediante reforzamiento de respuestas que
suponen aproximaciones sucesivas a la R deseada.
Tiene gran importancia práctica, ya que es el principal
procedimiento de aprendizaje de Rs nuevas.
2.- Tipos básicos de condicionamiento operante
Los cuatro tipos básicos de condicionamiento operante se producen
como resultado del entrenamiento de un organismo mediante el
establecimiento de una contingencia entre una R. operante y uno de
los cuatro consecuentes básicos.
 Reforzamiento positivo: Administración de un evento siguiendo
contingentemente a una R dada, que tiene como efecto un aumento
en la fuerza, la probabilidad o la tasa de ésta. Normalmente se trata
de un estímulo apetitivo o de la posibilidad de realizar una conducta
de alta probabilidad..
Ejemplo: cada vez que una rata presiona una palanca (R), se le
administra como consecuente un trozo de comida; se puede
observar que la rata cada vez presiona más frecuentemente la
palanca
El tipo de CO que resulta de aplicar sistemáticamente reforzadores
positivos a una respuesta se conoce como entrenamiento de
recompensa.
 Reforzamiento negativo: Omisión o interrupción de un suceso
(típicamente, un E aversivo) de forma contingente con la emisión de
una R, a resultas de lo cual se produce un aumento en la fuerza, la
probabilidad o la tasa de ésta.
Ejemplo: cada vez que una rata se desplaza al lado opuesto de la
jaula (R), como consecuente se interrumpe una descarga
6
eléctrica que se le estaba aplicando; se puede observar que la
rata cada vez cambia de lado más frecuentemente.
La aplicación sistemática de reforzadores negativos a una R se conoce
como entrenamiento de evitación o entrenamiento de escape,
dependiendo de si el organismo puede mediante la R llegar a
“prevenir” la aparición del E. aversivo (evitación) o sólo puede
interrumpirlo, acortando su duración, una vez administrado (escape)
 Castigo positivo: Administración de un suceso (en el caso típico, un
E aversivo) siguiendo contingentemente a una R dada, que tiene
como efecto una disminución en la fuerza, la probabilidad o la tasa
de ésta.
Ejemplo: cada vez que una oveja entra en contacto con la cerca
en la que está encerrada (R), como consecuente se le administra
una descarga eléctrica; se puede observar que la oveja cada vez
toca menos frecuentemente la cerca.
La aplicación sistemática de castigos positivos a una R se conoce
como entrenamiento de castigo.
Castigo negativo: Omisión o interrupción de un estímulo de forma
contingente con la emisión de una R, a resultas de lo cual se produce
una disminución en la fuerza, la probabilidad o la tasa de ésta.
Ejemplo: cada vez que una rata que está recibiendo pequeños
fragmentos de comida cada 15 segundos toca la pared del fondo
de la jaula, se le elimina la siguiente administración de comida
que correspondiera; se puede observar que cada vez se acerca
menos a dicha pared.
La aplicación sistemática de castigos negativos a una R se
conoce como entrenamiento de omisión.
7
REFORZADOR : Tiende a aumentar la CASTIGO :
fuerza de la R a la que sigue
Tiende a disminuir la
fuerza de la R a la
que sigue
Reforzamiento positivo
Castigo positivo
POSITIVO :
Se administra
un estímulo
Entrenamiento de recompensa.
Entrenamiento
de
Ej. : Administrar comida tras la castigo.
respuesta.
Ej. :
Administrar
R aumenta.
descarga
tras
la
Se usa una recompensa (estímulo o respuesta.
suceso apetitivo).
R disminuye.
Se usa un estímulo
aversivo
NEGATIVO : Reforzamiento negativo
Castigo negativo
Se omite un
estímulo
Entrenamiento de escape
Entrenamiento
de
Ej. : Detener una descarga eléctrica tras omisión
la respuesta
Ej. : Se deja de dar
comida al organismo
Entrenamiento de evitación
cada vez que da R.
Ej. : Si se da R, omitir una descarga que
se hubiera dado en caso contrario.
R. Disminuye
R aumenta.
Se usa un estímulo aversivo
Se
usa
apetitivo
estímulo
3.- Entrenamiento de recompensa: Principales factores
3.1.1.- Magnitud del reforzador


Aumentos en la cantidad de la recompensa mejoran la actuación.
Aumentos en la calidad producen el mismo efecto. Por ejemplo,
usando como reforzador agua azucarada se mejora el nivel de
ejecución respecto al uso de agua pura. Caso extremo: los
experimentos de Olds con estimulación directa de los centros
cerebrales del placer.
3.1.2.- Demora de la recompensa


Es el intervalo respuesta-recompensa. Afecta drásticamente al
aprendizaje, en el sentido de que a mayor demora, menos RC. A
partir de un determinado punto, el organismo no aprende.
Demoras superiores a unos 30 sg. parecen no producir ya CO,
aunque hay variaciones entre especies y sistemas de respuesta.
Por ejemplo: con ratas, laberintos y comida, la demora tolerada por
8

los organismos para lograr un nivel alto de aprendizaje se sitúa
entre 2 sg. y 5 sg.
Sin embargo, en la mayoría de las situaciones se consiguen incluso
niveles altos de aprendizaje con demoras mayores, debido a la
acción de claves estimulares (e.g., el 'clic' de la palanca) que actúan
como reforzadores secundarios o reforzadores condicionados
(ver más adelante).
3.1.3.- Impulso



Es un constructo teórico que se refiere al estado motivacional del
organismo respecto a aquello que vamos a usar como recompensa.
Se mide en términos de porcentaje del peso perdido, nº de horas de
privación de agua, etc.
El resultado general es que la actuación es tanto mejor cuanto
mayor es el impulso (más peso perdido, más horas de privación,
etc.), salvo en casos extremos.
4.- Programas de refuerzo
Hasta ahora hemos considerado sólo el caso en que la realización por
parte del organismo de la conducta elegida va siempre seguida de la
consecuencia establecida (la probabilidad del estímulo reforzador dada
la respuesta operante es igual a 1). Esto (que constituye una
contingencia total) es lo que se denomina refuerzo continuo
El refuerzo contínuo no es la única (ni la más eficaz) alternativa para el
aprendizaje por CO; por el contrario, constituye sólo un caso muy
particular. Los casos en que la relación respuesta-consecuente no es
completa (es decir, no cualquier emisión de la respuesta va seguida del
consecuente) se denominan situaciones de refuerzo parcial (. Es fácil
ver que el refuerzo parcial es lo más común en situaciones naturales
(ajenas al laboratorio o la clínica).
Un programa de refuerzo es una regla que especifica exactamente
bajo qué condiciones la emisión de la respuesta va a ser seguida del
reforzador.
Los programas de reforzamiento son, según muchos autores, una de
las variables independientes más poderosas de la psicología, en el
sentido de que conociendo el programa concreto administrado a un
organismo, se pueden predecir confiablemente muchas cosas respecto
a la conducta adquirida.
4.1.- Programas básicos.
Los programas básicos (también llamados "simples") pueden ser

De razón: se administra el reforzador sólo tras la emisión de un
número determinado de respuestas.
9

De intervalo: se administra el reforzador a la primera respuesta
que se produce una vez transcurrido un intervalo de tiempo
establecido, contado desde el último reforzador.
A su vez, la razón o el intervalo pueden ser


Fijos : con el mismo valor a lo largo de toda la adquisición
Variables: con distintos valores a lo largo de la sesión, que oscilan
en torno a un promedio.
Esto da lugar a los cuatro tipos de programas básicos: RF-n, IF-n, RV-n
e IV-n, donde n es el valor de la razón o el intervalo (o su promedio, si
es un programa variable).
En la aplicación de un programa de reforzamiento a un organismo que
no ha sido objeto de aprendizaje previo, normalmente se comienza por
un proceso de moldeado, luego se sigue con reforzamiento contínuo y
finalmente se va progresivamente aumentando las exigencias hasta
llegar al programa deseado.
4.1.1.- Razón fija
Se administra un estímulo reforzador por cada n respuestas. En un
programa RF-10, cada décima emisión de la R va seguida de una
recompensa.
Este programa produce una tasa de respuesta típicamente alta y
estable. Si la razón es alta, a menudo el organismo se toma pausas
inmediatamente a continuación de la administración del reforzador.
RF-20
RF-10
Respuestas
emitidas
acumuladas
Pausas
Tiempo -->
Registro acumulativo típico de una rata sometida a entrenamiento de recompensa mediante un
programa RF-10 (izda.) y un programa RF-20 (dcha). Los trazos gruesos y cortos indican los puntos en
que se administró recompensa
10
4.1.2.- Razón variable
Los programas de razón variable son especialmente importantes, ya
que (dentro de los simples) son los que más se aproximan a las
situaciones naturales.
Un programa RV especifica que el reforzador se administra tras un
número de respuestas que varía a cada vez. Así, por ejemplo, en un
RV-5 la recompensa se puede administrar tras 7, 3, 11, 2, 3, 5...
respuestas, de forma que el promedio total sea 5 respuestas a lo largo
de la sesión.
Los programas RV generan la tasa de respuestas más alta (lo que se
manifiesta en el registro acumulativo por una gran pendiente) y
constante (no aparecen pausas, excepto en el caso de razones muy
grandes).
RV-10
Respuestas
emitidas
acumuladas
Tiempo -->
Registro acumulativo típico de una rata sometida a entrenamiento de recompensa mediante un
programa RF-10 (izda.) y un programa RF-20 (dcha). Los trazos gruesos y cortos indican los puntos en
que se administró recompensa
4.1.3.- Intervalo fijo
En los programas IF se administra el reforzador a la primera emisión
de la respuesta una vez transcurrido un intervalo desde la anterior
emisión del reforzador. Es decir, cada reforzador inicia un intervalo en
el cual las Rs no son recompensadas.
El organismo aprende a anticipar cuándo va a estar disponible el
siguiente reforzador, y progresivamente disminuye su tasa de
respuestas al principio del intervalo y la aumenta hacia el final del
mismo. Por ello, estos programas terminan por producir un
carácterístico registro acumulativo festoneado:
11
RV-20
IF-30sg.
Respuestas
emitidas
acumuladas
Pocas Rs en el
principio del
intervalo
Muchas Rs al
final del
intervalo
Tiempo
Registro acumulativo típico de una rata sometida a IF-30sg.
Los programas IF producen una tasa de respuesta global más baja que
los de razón, y menos estable debido a las variaciones dentro de cada
intervalo.
4.1.4.- Intervalo variable
Los programas de intervalo variable son como los anteriores, sólo que
el intervalo oscila en torno a un valor promedio.
IV-30sg.
Respuestas
emitidas
acumuladas
Tiempo
Registro acumulativo típico de una rata sometida a IV-30sg.
.
Dan lugar a una tasa de respuesta moderada que, globalmente, es
más o menos igual que la de IF, pero mucho más estable. Al no ser
predecible por el organismo la duración del intervalo, no hay
12
diferencias locales de tasa de respuesta (el organismo responde a un
ritmo sostenido).
Por este motivo, es un programa idóneo para establecer Rs que se van
a emplear como línea base de ulteriores tratamientos o experimentos
(en particular, se emplean muy a menudo como punto de partida para
el estudio de condicionamiento clásico mediante supresión
condicionada –ver tema 3).
En líneas generales, cabe formular las siguientes conclusiones sobre
los cuatro programas básicos:
1) Los programas de razón dan lugar a tasas de respuesta más altas.
2) Los programas variables dan lugar a tasas de respuestas más
estables (contínuas).
3) En general, los resultados de la investigación con los distintos
programas son bastante consistentes de unas especies a otras.
II CONDICIONAMIENTO CLASICO
El condicionamiento clásico, también llamado condicionamiento
pavloviano y condicionamiento respondiente, o modelo Estimulo-Estimulo
(E-E), es un tipo de aprendizaje asociativo que fue demostrado por primera vez
por Iván Pávlov. La forma más simple de condicionamiento clásico recuerda lo
que Aristóteles llamaría la ley de contigüidad. En esencia, el filósofo dijo
"Cuando dos cosas suelen ocurrir juntas, la aparición de una traerá la otra a la
mente". A pesar de que la ley de la contigüidad es uno de los axiomas
primordiales de la teoría del condicionamiento clásico, la explicación al
fenómeno dada por estos teóricos difiere radicalmente de la expuesta por
Aristóteles, ya que ponen especial énfasis en no hacer alusión alguna a
conceptos como "mente". Esto es, todos aquellos conceptos no medibles,
cuantificables y directamente observables. El interés inicial de Pavlov era
estudiar la fisiología digestiva, lo cual hizo en perros y le valió un premio Nobel
en 1904. En el proceso, diseñó el esquema del condicionamiento clásico a
partir de sus observaciones:
EI -------> RI
EC -------> RC
La primera línea del esquema muestra una relación natural, no condicionada o
incondicionada entre un estímulo (EI = Estímulo incondicionado o natural) y
una respuesta (RI = Respuesta incondicionada). Los perros salivan (RI)
naturalmente ante la presencia de comida (EI).
Sin embargo, en virtud de la contigüidad temporal, es posible que otro estímulo
pase a evocar también la RI, aunque antes no lo hiciera. Por ejemplo, la
presencia del sonido de un diapasón unos segundos antes de la presentación
de la comida: después de algunos pocos ensayos, el ruido del diapasón
evocaría confiablemente y por sí solo la respuesta de salivación. Se completa
13
así la segunda línea, y la campana se convierte en un estímulo condicionado
que produce una respuesta condicionada.
2.1 Fenómenos asociados
La persistencia del reflejo condicionado depende de la presentación
concurrente de sus elementos. Si se deja de presentar el EI después del EC,
eventualmente la RC desaparece, fenómeno que se conoce como extinción.
Después de que se ha completado este proceso, la respuesta condicionada
podría reaparecer sin que se vuelvan a presentar los elementos
conjuntamente, lo que se conoce como recuperación espontánea.
Las propiedades formales de los estímulos pueden desempeñar un papel
importante en el proceso de condicionamiento clásico. La RC puede aparecer
en presencia de estímulos que no fueron originalmente EC, pero que
comparten algunas características con ellos. Por ejemplo, si el EC es un sonido
de campana, la RC podría aparecer también ante un timbre, el tic-tac de un
reloj u otros ruidos, lo cual se conoce como generalización estimular. Al
fenómeno opuesto, por el cual la respuesta condicionada se va produciendo
ante estímulos de características cada vez más específicas se le conoce como
discriminación estimular. Un experimento clásico de este fenómeno describe
cómo unas palomas eran entrenadas para responder ante la exposición a una
frecuencia determinada de sonido, siendo capaces de omitir la respuesta ante
variaciones mínimas en esta frecuencia.
Un EC puede tomar el papel de un EI en un proceso de condicionamiento, de
modo que un nuevo estímulo neutro puede convertirse en EC (EC2)
asociándose con un primer EC (EC1):
EI ----------> RI
|
EC1 ---------> RC
|
EC2 ---------> RC
Este fenómeno se conoce como condicionamiento de segundo orden.
Aparentemente se han documentado casos de condicionamientos hasta de
tercer orden, pero son muy difíciles de lograr y mantener.
2.2 Evidencia empírica en humanos
Los estudios de condicionamiento clásico en seres humanos han desatado una
gran controversia en lo relativo a hasta qué punto son generalizables a los
seres humanos las conclusiones obtenidas en los experimentos realizados con
otros animales. John B. Watson y Rosalie Rayner demostraron que el proceso
de condicionamiento pavloviano podía usarse en humanos y que
probablemente constituía una fuente importante de nuestra experiencia, en lo
que ha sido llamado el experimento del pequeño Albert. En tiempos más
recientes se han identificado procesos de condicionamiento clásico en
humanos como:
2.3 Aprendizaje por condicionamiento clásico
Muchos estímulos ambientales producen respuestas reflejas que no han sido
aprendidas. Por ejemplo, la presencia de comida en la boca produce
salivación, un ruido fuerte causa sobresalto, la luz intensa produce contracción
14
de las pupilas, etc. Los estímulos que producen estas respuestas se conocen
como estímulos incondicionados, y las respuestas se conocen como
respuestas incondicionadas. En este caso, el término "incondicionado" significa
que no es necesario el aprendizaje para que el estímulo provoque la respuesta.
Otros estímulos son neutros porque no causan las respuestas reflejas en el
organismo. Por ejemplo, el sonido de una campanita no provocará la
salivación.
El condicionamiento clásico ocurre cuando el estímulo neutro adquiere la
propiedad de producir la respuesta incondicionada, porque ha sido asociado
repetidas veces con el estímulo incondicionado. Por ejemplo, si haces sonar
una campanita cada vez que le das comida a tu perro, después de unas
cuantas veces él asociará el sonido de la campanita con la comida y salivará
cada vez que lo escuche.
El estímulo neutro que ha adquirido la propiedad de producir la respuesta
refleja se conoce como estímulo condicionado. El término "condicionado"
significa que el aprendizaje es necesario para que el estímulo provoque la
respuesta.
Es fácil ver el condicionamiento clásico en la vida cotidiana. Abundan los
ejemplos con perros:

Perros que se vuelven locos de emoción cada vez que su propietario
toma la correa para ir a pasear.

Perros que acuden inmediatamente cada vez que ven a sus propietarios
levantar el recipiente de comida.

Perros que corren a esconderse cada vez que aparece el jardinero,
porque asociaron a esta persona con eventos desagradables.
2.4 Contracondicionamiento
Una respuesta que ha sido condicionada, también puede ser
contracondicionada. Es decir que el aprendizaje por condicionamiento clásico
puede revertirse empleando el mismo proceso.
Por ejemplo, un perro que aprendió a ser agresivo porque tuvo malas
experiencias con la gente, puede aprender a socializar con las personas si le
ocurre algo agradable cada vez que ve un extraño. El proceso de
contracondicionamiento se usa con frecuencia para modificar conductas
emocionales inapropiadas, y suele llevarse a cabo junto con la
desensibilización.
2.5 El condicionamiento clásico en el adiestramiento canino
El condicionamiento clásico es una herramienta muy poderosa en el
adiestramiento de perros, ya que permite trabajar directamente sobre las
emociones del animal. Por tanto, el condicionamiento clásico te será de utilidad
para socializar a tu perro, para eliminar fobias que pueda tener y para reducir la
agresión. En todos esos casos, el principio de adiestramiento consiste en
lograr que tu perro asocie con cosas agradables (comida, juegos, etc.) a la
gente, a otros perros y a situaciones estresantes.
15
También usarás el condicionamiento clásico para crear un reforzador
condicionado. Un reforzador condicionado es una señal que le indica a tu perro
que ha hecho algo correcto y que las consecuencias de su conducta serán
agradables. El reforzador condicionado es la base del adiestramiento con
clicker.
16
CONCLUSIONES
La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de
carácter motivador para dirigir una conducta. Son fundamentales en el
aprendizaje sabiendo utilizarlos, para lograr una respuesta esperada hacia los
alumnos
Como estudiante de psicología futura profesional, es indispensable manejar
este tema, como estrategia para el mejor logro de la educación, no solamente
hablando de materia, sino también reforzar en los educandos sus valores,
metas, intereses; ayudando también a tener una buena relación.
Es un tema cotidiano que influye directamente en nuestra forma de
comportarnos, así nos dejan experiencias en nuestras relaciones, para en otra
ocasión aprender de ellos.
La teoría de los refuerzos es una conducta aprendida, ya que para que exista
el aprendizaje según esta teoría, se debe reforzar la conducta ya sea por un
estímulo positivo o también un estímulo negativo.
Así se logra aumentar la probabilidad que se repita un comportamiento de
aprendizaje en su entorno.
Después de haber analizado y leído el tema, puedo llegar a la conclusión que
el organismo siempre esta en movimiento o en proceso de operar. Se
encuentra con un determinado tipo de estímulo, llamado estimulo reforzador.
Skinner como buen conductista manifiesta su interés grandísimo por el estudio
de los procesos de aprendizaje, aunque sus ideas han provocado muchas
polémicas, sobre todo cuando atacan sus obras que se refieren a los estímulos
y los refuerzos.
A pesar de la validez en las críticas que se le realizan al conductismo operante,
como el reduccionismo y simplismo, ha sido innegable el aporte que ha tenido
este, a la vida del hombre. Ayudándole en todo tipo áreas. El saber controlar
bien una conducta a través de los refuerzos ayudara a las personas a vivir en
un mundo más placentero, ya que se podrán por ejemplo eliminar o reducir
todas esas conductas aceptadas socialmente como inadecuadas.
Sin embargo, creo que para que lo anterior sea efectivo, tenemos que tener un
total conocimiento de esta teoría, de manera que podamos conocer el real
alcance que tienen los estímulos reforzadores en el control de la conducta,
conociendo su potencial. Como decía Skinner, toda la vida esta plagada de
refuerzos, sin embargo el común de la gente, ante el desconocimiento de ellos
los pasa por alto, con la imposibilidad de aplicarlos o aplicarlos de la forma
más conveniente. Es por eso, que los profesores quienes son uno de los
pilares fundamentales en el proceso de enseñanza - aprendizaje que hacen
suyo los alumnos, deben tener un conocimiento cabal de la teoría operante,
para poder controlar la infinidad de conductas que operan en los alumnos, en
post de una sociedad mejor.
17
BIBLIOGRAFÍA

Psicología: un aporte a la Educación. SALAZAR, Dayanira
(compilación).Editor universidad Arturo Prat. 1° Edición. Santiago. Chile.
2003.

Sitio web http://www.loshorcones.org.mx/glosario.html

Sitio web http://www.euskalnet.net/txiribi/terapias.htm

Sitio web http://www.cuc.udg.mx/psicologia/skinner.html

Sitio web http://www.google.cl/search?q=cache:IvZZpZKq_pssJ:www.psicopedagogiaonline.com/articulos/documentos/cond_o
perante.pdf+descripcion+del+condicionamiento+operante&hl=es&ie=UTF-8

El consultor psicopedagógico en la escuela. DINMEYER, Don –
CARLSON, Jon. Editorial Guadalupe. Buenos Aires. Argentina. 1973.
18