Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Conductismo metodológico
El artículo antes mencionado de Watson» La psicología tal como la ve el conductista» también
conocido como «el manifiesto conductista», en el cual Watson delinea los principios de todos
los conductistas:
La psicología desde el punto de vista conductista es una rama experimental puramente
objetiva de la ciencia natural. Su objetivo teórico es la predicción y control de la
conducta. Las formas de introspección no son parte esencial de sus métodos, ni el valor
científico de sus datos depende de la disposición con la cual ellos se presten a sí mismos
a interpretación en términos de la conciencia.
El conductista, en sus esfuerzos para obtener un esquema unitario de la respuesta
animal, no reconoce línea divisoria entre el hombre y el bruto. La conducta del hombre,
con todo su refinamiento y complejidad, forma solo una parte del esquema total
conductista de investigación.
Conductismo Radical
El conductismo radical fue fundado por BF Skinner y estuvo de acuerdo con la suposición del
conductismo metodológico en que el objetivo de la psicología debería ser predecir y controlar
el comportamiento.
Skinner, al igual que Watson, también reconoció el papel de los eventos mentales internos, y
aunque estuvo de acuerdo en que tales eventos privados no podían usarse para explicar el
comportamiento, sin embargo, propuso que debiesen explicarse dentro del análisis del
comportamiento.
Otra distinción importante entre el conductismo metodológico y radical se refiere a la medida
en que los factores ambientales influyen en el comportamiento.
El conductismo metodológico afirma que la mente es una tabula rasa en el momento del
nacimiento.
Por el contrario, el conductismo radical acepta la opinión de que los organismos nacen con
comportamientos innatos y, por lo tanto, reconoce el papel de los genes y los componentes
biológicos en el comportamiento.
El condicionamiento clásico
Es una técnica utilizada con frecuencia en el entrenamiento comportamental en la cual un
estímulo previamente neutral se combina con una respuesta automática o refleja (respuesta no
condicionada).
Eventualmente, el estímulo neutral puede llegar a evocar la respuesta refleja sin necesidad del
estímulo natural que lo provoca, el estímulo asociado se denomina ahora como el estímulo
condicionado y el comportamiento aprendido como respuesta condicionada.
El Condicionamiento clásico también se denomina modelo estímulo-respuesta o aprendizaje por
asociaciones (E-R). Los resultados de sus investigaciones, le valieron a Pavlov el premio Nobel
en 1904.
ELEMENTOS DEL CONDICIONAMIENTO CLÁSICO
El Estímulo Incondicionado (EI) es un estímulo que de manera automática provoca una
respuesta del organismo, una respuesta no aprendida.
La Respuesta Incondicionada (RI) es la respuesta no aprendida que es provocada por
un estímulo incondicionado.
El Estímulo neutro (EN) es un estímulo que cuando está presente en el medio no
provoca ningún tipo de respuesta en el organismo. Cuando un estímulo neutro se ha
asociado temporalmente con un estímulo incondicionado, éste pasa a ser Estímulo
Condicionado (EC), ya que es capaz por sí mismo de provocar una respuesta parecida a
la que provocaba el estímulo incondicionado.
La Respuesta Condicionada (RC) es la respuesta que aparece al presentarse sólo el
estímulo condicionado. Para Pavlov sería la cantidad de saliva que segregaban los perros
cuando se les presentaba sólo el estímulo auditivo o visual.
El estímulo condicionado: es el estímulo inicialmente neutro y que apareado con el
estímulo incondicionado producirá una respuesta.
PROCESO:
Existe cierto evento natural llamado estímulo incondicionado (EI), el cual produce una
respuesta refleja no aprendida denominada respuesta incondicionada (RI).
Ej. El (comida) _______ RI (salivación)
Existe otro tipo de estímulo llamado neutro (EN), el cual sólo provoca una reacción
denominada respuesta de orientación (RO).
Ej. EN (sonido de la campana) ______RO (el perro se orienta hacia la fuente de sonido)
Pavlov sostiene que, asociando un estímulo neutro con un estímulo incondicionada,
repetidas veces, se genera un nuevo evento llamado estímulo condicionado (EC), el cual
provoca una respuesta condicionada (RC).
Surge la evidencia que también los seres humanos aprendemos por condicionamiento
clásico (ej. Temores, fobias, etc).
LEYES DEL CONDICIONAMIENTO CLÁSICO:
La extinción: se produce cuando desaparece o se debilita la respuesta condicionada
(salivación) por la presentación repetida del estímulo condicionado (sonido de la
campana), sin asociarlo con el estímulo incondicionado (alimento).
Ej. La salivación disminuye progresivamente si sólo nos mencionan la palabra “ceviche” sin
la presencia del alimento.
Recuperación Espontánea: se produce luego de la extinción. Es la reaparición de la
respuesta condicionada ante el estímulo condicionado. : el la reaparición, luego de
un periodo de descanso, de una respuesta condicionada extinguida.
Ej. El caso de un gato que disminuye su salivación por la presentación repetida del sonido
de cubiertos o platos sin comida, son embargo, después de unas horas ante el sonido de
cubiertos o platos se produce nuevamente la salivación.
Generalización del E: tendencia a emitir la RC ante un E similar, aunque no
idéntico al que fue originalmente asociado al EI.
Discriminación: la persona aprende a responder sólo al EC, logrando
diferenciarlo de los demás E.
En 1913, Watson publicó un artículo llamado Psychology as the behaviorist views it, y
proponía analizar la psicología desde el análisis de la conducta observable en lugar de
hacerlo desde el análisis de la conciencia, perspectiva vigente hasta entonces. Con este fin,
propuso la eliminación de la introspección como método válido para la psicología,
sustituyéndolo por la observación y la experimentación objetivas.
EL CONDICIONAMIENTO OPERANTE
También se le conoce como condicionamiento instrumental, es un proceso de aprendizaje el
cual ocurre a través de refuerzo y castigo. Por medio del condicionamiento operante se
establece una asociación entre un comportamiento y una consecuencia para dicha conducta.
Cuando después de una acción sigue un resultado deseable, es más probable este se repita en
el futuro. Las respuestas seguidas de resultados adversos, por otro lado, tienen menos
probabilidades de volver a ocurrir en el futuro.
Es el proceso en el cual el aprendizaje ocurre la base de una serie de tanteos y equivocaciones.
En este proceso las respuestas satisfactorias, que conducen a la meta, se mantienen y aquellas
que no, se elimina.
En 1913, Throndike consideró al aprendizaje como un proceso de prueba y error,
posteriormente lo denomino proceso de selección y conexión.
El experimento de Thorndike: la caja-problema
A finales del siglo XIX Thorndike estudió el aprendizaje en animales (generalmente gatos). Ideó
un experimento en el que utilizó una caja rompecabezas creada por él, para poner a prueba
empíricamente las leyes del aprendizaje.
En 1889, EL Thorndike realizó la primera demostración experimental de condicionamiento
instrumental con animales. Este autor inició sus estudios con la intención de demostrar que los
animales no utilizaban el razonamiento para resolver determinadas situaciones (opinión que no
era compartida por investigadores de su época) sino que, de una manera más sencilla,
encontraban la solución gracias a un aprendizaje de respuestas. Thorndike comenzó a estudiar
el proceso de aprendizaje en animales utilizando polluelos que situaba en laberintos construidos
con libros, pero los estudios experimentales más sistemáticos los llevó a cabo con la llamada
caja-problema diseñadas por él mismo.
Estas eran cajas de madera en el interior de las cuales situaba, generalmente, un gato
hambriento (también utilizó perros) y el animal tenía que aprender qué respuesta era la más
adecuada para que se abriera la puerta de la caja y pudiera acceder al plato de comida del
exterior que tenía a su vista. En el interior de la caja, el animal se encontraba con diferentes
mecanismos como palancas, cuerdas o baldas que, al ser correctamente accionados, permitían
la apertura de la caja. Thorndike registraba la latencia, es decir, el tiempo que tardaba el gato a
hacer la respuesta correcta y volvía a cerrar al animal dentro de la caja. Este investigador observó
que la duración de la latencia disminuía gradualmente a lo largo de los ensayos sucesivos; así, si
en la primera ocasión que el animal se encontraba en la caja tardaba casi diez minutos en poder
abrir la puerta, en el ensayo cuarenta podía resolver en menos de dos minutos.
Thorndike interpretó esta disminución gradual de las latencias como un aprendizaje de ensayo
y error en el que no participaba el razonamiento, dado que la curva del tiempo empleado no
caía drásticamente una vez que el animal encontraba la respuesta correcta. Así pues, en el
aprendizaje por ensayo y error, el animal enjaulado realizaba una serie de respuestas típicas de
su especie entre las cuales una de ellas, por azar, daba lugar a la apertura de la puerta; las
consecuencias satisfactorias de esta respuesta (poder acceder a la comida) servirían para
fortalecer, gradualmente, una hipotética asociación entre el estímulo del interior de la caja-
problema y la respuesta correcta.
La Ley del Efecto
Fue así como Thorndike propuso la teoría de que los animales aprenden por ensayo y error.
Cuando algo funciona satisfactoriamente, el animal establece una conexión o asociación entre
el comportamiento y el resultado positivo. Esta asociación constituye la base para el
comportamiento posterior. Pero cuando el animal comete un error o el resultado que obtiene
es negativo, no se forma esta asociación entre el comportamiento y el resultado, por lo que el
comportamiento ineficaz es menos probable que se repita.
Este aprendizaje asociativo entre el estímulo y la respuesta configura la base de la ley del efecto
formulada por Thorndike en 1911, que establece lo siguiente:
Si una respuesta ejecutada en presencia de un estímulo va seguida de un hecho satisfactorio, la
asociación entre el estímulo y la respuesta se fortalece. Si la respuesta va seguida de un hecho
molesto, la asociación se debilita.
Inicialmente Thorndike estableció paralelismos entre los resultados positivos, que se denominan
refuerzos en conductismo, y los resultados negativos, que se conocen como castigos. Sin
embargo, más tarde afirmó que el castigo era ineficaz en la eliminación de la conexión entre el
comportamiento y el resultado. En cambio, sugirió que, después de un castigo, el
comportamiento probablemente sea menos predecible.
Es importante destacar que, según la ley del efecto, los animales aprenden una asociación entre
la respuesta y los estímulos presentes, y las consecuencias satisfactorias de la respuesta
únicamente sirven para fortalecer esta asociación, pero no están implicadas directamente en su
formación.
EL ANÁLISIS CONDUCTUAL APLICADO DE B. F. SKINNER
Skinner desarrolló técnicas de condicionamiento operante que se engloban en lo que
conocemos como “análisis de conducta aplicado”. Éste se ha mostrado particularmente eficaz
en la educación de niños, con un énfasis especial en los niños con dificultades del desarrollo.
El esquema básico del análisis conductual aplicado es el siguiente. En primer lugar, se plantea
una meta conductual, que consistirá en el aumento o la reducción de comportamientos
determinados. En función de esto se reforzarán las conductas que se quiere desarrollar y se
reducirán los incentivos existentes para la realización de las conductas que se pretende inhibir.
En general la retirada de reforzadores es más deseable que el castigo positivo puesto que genera
menos rechazo y hostilidad por parte del sujeto. No obstante, el castigo puede ser útil en casos
en que la conducta problema es muy disruptiva y requiere una reducción rápida, por ejemplo,
si se da violencia.
La caja de Skinner
Skinner materializó la demostración de la ley del reforzamiento instaurando el proceso de
condicionamiento operante con la jaula diseñada por él mismo y llamada caja de Skinner.
El término de condicionamiento operante hace referencia al proceso por el que la frecuencia de
presentación de una conducta queda modificada por sus consecuencias. Así, la probabilidad de
aparición de una conducta operante está determinada, principalmente, por los hechos que
sucedieron después de realizar esta conducta en el pasado. Skinner introdujo el término de
conducta operante para definir todas aquellas respuestas que tienen el mismo efecto sobre el
ambiente. En este sentido, la conducta operante de pulsar la palanca puede ser ejecutada por
una rata realizando diferentes respuestas, cómo, por ejemplo, pulsar con una pata, con el morro
o con la cola. Todas estas respuestas constituyen el mismo operando.
Este aparato permitía que un animal como una rata (también utilizó palomas como sujetos
experimentales) aprendiera una conducta arbitraria como es pulsar una palanca, siempre que la
realización de esta conducta fuera seguida de la presentación inmediata de comida que
reforzaría esta conducta operante. La caja diseñada por Skinner se basa en los siguientes
elementos:
Una palanca situada en el interior de la jaula que el animal ha de pulsar para obtener
comida y que está automáticamente conectada al mecanismo que dispensa la
pequeña bolita de comida que caerá dentro comedero situada junto a la palanca.
Un mecanismo de registro acumulativo que muestra gráficamente en qué momento
y con qué frecuencia responde al animal durante la sesión.
Privación
Se trata de privar de comer la rata que estará condicionada, hasta que se encuentre a un 80%
de su peso habitual, es decir, hasta alcanzar una reducción del 20% de su peso.
Adaptación a la jaula
Durante las sesiones de adaptación se sitúa al animal dentro de la jaula para habituar las
respuestas de exploración típicas de la rata y observar, asimismo, cuál es el nivel operando inicial
del animal; es decir, con qué frecuencia toca la palanca antes de comenzar con el
acondicionamiento de esta respuesta. Esta línea de base operando servirá de referencia para
constatar el incremento posterior de la tasa de respuesta provocado por la presencia del
refuerzo.
Reforzamiento negativo: procedimiento a través del cual, al ser emitida una conducta,
desaparece o se evita un estímulo. Dicha consecuencia aumenta la probabilidad de
ocurrencia de la conducta.
Extinción
Este concepto se emplea para explicar la desaparición de una respuesta aprendida debido a la
eliminación del refuerzo del escenario condicionado.
Generalización y Discriminación.
El fenómeno en el cual un organismo presenta una respuesta similar cuando reacciona a
estímulos similares se conoce como generalización.
Un concepto complementario al de generalización es la discriminación, la cual explica una
respuesta similar representada por un organismo debido a la diferencia en los estímulos.
Recuperación espontanea
Este concepto se explica cuando en la caja de Skinner la rata es retirada y ya no tiene que
presionar la palanca, incluso después de haberla retirado de la caja durante un cierto periodo
de tiempo y el comportamiento haberse extinguido, al reintroducir la rata a la caja el
comportamiento presenta una recuperación espontanea.
Skinner opinaba que la conducta era mucho más fácil de modificar si se manipulaban sus
consecuencias que si simplemente se asociaban estímulos a ésta, como sucede en el
condicionamiento clásico. El condicionamiento clásico se basa en la adquisición de respuestas
reflejas, con lo cual explica una menor cantidad de aprendizajes y sus usos son más limitados
que los del operante, ya que éste hace referencia a conductas que el sujeto puede controlar a
voluntad.
CLÁSICO OPERANTE
Conducta involuntaria (respondiente) Conducta espontánea (emitida)
Sujeto pasivo Sujeto activo
Se aprende por asociación de estímulos Se aprende por las consecuencias que origina
El medio actúa sobre el sujeto la conducta
El sujeto actúa sobre el medio
1. Técnicas de instigación
Se consideran técnicas de instigación aquellas que dependen de la manipulación de estímulos
discriminativos para aumentar la probabilidad de que se dé una conducta.
Este término incluye las instrucciones que incrementan determinadas conductas, la guía física,
que consiste en mover o colocar partes del cuerpo de la persona entrenada, y el modelado, en
que se observa a un modelo realizando una conducta para poder imitarlo y aprender cuáles son
sus consecuencias. Estos tres procedimientos tienen en común que se centran en enseñar
directamente al sujeto cómo tiene que realizar una acción determinada, sea verbal o
físicamente.
2. Moldeamiento
Consiste en acercar gradualmente una conducta determinada a la conducta objetivo,
empezando por una respuesta relativamente parecida que el sujeto pueda realizar y
modificándola poco a poco. Se lleva a cabo por pasos (aproximaciones sucesivas) a los que se
aplica reforzamiento.
Es uno de los conceptos clave del condicionamiento operante, ya que permite que los progresos
llevados a cabo en terapia o en el entrenamiento puedan generalizarse a muchos otros ámbitos
de la vida.
4. Encadenamiento
Una cadena conductual, es decir, una conducta compuesta por varias conductas simples se
separa en distintos pasos (eslabones). A continuación, el sujeto debe aprender a ejecutar los
eslabones uno a uno hasta lograr llevar a cabo la cadena completa.
El encadenamiento puede realizarse hacia delante o hacia atrás y tiene como peculiaridad que
cada eslabón refuerza al anterior y funciona como estímulo discriminativo del siguiente.
En ciertos aspectos, buena parte de las habilidades que se consideran talentos por mostrar un
alto grado de destreza y especialización en ellos (como por ejemplo tocar muy bien un
instrumento musical, bailar muy bien, etc.) pueden ser consideradas fruto de alguna forma de
encadenamiento, dado que desde las habilidades básicas se va progresando hasta alcanzar otras
mucho más trabajadas.
5. Programas de reforzamiento
En un procedimiento de aprendizaje operante, los programas de reforzamiento son las pautas
que establecen cuándo será premiada la conducta y cuándo no.
Hay dos tipos básicos de programas de reforzamiento: los de razón y los de intervalo. En los
programas de razón se obtiene el reforzador después de que se dé un número concreto de
respuestas, mientras que en los de intervalo esto sucede después de que haya pasado un tiempo
determinado desde la última conducta reforzada y ésta vuelva a darse.
Ambos tipos de programa pueden ser fijos o variables, lo cual indica que el número de
respuestas o el intervalo de tiempo necesarios para la obtención del reforzador pueden ser
constantes u oscilar en torno a un valor promedio. También pueden ser continuos o
intermitentes; esto significa que la recompensa puede darse cada vez que el sujeto lleve a cabo
la conducta objetivo o bien de vez en cuando (aunque siempre como consecuencia de una
emisión de la respuesta deseada).
1. Extinción
Se deja de recompensar una conducta que había sido reforzada con anterioridad. Esto disminuye
la probabilidad de que la respuesta vuelva a darse. Formalmente la extinción es lo opuesto al
reforzamiento positivo.
A largo plazo la extinción es más eficaz para eliminar respuestas que el castigo y el resto de las
técnicas operantes para reducir conductas, si bien puede ser más lenta.
Un ejemplo básico de extinción es lograr que un niño pare de patalear simplemente ignorándolo
hasta que se dé cuenta de que su conducta no tiene las consecuencias deseadas (por ejemplo,
el enfado de los padres, que funcionaría como reforzador) y se harte.
2. Entrenamiento de omisión
En este procedimiento, a la conducta del sujeto le sigue la ausencia de la recompensa; es decir,
si se da la respuesta no se obtendrá el reforzador. Un ejemplo del entrenamiento de omisión
podría ser que unos padres impidan a su hija ver la televisión esa noche por haberles hablado
de forma irrespetuosa. Otro ejemplo sería el hecho de no ir a comprar los juguetes que los niños
piden, si estos se portan mal.
En ámbitos educativos, además, sirve para favorecer que se valoren más los esfuerzos que otras
personas hacen para contentar a los pequeños y que estos, al haberse acostumbrado a estos
tratos, no valoran.
4. Coste de respuesta
Variante del castigo negativo en que la ejecución de la conducta problema provoca la pérdida
de un reforzador. El carnet de puntos para conductores que se introdujo en España hace unos
años es un buen ejemplo de programa de coste de respuesta.
5. Tiempo fuera
El tiempo fuera consiste en aislar al sujeto, en general niños, en un entorno no estimulante en
caso de que se produzca la conducta problemática. También una variante del castigo negativo
se diferencia del coste de respuesta en que lo que se pierde es la posibilidad de acceder al
refuerzo, no el reforzador en sí.
6. Saciación
El refuerzo que se obtiene por llevar a cabo la conducta es tan intenso o cuantioso que pierde
el valor que tenía para un sujeto. Esto puede tener lugar por saciación de respuesta o práctica
masiva (repetir la conducta hasta que deje de ser apetitiva) o bien por saciación de estímulo (el
reforzador pierde su apetitividad por exceso).
7. Sobrecorrección
La sobrecorrección consiste en aplicar un castigo positivo relacionado con la conducta problema.
Por ejemplo, es muy utilizada en casos de enuresis, en que se pide al niño que lave las sábanas
después de orinarse encima durante la noche.
La economía de fichas es un ejemplo muy conocido de este tipo de técnicas. Consiste en entregar
fichas (u otros reforzadores genéricos equivalentes) como premio por la realización de las
conductas objetivo; posteriormente los sujetos pueden intercambiar sus fichas por premios de
valor variable. Se utiliza en escuelas, cárceles y hospitales psiquiátricos.
PROGRAMAS DE REFORZAMIENTO
El uso de reforzadores permite fortalecer o fomentar una conducta, es decir, aumentar la
probabilidad de que se produzca una determinada respuesta. La efectividad de este
condicionamiento depende, sobre todo, del modo de efectuar ese reforzamiento.
La manera más sencilla es el reforzamiento continuo, que consiste en aplicar el reforzador cada
vez que se produce la respuesta deseada; con él se consigue un rápido aprendizaje. Ahora bien,
una vez que la respuesta operante ha sido condicionada éstas se mantienen mejor cuando el
reforzador no se aplica de forma continua sino de forma intermitente. Según Skinner, hay dos
programas básicos de reforzamiento intermitente: los programas de intervalo y los programas
de razón.
Los programas de intervalo tienen como base el tiempo, es decir, el reforzador se aplica después
de un determinado periodo de tiempo, que puede ser fijo o variable:
ENFOQUE EPISTEMOLÓGICO