Comportamento operante

Negli anni ‘ 30 B. F. Skinner sviluppò una nuova metodologia per lo studio dell’apprendimento e del comportamento degli animali. Lo chiamò comportamento operante, per riflettere il fatto che l’animale “operava” sull’ambiente per produrre una ricompensa, o rinforzo. Il comportamento degli organismi, pubblicato nel 1938, è stato il documento principale in cui ha presentato le sue scoperte e il suo approccio concettuale allo studio dell’apprendimento e del comportamento degli animali.

Nel metodo sviluppato da Skinner, l’animale (più spesso un ratto, un piccione o una scimmia) emette comportamenti particolari, chiamati risposte strumentali (o comportamenti), per ottenere un rinforzo. Molto spesso, queste risposte coinvolgono un operando (precedentemente chiamato manipulandum) che è adatto alle capacità motorie del soggetto. Ratti, scimmie e altri mammiferi premono una barra orizzontale (o leva) nella camera sperimentale (spesso chiamata scatola Skinner), mentre i piccioni beccano un disco verticale (o chiave); ai pesci può essere insegnato a nuotare attraverso un anello. Normalmente, il rinforzo segue immediatamente la risposta.

Gli animali imparano ad emettere particolari risposte strumentali perché i rinforzi modellano il comportamento. Comportamenti che sono seguiti da un aumento di rinforzo in frequenza e comportamenti che non sono seguiti da una diminuzione di rinforzo in frequenza. Ad esempio, per addestrare un ratto a premere una leva, lo sperimentatore può prima rinforzare l’animale ogni volta che si avvicina alla leva. Quando il ratto si avvicina in modo affidabile alla leva, i rinforzi vengono forniti solo se tocca effettivamente la leva. Infine, solo la pressione della leva è rinforzata. Questa modellatura del comportamento restringendo progressivamente la gamma di comportamenti rinforzati (la classe operante) è nota come metodo di approssimazione successiva. Se il rinforzo per un comportamento viene interrotto, il comportamento diminuirà di frequenza e potrebbe interrompersi completamente. Questo processo è noto come estinzione.

Nelle procedure di prova discreta, la prova termina con una singola risposta e la probabilità, la latenza o la forza di tale risposta viene registrata come misura del comportamento. Skinner sviluppò un altro metodo di studio del comportamento che chiamò procedure libere. Qui, il soggetto ha accesso all’operando per lunghi periodi—a volte una prova estesa, in altre occasioni un’intera sessione sperimentale—e può rispondere ripetutamente durante quel periodo. Pertanto, il tasso di risposta diventa la misura primaria del comportamento. Skinner ha sviluppato un metodo ingegnoso per visualizzare il tasso con un record cumulativo (vedi Figura 1). Ogni risposta sposta una penna verso l’alto di una piccola quantità su una striscia di carta in movimento. Ciò rende il tasso di risposta immediatamente visibile come misura del comportamento. Più alto è il tasso di risposta, più ripida è la pendenza del record cumulativo. Tuttavia, nella maggior parte delle attuali applicazioni sperimentali, contatori e computer vengono utilizzati per registrare e analizzare l’output di risposta. Queste misure consentono analisi più quantitative del comportamento.

Programmi di rinforzo

La risposta strumentale designata è seguita in almeno alcune occasioni da un rinforzo come un pellet di cibo o un rinfresco liquido per il ratto o la scimmia, grano per l’uccello, o denaro, gettoni o “punti” per un soggetto umano. Skinner ha progettato programmi di rinforzo che hanno fornito ricompensa solo in modo intermittente, in contrasto con il rinforzo continuo, dove ogni risposta è rinforzata. Il soggetto può essere rinforzato solo dopo aver emesso un numero di risposte, su un programma di rapporto, o per una risposta dopo un periodo di tempo trascorso, su un programma di intervallo. Il rapporto richiesto può essere costante in tutte le occasioni; questo è un programma a rapporto fisso. Oppure può variare da prova a prova; questo è un programma a rapporto variabile.

Allo stesso modo, in una pianificazione a intervalli l’intervallo può essere fisso o variabile. Skinner ha scoperto che ognuno di questi programmi produceva record cumulativi distintivi. Ad esempio, nei programmi a rapporto fisso, gli animali spesso non rispondono immediatamente dopo un rinforzo; questo è chiamato una pausa post-rinforzo. Quindi emettono risposte in un “burst” ad alta velocità per ottenere il rinforzo. Nelle pianificazioni a intervalli fissi, il soggetto in genere non risponde immediatamente dopo il rinforzo e la velocità di risposta accelera costantemente con l’avvicinarsi della fine dell’intervallo. I programmi a intervallo variabile e a rapporto variabile di solito generano tassi di risposta costanti. I programmi di rapporto generalmente producono alti tassi di risposta perché il tasso di rinforzo dipende interamente dal tasso di risposta. Tuttavia, i programmi di rapporto che richiedono un gran numero di risposte per ogni rinforzo possono induceratio ceppo sotto forma di lunghi periodi di non risposta.

Questi semplici programmi di rinforzo possono essere combinati in programmi più complessi. Un programma può produrre ancora un altro programma prima che venga dato un rinforzo, un programma a catena o due programmi possono alternarsi regolarmente su un operando, un programma multiplo. In questi programmi, gli stimoli distintivi segnalano quale particolare programma è attualmente in vigore. In una pianificazione mista, le pianificazioni dei componenti si alternano, ma non vengono segnalate da un cue esterno.

Nelle pianificazioni simultanee, due (o più) pianificazioni sono simultaneamente in vigore e il soggetto può scegliere tra di esse. Questi orari possono essere organizzati su un’opera separata o su un operando. In quest’ultima procedura il soggetto può scegliere tra le pianificazioni eseguendo una risposta di commutazione a un operando diverso. È stato riscontrato che gli animali distribuiscono il tempo trascorso a rispondere a ciascun programma in proporzione al tasso di rinforzo ottenuto da ciascuno. Questa relazione è conosciuta come la legge di corrispondenza. Il tipo di programma, la grandezza dei rinforzi e il tipo di rinforzo sono anche determinanti importanti della scelta. Ad esempio, studi sull’autocontrollo hanno dimostrato che gli animali sono “impulsivi”; scelgono rinforzi piccoli e immediati rispetto a rinforzi ritardati, ma molto più grandi.

Controllo dello stimolo

Gli stimoli discriminatori possono segnalare il programma efficace di rinforzo. Per i ratti, questi possono essere toni diversi o la presenza o l’assenza di una “luce di casa” nella camera. Per i piccioni, diversi colori o modelli possono essere proiettati sul tasto di risposta. Le scimmie sono spesso presentate con schemi visivi complessi. Gli stimoli discriminatori vengono a controllare i tassi di risposta. Ad esempio, un piccione risponderà alla stessa velocità a un tasto acceso rosso o verde se entrambi i colori segnalano una pianificazione a intervallo variabile (VI). Tuttavia, se il programma VI durante il componente a luce verde viene rimosso, la velocità di risposta a questo stimolo negativo diminuisce rapidamente. Il tasso di risposta alla luce rossa, lo stimolo positivo, aumenterà effettivamente rispetto al livello precedente, un fenomeno chiamato contrasto comportamentale. Nuovi stimoli dalla stessa dimensione dello stimolo possono essere presentati in un test di generalizzazione. Ad esempio, se gli stimoli discriminatori utilizzati nell’allenamento sono due toni, allora un ratto può essere testato con una gamma di frequenze tonali. Gradienti di generalizzazione (o discriminazione) sono facilmente ottenuti; cioè, la quantità di risposta a ogni nuovo stimolo è una funzione ordinata della sua somiglianza con lo stimolo di allenamento positivo.

Se gli stimoli sono più complessi, come le immagini, ciò fornisce un’opportunità per lo studio del raggiungimento del concetto quando gli stimoli appartengono a classi diverse. I piccioni, ad esempio, imparano facilmente a discriminare tra immagini contenenti immagini di una o più persone e immagini senza una persona.

Il controllo dello stimolo è anche studiato utilizzando procedure di scelta discretetriale. Uno stimolo viene presentato come un campione, e quindi l’animale deve scegliere quale delle due alternative di risposta è corretta per quel particolare stimolo. Le scelte corrette sono rinforzate. Tali metodi sono analoghi agli esperimenti di rilevamento del segnale con soggetti umani e hanno fornito misurazioni precise della percezione animale. Se interviene un ritardo tra lo stimolo del campione e la scelta, è possibile studiare la memoria a breve termine o la memoria di lavoro degli animali. Generalmente, l’accuratezza della scelta diminuisce notevolmente con ritardi anche di pochi secondi.

Controllo con stimoli avversi

I rinforzi positivi sono normalmente stimoli appetitivi. Gli stimoli avversivi, come scosse elettriche o rumori forti, sono anche efficaci nel controllo del comportamento. Se gli stimoli avversivi sono conseguenze per rispondere, sono punitori e riducono il tasso di risposta, che è altrimenti mantenuto da un rinforzo positivo. Gli animali sono molto sensibili sia alla forza che alla frequenza dei punitori. Gli stimoli avversivi sono anche usati nello studio della fuga e dell’evitamento. Quest’ultimo è più spesso studiato in una situazione di libero funzionamento. Il soggetto, più spesso un topo, è sottoposto a shock brevi e intermittenti. Emettendo una risposta richiesta, come la pressione della barra o l’attraversamento di un ostacolo, il soggetto può posticipare o annullare lo shock. Questa procedura genera tassi coerenti di comportamento di evitamento in ratti, scimmie e altri organismi, specialmente quando ogni risposta garantisce un intervallo senza shock.

Sommario

La metodologia operante ha dimostrato che il comportamento animale è una funzione ordinata dei suoi antecedenti (stimoli discriminativi) e delle sue conseguenze (rinforzo e punizione). Ha anche permesso agli sperimentatori di esplorare varie aree della percezione animale, della cognizione e della scelta. Inoltre, i principi del comportamento operante hanno applicazione agli esseri umani. Le tecniche operanti sono state impiegate nell’istruzione personale e nel trattamento del comportamento umano disfunzionale.

Vedi anche: CONDIZIONAMENTO, CLASSICO E STRUMENTALE; DISCRIMINAZIONE E GENERALIZZAZIONE; RINFORZO

Bibliografia

Catania, A. C. (1979). Apprendimento. Englewood Cliffs, NJ: Prentice-Sala.

Domjan, MP, e Burkhard, B. (1985). I principi dell’apprendimento e del comportamento, 2a edizione. San Francisco: Brooks / Cole.

Flaherty, CF (1985). Apprendimento animale e cognizione. A. S. D., A. S. D.

Schwartz, B., e Reisberg, D. (1991). Apprendimento e memoria. New York: Norton.

Skinner, B. F. (1938). Il comportamento degli organismi. New York: Appleton-Secolo.

W. K. Honig

BrentAlsop



+