på 1930-talet utvecklade B. F. Skinner en ny metod för studier av djurinlärning och beteende. Han kallade det operant beteende, för att återspegla det faktum att djuret ”drivs” på miljön för att producera en belöning eller förstärkare. Organismernas beteende, som publicerades 1938, var huvuddokumentet där han presenterade sina resultat och hans konceptuella tillvägagångssätt för studiet av djurinlärning och beteende.
i den metod som Skinner utvecklade avger djuret (oftast en råtta, duva eller apa) särskilda beteenden, kallade instrumentella svar (eller beteenden), för att få en förstärkare. Oftast involverar dessa svar ett operandum (tidigare kallat manipulandum) som passar ämnets motoriska förmågor. Råttor, apor och andra däggdjur trycker på en horisontell stång (eller spak) i experimentkammaren (ofta kallad en Skinnerbox), medan duvor plockar på en vertikal skiva (eller nyckel); fisk kan läras att simma genom en ring. Normalt följer förstärkaren omedelbart svaret.
djur lär sig att avge särskilda instrumentella svar eftersom förstärkarna formar beteende. Beteenden som följs av en förstärkarökning i frekvens och beteenden som inte följs av en förstärkarminskning i frekvens. Till exempel, för att träna en råtta för att trycka på en spak, kan experimenten först förstärka djuret varje gång det närmar sig spaken. När råttan närmar sig spaken på ett tillförlitligt sätt, tillhandahålls förstärkare endast om den faktiskt berör spaken. Slutligen förstärks bara att trycka på spaken. Denna formning av beteende genom att gradvis minska utbudet av beteenden som förstärks (operantklassen) är känd som metoden för successiv approximation. Om förstärkning för ett beteende avbryts kommer beteendet att minska i frekvens och kan sluta helt. Denna process kallas utrotning.
i diskreta försöksprocedurer slutar försöket med ett enda svar, och sannolikheten, latensen eller kraften för det svaret registreras som mått på beteende. Skinner utvecklade en annan metod för att studera beteende som han kallade frioperantprocedurer. Här har ämnet tillgång till operandumet under längre perioder—ibland en förlängd försök, vid andra tillfällen en hel experimentell session—och kan svara upprepade gånger under den perioden. Därför blir svarsfrekvensen det primära måttet på beteende. Skinner utvecklade en genial metod för att visa hastigheten med en kumulativ post (se Figur 1). Varje svar förskjuter en penna uppåt med en liten mängd på en rörlig pappersremsa. Detta gör att svarsfrekvensen omedelbart syns som mått på beteende. Ju högre svarsfrekvens, desto brantare är lutningen för den kumulativa posten. I de flesta aktuella experimentella applikationer används dock räknare och datorer för att spela in och analysera svarsutgång. Dessa åtgärder möjliggör mer kvantitativa analyser av beteende.
scheman för förstärkning
det utsedda instrumentella svaret följs vid åtminstone vissa tillfällen av en förstärkare som en matpellet eller flytande förfriskning för råtta eller apa, spannmål för fågeln eller pengar, tokens eller ”poäng” för ett mänskligt ämne. Skinner utformade scheman för förstärkning som gav belöning endast intermittent, i motsats till kontinuerlig förstärkning, där varje svar förstärks. Ämnet kan förstärkas först efter att ha avgivit ett antal svar, på ett förhållningsschema eller för ett svar efter en tidsperiod har gått, på ett intervallschema. Det erforderliga förhållandet kan vara konstant vid alla tillfällen; detta är ett schema med fast förhållande. Eller det kan variera från försök till försök; detta är ett schema med variabelt förhållande.
på samma sätt kan intervallet i ett intervallschema vara fast eller variabelt. Skinner fann att var och en av dessa scheman producerade distinkta kumulativa poster. Till exempel, i scheman med fast förhållande, svarar djur ofta inte omedelbart efter en förstärkare; detta kallas en paus efter förstärkning. Sedan avger de svar i en hög hastighet ”burst” för att få förstärkaren. I scheman med fast intervall svarar ämnet vanligtvis inte omedelbart efter förstärkaren, och svarsfrekvensen accelererar stadigt när intervallets slut närmar sig. Scheman med variabelt intervall och variabelt förhållande genererar vanligtvis stabila svarsfrekvenser. Förhållandescheman ger i allmänhet höga svarsfrekvenser eftersom förstärkningsgraden helt beror på svarsfrekvensen. Förhållandescheman som kräver ett stort antal svar för varje förstärkare kan emellertid inducera stam i form av längre perioder utan svar.
dessa enkla scheman för förstärkning kan kombineras till mer komplexa scheman. Ett schema kan producera ännu ett schema innan en förstärkare ges, ett kedjeschema eller två scheman kan regelbundet växla på ett operandum, ett multipelschema. I dessa scheman signalerar distinkta stimuli vilket specifikt schema som för närvarande är i kraft. I ett blandat schema växlar komponentscheman, men de signaleras inte av en extern kö.
i samtidiga scheman är två (eller flera) scheman samtidigt i kraft och ämnet kan välja mellan dem. Dessa scheman kan ordnas på separat operanda eller på ett operandum. I det senare förfarandet kan ämnet välja mellan scheman genom att utföra ett växlingssvar på ett annat operandum. Det har visat sig att djur fördelar tiden som används för att svara på varje schema i proportion till förstärkningshastigheten som erhålls från var och en. Denna relation är känd som matchningslagen. Typ av schema, förstärkarnas storlek och typ av förstärkning är också viktiga determinanter. Till exempel har studier av självkontroll visat att djur är ”impulsiva”; de väljer små, omedelbara förstärkare framför försenade men mycket större förstärkare.
Stimuluskontroll
diskriminerande stimuli kan signalera det effektiva schemat för förstärkning. För råttor kan dessa vara olika toner eller närvaron eller frånvaron av ett ”husljus” i kammaren. För duvor kan olika färger eller mönster projiceras på svarsnyckeln. Apor presenteras ofta med komplexa visuella mönster. De diskriminerande stimuli kommer att kontrollera svarsfrekvensen. Till exempel svarar en duva i samma takt på en tangent som lyser rött eller grönt om båda färgerna signalerar ett schema med variabelt intervall (VI). Men om VI-schemat under grönljuskomponenten avlägsnas, minskar hastigheten för att svara på denna negativa stimulans snabbt. Svarsfrekvensen på det röda ljuset, den positiva stimulansen, kommer faktiskt att öka över sin tidigare nivå, ett fenomen som kallas beteendekontrast. Nya stimuli från samma stimulansdimension kan presenteras i ett generaliseringstest. Till exempel, om de diskriminerande stimuli som används i träning är två toner, kan en råtta testas med ett antal tonfrekvenser. Gradienter av generalisering (eller diskriminering) erhålls lätt; det vill säga mängden svar på varje ny stimulans är en ordnad funktion av dess likhet med den positiva träningsstimulansen.
om stimuli är mer komplexa, till exempel bilder, ger detta en möjlighet att studera konceptuppnåelse när stimuli tillhör olika klasser. Duvor lär sig till exempel lätt att skilja mellan bilder som innehåller bilder av en eller flera personer och bilder utan person.
Stimuluskontroll studeras också med diskretetriella valprocedurer. En stimulans presenteras som ett prov, och då måste djuret välja vilket av två svarsalternativ som är korrekt för den specifika stimulansen. Rätt val förstärks. Sådana metoder är analoga med signaldetekteringsexperiment med människor och har gett exakta mätningar av djuruppfattning. Om en fördröjning ingriper mellan provstimulansen och valet kan korttidsminnet eller arbetsminnet hos djur studeras. I allmänhet minskar noggrannheten i valet markant med förseningar på till och med några sekunder.
kontroll med aversiva Stimuli
positiva förstärkare är normalt aptitliga stimuli. Aversiva stimuli, såsom elektrisk stöt eller högt ljud, är också effektiva vid kontroll av beteende. Om aversiva stimuli är konsekvenser för att svara, är de straffare, och de minskar svarsfrekvensen, vilket annars upprätthålls av positiv förstärkning. Djur är mycket känsliga för både styrkan och frekvensen hos straffarna. Aversiva stimuli används också i studien av flykt och undvikande. Den senare studeras oftast i en frioperant situation. Ämnet, oftast en råtta, utsätts för korta, intermittenta chocker. Genom att avge ett önskat svar, som att trycka på eller korsa ett hinder, kan motivet skjuta upp eller avbryta chocken. Denna procedur genererar konsekventa hastigheter för undvikande beteende hos råttor, apor och andra organismer, särskilt när varje svar garanterar ett chockfritt intervall.
sammanfattning
Operantmetodik har visat att djurbeteende är en ordnad funktion av dess antecedenter (diskriminerande stimuli) och dess konsekvenser (förstärkning och straff). Det har också gjort det möjligt för experimenter att utforska olika områden av djuruppfattning, kognition och val. Dessutom har principerna för operant beteende tillämpning på människor. Operanttekniker har använts i personlig instruktion och vid behandling av dysfunktionellt mänskligt beteende.
Se även: konditionering, klassisk och INSTRUMENTAL; diskriminering och generalisering; förstärkning
bibliografi
Catania, AC (1979). Lärande. Englewood Cliffs, NJ: Prentice-Hall.
Domjan, M. P. och Burkhard, B. (1985). Principerna för lärande och beteende, 2: a upplagan. San Francisco: Brooks / Cole.
Flaherty, C. F. (1985). Djurinlärning och kognition. New York: Knopf.
Schwartz, B. Och Reisberg, D. (1991). Lärande och minne. New York: Norton.
Skinner, B. F. (1938). Organismernas beteende. New York: Appleton-Talet.
W. K. Honig
BrentAlsop