Operantes Verhalten

In den 1930er Jahren entwickelte B. F. Skinner eine neue Methodik zur Untersuchung des Lernens und Verhaltens von Tieren. Er nannte es operantes Verhalten, um die Tatsache widerzuspiegeln, dass das Tier in der Umwelt „operierte“, um eine Belohnung oder Verstärkung zu erzeugen. Das Verhalten von Organismen, veröffentlicht 1938, war das Hauptdokument, in dem er seine Ergebnisse und seinen konzeptionellen Ansatz zur Untersuchung des Lernens und Verhaltens von Tieren vorstellte.

Bei der von Skinner entwickelten Methode gibt das Tier (meistens eine Ratte, Taube oder ein Affe) bestimmte Verhaltensweisen ab, die als instrumentelle Reaktionen (oder Verhaltensweisen) bezeichnet werden, um einen Verstärker zu erhalten. Meistens beinhalten diese Antworten ein Operandum (früher Manipulandum genannt), das für die motorischen Fähigkeiten des Subjekts geeignet ist. Ratten, Affen und andere Säugetiere drücken einen horizontalen Balken (oder Hebel) in der Versuchskammer (oft als Skinner-Box bezeichnet), während Tauben an einer vertikalen Scheibe (oder einem Schlüssel) picken. Normalerweise folgt der Verstärker sofort der Antwort.

Tiere lernen, bestimmte instrumentelle Reaktionen abzugeben, weil die Verstärker das Verhalten formen. Verhaltensweisen, denen ein Verstärkeranstieg der Frequenz folgt, und Verhaltensweisen, denen kein Verstärkerabfall der Frequenz folgt. Um beispielsweise eine Ratte zum Drücken eines Hebels zu trainieren, kann der Experimentator das Tier jedes Mal verstärken, wenn es sich dem Hebel nähert. Wenn sich die Ratte zuverlässig dem Hebel nähert, werden Verstärkungen nur bereitgestellt, wenn sie den Hebel tatsächlich berührt. Schließlich wird nur das Drücken des Hebels verstärkt. Diese Formung des Verhaltens durch fortschreitende Verengung des Bereichs der verstärkten Verhaltensweisen (der Operantenklasse) wird als Methode der sukzessiven Approximation bezeichnet. Wenn die Verstärkung für ein Verhalten abgebrochen wird, nimmt die Häufigkeit des Verhaltens ab und kann vollständig aufhören. Dieser Vorgang wird als Extinktion bezeichnet.

In diskreten Verfahren endet die Studie mit einer einzigen Antwort, und die Wahrscheinlichkeit, Latenz oder Kraft dieser Antwort wird als Maß für das Verhalten aufgezeichnet. Skinner entwickelte eine andere Methode zur Untersuchung des Verhaltens, die er als frei operierende Verfahren bezeichnete. Hier hat das Subjekt für längere Zeiträume Zugriff auf das Operandum — manchmal einen längeren Versuch, manchmal eine ganze experimentelle Sitzung — und kann während dieses Zeitraums wiederholt antworten. Daher wird die Reaktionsgeschwindigkeit zum primären Maß für das Verhalten. Skinner entwickelte eine ausgeklügelte Methode zur Anzeige der Rate mit einem kumulativen Datensatz (siehe Abbildung 1). Jede Antwort verschiebt einen Stift um einen kleinen Betrag auf einem sich bewegenden Papierstreifen nach oben. Dadurch wird die Reaktionsgeschwindigkeit sofort als Maß für das Verhalten sichtbar. Je höher die Reaktionsgeschwindigkeit ist, desto steiler ist die Steigung des kumulativen Datensatzes. In den meisten aktuellen experimentellen Anwendungen werden jedoch Zähler und Computer verwendet, um die Antwortausgabe aufzuzeichnen und zu analysieren. Diese Maßnahmen ermöglichen mehr quantitative Analysen des Verhaltens.

Zeitpläne der Verstärkung

Auf die bezeichnete instrumentelle Antwort folgt zumindest gelegentlich ein Verstärker, z. B. ein Futterpellet oder eine flüssige Erfrischung für die Ratte oder den Affen, Getreide für den Vogel oder Geld, Token oder „Punkte“ für ein menschliches Subjekt. Skinner entwarf Zeitpläne der Verstärkung, die Belohnung nur zeitweise zur Verfügung stellten, im Gegensatz zur kontinuierlichen Verstärkung, wo jede Antwort verstärkt wird. Das Subjekt kann erst nach Abgabe einer Anzahl von Antworten nach einem Verhältnisplan oder nach Ablauf einer Zeitspanne nach einem Intervallplan für eine Antwort verstärkt werden. Das erforderliche Verhältnis kann bei allen Gelegenheiten konstant sein; Dies ist ein Zeitplan mit festem Verhältnis. Oder es kann von Versuch zu Versuch variieren; Dies ist ein Zeitplan mit variablem Verhältnis.

Ebenso kann das Intervall in einem Intervallplan fest oder variabel sein. Skinner stellte fest, dass jeder dieser Zeitpläne unterschiedliche kumulative Datensätze hervorbrachte. Zum Beispiel reagieren Tiere in Zeitplänen mit festem Verhältnis häufig nicht unmittelbar nach einem Verstärker; Dies wird als Pause nach der Verstärkung bezeichnet. Dann senden sie Antworten in einem hochratigen „Burst“ aus, um den Verstärker zu erhalten. In Zeitplänen mit festen Intervallen reagiert das Subjekt normalerweise nicht unmittelbar nach dem Verstärker, und die Reaktionsrate beschleunigt sich stetig, wenn sich das Ende des Intervalls nähert. Zeitpläne mit variablem Intervall und variablem Verhältnis erzeugen normalerweise konstante Reaktionsraten. Verhältnispläne erzeugen im Allgemeinen hohe Reaktionsraten, da die Verstärkungsrate vollständig von der Reaktionsrate abhängt. Verhältnispläne, die eine große Anzahl von Antworten für jeden Verstärker erfordern, können jedoch zu einer erhöhten Belastung in Form längerer Zeiträume ohne Reaktion führen.

Diese einfachen Verstärkungspläne können zu komplexeren Zeitplänen kombiniert werden. Ein Zeitplan kann noch einen anderen Zeitplan erzeugen, bevor ein Verstärker gegeben wird, ein Kettenplan, oder zwei Zeitpläne können sich regelmäßig auf einem Operandum abwechseln, ein mehrfacher Zeitplan. In diesen Zeitplänen signalisieren markante Reize, welcher bestimmte Zeitplan derzeit in Kraft ist. In einem gemischten Zeitplan wechseln sich die Komponentenpläne ab, sie werden jedoch nicht durch einen externen Cue signalisiert.

In gleichzeitigen Zeitplänen sind zwei (oder mehr) Zeitpläne gleichzeitig wirksam, und das Subjekt kann zwischen ihnen wählen. Diese Zeitpläne können auf separaten Operanden oder auf einem Operandum angeordnet sein. Bei letzterem Verfahren kann das Subjekt zwischen Zeitplänen wählen, indem es eine Schaltantwort auf ein anderes Operandum ausführt. Es wurde festgestellt, dass Tiere die Zeit, die sie für die Reaktion auf jeden Zeitplan aufgewendet haben, proportional zu der von jedem erhaltenen Verstärkungsrate verteilen. Diese Beziehung wird als Matching-Gesetz bezeichnet. Art des Zeitplans, Größe der Verstärkungen und Art der Verstärkung sind ebenfalls wichtige Determinanten der Wahl. Zum Beispiel haben Studien zur Selbstkontrolle gezeigt, dass Tiere „impulsiv“ sind; Sie wählen kleine, sofortige Verstärker gegenüber verzögerten, aber viel größeren Verstärkern.

Reizkontrolle

Diskriminierende Reize können den effektiven Zeitplan der Verstärkung signalisieren. Für Ratten können dies verschiedene Töne oder das Vorhandensein oder Fehlen eines „Hauslichts“ in der Kammer sein. Beispielsweise können verschiedene Farben oder Muster auf die Antworttaste projiziert werden. Affen werden oft mit komplexen visuellen Mustern dargestellt. Die diskriminierenden Reize kommen, um die Reaktionsraten zu kontrollieren. Zum Beispiel reagiert eine Taube mit der gleichen Geschwindigkeit auf eine rot oder grün leuchtende Taste, wenn beide Farben einen Zeitplan mit variablem Intervall (VI) signalisieren. Wenn jedoch der VI-Zeitplan während der Grünlichtkomponente entfernt wird, nimmt die Reaktionsgeschwindigkeit auf diesen negativen Stimulus schnell ab. Die Ansprechrate auf das rote Licht, den positiven Reiz, steigt tatsächlich gegenüber dem vorherigen Niveau an, ein Phänomen, das als Verhaltenskontrast bezeichnet wird. Neue Stimuli aus derselben Reizdimension können in einem Verallgemeinerungstest dargestellt werden. Wenn beispielsweise die beim Training verwendeten diskriminativen Reize zwei Töne sind, kann eine Ratte mit einem Bereich von Tonfrequenzen getestet werden. Gradienten der Verallgemeinerung (oder Diskriminierung) werden leicht erhalten; das heißt, die Menge der Reaktion auf jeden neuen Reiz ist eine geordnete Funktion seiner Ähnlichkeit mit dem positiven Trainingsreiz.

Wenn die Reize komplexer sind, z. B. Bilder, bietet dies die Möglichkeit, das Erreichen von Konzepten zu untersuchen, wenn die Reize verschiedenen Klassen angehören. Tauben lernen beispielsweise leicht, zwischen Bildern mit Bildern einer oder mehrerer Personen und Bildern ohne Person zu unterscheiden.

Die Stimuluskontrolle wird auch mit diskreten Auswahlverfahren untersucht. Ein Stimulus wird als Probe dargestellt, und dann muss das Tier auswählen, welche von zwei Antwortalternativen für diesen bestimmten Stimulus richtig ist. Richtige Entscheidungen werden verstärkt. Solche Methoden sind analog zu Signaldetektionsexperimenten mit menschlichen Probanden und haben präzise Messungen der Tierwahrnehmung geliefert. Wenn zwischen dem Probenreiz und der Wahl eine Verzögerung eingreift, kann das Kurzzeitgedächtnis oder Arbeitsgedächtnis von Tieren untersucht werden. Im Allgemeinen nimmt die Genauigkeit der Auswahl mit Verzögerungen von nur wenigen Sekunden deutlich ab.

Kontrolle mit aversiven Reizen

Positive Verstärker sind normalerweise appetitanregende Reize. Aversive Reize wie elektrischer Schlag oder laute Geräusche sind ebenfalls wirksam bei der Kontrolle des Verhaltens. Wenn aversive Reize Konsequenzen für die Reaktion sind, sind sie Bestrafer und reduzieren die Reaktionsgeschwindigkeit, die ansonsten durch positive Verstärkung aufrechterhalten wird. Tiere reagieren sehr empfindlich auf die Stärke und Häufigkeit der Bestrafer. Aversive Reize werden auch bei der Untersuchung von Flucht und Vermeidung verwendet. Letzteres wird am häufigsten in einer frei operierenden Situation untersucht. Das Subjekt, meistens eine Ratte, wird kurzen, intermittierenden Schocks ausgesetzt. Durch Aussenden einer erforderlichen Reaktion, z. B. Drücken der Stange oder Überschreiten einer Hürde, kann das Subjekt den Schock verschieben oder aufheben. Dieses Verfahren erzeugt konsistente Raten des Vermeidungsverhaltens bei Ratten, Affen und anderen Organismen, insbesondere wenn jede Reaktion ein schockfreies Intervall garantiert.

Zusammenfassung

Die operante Methodik hat gezeigt, dass das Verhalten von Tieren eine geordnete Funktion seiner Vorgeschichte (diskriminierende Reize) und seiner Konsequenzen (Verstärkung und Bestrafung) ist. Es hat auch Experimentatoren ermöglicht, verschiedene Bereiche der Tierwahrnehmung, Kognition und Wahl zu erforschen. Darüber hinaus haben die Prinzipien des operanten Verhaltens Anwendung auf den Menschen. Operante Techniken wurden im persönlichen Unterricht und bei der Behandlung von dysfunktionellem menschlichem Verhalten eingesetzt.

Siehe auch:KONDITIONIERUNG, KLASSISCH UND INSTRUMENTAL; DISKRIMINIERUNG UND VERALLGEMEINERUNG; VERSTÄRKUNG

Bibliographie

Catania, A. C. (1979). Lernen. Englewood Cliffs, NJ: Prentice- Hall.

Domjan, M. P., und Burkhard, B. (1985). Die Prinzipien des Lernens und Verhaltens, 2. Auflage. San Francisco: Brooks/Cole.

Flaherty, CF (1985). Tier Lernen und Kognition. New York: Knopf.

Schwartz, B. und Reisberg, D. (1991). Lernen und Gedächtnis. New York: Norton.

Skinner, B. F. (1938). Das Verhalten von Organismen. New York: Appleton-Jahrhundert.

W. K.Honig

BrentAlsop



+