Zachowanie operanta

w 1930 roku B. F. Skinner opracował nową metodologię badania uczenia się i zachowania zwierząt. Nazwał to operatywne zachowanie, aby odzwierciedlić fakt, że zwierzę „operowało” na środowisko, aby wytworzyć nagrodę lub wzmocnienie. The Behavior of Organisms, opublikowany w 1938 roku, był głównym dokumentem, w którym przedstawił swoje odkrycia i swoje konceptualne podejście do badania uczenia się i zachowania zwierząt.

w metodzie opracowanej przez Skinnera zwierzę (najczęściej szczur, gołąb lub małpa) emituje określone zachowania, zwane reakcjami instrumentalnymi (lub zachowaniami), aby uzyskać wzmacniacz. Najczęściej reakcje te obejmują operandum (dawniej zwane manipulandum), które jest dostosowane do zdolności motorycznych podmiotu. Szczury, małpy i inne ssaki naciskają poziomą belkę (lub dźwignię) w komorze Doświadczalnej (często nazywanej skrzynką Skinnera), podczas gdy gołębie dziobią pionowym dyskiem (lub kluczem); ryby można nauczyć pływać przez pierścień. Zwykle wzmacniacz natychmiast następuje po odpowiedzi.

zwierzęta uczą się emitować określone reakcje instrumentalne, ponieważ wzmacniacze kształtują zachowanie. Zachowania, po których następuje wzrost wzmacniacza w częstotliwości, i zachowania, po których nie następuje wzrost wzmacniacza w częstotliwości. Na przykład, aby wytrenować szczura, aby nacisnął dźwignię, Eksperymentator może najpierw wzmocnić zwierzę za każdym razem, gdy zbliża się do dźwigni. Gdy szczur zbliża się niezawodnie do dźwigni, wzmacniacze są dostarczane tylko wtedy, gdy faktycznie dotknie dźwigni. Na koniec wzmocnione jest tylko naciśnięcie dźwigni. Takie kształtowanie zachowania poprzez stopniowe zawężanie zakresu zachowań, które są wzmocnione (Klasa operant), jest znane jako metoda sukcesywnego przybliżania. Jeśli wzmocnienie dla zachowania zostanie przerwane, zachowanie zmniejszy się częstotliwość i może całkowicie ustać. Proces ten znany jest jako wymieranie.

w procedurach dyskretnych próba kończy się pojedynczą odpowiedzią, a prawdopodobieństwo, opóźnienie lub siła tej odpowiedzi jest rejestrowane jako miara zachowania. Skinner opracował inną metodę badania zachowań, którą nazwał wolnymi procedurami operacyjnymi. Tutaj tester ma dostęp do operandum przez dłuższy czas—czasami przez dłuższy okres próbny, innym razem przez całą sesję eksperymentalną—i może odpowiadać wielokrotnie w tym okresie. Dlatego szybkość reakcji staje się podstawową miarą zachowania. Skinner opracował pomysłową metodę wyświetlania szybkości z zapisem skumulowanym (patrz rysunek 1). Każda odpowiedź przesuwa pióro w górę o niewielką ilość na ruchomym pasku papieru. Dzięki temu szybkość reakcji jest natychmiast widoczna jako miara zachowania. Im wyższy wskaźnik odpowiedzi, tym większe nachylenie skumulowanego rekordu. Jednak w większości obecnych zastosowań eksperymentalnych, liczniki i komputery są używane do rejestrowania i analizowania wyjścia odpowiedzi. Środki te pozwalają na bardziej ilościowe analizy zachowania.

harmonogramy wzmocnienia

wyznaczona instrumentalna odpowiedź jest następująca przynajmniej w niektórych przypadkach przez wzmacniacz, taki jak granulka żywności lub płynne orzeźwienie dla szczura lub małpy, ziarno dla ptaka lub pieniądze, żetony lub „punkty” dla ludzkiego podmiotu. Skinner zaprojektował harmonogramy zbrojeń, które zapewniały nagrodę tylko sporadycznie, w przeciwieństwie do ciągłego zbrojenia, w którym każda odpowiedź jest wzmacniana. Podmiot może zostać wzmocniony tylko po udzieleniu szeregu odpowiedzi, zgodnie z harmonogramem proporcji lub w przypadku odpowiedzi po upływie określonego czasu, zgodnie z harmonogramem interwałowym. Wymagany współczynnik może być stały we wszystkich przypadkach; jest to harmonogram o stałym stosunku. Lub może się różnić w zależności od próby; jest to harmonogram o zmiennym stosunku.

podobnie, w układzie interwałowym interwał może być stały lub zmienny. Skinner stwierdził, że każdy z tych harmonogramów generował charakterystyczne skumulowane rekordy. Na przykład, w harmonogramach o stałym stosunku, zwierzęta często nie reagują natychmiast po wzmocnieniu; nazywa się to przerwą po wzmocnieniu. Następnie emitują odpowiedzi w wysokiej szybkości „burst” w celu uzyskania wzmacniacza. W stałych odstępach czasu podmiot zazwyczaj nie reaguje natychmiast po wzmocnieniu, a szybkość odpowiedzi stale przyspiesza, gdy zbliża się koniec interwału. Zmienne interwały i zmienne współczynniki Zwykle generują stałe wskaźniki odpowiedzi. Harmonogramy współczynników na ogół generują wysokie wskaźniki odpowiedzi, ponieważ szybkość wzmocnienia zależy całkowicie od szybkości odpowiedzi. Jednak Schematy proporcji wymagające dużej liczby odpowiedzi dla każdego wzmacniacza mogą indukować szczep w postaci wydłużonych okresów braku odpowiedzi.

te proste harmonogramy zbrojenia można łączyć w bardziej złożone harmonogramy. Jeden harmonogram może produkować jeszcze inny harmonogram przed podaniem wzmacniacza, harmonogram łańcucha lub dwa harmonogramy mogą regularnie naprzemiennie na jednym operandum, wiele harmonogramu. W tych harmonogramów, charakterystyczne bodźce sygnał, który konkretny harmonogram jest obecnie w życie. W harmonogramie mieszanym harmonogramy komponentów są naprzemienne, ale nie są sygnalizowane zewnętrznym sygnałem.

w równoległych harmonogramach, dwa (lub więcej) harmonogramy działają jednocześnie i podmiot może wybrać między nimi. Harmonogramy te mogą być ułożone na oddzielnych operandach lub na jednym operandum. W tej ostatniej procedurze podmiot może wybierać pomiędzy harmonogramami, wykonując odpowiedź przełączającą na inny operandum. Stwierdzono, że zwierzęta rozkładają czas spędzony na reagowaniu na każdy harmonogram proporcjonalnie do szybkości wzmocnienia uzyskanego z każdego. Ta relacja jest znana jako prawo dopasowania. Rodzaj harmonogramu, wielkość zbrojenia i rodzaj zbrojenia są również ważnymi wyznacznikami wyboru. Na przykład badania samokontroli wykazały, że zwierzęta są „impulsywne”; wybierają małe, natychmiastowe wzmacniacze zamiast opóźnionych, ale znacznie większych wzmacniaczy.

Kontrola bodźców

bodźce dyskryminacyjne mogą sygnalizować skuteczny harmonogram wzmocnienia. W przypadku szczurów mogą to być różne tony lub obecność lub brak „światła domowego” w komorze. W przypadku gołębi na klawiszu odpowiedzi mogą być wyświetlane różne kolory lub wzory. Małpy są często przedstawiane ze złożonymi wzorami wizualnymi. Bodźce rozróżniające kontrolują szybkość reakcji. Na przykład, gołąb reaguje w tym samym tempie na Klawisz podświetlony na czerwono lub zielono, jeśli oba kolory sygnalizują harmonogram zmienny interwał (VI). Jeśli jednak schemat VI podczas komponentu zielonego światła zostanie usunięty, szybkość reakcji na ten negatywny bodziec gwałtownie spada. Wskaźnik odpowiedzi na czerwone światło, pozytywny bodziec, faktycznie wzrośnie w stosunku do poprzedniego poziomu, zjawisko zwane kontrastem behawioralnym. Nowe bodźce z tego samego wymiaru bodźców można przedstawić w teście uogólniającym. Na przykład, jeśli bodźce dyskryminacyjne używane w treningu są dwoma tonami, szczur może być testowany z zakresem częstotliwości tonalnych. Łatwo uzyskuje się gradienty uogólnienia (lub dyskryminacji); to znaczy, że ilość odpowiedzi na każdy nowy bodziec jest uporządkowaną funkcją jego podobieństwa do pozytywnego bodźca treningowego.

jeśli bodźce są bardziej złożone, takie jak obrazy, daje to możliwość studiowania osiągania koncepcji, gdy bodźce należą do różnych klas. Gołębie, na przykład, łatwo uczą się rozróżniać między zdjęciami zawierającymi obrazy jednej lub więcej osób a zdjęciami bez osoby.

Kontrola bodźców jest również badana przy użyciu procedur wyboru dyskretetrialnego. Bodziec jest prezentowany jako próbka, a następnie zwierzę musi wybrać, która z dwóch alternatyw odpowiedzi jest właściwa dla tego konkretnego bodźca. Poprawne wybory są wzmocnione. Takie metody są analogiczne do eksperymentów z wykrywaniem sygnałów na ludziach i dostarczyły precyzyjnych pomiarów percepcji zwierząt. Jeśli między bodźcem próbki a wyborem wystąpi opóźnienie, można zbadać pamięć krótkotrwałą lub pamięć roboczą zwierząt. Ogólnie rzecz biorąc, dokładność wyboru zmniejsza się znacznie z opóźnieniami nawet o kilka sekund.

Kontrola bodźcami Awersyjnymi

dodatni wzmacniacz to zwykle bodźce apetytywne. Bodźce awersyjne, takie jak porażenie prądem lub głośny hałas, są również skuteczne w kontroli zachowania. Jeśli bodźce awersyjne są konsekwencjami reakcji, są one karalne i zmniejszają szybkość reakcji, która jest utrzymywana przez pozytywne wzmocnienie. Zwierzęta są bardzo wrażliwe zarówno na siłę, jak i częstotliwość karzących. Bodźce awersyjne są również wykorzystywane w badaniu ucieczki i unikania. Ten ostatni jest najczęściej badany w sytuacji swobodnej. Podmiot, najczęściej szczur, poddawany jest krótkim, przerywanym wstrząsom. Emitując wymaganą odpowiedź, taką jak naciśnięcie paska lub przekroczenie przeszkody, tester może opóźnić lub anulować wstrząs. Ta procedura generuje spójne wskaźniki unikania zachowań u szczurów, małp i innych organizmów, zwłaszcza gdy każda odpowiedź gwarantuje odstęp bez wstrząsów.

podsumowanie

Metodologia operacyjna wykazała, że zachowanie zwierząt jest uporządkowaną funkcją jego poprzedzających (bodźców dyskryminacyjnych) i jego konsekwencji (wzmocnienia i karania). Umożliwiło również eksperymentatorom zbadanie różnych obszarów percepcji, poznania i wyboru zwierząt. Ponadto zasady zachowania operanta mają zastosowanie do ludzi. Techniki operanta zostały wykorzystane w osobistej instrukcji i w leczeniu dysfunkcyjnych zachowań ludzkich.

Zobacz też: CONDITIONING, CLASSICAL AND INSTRUMENTAL; DISCRIMINATION AND generalisation; REINFORCEMENT

Bibliografia

Catania, A. C. (1979). Nauka. Englewood Cliffs, NJ: Prentice-Hall.

Domjan, M. P., and Burkhard, B. (1985). Zasady uczenia się i zachowania.wydanie II. Brooks/Cole.

Flaherty, C. F. (1985). Uczenie się i poznawanie zwierząt. Knopf.

Schwartz, B., and Reisberg, D. (1991). Uczenie się i pamięć. New York: Norton.

Zachowania organizmów. Appleton-Century.

W. K. Honig

BrentAlsop



+