Comportamento do operador

na década de 1930 B. F. Skinner desenvolveu uma nova metodologia para o estudo do aprendizado e comportamento animal. Ele o chamou de comportamento operante, para refletir o fato de que o animal “operou” no ambiente para produzir uma recompensa, ou reforço. The Behavior of Organisms, published in 1938, was the principal document in which he presented his findings and his conceptual approach to the study of animal learning and behavior.

no método que Skinner desenvolveu, o animal (na maioria das vezes um rato, pombo ou macaco) emite comportamentos particulares, chamados respostas instrumentais (ou comportamentos), para ganhar um reforço. Na maioria das vezes, essas respostas envolvem um operando (anteriormente chamado de manipulandum) que é adequado para as habilidades motoras do sujeito. Ratos, macacos e outros mamíferos pressionam uma barra horizontal (ou alavanca) na câmara experimental (muitas vezes chamada de caixa de Esfolador), enquanto os pombos bicam em um disco vertical (ou chave); os peixes podem ser ensinados a nadar através de um anel. Normalmente, o reforçador segue imediatamente a resposta.

os animais aprendem a emitir respostas instrumentais particulares porque os reforçadores moldam o comportamento. Comportamentos que são seguidos por um aumento reforçado na frequência, e comportamentos que não são seguidos por uma diminuição reforçada na frequência. Por exemplo, para treinar um rato para pressionar uma alavanca, o experimentador pode primeiro reforçar o animal cada vez que ele se aproxima da alavanca. Quando o rato está se aproximando de forma confiável da alavanca, os reforçadores só são fornecidos se ele realmente tocar a alavanca. Por fim, só pressionando a alavanca é reforçada. Esta forma de comportamento ao estreitar progressivamente a gama de comportamentos que são reforçados (a classe operante) é conhecido como o método de aproximação sucessiva. Se o reforço para um comportamento é descontinuado, o comportamento vai diminuir em frequência e pode parar completamente. Este processo é conhecido como extinção.

In discrete-trial procedures, the trial ends with a single response, and the probability, latency, or force of that response is recorded as the measure of behavior. Skinner desenvolveu outro método de estudar o comportamento que ele chamou de procedimentos de operante livre. Aqui, o sujeito tem acesso ao operando por longos períodos—às vezes um julgamento prolongado, em outras ocasiões uma sessão experimental inteira—e pode responder repetidamente durante esse período. Portanto, a taxa de resposta torna-se a medida primária do comportamento. Skinner desenvolveu um método engenhoso para exibir a taxa com um registro cumulativo (ver Figura 1). Cada resposta desloca uma caneta para cima por uma pequena quantidade de papel em movimento. Isto torna a taxa de resposta imediatamente visível como a medida do comportamento. Quanto maior a taxa de resposta, maior a inclinação do registro cumulativo. No entanto, na maioria das aplicações experimentais atuais, contadores e computadores são usados para registrar e analisar a saída de resposta. Estas medidas permitem análises mais quantitativas do comportamento.

Horários de Reforço

designada instrumental resposta é seguido, pelo menos em algumas ocasiões, por um reforço como uma pelota de comida ou líquido para refresco para o rato ou macaco, cereais para o pássaro, ou o dinheiro, fichas ou “pontos” para um sujeito humano. Skinner desenhou esquemas de reforço que ofereciam recompensa apenas intermitentemente, em contraste com o reforço contínuo, onde cada resposta é reforçada. O sujeito só pode ser reforçado após a emissão de uma série de respostas, num programa de rácio, ou para uma resposta após um período de tempo, num programa de intervalos. A razão requerida pode ser constante em todas as ocasiões; este é um cronograma de razão fixa. Ou pode variar de ensaio para ensaio; este é um cronograma de relação variável.

da mesma forma, em um cronograma de intervalo o intervalo pode ser fixo ou variável. Skinner descobriu que cada um destes horários produzia registros cumulativos distintos. Por exemplo, em horários de rácio fixo, os animais frequentemente não respondem imediatamente após um reforço; isto é chamado de uma pausa pós-reforço. Em seguida, eles emitem respostas em uma “explosão” de alta taxa para obter o reforçador. Em horários de intervalo fixo, o sujeito normalmente não responde imediatamente após o reforçador, e a taxa de resposta acelera constantemente à medida que o fim do intervalo se aproxima. Os programas de intervalo variável e de rácio variável normalmente geram taxas de resposta constantes. Os esquemas da razão geralmente produzem taxas elevadas de resposta porque a taxa de reforço depende inteiramente da taxa de resposta. No entanto, os programas de rácio que exigem um grande número de respostas para cada reforço podem induzir uma tensão sexual sob a forma de longos períodos de ausência de resposta.Estes esquemas simples de reforço podem ser combinados em esquemas mais complexos. Uma programação pode produzir mais uma programação antes de um reforço ser dado, uma programação em cadeia, ou duas programações podem alternar regularmente em um operando, uma programação múltipla. Nestes horários, o sinal distintivo de estímulos que o cronograma particular está atualmente em vigor. Em uma programação mista, os horários dos componentes alternam, mas eles não são sinalizados por um cue externo.

em esquemas concomitantes, dois (ou mais) esquemas são simultaneamente em efeito e o sujeito pode escolher entre eles. Estes horários podem ser organizados em operandos separados ou em um operando. Neste último procedimento, o sujeito pode escolher entre horários executando uma resposta de comutação para um operando diferente. Verificou-se que os animais distribuem o tempo gasto a responder a cada programa proporcionalmente à taxa de reforço obtida a partir de cada um. Esta relação é conhecida como a lei de correspondência. O tipo de programação, a magnitude dos reforçadores e o tipo de reforço são também determinantes importantes da escolha. Por exemplo, estudos de auto-controle têm mostrado que os animais são “impulsivos”; eles escolhem pequenos e imediatos reforçadores sobre retardados, mas muito maiores, reforçadores.

controlo do estímulo

estímulos discriminativos podem sinalizar o programa efectivo de reforço. Para os ratos, estes podem ser tons diferentes ou a presença ou ausência de uma” luz de casa ” na câmara. Para pombos, diferentes cores ou padrões podem ser projetados na chave de resposta. Os macacos são frequentemente presenteados com padrões visuais complexos. Os estímulos discriminativos vêm para controlar as taxas de resposta. Por exemplo, um pombo responderá à mesma taxa a uma tecla acesa vermelha ou verde se ambas as cores sinalizarem um cronograma de intervalo variável (VI). No entanto, se o cronograma VI durante o componente luz verde for removido, então a taxa de resposta a este estímulo negativo diminui rapidamente. A taxa de resposta à luz vermelha, o estímulo positivo, vai realmente aumentar em relação ao seu nível anterior, um fenômeno chamado contraste comportamental. Novos estímulos da mesma dimensão de estímulo podem ser apresentados em um teste de generalização. Por exemplo, se os estímulos discriminativos utilizados na formação forem dois tons, então um rato pode ser testado com uma gama de frequências tonais. Gradientes de generalização (ou discriminação) são prontamente obtidos; ou seja, a quantidade de resposta a cada novo estímulo é uma função ordenada de sua similaridade com o estímulo de treinamento positivo.

se os estímulos são mais complexos, tais como imagens, Isso fornece uma oportunidade para o estudo da realização do conceito quando os estímulos pertencem a diferentes classes. Pombos, por exemplo, aprendem facilmente a distinguir entre imagens contendo imagens de uma ou mais pessoas e imagens sem uma pessoa.

o controlo do estímulo também é estudado utilizando procedimentos de escolha discretetrial. Um estímulo é apresentado como uma amostra, e então o animal deve escolher qual de duas alternativas de resposta é correta para esse estímulo particular. As escolhas correctas são reforçadas. Tais métodos são análogos a experiências de detecção de Sinais com indivíduos humanos e forneceram medições precisas da percepção animal. Se ocorrer um atraso entre o estímulo da amostra e a escolha, pode estudar-se a memória de curto prazo ou a memória de trabalho dos animais. Geralmente, a precisão da escolha diminui acentuadamente com atrasos de alguns segundos.

controlo com estímulos aversivos

os reforçadores positivos são normalmente estímulos apetitosos. Estímulos aversivos, como choque elétrico ou ruído alto, também são eficazes no controle do comportamento. Se estímulos aversivos são consequências para a resposta, eles são punishers, e eles reduzem a taxa de resposta, que de outra forma é mantida por reforço positivo. Os animais são muito sensíveis à força e à frequência dos punishers. Estímulos aversivos também são usados no estudo de fuga e evasão. Este último é mais frequentemente estudado numa situação de livre-operante. O sujeito, na maioria das vezes um rato, é submetido a Choques breves e intermitentes. Ao emitir uma resposta necessária, como pressão de barra ou atravessar um obstáculo, o sujeito pode adiar ou cancelar o choque. Este procedimento gera taxas consistentes de comportamento evasivo em ratos, macacos e outros organismos, especialmente quando cada resposta garante um intervalo sem choque.

resumo

metodologia operante tem mostrado que o comportamento animal é uma função ordenada de seus antecedentes (estímulos discriminativos) e suas consequências (reforço e punição). Também permitiu aos experimentadores explorar várias áreas de percepção animal, cognição e escolha. Além disso, os princípios do comportamento operante têm aplicação para os seres humanos. As técnicas operantes têm sido empregadas na instrução pessoal e no tratamento do comportamento humano disfuncional.

Ver também: condicionamento, clássico e INSTRUMENTAL; discriminação e generalização; reforço

bibliografia

Catania, A. C. (1979). Aprendizagem. Englewood Cliffs, NJ: Prentice-Hall.

Domjan, M. P., and Burkhard, B. (1985). The principles of learning and behavior, 2nd edition. San Francisco: Brooks / Cole.

Flaherty, C. F. (1985). Aprendizagem Animal e cognição. New York: Knopf.

Schwartz, B., and Reisberg, D. (1991). Aprendizagem e memória. New York: Norton.

Skinner, B. F. (1938). O comportamento dos organismos. New York: Appleton-Century.

W. K. Honig

BrentAlsop



+