Psicologia e Comportamento Animal

Marsyas Encantando as Lebres” por Elihu Vedder (1836-1923)

As bases da psicologia comportamental foram descobertas graças aos experimentos de Edward Thorndike, um dos mais influentes pesquisadores do comportamento animal. Quando ainda era estudante de graduação, Thorndike desenvolveu um conjunto de “caixas quebra-cabeça” para observar como os animais aprendiam a fugir do confinamento.

A Caixa de Thorndike

Uma caixa de madeira com travas e alavancas que deveriam ser acionadas para abrir a porta e deixar o gato sair, essa era uma das caixas mais famosas elaborada por Thorndike para estudar o comportamento animal. Apesar de ter testado vários animais, incluindo cães, passarinhos e galinhas, o seu experimento mais famoso foi realizado com gatos. Ao ser colocado pela primeira vez na caixa, o gato mostrava sinais evidentes de desconforto e um impulso para escapar, tentando se espremer através de qualquer abertura, mordendo as barras e os fios. Depois de um algum tempo, geralmente dez minutos, o animal acabava acidentalmente puxando o fio e baixando a alavanca que abria a porta. Ao fazer isso, o gato conseguia sair e encontrava um prato repleto de comida a sua espera.

Ao analisar os dados de centenas de experimentos, Thorndike descobriu que as ações mal sucedidas eram esquecidas, enquanto que o comportamento particular que levou o gato a abrir a caixa continuava a ser lembrado. Assim, Thorndike supôs que a aprendizagem acontecia em resposta às recompensas que o gato recebia por ter executado um ato específico, neste caso, acionar uma alavanca, ou puxar um fio, e abrir a porta. O gato que já havia conseguido sair da caixa de uma caixa ao ser recolocado na mesma caixa, imediatamente agarrava o fio e baixava a alavanca, abrindo a porta de saída.

Thorndike observou que não havia uma “inteligência prévia” que fazia com que o gato analisasse o problema e chegasse a uma conclusão. Ao contrário, o gato fazia de tudo para escapar e quando “algo dava certo”, ele se lembrava desse comportamento específico. O pesquisador comprovou isso ao colocar gatos que já haviam saído de uma caixa, que para abrí-la era necessário puxar um fio, em caixas diferentes, onde o gato deveria acionar uma alavanca. A aprendizagem acontecia de modo seqüencial, o gato que já havia aprendido a sair de uma caixa acionada por fios e de outra por alavancas, conseguia sair rapidamente de uma terceira caixa que tivesse os mesmos mecanismos, mas não de uma com um dispositivo diferente.

A inteligência animal representava a capacidade de um animal associar um determinado comportamento a uma resposta específica.

A Lei do Efeito

As conclusões de dezenas de horas de observação analisando o comportamento dos animais indicavam que um determinado ato, seguido de resultados positivos, imprime na memória do animal a lembrança desse ato específico, enquanto que um ato que não resultou em nada é esquecido. A essa descoberta de Thorndike passou a ser chamada de Lei do Efeito.

Anos mais tarde o psicólogo americano Skinner aprimorou as descobertas de Thornidike, estudando detalhadamente os efeitos da freqüência de reforços e das punições sobre o comportamento dos animais. Ele também desenvolveu uma caixa experimental, mas diferente da Caixa de Thorndike que colocava os gatos em uma caixa quebra-cabeças, a Caixa de Skinner não tinha essa função.

A Caixa de Skinner

Introduzir estímulos logo após um determinado comportamento, para observar como os animais aprendiam a associar esses estímulos com o que haviam feito, essa era um dos principais objetivos da Caixa de Skinner.

A Caixa de Skinner era pequena o suficiente para abrigar o animal a ser testado, continha um vidro transparente na frente, uma barra do lado direito, um local para o fornecimento de comida, uma luz e um alto-falante que poderiam ser acionados, sem falar na grade do chão que também poderia emitir pequenos choques elétricos ao comando do experimentador.

Skinner partiu de onde Thorndike havia parado, dando assim, um passo adiante na compreensão científica do comportamento animal. Diferente de Thorndike que preferia gatos, Skinner usava predominantemente ratos e pombos, como sujeitos experimentais.

Ao ser colocado pela primeira vez na caixa, tudo que o animal fizesse nos primeiros dez minutos era anotado. Esses comportamentos iniciais serviam para saber o que os animais faziam instintivamente, antes dos condicionamentos, e eram chamados de Nível Operante.

Nos minutos seguintes, Skinner escolhia um comportamento qualquer para testar. Digamos que nos primeiros dez minutos o rato tivesse ficado de pé sobre duas patas por três vezes e tocado duas vezes na barra lateral. Então, Skinner escolhia o comportamento de “tocar na barra lateral” para ser condicionado. Para fazer isso, ele aguardava que o rato se aproximasse da barra e, então, o pesquisador apertava um botão que liberava comida. O que Thorndike já havia descoberto era que aquilo que o animal fizesse, logo antes de ser recompensado, seria lembrado, e sua descoberta estava certa! Assim, o rato repetia a aproximação da barra e, novamente, ganhava mais um pouco de comida.

Skinner descobriu que poderia “modelar” o comportamento do animal, ou seja, se seu objetivo final era que o rato pressionasse a barra lateral, ele poderia liberar comida quando o rato, primeiro, olhasse pra barra, depois, quando se aproximasse da barra, quando a tocasse, e, finalmente, quando ele pressionasse a barra. Em poucos minutos o comportamento que antes do condicionamento era emitido duas vezes em dez minutos, passava para oitenta ou mais vezes no mesmo intervalo de tempo.

Para evitar a confusão com a linguagem popular, Skinner criou uma linguagem própria para explicar cada detalhe de suas descobertas. Alguns dos termos principais vamos ver a seguir:

Dicionário Comportamental

Reforçador do Comportamento: estímulo que, apresentado após um determinado comportamento, aumenta a freqüência desse comportamento acontecer novamente. Neste caso, comida e água seriam os reforçadores primários, no entanto, ambos só seriam fortes reforçadores caso o animal estivesse previamente com fome ou com sede.

Reforço Positivo: estímulo que quando apresentado, após um determinado comportamento, aumenta a probabilidade desse comportamento se repetir. A comida que é apresentada após a pressão à barra , na caixa de Skinner, funciona como reforço positivo para o comportamento de pressionar a barra, aumentando a sua frequência.

Reforço Negativo: estímulo que quando removido, após um determinado comportamento, aumenta a freqüência desse comportamento. Imagine o seguinte, o rato está em uma situação em que toda vez que um beep é emitido, ele receberá um choque elétrico um segundo após o beep. Desesperado para escapar do choque, ele tenta fugir do local de várias maneiras, até que, num determinado momento, ele abaixa a barra lateral, logo após ouvir o beep, e o choque não acontece. Neste caso, pressionar a barra se torna um reforçador negativo, pois removeu o choque que iria acontecer em seguida.

Outras situações do dia-a-dia em que o comportamento é reforçado negativamente: quando uma pessoa fecha a porta da sala para evitar o barulho que vem de fora; quando pára o carro no sinal vermelho para evitar uma colisão; quando usa óculos escuros para diminuir a claridade excessiva do sol; ao desligar a chave-geral antes de mexer na tomada, removendo o risco de se levar um choque. Todos são exemplos de comportamentos reforçados negativamente.

Estímulo Aversivo: é algo que provoca dor, ou algum tipo de sofrimento.

Punição: é a apresentação de um estímulo aversivo, após um determinado comportamento. A criança que conversa durante a aula é punida pelo professor que a manda para a sala da direção. A punição é o uso intencional de estímulos aversivos, visando inibir determinados comportamentos. Mas ela tem um preço alto, pois compremete a relação entre punidor e punido, por isso deve ser evitada como método educativo.

Privação: para que um determinado estímulo se torne reforçador do comportamento, o organismo deve estar com necessidade de obter esse estímulo. A comida deixa de ser um reforçador quando o animal acabou de comer. A necessidade de se obter um determinado estímulo irá implicar no potencial desse estímulo se tornar um forte ou fraco reforçador do comportamento. Para que o alimento se torne um forte reforçador, os animais têm que passar por um período de privação de alimentos, ou seja, eles ficam várias horas em jejum, antes do experimento começar o treinamento.

Motivação: é uma estratégia que visa evitar sofrimento ou gerar prazer.

Esquemas de Reforçamento

Skinner criou o termo “comportamento operante” para explicar que o que mantém um comportamento são as suas conseqüências, a exemplo de como os gatos de Thorndike que aprendiam a sair da caixa. Se um comportamento é imediatamente seguido por conseqüências prazerosas, o comportamento tende a ser repetido, mas se é seguido de conseqüências desprazerosas, ele tende a ser extinto. Restava saber até que ponto um comportamento seria lembrado ou esquecido. Os esquemas vieram responder justamente isso.

Os Padrões do Reforço Determinam a “Força da Aprendizagem”

Sabemos que oferecer comida a um animal com fome, logo após ele emitir algum comportamento, aumentará a probabilidade desse comportamento se repetir. Mas o que aconteceria se parássemos de reforçar o comportamento de um rato condicionado, ou seja, de um animal que aprendeu que deve baixar a barra lateral da caixa para receber comida?

Skinner também teve esta mesma dúvida e foi buscar a resposta experimentalmente. Ele escolheu vários animais que já haviam sido condicionados a receber comida após pressionar a barra, e o que ele descobriu foi o seguinte:

Reforço Contínuo: se um animal tivesse sido condicionado a receber comida continuamente, digamos após cada pressão à barra, ao parar de oferecer comida, em pouco tempo, o comportamento de pressionar a barra seria extinto. Isso significava que após algumas sessões de dez minutos, o comportamento de pressionar a barra do animal voltaria ao mesmo percentual de antes do condicionamento, ou seja, ao nível operante. Acontecendo eventuais duas ou três pressões em um intervalo de dez minutos.

Reforçamento Intermitente: no entanto, se o reforço da pressão à barra fosse mantido de forma intermitente, ou seja, a cada duas ou três pressões o rato recebesse a comida, então, neste caso, a extinção do comportamento seria mais difícil e demorada do que no reforço contínuo.

Reforço Aleatório: no caso do animal ser reforçado aleatoriamente, digamos que ele tem que pressionar a barra uma vez para receber comida, depois quatro vezes, em seguida duas vezes, cinco, quatro, seis, etc., e assim por diante, então, a extinção do comportamento se torna uma tarefa quase impossível. Animais que haviam sido condicionados por reforçamento aleatório tinham uma incrível resistência à extinção, mesmo após dez sessões de treinamentos sem receberem reforço positivo, seus comportamentos ainda continuava superior ao do nível operante.

Skinner acreditava que o reforço aleatório provocava o que ele chamou de “comportamento supersticioso”, algo muito difícil de ser extinto, tal fato podia explicar porque pessoas viciadas em jogos de azar estão muito propensas a perderem tudo antes de parar de jogar.

Os Esquemas de Reforçamento e suas Consequências no Cotidiano

A máquina de refrigerantes: exemplo de reforçamento contínuo, você coloca a moeda e a lata deve cair, caso isso não aconteça, geralmente se busca outra máquina, ou se tenta chutá-la até liberar o seu refrigerante. A extinção do comportameno de colocar moedas é rapidamente extinto, pois trata-se de reforço contínuo.

Apertar o botão para chamar o elevador: aqui temos um exemplo de reforçamente com um intervalo de tempo. Passados alguns minutos o elevador não chegar, a pessoa desce pelas escadas. A extinção neste caso é um pouco mais resistente do que no exemplo anterior.

Perdir esmolas nas ruas: esté é um comportamento reforçado aleatoriamente, o que significa que é altamente resistente à extinção. Mesmo que você não dê esmolas, outra pessoa vai dar, e isso vai tornar o comportamento de “pedir esmolas” mais resistente do que se todas as pessoas dessem esmolas continuamente. Esse é um exemplo de comportamento que rapidamente pode se tornar um vício e causar dependência psicológica. O mesmo esquema é usado nos jogos de azar, mas com um agravante: as máquinas caças-níqueis, além de reforçarem o comportamento de forma aleatória, também usam o artifício de aumentar o prêmio a cada tentativa, elevando a expectativa psicológica de receber uma grande recompensa.

FONTE: Comportamento.Net 

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

%d blogueiros gostam disto: