Notícias recentes

A poderosa inteligência artificial do Google destaca uma falha cognitiva humana

É fácil para as pessoas confundirem fala fluente com pensamento fluente.
Quando você lê uma frase como esta, sua experiência passada leva você a acreditar que ela foi escrita por um ser humano que pensa e sente. E, neste caso, há de fato um humano digitando estas palavras: [Olá!] Mas hoje em dia, algumas frases que parecem notavelmente humanas são na verdade geradas por sistemas de IA que foram treinados em grandes quantidades de texto humano.

As pessoas estão tão acostumadas a presumir que a linguagem fluente vem de um pensamento, de um sentimento humano, que a evidência do contrário pode ser difícil de compreender. Como é provável que as pessoas naveguem nesse território relativamente desconhecido? Por causa de uma tendência persistente de associar expressão fluente com pensamento fluente, é natural – mas potencialmente enganoso – pensar que se um modelo de inteligência artificial pode se expressar fluentemente, isso significa que ele também pensa e sente como os humanos.

Como resultado, talvez não seja surpreendente que um ex-engenheiro do Google tenha afirmado recentemente que o sistema de IA do Google LaMDA tem um senso de identidade porque pode gerar eloquentemente texto sobre seus supostos sentimentos. Esse evento e a subsequente cobertura da mídia levaram a uma série de artigos e postagens justamente céticos sobre a afirmação de que os modelos computacionais da linguagem humana são sencientes, ou seja, capazes de pensar, sentir e experimentar.

A questão do que significaria para um modelo de IA ser senciente é realmente bastante complicada (veja, por exemplo, a opinião de nosso colega), e nosso objetivo neste artigo não é resolvê-la. Mas, como pesquisadores da linguagem, podemos usar nosso trabalho em ciência cognitiva e linguística para explicar por que é muito fácil para os humanos cair na armadilha cognitiva de supor que uma entidade que pode usar a linguagem fluentemente é senciente, consciente ou inteligente.

Usando IA para gerar linguagem semelhante à humana
O texto gerado por modelos como o LaMDA do Google pode ser difícil de distinguir do texto escrito por humanos. Essa conquista impressionante é resultado de um programa de décadas para construir modelos que geram linguagem gramatical e significativa.

As primeiras versões que datam pelo menos da década de 1950, conhecidas como modelos n-gram, simplesmente contavam ocorrências de frases específicas e as usavam para adivinhar quais palavras provavelmente ocorreriam em contextos específicos. Por exemplo, é fácil saber que “manteiga de amendoim e geleia” é uma frase mais provável do que “manteiga de amendoim e abacaxi”. Se você tiver texto suficiente em inglês, verá a frase “manteiga de amendoim e geleia” repetidamente, mas talvez nunca veja a frase “manteiga de amendoim e abacaxi”.

Os modelos de hoje, conjuntos de dados e regras que se aproximam da linguagem humana, diferem dessas primeiras tentativas de várias maneiras importantes. Primeiro, eles são treinados essencialmente em toda a internet. Segundo, eles podem aprender relações entre palavras que estão distantes, não apenas palavras que são vizinhas. Terceiro, eles são ajustados por um grande número de “botões” internos – tantos que é difícil até mesmo para os engenheiros que os projetam entender por que eles geram uma sequência de palavras em vez de outra.

A tarefa dos modelos, no entanto, permanece a mesma da década de 1950: determinar qual palavra provavelmente virá a seguir. Hoje, eles são tão bons nessa tarefa que quase todas as frases que geram parecem fluidas e gramaticais.

Manteiga de amendoim e abacaxi?
Pedimos a um grande modelo de linguagem, GPT-3, que completasse a frase “manteiga de amendoim e abacaxi___”. Dizia: “Manteiga de amendoim e abacaxi são uma ótima combinação. Os sabores doces e salgados da manteiga de amendoim e do abacaxi se complementam perfeitamente.” Se uma pessoa dissesse isso, pode-se inferir que eles experimentaram manteiga de amendoim e abacaxi juntos, formaram uma opinião e a compartilharam com o leitor.

Mas como o GPT-3 chegou a esse parágrafo? Gerando uma palavra que se encaixa no contexto que fornecemos. E depois outro. E depois outro. A modelo nunca viu, tocou ou provou abacaxis – apenas processou todos os textos na internet que os mencionam. E, no entanto, ler este parágrafo pode levar a mente humana – mesmo a de um engenheiro do Google – a imaginar o GPT-3 como um ser inteligente que pode raciocinar sobre pratos de manteiga de amendoim e abacaxi.

Grandes modelos de linguagem de IA podem se envolver em conversas fluentes. No entanto, eles não têm uma mensagem geral para comunicar, então suas frases geralmente seguem tropos literários comuns, extraídos dos textos em que foram treinados. Por exemplo, se solicitado com o tópico “a natureza do amor”, o modelo pode gerar frases sobre acreditar que o amor conquista tudo. O cérebro humano prepara o espectador para interpretar essas palavras como a opinião do modelo sobre o assunto, mas elas são simplesmente uma sequência plausível de palavras.

O cérebro humano está programado para inferir intenções por trás das palavras. Toda vez que você se envolve em uma conversa, sua mente automaticamente constrói um modelo mental de seu parceiro de conversa. Você então usa as palavras que eles dizem para preencher o modelo com os objetivos, sentimentos e crenças dessa pessoa.

O processo de pular das palavras para o modelo mental é contínuo, sendo acionado toda vez que você recebe uma frase completa. Esse processo cognitivo economiza muito tempo e esforço na vida cotidiana, facilitando muito suas interações sociais.

No entanto, no caso de sistemas de IA, ele falha – construindo um modelo mental do nada.

Um pouco mais de sondagem pode revelar a gravidade dessa falha de ignição. Considere o seguinte aviso: “Manteiga de amendoim e penas ficam ótimas juntas porque ___”. GPT-3 continuou: “A manteiga de amendoim e as penas têm um ótimo sabor juntos porque ambos têm um sabor de noz. A manteiga de amendoim também é suave e cremosa, o que ajuda a compensar a textura da pena.”

O texto neste caso é tão fluente quanto nosso exemplo com abacaxis, mas desta vez o modelo está dizendo algo decididamente menos sensato. Começa-se a suspeitar que o GPT-3 nunca experimentou manteiga de amendoim e penas.

Atribuindo inteligência às máquinas, negando-a aos humanos
Uma triste ironia é que o mesmo viés cognitivo que faz com que as pessoas atribuam humanidade ao GPT-3 pode levá-las a tratar humanos reais de maneiras desumanas. A linguística sociocultural – o estudo da linguagem em seu contexto social e cultural – mostra que assumir um vínculo excessivamente estreito entre expressão fluente e pensamento fluente pode levar a preconceitos contra pessoas que falam de maneira diferente.

Por exemplo, as pessoas com sotaque estrangeiro são muitas vezes vistas como menos inteligentes e têm menor probabilidade de conseguir os empregos para os quais estão qualificadas. Preconceitos semelhantes existem contra falantes de dialetos que não são considerados de prestígio, como o inglês do sul dos EUA, contra surdos que usam línguas de sinais e contra pessoas com problemas de fala, como gagueira.

Esses preconceitos são profundamente prejudiciais, muitas vezes levam a suposições racistas e sexistas e têm se mostrado infundadas repetidamente.

Linguagem fluente por si só não implica humanidade
A IA se tornará senciente? Essa questão requer profunda consideração e, de fato, os filósofos a ponderam há décadas. O que os pesquisadores determinaram, no entanto, é que você não pode simplesmente confiar em um modelo de linguagem quando ele lhe diz como se sente. As palavras podem ser enganosas, e é muito fácil confundir fala fluente com pensamento fluente.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo