Por que os humanos são tão suscetíveis a serem enganados pela IA? A ciência explica
Contamos aqui como a Inteligência Artificial (IA) funciona para enganar nossas mentes e quais os mecanismos psicológicos que entram em ação.
Imaginemos que um dia, durante uma videoconferência de trabalho, seu chefe lhe pede para transferir uma grande quantia em dinheiro para um novo parceiro. Embora esse pedido pareça estranho, você confia na imagem e no tom familiar que está vendo e ouvindo na tela. Mais tarde, você descobre a verdade: seu chefe nunca esteve lá. A figura era apenas uma imitação perfeita gerada pela Inteligência Artificial (IA).
Este caso, longe de ser ficção, aconteceu realmente em Hong Kong e levantou alarmes sobre o impacto destas tecnologias na nossa capacidade de distinguir entre o que é real e o que é artificial. Mas, além dos riscos, a situação levanta uma questão interessante: o que torna os humanos tão propensos a acreditar que estamos falando com uma pessoa quando, na realidade, estamos interagindo com um programa? Veja o que diz a ciência.
Por que nos enganam tão facilmente?
A sensação de conversar com uma pessoa quando interagimos com um chatbot não é coincidência. É o resultado de uma engenharia sofisticada projetada para imitar nossa linguagem e comportamento. Programas como o ChatGPT treinam com uma grande quantidade de texto, permitindo aprender padrões e estilos de conversação.
Mas há alguma psicologia aqui também. Os humanos têm uma tendência natural de atribuir características humanas a objetos e entidades não humanas, como uma floresta ou animais, por exemplo. Isso é conhecido como efeito antropomórfico. Vendo que um chatbot consegue manter uma conversa coerente e fluida, é fácil acreditar que por trás dele existe uma mente pensante, que também tem intenção e emoções.
A pergunta agora é: por que acreditamos que estas máquinas pensam, sentem e compreendem?
Linguagem e pensamento
Um artigo científico recente do Laboratório de Linguagem da Universidade da Austrália Ocidental aponta que os humanos aumentam o efeito antropomórfico porque estamos confundindo dois conceitos fundamentais: linguagem e pensamento.
Saber usar a linguagem (falar ou escrever) não significa necessariamente ter pensamentos complexos. A IA é muito boa no primeiro, mas não no segundo. O que eles fazem é simular padrões linguísticos baseados em regras e estatísticas, e podem gerar frases gramaticalmente corretas e usar um amplo vocabulário. No entanto, eles são incapazes de usar a linguagem de forma adequada em diferentes contextos sociais e culturais.
Uma pessoa diz: "Estou enlouquecendo com minha apresentação de amanhã".
A resposta humana seria: "Não se preocupe! Quer que eu ajude você a revisar?".
A resposta do chatbot: "O estresse ativa a resposta de luta ou fuga do corpo, aumentando a frequência cardíaca e os níveis de cortisol".
Embora a resposta do chatbot acima seja correta do ponto de vista biológico, ela não responde à necessidade emocional de apoio do seu interlocutor. Isto mostra que, embora os sistemas generativos possam produzir expressões linguísticas coerentes semelhantes às que qualquer pessoa usaria, ainda estamos longe de criar máquinas que possam pensar como os humanos.
Regras de conversação que nos atraem
Outra chave para entender por que os chatbots parecem tão humanos está na sua capacidade de imitar rotinas de conversação. Estas rotinas, que variam entre culturas, nos são familiares e são regidas por princípios universais descritos pelo filósofo da linguagem Paul Grice em 1975:
- Qualidade: ser verdadeiro e não dar informações falsas ou infundadas.
- Quantidade: fornecer a quantidade certa de informações, nem mais, nem menos.
- Relevância: fornecer dados relacionados ao tema da conversa.
- Estilo: ser claro, conciso e evitar a ambiguidade.
Assumimos que toda comunicação significativa segue certas regras e que quem interage conosco também as respeita.
Os chatbots se destacam pela quantidade e relevância, oferecendo respostas claras e bem estruturadas. Porém, seu calcanhar de Aquiles tem a ver com qualidade: tendem a “alucinar”, gerando respostas que, embora convincentes, carecem de fundamento ou evidência. Paradoxalmente, esta fraqueza é compensada pela nossa própria natureza. Nossa tendência inata de buscar sentido e cooperar nas conversas, enraizada desde a infância, nos leva a aceitar e nos conectar mesmo com respostas nem sempre verdadeiras.
Referência da notícia:
The Conversation. "The unspoken rule of conversation that explains why AI chatbots feel so human". 2024.