Eu estava preocupado que nossos novos ajudantes de IA não fossem confiáveis apenas alguns dias depois que o Google e a Microsoft anunciaram que forneceriam resultados de pesquisa gerados por chatbots, que são softwares artificialmente inteligentes que podem produzir uma prosa que soa estranhamente humana. Afinal, os próprios pesquisadores de IA do Google alertaram a empresa de que os chatbots seriam “papagaios estocásticos” (prováveis de gritar coisas ofensivas, erradas ou estúpidas) e “propensos a alucinações”. Uma equipe de IA da DeepMind escreveu no ano passado em uma apresentação sobre os riscos dos LLMs que os bots, que usam grandes modelos de linguagem, “são treinados para prever a probabilidade de declarações”. No entanto, o fato de uma frase ser provável não significa necessariamente que ela seja correta.”
Em outras palavras, esses chatbots carecem de inteligência. São idiotas que mentem.
Os próprios chatbots demonstraram rapidamente o ponto. Na semana passada, um anúncio do bot do Google Bard mostrou que ele dava a resposta errada a uma pergunta; O valor das ações da empresa caiu muitos bilhões de dólares. Por outro lado, mesmo as verificações de fatos mais básicas falharam em validar as respostas fornecidas por Sydney, o bot do Bing, durante sua demonstração pública.
Parece ruim! A batalha contra o spam, o jargão otimizado para mecanismos de pesquisa e os requisitos dos anunciantes na pesquisa on-line já estava em andamento. No entanto, os mecanismos de busca cumpriram uma mitsvá social. Eles nos ajudaram a converter informações em conhecimento, trazendo ordem ao caótico espaço de dados da Internet e posicionando-se entre os dois. Agora temos fé neles.
Eles nos pegaram dessa forma também. Chatbots são máquinas inúteis projetadas para afirmar suas opiniões com certeza inquestionável e total falta de experiência. Eles são jocosamente chamados de “mansplaining as a service” pela elite tecnológica. Além disso, eles agora estarão conduzindo o principal meio pelo qual as pessoas adquirem conhecimento diariamente.
Então, por que compramos suas bobagens? Ainda vamos usar nossos novos robôs bibliotecários milhões e milhões de vezes por hora e agir com base nas respostas que eles fornecem, apesar do fato de estarmos cientes desde o início de que eles contêm falhas significativas. O que faz as pessoas confiarem em uma máquina que sabemos não ser confiável?
Para ser honesto, ninguém realmente entende por que alguém teria qualquer crença. Os principais filósofos, psicólogos e neurocientistas do mundo estão em desacordo há milênios sobre um mecanismo para explicar por que as pessoas formam crenças ou mesmo o que são crenças. Como resultado, é difícil entender como eles funcionam ou por que um é mais crível do que outro. No entanto, tenho algumas ideias sobre por que podemos cair no ardil do ChatGPT. Nós, humanos, adoramos um vigarista astuto com credenciais que parecem impressionantes. Além disso, a capacidade dos bots de nos enganar só melhorará com o tempo.
Muitas pesquisas foram feitas nas últimas décadas sobre as razões pelas quais as pessoas acreditam em informações falsas. A maior parte desse trabalho assumiu que encontraríamos principalmente ficção se passando por fato por meio de mídia social ou propaganda. No entanto, isso está prestes a mudar. Nossos mecanismos de busca agora serão contaminados com informações falsas. Além disso, uma postagem no Facebook é significativamente menos confiável do que uma resposta pesquisada no Google a uma pergunta.
Agora, nem toda crença é firmemente sustentada ou mesmo apoiada por evidências. Portanto, é possível que as respostas dos chatbots sejam tratadas de forma semelhante às novas informações. “Aceite sua produção de maneira tendenciosa ou egoísta, como as pessoas fazem com qualquer outra fonte de informação”, diz Joe Vitriol, cientista político da Lehigh University que estuda a desinformação. Em outras palavras, assim como fazem com os resultados tradicionais do Google, as pessoas acreditarão em um chatbot se ele as informar sobre coisas que são consistentes com suas opiniões e crenças existentes. Realmente não importa se o chatbot está mentindo ou tendo alucinações.
A maneira como essas respostas são apresentadas – em parágrafos muito semelhantes ao que você está lendo agora, mas com a marca do Google – pode inclinar ainda mais a balança em favor da credulidade. Consideramos o Google um árbitro confiável, se não autoritário, por isso queremos que os resultados fornecidos sejam precisos. De acordo com Vitriol, “usuários ingênuos podem presumir que o bot tem credibilidade que falta aos atores humanos”. Eu me pergunto se as pessoas provavelmente ignorarão ou descartarão a possibilidade de que o bot, particularmente em sua forma atual, tenha os mesmos vieses e erros de raciocínio que os humanos”.
Acho que a capacidade de um chatbot de escrever prosa em vez de uma lista de links úteis se torna perigosa neste ponto. Por meio da linguagem, as pessoas transmitem socialmente crenças. Além disso, um grupo mais coeso e harmonioso é aquele em que muitos de nós temos as mesmas crenças. No entanto, esse sistema pode ser hackeado. porque as ideias que são transmitidas de forma eficaz, por meio do uso de linguagem, fraseado e tom apropriados, podem parecer mais convincentes. Apesar da ausência de uma pessoa, os bots empregam o “eu” na primeira pessoa do singular. As respostas de Bard e Sydney parecerão identificáveis o suficiente para um leitor casual, tornando-as ainda mais reais.
O fato de nos encantarmos com as explicações é mais uma possível explicação para nosso fascínio pelos chatbots. Trocar confusão por certeza é extremamente satisfatório em um nível humano fundamental. Isso nos faz sentir inteligentes e responsáveis por coisas sobre as quais não temos controle.
A questão é que realmente não sabemos por que as pessoas escolhem uma explicação em detrimento de outra. De acordo com alguns estudos, as explicações mais persuasivas são aquelas que são mais simples e aplicáveis universalmente. Outros estudos mostraram que, dada a opção, as pessoas são mais propensas a acreditar em histórias com mais detalhes. Um sociólogo da Duke University chamado Kieran Healy publicou um artigo criticando nossa propensão a complicar demais as coisas; Ele deu o título de “Fuck Nuance”.) Além disso, o fator mais importante é o contexto, de acordo com uma meta-análise de 61 artigos cobrindo cinco décadas de pesquisa. Uma explicação se torna mais crível com um pouco de narrativa nas áreas emocionais. As pessoas preferem fatos sem narrativa em assuntos menos pessoais, como políticas públicas.
Um sociólogo que ministra um curso na Universidade da Pensilvânia, Duncan Watts, afirma: “Não acredito que haja algum consenso sobre o que torna uma explicação atraente”. Lembre-se de que isso vem de um homem que ministra um curso chamado “Explicações”.
Os chatbots de IA, no entanto, parecem possuir essa qualidade única. Uma pré-impressão fascinante foi publicada por um grupo de cientistas sociais em Stanford apenas alguns dias antes do Google e da Microsoft anunciarem sua botificação iminente. Eles mostraram a milhares de pessoas artigos breves e persuasivos sobre tópicos controversos, como impostos sobre o carbono e proibições de armas de assalto. Um chatbot GPT-3 escreveu algumas versões; outros por um indivíduo Os cientistas então determinaram o quanto as opiniões das pessoas mudaram como resultado da leitura dos artigos.
Descobriu-se que as mensagens geradas por IA eram tão convincentes quanto as humanas. Mas o motivo é a parte selvagem. As pessoas que preferiram os artigos do chatbot disseram que as mensagens artesanais feitas por humanos dependiam muito de anedotas e imagens quando os pesquisadores interrogavam seus sujeitos humanos. O GPT-3 foi mais bem fundamentado e baseado em evidências. Os humanos eram mais propensos a acreditar no robô por causa da própria qualidade que o tornava menos humano. Os chatbots, como seus ancestrais “Terminator”, não sentiam simpatia, remorso ou medo. E eles nunca, nunca pararam até que os súditos humanos fossem persuadidos.
Como resultado, os chatbots irão enganar e cometer erros. Minha maior preocupação é que os usuários do Google e do Bing saibam disso e simplesmente não se importem. Uma possível explicação para a disseminação de informações falsas e desinformação é que as pessoas são simplesmente preguiçosas. Eles compram tudo que vem de uma fonte confiável. Isso é bom o suficiente se os chatbots acertarem na maioria das vezes. a menos que, por exemplo, seu voo não saia daquele aeroporto naquele momento. Ou você instalou um interruptor de luz incorretamente, o que faz com que sua casa pegue fogo.
Pedi ajuda ao sociólogo Watts com uma história sobre por que teorias da conspiração bizarras são aceitas algumas semanas atrás. Ele sugeriu que eu lesse “Explicação como Orgasmo”, um artigo escrito há 25 anos pela psicóloga Alison Gopnik, da Universidade da Califórnia em Berkeley.
Gopnik é mais conhecida por seu trabalho em psicologia do desenvolvimento infantil. Ela afirma que as crianças usam observações para testar hipóteses para criar modelos mentais do mundo – essencialmente o método científico. Gopnik, por outro lado, sugere em seu artigo sobre explicações que os humanos têm dois sistemas para entender como o mundo funciona. Um é um “sistema hmm” para ponderar por que as coisas são como são. Um “sistema aha” é o outro, e pode ser usado para criar explicações. De acordo com Gopnik, os dois sistemas cognitivos são relacionados, mas distintos, como nossos sistemas biológicos de reprodução e orgasmo. Um pode ser feito independentemente do outro. O segundo é uma recompensa por completar o primeiro e é bom.
No entanto, o sistema aha pode ser enganado. Mesmo que não haja uma explicação articulável de como, as experiências psicodélicas podem produzir a impressão de que “tudo faz sentido”. Os sonhos também podem. Por causa disso, quando você acorda às três da manhã e escreve um bilhete para si mesmo para se lembrar de um insight brilhante que teve enquanto dormia, seus rabiscos não fazem sentido na manhã seguinte.
Em outras palavras, a satisfação de ter algo que parece ser uma explicação pode sobrecarregar a parte de nossa mente que originalmente fez a pergunta. Uma resposta é mal interpretada como a resposta.
Esse não é o caso. Em um artigo intitulado “A Ética da Crença”, publicado em 1877, um filósofo chamado William Clifford argumentou que a crença deve vir de uma investigação paciente, e não simplesmente da supressão da dúvida. Ele insiste que nossas ideias são propriedade comum — uma “herança” que será transmitida às gerações futuras. “Devemos ajudar a criar o mundo no qual a posteridade viverá” é “um terrível privilégio e uma terrível responsabilidade”.
O desejo de fugir dessa responsabilidade é forte. Como Gopnik, Clifford sabia que mesmo quando eles estavam errados, as explicações faziam sentido. “Os homens desejam acreditar e têm medo de duvidar por causa do senso de poder associado ao senso de conhecimento”, argumenta Clifford. Testemunhe a luta para fornecer uma explicação para a infinidade de objetos desconhecidos abatidos sobre Saskatchewan. É preferível viver com medo do desconhecido do que acreditar em alienígenas.
Clifford fornece um impedimento para esse desejo. Em essência, sua resposta é: Satanás, hoje não. “Segundo ele, “a tradição sagrada da humanidade consiste, não em proposições ou declarações que devem ser aceitas e acreditadas com base na autoridade da tradição, mas em perguntas corretamente feitas, em concepções que nos permitem fazer novas perguntas e em métodos de responder a perguntas”.
Receberemos respostas simples dos bots. Simplesmente precisamos ter em mente que não é isso que deveríamos estar pedindo.