Antes que os mecanismos de busca se tornassem comuns, o modelo mais comum de acesso e recuperação de informações era aquele em que bibliotecários e especialistas em assuntos ou pesquisas forneciam informações relevantes. Esse modelo era interativo, personalizado, transparente e autoritário. Embora inserir algumas palavras-chave e receber uma lista de resultados classificados por alguma função desconhecida não seja o ideal, os mecanismos de pesquisa ainda são o principal método pelo qual a maioria das pessoas acessa informações hoje.
O modo de entrada e saída do mecanismo de pesquisa convencional está sendo interrompido por uma nova geração de sistemas de acesso à informação baseados em inteligência artificial, como Bing/ChatGPT da Microsoft, Google/Bard e Meta/LLaMA. As respostas em linguagem natural podem ser personalizadas usando esses sistemas, que podem receber frases completas e até parágrafos como entrada.
À primeira vista, isso pode parecer o melhor dos dois mundos: respostas pessoais e individualizadas combinadas com a vasta base de conhecimento da Internet. No entanto, como pesquisador de sistemas de busca e recomendação, acredito que o quadro seja, na melhor das hipóteses, misto.
Grandes modelos de linguagem servem como base para sistemas de IA como Bard e ChatGPT. Um modelo de linguagem é um procedimento de IA que utiliza um enorme grupo de textos acessíveis, por exemplo, artigos da Wikipedia e do PubMed, para aprender designs. Em termos simples, esses modelos determinam, dado um conjunto de palavras ou uma frase, a próxima palavra provável. Eles podem fazer isso criando frases, parágrafos e até páginas que respondam à pergunta do usuário. A OpenAI e a Microsoft anunciaram em 14 de março de 2023 que seu Bing de conversação é baseado em GPT-4, a próxima geração da tecnologia que suporta entrada de texto e imagem.
Esse tipo de método de recuperação de informações funciona muito bem graças ao treinamento em muito texto, ajuste fino e outras técnicas baseadas em aprendizado de máquina. Grandes sistemas baseados em modelo de linguagem respondem a consultas de informações de maneira personalizada. O ChatGPT alcançou 100 milhões de usuários em um terço do tempo que o TikTok levou para atingir esse número devido à admiração das pessoas pelos resultados. Ele tem sido usado para gerar diagnósticos, desenvolver planos de dieta e fazer recomendações de investimentos, além de encontrar respostas.
No entanto, existem inúmeras desvantagens. Primeiro, considere o mecanismo que conecta as palavras e, presumivelmente, seus significados, que está no cerne de um grande modelo de linguagem. Isso resulta em uma saída que frequentemente se assemelha a uma resposta inteligente, mas é conhecido por grandes sistemas de modelo de linguagem produzirem declarações que são quase idênticas umas às outras sem qualquer compreensão real. Portanto, apesar do fato de que a saída produzida por tais sistemas possa parecer inteligente, é apenas um reflexo dos padrões subjacentes de palavras que a IA descobriu em um ambiente apropriado.
Grandes sistemas de modelo de linguagem são mais propensos a “alucinar” respostas por causa dessa limitação. Além disso, os sistemas são incapazes de reconhecer a premissa incorreta de uma pergunta e fornecer respostas incorretas. Por exemplo, o ChatGPT responde a Benjamin Franklin quando questionado sobre qual rosto do presidente dos EUA está na nota de $ 100 sem perceber que Franklin nunca foi presidente e que a afirmação de que a nota de US$ 100 tem a foto de um presidente dos EUA é falsa.
A questão é que, de qualquer forma, quando esses frameworks estão fora da base apenas 10% do tempo, você não sabe quais 10%. Além disso, as pessoas não conseguem validar rapidamente as respostas fornecidas pelos sistemas. Isso se deve ao fato de que esses sistemas carecem de transparência – eles não divulgam os dados sobre os quais foram treinados, as fontes que usaram para gerar respostas ou o processo pelo qual essas respostas são geradas.
Você poderia, por exemplo, contratar o ChatGPT para escrever um relatório técnico que inclua citações. No entanto, frequentemente compõe essas citações, “alucinando” não apenas os autores, mas também os títulos dos trabalhos acadêmicos. Além disso, os sistemas não validam a exatidão de suas respostas. Isso deixa o usuário para validar as respostas da IA, e os usuários podem não ter motivação, habilidades ou mesmo consciência da necessidade de fazê-lo. Por não possuir fatos, o ChatGPT não sabe quando uma pergunta não faz sentido.
Como os sistemas não revelam suas fontes ou fornecem atribuição suficiente, a falta de transparência não é injusta apenas para os autores, artistas e criadores do conteúdo original com o qual os sistemas aprenderam. Na maioria das vezes, os criadores não são creditados, compensados ou têm a chance de dar seu consentimento.
Isso também tem um componente econômico. Os links para as fontes são exibidos ao lado dos resultados em um ambiente típico de mecanismo de pesquisa. Isso não apenas permite que o usuário verifique as respostas e dê crédito a essas fontes, mas também direciona o tráfego para esses sites. Esse tráfego gera receita para muitas dessas fontes. Acredito que esses sites provavelmente verão seus fluxos de receita diminuir como resultado dos grandes sistemas de modelo de linguagem produzindo respostas diretas, mas não as fontes de onde foram extraídas.
Por último, mas não menos importante, este novo método de acesso à informação tem o potencial de desmoralizar os indivíduos e impedi-los de aprender. Os usuários podem explorar uma variedade de opções para suas necessidades de informação durante um processo de pesquisa típico, frequentemente solicitando que modifiquem seus critérios de pesquisa. Além disso, dá a eles a chance de descobrir o que está disponível e como várias informações funcionam juntas para concluir suas tarefas. Além disso, facilita a serendipidade e encontros acidentais.
Esses são aspectos cruciais da pesquisa, mas um sistema que produz resultados sem exibir suas fontes ou direcionar o usuário através de um processo nega ao usuário essas oportunidades.
Modelos de linguagem grandes representam um avanço significativo na acessibilidade de informações porque permitem interações baseadas em linguagem natural, respostas personalizadas e a descoberta de respostas e padrões que normalmente são difíceis de serem identificados pelo usuário comum. No entanto, devido à forma como aprendem e constroem respostas, eles são severamente restringidos. Suas respostas podem ser incorretas, negativas ou tendenciosas.
Os sistemas de IA de modelo de linguagem grande também carecem de transparência, apesar do fato de que esses problemas também podem ocorrer em outros sistemas de acesso à informação. Pior ainda, para usuários que não estão bem informados, suas respostas em linguagem natural podem contribuir para a criação de um falso senso de autoridade e confiabilidade.