20.2 C
Paraná
segunda-feira, março 24, 2025
spot_img
InícioTecnologiaO que é uma alucinação de IA?

O que é uma alucinação de IA?

spot_img

Quando alguém vê algo que não está realmente presente, essa experiência é frequentemente chamada de alucinação. As alucinações ocorrem quando a percepção sensorial não corresponde a estímulos externos. Tecnologias que dependem de inteligência artificial (IA) também podem ter alucinações.

Quando um sistema algorítmico gera informações que parecem plausíveis, mas são, na verdade, imprecisas ou enganosas, cientistas da computação chamam isso de “alucinação de IA”. Pesquisadores observaram esse comportamento em diferentes tipos de sistemas de IA, desde chatbots como o ChatGPT até geradores de imagens como o Dall-E e veículos autônomos. Somos pesquisadores em ciência da informação que estudamos alucinações em sistemas de reconhecimento de fala baseados em IA.

Onde quer que os sistemas de IA sejam usados no dia a dia, suas alucinações podem representar riscos. Alguns podem ser menores – como quando um chatbot dá uma resposta errada a uma pergunta simples, deixando o usuário mal informado. No entanto, em outros casos, as consequências são mais graves. De tribunais que usam software de IA para tomar decisões de sentença a seguradoras de saúde que empregam algoritmos para determinar a elegibilidade de um paciente para cobertura, as alucinações de IA podem ter impactos que mudam vidas. Elas podem até ser fatais: veículos autônomos usam IA para detectar obstáculos, outros veículos e pedestres.

As alucinações e seus efeitos dependem do tipo de sistema de IA. Em modelos de linguagem de grande escala – a tecnologia por trás de chatbots de IA –, as alucinações são informações que parecem convincentes, mas são incorretas, inventadas ou irrelevantes. Um chatbot de IA pode criar uma referência a um artigo científico que não existe ou fornecer um fato histórico errado, mas que soa convincente.

Em um caso judicial de 2023, por exemplo, um advogado apresentou um documento legal que ele havia redigido com a ajuda do ChatGPT. Um juiz atento percebeu que o documento citava um caso que o ChatGPT havia inventado. Isso poderia levar a resultados diferentes em tribunais se os humanos não fossem capazes de detectar a informação alucinada.

Em ferramentas de IA que reconhecem objetos em imagens, as alucinações ocorrem quando o sistema gera legendas que não correspondem à imagem fornecida. Imagine pedir a um sistema para listar objetos em uma imagem que mostra apenas uma mulher da cintura para cima falando ao telefone e receber uma resposta dizendo que a mulher está falando ao telefone sentada em um banco. Essa informação imprecisa pode ter consequências graves em contextos onde a precisão é crítica.

Engenheiros constroem sistemas de IA coletando grandes quantidades de dados e alimentando-os em um sistema computacional que detecta padrões nesses dados. O sistema desenvolve métodos para responder a perguntas ou executar tarefas com base nesses padrões.

Se você fornecer a um sistema de IA 1.000 fotos de diferentes raças de cães, devidamente rotuladas, ele logo aprenderá a diferenciar um poodle de um golden retriever. Mas, se você mostrar a ele uma foto de um muffin de mirtilo, como pesquisadores de aprendizado de máquina já demonstraram, ele pode dizer que o muffin é um chihuahua.

Quando um sistema não entende a pergunta ou as informações que lhe são apresentadas, ele pode alucinar. As alucinações geralmente ocorrem quando o modelo preenche lacunas com base em contextos semelhantes de seus dados de treinamento ou quando é construído com dados de treinamento incompletos ou tendenciosos. Isso leva a suposições incorretas, como no caso do muffin de mirtilo rotulado como chihuahua.

É importante distinguir entre alucinações de IA e saídas criativas intencionais. Quando um sistema de IA é solicitado a ser criativo – como ao escrever uma história ou gerar imagens artísticas –, suas saídas inovadoras são esperadas e desejadas. As alucinações, por outro lado, ocorrem quando um sistema de IA é solicitado a fornecer informações factuais ou executar tarefas específicas, mas gera conteúdo incorreto ou enganoso, apresentando-o como preciso.

A diferença crucial está no contexto e no propósito: a criatividade é apropriada para tarefas artísticas, enquanto as alucinações são problemáticas quando a precisão e a confiabilidade são necessárias.

Para lidar com esses problemas, as empresas sugerem o uso de dados de treinamento de alta qualidade e a limitação das respostas da IA a certas diretrizes. No entanto, esses problemas podem persistir em ferramentas populares de IA.

O impacto de uma saída como chamar um muffin de mirtilo de chihuahua pode parecer trivial, mas considere os diferentes tipos de tecnologias que usam sistemas de reconhecimento de imagem: um veículo autônomo que falha em identificar objetos pode causar um acidente fatal. Um drone militar autônomo que identifica erroneamente um alvo pode colocar vidas civis em perigo.

Para ferramentas de IA que fornecem reconhecimento automático de fala, as alucinações são transcrições que incluem palavras ou frases que nunca foram realmente ditas. Isso é mais provável de ocorrer em ambientes ruidosos, onde um sistema de IA pode acabar adicionando palavras novas ou irrelevantes na tentativa de decifrar ruídos de fundo, como um caminhão passando ou um bebê chorando.

À medida que esses sistemas são integrados regularmente em ambientes de saúde, serviços sociais e jurídicos, as alucinações no reconhecimento automático de fala podem levar a resultados clínicos ou legais imprecisos, prejudicando pacientes, réus criminais ou famílias que precisam de apoio social.

Independentemente dos esforços das empresas de IA para mitigar as alucinações, os usuários devem permanecer vigilantes e questionar as saídas da IA, especialmente quando usadas em contextos que exigem precisão e exatidão. Verificar as informações geradas pela IA com fontes confiáveis, consultar especialistas quando necessário e reconhecer as limitações dessas ferramentas são passos essenciais para minimizar seus riscos.

spot_img
spot_img
spot_img

ÚLTIMAS NOTÍCIAS

hot news

Publicidade

ARTIGOS RELACIONADOS

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui