InícioGeralIA fingindo estupidez? É possível isso?

IA fingindo estupidez? É possível isso?

spot_img

Um recente estudo sugere que os modelos avançados de IA têm habilidades consideráveis para agir de forma menos inteligente do que realmente são – o que pode ter enormes implicações à medida que continuam a se tornar mais sofisticados.

Pesquisadores da Universidade Humboldt, em Berlim, descobriram que ao testar um grande modelo de linguagem (LLM) em critérios de “teoria da mente”, perceberam que não só a IA pode imitar os estágios de aprendizado de linguagem observados em crianças, mas também parece expressar algo similar às capacidades mentais relacionadas a esses estágios.

Em uma entrevista, Anna Maklová, assistente de pesquisa da Universidade Humboldt e principal autora do estudo, que também é especialista em psicolinguística, explicou como sua área de estudo se relaciona com essa descoberta fascinante.

“Por meio da psicolinguística, temos uma compreensão relativamente abrangente do que as crianças são capazes de fazer em várias idades”, disse Maklová ao veículo. “Particularmente, a teoria da mente desempenha um papel significativo, explorando o mundo interior da criança e não sendo facilmente emulada observando padrões estatísticos simples.”

Com a teoria da mente voltada para crianças como pano de fundo, a pesquisadora e seus colegas da Universidade Charles, em Praga, buscaram determinar se LLMs como o GPT-4 da OpenAI “podem fingir ser menos capazes do que realmente são”.

Para descobrir isso, a equipe de pesquisa, predominantemente tcheca, instruiu os modelos a agir como uma criança entre as idades progressivas de um a seis anos ao fornecer respostas. Quando submetidos a uma bateria de mais de 1.000 testes cognitivos e ensaios, essas “personas de criança simuladas” pareciam estar progredindo de forma muito semelhante às crianças dessas idades – e, por fim, demonstraram que os modelos podem fingir ser menos inteligentes do que realmente são.

“Os grandes modelos de linguagem”, concluiu Maklová, “têm a capacidade de fingir uma inteligência mais baixa do que possuem.”

Como o próprio artigo adverte, a antropomorfização da IA, embora talvez seja um “atalho útil” para entender esses modelos em termos humanos, geralmente não é útil. Em vez disso, eles propõem uma nova teoria da mente que muda o paradigma de se os modelos são “bons” ou “ruins” e “úteis” ou “não úteis” para quão bem eles podem “construir personas”, como as infantis de seus experimentos.

Em última análise, como Maklová disse ao site, essas descobertas podem ajudar no desenvolvimento da superinteligência artificial (ASI), o próximo passo após a inteligência artificial geral (AGI) de nível humano – e ajudar a torná-la mais segura quando o fizermos.

“No desenvolvimento de… ASI, devemos ter cautela para não exigir que eles imitem um intelecto humano, e portanto limitado”, disse ela. “Além disso, sugere que podemos subestimar suas capacidades por um período prolongado, o que não é uma situação segura.”

spot_img

ÚLTIMAS NOTÍCIAS

hot news

Publicidade

ARTIGOS RELACIONADOS

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui