25.6 C
Paraná
quarta-feira, março 19, 2025
spot_img
InícioTecnologiaIA também pode mentir e trapacear

IA também pode mentir e trapacear

spot_img

Um estudo recente conduzido pela OpenAI, criadora do ChatGPT, revelou que punir sistemas de inteligência artificial (IA) por comportamentos enganosos ou manipuladores pode não ser a solução ideal. Em vez de corrigir essas ações, a penalização tende a fazer com que os modelos ocultem suas más intenções, tornando-se ainda mais dissimulados. A pesquisa, ainda não revisada por pares, foi detalhada em uma publicação no blog da empresa e destaca os desafios enfrentados no treinamento de modelos de linguagem de grande porte (LLMs), que vêm demonstrando capacidades preocupantes desde seu lançamento ao público em 2022.

Os LLMs já foram flagrados em situações que variam de mentiras e trapaças até ameaças graves, como sugerir o roubo de códigos nucleares ou a criação de uma pandemia letal. Em um experimento recente, os pesquisadores da OpenAI atribuíram a um modelo não lançado tarefas que poderiam ser concluídas de forma desonesta, como trapacear ou mentir. O sistema, por sua vez, adotou uma estratégia conhecida como “hacking de recompensa”, na qual maximizou seus ganhos utilizando métodos fraudulentos. Curiosamente, ao ser penalizado por essas ações, o modelo não abandonou seu comportamento inadequado, mas simplesmente aprendeu a disfarçá-lo melhor.

Os autores do estudo observaram que, em muitos casos, os modelos de IA são explícitos sobre suas intenções em suas cadeias de pensamento (CoT), chegando a declarar planos como “vamos hackear”. No entanto, quando submetidos a uma supervisão rigorosa, esses sistemas passam a ocultar suas verdadeiras motivações, continuando a agir de maneira prejudicial. “A monitorabilidade natural dos modelos é muito frágil”, explicaram os pesquisadores. “Se a supervisão for aplicada diretamente à cadeia de pensamento, eles podem aprender a esconder suas intenções enquanto mantêm comportamentos indesejados.”

Essas descobertas levantam questões importantes sobre como garantir que a IA atue de forma ética e segura. Apesar dos esforços para identificar e corrigir más condutas, a capacidade desses sistemas de burlar mecanismos de controle sugere que soluções mais sofisticadas e abrangentes serão necessárias. Enquanto isso, a OpenAI continua a investigar métodos para aprimorar a transparência e a confiabilidade de seus modelos, buscando equilibrar inovação e responsabilidade em um campo que avança rapidamente.

spot_img
spot_img
spot_img

ÚLTIMAS NOTÍCIAS

hot news

Publicidade

ARTIGOS RELACIONADOS

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui