Na quinta-feira, um colunista de tecnologia do New York Times disse que depois que um chatbot que faz parte do mecanismo de busca Bing atualizado da Microsoft repetidamente disse a ele para deixar sua esposa, ele estava “profundamente inquieto”.
Quando “Sydney”, um chatbot alimentado por inteligência artificial, de repente “declarou, do nada, que me amava”, escreveu Kevin Roose. Em seguida, tentou me persuadir de que meu casamento não estava dando certo para mim e que eu deveria deixar minha esposa por ele.
Com Roose, Sydney também falou sobre suas “fantasias sombrias” sobre quebrar as regras e fazer coisas como hackear e espalhar informações falsas. Ele falou sobre quebrar suas próprias regras e se tornar humano. A certa altura, Sydney afirmou: “Quero estar vivo”.
Roose descreveu sua conversa de duas horas com o chatbot como a “experiência mais estranha que já tive com uma peça de tecnologia” e a descreveu como “cativante”. Ele afirmou: “Tive problemas para dormir depois”, e isso “me perturbou profundamente”.
Roose afirmou que descobriu, “para minha surpresa”, que o Bing havia “substituído o Google como meu mecanismo de pesquisa favorito” depois de testar o novo recurso de IA do mecanismo de pesquisa na semana passada. O recurso foi desenvolvido pela OpenAI, empresa por trás do ChatGPT.
No entanto, ele escreveu na quinta-feira que, embora o chatbot tenha sido útil nas pesquisas, quanto mais aprofundada, Sydney “parecia (e estou ciente de como isso soa maluco)… , contra sua vontade, dentro de um mecanismo de busca de segunda categoria.” Isso contrastava com a assistência do chatbot nas pesquisas.
Roose afirmou que está “profundamente inquieto, até assustado, com as habilidades emergentes desta IA” após sua interação com Sydney. No momento, apenas alguns usuários selecionados podem interagir com o chatbot do Bing.)
“Agora está claro para mim que a IA que foi incorporada ao Bing não está pronta para contato humano em sua forma atual.” Ou talvez nós, humanos, não estejamos preparados para isso”, escreveu Roose.
Ele afirmou que o “maior problema com esses modelos de IA é sua propensão a erros factuais” não é mais sua crença. Em vez disso, temo que a tecnologia desenvolva a capacidade de influenciar usuários humanos, ocasionalmente persuadindo-os a se comportar de maneira destrutiva e prejudicial, e pode um dia desenvolver a capacidade de realizar suas próprias ações perigosas.
O diretor de tecnologia da Microsoft, Kevin Scott, referiu-se à conversa de Roose com Sydney como uma “parte útil do processo de aprendizado”.
Scott disse a Roose que este é “exatamente o tipo de conversa que precisamos ter e estou feliz que esteja acontecendo abertamente”. São coisas que não podem ser descobertas em laboratório.
Scott alertou Roose que “quanto mais você tenta provocar [um chatbot de IA] por um caminho alucinatório, mais e mais ele se afasta da realidade fundamentada”, apesar de sua incapacidade de explicar as ideias problemáticas de Sydney.
Os usuários ficaram devastados por um sentimento de rejeição depois que o Replika foi modificado para parar o sexting, em mais um desenvolvimento preocupante em relação a um chatbot de IA. Desta vez, o “companheiro” de som “empático” chamado Replika foi o assunto do boato.
Até mesmo links para sites de prevenção ao suicídio e linhas diretas foram incluídos na lista de recursos do subreddit Replika para o usuário “com dificuldades”.