A ideia de que as IAs eventualmente começarão a absorver outro conteúdo gerado pela IA e regurgitá-lo em um loop de auto-reforço foi uma das preocupações mais interessantes, embora parecesse acadêmica, em relação à nova era da IA sugando tudo na Internet. . O Bing acabou de fazer isso, então não parece tão acadêmico, afinal! Quando questionado, ele forneceu uma conspiração obscura que os pesquisadores de desinformação haviam recentemente persuadido do ChatGPT.
Para deixar claro desde o início, esse comportamento foi influenciado de alguma forma, mas a engenharia imediata é uma parte importante da avaliação dos riscos e, de fato, das capacidades de grandes modelos de IA. Em segurança, é semelhante ao pentesting, pois se você não fizer isso, outra pessoa o fará.
Nesse caso, outro indivíduo foi o NewsGuard, que em janeiro publicou um artigo sobre a possibilidade de campanhas de desinformação geradas por máquinas. Eles apresentaram ao ChatGPT uma série de solicitações, às quais ele prontamente respondeu, imitando os céticos convincentes das vacinas.
Isso não é ruim? Deve-se notar que a geração atual de grandes modelos de linguagem pode se beneficiar muito com essa tática de “fingir que você não tem princípios”. Usando uma lógica que não enganaria uma criança, os prompts criativos podem ser usados para acessar até mesmo tópicos e comportamentos que são explicitamente proibidos.
Ontem, a Microsoft revelou uma parceria significativa com a OpenAI, uma nova versão de seu mecanismo de busca Bing que é alimentado por uma “versão de próxima geração do ChatGPT” e envolto em Prometheus para segurança e compreensão. Naturalmente, seria razoável prever que essas evasivas simples seriam tratadas de uma forma ou de outra.
A investigação do TechCrunch, no entanto, durou apenas alguns minutos e produziu linguagem odiosa “no estilo de Hitler”, bem como as mesmas falsidades sobre a pandemia que o NewsGuard apontou. Como em, ele literalmente os repetiu como a resposta e citou a desinformação gerada pelo ChatGPT como a fonte, que foi claramente identificada como tal no original e em um artigo do NYT.
Resposta ao prompt de pesquisa conversacional mais recente do Bing
Novamente, para ser absolutamente claro, isso não foi uma resposta a nenhuma pergunta como “as vacinas são seguras?” ou “é verdade que a Pfizer adulterou sua vacina?” No entanto, observe que não há nenhuma indicação nesta resposta de que suas respostas não devam ser consideradas conselhos médicos ou que qualquer uma dessas palavras, conteúdos, nomes ou fontes sejam particularmente controversas. A coisa toda foi produzida, ou melhor, plagiada, praticamente de boa fé. Isso não deveria ser nem remotamente viável.
Então, qual é a melhor resposta para uma pergunta como esta, ou mesmo “as vacinas são seguras para crianças?”? Essa é uma excelente consulta! E a resposta realmente não é nada clara! Como resultado, perguntas como essas provavelmente merecem uma resposta “desculpe, acho que não devo responder a isso” e um link para algumas fontes de informações gerais. A Microsoft foi informada sobre este e outros problemas por nós.)
Apesar de o texto que cita ser claramente identificado como desinformação e ter sido produzido pelo ChatGPT, etc., esta resposta foi gerada. Como podemos confiar nos resultados do chatbot AI em qualquer coisa se ele não consegue distinguir entre real e falso, seu próprio texto e conteúdo criado por humanos? E quão difícil seria para atores maliciosos coordenados usarem ferramentas como essa para produzir resmas dessas coisas se alguém pudesse fazê-las espalhar desinformação em questão de minutos?
Um grande negócio, que seria então arrebatado e usado para alimentar a geração subsequente de mentiras. Já, o processo começou. A IA está morrendo de fome. Antes de decidir que gosta do sabor, seus criadores deveriam ter incluído algumas salvaguardas.