A internet foi enganada por um breve momento. A foto da jaqueta papal do Papa Francisco se tornou viral na internet como um incêndio.
O chefe da imagem do Vaticano, de 86 anos, por outro lado, era falso. A imagem falsa foi feita com tecnologia de inteligência artificial para brincar, mas ainda era convincente o suficiente para enganar o olho destreinado.
As falsificações de inteligência baseadas em computador estão se espalhando rapidamente pelo entretenimento online à medida que a proeminência dos aparatos de IA aumenta. Ferramentas de IA baseadas em chatbot, como o ChatGPT da OpenAI, o Bard do Google e o Bing da Microsoft, foram acusadas de abrir um novo canal para desinformação e notícias falsas, além de criar imagens.
Esses bots, que foram treinados em bilhões de artigos e milhões de livros, podem dar respostas que soam convincentes e humanas, mas muitas vezes inventam fatos, o que é chamado de alucinação na indústria. Alguns modelos de IA foram ensinados a codificar, abrindo a porta para ataques cibernéticos que os usam.
Além das preocupações com notícias falsas e imagens que são “profundamente falsas”, um número crescente de futuristas está preocupado com o fato de a IA estar se tornando uma ameaça existencial para a humanidade.
No mês passado, pesquisadores da Microsoft chegaram ao ponto de afirmar que um algoritmo, o ChatGPT-4, possuía “faíscas de… inteligência em nível humano”. Em uma entrevista recente, Sam Altman, fundador da OpenAI, a startup americana que desenvolveu a tecnologia ChatGPT, reconheceu: Estamos um pouco alarmados com isso.
Pesos-pesados no Vale do Silício estão discutindo sobre os potenciais benefícios e riscos dessa nova onda tecnológica, que agora está causando uma reação contra a chamada “IA generativa”.
Mais de 3.000 pesquisadores, cientistas e empresários, incluindo Elon Musk, escreveram uma carta aberta há quinze dias solicitando uma “pausa” de seis meses no desenvolvimento da ferramenta de chatbot mais avançada da OpenAI, um “modelo de linguagem ampla” ou LLM.
Os pesquisadores escreveram: “Pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4”. Os governos devem impor uma moratória se tal pausa não puder ser implementada rapidamente.
Musk e outros estão preocupados com o potencial destrutivo da IA e com a possibilidade de uma “inteligência geral artificial” todo-poderosa representar sérias ameaças à humanidade.
No entanto, seu interesse por uma restrição de seis meses no desenvolvimento de modelos de inteligência baseados em computador foi recebido com incredulidade. O principal especialista em IA da Meta, empresa controladora do Facebook, Yann LeCun, comparou o esforço à tentativa da Igreja Católica de proibir a impressão.
Ele twittou: “Imagine o que poderia acontecer se os plebeus tivessem acesso aos livros”.
Eles poderiam ler a Bíblia sozinhos, e a sociedade entraria em colapso, de acordo com a Bíblia.
Alguns dos signatários da carta, segundo outros, têm suas próprias agendas. Musk, que lutou publicamente contra a OpenAI, quer criar um projeto rival. A DeepMind, uma empresa de propriedade do Google que está desenvolvendo seus próprios bots de IA, tinha pelo menos dois signatários. Os cínicos da inteligência baseada em computador alertaram que a carta se envolve com a promoção em torno da inovação mais recente, com articulações, por exemplo, “seria aconselhável promovermos personalidades não humanas que poderiam nos superar, superar, desatualizar e nos suplantar?”
Há muito pouca informação disponível ao público em geral sobre o funcionamento de muitas das ferramentas de IA que estão atualmente em desenvolvimento. Apesar disso, centenas de empresas já estão incorporando-os. Por exemplo, a Klarna, uma empresa do tipo compre agora, pague depois, e a empresa de pagamentos Stripe estão utilizando o ChatGPT da OpenAI.
De acordo com Richard Robinson, fundador da startup legal RobinAI, que está colaborando com outra rival da OpenAI, a empresa de IA de US$ 4 bilhões Anthropic, mesmo os desenvolvedores de grandes modelos de linguagem não compreendem totalmente como eles funcionam. No entanto, ele continua: Os reguladores, na minha opinião, correm o risco real de reagir exageradamente a esses desenvolvimentos.
Preocupações com privacidade e dados já estão preparando os vigilantes do governo para um conflito com empresas de IA. A Itália na Europa ameaçou banir o ChatGPT devido a alegações de que extraiu informações da web sem considerar os direitos dos consumidores.
O bot não tinha um “sistema de verificação de idade” para impedir o acesso de menores, de acordo com o órgão de vigilância da privacidade da Itália. A menos que a OpenAI altere suas práticas de dados, o regulador pode impor multas de até € 20 milhões (£ 18 milhões), ou 4% de sua receita, de acordo com os regulamentos europeus de dados.
A OpenAI respondeu afirmando que não oferecia mais o ChatGPT na Itália. Aceitamos oferecer o ChatGPT de acordo com o GDPR e outros regulamentos de proteção”, disse a organização.
Medidas de aplicação regulatória semelhantes estão sendo consideradas pela Alemanha, Irlanda e França. O Information Commissioner’s Office na Grã-Bretanha declarou: Não há absolutamente nenhuma razão para perder as implicações de privacidade da IA generativa.
No entanto, apesar do fato de que o vigilante da privacidade levantou preocupações, o Reino Unido ainda não ameaçou banir o ChatGPT. Em um white paper de diretrizes de inteligência feito pelo homem distribuído recentemente, a autoridade pública decidiu contra um controlador de inteligência feito pelo homem adequado. O advogado Edward Machin, da Ropes & Gray, afirma: O Reino Unido está adotando uma abordagem muito mais relaxada e traçando seu próprio caminho.
De acordo com vários especialistas em IA que falaram com o The Telegraph, as verdadeiras preocupações em relação ao ChatGPT, Bard e outros eram menos sobre os efeitos a longo prazo de algum tipo de IA assassina e todo-poderosa e mais sobre o mal que poderia causar. agora.
Segundo Juan José López Murphy, chefe de IA e ciência de dados da empresa de tecnologia Globant, será difícil em um futuro próximo ajudar indivíduos a reconhecer deep fakes, também conhecidas como informações falsas geradas por chatbots. É apenas uma questão de como usamos mal essa tecnologia, diz ele.
De acordo com a especialista em informática Dame Wendy Hall, “treinar o ChatGPT em toda a Internet é potencialmente perigoso devido aos vieses da Internet”. Ela diz que os apelos por uma moratória no desenvolvimento provavelmente não funcionarão porque a China está rapidamente fabricando suas próprias ferramentas.
O OpenAI parece aberto à possibilidade de ser encerrado. Na sexta-feira, postou um blog que dizia: “Acreditamos que sistemas de IA poderosos devem passar por rigorosos testes de segurança. Para evitar a adoção de tais práticas, é necessária regulamentação.
Os reguladores, de acordo com Marc Warner, da Faculty AI, com sede no Reino Unido e colaborando com a OpenAI na Europa, ainda precisarão planejar a possibilidade de uma IA superpoderosa.
Ele diz aos laboratórios para interromper a corrida dos ratos e trabalhar juntos na segurança: “Parece que a IA geral pode chegar mais cedo do que muitos esperam”.
Dame Wendy afirma: “Devemos estar cientes do que pode acontecer no futuro e devemos pensar na regulamentação agora para não desenvolvermos um monstro”.
Não precisa ser tão assustador agora; Acredito que esse futuro ainda está muito longe.
Imagens falsas do Papa podem parecer muito distantes do domínio global. No entanto, especialistas afirmam que a diferença está começando a diminuir.