“Sinto muito, Dave, infelizmente não posso fazer isso.”
No filme do Stanley Kubrick de 1968 “2001: Uma Odisséia no Espaço”, o computador renegado HAL 9000 contrariou Dave Bowman, o cientista da missão a bordo da espaçonave Descoberta Um, que estava indo para Júpiter, com esta frase.” A Skynet, uma rede de computadores de defesa que desencadeou uma guerra nuclear global com o objetivo de aniquilar a humanidade, foi mostrada a todos em “O Exterminador do Futuro”, de 1984, do diretor James Cameron.
Retratos de filmes como esses nos conscientizaram dos perigos da inteligência artificial, que é a capacidade dos computadores de pensar como humanos. No entanto, isso não é apenas ficção científica?
Nós, como um todo, usamos o PC para ajudar o raciocínio feito pelo homem de forma consistente. Um exemplo é o recurso de autocorreção em mensagens de texto; Outros incluem Siri da Apple e Alexa da Amazon.
Um recurso de inteligência artificial na unidade de endoscopia do meu consultório nos ajuda a encontrar pólipos no cólon. Quando você faz um pedido na Amazon e anúncios de produtos comparáveis aparecem nas redes sociais? Isso também é inteligência simulada. A tecnologia de reconhecimento facial do telefone também é precisa.
Em 2017, o presidente russo, Vladimir Putin, disse que o país que controla a inteligência artificial “se tornará o líder do mundo”. A invasão russa da Ucrânia fez de Putin um vilão global, mas o ditador estava correto sobre a IA.
Cada um de nós é impactado pela IA todos os dias. Existem centenas de aplicativos orientados por IA em uma ampla variedade de campos, incluindo composição musical, fotografia, edição de vídeo e arte.
O progresso na inteligência artificial foi geralmente lento até 2012, quando a possibilidade de uma rede cerebral perturbou todo o negócio. Uma rede cerebral é uma estrutura numérica que rastreia exemplos mensuráveis em medidas colossais de informação.
Em 2018, Google, Microsoft e OpenAI começaram a construir enormes redes neurais que foram treinadas em muitos textos da internet. Esses enormes modelos de linguagem abriram a porta de entrada para o estágio subsequente no desenvolvimento da inteligência artificial: IA generativa, na qual os sistemas aprenderam a falar como humanos e a escrever prosa e poesia.
Os recursos de conversação e escrita do AI chatbot ChatGPT, desenvolvido pela OpenAI em colaboração com a Microsoft e lançado em novembro, atraíram muita atenção devido à sua capacidade de imitar a fala e a escrita humanas, respectivamente. Além de escrever ensaios, música, poesia e propostas de negócios, o ChatGPT também pode simular uma sala de bate-papo inteira. Ele pode fazer listas de compras, dar ideias de viagem e detalhar descrições de arte. Semelhante a uma versão computadorizada do SparkNotes, os programas AI chatbot também podem “ler” artigos grandes e resumi-los.
No teste de admissão da faculdade de direito, uma versão mais recente da plataforma de chatbot da Open AI, GPT-4, obteve pontuação no 88º percentil. Normalmente, há preocupações sobre as habilidades de um framework de alto nível. O ChatGPT foi recentemente banido na Itália devido a questões de privacidade.
O site OpenAI oferece ChatGPT sem nenhum custo. Pedi ao ChatGPT para escrever um poema sobre Savannah, um haicai sobre amor duradouro e um parágrafo sobre piratas no estilo de Ernest Hemingway, já que tenho uma conta lá. Em questão de segundos, o ChatGPT criou cada um deles. Ambos eram decentes, se não excepcionais.
A capacidade dos programas de IA de produzir desinformação com aparência enganosa, mas realista, pode ser ainda mais assustadora. Programas de IA podem criar imagens digitais que parecem reais, como a do Papa Francisco vestindo uma jaqueta Balenciaga ou a de Donald Trump marchando pelas ruas de Nova York neste mês em frente a uma multidão de apoiadores agitando bandeiras. Ambas as imagens eram falsificações feitas por IA.
A capacidade de falsificações realistas geradas por IA de se espalhar pela mídia deve causar preocupação a todos nós em um momento em que a mídia social está transbordando com todos os tipos de informações falsas.
Preocupações genuínas podem surgir assumindo que o raciocínio feito pelo homem se torna atento ou consciente. Essa é a preocupação delineada graficamente em “O Exterminador do Futuro”, onde a Skynet concluiu que as pessoas já estavam em excesso e as aniquilou. Alguns pesquisadores afirmam que esse tipo de coisa já acontece. Um engenheiro que afirmou que o software LaMDA AI do Google tinha almas foi demitido no ano passado.
A maioria dos pesquisadores da área não acredita, pelo menos ainda não, que os modelos de IA possuam sensibilidade. No entanto, essas áreas progrediram rapidamente e provavelmente é apenas uma questão de tempo até que isso aconteça.
Isso é particularmente preocupante pensando na crescente informatização das forças armadas do mundo. Nos próximos dez anos, os veículos aéreos desarmados movidos por IA representarão até 60% da frota aérea de porta-aviões da Marinha dos EUA. Este primeiro envio de tal veículo está previsto para 2026.
O USNS Apalachicola, um navio de guerra totalmente autônomo e de tamanho normal que pode navegar sem tripulação humana por até 30 dias, já foi entregue à Marinha.
A internet revolucionou o comércio, a comunicação e a disseminação de informações no início da década de 1990. Hoje, com 63% do globo conectado por meio da web, a grande maioria de nós não consegue imaginar o mundo sem ela.
Existe um potencial semelhante para a inteligência artificial, embora com maior risco. O curso da próxima geração da humanidade e além será determinado pelo uso da IA.