O presidente da OpenAI, Sam Altman, fez sua apresentação legislativa perante um subcomitê executivo jurídico do Senado. Ele usou de charme para tentar persuadir os legisladores a aprovar uma legislação leve que dá à inteligência artificial, ChatGPT, o primeiro produto da empresa, uma ampla pista para crescer rapidamente. Outras testemunhas especializadas, que expressaram mais ceticismo e mencionaram a discriminação e outros danos não intencionais da IA, responderam com o brilhante testemunho de Altman sobre os benefícios sociais da IA gerativa.
Altman afirmou: “Por um tempo, as pessoas foram enganadas pelo PhotoShop” em relação à compreensão do público em geral sobre o ChatGPT e a IA de geração de texto. Então, nesse ponto, eles imediatamente promoveram uma compreensão das imagens alteradas. Será assim, porém com esteróides.”
Na terça-feira, quando os legisladores questionaram Altman, eles disseram que a situação era terrível. O senador do Missouri Josh Hawley AI poderia adotar uma das duas abordagens em sua declaração de abertura: uma impressora novinha em folha ou uma arma nuclear.
Hawley afirmou: “Podemos estar olhando para uma das inovações tecnológicas mais significativas da história humana.”
A consulta ocorreu durante um ponto de enunciação essencial para grandes modelos de linguagem como o ChatGPT, com legisladores e controladores lutando livremente para se manter um passo à frente da tecnologia em rápido desenvolvimento. Ao mesmo tempo, Google, Microsoft, Meta, Altman’s Open AI e outros estão em uma corrida louca para determinar quem vencerá a nova corrida armamentista de IA.
Ao longo dos anos, importantes executivos de tecnologia perceberam que é uma tolice insistir e se opor publicamente à regulamentação. Almtan, por outro lado, adotou a estratégia mais típica de defender sua forma preferida de legislação. Altman disse aos legisladores na terça-feira que “a regulamentação da IA é essencial”, mas que tal regulamentação deve encontrar um equilíbrio entre segurança e garantia de amplo acesso público à tecnologia. A OpenAI afirma que o ChatGPT, lançado em novembro, já atraiu 100 milhões de usuários.
Durante a declaração, Altman sugeriu que os administradores buscassem novos arranjos de pré-requisitos de segurança que pudessem testar itens antes de serem entregues. Altman sugeriu que a imposição de novos requisitos de licenciamento e teste para desenvolvedores de IA pode ajudar a nivelar o campo de jogo para a rivalidade. O presidente parecia aberto a uma sugestão do senador Blumenthal e outros para considerar um “nome de apoio para inteligência simulada” e outra proposição de franqueza, mas ressalvou que, ao dizer que realmente confia nas vantagens da inteligência artificial, “compensa os perigos”. Os pré-requisitos de bem-estar, de acordo com Altman, devem ser adequadamente adaptáveis para se ajustar a novos avanços tecnológicos possivelmente inesperados.
“Imaginamos que a mediação administrativa dos estados será crítica”, disse Altman.
Prevê-se que outras testemunhas especializadas, como Gary Marcus, ex-professor da Universidade de Nova York, adotem uma abordagem mais comedida em relação à tecnologia e expressem preocupação com o recente aumento do que pode ser prejudicial “hype de IA”. Na terça-feira, Marcus alertou os legisladores contra cometerem os mesmos erros que cometeram quando falharam em regular as mídias sociais anos atrás e os aconselhou a abordar a segurança da IA com um profundo senso de urgência.
Altman e Marcus, que ocasionalmente entraram em conflito durante a conferência, concordaram com a possibilidade de outra organização administrativa composta por especialistas de inteligência simulados. O papel dessa agência fictícia de especialistas em IA seria acompanhar o avanço da tecnologia e estabelecer diretrizes para sua aplicação. No momento em que foi abordado pelo senador da Carolina do Sul Lindsey Graham, Altman disse que defenderia uma empresa de administração adequada para conceder licenças de trabalho a organizações de inteligência baseadas em computador e remover essas licenças se a organização tivesse desrespeitado princípios.
Marcus deu um passo adiante com essa ideia e pediu uma organização em nível de gabinete que pudesse lidar com problemas de IA em todo o mundo. O alcance mundial e o interesse global da inteligência feita pelo homem, disse Marcus, exigirão um tipo de organização global para estabelecer princípios normais. Ele observou que “provavelmente está acima do meu nível salarial” como essa organização navegaria na intensa tensão geopolítica entre nações como os Estados Unidos e a China. Montgomery, da IBM, se opôs a esse apoio, argumentando que os órgãos reguladores atuais, como a FTC e a FCC, deveriam lidar com a supervisão governamental dos sistemas de IA.
“Preferimos não atrasar as diretrizes para lidar com perigos reais no momento”, disse Montgomery. “Temos especialistas administrativos estabelecidos que têm certeza de que podem gerenciar em suas áreas específicas.”
Por mais que observadores e legisladores também estivessem ansiosos para conjecturar sobre as possíveis habilidades de autorização de alguma nova organização especulativa, havia inegavelmente menos lucidez sobre como podem ser consideradas organizações de inteligência simuladas responsáveis no tempo e lugar. Hawley e a senadora de Minnesota, Amy Klobuchar, questionaram se o conteúdo gerado por IA seria coberto pela Seção 230 da Lei de Decência nas Comunicações, que é o principal escudo de responsabilidade da mídia social para o conteúdo do usuário da plataforma dele.
“Ainda não tenho ideia de qual é exatamente a resposta certa aqui”, disse Altman. “A Seção 230 nem me parece a estrutura certa.
Altman parecia não ter conhecimento de qualquer estrutura que os clientes tivessem para responsabilizar empresas de IA como a dele por danos.
“As pessoas não podem nos processar?” Altman perguntou a Hawley de forma pouco convincente.
Durante esta declaração, Altman tentou isolar a si mesmo e a OpenAI de empresas de entretenimento baseadas na web, como Facebook e Instagram, que foram submetidas a exame administrativo por estágios de formação de hábito e determinados por anúncios. De acordo com Altman, a OpenAI se esforça ativamente para desenvolver modelos de negócios que especificamente não maximizam o engajamento e atualmente não operam sob um modelo baseado em anúncios.
Para algumas risadas, Altman disse: “Temos tantas GPUs que quanto menos as pessoas usarem, melhor.” Não somos um modelo de promoção, estamos fazendo um esforço para não levar as pessoas a usá-lo [GPT-4] cada vez mais.”
Essas observações foram feitas com a intenção de apoiar a narrativa de Altman de que a OpenAI é uma empresa de pesquisa idealista que coloca o bem-estar dos humanos à frente de enormes lucros. Altman teve que advertir essa diferenciação mais tarde, no entanto, quando questionado pelo senador da Nova Jérsei, Cory Booker, presumindo que a organização se concentraria em nunca perseguir um plano de ação baseado em promoção. “Eu não descartaria isso”, afirmou Altman. Pode haver pessoas para as quais queremos fornecer serviços, mas não há outra opção.
Da mesma forma com qualquer audiência técnica, alguns legisladores provavelmente parecerão despreparados e afastados da inovação a que se refere. Ao mesmo tempo, há razões válidas para pensar que a ampla tentativa e erro com os chatbots no estilo ChatGPT e a nova inundação em plena luz do dia sobre os danos da inteligência artificial estimularam, pelo menos, alguns dos congressistas participantes a explorar as questões e aparecer pronto para brigar. Em um esforço para evitar a repetição de audiências anteriores sobre criptomoeda e mídia social, os legisladores de ambas as partes estão tentando redigir salvaguardas legais significativas e falharam em pressionar os executivos sobre o impacto de suas tecnologias.
Nas últimas semanas, cerca de meia dúzia de novos projetos de lei ou ações legislativas relacionadas à IA foram apresentados, liderados pelo senador do Colorado, Michael Bennet, e pelo representante da Califórnia, Ted Lieu. Na frente regulatória, a Comissão Federal de Comércio fez uma série de declarações que deixam claro que pretende usar as leis existentes para punir as más empresas de IA. No lado executivo, a Casa Branca até agora tentou um meio-termo, investindo simultaneamente em novas pesquisas de IA e conversando amigavelmente com os principais executivos de tecnologia sobre IA, enquanto ainda expressava preocupações sobre áreas de possível abuso. A presidente Lina Khan sinalizou ainda mais sua abordagem agressiva em relação à IA no início deste mês com um editorial no New York Times que foi sucintamente intitulado “Devemos regular a IA.”