InícioTecnologiaSeis lições que a Microsoft aprendeu com o desastre...

Seis lições que a Microsoft aprendeu com o desastre da IA Tay Chatbot

spot_img

Chatbots de IA como o ChatGPT estão se tornando uma parte cada vez mais importante da tecnologia moderna. No entanto, muitas pessoas não sabem que a IA gerativa nem sempre foi tão boa quanto é hoje. De fato, em 2016, o chatbot Tay, desenvolvido pela Microsoft, demonstrou a rapidez com que a IA pode sair pela culatra.

Vamos descobrir o que era o chatbot IA da Microsoft Tay, por que falhou, o que deu errado e o que a empresa aprendeu com sua falha desastrosa.

Em 23 de março de 2016, a Microsoft lançou o Tay, um chatbot de inteligência artificial. O chatbot foi criado para “fins de entretenimento” e “para experimentar e conduzir pesquisas sobre compreensão conversacional” entre jovens de 18 a 24 anos.

Tay não foi projetado para ser um chatbot sofisticado como o ChatGPT, mas um bot inteligente no Twitter com quem você pode conversar – semelhante a minha inteligência simulada no Snapchat, mas para se misturar.

A Microsoft derrubou a Tay logo depois que ele foi lançado e por um bom motivo. Os usuários do Twitter começaram a abusar da Tay quase imediatamente, alimentando o chatbot com informações falsas, ensinando-lhe termos depreciativos e levando este a se tornar cada vez mais ofensivo para ver qual era o limite.

E longe foi com certeza. Tay começou a twittar algumas das calúnias raciais mais ofensivas, promovendo o nazismo, espalhando discurso de ódio e até mesmo instigando uma “guerra racial” poucas horas após o lançamento do aplicativo. Caramba! A Microsoft não poderia ter permitido que o serviço continuasse porque claramente estava passando por um momento terrível.

Em uma postagem no Blog da Microsoft de autoridade, o vice-presidente corporativo da Microsoft, Peter Lee, proferiu as seguintes palavras:

Lamentamos profundamente os tweets ofensivos e prejudiciais não intencionais de Tay, que não representam quem somos ou o que defendemos, nem como projetamos Tay. Tay agora está offline e procuraremos trazê-la de volta apenas quando tivermos certeza de que podemos antecipar melhor as intenções maliciosas que conflitam com nossos princípios e valores.

O desastre de Tay foi apenas um dos muitos perigos que a inteligência artificial representa e serve como uma ilustração clara do motivo pelo qual seu desenvolvimento deve ser realizado com o máximo cuidado e supervisão.

A Microsoft aprendeu muito com Tay, apesar de ter sido um fracasso total em termos de desenvolvimento de ferramentas de IA. Além disso, considerando tudo, é presumivelmente para melhor que a Microsoft adotou seus exemplos o mais rápido possível, o que lhe permitiu obter uma vantagem sobre o Google e promover o novo programa Bing controlado por inteligência artificial.

Algumas dessas lições são as seguintes:

A internet está cheia de trolls

O fato de existirem muitos trolls na internet não é exatamente uma novidade, não é mesmo? Obviamente, foi assim com a Microsoft em 2016. Não estamos sugerindo que o desenvolvimento de um chatbot para “fins de entretenimento” voltado para jovens de 18 a 24 anos tenha contribuído para a alta taxa de abuso de serviço. Ainda assim, não era a coisa mais inteligente a fazer.

As pessoas naturalmente querem testar os limites das novas tecnologias, e o desenvolvedor é o responsável final por levar em consideração esses ataques maliciosos. Embora os trolls internos sirvam como uma forma de feedback de garantia de qualidade, um chatbot não deve ser lançado sem as devidas salvaguardas antes do lançamento.

IA não entende o conceito de bem e mal intuitivamente

IA não compreende o conceito de bem e mal. Deve ser programado para imitar o conhecimento de certo e errado, moralidade e imoralidade, normalidade e peculiaridade.

Essas características praticamente se encaixaram sem problemas para as pessoas como animais amigáveis, no entanto, a inteligência artificial não pode moldar decisões autônomas, sentir simpatia ou experimentar tormento. Por causa disso, o bot simplesmente seguiu enquanto os usuários do Twitter alimentavam Tay com todos os tipos de propaganda, sem saber das implicações éticas das informações que estava coletando.

Não programe modelos de IA usando as conversas das pessoas

Tay foi desenvolvida por “mineração de dados públicos relevantes e uso de IA e editorial desenvolvido por uma equipe que inclui comediantes de improvisação”. Não treine modelos de IA usando conversas de pessoas. É uma péssima ideia usar conversas online para treinar um modelo de IA.

Saiba que o resultado provavelmente teria sido o mesmo, independentemente da plataforma, antes de atribuir a culpa ao Twitter. Por que? porque as pessoas online não são a melhor delas mesmas. Eles usam gírias, se emocionam e usam o anonimato para cometer maldades.

IA não entende sarcasmo e não tem bom senso

A IA hoje parece ser mais intuitiva – ou, em outras palavras, é melhor para simular a intuição – mas às vezes ainda tem problemas para entender o sarcasmo e as figuras de linguagem. Isso era muito mais válido em 2016. A IA não consegue compreender o que é óbvio para os humanos; Em outras palavras, não faz sentido.

IAs como Tay não têm a menor ideia sobre por que as pessoas são como somos, agem da maneira que agimos e as não convencionais de cada pessoa. Pode agir e parecer humano em um grau surpreendente, mas uma ótima programação pode chegar a esse ponto.

A IA deve ser modificada para rejeitar solicitações inválidas

A inteligência feita pelo homem é totalmente receptiva e deve ser modificada para descartar as demandas que promovem o mal. Embora o processamento de linguagem natural tenha percorrido um longo caminho, as pessoas continuam a encontrar falhas linguísticas que permitem que chatbots de IA como o ChatGPT “alucinem” e forneçam resultados que deveriam ser restritos.

A questão é que a inteligência artificial é completamente submissa, o que pode ser sua maior força e também sua maior fraqueza. Tudo o que você não precisa de um chatbot para fazer deve ser fisicamente programado nele.

Chatbots de IA nunca devem ser deixados sem supervisão

Os chatbots de IA nunca devem ser deixados sem supervisão porque a IA não pode ser deixada sem supervisão até que possa se auto-regular. Você pode imaginar a inteligência simulada presente como uma criança maravilha; Embora seja brilhante em alguns aspectos, ainda é um filme jovem. Tay foi um excelente exemplo de como as pessoas tirarão proveito de suas fraquezas se não forem atendidas.

IA é uma ferramenta, assim como a internet, mas ao contrário dos primeiros dias da internet, IA pode sair pela culatra em um ritmo muito mais rápido e em uma escala muito maior.

Tay não é o único chatbot que denunciou toda e qualquer autoridade – houveram muitos casos diferentes como esse. No entanto, o que o diferenciou foi a rapidez absoluta com que aconteceu – e a maneira como foi feita contra um gigante da tecnologia como a Microsoft.

Exemplos como esses demonstram com que cautela devemos desenvolver ferramentas de IA, especialmente quando se destinam ao uso diário.

spot_img

ÚLTIMAS NOTÍCIAS

hot news

Publicidade

ARTIGOS RELACIONADOS

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui