A ideia de inteligência artificial (IA) pode ser rastreada até antigos mitos sobre seres artificiais portadores de consciência, como o golem no folclore judaico. Golems, segundo o folclore, eram criaturas feitas de substâncias inertes como o solo que eram rejuvenescidas por uma espécie de mantra.
Década de 1950: Alan Turing Os primeiros computadores de meados do século 20 e pioneiros como o matemático, criptógrafo e cientista da computação britânico Alan Turing são onde a inteligência artificial moderna teve seu início. Turing colocou a seguinte questão em seu artigo de 1950, “Máquinas de Computação e Inteligência”: as máquinas poderiam utilizar dados e motivação para cuidar de problemas e fazer escolhas da mesma forma que as pessoas fazem? De muitas maneiras, essa questão ainda orienta os atuais esforços de desenvolvimento de tecnologia de IA.
Avanços potenciais em IA foram significativamente prejudicados por limitações tecnológicas durante a vida de Turing. Em comparação com o hardware contemporâneo, os computadores eram incomuns, extremamente caros (até US$ 200.000 por mês na década de 1950) e primitivos. O fato de os computadores da época só poderem executar comandos em vez de armazená-los foi um grande problema para a geração de Turing. Os computadores eram capazes de realizar tarefas, mas ainda não tinham a capacidade de lembrar o que haviam feito.
Década de 1950: Logic Theorist, desenvolvido por Allen Newell, Cliff Shaw e Herbert Simon em meados da década de 1950, foi um dos primeiros programas de IA. Rationale Scholar era um programa de PC que poderia utilizar linguagem emblemática para demonstrar hipóteses numéricas. O Logic Theorist não foi apenas uma tecnologia de IA inovadora, mas também teve um impacto duradouro na psicologia cognitiva.
Década de 1960 a 1980: a inovação cria e os projetos de inteligência artificial resultantes são enviados
Durante as décadas de 1960 e 1970, a inovação em processamento progrediu rapidamente. A velocidade de processamento e a capacidade de armazenamento de informações dos computadores aumentaram. Eles se tornaram mais comuns, mais acessíveis e menos caros, talvez até mais. Seguindo Newell, Shaw e Simon, outros primeiros pesquisadores de PC fizeram novos cálculos e projetos que se mostraram mais preparados para direcionar empreendimentos e problemas explícitos. Isso inclui o ELIZA de Joseph Weizenbaum, um dos primeiros programas de processamento de linguagem natural.
O forte apoio financeiro das principais instituições acadêmicas e da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) foi um fator para o sucesso da IA durante esse período. Cientistas como Marvin Minsky previram em 1970 que uma máquina com a “inteligência geral de um ser humano médio” estava a apenas três a oito anos de distância devido a esse suporte e aos rápidos avanços na tecnologia de IA.
No entanto, havia muitos desafios a serem superados antes que esse objetivo pudesse ser alcançado. Processamento de linguagem natural, auto-reconhecimento, pensamento abstrato e outras habilidades humanas específicas eram difíceis de replicar com máquinas, de acordo com cientistas da computação. Além disso, o poder computacional limitado dos computadores na época permaneceu um obstáculo significativo.
Na década de 1980, o chamado “aprendizagem profunda” viu novos desenvolvimentos que permitiram que os computadores aprendessem novas habilidades por meio da experiência. Os sistemas especialistas de Edward Feigenbaum podem começar a imitar os processos humanos de tomada de decisão.
Década de 1990: Deep Blue Em 1997, o programa de computador Deep Blue da IBM derrotou o grande mestre de xadrez e campeão mundial Gary Kasparov, tornando-o um dos exemplos mais conhecidos de inteligência artificial até hoje. A partida recebeu muita atenção, tornando a IA mais conhecida do que nunca. O software de reconhecimento de fala avançou a ponto de poder ser integrado aos sistemas operacionais Windows ao mesmo tempo. Quando o Furby, o primeiro robô de brinquedo “de estimação”, foi apresentado ao público em 1998, a IA fez mais uma incursão significativa na vida pública.
Anos 2000: carros sem motorista e robôs humanóides no início dos anos 2000 aproximaram a IA dos tropos de ficção científica. Kismet foi introduzido em 2000 como um robô capaz de reconhecer e imitar emoções e tinha um rosto humano. No mesmo ano, a Honda revelou o robô humanóide ASIMO. O Google fez um protótipo de carro sem motorista em 2009, mas a notícia desse desenvolvimento só veio mais tarde.
Da década de 2010 até o presente, as tecnologias e aplicativos de IA se espalharam rapidamente na última década. O ImageNet, lançado inicialmente em 2007, é um forte conjunto de dados de imagens explicadas usadas para preparar programas de inteligência feitos pelo homem. Aplicativos de inteligência baseados em computador excepcionalmente avançados rastrearam sua direção no conhecido game show Danger!, videogames e até mesmo no iPhone em 2011, quando a Apple lançou seu assistente virtual Siri. Essa tecnologia ganhou ainda mais popularidade graças a programas e ferramentas como a Cortana da Microsoft e a Alexa da Amazon.
Atualmente, na era da web das coisas (IoT), é provável que alguém rastreie a inteligência artificial em pontos adicionais do que em qualquer outro momento. O desenvolvimento de veículos autônomos, ferramentas de aprendizado de máquina, chatbots, assistentes virtuais e uma variedade de outros programas de IA continua, frequentemente em um ritmo mais rápido e com mais poder. O chatbot ChatGPT, que estreou no final de 2022 e rapidamente ganhou muitos seguidores e inspirou outros programas de chatbot, é um dos projetos de IA que recebeu mais atenção da mídia. Os financiadores estão progressivamente centrados em organizações de inteligência simuladas. O destino final da inteligência baseada em computador parece ser esplêndido, mas também há pessoas que têm algumas dúvidas persistentes sobre a moral esperada ou outras preocupações.