Tenho experimentado o uso de assistentes de IA em meu trabalho diário. O maior obstáculo para que eles sejam úteis é que, muitas vezes, eles entendem as coisas de forma totalmente errada. Em um caso, usei uma plataforma de transcrição ao entrevistar alguém sobre uma deficiência física, mas o resumo insistiu que a conversa era sobre autismo. Esse é um exemplo do problema de “alucinação” da IA, em que grandes modelos de linguagem simplesmente inventam coisas.
Recentemente, vimos algumas falhas de IA em uma escala muito maior. Na última (hilária) gafe, o Gemini do Google se recusou a gerar imagens de pessoas brancas, especialmente homens brancos. Em vez disso, os usuários conseguiram gerar imagens de papas negros e soldados nazistas do sexo feminino. O Google vinha tentando fazer com que os resultados de seu modelo fossem menos tendenciosos, mas o tiro saiu pela culatra e a empresa de tecnologia logo se viu no meio da guerra cultural dos EUA, com críticos conservadores e Elon Musk acusando-a de ter um viés “woke” e de não representar a história com precisão. O Google pediu desculpas e suspendeu o recurso.
Em outro incidente agora famoso, o bate-papo do Bing, da Microsoft, disse a um repórter do New York Times para deixar sua esposa. E os chatbots de atendimento ao cliente continuam colocando suas empresas em todos os tipos de problemas. Por exemplo, a Air Canada foi recentemente forçada a reembolsar um cliente em conformidade com uma política que seu chatbot de atendimento havia inventado. A lista continua.
As empresas de tecnologia estão apressando o lançamento de produtos com tecnologia de IA, apesar das inúmeras evidências de que eles são difíceis de controlar e geralmente se comportam de maneira imprevisível. Esse comportamento estranho acontece porque ninguém sabe exatamente como — ou por que — o deep learning, a tecnologia fundamental por trás do atual boom da IA, funciona. Esse é um dos maiores quebra-cabeças da Inteligência Artificial. Meu colega Will Douglas Heaven acaba de publicar um artigo no qual ele se aprofunda no assunto.
O maior mistério é como grandes modelos de linguagem, como o Gemini e o GPT-4 da OpenAI, podem aprender a fazer algo que não foram ensinados a fazer. Você pode treinar um modelo de linguagem em problemas de matemática em inglês e, em seguida, mostrar a ele literatura francesa e, a partir disso, ele pode aprender a resolver problemas de matemática em francês. Essas habilidades vão contra a estatística clássica, que fornece nosso melhor conjunto de explicações sobre como os modelos preditivos devem se comportar, escreve Will.
É fácil confundir percepções decorrentes de nossa ignorância com magia. Até mesmo o nome da tecnologia, Inteligência Artificial, é tragicamente enganoso. Os modelos de linguagem parecem inteligentes porque geram uma prosa semelhante à humana ao preverem a próxima palavra em uma frase. Mas a tecnologia não é realmente inteligente, e chamá-la assim muda sutilmente nossas expectativas para que a tratemos como mais capaz do que realmente é.
Não caia na armadilha do marketing do setor de tecnologia acreditando que esses modelos são oniscientes ou factuais, ou mesmo que estão quase prontos para os trabalhos que esperamos que eles façam. Devido à sua imprevisibilidade, tendências fora de controle, vulnerabilidades de segurança e propensão a inventar coisas, sua utilidade é extremamente limitada. Eles podem ajudar os humanos a fazerem brainstorming e podem nos entreter. Mas, sabendo o quanto esses modelos são problemáticos e propensos a falhas, provavelmente não é uma boa ideia confiar a eles os detalhes de seu cartão de crédito, suas informações confidenciais ou qualquer caso de uso crítico.
Como dizem os cientistas no artigo de Will, ainda é cedo no campo da pesquisa de IA. De acordo com Boaz Barak, cientista da computação da Universidade de Harvard que atualmente está cedido à equipe de superalinhamento da OpenAI, muitas pessoas no campo comparam-no à física no início do século XX, quando Einstein criou a teoria da relatividade.
Atualmente, o foco do campo é como os modelos produzem as coisas que fazem, mas são necessárias mais pesquisas sobre o motivo pelo qual eles fazem isso. Até que tenhamos uma melhor compreensão do interior da IA, espere mais erros estranhos e muita propaganda que a tecnologia inevitavelmente não estará à altura.
Melissa Heikkiläa é repórter sênior na MIT Technology Review.