IAG, ou Inteligência Artificial geral, é um dos assuntos em alta sobre tecnologia atualmente. Também é um dos mais controversos. Grande parte do problema é que poucas pessoas concordam com o significado do termo. Agora, uma equipe de pesquisadores do Google DeepMind publicou um artigo que vai além das discussões, não apenas com uma nova definição de IAG, mas também uma taxonomia completa delas.
Em termos gerais, IAG geralmente significa Inteligência Artificial que se iguala (ou supera) os humanos em uma série de tarefas. Mas as especificações sobre o que é considerado semelhante ao ser humano, quais tarefas e quantas tendem a ser ignoradas: IAG é IA, mas melhor.
Para chegar à nova definição, a equipe do Google DeepMind começou com definições existentes proeminentes de IAG e extraiu o que eles acreditam ser suas características essenciais comuns.
A equipe também descreve cinco níveis ascendentes de IAG: emergente (que, na visão deles, inclui chatbots de ponta como o ChatGPT e o Bard), competente, especialista, virtuoso e super-humano (que executa uma ampla gama de tarefas melhor do que todos os humanos, incluindo tarefas que os humanos não conseguem realizar, como decodificar os pensamentos de outras pessoas, prever eventos futuros e conversar com animais). Eles observam que nenhum nível além da IAG emergente foi alcançado.
“Isso proporciona uma clareza muito necessária sobre o assunto”, diz Julian Togelius, pesquisador de IA da Universidade de Nova York, que não participou do trabalho. “Muitas pessoas usam o termo IAG sem ter refletido muito sobre o que ele significa.”
Os pesquisadores publicaram seu artigo online na semana passada sem nenhum alarde. Em uma conversa exclusiva com dois membros da equipe — Shane Legg, um dos cofundadores da DeepMind, agora anunciado como cientista-chefe de IAG da empresa, e Meredith Ringel Morris, cientista principal da Google DeepMind para interação humana e de IA —, eu obtive informações sobre o motivo pelo qual eles chegaram a essas definições e o que queriam alcançar.
Uma definição mais precisa
“Vejo muitas discussões em que as pessoas parecem estar usando o termo para significar coisas diferentes, e isso gera todo tipo de confusão”, diz Legg, que criou o termo há cerca de 20 anos. “Agora que a IAG está se tornando um tópico tão importante — você sabe, até o primeiro-ministro do Reino Unido está falando sobre isso — precisamos definir melhor o que queremos dizer.”
Nem sempre foi assim. Falar de IAG já foi ridicularizado em conversas sérias como algo vago, na melhor das hipóteses, e como pensamento mágico, na pior. Mas, impulsionado pelo entusiasmo em torno dos modelos generativos, o burburinho sobre IAG está agora em toda parte.
Quando Legg sugeriu o termo ao seu antigo colaborador e parceiro de pesquisa Ben Goertzel para o título do livro de 2007 de Goertzel sobre os futuros desenvolvimentos em IA, a superficialidade era mais ou menos o ponto principal. “Eu não tinha uma definição muito clara. Não achei que fosse realmente necessário”, diz Legg. “Na verdade, eu estava pensando nela mais como um campo de estudo do que como um artefato.”
Na época, seu objetivo era distinguir a IA existente, que podia realizar uma tarefa muito bem, como o programa de xadrez Deep Blue da IBM, da IA hipotética que ele e muitos outros imaginavam que um dia realizaria muitas tarefas muito bem. A inteligência humana não é como o Deep Blue, diz Legg: “É uma coisa muito ampla”.
Mas, com o passar dos anos, as pessoas começaram a pensar na IAG como uma propriedade em potencial que os programas de computador poderiam ter. Atualmente, é normal que as principais empresas de IA, como a Google DeepMind e a OpenAI, façam declarações públicas ousadas sobre sua missão de criar tais programas.
“Se você começar a ter essas conversas, precisará ser muito mais específico sobre o que quer dizer”, diz Legg.
Por exemplo, os pesquisadores da DeepMind afirmam que uma IAG deve ser tanto de uso geral quanto de alto desempenho, e não apenas uma coisa ou outra. “Separar amplitude e profundidade dessa forma é muito útil”, diz Togelius. “Isso mostra por que os sistemas de IA muito bem-sucedidos que vimos no passado não se qualificam como IAG.”
Eles também afirmam que uma Inteligência Artificial geral não deve apenas ser capaz de realizar uma série de tarefas, mas também deve ser capaz de aprender a realizá-las, avaliar seu desempenho e solicitar assistência quando necessário. E eles afirmam que o que uma IAG pode fazer é mais importante do que como ele faz isso.
Não é que a forma como uma IAG funciona não seja importante, diz Morris. O problema é que ainda não sabemos o suficiente sobre como os modelos de ponta, como os modelos de linguagem de grande porte, funcionam nos bastidores para que isso seja o foco da definição.
“À medida que obtemos mais informações sobre esses processos subjacentes, pode ser importante revisitar nossa definição de IAG”, diz Morris. “Precisamos nos concentrar no que podemos medir hoje de uma forma cientificamente aceita.”
Tirando a medida
A medição do desempenho dos modelos atuais já é controversa, com pesquisadores debatendo o que realmente significa um modelo de linguagem grande passar em dezenas de testes de ensino médio e mais. Isso é um sinal de inteligência? Ou um tipo de aprendizado mecânico?
Avaliar o desempenho de modelos futuros que sejam mais capazes do que já são será ainda mais difícil. Os pesquisadores sugerem que, se a IAG for desenvolvida, suas capacidades deverão ser avaliadas continuamente, e não por meio de um punhado de testes pontuais.
A equipe também ressalta que a Inteligência Artificial geral não implica em autonomia. “Muitas vezes, há uma suposição implícita de que as pessoas gostariam que um sistema operasse de forma totalmente autônoma”, diz Morris. Mas esse nem sempre é o caso. Em teoria, é possível construir máquinas superinteligentes que sejam totalmente controladas por humanos.
Uma questão que os pesquisadores não abordam em sua discussão sobre o que é IAG é porque devemos construi-la. Alguns cientistas da computação, como Timnit Gebru, fundador do Distributed AI Research Institute, argumentaram que todo esse esforço é estranho. Em uma conversa em abril sobre o que ela vê como a falsa (e até perigosa) promessa de utopia por meio da IAG, Gebru observou que a tecnologia hipotética “parece um sistema sem escopo com o objetivo aparente de tentar fazer tudo para todos em qualquer ambiente”.
A maioria dos projetos de engenharia tem metas bem definidas. A missão de criar IAG não tem. Até mesmo as definições do Google DeepMind permitem que a IAG seja indefinidamente ampla e indefinidamente inteligente. “Não tente construir um deus”, disse Gebru.
Na corrida para criar sistemas maiores e melhores, poucos darão ouvidos a esse conselho. De qualquer forma, é bem-vinda alguma clareza em torno de um conceito há muito confundido. “Ter apenas conversas bobas é um pouco desinteressante”, diz Legg. “Há muitas coisas boas para explorar se conseguirmos superar essas questões de definição.”