É mais um verão de condições climáticas extremas, com ondas de calor, incêndios florestais e enchentes sem precedentes atingindo países do mundo todo. Em resposta ao desafio de prever com precisão esses extremos, a gigante dos semicondutores Nvidia está criando um “gêmeo digital” com tecnologia de IA para todo o planeta.
Esse gêmeo digital, chamado Earth-2, usará as previsões do FourCastNet, um modelo de IA que usa dezenas de terabytes de dados do sistema terrestre e pode prever as próximas duas semanas de clima dezenas de milhares de vezes mais rápido e com mais precisão do que os métodos de previsão atuais.
Os sistemas usuais de previsão do tempo têm a capacidade de gerar cerca de 50 previsões para a semana seguinte. Em vez disso, o FourCastNet pode prever milhares de possibilidades, capturando com precisão o risco de desastres raros, mas mortais, e dando às populações vulneráveis um tempo valioso para se prepararem e evacuarem.
A esperada revolução na modelagem climática é apenas o começo. Com o advento da IA, a ciência está prestes a se tornar muito mais empolgante e, de certa forma, irreconhecível. As reverberações dessa mudança serão sentidas muito além do laboratório; elas afetarão a todos nós.
Se jogarmos nossas cartas da maneira certa, com uma regulamentação sensata e o devido apoio aos usos inovadores da IA para abordar as questões mais urgentes da ciência, a IA poderá reescrever o processo científico. Podemos construir um futuro em que as ferramentas acionadas por IA nos pouparão de um trabalho inútil e demorado e também nos levarão a invenções e descobertas criativas, incentivando avanços que, de outra forma, levariam décadas.
Nos últimos meses, a IA tornou-se quase sinônimo de grandes modelos de linguagem, ou LLMs, mas na ciência há uma infinidade de arquiteturas de modelos diferentes que podem ter impactos ainda maiores. Na última década, a maior parte do progresso na ciência ocorreu por meio de modelos menores e “clássicos” focados em questões específicas. Esses modelos já trouxeram avanços profundos. Mais recentemente, modelos maiores de aprendizagem profunda que estão começando a incorporar conhecimento entre domínios e IA generativa expandiram o que é possível.
Cientistas da McMaster e do MIT, por exemplo, usaram um modelo de IA para identificar um antibiótico para combater um patógeno que a Organização Mundial da Saúde classificou como uma das bactérias resistentes a antibióticos mais perigosas do mundo para pacientes hospitalares. Um modelo do Google DeepMind pode controlar o plasma em reações de fusão nuclear, aproximando-nos de uma revolução de energia limpa. No setor de saúde, a Administração de Alimentos e Medicamentos dos EUA já liberou 523 dispositivos que usam IA — 75% deles para uso em radiologia.
Reimaginando a ciência
Em sua essência, o processo científico que todos nós aprendemos no ensino fundamental permanecerá o mesmo: realizar pesquisas de base, identificar uma hipótese, testá-la por meio de experimentos, analisar os dados coletados e chegar a uma conclusão. Mas a IA tem o potencial de revolucionar a aparência de cada um desses componentes no futuro.
A Inteligência Artificial já está transformando a forma como alguns cientistas realizam revisões de literatura. Ferramentas como PaperQA e Elicit aproveitam os LLMs para examinar bancos de dados de artigos e produzir resumos sucintos e precisos da literatura existente — incluindo as citações.
Uma vez concluída a revisão da literatura, os cientistas formam uma hipótese a ser testada. Em sua essência, os LLMs trabalham prevendo a próxima palavra em uma frase, chegando a frases e parágrafos inteiros. Essa técnica torna os LLMs especialmente adequados para problemas de escala intrínsecos à estrutura hierárquica da ciência e pode permitir que eles prevejam a próxima grande descoberta na física ou na biologia.
A Inteligência Artificial também pode ampliar a rede de pesquisa de hipóteses e estreitá-la mais rapidamente. Como resultado, as ferramentas de IA podem ajudar a formular hipóteses mais sólidas, como modelos que geram candidatos mais promissores para novos medicamentos. Já estamos vendo simulações sendo executadas várias ordens de magnitude mais rapidamente do que há apenas alguns anos, permitindo que os cientistas experimentem mais opções de design na simulação antes de realizar experimentos no mundo real.
Os cientistas da Caltech, por exemplo, usaram um modelo de simulação de fluido de IA para projetar automaticamente um cateter melhor que evita que as bactérias nadem rio acima e causem infecções. Esse tipo de capacidade mudará fundamentalmente o processo incremental da descoberta científica, permitindo que os pesquisadores projetem a solução ideal desde o início, em vez de progredir por meio de uma longa linha de projetos progressivamente melhores, como vimos em anos de inovação em filamentos no projeto de lâmpadas.
Passando para a etapa de experimentação, a Inteligência Artificial será capaz de realizar experimentos mais rápidos, mais baratos e em maior escala. Por exemplo, podemos construir máquinas acionadas por IA com centenas de micropipetas funcionando dia e noite para criar amostras em um ritmo que nenhum ser humano poderia igualar. Em vez de se limitarem a apenas seis experimentos, os cientistas podem usar ferramentas de IA para realizar mil.
Os cientistas que estão preocupados com o próximo processo de concessão, publicação ou posse não estarão mais vinculados a experimentos seguros com as maiores chances de sucesso; eles estarão livres para buscar hipóteses mais ousadas e interdisciplinares. Ao avaliar novas moléculas, por exemplo, os pesquisadores tendem a se ater a candidatos de estrutura semelhante aos que já conhecemos, mas os modelos de IA não precisam ter os mesmos vieses e restrições.
Eventualmente, grande parte da ciência será conduzida em “laboratórios autônomos” – plataformas robóticas automatizadas combinadas com inteligência artificial. Aqui, podemos trazer as proezas da IA do mundo digital para o mundo físico. Esses laboratórios autônomos já estão surgindo em empresas como Emerald Cloud Lab e Artificial e até mesmo no Argonne National Laboratory.
Finalmente, no estágio de análise e conclusão, os laboratórios autônomos irão além da automação e, informados pelos resultados experimentais que produziram, usarão LLMs para interpretar os resultados e recomendar o próximo experimento a ser executado. Em seguida, como parceiros no processo de pesquisa, o assistente de laboratório de IA poderia solicitar suprimentos para substituir os usados em experimentos anteriores e configurar e executar os próximos experimentos recomendados durante a noite, com os resultados prontos para serem entregues pela manhã — tudo isso enquanto o pesquisador está em casa dormindo.
Possibilidades e limitações
Jovens pesquisadores podem estar se remexendo nervosamente em seus assentos diante dessa perspectiva. Felizmente, os novos empregos que surgirão com essa revolução provavelmente serão mais criativos e menos estúpidos do que a maioria dos trabalhos de laboratório atuais.
As ferramentas de IA podem reduzir a barreira de entrada para novos cientistas e abrir oportunidades para aqueles tradicionalmente excluídos do campo. Com os LLMs capazes de ajudar na criação de códigos, os estudantes de STEM não precisarão mais dominar linguagens de codificação obscuras, abrindo as portas da torre de marfim para novos talentos não tradicionais e facilitando o envolvimento dos cientistas com campos além do seu. Em breve, os LLMs especificamente treinados poderão ir além da oferta de primeiros rascunhos de trabalhos escritos, como propostas de subsídios, e poderão ser desenvolvidos para oferecer revisões “por pares” de novos artigos, juntamente com revisores humanos.
As ferramentas de Inteligência Artificial têm um potencial incrível, mas precisamos reconhecer onde o toque humano ainda é importante e evitar correr antes de poder andar. Por exemplo, não será fácil conseguir unir a IA e a robótica por meio de laboratórios autônomos. Há muito conhecimento tácito que os cientistas aprendem em laboratórios que é difícil de passar para a robótica com IA. Da mesma forma, devemos estar cientes das limitações — e até mesmo das alucinações — dos atuais LLMs antes de transferir grande parte de nossa papelada, pesquisa e análise para eles.
Empresas como a OpenAI e a DeepMind ainda estão liderando o caminho em novos avanços, modelos e trabalhos de pesquisa, mas o atual domínio do setor não durará para sempre. Até agora, a DeepMind tem se destacado por se concentrar em problemas bem definidos com objetivos e métricas claros. Um de seus sucessos mais famosos ocorreu na Critical Assessment of Structure Prediction (Avaliação crítica da previsão de estrutura), uma competição bienal em que equipes de pesquisa preveem a forma exata de uma proteína a partir da ordem de seus aminoácidos.
De 2006 a 2016, a pontuação média na categoria mais difícil variou de cerca de 30 a 40 na escala de 1 a 100 do CASP. De repente, em 2018, o modelo AlphaFold da DeepMind obteve a incrível pontuação de 58. Uma versão atualizada chamada AlphaFold2 obteve 87 pontos dois anos depois, deixando seus concorrentes humanos ainda mais para trás.
Graças aos recursos de código aberto, estamos começando a ver um padrão em que o setor atinge determinados padrões de referência e, em seguida, a academia entra em ação para refinar o modelo. Após o lançamento do AlphaFold pela DeepMind, Minkyung Baek e David Baker, da Universidade de Washington, lançaram o RoseTTAFold, que usa a estrutura da DeepMind para prever as estruturas de complexos proteicos, em vez de apenas as estruturas de proteínas individuais com as quais o AlphaFold podia lidar originalmente. Mais importante ainda, os acadêmicos estão mais protegidos das pressões competitivas do mercado, de modo que podem se aventurar além dos problemas bem definidos e dos sucessos mensuráveis que atraem a DeepMind.
Além de alcançar novos patamares, a Inteligência Artificial pode ajudar a verificar o que já sabemos, abordando a crise de replicabilidade da ciência. Cerca de 70% dos cientistas relatam não ter conseguido reproduzir o experimento de outro cientista — um número desanimador. Como a IA reduz o custo e o esforço da execução de experimentos, em alguns casos será mais fácil replicar os resultados ou concluir que eles não podem ser replicados, contribuindo para uma maior confiança na ciência.
O segredo da replicabilidade e da confiança é a transparência. Em um mundo ideal, tudo na ciência seria de acesso aberto, desde artigos sem paywalls até dados, códigos e modelos de código aberto. Infelizmente, com os perigos que esses modelos são capazes de desencadear, nem sempre é realista tornar todos os modelos de código aberto. Em muitos casos, os riscos de ser totalmente transparente superam os benefícios da confiança e da equidade. No entanto, na medida em que pudermos ser transparentes com os modelos — especialmente os modelos clássicos de IA com usos mais limitados — devemos ser.
A importância da regulamentação
Em todas essas áreas, é essencial lembrar as limitações e os riscos inerentes à Inteligência Artificial. A IA é uma ferramenta tão poderosa porque permite que os seres humanos realizem mais com menos: menos tempo, menos educação, menos equipamentos. Mas esses recursos a tornam uma arma perigosa nas mãos erradas. Andrew White, professor da Universidade de Rochester, foi contratado pela OpenAI para participar de uma “equipe vermelha” que poderia expor os riscos do GPT-4 antes que ele fosse lançado. Usando o modelo de linguagem e dando-lhe acesso a ferramentas, White descobriu que ele poderia propor compostos perigosos e até mesmo encomendá-los a um fornecedor de produtos químicos. Para testar o processo, ele enviou um composto de teste (seguro) para sua casa na semana seguinte. A OpenAI diz que usou suas descobertas para ajustar o GPT-4 antes de ser lançado.
Mesmo os seres humanos com intenções totalmente boas ainda podem levar as IAs a produzir resultados ruins. Devemos nos preocupar menos com a criação do Exterminador do Futuro e, como disse o cientista da computação Stuart Russell, mais com a possibilidade de nos tornarmos o Rei Midas, que desejava que tudo o que tocasse se transformasse em ouro e, assim, matou acidentalmente sua filha com um abraço.
Não temos nenhum mecanismo para fazer com que uma IA mude seu objetivo, mesmo quando ela reage ao seu objetivo de uma forma que não prevemos. Uma situação hipotética muito citada pede que você imagine dizer a uma IA para produzir o maior número possível de clipes de papel. Determinado a atingir seu objetivo, o modelo sequestra a rede elétrica e mata qualquer ser humano que tente impedi-lo enquanto os clipes de papel continuam a se acumular. O mundo fica em ruínas. A IA dá um tapinha nas próprias costas; ela fez seu trabalho. (Em uma piscadela para esse famoso experimento mental, muitos funcionários da OpenAI carregam consigo clipes de papel de marca).
A OpenAI conseguiu implementar um conjunto impressionante de proteções, mas elas só permanecerão em vigor enquanto o GPT-4 estiver hospedado nos servidores da OpenAI. É provável que logo chegue o dia em que alguém consiga copiar o modelo e hospedá-lo em seus próprios servidores. Esses modelos de fronteira precisam ser protegidos para evitar que os ladrões removam as proteções de segurança da IA tão cuidadosamente adicionadas por seus desenvolvedores originais.
Para lidar com os maus usos intencionais e não intencionais da IA, precisamos de uma regulamentação inteligente e bem-informada — tanto para os gigantes da tecnologia quanto para os modelos de código aberto — que não nos impeça de usar a IA de maneiras que possam ser benéficas para a ciência. Embora as empresas de tecnologia tenham feito avanços na segurança da IA, os órgãos reguladores do governo estão lamentavelmente mal preparados para promulgar leis adequadas e devem tomar medidas maiores para se informar sobre os desenvolvimentos mais recentes.
Além da regulamentação, os governos, juntamente com a filantropia, podem apoiar projetos científicos com alto retorno social, mas com pouco retorno financeiro ou incentivo acadêmico. Várias áreas são especialmente urgentes, incluindo mudanças climáticas, biossegurança e preparação para pandemias. É nessas áreas que mais precisamos da velocidade e da escala que as simulações de IA e os laboratórios de direção autônoma oferecem.
O governo também pode ajudar a desenvolver conjuntos de dados grandes e de alta qualidade, como aqueles nos quais a AlphaFold se baseou, desde que as preocupações com a segurança permitam. Os conjuntos de dados abertos são bens públicos: eles beneficiam muitos pesquisadores, mas os pesquisadores têm pouco incentivo para criá-los eles mesmos. O governo e as organizações filantrópicas podem trabalhar com universidades e empresas para identificar desafios seminais na ciência que se beneficiariam do acesso a bancos de dados poderosos.
A química, por exemplo, tem uma linguagem que une o campo, o que parece se prestar a uma análise fácil por modelos de IA. Mas ninguém agregou adequadamente os dados sobre propriedades moleculares armazenados em dezenas de bancos de dados, o que nos impede de acessar percepções sobre o campo que estariam ao alcance dos modelos de IA se tivéssemos uma única fonte. A biologia, por sua vez, não tem os dados conhecidos e calculáveis que sustentam a física ou a química, com subcampos como proteínas intrinsecamente desordenadas que ainda são misteriosas para nós. Portanto, será necessário um esforço mais concentrado para entender — e até mesmo registrar — os dados para um banco de dados agregado.
O caminho a ser percorrido para a ampla adoção da IA nas ciências é longo, com muitas coisas que precisamos acertar, desde a criação dos bancos de dados corretos até a implementação das regulamentações corretas, atenuando os vieses nos algoritmos de IA e garantindo acesso igualitário aos recursos de computação além das fronteiras.
No entanto, este é um momento profundamente otimista. As mudanças de paradigma anteriores na ciência, como o surgimento do processo científico ou do Big Data, foram voltadas para o interior, tornando a ciência mais precisa, exata e metódica. A IA, por sua vez, é expansiva, o que nos permite combinar informações de maneiras inovadoras e levar a criatividade e o progresso das ciências a novos patamares.
Eric Schmidt foi CEO do Google de 2001 a 2011. Atualmente, ele é cofundador da Schmidt Futures, uma iniciativa filantrópica que aposta desde cedo em pessoas excepcionais que estão melhorando o mundo, aplicando a ciência e a tecnologia e reunindo pessoas de diferentes áreas.