Ultimamente, tenho me preocupado muito com as mudanças climáticas. Em meados de novembro em Londres, estava quente o suficiente para tomar uma cerveja ao ar livre sem casaco. Enquanto os líderes mundiais se reuniram no Egito para a última semana da conferência do clima COP-27 para ficarem de “blá, blá, blá”, eu me concentrei na pegada de carbono causada pela Inteligência Artificial (IA).
Recentemente, publiquei um artigo sobre a primeira tentativa de cálculo generalizado das emissões de gases do efeito estufa de um dos produtos de IA mais populares no momento, os grandes modelos de linguagem, e como isto ajudaria a incentivar o setor de tecnologia a mudar seus comportamentos e práticas quanto à poluição.
A startup de IA Hugging Face calculou as emissões de seu grande modelo de linguagem BLOOM, e seus pesquisadores descobriram que seu processo de treinamento emitia 25 toneladas de carbono. No entanto, essas emissões dobraram quando levaram em consideração os custos mais amplos de hardware e infraestrutura da execução do modelo. Eles divulgaram seu trabalho em um artigo publicado no arXiv, que ainda não foi revisado por pares.
A descoberta em si não é muito surpreendente. O BLOOM é muito mais “limpo” do que outros grandes modelos de linguagem, como o GPT-3 da OpenAI e o OPT da Meta, porque foi treinado em um supercomputador francês alimentado por energia nuclear. Na realidade, a importância deste trabalho é que ele aponta para uma maneira melhor de calcularmos o impacto climático causado pelos modelos de IA, indo além do mero aspecto de treinamentos e levando em conta o uso deles no mundo real.
O treinamento é apenas a ponta do iceberg porque, embora seja muito poluente, ele só precisa acontecer uma vez. Quando lançados ao público, os modelos de IA alimentam sistemas como os algoritmos de recomendação usados por empresas de tecnologia ou então os esforços de classificação de comentários dos usuários. Estas ações por si só usam muito menos energia, mas podem chegar a acontecer um bilhão de vezes por dia. Isso tudo acaba somando.
As empresas de tecnologia querem que nos concentremos apenas nas emissões dos treinamentos de modelos de IA, pois isto melhora suas reputações, disse David Rolnick, professor assistente de ciência da computação na Universidade McGill (Canadá), o qual trabalha com IA e mudanças climáticas.
De acordo com Rolnik, quando você leva em consideração como a IA está sendo usada para impulsionar indústrias extremamente poluidoras, a verdadeira pegada de carbono da Inteligência Artificial provavelmente será maior do que o sugerido pelo trabalho da Hugging Face, isto sem mencionar seus efeitos sociais mais abrangentes. Por exemplo, algoritmos de recomendação são frequentemente usados em publicidade, o que, por sua vez, leva as pessoas a comprar mais, causando mais emissões.
E embora a IA possa desempenhar um papel no combate contra as mudanças climáticas, ela também está contribuindo para a espiral da morte do nosso planeta. Estima-se que o setor de tecnologia seja responsável por 1,8% a 3,9% das emissões globais de efeito estufa. Embora apenas uma fração dessas emissões seja causada pelo uso da IA e de machine learning, este rastro de carbono ainda é muito alto para apenas um único campo da tecnologia.
O artigo da Hugging Face é uma boa maneira de começar a abordar essa questão, tentando fornecer dados sinceros sobre as emissões imputáveis a um modelo de IA. Empresas de tecnologia como a Google e a Meta, as quais dominam esse setor, não publicam esses dados. Isto significa que de fato não temos uma noção remotamente precisa da pegada de carbono provocada pela IA no momento.
Exigir que as empresas de tecnologia forneçam mais dados sobre o impacto climático da construção, treinamento e uso da IA é um começo. Também devemos deixar de ser obcecados com a construção de modelos de IA cada vez maiores e tentar encontrar maneiras de fazer pesquisas na área usando métodos mais eficientes em termos de energia, entre elas ajustarmos os modelos já existentes.
Um aprendizado ainda mais profundo
Por dentro da nova tentativa da Alphabet X para combater as mudanças climáticas com IA e ervas marinhas
A MIT Technology Review americana teve uma prévia do Tidal, um novo projeto para mitigar as mudanças climáticas da X, a divisão para grandes e árduos avanços tecnológicos da empresa-mãe da Google, a Alphabet. O Tidal usa câmeras, visão computacional e machine learning para acompanhar o carbono armazenado na biomassa dos oceanos. Faz parte de uma tentativa para melhorar nossa compreensão dos ecossistemas subaquáticos, a fim de incentivar e trazer informação para os trabalhos de proteção dos oceanos em meio a ameaças crescentes de poluição, pesca predatória, acidificação e aquecimento global.
Com projetos como o Tidal, a X está criando ferramentas para garantir que as indústrias possam lidar melhor com os riscos ao meio-ambiente, e que os ecossistemas possam sobreviver em um mundo mais quente e hostil. Ela também está dependendo bastante dos pontos fortes de sua empresa-mãe, aproveitando a experiência em robótica da Alphabet, bem como sua capacidade de obter previsões a partir de grandes quantidades de dados usando Inteligência Artificial. Leia o artigo de James Temple sobre este tema.
Bits e Bytes
– Elon Musk está começando a sofrer as consequências após demitir equipes da área de IA
Quando o bilionário assumiu o Twitter, ele demitiu metade da equipe da empresa, incluindo funcionários do setor de machine learning que trabalhavam para garantir que a infraestrutura da plataforma fosse segura, protegida e confiável. A equipe de uso ético da IA e aqueles que trabalhavam na infraestrutura do site estavam entre os demitidos. Os resultados foram quase imediatos: a rede social está lentamente começando a desmoronar. Conversamos com um ex-engenheiro do Twitter para saber quais são as chances desta situação acabar bem. (MIT Technology Review americana)
– Um processo judicial pode reescrever as regras de direitos autorais da IA
No primeiro processo de ação coletiva nos EUA sobre o treinamento de sistemas de IA, a Microsoft, o GitHub e a OpenAI estão sendo processadas por supostamente violar a lei de direitos autorais ao reproduzir código-fonte aberto usando IA. A ferramenta GitHub Copilot vasculha sites em busca de código e, como grandes modelos de linguagem, regurgita o que foi coletado em seu banco de dados sem creditar a fonte original. Uma ação judicial contestando a legalidade desse modelo pode causar grandes efeitos indiretos em outros sistemas de IA treinados com coleta de informação da internet, desde os softwares de geração de texto até a IA de criação de imagens. (The Verge)
– Os EUA e a China estão realmente em uma guerra fria de IA?
Esta é uma série de reportagens realmente interessante que revela algumas das narrativas problemáticas em torno da corrida pelo desenvolvimento de IA entre os EUA e a China. (Protocol)
– O novo robô da Amazon pode manusear a maioria dos itens em depósitos
Este novo robô, chamado Sparrow, pode pegar itens em prateleiras ou cestos para que possam ser embalados em caixas. Normalmente, isto é muito complicado para os robôs, porque existem muitos tipos diferentes de objetos com formas e tamanhos distintos. O robô da Amazon usa machine learning e câmeras para identificar objetos. Isso pode ajudar a acelerar as operações de armazenagem. (Wired)
– Gerador de supermodelo
Uma nova IA de conversão de texto para imagem chamada Aperture foi lançada pela empresa Lexica em novembro, e parece ser capaz de gerar fotos de super modelos muito realistas. Estou muito curiosa para ver este modelo em ação, porque outras IAs geradoras de imagens populares, como DALL-E e a Stable Diffusion, têm uma grande dificuldade para gerar dedos e mãos, bem como rostos humanos que não pareçam ter derretido sob o sol.