No início deste ano, quando percebi como a IA generativa tornou ridiculamente fácil manipular as imagens das pessoas, maximizei as configurações de privacidade em minhas contas de mídia social e troquei minhas fotos de perfil do Facebook e do X (antigo Twitter) por ilustrações minhas.
A revelação veio depois de brincar com o software de edição de imagens baseado no Stable Diffusion e vários aplicativos de deepfake. Com uma foto de rosto tirada do Twitter e alguns cliques e instruções de texto, consegui gerar vídeos pornográficos deepfake de mim mesma e editar as roupas da minha foto. Como jornalista, já sofri mais do que minha cota de abuso on-line. Eu estava tentando ver o quanto isso poderia piorar com as novas ferramentas de IA à disposição das pessoas.
Embora o pornô deepfake não consensual tenha sido usado para atormentar as mulheres durante anos, a última geração de IA o torna um problema ainda maior. Esses sistemas são muito mais fáceis de usar do que a tecnologia deepfake anterior e podem gerar imagens que parecem completamente convincentes.
Os sistemas de IA de imagem para imagem, que permitem que as pessoas editem imagens existentes usando IA generativa, “podem ser de altíssima qualidade (…) porque se baseiam basicamente em uma única imagem de alta resolução existente”, diz Ben Zhao, professor de ciência da computação da Universidade de Chicago. “O resultado obtido é da mesma qualidade, tem a mesma resolução, tem o mesmo nível de detalhes, porque muitas vezes [o sistema de IA] está apenas movendo as coisas.”
Você pode imaginar meu alívio quando soube de uma nova ferramenta que poderia ajudar as pessoas a protegerem suas imagens da manipulação por IA. O PhotoGuard foi criado por pesquisadores do MIT e funciona como um escudo protetor para fotos. Ele as altera de forma imperceptível para nós, mas impede que os sistemas de IA mexam nelas. Se alguém tentar editar uma imagem que tenha sido “imunizada” pelo PhotoGuard usando um aplicativo baseado em um modelo de IA generativo, como o Stable Diffusion, o resultado parecerá irrealista ou distorcido. Leia minha história sobre isso.
Outra ferramenta que funciona de maneira semelhante é chamada Glaze. Mas, em vez de proteger as fotos das pessoas, ela ajuda os artistas a evitarem que suas obras protegidas por direitos autorais e seus estilos artísticos sejam transformados em conjuntos de dados de treinamento para modelos de IA. Alguns artistas estão revoltados desde que modelos de IA geradores de imagens, como o Stable Diffusion e o DALL-E 2, entraram em cena, argumentando que as empresas de tecnologia extraem sua propriedade intelectual e a utilizam para treinar esses modelos sem compensação ou crédito.
O Glaze, desenvolvido por Zhao e uma equipe de pesquisadores da Universidade de Chicago, ajuda a resolver esse problema. Ele “camufla” as imagens, aplicando alterações sutis que são quase imperceptíveis para os seres humanos, mas que impedem que os modelos de IA aprendam os recursos que definem o estilo de um determinado artista.
Zhao diz que o Glaze corrompe os processos de geração de imagens dos modelos de IA impedindo-os de gerar um número infinito de imagens que se pareçam com trabalhos de determinados artistas.
O PhotoGuard tem uma demo on-line que funciona com o Stable Diffusion e os artistas logo terão acesso ao Glaze. Zhao e sua equipe estão atualmente testando a versão beta do sistema e permitirão que um número limitado de artistas inscreva-se para usá-lo.
Mas essas ferramentas não são perfeitas nem suficientes por si só. Você ainda pode fazer uma captura de tela de uma imagem protegida pelo PhotoGuard e usar um sistema de IA para editá-la, por exemplo. E, embora provem que existem soluções técnicas simples para o problema da edição de imagens com IA, elas não têm valor por si só, a menos que as empresas de tecnologia comecem a adotar ferramentas como essas de forma mais ampla. No momento, nossas imagens on-line são um jogo justo para qualquer pessoa que queira abusar delas ou manipulá-las usando IA.
A maneira mais eficaz de evitar que nossas imagens sejam manipuladas por agentes mal-intencionados seria as plataformas de mídia social e as empresas de IA fornecerem maneiras para as pessoas imunizarem suas imagens que funcionam com cada modelo de IA atualizado.
Em um compromisso voluntário com a Casa Branca, as principais empresas de IA se comprometeram a “desenvolver” maneiras de detectar conteúdo gerado por IA. Entretanto, elas não prometeram adotá-las. Se elas levam a sério a proteção dos usuários contra os danos da IA generativa, essa talvez seja a primeira etapa mais importante.
Deeper Learning
A criptografia pode oferecer uma solução para o enorme problema de rotulagem de IA
A marca d’água de conteúdo gerado por IA está gerando muito burburinho como uma solução política elegante para atenuar os possíveis danos da IA generativa. Mas há um problema: as melhores opções disponíveis atualmente para identificar o material criado pela inteligência artificial são inconsistentes, impermanentes e, às vezes, imprecisas. (De fato, há um tempo atrás, a OpenAI fechou sua própria ferramenta de detecção de IA devido às altas taxas de erro).
Conheça o C2PA: Lançado há dois anos, é um protocolo de Internet de código aberto que se baseia em criptografia para codificar detalhes sobre as origens de um conteúdo, ou o que os tecnólogos chamam de informações de “procedência”. Os desenvolvedores do C2PA geralmente comparam o protocolo a um rótulo nutricional, mas um que diz de onde o conteúdo veio e quem – ou o quê – o criou. Leia mais sobre Tate Ryan-Mosley aqui.
Bits e Bytes
O futuro da guerra, movido a IA e totalmente autônomo, está aqui
Uma boa olhada em como uma força-tarefa da Marinha dos EUA está usando robótica e IA para se preparar para a próxima era de conflitos, e como as startups de defesa estão criando tecnologia para a guerra. Os militares adotaram a automação, embora muitas questões éticas espinhosas permaneçam. (Wired)
O calor extremo e as secas estão gerando oposição aos data centers de IA
Os data centers que alimentam os modelos de IA consomem milhões de galões de água por ano. As empresas de tecnologia estão enfrentando uma oposição cada vez maior a essas instalações em todo o mundo e, como os recursos naturais estão ficando cada vez mais escassos, os governos também estão começando a exigir mais informações delas. (Bloomberg)
Esta startup indiana está compartilhando as recompensas da IA com anotadores de dados
A limpeza de conjuntos de dados usados para treinar modelos de linguagem de IA pode ser um trabalho árduo e pouco respeitado. A Karya, uma organização sem fins lucrativos, se autodenomina “a primeira empresa de dados éticos do mundo” e está canalizando seus lucros para áreas rurais pobres da Índia. Ela oferece indenização aos trabalhadores muitas vezes acima da média indiana. (Time)
O Google está usando modelos de linguagem de IA para treinar robôs
A empresa de tecnologia está usando um modelo treinado com dados da Web para ajudar os robôs a executarem tarefas e reconhecer objetos para os quais não foram treinados. O Google espera que esse método faça com que os robôs se adaptem melhor ao confuso mundo real. (The New York Times)