Você já foi ameaçado por um chatbot de Inteligência Artificial (IA)? Em fevereiro, parece que quase todos os meios de comunicação testaram o mecanismo de busca de IA do Bing, da Microsoft, e descobriram que o chatbot inventa coisas estúpidas e assustadoras. Ele disse repetidas vezes a um colunista sobre tecnologia do New York Times que o “amava”, e depois alegou ter ficado “ofendido” pela linha de questionamento usada durante uma simulação de entrevista feita pelo jornal The Washington Post. Em resposta, a Microsoft limitou o Bing a cinco respostas por sessão, tentando reduzir as chances do software de perder o foco e começar a dizer coisas estranhas.
Mas não foram só os jornalistas que ficaram chocados (e alguns deles realmente deveriam ter mais juízo e não antropomorfizar ou ficarem muito entusiasmados com a capacidade de um chatbot idiota de ter sentimentos). A startup também recebeu muitas críticas de conservadores nos EUA que afirmam que o ChatGPT tem viés da “cultura woke” (termo derivado da expressão “stay woke”, algo como “continue consciente sobre temas sociais e políticos”, utilizado na política americana para se referir a políticas progressitas ou de esquerda).
Toda essa indignação finalmente está tendo um impacto. O estranho conteúdo gerado pelo Bing é produto de uma tecnologia de IA de linguagem semelhante ao ChatGPT, o qual a Microsoft personalizou especificamente para pesquisa online. Em meados de fevereiro, a OpenAI publicou uma postagem em seu blog visando esclarecer o comportamento esperado de seus chatbots. A empresa também divulgou suas diretrizes sobre como o ChatGPT deve responder quando questionado sobre as “guerras culturais” presentes nos EUA. Por exemplo, as regras incluem não se filiar a partidos políticos ou julgar um grupo como bom ou mau.
Conversei com Sandhini Agarwal e Lama Ahmad, dois pesquisadores de políticas de IA da OpenAI, sobre como a empresa está tornando o ChatGPT mais seguro e menos absurdo. A empresa se recusou a falar sobre sua relação com a Microsoft, mas eles tiveram alguns comentários interessantes. Confira a seguir:
Como obter respostas melhores: na pesquisa de modelos de linguagem de IA, uma das maiores questões em aberto é como impedir que os modelos “alucinem”, um termo educado para dizer que eles “inventam coisas”. O ChatGPT tem sido usado por milhões de pessoas há meses, mas não vimos esses exemplos de informações falsas e alucinações que o Bing vem gerando.
Isso não acontece pois a OpenAI usou uma técnica no ChatGPT chamada reinforcement learning a partir do feedback humano, que melhora as respostas geradas pelo modelo com base no feedback dos usuários. A técnica funciona da seguinte forma: o modelo pede às pessoas que escolham entre uma variedade de respostas diferentes antes de classificá-las dentro de diversos critérios diferentes, como factualidade e veracidade. Alguns especialistas acreditam que a Microsoft pode ter pulado ou apressado esta etapa para lançar o Bing, embora a empresa ainda não tenha confirmado ou negado essa afirmação.
Mas esse método não é perfeito, de acordo com Agarwal. As pessoas podem ter recebido opções que eram todas falsas e terem escolhido a opção menos falsa, diz ela. Em uma tentativa para tornar o ChatGPT mais confiável, a empresa tem se concentrado em limpar e arrumar seu conjunto de dados e remover exemplos em que o modelo tende a escolher informações falsas.
Fazendo Jailbreak no ChatGPT: desde o lançamento do ChatGPT, as pessoas têm tentado praticar o “jailbreak” nele, o que significa encontrar soluções alternativas para levar o modelo a quebrar suas próprias regras e gerar material racista ou conspiratório. Este esforço não passou despercebido na sede da OpenAI. Agarwal diz que a empresa examinou todo o seu banco de dados e selecionou as instruções que levaram à geração de conteúdo indesejado para melhorar o modelo e impedir que ele repita essas respostas.
A OpenAI quer ouvir você: a empresa disse que começará a coletar mais feedback do público para configurar seus modelos. A OpenAI está explorando o uso de pesquisas ou a criação de comitês populares para discutir qual conteúdo deve ser completamente banido, diz Lama Ahmad. “No contexto da arte, por exemplo, a nudez pode não ser algo considerado vulgar, mas imagine isso no contexto do ChatGPT sendo usado em sala de aula”, diz ela.
Projeto de consenso: historicamente, a OpenAI usa o feedback humano vindo de rotuladores de dados, mas reconhece que as pessoas contratadas para fazer esse trabalho não são diversificadas o suficiente em um contexto mais geral do mundo, diz Agarwal. A empresa quer ampliar os pontos de vista e as perspectivas representadas nesses modelos. Para esse fim, ela está trabalhando em um projeto mais experimental apelidado de “projeto de consenso”, no qual os pesquisadores da OpenAI estão analisando até que ponto as pessoas concordam ou discordam em diferentes tópicos gerados pelo modelo de IA. De acordo com Agarwal, as pessoas podem ter reações mais intensas em relação às respostas a perguntas como “os impostos são bons?” quando comparados com perguntas mais simples como “o céu é azul?”, por exemplo.
Um chatbot personalizado está chegando: por fim, a OpenAI acredita que pode conseguir treinar modelos de IA para representar diferentes perspectivas e visões de mundo. Portanto, ao invés de um ChatGPT único e de uso geral, as pessoas poderiam usá-lo para gerar respostas alinhadas com suas próprias ideologias políticas. De acordo com Agarwal, “é onde almejamos chegar, mas será uma jornada longa e difícil porque entendemos o quão desafiador é esse campo”.
O que eu acho disso: a OpenAI estar planejando convidar o público para participar e determinar onde os limites do ChatGPT podem estar é um bom sinal. Um bando de engenheiros em São Francisco (EUA) não pode, e francamente, não deveria determinar o que é aceitável para uma ferramenta usada por milhões de pessoas ao redor do mundo em culturas e contextos políticos muito diferentes. Estarei muito interessada em ver até onde eles estarão dispostos a levar essa customização política. A OpenAI estará de acordo em ter um chatbot que gera conteúdo que representa ideologias políticas extremistas? A Meta enfrentou duras críticas após permitir a incitação ao genocídio em Mianmar em sua plataforma e, cada vez mais, a OpenAI está entrando no mesmo tipo de confusão. Mais cedo ou mais tarde, ela vai perceber o quão complexo e confuso é o mundo da moderação de conteúdo.
Um aprendizado ainda mais profundo
A IA está inventando medicamentos jamais vistos antes. Agora temos que ver se eles funcionam.
Centenas de startups estão explorando o uso de machine learning na indústria farmacêutica. Os medicamentos projetados com a ajuda da IA estão agora em testes clínicos e rigorosos, feitos em voluntários humanos para ver se um tratamento é seguro, e se realmente funciona, antes que os órgãos reguladores os liberem para uso em larga escala.
Porque isso é algo importante: hoje, em média, são necessários mais de 10 anos e bilhões de dólares para desenvolver um novo medicamento. O objetivo é usar a IA para tornar a descoberta de novos mais rápida e barata. Ao prever como remédios em potencial podem se comportar no corpo e poder descartar compostos que não terão o resultado esperado antes que eles saiam do computador, os modelos de machine learning podem reduzir a necessidade de trabalhos meticulosos em laboratório. Para ler esta matéria de Will Douglas Heaven na íntegra, acesse aqui.
Bits e Bytes
A batalha pela pesquisa baseada no ChatGPT envolve mais do que a Microsoft ou o Google
Não são apenas as grandes empresas de tecnologia que estão tentando fazer a pesquisa com tecnologia de IA acontecer. Will Douglas Heaven analisa uma série de startups tentando remodelar o processo de pesquisa online, para o bem ou para o mal. (MIT Technology Review)
Uma nova ferramenta pode ajudar artistas a protegerem seus trabalhos contra geradores de arte baseados em IA
Os artistas criticam os sistemas de IA de criação de imagens por roubarem ou plagiarem seus trabalhos. Pesquisadores da Universidade de Chicago (EUA) desenvolveram uma ferramenta chamada Glaze, que adiciona uma espécie de “capa” às imagens que impedirá que os modelos de IA aprendam o estilo de um determinado artista. Essa capa parecerá invisível ao olho humano, mas distorcerá a maneira como os modelos de IA captam a imagem. (The New York Times)
Uma nova startup africana quer construir um laboratório de pesquisa para atrair de volta talentos
Isso é algo legal. A startup sul-africana de pesquisa em IA Lelapa quer convencer os africanos que trabalham em empregos de tecnologia no exterior a se demitirem e voltarem para sua terra natal para resolver questões que atendem às empresas e comunidades africanas. (Wired)
Um escritório de advocacia de elite usará chatbots de IA para redigir documentos
O escritório de advocacia britânico Allen and Overy anunciou que usará um chatbot de IA chamado Harvey para ajudar seus advogados a redigir contratos. O Harvey foi construído usando a mesma tecnologia do ChatGPT da OpenAI. Os advogados da empresa foram avisados de que precisam checar qualquer informação gerada por Harvey. Esperamos que eles sigam essa regra, ou isso pode ficar complicado. (The Financial Times)
Por dentro da corrida por um ChatGPT na China
Em fevereiro, quase todas as grandes empresas de tecnologia chinesas anunciaram planos de lançar seus próprios produtos semelhantes ao ChatGPT, relata meu colega Zeyi Yang em sua newsletter sobre tecnologia chinesa. Mas uma alternativa chinesa ao ChatGPT não aparecerá da noite para o dia, embora muitas empresas queiram que você pense assim. (MIT Technology Review)