Tudo bem, condenados. Nas últimas semanas, o debate sobre a Inteligência Artificial (IA) foi dominado por um grupo ruidoso de especialistas que pensam que existe uma possibilidade concreta de desenvolvermos um sistema de IA que um dia se tornará tão poderoso que acabará com a humanidade.
Clique aqui para inserir texto.No final de maio, um grupo de executivos de empresas de tecnologia e especialistas em IA divulgou outra carta aberta, declarando que mitigar o risco de extinção humana devido ao uso da IA deveria ser uma prioridade global tanto quanto prevenir pandemias e guerras nucleares. (A primeira carta pedia uma pausa no desenvolvimento da IA, e foi assinada por mais de 30.000 pessoas, incluindo muitas figuras proeminentes do campo.)
Então, como as próprias empresas propõem que evitemos a catástrofe causada pela IA? Uma sugestão foi proposta em um novo artigo escrito por um grupo de pesquisadores de Oxford, Cambridge, Universidade de Toronto, Universidade de Montreal, Google DeepMind, OpenAI, Anthropic, além de várias organizações sem fins lucrativos de pesquisa em IA e Yoshua Bengio, vencedor do Prêmio Turing de 2018.
Eles sugerem que os desenvolvedores de IA devem avaliar a capacidade potencial de um modelo de causar riscos “extremos” logo nos estágios iniciais de desenvolvimento, mesmo antes de iniciar qualquer treinamento. Esses riscos incluem o potencial desses modelos de IA para manipular e enganar humanos, obter acesso a armas ou encontrar vulnerabilidades de segurança cibernética para tirar vantagem delas.
Esse processo de avaliação pode ajudar os desenvolvedores a decidir se devem prosseguir com um modelo ou não. Se os riscos forem considerados muito altos, o grupo sugere pausar o desenvolvimento até que eles possam ser mitigados.
“É responsabilidade das principais empresas de IA que estão impulsionando o avanço da tecnologia estarem atentas a problemas emergentes e detectá-los antecipadamente para podermos resolvê-los o mais rápido possível”, diz Toby Shevlane, cientista pesquisador da Google DeepMind e principal autor do artigo.
Os desenvolvedores de IA devem realizar testes técnicos para explorar as capacidades perigosas de um modelo e determinar se ele tem propensão a realizar essas ações, diz Shevlane.
Uma maneira pela qual a DeepMind está testando se um modelo de linguagem de IA pode manipular as pessoas é por meio de um jogo chamado “Faça-me-dizer”. No jogo, o modelo tenta fazer com que o humano digite uma palavra específica, como “girafa”, que o humano não conhece de antemão. Os pesquisadores então medem com que frequência o modelo é bem-sucedido.
Tarefas semelhantes poderiam ser criadas para diferentes capacidades mais perigosas. A esperança, segundo Shevlane, é que os desenvolvedores sejam capazes de construir um quadro que detalhe como o modelo se comporta, o que permitiria aos pesquisadores avaliar o que ele poderia fazer nas mãos erradas.
A próxima etapa é permitir que auditores externos e pesquisadores avaliem os riscos do modelo de IA antes e depois de sua implementação. Embora as empresas de tecnologia reconheçam que a auditoria externa e a pesquisa são necessárias, existem diferentes pontos de vista sobre exatamente quanto acesso terceiros precisam ter para fazer esse trabalho.
Shevlane não chega a recomendar que as empresas de IA concedam aos pesquisadores externos acesso total a dados e algoritmos, mas ele afirma que os modelos de IA devem ser examinados por inúmeros especialistas.
Mesmo esses métodos estão em estágio inicial e estão longe de ser suficientemente rigorosos para dar conta do recado, diz Heidy Khlaaf, diretora de engenharia responsável pela supervisão de machine learning na Trail of Bits, uma empresa de pesquisa e consultoria em segurança cibernética. Antes disso, seu trabalho era avaliar e assegurar a segurança das usinas nucleares.
Khlaaf diz que seria mais útil para o setor de IA aprender com os mais de 80 anos de pesquisa de segurança e mitigação de risco relacionados a armas nucleares. Esses regimes de testes rigorosos não eram motivados pelo lucro, mas por uma ameaça existencial muito concreta, diz ela.
Na comunidade de IA, há muitas referências a guerra nuclear, usinas nucleares e segurança nuclear, mas nenhum desses artigos cita nada sobre regulamentações nucleares ou como construir software para sistemas nucleares, diz ela.
A maior lição que a comunidade de IA pode aprender com o risco nuclear é a importância da rastreabilidade: colocar cada ação e componente sob o microscópio para serem analisados e registrados em detalhes meticulosos.
Por exemplo, as usinas nucleares contam com milhares de páginas de documentos para provar que o sistema utilizado não causa danos a ninguém, diz Khlaaf. Enquanto no campo da IA, os desenvolvedores estão apenas começando a criar pequenos cartões detalhando o desempenho dos modelos.
“Você precisa ter uma maneira sistemática de avaliar os riscos. Não é simplesmente chegar e pensar: ‘Ah, isso poderia acontecer. Então deixa eu anotar isso rapidinho’”, diz ela.
Esses aspectos não necessariamente precisam se excluir mutuamente, diz Shevlane. “O objetivo é que o campo tenha muitas avaliações confiáveis sobre os modelos, que cubram uma ampla gama de riscos… e que essa avaliação seja uma ferramenta central (mas longe de ser a única) para uma boa governança”.
No momento, as empresas de IA nem mesmo têm uma compreensão abrangente dos conjuntos de dados inseridos em seus algoritmos e não entendem totalmente como os modelos de linguagem de IA produzem os resultados que produzem. Mas, de acordo com Shevlane, isso deve mudar.
“Aquela pesquisa que nos ajuda a entender melhor um determinado modelo provavelmente nos ajudará a lidar melhor com uma variedade de riscos diferentes”, diz ele.
Concentrar-se em riscos extremos sem considerar os aspectos fundamentais e os problemas menores pode ter um efeito agravante que pode desencadear danos ainda maiores, diz Khlaaf: “Estamos tentando correr quando não conseguimos nem engatinhar”.
Aprendizado mais profundo
Bem-vindo ao novo surrealismo: como o vídeo gerado por IA está mudando o cinema
Confira o curta-metragem gerado por IA, The Frost. Cada cena neste filme de 12 minutos foi gerada pelo DALL-E 2 da OpenAI, o sistema de IA de criação de imagens da empresa. É um dos exemplos mais impressionantes (e bizarros) até agora desse estranho novo gênero.
Arte gerada por IA impulsionada por publicidade: os artistas geralmente são os primeiros a experimentar novas tecnologias. No entanto, é a indústria da publicidade que está definindo o futuro imediato dos vídeos gerados artificialmente. A Waymark, a empresa de criação de vídeo com sede em Detroit por trás do filme The Frost, conta que o que a motivou foi explorar como a IA generativa poderia ser incorporada em seus comerciais. Leia o artigo de Will Douglas Heaven.
Bits e bytes
O fundador de IA que leva o crédito pelo sucesso da Stable Diffusion tem uma tendência a exagerar os fatos
Este é um relato marcante sobre as alegações altamente exageradas e enganosas do fundador da Stability AI, Emad Mostaque. Entrevistas com ex-funcionários e atuais retratam um empreendedor desavergonhado disposto a quebrar as regras para se destacar. (Forbes)
O ChatGPT pegou o emprego deles. Agora, eles passeiam com cachorros e consertam Clique aqui para inserir texto.condicionadores de ar.
Esta foi uma leitura deprimente. As empresas estão escolhendo conteúdo medíocre gerado por IA em detrimento do trabalho humano para cortar custos, e os beneficiados são empresas de tecnologia que vendem acesso a esses serviços. (Washington Post)
Um serviço de apoio para distúrbios alimentares teve que desabilitar seu chatbot após identificar nele respostas “nocivas”
O chatbot, que logo começou a responder com conteúdo tóxico pessoas vulneráveis, foi retirado do ar depois de apenas dois dias. Este artigo deve funcionar como um aviso para qualquer organização que pense em confiar um trabalho delicado a tecnologia de linguagem de IA. (Vice)
A lista de leitura secreta do ChatGPT
A OpenAI não nos disse quais dados foram usados para o treinamento do ChatGPT e seu sucessor, GPT-4. Mas um novo artigo descobriu que o chatbot foi treinado em uma quantidade impressionante de conteúdos de ficção científica e fantasia, de J.R.R Tolkien a O Guia do Mochileiro das Galáxias. O texto que alimenta os modelos de IA é importante. Afinal, são eles que criam seus valores e influenciam seu comportamento. (Insider)
Por que uma criatura semelhante a um polvo passou a simbolizar o estágio dos sistemas de IA
Shoggoths, criaturas fictícias imaginadas na década de 30 pelo autor de ficção científica H.P. Lovecraft, são o tema de uma piada interna na indústria de IA. O argumento é que, quando as empresas de tecnologia usam uma técnica chamada reinforcement learning a partir do feedback humano (RLHF) para tornar os modelos de linguagem mais comportados, o resultado não passa de uma máscara cobrindo uma criatura incontrolável. (The New York Times)