A regulamentação da Inteligência Artificial está em alta. Desde o sucesso do ChatGPT da OpenAI, a atenção do público tem sido atraída pela ferramenta com admiração, mas também com preocupação sobre o que esses poderosos sistemas podem fazer. A IA generativa tem sido apontada como uma possível virada de jogo para ferramentas de produtividade e assistentes criativos. Mas ela já mostrou que também pode causar danos, pois tem sido usada para gerar informações imprecisas e pode ser usada como um facilitador para spam e fraude.
Nas últimas semanas, todos, desde CEOs de empresas de tecnologia até senadores e líderes dos Estados Unidos que estavam presentes na reunião do G7, pediram padrões internacionais e proteções mais rígidas para a tecnologia de IA. A boa notícia? Os legisladores não precisam começar do zero.
Analisamos seis tentativas internacionais diferentes de regulamentar a inteligência artificial, definimos os prós e os contras de cada uma e atribuímos a elas uma pontuação aproximada, indicando o grau de influência que consideramos ter.
Um tratado de IA juridicamente vinculativo
O Conselho da Europa, uma organização de direitos humanos que conta com 46 países como membros, está finalizando um tratado juridicamente vinculativo para a Inteligência Artificial. O documento exige que os signatários tomem medidas para garantir que a IA seja projetada, desenvolvida e aplicada de forma a proteger os direitos humanos, a democracia e o estado de direito. O tratado poderia incluir moratórias sobre tecnologias que representam um risco para os direitos humanos, como o reconhecimento facial.
Se tudo correr conforme o planejado, a organização deve concluir a redação do texto até novembro, conta Nathalie Smuha, acadêmica de direito e filósofa da Faculdade de Direito da KU Leuven, que assessora o conselho.
Prós: O Conselho da Europa inclui muitos países não europeus, inclusive o Reino Unido e a Ucrânia, e convidou outros países, como Estados Unidos, Canadá, Israel, México e Japão, para a mesa de negociações. “É um sinal forte”, diz Smuha.
Contras: Cada país precisa ratificar o tratado individualmente e depois implementá-lo na legislação nacional, o que pode levar anos. Há também a possibilidade de que os países possam optar por não participar de determinados elementos que não lhes agradem, como regras rigorosas ou moratórias. A equipe de negociação está tentando encontrar um equilíbrio entre o fortalecimento da proteção e a assinatura do maior número possível de países, diz Smuha.
Classificação da influência: 3/5
Os princípios de IA da OCDE
Em 2019, os países que pertencem à Organização para a Cooperação e o Desenvolvimento Econômico (OCDE) concordaram em adotar um conjunto de princípios não vinculativos que estabelecem alguns valores que devem sustentar o desenvolvimento da IA. De acordo com eles, os sistemas de Inteligência Artificial devem ser transparentes e explicáveis; devem funcionar de forma robusta, segura e protegida; devem ter mecanismos de responsabilidade; e devem ser projetados de forma a respeitar o estado de direito, os direitos humanos, os valores democráticos e a diversidade. Os princípios também afirmam que a IA deve contribuir para o crescimento econômico.
Prós: Esses princípios, que formam uma espécie de constituição para a política ocidental de IA, têm moldado as iniciativas de políticas sobre o assunto em todo o mundo desde então. A definição legal de IA da OCDE provavelmente será adotada na Lei de Inteligência Artificial da União Europeia, por exemplo. A OCDE também acompanha e monitora as regulamentações nacionais desse tema e faz pesquisas sobre o impacto econômico da IA. Ela tem uma rede ativa de especialistas globais que fazem pesquisas e compartilham práticas recomendadas.
Contras: O mandato da OCDE como organização internacional não é criar regulamentações, mas estimular o crescimento econômico, diz Smuha. E traduzir os princípios de alto nível em políticas viáveis exige muito trabalho por parte de cada país, diz Phil Dawson, diretor de políticas da plataforma Armilla, conhecida como “a plataforma de IA responsável”.
Classificação da influência: 4/5
A Parceria Global sobre IA
A Parceria Global sobre IA (GPAI), criada em 2020 pelo primeiro-ministro canadense Justin Trudeau e pelo presidente francês Emmanuel Macron, é um órgão internacional dedicado ao compartilhamento de pesquisas e informações, à promoção da colaboração global em pesquisas sobre inteligência artificial responsável, bem como à orientação de políticas de IA em todo o mundo. Participam 29 países na organização, incluindo alguns da África, América do Sul e Ásia.
Prós: O valor da GPAI é seu potencial para incentivar a pesquisa e a cooperação internacionais, diz Smuha.
Contras: Alguns especialistas em IA pediram a criação de um órgão internacional semelhante ao Painel Intergovernamental sobre Mudanças Climáticas da ONU para compartilhar conhecimentos e pesquisas sobre IA, e o GPAI tinha potencial para se encaixar nesse perfil. Mas, após um luxoso lançamento, a organização tem se mantido discreta e não publicou nenhum trabalho em 2023.
Classificação da influência: 1/5
A Lei de IA da UE
A União Europeia está finalizando a Lei de Inteligência Artificial, uma norma abrangente que visa regular os usos de maior “alto risco” dos sistemas. Proposto pela primeira vez em 2021, o projeto de lei regulamentaria a IA em setores como saúde e educação.
Prós: O projeto de lei pode responsabilizar os malfeitores e evitar os excessos prejudiciais do uso da Inteligência Artificial, emitindo multas enormes e impedindo a venda e o uso de tecnologia que não esteja em conformidade na UE. O projeto também visa regulamentar a IA generativa e impor algumas restrições aos sistemas considerados de risco “inaceitável”, como o reconhecimento facial. Por ser a única regulamentação abrangente de IA que existe, a União Europeia tem a vantagem de ser a pioneira. Há uma grande chance dessa lei acabar sendo a regulamentação de Inteligência Artificial no mundo, porque as empresas de países não pertencentes à UE que quiserem fazer negócios no poderoso bloco comercial vão precisar ajustar suas práticas para cumprir a lei.
Contras: Muitos elementos do projeto de lei, como proibições de reconhecimento facial e abordagens para regulamentar a IA generativa, são altamente controversos, e a UE enfrentará intenso lobby das empresas de tecnologia para atenuá-los. Além disso, vai levar pelo menos dois anos até que o projeto de lei passe pelo sistema legislativo da União Europeia e entre em vigor.
Classificação da influência: 5/5
Padrões técnicos do setor
Os padrões técnicos estabelecidos pelos órgãos normativos desempenharão um papel cada vez mais crucial na tradução de regulamentos em normas simples para que as empresas possam seguir, diz Dawson. Por exemplo, quando a Lei de Inteligência Artificial da União Europeia for aprovada, as empresas que atenderem a determinados padrões técnicos vão estar automaticamente em conformidade com a lei. Já existem muitos padrões de IA, e outros ainda estão por vir. A Organização Internacional de Padronização (ISO) já desenvolveu normas sobre como as empresas devem realizar o gerenciamento de riscos e as avaliações de impacto, bem com gerenciar o desenvolvimento da IA.
Prós: Esses padrões ajudam as empresas a traduzirem regulamentações complicadas em medidas práticas. E como os países começam a escrever suas próprias leis individuais para IA, os padrões vão ajudá-las na hora de criar produtos que funcionem em várias jurisdições, diz Dawson.
Contras: A maioria dos padrões é genérica e se aplica a diferentes setores. Portanto, as empresas precisam fazer uma boa parte da tradução para torná-las utilizáveis em cada setor. Isso pode ser um grande fardo para as pequenas empresas, diz Dawson. Um ponto de discordância é se especialistas técnicos e engenheiros devem elaborar regras sobre riscos éticos. “Muitas pessoas se preocupam com o fato de que os formuladores de políticas (…) simplesmente vão transfer muitas das questões difíceis sobre práticas recomendadas para o desenvolvimento de padrões do setor”, diz Dawson.
Classificação da influência: 4/5
As Nações Unidas
A Organização das Nações Unidas, que conta com 193 países como membros, quer ser o tipo de organização internacional que poderia apoiar e facilitar a coordenação global sobre Inteligência Artificial. Para fazer isso, a ONU criou um novo representante de tecnologia em 2021. Naquele ano, a agência da ONU UNESCO e os países membros também adotaram uma estrutura ética voluntária de IA, na qual se comprometem a, por exemplo, introduzir avaliações de impacto ético, avaliar o impacto ambiental e garantir que a IA promova a igualdade de gênero e não seja usada para vigilância em massa.
Prós: A ONU é o único lugar significativo no cenário internacional onde os países do Sul Global conseguiram influenciar a política de IA. Embora o Ocidente tenha se comprometido com os princípios da OCDE, a estrutura de ética de IA da UNESCO tem sido extremamente influente nos países em desenvolvimento, que são mais novos na ética de IA. Notavelmente, a China e a Rússia, que foram amplamente excluídas dos debates ocidentais sobre esses assuntos, também assinaram os princípios.
Contras: Isso levanta a questão de quão sinceros os países estão sendo sobre seguir as diretrizes éticas voluntárias, já que muitos países, incluindo a China e a Rússia, usaram a IA para vigiar as pessoas. A ONU também tem um histórico irregular quando se trata de tecnologia. A primeira tentativa da organização de coordenar a tecnologia global foi um fiasco: o diplomata escolhido como enviado de tecnologia foi suspenso após apenas cinco dias por um escândalo de assédio. E as tentativas da ONU de criar regras para drones autônomos letais (também conhecidos como robôs assassinos) não tiveram nenhum progresso durante anos.
Classificação da influência: 2/5