A Internet pode parecer um buraco negro cheio dos piores aspectos da humanidade. Até agora, há poucas indicações de que o metaverso, um mundo digital virtual imaginado onde trabalhamos, brincamos e vivemos, será muito melhor. Como relatado em janeiro, uma usuária beta da plataforma social virtual da Meta, a Horizon Worlds, já reclamou de ter sido assediada sexualmente.
Tiffany Xingyu Wang sente que tem uma solução. Em agosto de 2020, mais de um ano antes do Facebook anunciar que mudaria seu nome para Meta e que passaria a focar em planos para seu próprio metaverso ao invés de sua plataforma de rede social, Wang criou o Oasis Consortium, onde um grupo de empresas de jogos e organizações online acredita na ideia de desenvolver “uma internet ética na qual as gerações futuras confiam que podem interagir, co-criar e existir livre de ódio e toxicidade online”.
Como? Wang acredita que o Oasis pode garantir um metaverso melhor e mais seguro, ajudando as empresas de tecnologia a se autorregularem.
No início de janeiro, o Oasis lançou o conjunto de diretrizes Padrões de Segurança do Usuário, que incluem a contratação de um oficial de confiabilidade e segurança, moderação de conteúdo e integração das pesquisas mais recentes na luta contra a toxicidade. As empresas que aderem ao consórcio comprometem-se a trabalhar em direção a esses objetivos.
“Quero dar à web e ao metaverso uma nova opção”, diz Wang, que passou os últimos 15 anos trabalhando em Inteligência Artificial (IA) e moderação de conteúdo. “Se o metaverso quer sobreviver, ele deve garantir a segurança”.
Ela está certa: o sucesso da tecnologia está ligado à sua capacidade de garantir que os usuários não se machuquem. Mas podemos realmente confiar nas empresas do Vale do Silício para se autorregularem no metaverso?
Um plano para um metaverso mais seguro
As empresas que se juntaram ao Oasis até agora incluem a plataforma de jogos Roblox, a empresa de paquera Grindr e a gigante de videogames Riot Games, entre outras. Juntas, elas têm centenas de milhões de usuários, muitos dos quais já usam ativamente os espaços virtuais.
No entanto, vale a pena notar que Wang ainda não falou com Meta, sem dúvida o agente mais importante no futuro do metaverso. Sua estratégia é se aproximar das grandes empresas de tecnologia “quando elas testemunharem as mudanças significativas que estamos fazendo na vanguarda do movimento”. (A Meta indicou dois documentos quando questionada sobre seus planos de segurança no metaverso: um comunicado à imprensa detalhando parcerias com grupos e indivíduos para “construir o metaverso com responsabilidade” e uma postagem no blog sobre como manter os espaços de Realidade Virtual (RV) seguros. Ambos foram escritos pelo CTO da Meta, Andrew Bosworth.)
Wang diz que espera garantir a transparência de algumas maneiras. Uma delas é a criação de um sistema de classificação para que a sociedade saiba qual é a posição de cada empresa na manutenção da confiabilidade e segurança, semelhante ao mecanismo seguido por muitos restaurantes, onde são exibidas as pontuações que a cidade dá em relação ao atendimento das normas de saúde e segurança. Outra é exigir que as empresas associadas contratem um oficial de confiabilidade e segurança. Essa vaga se tornou cada vez mais comum em empresas maiores, mas não há um conjunto de padrões acordados pelos quais cada responsável pela confiança e segurança deva obedecer, diz Wang.
Mas muito do plano do Oasis permanece, na melhor das hipóteses, idealista. Um exemplo é uma proposta de uso de machine learning para detectar assédio e discurso de ódio. Como relatado pela repórter Karen Hao no ano passado, os modelos de IA ou dão ao discurso de ódio muita chance de se espalhar ou então de serem exagerados. Ainda assim, Wang defende a promoção da IA pelo Oasis como uma ferramenta de moderação. “A IA é tão boa quanto os dados”, diz ela. “As plataformas compartilham diferentes práticas de moderação, mas todas trabalham para obter melhor precisão, tempos de reação mais rápidos e segurança por meio da prevenção através do design.”
O documento em si tem sete páginas e descreve os objetivos futuros do consórcio. Muito disso parece uma declaração de missão, e Wang diz que os primeiros meses de trabalho se concentraram na criação de grupos consultivos para ajudar a criar as metas.
Outros elementos do plano, como sua estratégia de moderação de conteúdo, são vagos. Wang diz que gostaria que as empresas contratassem um conjunto diversificado de moderadores de conteúdo para que possam entender e combater o assédio de pessoas de cor e daqueles que se identificam como não homens. Mas seu plano não oferece outras medidas para atingir esse objetivo.
De acordo com as leis de privacidade, o consórcio não espera que as empresas membros compartilhem dados sobre quais usuários estão sendo abusivos, dificultando a identificação de infratores reincidentes nas plataformas. As empresas de tecnologia participantes farão parceria com organizações sem fins lucrativos, agências governamentais e policiais para ajudar a criar políticas de segurança, diz Wang. Ela também planeja que as empresas que participam do Oasis tenham uma equipe de resposta policial cujo trabalho será notificar a polícia sobre assédio e abuso. Mas ainda não está claro como o trabalho da força-tarefa com a polícia será diferente do status quo.
Equilibrando privacidade e segurança
Apesar da falta de detalhes concretos, especialistas acham que o documento de padrões do consórcio é um bom primeiro passo, pelo menos. “É bom que o Oasis esteja olhando para a autorregulação, começando pelas pessoas que conhecem os sistemas e suas limitações”, diz Brittan Heller, advogada especializada em tecnologia e direitos humanos.
Não é a primeira vez que empresas de tecnologia trabalham juntas dessa maneira. Em 2017, alguns concordaram em trocar informações livremente com o Global Internet Forum to Combat Terrorism (GIFCT). Hoje, o GIFCT permanece independente e as empresas que o aderem se autorregulam.
Lucy Sparrow, pesquisadora da Escola de Computação e Sistemas de Informação da Universidade de Melbourne (Austrália), diz que o Oasis oferece às empresas algo com que trabalhar, em vez de esperar que elas mesmas criem a linguagem ou esperem um terceiro para fazer esse trabalho.
Sparrow acrescenta que incorporar a ética no design desde o início, como o Oasis defende, é admirável e que sua pesquisa em sistemas de jogos multiplayer mostra que isso faz a diferença. “A ética tende a ser deixada de lado, mas aqui, eles [Oasis] estão incentivando a pensar sobre isso desde o início”, diz ela.
Mas Heller diz que o design ético pode não ser suficiente e sugere que as empresas de tecnologia reformulem seus termos de serviço, que foram fortemente criticados por tirar vantagem de consumidores sem conhecimento jurídico.
Sparrow concorda, dizendo que hesita em acreditar que um grupo de empresas de tecnologia agirá no melhor interesse dos consumidores. “Isso realmente levanta duas questões”, diz ela. “Uma, quanto confiamos em corporações movidas a capital para controlar a segurança? E dois, quanto controle queremos que as empresas de tecnologia tenham sobre nossas vidas virtuais?”
É uma situação complicada, especialmente porque os usuários têm direito à segurança e privacidade, mas essas necessidades podem estar em tensão.
Por exemplo, os padrões do Oasis incluem diretrizes para apresentar queixas às autoridades se os usuários forem assediados. Se uma pessoa deseja registrar uma denúncia agora, geralmente é difícil fazê-lo, porque, por motivos de privacidade, as plataformas geralmente não registram o que está acontecendo.
Essa mudança faria uma grande diferença na capacidade de disciplinar infratores reincidentes que atualmente podem se safar de abusos e assédios cometidos em várias plataformas, simplesmente porque elas não se comunicam entre si sobre quais usuários são problemáticos. No entanto, Heller diz que, embora seja uma ótima ideia na teoria, é difícil colocá-la em prática, porque as empresas são obrigadas a manter a privacidade das informações dos usuários de acordo com os termos de serviço.
“Como você pode manter esses dados anônimos e ainda fazer com que o compartilhamento seja eficaz?” ela pergunta. “Qual seria o limite para compartilhar os dados? Como tornar o processo de compartilhamento de informações transparente e tornar recorríveis as exclusões do usuário? Quem teria autoridade para tomar tais decisões?”
“Não há precedentes de empresas compartilhando informações [com outras empresas] sobre usuários que violam os termos de serviço por assédio ou outro mau comportamento semelhante, mesmo que ultrapasse os limites da plataforma”, acrescenta ela.
Uma melhor moderação de conteúdo, por pessoas e não por máquinas, poderia parar o assédio direto na fonte. No entanto, Heller não está certa sobre como o Oasis planeja padronizar a moderação de conteúdo, especialmente entre um meio baseado em texto e outro mais virtual. E a moderação no metaverso virá com seu próprio conjunto de desafios.
“A moderação de conteúdo em feeds de rede social realizada com o uso de IA que captura discurso de ódio é treinada principalmente para texto”, diz Heller. “A moderação de conteúdo em RV precisará principalmente rastrear e monitorar o comportamento dos usuários, e os atuais mecanismos de relatório de VR e AR [realidade virtual e aumentada] são questionáveis na melhor das hipóteses e muitas vezes ineficazes. Neste momento, não é algo que pode ser automatizado”.
Isso coloca a responsabilidade e o peso de denunciar o abuso sobre o usuário — como a vítima que foi apalpada no espaço da Meta experimentou. O áudio e o vídeo muitas vezes também não são gravados, dificultando a comprovação de uma agressão. Mesmo entre essas plataformas de gravação de áudio, diz Heller, a maioria retém apenas trechos, tornando o contexto difícil, se não impossível, de entender.
Wang enfatizou que os Padrões de Segurança do Usuário foram criados por um conselho consultivo de segurança, mas todos são membros do consórcio, o que deixou Heller e Sparrow incomodadas. A verdade é que as empresas nunca tiveram um grande histórico de proteção à saúde e segurança do consumidor na história da internet; por que devemos esperar algo diferente agora?
Sparrow acha que não podemos. “O ponto é ter um sistema em vigor para que a justiça possa ser decretada ou sinalize que tipo de comportamentos são esperados, e que há consequências para aqueles que não cumprirem com as regras. Isso pode significar envolver outras partes interessadas e cidadãos, ou algum tipo de governança participativa que permita que os usuários testemunhem e atuem como júri.
Uma coisa é certa, porém: a segurança no metaverso pode exigir mais do que um grupo de empresas de tecnologia prometendo cuidar de nós.
Nota do editor: Este artigo foi corrigido para refletir com mais precisão como o Oasis compartilharia dados sobre usuários abusivos e seus planos de cumprimento da lei.