Em julho do ano passado, um criador do TikTok chamado Ziggi Tyler postou um vídeo chamando a atenção para um problema inquietante que encontrou no Creator Marketplace do aplicativo, uma ferramenta que possibilita tanto marcas quanto criadores a se encontrarem para formar parcerias e falar sobre conteúdo patrocinado. Tyler disse que não conseguiu inserir frases como “Black Lives Matter” e “apoiar a excelência negra” em seu perfil do Marketplace. No entanto, frases como “supremacia branca” e “apoiar a excelência branca” foram permitidas.
Se você passou muito tempo no TikTok, provavelmente já viu criadores de conteúdo falarem de incidentes semelhantes.
Existem duas maneiras de tentar entender o impacto da moderação de conteúdo e os algoritmos que impõem essas regras: confiando no que a plataforma diz e perguntando aos próprios criadores. No caso de Tyler, o TikTok se desculpou e culpou um filtro automático configurado para sinalizar palavras associadas ao discurso de ódio – mas aparentemente incapaz de entender o contexto.
Brooke Erin Duffy, professora associada da Universidade de Cornell (EUA), juntou-se ao estudante de pós-graduação Colten Meisner para entrevistar 30 criadores de conteúdo no TikTok, Instagram, Twitch, YouTube e Twitter na época em que o vídeo de Tyler se tornou viral. Eles queriam saber como os criadores, principalmente os de grupos marginalizados, navegam pelos algoritmos e enxergam as práticas de moderação das plataformas que usam.
O que eles descobriram: os criadores de conteúdo investem muito tempo para compreender os algoritmos que moldam suas experiências e relacionamentos nessas plataformas. Muitos costumam usar mais de uma plataforma e por isso devem aprender as regras ocultas de cada uma. Alguns criadores adaptam toda a sua abordagem para produzir e promover conteúdo em resposta aos vieses algorítmicos e de moderação encontrados.
Abaixo está a entrevista feita com Duffy sobre sua pesquisa (editada e condensada para maior clareza).
Os criadores discutem há muito tempo como os algoritmos e a moderação afetam sua visibilidade nas plataformas que os tornaram famosos. Então, o que mais te surpreendeu ao fazer essas entrevistas?
Tínhamos a sensação de que as experiências dos criadores eram moldadas por sua compreensão do algoritmo, mas depois de fazer as entrevistas, começamos a entender realmente o quão extenso esse impacto tem em suas vidas cotidianas e no trabalho … a quantidade de tempo, energia e atenção que dedicam a aprender sobre esses algoritmos, a investir neles. Os influenciadores têm uma certa consciência crítica de que esses algoritmos são desiguais. Apesar disso, eles ainda estão investindo toda essa energia na esperança de entendê-los. Isso realmente chama a atenção para a natureza desigual da economia movimentada por eles.
Com que frequência os criadores estão pensando na possibilidade de serem censurados ou de seu conteúdo não chegar ao seu público por causa de práticas algorítmicas de supressão ou moderação?
Acho que estrutura fundamentalmente o processo de criação de conteúdo e também o processo de promoção dos mesmos. Esses algoritmos mudam aleatoriamente; não há critério. Em muitos casos, não há comunicação direta das plataformas. E isso impacta completa e fundamentalmente não apenas a experiência deles, mas também sua renda.
Eles investem muito tempo e trabalho nesses experimentos e falavam coisas tipo “Eu faria o mesmo tipo de conteúdo, mas mudaria isso um dia. Eu usaria esse tipo de roupa um dia e outro tipo no próximo”. Ou eles tentariam diferentes conjuntos de hashtags.
As pessoas diriam que têm interações online e offline com sua comunidade de criadores e falariam sobre como manipular o algoritmo, o que pode ser dito, o que pode potencialmente levantar alguma bandeira de alerta. Existem algumas formas importantes de organização coletiva que podem não se parecer com o que tradicionalmente consideramos trabalhadores organizados, mas ainda são formas poderosas para os criadores se unirem e desafiarem os sistemas de poder de cima para baixo.
Uma das coisas em que fiquei pensando ao ler suas descobertas foi o conceito de “shadow banning”, a prática de moderação de esconder ou limitar o alcance do conteúdo sem informar seu criador. Do ponto de vista de um jornalista, é difícil relatar o “shadow banning” porque é, por definição, oculta, mas é uma das principais preocupações que os criadores expressaram ao longo dos anos. Como você considerou esse conceito em sua pesquisa?
Algumas pessoas juram que foram bloqueadas parcialmente e outras dizem: “Bem, seu conteúdo é simplesmente ruim”. É um problema muito preocupante, porque qualquer um pode fazer essas afirmações.
A ambiguidade do “shadow banning” é, em parte, o que o torna tão poderoso. Como não há como realmente provar que qualquer pessoa nessas plataformas foi ou não bloqueada parcialmente, isso alimenta muita especulação. Mas se existe ou não, o fato de as pessoas agirem como se fossem ser punidas por limites em sua visibilidade vale a pena ser levado a sério.
Existe algo que possa ser feito para ajudar a resolver alguns desses problemas?
As plataformas divulgam em todos os sites seus benefícios para os criadores e [digamos] se você for talentoso o suficiente e tiver o conteúdo certo, poderá se conectar com o público e ganhar muito dinheiro. Os influenciadores estão atraindo muito dinheiro para essas plataformas por meio de dados e visualizações, mas não têm muito a dizer sobre as políticas de moderação de conteúdo dessas ferramentas e como elas são implementadas de forma desigual. A transparência radical é um pouco difícil, mas acho que os criadores deveriam ter mais representação em termos das decisões que impactam fundamentalmente seus negócios.