O algoritmo de recomendação do YouTube gera 70% do que as pessoas assistem na plataforma.
Esse algoritmo molda as informações que bilhões de pessoas consomem, e o YouTube tem controles cujo objetivo é permitir que as pessoas ajustem o que ele mostra ou não a elas. Mas, segundo um novo estudo, isso não quer dizer muito. Em vez disso, os usuários têm pouco poder para manter vídeos indesejados fora de suas recomendações, o que pode incluir compilações de acidentes de carro, transmissões ao vivo de zonas de guerra e discursos de ódio.
Os pesquisadores da Mozilla analisaram sete meses de atividade no YouTube, de mais de 20.000 participantes, para avaliar quatro maneiras pelas quais o YouTube diz que as pessoas podem “ajustar suas recomendações” ao clicarem em Não gostei, Não tenho interesse, Remover do histórico ou Não recomendo este canal. Eles queriam ver a eficácia desses controles.
Cada participante instalou uma extensão do navegador que adicionou um botão Parar de recomendar no topo de todos os vídeos do YouTube que viram, além daqueles na barra lateral. Ao clicarem nele uma, das quatro respostas de ajuste de algoritmo, aparecia todas as vezes.
Dezenas de assistentes de pesquisa observaram os vídeos rejeitados para ver o quanto eles se assemelhavam à dezenas de milhares de recomendações subsequentes do YouTube para os mesmos usuários. Eles descobriram que os controles do YouTube têm um efeito “insignificante” nas recomendações que os participantes recebiam. Ao longo dos sete meses, um vídeo rejeitado gerou, em média, cerca de 115 recomendações ruins, ou seja, vídeos que se assemelhavam aos que os participantes já haviam dito ao YouTube que não queriam ver.
Pesquisas anteriores indicam que a prática do YouTube, de recomendar vídeos com os quais você provavelmente concorda e recompensar de certa forma conteúdo controverso, pode fortalecer certos tipos de opiniões e levar as pessoas à uma radicalização política. A plataforma também foi diversas vezes criticada por promover e viralizar vídeos sexualmente explícitos ou vídeos sugestivos incluindo crianças, um conteúdo que viola suas próprias políticas. Após uma apuração, o YouTube prometeu reprimir o discurso de ódio, aplicar melhor suas diretrizes e não usar seu algoritmo de recomendação para promover conteúdo “duvidoso”.
No entanto, o estudo descobriu que o conteúdo que parecia violar as próprias políticas do YouTube ainda estava sendo ativamente recomendado aos usuários, mesmo depois deles terem enviado respostas negativas por meio dos controles da plataforma.
Clicar em Não gostei, a forma mais visível de fornecer retorno negativo, interrompe apenas 12% das recomendações ruins. O controle Não interessado bloqueia apenas 11%. No entanto, o YouTube anuncia ambas as opções como formas de ajustar seu algoritmo para o que o usuário realmente quer ver.
Elena Hernandez, porta-voz do YouTube, diz: “Nossos controles não filtram tópicos ou pontos de vista em sua totalidade, pois isso pode ter efeitos negativos para os espectadores, como criar câmaras de eco”. Hernandez também diz que o relatório da Mozilla não leva em conta como o algoritmo do YouTube realmente funciona. Mas isso é algo que ninguém fora do YouTube realmente sabe, dadas as bilhões de entradas do algoritmo e a transparência limitada da empresa. O estudo da Mozilla tenta examinar essa caixa preta para entender melhor seus resultados.
As ferramentas que funcionam com maior precisão, segundo o estudo, não apenas expressam um sentimento, mas dão uma ordem explícita ao YouTube. Remover do histórico reduziu as recomendações indesejadas em 29% e Não recomendar este canal teve o desempenho mais razoável, interrompendo 43% das recomendações ruins. Apesar disso, vídeos de um canal que os espectadores pediram ao YouTube para silenciar ainda podem aparecer nas sugestões deles.
O relatório da Mozilla especula que isso ocorre porque a plataforma prioriza o tempo de exibição sobre a satisfação do usuário, uma métrica que o algoritmo de recomendação do YouTube nem considerou nos primeiros 10 anos de história da plataforma. Se o YouTube quiser “realmente colocar as pessoas no centro das decisões”, diz a Mozilla, a plataforma deve permitir que as pessoas treinem proativamente o algoritmo excluindo palavras-chave e determinados tipos de conteúdo de seus vídeos recomendados.
Muitas das questões levantadas pelo relatório da Mozilla estão centradas em recomendações de conteúdo potencialmente traumatizante. Por exemplo, mesmo após pedir ao YouTube que parasse de recomendar vídeos de armas de fogo, um usuário continuou recebendo em sua timeline vídeos de demonstração de armas. Da mesma forma, a plataforma continuou a recomendar imagens de fogo cruzado na Ucrânia para participantes que rejeitaram conteúdo semelhante.
Outras recomendações foram apenas desagradáveis. Um vídeo de enriquecimento rápido com criptomoedas e um “ASMR de experimentação de biquínis” são exemplos dos tipos de vídeos que os usuários sinalizaram negativamente, mas não conseguiram evitar suas recomendações. Um participante disse: “Parece que quanto mais feedback negativo eu dou, maior é a quantidade de porcaria que me recomendam”. Músicas natalinas são outra categoria de conteúdo recomendado que os participantes acharam difícil de escapar.
“Com essa lacuna entre a regra que eles escreveram e sua aplicação, o YouTube tem suas dificuldades, assim como todas as plataformas”, diz Mark Bergen, autor de Like, Comment, Subscribe, um livro recente sobre a ascensão do YouTube. “Parte disso é apenas porque eles estão lidando com um volume enorme de vídeo em muitos países e idiomas diferentes”.
Ainda assim, diz Bergen, a Inteligência Artificial do YouTube é poderosa o suficiente para oferecer aos usuários ferramentas para moldar o conteúdo que eles veem. “O YouTube gosta de dizer ‘O algoritmo é o público’”, diz Bergen. Mas para o escritor, está claro que os usuários comuns não estão sendo ouvidos ou não estão sendo compreendidos.