Big Data e Machine Learning são áreas da computação com muitos evangelistas — nada contra, eu só não sou um deles. Para iniciar esta conversa é importante partir da premissa de que os danos perpetuados por estas tecnologias não são atuais, são danos históricos que só agora estão sendo visibilizados.
Portanto, é importante fomentar o debate a partir disso, não cair no neoliberalismo de começar a distorcer o debate para pensar soluções, uma visão muito mercadológica para problemas estruturais e sociais. À medida que os algoritmos digitais se tornam cada vez mais integrados com contextos sociais, econômicos e políticos o debate sobre governança de dados, segurança digital e privacidade de dados se torna mais urgente no Brasil e no mundo. Estamos conectados quase que nas 24 horas do dia com dispositivos coletando dados de todas as formas possíveis para alimentar processos algorítmicos opacos.
Diante deste contexto, uma coisa é perceptível: a mudança na forma como visualizamos a privacidade e a opacidade na tecnologia. Relembrando o vazamento de Edward Snowden, em 2013, que contribuiu para uma consciência pública sobre tecnologias modernas sendo usadas para vigilância em massa. Com isso o tema de privacidade, que já era uma preocupação de forma geral, passou a ser tema de atenção em todos os setores da sociedade tornando públicas diversas brechas nas leis do país, mostrando claramente que não estávamos preparados para a evolução tecnológica. Mesmo com novos projetos de leis, (Marco legal da Inteligência Artificial, fake news e redes sociais) ainda estamos engatinhando no debate geral. E há um aspecto importantíssimo que deveria ser considerado no debate e nas conversas com as plataformas sociais, a opacidade.
Sabe-se que a opacidade faz parte do processo de construção de qualquer ferramenta tecnológica, muitos dos desenvolvedores acabam não debatendo sobre isso por falta de tempo ou de estímulo da própria empresa em que atuam. Em um dos parágrafos do PL 2.630/2020, que trata das fake news, fala-se sobre a transparência a respeito dos algoritmos usados para moderação de conteúdo pelas redes sociais. Algumas Big Techs argumentaram que isso iria visibilizar demais seu modelo de negócios, outras inventaram fake news sobre o processo, uma verdadeira vergonha.
O fato é que a mentalidade que impera no Vale do Silício é a do solucionismo tecnológico, de acreditar que, a partir destes aparatos tecnológicos, é possível controlar, moderar e impulsionar o que eles quiserem na vida das pessoas, e com isso é normalizado tornar os algoritmos parte do negócio, dificultando assim auditorias externas.
Para que levemos a sério a preocupação com a opacidade precisamos entender exatamente as suas origens, em seu artigo “How the machine ‘thinks’: Understanding opacity in machine learning algorithms”, Jenna Burrel argumenta que existem três tipos de opacidade que, muitas vezes, têm sido confundidos:
Opacidade intencional: o funcionamento do sistema interno é propositalmente escondido daqueles afetados por sua operação;
Opacidade não-alfabetizada: o funcionamento interno do sistema é opaco porque somente aqueles com conhecimento técnico especializado pode entender como ele funciona;
Opacidade intrínseca: o funcionamento do sistema é opaco devido a uma incompatibilidade entre o entendimento dos algoritmos que são usados para modelar a sociedade no universo digital.
A preocupação com a opacidade surge na etapa intermediária do processamento do algoritmo, que é justamente a etapa em que as associações são feitas automaticamente a partir da intervenção de mão humanas (na primeira etapa de inserção de dados, informações, etc.). Nesta etapa é que abordamos as questões éticas, políticas e sociais, pois com a demanda atual de volumes enormes de dados sendo produzidos, se torna impossível ter só mão humanas analisando qualquer tipo de conteúdo e/ou código.
O já citado PL das Fake News propõe novas práticas para as redes sociais, ainda assim práticas com metodologias não tão claras. Na última versão do texto, os meios de comunicação foram colocados no mesmo nível das redes sociais. No início do artigo é possível entender o motivo de ter apresentado alguns conceitos antes de adentrar a esta discussão, falta muita educação digital neste debate.
Há muito tempo estamos deixando que as Big techs, que em sua maioria reproduzem o pensamento do Vale do Silício, se tornem poderosas em nosso dia a dia, fazendo com que as pessoas se adaptem a seus formatos. O problema é tentar fazer com que se adequem à cultura e ao formato de cada país nos quais estão inseridos. Para que isso aconteça, não podemos igualar as redes sociais a formatos originalmente não digitais, que é o caso da comunicação jornalísticas.
A meu ver igualar essas duas perspectivas diminui as responsabilidades das Big Techs frente a moderação e responsabilização jurídicas dos crimes reproduzidos em suas plataformas, como é argumentado no artigo “Elites tecnológicas” de Safyia Noble. A visão que impera no Vale do Silício é a de taguear causas essenciais para movimentos sociais como práticas individuais, fazendo com que a responsabilidade também seja vista como individual, dificultando assim o uso da ferramenta jurídica nesses casos. No contexto brasileiro, por exemplo, é considerado um avanço e uma conquista do movimento negro, racismo ser considerado crime.
Não há como pensar soluções que igualem práticas e contextos diferentes para um mesmo problema, devemos lembrar que essas redes sociais não foram criadas no Brasil e poucas delas se preocupam em pensar ferramentas direcionadas para este contexto. Assim como critico este aspecto do PL das Fake News, reforço que pode ser também benéfico promover uma mudança de cultura em relação a auditorias e ferramentas proprietárias, com a abertura dos processos destas redes podemos verificar por meio de pesquisas os melhores caminhos para ferramentas abertas e que sejam mais condizentes com o contexto brasileiro.
Recentemente o Twitter apresentou diversos problemas envolvendo contas recebendo mensagens de que tinham denunciado perfis sem que isso de fato tenha sido feito pelo o usuário. Teríamos muito o que questionar e mudanças para promover se soubéssemos, por exemplo, como essa “feature” é pensada e colocada em prática pelas equipes responsáveis por isso.
No geral, a opacidade e o viés se encontram no debate mais social, deixando visível que as limitações humanas também podem ser reproduzidas nos meios tecnológicos e que, enquanto seres humanos, temos ferramentas mentais e emocionais para aceitar as limitações tecnológicas para que tenhamos um debate baseado no contexto real e não utópico como alguns tem feito. Não estamos presos no desenho animado Os Jetsons.
Este artigo foi produzido por Nina da Hora, Cientista da Computação e colunista da MIT Technology Review Brasil.