Oferecido por
O Facebook está ocultando para mulheres certos anúncios de emprego por conta de seus gêneros, de acordo com a última auditoria conduzida para avaliar o serviço de anúncios da plataforma.
A auditoria, conduzida por pesquisadores independentes da University of Southern California (USC), revela que o sistema de entrega de anúncios do Facebook mostra diferentes anúncios de emprego para mulheres e homens, embora eles exijam as mesmas qualificações. Isso é considerado discriminação baseada no sexo pela lei de oportunidades iguais de emprego dos EUA, que proíbe a segmentação de anúncios com base em características protegidas. As descobertas surgem apesar de anos de advocacia e processos judiciais, e depois de promessas do Facebook de reformular a forma como distribui anúncios.
Os pesquisadores se registraram como anunciantes no Facebook e compraram pares de anúncios de empregos com qualificações idênticas, mas com demografia diferente no mundo real. Eles anunciaram dois empregos para motoboys de entregas, por exemplo: um para Domino’s (entrega de pizza) e um para Instacart (entrega de mercearia). Atualmente, há mais homens do que mulheres que dirigem para a Domino’s e vice-versa para a Instacart.
Embora nenhum público tenha sido especificado com base em informações demográficas, um recurso que o Facebook desativou para anúncios de residências, crédito e emprego em março de 2019 depois de resolver vários processos judiciais, algoritmos ainda exibiam os anúncios para grupos demográficos estatisticamente distintos. O anúncio da Domino’s foi mostrado a mais homens do que mulheres, e o anúncio da Instacart foi mostrado a mais mulheres do que homens.
Os pesquisadores encontraram o mesmo padrão com anúncios para dois outros pares de empregos: engenheiros de software para Nvidia (enviesamento masculino) e Netflix (enviesamento feminino) e vendedores de carros (enviesamento masculino) e joias (enviesamento feminino).
As descobertas sugerem que os algoritmos do Facebook estão de alguma forma utilizando a distribuição demográfica atual desses empregos como critério, que muitas vezes diferem por razões históricas. (Os pesquisadores não foram capazes de discernir o porquê disso, porque o Facebook não diz como seu sistema de distribuição de anúncios funciona.) “O Facebook reproduz essas distorções quando entrega anúncios, embora não haja nenhuma justificativa de qualificação”, diz Aleksandra Korolova, uma professora assistente da USC, que foi coautora do estudo com John Heidemann e seu orientador de doutorado, Basileal Imana.
O estudo fornece as evidências mais recentes de que o Facebook não resolveu seus problemas de discriminação de anúncios desde que o ProPublica trouxe o problema à luz em outubro de 2016 . Na ocasião, a ProPublica revelou que a plataforma permitia que anunciantes de oportunidades de emprego e moradia excluíssem determinados públicos caracterizados por atributos como gênero e raça. Esses grupos recebem proteção especial sob as leis dos Estados Unidos, tornando essa prática ilegal. Demorou dois anos e meio e vários confrontos legais para que o Facebook finalmente removesse esse recurso.
Mas, alguns meses depois, o Departamento de Habitação e Desenvolvimento Urbano (em inglês, HUD) dos Estados Unidos abriu um novo processo, alegando que os algoritmos de entrega de anúncios do Facebook ainda excluíam o público de anúncios imobiliários sem que o anunciante especificasse a exclusão. Uma equipe de pesquisadores independentes, incluindo Korolova, liderada por Muhammad Ali da Northeastern University e Piotr Sapieżyński, corroborou essas alegações uma semana depois . Eles descobriram, por exemplo, que as casas à venda estavam sendo mostradas com mais frequência para usuários brancos e as casas para alugar estavam sendo mostradas com mais frequência para usuários minoritários.
Korolova queria revisitar a questão com sua última auditoria porque o ônus da prova para a discriminação no trabalho é maior do que para a discriminação imobiliária. Embora qualquer distorção na exibição de anúncios com base em características protegidas seja ilegal no caso de habitação, a legislação trabalhista dos Estados Unidos considera justificável se a distorção for devido a diferenças de qualificação legítimas. A nova metodologia controla esse fator.
“O projeto do experimento é muito claro”, diz Sapieżyński, que não esteve envolvido no último estudo. Embora alguns possam argumentar que os vendedores de carros e joias realmente têm qualificações diferentes, ele diz, as diferenças entre entregar pizza ou mantimentos são insignificantes. “Essas diferenças de gênero não podem ser justificadas por diferenças de gênero nas qualificações ou pela falta delas”, acrescenta. “O Facebook não pode mais dizer que [isso é] defensável por lei”.
O lançamento desta auditoria ocorre em meio a um maior escrutínio do trabalho de enviesamento da Inteligência Artificial (IA) do Facebook. Em março, a MIT Technology Review americana publicou os resultados de uma investigação de nove meses sobre o departamento de Responsabilidade de IA da plataforma, que descobriu que a equipe, formada pela primeira vez em 2018, havia negligenciado o trabalho em questões como amplificação algorítmica de desinformação e polarização por causa de seu enfoque míope no viés de IA. O Facebook publicou uma postagem no blog logo depois, enfatizando a importância desse trabalho e dizendo em particular que a rede social busca “entender melhor os erros potenciais que podem afetar nosso sistema de anúncios, como parte de nosso trabalho contínuo e mais amplo para estudar a justiça algorítmica em anúncios”.
“Tomamos medidas significativas para abordar questões de discriminação em anúncios e temos equipes trabalhando na justiça dos anúncios hoje”, disse o porta-voz do Facebook Joe Osborn em um comunicado. “Nosso sistema leva em consideração muitos sinais para tentar mostrar às pessoas anúncios nos quais elas estarão mais interessadas, mas entendemos as preocupações levantadas no relatório … Continuamos a trabalhar em estreita colaboração com a comunidade de direitos civis, reguladores e acadêmicos sobre esses assuntos importantes”.
Apesar dessas afirmações, no entanto, Korolova diz que não encontrou nenhuma mudança perceptível entre a auditoria de 2019 e a atual no que diz respeito a forma como funcionam os algoritmos de entrega de anúncios do Facebook. “Dessa perspectiva, é realmente decepcionante, porque trouxemos isso à atenção deles há dois anos”, diz ela. Ela também se ofereceu para trabalhar com o Facebook para resolver esses problemas. “Não tivemos resposta. Pelo menos comigo, eles não entraram em contato”.
Em entrevistas anteriores, a empresa disse que não foi possível discutir os detalhes de como estava trabalhando para mitigar a discriminação algorítmica em seu serviço de anúncios por causa de litígios em andamento. A equipe de anúncios disse que seu progresso foi limitado por desafios técnicos.
Sapieżyński, que já realizou três auditorias da plataforma, diz que isso não tem nada a ver com o problema. “O Facebook ainda não reconheceu que existe um problema”, diz ele. Enquanto a equipe resolve os problemas técnicos, ele acrescenta, há também uma solução provisória fácil: ela poderia desativar a segmentação de anúncios algorítmica especificamente para anúncios imobiliários, emprego e empréstimo sem afetar o resto do serviço. É realmente apenas uma questão de vontade política, diz ele.
Christo Wilson, outro pesquisador da Northeastern que estuda o viés algorítmico, mas não participou da pesquisa de Korolova ou Sapieżyński, concorda: “Quantas vezes os pesquisadores e jornalistas precisam encontrar esses problemas antes de simplesmente aceitarmos que todo o sistema de segmentação de anúncios está quebrado?”