Seu próximo emprego pode depender de quão bem você pontua nos jogos de Inteligência Artificial (IA) que empresas como AstraZeneca e Postmates estão usando cada vez mais em seus processos seletivos.
Algumas empresas responsáveis pela criação desses jogos, como Pymetrics e Arctic Shores, afirmam que eles limitam a discriminação durante os processos de contratação. Mas estes jogos podem ser especialmente difíceis para aquelas Pessoas com Deficiência (PcD) que estão à procura de um emprego.
No podcast da MIT Technology Review americana “In Machines We Trust”, exploramos como jogos de recrutamento movidos a IA e outras tecnologias podem excluir PcDs. E embora muitas pessoas nos EUA esperam que a comissão federal responsável pela discriminação no emprego regule essas ferramentas, a agência ainda não agiu.
Para obter uma ideia melhor da situação, pedimos Henry Claypool, analista de política para pessoas com deficiência, para jogar um dos jogos da Pymetrics. A Pymetrics avalia nove habilidades, incluindo atenção, generosidade e tolerância ao risco, que a CEO e cofundadora, Frida Polli, diz estarem relacionadas ao sucesso no trabalho.
Ao prestar serviços a uma empresa que deseja contratar novos colaboradores, a Pymetrics primeiro pede à empresa que identifique as pessoas que já são bem-sucedidas na atividade que estão tentando preencher e as faz jogar. Em seguida, para identificar as habilidades mais específicas dos funcionários de sucesso, a Pymetrics compara os dados do jogo com os dados de uma amostra aleatória de jogadores.
Quando Claypool se inscreveu, o jogo o levou a escolher entre uma versão modificada — projetada para pessoas com daltonismo, TDAH ou dislexia — e uma versão não modificada. Essa questão já representa um dilema para os candidatos com deficiência, diz ele.
“O medo é que, se eu clicar em um deles, divulgue algo que me desqualifique para o trabalho, e se eu não clicar em, digamos, dislexia ou o que quer que torne difícil ler as letras e processar essas informações rapidamente, então estarei em desvantagem ”, diz Claypool. “Vou falhar de qualquer maneira”.
Polli diz que a Pymetrics não informa aos empregadores quais candidatos solicitaram adequações no jogo durante o processo seletivo, o que deve ajudar a evitar que os empregadores discriminem pessoas com certas deficiências. Ela acrescentou que, em resposta à nossa reportagem, a empresa tornará essas informações mais claras para que os candidatos saibam que sua necessidade de adaptação no jogo é privada e confidencial.
A Lei dos Americanos com Deficiências (ADA, em inglês) exige que os empregadores forneçam adaptações razoáveis para estas pessoas. E se as avaliações de contratação de uma empresa excluem PcDs, ela deve provar que essas habilidades são necessárias para o trabalho.
Para os empregadores, o uso de jogos, como os produzidos pela Arctic Shores, pode parecer mais objetivo. Ao contrário dos testes psicométricos tradicionais, o algoritmo do Arctic Shores avalia os candidatos com base em suas escolhas ao longo do jogo. No entanto, os candidatos muitas vezes não sabem o que o jogo está medindo ou o que esperar enquanto jogam. Para candidatos com deficiência, isso torna difícil saber se eles devem pedir um ajuste.
Safe Hammad, CTO e cofundador da Arctic Shores, diz que sua equipe está focada em tornar suas avaliações acessíveis ao maior número de pessoas possível. Pessoas com daltonismo e deficiências auditivas podem usar o software da empresa sem adaptações especiais, diz ele, mas os empregadores não devem usar essas solicitações como justificativa para selecionar ou não um candidato.
O uso dessas ferramentas às vezes pode excluir pessoas de maneiras que podem não ser óbvias para um empregador em potencial. Patti Sanchez é uma especialista vocacional do MacDonald Training Center na Flórida que trabalha com pessoas surdas ou com deficiência auditiva à procura de emprego. Há cerca de dois anos, um de seus clientes se candidatou a um emprego na Amazon que exigia uma entrevista em vídeo por meio do HireVue.
Sanchez, que também é surda, tentou ligar e pedir ajuda à empresa, mas não conseguiu. Em vez disso, ela levou seu cliente e um intérprete de linguagem de sinais ao local de contratação e convenceu os representantes a entrevistá-lo pessoalmente. A Amazon contratou seu cliente, mas Sanchez diz que problemas como esses são comuns ao navegar em sistemas automatizados. (Amazon não respondeu a um pedido de comentário.)
Tornar as tecnologias de recrutamento acessíveis significa garantir que um candidato possa usar a ferramenta e que as habilidades que ela avalia não excluam injustamente candidatos com deficiência, diz Alexandra Givens, CEO do Center for Democracy and Technology, uma organização focada nos direitos civis na era digital.
As ferramentas de contratação orientadas por IA geralmente deixam de incluir pessoas com deficiência ao gerar seus dados de treinamento, diz ela. Essas pessoas há muito foram excluídas da força de trabalho, então algoritmos modelados a partir das contratações anteriores de uma empresa não refletirão seu potencial.
Mesmo que os modelos possam levar em conta PcDs, a forma como uma deficiência se apresenta varia muito de pessoa para pessoa. Duas pessoas com autismo, por exemplo, podem ter pontos fortes e fracos muito diferentes.
“À medida que automatizamos esses sistemas e os empregadores buscam o que é mais rápido e eficiente, eles estão perdendo a chance de as pessoas realmente mostrarem suas qualificações e capacidade de fazer o trabalho”, diz Givens. “E isso é uma perda enorme”.
Uma abordagem passiva
Os legisladores governamentais estão encontrando dificuldades para monitorar as ferramentas de recrutamento que usam a IA. Em dezembro de 2020, 11 senadores escreveram uma carta à Comissão de Oportunidades Iguais de Emprego (EEOC, em inglês) dos EUA expressando preocupações sobre o uso de tecnologias de contratação após a pandemia da Covid-19. A carta indagava sobre a autoridade da agência para investigar se essas ferramentas discriminavam, especialmente, Pessoas com Deficiência.
A EEOC respondeu com uma carta em janeiro que vazou para a MIT Technology Review americana. Na carta, a comissão indicou que não pode investigar ferramentas de contratação de IA sem uma alegação específica de discriminação. Também destacaram as preocupações sobre a hesitação da indústria em compartilhar dados e disse que a variação entre os softwares de diferentes empresas impediria a EEOC de instituir quaisquer políticas que fossem abrangentes.
“Fiquei surpreso e desapontado quando vi a resposta”, disse Roland Behm, advogado e defensor de pessoas com problemas de saúde comportamental. “Todo o teor daquela carta parecia fazer a EEOC parecer mais um espectador passivo do que uma agência de fiscalização”.
A agência normalmente inicia uma investigação assim que um indivíduo registra uma denúncia de discriminação. Com a tecnologia de contratação de IA, porém, a maioria dos candidatos não sabe por que foram rejeitados para o trabalho. “Acredito que uma razão pela qual não vimos mais ações de execução ou litígios privados nesta área se deve ao fato de que os candidatos não sabem que estão sendo pontuados ou avaliados por um computador”, disse Keith Sonderling, um encarregado da EEOC.
Sonderling diz acreditar que a Inteligência Artificial vai melhorar o processo de contratação e espera que a agência dê orientações aos empregadores sobre a melhor forma de implementá-la. Ele diz que aprecia a supervisão do Congresso dos Estados Unidos.
No entanto, Aaron Rieke, diretor administrativo da Upturn, uma organização sem fins lucrativos dedicada aos direitos civis e tecnologia, expressou decepção com a resposta da EEOC: “Na verdade, espero que nos próximos anos, a EEOC possa ser um pouco mais agressiva e criativa no que se trata ao uso de sua autoridade”.
Pauline Kim, professora de direito da Washington University em St. Louis, cuja pesquisa se concentra em ferramentas algorítmicas de contratação, diz que a EEOC poderia ser mais proativa na coleta de pesquisas e atualização de diretrizes para ajudar empregadores e empresas de IA a cumprir a lei.
Behm acrescenta que a EEOC poderia buscar outras vias de medidas de execução, incluindo um indiciamento, o que permitiria que os encarregados iniciassem uma investigação sob suspeita de discriminação em vez de exigir uma denúncia individual (Sonderling diz que está considerando fazer tal acusação). Ele também sugere que a EEOC consulte grupos de defesa para desenvolver diretrizes para empresas de IA que desejam representar melhor as Pessoas com Deficiência em seus modelos algorítmicos.
É improvável que as empresas de IA e os empregadores estejam excluindo PcDs de propósito, diz Behm. Mas eles “não investiram o tempo e esforço necessários para entender os sistemas que estão tomando decisões que mudam a vida de muitas pessoas: vou ser contratado ou não? Serei capaz de sustentar minha família ou não?”