Isso tem nome
Voltar para o catálogo

Viés algorítmico no recrutamento

Tendência de sistemas de IA em processos seletivos replicarem preconceitos dos dados de treinamento, resultando em decisões discriminatórias contra grupos marginalizados.

TecnologiaTrabalhoRaçaGêneroCorporativo

Definição

O viés algorítmico no recrutamento é a manifestação de preconceitos raciais, de gênero, idade ou classe social dentro dos sistemas automatizados de seleção de candidatos (ATS - Applicant Tracking Systems) utilizados por grandes empresas. Esses softwares, desenhados para filtrar milhares de currículos em segundos, "aprendem" quem é o candidato ideal baseando-se no histórico de contratações da empresa. Se a organização, nos últimos 20 anos, contratou predominantemente homens brancos formados em universidades de elite, o algoritmo entenderá que essas características (gênero masculino, nomes ocidentais, CEPs de bairros ricos) são preditores de sucesso e passará a rejeitar automaticamente perfis que desviem desse padrão.

O caso mais famoso foi o da Amazon, que em 2018 desativou sua IA de recrutamento ao descobrir que ela estava penalizando currículos que continham a palavra "mulher" (como em "capitã do time de futebol feminino") ou nomes de faculdades frequentadas apenas por mulheres. No Brasil, pesquisadores como Tarcízio Silva alertam para a falta de transparência dessas "caixas pretas": o candidato é rejeitado sem saber o motivo, muitas vezes acreditando que lhe falta qualificação, quando na verdade foi eliminado por variáveis irrelevantes como seu endereço ou a origem de seu sobrenome.

Como funciona

A dinâmica funciona por meio da clonagem digital da elite. O mecanismo opera reproduzindo o passado. O algoritmo não avalia competência futura; ele busca correlações com o passado. Se os "top performers" da empresa jogam tênis, o robô pode começar a pontuar melhor CVs que listam "tênis" como hobby e piorar os que listam "futebol", criando um filtro de classe invisível.

O mecanismo utiliza também a análise de linguagem enviesada. Algoritmos de processamento de linguagem natural (NLP) podem associar certas palavras a gêneros específicos. Termos como "líder", "competitivo" e "dominante" são estatisticamente mais presentes em currículos masculinos, enquanto "colaborativa", "apoio" e "entusiasmada" aparecem mais nos femininos. Se o algoritmo foi programado para buscar "líderes", ele pode descartar mulheres competentes apenas pelo estilo de escrita. Além disso, softwares de análise de vídeo entrevista podem interpretar o tom de voz ou expressões faciais de pessoas neurodivergentes ou de culturas diferentes como "falta de engajamento", eliminando-as injustamente.

Exemplos

  • A IA da Amazon: Que aprendeu a rebaixar a nota de currículos que continham a palavra "feminino".

  • O filtro de "facilidade de deslocamento": Que prioriza quem mora perto do trabalho (geralmente bairros nobres e brancos), eliminando talentos periféricos que levariam 2 horas para chegar.

  • O teste de personalidade gamificado: Que usa jogos para avaliar traços psicológicos, mas cujos critérios de "sucesso" foram baseados no perfil de jovens brancos gamers, desfavorecendo mulheres ou pessoas mais velhas que não têm o hábito de jogar.

  • Anúncios de emprego direcionados no Facebook: Que mostram vagas de enfermagem apenas para mulheres e vagas de engenharia apenas para homens, baseando-se no comportamento de clique anterior dos usuários, impedindo que as pessoas vejam oportunidades fora de seu estereótipo de gênero. Illinois.

Quem é afetado

Mulheres, pessoas negras, indígenas, pessoas com deficiência e candidatos mais velhos são os alvos diretos. Eles são filtrados na "boca do funil" antes mesmo de humanos verem seus currículos. Isso cria um ciclo de exclusão perpétua: como eles não entram, não geram dados de sucesso para o sistema, reforçando a crença do algoritmo de que eles não são adequados.

As empresas são afetadas pela homogeneidade forçada. Ao automatizar o "mais do mesmo", elas perdem a capacidade de inovação que vem da diversidade de pensamento. Contratam clones culturais que pensam igual, vestem-se igual e falham igual. A sociedade perde mobilidade social, pois o emprego — principal via de ascensão — torna-se inacessível para quem não possui o "código cultural" correto para agradar o robô.

Por que é invisível

O viés algorítmico é invisibilizado pela aura de objetividade matemática. Recrutadores e gestores acreditam que o software é "justo" porque "não vê cor" e aplica a mesma régua para todos. Essa crença ignora que a régua foi calibrada em um mundo torto. A invisibilidade é técnica: o candidato recebe um e-mail genérico ("agradecemos seu interesse"), sem nunca saber que foi descartado porque mora longe do escritório ou porque seu nome soa "étnico".

Além disso, a invisibilidade decorre do segredo comercial. As empresas que vendem esses softwares (HR Techs) não abrem seus algoritmos para auditoria pública, alegando proteção de propriedade intelectual. Sem acesso ao código, é impossível provar judicialmente a discriminação, diferente da discriminação humana que deixa rastros (como uma entrevista ofensiva). A invisibilidade só é rompida por whistleblowers (denunciantes internos) ou por testes controlados por pesquisadores.

Efeitos

  • Desemprego tecnológico seletivo: Grupos inteiros sendo barrados do mercado de trabalho formal por critérios opacos.
  • Redlining geográfico: Algoritmos que rejeitam candidatos que moram em zonas "trabalhosas" (periferias), alegando risco de atraso ou custo de transporte.
  • Reforço do teto de vidro: Mulheres sendo automaticamente direcionadas para vagas de assistência e homens para vagas de gerência pelos motores de recomendação de emprego.
  • Inércia corporativa: Empresas que gastam milhões em marketing de diversidade, mas cujas ferramentas de contratação trabalham ativamente contra essa diversidade.

Autores brasileiros

  • Tarcízio Silva
  • Nina da Hora

Autores estrangeiros

  • Cathy O'Neil
  • Safiya Noble
  • Meredith Broussard

Temas relacionados