Regulação e Conformidade — 2026-04-20
A ACLU apresentou denúncias contra ferramentas de IA em contratação em 2024, incluindo da Aon. O que é viés algorítmico, qual é a evidência real, e o que as empresas podem fazer.
Em maio de 2024, a ACLU apresentou denúncias ao EEOC contra ferramentas de avaliação de IA usadas em contratação, incluindo uma que faz parte do ecossistema Aon. A acusação: discriminação contra pessoas com deficiência e viés racial.
Para qualquer empresa que use avaliações psicométricas em seu processo de seleção, essa notícia merece atenção honesta — não silêncio nem descarte.
O que é viés algorítmico em avaliações? O viés algorítmico ocorre quando um sistema de IA produz resultados que sistematicamente desfavorecem grupos protegidos — por raça, gênero, deficiência, idade — sem que isso seja justificado pelo desempenho real no trabalho.
A causa mais comum: o modelo foi treinado com dados históricos de contratação que já continham vieses humanos. Uma pesquisa publicada no VoxDev em maio de 2025 constatou que ferramentas de contratação com IA favoreciam sistematicamente candidatas mulheres em detrimento de homens negros com qualificações idênticas. O problema não é a IA em si. É a IA treinada com dados tendenciosos sem auditoria independente.
A distinção crítica: ferramentas de IA vs. psicometria validada. O caso mencionado envolve ferramentas de análise de vídeo e triagem algorítmica de currículos — não especificamente instrumentos psicométricos como o ADEPT-15. Essa distinção importa.
Os testes de análise facial têm problemas documentados de precisão diferencial por raça e gênero. Os instrumentos psicométricos baseados no Big Five, quando bem validados e normados, têm décadas de evidência sobre equidade. O viés é mensurável e corrigível através do processo de validação. O ADEPT-15 é validado sob a ISO 10667, o padrão internacional para avaliações de pessoas. Esse processo inclui análise do funcionamento diferencial de itens por grupo.
Nem toda ferramenta com o nome "IA" é equivalente. Um teste psicométrico validado não é o mesmo que um algoritmo de análise de microexpressões faciais.
O que as empresas podem fazer para se proteger: exija documentação de validação de qualquer ferramenta — confiabilidade, validade de constructo, validade preditiva e análise de equidade por grupos demográficos. Priorize instrumentos com normas locais — uma norma desenvolvida nos EUA ou na Europa pode não ser adequada para candidatos no Brasil sem adaptação. Mantenha supervisão humana nas decisões finais de contratação. Conserve registros do processo — as regulações na Califórnia já exigem quatro anos de documentação de decisões de contratação assistidas por IA.
O ponto central: a preocupação com o viés algorítmico é legítima e deve ser levada a sério. A resposta correta não é eliminar as avaliações — é elevar os padrões do que se aceita como avaliação válida.
O padrão existe: ISO 10667, validação psicométrica, normas regionais, auditoria de equidade. As ferramentas que atendem a esses critérios têm mais de 50 anos de pesquisa as respaldando. As que não atendem, independentemente de quanta IA possuam, são exatamente o tipo de ferramenta que os reguladores estão observando.
Quer revisar a equidade e validação das suas ferramentas de avaliação? Vamos conversar.