Regulación y Cumplimiento — 2026-04-20
El ACLU presentó cargos contra herramientas de IA en contratación en 2024, incluyendo de Aon. Qué es el sesgo algorítmico, cuál es la evidencia real, y qué pueden hacer las empresas.
En mayo de 2024, el ACLU presentó cargos ante el EEOC contra herramientas de evaluación de IA usadas en contratación, incluyendo una que es parte del ecosistema Aon. La acusación: discriminación contra personas con discapacidad y sesgo racial.
Para cualquier empresa que use evaluaciones psicométricas en su proceso de selección, esta noticia merece atención honesta, no silencio ni descarte.
¿Qué es el sesgo algorítmico en evaluaciones? El sesgo algorítmico ocurre cuando un sistema de IA produce resultados que sistemáticamente desfavorecen a grupos protegidos —por raza, género, discapacidad, edad— sin que eso esté justificado por el desempeño laboral real.
La causa más común: el modelo se entrenó con datos históricos de contratación que ya contenían sesgos humanos. El algoritmo aprende a replicarlos. Una investigación publicada en VoxDev en mayo de 2025 encontró que herramientas de contratación con IA favorecían sistemáticamente a candidatas mujeres sobre hombres afrodescendientes con calificaciones idénticas. El problema no es la IA en sí. Es la IA entrenada con datos sesgados sin auditoría independiente.
La distinción crítica: herramientas de IA vs. psicometría validada. El caso mencionado involucra herramientas de análisis de video y screening algorítmico de CV — no específicamente instrumentos psicométricos como ADEPT-15. Esta distinción importa.
Los tests de análisis facial tienen problemas documentados de precisión diferencial por raza y género. Múltiples investigaciones lo confirman. Los instrumentos psicométricos basados en Big Five, cuando están bien validados y normados, tienen décadas de evidencia sobre equidad. El sesgo es medible y correctable a través del proceso de validación. ADEPT-15 está validado bajo ISO 10667, el estándar internacional para evaluaciones de personas. Ese proceso incluye análisis de funcionamiento diferencial de ítems por grupo.
No toda herramienta con el nombre "IA" es equivalente. Un test psicométrico validado psicométricamente no es lo mismo que un algoritmo de análisis de microexpresiones faciales.
Qué pueden hacer las empresas para protegerse: exige documentación de validación de cualquier herramienta que uses —fiabilidad, validez de constructo, validez predictiva, y análisis de equidad por grupos demográficos—. Prioriza instrumentos con normas locales —una norma desarrollada en EE.UU. o Europa puede no ser apropiada para candidatos en Chile, Brasil o Colombia sin adaptación—. Mantén supervisión humana en las decisiones finales de contratación —ningún sistema automatizado debería decidir solo—. Conserva registros del proceso —las regulaciones en California ya exigen cuatro años de documentación de decisiones de contratación asistidas por IA—.
El fondo del asunto: la preocupación por el sesgo algorítmico es legítima y debe tomarse en serio. La respuesta correcta no es eliminar las evaluaciones — es elevar los estándares de lo que se acepta como evaluación válida.
El estándar existe: ISO 10667, validación psicométrica, normas regionales, auditoría de equidad. Las herramientas que cumplen esos criterios tienen un historial de más de 50 años de investigación respaldándolas. Las que no los cumplen, independientemente de cuánta IA tengan, son exactamente el tipo de herramienta que los reguladores están mirando.
¿Quieres revisar la equidad y validación de tus herramientas de evaluación? Hablemos.