Inteligencia Artificial — 2026-04-15
Más del 50% de las empresas usan evaluaciones de preselección. ¿Puede ChatGPT engañar a un test psicométrico de personalidad como ADEPT-15? La evidencia dice que no es tan simple.
Desde que ChatGPT se volvió ubicuo, los equipos de RRHH llevan la misma pregunta en la mente: ¿puede un candidato usar la IA para hacer trampa en nuestras evaluaciones?
La respuesta corta es: depende del tipo de test. Y esa diferencia importa mucho más de lo que la mayoría de las empresas cree.
El problema real con las evaluaciones cognitivas: los tests de aptitud cognitiva y las pruebas de conocimiento técnico son genuinamente vulnerables. Tienen respuestas correctas. ChatGPT puede encontrarlas. Cualquier test de opción múltiple que evalúe conocimiento explícito —ley laboral, contabilidad, inglés— puede resolverse con un LLM en segundos.
Esto ya está ocurriendo. Más del 50% de las organizaciones usan evaluaciones de preselección hoy, y simultáneamente hay un aumento documentado en el uso de herramientas de IA para completar esos tests por parte de los candidatos. No es especulación.
Por qué los tests de personalidad son diferentes: los tests de personalidad bien diseñados no tienen respuestas correctas. ADEPT-15, por ejemplo, mide 15 dimensiones del modelo Big Five con formato adaptativo. Cuando un candidato le pide a ChatGPT "¿cómo debería responder este test?", la IA enfrenta un problema estructural: no sabe qué perfil es el óptimo para ese rol específico, no conoce los benchmarks internos de la empresa, no puede predecir qué combinación de dimensiones busca el cliente para ese puesto en ese sector. Y si el candidato falsea sistemáticamente hacia la "deseabilidad social", los algoritmos de detección de inconsistencias lo capturan.
Los tests adaptativos como ADEPT-15 añaden otra capa: el siguiente ítem depende de la respuesta anterior. No hay una secuencia fija que la IA pueda optimizar de antemano.
El diseño de ítems como barrera: los buenos tests psicométricos usan ítems de formato forzado, escalas ipsativas, y pares de afirmaciones donde ambas opciones suenan positivas. Eso no elimina la posibilidad de trampa, pero hace que falsear de forma coherente sea cognitivamente costoso para el candidato —con o sin IA. La IA puede decirle a alguien que responda "alto en responsabilidad". No puede saber si eso encaja con la cultura de liderazgo que el cliente definió como perfil ideal.
Lo que sí debería preocupar a las empresas: la vulnerabilidad real no está en los tests de personalidad. Está en tests de conocimiento con ítems de opción múltiple estáticos, evaluaciones de video donde el candidato puede preparar respuestas con IA, y pruebas de escritura sin supervisión donde la IA redacta directamente. Para estos casos, la combinación de verificación biométrica, detección de patrones inconsistentes y límites de tiempo adaptativos reduce significativamente el riesgo.
La conclusión práctica: si tu proceso de selección depende únicamente de tests cognitivos estáticos, tienes un problema de integridad que la IA de los candidatos ya está explotando. Si incluyes evaluaciones de personalidad adaptativas y científicamente validadas, estás en terreno mucho más sólido.
La respuesta no es eliminar las evaluaciones por miedo a la IA. Es elegir las evaluaciones que la IA no puede resolver fácilmente. ADEPT-15 está validado bajo ISO 10667, normado para América Latina, y diseñado específicamente para resistir los efectos de deseabilidad social. No porque la tecnología lo garantice sola, sino porque la ciencia psicométrica detrás lleva décadas de trabajo orientado a ese objetivo.
¿Quieres conocer cómo ADEPT-15 protege la integridad de tu proceso de selección? Conversemos.