Inteligência Artificial — 2026-04-15
Mais de 50% das empresas usam avaliações de pré-seleção. O ChatGPT consegue enganar um teste psicométrico de personalidade como o ADEPT-15? A evidência mostra que não é tão simples.
Desde que o ChatGPT se tornou onipresente, as equipes de RH carregam a mesma dúvida: um candidato pode usar IA para trapacear nas nossas avaliações?
A resposta curta: depende do tipo de teste. E essa diferença importa muito mais do que a maioria das empresas imagina.
O problema real com avaliações cognitivas: os testes de aptidão cognitiva e provas de conhecimento técnico são genuinamente vulneráveis. Têm respostas certas. O ChatGPT as encontra. Qualquer teste de múltipla escolha que avalie conhecimento explícito — legislação trabalhista, contabilidade, inglês — pode ser resolvido com um LLM em segundos.
Isso já está acontecendo. Mais de 50% das organizações usam avaliações de pré-seleção hoje, e há um aumento documentado no uso de ferramentas de IA por candidatos para completar esses testes. Não é especulação.
Por que os testes de personalidade são diferentes: os testes de personalidade bem projetados não têm respostas certas. O ADEPT-15, por exemplo, mede 15 dimensões do modelo Big Five com formato adaptativo. Quando um candidato pede ao ChatGPT "como devo responder a este teste?", a IA enfrenta um problema estrutural: ela não sabe qual perfil é ideal para aquela função específica, não conhece os benchmarks internos da empresa, e não consegue prever qual combinação de dimensões o cliente busca para aquele cargo naquele setor. Se o candidato falsifica sistematicamente em direção à "desejabilidade social", os algoritmos de detecção de inconsistências identificam.
Testes adaptativos como o ADEPT-15 adicionam outra camada: o próximo item depende da resposta anterior. Não existe uma sequência fixa que a IA possa otimizar previamente.
O design de itens como barreira: os bons testes psicométricos usam itens de formato forçado, escalas ipsativas e pares de afirmações em que ambas as opções parecem positivas. Isso não elimina a possibilidade de trapaça, mas torna o falseamento coerente cognitivamente custoso para o candidato — com ou sem IA. A IA pode dizer a alguém para responder "alto em responsabilidade". Não consegue saber se isso encaixa com a cultura de liderança que o cliente definiu como perfil ideal.
O que realmente deve preocupar as empresas: a vulnerabilidade real não está nos testes de personalidade. Está em testes de conhecimento com itens de múltipla escolha estáticos, avaliações em vídeo onde o candidato pode preparar respostas com IA, e provas de escrita sem supervisão onde a IA redige diretamente. Para esses casos, a combinação de verificação biométrica, detecção de padrões inconsistentes e limites de tempo adaptativos reduz significativamente o risco.
A conclusão prática: se seu processo de seleção depende apenas de testes cognitivos estáticos, você tem um problema de integridade que a IA dos candidatos já está explorando. Se inclui avaliações de personalidade adaptativas e cientificamente validadas, está em terreno muito mais sólido.
A resposta não é eliminar as avaliações por medo da IA. É escolher avaliações que a IA não consiga resolver facilmente. O ADEPT-15 é validado sob a ISO 10667, normado para a América Latina e projetado especificamente para resistir aos efeitos de desejabilidade social.
Quer conhecer como o ADEPT-15 protege a integridade do seu processo de seleção? Vamos conversar.