Durante anos venderam-nos a mesma ideia: a inteligência artificial ia tornar o recrutamento mais justo, mais rápido, mais meritocrático. Menos preconceito, menos achismos, mais ciência. A realidade, porém, é menos futurista e bem mais crua: o recrutamento está mais barulhento, mais desumano e mais desconfiado do que nunca.
A conclusão é de Tomas Chamorro-Premuzic, psicólogo organizacional, professor na University College London e na Columbia University, chief science officer da Russell Reynolds Associates, e um dos maiores especialistas mundiais em talento e liderança. No mais recente artigo, o investigador desmonta o hype e deixa um aviso claro: a IA entrou em força no recrutamento, mas entrou mal.
O sonho meritocrático da IA
A lógica parecia sólida. Num mercado de trabalho digitalizado, onde deixamos rastos de dados por todo o lado, a IA surgia como a ferramenta ideal para transformar esse oceano de informação em decisões mais racionais. CVs analisados em segundos, entrevistas virtuais, testes gamificados, dados de performance cruzados — tudo parecia apontar para um sistema mais justo e eficiente.
E, em parte, isso aconteceu. Segundo um relatório recente do Fórum Económico Mundial, cerca de 90% das empresas já utilizam algum tipo de sistema automatizado ou algorítmico para filtrar, classificar ou excluir candidatos. Empresas como Amazon, Unilever, Goldman Sachs, Siemens, Walmart ou Chipotle recorreram à IA para acelerar processos, reduzir custos e lidar com recrutamentos de grande volume.
O problema é o que veio depois.
Um mercado saturado, cansado e desconfiado
Hoje, o recrutamento é uma corrida armamentista entre máquinas. De um lado, empresas automatizam triagens. Do outro, candidatos usam IA generativa para produzir CVs imaculados, cartas de motivação irrepreensíveis e respostas de entrevista ensaiadas ao milímetro. Em poucas horas, um candidato pode concorrer a centenas de vagas com ajuda algorítmica.
O resultado? Um sistema onde ninguém confia em ninguém.
Recrutadores sabem que os sinais que recebem podem ser artificiais. Candidatos sentem-se tratados como números. E a tecnologia que prometia humanizar decisões acabou por desumanizar o processo.
Chamorro-Premuzic é claro: quando tudo pode ser fabricado à escala, as empresas recuam para o velho mundo — entrevistas presenciais, referências pessoais, redes de confiança. Uma espécie de «recrutamento medieval», onde o capital social volta a pesar mais do que o mérito. Ironia suprema: a tecnologia criada para democratizar oportunidades acaba por reforçar desigualdades.
Mais rápido, mas não melhor
Sim, a IA tornou o recrutamento mais rápido. Mas não há evidência independente sólida de que tenha tornado as decisões mais acertadas. Fora funções altamente padronizadas e de baixo risco, retirar o julgamento humano do processo continua a ser irrealista e perigoso.
Outro problema estrutural: faltam dados objetivos de desempenho real. Muitos sistemas treinam modelos para prever quem impressiona numa entrevista ou quem progride numa carreira, não quem cria valor de forma sustentada. A IA aprende, assim, a identificar performance visível, política interna e capacidade de autopromoção. Não excelência.
Como o próprio autor desenvolve no seu livro mais recente, Don’t Be Yourself (2025), a gestão de impressão continua a vencer a autenticidade no mundo do trabalho. A IA, sem dados melhores, apenas automatiza esse vício.
O risco ético e reputacional
Há ainda o elefante na sala: a ética. Sistemas treinados com dados históricos aprendem também os preconceitos do passado. Automatizam-nos. Escalam-nos. Quando falham, falham em grande e à vista de todos.
Casos de discriminação algorítmica, opacidade nos critérios, violações de privacidade e exclusões injustificadas não só geram processos legais como destroem marcas empregadoras. A promessa de redução de risco transforma-se, muitas vezes, num novo tipo de risco estratégico.
Onde a IA realmente ajuda (quando bem usada)
Apesar de tudo, a conclusão de Chamorro-Premuzic não é tecnofóbica. A IA pode ajudar se for usada para disciplinar o julgamento humano, não para o substituir.
Funciona melhor quando:
- impõe estrutura e consistência (entrevistas padronizadas, critérios claros);
- reduz ruído, não quando tenta ser «mais inteligente»;
- liberta tempo aos recrutadores para fazerem o que só humanos sabem fazer: compreender motivações, ler contextos, criar confiança.
Um estudo de campo conduzido por Stanford e USC mostrou que candidatos filtrados por entrevistas estruturadas lideradas por IA tiveram 20% mais probabilidade de passar para fases humanas, não porque a IA «descobriu génios», mas porque eliminou irrelevância e improviso logo à partida.
O caminho possível
O futuro do recrutamento não é totalmente automatizado. É híbrido, exigente e responsável. Os melhores processos continuam a combinar: análise rigorosa da função, entrevistas estruturadas, avaliações baseadas em ciência, dados reais de desempenho, e julgamento humano informado.
A IA pode reforçar esta arquitetura. Nunca substituí-la.
No fim, a pergunta não é se a IA vai ficar. Vai. A questão é se vamos usá-la para acelerar maus hábitos ou para tornar as decisões mais humanas, mais conscientes e mais responsáveis.
Porque, paradoxalmente, a melhor utilização da inteligência artificial no recrutamento pode ser esta: devolver humanidade a um processo que a perdeu.


