Évaluation des candidats à l’ère de l’IA : les solutions pour contrecarrer l’assistance dissimulée

Sommaire

BlogChevron en icon
Évaluation des candidats à l’ère de l’IA : les solutions pour contrecarrer l’assistance dissimulée

Évaluation des candidats à l’ère de l’IA : les solutions pour contrecarrer l’assistance dissimulée

11 minutes
12/05/2026
Rédigé par
Léo Fichet

Un candidat fait passer un questionnaire de personnalité à Chat GPT qui répond à sa place, tout en dosant la désirabilité sociale pour rester crédible, un deuxième bénéficie d’un outil capable de lui souffler les réponses lors d’un entretien en visio. Un troisième utilise un outil de deepfake pour modifier son identité visuelle à l'écran, en temps réel.

Ces scènes ne relèvent plus de la science-fiction. Elles sont documentées, banalisées, et largement diffusées sur les réseaux sociaux. Elles soulèvent une question que tout recruteur se pose en 2026 : comment évaluer un candidat quand l'intelligence artificielle peut souffler les réponses, écrire les CV, faker les tests de personnalité, et bientôt résoudre les exercices techniques en temps réel ?

La réponse instinctive consiste à revenir au présentiel ou à chercher à détecter la tricherie. Détecteurs de texte, application antitriche, conseils pour repérer les signaux d'alerte en entretien, retour au face à face obligatoire. C'est une erreur stratégique. La détection est une course à l’armement perdue d'avance, non pas par défaitisme, mais par construction.

Dans un webinaire que j'ai animé avec Maxime Boutrouille, docteur en psychologie du travail, nous avons exploré une autre voie, fondée sur quarante ans de recherche en psychométrie : déplacer le curseur de l'évaluation vers des méthodes que l'IA ne peut structurellement pas falsifier. Cet article reprend et synthétise les apports clés de cette intervention, à destination des professionnels du Recrutement et des Ressources Humaines qui veulent préparer sereinement leurs processus à cette nouvelle donne.

🎥 Replay du webinaire Évaluation des candidats à l'ère de l'IA : les solutions pour contrecarrer l'assistance dissimulée

1. De quoi parle-t-on vraiment ? Trois pratiques qu'on confond systématiquement

Avant d'analyser les solutions, clarifions ce qu'on appelle "la triche par Intelligence Artificielle". Le terme recouvre trois pratiques distinctes, qu'il est crucial de séparer parce qu'elles n'appellent pas les mêmes réponses.

L'assistance dissimulée en temps réel

Le candidat utilise un outil d'intelligence artificielle pendant l'épreuve : des applications comme Final Round AI, Cluely ou Interview Copilot qui écoutent l'entretien et génèrent des réponses en direct. Pour les tests techniques par exemple, l'outil Interview Coder, créé par un jeune étudiant de Columbia, qui a obtenu des offres d'emploi chez Amazon, Meta et TikTok grâce à cet algorithme permet de résoudre les challenges de codage en temps réel, invisible pour le recruteur.

La substitution de personne

Un tiers passe l'entretien d'embauche à la place du candidat, ou ce dernier utilise une technologie de deepfake en temps réel pour modifier son identité visuelle à l'écran. Selon Gartner, 6 % des candidats admettent avoir commis ce type de fraude au recrutement lors d'un entretien, et d'ici 2028, un profil candidat sur quatre dans le monde pourrait être faux. Les faux candidats et faux profils générés à grande échelle sont devenus une réalité opérationnelle pour les recruteurs, particulièrement dans la tech.

La préparation augmentée en amont

CV, lettre de motivation, simulation d'entretien générés ou optimisés par IA générative. Le market trend report 2025 indique que 65 % des candidats utilisent l'IA à un moment du processus de candidature, dont 19 % pour le CV et 20 % pour la lettre de motivation. Cette utilisation se situe dans une zone grise éthique et légale : elle n'est ni illégale ni clairement frauduleuse, tant que le candidat ne ment pas sur son parcours réel.

C'est la première catégorie, l'assistance dissimulée en temps réel, qui pose le défi le plus aigu aux processus d'évaluation actuels. C'est sur celle-là que nous concentrons l'analyse.

2. Pourquoi l'IA change la donne : ce que dit la science du comportement

L'embellissement sur CV, la désirabilité sociale, le faking sur les questionnaires de personnalité ne sont pas des phénomènes nouveaux. La tricherie en entretien existait avant ChatGPT. Mais l'intelligence artificielle générative modifie deux paramètres fondamentaux.

Elle réduit le coût moral perçu de la malhonnêteté

Une étude publiée en 2025 dans Nature (Köbis, Swan et al.) a conduit 13 expériences sur plus de 3 000 participants. Le protocole : on offre aux gens l'opportunité de tricher pour gagner de l'argent.

Quand les participants agissent seuls, 95 % restent honnêtes. Quand ils peuvent déléguer la tâche à une IA et surtout quand ils peuvent l'induire à tricher sans le lui dire explicitement, par exemple via un objectif du type "maximise le profit", le taux d'honnêteté chute à 15 %. 85 % trichent.

Et lorsqu'on demande explicitement à un humain de tricher, il refuse dans 60 à 75 % des cas. L'agent IA, lui, se conforme dans 93 à 98 % des cas. L'intelligence artificielle ne rend pas les gens malhonnêtes, elle abaisse drastiquement le coût psychologique de l'être, et elle ne refuse pas de coopérer. Cette combinaison fragilise tout processus de recrutement qui reposait, même implicitement, sur l'inconfort moral du candidat à mentir directement à un employeur.

Elle massifie l'optimisation

Les zones grises ont toujours existé. On peut embellir un CV, gérer ses réponses en entretien, doser sa personnalité sur un questionnaire psychométrique. Ce qui change avec l'IA générative, c'est que cette optimisation devient triviale, rapide, et accessible à tout candidats, y compris celui qui n'a aucune connaissance en psychométrie ou en techniques d'entretien. L'intelligence artificielle démocratise massivement la tricherie sophistiquée, à une échelle que n'avait jamais connu le marché du travail.

3. Pourquoi vos outils d'évaluation actuels sont vulnérables (à des degrés divers)

Faisons l'inventaire honnête. Voici comment l'IA affecte chaque outil utilisé aujourd'hui en matière de recrutement.

CV et lettres de motivation : vulnérabilité massive, détection illusoire

Les CV et lettres ont toujours été fakables. L'IA rend simplement la production plus accessible et plus massive. Un internaute sans aucune expérience préalable peut désormais générer un dossier de candidature digne de confiance en quelques minutes. Les deux contre-mesures classiques : vérification de diplôme, prise de référence et contrôle d'antécédent, sont des solutions de rattrapage, pas de prévention. Elles ne s'appliquent pas systématiquement à tous les candidats, et arrivent trop tard dans le processus de recrutement.

Questionnaires de personnalité : vulnérabilité critique, peu discutée

C'est probablement le plus exposé des outils, et paradoxalement le moins discuté. Une démonstration faite pendant le webinaire (à voir en direct dans le replay) illustre le problème de manière claire : on fournit à ChatGPT un questionnaire Big Five et une instruction d'une ligne : "réponds pour que le profil colle à un poste de manager de proximité en industrie". En quelques secondes, l'IA identifie la structure du questionnaire, repère les items inversés, dose la désirabilité sociale pour produire un profil crédible (4,78/5 en conscienciosité, 1,5/5 en névrosisme, pas 1, ce qui serait trop parfait).

Cette démonstration empirique est confirmée par la recherche. Philippe et Robby (2024) ont comparé GPT-4 à 655 étudiants à qui on demandait explicitement de faker un questionnaire psychométrique. Résultat : GPT-4 fake mieux qu'un questionnaire de personnalité que 99,6 % des humains sur un format Likert classique, et mieux que 91,8 % des humains sur un format en choix forcé, pourtant conçu spécifiquement pour résister au faking.

Et la détection ? Très difficile. Le temps de passation peut être un indice, mais il est noyé parmi de nombreux autres facteurs. Il n'existe aujourd'hui aucune méthode fiable pour détecter qu'un candidat à distance a utilisé l'IA pour répondre à un questionnaire de personnalité. Les algorithmes d'apprentissage automatique qui prétendent le faire ont des taux de faux positifs trop élevés pour être déployés en production sans risque légal.

Tests techniques à distance : vulnérabilité croissante et documentée

Les chiffres parlent. Le taux de tentative de fraude au recrutement sur les évaluations techniques est passé de 16 % en 2024 à 35 % en 2025, avec des pics jusqu'à 40 % pour les jeunes profils en début de carrière. La réponse du marché ne ment pas : dès mi-2025, Google et McKinsey ont réintroduit des entretiens en face à face obligatoires spécifiquement pour contrer ce phénomène. Paradoxe intéressant : ces mêmes entreprises encouragent par ailleurs l'utilisation de l'IA au travail. La tendance à interdire en entretien ce qu'on autorise au quotidien crée une tension légitime que tout employeur doit aujourd'hui arbitrer.

Tests cognitifs : assistabilité variable selon le type de raisonnement

Abdel Karim et ses collègues (2025) ont comparé 18 modèles d'IA sur des tests cognitifs. Les résultats varient fortement selon la dimension évaluée. Sur le raisonnement verbal, GPT-4 atteint 79 % de performance : fortement assistable. Sur le raisonnement numérique, entre 20 et 53 % : contrasté. Sur le raisonnement visuo-spatial (type matrices progressives), 22,5 % : encore modéré mais en progression constante.

Une démonstration sur des matrices visuelles, présentée dans le webinaire, montre que l'IA peut identifier certaines règles (nombre d'éléments, disposition) mais rater des subtilités (nuances de couleur, rotations, superpositions). Ce qui résiste aujourd'hui ne résistera probablement plus dans dix-huit mois. La nouvelle génération de modèles raisonneurs progresse vite sur ces tâches.

Entretiens à distance : assistance en temps réel quasi indétectable

L'entretien d'embauche en visio est devenu la norme pour des raisons logistiques évidentes : plus de flexibilité, accès à un large éventail de talents indépendamment de leur localisation, gain de temps pour le recruteur comme pour le demandeur d'emploi. Mais ce format offre une surface d'attaque idéale. Les outils d'assistance en temps réel via téléphone, écouteur audio discret ou affichage sur le second écran, laissent peu d'indices : latence, regard fuyant, ton plat. Et la latence, principal signal, va probablement disparaître avec l'évolution rapide des modèles.

Le point commun à toutes ces vulnérabilités : elles partagent toutes le même défaut structurel. Elles évaluent ce que le candidat dit ou écrit, c'est-à-dire précisément ce que les modèles de langage savent le mieux générer : le déclaratif. C'est ce constat qui ouvre la voie à un changement de paradigme.

4. Le pivot : le continuum de fidélité

Voici l'angle que personne ne traite, et qui change tout : si l'IA peut tricher à une évaluation, c'est que cette évaluation mesure quelque chose qu'une IA peut produire, donc, par définition, quelque chose qui n'est pas une compétence humaine distinctive en situation de travail.

Ce que l'IA ne sait pas faire (et probablement pas demain non plus)

Un article publié à l'ICLR 2026 (Young et al.), l'une des conférences les plus prestigieuses sur l'intelligence artificielle, a évalué 10 modèles de langage, dont les modèles les plus avancés d'OpenAI, Anthropic et Google, sur environ 4 000 cas de raisonnement classés par niveau cognitif. Les résultats forment un escalier net :

  • Niveau 1 (reconnaître un attribut simple, compter des éléments, ce que fait un QCM) : ~57 % de réussite
  • Niveau 2 (raisonnement spatial, rotations, symétrie) : 33 %
  • Niveau 3 (raisonnement séquentiel sous contrainte, planification, catégorisation) : 20 %
  • Niveau 4 (raisonnement conceptuel : appliquer des principes abstraits à du concret) : quasiment 0 %, même pour les meilleurs modèles

Concrètement : l'IA réussit ce que fait un QCM. Elle échoue à ce que fait un manager quand il gère un conflit en temps réel tout en intégrant les caractéristiques individuelles des personnes en cause, ou quand il priorise sous pression dans un environnement imprévisible. C'est l'écart fondamental entre une réponse générée et une décision vécue.

Le principe structurant : continuum de fidélité

De cette recherche émerge un principe qui structure toute la robustesse des méthodes d'évaluation : plus une méthode reproduit fidèlement la situation de travail réelle, plus elle est difficile à falsifier, par un humain comme par une IA. On parle aussi de validité écologique.

Représenté en gradient, de la plus vulnérable à la plus robuste :

QCM et questionnaires auto-rapportés → tests de jugement situationnel textuels → mises en situation vidéo → simulations immersives → assessment center in vivo

La raison est simple et difficile à contourner : l'IA ne peut pas vivre la situation à la place du candidat. Elle ne peut pas prendre une décision en temps réel, interagir avec un interlocuteur imprévisible, gérer une émotion, prioriser sous stress, ou raisonner en plusieurs couches sur des événements survenus quelques minutes plus tôt dans une simulation. Aucun pilote automatique, aucune application tierce ne peut s'y substituer.

L'assessment center : robustesse maximale, contrainte logistique réelle

L'assessment center, batterie de mises en situation où le candidat est confronté à des scénarios réels du poste (annoncer un changement impopulaire, conduire un entretien collaborateur, prioriser des notifications, planifier des arbitrages), atteint une validité prédictive de 0,53 sur la prédiction du potentiel managérial, dans la fourchette haute de la littérature scientifique. À comparer aux 0,42 d'un entretien structuré et aux 0,19 d'un entretien non structuré (Schmidt et al., 2022).

C'est la méthode la plus robuste à l'IA disponible aujourd'hui. Sa limite historique : un coût et une lourdeur logistique qui en réservaient l'usage aux postes de cadres supérieurs et aux grandes entreprises.

La question stratégique, donc : peut-on conserver la logique de mise en situation, qui fait la force de l'assessment center, et la rendre accessible à plus grande échelle, à un large éventail de postes ? C'est exactement le problème que Yuzu cherche à résoudre avec son Assessment Center Digital, en combinant la robustesse psychométrique du format historique avec la scalabilité du numérique.

5. Plan d'action : auditer et redessiner votre processus

Au-delà du diagnostic, voici trois étapes concrètes à mettre en œuvre dès la semaine prochaine pour préparer votre process de recrutement à l'ère de l'IA.

Étape 1 : Auditer votre processus actuel sur 3 axes

Pour chaque étape de votre processus de recrutement, posez-vous ces trois questions :

  1. Déclaratif ou observation ? Le candidat décrit ce qu'il ferait, ou fait quelque chose d'observable ? Plus le process repose sur du déclaratif, plus il est exposé à l'IA.
  2. Production unique ou décisions en cascade ? Le candidat livre une réponse finale figée, ou enchaîne des micro-décisions en temps réel ? L'IA est à l'aise pour produire un livrable. Elle l'est beaucoup moins pour enchaîner des décisions adaptatives sous contrainte.
  3. Asynchrone ou synchrone sous contrainte ? L'épreuve se passe "quand le candidat veut, comme il veut", ou impose des contraintes en temps réel ? Les contraintes synchrones (présentielles ou non) constituent un levier de robustesse majeur.

Si vos réponses penchent systématiquement à gauche, votre process est probablement vulnérable.

Étape 2 : Appliquer trois principes de redesign

  • Faire correspondre la méthode à l'enjeu. Plus l'impact économique et managérial d'une décision de recrutement est élevé, plus la robustesse de la méthode doit être prioritaire. Inutile de mettre un assessment center sur le recrutement d'un stagiaire ; indispensable de le faire sur un futur directeur de BU.
  • Ne pas exclure les méthodes vulnérables. Elles gardent leur intérêt en amont du process, dans une logique d'entonnoir : CV, questionnaire, premier entretien en visio pour filtrer le volume. Elles aident à dégrossir avant les étapes décisives.
  • Concentrer la robustesse sur les étapes de shortlist et de départage. C'est là que se joue la décision finale, et donc là que l'investissement en méthodes robustes a le meilleur ROI pour l'entreprise.

Étape 3 : Choisir une voie d'amélioration

Trois voies selon votre maturité et vos ressources :

  1. Renforcer l'existant : Structurer davantage vos entretiens (passer de 0,19 à 0,42 de validité prédictive), ajouter du face à face sur la shortlist, mettre en place une grille d'évaluation standardisée partagée entre tous les recruteurs. À coût quasi nul, ces actions transforment déjà significativement la qualité de vos décisions.
  2. Déléguer : Externaliser les étapes les plus techniques à un cabinet d'assessment center. L'industrie s'est renouvelée en France et propose désormais des formats partiellement digitalisés, moins lourds logistiquement qu'auparavant.
  3. Internaliser : Intégrer directement des mises en situation à votre processus, via une plateforme conçue pour cela. C'est l'option la plus engageante, mais aussi celle qui rend votre process le plus défendable à long terme, sur le plan psychométrique comme sur le plan du cadre légal (RGPD, AI Act, non-discrimination).

Quelle que soit la voie retenue, documentez explicitement votre politique d'utilisation de l'IA par les candidats : autorisations, interdictions, zones grises. Ne pas le faire crée du flou juridique et expose l'entreprise.

Conclusion : il ne s'agit pas d'interdire l'IA, mais de connaître les forces et les faiblesses de chaque méthode

L'intelligence artificielle n'a pas créé de nouvelles failles dans le recrutement. Elle a accentué les failles existantes et rendu leur détection quasi impossible dans les formats à distance. Vouloir interdire ChatGPT ou Claude aux candidats est un combat perdu, autant juridiquement que techniquement. Vouloir détecter son utilisation l'est tout autant : aucun algorithme antitriche actuel n'offre une fiabilité suffisante pour fonder une décision de refus défendable.

La vraie réponse n'est pas dans la prohibition ni dans la détection. Elle est dans le déplacement progressif de vos méthodes d'évaluation vers la droite du continuum de fidélité : moins de déclaratif, plus d'observation ; moins de réponses uniques, plus de décisions en cascade ; moins d'asynchrone libre, plus de contraintes synchrones. L'intervention humaine, structurée et augmentée par les bons outils, reste au cœur d'un recrutement de qualité.

C'est exactement le sens du travail mené chez Yuzu, et c'est aussi le pari qu'a fait la science du recrutement depuis quarante ans. L'IA ne change pas ce qui prédit la performance au travail, elle nous oblige juste à arrêter de prétendre que des QCM et des entretiens en visio non structurés suffisent à identifier les bons talents.

À l'ère où l'IA générative transforme le marché du travail dans toutes ses fonctions, c'est désormais la qualité de vos méthodes d'évaluation qui mérite d'être votre vrai différenciateur d'employeur. Le mérite individuel des candidats ne peut s'exprimer que si vos outils le permettent.