Introduction :
Une hallucination est un phénomène par lequel une intelligence artificielle générative produit des informations factuellement fausses, inexistantes ou absurdes, tout en les présentant avec une assurance et une syntaxe parfaitement convaincantes.
Pourquoi est-ce important ?
Pour un employeur, l’hallucination est le risque numéro 1 de l’adoption de l’IA. Son importance réside dans la menace qu’elle fait peser sur la fiabilité des processus. Imaginez une IA RH qui invente une clause juridique dans un contrat de travail ou qui attribue à un candidat un diplôme qu’il n’a jamais eu. Pour les RH, l’enjeu est de mettre en place des garde-fous (IA Safety) pour protéger l’entreprise contre des erreurs qui pourraient mener à des poursuites judiciaires. Pour le candidat, une hallucination peut signifier un rejet injustifié basé sur un fait imaginaire. L’importance de ce terme est de rappeler que l’IA est un outil probabiliste et non une source de vérité absolue. La maîtrise des hallucinations est le défi majeur de 2026 pour passer d’une IA “jouet” à une IA “critique” dans le monde professionnel. Sur Job-guard, la lutte contre les hallucinations garantit l’intégrité des données et la confiance entre recruteurs et talents.
Comment le mettre en œuvre ?
La lutte contre les hallucinations repose sur trois piliers : le Grounding (ancrage sur des faits réels), le RAG (Retrieval-Augmented Generation) et la supervision humaine. Techniquement, il faut régler la “température” du modèle (plus elle est basse, moins l’IA est créative et donc moins elle hallucine). Il est crucial de former les salariés au “Fact-checking” systématique des sorties d’IA. Les entreprises doivent déployer des modèles qui citent leurs sources (citations vérifiables). Il est également conseillé d’utiliser des architectures de vérification croisée où une seconde IA (l’auditeur) vérifie la véracité des affirmations de la première.
Exemples concrets :
Une IA génère un résumé de CV et affirme que le candidat parle japonais car il a travaillé pour une entreprise nippone, alors que ce n’est mentionné nulle part (hallucination par déduction erronée). Autre exemple : un assistant juridique IA invente une jurisprudence “Martin contre État” pour justifier un licenciement, forçant le juriste humain à vérifier chaque référence avant validation finale.
