Les hallucinations IA : comprendre pour se protéger
Le terme "hallucination" est emprunté à la psychologie, et l'analogie est pertinente : tout comme une personne qui hallucine perçoit quelque chose de réel qui n'existe pas, un LLM qui hallucine génère des informations qui semblent plausibles mais sont fausses.
La particularité dangereuse : les LLM ne savent pas ce qu'ils ne savent pas. Quand ils manquent d'information, ils ne répondent pas "je ne sais pas" — ils extrapolent. Et ils le font avec la même fluidité et le même ton assuré que pour les informations exactes.
Les hallucinations les plus fréquentes en contexte professionnel
Statistiques inventées — "Selon une étude McKinsey 2024, 78% des entreprises..." (l'étude peut ne pas exister ou le chiffre être faux)
Citations fabriquées — L'IA attribue des propos à des personnalités réelles qui n'ont jamais dit ces choses
Références bibliographiques fantômes — Titres d'articles, noms d'auteurs, numéros de revue qui n'existent pas
Fonctionnalités inexistantes — En contexte produit/SaaS, l'IA peut décrire des fonctionnalités que votre solution n'a pas
Historique réécrit — Des faits légèrement déformés ou des événements réarrangés chronologiquement
Exemple pratique step-by-step
Protocole de vérification anti-hallucination :
Étape 1 — Lire avec le filtre "est-ce que je sais que c'est vrai ?" Tout ce que vous ne pouvez pas confirmer de mémoire est suspect.
Étape 2 — Identifier les claims vérifiables : statistics, citations, noms propres, dates, fonctionnalités, réglementations.
Étape 3 — Vérifier à la source primaire : recherche Google direct, site officiel, rapport original. Pas une autre IA.
Étape 4 — Demander à l'IA de citer ses sources : "Pour chaque statistique citée, indique la source exacte (auteur, titre, date, URL si possible)." Si elle ne peut pas citer de source fiable, la supprimer.
Étape 5 — Pour les documents officiels : règle d'or — zéro IA sur le contenu juridique sans validation par un expert humain.
Réduire les hallucinations par le prompting
Quelques techniques qui réduisent significativement les hallucinations :
- "Si tu n'es pas certain, dis-le" — simple mais efficace
- "Base-toi uniquement sur les informations que je t'ai fournies" — évite les extrapolations
- RAG — ancrer l'IA dans vos vrais documents (voir définition RAG)
- Demander un niveau de confiance — "Pour chaque point, indique si tu es certain (source connue), probable (inférence logique) ou incertain"