Risques & LimitesTransverse

Hallucination : définition
et applications métier

Définition

Une hallucination IA est une information inventée par un modèle de langage et présentée avec confiance — statistiques fictives, citations inexistantes, faits erronés — sans aucun signal d'avertissement apparent.

Les hallucinations IA : comprendre pour se protéger

Le terme "hallucination" est emprunté à la psychologie, et l'analogie est pertinente : tout comme une personne qui hallucine perçoit quelque chose de réel qui n'existe pas, un LLM qui hallucine génère des informations qui semblent plausibles mais sont fausses.

La particularité dangereuse : les LLM ne savent pas ce qu'ils ne savent pas. Quand ils manquent d'information, ils ne répondent pas "je ne sais pas" — ils extrapolent. Et ils le font avec la même fluidité et le même ton assuré que pour les informations exactes.

Les hallucinations les plus fréquentes en contexte professionnel

Statistiques inventées — "Selon une étude McKinsey 2024, 78% des entreprises..." (l'étude peut ne pas exister ou le chiffre être faux)

Citations fabriquées — L'IA attribue des propos à des personnalités réelles qui n'ont jamais dit ces choses

Références bibliographiques fantômes — Titres d'articles, noms d'auteurs, numéros de revue qui n'existent pas

Fonctionnalités inexistantes — En contexte produit/SaaS, l'IA peut décrire des fonctionnalités que votre solution n'a pas

Historique réécrit — Des faits légèrement déformés ou des événements réarrangés chronologiquement

Exemple pratique step-by-step

Protocole de vérification anti-hallucination :

Étape 1 — Lire avec le filtre "est-ce que je sais que c'est vrai ?" Tout ce que vous ne pouvez pas confirmer de mémoire est suspect.

Étape 2 — Identifier les claims vérifiables : statistics, citations, noms propres, dates, fonctionnalités, réglementations.

Étape 3 — Vérifier à la source primaire : recherche Google direct, site officiel, rapport original. Pas une autre IA.

Étape 4 — Demander à l'IA de citer ses sources : "Pour chaque statistique citée, indique la source exacte (auteur, titre, date, URL si possible)." Si elle ne peut pas citer de source fiable, la supprimer.

Étape 5 — Pour les documents officiels : règle d'or — zéro IA sur le contenu juridique sans validation par un expert humain.

Réduire les hallucinations par le prompting

Quelques techniques qui réduisent significativement les hallucinations :

  • "Si tu n'es pas certain, dis-le" — simple mais efficace
  • "Base-toi uniquement sur les informations que je t'ai fournies" — évite les extrapolations
  • RAG — ancrer l'IA dans vos vrais documents (voir définition RAG)
  • Demander un niveau de confiance — "Pour chaque point, indique si tu es certain (source connue), probable (inférence logique) ou incertain"

Applications par métier

Ressources Humaines

Risque élevé dans les communications officielles (contrats, règlement intérieur, procédures légales) et l'analyse de CVs (invention de diplômes ou d'expériences non mentionnés). Règle absolue : toujours vérifier les informations légales et les données personnelles produites par l'IA.

Marketing

Les hallucinations marketing les plus fréquentes : statistiques inventées ('selon une étude de...'), citations de personnalités fictives, chiffres de marché erronés. Ne jamais publier de stat ou de citation IA sans vérification à la source.

Commercial

Danger dans les propositions commerciales : l'IA peut inventer des références clients, des certifications inexistantes ou des fonctionnalités de votre produit. Toujours relire une proposition commerciale générée par IA avec le filtre 'est-ce que c'est vrai ?'

Questions fréquentes

Pourquoi les LLM hallucinent-ils ?

Les LLM génèrent le token le plus statistiquement probable à chaque étape. Ils n'ont pas accès à une 'vérité' externe — ils extrapolent à partir de patterns vus pendant l'entraînement. Quand ils manquent d'information précise, ils 'comblent' avec ce qui leur semble vraisemblable. Ce n'est pas un bug qu'on peut supprimer, c'est une caractéristique fondamentale de leur architecture.

Comment détecter une hallucination ?

Les hallucinations sont difficiles à détecter car elles sont présentées avec le même ton assuré que les vraies informations. Signaux d'alerte : statistiques très précises (83.7% de X), citations avec noms propres et dates, informations que vous n'avez pas fournies dans votre prompt, détails qui semblent 'trop parfaits'. Pour les informations critiques : recherche Google directe, vérification à la source primaire.

Les nouveaux modèles hallucinent-ils moins ?

Oui, significativement. GPT-4 hallucine moins que GPT-3.5, Claude 3.5 est particulièrement fiable sur les textes longs. Les techniques comme le RAG (ancrage dans des documents réels) et le 'grounding' réduisent drastiquement les hallucinations. Mais aucun modèle actuel n'est exempt d'hallucinations — la vigilance reste de mise.

Termes liés