Les grands modèles de langage (LLM) comme ChatGPT, Gemini, Claude ou Mistral fascinent par leur capacité à générer du texte fluide, pertinent et souvent bluffant. Mais ils suscitent aussi une inquiétude : celle des “hallucinations”. Ces sorties fausses mais parfois plausibles, voir complètement inventées, posent un véritable défi pour leur adoption à grande échelle.
Faut-il y voir une faiblesse ou une nouvelle ressource créative à exploiter ?
Les hallucinations ne sont pas un “bug” mais une conséquence directe du fonctionnement des LLM. Ces modèles n’ont pas accès à une vérité absolue : ils génèrent la suite la plus probable d’une phrase à partir des données sur lesquelles ils ont été entraînés. Si l’information est manquante, incomplète ou biaisée, la réponse produite peut sembler crédible mais rester factuellement fausse.
Un autre facteur clé vient du mode d’entraînement et de récompense des LLM. Comme l’explique OpenAI, les modèles sont incités à “tenter une réponse” plutôt qu’à admettre leur incertitude :
Autrement dit, mieux vaut “inventer” quelque chose de plausible que rester silencieux, ce qui renforce mécaniquement les hallucinations.
Plusieurs facteurs amplifient ce phénomène :
Dans certains contextes, une hallucination peut coûter cher. Dans la santé, le droit ou la finance, une information erronée peut induire en erreur un professionnel, nuire à la confiance d’un client ou même générer des risques réglementaires.
C’est pourquoi il est crucial de mettre en place des garde-fous. Plusieurs pistes existent déjà :
On ne supprime pas totalement le risque, mais on peut le réduire à un niveau acceptable pour des usages critiques.
À l’inverse, il existe des situations où ces “dérives” sont bénéfiques. En relâchant la contrainte de vérité, les LLM deviennent capables de générer des associations inédites, de proposer des idées originales ou d’inventer des scénarios imaginatifs.
Dans le domaine de la création de contenus, cela ouvre des perspectives intéressantes : exploration d’alternatives lors d’un brainstorming, rédaction de récits, génération d’hypothèses scientifiques ou encore prototypage de nouvelles solutions. L’hallucination, dans ce cadre, n’est plus une faiblesse mais une source de créativité augmentée.
Pour illustrer concrètement la manière dont un LLM peut “halluciner” lorsqu’on lui laisse trop de liberté, nous avons mené une expérience simple.
Nous avons utilisé un modèle d’IA de type Grok, associé à un méta-prompt (c’est-à-dire une instruction générique conçue pour générer d’autres prompts). En faisant varier certains paramètres, comme la température (facteur de créativité), plusieurs générations ont été lancées à partir du même méta-prompt.
Chaque itération a produit des prompts légèrement différents, ensuite transmis à un modèle de génération d’images pour créer des visuels inspirés de La Nuit étoilée de Van Gogh.
Le résultat : une série d’images uniques qui illustrent comment de subtiles variations dans les instructions peuvent conduire à des hallucinations créatives ou imprévues.
Sans hallucinations
Avec hallucinations
L’enjeu n’est donc pas d’éradiquer les hallucinations, mais de savoir quand et comment les piloter. Sur des tâches factuelles, il faut activer des mécanismes de vérification et limiter la diversité. Sur des tâches créatives, au contraire, il est pertinent de relâcher ces contraintes et d’encourager la variété.
On peut même imaginer des systèmes capables de router dynamiquement entre un “mode factuel” et un “mode créatif”, en fonction de l’intention utilisateur. Ce type d’approche permettrait de tirer le meilleur parti des LLM, tout en limitant leurs risques dans les situations sensibles.
Les hallucinations font partie intégrante des grands modèles de langage. Elles reflètent leur nature probabiliste et leur puissance créative. Plutôt que de chercher à les supprimer, il est temps d’adopter une vision plus nuancée : les réduire lorsqu’elles mettent en danger la factualité, mais les exploiter lorsqu’elles stimulent la créativité et l’innovation.
Nous explorons ces enjeux au cœur de nos travaux de recherche, afin de proposer à nos clients des solutions fiables, innovantes et adaptées à leurs besoins.
Découvrez nos projets et notre expertise en intelligence artificielle.
Références :
Kalai et al. – Why Language Models Hallucinate.
Ji et al. (2023) – Survey of Hallucination in Natural Language Generation.
Huang et al. (2025) – A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions.
Jiang et al. (2024) – A Survey on LLM Hallucination via a Creativity Perspective.
Fein et al. (2025) – LitBench: Reliable Evaluation of Creative Writing.