Les recherches menées par OpenAI révèlent que les modèles o3 et o4-mini produisent des réponses incorrectes dans respectivement 33% et 48% des cas. Cette tendance, qualifiée d'hallucination, pose des questions sur la fiabilité des systèmes d'IA, surtout dans des domaines critiques comme la médecine ou la finance. Eleanor Watson, experte en éthique de l'IA, souligne les risques de ces erreurs subtiles mais potentiellement graves.
L'hallucination n'est pas simplement un défaut, mais une caractéristique inhérente aux modèles de langage. Sohrob Kazerounian, chercheur en IA, explique que cette capacité à générer du contenu original est ce qui permet à l'IA de créer, et non pas seulement de reproduire. Sans cette faculté, les systèmes d'IA seraient limités à des réponses préexistantes, sans possibilité d'innovation (voir chapitre en fin d'article).
Pourtant, le problème se corse avec les modèles les plus avancés. Les hallucinations deviennent moins évidentes et plus difficiles à détecter, intégrées dans des récits plausibles. Eleanor Watson explique que cela peut éroder la confiance dans les systèmes d'IA, surtout lorsque les utilisateurs prennent les informations pour argent comptant.
Les solutions pour mitiger ce phénomène incluent l'utilisation de sources externes pour vérifier les informations générées. Eleanor Watson mentionne également l'importance de structurer le raisonnement des modèles et de leur apprendre à reconnaître leur propre incertitude. Ces approches, bien qu'imparfaites, pourraient améliorer la fiabilité des réponses.
Enfin, Sohrob Kazerounian rappelle que, face aux limites de l'IA, une certaine dose de scepticisme reste de mise. Tout comme avec les informations fournies par des humains, il est important de vérifier les données produites par les modèles de langage, surtout là où l'exactitude est primordiale.
Pourquoi les IA hallucinent-elles ?
L'hallucination dans les modèles d'IA est un phénomène qui découle de leur capacité à générer du contenu original. Contrairement aux systèmes traditionnels qui se basent sur des données existantes, les modèles de langage avancés tentent de créer des réponses nouvelles, ce qui peut conduire à des inventions.
Cette capacité est essentielle pour des tâches créatives, comme la rédaction ou la conception, où l'innovation est valorisée. Cependant, elle devient problématique lorsque l'IA est utilisée pour fournir des informations factuelles, où l'exactitude est demandée.
Les chercheurs travaillent sur des méthodes pour réduire ces hallucinations sans pour autant étouffer la créativité des modèles. Parmi ces méthodes, l'utilisation de bases de données externes pour vérifier les faits ou l'introduction de mécanismes de vérification interne.
Malgré ces efforts, l'hallucination reste un problème majeur, surtout avec l'évolution rapide des capacités des modèles d'IA.