Forschungen von OpenAI zeigen, dass die Modelle o3 und o4-mini in 33 % bzw. 48 % der Fälle falsche Antworten liefern. Diese Tendenz, als Halluzination bezeichnet, wirft Fragen zur Zuverlässigkeit von KI-Systemen auf, insbesondere in kritischen Bereichen wie Medizin oder Finanzen. Eleanor Watson, Expertin für KI-Ethik, betont die Risiken dieser subtilen, aber potenziell schwerwiegenden Fehler.
Halluzinationen sind nicht nur ein Fehler, sondern eine inhärente Eigenschaft von Sprachmodellen. Sohrob Kazerounian, KI-Forscher, erklärt, dass diese Fähigkeit, originäre Inhalte zu generieren, es der KI ermöglicht, zu erschaffen und nicht nur zu reproduzieren. Ohne diese Fähigkeit wären KI-Systeme auf vorgefertigte Antworten beschränkt, ohne Möglichkeit zur Innovation (siehe Kapitel am Ende des Artikels).
Doch das Problem verschärft sich mit den fortschrittlichsten Modellen. Die Halluzinationen werden weniger offensichtlich und schwerer zu erkennen, da sie in plausible Erzählungen eingebettet sind. Eleanor Watson erklärt, dass dies das Vertrauen in KI-Systeme untergraben kann, insbesondere wenn Nutzer die Informationen für bare Münze nehmen.
Lösungen zur Minderung dieses Phänomens umfassen die Nutzung externer Quellen zur Überprüfung der generierten Informationen. Eleanor Watson erwähnt auch die Bedeutung einer strukturierten Denkweise der Modelle und ihrer Fähigkeit, eigene Unsicherheiten zu erkennen. Diese Ansätze, wenn auch unvollkommen, könnten die Zuverlässigkeit der Antworten verbessern.
Schließlich erinnert Sohrob Kazerounian daran, dass angesichts der Grenzen der KI eine gewisse Skepsis angebracht bleibt. Genau wie bei Informationen von Menschen ist es wichtig, die von Sprachmodellen erzeugten Daten zu überprüfen, insbesondere dort, wo Genauigkeit entscheidend ist.
Warum halluzinieren KIs?
Halluzinationen bei KI-Modellen sind ein Phänomen, das aus ihrer Fähigkeit resultiert, originäre Inhalte zu generieren. Im Gegensatz zu traditionellen Systemen, die auf bestehenden Daten basieren, versuchen fortschrittliche Sprachmodelle, neue Antworten zu kreieren, was zu Erfindungen führen kann.
Diese Fähigkeit ist entscheidend für kreative Aufgaben wie das Verfassen von Texten oder Design, wo Innovation geschätzt wird. Sie wird jedoch problematisch, wenn die KI zur Bereitstellung faktischer Informationen eingesetzt wird, wo Genauigkeit gefordert ist.
Forscher arbeiten an Methoden, um diese Halluzinationen zu reduzieren, ohne dabei die Kreativität der Modelle einzuschränken. Dazu gehören die Nutzung externer Datenbanken zur Faktenprüfung oder die Einführung interner Überprüfungsmechanismen.
Trotz dieser Bemühungen bleiben Halluzinationen ein großes Problem, insbesondere mit der rasanten Entwicklung der Fähigkeiten von KI-Modellen.
Quelle: OpenAI