Was sind AI-Halluzinationen?
Elaine Hamill, SAS Insights Editor
Der weltweite Markt für generative künstliche Intelligenz (GenAI) wird in den nächsten fünf Jahren voraussichtlich rasant wachsen. Wie finden wir die Balance zwischen dem großen Potenzial von AI und dem Bedürfnis nach Sicherheit und Verantwortlichkeit, vor allem in einem Wahljahr? Beginnen wir mit der Erklärung von AI-Halluzinationen und der Frage, warum es immer schwerer wird, Fakten und KI-generierte Fiktion auseinanderzuhalten.
AI-Halluzinationen verstehen
In einer perfekten Welt würden generative AI-Tools wie Gemini von Google oder ChatGPT von OpenAI jeden von Benutzer:innen eingereichten Prompt angemessen bearbeiten. Sie würden ausschließlich korrekte und präzise Antworten geben.
Aber in der Realität macht GenAI Fehler. GenAI erfindet Dinge. AI-Halluzinationen treten dann auf, wenn die einem AI-Chatbot zugrundeliegenden Large Language Models (LLMs) in Reaktion auf Prompts falsche oder unsinnige Informationen generieren.
Weltweit nutzen über 5,3 Milliarden Menschen das Internet, und die LLMs, die generativer AI zugrunde liegen, nehmen ununterbrochen und willkürlich Daten auf. Das beinhaltet die Milliarden von Videos, Fotos, E-Mails und Social Media-Posts, die wir Menschen jeden Tag erstellen.
Generative AI lernt aus diesem Datengewitter und kann Informationen, Muster oder Objekte erkennen, die nicht existieren. Diese Missverständnisse führen zu AI-Halluzinationen – falsche, unlogische oder irreführende Daten, Inhalte oder Ergebnisse.
Es klingt seltsam, ist aber wahr. AI kann sich irren – und das kommt tatsächlich vor. Dabei bewegen sich AI-Halluzinationen überall zwischen leicht irreführenden Ergebnissen und komplettem Unsinn. Für das ungeschulte Auge oder Ohr können manche AI-Halluzinationen sogar sehr überzeugend und präzise wirken.
Folgeerscheinungen von AI-Halluzinationen
AI-Halluzinationen können weitreichende, ernsthafte Konsequenzen nach sich ziehen. Das gilt insbesondere im Hinblick auf die rasante Verbreitung von Fehlinformation.
Seit der globalen Einführung von ChatGPT im November 2022 haben hunderte Millionen Menschen begonnen, generative AI-Tools zu nutzen. Im April 2024 wurde ChatGPT von mehr als 180 Millionen Menschen genutzt.
Unglücklicherweise steigt die Anzahl der AI-Halluzinationen ebenso schnell. Wie häufig treten AI-Halluzinationen auf? Das Halluzinationsranking von Vectera listet (im April 2024) GPT4 Turbo mit einer Fehlerquote von 2,5% als das am wenigsten für Halluzinationen anfällige Tool.
Tatsächlich findet sich bei ChatGPT mittlerweile ein Disclaimer unter dem offenen Textfeld: „ChatGPT kann Fehler machen. Überprüfen Sie wichtige Informationen.“Und Gemini von Google empfiehlt seinen Nutzer:innen, Antworten auf ihre Richtigkeit hin zu prüfen.
Generative AI: Was es ist und warum es wichtig ist
Auf unserer Erklärseite erfahren Sie mehr über GenAI. Erfahren Sie mehr über die Entstehungsgeschichte, wie sie funktioniert, welche Technologien und Modelle mit ihr zusammenhängen und wie sie in verschiedenen Branchen eingesetzt wird.
Ursachen von AI-Halluzinationen
AI-Halluzinationen lassen sich nicht auf einzelne Ursachen zurückführen. Vielmehr steigern fehlende, fehlerhafte oder voreingenommene Datensätze und auch die vielfältigen Herausforderungen von Prompts der Benutzer:innen das Risiko, fehlerhafte Ergebnisse zu erhalten.
Input Bias (Voreingenommenheit des Inputs) ist eine der Hauptursachen von AI-Halluzinationen. Selbstverständlich neigt ein mit fehlerhaften oder voreingenommenen Datensätzen trainiertes AI-Modell dazu, Muster oder Eigenschaften zu halluzinieren, die dies widerspiegeln. Gibt es AI-Modelle, die vorsätzlich zur Generierung verzerrter Ergebnisse manipuliert wurden? Definitiv. Tech-Unternehmen gehen kontinuierlich gegen solche Machenschaften vor. Aber die Prävention von Input Bias bleibt ein endloser Kampf.
Über- und Unteranpassung spielen auch eine Rolle bei der Entstehung von AI-Halluzinationen. Überanpassung tritt dann auf, wenn ein Modell zu komplex ist – wenn es sich also die Details und das Grundrauschen seiner Trainingsdaten etwas zu gut aneignet. Komplexe Modelle funktionieren mit ihren eigenen Trainingsdaten gut. Aber es fehlt ihnen an Kapazitäten für die Extrapolation – solche Modelle haben also Schwierigkeiten mit neuen Daten. Sie sind zu stark an ihre Trainingsdaten angepasst, um aus anderen Daten zuverlässige Prognosen ableiten zu können.
Unteranpassung ist das Gegenteil – sie tritt dann auf, wenn ein Modell zu simpel ist. Unterkomplexe Modelle erkennen Details, Muster oder Beziehungen in Trainingsdaten nicht. Entsprechend kommt es zu mangelhaften Ergebnissen, sowohl mit Trainingsdaten als auch mit neue Daten.
Stellen wir uns ein LLM als eine Art Müllpresse vor. Alles Mögliche kann und wird dort eingespeist, und all das wird wiederholt zusammengequetscht, um Platz für mehr zu schaffen. Dabei gehen Details und Nuancen dessen, was eingespeist wurde, verloren.
Filme und Serien wollen uns immer wieder Glauben machen, LLMs wären zu eigenständigem Denken fähig. Aber das sind sie natürlich nicht. Sie geben lediglich Antworten auf die Fragen, die sie erhalten, basierend auf Wahrscheinlichkeiten der Daten, die sie aufgenommen haben. Diese Antworten können nicht immer zu 100 % korrekt sein (zumindest noch nicht).
Um LLMs angemessen komplex zu gestalten, müssen die Funktionen, die Intensität des Trainings und die Anzahl der Trainingsbeispiele angepasst werden.
Auch die Erstellung der Prompts kann sich auf die Antworten generativer AI auswirken. Detaillierte und präzise Prompts erhöhen die Wahrscheinlichkeit auf eine korrekte Antwort und präzise Ergebnisse – während vage, widersprüchliche oder unpräzise Prompts das Gegenteil erreichen. Wer in seine Prompts spezifische Richtlinien oder Parameter für die GenAI aufnimmt, sorgt ebenfalls für bessere Ergebnisse. Dasselbe gilt für das Ergänzen von Kontext zu Prompts und sogar das Zuweisen einer bestimmten Rolle oder Perspektive an das KI-Tool, um den Fokus zu präzisieren.
Auswirkungen von AI-Halluzinationen
AI-Halluzinationen haben eindeutige Auswirkungen auf die reale Welt. Werfen Sie einen Blick auf diese Beispiele aus verschiedenen Branchen und Anwendungsbereichen:
- Im Wahljahr 2024 ist die Verbreitung von Fehlinformationen über AI-Halluzinationen weltweit ein entscheidendes Problem. Fragen Sie sich, was führende Unternehmen der AI-Branche unternehmen, um Genauigkeit und Transparenz sicherzustellen? So bereitet sich OpenAI auf die weltweiten Wahlen im Jahr 2024 vor.
- Bei Finanzdienstleistungen können Unternehmen mit GenAI bares Geld sparen, Entscheidungen verbessern, Risiken minimieren und die Kundenzufriedenheit erhöhen. Andererseits kann AI unpassenden Kandidaten Kredite gewähren und so Verlustrisiken erhöhen. Eines Tages mögen AI-gesteuerte Investmentberatungsdienste möglich werden. Heute sind wir in der AI-Schleife noch stark auf Menschen angewiesen. Lesen Sie etwa, wie Daiwa Securities aus Japan mit AI die Kundenbindung erhöht und so für Wachstum sorgt.
- Versicherungen wissen die Geschwindigkeit, Effizienz und Präzision von AI zu schätzen. Aber die Nutzung von AI stellt sie auch vor potenzielle ethische und rechtliche Probleme wie voreingenommene oder diskriminierende Modelle und Algorithmen. Erfahren Sie, wie AI die Zukunft der Versicherungsbranche gestaltet.
- Im Gesundheitswesen und den Life Sciences bieten sich viele vielversprechende Möglichkeiten der Anwendung von GenAI. Aber es besteht die Gefahr der rasanten Ausbreitung von ungenauen Diagnosen, betrügerischen Patientenakten und gefälschten Fotos, darunter Röntgenaufnahmen. Erfahren Sie mehr über generative AI in den Händen von Betrügern im Gesundheitswesen.
Erfolg hängt entscheidend von umfangreichen, diversen, ausbalancierten und hochwertigen Datensätzen für das Training von AI-Modellen ab. So können Modelle ihren Bias minimieren und fairere, präzisere Ergebnisse generieren.
KI-Halluzinationen angehen und reduzieren
Entwickler:innen führender AI-Systeme wissen, dass auch die geringste Halluzinationsrate inakzeptabel ist. Was kann zur Verbesserung der Genauigkeit und zur Prävention von KI-Halluzinationen getan werden?
Erfolg hängt entscheidend von umfangreichen, diversen, ausbalancierten und hochwertigen Datensätzen für das Training von AI-Modellen ab. So können Modelle ihren Bias minimieren und fairere, präzisere Ergebnisse generieren. Auch die Verringerung unnötiger Daten ist wichtig, da unvollständige Daten oder Anomalien zu AI-Halluzinationen beitragen.
Auch bestärkendes Lernen ist ein wirksames Mittel zur Reduktion von AI-Halluzinationen. Sowohl maschinelles Lernen als auch menschliches Feedback kann AI-Modelle trainieren, sodass sie bessere Entscheidungen treffen und zu genaueren Ergebnissen kommen. Falls ein Chatbot Sie also um Feedback zur Qualität seiner Antworten oder um Weiterempfehlung bittet, tun Sie es! Ihr Feedback trägt zur Stärkung des Modells bei und ist eine der besten Möglichkeiten, wie Menschen die Qualität von GenAI-Ergebnissen verbessern können.
Vorsichtsmaßnahmen gegen AI-Halluzinationen
AI-Halluzinationen können sehr reale Folgen haben, was zu genauso realen Problemen führt. LLMs sind zwar der Motor von AI, aber Sie müssen verantwortungsbewusst eingesetzt werden, um KI-Halluzinationen zu vermeiden.
Da die Gefahr der Verbreitung von Fehlinformationen droht, verstärken sich die Bemühungen, GenAI auf Kurs zu halten und KI-Halluzinationen zu verhindern. Von den NeMo Guardrailsvon Nvidia bis hin zu Guardrails AI und anderen, der Markt für die Validierung und Verifizierung der Ergebnisse von AI-Modellen ist ein wachsender Markt.
Mit der Zeit werden GenAI-Modelle mehr Daten aufnehmen und ihre Ergebnisse weiter präzisieren. Bis jeder AI-generierte Inhalt einem Faktencheck unterzogen wird, um seine Genauigkeit und Zuverlässigkeit sicherzustellen, werden Menschen weiter eine große Rolle dabei spielen, sicherzustellen, dass GenAI tut, was es soll.
Bericht zu generativer AI: Ergebnisse lesen
Wir haben Entscheidungsträger:innen nach den Chancen und Risiken gefragt, denen sie bei der Implementierung generativer AI begegnet sind. Lernen Sie von ihren Erfahrungen und erfahren Sie, wie Sie passende Business-Cases identifizieren können.
Über die Autorin
Elaine Hamill ist Senior Editor des Thought Leadership, Editorial und Content-Teams bei SAS. Sie schreibt schon ihr ganzes Leben lang und hat über 25 Jahre Erfahrung mit dem Verfassen und der Arbeit mit Inhalten in einer Vielzahl von Branchen, darunter Finanzen, Einzelhandel, Gesundheitswesen, Bildung und Tech.
Literaturempfehlungen
- Why banks need to evolve their approach to climate and ESG riskManaging environmental, social and governance (ESG) risk is important to banks, regulators, investors and consumers – yet there are many interpretations of how to do it. To thrive, organizations must evolve their risk management practices – including those affected by ESG risk.
- SAS CIO: Why leaders must cultivate curiosity in 2021With the change we’re all facing this year, CIOs should be counting on curiosity to play a crucial role in how we’re going to meet the challenges that lie ahead. From the moment COVID-19 hit, our IT organization has relied on curiosity – that strong desire to explore, learn, know - to fuel the urgent changes required. And it’s curiosity that will enable us to meet the needs of the future of work post-pandemic.
- Continuous monitoring: Stop procurement fraud, waste and abuse nowProcurement fraud, waste and abuse silently robs businesses an average of 5% of spend annually. And even when organizations invest in detection methods, they’re often let down by their techniques. Learn what continuous monitoring is and why this proven analytical method is key to fighting back.
Sind Sie bereit, Insights zu abonnieren?
SAS® Viya™
Make analytics accessible to everyone and bridge the talent gap in your organization