Halluzination — Wenn KI überzeugende Falschinformationen erzeugt
Eine KI-Halluzination entsteht, wenn ein LLM überzeugend klingende aber faktisch falsche Informationen generiert.
Was ist eine KI-Halluzination?
Von einer Halluzination spricht man, wenn ein KI-Modell Informationen generiert, die überzeugend und plausibel klingen, aber schlicht falsch sind. Die KI „erfindet" Fakten, Zitate, Codebeispiele oder sogar wissenschaftliche Studien, die es nie gegeben hat — und präsentiert sie mit voller Überzeugung. Der Begriff ist bewusst aus der Psychologie entlehnt: Die KI „sieht" etwas, das nicht existiert.
Warum halluzinieren LLMs?
LLMs erzeugen Text, indem sie statistisch vorhersagen, welches Wort als Nächstes am wahrscheinlichsten kommt. Sie haben kein echtes Verständnis von Wahrheit oder Fakten. Wenn das Modell zu einem Thema keine zuverlässigen Trainingsdaten hatte oder der Prompt mehrdeutig ist, füllt es die Lücken mit plausibel klingenden, aber erfundenen Inhalten. Das Modell „weiß" nicht, dass es etwas nicht weiß.
Wie erkennst du Halluzinationen?
- Zu spezifische Details: Wenn die KI exakte Zahlen, Daten oder Zitate nennt, prüfe sie nach
- Nicht existierende Quellen: Bibliotheksnamen, npm-Pakete oder API-Endpunkte, die es nicht gibt
- Widersprüche: Wenn sich die KI in einer längeren Antwort selbst widerspricht
- Zu perfekte Antworten: Wenn alles suspekt glatt klingt, lohnt sich ein Faktencheck
Wie vermeidest du Halluzinationen?
RAG (Retrieval Augmented Generation) ist eine der effektivsten Methoden: Die KI durchsucht zuerst deine eigenen Dokumente und antwortet auf Basis echter Daten. Außerdem hilft es, die KI explizit aufzufordern, Unsicherheiten zu benennen: „Wenn du dir nicht sicher bist, sag es."
Im Vibe-Coding-Kontext
Beim Programmieren mit KI können Halluzinationen bedeuten, dass die KI Funktionen aufruft, die es nicht gibt, oder veraltete API-Syntax verwendet. Teste generierten Code immer, bevor du ihn in Produktion übernimmst. Nutze Linting-Tools und automatisierte Tests als Sicherheitsnetz.
Verwandte Artikel
LLM (Large Language Model) — Große Sprachmodelle erklärt
Ein LLM ist ein KI-Modell mit Milliarden Parametern, das menschliche Sprache versteht und generiert.
RAG (Retrieval Augmented Generation) — KI mit eigenen Daten füttern
RAG ist eine Technik, bei der ein LLM eigene Dokumente durchsucht, bevor es antwortet, um Halluzinationen zu reduzieren.
Context Window — Das Gedächtnis eines KI-Modells
Das Context Window bestimmt, wie viel Text ein LLM gleichzeitig verarbeiten kann, gemessen in Tokens.