Zum Inhalt springen
KI verstehen & prompten · Einsteiger

Halluzination

Auch bekannt als: Hallucination, KI-Halluzination

Eine Halluzination ist eine plausibel klingende, aber faktisch falsche Aussage eines Sprachmodells. Das Modell erfindet Details, Zitate oder Quellen, die nicht existieren.

Halluzinationen sind kein Bug, sondern ein Feature der Statistik. Sprachmodelle generieren das wahrscheinlich nächste Wort, nicht die nachprüfbare Wahrheit. Wenn die Wahrheit nicht im Trainingsmaterial stand oder das Modell unsicher ist, füllt es die Lücke mit plausiblem Text.

Wo Halluzinationen besonders häufig sind

Bei spezifischen Zahlen, Namen, Jahreszahlen, Zitaten, URLs und medizinischen oder juristischen Details. Immer dort, wo Wissen präzise sein muss und nicht paraphrasiert werden kann.

Was dagegen hilft

  • RAG: Modell antwortet nur auf Basis nachgewiesener Quellen
  • Quellenzwang im Prompt: „Nenne Quelle oder sag, dass du es nicht weißt"
  • Zweitprüfung: kritische Aussagen durch zweites Modell oder Suche verifizieren
  • Temperatur runter: weniger Kreativität = weniger Erfindung

Zuletzt aktualisiert: 14. April 2026

Passende Fragen