Zum Inhalt springen
KI verstehen & prompten · Einsteiger

Woran erkenne ich Halluzinationen in KI-Antworten?

Halluzinationen wirken oft besonders flüssig und detailreich. Misstrauisch sein bei Zahlen, Zitaten, Quellenangaben, Namen und Daten, immer gegen eine unabhängige Quelle prüfen, bevor du sie weiterverwendest.

Sprachmodelle halluzinieren immer dann, wenn sie über Details mit begrenzter Faktenbasis generieren. Erkennen kannst du Halluzinationen an typischen Mustern.

Warnsignale

Übergenaue Zahlen: „Die Studie wurde 2019 mit 847 Teilnehmern in Mannheim durchgeführt." Klingt spezifisch, ist oft frei erfunden. Je präziser die Zahl wirkt, desto kritischer nachprüfen.

Nicht existente Quellen: Modelle erfinden plausibel klingende Buchtitel, Autoren und URLs. Ein Link, der auf den ersten Blick seriös wirkt, aber ins Leere führt, ist das häufigste Halluzinationsmuster.

Zu glatte Narrative: Wenn eine Erklärung alles schlüssig verbindet, ohne Widersprüche oder Grauzonen, oft zu schön, um wahr zu sein.

Selbstwidersprüche im gleichen Text: Modelle behaupten an Stelle A etwas, das Stelle B widerspricht. Zweimal lesen, Details vergleichen.

Gegenmittel

  • Im Prompt explizit sagen: „Wenn du etwas nicht sicher weißt, sag es."
  • Quellenzwang: „Belege jede Tatsache mit einer URL", fehlende URLs = wahrscheinlich erfunden
  • RAG einsetzen, wenn Faktentreue geschäftskritisch ist
  • Eigenständige Recherche für alles, was weiterverwendet wird

Zuletzt aktualisiert: 14. April 2026