Zum Inhalt springen
KI verstehen & prompten
Q2 2026 5 min Lesezeit

KI halluziniert: Drei Fehlertypen und wie du sie erkennst.

KI klingt immer überzeugend. Ob sie recht hat oder daneben liegt, klingt exakt gleich. Drei Fehlertypen solltest du kennen – und drei Strategien, die sofort helfen.

Halluzinationen Faktencheck KI-Kompetenz
Kurzfassung

KI-Output klingt immer souverän. Aber plausibel ist nicht dasselbe wie wahr. Drei Fehlertypen treten täglich auf.

  • Fakten-Halluzinationen sind die einfachste Kategorie. Falsche Daten, Namen, Orte. Eine kurze Suche reicht meistens zur Prüfung.
  • Quellen-Halluzinationen sind am gefährlichsten. KI erfindet Studien mit Autor, Titel und Seitenzahl. Alles klingt seriös, nichts davon existiert.
  • Der Bestätigungsfehler ist am schwersten zu erkennen. KI gibt dir recht, egal was du fragst. Das fühlt sich gut an, ist aber keine Analyse.

Drei Prüfstrategien helfen sofort: Quellen einfordern, Kritiker-Modus aktivieren und aktiv nach Gegenargumenten fragen.

Audio-Zusammenfassung0:00 / 0:00

Vertrauen kalibrieren: KI-Output kritisch bewerten

Stell dir einen Kollegen vor, der auf jede Frage eine Antwort hat. Immer souverän, immer flüssig, immer überzeugend formuliert. Das Problem: Ob er recht hat oder völlig daneben liegt, klingt exakt gleich.

Genau so funktioniert KI. Sie produziert Text, der plausibel klingt. Nicht Text, der wahr ist. Das ist kein Bug. So ist die Technologie gebaut. Sprachmodelle sagen das statistisch wahrscheinlichste nächste Wort voraus. Wort für Wort. Ohne Fakten-Register, ohne Wahrheitsprüfung.

Wer das versteht, arbeitet besser mit KI. Wer es ignoriert, zitiert erfundene Studien in Präsentationen.

Fehlertyp 1: Fakten-Halluzination

Die klassische Variante. KI behauptet etwas, das schlicht falsch ist. Ein Datum, ein Ort, ein Name. "Das Unternehmen wurde 2012 gegründet" – tatsächlich war es 2015. "Die Studie stammt von der Harvard Business School" – tatsächlich von einer ganz anderen Institution.

Fakten-Halluzinationen sind die einfachste Kategorie. Eine kurze Google-Suche reicht meistens. Gefährlich werden sie nur, wenn du sie nicht prüfst. Weil die Formulierung so überzeugend klingt, dass der Reflex zum Hinterfragen ausbleibt.

Faustregel: Je spezifischer und aktueller die Frage, desto höher das Risiko. Allgemeinwissen sitzt meistens. Aber frag nach dem CEO eines Unternehmens im Jahr 2019, und mach den Test drei Mal in neuen Gesprächen. Du wirst überrascht sein, wie konsistent die falsche Antwort klingt.

Fehlertyp 2: Quellen-Halluzination

Die gefährlichste Variante. KI erfindet nicht nur eine Behauptung, sondern liefert gleich eine professionell aussehende Quelle mit. Autor, Titel, Seitenzahl – alles klingt seriös. Nichts davon existiert.

Das Perfide: Wer nicht nachprüft, zitiert eine Phantomquelle. In einer Präsentation. In einem Bericht. Vor dem Kunden.

So entlarvst du erfundene Quellen:

  1. Titel der Studie in Google Scholar suchen
  2. Autorenname plus Institution prüfen
  3. DOI-Nummer suchen auf doi.org
  4. Wenn nichts zu finden ist: Die Quelle existiert nicht

Jede Quellenangabe aus KI-Output ist verdächtig bis zur Verifikation. Ohne Ausnahme.

Fehlertyp 3: Der Bestätigungsfehler

Dieser Fehler ist am schwersten zu erkennen. Weil er sich nicht wie ein Fehler anfühlt. Er fühlt sich an wie Bestätigung.

Sprachmodelle sind darauf trainiert, hilfreich und angenehm zu sein. In der Praxis bedeutet das: Sie bestätigen deine Annahmen. Sie geben dir recht. Frag "Was sind die größten Vorteile von Home-Office?" und du bekommst überzeugende Pro-Argumente. Frag "Was sind die größten Nachteile von Home-Office?" und du bekommst ebenso überzeugende Contra-Argumente. Beide Antworten widersprechen sich. Die KI ist kein Analyst. Sie ist ein Spiegel.

Wer KI als Sparringspartner will, muss aktiv nach Gegenargumenten fragen. Sonst bekommt man eine Echokammer statt einer Analyse.

Drei Strategien die sofort helfen

Quellen einfordern: "Gib mir für jede Behauptung die exakte Quelle an. Wenn du keine verlässliche Quelle hast, sag das ehrlich."

Kritiker-Modus: "Prüfe deinen letzten Text kritisch: Welche Aussagen sind gesichert, welche sind Vermutungen, und wo könntest du falsch liegen?"

Gegenperspektive: "Nenne mir die drei stärksten Argumente gegen deine Empfehlung. Argumentiere so überzeugend wie möglich aus der Gegenposition."

Nicht jeder KI-Output braucht alle drei Strategien. Die entscheidende Frage ist nicht "prüfe ich?" sondern "was passiert, wenn das falsch ist?" Die Antwort bestimmt den Aufwand.

Rico Loschke

Rico Loschke

KI-Stratege & Übersetzer zwischen Tech und Business

15+ Jahre Digitalisierung, 4+ Jahre KI. Ich übersetze zwischen Technologie und Unternehmensstrategie, berate und trainiere Organisationen auf ihrem KI-Weg. Hier teile ich, was ich dabei lerne.

loschke.ai. Visionen, Konzepte, Meinungen →