Wenn KI „laut Studien" schreibt, existiert die Studie dann?
Nein, nicht automatisch. Formulierungen wie „Studien zeigen", „Forscher haben herausgefunden" oder „eine Harvard-Studie belegt" sind oft reine Sprachmuster, keine Belege. Immer nach dem konkreten Titel fragen und gegenprüfen.
Dieses Muster ist eine der häufigsten Halluzinationen. Das Modell hat im Training Millionen wissenschaftlich klingende Texte gesehen und reproduziert die Formulierung überzeugend, auch wenn die Studie nicht existiert.
Typische Muster
„Studien zeigen, dass..." ohne konkrete Angabe „Eine Untersuchung der [renommierten Universität]" ohne Autor „Laut einer aktuellen Meta-Analyse" ohne Jahr oder DOI „Forscher haben nachgewiesen" ohne Fachgebiet oder Journal
Die Gegenprobe
Frag direkt: „Gib mir bitte Titel, Autoren, Jahr und Link zur Studie." Drei Dinge können passieren:
- Das Modell liefert konkrete Angaben, dann in Google Scholar prüfen. Oft existieren die Angaben nicht.
- Das Modell rudert zurück, „Ich habe keine spezifische Studie im Sinn gehabt." Das bestätigt: Halluzination.
- Das Modell erfindet Autoren und Titel, klingt plausibel, existiert nicht. Klassischer Fall.
Für geschäftskritische Texte
Keine Aussage mit Studien-Referenz aus KI ohne manuelle Prüfung weiterverwenden. Das ist die häufigste Ursache für peinliche Korrekturen in öffentlichen Publikationen.