Sind längere KI-Antworten automatisch genauer?
Nein. Länge korreliert nicht mit Korrektheit. Oft sind kürzere, fokussierte Antworten zuverlässiger, weil weniger Raum für Halluzinationen bleibt. Mehr Worte bedeuten mehr Gelegenheit zu raten.
Ein verbreitetes Missverständnis: „Die Antwort ist so ausführlich, die muss stimmen." In Wirklichkeit ist das Gegenteil häufig der Fall. Jeder weitere Satz kann Halluzinationen produzieren.
Warum lange Antworten trügerisch wirken
Sie enthalten mehr Details, mehr Nuancen, mehr scheinbar konkrete Fakten. Die Oberfläche signalisiert: „Hier wurde gründlich recherchiert." Tatsächlich hat das Modell nur länger statistisch produziert. Ob die Substanz stimmt, hängt nicht an der Länge.
Wo längere Antworten gefährlich werden
- Historische Details mit Jahreszahlen und Namen
- Zitate und Studien, die „belegt" werden
- Technische Spezifikationen mit erfundenen Parametern
- Biografien oder Firmenhistorien mit sehr spezifischen Daten
Prüfregel
Bei wichtigen Antworten ist Länge ein Risikofaktor, kein Qualitätssignal. Fordere im Prompt aktiv kurze Antworten mit Quellen: „Beantworte in maximal drei Sätzen. Nenne nur Fakten, die du belegen kannst." Was das Modell dann noch liefert, ist meist verlässlicher.