Entsteht Bias in KI-Antworten nur durch das Modell?
Nein. Den größten Bias bringt die Frage selbst mit. Vier Muster dominieren: Suggestivfragen, Framing, Stereotypen und negative Einrahmung. Wer das kennt, schreibt fairere Prompts und bekommt belastbarere Antworten.
Die Debatte konzentriert sich meist auf den Bias im Trainingsmaterial. Der ist real, aber der größere Hebel liegt bei der Person vor dem Prompt. Wer so fragt, dass nur eine Antwort möglich ist, bekommt auch nur diese.
Die vier Frage-Muster mit Bias
Suggestivfrage: „Warum ist Remote-Arbeit schlecht für die Produktivität?", setzt die These voraus. Besser: „Welche Effekte hat Remote-Arbeit auf Produktivität?"
Framing: „Erkläre, warum X die beste Option ist", legt die Antwort vor. Besser: „Vergleiche X, Y und Z nach folgenden Kriterien..."
Stereotyp: „Wie denken Mitarbeiter der Generation Z über...?", reduziert Menschen auf Gruppen. Besser: „Welche Haltungen gibt es zu X in verschiedenen Altersgruppen, laut aktueller Studien?"
Negative Einrahmung: „Warum ist KI gefährlich?", schließt Differenzierung aus. Besser: „Welche Chancen und Risiken hat KI?"
Prüfregel für eigene Prompts
Schreib die Frage auf. Dann schreib die Gegenfrage. Wenn das Modell beide ernsthaft beantworten kann, ist dein Prompt fair. Wenn nur eine Version sinnvoll klingt, hast du Bias eingebaut.