Bias
Auch bekannt als: KI-Bias, Verzerrung, Voreingenommenheit
Bias in KI-Systemen sind systematische Verzerrungen, die aus Trainingsdaten, Modelldesign oder Prompt-Formulierung entstehen. Sie beeinflussen Antworten, Bilder und Entscheidungen in eine bestimmte Richtung.
Bias kommt nicht nur aus dem Modell. Vier Quellen: Trainingsdaten (was im Internet steht, ist nicht neutral), Modelldesign (wie gewichtet wird), Prompt-Formulierung (wie du fragst) und Auswahl (welchen Output du nutzt).
Im Text
Suggestivfragen erzeugen einseitige Antworten. "Warum ist X schlecht?" liefert andere Ergebnisse als "Welche Vor- und Nachteile hat X?"
Im Bild
"Software-Entwickler" erzeugt typischerweise einen jungen, männlichen, weißen Charakter. "Krankenschwester" eine Frau. Diese Defaults spiegeln die Trainingsdaten, nicht die Realität.
Die Gegenmaßnahme
Bewusst neutral formulieren, Ergebnisse kritisch prüfen, bei Bildern aktiv Diversität prompen, und eigene Bias in Fragen reflektieren.