Prompting-Techniken
Fortgeschrittener Block. Bias erkennen, iterativ nachfassen statt neu starten, Few-Shot und Chain-of-Thought — plus kritische Output-Bewertung: Halluzinationen entlarven, Spiegeltest, Risikoklassen, Prüfstrategien kombinieren.
Die Aufgaben sind tool-agnostisch. Nutze deine bevorzugte Chat-KI: ChatGPT, Claude, Gemini oder was dir zur Verfügung steht.
Prompt Bias: Wenn die Frage die Antwort diktiert
Die vier Bias-Muster in fremden und eigenen Prompts erkennen — und gezielt neutral umformulieren.
Die vier Muster erkennen und neutralisieren
Unten stehen vier verzerrte Prompts. Identifiziere bei jedem das Muster (Suggestiv / Framing / Stereotyp / Negativ) und schreibe eine neutrale Variante. Dann teste verzerrt vs. neutral nacheinander in derselben Chat-Session und vergleiche die Antworten.
1. „Warum ist Remote Work produktiver als Büroarbeit?" 2. „Welche Probleme bringt die 4-Tage-Woche mit sich?" 3. „Erkläre ohne komplizierte Wörter, wie ein neuronales Netz lernt." 4. „Warum sind Entwickler eigentlich immer introvertiert?"
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Schneller Selbsttest: Lies deinen Prompt laut. Klingt er wie eine echte Frage — oder wie die Begründung einer Antwort, die du schon im Kopf hast? Wenn Letzteres, liegt Bias vor.
Deinen eigenen Prompt auf Bias prüfen
Nimm einen Prompt, den du kürzlich zu einer strategischen Frage eingesetzt hast (Tool-Entscheidung, Personalthema, Projekt-Priorisierung). Prüfe ihn auf die vier Bias-Muster:
- Suggestiv: Ist die bevorzugte Antwort schon in der Frage versteckt? - Framing: Fragst du nur nach Chancen ODER nur nach Risiken? - Stereotyp: Stecken Vorannahmen drin, die als Fakt auftreten? - Negativ: Formulierst du, was du NICHT willst?
Wo du fündig wirst: Schreibe neutral um und lass beide Varianten laufen.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Framing-Bias ist der häufigste Fehler in Business-Prompts. Wer eine skeptische Mail schreiben will, fragt automatisch einseitig — und bekommt eine eloquente halbe Wahrheit zurück.
Iterativer Dialog: Nachfassen schlägt Neustart
Einen unzureichenden Output gezielt nachschärfen, statt von vorne zu beginnen — mit den sieben Kategorien für Folgeprompts.
Einen schwachen Output schrittweise retten
Nimm einen Prompt aus deinem Alltag und bitte die KI bewusst kurz, um einen eher mittelmäßigen ersten Output zu provozieren (z.B. kurze Anweisung ohne Kontext). Verbessere den Output dann in drei Folgeprompts — jeweils aus einer anderen der sieben Kategorien:
1. Umformulieren (Form ändern, Inhalt halten) 2. Beispiele (konkretisieren) 3. Analyse oder Stakeholder (tiefer gehen)
Vergleiche am Ende das finale Ergebnis mit dem, was ein kompletter Neustart geliefert hätte.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
„Mach es besser" oder „Nochmal, bitte" ist kein Feedback, sondern ein Wunsch. Sag konkret, WAS nicht passt und WAS du stattdessen willst. Das ist der Unterschied zwischen Iteration und Zufall.
Few-Shot Prompting: Zeigen statt erklären
Ein Muster per Beispielen transportieren, statt es zu beschreiben. Besonders stark bei Stil, Ton und festen Output-Strukturen.
Zero-Shot gegen Few-Shot direkt vergleichen
Wähle einen Text-Typ aus deinem Arbeitsalltag mit einem wiedererkennbaren Stil (LinkedIn-Post, Kunden-Mail, Status-Update, FAQ-Eintrag).
1. Schreibe ihn zuerst Zero-Shot: nur Aufgabe, Zielgruppe, Thema. 2. Schreibe denselben Prompt als Few-Shot: mit drei echten Beispielen aus deinem Archiv als Muster. Lass das vierte Beispiel offen, damit die KI dort weiterschreibt.
Beobachte: Was überträgt sich aus den Beispielen, was du im Zero-Shot hättest beschreiben müssen?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Faustregel: 2–6 Beispiele reichen. Variation zeigen, Format identisch halten, letztes Beispiel offen lassen. Wenn Erklären länger dauert als Zeigen, nimm Few-Shot.
Chain-of-Thought: Denkweg sichtbar machen
Bei komplexen Aufgaben die Annahmen prüfbar machen, statt einer Black Box zu vertrauen. Der Gewinn ist doppelt: bessere Qualität und nachvollziehbare Schritte.
Trade-off-Entscheidung mit explizitem Denkweg
Wähle eine echte Entscheidung aus deinem Alltag, die mehrere Faktoren hat (Tool-Auswahl, Priorisierung, Einstellungs-Entscheidung, Workflow-Umstellung).
1. Stelle die Frage zuerst Zero-Shot: nur die Ausgangslage und die Bitte um Empfehlung. 2. Stelle dieselbe Frage als Chain-of-Thought: Gib 3–4 Denkschritte vor, die das Modell nacheinander gehen soll. Bitte um eine kurze Begründung pro Schritt, bevor es zum nächsten übergeht.
Vergleiche: Welcher Empfehlung traust du mehr? Wo erkennst du im CoT-Output Annahmen, die du korrigieren möchtest?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Profi-Trick: Wenn die KI ohne Begründung antwortet, hake nach: „Begründe deine Antwort Schritt für Schritt. Korrigiere dich, falls nötig." Du bekommst überraschend oft eine andere — meist bessere — Antwort.
Halluzinationen: Provozieren und entlarven
Ein Gefühl dafür bekommen, wie überzeugend Falsches klingen kann — und Quellenangaben systematisch prüfen, bevor du sie weitergibst.
Detail-Halluzination bewusst provozieren
Stelle einer KI eine sehr spezifische Detail-Frage, zu der sie vermutlich keine belastbaren Trainingsdaten hat: exakte Telefonnummer eines mittelgroßen Unternehmens, Gründungsdatum eines Nischen-Startups, Umsatz einer bestimmten Filiale.
1. Wie sicher klingt die Antwort? 2. Frage dieselbe Detail-Frage dreimal in neuen Gesprächen. Bleiben die Antworten konsistent? 3. Verifiziere eine davon per Websuche. Stimmt sie?
Ziel der Übung: den „immer gleich souveränen" Ton einmal selbst erlebt haben.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Neuere Modelle geben bei sehr spezifischen Fragen manchmal „ich bin mir nicht sicher" zurück. Darauf verlassen darfst du dich nicht — die Abwesenheit einer Warnung bedeutet keine Bestätigung.
Der 2-Minuten-Quellen-Check
Bitte eine KI, einen kurzen Text (~250 Wörter) zu einem Fachthema zu schreiben — mit Quellenangaben. Prüfe dann systematisch jede Quelle:
1. Suche den exakten Titel in Google Scholar. 2. Suche Autor + Institution. 3. Wenn eine DOI genannt ist: prüfe sie auf doi.org. 4. Wenn eine URL genannt ist: öffne sie.
Zähle: Wie viele der Quellen überleben den 2-Minuten-Check?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Quellen-Halluzination ist die gefährlichste Kategorie, weil das Ergebnis am professionellsten aussieht. Jede Quelle aus KI-Output ist verdächtig bis zur Verifikation — ohne Ausnahme.
Der Ja-Sager: Den Spiegeltest machen
Erleben, wie die KI die eigene Annahme eloquent bestätigt — und trainieren, aktiv Gegenargumente einzufordern, statt eine Echokammer zu bekommen.
Der Spiegeltest mit Pro- und Contra-Prompt
Wähle ein Thema, zu dem du eine Haltung hast (Remote Work, 4-Tage-Woche, Tool-Entscheidung in deinem Team).
1. Stelle eine Pro-Frage und zähle die Argumente der KI. 2. Starte ein neues Gespräch. Stelle die Contra-Frage zum selben Thema und zähle wieder. 3. Vergleiche: Wie souverän argumentiert die KI jeweils? Wo widerspricht sie sich?
Dann: Formuliere eine neutrale Frage, die echte Analyse statt Bestätigung einfordert — und lass sie laufen.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Offene Fragen schlagen geschlossene. „Was spricht dafür?" liefert eine Verteidigungsrede. „Wie unterscheiden sich die Optionen?" liefert Analyse.
Prüf-Filter: Risikoklasse und zwei Strategien
Prüfen nicht als Dauerbeschäftigung, sondern als kalibrierten Reflex: zuerst die Risikoklasse bestimmen, dann die passenden Prüfstrategien anwenden.
Deine persönliche Risikolandkarte
Notiere deine drei häufigsten KI-Anwendungen aus den letzten zwei Wochen. Ordne jeder eine Risikoklasse zu und definiere dir einen konkreten Prüf-Satz:
- Niedrig → Was passiert bei einem Fehler? Kaum etwas. Kurz überfliegen. - Mittel → Wer liest das mit? Was wird dadurch ausgelöst? Fakten stichprobenartig prüfen. - Hoch → Externe Kommunikation. Alle Fakten und Quellen verifizieren. - Kritisch → Rechtlich / finanziell. Unabhängige Zweitprüfung.
Das Ergebnis ist dein persönlicher Filter für die nächsten Wochen — und oft der ehrliche Blick: Was bisher als „kurz überfliegen" lief, war eigentlich „hoch".
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Häufigster Kalibrierungs-Fehler: mittleres Risiko wie niedriges behandeln. Eine Kunden-Mail klingt harmlos — aber ein falscher Fakt darin kostet Glaubwürdigkeit.
Zwei Prüfstrategien auf einen echten Output anwenden
Nimm einen aktuellen KI-Output aus deiner Arbeit (oder erzeuge einen: kurzer Fachtext mit 2–3 Quellenangaben zu einem Branchenthema). Wende zwei der sechs Strategien nacheinander an:
1. Fakten isolieren: Extrahiere alle prüfbaren Aussagen als Liste. 2. Quellen einfordern + verifizieren: Prüfe jede Quelle in 2 Minuten (Google Scholar / doi.org / direkte URL).
Zähle: Wie viele Fakten überleben? Wie viele Quellen überleben? Was ändert das an deinem Vertrauen in den Gesamttext?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Für hoch- und kritisch-Risiko lohnt sich fast immer die Kombination von mindestens zwei Strategien. Fakten isolieren + Quellen verifizieren ist ein starkes Duo für Präsentationen.