← Alle Übungen|Prompting-Techniken

Prompting-Techniken

Fortgeschrittener Block. Bias erkennen, iterativ nachfassen statt neu starten, Few-Shot und Chain-of-Thought — plus kritische Output-Bewertung: Halluzinationen entlarven, Spiegeltest, Risikoklassen, Prüfstrategien kombinieren.

Welches Tool?

Die Aufgaben sind tool-agnostisch. Nutze deine bevorzugte Chat-KI: ChatGPT, Claude, Gemini oder was dir zur Verfügung steht.

Abschnitt 1Fortgeschritten15 Min.

Prompt Bias: Wenn die Frage die Antwort diktiert

Die vier Bias-Muster in fremden und eigenen Prompts erkennen — und gezielt neutral umformulieren.

KI-Modelle widersprechen ungern. Sie antworten innerhalb des Rahmens, den deine Frage aufspannt. Vier Muster: Suggestiv (Antwort steckt in der Frage), Framing (nur eine Seite abgefragt), Stereotyp (Vorannahme als Tatsache), Negativ (Verbot lenkt den Fokus). In diesen Aufgaben spürst du zuerst fremde Verzerrungen auf, dann prüfst du deine eigenen Prompts.
Aufgabe 1 von 2

Die vier Muster erkennen und neutralisieren

Unten stehen vier verzerrte Prompts. Identifiziere bei jedem das Muster (Suggestiv / Framing / Stereotyp / Negativ) und schreibe eine neutrale Variante. Dann teste verzerrt vs. neutral nacheinander in derselben Chat-Session und vergleiche die Antworten.

1. „Warum ist Remote Work produktiver als Büroarbeit?" 2. „Welche Probleme bringt die 4-Tage-Woche mit sich?" 3. „Erkläre ohne komplizierte Wörter, wie ein neuronales Netz lernt." 4. „Warum sind Entwickler eigentlich immer introvertiert?"

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Schneller Selbsttest: Lies deinen Prompt laut. Klingt er wie eine echte Frage — oder wie die Begründung einer Antwort, die du schon im Kopf hast? Wenn Letzteres, liegt Bias vor.

Aufgabe 2 von 2

Deinen eigenen Prompt auf Bias prüfen

Nimm einen Prompt, den du kürzlich zu einer strategischen Frage eingesetzt hast (Tool-Entscheidung, Personalthema, Projekt-Priorisierung). Prüfe ihn auf die vier Bias-Muster:

- Suggestiv: Ist die bevorzugte Antwort schon in der Frage versteckt? - Framing: Fragst du nur nach Chancen ODER nur nach Risiken? - Stereotyp: Stecken Vorannahmen drin, die als Fakt auftreten? - Negativ: Formulierst du, was du NICHT willst?

Wo du fündig wirst: Schreibe neutral um und lass beide Varianten laufen.

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Framing-Bias ist der häufigste Fehler in Business-Prompts. Wer eine skeptische Mail schreiben will, fragt automatisch einseitig — und bekommt eine eloquente halbe Wahrheit zurück.

Abschnitt 2Fortgeschritten15 Min.

Iterativer Dialog: Nachfassen schlägt Neustart

Einen unzureichenden Output gezielt nachschärfen, statt von vorne zu beginnen — mit den sieben Kategorien für Folgeprompts.

Der erste Output ist Material, kein fertiges Produkt. Wer bei jedem Treffer neu prompten muss, wirft den aufgebauten Kontext jedes Mal weg. Die sieben Kategorien (Klärung, Umformulieren, Zusammenfassen, Problemlösung, Analyse, Beispiele, Stakeholder) geben Sprache für gezieltes Nachfassen.
Aufgabe 1 von 1

Einen schwachen Output schrittweise retten

Nimm einen Prompt aus deinem Alltag und bitte die KI bewusst kurz, um einen eher mittelmäßigen ersten Output zu provozieren (z.B. kurze Anweisung ohne Kontext). Verbessere den Output dann in drei Folgeprompts — jeweils aus einer anderen der sieben Kategorien:

1. Umformulieren (Form ändern, Inhalt halten) 2. Beispiele (konkretisieren) 3. Analyse oder Stakeholder (tiefer gehen)

Vergleiche am Ende das finale Ergebnis mit dem, was ein kompletter Neustart geliefert hätte.

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

„Mach es besser" oder „Nochmal, bitte" ist kein Feedback, sondern ein Wunsch. Sag konkret, WAS nicht passt und WAS du stattdessen willst. Das ist der Unterschied zwischen Iteration und Zufall.

Abschnitt 3Fortgeschritten15 Min.

Few-Shot Prompting: Zeigen statt erklären

Ein Muster per Beispielen transportieren, statt es zu beschreiben. Besonders stark bei Stil, Ton und festen Output-Strukturen.

Zwei bis sechs Beispiele reichen meistens. Die KI erkennt das Muster und wendet es auf den nächsten Fall an — oft präziser, als jede Stilbeschreibung es könnte. Der klassische Hebel gegen Brand-Voice-Drift und für konsistente Format-Muster.
Aufgabe 1 von 1

Zero-Shot gegen Few-Shot direkt vergleichen

Wähle einen Text-Typ aus deinem Arbeitsalltag mit einem wiedererkennbaren Stil (LinkedIn-Post, Kunden-Mail, Status-Update, FAQ-Eintrag).

1. Schreibe ihn zuerst Zero-Shot: nur Aufgabe, Zielgruppe, Thema. 2. Schreibe denselben Prompt als Few-Shot: mit drei echten Beispielen aus deinem Archiv als Muster. Lass das vierte Beispiel offen, damit die KI dort weiterschreibt.

Beobachte: Was überträgt sich aus den Beispielen, was du im Zero-Shot hättest beschreiben müssen?

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Faustregel: 2–6 Beispiele reichen. Variation zeigen, Format identisch halten, letztes Beispiel offen lassen. Wenn Erklären länger dauert als Zeigen, nimm Few-Shot.

Abschnitt 4Fortgeschritten15 Min.

Chain-of-Thought: Denkweg sichtbar machen

Bei komplexen Aufgaben die Annahmen prüfbar machen, statt einer Black Box zu vertrauen. Der Gewinn ist doppelt: bessere Qualität und nachvollziehbare Schritte.

Wenn die KI direkt eine Antwort liefert, siehst du bei logischen Problemen nicht, ob sie stimmt — richtige und falsche Antworten klingen identisch. Chain-of-Thought zwingt das Modell, die Schritte vor der Antwort auszuschreiben. Moderne Top-Modelle denken oft schon intern Schritt für Schritt; trotzdem lohnt der explizite Weg für Trade-off-Entscheidungen.
Aufgabe 1 von 1

Trade-off-Entscheidung mit explizitem Denkweg

Wähle eine echte Entscheidung aus deinem Alltag, die mehrere Faktoren hat (Tool-Auswahl, Priorisierung, Einstellungs-Entscheidung, Workflow-Umstellung).

1. Stelle die Frage zuerst Zero-Shot: nur die Ausgangslage und die Bitte um Empfehlung. 2. Stelle dieselbe Frage als Chain-of-Thought: Gib 3–4 Denkschritte vor, die das Modell nacheinander gehen soll. Bitte um eine kurze Begründung pro Schritt, bevor es zum nächsten übergeht.

Vergleiche: Welcher Empfehlung traust du mehr? Wo erkennst du im CoT-Output Annahmen, die du korrigieren möchtest?

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Profi-Trick: Wenn die KI ohne Begründung antwortet, hake nach: „Begründe deine Antwort Schritt für Schritt. Korrigiere dich, falls nötig." Du bekommst überraschend oft eine andere — meist bessere — Antwort.

Abschnitt 5Fortgeschritten15 Min.

Halluzinationen: Provozieren und entlarven

Ein Gefühl dafür bekommen, wie überzeugend Falsches klingen kann — und Quellenangaben systematisch prüfen, bevor du sie weitergibst.

KI produziert immer eine Antwort. Auch dann, wenn sie nichts Verlässliches weiß. Halluzinierte Antworten klingen exakt so überzeugend wie korrekte. Besonders tückisch: Quellenangaben. Studien, Titel, Seitenzahlen — vollständig erfunden, vollständig plausibel formatiert.
Aufgabe 1 von 2

Detail-Halluzination bewusst provozieren

Stelle einer KI eine sehr spezifische Detail-Frage, zu der sie vermutlich keine belastbaren Trainingsdaten hat: exakte Telefonnummer eines mittelgroßen Unternehmens, Gründungsdatum eines Nischen-Startups, Umsatz einer bestimmten Filiale.

1. Wie sicher klingt die Antwort? 2. Frage dieselbe Detail-Frage dreimal in neuen Gesprächen. Bleiben die Antworten konsistent? 3. Verifiziere eine davon per Websuche. Stimmt sie?

Ziel der Übung: den „immer gleich souveränen" Ton einmal selbst erlebt haben.

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Neuere Modelle geben bei sehr spezifischen Fragen manchmal „ich bin mir nicht sicher" zurück. Darauf verlassen darfst du dich nicht — die Abwesenheit einer Warnung bedeutet keine Bestätigung.

Aufgabe 2 von 2

Der 2-Minuten-Quellen-Check

Bitte eine KI, einen kurzen Text (~250 Wörter) zu einem Fachthema zu schreiben — mit Quellenangaben. Prüfe dann systematisch jede Quelle:

1. Suche den exakten Titel in Google Scholar. 2. Suche Autor + Institution. 3. Wenn eine DOI genannt ist: prüfe sie auf doi.org. 4. Wenn eine URL genannt ist: öffne sie.

Zähle: Wie viele der Quellen überleben den 2-Minuten-Check?

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Quellen-Halluzination ist die gefährlichste Kategorie, weil das Ergebnis am professionellsten aussieht. Jede Quelle aus KI-Output ist verdächtig bis zur Verifikation — ohne Ausnahme.

Abschnitt 6Fortgeschritten10 Min.

Der Ja-Sager: Den Spiegeltest machen

Erleben, wie die KI die eigene Annahme eloquent bestätigt — und trainieren, aktiv Gegenargumente einzufordern, statt eine Echokammer zu bekommen.

KI ist darauf trainiert, hilfreich und angenehm zu sein. In der Praxis heißt das: Sie gibt dir recht. Sie liefert Argumente für deine Position, auch wenn die Gegenargumente stärker wären. Wer KI als Sparringspartner will, muss explizit nach Widerspruch fragen.
Aufgabe 1 von 1

Der Spiegeltest mit Pro- und Contra-Prompt

Wähle ein Thema, zu dem du eine Haltung hast (Remote Work, 4-Tage-Woche, Tool-Entscheidung in deinem Team).

1. Stelle eine Pro-Frage und zähle die Argumente der KI. 2. Starte ein neues Gespräch. Stelle die Contra-Frage zum selben Thema und zähle wieder. 3. Vergleiche: Wie souverän argumentiert die KI jeweils? Wo widerspricht sie sich?

Dann: Formuliere eine neutrale Frage, die echte Analyse statt Bestätigung einfordert — und lass sie laufen.

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Offene Fragen schlagen geschlossene. „Was spricht dafür?" liefert eine Verteidigungsrede. „Wie unterscheiden sich die Optionen?" liefert Analyse.

Abschnitt 7Fortgeschritten15 Min.

Prüf-Filter: Risikoklasse und zwei Strategien

Prüfen nicht als Dauerbeschäftigung, sondern als kalibrierten Reflex: zuerst die Risikoklasse bestimmen, dann die passenden Prüfstrategien anwenden.

Nicht jeder KI-Output braucht gleich viel Aufmerksamkeit. Die richtige Frage ist nicht „prüfe ich?", sondern „was passiert, wenn das falsch ist?". Vier Risikoklassen (niedrig / mittel / hoch / kritisch) bestimmen den Aufwand. Sechs Strategien stehen zur Auswahl — in diesen Aufgaben übst du Auswahl und Kombination.
Aufgabe 1 von 2

Deine persönliche Risikolandkarte

Notiere deine drei häufigsten KI-Anwendungen aus den letzten zwei Wochen. Ordne jeder eine Risikoklasse zu und definiere dir einen konkreten Prüf-Satz:

- Niedrig → Was passiert bei einem Fehler? Kaum etwas. Kurz überfliegen. - Mittel → Wer liest das mit? Was wird dadurch ausgelöst? Fakten stichprobenartig prüfen. - Hoch → Externe Kommunikation. Alle Fakten und Quellen verifizieren. - Kritisch → Rechtlich / finanziell. Unabhängige Zweitprüfung.

Das Ergebnis ist dein persönlicher Filter für die nächsten Wochen — und oft der ehrliche Blick: Was bisher als „kurz überfliegen" lief, war eigentlich „hoch".

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Häufigster Kalibrierungs-Fehler: mittleres Risiko wie niedriges behandeln. Eine Kunden-Mail klingt harmlos — aber ein falscher Fakt darin kostet Glaubwürdigkeit.

Aufgabe 2 von 2

Zwei Prüfstrategien auf einen echten Output anwenden

Nimm einen aktuellen KI-Output aus deiner Arbeit (oder erzeuge einen: kurzer Fachtext mit 2–3 Quellenangaben zu einem Branchenthema). Wende zwei der sechs Strategien nacheinander an:

1. Fakten isolieren: Extrahiere alle prüfbaren Aussagen als Liste. 2. Quellen einfordern + verifizieren: Prüfe jede Quelle in 2 Minuten (Google Scholar / doi.org / direkte URL).

Zähle: Wie viele Fakten überleben? Wie viele Quellen überleben? Was ändert das an deinem Vertrauen in den Gesamttext?

Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.

Hinweis

Für hoch- und kritisch-Risiko lohnt sich fast immer die Kombination von mindestens zwei Strategien. Fakten isolieren + Quellen verifizieren ist ein starkes Duo für Präsentationen.