Prompt-Bausteine
Einsteigerblock zum Prompt-Baukasten. Jede der fünf Bausteine — Rolle, Aufgabe, Kontext, Ton, Format — einzeln isoliert üben, dann zusammensetzen, abgeschlossen mit einem ersten Output-Check. Am besten auf zwei Bildschirmen: Übung hier, KI-Chat daneben.
Die Aufgaben sind tool-agnostisch. Nutze deine bevorzugte Chat-KI: ChatGPT, Claude, Gemini oder was dir zur Verfügung steht.
Baustein Rolle: Mehr als ein Jobtitel
Erleben, dass eine generische Berufsbezeichnung kaum wirkt. Die Rolle wird zum Hebel, wenn sie Spezialisierung, Branche und Zielgruppe transportiert.
Derselbe Prompt, drei Rollen
Wähle eine fachliche Frage aus deinem Alltag. Stelle sie dreimal — nur die Rolle ändert sich.
1. Generische Berufsbezeichnung (z.B. „Du bist Marketing-Experte.") 2. Spezialisierung ergänzen (Fachgebiet, Methodik, Erfahrung) 3. Unternehmenskontext dazu (Branche, Zielgruppe, Teamgröße, Budget)
Vergleiche die drei Antworten. Ab welcher Stufe verändert sich das Ergebnis spürbar?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Die Rolle ist kein Etikett, sondern ein Kontext-Vehikel. Alles, was du in die Rolle packst, muss die KI nicht mehr raten.
Expertise-Tiefe steuern
Stelle dieselbe Frage zweimal. Verändere nur die Expertise-Tiefe der Rolle.
1. Einsteiger-Perspektive („Du erklärst KI-Grundlagen für Menschen, die noch nie mit KI gearbeitet haben.") 2. Profi-Perspektive („Du bist Senior-KI-Architekt mit 10 Jahren Erfahrung in produktiven LLM-Systemen.")
Beobachte: Wie verändert sich die Sprache? Die Annahmen? Die Beispiele?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Die Rolle steuert nicht nur WER antwortet, sondern auch auf welchem Niveau. Besonders wirksam, wenn dein Gegenüber eine bestimmte Flughöhe braucht.
Baustein Aufgabe: Verb und Präzision
Ein starkes Verb lenkt den Denkmodus der KI. Vage Aufträge liefern vage Ergebnisse — komplexe Aufträge brauchen Schritte.
Vage Anweisung scharfstellen
Starte mit einem vagen Prompt („Schreib was zu X"). Verwandle ihn in drei scharfe Varianten, jede mit einem anderen Verb. Beobachte, wie sich Tiefe und Art der Antwort verändert.
1. „Brainstorme …" — explorativ, viele Optionen 2. „Analysiere …" — systematisch, Muster und Einblicke 3. „Erstelle …" — fertig nutzbares Ergebnis
Wähle ein Thema aus deinem Arbeitsalltag.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Das Verb ist der Schalter für den Denkmodus. „Brainstorme" und „analysiere" liefern völlig unterschiedliche Ergebnisse — auch wenn alles andere gleich bleibt.
Komplexes in Schritte zerlegen
Schreibe einen Prompt, der bewusst drei verschiedene Denkmodi mischt (z.B. „Brainstorme Ideen, bewerte sie und erstelle einen Umsetzungsplan."). Lass ihn laufen.
Dann zerlege ihn in drei aufeinanderfolgende Prompts — jeweils ein Modus, jeweils klar abgeschlossen. Vergleiche die Ergebnisse: Was ist tiefer? Was ist nutzbarer?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Wenn dein Prompt „und" zwischen verschiedenen Denkmodi enthält, zerlege ihn. Jeder Schritt bekommt sonst nur oberflächliche Aufmerksamkeit.
Baustein Kontext: Der stärkste Hebel
Erleben, wie Kontext die Qualität der Antwort verschiebt. Ohne Kontext rät die KI — mit Kontext trifft sie.
Hintergrund spart Nachfragen
Starte mit einem minimalen Prompt („Schreib eine E-Mail an den Kunden."). Erweitere ihn Schritt für Schritt um Kontext-Informationen:
1. Wer ist der Kunde genau? 2. Was ist der Anlass? 3. Was soll nach der E-Mail passieren? 4. Welche Besonderheit gibt es (z.B. Skepsis, Vorgeschichte)?
Vergleiche minimal vs. vollständig.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Kontext steuert etwa 75 % der Output-Qualität. Der Aufwand, Kontext zu liefern, spart dir mehrere Korrektur-Runden.
Zielgruppe definieren
Lass dir denselben Sachverhalt für drei unterschiedliche Zielgruppen erklären. Nur die Zielgruppe im Kontext ändert sich — Aufgabe und Format bleiben gleich.
Suche dir ein Thema, bei dem deine Zielgruppen sehr unterschiedlich ticken (z.B. Geschäftsführung, Fachteam, Kundschaft ohne Vorwissen). Beobachte: Welche Beispiele wählt die KI? Welche Begriffe lässt sie weg?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Die Zielgruppe ist kein Adjektiv, sondern ein Briefing. Je konkreter (Alter, Rolle, Vorwissen, Interessen), desto zielgenauer die Antwort.
Baustein Ton: Gleiche Aussage, andere Stimme
Den Ton gezielt setzen, statt ihn dem Zufall zu überlassen. Zwei kontrastierende Adjektive geben die beste Orientierung.
Von formal zu nahbar
Schreibe einen Prompt zu einem Thema deiner Wahl und lass ihn zweimal laufen — nur der Ton ändert sich:
1. Formal, professionell, für ein Fachpublikum 2. Locker, nahbar, mit einer Prise Humor
Vergleiche: Welche Beispiele kommen vor? Welche Begriffe fallen weg? Was bleibt gleich?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
„Sachlich aber nahbar", „direkt und handlungsorientiert" — zwei kontrastierende Adjektive steuern den Ton präziser als ein einzelnes.
Register wechseln: Kunde, Kollege, Führung
Schreibe denselben Sachverhalt (z.B. „Projekt läuft zwei Wochen in Verzug") dreimal — je nach Adressat:
1. An einen Kunden (diplomatisch, Lösung im Vordergrund) 2. An ein Kollege (sachlich, mit Kontext, auf Augenhöhe) 3. An die Führungsetage (knapp, Entscheidung oder Rückendeckung einfordern)
Beobachte: Wie verschiebt sich die Priorisierung? Was wird weggelassen?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Der Ton ist an den Adressaten gebunden, nicht an den Inhalt. Gleicher Sachverhalt = drei verschiedene Texte.
Baustein Format: Sofort nutzbar oder nicht
Das Format entscheidet, ob du das Ergebnis direkt verwenden kannst oder erst umbauen musst. Nebenbei begrenzt es Umfang und spart Tokens.
Liste statt Fließtext
Stelle eine Frage, die normalerweise einen langen Fließtext produziert (z.B. „Was muss ich beim Einsatz von KI im HR beachten?"). Lass sie zweimal laufen:
1. Ohne Format-Angabe 2. Mit: „Max. 5 Stichpunkte, je ein Satz. Priorisiert nach Wirkung."
Vergleiche Umfang, Schärfe und Wiederverwendbarkeit.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
„Max. 5 Punkte" zwingt die KI zur Priorisierung. Genau das ist oft, was du willst — nur bekommst du es ohne Ansage nicht.
Tabelle erzwingen
Formuliere einen Prompt, bei dem eine Tabelle das beste Format wäre (Vergleich, Vor-/Nachteile, mehrere Dimensionen). Gib die Tabellenstruktur explizit vor — Spaltennamen und Zweck.
Bonus: Probiere zusätzlich ein bekanntes Framework als Format (z.B. SWOT, Eisenhower, RACI). Die KI bringt dessen Struktur automatisch mit.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Explizite Spalten = vorhersagbare Ergebnisse. Bekannte Frameworks (SWOT, Eisenhower, RACI) sind gleichzeitig Aufgabe UND Format — ein Wort spart dir die ganze Struktur-Beschreibung.
Synthese: Bausteine bewusst kombinieren
Nicht jeder Prompt braucht alle fünf Bausteine. Die Kunst ist die bewusste Auswahl — für einfache Aufgaben zwei, für strategische alle fünf.
Alle 5 Bausteine kombinieren
Wähle eine echte, strategische Aufgabe aus deinem Alltag — eine, bei der ein halbgares Ergebnis richtig ärgerlich wäre. Baue bewusst einen Prompt, der alle fünf Bausteine enthält:
- Rolle (mit Kontext, nicht nur Titel) - Aufgabe (starkes Verb, ggf. in Schritten) - Kontext (Zielgruppe, Situation, Einschränkungen) - Ton (zwei kontrastierende Adjektive) - Format (Struktur und Länge)
Lass ihn laufen. Prüfe am Ergebnis: Welcher Baustein hätte gefehlt, wenn du ihn weggelassen hättest?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Strategische Aufgaben rechtfertigen den vollständigen Baukasten. Du merkst es am Ergebnis: Je mehr relevante Information im Prompt steckt, desto weniger muss die KI raten.
Gezielt weglassen — kürzer schlägt länger
Nimm den Prompt aus der vorigen Aufgabe und streiche bewusst zwei Bausteine, die du für verzichtbar hältst. Lass den reduzierten Prompt laufen.
Vergleiche: Ist das Ergebnis spürbar schlechter? Oder sparst du dir drei Zeilen ohne Qualitätsverlust?
Regel, die du spüren sollst: Einfache Aufgabe = Aufgabe + Format reichen. Komplexe = mehr Bausteine.
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Wer alles reinpackt, versteckt die Aufgabe. Bewusst weglassen ist ein Zeichen dafür, dass du die Bausteine verstanden hast.
Output-Check: Erwartung vs. Realität
Ein guter Prompt ist ein Versprechen. Den Output dagegenzuhalten ist der erste Schritt zu kritischem Arbeiten mit KI — und die Brücke zur nächsten Stufe.
Output gegen den Prompt halten
Nimm einen deiner Prompts aus den vorigen Aufgaben — bevorzugt den aus der Synthese — und prüfe den KI-Output systematisch gegen dein Briefing:
1. Rolle: Merkt man sie im Output? Wie? 2. Aufgabe: Wurde genau das getan? Oder etwas ähnliches? 3. Kontext: Sind deine Besonderheiten berücksichtigt — oder nur die generische Version der Aufgabe? 4. Ton: Klingt der Text so, wie du es vorgegeben hast? 5. Format: Stimmt die Struktur? Länge? Spalten?
Markiere jeden Punkt mit ✓ / teilweise / ✗. Wo das Ergebnis abweicht: Welcher Baustein war unscharf?
Erst selbst überlegen. Der Beispiel-Prompt ist nur eine von vielen Möglichkeiten.
Wenn der Output deinen Prompt nicht einlöst, liegt es meist am Prompt, selten am Modell. Prompt schärfen ist fast immer die bessere Antwort als „noch einmal generieren".