Begriffe.
verstehen.
Die wichtigsten Begriffe rund um generative KI — erklärt ohne Fachjargon, eingebettet in den Kontext der Lessons. Verlinkt, nachschlagbar, lebendig.
60 Begriffe
A
Agent
Ein Agent ist ein Sprachmodell, das selbstständig Werkzeuge aufruft, mehrere Schritte plant und Entscheidungen in einer Schleife trifft, bis eine Aufgabe erledigt ist oder das Modell aufgibt.
Agentic Loop
Die Agentic Loop ist der Kernmechanismus eines KI-Agenten: Planen, Handeln, Beobachten, Anpassen. Der Agent iteriert in dieser Schleife, bis die Aufgabe erledigt ist oder ein Limit erreicht wird.
Attention-Mechanismus
Der Attention-Mechanismus erlaubt einem Modell, bei der Verarbeitung eines Wortes gleichzeitig auf alle anderen Wörter im Text zu schauen und ihre Relevanz zu gewichten. Die zentrale Innovation hinter der Transformer-Architektur.
Auftragsverarbeitungsvertrag
Ein Auftragsverarbeitungsvertrag (AVV) regelt, wie ein KI-Anbieter mit den personenbezogenen Daten umgeht, die du ihm zur Verarbeitung gibst. Ohne AVV keine DSGVO-konforme Nutzung mit personenbezogenen Daten.
B
Benchmark
Ein Benchmark ist ein standardisierter Test, mit dem die Leistung von KI-Modellen verglichen wird. Typische Dimensionen: Sprachverständnis, Logik, Code, Mathematik, Faktenwissen.
Bias
Bias in KI-Systemen sind systematische Verzerrungen, die aus Trainingsdaten, Modelldesign oder Prompt-Formulierung entstehen. Sie beeinflussen Antworten, Bilder und Entscheidungen in eine bestimmte Richtung.
Bildkomposition
Bildkomposition beschreibt, wie die Elemente in einem Bild angeordnet sind: Perspektive, Bildausschnitt, Tiefe, Lichtführung. Im 4K-Framework die dritte Dimension, die die emotionale Wirkung steuert.
C
C2PA
C2PA ist ein offener Standard für digitale Herkunftsnachweise. Er bettet kryptographisch signierte Metadaten in Medien ein, die zeigen, woher ein Bild oder Video stammt und wie es bearbeitet wurde.
Chain-of-Thought
Chain-of-Thought fordert das Modell auf, den Denkweg offenzulegen, bevor es eine Antwort gibt. Bei logischen Problemen, Abwägungen und mehrstufigen Berechnungen verbessert das die Ergebnisqualität deutlich.
Chunking
Chunking ist das Zerlegen großer Dokumente in kleinere Stücke für die Verarbeitung in RAG-Systemen. Die Chunk-Größe und -Strategie bestimmen maßgeblich die Qualität der Suche und der Antworten.
Context Engineering
Context Engineering ist die Disziplin, einem KI-Modell den richtigen Kontext in der richtigen Form bereitzustellen, damit Antworten präziser, faktentreuer und anwendungsspezifischer werden.
D
Deepfake
Deepfakes sind KI-generierte oder KI-manipulierte Medien, in denen Personen Dinge sagen oder tun, die nie stattgefunden haben. Von Gesichts-Swaps über Stimm-Klone bis zu komplett synthetischen Videos.
Diffusion Model
Diffusion Models sind die technische Grundlage der meisten aktuellen Bildgeneratoren. Sie lernen, Bilder aus Rauschen zu rekonstruieren, und können diesen Prozess umkehren, um aus einer Textbeschreibung ein Bild zu erzeugen.
DSGVO im KI-Kontext
Die DSGVO regelt den Umgang mit personenbezogenen Daten, auch wenn KI-Tools involviert sind. Solange keine personenbezogenen Daten in die KI fließen, greift die DSGVO nicht. Sobald sie fließen, braucht es eine Rechtsgrundlage.
E
Embedding
Ein Embedding ist die mathematische Darstellung eines Textstücks als Zahlenvektor. Semantisch ähnliche Texte haben ähnliche Vektoren. Das ist die Grundlage für semantische Suche und RAG.
EU AI Act
Der EU AI Act ist die erste umfassende KI-Regulierung weltweit. Er klassifiziert KI-Systeme nach Risikoklassen (verboten, hoch, begrenzt, minimal) und definiert Pflichten für Anbieter und Betreiber.
Evaluation
Evaluation im KI-Kontext ist die systematische Prüfung, ob ein Modell oder Agent für eine bestimmte Aufgabe zuverlässig funktioniert. Geht über Benchmarks hinaus, weil sie die echte Anwendung testet.
Extended Thinking
Extended Thinking lässt das Modell intern länger nachdenken, bevor es antwortet. Die Denkschritte sind oft nicht sichtbar, aber das Ergebnis ist bei komplexen Aufgaben spürbar besser.
F
Few-Shot Prompting
Few-Shot Prompting gibt dem Modell zwei bis sechs Beispiele im Prompt, bevor die eigentliche Aufgabe kommt. Das Modell erkennt das Muster und wendet es auf den neuen Fall an.
Fine-Tuning
Fine-Tuning passt ein vortrainiertes Modell mit eigenen Daten an eine spezifische Aufgabe an. Das Modell lernt deinen Stil, deine Fachsprache oder dein Domänenwissen, ohne komplett neu trainiert zu werden.
Foundation Model
Ein Foundation Model ist das vortrainierte Basismodell, auf dem spezialisierte Anwendungen aufbauen. Es wird mit riesigen Datenmengen trainiert und kann danach für verschiedene Aufgaben angepasst werden.
G
H
Halluzination
Eine Halluzination ist eine plausibel klingende, aber faktisch falsche Aussage eines Sprachmodells. Das Modell erfindet Details, Zitate oder Quellen, die nicht existieren.
Human-in-the-Loop
Human-in-the-Loop bedeutet, dass ein Mensch an einer definierten Stelle im KI-Workflow prüft, entscheidet oder korrigiert, bevor das System weitermacht. Die bewusste Verbindung von KI-Geschwindigkeit und menschlichem Urteil.
I
Image-to-Image
Image-to-Image nimmt ein bestehendes Bild als Ausgangspunkt und transformiert es: Stil ändern, Elemente ergänzen, Details verfeinern. Der Unterschied zu Text-to-Image: Du startest nicht bei null, sondern bei einem vorhandenen Bild.
Inference
Inference ist der Vorgang, bei dem ein trainiertes Modell eine Eingabe verarbeitet und eine Antwort erzeugt. Jede Anfrage an ChatGPT, Claude oder Gemini ist eine Inference. Die Kosten entstehen hier, nicht beim Training.
Inpainting
Inpainting ersetzt oder ergänzt einen ausgewählten Bereich in einem Bild, während der Rest unverändert bleibt. Du markierst den Bereich, beschreibst was dort sein soll, und das Modell füllt nahtlos.
K
L
Large Language Model
Ein Large Language Model ist ein auf Milliarden Textbeispielen trainiertes neuronales Netz, das Sprache versteht und generiert. ChatGPT, Claude und Gemini basieren auf dieser Technologie.
LoRA
LoRA ist eine Methode, Bildmodelle mit eigenen Daten nachzutrainieren, ohne das gesamte Modell neu zu trainieren. Das Ergebnis: Das Modell "kennt" einen bestimmten Charakter, ein Produkt oder einen Stil.
M
MCP (Model Context Protocol)
MCP ist ein offenes Protokoll, das KI-Modellen standardisierten Zugriff auf externe Werkzeuge und Datenquellen gibt. Ein MCP-Server funktioniert mit verschiedenen KI-Hosts, ohne Umschreiben.
Multi-Agent-System
Ein Multi-Agent-System besteht aus mehreren spezialisierten KI-Agenten, die zusammenarbeiten. Jeder Agent hat eine eigene Rolle, eigene Tools und eigene Verantwortung. Sinnvoll nur bei echtem Parallelitätsbedarf.
Multimodal
Multimodal bedeutet, dass ein KI-Modell verschiedene Medientypen gleichzeitig verarbeiten und erzeugen kann: Text, Bild, Audio, Video. Statt getrennter Werkzeuge für jedes Medium gibt es zunehmend ein Modell für alles.
N
Negative Prompt
Ein Negative Prompt sagt dem Bildmodell, was es NICHT erzeugen soll. Unerwünschte Elemente, Stile oder Qualitätsprobleme können so aktiv ausgeschlossen werden.
No-Code Automation
No-Code Automation ermöglicht das Bauen automatisierter Workflows ohne Programmierung, über visuelle Editoren mit Drag-and-Drop. Tools wie Make, n8n und Zapier verbinden KI-Dienste mit bestehenden Apps.
O
P
Parameter
Parameter sind die internen Stellschrauben eines neuronalen Netzes, die beim Training eingestellt werden. Mehr Parameter bedeuten tendenziell mehr Fähigkeiten, aber auch höhere Kosten und langsamere Antworten.
Pre-Training
Pre-Training ist die erste und aufwändigste Trainingsphase eines Sprachmodells, bei der es auf Milliarden von Texten lernt, Sprache zu verstehen und zu generieren. Kostet Millionen und dauert Wochen bis Monate.
Prompt
Ein Prompt ist die Texteingabe, mit der du einem KI-Modell mitteilst, was es tun soll. Er steuert Inhalt, Form und Tonfall der Antwort.
Prompt Injection
Prompt Injection ist ein Sicherheitsproblem, bei dem Nutzer-Input die System-Anweisungen eines KI-Systems manipuliert. Das Modell folgt dann den eingeschleusten Anweisungen statt den vorgesehenen.
Prompt-Chaining
Prompt-Chaining zerlegt eine komplexe Aufgabe in mehrere aufeinander aufbauende Prompts. Der Output von Schritt 1 wird zum Input von Schritt 2. Das verbessert Qualität und Kontrolle bei anspruchsvollen Aufgaben.
Prompt-Formel
Eine Prompt-Formel ist ein wiederverwendbares Gerüst für Bild-Prompts mit festen Stil-Elementen und variablen Motiv-Platzhaltern. Sie sichert visuelle Konsistenz über eine Bildserie hinweg.
Prompt-Template
Ein Prompt-Template ist eine wiederverwendbare Vorlage mit festen Strukturelementen und variablen Platzhaltern. Es macht gute Prompts reproduzierbar und spart Zeit bei wiederkehrenden Aufgaben.
R
Reranking
Reranking sortiert die Suchergebnisse einer Vektor-Datenbank nach einer zweiten, genaueren Bewertung um. Die erste Suche ist schnell aber grob, der Reranker ist langsam aber präzise.
Retrieval Augmented Generation
Retrieval Augmented Generation kombiniert ein Sprachmodell mit einer externen Wissensdatenbank. Vor der Antwort werden relevante Dokumente abgerufen und in den Kontext injiziert, das Modell antwortet auf Basis echter Quellen statt aus dem Training.
RLHF
RLHF ist eine Trainingsmethode, bei der menschliche Bewerter dem Modell beibringen, welche Antworten hilfreich, harmlos und ehrlich sind. Der Grund, warum moderne Chat-Modelle nützlich statt nur textvorhersagend sind.
S
Style Transfer
Style Transfer überträgt den visuellen Stil eines Referenzbildes auf ein neues Motiv. Du gibst ein Bild als Stil-Vorlage und beschreibst das gewünschte Motiv, das Ergebnis kombiniert beides.
System-Prompt
Der System-Prompt definiert die Rolle, den Rahmen und die Regeln, in denen ein Sprachmodell operiert. Er wird vor jeder Nutzeranfrage angewendet und beeinflusst alle folgenden Antworten.
T
Temperatur
Die Temperatur ist ein Modellparameter, der steuert, wie kreativ oder vorhersehbar die Antworten ausfallen. Niedrig (0) bedeutet deterministisch und konsistent, hoch (1+) bedeutet kreativ und variabel.
Text-to-Image
Text-to-Image erzeugt ein Bild aus einer Textbeschreibung. Du schreibst, was du sehen willst, das Modell generiert es. Die Grundfunktion aller Bildgeneratoren von Midjourney bis Flux.
Text-to-Video
Text-to-Video erzeugt Videoclips aus Textbeschreibungen. Die aktuelle Generation produziert 4 bis 15 Sekunden lange Clips. Stärker in Stimmung und Atmosphäre als in komplexen Handlungen.
Token
Ein Token ist die kleinste Einheit, mit der ein Sprachmodell arbeitet. Nicht immer ein ganzes Wort, oft ein Wortteil oder ein Satzzeichen. Tokens bestimmen Kosten, Kontextlänge und Verarbeitungsgeschwindigkeit.
Tokenisierung
Tokenisierung ist der Prozess, bei dem Text in Tokens zerlegt wird, bevor ein Sprachmodell ihn verarbeiten kann. Der Tokenizer bestimmt, welche Zeichenfolgen als eine Einheit behandelt werden.
Tool Use
Tool Use ermöglicht einem KI-Modell, externe Werkzeuge aufzurufen: Websuche, Dateizugriff, APIs, Datenbanken, Kalender. Das macht aus einem reinen Textgenerator ein handlungsfähiges System.
Transformer
Die Transformer-Architektur ist die technische Grundlage fast aller modernen Sprachmodelle. Sie ermöglicht es, Zusammenhänge zwischen weit entfernten Textteilen gleichzeitig zu erfassen, statt Wort für Wort zu lesen.
U
Upscaling
Upscaling vergrößert ein Bild und fügt dabei KI-generierte Details hinzu. Das Ergebnis ist schärfer und detailreicher als einfaches Vergrößern. Unverzichtbar für den professionellen Einsatz von KI-Bildern.
Use Case
Ein Use Case im KI-Kontext beschreibt einen konkreten Arbeitsschritt oder Prozess, bei dem KI produktiv eingesetzt wird. Gut definierte Use Cases sind spezifisch, messbar und an bestehende Prozesse gekoppelt.