◎ KI verstehen & prompten
33 FragenGrundlagen, Prompting und Context Engineering. Verstehe wie KI denkt und wie du sie steuerst.
Betrifft der EU AI Act nur KI-Entwickler? +
Nein. Der AI Act reguliert auch Betreiber, also Anwender. Wer KI im Unternehmen einsetzt, hat Transparenzpflichten und muss Risikoklassen beachten. Sich als „reiner Nutzer" aus der Verantwortung zu nehmen, funktioniert rechtlich nicht.
Vollständige Antwort →Brauche ich technisches Wissen, um KI zu nutzen? +
Nein. KI nutzen ist wie eine Fremdsprache sprechen. Du musst die Sprache lernen, nicht die Grammatiktheorie. Wer präzise formulieren kann, kommt weit, ohne je ein Modell von innen gesehen zu haben.
Vollständige Antwort →Entsteht Bias in KI-Antworten nur durch das Modell? +
Nein. Den größten Bias bringt die Frage selbst mit. Vier Muster dominieren: Suggestivfragen, Framing, Stereotypen und negative Einrahmung. Wer das kennt, schreibt fairere Prompts und bekommt belastbarere Antworten.
Vollständige Antwort →Ersetzt ein guter System-Prompt die täglichen Einzelprompts? +
Nein. System-Prompts decken das Stabile ab, Rolle, Stil, Verhalten. Projektspezifischer Kontext gehört in den User-Prompt. Beide Ebenen zusammen ergeben gute Antworten, keine Ebene ersetzt die andere.
Vollständige Antwort →Halluzinieren neuere KI-Modelle nicht mehr? +
Sie halluzinieren weniger und drücken Unsicherheit besser aus, aber alle aktuellen Modelle halluzinieren noch. Das Problem ist kleiner geworden, nicht gelöst. Prüfprozesse bleiben Pflicht.
Vollständige Antwort →Ist das Ersetzen von Namen schon Anonymisierung? +
Nein. Namen durch „Person A" zu ersetzen ist Pseudonymisierung, nicht Anonymisierung. Die DSGVO gilt weiterhin, weil ein Rückschluss auf die echte Person noch möglich ist, zum Beispiel über den Kontext der Daten.
Vollständige Antwort →Ist der API-Zugang zu KI automatisch sicherer als die App? +
Nicht unbedingt. Entscheidend ist, ob ein Auftragsverarbeitungsvertrag vorliegt, wo die Daten verarbeitet werden und ob sie für das Training genutzt werden. Die Schnittstelle allein sagt über Sicherheit wenig aus.
Vollständige Antwort →Ist die Reihenfolge der Prompt-Bausteine wichtig? +
Nicht im engen Sinn. Es gibt keine feste Reihenfolge. Die Bausteine sind ein flexibler Werkzeugkasten. Trotzdem gilt: Was am Ende des Prompts steht, wirkt am stärksten, dort gehört die Kernaufgabe hin.
Vollständige Antwort →Ist mehr Kontext im Prompt immer besser? +
Nein. „Lost in the Middle" zeigt: Informationen in der Mitte langer Kontexte werden schlechter verarbeitet. Größere Context-Windows kosten mehr und die Aufmerksamkeitsverteilung leidet. Gezieltes RAG ist oft effektiver als das Hineinwerfen ganzer Dokumente.
Vollständige Antwort →Ist Open-Source-KI nicht vom AI Act reguliert? +
Nur teilweise. Die Open-Source-Ausnahme des AI Act gilt für Systeme mit minimalem und begrenztem Risiko. Bei Hochrisiko-Anwendungen gelten dieselben Pflichten wie für kommerzielle Modelle.
Vollständige Antwort →Kann KI alles oder nichts? +
Weder noch. KI hat viele Fähigkeiten mit sehr unterschiedlichen Reifegraden. Manche funktionieren produktionsreif, andere sind experimentell. Die pauschale Einschätzung „KI kann alles" und „KI kann nichts" ist gleichermaßen falsch.
Vollständige Antwort →Liefert der perfekte Prompt beim ersten Versuch das perfekte Ergebnis? +
Selten. Iteration ist Teil des Prozesses. Der erste Prompt setzt die Richtung, Folgeprompts schärfen nach. Wer den Dialog mit dem Modell als Gespräch versteht, kommt schneller ans Ziel als der, der den einen Mega-Prompt sucht.
Vollständige Antwort →Lügt KI absichtlich? +
Nein. KI hat keine Absicht. Halluzinationen entstehen, weil Sprachmodelle Wahrscheinlichkeiten berechnen, nicht Fakten nachschlagen. Das Ergebnis kann falsch sein, aber es gibt keinen Willen dahinter.
Vollständige Antwort →Macht mehr Text im Prompt automatisch bessere Ergebnisse? +
Nein. Präzision schlägt Länge. Relevanter Kontext ist wichtiger als viele Worte. Ein fokussierter Prompt mit drei Sätzen kann bessere Antworten liefern als einer mit zehn.
Vollständige Antwort →Muss ich immer alle Prompt-Bausteine nutzen? +
Nein. Einfache Aufgaben brauchen oft nur Aufgabe und Format. Die fünf Bausteine Rolle, Aufgabe, Kontext, Format, Constraints sind ein Werkzeugkasten, keine Checkliste. Bewusst entscheiden, was wegfällt.
Vollständige Antwort →Müssen Prompts auf Englisch sein, um besser zu funktionieren? +
Nein. Für Textaufgaben funktioniert Deutsch bei modernen Modellen genauso gut wie Englisch. Nur bei Bildgenerierung ist Englisch noch Standard, weil die Trainingsdaten der Bildmodelle überwiegend englisch sind.
Vollständige Antwort →Reicht es, KI-Output einmal zu verifizieren? +
Nein. Jeder neue KI-Output ist ein neuer Wurf. Dass die letzte Antwort stimmte, sagt nichts über die nächste. Prüfaufwand richtet sich nach dem Risiko der Weiterverwendung, nicht nach dem Vertrauen ins Modell.
Vollständige Antwort →Sind KI-generierte Texte urheberrechtlich geschützt? +
In der Regel nein. Ein einfacher Prompt reicht nicht, um ein eigenes Werk zu schaffen. Erst substanzielle menschliche Bearbeitung begründet Urheberschutz. Wer KI-Texte direkt weiterverwendet, hat oft keine exklusiven Rechte daran.
Vollständige Antwort →Sind längere KI-Antworten automatisch genauer? +
Nein. Länge korreliert nicht mit Korrektheit. Oft sind kürzere, fokussierte Antworten zuverlässiger, weil weniger Raum für Halluzinationen bleibt. Mehr Worte bedeuten mehr Gelegenheit zu raten.
Vollständige Antwort →Soll ich bei schlechten Ergebnissen neu starten oder iterieren? +
Meist iterieren. Der Kontext bleibt erhalten, das Modell baut auf bisherigen Absprachen auf. Nur wenn die Grundrichtung falsch ist, lohnt der Neustart. Faustregel: Nach drei erfolglosen Iterationen neu anfangen.
Vollständige Antwort →Verbietet die DSGVO KI-Nutzung? +
Nein. Die DSGVO setzt Bedingungen für die Verarbeitung personenbezogener Daten, verbietet KI aber nicht. KI-Nutzung mit anonymisierten oder öffentlichen Daten ist unproblematisch. Wer personenbezogene Daten verarbeitet, braucht eine saubere Rechtsgrundlage.
Vollständige Antwort →Versteht KI wirklich, was ich sage? +
Nein. KI berechnet das wahrscheinlichste nächste Wort auf Basis von Mustern aus Trainingsdaten. Das fühlt sich an wie Verstehen, ist aber Mustererkennung ohne Bewusstsein oder echtes Wissen.
Vollständige Antwort →Was bedeutet „produktionsreif" bei KI? +
Nicht fehlerfrei, sondern brauchbar wie andere professionelle Werkzeuge. Photoshop macht auch Fehler, Excel rechnet falsch bei schlechten Formeln. Produktionsreif heißt: Mit Prozess und Kompetenz zuverlässig einsetzbar.
Vollständige Antwort →Was ist Chain-of-Thought-Prompting und wann lohnt es sich? +
Chain-of-Thought bedeutet, dem Modell zu sagen: „Denk Schritt für Schritt." Es lohnt sich bei logischen Problemen, Trade-off-Entscheidungen und mehrstufigen Berechnungen. Bei Standardaufgaben ist es Overkill.
Vollständige Antwort →Was ist ein guter Prompt? +
Ein guter Prompt nennt Rolle, Aufgabe, Kontext, gewünschtes Format und Grenzen. Er ist so konkret wie ein Briefing an eine Kollegin, und vermeidet vage Begriffe wie „optimal" oder „passend".
Vollständige Antwort →Was ist Few-Shot-Prompting und wie viele Beispiele brauche ich? +
Few-Shot-Prompting bedeutet, dem Modell zwei bis sechs Beispiele mitzugeben, bevor es die eigentliche Aufgabe bekommt. Mehr Beispiele helfen selten, die Qualität der Beispiele schlägt die Menge.
Vollständige Antwort →Was ist generative KI und wie unterscheidet sie sich von klassischer KI? +
Generative KI erzeugt neue Inhalte: Texte, Bilder, Code, Musik, Video. Klassische KI analysiert, sortiert, entscheidet. Der Unterschied liegt im Output: Klassische KI sagt dir, was ist. Generative KI baut etwas Neues.
Vollständige Antwort →Was sind die häufigsten Fehler beim Prompting? +
Sechs Klassiker: 1) Zu vage formulieren. 2) Keinen Kontext mitgeben. 3) Kein Format definieren. 4) Mehrere Aufgaben gleichzeitig stellen. 5) Nicht iterieren. 6) Dem Output blind vertrauen. Jeder dieser Fehler ist in fünf Minuten korrigierbar.
Vollständige Antwort →Welche Arten von generativen KI-Modellen gibt es? +
Fünf Hauptkategorien: Sprachmodelle (Text, Code, Analyse), Bildmodelle (Fotos, Illustrationen, Design), Audiomodelle (Musik, Stimme, Sound), Videomodelle (Clips, Animationen) und multimodale Modelle, die mehrere Formate kombinieren. Die Grenzen verschwimmen zunehmend.
Vollständige Antwort →Wenn KI „laut Studien" schreibt, existiert die Studie dann? +
Nein, nicht automatisch. Formulierungen wie „Studien zeigen", „Forscher haben herausgefunden" oder „eine Harvard-Studie belegt" sind oft reine Sprachmuster, keine Belege. Immer nach dem konkreten Titel fragen und gegenprüfen.
Vollständige Antwort →Wie lang sollte ein System-Prompt sein? +
Unter 500 Wörtern bleiben. Längere System-Prompts sinken in der Wirksamkeit. Schlanke System-Prompts schlagen aufgeblasene. Wer mehr sagen will, setzt auf klare Struktur, nicht auf mehr Text.
Vollständige Antwort →Wie verbessere ich die Qualität und Konsistenz von KI-Output? +
Vier Hebel: 1) Strukturierte Prompts mit klarer Aufgabentrennung. 2) Beispiele zeigen, nicht nur beschreiben (Few-Shot). 3) Output-Format erzwingen. 4) Mehrstufig arbeiten statt alles in einem Prompt. Konsistenz entsteht durch System, nicht durch Zufall.
Vollständige Antwort →Woran erkenne ich Halluzinationen in KI-Antworten? +
Halluzinationen wirken oft besonders flüssig und detailreich. Misstrauisch sein bei Zahlen, Zitaten, Quellenangaben, Namen und Daten, immer gegen eine unabhängige Quelle prüfen, bevor du sie weiterverwendest.
Vollständige Antwort →