Zum Inhalt springen
KI verstehen & prompten · Fortgeschritten

Betrifft der EU AI Act nur KI-Entwickler?

Nein. Der AI Act reguliert auch Betreiber, also Anwender. Wer KI im Unternehmen einsetzt, hat Transparenzpflichten und muss Risikoklassen beachten. Sich als „reiner Nutzer" aus der Verantwortung zu nehmen, funktioniert rechtlich nicht.

Der EU AI Act ist die erste umfassende KI-Regulierung weltweit und gilt seit 2024 schrittweise. Ein weit verbreiteter Irrtum: Er betrifft nur Anbieter wie OpenAI oder Anthropic. In Wahrheit adressiert er auch Betreiber, das sind alle Unternehmen, die KI-Systeme einsetzen.

Was Betreiberpflichten bedeuten

Transparenzpflicht: Wenn KI mit Menschen interagiert (z. B. Chatbot), muss das offengelegt werden.

Kennzeichnung: KI-generierte Inhalte müssen als solche erkennbar sein, besonders bei Deepfakes und bei Inhalten von öffentlichem Interesse.

Schulungspflicht: Mitarbeitende, die mit KI arbeiten, müssen über die Grundlagen Bescheid wissen.

Dokumentation: Je nach Risikoklasse sind Protokolle, Logs und Kontrollmechanismen vorgeschrieben.

Die Risikoklassen

Der AI Act teilt KI-Anwendungen in vier Stufen:

  1. Unzulässiges Risiko: Verboten (z. B. Social Scoring)
  2. Hohes Risiko: Streng reguliert (z. B. KI in Personalauswahl)
  3. Begrenztes Risiko: Transparenzpflichten (z. B. Chatbots)
  4. Minimales Risiko: Kaum reguliert (z. B. Spam-Filter)

Was jetzt zu tun ist

Risikoklasse der eingesetzten KI prüfen. Transparenz- und Kennzeichnungspflichten umsetzen. Mitarbeitende schulen. Ein schlanker Compliance-Prozess spart später viel Arbeit und haftungsrechtliche Risiken.

Zuletzt aktualisiert: 15. April 2026