EU AI Act

EU AI Act für Unternehmen: Was Sie bis August 2026 wissen müssen

Moderner Konferenzraum mit gedruckten EU-AI-Act-Dokumenten und Laptops

Warum jetzt: die Deadline am 2. August 2026

Der EU AI Act ist die erste umfassende KI-Regulierung weltweit. Er trat im August 2024 in Kraft, wird aber gestaffelt anwendbar. Die wichtigste Welle für die meisten Unternehmen sind die Pflichten für Hochrisiko-KI-Systeme — diese werden am 2. August 2026 anwendbar.

Wer bis dahin kein internes KI-Inventar, keine Risikoklassifizierung und keine Dokumentation für eingesetzte oder entwickelte Systeme hat, riskiert nicht nur Bußgelder bis zu 7 % des weltweiten Jahresumsatzes oder 35 Mio. Euro, sondern auch Reputationsschaden gegenüber Großkunden und öffentlichen Auftraggebern, die Compliance ab Q3 2026 zur Vergabevoraussetzung machen.

Eine Studie aus dem Frühjahr 2026 zeigt: nur etwa 29 % der deutschen Unternehmen sehen sich aktuell als compliant. Der Rest hat noch rund drei Monate, um die Hausaufgaben zu machen.

  • August 2024 — EU AI Act tritt in Kraft
  • Februar 2025 — Verbote unzulässiger Praktiken anwendbar (Social Scoring, Emotionserkennung am Arbeitsplatz, biometrische Massenüberwachung)
  • August 2025 — Pflichten für General-Purpose-AI-Modelle (GPAI) wie GPT-4, Claude, Llama, Gemini
  • 2. August 2026 — Vollständige Anwendbarkeit für Hochrisiko-KI-Systeme
  • August 2027 — Übergangsfrist für Hochrisiko-KI in regulierten Produkten endet

Die vier Risikoklassen — und was jede für Sie bedeutet

Der EU AI Act folgt einem risikobasierten Ansatz. Nicht jedes KI-System ist gleich reguliert. Entscheidend ist, was das System tut und in welchem Kontext es eingesetzt wird — nicht welches Modell darunter läuft.

  • Unzulässig — komplett verboten. Beispiele: Social Scoring durch Behörden, Emotionserkennung am Arbeitsplatz, manipulative Systeme, biometrische Massenüberwachung im öffentlichen Raum.
  • Hochrisiko — strengste Pflichten. Beispiele: KI in HR (Bewerberauswahl, Performance-Bewertung), Kreditscoring, kritische Infrastruktur, Bildung, medizinische Geräte, Strafverfolgung, Migration.
  • Begrenztes Risiko — Transparenzpflichten. Beispiele: Chatbots (Nutzer muss erkennen, dass er mit KI spricht), generierte Inhalte (Kennzeichnung als KI-erzeugt), Deepfakes.
  • Minimales Risiko — keine Pflichten. Beispiele: Spam-Filter, KI in Videospielen, Empfehlungssysteme im E-Commerce. Das ist der Großteil heutiger Anwendungen.

Hochrisiko-KI: bin ich betroffen?

Anhang III des AI Acts listet die Anwendungsbereiche, die automatisch als hochrisikoreich gelten. Wenn Ihr KI-System in einem dieser Bereiche operiert, gelten die strengen Pflichten — unabhängig davon, ob Sie das System selbst entwickeln oder einkaufen.

In der Praxis betrifft das deutlich mehr Mittelständler, als viele denken. Eine HR-Software mit KI-gestützter Lebenslauf-Analyse fällt darunter. Ein Kreditbewertungs-Tool im FinTech-Stack ebenfalls. Auch ein Tool, das Schul- oder Hochschulleistungen bewertet, ist hochrisikoreich.

  • Biometrie und Identifikation
  • Kritische Infrastruktur (Verkehr, Strom, Wasser, Gas)
  • Bildung und berufliche Ausbildung
  • Beschäftigung, Personalmanagement, Zugang zu Selbständigkeit
  • Zugang zu wesentlichen privaten und öffentlichen Dienstleistungen
  • Strafverfolgung
  • Migration, Asyl, Grenzkontrolle
  • Rechtspflege und demokratische Prozesse

Die Pflichten für Hochrisiko-Systeme im Detail

Wer ein Hochrisiko-KI-System anbietet oder in Eigenverantwortung einsetzt, muss eine Reihe konkreter Pflichten erfüllen. Diese sind technischer und organisatorischer Natur — und sie sind nicht trivial.

  • Risikomanagement-System — kontinuierliche Identifikation, Bewertung und Minderung von Risiken über den gesamten Lebenszyklus
  • Datenqualität — Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ und möglichst fehlerfrei sein
  • Technische Dokumentation — vor Inverkehrbringen erstellen, laufend aktualisieren, Behörden zugänglich
  • Transparenz — Nutzer müssen Funktionsweise und Grenzen verstehen können
  • Menschliche Aufsicht — natürliche Personen müssen das System überwachen, eingreifen und im Notfall stoppen können
  • Genauigkeit, Robustheit, Cybersecurity — angemessenes Niveau über den gesamten Lebenszyklus
  • Konformitätsbewertung — vor Markteinführung; bei kritischen Anwendungen mit benannter Stelle
  • CE-Kennzeichnung und Eintragung in EU-Datenbank

GPAI-Modelle: was Anbieter und Nutzer von GPT, Claude, Gemini wissen müssen

Anbieter von General-Purpose-AI-Modellen (GPAI) — also Foundation Models wie GPT-4, Claude, Gemini oder Llama — haben seit August 2025 eigene Pflichten. Sie müssen technische Dokumentation bereitstellen, Trainings-Daten dokumentieren, Urheberrechtsregeln einhalten und für besonders leistungsfähige Modelle (über 10^25 FLOPS) zusätzlich systemische Risiken bewerten.

Für Sie als Nutzer dieser Modelle ist das gute Nachricht: ein Großteil der Compliance-Arbeit liegt bei OpenAI, Anthropic, Google und Mistral. Sie brauchen aber trotzdem eine Antwort, welche Modelle Sie einsetzen, in welchem Kontext, und ob durch Ihre Einbindung daraus ein Hochrisiko-System wird.

Konkret: Wenn Sie GPT-4 nutzen, um Bewerbungen vorzusortieren, ist nicht GPT-4 das Hochrisiko-System — sondern Ihre Anwendung. Sie sind dann der Anbieter im Sinne des Acts.

Bußgelder: was wirklich auf dem Spiel steht

Die Bußgeldhöhe richtet sich nach Art des Verstoßes und ist deutlich höher als bei der DSGVO.

  • Bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes — bei Einsatz verbotener KI-Praktiken
  • Bis zu 15 Mio. Euro oder 3 % — bei Verstoß gegen Pflichten für Hochrisiko-Systeme oder GPAI-Anbieter
  • Bis zu 7,5 Mio. Euro oder 1 % — bei falschen oder unvollständigen Auskünften gegenüber Behörden
  • Marktrücknahmen und Vertriebsverbote möglich — relevant für SaaS-Produkte mit EU-Kunden

Roadmap: was Sie in den nächsten 90 Tagen tun sollten

Die meisten Unternehmen, die jetzt anfangen, schaffen die Compliance pragmatisch — wenn sie strukturiert vorgehen. Reine Beratungs-Slidedecks helfen wenig; was zählt, ist ein konkreter Inventarisierungs- und Klassifizierungsschritt.

  • Woche 1–2 — KI-Inventar — alle eingesetzten KI-Systeme erfassen: SaaS-Module, integrierte Modelle, eigene Entwicklungen, Schatten-IT. Ohne Inventar keine Klassifizierung.
  • Woche 3–4 — Risikoklassifizierung — pro System nach Anhang III bewerten. Externe Plausibilisierung dringend empfohlen.
  • Woche 5–8 — Lückenanalyse Hochrisiko — wo Pflichten greifen: Risk Management, Datenqualität, technische Doku, Transparenz, Logging, Aufsicht.
  • Woche 9–12 — Umsetzung — fehlende Bausteine technisch und organisatorisch ergänzen. Konformitätsbewertung vorbereiten.
  • Laufend — Governance — KI-Lenkungskreis, Schulungspflicht für Mitarbeiter (Art. 4), Updates der Doku bei jeder relevanten Änderung.

KI-Kompetenzpflicht (Art. 4) — der oft vergessene Punkt

Seit Februar 2025 gilt Artikel 4 des AI Acts: jedes Unternehmen, das KI-Systeme einsetzt, muss sicherstellen, dass die damit befassten Mitarbeiter ausreichend KI-Kompetenz besitzen. Das gilt unabhängig von der Risikoklasse — also auch für jeden, der nur ChatGPT für Marketing-Texte nutzt.

Diese Pflicht ist bewusst weit gefasst, weil sie organisatorischen Charakter hat. In der Praxis bedeutet das: dokumentierte Schulungsmaßnahmen, Rollen-spezifische Trainings, regelmäßige Refresher. Eine einmalige PowerPoint-Schulung reicht nicht.

Eingekaufte Modelle vs. Eigenentwicklung — wer haftet wofür?

Eine der häufigsten Fragen: wenn ich GPT-4 oder Claude über die API nutze und damit eine Funktion in meinem SaaS baue — wer ist verantwortlich?

Die einfache Regel: Anthropic, OpenAI, Google sind GPAI-Anbieter und tragen die Pflichten für das Foundation Model. Sie als Integrator sind Anbieter Ihres KI-Systems — und damit verantwortlich für alles, was über das reine Modell hinausgeht: Use Case, Datenflüsse, Risikoklasse, Berechtigungslogik, Aufsicht, Doku.

Diese Doppel-Verantwortung wird in der Praxis oft unterschätzt. Wer ein Hochrisiko-System auf einem GPAI-Modell baut, kann sich nicht hinter dem Anbieter verstecken.

Nächster Schritt

Dieses Thema ist relevant für Ihr Unternehmen?

Ich schaue mit Ihnen auf Ziel, Daten, Systeme und den sinnvollsten ersten Umsetzungsschritt.

LeistungenErstgespräch
EU AI Act für Unternehmen: Was Sie bis August 2026 wissen müssen | Martin Tomczak