Warum jetzt: die Deadline am 2. August 2026
Der EU AI Act ist die erste umfassende KI-Regulierung weltweit. Er trat im August 2024 in Kraft, wird aber gestaffelt anwendbar. Die wichtigste Welle für die meisten Unternehmen sind die Pflichten für Hochrisiko-KI-Systeme — diese werden am 2. August 2026 anwendbar.
Wer bis dahin kein internes KI-Inventar, keine Risikoklassifizierung und keine Dokumentation für eingesetzte oder entwickelte Systeme hat, riskiert nicht nur Bußgelder bis zu 7 % des weltweiten Jahresumsatzes oder 35 Mio. Euro, sondern auch Reputationsschaden gegenüber Großkunden und öffentlichen Auftraggebern, die Compliance ab Q3 2026 zur Vergabevoraussetzung machen.
Eine Studie aus dem Frühjahr 2026 zeigt: nur etwa 29 % der deutschen Unternehmen sehen sich aktuell als compliant. Der Rest hat noch rund drei Monate, um die Hausaufgaben zu machen.
- August 2024 — EU AI Act tritt in Kraft
- Februar 2025 — Verbote unzulässiger Praktiken anwendbar (Social Scoring, Emotionserkennung am Arbeitsplatz, biometrische Massenüberwachung)
- August 2025 — Pflichten für General-Purpose-AI-Modelle (GPAI) wie GPT-4, Claude, Llama, Gemini
- 2. August 2026 — Vollständige Anwendbarkeit für Hochrisiko-KI-Systeme
- August 2027 — Übergangsfrist für Hochrisiko-KI in regulierten Produkten endet
Die vier Risikoklassen — und was jede für Sie bedeutet
Der EU AI Act folgt einem risikobasierten Ansatz. Nicht jedes KI-System ist gleich reguliert. Entscheidend ist, was das System tut und in welchem Kontext es eingesetzt wird — nicht welches Modell darunter läuft.
- Unzulässig — komplett verboten. Beispiele: Social Scoring durch Behörden, Emotionserkennung am Arbeitsplatz, manipulative Systeme, biometrische Massenüberwachung im öffentlichen Raum.
- Hochrisiko — strengste Pflichten. Beispiele: KI in HR (Bewerberauswahl, Performance-Bewertung), Kreditscoring, kritische Infrastruktur, Bildung, medizinische Geräte, Strafverfolgung, Migration.
- Begrenztes Risiko — Transparenzpflichten. Beispiele: Chatbots (Nutzer muss erkennen, dass er mit KI spricht), generierte Inhalte (Kennzeichnung als KI-erzeugt), Deepfakes.
- Minimales Risiko — keine Pflichten. Beispiele: Spam-Filter, KI in Videospielen, Empfehlungssysteme im E-Commerce. Das ist der Großteil heutiger Anwendungen.
Hochrisiko-KI: bin ich betroffen?
Anhang III des AI Acts listet die Anwendungsbereiche, die automatisch als hochrisikoreich gelten. Wenn Ihr KI-System in einem dieser Bereiche operiert, gelten die strengen Pflichten — unabhängig davon, ob Sie das System selbst entwickeln oder einkaufen.
In der Praxis betrifft das deutlich mehr Mittelständler, als viele denken. Eine HR-Software mit KI-gestützter Lebenslauf-Analyse fällt darunter. Ein Kreditbewertungs-Tool im FinTech-Stack ebenfalls. Auch ein Tool, das Schul- oder Hochschulleistungen bewertet, ist hochrisikoreich.
- Biometrie und Identifikation
- Kritische Infrastruktur (Verkehr, Strom, Wasser, Gas)
- Bildung und berufliche Ausbildung
- Beschäftigung, Personalmanagement, Zugang zu Selbständigkeit
- Zugang zu wesentlichen privaten und öffentlichen Dienstleistungen
- Strafverfolgung
- Migration, Asyl, Grenzkontrolle
- Rechtspflege und demokratische Prozesse
Die Pflichten für Hochrisiko-Systeme im Detail
Wer ein Hochrisiko-KI-System anbietet oder in Eigenverantwortung einsetzt, muss eine Reihe konkreter Pflichten erfüllen. Diese sind technischer und organisatorischer Natur — und sie sind nicht trivial.
- Risikomanagement-System — kontinuierliche Identifikation, Bewertung und Minderung von Risiken über den gesamten Lebenszyklus
- Datenqualität — Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ und möglichst fehlerfrei sein
- Technische Dokumentation — vor Inverkehrbringen erstellen, laufend aktualisieren, Behörden zugänglich
- Transparenz — Nutzer müssen Funktionsweise und Grenzen verstehen können
- Menschliche Aufsicht — natürliche Personen müssen das System überwachen, eingreifen und im Notfall stoppen können
- Genauigkeit, Robustheit, Cybersecurity — angemessenes Niveau über den gesamten Lebenszyklus
- Konformitätsbewertung — vor Markteinführung; bei kritischen Anwendungen mit benannter Stelle
- CE-Kennzeichnung und Eintragung in EU-Datenbank
GPAI-Modelle: was Anbieter und Nutzer von GPT, Claude, Gemini wissen müssen
Anbieter von General-Purpose-AI-Modellen (GPAI) — also Foundation Models wie GPT-4, Claude, Gemini oder Llama — haben seit August 2025 eigene Pflichten. Sie müssen technische Dokumentation bereitstellen, Trainings-Daten dokumentieren, Urheberrechtsregeln einhalten und für besonders leistungsfähige Modelle (über 10^25 FLOPS) zusätzlich systemische Risiken bewerten.
Für Sie als Nutzer dieser Modelle ist das gute Nachricht: ein Großteil der Compliance-Arbeit liegt bei OpenAI, Anthropic, Google und Mistral. Sie brauchen aber trotzdem eine Antwort, welche Modelle Sie einsetzen, in welchem Kontext, und ob durch Ihre Einbindung daraus ein Hochrisiko-System wird.
Konkret: Wenn Sie GPT-4 nutzen, um Bewerbungen vorzusortieren, ist nicht GPT-4 das Hochrisiko-System — sondern Ihre Anwendung. Sie sind dann der Anbieter im Sinne des Acts.
Bußgelder: was wirklich auf dem Spiel steht
Die Bußgeldhöhe richtet sich nach Art des Verstoßes und ist deutlich höher als bei der DSGVO.
- Bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes — bei Einsatz verbotener KI-Praktiken
- Bis zu 15 Mio. Euro oder 3 % — bei Verstoß gegen Pflichten für Hochrisiko-Systeme oder GPAI-Anbieter
- Bis zu 7,5 Mio. Euro oder 1 % — bei falschen oder unvollständigen Auskünften gegenüber Behörden
- Marktrücknahmen und Vertriebsverbote möglich — relevant für SaaS-Produkte mit EU-Kunden
Roadmap: was Sie in den nächsten 90 Tagen tun sollten
Die meisten Unternehmen, die jetzt anfangen, schaffen die Compliance pragmatisch — wenn sie strukturiert vorgehen. Reine Beratungs-Slidedecks helfen wenig; was zählt, ist ein konkreter Inventarisierungs- und Klassifizierungsschritt.
- Woche 1–2 — KI-Inventar — alle eingesetzten KI-Systeme erfassen: SaaS-Module, integrierte Modelle, eigene Entwicklungen, Schatten-IT. Ohne Inventar keine Klassifizierung.
- Woche 3–4 — Risikoklassifizierung — pro System nach Anhang III bewerten. Externe Plausibilisierung dringend empfohlen.
- Woche 5–8 — Lückenanalyse Hochrisiko — wo Pflichten greifen: Risk Management, Datenqualität, technische Doku, Transparenz, Logging, Aufsicht.
- Woche 9–12 — Umsetzung — fehlende Bausteine technisch und organisatorisch ergänzen. Konformitätsbewertung vorbereiten.
- Laufend — Governance — KI-Lenkungskreis, Schulungspflicht für Mitarbeiter (Art. 4), Updates der Doku bei jeder relevanten Änderung.
KI-Kompetenzpflicht (Art. 4) — der oft vergessene Punkt
Seit Februar 2025 gilt Artikel 4 des AI Acts: jedes Unternehmen, das KI-Systeme einsetzt, muss sicherstellen, dass die damit befassten Mitarbeiter ausreichend KI-Kompetenz besitzen. Das gilt unabhängig von der Risikoklasse — also auch für jeden, der nur ChatGPT für Marketing-Texte nutzt.
Diese Pflicht ist bewusst weit gefasst, weil sie organisatorischen Charakter hat. In der Praxis bedeutet das: dokumentierte Schulungsmaßnahmen, Rollen-spezifische Trainings, regelmäßige Refresher. Eine einmalige PowerPoint-Schulung reicht nicht.
Eingekaufte Modelle vs. Eigenentwicklung — wer haftet wofür?
Eine der häufigsten Fragen: wenn ich GPT-4 oder Claude über die API nutze und damit eine Funktion in meinem SaaS baue — wer ist verantwortlich?
Die einfache Regel: Anthropic, OpenAI, Google sind GPAI-Anbieter und tragen die Pflichten für das Foundation Model. Sie als Integrator sind Anbieter Ihres KI-Systems — und damit verantwortlich für alles, was über das reine Modell hinausgeht: Use Case, Datenflüsse, Risikoklasse, Berechtigungslogik, Aufsicht, Doku.
Diese Doppel-Verantwortung wird in der Praxis oft unterschätzt. Wer ein Hochrisiko-System auf einem GPAI-Modell baut, kann sich nicht hinter dem Anbieter verstecken.
