Seit August 2024 ist er in Kraft, seit Februar 2025 greifen die ersten Verbote: Der EU AI Act ist kein Zukunftsdokument mehr. Er ist geltendes Recht. Trotzdem behandeln ihn die meisten mittelständischen Unternehmen in Deutschland wie eine ferne Bedrohung — irgendwo zwischen DSGVO-Erfahrungsschock und regulatorischer Erschöpfung eingefroren.
Das ist ein Fehler. Wer KI einsetzt — und sei es nur als eingebettetes Modul in einer zugekauften Anlage — trägt Verantwortung, die das Gesetz jetzt konkret adressiert.
Was das Gesetz tatsächlich fordert
Der AI Act arbeitet mit vier Risikoklassen. Unannehmbares Risiko: verboten. Hohes Risiko: streng reguliert. Begrenztes und geringes Risiko: weitgehend ohne Pflichten, aber nicht ohne Dokumentationserwartung. Die entscheidende Frage ist nicht, ob ein Unternehmen KI nutzt — sondern welche KI, in welchem Kontext, mit welchen Auswirkungen.
Hochrisiko-Systeme sind eng definiert. Dazu zählen unter anderem KI-Komponenten in Maschinen nach Maschinenverordnung (MVO), sofern sie Sicherheitsfunktionen übernehmen, sowie Systeme zur Steuerung kritischer Infrastruktur, HR-Entscheidungstools und medizinische Diagnose-Software. Ein Qualitätskontrollsystem in der Fertigung, das autonom Ausschussentscheidungen trifft? Prüfpflichtig. Eine KI-gestützte Anomalieerkennung im Prozessleitsystem? Ebenfalls auf dem Radar.
Der Schlüsselbegriff lautet: sicherheitsrelevante Funktion. Wo KI Entscheidungen trifft, die Leib, Leben oder den Betrieb kritischer Prozesse beeinflussen können, greift das Hochrisiko-Regime.
Wer betroffen ist — und wer sich fälschlich sicher fühlt
Das Marktortprinzip zieht weit. Nicht nur Entwickler von KI-Systemen fallen unter den Act, sondern auch Betreiber, Importeure und Händler, die entsprechende Systeme in der EU einsetzen oder in Verkehr bringen. Ein Maschinenbauer in Bayern, der eine zugekaufte CNC-Steuerung mit KI-basierter Werkzeugüberwachung verbaut: betroffen. Ein Logistikunternehmen, das KI-gestützte Tourenoptimierung aus den USA einsetzt: ebenfalls betroffen.
Etwa 85 bis 90 Prozent aller KI-Anwendungen landen nach aktueller Einschätzung in den unkritischen Klassen. Aber dieser Durchschnitt täuscht — in der Industrie, speziell im OT-Umfeld, liegt der Anteil sicherheitsrelevanter Einsatzszenarien strukturell höher als im Consumer-Bereich.
ISO/IEC 42001 — hilfreicher Rahmen, kein Freifahrtschein
Parallel zum AI Act hat die internationale Normierung mit ISO/IEC 42001 einen Managementsystem-Standard für KI etabliert. Das AIMS (AI Management System) folgt dem bekannten PDCA-Schema: Risikobewertung, Kontrollmaßnahmen, kontinuierliche Verbesserung, Dokumentation. Wer ISO 27001 kennt, findet sich schnell zurecht.
Die entscheidende Einschränkung: Eine ISO/IEC 42001-Zertifizierung schafft keine automatische AI Act-Konformität. Die Norm deckt Governance und Prozessqualität ab — der Act fordert darüber hinaus produktbezogene Anforderungen, technische Nachweise und bei Hochrisiko-KI formale Konformitätsbewertungsverfahren. Beides ergänzt sich, aber keines ersetzt das andere.
Für Unternehmen ergibt sich daraus ein pragmatischer Ansatz: ISO/IEC 42001 als Strukturierungshilfe nutzen, die AI Act-spezifischen Anforderungen gezielt draufsatteln — statt auf eines zu setzen und das andere zu ignorieren.
Fristen, die zählen
Der Stufenplan des AI Act hat konkrete Daten:
- Februar 2025: Verbote für unannehmbares Risiko gelten
- August 2025: Verpflichtungen für GPAI-Modelle (General Purpose AI) wirksam
- August 2026: Vollständige Geltung für Hochrisiko-KI nach Anhang III
- August 2027: Hochrisiko-KI nach Anhang I (eingebettet in regulierte Produkte wie MVO-Maschinen)
Die letzte Frist klingt weit weg. Ist sie nicht — wer Produktentwicklungszyklen von 18 bis 36 Monaten hat, sitzt bereits unter Zeitdruck.
Was jetzt zu tun ist
Drei Schritte, in dieser Reihenfolge:
Erstens: Bestandsaufnahme. Welche KI-Systeme sind im Einsatz oder in der Entwicklung — egal ob selbst entwickelt, zugekauft oder als Komponente verbaut? Diese Frage ist schwerer zu beantworten als sie klingt, weil KI in vielen Produkten nicht explizit als solche ausgewiesen ist.
Zweitens: Risikoklassifizierung. Jedes identifizierte System gegen die Klassifizierungskriterien des AI Act prüfen. Bei Unsicherheit: Hochrisiko-Einstufung als Arbeitshypothese — das schützt vor bösen Überraschungen.
Drittens: Lückenanalyse. Wo Hochrisiko-Einordnung plausibel ist, braucht es eine Gap-Analyse gegen die Anforderungen aus Kapitel III Abschnitt 2 des AI Act — Datendokumentation, Transparenzpflichten, menschliche Aufsicht, Genauigkeit und Robustheit, Cybersicherheit.
Der vierte Schritt — Umsetzung — ist je nach Ausgangslage ein Sprint oder ein Marathon. Aber er setzt voraus, dass die ersten drei erledigt sind. Die meisten Unternehmen, die ich in Projekten treffe, stecken noch im ersten.
Eine Einschätzung zum Abschluss
Der AI Act wird die Produktlandschaft verändern — nicht sofort, aber systematisch. Wer heute Maschinen mit KI-Komponenten entwickelt, tut das in einem anderen Rechtsrahmen als noch vor zwei Jahren. Das ist kein Grund zur Panik; die meisten Anwendungen landen eben nicht im Hochrisiko-Bereich. Aber es ist ein Grund, sich jetzt einen Überblick zu verschaffen — bevor Aufsichtsbehörden oder Kunden die Fragen stellen.