Stand März 2026 ist der EU AI Act kein Zukunftsdokument mehr: Seit dem 1. August 2024 ist die Verordnung in Kraft, seit dem 2. Februar 2025 gelten die ersten Verbote. Trotzdem behandeln ihn die meisten mittelständischen Unternehmen in Deutschland wie eine ferne Bedrohung — irgendwo zwischen DSGVO-Erfahrungsschock und regulatorischer Erschöpfung eingefroren.
Das ist ein Fehler. Wer KI einsetzt — und sei es nur als eingebettetes Modul in einer zugekauften Anlage — trägt Verantwortung, die das Gesetz jetzt konkret adressiert. Entscheidend ist aber der Einzelfall: Nicht jede KI-Anwendung in Maschinen oder OT-Systemen ist automatisch Hochrisiko.
Was das Gesetz tatsächlich fordert
Der AI Act arbeitet mit vier Risikoklassen. Unannehmbares Risiko: verboten. Hohes Risiko: streng reguliert. Begrenztes und geringes Risiko: weitgehend ohne Pflichten, aber nicht ohne Dokumentationserwartung. Die entscheidende Frage ist nicht, ob ein Unternehmen KI nutzt — sondern welche KI, in welchem Kontext, mit welchen Auswirkungen.
Hochrisiko-Systeme sind eng definiert. Dazu zählen unter anderem KI-Komponenten in regulierten Produkten, sofern sie Sicherheitsfunktionen übernehmen, sowie Systeme zur Steuerung kritischer Infrastruktur, HR-Entscheidungstools und medizinische Diagnose-Software. Ein Qualitätskontrollsystem in der Fertigung, das autonom Ausschussentscheidungen trifft? Prüfpflichtig. Eine KI-gestützte Anomalieerkennung im Prozessleitsystem? Ebenfalls auf dem Radar.
Der Schlüsselbegriff lautet: sicherheitsrelevante Funktion. Wo KI Entscheidungen trifft, die Leib, Leben oder den Betrieb kritischer Prozesse beeinflussen können, greift das Hochrisiko-Regime.
Wer betroffen ist — und wer sich fälschlich sicher fühlt
Das Marktortprinzip zieht weit. Nicht nur Entwickler von KI-Systemen fallen unter den Act, sondern auch Betreiber, Importeure und Händler, die entsprechende Systeme in der EU einsetzen oder in Verkehr bringen. Ein Maschinenbauer in Bayern, der eine zugekaufte CNC-Steuerung mit KI-basierter Werkzeugüberwachung verbaut: betroffen. Ein Logistikunternehmen, das KI-gestützte Tourenoptimierung aus den USA einsetzt: ebenfalls betroffen.
Etwa 85 bis 90 Prozent aller KI-Anwendungen landen nach aktueller Einschätzung in den unkritischen Klassen. Aber dieser Durchschnitt täuscht — in der Industrie, speziell im OT-Umfeld, liegt der Anteil sicherheitsrelevanter Einsatzszenarien strukturell höher als im Consumer-Bereich.
ISO/IEC 42001 — hilfreicher Rahmen, kein Freifahrtschein
Parallel zum AI Act hat die internationale Normierung mit ISO/IEC 42001 einen Managementsystem-Standard für KI etabliert. Das AIMS (AI Management System) folgt dem bekannten PDCA-Schema: Risikobewertung, Kontrollmaßnahmen, kontinuierliche Verbesserung, Dokumentation. Wer ISO 27001 kennt, findet sich schnell zurecht.
Die entscheidende Einschränkung: Eine ISO/IEC 42001-Zertifizierung schafft keine automatische AI Act-Konformität. Die Norm deckt Governance und Prozessqualität ab — der Act fordert darüber hinaus produktbezogene Anforderungen, technische Nachweise und bei Hochrisiko-KI formale Konformitätsbewertungsverfahren. Beides ergänzt sich, aber keines ersetzt das andere.
Für Unternehmen ergibt sich daraus ein pragmatischer Ansatz: ISO/IEC 42001 als Strukturierungshilfe nutzen, die AI Act-spezifischen Anforderungen gezielt draufsatteln — statt auf eines zu setzen und das andere zu ignorieren.
Fristen, die zählen
Der Stufenplan des AI Act hat Stand März 2026 diese konkreten Daten:
- 2. Februar 2025: Verbote für unannehmbares Risiko gelten
- 2. August 2025: Verpflichtungen für GPAI-Modelle (General Purpose AI) werden wirksam
- 2. August 2026: Vollständige Geltung für Hochrisiko-KI nach Anhang III
- 2. August 2027: Hochrisiko-KI in regulierten Produkten
Die letzte Frist klingt weit weg. Ist sie nicht — wer Produktentwicklungszyklen von 18 bis 36 Monaten hat, sitzt bereits unter Zeitdruck.
Was jetzt zu tun ist
Drei Schritte, in dieser Reihenfolge:
Erstens: Bestandsaufnahme. Welche KI-Systeme sind im Einsatz oder in der Entwicklung — egal ob selbst entwickelt, zugekauft oder als Komponente verbaut? Diese Frage ist schwerer zu beantworten als sie klingt, weil KI in vielen Produkten nicht explizit als solche ausgewiesen ist.
Zweitens: Risikoklassifizierung. Jedes identifizierte System gegen die Klassifizierungskriterien des AI Act prüfen. Bei Unsicherheit: Hochrisiko-Einstufung als Arbeitshypothese — das schützt vor bösen Überraschungen.
Drittens: Lückenanalyse. Wo Hochrisiko-Einordnung plausibel ist, braucht es eine Gap-Analyse gegen die Anforderungen aus Kapitel III Abschnitt 2 des AI Act — Datendokumentation, Transparenzpflichten, menschliche Aufsicht, Genauigkeit und Robustheit, Cybersicherheit.
Der vierte Schritt — Umsetzung — ist je nach Ausgangslage ein Sprint oder ein Marathon. Aber er setzt voraus, dass die ersten drei erledigt sind. Die meisten Unternehmen, die ich in Projekten treffe, stecken noch im ersten.
Eine Einschätzung zum Abschluss
Der AI Act wird die Produktlandschaft verändern — nicht sofort, aber systematisch. Wer heute Maschinen mit KI-Komponenten entwickelt, tut das in einem anderen Rechtsrahmen als noch vor zwei Jahren. Das ist kein Grund zur Panik; die meisten Anwendungen landen eben nicht im Hochrisiko-Bereich. Aber es ist ein Grund, sich jetzt einen Überblick zu verschaffen — bevor Aufsichtsbehörden oder Kunden die Fragen stellen.
EU AI Act Beratung: Wie ich Industrieunternehmen und Mittelstand bei der Risikoklassifizierung und Gap-Analyse begleite — von der Bestandsaufnahme bis zur Konformitätsbewertung für Hochrisiko-KI — finden Sie unter EU AI Act Beratung.