KI-Gesetz: Ausnahmen für den Maschinenbau – Analyse
KI-Gesetz: Ausnahmen für den Maschinenbau – Analyse
Der europäische Maschinenbau gilt als Kern industrieller Wertschöpfung – und steht mit dem EU AI Act vor neuen Pflichten. Zugleich erwägt Brüssel Ausnahmen und Erleichterungen, um Doppelregulierung zu vermeiden und Wettbewerbsfähigkeit zu sichern. Im Zentrum steht die Verzahnung des KI-Rechts mit der bestehenden Maschinenrichtlinie: Viele Steuerungen, Visionsysteme oder kollaborative Roboter sind bereits CE-pflichtig. Der politische Balanceakt: Wie weit dürfen KI-Gesetz Maschinenbau Ausnahmen gehen, ohne Sicherheitsniveau, Nachvollziehbarkeit und Haftungsregeln auszuhöhlen? Dieser Überblick ordnet die Vorschläge, technischen Grenzfälle und Folgen für Hersteller, Normung und Aufsicht ein.
Was die Ausnahmen konkret adressieren
Der AI Act arbeitet risikobasiert. KI-Systeme, die als Sicherheitskomponente eines CE-pflichtigen Produkts gelten, werden regelmäßig als Hochrisiko eingestuft. Der Kern der diskutierten Ausnahmen ist deshalb keine pauschale Befreiung, sondern eine Äquivalenzlogik: Wo sektorale Produktvorschriften bereits Konformitätsverfahren und Sicherheitsziele vorgeben, sollen KI-Pflichten integriert, gebündelt und über harmonisierte Normen erfüllbar sein. Ziel ist, doppelte Audits und widersprüchliche Dokumentationen zu vermeiden.
Praktisch heißt das: Hersteller könnten für KI-Sicherheitsfunktionen vorhandene CE-Module nutzen und KI-spezifische Anforderungen (Risikomanagement, Datenqualität, Logging, menschliche Aufsicht) in ihr bestehendes Qualitätsmanagement einbetten. Nicht alle industriellen KI-Anwendungen wären betroffen: Prozessoptimierung oder Predictive-Maintenance-Funktionen ohne Sicherheitsbezug unterliegen meist nur Minimalpflichten, während etwa kollaborative Robotik typischerweise in die Hochrisiko-Schiene fällt. Diskutiert werden zudem Übergangsfristen sowie die vorrangige Ausgestaltung über CEN/CENELEC-Normen, um die Praxis rasch handhabbar zu machen.
Sicherheits- und Haftungsfolgen der Entlastungen
Erleichterungen reduzieren Bürokratie, bergen aber technische und rechtliche Fallstricke. KI-Sicherheitskomponenten erzeugen neue Fragestellungen: Modelle können sich durch Updates verändern, Datenverteilungen driften, Trainingsdatensätze sind nicht immer vollständig dokumentierbar. Wenn Transparenz- und Protokollierungspflichten zu stark verwässert werden, erschwert das Ursache-Wirkungs-Analysen nach Vorfällen – und verschiebt Risiken in die Produkthaftung.
Für die Haftung zählen künftig drei Pfeiler: die risikobasierte KI-Dokumentation, die CE-Konformität nach Maschinenrecht und die Beweisführung bei unvorhersehbarem Verhalten. Hersteller brauchen daher klare Update- und Rückverfolgbarkeitskonzepte, die explizit auch lernende Komponenten adressieren. Wo KI spezifische Nachweise (z. B. Daten-Governance oder Modelltests) schwächer ausfallen, steigt das Risiko, dass Gerichte im Zweifel von einem Defekt oder von unzureichender Risikokontrolle ausgehen. Ausnahmen müssen folglich so gestaltet sein, dass sie die Beweislast in Haftungsfällen nicht faktisch einseitig den Betreibern aufbürden.
Wettbewerb, Normung und die Gefahr regulatorischer Lücken
Für viele Maschinenbauer – insbesondere KMU – sind gebündelte Verfahren ein echter Hebel: weniger Fragmentierung, planbare Audits, niedrigere Transaktionskosten. Zugleich entscheidet die Normung über Tempo und Substanz. Erst harmonisierte Standards machen die Äquivalenzlogik praxistauglich: Sie übersetzen abstrakte KI-Pflichten in prüfbare Anforderungen für Datensätze, Validierung, Testabdeckung oder menschliche Eingriffsmöglichkeiten.
International entsteht ein Spannungsfeld. Lockerere Vorgaben in anderen Weltregionen senken zwar kurzfristig Kosten, doch belastbare EU-Standards können zum Wettbewerbsvorteil werden, wenn sie Sicherheit und Interoperabilität messbar machen. Kritisch ist die Durchsetzung: Unklare Abgrenzungen zwischen „Hochrisiko“ und „niedrigerem Risiko“ sowie unterschiedliche Kontrolldichten der Marktüberwachung drohen Schlupflöcher zu öffnen – und verzerren den Wettbewerb innerhalb des Binnenmarkts.
Szenarien und Handlungslinien für Industrie, Normgeber und Aufsicht
Drei plausible Entwicklungspfade zeichnen sich ab:
- Basisszenario: Gezielte Entlastungen greifen, KI-Anforderungen werden über harmonisierte Normen in CE-Prozesse integriert; Prüf- und Dokumentationslast sinkt ohne Sicherheitsverlust.
- Strenges Szenario: Wenige Ausnahmen, hohe Nachweispflichten; klare Haftungspositionen, aber höhere Kosten und längere Time-to-Market, vor allem für KMU.
- Laxeres Szenario: Breite Ausnahmen, lückenhafte Nachweise; kurzfristige Kostenvorteile, dafür höhere Unfall- und Haftungsrisiken und mehr Rechtsunsicherheit.
Empfehlungen, die in allen Szenarien tragen:
- Hersteller: KI-Risikomanagement in das bestehende CE- und QMS-System integrieren; Daten-Governance, Modelltests, Protokollierung und Update-Politiken verbindlich regeln.
- Normung: Prüfbare Mindestanforderungen für industrielle KI priorisieren (Datenqualität, Robustheit, Human-in-the-Loop), inklusive Referenztests für Lernsysteme.
- Aufsicht: Frühzeitige Leitlinien zur Abgrenzung von Hochrisiko-Anwendungen veröffentlichen und die Marktüberwachung europaweit konsistent ausrichten.
- Politik: Äquivalenz nur gewähren, wenn KI-spezifische Nachweise nicht entfallen, sondern pragmatisch in CE-Verfahren abgebildet sind.
Schluss: Der Maschinenbau braucht Rechtssicherheit – und die EU ein einheitliches Schutzniveau. Ausnahmen können sinnvoll sein, wenn sie Doppelarbeit vermeiden und Nachvollziehbarkeit sichern. Entscheidend ist jetzt, die Brücke zwischen KI-Pflichten und bewährter Maschinensicherheit über tragfähige Normen und eine konsequente Marktüberwachung zu bauen.


