
Mit dem AI Act der EU ändern sich die Regeln für die Nutzung von KI in der Industrie. (Bild: Stock.Adobe.com - mobile)
Der EU AI Act (Artificial Intelligence Act) ist die neue Verordnung der Europäischen Union, die die Entwicklung und Verwendung von künstlicher Intelligenz (KI) regelt. Seit dem Inkrafttreten im August 2024 stellt sie auch produzierende Unternehmen vor neue Herausforderungen. Seit Februar 2025 sind nun die ersten Bestimmungen für Unternehmen verpflichtend. Weitere wichtige Regelungen folgen im Laufe des Jahres, bis das gesamte Gesetz mit wenigen Ausnahmen ab dem 1. August 2026 vollständig angewendet werden muss.
Der Autor:
Guido Herres ist VP Solutions Consulting beim ERP-Softwareanbieter Infor und seit 1991 beim Unternehmen tätig. Guido Herres ist für das Solution Consulting Team verantwortlich, das den Fokus auf die industrielle Fertigung in EMEA legt. Er verfügt über mehr als dreißig Jahre Erfahrung auf dem Markt für Unternehmenssoftware.
Die Vorteile von KI sind hinlänglich bekannt und reichen von der Steigerung der Produktivität durch datengestützte Erkenntnisse über die Identifizierung von Optimierungspotenzialen bis hin zur Entlastung der Mitarbeitenden von manuellen Tätigkeiten, so dass sie sich auf andere wichtige Aufgabenbereiche konzentrieren können.
Neue Regelungen wie der EU AI Act haben oft erhebliche Auswirkungen auf die bestehenden Prozesse und Verfahren eines Unternehmens. Deshalb ist es für Unternehmen von essenzieller Bedeutung zu verstehen, welche Prozesse angepasst oder modifiziert werden müssen, um KI weiterhin gesetzeskonform einsetzen zu können.
Entscheidende Aspekte des EU AI Act
Der EU AI Act legt zum ersten Mal Regeln für die Entwicklung, Nutzung und Einführung von KI-Systemen in der EU fest. Ziel ist es, die Grundrechte und Sicherheit der Menschen zu schützen und die Einhaltung ethischer Grundsätze zu gewährleisten. Die Verordnung soll schrittweise in den nächsten zwei Jahren eingeführt werden. Für 2025 liegen folgende Stichtage fest:
- Seit dem 2. Februar 2025: Allgemeine Bestimmungen und Verbot bestimmter KI-Praktiken, z.B. Social Scoring (die Menschen aufgrund ihres Verhaltens oder ihrer Eigenschaften einzuordnen) oder automatisierte biometrische Identifizierung im öffentlichen Raum.
- Ab dem 2. August 2025 – Regelungen zur Einrichtung der notifizierenden Behörden, die für die Etablierung und Durchführung der erforderlichen Verfahren zuständig sind, Regelungen zu KI-Modellen für allgemeine Zwecke (General Purpose AI, also Anwendungen, die Large Language Models verwenden) sowie Regelungen zu Governance, Sanktionen und Vertraulichkeit.
Für die meisten Unternehmen sind jene Regelungen relevant, die ab August umgesetzt werden müssen. Unternehmen, die diese Vorschriften nicht einhalten, müssen mit empfindlichen Geldbußen von bis zu 35 Millionen Euro oder 7 % des Jahresumsatzes rechnen.
Darüber hinaus könnte eine unzureichende KI-Governance den Ruf des Unternehmens schädigen, juristische Konsequenzen nach sich ziehen und das Vertrauen der Verbraucher untergraben.
Compliance-Strategie für Einsatz von KI
Vor diesem Hintergrund ist es höchste Zeit, dass sich die Fertigungsindustrie, die die Vorteile von KI-Anwendungen zunehmend zu schätzen weiß, entsprechende Vorbereitungen trifft. Zehn Punkte, die für die Implementierung einer umfassenden Compliance-Strategie beim Einsatz von KI entscheidend sind:
1. Risikobewertung: Alle eingesetzten KI-Systeme sollten katalogisiert und nach den im KI-Gesetz definierten Risikokategorien klassifiziert werden. Dabei ist es wichtig, sich auf hochriskante KI-Anwendungen zu konzentrieren, die beispielsweise Auswirkungen auf die Produktsicherheit oder die Gesundheit der Kunden haben. Alle KI-Anwendungen, die mit einem nicht akzeptablen Risiko eingestuft wurden, müssen außer Betrieb genommen werden.
2. Dokumentation und Transparenz: Es müssen detaillierte Aufzeichnungen über KI-Systeme erstellt und gespeichert werden - einschließlich ihres Zwecks, ihrer Algorithmen und der für das Training verwendeten Datensätze. Mit der kontinuierlichen Nachverfolgung von KI-gestützten Entscheidungsprozessen –insbesondere bei Hochrisikosystemen – wird sichergestellt, dass Klarheit darüber herrscht, wie Daten in Empfehlungen und Entscheidungen einfließen. Das ermöglicht den Unternehmen Rechenschaft darüber abzulegen, wie die Ergebnisse von KI-Systemen zustande kommen.
Für einen Automobilhersteller z. B., der bei seinen Fahrzeugen KI für die Vorhersage von Wartungsintervallen (Predictive Maintenance) einsetzt, ist es wichtig, die verwendeten Algorithmen und Datensätze zu dokumentieren, damit nachvollziehbar ist, wie die KI-basierte Entscheidung zur Vorhersage des Wartungsbedarfs von Fahrzeugen erfolgt. Unternehmen können ihren Kunden so klar darlegen, wie ihre Daten verwendet werden und weshalb eine bestimmte Entscheidung bei der Fahrzeugwartung getroffen wurde.
3. Datenmanagement und Datenschutz: Um Innovationen zu fördern und Verzerrungen zu minimieren dürfen nur qualitativ hochwertige Daten verwendet werden, die präzise, repräsentativ und stets aktuell sind. Der Schwerpunkt liegt auf der Einhaltung der Datenschutz-Grundverordnung (DSGVO) und der Verwendung anonymisierter Daten für das Training der KI, um die Privatsphäre zu schützen und die Datensicherheit zu erhöhen.
4. Überprüfung der KI-Systeme auf Robustheit, Genauigkeit und Sicherheit: Damit lassen sich zum einen bestehende Verzerrungen erkennen und korrigieren und zum anderen kann auch auf neue Risiken für Verzerrungen reagiert werden, die von Nutzern, Lieferanten oder Kunden gemeldet werden.
5. Der Mensch behält die Kontrolle: Es müssen klare Verantwortlichkeiten für KI-gestützte Entscheidungsprozesse festgelegt werden. Dies gilt insbesondere für kritische Entscheidungen. Die Unternehmen sollten sicherstellen, dass ein Informations- oder Warnsystem etabliert wird, über das der verantwortliche Mitarbeitende über automatisch erfolgte KI-Entscheidungen benachrichtigt wird.
In einer chemischen Produktionsanlage können KI-Systeme z. B. eingesetzt werden, um Daten in Echtzeit zu überwachen und chemische Reaktionen zu steuern. Dennoch müssen Unternehmen sicherstellen, dass ein verantwortlicher Mitarbeitender über alle KI-gesteuerten Entscheidungen informiert wird, die von den erwarteten Sicherheitsparametern abweichen. So kann die verantwortliche Person bei Bedarf sofort eingreifen.
6. Ethik und KI-Strategie: Unternehmen müssen interne, ethische Richtlinien für den Einsatz von KI zu entwickeln, die mit dem EU AI Act übereinstimmen. Schulungen und Weiterbildungen für alle KI-Nutzer, Führungskräfte und Stakeholder zu Themen wie ethische Richtlinien und regulatorische Anforderungen tragen dazu bei, diese Praktiken in der Unternehmenskultur zu verankern. Ein Hersteller von Unterhaltungselektronik kann z. B. seine Ethik-Richtlinien so gestalten, dass keine voreingenommenen Entscheidungen bei der Spracherkennung oder der Benutzerinteraktion getroffen werden, wenn KI in den Geräten zum Einsatz kommt.
Themenmonat Februar: IT-Infrastruktur für die Industrie

Industrielle Fertigung ohne eine ausgefeilte IT-Infrastruktur ist mittlerweile nahezu undenkbar. IT und OT brauchen leistungsfähige Vernetzung, Maschinen und Anlagen latenzfreie Rechner am Edge und KI-Modelle die nahezu unbegrenzte Power der Cloud.
Aus diesem Grund geht Automation NEXT im Rahmen eines Online-Themenmonats im Februar auf die unterschiedlichsten Aspekte des Themas "IT für die Industrie" ein:
7. Monitoring: Für die kontinuierliche Überwachung der KI-Leistung sollten Governance-, Risiko- und Compliance-Systeme eingeführt werden. Teile einer KI-Strategie sind zudem auch meldepflichtige Protokolle zu IT-Vorfällen sowie Richtlinien für die schnelle Wiederherstellung eines Compliance-konformen IT-Betriebs. Für eine Modemarke könnte dies bedeuten, dass sie Protokolle zur Überwachung der Leistung von KI-Systemen in ihren Kundendienst-Chatbots einrichtet, um sicherzustellen, dass diese genaue und zeitnahe Antworten liefern.
8. Zertifizierung durch Behörden und Durchführung regelmäßiger Audits: Damit lässt sich ein hohes Maß an Compliance bei KI-Systemen mit hohem Risiko sicherstellen und gleichzeitig Vertrauen in KI-Anwendungen aufbauen.
9. Technische Sicherheit: Mit der Nutzung sicherer Plattformen und SaaS-Anwendungen in der Cloud haben Unternehmen Zugriff auf robuste Systemarchitekturen, Verschlüsselung, sichere Zugangskontrollen und Anonymisierung von Daten. Dies gewährleistet technische Sicherheit und Datenintegrität.
10. Technologiepartnerschaften: Technologieanbieter verfügen über das notwendige Expertenwissen und entsprechende Tools, um die Prozesse Compliance-konform durchzuführen und den Pflichten des EU AI Act gerecht zu werden. Der Vorteil: Produzierende Unternehmen nutzen die Leistungsfähigkeit von KI und minimieren gleichzeitig die Risiken, die sich aus der Einhaltung der Vorschriften ergeben.
Versprechen der KI für mehr Effizienz einlösen
Zweifellos stellt der EU AI Act Gesetz die Hersteller vor neue Herausforderungen. Doch letztendlich dient die Regelung dazu, den Einsatz von sicheren und ethisch vertretbaren KI-Modellen zu beschleunigen, damit das Versprechen der KI für mehr Effizienz und Innovation eingelöst wird. Mit einem 10-Punkte-Plan können sich Unternehmen für den EU AI Act gut aufstellen.