Wie lässt sich in der Praxis rechtssicher mit KI arbeiten?
Ziel des Projekts des Fraunhofer IPA und der Arena2036 war es, Unternehmen bei der Umsetzung des EU AI Acts sowie der EU-Maschinenverordnung zu unterstützen. Die Ergebnisse sind jetzt veröffentlicht und dienen zur Orientierung für die rechtssichere Entwicklung von KI- und Robotikanwendungen.
Redaktion Automation NEXTRedaktionAutomation NEXT
3 min
Insbesondere Robotik im Einsatz ohne Schutzzaun bedarf besonderer Sicherheitsmaßnahmen.Fotograf: Rainer Bez
Anzeige
Die Zeit drängt, wenn es um aktuelle Regulatorik geht: Am 2. August 2027 treten die Verpflichtungen für Hochrisiko-KI-Systeme als Sicherheitskomponente in Kraft und der gesamte EU AI Act findet Anwendung. Auch die neue EU-Maschinenverordnung legt ab Januar 2027 neue Anforderungen für sicherheitsrelevante KI und selbstlernende Systeme fest.
Regulatorische und technische Beratung für Unternehmen
Anzeige
Kirr Real half Unternehmen dabei, diese komplexen regulatorischen Anforderungen zu verstehen und umzusetzen. Hierfür wurden „Legal Quick Checks“ angeboten, also kurze kompakte Beratungsprojekte. Eine Anwaltskanzlei stufte diese Fälle in eine der vier Risikoklassen des AI Acts ein (von minimalem bis unannehmbarem Risiko). Anschließend prüfte das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA die technische Dokumentation und zugrundeliegenden Konzepte der KI-Entwicklung, um die Rechtskonformität der Systeme zu evaluieren und praxisnahe Handlungsempfehlungen zu erarbeiten.
Das Projekt lief von 15. November 2024 bis 31. Dezember 2025 und wurde vom Ministerium für Wirtschaft, Arbeit und Tourismus Baden-Württemberg gefördert. Im Konsortium arbeiteten das Fraunhofer IPA und der Forschungscampus Arena2036 zusammen und wurden von mehreren assoziierten Partnern begleitet. Zentrale Anliegen des Projekts waren, zu untersuchen, wie gut die Unternehmen in Baden-Württemberg auf den AI Act und die Maschinenverordnung vorbereitet sind, wie die beiden Verordnungen zusammenspielen und sich überlagern und wo es noch Hürden in der KI-Regulierung gibt.
Die Erkenntnisse aus dem Projekt geben Impulse für eine praxistaugliche Umsetzung und Weiterentwicklung der KI-Regulierung und werden aktiv in den Gesetzgebungsprozess zurückgespiegelt, beispielsweise durch die Teilnahme an Normungsgremien, einen regelmäßigen Austausch mit der Bundesnetzagentur, der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin und einen Workshop mit dem Bundesministerium für Arbeit und Soziales. Auch in die Ausgestaltung der vom AI Act vorgesehenen Reallabore sollen die Projektergebnisse einfließen.
Bewusstsein für regulatorische Anforderungen schaffen
Im Projektverlauf wurden 15 KI-Anwendungsfälle aus Bereichen wie Fertigung, humanoide Robotik, Gesundheitswesen und Personalmanagement bearbeitet.
Sogar Unternehmen mit fortgeschrittener KI-Entwicklung hatten noch Unterstützungsbedarf bei der Umsetzung des AI Acts. In Gesprächen stellte sich ebenfalls heraus, dass das Bewusstsein für die kommenden Regulierungen oft nicht ausreicht. In der Anwendung des AI Acts wurde häufig entweder die rechtliche oder die technische Ebene betrachtet. Beide Aspekte und die frühzeitige Beschäftigung mit KI-Regulierung sind jedoch entscheidend für die erfolgreiche Anwendungsumsetzung.
Anzeige
Herausforderungen bei der Umsetzung der Rechtsakte
Besonders die Einordnung in Risikoklassen ist für Unternehmen herausfordernd. Diese Einordnung ist entscheidend für die Ressourcenplanung, jedoch manchmal nicht eindeutig bestimmbar, und hängt stark von den Details des Anwendungsfalls ab. Eine Orientierung an ähnlichen Fällen ist deshalb nicht immer möglich.
Das Fehlen der harmonisierten Standards hat zur Folge, dass mehr KI-Systeme eine Konformitätsprüfung durch Dritte durchlaufen müssen. Im Hinblick auf die Maschinenverordnung sehen viele Fachleute zudem Klärungsbedarf, was genau unter einem System mit „selbstentwickelndem Verhalten“ zu verstehen ist.
Ein weiteres Thema ist die technische Umsetzung der Anforderungen. Viele Unternehmen treiben Fragen um wie: Wie müssen Nachweise erbracht werden? Wie umfangreich muss eine Dokumentation sein? Wann ist KI Teil einer Maschine? Auch der Umgang mit mehreren geltenden Regulierungen ist oft unklar und verursacht Angst vor unnötigem Mehraufwand. Zudem entwickeln viele Unternehmen KI-Systeme nicht vollständig selbst, sondern nutzen bestehende General-Purpose-AI-Modelle für ihre Anwendungen, was die Erbringung der erforderlichen Nachweise erschwert. Die verfügbaren Leitfäden und Hilfestellungen berücksichtigten diese Praxis bisher jedoch kaum.
Anzeige
Für die Integration von KI in Roboter und andere Maschinen steht mit der neuen Maschinenverordnung noch eine Herausforderung an: Unternehmen müssen neben der Beachtung der neuen Regeln für KI in Sicherheitsfunktionen in den nächsten zwölf Monaten auch ihre bestehenden Produkte an die neue Verordnung anpassen.
Handlungsempfehlungen aus dem Reallabor
Die Erfahrungen aus Kirr Real verdeutlichen, dass es zwar Unternehmen gibt, die sich mit den Verordnungen auseinandersetzen, dabei bereiten allerdings bestehende Unklarheiten, die Vielzahl an zu berücksichtigenden Regulierungen und das Fehlen der harmonisierten Standards Probleme.
Anzeige
Es besteht dringender Bedarf an konkreten, praxisnahen und leicht umsetzbaren Leitfäden sowie strukturierten Vorgehensweisen, die früh in der Entwicklung ansetzen.
Insbesondere sind KI-Entwicklungsteams, unabhängig von der Unternehmensgröße, oft klein und haben Schwierigkeiten, die erforderlichen Aufwände zu bewältigen. Unterstützungsangebote wie Reallabore sollten daher möglichst niederschwellig sein, um einen echten Mehrwert zu liefern.
Unternehmen sollten ferner bereits in frühen Entwicklungsphasen Unterstützung erhalten, beispielsweise durch die rechtliche Einschätzung eines Anwendungsfalls, Workshops oder Beratung während der Entwicklung eines Systems.
Anzeige
Das Fraunhofer IPA will weiterhin die Erkenntnisse aus der Projektarbeit sammeln und aktiv in den Gesetzgebungsprozess einbringen sowie für die direkte Zusammenarbeit mit Unternehmen nutzen. Unternehmen können hierfür auf Fraunhofer zukommen. Das Ziel bleibt, die KI Regulierung praxisnah weiterzuentwickeln und Unternehmen in Baden-Württemberg optimal zu unterstützen.
Automation NEXT Conference 2026
Datum: 30. September 2026
Ort: CU.BE Ulm by Bosch Rexroth, Ulm
Die Automation NEXT Conference ist die Fachkonferenz für industrielle Automatisierung, Digitalisierung und KI im Maschinen- und Anlagenbau.
Sie richtet sich an Entscheider, Produktions- und Automatisierungsverantwortliche sowie Entwickler, die ihre Fertigung zukunftsfähig aufstellen möchten. Im Fokus stehen praxisnahe Vorträge, Best Practices und der Austausch zwischen Industrie, Technologieanbietern und Forschung.
Themenschwerpunkte:
• Künstliche Intelligenz und generative Copilots im Engineering und in der Produktion
• Cobots und kognitive Robotik zur Bewältigung des Fachkräftemangels
• Smart Factory, IIoT, Industrial Networks und MES-Systeme
• Energieeffizienz, Nachhaltigkeit und Wettbewerbsfähigkeit
Teilnehmer:
Fach- und Führungskräfte aus industrieller Automatisierung, Produktion und Maschinenbau sowie Expert:innen aus Forschung und Technologieunternehmen.
Besonderheiten:
• Hochkarätige Speaker aus Industrie und Forschung
• Ein kompakter Konferenztag mit starkem Praxisbezug
• Intensives Networking und direkter Austausch auf Augenhöhe
FAQ: Rechtssichere KI- und Robotikentwicklung – Was Unternehmen jetzt wissen müssen
Was ist das Reallabor „Kirr Real“?
Kirr Real war ein gemeinsames Projekt des Fraunhofer IPA und der Arena2036, das Unternehmen bei der praktischen Umsetzung des EU AI Acts und der EU-Maschinenverordnung unterstützt hat. Ziel war es, regulatorische Anforderungen greifbar zu machen und praxisnahe Empfehlungen zu erarbeiten.
Warum ist das Thema Regulierung für KI und Robotik gerade jetzt so wichtig?
Weil entscheidende Fristen unmittelbar bevorstehen:
EU AI Act: Ab 2. August 2027 gelten die Verpflichtungen für Hochrisiko-KI-Systeme.
Neue EU-Maschinenverordnung: Ab Januar 2027 müssen Unternehmen neue Anforderungen für KI-Sicherheitsfunktionen und selbstlernende Systeme erfüllen.
Unternehmen müssen ihre Systeme bereits heute entsprechend planen, dokumentieren und entwickeln.
Welche Unterstützung erhielten Unternehmen im Projekt?
Kirr Real bot unter anderem folgende Leistungen:
Legal Quick Checks zur Einstufung in die vier Risikoklassen des AI Acts
Technische Prüfung der Dokumentation durch das Fraunhofer IPA
Praxisorientierte Handlungsempfehlungen zur rechtssicheren KI-Entwicklung
Workshops und Beratung entlang des Entwicklungsprozesses
Wie funktioniert die Einstufung von KI-Systemen in Risikoklassen?
Eine Anwaltskanzlei bewertete jeden Anwendungsfall nach dem AI Act in vier Kategorien:
Minimales Risiko
Begrenztes Risiko
Hohes Risiko
Unannehmbares Risiko
Diese Einstufung ist oft komplex, da sie stark von Details des konkreten Systems abhängt und vergleichbare Anwendungsfälle nicht immer übertragbar sind.
Was waren typische Herausforderungen für die Unternehmen?
Unternehmen hatten besonders Schwierigkeiten bei:
Der Risikoklassifizierung ihrer KI-Systeme
Dem Umgang mit mehreren parallel geltenden Rechtsakten
Dem Fehlen harmonisierter Standards, was mehr Konformitätsprüfungen erfordert
Der Frage, wie umfangreich Dokumentation und Nachweise sein müssen
Der Integration von General-Purpose-AI-Modellen, deren Nachweise oft fehlen
Der Bewertung von „selbstentwickelndem Verhalten“ laut Maschinenverordnung
Auch Unternehmen mit fortgeschrittener KI-Expertise benötigten zusätzliche Orientierung.
Warum ist die Verzahnung von rechtlichen und technischen Anforderungen so schwierig?
In vielen Fällen wurde entweder nur die juristische oder nur die technische Perspektive betrachtet. Die Regulierung erfordert jedoch ein Zusammenspiel beider Ebenen – idealerweise bereits in der frühen Entwicklungsphase eines KI-Systems.
Welche Branchen wurden im Reallabor untersucht?
Insgesamt wurden 15 KI-Anwendungsfälle aus verschiedenen Bereichen analysiert:
Fertigungsindustrie
Humanoide Robotik
Gesundheitswesen
Personalmanagement
Weitere industrielle Anwendungen
Welche Erkenntnisse nahm das Fraunhofer IPA aus dem Projekt mit?
Die wichtigsten Learnings:
Viele Unternehmen sind auf die kommenden Verordnungen nicht ausreichend vorbereitet.
Konkrete, leicht umsetzbare Leitfäden fehlen.
Entwicklungsteams sind oft klein und haben Mühe, regulatorische Anforderungen parallel zum Tagesgeschäft zu stemmen.
Frühe Unterstützung – sowohl technisch als auch rechtlich – ist entscheidend.
Harmonisierung der Regulierung ist notwendig, um Unternehmen nicht zu überfordern.
Wie fließen die Projektergebnisse in den Gesetzgebungsprozess ein?
Die Erkenntnisse werden aktiv eingebracht – beispielsweise durch:
Teilnahme an Normungsgremien
Austausch mit Bundesnetzagentur, BAuA und Ministerien
Empfehlungen für zukünftige Reallabore im Rahmen des AI Acts
Was sollten Unternehmen jetzt konkret tun?
Unternehmen sollten:
Frühzeitig mit der Einstufung ihrer KI-Projekte beginnen
Rechtliche und technische Expertise kombinieren
Dokumentation und Nachweiserbringung strukturiert aufbauen
Unterstützungsangebote wie Reallabore und Beratung nutzen
Bestehende Maschinen und Anwendungen rechtzeitig an die neue Maschinenverordnung anpassen
Wie geht es nach dem Projekt weiter?
Das Fraunhofer IPA setzt die Arbeit fort und bietet weiterhin:
Beratung zu KI-Regulierung
Unterstützung bei Dokumentation, Risikobewertung und Systementwicklung