Für die Beziehungen zwischen Menschen und Künstlicher Intelligenz müssen Regeln gelten: Die EU hat mit dem AI Act nun eine Richtline geschaffen, die den Schutz von Bürgerrechten garantieren soll, ohne die Innovationen im Bereich KI abzuwürgen.

Für die Beziehungen zwischen Menschen und Künstlicher Intelligenz müssen Regeln gelten: Die EU hat mit dem AI Act nun eine Richtline geschaffen, die den Schutz von Bürgerrechten garantieren soll, ohne die Innovationen im Bereich KI abzuwürgen. (Bild: cwiela_CH)

Der EU-Trilog aus Parlament, Kommission und Regierungen hat sich grundsätzlich auf den AI Act geeinigt. Was sind die wesentlichen Punkte und wie würden Sie die Einigung bewerten?

Ivana Bartoletti: Unabhängig von der grundsätzlichen Einigung warten wir noch auf viele technische Details. Was wir sehen, ist eine politische Vereinbarung, die einen Kompromiss zwischen zwei Kräften darstellt: Auf der einen Seite dem Parlament, das sehr stark die Themen Bürgerrechte und Transparenz in den Mittelpunkt gestellt hat. Auf der anderen Seite den Regierungen, die sich aus Gründen der nationalen Sicherheit viele Ausnahmen davon gewünscht haben. Insbesondere in Deutschland und Frankreich gab es auch das Bestreben, durch Ausnahmen von der Regulierung erfolgreiche nationale Unternehmen im Bereich KI zu schützen.

Wurde der AI Act durch diese Kompromissfindung verwässert?

Bartoletti: Nein, das glaube ich nicht. Kompromisse liegen einfach in der Natur der Politik und wichtige Elemente wie der vierstufige Ansatz der Risikoeinordnung von KI sind erhalten geblieben. Auch der stark strittige Einsatz von biometrischer Erkennung und insbesondere der Erfassung von Emotionen wird mit wenigen Ausnahmen einer starken Regulierung unterzogen. Ebenso werden an die Herkunft und Transparenz von Trainingsdaten künftig hohe Ansprüche gestellt. Ich sehe das als einen guten Kompromiss an.

Zur Person: Ivana Bartoletti

Ivana Bartoletti
Ivana Bartoletti (Bild: Wipro)

Ivana Bartoletti ist Global Chief Privacy Officer bei Wipro, einem führenden Unternehmen für Technologiedienstleistungen und Beratung. Sie verfügt über langjährige Erfahrung in der Arbeit für große Unternehmen in den Bereichen Datenschutzpolitik und Strategie sowie mit Programmen zur digitalen Transformation, Cloud und Automatisierung. Außerdem engagiert sie sich unter anderem für Forschung im Bereich Cybersicherheit und als Sprecherin für die UN Women Conference.

Die Presseerklärung des EU-Parlaments spricht im Zusammenhang mit dem AI Act von einem Schub für die Entwicklung von KI und davon, Europa zum führenden Standort dafür zu machen. Ist das realistisch?

Bartoletti: Höre ich da etwa Ironie in der Frage? Natürlich ist es in der EU nie einfach, 27 Mitgliedsstaaten unter einen Hut zu bekommen. Zugleich stellen diese 27 Staaten einen sehr relevanten Wirtschaftsraum dar und einen Verbund, der in Sachen Demokratie und Bürgerrechte ein Vorreiter ist. Es gibt durchaus einen “Brüssel-Effekt”, bei dem andere Staaten nachziehen müssen, wenn sie in der EU Geschäfte machen wollen. Das hat sich zum Beispiel vor einigen Jahren sehr deutlich bei der DSGVO gezeigt.

Bleiben Sie informiert

Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!

In Deutschland wird vom Maschinen- und Anlagenbau ein Übermaß an Regulierung beklagt. Die EU-Maschinenverordnung steht bevor, dazu NIS 2 und der Cyber Resilience Act. Jetzt kommt der AI Act dazu. Was können die Unternehmen an positiven Aspekten daraus ziehen?

Bartoletti: Zunächst eine Klarstellung: Durch den AI Act werden nicht die Methoden der Künstlichen Intelligenz an sich reguliert, sondern es geht um konkrete Produkte mit KI. Produkte oder Komponenten mit KI, die für eine CE-Kennzeichnung einer Konformitätsprüfung unterzogen werden müssen, brauchen dann auch eine Konformitätsprüfung entsprechend des AI Acts. Das ist natürlich ein gewisser Aufwand, aber er gibt den Herstellern auf der anderen Seite ein großes Maß an Rechtssicherheit, von Copyright-Fragen bis zur Produkthaftung, wenn sie ihre Produkte auf den europäischen Markt bringen. Das sollte man nicht unterschätzen.

Um die Entwicklung und Erprobung von KI-basierten Produkten nicht zu hemmen, sieht der AI Act Reallabore (“regulatory sandbox”) vor, in denen vereinfachte Regeln gelten. Ist das ein sinnvolles Vorgehen?

Bartoletti: Zunächst einmal hat man am Beispiel etwa von Singapur gesehen, dass solche regulatory sandboxes sehr gut funktionieren, um Innovationskraft und Bürgerrechte gut unter einen Hut zu bekommen. Insbesondere für kleinere und mittlere Unternehmen werden sie aber nicht ausreichen, um auf Augenhöhe mit Konzernen KI-Lösungen entwickeln zu können. Das ist eine Erfahrung aus der Einführung der Datenschutzgrundverordnung. Deren Umsetzung fiel den großen Unternehmen relativ leicht, für die kleinen und mittleren war es wesentlich schwieriger.

Welche Konsequenz hat die EU in Bezug auf den AI Act daraus gezogen?

Bartoletti: Ein sehr wichtiger Punkt ist meines Erachtens die geplante Schaffung eines European AI Office. Diese Institution soll Unternehmen – hauptsächlich aus dem Mittelstand – mit Informationen und Tools in Sachen KI unterstützten.

Wie kann das konkret aussehen?

Bartoletti: Das European AI Office kann ihnen zum Beispiel synthetische Trainingsdaten für die KI-Entwicklung zur Verfügung stellen, die den Anforderungen des AI Acts entsprechen. Solche Trainingsdaten sind aktuell sehr teuer und daher ein Problem für kleinere Unternehmen.

Die Einigung sieht besondere Verpflichtungen für sogenannte High Risk Systeme mit KI vor. Genannt werden konkret Anwendungen in Bereichen wie dem Finanzwesen. Wie sieht das in der industriellen Fertigung aus?

Bartoletti: Hier gibt es vor allem zwei Konstellationen, in denen Produkte unter die Einstufung als High Risk System fallen können. Einmal, wenn KI-basierte Komponenten bereits Teil einer Maschine sind, die unter besondere Regularien fällt. Ich denke dabei zum Beispiel an medizinische Systeme. Zum anderen werden natürlich auch in der Industrie Systeme, die zum Beispiel über die Besetzung einer Stelle entscheiden und damit grundsätzliche Bürgerrechte berühren, automatisch High Risk Systeme.

Wie können Entwickler von KI-Systemen damit umgehen?

Bartoletti: Es ist eine hoch spannende und hochkomplexe Aufgabe für Ingenieure: Wie lassen sich juristische Anforderungen quasi in Programmcode umsetzen? Leider sprechen Juristen und Ingenieure oft eine völlig unterschiedliche Sprache. Wir werden eine Art Esperanto entwickeln müssen, um diese Hürde zu überwinden.

Automation NEXT Conference 2024

Entdecken Sie die Zukunft der Automatisierung auf der Automation NEXT Conference 2024. Diese bedeutende Veranstaltung, die am 15. und 16. Oktober 2024 im Nestor Hotel Ludwigsburg stattfindet, bringt Branchenexperten zusammen, um über neueste Trends und Technologien in der Automatisierung zu diskutieren.

Die Themenbereiche umfassen Künstliche Intelligenz, Industrie 4.0, Cybersicherheit, Edge Computing, Robotik und nachhaltige Automatisierungslösungen. Die Veranstaltung bietet eine einzigartige Plattform für Wissensaustausch, Netzwerken und Inspiration für Fachleute aus der Automatisierungsbranche.

Für weitere Informationen besuchen Sie bitte Automation NEXT Conference.

Der AI Act fokussiert sich vor allem auf generalistische KI-Modelle. In der Automatisierung sind aber schon seit langem hoch spezialisierte KI-Systeme im Einsatz, zum Beispiel in der Bildauswertung für die Qualitätskontrolle. Inwieweit sind denn solche Spezialanwendungen vom AI Act betroffen?

Bartoletti: Das wird wohl sehr stark von den konkreten Umständen abhängen. Etwa davon, ob diese spezialisierten Systeme Teil einer Maschine sind, die als High Risk eingestuft ist. Ein anderes Kriterium wäre, inwieweit durch diese Systeme menschliche Belange wie die Safety bei der Maschinenbedienung betroffen sind. Aber selbst bei einer niedrigen Risikoeinstufung müssen auch bei den spezialisierten Systemen Transparenzvorschriften eingehalten werden.

Der AI Act soll nach einer Übergangsfrist in zwei Jahren verbindlich gelten. Wie können sich Unternehmen darauf vorbereiten?

Bartoletti: Das Wichtigste ist, dass sie sich erst einmal Klarheit darüber verschaffen, ob und wie stark sie vom AI Act betroffen sind. Es gilt jetzt, abteilungsübergreifende Teams aufzustellen und diese Fragen zu klären. Im Anschluss kann man effiziente Wege finden, um etwa fristgerecht die benötigten Daten und Dokumente bereitzustellen.

Sie möchten gerne weiterlesen?