- KI bietet Unternehmen die Chance, die Effizienz der Produktion zu steigern.
- Dr. Lukas Höhndorf mahnt aber zu einer angepassten Absicherung der KI.
- Durch Inkrafttreten des europäischen AI Act beginnen die entsprechenden Übergangsfristen.
Künstliche Intelligenz gilt als großer Innovationstreiber. Welches Potenzial bieten KI-basierte Systeme in der Fertigung?
Lukas Höhndorf: KI-Systeme kommen zur Anwendung, wenn der betrachtete Prozess zu komplex ist, als dass er sich durch ‚traditionelle Methoden‘ oder konventionelle Programmierung behandeln lässt. KI-Systeme sind sehr mächtige Werkzeuge und in vielen Fällen eine Verkettung von einer Vielzahl an Rechenoperationen – zum Beispiel abgebildet durch künstliche Neuronen, die dem menschlichen Gehirn nachempfunden sind. Damit lässt sich beispielsweise der Ablauf einer Produktion um ein Vielfaches effizienter gestalten.
Wo liegt der Unterschied zu klassischer Software?
Höhndorf: Anstelle von konventioneller Software werden bei KI lernende Verfahren eingesetzt, sei es aus vorhandenen Daten oder über die Interaktion mit Systemen. Das kann real geschehen oder mithilfe einer Simulation. Die Komplexität der Aufgabe überträgt sich letztlich auch auf das KI-System und eine Erklärbarkeit und Nachvollziehbarkeit der KI durch eine Person ist sehr herausfordernd. Was heißt das für den Einsatz von KI in der Fertigung? Höhndorf: Um ein KI-System in einem sicherheitskritischen Anwendungsfall wie der Fertigung einzusetzen, muss es entsprechend abgesichert werden. Es darf keine Gefahr für Leib und Leben von der Technologie ausgehen. Es ist wichtig zu erwähnen, dass traditionelle Techniken zur Absicherung, zum Beispiel von herkömmlichen Systemen oder traditioneller Software, dadurch nicht obsolet werden, sondern ergänzend notwendig bleiben. Allgemeine Aspekte wie Anforderungsmanagement, Verifizierung und Validierung, Simulationen und Simulationsumgebungen spielen also auch für KI-Systeme eine wichtige Rolle.
Aber das allein reicht nicht aus?
Höhndorf: Nein. Diese Absicherungstechniken müssen für KI-Systeme in vielen Fällen mit neuen oder zusätzlichen Anforderungen erweitert oder angepasst werden. Was das für Techniken sind, ist auch abhängig von der Disziplin und der jeweiligen Kritikalität der Anwendung – wie etwa der Luftfahrt, der Automobilbranche oder der Raumfahrt. Ein zentraler Ausgangspunkt ist eine für das jeweilige System und Anwendung durchgeführte Risikoanalyse, wie es ja auch im europäischen AI Act erkennbar ist.
Wie weit ist die technologische Entwicklung zur KI-Absicherung aktuell?
Höhndorf: Aus meiner Sicht ist die Komplexität – und dadurch die nicht mehr vollständig spezifizierbaren Einsatzumgebungen von KI-Systemen – die größte Herausforderung für die Absicherung. Viele KI-Systeme basieren auf einem zugrundeliegenden Datensatz und sind eng mit diesem verknüpft. In diesen Fällen ist neben dem KI-System auch dieser Datensatz hinsichtlich definierter Kriterien zu überprüfen. Hervorzuheben ist auch noch die zentrale Rolle der Quantifizierung von Unsicherheiten in KI-Systemen für viele Anwendungsfälle. Für diese Thematik in Bezug auf das maschinelle Lernen wurde kürzlich die von der IABG initiierte DIN SPEC 92005 veröffentlicht. Bei der IABG entwickeln wir Lösungen für die Evaluierung und Prüfung KI-basierter Systeme. Mit unseren safeAI-Lösungen fokussieren wir uns aktuell auf Analysen bezüglich Datasets, Performance, Uncertainty, Robustness und Explainability.
Bleiben Sie informiert
Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!
Eignen sich diese Absicherungsmaßnahmen für alle Anwendungsfälle gleichermaßen?
Höhndorf: Die Frage, welche der Herangehensweisen sich generisch beschreiben lassen oder sektorspezifisch zu behandeln sind, ist aktuell auch eines der zentralen Themen im europäischen Normungsgremium CENCENELEC JTC 21, welches die Entwicklung der technischen Standards in Bezug auf den AI Act übernommen hat. Natürlich gibt es auch in verschiedenen Sektoren diverse Aktivitäten zum Thema KI-Absicherung und auf eine geeignete Koordinierung zwischen diesen generischen und den sektorspezifischen Aktivitäten ist genau zu achten, um Überregulierung zu verhindern.
Wo stößt das Thema SafeAI noch an seine Grenzen?
Höhndorf: Zum einen gibt es technologische Herausforderungen, da die Entwicklung von KI-Systemen sehr zügig voranschreitet und sich dadurch auch deren Absicherungskonzepte stetig weiterentwickeln und anpassen müssen. Zum anderen ergeben sich aus den zugrundeliegenden Regularien und Standards neue Aufgaben. In Europa erzeugt der AI Act zurecht sehr hohe Aufmerksamkeit. Durch das Inkrafttreten des Gesetzestextes beginnen die entsprechenden Übergangsfristen. Aktuell wird im dazugehörigen Gremium unter Hochdruck an den damit einhergehenden technischen Standards gearbeitet – wobei sich diese in einigen Fällen noch in einem frühen Stadium befinden
Dann bleibt der Mensch also noch eine notwendige Kontrollinstanz?
Höhndorf: ‚Human oversight‘ ist einer der zentralen Aspekte des AI Acts für Hochrisiko-KI-Systeme. Bei den veröffentlichten Standardization Requests (SR) der Europäischen Kommission an CEN-CENELEC JTC 21 gibt es ebenfalls einen speziellen Request zu diesem Thema. Für den spezifischen Anwendungsfall wird es wieder sehr auf Faktoren wie Systemund Performance-Anforderungen, Kritikalität, Komplexität der Einsatzumgebungen und viele weitere ankommen.
Was raten Sie Industrieunternehmen, die sich für KI-Systeme interessieren, aber nicht wissen, wie sie den Faktor Safety sicherstellen können?
Höhndorf: Aus meiner Sicht ist es wichtig, grundsätzlich offen gegenüber Veränderungen zu sein. KI-Systeme werden weite Teile der deutschen Industrielandschaft vor tiefgreifende Veränderungen stellen. Gleichzeitig schreitet die Entwicklung der Technologie rasant fort, was Unternehmen vor zusätzliche Herausforderungen stellt. Angesichts dessen rate ich Unternehmen, sich frühzeitig mit einer möglichen Anpassung des Portfolios zu beschäftigen. Außerdem ist es hilfreich, sich mit möglichen Partnern auf Konferenzen oder in Standardisierungsgremien zu vernetzen, zum Beispiel bei DIN und DKE. Darüber hinaus bieten Verbände wie Bitkom oder Initiativen wie appliedAI entsprechende Unterstützungen an.
Wie wird sich das Thema SafeAI entwickeln?
Höhndorf: KI ist ein bestimmendes Thema und wird es auch bleiben. Für den Einsatz in sicherheitskritischen Systemen werden notwendigerweise auch die Funktionalitäten zur Absicherung von KI weiterentwickelt werden müssen. Ich erwarte hier auf jeden Fall einen Fortschritt bei den Absicherungsmethodiken. Ebenso wird die Weiterentwicklung der technischen Standards, insbesondere zur Vertrauenswürdigkeit von KI, voranschreiten und es wird mehr Anwendungsfälle KI-basierter Systeme geben.