Neues Whitepaper vom TÜV Rheinland

KI-Systeme effektiv absichern

Anforderungen an IT-Sicherheit steigen durch Large Language Models.
Anforderungen an IT-Sicherheit steigen durch Large Language Models.

Große Sprachmodelle versprechen Effizienz – doch hinter der glänzenden Fassade lauern neue Sicherheitslücken. Ein Whitepaper von TÜV Rheinland zeigt, wie Unternehmen sich vor KI-Risiken schützen können.

Generative Künstliche Intelligenz (KI) revolutioniert nicht nur zahlreiche Branchen, sie schafft auch neue Angriffsflächen und sicherheitstechnische Herausforderungen – etwa, wenn Unternehmen große Sprachmodelle in Chatbots, Assistenzsystemen oder automatisierten Entscheidungsprozessen einsetzen.

Doch welche spezifischen Risiken entstehen bei der Nutzung von Large Language Models (LLMs)? Darauf geht TÜV Rheinland in seinem aktuellen Whitepaper „Ist Ihr KI-System sicher?“ ein. Zudem zeigen die Cybersecurity-Fachleute, wie Unternehmen ihre KI-Anwendungen effektiv absichern können.

Bleiben Sie informiert

Newsletter ANX

Diese Themen interessieren Sie? Mit unserem Automation-NEXT-Newsletter sind Sie immer auf dem Laufenden.

Gleich anmelden!

Angriffe durch manipulierte Eingaben und Trainingsdaten möglich

Das Whitepaper beschreibt, wie KI-Systeme angegriffen werden können. Ein Beispiel sind sogenannte Prompt Injections, bei denen Angreifer mit ihrer Eingabe das Modell manipulieren, damit es sich unvorhersehbar verhält oder Informationen preisgibt – und zwar solche, die nicht zugänglich sein sollten. Weitere Risiken sind der unsichere Umgang mit den Ergebnissen der generativen KI – etwa, indem Nutzer nicht validierte Codes ausführen – und die Manipulation von Trainingsdaten durch einen Angreifer.

Sowohl Angriffe als auch der falsche Umgang mit KI-Ergebnissen können fatale Folgen haben: von Datenlecks über fehlerhafte Entscheidungen bis hin zu wirtschaftlichen Schäden. Daher ist ein systematisches Risikomanagement für Unternehmen unerlässlich – nicht zuletzt fordern dies auch zunehmend Regulierungen wie der EU AI Act. „Unternehmen müssen ihre Sicherheitskonzepte anpassen, um den Risiken von KI-Systemen gerecht zu werden“, erklärt Daniel Hanke, Experte für KI-Sicherheit bei TÜV Rheinland.

Automation NEXT Conference

Automation NEXT Conference

Entdecken Sie die Zukunft der Automatisierung auf der Automation NEXT Conference. Diese Veranstaltung bringt Branchenexperten zusammen, um über neueste Trends und Technologien in der Automatisierung zu diskutieren.

Die Themenbereiche umfassen Künstliche Intelligenz, Industrie 4.0, Cybersicherheit, Edge Computing, Robotik und nachhaltige Automatisierungslösungen. Die Veranstaltung bietet eine einzigartige Plattform für Wissensaustausch, Netzwerken und Inspiration für Fachleute aus der Automatisierungsbranche.

Interessiert? Dann melden Sie sich gleich an! Hier gibt es weitere Informationen Automation NEXT Conference.

Penetration Testing als Schlüssel zur KI-Sicherheit

Eine der wirksamsten Maßnahmen, um Bedrohungen frühzeitig zu erkennen und Schwachstellen zu schließen, ist das Penetration Testing (Pentest): Im kontrollierten Rahmen simulieren Fachleute dabei Angriffe auf KI-Systeme, um potenzielle Schwachstellen zu identifizieren und zu beheben. Methoden wie Black-Box- und Gray-Box-Tests werden dabei an die Anforderungen von generativer KI angepasst.

„KI-Systeme sind komplex und intransparent. Das erfordert neue Testansätze. Durch regelmäßige Penetration Tests können Unternehmen ihre Systeme widerstandsfähig machen und somit regulatorische Vorgaben erfüllen. Außerdem stärken sie so das Vertrauen von Partnern und Kunden“, so Hanke weiter.

Generative KI: Innovationskraft mit Verantwortung

TÜV Rheinland unterstützt Unternehmen umfassend beim sicheren Einsatz von KI – von der Durchführung professioneller Penetration Tests über datenbasierte Risikoanalysen bis hin zur Zertifizierung nach international gültigen Standards wie der ISO 42001.

„Wer die Chancen generativer KI nutzen will, muss ihrer Sicherheit oberste Priorität einräumen. So lässt sich das Potenzial dieser Technologien verantwortungsvoll erschließen“, betont KI-Experte Daniel Hanke.

(Quelle: TÜV Rheinland)

FAQ: Sicherheit für KI-Systeme mit LLMs

1. Welche Risiken entstehen durch den Einsatz von Large Language Models (LLMs)?
LLMs können durch sogenannte Prompt Injections manipuliert werden, wodurch sie vertrauliche Informationen preisgeben oder unerwartetes Verhalten zeigen. Zudem besteht die Gefahr, dass fehlerhafte oder manipulierte Trainingsdaten das System langfristig verfälschen. Auch die ungeprüfte Nutzung generierter Inhalte – etwa von Code – kann erhebliche Sicherheitsrisiken verursachen.

2. Was ist Prompt Injection und wie funktioniert diese Angriffsmethode?
Prompt Injection ist eine Technik, bei der Angreifer gezielt Eingaben formulieren, um die Ausgabe eines LLM zu manipulieren. Das Modell kann dadurch Informationen preisgeben, die eigentlich geschützt sein sollten, oder Handlungen durchführen, die nicht im Sinne der ursprünglichen Programmierung liegen.

3. Wie kann Penetration Testing zur Absicherung von KI-Systemen beitragen?
Penetration Tests simulieren gezielte Angriffe unter kontrollierten Bedingungen, um Schwachstellen aufzudecken. Besonders bei KI-Systemen kommen angepasste Testmethoden wie Black-Box- oder Gray-Box-Ansätze zum Einsatz, da LLMs komplex und intransparent sind. So lassen sich Systeme gezielt härten und regulatorische Anforderungen erfüllen.

4. Welche Rolle spielt der EU AI Act im Kontext von KI-Sicherheit?
Der EU AI Act erhöht den Druck auf Unternehmen, systematisches Risikomanagement für KI-Systeme einzuführen. Er verpflichtet zur Dokumentation und zum Nachweis sicherer Anwendungen, was Sicherheitskonzepte wie Penetration Testing zu einer regulatorischen Notwendigkeit macht.

5. Welche Maßnahmen empfiehlt TÜV Rheinland für den sicheren Umgang mit generativer KI?
Empfohlen werden regelmäßige Penetration Tests, der gezielte Schutz vor manipulierten Eingaben, die Validierung aller KI-Ausgaben, transparente und vertrauenswürdige Trainingsdaten sowie die Sensibilisierung der Mitarbeitenden. Zudem wird eine Zertifizierung nach ISO 42001 als vertrauensbildende Maßnahme genannt.