Künstliche Intelligenz im Militär

Gesellschaft fordert menschliche Kontrolle

Die Bundeswehr beschleunigt Entwicklung und Beschaffung KI-gestützter Systeme. Eine Mehrheit der Bevölkerung unterstützt diesen Kurs, wie eine Umfrage des TÜV-Verbands zeigt. Zugleich sind die Sicherheitsbedenken groß. Der Mensch soll die Hoheit über Entscheidungen behalten.

2 min
Drohnen sind in der modernen Kriegsführung mittlerweile weit verbreitet.

Die Bundeswehr beschleunigt ihre Beschaffung und investiert verstärkt in moderne Waffensysteme. Dazu gehören unter anderem Kampf- und Aufklärungsdrohnen, die mit Hilfe von Künstlicher Intelligenz (KI) weitgehend autonom agieren können. Eine große Mehrheit in Bevölkerung befürwortet diesen Kurs. Vier von fünf Bundesbürger:innen (81 Prozent) finden es grundsätzlich sinnvoll, dass die Bundeswehr stärker in die Entwicklung militärischer KI-Technologien wie Drohnen, Roboter oder autonome Fahrzeuge investiert. 11 Prozent lehnen das ab und 8 Prozent sind unentschieden. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.005 Personen ab 16 Jahren ergeben.

„Die Bürgerinnen und Bürger erkennen, dass neue Technologien auch die sicherheitspolitische Lage verändern“, erklärt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Moderne Streitkräfte kommen an modernen Verteidigungssystemen mit Künstlicher Intelligenz nicht vorbei. Entscheidend ist, dass die Politik für ihren Einsatz klare Leitplanken definiert.“ Die aktuelle Umfrage des TÜV-Verbands zeigt: Eine klare Mehrheit unterstützt zwar eine technologisch zeitgemäße Ausstattung, fordert aber klare Grenzen bei autonomen Waffensystemen.

Sorge vor Fehlentscheidungen und Eskalation

Laut den Ergebnissen der Umfrage des TÜV-Verbands fürchten zwei Drittel der Befragten (67 Prozent) Fehlentscheidungen autonomer Systeme, beispielsweise durch falsche Zielerkennung. 64 Prozent sehen die Gefahr, dass der Mensch die Kontrolle über KI-gesteuerte Waffensysteme verlieren könnte. 63 Prozent haben Sorgen vor wachsenden Spannungen durch ein internationales Wettrüsten mit KI-Technologien und 61 Prozent halten ungewollte Eskalationen oder eine Ausweitung von Konflikten für ein realistisches Risiko.

„Die Bevölkerung sieht beim militärischen Einsatz von KI nicht nur Effizienz- und Verteidigungspotenziale, sondern auch erhebliche Risiken“, so Bühler. „Gerade bei autonomen Systemen fürchten die Befragten einen Kontrollverlust, der zur Entstehung oder Ausweitung militärischer Konflikte führen kann.“

Autonome KI-Systeme nur mit menschlicher Kontrolle

Im Zentrum der Debatte steht die Frage, wer über den Einsatz von Waffengewalt im Verteidigungsfall entscheidet: Der Mensch oder das KI-System. Vier von zehn Befragten (40 Prozent) sprechen sich für eine vollständige menschliche Kontrolle aus, jede einzelne Entscheidung eines KI-Systems müsse überprüft werden. Immerhin 41 Prozent befürworten den Einsatz teilautonomer Systeme. Diese Waffensysteme erstellen Analysen, machen Vorschläge und treffen eigenständig Entscheidungen, Menschen können aber jederzeit eingreifen. Vollautonome Systeme ohne menschliche Kontrolle finden mit nur 1 Prozent Zustimmung praktisch keine Akzeptanz bei den Befragten. Insgesamt verlangen damit 81 Prozent eine klare menschliche Letztverantwortung. Fast jede:r achte Befragte (12 Prozent) lehnt es grundsätzlich ab, KI-Systemen Entscheidungsbefugnisse über den Einsatz von Waffengewalt einzuräumen.

Internationale Verhandlungen über Regeln für autonome Waffensysteme

Während sich der Einsatz KI-gestützter Waffensysteme bei militärischen Konflikten immer mehr zum Standard entwickelt, wird in internationalen UN-Gremien über verbindliche Regeln bis hin zu einem Verbot diskutiert. Bisher konnten sich die Länder im Rahmen der UN-Waffenkonvention aber nicht auf einheitliche Regelungen einigen. Auch beim jüngsten AI Summit in Indien wurde über den Einsatz von KI im Militär diskutiert. Der europäische AI Act fokussiert sich auf zivile Anwendungen und klammert KI-Systeme aus, die ausschließlich für militärische, verteidigungspolitische oder die nationale Sicherheit betreffende Zwecke genutzt werden.

Allerdings sind viele KI-Systeme dual-use-fähig und können sowohl zivil als auch militärisch genutzt werden. In diesem Fall greift der AI Act. „Der AI Act adressiert auch die technische Sicherheit von KI-Systemen. Themen wie Qualität der Trainingsdaten, menschliche Aufsicht oder Nachvollzieharbeit von Entscheidungen, sind sowohl für zivile als auch für militärische KI-Anwendungen essenziell“, erklärt Bühler. Im Kern müsse es darum gehen, auf allen Ebenen einen verantwortungsvollen Umgang mit sicherheitskritischen Technologien zu finden. Bühler: „Verteidigungsfähigkeit bedeutet nicht, Maschinen die Entscheidung über Leben und Tod zu überlassen. Sie bedeutet, Technologie so zu gestalten, dass sie unsere Sicherheit stärkt, ohne die menschliche Hoheit aufzugeben.“

FAQ: KI-Systeme in der Bundeswehr

1. Warum investiert die Bundeswehr verstärkt in KI-gestützte Systeme?
Die Bundeswehr setzt zunehmend auf moderne Technologien wie Drohnen, Roboter und autonome Fahrzeuge, um auf neue sicherheitspolitische Bedrohungen vorbereitet zu sein. Künstliche Intelligenz ermöglicht es, komplexe Situationen schneller zu analysieren, Entscheidungen zu unterstützen und militärische Prozesse effizienter zu gestalten. Eine repräsentative Umfrage des TÜV-Verbands zeigt, dass 81 Prozent der Bevölkerung diese Entwicklung grundsätzlich befürworten.

2. Welche Bedenken hat die Bevölkerung gegenüber militärischer KI? 
Trotz breiter Zustimmung gibt es große Sorgen: 67 Prozent fürchten Fehlentscheidungen autonomer Systeme, 64 Prozent sehen die Gefahr eines Kontrollverlusts. Zudem warnen viele vor einem internationalen Wettrüsten und der Eskalation von Konflikten durch den Einsatz autonomer Waffen. Die Mehrheit fordert daher strikte Kontrolle und Regulierung.

3. Wie soll die Entscheidungsgewalt bei KI-Waffensystemen geregelt sein?
Laut Umfrage sprechen sich 81 Prozent für eine klare menschliche Kontrolle aus. 40 Prozent fordern, dass jede Entscheidung von KI-Systemen geprüft werden muss. Weitere 41 Prozent akzeptieren teilautonome Systeme mit menschlicher Eingriffsmöglichkeit. Nur 1 Prozent befürwortet vollautonome Waffen ohne menschliche Kontrolle.

4. Gibt es internationale Regeln für den Einsatz autonomer Waffen?
Derzeit laufen internationale Diskussionen, unter anderem bei den Vereinten Nationen, über Regeln und mögliche Verbote für autonome Waffensysteme. Eine Einigung wurde bislang nicht erzielt. In der EU fokussiert sich der AI Act auf zivile Anwendungen, schließt militärische Systeme aber aus – es sei denn, sie sind auch zivil nutzbar (Dual-Use). Dann greifen auch hier strenge Vorgaben zu Sicherheit und Transparenz.