Künstliche Intelligenz im Militär
Gesellschaft fordert menschliche Kontrolle
Die Bundeswehr beschleunigt Entwicklung und Beschaffung KI-gestützter Systeme. Eine Mehrheit der Bevölkerung unterstützt diesen Kurs, wie eine Umfrage des TÜV-Verbands zeigt. Zugleich sind die Sicherheitsbedenken groß. Der Mensch soll die Hoheit über Entscheidungen behalten.
Drohnen sind in der modernen Kriegsführung mittlerweile weit verbreitet.
(Bild: stock.adobe.dom - OMIA)
Die Bundeswehr beschleunigt ihre Beschaffung und investiert verstärkt in moderne Waffensysteme. Dazu gehören unter anderem Kampf- und Aufklärungsdrohnen, die mit Hilfe von Künstlicher Intelligenz (KI) weitgehend autonom agieren können. Eine große Mehrheit in Bevölkerung befürwortet diesen Kurs. Vier von fünf Bundesbürger:innen (81 Prozent) finden es grundsätzlich sinnvoll, dass die Bundeswehr stärker in die Entwicklung militärischer KI-Technologien wie Drohnen, Roboter oder autonome Fahrzeuge investiert. 11 Prozent lehnen das ab und 8 Prozent sind unentschieden. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.005 Personen ab 16 Jahren ergeben.
„Die Bürgerinnen und Bürger erkennen, dass neue Technologien auch die sicherheitspolitische Lage verändern“, erklärt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Moderne Streitkräfte kommen an modernen Verteidigungssystemen mit Künstlicher Intelligenz nicht vorbei. Entscheidend ist, dass die Politik für ihren Einsatz klare Leitplanken definiert.“ Die aktuelle Umfrage des TÜV-Verbands zeigt: Eine klare Mehrheit unterstützt zwar eine technologisch zeitgemäße Ausstattung, fordert aber klare Grenzen bei autonomen Waffensystemen.
Sorge
vor Fehlentscheidungen und Eskalation
Laut den Ergebnissen der
Umfrage des TÜV-Verbands fürchten zwei Drittel der Befragten (67 Prozent)
Fehlentscheidungen autonomer Systeme, beispielsweise durch falsche
Zielerkennung. 64 Prozent sehen die Gefahr, dass der Mensch die Kontrolle über
KI-gesteuerte Waffensysteme verlieren könnte. 63 Prozent haben Sorgen vor
wachsenden Spannungen durch ein internationales Wettrüsten mit KI-Technologien
und 61 Prozent halten ungewollte Eskalationen oder eine Ausweitung von
Konflikten für ein realistisches Risiko.
„Die
Bevölkerung sieht beim militärischen Einsatz von KI nicht nur Effizienz- und
Verteidigungspotenziale, sondern auch erhebliche Risiken“, so Bühler. „Gerade
bei autonomen Systemen fürchten die Befragten einen Kontrollverlust, der zur
Entstehung oder Ausweitung militärischer Konflikte führen kann.“
Autonome
KI-Systeme nur mit menschlicher Kontrolle
Im Zentrum der
Debatte steht die Frage, wer über den Einsatz von Waffengewalt im
Verteidigungsfall entscheidet: Der Mensch oder das KI-System. Vier von zehn
Befragten (40 Prozent) sprechen sich für eine vollständige menschliche
Kontrolle aus, jede einzelne Entscheidung eines KI-Systems müsse überprüft
werden. Immerhin 41 Prozent befürworten den Einsatz teilautonomer Systeme.
Diese Waffensysteme erstellen Analysen, machen Vorschläge und treffen
eigenständig Entscheidungen, Menschen können aber jederzeit eingreifen.
Vollautonome Systeme ohne menschliche Kontrolle finden mit nur 1 Prozent
Zustimmung praktisch keine Akzeptanz bei den Befragten. Insgesamt verlangen
damit 81 Prozent eine klare menschliche Letztverantwortung. Fast jede:r achte
Befragte (12 Prozent) lehnt es grundsätzlich ab, KI-Systemen
Entscheidungsbefugnisse über den Einsatz von Waffengewalt einzuräumen.
Internationale
Verhandlungen über Regeln für autonome Waffensysteme
Während sich
der Einsatz KI-gestützter Waffensysteme bei militärischen Konflikten immer mehr
zum Standard entwickelt, wird in internationalen UN-Gremien über verbindliche
Regeln bis hin zu einem Verbot diskutiert. Bisher konnten sich die Länder im
Rahmen der UN-Waffenkonvention aber nicht auf einheitliche Regelungen einigen.
Auch beim jüngsten AI Summit in Indien wurde über den Einsatz von KI im Militär
diskutiert. Der europäische AI Act fokussiert sich auf zivile Anwendungen und
klammert KI-Systeme aus, die ausschließlich für militärische,
verteidigungspolitische oder die nationale Sicherheit betreffende Zwecke
genutzt werden.
Allerdings sind viele KI-Systeme dual-use-fähig und können
sowohl zivil als auch militärisch genutzt werden. In diesem Fall greift der AI
Act. „Der AI Act adressiert auch die technische Sicherheit von KI-Systemen.
Themen wie Qualität der Trainingsdaten, menschliche Aufsicht oder
Nachvollzieharbeit von Entscheidungen, sind sowohl für zivile als auch für
militärische KI-Anwendungen essenziell“, erklärt Bühler. Im Kern müsse es darum
gehen, auf allen Ebenen einen verantwortungsvollen Umgang mit
sicherheitskritischen Technologien zu finden. Bühler: „Verteidigungsfähigkeit
bedeutet nicht, Maschinen die Entscheidung über Leben und Tod zu überlassen.
Sie bedeutet, Technologie so zu gestalten, dass sie unsere Sicherheit stärkt,
ohne die menschliche Hoheit aufzugeben.“
FAQ: KI-Systeme in der Bundeswehr
1. Warum investiert die Bundeswehr verstärkt in KI-gestützte Systeme?
Die Bundeswehr setzt zunehmend auf moderne Technologien wie Drohnen, Roboter und autonome Fahrzeuge, um auf neue sicherheitspolitische Bedrohungen vorbereitet zu sein. Künstliche Intelligenz ermöglicht es, komplexe Situationen schneller zu analysieren, Entscheidungen zu unterstützen und militärische Prozesse effizienter zu gestalten. Eine repräsentative Umfrage des TÜV-Verbands zeigt, dass 81 Prozent der Bevölkerung diese Entwicklung grundsätzlich befürworten.
2. Welche Bedenken hat die Bevölkerung gegenüber militärischer KI?
Trotz breiter Zustimmung gibt es große Sorgen: 67 Prozent fürchten Fehlentscheidungen autonomer Systeme, 64 Prozent sehen die Gefahr eines Kontrollverlusts. Zudem warnen viele vor einem internationalen Wettrüsten und der Eskalation von Konflikten durch den Einsatz autonomer Waffen. Die Mehrheit fordert daher strikte Kontrolle und Regulierung.
3. Wie soll die Entscheidungsgewalt bei KI-Waffensystemen geregelt sein?
Laut Umfrage sprechen sich 81 Prozent für eine klare menschliche Kontrolle aus. 40 Prozent fordern, dass jede Entscheidung von KI-Systemen geprüft werden muss. Weitere 41 Prozent akzeptieren teilautonome Systeme mit menschlicher Eingriffsmöglichkeit. Nur 1 Prozent befürwortet vollautonome Waffen ohne menschliche Kontrolle.
4. Gibt es internationale Regeln für den Einsatz autonomer Waffen?
Derzeit laufen internationale Diskussionen, unter anderem bei den Vereinten Nationen, über Regeln und mögliche Verbote für autonome Waffensysteme. Eine Einigung wurde bislang nicht erzielt. In der EU fokussiert sich der AI Act auf zivile Anwendungen, schließt militärische Systeme aber aus – es sei denn, sie sind auch zivil nutzbar (Dual-Use). Dann greifen auch hier strenge Vorgaben zu Sicherheit und Transparenz.