zum Hauptinhalt
Kampfmaschinen. Killerroboter sind eine Form von autonomen Waffen, selbst denkende und tötende Drohnen eine andere.
© Imago/Science Photo Library

Töten ohne menschliche Kontrolle: Warum autonome Waffen verboten werden sollten

Die Risiken für Kriege mit autonomen Waffen sind für Menschen nicht beherrschbar. Höchste Zeit also, sie präventiv zu verbieten. Ein Kommentar.

Ein Kommentar von Friedhard Teuffel

Vielleicht sind ja Science- Fiction-Filme schuld. Weil die meisten gut ausgehen. Am Ende schaffen es menschliche Superhelden doch irgendwie, die Bedrohung zu besiegen, seien es mehrköpfige Außerirdische oder Armeen von hochtechnisierten Killerrobotern. Das hat etwas Beruhigendes. Und gleichzeitig etwas Naives. Denn gerade basteln Menschen an ihrer eigenen Bedrohung – ohne dass eine breite Öffentlichkeit darüber diskutieren würde. Sie entwickeln im Auftrag von Regierungen autonome Waffen. Aber woher kommt bitte schön die Zuversicht dieser Regierungen, dass auch hier am Ende alles gut wird? Wenn autonome Waffen weltweit einsatzbereit sind und in Serie produziert werden?

Autonome Waffen finden ihre Ziele alleine und zerstören sie, ohne dass Menschen daran noch beteiligt sind. Künstliche Intelligenz macht Drohnen und Raketen zu eigenständigen Tötungsmaschinen. Das hat noch nicht zu großer Aufregung geführt. Erst 22 Länder setzen sich für ein präventives Verbot ein. Im Koalitionsvertrag von 2013 hatten Union und SPD formuliert, Deutschland werde sich „für eine völkerrechtliche Ächtung voll automatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen“. Zuletzt sah die deutsche Position erst mal weiteres Verhandeln und Diskutieren in Expertengruppen vor. Andere Länder wie die USA, China, Russland oder Israel forschen an der militärischen Nutzung künstlicher Intelligenz munter weiter und scheinen gar kein Interesse zu haben, daran etwas zu ändern. Sie wollen ihren Vorsprung nicht aus der Hand geben.

"Die Kalaschnikows von morgen"

Manche werfen schon mit Blendgranaten um sich: Autonome Waffen könnten doch die Opfer reduzieren. Schließlich werden dann keine Menschen mehr als Soldaten in den Krieg geschickt. Maschinen kämpfen gegen Maschinen, und die Menschen leben nebenher unbehelligt weiter. Wer will das glauben? Und überhaupt: Muss man es wirklich darauf ankommen lassen?

Vertrauen sollte man dafür den Forschern der künstlichen Intelligenz. Denn wer sich auf diesem Gebiet einen Namen gemacht hat, hat sich in der Regel längst einer der Organisationen oder Aufrufe angeschlossen, um tötende autonome Waffen zu verbieten. In einem offenen Brief haben Experten wie Stuart Russell von der Universität Berkeley und Max Tegmark vom Massachusetts Institute of Technology schon 2015 auf ein drohendes globales Wettrüsten hingewiesen: „Autonome Waffen werden die Kalaschnikows von morgen sein.“ Dann sei es nur eine Frage der Zeit, bis sie auf dem Schwarzmarkt auftauchen und Terroristen zur Verfügung stehen. „Diktatoren könnten ihr Volk besser kontrollieren und Warlords ethnische Säuberungen durchführen.“ Was passiert zudem, wenn zwei autonome Waffensysteme gegeneinander kämpfen? Einmal in Masse produziert, werde eine menschenunabhängig tötende Drohne für den Preis eines Mobiltelefons zu erhalten sein, schreibt Tegmark in seinem Buch „Leben 3.0“. Gehackt werden könnten die Killerwaffen natürlich auch.

Autonome Waffen sind ein unkalkulierbares Risiko. Weil es unendlich viele Szenarien gibt, können diese Waffen gar nicht auf alle eingestellt werden. Kämpfe mit autonomen Waffen werden Kämpfe außerhalb menschlicher Kontrolle. Denn die künstliche Intelligenz wird schneller sein als alles Menschenmögliche.

Verhandlungen im Rahmen der UN-Konvention

Auf autonome Waffen zu verzichten, bedeutet keineswegs, sich Fortschritt entgehen zu lassen. Wissenschaftler wollen künstliche Intelligenz ausreizen – aber um Menschen zu schützen, nicht um sie zu töten. Ihre Forschung rast voran – die politische Debatte schleicht hinterher und droht den Sichtkontakt zu verlieren. Einen formalen Rahmen für Verhandlungen gibt es, die UN-Konvention über bestimmte konventionelle Waffen (CCW). Aber die Verhandlungen ziehen sich. Schon 2017 sei diplomatisch ein verlorenes Jahr gewesen, bemängelt die Kampagne Stop Killerrobots, in der sich 60 NGOs engagieren, unter anderem Human Rights Watch.

Die politische Diskussion kann eigentlich gar nicht schnell genug vorangehen. Mit einer verbindlichen Klärung darüber, was an den möglichen Killersubjekten verboten werden soll, wie dieses Verbot durchgesetzt werden kann, wie Verstöße zu sanktionieren sind. Doch dazu braucht es eine Menge Ehrgeiz. Denn es ist schwer, für etwas Gehör zu finden, das bisher nur in animierten Filmen der Waffengegner zu sehen ist. Diese Filme sind anders als Science- Fiction-Streifen: Sie fangen harmlos an und gehen furchtbar aus.

Zur Startseite