zum Hauptinhalt
Der erste seiner Art: Polizeiroboter in Dubai.
© AFP

Killerroboter & Co.: Wie gefährlich ist Künstliche Intelligenz?

Experten warnen vor Killerrobotern und allmächtigen Algorithmen. Obwohl vieles immer noch Science Fiction ist, berät auch die UN über autonome Waffen.

Statt Füßen hat er Rollen, er ist so groß wie ein ausgewachsener Mann. Die grüne Brust und die Polizistenmütze verraten, dass er ein Polizeiroboter ist. Seit Mai setzt die Polizei in Dubai als erste Stadt weltweit „Robocops“ ein. Sie erkennen aus einer Distanz von 20 Metern Gesichter, durch einen Touchscreen auf ihrer Brust kann jeder Verbrechen an die Polizei melden. Über ein Mikrofon können Menschen direkt mit der Polizeizentrale sprechen. Die Kommunikation durch die Roboter ist in mehreren Sprachen möglich. Bis 2030 soll ein Viertel der Polizisten in Dubai aus Robotern bestehen.

Stephen Hawking warnt vor Gefahren

Noch ist das Zukunftsmusik: Die Gesten der Polizeiroboter stocken und sehen maschinenartig aus. Doch je weiter die Technik voranschreitet, desto mehr wächst auch die Skepsis und Angst vor Maschinen, die deutlich stärker als Menschen sind. Insbesondere über die Gefahren von Künstlicher Intelligenz (KI) tobt seit einiger Zeit eine heftige Debatte. „KI wird entweder das Beste sein, was der Menschheit jemals widerfahren ist – oder das Schlimmste“, erklärte beispielsweise Stephen Hawking gerade den 60 000 Besuchern des Web Summit in Lissabon, einer der größten Technologie-Konferenzen in Europa.

Bislang wird in der breiten Öffentlichkeit vor allem über die Gefahren durch eine weitere Automatisierung diskutiert. Selbstfahrende Autos, Pflegeroboter und Algorithmen, die sogar Anwälten die Arbeit abnehmen. Die Oxford- Wissenschaftler Carl Benedikt Frey und Michael Osborne prognostizieren, dass in den kommenden ein, zwei Jahrzehnten fast die Hälfte aller Jobs in den USA von der Automatisierung bedroht seien. Wenn insbesondere die Tätigkeiten wegfallen, die bislang auch Menschen mit geringer Ausbildung noch zahlreiche Arbeitsplätze bieten, wie beispielsweise Taxi- und Lkw-Fahrer, könnte dies zu enormen gesellschaftlichen Verwerfungen führen. Bill Gates sprach sich daher schon für eine Robotersteuer aus, und auch die Diskussionen um ein Grundeinkommen werden dadurch befeuert.

Doch die Befürchtungen von Hawking und anderen gehen noch viel weiter. „Wir können nicht vorhersehen, was geschieht, wenn wir den menschlichen Geist mit der KI verbinden“, sagte Hawking. Auch Elon Musk, Geschäftsführer von Tesla, hatte mehrfach vor den Gefahren gewarnt und mit Facebook-Chef Mark Zuckerberg darüber gestritten. Sie fürchten den sogenannten Zeitpunkt der Singularität, an dem Maschinen schlauer werden als Menschen.

Von Facebook über Google bis hin zu SAP investieren fast alle großen Technologieunternehmen derzeit enorme Summen in KI. Die Fortschritte bei der Nutzung sind groß, die Erwartungen noch größer. „KI wird für das menschliche Gehirn sein, was die Dampfmaschine für den menschlichen Muskel war“, sagt der deutsche Informatiker Sebastian Thrun, der lange Forschungsprojekte bei Google leitete und die Online- Universität Udacity gegründet hat.

China startet digitales Wettrüsten

Doch neben Konzernen investieren auch Staaten große Summen in die Technologie, allen voran China. Das Land will bis 2025 weltweit führend bei KI werden. Der Digitalverband Bitkom fordert daher auch in Deutschland, dass der Staat mindestens vier Milliarden Euro an Mitteln für die Forschung zur Verfügung stellt und 40 zusätzliche Professuren geschaffen werden. „Künstliche Intelligenz ist eine Schlüsseltechnologie, deren Bedeutung man gar nicht hoch genug einschätzen kann“, sagt Bitkom-Präsident Achim Berg. Russlands Präsident Wladimir Putin sagte bei einem Vortrag vor Studenten, wer bei KI führend sei, werde die Welt beherrschen. Und selbst kleine Staaten haben die Entwicklung erkannt. So wollen die Vereinigten Arabischen Emirate (VAE) ein Ministerium für künstliche Intelligenz einrichten. „Die nächste globale Welle ist die künstliche Intelligenz. Wir wollen das Land sein, das darauf am besten vorbereitet ist“, erklärte Ministerpräsident Mohammed bin Raschid. Ein drohendes Wettrüsten der Staaten sorgt Skeptiker wie Musk. „Der Kampf um die Überlegenheit bei KI auf nationaler Ebene ist die wahrscheinlichste Ursache für einen dritten Weltkrieg“, sagte Musk. Der könnte weniger durch einen Staatenlenker, als vielmehr durch ein Computerprogramm ausgelöst werden, das in einem Präventivschlag die beste Strategie sehe.

"Keine Angst vor der KI-Apokalypse"

„Ich habe keine Angst vor der KI-Apokalypse“, sagt dagegen John Giannandrea, KI-Chef bei der Google-Mutter Alphabet. Denn die meisten KI-Programme seien viel dümmer, als man denke. Und auch die guten könnten jeweils nur spezialisierte Aufgaben lösen. Auch viele andere Experten gehen daher davon aus, dass es noch Jahrzehnte dauern wird, bis ein Computersystem über eine generelle Künstliche Intelligenz verfüge – wenn überhaupt. „Wenn man sieht, was Roboter heute können, dann weiß man, dass man von Hollywoodszenarien, in denen Roboter die Weltherrschaft übernehmen, weit entfernt ist“, sagt Reinhard Karger vom Deutschen Forschungszentrum für Künstliche Intelligenz.

Eine reale Gefahr sind dagegen immer intelligentere automatisierte Waffen. Im Sommer unterzeichneten mehr als 100 Unternehmen und Experten weltweit einen offenen Brief an die Vereinten Nationen (UN) und warnten vor Missbrauch von „tödlichen autonomen Waffen“. Sie könnten die dritte Revolution in der Kriegsführung werden. Wenn Pandoras Box einmal geöffnet sei, werde es schwer, sie wieder zu schließen.

Neben Elon Musk unterschrieben auch der führende KI-Forscher Yoshua Bengio und Google-Deepmind-Gründer Mustafa Suleymann den offenen Brief. Next Robotics ist das einzige deutsche Unternehmen, das unterzeichnete. Die Firma stellt selbst keine Roboter her, sie ist ein Vertriebsentwicklungsbüro für neue Robotertechnologien im Bereich Mensch-Roboter-Interaktion. „Ein autonomer Kriegsroboter könnte auch seine eigene, rein lösungsorientierte Ethik entwickeln, mit fatalen Folgen“, sagt Geschäftsführer Marcus Frei. Denn schon heute gibt es Drohnen, die nicht ferngesteuert agieren, sondern autonom Menschen tracken und töten können. Zudem seien autonome Waffen stark beeinflusst von dem, der sie programmiere. Man kann durchaus auch einen Hammer, der ein simples Werkzeug ist, als Waffe benutzen: „Bei einem Hammer weiß man allerdings, wer ihn in der Hand hat, sogenannte autonome Waffen können auch durch Hacker manipuliert werden, zum Zwecke des Terrorismus oder der Korruption“, erklärt Frei.

Eine Lösung sehen Karger und Frei in einer Konvention, die der über Chemiewaffen ähnlich ist. Alle Staaten sollten diese unterzeichnen und somit den Gebrauch der todbringenden autonomen Waffen ächten. „Wir wollen die Intensität der Entwicklung erhalten, aber einen starken, rechtlichen Rahmen schaffen“, stellt Karger klar.

UN berät über autonome Waffen

„Die Staaten müssen sich auf einen gewissen Grad menschlicher Kontrolle verständigen“, fordert auch Izumi Nakamitsu, UN-Beauftragte für Abrüstungsfragen. Im vergangenen Jahr wurde dazu auf UN-Ebene auch eine Gruppe von Sachverständigen gegründet. In der vergangenen Woche trafen sich die Experten mit Regierungsvertretern erstmals in Genf zu formellen Beratungen über den Umgang mit tödlichen autonomen Waffensystemen.

Die bisherige Bundesregierung hatte sich im Koalitionsvertrag für eine völkerrechtliche Ächtung autonomer Waffen ausgesprochen. „Allerdings wird dieses Ziel aufgrund des Widerstands einer Vielzahl von Staaten nicht kurzfristig zu erreichen sein“, sagt ein Sprecher des Auswärtigen Amtes. Doch zumindest in einzelnen Ländern gibt es Fortschritte: Die britische Regierung plant, autonome Waffen und deren Erforschung zu verbieten.

Zur Startseite