zum Hauptinhalt
Intelligenzbestie. Bislang tun Maschinen nur das, was ihnen Menschen zuvor ins Programm geschrieben haben. Roboter wie der humanoide „ iCub“ jedoch sind so konstruiert, dass sie selbstständig lernen – zum Beispiel einen Ball zu greifen.
©  Philippe Desmazes/AFP

Künstliche Intelligenz: Das Erbgut der Roboter

Maschinen das Lernen beibringen – wer das schafft, hat den Schlüssel zu künstlicher Intelligenz gefunden.

Der erste Versuch geht noch daneben. Etwas ungelenk holt der dicke, graue Roboterarm Schwung. In seiner Hand hält er einen Becher, an der Unterseite an einer Schnur ein roter Ball. Doch anstatt im Becher zu landen, baumelt die Kugel nur langsam hin und her. Nach 40 Versuchen schafft es der Roboter zum ersten Mal, den Ball in den Becher zu manövrieren. Und nach 50 weiteren beherrscht er die Technik vollkommen – es gelingt ihm jedes Mal. „Ein erwachsener Mensch würde es schon nach drei oder vier Versuchen hinbekommen, aber er wäre nie perfekt“, sagt Jan Peters, der an der TU Darmstadt Professor für intelligente autonome Systeme ist. In seinem Labor übt der Roboter das Spiel „Ball an der Schnur“ und auch, gegen eine Ballmaschine Tischtennis zu spielen.

Roboter lernen das Lernen

Anstatt dem Roboter beim Üben zuzuschauen, könnte Peters natürlich auch versuchen, den Armschwung zu programmieren, sodass der Ball sofort im Becher landet. Aber das will er gar nicht. Der Roboter soll es selbst lernen. Peters will herausfinden, wie man einer Maschine beibringt, sich um die Lösung einer neuen Aufgabe zu bemühen und dabei flexibel auf neue Situationen zu reagieren. Er will wissen: Wie können Maschinen lernen, selbstständig zu lernen?

Auf dem Weg zu einer künstlichen Intelligenz (KI), die dem Menschen ähnlich ist, ist das eine der wichtigsten Fragen. Noch sind wir weit davon entfernt. Programme wie Apples Siri oder Microsofts Cortana können zwar auf Unmengen an Daten zugreifen und diese verarbeiten. Sie können aber nur die Aufgaben erfüllen, für die sie programmiert wurden.

Deep Blue konnte nur Schach spielen, sonst nichts

„IBMs legendärer Computer Deep Blue war zwar perfekt darin, Schach zu spielen. Aber nutzlos für ein viel simpleres Spiel wie ,Schere, Stein, Papier’“, sagt Demis Hassabis, Mitgründer des von Google erworbenen Unternehmens DeepMind, das auf künstliche Intelligenz spezialisiert ist. Auch Roboter, wie sie heute in Fabriken stehen, sind hoch spezialisiert. Für jede Situation, die womöglich auftritt, muss ein Programm geschrieben werden. „Mittlerweile ist die Programmierarbeit das Teuerste am ganzen Roboter“, sagt Peters.

Aber wie geht es besser? Vereinfacht könnte man sagen: Die Roboter und Computer müssen mehr Arbeit selbst machen. Jan Peters versucht deshalb, Algorithmen zu entwickeln, die dem Roboter als Lernregeln dienen sollen, wenn er sich etwas Neues aneignet. Den Lernprozess hat er in mehrere Schritte aufgeteilt.

Perfektionierung per Belohnung

Bei dem Spiel mit dem Becher und dem Ball führt zunächst eine Mitarbeiterin den Arm des Roboters, um ihm ungefähr zu zeigen, wie es richtig geht. „Damit schränkt man die Zahl der möglichen Bewegungen stark ein“, sagt Peters. Der Roboter soll die Bewegung dann nachahmen. Dieses Imitationslernen beherrschen Babys schon kurz nach der Geburt.

Anschließend verbessert sich der Roboter immer weiter, indem er die Bewegung leicht verändert. Führt eine Veränderung zum Erfolg, erhöht er ihre Häufigkeit. „Reinforcement learning“ heißt dieses System – es ist inspiriert von der Dopaminausschüttung im Belohnungssystem des Gehirns. Hat der Roboter irgendwann die richtige Bewegung gefunden, speichert er diese als Schablone ab. Er kann sie später abrufen, weiterentwickeln und bei Bedarf auch an neue Situationen anpassen.

„Wir müssen nur diese Lernprozesse programmieren, nicht aber das Verhalten selbst. Wir müssen noch nicht einmal die Situation verstehen, in der sich der Roboter befindet“, erklärt Peters. Egal ob der Roboter Tischtennis spielt oder Pflanzen gießt – der Wissenschaftler möchte erreichen, dass stets die gleichen Lernalgorithmen zum Einsatz kommen.

Mit Videospielen zur künstlichen Intelligenz

Bei Google DeepMind haben Demis Hassabis und seine Kollegen einen Algorithmus geschrieben, mit dem der Computer gelernt hat, 49 verschiedene Videospiele zu spielen. Es sind keine besonders komplexen, sondern einfache, pixelige Spiele, wie es sie in den 80er Jahren an Spielautomaten gab. Alles, was man dem Computeralgorithmus mitteilt, ist das Ziel, eine möglichst hohe Punktezahl zu erreichen. Auch hier verbessert sich der Computer durch „Reinforcement learning“. Wenn er merkt, welches Verhalten zum Erfolg führt, passt er seine Strategie an. In mehr als der Hälfte der Spiele schafft es der Computer schließlich, gegen einen professionellen menschlichen Spieler zu gewinnen. „Spiele sind die perfekte Plattform, um Lernalgorithmen zu testen“, sagte Hassabis kürzlich auf der Wissenschaftskonferenz „Falling Walls“ in Berlin. In den nächsten Jahren will er den Computer vor noch komplexere Herausforderungen, wie 3-D-Spiele, stellen.

Hilfsbereite Roboter

Jan Peters versucht momentan, seinem Roboter beizubringen, als Produktionsassistent zu arbeiten. Wenn der Mensch beide Hände voll hat, könnte er Werkzeuge reichen oder den Menschen bei der Arbeit fragen, ob er helfen oder etwas von ihm lernen kann. Der Erfolg stellt sich für den Roboter zwar nicht so unmittelbar ein wie beim Ballspielen. „Aber wenn er die Worte ,guter Roboter’ hört, dann gilt das als Erfolg für ihn“, erklärt Peters. Auch hier kommt das „Reinforcement Learning“ zum Einsatz. Obwohl das alles einfach klingt, ist es enorm aufwendig, die richtigen Lernalgorithmen zu kreieren.

Danko Nikolić vom Max-Planck-Institut für Hirnforschung in Frankfurt zweifelt auch daran, dass menschengemachte Algorithmen ausreichen, um eine künstliche Intelligenz zu erschaffen, die der menschlichen ähnlich ist. „Wir Menschen können die komplexen Prozesse im Gehirn ja noch nicht einmal verstehen, geschweige denn nachbilden.“ Niemand wisse, wie sich ein bestimmter DNS-Baustein auf das menschliche Verhalten auswirke. Es habe die Evolution Millionen von Jahren gekostet, um im Erbgut die richtigen Lernregeln und Reflexe zu verankern.

Nikolić ist deshalb überzeugt davon, man müsse die Evolution nachahmen, um das „Erbgut“ einer künstlichen Intelligenz zu erschaffen und in diesem neue Lernmechanismen zu verankern. Diese sollen dann ein schnelles Lernen ermöglichen. „Sobald man das hat, kann man die Maschine wie ein kleines Kind behandeln und ihr Dinge beibringen“, sagt er. Sein Konzept hat er deshalb KI-Kindergarten genannt.

Irgendwann könnte die künstliche die menschliche Intelligenz übertreffen

Die Idee ist inspiriert davon, wie unsere Vorfahren ihre Haustiere aufgezogen haben. „Sie behielten immer die Tiere, die die gewünschten Eigenschaften hatten. Also etwa diejenigen, die weniger aggressiv waren.“ Bei der Entwicklung der künstlichen Intelligenz würden auch nur die Veränderungen an den Algorithmen beibehalten, die ein positives Ergebnis hervorrufen.

Am Anfang würde die künstliche Intelligenz sehr einfache Aufgaben bekommen – wie etwa Stehen. „Wenn der Roboter die Lernregeln hat, um das zu lernen, dann kann er auch sehr einfach Laufen lernen“, sagt Nikolić. Auf diese Weise würde das „Erbgut“ der künstlichen Intelligenz parallel zu ihren Fähigkeiten entwickelt. Um den Lernprozess zu beschleunigen, müsse man für die künstliche Intelligenz eine Umwelt schaffen, in der sie herausfordernde Aufgaben und ein schnelles Feedback bekomme.

Nikolić hat bereits begonnen, die Software zu programmieren, die dieser künstlichen Intelligenz zugrunde liegen soll und ist derzeit auf der Suche nach talentierten Mitarbeitern. Erste Ergebnisse erwartet er schon bald. Allerdings wird diese Intelligenz zunächst eher das Niveau eines Wurmes oder eines Käfers haben. „Eine menschenähnliche Intelligenz zu erreichen, wird eine sehr lange Zeit dauern“, sagt er.

Auch Hassabis glaubt, dass wir von einer künstlichen Intelligenz, die in der Lage ist, aus seinen Erfahrungen zu lernen und selbst abstrakte Konzepte zu verstehen, noch weit entfernt sind. „Aber wenn wir eine Intelligenz auf einem menschlichen Level entwickeln, dann können wir diese Stufe wahrscheinlich sogar noch übertreffen.“

Zur Startseite