Amazon-Chefforscher: "Künstliche Intelligenz kann nicht über sich selbst nachdenken"
Amazons Hirn sitzt in Berlin. Vom Spittelmarkt aus versuchen Ralf Herbrich und seine Teams, Computern das Sehen, Hören und Sprechen beizubringen - und das Vorhersagen der Zukunft.
Als Herbrich, 1974 in Schwedt geboren, vor fast 20 Jahren an der TU Berlin promovierte, war Künstliche Intelligenz ein Randthema. Heute ist er, nach Stationen bei Microsoft und Facebook, einer der einflussreichsten Experten auf dem Gebiet. Die Eingangshalle der globalen Unternehmensforschung ist in Weiß gehalten, die Rezeptionisten grüßen freundlich. 500 Menschen arbeiten hier, gerade wurden weitere Büros angemietet, die Zahl der Mitarbeiter wird sich verdoppeln. Forscher, Programmierer, Sprachexperten aus 60 Nationen gehen vorbei, Herbrich bietet in der Kaffeeküche einen Nespresso an.
Dann beginnt das Gespräch.
Herr Herbrich, "Künstliche Intelligenz" klingt immer ein bisschen gefährlich, ein bisschen gruselig und ein bisschen nach dem Song "Mensch-Maschine" von Kraftwerk. Was ist derzeit das größte Missverständnis über Künstliche Intelligenz?
Dass es für jede Aufgabe eine Maschine gibt, die genauso genaue Vorhersagen treffen kann wie der Mensch. Künstliche Intelligenz ist keine Magie.
Sondern?
Mustererkennung. Etwa beim Erkennen von Objekten oder beim Übersetzen von Sprache: Da ist genug Struktur vorhanden und es sind ausreichend Daten verfügbar. Andere Prozesse sind noch nicht einfach und effizient digitalisierbar, denken Sie an einfachste Dinge wie Treppensteigen, Gegenstände heben oder ein Getränk einschenken: Hier ist der Mensch jedem noch so ausgetüftelten Roboter haushoch überlegen.
Beruhigend. In welchem Bereich ist die Maschine am stärksten unterlegen?
Vor allem beim Bewusstsein. Zu glauben, dass Künstliche Intelligenz eben intelligent ist, also über sich selbst nachdenken und Schlüsse ziehen, sich selber modifizieren und selbst Lernverfahren erfinden könnte - das ist heute nicht möglich und noch ein sehr offenes Forschungsgebiet.
Woher kommt dieser Aberglaube?
Es gibt die falsche Fantasie, dass jegliche Entscheidung einer Person auch durch eine Maschine gefällt werden könnte. Das geht aber vor allem dann nicht, wenn die Sensorik fehlt.
Könnten Sie das an einem Beispiel erklären?
(Herbrich nimmt eine Orange aus dem Obstkorb auf dem Tisch) Ein Team hier in Berlin arbeitet gerade an der Reifegraderkennung für Obst. Für eine Maschine ist es extrem schwer zu erkennen, wie lange zum Beispiel diese Orange hier noch hält. Als Mensch habe ich Haptik, ich kann die Orange anfassen. Schauen Sie mal: Die ist ein bisschen weich hier an der Seite. Da weiß ich: Die fängt an der Stelle schon ein bisschen an zu gären. Und ich kann die Frucht natürlich auch sehen und riechen. Eine Maschine, die all das nicht kann, hat einfach zu wenig Informationen.
Und woher bekommt der Computer die nötigen Informationen?
Erst haben wir gemerkt, dass es nicht reicht, einfach eine Webcam draufzuhalten und ein Video zu machen. Dann haben wir tatsächlich überlegt, das Riechen durch eine künstliche Nase zu kompensieren. Schließlich haben wir uns aber dann doch entschieden, einen Sensor zu nehmen, der Lichtwellen misst, die das menschliche Auge gar nicht sehen kann.
Was sieht der Sensor, was wir nicht sehen?
Der Sensor kann der Orange quasi unter die Schale schauen und dort Flüssigkeitsanlagerungen erkennen. So hat man genug Daten, die das fehlende Greifen ausgleichen.
Klingt faszinierend. Aber warum will Amazon wissen, wie reif eine Orange ist?
Alles bei uns ist einer Hauptfrage unterstellt: Was führt zur besten Kundenerfahrung? Wir glauben: Mehr Auswahl, mehr Bequemlichkeit und niedrigere Preise - denn Kunden haben uns in den letzten 25 Jahren niemals nach weniger Auswahl, längeren Lieferzeiten oder höheren Preisen gefragt. Frischwaren wie Orangen sind heute im Verkauf weitaus teurer, als sie sein müssten, weil die Hälfte auf dem Weg von der Ernte bis in die Küche verdirbt.
In Ihrer Forschung treffen Maschinen aber nicht nur auf Obst. Sie sollen künftig auch Körper erkennen und vermessen können.
Absolut! Wir haben gerade damit angefangen. Ziel ist es, den Menschen soweit zu digitalisieren, dass wir ihm besser beim Online-Kleidungskauf helfen können. Sagen wir, ich will ein Hemd kaufen: Ich habe Größe 58, allerdings relativ kurze Arme. Andere Leute mit dieser Größe haben Läuferarme, so richtig lang. Die Ärmel von Hemden sind aber normiert. Das schränkt das Shopping-Erlebnis natürlich ein.
Was hat das mit KI zu tun?
Jede Menge.Wenn ich die Jacke ausziehe und mit dem Handy ein Selfie mache, dann ist da viel drauf. Da kann man den Brustumfang doch gut messen! Auch mein Hals ist gut zu sehen. Wir arbeiten daran, Körper mit wenig Aufwand zu digitalisieren, um eine personalisierte Kleidergröße erstellen zu können. So, wie es ein Schneider auch macht: Brustumfang 90 Zentimeter, Taille 62, Armlänge, Muskeln.
Das heißt: Amazon könnte mir dann genau die Hemden anbieten, die zu meiner Armlänge passen, verstanden. Aber sonst dürfte gerade Mode ein Thema sein, bei dem man mit KI relativ wenig erreichen kann - weil es eine Frage von Geschmack ist, oder?
Eben nicht ganz. Wenn ich weiß, was 2018 populär ist, weiß ich noch nicht, was 2019 gefragt sein wird. Bislang ist es ja so: Erst werden Modenschauen gemacht, die Einkäufer kaufen daraufhin 200 Jacketts einer bestimmten Marke. Und dann dauert es immer noch ein Jahr, bis wir wissen, was sich wo wie oft verkauft. Da ist noch viel Bauchgefühl im Spiel, welche Farben und Marken wohl laufen werden.
Sie wollen mit Künstlicher Intelligenz den Geschmack der Kunden eineinhalb Jahre vorhersagen?
Algorithmen können den Einkaufsprozess erleichtern und über zehntausende verschiedene verkaufte Jeans hinweg Muster erkennen. Ein Algorithmus analysiert diese Daten und stellt Verbindungen her zwischen allen Schnitten und allen Farbnuancen, die ein Blau ausmachen. Dabei können Prognosen auch mal danebenliegen - aber eben weitaus seltener als menschliche Vorhersagen.
Das heißt aber auch, dass KI immer nur so gut sein kann wie die Messergebnisse, die sie verarbeitet. Kann das nicht auch zu Problemen führen?
Klar. In Datensätzen kann es zum Beispiel Voreingenommenheit geben, etwa durch statistische Verzerrungen. Wenn Amazon beispielsweise auswertet, welche Kundengruppen Windeln kaufen, dann kann es schon sein, dass es mehr Käuferinnen gibt als Käufer, auch wenn Frauen insgesamt die Hälfte der Kunden darstellen. Wenn man keine Neugewichtung der unterrepräsentierten Männer vornimmt, wird der Algorithmus das genau so zeigen. Und weil KI extrapoliert, also vorhersagt, kann sich diese Unwucht noch verstärken.
Es könnte in dem Datensatz ja auch um ethnische Zugehörigkeit gehen. Oder um politische Orientierung. Gerade weil viele Menschen Algorithmen für objektiv halten, können solche Unwuchten fatale Folgen haben. So nutzt die US-Justiz einen Algorithmus, der vorhersagt, wie wahrscheinlich es ist, dass Inhaftierte erneut straffällig werden - eine Studie fand anschließend heraus, dass der Algorithmus Schwarze benachteiligte. Inzwischen testen international die ersten Krankenkassen und Kreditinstitute solche Systeme. Durchaus möglich, dass die Vorurteile der Maschine uns eines Tages einen Job verwehren oder beschließen, dass wir keinen Kredit bekommen.
Das ist eine Gefahr. Glücklicherweise ist es so, dass man KI-Verfahren anpassen kann. Einen Menschen zu bitten, all die Verzerrungen zu kompensieren, die er durch Erfahrungen und Sozialisation in seinem Leben angesammelt hat, ist dagegen sehr schwer.
Wie meinen Sie das?
Die Haltung eines Menschen ist manchmal schwer zu ändern. Bei einem Algorithmus kann man solche Verzerrungen sehr analytisch und technisch korrigieren.
Für Ihre Analysen stehen Ihnen die Nutzerdaten von Amazon zu Verfügung. Was erheben Sie denn alles? Merken Sie zum Beispiel, wenn ich angetrunken nach Drohnen suche - aber weder auf Bestellen noch auf "In den Warenkorb legen" klicke?
Um eines klarzustellen: Für uns steht das Vertrauen unserer Kunden an erster Stelle. Deshalb wollen wir unseren Kunden nicht das Gefühl geben, dass jeder Schritt kontrolliert wird - denn das passiert schlicht nicht.
Sie nutzen die individuellen Nutzerdaten also gar nicht, weil das Vertrauen wichtiger ist als der einzelne User?
Wenn man auf die Ebene des Einzelnen geht, dann kann man zwar im wissenschaftlichen Sinne genauer werden. Diese Daten interessieren uns aber nicht, denn erst die aggregierten, also nicht personenbezogenen Daten über viele Nutzer hinweg ermöglichen sinnvolle Kaufempfehlungen.
Aber wo verläuft da die Grenze? Die Diskussionen um die Daten von Facebook in den letzten Wochen haben ja gezeigt, wie sensibel solche Nutzerdaten sind - und dass sie für digitale Unternehmen viel Geld wert sind.
Jede Innovation fängt bei Amazon damit an, dass die Wissenschaftler eine fiktive Pressemitteilung verfassen. Darin müssen sie beschreiben, welche Kundenerfahrung sie kreieren wollen und häufig gestellte Fragen beantworten. Dazu gehört auch, welche Daten benötigt würden. Das Team setzt sich dann den Kundenhut auf und liest diese Pressemeldung mit dem Wissen, dass sie zum Beispiel auch bei Amazon einkaufen, auch Alexa benutzen, auch Kinder haben. Hier zählt der verantwortliche Umgang mit Innovationen.
Welche Ideen, die auf Ihrem Tisch landeten, Ihnen ein mulmiges Gefühl gemacht haben, wollen Sie nicht sagen. Aber: Sie sind der Leiter der KI-Forschung von Amazon, Ihre Entscheidungen beeinflussen, wie die Zukunft für viele Menschen aussehen wird. Gutes Gefühl?
Gute Frage. Ich bin mir der großen Verantwortung bewusst.
Wie gehen Sie mit Ihrer Verantwortung um?
Ich versuche, so wenig wie möglich "One-Way-Door Decisions" zu treffen, also Entscheidungen, die ich nicht wieder zurücknehmen kann - wie eine Tür, die nur auf einer Seite eine Klinke hat. Wenn ich durch diese Tür gehe, kann ich nicht mehr zurück.
Wie gewichtet man Privatsphäre und Fortschritt richtig?
Für mich steht über allem, Wissenschaft zum Nutzen der Menschen anzuwenden. Dabei priorisiere ich Ideen nach dem Kriterium, wieviel sie von dem sparen, was wir am wenigsten haben: Zeit. Etwas geliefert zu bekommen, heißt, ich muss nicht ins Auto und irgendwohin fahren, um mir vielleicht ein paar Mandarinen zu holen. Die zweite endliche Größe neben Zeit ist Energie. Das ist derzeit mein persönliches Steckenpferd.
Warum ausgerechnet Energie?
Wir haben mittlerweile lernfähige Software, die den Menschen bei komplexen Brettspielen wie Schach besiegt. Aber dafür brauchen die Algorithmen noch hundert bis tausend Mal mehr Energie als wir. Ich bin Marathonläufer, ich weiß, dass ich mit Energie haushalten muss. Sonst habe ich im falschen Moment keine mehr.
Während wir noch über Datenschutz streiten und uns Sorgen über Computer machen, die klüger sind als wir, denken Sie schon darüber nach, welche Auswirkungen der Energieaufwand von Künstlicher Intelligenz haben wird?
Ja. Denn immer mehr alltägliche Berechnungen werden auf KI basieren, in Rechenzentren genauso wie auf Smartphones.
Bedeutet: All die Kaufvorschläge, die automatischen Übersetzungen von Produktbeschreibungen und Vorhersagen verbrauchen riesige Mengen Energie in immer größeren Serverparks. Und weil Amazon diese Rechenkapazität nicht nur für sich selbst nutzt, sondern auch an andere Firmen vermietet, ist jede Einsparung Gold wert.
Ja, das ist die Herausforderung. Im Moment konzentriert sich die akademische Forschung im Bereich KI aber nicht darauf, wie energieeffizient Algorithmen sind. Und je mehr solche Vorhersageberechnungen auch von der Industrie genutzt werden, desto wichtiger wird das. Die große Herausforderung der KI ist es nicht mehr, so genau wie ein Mensch zu werden - sondern dabei auch nur genauso wenig Energie zu verbrauchen wie ein Mensch.
In unserer Kultur gab es lange den Traum vom künstlichen Lebewesen, von Alchemie bis Blade Runner. Seit der Industrialisierung aber hat der Mensch Angst, von Maschinen ersetzt zu werden. In den neuen Amazon-Logistikzentren sind schon Roboter im Einsatz. Ist das der Anfang?
In Zukunft sollen in vielen unserer Logistikzentren Transportroboter in dem Moment, in dem jemand auf der Webseite etwas bestellt, unter das richtige Regal rollen, es hochheben und zu den Mitarbeitern bringen, die die Produkte verpacken. Das ist übrigens auch KI: Tausend Roboter, die nicht zusammenstoßen. Dadurch sind wir schneller, sparen Platz und damit Lagerkosten.
Und die Mitarbeiter werden überflüssig?
Das ist ja kein leeres Logistikzentrum! Die Menschen müssen nur nicht mehr herumlaufen, stattdessen fahren Roboter die Regale zu ihnen. Ansonsten bräuchten wir Gänge zwischen den Regalen - und die kann man nicht nutzen, um Dinge zu lagern. Weil mit der vergrößerten Lagerfläche noch mehr Bestellungen abgewickelt werden können, brauchen wir sogar mehr Leute als vorher! In Winsen, unserem ersten deutschen Logistikzentrum mit Transportrobotern, sind inzwischen über 1 800 Arbeitsplätze entstanden.
Vorausgesetzt, die Bedenken, was Daten und Sicherheit von Künstlicher Intelligenz angeht, könnten alle ausgeräumt werden und Ihr persönliches Ideal einer Welt mit KI würde Wirklichkeit: Wie sähe diese Welt aus?
In dieser Utopie bliebe mehr Zeit für kreative Arbeit des Einzelnen. Selbst jetzt ist einiges doch noch extrem mechanisch: einkaufen gehen oder die Waschmaschine ausräumen. Das muss ja alles sein, man braucht ja saubere Klamotten und muss was essen. Aber ich sage mir da oft: Woah, was ist das für ein Aufwand!
Das soll KI alles lösen?
Ich glaube, mit KI können wir bei vielen dieser Aufgaben unterstützt werden. Wir können schneller Informationen finden. Zum Beispiel mit der Sprachassistentin Alexa, an der wir auch in Berlin forschen.
Wie benutzen Sie als Experte Alexa?
Ich habe sechs Geräte: eines im Bad, eines in der Küche, eines im Wohnzimmer, eines im Schlafzimmer, eines im Arbeitszimmer und eines nutzt meine Tochter. Egal wo ich bin, ich kann die Geräte ansprechen. Das heißt, mein Kopf ist frei. Mechanische Aufgaben werden von der Software geregelt. Früher konnte ein Familienstreit ausbrechen über die Frage, wer beim Essen aufstehen muss, um das Licht zu dimmen. Jetzt sag ich einfach: "Computer, mach' mal das Licht dunkler."
Hendrik Lehmann