zum Hauptinhalt
„Du wirkst bedrückt. Kann ich dir irgendwie helfen?“Pepper, der Freund und Helfer im Alltag, wird seit 2015 in Japan verkauft. Zielgruppe: Familien, Paare, Alleinstehende. Das Foto zeigt die Kommunikationsmanagerin der Firma Aldebaran, die den Roboter herstellt.
© picture alliance / dpa

Roboter als Freunde: Metallische Gefühle

Was geschieht auf emotionaler Ebene, wenn Menschen mit Robotern interagieren? Eine Berliner Japanologin will das erforschen.

Kommunikation beginnt meist mit Begrüßungsritualen. Die Hand ausgestreckt, die Mundwinkel hochgezogen, die Augen aufs Gegenüber gerichtet und auf den Lippen einen Gruß. So nähern sich Menschen an, die freundlich in Kontakt kommen wollen. Man kennt die Gesten und weiß sie bis in kleinste Nuancen hinein zu interpretieren. Doch was, wenn das Gegenüber gar kein Mensch, sondern ein Roboter ist? Programmiert darauf, menschliche Stimmungen zu erkennen – und in der Lage, differenziert auf sie einzugehen: „Du wirkst bedrückt. Kann ich dir irgendwie helfen?“

Längst sind solche sensiblen Maschinen keine Fiktion mehr. In Japan werden bereits erste Emotionsroboter für den Hausgebrauch verkauft. Das wirft Fragen für die Emotionsforschung auf: Welche Beziehungen können beim Zusammenleben oder bei der Zusammenarbeit entstehen? Werden die Menschen womöglich Gefühle für ihre Roboter entwickeln? Elena Giannoulis, Juniorprofessorin für Japanologie an der Freien Universität Berlin (FU), wird dazu in den kommenden fünf Jahren Feldforschung betreiben. Gerade hat sie für ihr innovatives interdisziplinäres Forschungsprojekt „Emotionale Maschinen“ vom Europäischen Forschungsrat eine Förderung in Höhe von 1,5 Millionen Euro erhalten.

In Japan helfen Roboter in der Altenpflege

Dass ausgerechnet eine Japanologin an und mit Robotern forscht, leuchtet ein: Die japanische Gesellschaft pflegt eine positive, ja fast liebevolle Beziehung zu ihren elektronischen Helfern. Schon heute werden Roboter in der Altenpflege eingesetzt. Sie sitzen an Empfangstresen, helfen Passagieren auf Flughäfen oder kommen in der Gastronomie zum Einsatz. Das Vertrauen der Japaner gegenüber Robotern (und gegenüber den Unternehmen, die sie konstruieren) ist groß. Bedenken wegen mangelndem Datenschutz oder möglicher Überwachung werden, anders als in Europa, kaum geäußert. Giannoulis betont daher auch die politische Bedeutung ihres Forschungsansatzes: „Uns interessiert, wie neue Technologien die Gesellschaft verändern. Welche Konsequenzen hat es, wenn die Daten der Roboter milliardenfach in Clouds gesammelt werden? Darüber wollen wir in Japan eine Diskussion anstoßen.“

Im Zentrum von Giannoulis’ Untersuchung steht „Pepper“, ein kleiner, günstiger Roboter des Telekommunikations- und Medienkonzerns SoftBank, der 2015 in Japan auf den Markt gekommen ist. Bald soll er auch in Europa erhältlich sein. Pepper ist nicht in erster Linie ein elektronischer Butler, sondern wird ausdrücklich als Freund und Gefährte vermarktet. „Seine Aufgabe ist es, Menschen anzusprechen, sie zu unterhalten und gegebenenfalls aufzuheitern“, erklärt Giannoulis. Dass Japaner bereit sind, ihre Herzen und Heime Robotern zu öffnen, haben sie bereits bewiesen. Der Roboterhund Aibo aus dem Hause Sony wurde so beliebt, dass es mittlerweile sogar Roboterfriedhöfe gibt, auf denen die Hinterbliebenen um ihren ‚toten’ Roboterhund trauern können.

Pepper umarmt und streichelt gerne

Pepper gehört der nächsten Generation an. Er kann sprechen, tanzen, mit den Händen wackeln. Er umarmt und streichelt gerne, kann aber auch bei den Hausaufgaben helfen, Rezepte googeln oder Nachrichtensendungen auf seinem Bauch-Display abspielen. Um effektiv interagieren zu können, scannt er die Mimik seines Gegenübers und gleicht den Gesichtsausdruck mit einer Datenbank ab. So kann er tatsächlich Gefühle und Stimmungen erkennen – manchmal sogar, bevor der Mensch sie selbst bewusst wahrnimmt.

Affective Computing wird dieser Ansatz genannt, der auf die Grundlagenforschung der amerikanischen Elektroingenieurin Rosalind Picard aus den 1990er Jahren zurückgeht. Mittlerweile ist der Mensch recht gut maschinell lesbar geworden. Neben der Gesichtserkennung liefern Armbänder zusätzliche Daten, etwa über Pulsfrequenz und Körpertemperatur. Auch die Höhe und Vibration der Stimme kann analysiert werden. Aus der Kombination der Daten ergibt sich ein genaues Bild über den Gemütszustand. Pepper praktiziert außerdem learning by doing: Wenn er in einer Situation erfolgreich die Gefühle eines Menschen erkannt und adäquat reagiert hat, dann speist er dieses Wissen in eine Künstliche-Intelligenz-Cloud ein, an die alle Pepper-Roboter angeschlossen sind. So lernen sie gemeinsam noch einfühlsamer zu werden.

Die Wirkung von Texten erforschen - das führte zu den Gefühlsrobotern

An diesem Punkt will Giannoulis, die ursprünglich aus der japanologischen Literaturwissenschaft kommt, ansetzen. Zur Emotionsforschung stieß sie vor einigen Jahren, als sie im FU-Exzellenz-Cluster „Languages of Emotion“ mitarbeitete. Von 2007 bis 2014 erforschten Wissenschaftler und Wissenschaftlerinnen aus über 20 Disziplinen die Beziehungen zwischen Emotionen und Sprache, Kunst, Kultur und Gesellschaft. Giannoulis widmete sich unter anderem der in Japan weit verbreiteten nostalgisch-sentimentalen Literatur. Dieser populäre Erzählstil wirke auf die Leser beruhigend, behauptete die Literaturwissenschaft bisher immer. „Aber eigentlich konnten wir das nie beweisen“, sagt Giannoulis. Die junge Wissenschaftlerin wollte sich damit nicht zufrieden geben und suchte nach neuen methodischen Möglichkeiten, die Wirkung von Texten zu erforschen. So landete sie schließlich bei den Gefühlsrobotern.

Mit deren Hilfe ist die digitale Vermessung des Mediennutzers nun endlich möglich geworden. Dazu wird das Team von Giannoulis, dem neben Anthropologen und Medienwissenschaftlern auch Roboterforscher angehören, Testreihen mit japanischen Familien starten, die mit einem Roboter wie Pepper zusammenleben. Befragungen in regelmäßigen Abständen sind geplant, die über Nutzungsgewohnheiten und emotionale Bindungen Aufschluss geben sollen. Giannoulis interessieren die Äußerungen der Menschen: Wie reflektieren sie ihre Beziehungen zu den Hausrobotern? Welche wiederkehrenden Formulierungen lassen sich in ihren Aussagen finden? „Durch die Interaktion kann eine Form von Intimität entstehen, die in den Narrativen der Probanden fassbar wird.“

Den digitalen Beobachtern entgeht nichts

Darüber hinaus will das Team auch Versuche mit Gattungen starten, die bislang nicht zum Standard-Entertainmentprogramm der Roboter gehören. So sollen Pepper und andere Roboter teilweise umprogrammiert werden, damit sie Texte vorlesen können. Etwa bekannte literarische Stoffe, auf die viele Japaner erfahrungsgemäß sehr emotional reagieren. Was wird das bei den Zuhörern auslösen? Wird ihr Herz schneller schlagen, werden ihre Mundwinkel zucken, werden ihnen Tränen in die Augen steigen? Sicher ist: Den digitalen Beobachtern entgeht nichts.

Am Ende stehen sich dann zwei Wahrnehmungen gegenüber: die Selbstbeobachtung des Mediennutzers und die maschinelle Fremdbeobachtung. Giannoulis will ihre Probanden mit den Datensammlungen der Roboter konfrontieren. „Möglicherweise wissen die Roboter ja mehr über unsere Gefühle als wir selbst.“ Der Abgleich zwischen Big Data und Selbstreflexion könnte das Wissen über Emotionen grundsätzlich verändern, so eine ihrer Vermutungen. Fast noch interessanter ist eine andere These, die die Berliner Wissenschaftlerin bis 2022 überprüfen will: Dass nämlich Menschen in Zukunft ganz neue Arten von Gefühlen entwickeln werden. Gefühle, die sie bisher nie hatten – und die ausschließlich Robotern vorbehalten sind.

Zur Startseite