Experten warnen vor Sprachassistenten: Diese Risiken birgt Alexa für Kinder
Minderjährige geben Alexa, Siri und ähnlichen Sprachassistenten zu viel von sich preis, zeigt ein Gutachten. Auch Datenschützer äußern Kritik.
Ein Junge, sechs Jahre alt, wünscht sich ein Kinderlied, ruft „play Digger, Digger“ ins Mikrofon. Und was tut Amazons Sprachassistentin "Alexa"? Sie schlägt ihm verschiedene Porno-Titel vor. Diese Geschichte ist nicht die einzige Panne vergangener Jahre, die Eltern schockiert. Zu sehen auf Youtube. Jetzt warnt sogar der Wissenschaftliche Dienst des Bundestags.
In einem Gutachten wird bemängelt, dass Kinder und Jugendliche persönliche Informationen von sich preisgeben oder eben Inhalte abrufen können, die sie nicht hören sollten. Außerdem stelle sich die Frage, was eigentlich mit Besuchern sei, die nicht wüssten, dass die Software gerade ihre Sätze aufzeichnet. Amazon dürfte der Pflicht zur Informationsvermittlung bei der Datenerhebung von Nutzern zwar ausreichend nachkommen, heißt es – „offen bleibt jedoch, wie unbeteiligte Dritte und Minderjährige von der Datensammlung ausgeschlossen werden können“.
Mit Blick auf die USA sei außerdem unklar, „zu welchen weiteren Zwecken Amazon seine Daten zukünftig nutzen könnte“. Dass sich Kriminelle Zugriff zu den Daten in der Cloud verschaffen könnten, sei ebenfalls nicht auszuschließen.
Eine Reihe von Kritikpunkten. Das Bundesinnenministerium fühlt sich in der Sache aber nicht zuständig. Ein Sprecher erklärte auf Anfrage der Deutschen Presse- Agentur: „Die Nutzung der Sprachassistenten betrifft Datenverarbeitungen durch nichtöffentliche Stellen.“ Für diese lasse die Datenschutz-Grundverordnung der EU den nationalen Gesetzgebern so gut wie keinen Regelungsspielraum.
„Wir müssen darauf dringen, dass die Einwilligungserklärung für den Nutzer auf die Gefahren und Möglichkeiten hinweist, die mit der Übertragung und Nutzung der Daten sowie der Daten von Dritten, die sich zufällig im Raum befinden, hinweist“, meint hingegen der fraktionslose Bundestagsabgeordnete Uwe Kamann. Dies müsse detailliert erfolgen, „und nicht indem man nur einmal ein Häkchen für alles setzt“. Kamann war es, der die Frage aufgeworfen hatte, ob es zulässig ist, dass Amazon die Spracheingaben der „Alexa“-Nutzer auswertet.
"Alexa" lernt jetzt auch verschiedene Stimmen
Der Hamburgische Datenschutzbeauftragte Johannes Caspar ist ebenfalls empört. Er teile die Befürchtungen des Wissenschaftlichen Dienstes des Bundestags. Probleme würden sich „aus der hohen Zahl von Fehlaktivierungen bei automatischen Sprachassistenten“ ergeben.
Diese führten dazu, dass Gespräche immer wieder übertragen werden, weil das System das Aktivierungswort fälschlicherweise verstehe. „Von diesen Datenerhebungen sind ausnahmslos alle Personen im Haushalt betroffen, ohne dass die relevanten rechtlichen Vorgaben vorliegen dürften“, sagte Caspar zu Tagesspiegel Background Digitalisierung & KI.
Insbesondere dürften „Kinder kaum einwilligungsfähig sein“. Ein weiteres Problem ist aus seiner Sicht „die fehlende Zugriffskontrolle durch eine personalisierte Steuerung, mit der eine Nutzung des Sprachsystems durch dritte unbefugte Personen verhindert werden könnte“.
Amazon bietet den Nutzern zwar neuerdings mit dem Befehl „Alexa, lerne meine Stimme“ die Möglichkeit, ein persönliches Stimmprofil einzurichten. Diese werden nach Angaben eines Amazon-Sprechers aber nur genutzt, „um das individuelle Nutzererlebnis zu verbessern“. Auf den Befehl „Computer, spiele Musik!“ hin würden für verschiedene Profile unterschiedliche Titel abgespielt. Das Gerät für Kinder zu sperren, erlaubt die neue Stimmerkennung nicht.
Das Unternehmen teilte auf Tagesspiegel-Anfrage mit: „Echo und Alexa schützen die Privatsphäre der Kunden und jedes Haushaltsmitglieds.“ Jeder Echo-Lautsprecher sei mit einer Stummtaste ausgestattet, die die Stromzufuhr der Mikrofone und Kameras elektronisch trenne.
[Mehr zum Thema: Alexa aktiviert – wenn der vierjährige Sohn plötzlich für 36,99 Euro ein Pizzabackset bestellt]
Dadurch sei es für Kunden einfach zu steuern, wann Alexa in der Lage ist, das Aktivierungswort zu erkennen. Außerdem könne jeder seine Aufzeichnungen ansehen, anhören und beseitigen. Nötig sei nur der Satz „Alexa, lösche was ich gerade gesagt habe!“
Kinder bitten nicht mehr. Sie befehlen nur
Der Sprachassistent wird nicht zum ersten Mal als Übel für Kinder angesehen. Im vergangenen Jahr veröffentlichte die britische Childwise Agency eine Untersuchung mit dem Ergebnis: Da Alexa Anweisungen ohne Wörter wie „bitte“ oder „danke“ ausführt, fürchten Experten, dass Kinder zu unhöflichen Wesen heranwachsen, die bloß noch befehlen.
Alexa, lies mir eine Gute-Nacht-Geschichte vor! Alexa, ich will...! Im April 2018 brachte Amazon tatsächlich eine Version für Kinder auf den Markt. Diese formuliert ihre Antworten kindgerechter, sagt der Hersteller. Außerdem bekamen Kinder ein Lob, wenn sie bitten und sich bedanken.
Ein anderes Alexa-Problem untersucht nun die Otto-von-Guericke-Universität Magdeburg. Nicht einmal jede vierte KI- Fachkraft sei eine Frau. Daraus ergebe sich die Frage, ob sich dies auch in Denkmustern bei der Künstlichen Intelligenz widerspiegele. Die Unesco hatte bemängelt, dass Siri und Alexa Gender-Stereotype reproduzieren.
Demnach seien sie unterwürfig, gehorsam und stets freundlich. Vor dem Hintergrund, dass Kinder mit der Technologie aufwüchsen und Sprache ein Geschlechtsmarker sei, bestehe die Gefahr, dass bestimmte Vorstellungen von Frauen transportiert würden – als dienende Maschinen.