zum Hauptinhalt
Gefährliche Bits: Automatisierte Programme können Menschen und ihre Wahlentscheidungen beeinflussen.
© picture alliance / Peter Steffen

Debatte um Social Bots: Deutschland fehlt Strategie gegen Manipulationsversuche

Können Roboter politische Debatten und sogar Wahlen beeinflussen? Unions-Fraktionschef Ralph Brinkhaus meint ja - und hat daher eine Debatte angestoßen.

In den USA weiß man mittlerweile, wie schnell Wahlkämpfe manipuliert werden können, in Großbritannien wird darüber bereits seit dem Brexit-Referendum diskutiert. In Deutschland jedoch hat die Debatte um politische Manipulationsversuche bisher vor allem in engen Expertenzirkeln stattgefunden. Insofern hat der Vorsitzende der Unionsfraktion im Bundestag, Ralph Brinkhaus, mit seinem Vorschlag für eine Kennzeichnungspflicht von Social Bots eine wichtige Debatte angestoßen – auch wenn das Echo auf seinen Vorstoß eher geteilt ausfällt.

„Social Bots sind nur ein Aspekt der Gesamtsituation“, sagt Jens Zimmermann, digitalpolitischer Sprecher der SPD-Bundestagsfraktion. Menschliche Akteure hätten immer noch einen weit größeren Einfluss auf die Meinungsbildung in den sozialen Netzwerken. Zimmermann glaubt, dass die Debatte über mögliche Meinungsmanipulationen hierzulande noch am Anfang steht. „Mich wundert es, dass dieses Thema in Deutschland immer noch so niedrig hängt“, sagt Zimmermann. Eine mögliche Erklärung dafür sei, dass es in Deutschland bisher keine fatalen Auswirkungen durch Meinungsmanipulation gegeben habe – anders als zum Beispiel in Ländern wie den USA oder Ukraine.

Bots können in Echtzeit reagieren - und es gibt unendlich viele

Das Wort „Bot“ ist eine Kurzform von „Roboter“. Wenn von Bots die Rede ist, dann sind automatisierte Programme gemeint, die nicht von Menschen gesteuert werden. Gegenüber menschlichen „Trollen“ haben Bots zwei Vorteile: Sie können quasi in Echtzeit auf aktuelle Debatten in den sozialen Netzwerken reagieren. Und man kann theoretisch unendlich viele von ihnen programmieren und mit Social-Media-Accounts verknüpfen.

Es ist relativ einfach, einen Bot zu programmieren. Im Netz gibt es Software, mit der sich diese Arbeit in wenigen Minuten erledigen lässt. Die meisten Bots werden durch simple Rechenoperationen gesteuert – sie verfügen also noch nicht über die Fähigkeit, selbstständig zu lernen. Möglich ist jedoch zum Beispiel, Texte nach Stichwörtern zu durchsuchen und auf bestimmte Aktionen in den sozialen Netzwerken in einer vorprogrammierten Weise zu reagieren.

Für moderne Formen der Meinungsmanipulation ergeben sich daraus eine Reihe von Anwendungsmöglichkeiten. Manche Bots posten zum Beispiel unter dem Deckmantel eines vermeintlich menschlichen Twitter-Profils so lange den gleichen Hashtag, bis er zum „Trend“ wird. So kann die Bedeutung eines bestimmten Themas simuliert werden. Andere Bots stören Debatten zu einem bestimmten Thema mit Hasskommentaren – auf diese Weise kann zum Beispiel verhindert werden, dass es auf Facebook zu einem vernünftigen Meinungsaustausch kommt. Wieder andere verbreiten in Windeseile Informationen mit manipulativem Charakter, die von menschlichen Nutzer aufgegriffen und weitergegeben werden.

Bots können dabei helfen, Debatten zu ersticken

Bots sind auch deswegen für Angriffe auf demokratische Entscheidungsprozesse interessant, weil man mit ihrer Hilfe Debatten ersticken und Diskurse zerschlagen kann. So können Wahlen beeinflusst und das Handeln demokratischer Staaten in Krisensituationen verlangsamt werden. Kritiker wenden ein, dass die Zerschlagung von Diskursen keineswegs nur in den sozialen Netzwerken stattfinde. Zudem gibt es Bedenken, dass eine Kennzeichnungspflicht von Bots die Freiheit im Netz tangieren könnte.

Frank Sitta, stellvertretender Vorsitzender der FDP-Fraktion im Bundestag, ist gegen eine Kennzeichnungspflicht für Social Bots. „Die Kennzeichnungspflicht per Gesetz ist ein Eingriff in die Rechte privater Unternehmen und unterliegt deshalb besonderer Zurückhaltung“, sagt Sitta. „Ein solcher Eingriff könnte im Hinblick auf die Meinungsfreiheit und Innovationsoffenheit sogar gegenteilige Effekte haben.“

Lena-Sophie Müller, Geschäftsführerin der „Initiative D21 e.V.“ und Mitglied der Enquete-Kommission Künstliche Intelligenz, wünscht sich, dass die Debatte in einem breiteren Kontext geführt wird. Eine Kennzeichnungspflicht für Social Bots sei ein richtiger Schritt. Doch das könne nur ein Baustein sein. Für den Schutz von politischen Entscheidungsprozessen bedürfe es mehr, sagt sie: „Auch einer klaren Förderung der Digitalkompetenzen – quasi als Stärkung des Immunsystems der Bevölkerung.“

Zwar hat sich die Bundesregierung mit vielen einzelnen Aspekten von politischen Manipulationsversuchen beschäftigt. Was bisher jedoch fehlt, ist eine übergreifende Strategie im Umgang mit Manipulationsversuchen. Die EU ist einen Schritt weiter: Bereits Anfang Dezember präsentierte sie ihren „Aktionsplan gegen Desinformation“, der unter anderem den Aufbau eines „Rapid Alert Systems“ vorsieht, mit dem länderübergreifend Manipulationsversuche schneller erkannt und weiter gemeldet werden sollen.

Zur Startseite