zum Hauptinhalt
Schattenseiten.  Ist es für das US-amerikanische Unternehmen technisch nicht möglich, Hate Speech in den Griff zu bekommen? Oder ist es vielleicht gar nicht gewollt?
© dpa
Update

Hass auf Flüchtlinge im Netz: Facebook will Rassismus nicht durch Löschen verschleiern

Rechtsradikales Gedankengut habe keinen Platz auf Facebook, sagt das US-Unternehmen. Hass im Internet ist ihm aber lieber als Gewalt auf der Straße. Justizminister Maas weitet seine Kritik derweil auf Twitter aus.

Ein Foto, auf dem ertrinkende Flüchtlinge im Mittelmeer zu sehen sind – darunter ein zynischer Spruch eines deutschen Nutzers. Das Bild eines toten Kindes am Strand – darunter ein menschenverachtender Kommentar eines Berliners. Nur zwei von zahlreichen Beispielen.

Wie kann das sein, fragen sich viele empörte Nutzer, wieso duldet Facebook solche Äußerungen auf seiner Plattform? Und wieso werden, wenn andere Nutzer diese Kommentare melden, nur die wenigsten Beiträge wirklich entfernt? Ist es für das amerikanische Unternehmen personell oder technisch nicht möglich, Hate Speech in den Griff zu bekommen? Oder ist es möglicherweise gar nicht gewollt?

Seit Wochen wird in der deutschen Öffentlichkeit über diese Fragen hitzig debattiert. Justizminister Heiko Maas hat sich sogar persönlich in einem Brief an Facebook gewandt und nachgefragt, warum „trotz entsprechender konkreter Hinweise“ rassistische und fremdenfeindliche Posts nicht gelöscht würden. Am Montag weitere Maas seine Kritik auf Twitter aus.

Der mediale Druck hat nun immerhin dazu geführt, dass Facebook am Montag kurzfristig zu einem Gespräch einlud. Facebook-Sprecherin Tina Kulow wurde dabei nicht müde, den anwesenden Journalisten zu versichern: „Rassismus und Hate Speech haben keinen Platz auf Facebook.“ Das Thema beschäftige das Team intern sehr: „Wir wissen, dass wir eine gesellschaftliche Verantwortung haben.“ Und man arbeite intensiv daran, „die Menschen auf Facebook zu schützen.“

Zuständige Community-Abteilung umfasst einige hundert Mitarbeiter

Wie genau, das erläuterten die Facebook-Managerinnen Ciara Lyden und Julie de Bailliencourt, die aus der Europazentrale in Dublin angereist waren. Mit konkreten Zahlen konnten sie freilich nicht dienen. Immerhin verrieten sie so viel: Mehrere Millionen sogenannter „Reports“, also von Nutzern beanstandete Inhalte, laufen wöchentlich bei Facebook auf. Bearbeitet werden sie rund um die Uhr an Standorten, die über die ganze Welt verteilt sind.

Einige hundert Mitarbeiter umfasst die zuständige Community-Abteilung, darunter auch „ein großes Team“ deutscher Muttersprachler. Die Teams sind spezialisiert: Manche beschäftigen sich mit gehackten Nutzerkonten, andere mit suizidgefährdeten Jugendlichen, wieder andere entscheiden über vermeintliche oder tatsächliche Volksverhetzung. „Wir gucken uns alles an, was gemeldet wird“, betonte de Bailliencourt. Oft allerdings wären die Hinweise der Nutzer zu unspezifisch. Sie riet dazu, möglichst einzelne Beiträge zu melden – nicht ganze Seiten mit tausenden Kommentaren.

Dem Vorwurf, dass das Netzwerk zu wenig Community-Mitarbeiter für die 1,5 Milliarden Nutzer beschäftige, widersprach sie. Natürlich würden dem Team gelegentlich Fehler unterlaufen, natürlich seien viele Abläufe noch verbesserungswürdig. Aber: „Wir haben genug Leute, um die Reports aus Deutschland relativ zeitnah zu bearbeiten.“ Auch spiele es keine Rolle, wie viele Nutzer einen Beitrag melden oder ob diese Nutzer einen Promi-Status genießen: „Das alles beeinflusst unsere Entscheidungen nicht.“

Es fehlt eine universelle Definition von Hate Speech

Was dann? Und warum wird am Ende so wenig wirklich gelöscht? Facebook fühle sich mehreren Grundsätzen verpflichtet, erklärte Kollegin Ciara Lyden. Einer davon sei das Teilen von Inhalten, ein anderer die Sicherheit der Nutzer. Daraus folgt, dass Facebook alle Inhalte entfernt, in denen direkt zu Gewaltakten aufgerufen wird oder Menschen konkret bedroht werden.

Anders sieht die Sache bei „flaming speech“ aus, also bei hasserfüllten, beleidigenden, verächtlichen Äußerungen. Hier sei die Gratwanderung schwieriger. „Es gibt keine universelle Definition von Hate Speech“, sagte Lyden. Das Unternehmen tendiere deshalb seit einigen Jahren dazu, aggressive Kommentare einzelner Nutzer stehen zu lassen. „Das ist eine toughe Balance für uns.“

Man sei aber zu der Überzeugung gekommen, dass Löschen womöglich noch schlimmere gesellschaftliche Auswirkungen haben könnte, argumentierte sie. Etwa wenn im Netz mundtot gemachte Nutzer dann nur noch Gewalt auf der Straße als Option sehen würden. Außerdem wolle man die Ausbreitung rechtsradikalen Gedankenguts in Europa nicht durch Löschen wegretuschieren: „We don’t hide the rise of racism.“

Das von Minister Maas gewünschte Gespräch am 14. September wird übrigens stattfinden. Dass Facebook anschließend seine Lösch-Politik ändert, scheint eher unwahrscheinlich. „Die Lösung kann nicht sein, dass man Menschen das Sprachrohr nimmt“, resümierte Facebook-Managerin Eva-Maria Kirschsieper, die die politische Kommunikation des Unternehmens in Deutschland leitet.

"Was für Facebook gilt, gilt auch für Twitter"

Bundesjustizminister Heiko Maas hat seine Kritik am Umgang mit Hass-Botschaften unterdessen auf Twitter ausgeweitet. "Rechtsextreme Hetze in sozialen Netzwerken zu verbreiten, darf nicht toleriert werde. Was für Facebook gilt, gilt auch für Twitter", sagte der Minister zu "Bild". Alle sozialen Netzwerke sollten ein Interesse daran haben, rechten Parolen keine Plattform zu bieten. "Bild" hatte Twitter vergeblich aufgefordert, einen Tweet zu entfernen, in dem ein Twitterer zu einer Flüchtlingsaktion der Zeitung geäußert hat. "Jeder der sich so etwas auf Auto klebt, dem müßte man die Kiste abfackeln", hatte der Twitter-Nutzer zu der Aufkleber-Aktion "Wir helfen zu löschen". Für "Bild" ein direkter Aufruf zu Gewalt, für Twitter "keine Gewaltandrohung oder beleidigendes Verhalten".

Die zunehmende Zahl von rechtsradikalen und ausländerfeindlichen Beiträgen zur Flüchtlingsdebatte in den sozialen Netzwerken beschäftig inzwischen auch die Medienaufsicht. Bei der Kommission für Jugendmedienschutz (KJM) der Landesmedienanstalten laufen bereits erste Prüfverfahren zu fremdenfeindlichen Kommentaren gegen Flüchtlinge, teilte die Institution mit. Der KJM-Vorsitzende Siegfried Schneider kündigte eine konsequente Ahndung an. „Volksverhetzende Äußerungen sind in Deutschland illegal“, sagte er. „Dies gilt auch im Internet.“ Gemäß dem Jugendmedienschutz-Staatsvertrag sind unter anderem solche Angebote unzulässig, die zum Hass gegen Teile der Bevölkerung oder zu Gewalt- und Willkürmaßnahmen gegen sie auffordern. Verstöße können mit hohen Bußgeldern geahndet werden. Zudem würden solche Fälle immer auch an die Staatsanwaltschaften abgegeben, die Ermittlungsverfahren gegen Internetnutzer einleiten könnten, teilte die KJM mit. Bei einer Verurteilung drohten Haftstrafen von bis zu fünf Jahren. Nutzer, die problematische Beiträge finden, können diese entweder bei der KJM oder bei der Länder-Zentralstelle „jugendschutz.net“ melden.

Die Grünen im Europaparlament fordern unterdessen eine europäische "Facebook-Polizei". "Wir brauchen dringend eine eigene Abteilung bei der europäischen Polizeibehörde Europol, die in Zusammenarbeit mit den lokalen Behörden die Foren und sozialen Netzwerke systematisch durchsucht und wirksame Strafverfolgung auch über Grenzen hinweg organisiert", sagte der innen- und justizpolitischer Sprecher der Grünen im EU-Parlament, Jan-Philipp Albrecht, dem Redaktionsnetzwerk Deutschland, Eine solche neuartige Polizeiabteilung könne an das bestehende europäische Anti-Cyberkriminalitätszentrum in Den Haag angegliedert werden. Zugleich forderte er einheitliche Vorgaben für soziale Netzwerke. "Wir brauchen dringend EU-weit einheitliche klare Regeln zu der Frage, was auf Plattformen wie Facebook eine Grenzüberschreitung ist und was nicht." Die vielen unterschiedlichen Gesetze machten es Facebook einfach, sich aus der Verantwortung zu stehlen, warnte Albrecht.

Zur Startseite