zum Hauptinhalt
Virtuell wird in den sozialen Netzwerken geschrien und gepöbelt, was das Zeug hält. Doch woher kommt der Hass im Netz?
© Carsten Bachmeyer - Fotolia

Rassismus, Antisemitismus, Beleidigungen: Woher kommt der Hass im Netz?

Die Debattenschlachten im Internet werden mit aller Härte geführt. Rassismus, Antisemitismus, Beleidigungen – all das ist Alltag. Portalbetreiber wie Facebook wollen, dass die Nutzer das selbst regeln. Doch dieses Prinzip funktioniert immer seltener.

Wer zur Feuerwehr von Facebook möchte, muss an David Hasselhoff vorbei. Der Serienstar aus Hollywood wacht gleich neben dem Fahrstuhl in der Europazentrale des weltweit größten sozialen Netzwerks in Dublin, breitbeinig und lebensgroß – zwar nur als Pappaufsteller, aber trotzdem ist der Rettungsschwimmer ein passendes Symbol für die Aufgaben, die die Mitarbeiter hier haben: Auch sie müssen für Ordnung sorgen, Brände löschen und darauf achten, dass sie nicht an anderer Stelle neu entfacht werden.

Hundertausende Meldungen werden überprüft

Gelegt werden die Brände von Facebook-Nutzern selbst. In Kommentaren hetzen und hassen sie, oft geht es dabei um Flüchtlinge, Genderfragen, den Islam oder den Konflikt zwischen Russland und der Ukraine. Findet ein Nutzer, dass mit einem Kommentar eine Grenze überschritten, womöglich gegen Gesetze verstoßen wird, kann er solche Kommentare über eine entsprechende Funktion melden – diese Meldung landet dann hier, in Dublin, bei einem Team, dessen Name an Spezialeinsatzkommandos erinnert: „Community Operations Team“.

Hunderttausende Meldungen überprüfen die Mitarbeiter nach Angaben von Facebook jede Woche – wie viele genau, gibt das Netzwerk nicht bekannt. Ohnehin will sich Facebook nicht zu Zahlen gemeldeter Kommentare und dem Umgang damit äußern. Dabei könnte das US-Unternehmen den Eindruck bestätigen oder dementieren, den viele Menschen in den vergangenen Monaten haben, nämlich: dass die Hetze im Netz immer mehr zunimmt. Nicht nur auf Facebook, sondern auch auf anderen sozialen Netzwerken oder Plattformen wie Twitter, Youtube oder in den Kommentarspalten der Online-Medien.
Gerne würde man gerade von Facebook als weltweit größtem sozialen Netzwerk mit mehr als 1,4 Milliarden Nutzern wissen, ob Erkenntnisse dazu vorliegen, wer diese Hetzer sind. Und ob es tatsächlich immer mehr werden. Doch Facebook schweigt darüber.

Die größte Schnauze gibts mittlerweile nicht am Stammtisch, sondern anonym über eine Tastatur. Und wo weitgehend keine Konsequenzen drohen, braucht man dann auch nicht über die eigenen Worte nachdenken.

schreibt NutzerIn philoktes

Wird Facebook zu langsam tätig?

Ein Statement der deutschen Facebook-Sprecherin Tina Kulow machte vergangene Woche deutlich, dass das „Operations Team“ bei der Sichtung der Kommentare selbst nicht immer zufrieden ist: „Unsere Reporting-Systeme sind dafür entwickelt, Menschen vor Missbrauch, Hassrede und Mobbing zu schützen, und es ist bedauernswert, dass gelegentlich Fehler gemacht werden, wenn solche Reports bearbeitet werden.“
Nicht nur Dublin, sondern auch in Hyderabad in Indien, in Austin und im Facebook-Hauptsitz in Menlo Park in den USA überprüfen insgesamt Hunderte von Mitarbeitern gemeldete Kommentare oder Beiträge. Doch das Team in Dublin „ist der wichtigste Ort von allen, weil hier an die hundert Länder beobachtet werden, auch die des arabischen Raums“, berichtet die „Zeit“, die die Zentrale in Irland besuchte und auch die Begrüßung durch David Hasselhoff beschreibt.
In Dublin sitzen auch die deutschsprachigen Mitarbeiter, die darüber entscheiden, ob eine Meldung gelöscht wird – oder sich nach Ansicht von Facebook in den Grenzen der Meinungsfreiheit bewegt. Diese sind gerade im Hinblick auf rassistische Kommentare zu weit gesteckt, monieren Kritiker: Viel zu selten, viel zu langsam werde das Netzwerk tätig, lautet der Vorwurf, der gerade im Zuge der Flüchtlingsdebatte in den vergangenen Wochen immer lauter erhoben worden ist.

Cybermobbing
Cybermobbing
© dpa

Wer sich selbst auf die Suche nach entsprechenden Kommentaren begibt, wird schnell fündig: In der Gruppe von Pegida fordert ein User ein „Massenlager“ für Flüchtlinge. In kleineren Gruppen wie zum Beispiel „Chemnitz, Sachsen, Deutschland gegen Scheinasylanten“ kommentiert ein User, der Hungerstreik der Flüchtlinge sei „die beste Art dieses Pack auszurotten!!!“.
Warum werden solche Meldungen nicht einfach gelöscht? Vermutlich, weil sie bisher von keinem Nutzer beanstandet worden sind. Facebook setzt nämlich auf die Kraft des sich selbst regulierenden Systems. In der Regel wird ein Kommentar erst dann geprüft, wenn er gemeldet worden ist. Zwar gibt es auch bestimmte Algorithmen, nach denen Kommentare durchsucht werden, aber der Begriff „Konzentrationslager“ macht deutlich, dass es einer Differenzierung bedarf. So kann einerseits ein Schüler darüber schreiben, wie sehr ihn der Besuch in einem KZ bewegt hat. Andererseits kann ein Nutzer unter dem Schlagwort auch den Holocaust leugnen – eine Straftat, die nach Angaben von Facebook in jedem Fall an Ermittlungsbehörden weitergeleitet wird.

Das Netz ist Spiegelbild unserer Gesellschaft.Wir wollen es nur nicht wahrhaben, den Hass in unserer Gesellschaft.

schreibt NutzerIn sgt.flower

2100 Anfragen gab es von Strafverfolgern im zweiten Halbjahr

60 Inhalte seien im zweiten Halbjahr 2014 eingeschränkt worden, weil sie Rechtsextremismus und die Verleugnung des Holocaust befürwortet hätten, was in Deutschland rechtswidrig ist, heißt es im Transparenzbericht, den Facebook halbjährlich veröffentlicht. Insgesamt habe es rund 2100 Anfragen von Strafverfolgern gegeben, die auf Nutzerkonten zugreifen wollten. „Jede einzelne Anfrage, die wir erhalten, wird auf ihre rechtliche Hinlänglichkeit geprüft; wir lehnen Anfragen ab, die übermäßig weit gefasst oder zu vage sind, beziehungsweise fordern eine größere Genauigkeit für diese“, teilt Facebook mit. Rund einem Drittel der Anfragen sei ganz oder teilweise entsprochen worden.

Angesichts des Vorwurfs, dass Facebook teilweise gar nicht oder zu langsam auf rassistische oder hetzerische Kommentare und Inhalte eingeht, wägt eine Sprecherin ab. Inhaltliche Richtlinien aufzustellen, die es mehr als einer Milliarde Menschen erlauben, sich Ausdruck zu verschaffen und gleichzeitig die Rechte und Gefühle anderer Menschen zu respektieren, sei „eine permanente Herausforderung“, sagte sie. „Manchmal stoßen wir dabei auf neuartige Inhalte oder Grenzfälle, die unsere Richtlinien auf die Probe stellen. In solchen Fällen ist es unser Ziel, unseren Ansatz zu prüfen und entsprechende Schritte einzuleiten, sodass wir die Gratwanderung schaffen und Menschen auf Facebook einerseits die Möglichkeit geben, Informationen, Nachrichten und Inhalte zu teilen – und gleichzeitig die Gemeinschaft als Ganzes schützen.“

Bei weltweit mehr als einer Milliarde Nutzern, die unterschiedliche Meinungen vertreten und Facebook als Plattform nutzen, um Themen zu diskutieren oder Inhalte zu teilen, die ihnen wichtig sind, komme es natürlich vor, dass Menschen auch kontroverse Inhalte posten und diskutieren. „Facebook ist kein Ort für die Verbreitung rassistischer Ansichten“, betont sie. Sondern eine Plattform, „auf der sich Menschen über ein breites Spektrum von politischen Meinungen austauschen“. Diskussionen über die gesellschaftlichen Auswirkungen von Rassismus und Rechtsextremismus seien ein wichtiger Teil davon. „Inhalte wie Hassrede, Aufruf zur Gewalt oder Gewaltverherrlichung verstoßen jedoch gegen die Gemeinschaftsstandards von Facebook und werden umgehend gelöscht.“

Facebook setzt auf das Prinzip der Selbstregulierung

Aber nach dem Prinzip der Selbstregelung eben nur dann, wenn ein Nutzer den Inhalt meldet – doch die Bereitschaft dazu ist immer noch gering, sagt Julia Schramm, die für die Amadeu-Antonio-Stiftung in Berlin arbeitet und hier mit zwei Kollegen die Initiative No-Nazi.net betreut. Sie beobachten rechte Strömungen im Netz und planen Interventionsstrategien. „Digitales Streetworking“ nennt Schramm es. Sie wollen gezielt Menschen auf sozialen Netzwerken anschreiben, die Hetze und Hass verbreiten. An manchen Tagen stoßen sie auf mehr als 10 000 rassistische und hetzerische Kommentare, abhängig auch vom aktuellen Geschehen – allerdings melden Schramm und ihre Kollegen nicht jeden Beitrag an Facebook, da die wenigsten davon ganz eindeutig gegen die Richtlinien verstoßen würden. Mit der Technischen Universität Berlin arbeiten sie und ihre Kollegen derzeit an einer Methode, um solche Kommentare besser verfolgen zu können. Was sie beobachten kann: Meistens schlagen die „Hater“ am Abend und am Wochenende zu, vermutlich, weil sie dann mehr Zeit haben und sicher weniger kontrolliert fühlen.

Julia Schramm wurde selbst Opfer von "Hatern"

Schramm selbst ist schon Opfer solcher „Hater“ geworden. Als ehemaliges Mitglied der Piratenpartei und bekennende Feministin wurde sie zum Hassobjekt für viele Rechte und Antifeministen. Den Piraten gehört sie schon seit 2014 nicht mehr an, mit Anfeindungen hat sie trotzdem noch genug zu tun. Nicht primär gegen sie selbst, sondern gegen Asylsuchende, Deutsche mit Migrationshintergrund, Menschen verschiedener sexueller Orientierung oder diejenigen, die sich für sie einsetzen.

Auch wenn der Hass im Netz immer sichtbarer wird, ist es auch für No-Nazi.net schwer, dagegen vorzugehen. Die Entwicklung im Netz ist rasant, auch im Bereich der Hassrede. Und eine Patentlösung gegen rechte Gesinnung gibt es nicht. „Die Gruppen und ihre Ausrichtungen individualisieren sich immer mehr, da reicht es nicht, von ,den Nazis‘ zu sprechen“, sagt Schramm. Bekennende Rechtsradikale seien eine prozentual kleine Gruppe im Netz, jedoch gut organisiert. Sie würden sich leicht zu erkennen geben, seien jedoch schwer zu erreichen. „Solche Gruppen sind zu verbohrt, da kommt man nicht ran“, sagt Schramm. Selbst wenn solche Kommentare und Gruppen von Facebook gelöscht würden, gründeten sie schnell eine neue Gruppe oder wichen auf andere Portale aus.

Eine der Herausforderungen für Schramm und ihre Kollegen ist allerdings, dass es im Netz immer mehr Gruppen gibt, die zwar rechte Ideologien verbreiten, sich selbst aber nicht als Nazis bezeichnen und auch nicht so aussehen wie die klassischen „Rechten“. Solche Gruppen sind es vor allem, die zum viel besprochenen Rechtsruck der Mitte beitragen. Wie zum Beispiel die „Identitäre Bewegung“, die vor allem junge Menschen ansprechen möchte. Sie gibt sich als verlorene Generation Y, deren Identitätskrise durch steigende Zuwanderung bedingt ist und schürt so Angst vor sogenannter „Überfremdung“. Mittlerweile hat sie 18 000 Likes auf Facebook, die französische Version, „Génération Identitaire“ sogar 74 000.

Im Netz tarnen sich Rechtsradikale als "besorgte Bürger"

Auf der anderen Seite formieren sich scheinbar vermehrt lokale „Bürgerwehren“ im Netz, beobachtet Schramm. Auf Facebook würden sie ihre Foren als Plattform für „besorgte Bürger“ tarnen. jedoch würden gerade in geschlossenen Foren mehr Anfeindungen und Fehlinformationen verbreitet. „Je geschlossener die Gruppe, desto schärfer der Ton“, sagt Schramm.
Auf frei zugänglichen Foren sind konservative Kommentare von rechten Kommentaren ebenfalls schwer auseinanderzuhalten. „Die Grenzen werden immer fließender“, sagt Schramm, „doch auffallend ist, wie salonfähig bestimmte Ausdrücke geworden sind.“ Viele Nutzer sozialer Netzwerke wüssten nicht, dass Worte wie „Asylant“, „Kinderschänder“ oder auch „Lügenpresse“ aus dem rechten Metier kämen. Dass solche Wörter jedoch in den geläufigen Sprachgebrauch übergehen, macht es ebenfalls schwerer, zwischen rechter Gesinnung und bloßer Unwissenheit zu unterscheiden. „Viele, die auf solche Foren im Netz stoßen, sind sich zunächst nicht bewusst, dass sie auf rechten Seiten sind und deshalb gewillter anzunehmen, was sie dort lesen. Bis sie eventuell selbst von den rechten Ideologien überzeugt sind“, erläutert Schramm. Sie und ihre Kollegen versuchen vorher einzugreifen und aufzuklären.

Trolle verfolgen weniger eine politische Agenda

Die Arbeit für No-Nazi.net erschwert sich auch dann, wenn Rechte nicht eigene Foren gründen, sondern bei anderen große Online-Plattformen mitmischen. Gerade Frauen würden Internetseiten wie Chefkoch.de oder Kleiderkreisel.de, wo es eigentlich um Kochen und Mode geht, nutzen, um dort Debatten über Zuwanderung, Feminismus oder sexuelle Orientierung zu entfachen. Oft geben sich rechte Frauen in solchen Foren als Mütter aus, die sich um das Wohl ihrer Kinder sorgen. „Das kann anfangen bei der Behauptung, die vielen Ausländer seien verwirrend für die Kinder, und enden mit der Aussage, man müsse Schwarze umbringen, bevor sie sich an den Kindern vergreifen“, sagt Schramm. Gerade bei Frauen würden solche Aussagen eher geduldet als bei Männern, weil viele Menschen Frauen seltener böse Absichten zuschrieben, sagt Schramm. Dabei würden rechtsradikale Frauen sehr gezielt hetzen, nicht nur im Netz, sondern auch in Kindertagesstätten oder Schulen.
Dass sich die Hetze im und außerhalb des Netzes nicht pauschalisieren lässt, ist auch an den verschiedenen Ausrichtungen der Gruppen zu merken. So gibt es Gruppen wie „Jewgida“, eine Unterkategorie der Pegida-Bewegung, die sich zwar gegen Antisemitismus, aber auch gegen die angebliche Islamisierung einsetzt.

Attacken können Traumata auslösen

Grundsätzlich unterschieden werden muss allerdings zwischen denjenigen, die aus ideologischen Gründen Hass im Netz verbreiten – und den sogenannten „Trolle“, die weniger eine politische Agenda verfolgen, sondern eine Befriedigung daraus ziehen, andere Nutzer im Netz anzugreifen. Trolle posten meist anonymisiert in sozialen Netzen, unter Arikeln oder Videos. Ihr Ziel ist, das zu erreichen, was andere tunlichst verhindern wollen: einen Shitstorm auslösen. Wenn sich „Trolle“ auf individuelle Personen fixieren, kann das verheerende Folgen haben. „Solche Attacken terrorisieren die Betroffenen regelrecht und können bei ihnen Traumata auslösen“, sagt Schramm.

Wichtig sei es, sich in solchen Fällen Hilfe zu holen, um Depressionen oder Stressattacken vorzubeugen. Oft würden sich Trolle auf Frauen oder Minderheiten fixieren, gerade wenn sie sich für eine Sache einsetzten – oft mit Wirkung. „Viele Aktivisten ziehen sich aus dem Netz zurück. Das ist schade, aber nachvollziehbar“, sagt Schramm.

Doch wie geht man am besten mit Hasskommentaren um? Das sei jeweils von Fall zu Fall verschieden, erläutert Schramm. Ignorieren, diskutieren, ironisieren – wobei sie sich selbst nicht mehr auf Diskussionen mit den Hetzern einlassen will. Denn viele würden mit nur noch mehr Hass reagieren. Für die Facebook-Feuerwehr in Dublin wieder ein Brand mehr, den es zu löschen gilt. In Gesellschaft von Rettungsschwimmer David Hasselhoff.

Zur Startseite