zum Hauptinhalt
Wenn beim Internet-User der Blutdruck steigt, dann rührt das nicht selten von der Netzlektüre her. Oftmals reicht schon eine andere Meinung aus.
© Getty Images/iStockphoto

„Erschreckend, was Menschen von sich geben“: Algorithmen sollen gegen Hasskommentare helfen

Ein Algorithmus gegen Hasskommentare wird bald kommen, sagt die Informationswissenschaftlerin Melanie Siegel. So blickt sie auf die Wut im Netz.

Melanie Siegel ist Professorin für Informationswissenschaft an der Hochschule Darmstadt.

Frau Siegel, Sie beschäftigen sich mit Hass und Hetze im Netz. Wie sehr ist Ihr Welt- und Menschenbild davon beeinflusst?
Manchmal ist es sehr erschreckend, was Menschen so von sich geben. Manchmal schüttelt man über so viel Dummheit auch nur den Kopf. Einige Tweets sind so absurd, dass man eigentlich nur darüber lachen kann – wobei einem das Lachen dann auch wieder im Hals stecken bleibt, wenn man sieht, dass es Menschen gibt, die das ernst nehmen und dann womöglich sogar Gewalt anwenden.

Dem allgemeinen Eindruck nach steigert sich der Anteil der Hassrede am öffentlichen Diskurs von Tag zu Tag. Was sagt die Empirie?
Wenn man beispielsweise zum Thema „Flüchtlinge“ oder gar zum Stichwort „Asylanten“ sucht, dann findet man wirklich sehr viel. Es gibt eine kleine Menge sehr aktiver Accounts, von denen immer wieder aggressive Tweets gepostet werden. Auf der Kurznachrichtenplattform Twitter verbreiten rund fünf Prozent der Teilnehmer Hassbotschaften. Aber es gibt natürlich eine ganz große Menge anderer Themen, die in Twitter diskutiert werden.

Welche Themenkreise liegen konstant vorne? Gibt es Konjunkturen?
Das Thema „Flüchtlinge“ liegt konstant vorn. Dazu kommen Angriffe auf öffentlich bekannte Personen aus dem Journalismus wie Georg Restle, Dunja Hayali und Namen aus der Politik.

Welcher Personenkreis schreibt die meisten Hasskommentare, welcher Personenkreis ist am meisten davon betroffen?
Ich kann leider nicht sagen, was für Personen (oder manchmal auch Bots) sich hinter den Accounts verbergen. Das ist auch nicht Ziel unserer Untersuchung. Man hat den Eindruck, dass Einzelne sehr viel Zeit damit verbringen, recht aggressiv auf Twitter zu schreiben, denn es gibt Accounts, von denen sehr viel Material zusammenkommt.

Wo beginnt der Hasskommentar, wo hört er auf?
Das ist eine sehr schwierige Frage, denn es gibt viele Grenzfälle. In unserem Forschungsprojekt haben meine KollegInnen und ich erst einmal Tweets von Hand klassifiziert, als Diskriminierung, Beleidigung, profane Äußerung oder nichts von allem. Es war gar nicht so einfach, dabei einen Konsens herzustellen. Natürlich gibt es ganz klare Fälle, aber auch viele, viele Grenzfälle.

Sie arbeiten als Computerlinguistin in verschiedenen Netzwerken mit Kolleginnen und Kollegen aus den Sprachwissenschaften und der Informatik zusammen. Ziel ist es, Algorithmen zu entwickeln, die Hasskommentare erkennen und filtern können. Alles noch im Entwicklungsstadium?
Die besten Systeme aus dem letzten Jahr haben fast 80 Prozent der Tweets richtig klassifiziert. Das ist schon recht gut, aber immer noch viel zu wenig, um eine Klassifikation einer Maschine vollständig zu überlassen. Wir werden in diesem Jahr sehen, ob die teilnehmenden Gruppen auf den Ergebnissen des letzten Jahres aufbauen und die Erkennungsrate weiter verbessern können.

Computerprogramme können Wörter erkennen, aber können sie auch das Gemeinte im Gesagten und Geschriebenen zweifelsfrei identifizieren?
Die Programme können Wörter schon auch in einem Kontext erkennen und damit dem Gemeinten (der Semantik) näherkommen. Von „zweifelsfrei identifizieren“ kann aber noch keine Rede sein.

Wie steht es um Sarkasmus und Ironie?
Sarkasmus und Ironie sind automatisch besonders schwer zu erkennen. Sie sind ja auch für Menschen oft nicht erkennbar. Es gibt dazu eigene Forschungsexperimente, das ist ein ganz besonders spannendes Forschungsgebiet. Man schaut auf Emojis, auf Hashtags wie #nicht oder auf Widersprüche zwischen positiven und negativen Ausdrücken im Satz. Häufig braucht man zum Verständnis aber sogenanntes Weltwissen, also Wissen über den außersprachlichen Kontext, in dem eine Äußerung steht.

Es gibt ja auch die Hassrede, die ohne aggressive Wörter und Begriffe auskommt.
Das haben wir bei der Analyse im letzten Jahr auch festgestellt und eine „Subtask“ daraus gemacht: offensive Tweets als explizit und implizit zu klassifizieren. Ein Beispiel für eine implizite Beleidigung (Rechtschreibung wie im Original): „Dem Kommentar entnehme ich das auch ihre Schaukel als Kind zu nahe an der Wand gestanden hat.“ Natürlich ist das extrem komplex, aber wir wollen ja wissenschaftlich weiterkommen und immer komplexere Aufgaben angehen.

Jeder Vorstoß gegen den Hass im Netz stößt auf den Vorwurf, absichtlich oder unabsichtlich Zensur zu befördern.

Zunächst mal sind es diejenigen, die versuchen, die sozialen Medien mit aggressiven Kommentaren zu fluten, die den freien Meinungsaustausch zerstören. Manche JournalistInnen und PolitikerInnen wissen mittlerweile genau, ob sie Bedrohungen und Beleidigungen fürchten müssen, wenn sie etwas in Twitter posten. Was ist mit dem Recht auf freie Meinungsäußerung derjenigen, die bedroht werden? Dass diese Drohungen nicht immer verbal bleiben, das haben wir in der letzten Zeit erfahren müssen.

Wenn das Instrument zur Hasserkennung entwickelt ist, wem werden Sie es zur Verfügung stellen?
WissenschaftlerInnen werden nicht nur ein Instrument entwickeln, sondern mehrere. Der Software-Code der meisten entwickelten Methoden steht unter einer Open-Source-Lizenz frei zur Verfügung. Wir werden anschließend versuchen, Forschungskooperationen beispielsweise mit Medienunternehmen aufzubauen, in denen eine entwickelte Software an die speziellen Anforderungen und die Daten angepasst wird. Auch in den Kommentarspalten gibt es sehr viele Probleme, für die eine automatisierte Warnfunktion sicher sinnvoll wäre.

Abseits vom Algorithmus: Was kann die Lust am Hass tatsächlich eindämmen?
Vielleicht hilft es, wenn diejenigen mit der Lust auf das Leben nicht immer so zurückhaltend sind? Ich würde Diskriminierungen, Beleidigungen und Bedrohungen nicht einfach ignorieren, sondern reagieren. Die Trolle versuchen den Anschein zu erwecken, dass sie mehr sind. Das sollten wir nicht hinnehmen.

Lassen Sie den Trost zu, dass im internationalen Maßstab der Hassfaktor in Deutschland geringer ist als anderswo?
Auf jeden Fall! Es gibt Länder, in denen aggressive und diskriminierende Tweets direkt aus der Regierung kommen. Zum Glück haben wir eine gut funktionierende Demokratie, freie Medien und eine ausgeprägte Diskussionskultur.

Zur Startseite