Angebliche islamistische Propaganda: Facebook sperrt Nutzer für geteilten "Welt"-Text
Mit Algorithmen versucht Facebook gegen problematische Inhalte vorzugehen. Das geht, wie jetzt bei einem "Welt"-Artikel, gelegentlich schief
Mehrere Leser der „Welt“ mussten Anfang der Woche überrascht feststellen, dass sie auf Facebook wegen eines Verstoßes gegen die Community-Richtlinien verwarnt und teilweise gesperrt worden sind. Ein Missverständnis. Wie die Zeitung berichtet, hatten die Nutzer zuvor den Artikel „So viel Nazi-Ideologie steckt im Islamismus“ über den Social-Media-Dienst geteilt.
Mittlerweile habe sich Facebook zu dem Vorfall geäußert. „Ein Fehler in der künstlichen Intelligenz“ sei für die Nutzersperrungen verantwortlich. Das zum Artikel gehörende Foto sei als IS-Propaganda ausgelegt worden. Zu sehen ist eine Gruppe posierender Kämpfer der Terrormiliz. In der Vergangenheit sei das Bild oft zur Verbreitung terroristischer Inhalte verwendet worden, sagt Facebook. Der Mechanismus solle nun angepasst werden.
Es ist nicht das erste Mal, dass Facebooks Filter für Verwunderung sorgen. 2016 löschten die Algorithmen das berühmte Foto des „Napalm Girls“. Das Bild zeigt die neunjährige Kim Phúc auf der Flucht nach einem Angriff südvietnamesischer Flugzeuge. Weil das Mädchen dabei nackt war, verstieß das Foto eigentlich gegen die Plattform-Richtlinien. Erst nach Protest gegen Facebook-Chef Mark Zuckerberg wurde das Bild wieder zugelassen.
Automatisiertes Vorgehen
Nach dem aktuellsten Bericht der Social-Media-Plattform ging Facebook allein im Zeitraum Juli bis September 2018 gegen mehr als 1,8 Milliarden Inhalte vor. Drei Millionen Mal wurde dabei Terrorpropaganda festgestellt. 99,5 Prozent der Inhalte wurden gelöscht, noch ehe sie von einem Nutzer gemeldet wurden, was anders als bei Hassrede und Belästigung auf ein hohes Maß an Automatisierung hinweist.
Seit Dezember 2016 arbeiten Facebook, Microsoft, Instagram und Youtube gemeinsam mit der UN an einer Datenbank für Terrorpropaganda, die ein schnelleres Löschen ermöglichen soll. Anscheinend kann es dabei immer noch zu deutlichen Fehlern kommen.