zum Hauptinhalt
Schriftzug des sozialen Netzwerks Facebook
© Armin Weigel/ dpa

Soziale Netzwerke: Facebook will Vorschriften transparenter machen

Was ist auf Facebook erlaubt und was nicht? Das ist für Nutzer nicht immer leicht zu erkennen. Jetzt wollen die Betreiber mehr Einblicke in die Vorschriften gewähren - zum Beispiel zu verbotenen Inhalten.

Facebook informiert seine Nutzer künftig ausführlicher darüber, welche Inhalte im weltgrößten Online-Netzwerk verboten sind und entfernt werden. In der Nacht zum Montag wurde dafür eine neue Version der sogenannten „Gemeinschaftsstandards“ veröffentlicht. „Wir ändern unsere Regeln nicht, sondern wollen den Nutzern nur mehr Klarheit darüber verschaffen, wo und warum wir Grenzen einziehen“, sagte die zuständige Facebook-Managerin Monika Bickert.

Statt eines einzelnen Textes mit elf Kapiteln gibt es nun eine Website mit Links zu verschiedenen Themen und mehr Beispielen als bisher. Neu sind Abschnitte über sexuelle Ausbeutung und Inhalte terroristischer Organisationen - es seien aber in allen Fällen die selben Regeln, nach denen Facebook schon vorher gehandelt habe, betonte Bickert. Ihr Team mit „Hunderten“ Mitarbeitern ist dafür zuständig, untersagte Inhalte bei Facebook zu entfernen.

Facebook-Managerin gibt zu, dass Mobbing nicht immer leicht zu erkennen ist

Ausführlicher wird nun zum Beispiel der Umgang mit Nacktheit erklärt: „Wir entfernen Fotos von Personen, auf denen Genitalien oder vollständig entblößte Pobacken zu sehen sind. Außerdem beschränken wir Bilder mit weiblichen Brüsten, wenn darauf Brustwarzen zu sehen sind.“ Fotos von Frauen beim Stillen oder Vernarbungen nach Brustamputationen seien jedoch in jedem Fall erlaubt.

Facebook hat nahezu 1,4 Milliarden Nutzer. Die Regeln umzusetzen, sei nicht nur wegen der Dimension eine große Herausforderung, sagte Bickert, eine frühere US-Staatsanwältin. So müssten ihre Mitarbeiter mit wenig Kontext erkennen, ob ein Facebook-Eintrag zum Beispiel Mobbing oder Gewaltverherrlichung darstelle. „Selbst ein Foto aus der Schule, unter dem einfach nur „Nettes Kleid“ steht, kann unter Umständen als Mobbing gemeint sein“, gab sie zu bedenken.

„Ähnlich kann ein Bild, auf dem Gewalt zu sehen ist, geteilt werden, um sie zu verurteilen - oder um sie zu zelebrieren.“ Im ersten Fall würde Facebook das Foto grundsätzlich zulassen, aber unter Umständen als nur für Erwachsene empfohlen markieren.

Facebook verlässt sich darauf, dass Nutzer selbst verbotene Inhalte melden

„Inhalte, die Nutzer bei Facebook melden, werden grundsätzlich von Menschen geprüft“, sagte Bickert. Die Entscheidungen erforderten eine menschliche Abwägung. Die Prüfer seien über die Welt verteilt, es gebe Spezialisten für verschiedene Sprachen. Zugleich gebe es Grenzen dafür, was ihre Mitarbeiter sehen könnten. „Sie sollen genug Informationen haben, damit sie eine bewusste Entscheidung über Inhalte treffen können.“ Die Prüfer erhielten aber keinen ausufernden Zugang: „Wenn zum Beispiel ein Foto als Mobbing gemeldet wird, bekommen sie nur das Foto plus etwas Kontext dazu zu sehen.“

Facebook verlasse sich weitgehend darauf, dass die Nutzer selbst problematische Inhalte melden, betonte Bickert. „Nur in einigen Bereichen, vor allem, wenn es um die Sicherheit von Kindern geht, haben wir eine Software im Einsatz, die aktiv nach Inhalten sucht“, sagte sie. Sie nannte nicht, für welche weiteren Bereiche das noch gilt.

Facebook war in der Vergangenheit immer wieder wegen Entscheidungen zu einzelnen Inhalten kritisiert worden, etwa wenn Bilder von Protesten oder Fotos von Kunstwerken mit Nacktheit entfernt wurden. Die Veröffentlichung der ausführlicheren Regeln solle das Verfahren dahinter verständlicher machen, sagte Bickert. „Es ist eine große Herausforderung, einheitliche Regeln für die ganze Welt aufzustellen.“ (dpa)

Zur Startseite