Facebook konkretisiert Nutzer-Regeln
16. März 20151,4 Milliarden Menschen nutzen Facebook weltweit. Und so unterschiedlich wie die einzelnen Nutzer sind auch die Inhalte, die sie in dem sozialen Netzwerk posten und teilen. Facebook hatte deshalb Gemeinschaftsstandards und Regeln für unerwünschte Inhalte eingeführt, doch offenbar gab es weiteren Klärungsbedarf.
Viele Nutzer hätten sich eine verständlichere Erklärung dafür gewünscht, was erlaubt oder nicht erlaubt ist, sagte Facebook-Sprecherin Monika Bickert. Als Reaktion darauf wurde in der Nacht zum Montag eine neue Version der sogenannten "Gemeinschaftsstandards" veröffentlicht. "Wir ändern unsere Regeln nicht, sondern wollen den Nutzern nur mehr Klarheit darüber verschaffen, wo und warum wir Grenzen ziehen", so Bickert.
Mehr Beispiele als bisher
Statt eines einzelnen Textes mit elf Kapiteln gibt es nun eine Website mit Links zu verschiedenen Themen und mehr Beispielen als bisher. Zum Beispiel im Umgang mit Nackheit. So heißt es auf der neuen Seite: "Wir entfernen Fotos von Personen, auf denen Genitalien oder vollständig entblößte Pobacken zu sehen sind. Außerdem beschränken wir Bilder mit weiblichen Brüsten, wenn darauf Brustwarzen zu sehen sind." Fotos von Frauen beim Stillen oder Vernarbungen nach Brustamputationen seien jedoch erlaubt. Neu sind auch die einzelnen Abschnite über sexuelle Ausbeutung und Inhalte terroristischer Organisationen.
Suche als tägliche Herausforderung
Für Facebook selbst ist die Umsetzung der Regeln eine tägliche Herausforderung. Laut Sprecherin Bickert arbeiten hunderte Mitarbeiter daran, untersagte Inhalte zu entfernen. Ihnen blieben oft nur wenige Informationen über den Zusammenhang eines Bildes. "Selbst ein Foto aus der Schule, unter dem einfach nur 'Nettes Kleid' steht, kann unter Umständen als Mobbing gemeint sein", gab Bickert zu bedenken. "Ähnlich kann ein Bild, auf dem Gewalt zu sehen ist, geteilt werden, um sie zu verurteilen, oder um sie zu zelebrieren." Unterstützung bei der Suche nach unerwünschten Inhalten bekommen die Mitarbeiter dabei von einer Software, die aktiv nach entsprechenden Bildern sucht.
Facebook war in der Vergangenheit immer wieder wegen Entscheidungen zu einzelnen Inhalten kritisiert worden. Zum Beispiel, weil Bilder von Protesten oder Fotos von Kunstwerken mit Nacktheit entfernt wurden.
djo/mm (afp, dpa)