Safer Internet Day 2015
10. Februar 2015"Let's create a better internet together, " ("Gemeinsam für ein besseres Internet") so lautet das Motto einer weltweiten Initiative, deren Aktionstag seit 2008 jedes Jahr am zweiten Tag der zweiten Woche des zweiten Monats stattfindet, also am zweiten Dienstag im Februar. Das Ziel des diesjährigen "Safer Internet Day" am 10. Februar: Einen sichereren und verantwortungsvolleren Umgang mit Online-Technologien und Mobiltelefonen, ganz besonders für Kinder und Jugendliche - für die das Internet zunehmend unverzichtbar wird.
Im Wesentlichen heißt das: Ein "besseres Internet" schafft man durch mehr Sicherheit. Diesem Ziel haben sich während der letzten elf Jahre seit die globale Initiative existiert rund 100 Länder und eine Reihe von großen Firmen verschrieben.
"Besonders beeindruckend am Safer Internet Day ist die Anzahl der konkurrierenden Tech-Unternehmen, die an diesem einen Tag all ihre Differenzen beiseite legen, um sich ganz auf das Motto des Tags zu konzentrieren", sagt Larry Magid, Co-Direktor der Non-Profit-Website "Connectsafely.org". Unter den teilnehmenden Unternehmen sind zum Beispiel Microsoft, Google, Facebook und Twitter, sowie eine Vielzahl von Non-Profit-Organisationen und Interessengemeinschaften.
Der besondere Schwerpunkt in diesem Jahr liegt darauf, die Verbreitung von gewalttätigen Inhalten zu minimieren - insbesondere in sozialen Netzwerken. Das wichtigste Treffen in den Vereinigten Staaten hierzu findet im Facebook-Headquarter im Herzen des Silicon Valley statt. Es geht um die große mediale Aufmerksamkeit, die die Online-Verbreitung eines IS-Enthauptungsvideos ausgelöst hat - und auch um die Forderung, dass Facebook solche Inhalte künftig blockieren sollte. Das soziale Netzwerk und Twitter hatten aufgrund dessen bereits Regeländerungen vorgenommen.
Facebook und Twitter feilen an den Nutzungsbedingungen
Der Social Network-Riese hatte im Dezember angekündigt, Gewaltvideos künftig grundsätzlich mit einem Warnbildschirm zu versehen und die Nutzer erst zu fragen, ob sie "sich sicher sind, den Inhalt ansehen zu wollen", und daran zu erinnern, dass "dies unter Umständen schockierend oder beleidigend" sein kann. Minderjährige Nutzer unter 18 sollen auf solche Videos gar nicht erst zugreifen können.
Facebook ist in der Vergangenheit oftmals dafür in die Kritik geraten, das Posten und Teilen expliziter umstrittener Inhalte zuzulassen und Forderungen nach strengeren Richtlinien zurückzuweisen. Der Internetdienst wollte die Kontrolle, was auf den persönlichen Profilen zu sehen ist und was nicht, seinen Nutzern selbst überlassen. Aber nach der Verbreitung des IS-Videos sind diese Forderungen nach strengeren Richtlinien lauter geworden - nicht nur bezogen auf Facebook.
Twitter hatte im Dezember bekanntgegeben, dass es das Verfahren, unzulässige Inhalte zu melden, vereinfachen möchte.
"Wir möchten es den Nutzer leichter machen, Tweets zur Überprüfung zu markieren", schreibt Shreyas Doshi, der für die Nutzersicherheit bei Twitter zuständig ist, auf seinem Blog. "Und um schnellere Reaktionszeiten zu ermöglichen, haben wir die erste von mehreren Verbesserung der Werkzeuge und Prozesse schon hinter den Kulissen durchgeführt. Die Überprüfung gemeldeter Tweets und Konten wird uns dadurch erleichtert."
Die Technologie, die automatisch Videos mit expliziten Inhalten blockiert, gibt es zwar schon. Aber sowohl Facebook als auch Twitter zögern, sie einzusetzen. In einer Facebook Erklärung heißt es, die Technologie sei noch nicht richtig entwickelt und könne nicht zwischen expliziten Video-Inhalten unterscheiden, die in einem ernsten Artikel vorkommen und solchen, die gepostet werden, um Gewalt zu verherrlichen.
Die große Mehrheit der "zu entfernenden Inhalte melden uns schon die Nutzer", sagt ein Sprecher von Twitter - mit einer Ausnahme:
"Wir nutzen PhotoDNA, um kinderpornografische Inhalte zu identifizieren", so steht es in einem Statement. Die Verbreitung von gewalttätigen Inhalten sei ein anderes Thema.
Eine Frage des Rechts?
"Hat ein Kind einmal eine Sache gesehen, kann es das nicht mehr ungeschehen machen, " sagt Will Gardner, Sprecher der Nichtregierungsorganisation "Childnet International".
"Der Nutzer ist wie ein Moderator. Er oder sie berichtet der Plattform über den missbräuchlichen oder beleidigenden Inhalt. Das schützt aber nicht vor unbeabsichtigtem Kontakt mit Gewaltvideos, weshalb wir die Änderungen, die bei Twitter und Facebook durchgeführt wurden, begrüßen", sagt Gardner, der zufälligerweise auch beratend für Facebook tätig ist.
Immer lauter werden auch die Rufe, gewalttätig Inhalte komplett aus den sozialen Netzwerken zu verbannen. Doch es fehlt weiterhin an den gesetzlichen Richtlinien, um das umzusetzen.
"Ein Zugang zum Internet ist für Kinder heute selbstverständlich", meint Petra Grimm, Professorin für Digitale Ethik an der Hochschule der Medien in Stuttgart. "Und deshalb brauchen wir Gesetze, die regeln, was mit gewalttätigen Inhalten passiert, wenn es zu ihrer Verbreitung im Internet kommt."
Grimm, die auch die Studie "Gewalt im Web 2.0" verfasst hat, fordert die Einführung internationaler gesetzlicher Richtlinien in Bezug auf die "Verbreitung von gewalthaltigen Inhalten im Internet sowie Aktionen ausübender Gewalt über das Internet", vergleichbar mit denen, die bei Kinderpornographie bereits existieren.
"Da das Internet nicht vor Ländergrenzen halt macht ", fasst Grimm zusammen, "bedarf es zur wirksamen Bekämpfung gewalttätiger Inhaltemöglichst einheitlicher Standards und Rahmenbedingungen."