Jagd auf Internet-Trolle
"Wenn man schlechte Laune bekommen will, muss man nur ins Internet gehen und sich Leserkommentare bei Zeitungen anschauen", weiß Autorin Ronja von Rönne im Interview mit der Deutschen Welle. "Je politischer, desto besser." Rönne weiß, wovon sie spricht. Nachdem sie in der "Welt" einen umstrittenen Artikel gegen Feminismus veröffentlicht hatte, brach ein Shitstorm gegen sie los. Künftig könnte die Technik auf ihrer Seite stehen und ihr helfen: Denn Google-Tochter Jigsaw hat am Donnerstag eine Software auf den Markt gebracht, die Hasskommentare im Netz sofort auffinden soll. Was danach mit ihnen passiert, ist allerdings den Verlagen überlassen.
Die selbstlernende Software namens "Perspective" soll mit Hilfe eines Algorithmus Texte danach einstufen, ob und wie stark sie gehässig, gemein oder verletzend sind. Im Hintergrund gibt es eine Datenbank mit bereits von Menschen bewerteten Kommentaren. Die Software orientiert sich daran und vergibt für jeden Kommentar einen Prozentwert. Dieser sagt aus, wieviele ähnliche Kommentare von Menschen als problematisch empfunden wurden.
Das Google-Programm kann auf mehr als 17 Millionen von solchen bereits bewerteten Kommentaren zurückgreifen. Ein Teil stammt aus der Online-Bibliothek Wikipedia, die meisten aber steuerte die "New York Times" aus ihren Leserkommentaren bei. "Dieses System macht hauptsächlich statistische Aussagen darüber, wie oft welche Wörter darin vorkommen", so der Redakteur der Computerzeitschrift c't, Johannes Merkert, im Gespräch mit der DW. Daraus, so Merkert weiter, lasse sich dann schließen, wie hoch die Wahrscheinlichkeit ist, dass der Kommentar bewusst verletzen oder beleidigen soll.
Wie giftig bin ich?
Laut Jigsaw kann die Software Moderatoren so auf verdächtige Kommentare aufmerksam machen. Kommentatoren bekommen bereits beim Schreiben angezeigt, wie "giftig" ihr Text eingeschätzt wird. Außerdem können Leser die Kommentare so sortieren lassen, dass besonders gehässige Beiträge ausgeblendet werden.
Der Ansatz bei "Perspective" gehe deutlich über den Abgleich mit einer Liste verdächtiger Schlüsselbegriffe hinaus, sagt Jigsaw-Manager Jared Cohen. Die dahinter steckende künstliche Intelligenz kann auch erkennen, ob ein Beitrag von einem menschlichen Anwender als unangemessen beurteilt wird und dieser daraufhin die Konversation verlassen möchte.
Der Dienst steht vorerst nur für englischsprachige Diskussionsforen zu Verfügung. Wer jedoch schon mal testen möchte, kann einen Kommentar auf der Webseite von "Perspective" schreiben - und bekommt daraufhin schon bereits nach einem getippten Wort angezeigt, zu wieviel Prozent der Kommentar denen gleicht, die als "toxic" also giftig eingestuft werden. Was wie eingestuft wird, hängt auch vom Zusammenhang ab. Ein Kommentar wie " Trump lies" ("Trump lügt") wird zu 51 Prozent als toxisch eingestuft - "Clinton lies" dagegen nur zu 32 Prozent.
Wie wichtig eine solche Unterstützung für Online-Medien sein könnte, zeigt sich im Netz besonders bei Beiträgen zur Flüchtlingspolitik oder rechtspopulistischen Strömungen. Diese werden so stark mit Hasskommentaren geflutet, dass Redakteure kaum noch mit dem Löschen nachkommen.
Bei der "New York Times", bei der das Programm bereits getestet wurde, müssen 14 Redakteure täglich rund 11.000 Leserkommentare auswerten. Einige Artikel werden deshalb - ähnlich wie auch bei Spiegel Online oder der Süddeutschen Zeitung - gar nicht erst zur Kommentierung freigegeben. Die "Neue Zürcher Zeitung" hat das Forum unter Online-Artikeln komplett abgeschaltet.
Eine Software wie "Perspective" könnte somit auch wieder dafür sorgen, dass wieder mehr diskutiert wird. Auch für die anstehenden Wahlen hätte das Programm einen positiven Einfluss, sagt Alexander Waibel vom Karlsruher Institut für Technologie (KIT) der DW. "Durch Kommentare hat man versucht, Wahlen zu beeinflussen und Diskussionen entgleiten zu lassen. Doch wer hat schon Zeit, dem Ganzen nachzugehen?"
Die Lücke im System
Computerexperte Merkert hat jedoch auch Zweifel am Programm. "Perspective" hat zwar eine relativ hohe Trefferquote, aber im Gegensatz zu einem menschlichen Moderator kann es den Text inhaltlich nicht erfassen. "Das heißt, es ist immer möglich, mit einer ungewöhnlichen Formulierung das System aufs Glatteis zu führen. Und dann zeigt er unter Umständen an, dass ein konstruktiver Kommentar schädlich wäre – oder auch umgekehrt", sagt Merkert. Auch Fehler im System haben erhebliche Fehler zur Folge. Denn anders als der Mensch ist das Programm ständig im Einsatz. "Wenn ein System an einer Stelle falsch liegt, kann das millionenfach angewendet werden."
Auch eine Form von Zensur ist über "Perspective" denkbar. "Es führt zu keiner großen Änderung in der Meinungsfreiheit, aber es besteht natürlich die Gefahr, dass es so bequem ist, das System anzuwenden, dass irgendwann nicht mehr hinterfragt, ob das System Fehler macht", warnt Merkert. Länder wie China nutzen solche Algorithmen bereits bewusst, um die Meinungsfreiheit zu unterdrücken. "Dort weichen die Leute auch schon auf andere Formulierungen aus, um der Zensur zu entgehen." Bis das System auch blumige Umschreibungen von Politikern erkennt, können Nutzer wieder frei diskutieren.