Wie Online-Dienste mit Gewalt und Propaganda umgehen
Berlin (dpa) - Radikale Organisationen machen regen Gebrauch von Internet-Diensten für das Anwerben neuer Mitglieder und zur Verbreitung ihrer Gewaltpropaganda.
So veröffentlichte die Terrormiliz Islamischer Statt (IS) ihre Enthauptungsvideos auch über Facebook und Twitter. Sie wurden dort so schnell wie möglich gelöscht, aber insgesamt ist eine Kontrolle schwierig.
Wie gehen Online-Netzwerke wie Facebook und Twitter mit radikaler Propaganda und Darstellung von Gewalt um?
Die Nutzungsbedingungen von Online-Netzwerken verbieten es grundsätzlich, Inhalte mit Hass-Propaganda oder Darstellung von Gewalt zu veröffentlichen. Sie haben spezielle Teams, die für die Einhaltung dieser Regeln sorgen sollen. Auch die Präsenz von Terrorgruppen ist verboten. Allerdings ist es nicht zu verhindern, dass deren Inhalte den Weg zu Facebook oder Twitter finden, weil zunächst einmal alles hochgeladen werden kann.
Wie werden verbotene Inhalte aufgespürt?
Die Online-Netzwerke sind stark darauf angewiesen, dass Nutzer sie auf problematische Bilder, Videos und Einträge hinweisen. Dafür gibt es „Melde“-Buttons. Auf diese Nachricht hin werden die Inhalte von Mitarbeitern der Internet-Firmen geprüft. Dabei werden manche Fälle wie Kinderpornografie, die Androhung von Gewalt oder die Warnung, sich selbst etwas zufügen zu wollen, vorrangig behandelt, sagte jüngst die zuständige Facebook-Managerin Monika Bickert dem Technologie-Blog „Recode“.
Verlassen sich die Online-Netzwerke nur auf menschliche Kontrolle?
Hauptsächlich, aber es werden auch Programme eingesetzt, die Bilder automatisch überprüfen. So nutzt Facebook Microsofts Software Photo DNA, um Fotos mit Kinderpornografie sofort beim Hochladen herauszusieben. Außerdem wird Technik eingesetzt, um im Netzwerk die Verbindungen der Nutzer zu erkunden, von deren Accounts zum Beispiel terroristische Inhalte hochgeladen wurden.
Werden alle Darstellungen von Gewalt gleich behandelt?
Die Online-Netzwerke versuchen eine Gratwanderung. So wird bei Facebook die Verherrlichung von Gewalt nicht toleriert. Aber wenn Nutzer schockierende Bilder veröffentlichen, um auf Missstände aufmerksam zu machen oder eine politische Entwicklung zu beleuchten, versuche man, ihnen eine Plattform dafür zu bieten, betont Facebook-Managerin Bickert. Auch bei Twitter waren zum Beispiel bei den Protesten in den arabischen Welt im Jahr 2012 Bilder der gewaltsamen Niederschlagung von Demonstrationen zu sehen.
Gibt es in anderen Diensten wie Instagram oder WhatsApp ähnliche Sicherheitsmechanismen?
Die Fotoplattform Instagram, die inzwischen zu Facebook gehört, löscht gemeldete öffentliche Bilder. WhatsApp funktioniert als Kurznachrichtendienst grundsätzlich anders als Online-Netzwerke: Die Kommunikation läuft nicht für alle öffentlich sichtbar, sondern privat zwischen den Nutzern. Wenn also zum Beispiel terroristische Propaganda in geschlossenen Gruppen verbreitet wird, ist sie schwer aufzuspüren.