Gemeldete Inhalte Facebook: In Essen wird der Hass im Schichtbetrieb gelöscht

In Essen hat Facebook ein weiteres Zentrum errichtet, in dem knapp 500 Mitarbeiter gemeldete Inhalte prüfen und gegebenenfalls löschen.

Foto: Michael Gottschalk

Essen. Wohl an kaum einem anderen Ort werden Hasskommentare und Hetze so unkontrolliert und hemmungslos ins Netz gekübelt wie in den sozialen Netzwerken. Bei Facebook zeichnet sich gerade im Zuge der Flüchtlingsbewegung häufig der geballte Zorn „besorgter Bürger“ in den Kommentarspalten und auf Nutzerprofilen ab. Auf die leichte Schulter nimmt Facebook den Umgang mit dem omnipräsenten Thema Hatespeech nach eigenem Bekunden keineswegs und hat der Hetze im Netz den Kampf angesagt.

Im August kündigte das Unternehmen eine Zusammenarbeit mit dem europäischen Dienstleistungsanbieter CCC (Competence Call Center) an, der seit Mitte Oktober in Essen unter Leitung von Facebooks internationaler Zentrale in Dublin ein Zentrum eigens für die Prüfung und Löschung gemeldeter Inhalte betreibt. Über 400 Mitarbeiter arbeiten dort im Schichtbetrieb daran, bedenkliche Kommentare auf von Facebook festgelegte, mögliche Diskriminierungskriterien wie Rasse, Geschlecht, Religionszugehörigkeit oder sexuelle Orientierung zu prüfen und gegebenenfalls zu entfernen.

Die Jobs seien stark nachgefragt — bis Ende des Jahres will Facebook am Essener Standort das Personal auf 500 Mitarbeiter aufstocken, gaben der Konzern und CCC bei einem gemeinsamen Pressegespräch in Essen bekannt. In Berlin gibt es es ein weiteres Löschzentrum von noch größerer Dimension. In Essen werden indes fünf Sprachen abgedeckt: Englisch, Deutsch, Arabisch, Türkisch und Kurdisch. CCC lockt mit soliden Verdienstmöglichkeiten — angefangen bei 10,65 Euro pro Stunde als Einstiegslohn — entsprechend Qualifikation und Erfahrung mit Luft nach oben, hinzu kommen großzügige Wochenendzuschläge.

Die Anforderungen an die Mitarbeiter sind hoch, betont Ulf Herbrechter von CCC, der das Essener Zentrum leitet. „Unsere Bewerber durchlaufen ein mehrstufiges Auswahlverfahren und werden auch auf psychologische Widerstandsfähigkeit geprüft.“ Denn diese benötigen die Moderatoren der Foren im täglichen Umgang mit verschriftlichtem Hass wohl auch.

„Die seelische Gesundheit unserer Mitarbeiter ist uns sehr wichtig. Deshalb bieten wir beispielsweise einen flexiblen Umgang mit Pausen an.“ Ein Aufenthaltsraum mit einem breiten Freizeitangebot steht für die Mitarbeiter außerdem zur Verfügung — dort gibt es eine Bücherei, Spielekonsolen und „Relaxzonen“ mit gegenüberliegenden Schaukeln, womit Facebook wohl auf recht amerikanische Art ein Zeichen für eine arbeiternehmerfreundliche Unternehmenskultur setzen will. Ein Team von Psychologen ist außerdem ständig als Ansprechpartner für die Mitarbeiter vor Ort.

Doch wo hört freie Meinungsäußerung auf und wo fangen strafrechtlich relevante Hetze und Beleidigung an? Darüber bestehe längst nicht immer Einigkeit und es werde immer wieder leidenschaftlich darüber gestritten, heißt es bei Facebook. Die Mitarbeiter müssten über das politische und gesellschaftliche Tagesgeschehen stets umfassend informiert sein, um auf auf aktuelle Entwicklungen angemessen reagieren zu können. Ein gemeldeter Post durchlaufe mehrere Prüfstationen und obliege nie der Entscheidung eines einzelnen Mitarbeiters.

Doch gibt es auf Facebook auch ethisch indiskutable Inhalte, die zunächst nicht von menschlichen Qualitätsmanagern geprüft werden — etwa bei Kinderpornografie oder terroristischem Propaganda-Material, wo der Konzern auf die technischen Möglichkeiten künstlicher Intelligenz zurückgreift. Problematisches Bildmaterial gelangt etwa automatisch in eine Datenbank, wo es zunächst blockiert wird. Anschließend wird der fragliche Content von menschlicher Hand geprüft und dann vollständig gelöscht oder, falls zulässig, freigegeben.

Alle Sicherheitslücken kann Facebook trotz aller modernen Technologien noch nicht schließen. So wurden in der Vergangenheit etwa schon Live-Videos von Gewaltverbrechen bis hin zu Morden über das Netzwerk verbreitet. Auch sogenannte „Rachepornografie“ (die Veröffentlichung sexuell expliziter Inhalte vom verflossenen Partner) ist gerade in Australien ein wachsendes Problem.

Um dagegen vorzugehen, griff Facebook schon zu ungewöhnlichen Methoden und forderte Nutzerinnen auf, als Vorsichtsmaßnahme ein Nacktbild von sich selbst bei Facebook hochzuladen. Grund: Algorithmen errechnen dann im Ernstfall einen digitalen Fingerabdruck, so dass ein unrechtmäßig hochgeladenes Nacktbild im Ernstfall automatisch blockiert wird.

Mit solchen und anderen kuriosen Erscheinungen wird das soziale Netzwerk wohl auch in Zukunft konfrontiert sein. Walter Hafner bringt es auf den Punkt: „Facebook ist ein Abbild der Gesellschaft.“