Sie sind die unsichtbaren Reinigungskräfte des Internets. Content-Moderatoren arbeiten dort, wo sich die Menschheit von ihrer hässlichsten und verstörendsten Seite zeigt: tief in den Schattenwelten der sozialen Medien. Für viele ist die psychische Belastung zu hoch.

Wer hält eigentlich das Internet „sauber“? Pro Minute werden auf YouTube rund 500 Stunden Videomaterial hochgeladen. Auf Facebook sind es 2,5 Millionen Posts pro Minute. Wer sorgt dafür, dass darunter keine gewalttätigen- oder pornografischen Bilder und Videos sind? Viele Nutzer sozialer Medien nehmen an, dass Algorithmen für die Auswertung der Inhalte zuständig seien – immer wenn ein Text, Bild oder Video hochgeladen wird, wertet ein Computer aus, was es darstellt und ob es den Richtlinien entspricht oder gelöscht werden muss. Das stimmt aber nur bedingt. Tatsächlich sind noch immer Menschen – eine ganze Schattenindustrie von weltweit geschätzten 150.000 sogenannten Content-Moderatoren – für die Sichtung und Moderation der Inhalte nötig.

Schlecht ausgebildet, unterbezahlt und psychisch belastet

Google, Facebook und Co. haben diese Aufgaben meist an Drittfirmen ausgelagert. Über die Arbeitsverhältnisse dieser Dienstleister war bisher wenig bekannt. Die Lösch-Teams werden hermetisch von der Öffentlichkeit abgeschirmt und müssen strenge Schweigeklauseln unterschreiben, die noch über das Ende ihrer Arbeitsverträge hinausgehen. Doch in den vergangenen zwei Jahren ist (dank investigativem Journalismus und Aussteiger-Berichten) immer mehr über den Berufszweig der Content-Moderation öffentlich geworden.

Dabei kamen erhebliche Missstände ans Licht: Die Angestellten sind meist schlecht ausgebildet, unterbezahlt und entwickeln nicht selten psychische Erkrankungen. Sie leiden unter den traumatisierenden Bildern, die sie auswerten mussten.

„Der Job hat mich verändert“

Anfang des Jahres veröffentlichte das SZ-Magazin den offenen Brief der ehemaligen Content-Moderatorin Burcu Gültekin Punsmann. Sie hatte in Berlin bei der Bertelsmann-Firma Avato gearbeitet und im Auftrag von Facebook gemeldete Inhalte überprüft. Punsmann berichtet, wie sie pro Tag 1.300 Meldungen abarbeiten und dabei innerhalb von wenig Sekunden entscheiden musste, ob diese gelöscht oder ignoriert werden sollen. Darunter waren viele beleidigende Posts und Mobbing, aber immer wieder auch Darstellungen extremer Gewalt: Folter, Tierquälerei, Kindesmisshandlungen, Enthauptungen.

Nach drei Monaten kündigte Punsmann. Der Job habe sie verändert, schreibt sie: „Jeder Laie, der gesehen hat, was ich am laufenden Band gesehen habe, muss zu der Überzeugung kommen, dass unsere Gesellschaft krank ist.“

Sie entscheiden, was der Rest der Welt zu sehen bekommt

Der Großteil der Outsourcing-Firmen, die die Content-Moderation der großen Internetkonzerne übernimmt, liegt jedoch in Entwicklungsländern, wo die Arbeitsbedingungen noch weitaus prekärer sind. Für ihre Dokumentation „The Cleaners“ konnten die deutschen Filmemacher Hans Block und Moritz Rieseweck Kontakt mit ehemaligen und aktiven Moderatoren in der philippinischen Hauptstadt Manila aufnehmen.

Sie deckten auf, dass die Angestellten hier in großen Fabriketagen bis zu 25.000 Bilder pro Schicht auswerten – für etwa ein bis drei Dollar pro Stunde. Und die Arbeiter sind kaum qualifiziert: Um als Moderator zu arbeiten, müssen sie lediglich drei Tage lang hunderte Seiten von komplexen Richtlinien auswendig lernen, die sie dann nach dem Training wieder abgeben müssen, weil die Unternehmen befürchten, ihre Guidelines könnten an die Öffentlichkeit gelangen. Danach entscheiden sie dann meist nach ihrem Bauchgefühl, was der Rest der Welt zu sehen bekommt und was nicht: Was ist Beleidigung und was Satire? Was ist freie Meinungsäußerung und was Hetze? Was ist Kriegs- oder Gewaltverherrlichung und was ein wichtiges historisches Dokument?

Wie das schiefgehen kann, veranschaulicht ein philippinischer Content-Moderator anhand der Schwarz-Weiß-Fotografie eines unbekleideten Mädchens, das schreiend auf der Straße läuft. Man könne hier die Genitalien sehen, erklärt er, das falle deshalb unter Kinderpornografie: „Also Löschen!“ Dass es sich hierbei um eines der bedeutendsten Kriegsfotografien der Welt handelt – nämlich um das Foto der neunjährigen Kim Phuc, die 1972 nach einem Napalmangriff in Vietnam mit schweren Verbrennungen auf einen Reporter zuläuft – fand in den wenigen Sekunden Entscheidungszeit offenbar keine Beachtung.

Wie Soldaten nach dem Kriegseinsatz

Die Dokumentation zeigt auch die mangelnde psychische Betreuung der Moderatoren in Manila. Einige der Beschäftigten weisen ähnliche Symptome auf wie Soldaten nach Kriegseinsätzen und entwickeln Depressionen, Angststörungen oder posttraumatische Belastungsstörungen. Über die grausamen Inhalte, die sie sich täglich bis zu zehn Stunden lang anschauen, dürfen sie mit niemandem sprechen – so will es der Vertrag. Ihre Familien glauben, sie hätten gewöhnliche Büro-Jobs. Dabei ist es gerade für traumatisierte Menschen so wichtig, über ihre Erlebnisse sprechen zu können.

Besonders traumatisierend für die Lösch-Trupps sind Live-Streams von Menschen, die sich vor laufender Kamera selbst verletzen oder Suizid begehen. Solche Szenen des Schreckens hinterlassen Narben. Und so soll auch die Suizidrate unter den Content-Moderatoren auf den Philippinen alarmierend hoch sein.

Der Druck auf die Internetkonzerne wächst

Noch bleibt die belastende Arbeit der Content-Moderator notwendig für ein „sauberes“ Internet. Computerprogramme können Bilder und Videos zwar immer besser automatisch erkennen und auswerten. Aber für die Interpretation der Inhalte braucht es noch immer ein menschliches Urteil. Derweil wächst der öffentliche Druck auf die Internetkonzerne, die Arbeitsbedingungen ihrer Beschäftigten (und die ihrer Partnerfirmen) zu verbessern. Erst kürzlich verklagte eine ehemalige Content-Moderatorin aus San Francisco Facebook, weil sie wegen ihres Jobs an einer posttraumatischen Belastungsstörung leide. Ihre Anwälte wollen eine Sammelklage anstreben, der sich auch andere Beschäftige anschließen können. Sie fordern die Einrichtung eines Fonds für medizinische Tests und bessere psychische Betreuung und Beratung für alle Content-Moderatoren.