Zum Hauptinhalt springen

Facebooks Aufpasser haben genug von Sex- und Gewaltvideos

Täglich sichten sie stundenlang grauenhafte Inhalte für wenig Geld – und zerbrechen daran. Nun klagen die Moderatoren gegen Zuckerbergs Konzern.

Walter Niederberger
Facebook-Moderatoren in Berlin: Brutaler Arbeitsalltag. (Foto: Gordon Welters/Laif/Keystone)
Facebook-Moderatoren in Berlin: Brutaler Arbeitsalltag. (Foto: Gordon Welters/Laif/Keystone)

Sean Burke arbeitete für Tech-Konzerne wie Cisco und SAP, bevor er als Moderator zu Facebook wechselte. Nichts hätte ihn aber auf die Brutalität der neuen Aufgabe vorbereiten können. «Am ersten Tag sah ich, wie jemand mit einer nägelbestückten Holzlatte zu Tode geschlagen wurde. Am zweiten Tag musste ich mir zum ersten Mal Sex mit Tieren anschauen – und danach eskalierte alles», sagt er.

Moderatoren wie er berichten von einer endlosen Serie von unmenschlich grauenhaften Videos und Fotos: Vergewaltigung von Kleinkindern, Sex mit Minderjährigen, Enthauptungen, Quälen von und Sex mit Tieren, Ritualmorde, Amokläufe, Terroranschläge, rassistische Hasstiraden.

Burke ist einer von 15'000 Moderatoren, die Facebook nach dem Auffliegen des russischen Wahlkomplotts bei den US-Wahlen 2016 eingestellt hat. Sie arbeiten für Drittfirmen wie Cognizant und Accenture in Austin (Texas), Berlin, Barcelona, Dublin oder auch in Indien. Ihr Auftrag: Sie sollen Facebook sauber halten.

Berichte über psychische Schäden durch gewalttätige Inhalte seien «etwas überdramatisiert», sagt Zuckerberg.

Die Moderatoren arbeiten unter Zeitdruck und riskieren ihre Stelle, wenn sie die Vorgabe nicht erreichen. Im Google-Zentrum in Austin begutachten die Moderatoren fünf Stunden lang brutale Videos, obwohl Youtube-Chefin Susan Wojcicki eine Reduktion auf vier Stunden in Aussicht gestellt hatte. Im Facebook-Zentrum in Dublin wurde das Plansoll inzwischen auf 400 bis 500 «Tickets» pro Schicht reduziert.

Das heisst, die Moderatoren haben eine Minute Zeit zur Begutachtung eines anstössigen Inhaltes. Sie haben Anrecht auf ein Therapiegespräch von 45 Minuten pro Woche. Ob das genügt, ist zweifelhaft. Nun fangen Mitarbeiter an, sich vor Gericht gegen die Arbeitsbedingungen zu wehren.

Im März klagten zwei frühere Moderatoren in Kalifornien gegen Facebook, weil die Arbeit schwere Traumata verursacht und sie arbeitsunfähig gemacht habe. Und in Irland haben kürzlich zwölf Ex-Moderatoren eine umfassendere Klage eingereicht.

Tiefer Lohn, schlechte Bedingungen

Mark Zuckerberg reagierte wie immer, wenn sein Konzern in die Kritik gerät: Er beschwichtigte. Berichte über psychische Schäden durch die gewalttätigen Videos, Fotos und Texte seien «etwas überdramatisiert», sagte er im Oktober an einem Mitarbeitertreffen. Trotzdem lehnte er es ab, sich selber einige Stunden als Moderator zu betätigen und die Facebook-Plattformen von Inhalten zu säubern, die so verstörend sind, dass die mit der Aufgabe betrauten Angestellten traumatisiert werden und ihre Stelle aufgeben.

Als ob die Inhalte nicht bedrückend genug wären, machen die Arbeitsbedingungen die Lage noch schlimmer: Chris Gray, ein früherer Facebook-Moderator, hatte während seiner Nachtschicht bis zu 1000 «Tickets» auf seinem Bildschirm. Zunächst musste er Porno-Inhalte ausmisten, dann folgten Inhalte mit «bedrohenden, hasserfüllten, einschüchternden und anderswie gefährlichen Botschaften». Was ist gemeint? Die Steinigung einer Frau, Folter an Menschen mit geschmolzenem Metall, die Erdrosselung lebender Hunde und ein «Musical» mit einer Collage von tödlichen Unfällen.

Die Löhne liegen zudem weit unter dem, was die Festangestellten verdienen. Moderatoren in Phoenix verdienen nach Angaben des Internetmagazins «The Verge» rund 29'000 Dollar pro Jahr. Für Google-Moderatoren liegt der Jahresverdienst bei rund 37'000 Dollar.

Einige Moderatoren übernehmen sogar rassistische und rechtsextreme Meinungen, denen sie ausgesetzt sind.

Moderatoren leiden gemäss den Klageschriften bereits nach einigen Monaten an traumatischen Syndromen, Ess- und Schlafstörungen, chronischer Angst und Panikattacken. Sie sondern sich ab, sie beruhigen sich mit Drogen, ihre Angehörigen sorgen sich wegen Verhaltensänderungen. Einige erleben sogar einen Sinneswandel und übernehmen rassistische und rechtsextreme Meinungen, denen sie ausgesetzt waren.

Viele Moderatoren wollten ihre Ängste und Leiden nicht öffentlich machen, erklärt die Anwältin Diane Trevor, die die Sammelklage in Irland gegen Facebook koordiniert. Sie hätten auch Angst, sich ihren Familienangehörigen gegenüber zu öffnen, und fürchteten, keine Stelle mehr in der Tech-Branche zu finden, wenn ihre Traumata bekannt würden.

Hinzu kommen kulturelle Klüfte. Facebook und Google sind wegen ihrer Sprachkenntnisse auf Moderatoren aus dem arabischen Raum angewiesen. Nur sie können muslimische Hasspropaganda und Terrorinhalte kompetent beurteilen. Sie treten die Stelle in der Hoffnung auf einen erleichterten Immigrationsprozess an und darauf, eines Tages eine Vollzeitstelle bei einem Tech-Unternehmen zu ergattern. Auch sie halten sich zurück mit Klagen, um ihre labile Situation in den USA nicht zu gefährden.

Facebook und Google sind sich der prekären Arbeit der Moderatoren bewusst und versuchen, die psychologische Bürde zu lindern. Google führte zum Beispiel Experimente durch, bei denen brutale Videos in Grautöne gefärbt und die Gesichter verpixelt wurden. Der Test zeigte, dass eine solche optische Abschwächung der Videos die psychische Belastung verringern kann.

Dabei wird die Belastung aber steigen. Je mehr Regierungen weltweit die sozialen Medien zur Verantwortung für die Inhalte ziehen wollen, desto mehr Aufpasser wird es brauchen. Derweil aber teilte Cognizant im Oktober mit, alle Moderationsaufgaben für Facebook, Google und andere Plattformen im kommenden Jahr aufzugeben und 6000 Stellen zu streichen – obwohl das Unternehmen damit jährliche Gewinne von 240 bis 270 Millionen Dollar machte. Stattdessen wolle man in künstliche Intelligenz investieren, teilte Cognizant mit. «The Verge» nennt die Aufgabe der Moderatoren «eine unmögliche Arbeit». Der Rückzug eines der grössten Anbieters dieser Dienste erhärtet diese Ansicht.

Dieser Artikel wurde automatisch auf unsere Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch