Content Moderatoren filtern gewalttätige Posts, Bilder, Videos und Chats aus den Sozialen Medien. Sie machen die Plattformen sicher, aber arbeiten selbst unter unsicheren Bedingungen. Jetzt begehren sie auf.
Von Petra Welzel
Am 9. und 10. März hatte ver.di zu einem Treffen von sogenannten Content Moderatoren eingeladen. Rund 50 von ihnen, die 24 Stunden sieben Tage die Woche sämtliche Inhalte auf den verschiedenen Social-Media-Plattformen kontrollieren und gegebenenfalls löschen, wenn sie die Grenzen des Erlaubten überschreiten, waren aus ganz Deutschland nach Berlin gekommen. Sie arbeiten für TikTok, Facebook, Twitter und Co. Im Englischen werden sie auch „Cleaner“ genannt, Reinigungskräfte, die den Dreck aus dem Internet fegen. Und so prekär oftmals die Situation von Reinigungskräften ist, sind auch die Arbeitsbedingungen der Content Moderatoren in vielerlei Hinsicht mehr als problematisch: Sie arbeiten im Verborgenen, dürfen über ihre Arbeit nicht sprechen, werden psychologisch kaum unterstützt, obwohl sie täglich zehntausende Posts, Bilder und Videos voll Gewalt und Hass ansehen und löschen müssen. Und sie werden schlecht bezahlt.
12 Stunden am Tag
Daran wollen die Content Moderatoren jetzt etwas ändern. In Berlin haben sie sich auf drei grundsätzliche Forderungen verständigt: Sie fordern gleiche Bezahlung, denn viele von ihnen arbeiten für Subunternehmen der großen Plattformen zu deutlich schlechteren Bedingungen. Sie fordern das Recht, sich gewerkschaftlich zu organisieren und Betriebsräte zu gründen. Bei TikTok konnten die Beschäftigten im vergangenen Jahr mit Unterstützung von ver.di bereits einen Betriebsrat gründen. Und vor allem fordern sie einen regulären Gesundheitsschutz für ihre Psyche. Hikmat El-Hammouri, ver.di-Gewerkschaftssekretär und Mitorganisator dieses ersten Treffens von Content Moderatoren in Deutschland betont: „Content Moderatoren sind ein menschlicher Filter für das Grausamste, was es gibt.“
2018 war es einem Team des Westdeutschen Rundfunks gelungen, erstmals Content Moderatoren in Manila auf den Philippinen vor die Kamera zu bekommen. Dort säubern zehntausende Content Moderatoren tagtäglich bis zu 12 Stunden das Netz von Vergewaltigungsbildern, Enthauptungsvideos, Selbstverletzungen, Rassismus, Kindesmissbrauch, verstörenden Kriegsbildern, Pornographie, kurzum von allem, was sonst nur in illegalen Dark Rooms im weltweiten Netz zu finden ist. Dem WDR-Team schrieben die philippinischen Content Moderatoren in einem gemeinsamen Chat, dass sie irgendwann das Gefühl bekamen, Gewalt ist normal und keine Ausnahme.
Den Artikel mussten wir kürzen. Zum ausführlichen Artikel mit dem Link zur WDR-Dokumentation:
https://kurzelinks.de/solg