Bild: Unsplash

Urlaubsbilder, Freunde und Freizeit prägen unsere Social-Media-Welt – doch wer entfernt Gewalt und Hass?

Von Olivia Mangold

Videos von Kindesmissbrauch, Gewalt und Enthauptungen gehören zum alltäglichen Arbeitsleben tausender Angestellter von großen Unternehmen wie Facebook, Twitter und YouTube dazu. Aber was steckt hinter diesem außergewöhnlichen Job? Und wieso ist diese Arbeit so unglaublich wichtig für das Internet?  

Die Regisseure Hans Block und Moritz Riesewick beschäftigen sich mit dieser Thematik in ihrem Dokumentarfilm The Cleaners (2018) genauer. Sie interviewten ehemalige Angestellte zu ihrem Arbeitsalltag und ihren Arbeitsbedingungen. Die zum Teil noch 18 bis 19 Jahre alten Personen filtern das heraus, was wir als Nutzer*innen in den sozialen Medien nicht zu Gesicht bekommen sollen, um uns vor den negativen Inhalten zu schützen. Ihr Arbeitsbereich nennt sich „Content-Moderation“. Hört sich erstmal harmloser an, als dieser Job wirklich ist.

 

Ein neues Netzzeitalter: Was bringt es mit sich?

Ein Merkmal unseres neuen Netzzeitalters ist die Disintermediation. Bedeutet: Vermittler*innen wie Journalist*innen verlieren ihr „Gatekeeper“-Monopol. In den traditionellen Massenmedien waren sie es, die darüber entschieden, was die Öffentlichkeit sehen und was sie nicht sehen soll. Heute kann jede*r ohne großen Aufwand publizieren. Das heißt nicht nur, dass ihr jetzt eure Urlaubsbilder mit jedem teilen könnt, sondern auch, dass kriminelle Personen Videos und Bilder von ihren Straftaten veröffentlichen können und jeder darauf zugreifen kann. Deshalb liegt es in der Verantwortung von Facebook, Twitter, YouTube und Co., gewaltsame und illegale Inhalte von den sozialen Netzwerken fernzuhalten. Grundsätzlich ist die Content-Moderation eine Aufgabe, die jedes Unternehmen lösen muss, das auf Online-Portalen die Möglichkeit zum Posten von Kommentaren und Bildern bietet. Dafür gibt es mittlerweile in vielen Ländern Unternehmen, die sich genau darauf konzentrieren. Unter Content-Moderation ist die Kontrolle, Bewertung und Kategorisierung von Inhalten im Internet zu verstehen. Dazu gehören Texte, Fotos und Videos, die von den Usern in den sozialen Medien hochgeladen werden. Weltweit sind mehrere hundert Tausend Menschen in diesem Beruf tätig. Der weltweit größte Standort hierfür ist Manila, die Hauptstadt der Philippinen.

Billiglöhne auf den Philippinen

Makati: Eine Stadt in den Philippinen, die 20 Minuten mit dem Auto von der Hauptstadt Manila entfernt ist. Dort sind ebenfalls Content-Moderator*innen tätig. Bild: Unsplash

Expert*innen gehen davon aus, dass circa 10.000 Menschen in Manila als Content-Moderator*innen tätig sind. Ein Grund dafür ist die geringe Bezahlung der Bewohner*innen und die damit einher gehenden geringen Ausgaben für das Unternehmen. Den philippinischen Content-Moderator*innen wird vermittelt, sie würden für das Ausführen des Jobs die westlichen Werte teilen. Doch ihre Bezahlung ähnelt unserer westlichen Welt keineswegs. Ein durchschnittlicher Verdienst pro Monat beträgt dort 500 Dollar, während eine Content-Moderator*in aus den USA in einer Stunde mehr verdient als jemand von den Philippinen an einem ganzen Tag. Deren Aufgaben unterscheiden sich jedoch nicht erheblich. Während sich beispielsweise die philippinischen Moderator*innen mehr um die Basismoderation kümmern, erhalten US-Moderator*innen Aufgaben, die ein höheres Verständnis des nationalen Kontextes erfordern.

Was bekommen die Content-Moderator*innen zu sehen?

Vielleicht kennt ihr die Situation: ihr scrollt auf Instagram und plötzlich kommt euch ein Beitrag entgegen, der beispielsweise Gewalt, Missbrauch oder Tierquälerei enthält. Da ihr der Meinung seid, dieses Bild sei nicht für die Öffentlichkeit bestimmt, habt ihr die Möglichkeit, den Beitrag zu melden. Wenn genügend Menschen die gleiche Ansicht haben und den Beitrag ebenfalls melden, wird der Post meist gelöscht oder es wird eine Trigger-Warnung eingeblendet. Dieser Vorgang wird „Flaggen“ genannt. Das ist der erste Schub an Bildern und Videos, die von den Content-Moderator*innen überprüft und gegebenenfalls von ihnen gelöscht werden. Zu ihren Themengebieten gehören Kindesmissbrauch, Rassismus, Gewalt, Enthauptungen, nackte Haut und Blut.

Kann diese Aufgabe nicht heutzutage von Algorithmen übernommen werden?

Ja, aber leider nicht vollständig. Soziale Netzwerke haben inzwischen gut programmierte algorithmische Vorfilter. Sie sind in der Lage, Geschlechtsorgane, Blut und nackte Haut zu erkennen und zu identifizieren. Die betroffenen Beiträge werden dann an die Content-Moderator*innen weitergeleitet, um dort ein zweites Mal überprüft zu werden. Doch Algorithmen stoßen an ihre Grenzen, wenn es um Gefühle, Sarkasmus und Ironie geht.

Das Bauchgefühl entscheidet

Jede Minute löschen Content-Moderator*innen tausende Beträge auf den sozialen Netzwerken. Ohne sie würde unser Newsfeed ganz anders aussehen. Bild: Unsplash

Einen Job als Content-Moderator*in zu beginnen, ist nicht besonders zeitaufwendig. Die Ausbildung dauert nur drei bis fünf Tage. Dort lernen die meist noch sehr jungen Auszubildenden hunderte Seiten von Richtlinien und Regeln, die sie zum Beispiel über unerwünschte politische und terroristische Symbole aufklären. Sie sollen am Ende ihrer Ausbildung gewaltverherrlichende Inhalte erkennen und bei Gewaltdarstellungen den kulturellen Zusammenhang verstehen können. Doch da kommt schnell die Frage auf: Wie soll das funktionieren, wenn die auf den Philippinen lebenden Auszubildenden in einer ganz anderen Kultur aufgewachsen sind und in einem so jungen Alter weder viel Erfahrung noch Weisheit aufbringen können? Die kurze Ausbildung kommt mit kaum Erfahrung und wenig Sicherheit bei der Entscheidungsfindung einher, sodass die Content-Moderator*innen oft nicht wissen, welche Entscheidung richtig oder falsch ist.
Dazu kommt, dass die Arbeiter*innen nur wenige Sekunden Zeit haben, über die Veröffentlichung eines Beitrages zu entscheiden. Durch eine tägliche hohe Anzahl an zu überprüfenden Beiträgen, die ihnen als Ziel gesetzt werden, kommt es zu einem hohen Zeitdruck. Dieser kann leicht zu Fehlentscheidungen führen. Doch letztendlich sagen viele der interviewten Personen aus dem Dokumentarfilm The Cleaners, dass sie aus zeitlichen und unwissenden Gründen nach ihrem Bauchgefühl entscheiden. Das kann sehr kritisch werden, wenn es um politische Themen geht, da hier mehr Objektivität anstatt Subjektivität gefragt ist.

Die Rolle der Detektiv*innen

Content-Moderator*innen kommen täglich in die brenzlige Situation, eine Straftat auf einem Video oder einem Bild zu entdecken. Hierfür gehen die Unternehmen Kooperationen mit Strafbehörden ein. Sobald die Arbeiter*innen eine Straftat entdecken, geben sie die IP-Adresse des Nutzers und gegebenenfalls weitere Informationen an die Polizei weiter. Dort wird versucht, den Täter zu identifizieren und die weitere Verbreitung der illegalen Inhalte zu stoppen. Wenn die Moderator*innen dazu beitragen, eine kriminell auffällige Person zu fassen, werden sie darüber informiert, sodass ihnen die Wichtigkeit ihres Jobs bewusst gemacht wird.

Professionalität am Arbeitsplatz: Daran muss noch gearbeitet werden

Fünf bis Zehn Prozent der gelöschten Inhalte an einem Acht-Stunden-Arbeitstag sind für die Content-Moderator*innen traumatisierend. Bild: Unsplash

Den Arbeiter*innen wird von Unternehmen wie Facebook und Co. zugemutet, sie würden mit der ständigen Konfrontation von Kindesmissbrauch und Enthauptungen zurechtkommen. Doch welcher Mensch kann das schon, ohne bleibende psychische Schäden davonzutragen? Laut eines ehemaligen anonym gebliebenen Content-Moderators gibt es vor Ort ein sogenanntes „Wellness-Team“, das für die mentale Gesundheit der Moderator*innen und für das Resilienz-Training zuständig ist. Doch hier handelt es sich nicht um ausgebildete Psycholog*innen, was ein großes Problem darstellt. Die Content-Moderator*innen dürfen nicht mit Familie und Freunden über das sprechen, was sie jeden Tag zu Gesicht bekommen und leiden deshalb nicht selten unter posttraumatischen Belastungsstörungen.

 

Müsste es dann nicht professionelle Hilfe am Arbeitsplatz geben? Mark Zuckerberg sagt im Juli 2019 in einem unternehmensweiten Treffen dazu nur:

„Some of the reports, I think, are a little overdramatic“

Große Unternehmen wie Facebook versuchen diese Kritik zu leugnen. Stattdessen sollten Facebook und Co. transparenter werden, indem sie über das Verdeckte aufklären. Ohne den Beruf einer Content-Moderator*in könnte eine Social-Media-Plattform nicht weiter aufrechterhalten werden. Denn ohne diese wichtige Rolle wäre unser Newsfeed geprägt von Gewalt, Mord und Missbrauch.

Weitere Quellen:

Prof. Dr. Bernhard Pörksen: Einführung in die Medienwissenschaft. Öffentlichkeit & Öffentlichkeiten. Universität Tübingen.