Bild: Pexels

Hass auf Social Media – Wie wird dagegen vorgegangen?

Von Bella Avergon

Man hört oder liest oft davon: Hassnachrichten oder Hasskommentare bei zahlreichen Prominenten auf sozialen Netzwerken. Und womöglich hat man selbst schon einen solchen Kommentar verfasst und sich in die Anonymität im Netz gehüllt.

Hate auf Social Media betrifft jedoch nicht nur Prominente, sondern hat sich mit der Zeit zu einem Massenphänomen entwickelt. So sind laut der Studie #Hass im Netz aus dem Jahr 2019 alleine schon 17 Prozent der Jugendlichen zwischen 18 und 24 Jahren von Hasskommentaren im Netz betroffen. Die Tendenz steigt und bildet eine große Herausforderung für Soziale Netzwerke. Viele Plattformen versuchen mit immer neueren Community-Standards dem entgegenzuwirken, aber was genau wird eigentlich getan?

Was sind Hassinhalte?

Hassinhalte, Hassrede oder Hate Speech. Das alles sind Bezeichnungen, die menschenverachtende Aussagen meinen und damit einzelne Individuen oder ganze Gruppen abwerten. Die Angriffe können dabei auf ganz unterschiedliche Merkmale des Menschen zielen. Ein paar Beispiele dafür sind die Hautfarbe, Sexualität, Religion, Herkunft oder das Aussehen. Auch das Verhalten eines Menschen kann angegriffen werden. Die Gründe für hate speech sind verschieden. Manchmal ist es einfach nur Neid, aber oft spielt auch die fälschliche Annahme, dass manche Menschengruppen weniger wert seien eine Rolle.

Hassinhalte verletzten die Würde des Menschen und können erheblichen Schaden auf die Psyche eines Menschen bewirken. Charakteristisch für diese Inhalte ist die gewalttätige Sprache. Sie muss nicht immer direkt sichtbar sein, in Form von Kommentaren oder Nachrichten, sondern kann auch versteckt in vermeintlich „lustigen” Bildern und Memes auftauchen.

In den Sozialen Medien wird Hassrede immer häufiger, da hier Menschen anonym handeln können. Geschützt durch ihre Anonymität äußern Menschen viele Dinge, die sie offline womöglich selten sagen würden. Die Tatsache, dass man nicht vor einer echten Person steht, sondern nur durch einen Bildschirm schaut, lässt viele Menschen vergessen, dass die Personen, die angegriffen werden, echte Menschen mit Gefühlen sind.

Vermehrt nutzen jedoch auch „Rechtsextreme und rechtspopulistische Akteur*innen digitale Räume, um menschenverachtende Einstellungen in der Mitte der Gesellschaft zu verbreiten. Sie besetzen gezielt Themen, rekrutieren Gefolgschaft und verbreiten menschenfeindliche und antidemokratische Propaganda”(Quelle: https://www.amadeu-antonio-stiftung.de/digitale-zivilgesellschaft/was-ist-hate-speech/). Dies kann sehr gefährlich werden, vor allem wenn die Gewalt nicht mehr nur online, sondern auch offline stattfindet.

Aufgrund von Hate Speech haben viele Menschen Vorbehalte gegenüber der Nutzung von Social Media Plattformen. Bild: Unsplash.

Umso wichtiger ist es, dass die Betreiber von sozialen Plattformen aktiv gegen Hass im Netz vorgehen und sich stets mit Maßnahmen der Verhinderung oder Entfernung von Online Hate Speech befassen.

Facebook

Eines der bekanntesten und meist genutzten sozialen Netzwerke war lange Facebook. Die Plattform ist für ihren Umgang mit Hass im Netz in Kritik geraten. Ein Beispiel hierfür ist die „Stop Hate for Profit”-Kampagne, bei der viele Unternehmen die Zusammenarbeit mit Facebook (vorläufig) eingestellt haben, um ein Zeichen gegen deren zu wenig regulierten Richtlinien zu setzen. Facebook soll von der Verbreitung von Hass profitieren, indem Menschen dadurch mehr Zeit auf den Plattformen verbringen und somit mehr Werbung geschalten und mehr Geld eingenommen werden kann.

Laut dem Transparenzbericht von Facebook sollen die Richtlinien verschärft werden. Aktuell arbeiten alleine in den USA ungefähr 15.000 Content-Moderator*innen. Diese haben die Aufgabe, die von Nutzer*innen gemeldeten Inhalte auf die umfassenden Richtlinien von Facebook zu überprüfen und eventuell zu entfernen. Außerdem greift die Plattform auf künstliche Intelligenz zurück, um Hassinhalte aufzudecken. So sollen anscheinend in den ersten vier Monaten des Jahres 2020 bereits 9,6 Milliarden Inhalte, die als Hassreden erkannt wurden, entfernt worden sein. Im Vergleich dazu wurden in den letzten vier Monaten des Jahres 2019 nur 5,7 Millionen Inhalte entfernt. Allerdings ist es schwer, diese Zahlen in einen Gesamtzusammenhang einzuordnen, da nicht bekannt ist, wie viele Hassinhalte überhaupt in Summe veröffentlicht werden.

Ein weiteres Problem ist, dass viele Inhalte, die den Richtlinien Facebooks nicht entsprechen oft in privaten Gruppen auf Facebook verbreitet werden und somit lange unentdeckt bleiben können.

Twitter

Auch der Nachrichtendienst Twitter nutzt künstliche Intelligenz, um Hass auf der Plattform zu beseitigen. „Bei Twitter sucht eine künstliche Intelligenz nach Begriffen, die auf einem Index stehen. Die Entscheidung, ob ein Tweet gelöscht wird, wird laut dem Unternehmen im letzten Schritt jedoch immer von einem Moderator getroffen” (Quelle: https://www.rnd.de/digital/soziale-medien-in-der-kritik-wie-plattformen-mit-hass-umgehen-A4Z5L25B4FE6JD766X4PVZCYHY.html). Laut den Richtlinien von Twitter wird dann individuell entschieden, welche Strafe erfolgt. Dabei wird untersucht, wie schwer der Verstoß ist und, ob es sich um einen wiederholten Verstoß handelt. Nutzer*innen können zum Beispiel aufgefordert werden, den betroffenen Inhalt zu löschen, den Account eine Zeit lang im schreibgeschützten Modus zu verwenden oder der Account wird in manchen Fällen sogar gänzlich gesperrt. Anfang Januar 2021 sperrte Twitter beispielsweise dauerhaft den Account von Donald Trump. Nach eigenen Angaben geschah dies, um das Risiko zur weiteren Anstiftung von Gewalt zu minimieren, nachdem Trump-Anhänger am 6. Januar 2021 gewalttätig das US-Kapitols stürmten. Kurz darauf sperrten auch zahlreiche andere soziale Netzwerkplattformen Trumps Accounts, unter anderem auch Facebook und Instagram. Auch hier liegt die genannte Begründung in seinen Verstößen gegen die Richtlinien der Plattformen.

Wie auch Facebook, versucht Twitter seine Richtlinien immer wieder zu erweitern. Seit neustem will Twitter seine Nutzer*innen auch direkt ansprechen. So wird bei der Veröffentlichung eines Tweets, der mutmaßlich Hass enthält, nochmals nachgefragt, ob die Nachricht wirklich so veröffentlicht werden soll.

Youtube

Die Video-Plattform Youtube zieht nach. Auch hier wurden die Richtlinien verschärft. In den ersten vier Monaten des Jahres 2020 wurden laut dem eigenen Transparenzbericht über 11,4 Millionen Videos entfernt und somit wurde zum ersten Mal die Schwelle von zehn Millionen überschritten. Leider nimmt die Löschung von Videos aufgrund von Hassinhalten nur 0,7 Prozent (80.003 Löschungen) ein und das nicht, weil es nicht mehr Videos dieser Art gibt.

Youtube setzt, wie auch andere Social Media-Plattformen, auf Content-Moderator*innen, die versuchen, Online-Hass zu filtern oder zu schlichten, aber auch auf Algorithmen.

Instagram

Like keine Hasskommentare, sondern melde sie! Bild: Pexels.

Natürlich muss sich auch die populäre Bilder- und Videoplattform Instagram mit dem zunehmenden Hass auf Social Media auseinander setzen. Mit Hilfe von künstlicher Intelligenz und Algorithmen will die Plattform bereits vor der Veröffentlichung von Hassinhalten eine Warnung oder einen Hinweis aussenden. Dies geschieht, ähnlich wie bei Twitter, zum Beispiel mit Nachrichten, wie: „Bist du sicher, dass du das posten möchtest?”. Durch immer weiter verbesserte Technologien sollen anhand von Filtermechanismen Hassinhalte schneller erkannt werden und somit so schnell wie möglich zur Überprüfung weitergeleitet werden.

Weitere Angebote der Plattformen

Natürlich bieten die sozialen Netzwerke auch Möglichkeiten an, mit denen Nutzer*innen selbst auf Hassinhalte hinweisen können. So können Instagram-Nutzer*innen jederzeit Bilder und Videos nach einer kurzen Benennung des jeweiligen Grundes melden und zur Überprüfung abschicken. Einzelne Profile können zu jeder Zeit blockiert und dadurch für einzelne Nutzer*innen unsichtbar gemacht werden, wodurch man für die geblockten Personen nicht mehr auf Instagram zu finden ist. Außerdem kann man die Kommentarfunktion unter den eigenen Bildern einschränken. Auch Youtube setzt auf die Unterstützung durch die Nutzer*innen. So können dort beispielweise mit dem „Trusted Flagger-Programm“ Inhalte gemeldet werden, die gegen die Richtlinien der Plattform verstoßen. Zusätzlich bietet Youtube die Möglichkeit an, eine Art „Schwarze Liste” zu erstellen, in denen User*innen Stichworte eintragen können, die nicht angezeigt werden sollen. Ist in einem Kommentar unter dem eigenen Video dieses Stichwort enthalten, so wird der Kommentar nicht veröffentlicht.

Wozu unbegründet Hass im Internet verbreiten, wenn man auch Support zeigen kann? Bild: Pexels.

Auf Grund des stetig wachsenden Hass im Netz sehen sich Social Media Plattformen gezwungen, immer neuere Technologien zu entwickeln und ihre Richtlinien zu erweitern, um dagegen vorzugehen. Viele Maßnahmen sind jedoch noch ausbaufähig. Beispielsweise die Filter: Auf Youtube werden oft Videos gesperrt, die eigentlich den Richtlinien entsprechen oder Beiträge auf Instagram werden grundlos entfernt. Die Wahrnehmung von Hass ist außerdem sehr subjektiv. Für einige sind die Richtlinien zu locker, während andere gar nicht verstehen, warum beispielsweise ein Kommentar eine andere Person verletzen könnte. Ein Mittelmaß ist schwer zu finden, da natürlich auch die freie Meinungsäußerung nicht beeinträchtigt werden darf. Klar ist jedoch: Wir alle können etwas gegen den Hass in den sozialen Netzwerken tun. Und: lieber zwei Mal darüber nachdenken, bevor man etwas potenziell für andere Schädliches postet oder kommentiert.