Hass ist keine Standardkommunikationsmethode im Netz. Der Kampf gegen toxische Sprache bedeutet nicht das Brechen der Redefreiheit, erklärt der Sprachwissenschaftler Dr. Paweł Trzaskowski. Der Forscher beschreibt die Mechanismen des Hasses und effektive Wege, um dieses Phänomen zu begrenzen.
Dr. Paweł Trzaskowski, Leiter der Sprachabteilung des Polnischen Radios, analysierte in seiner Doktorarbeit an der Universität Warschau das Phänomen des Hasses in Internetkommentaren. Seine Arbeit erhielt eine Auszeichnung des Premierministers.
„Ich habe angenommen, dass Hass eine Art des Redens über jemanden im Internet ist, die dazu führt, dass der Empfänger dieser Mitteilung schlechter über die beschriebene Person oder Gruppe denkt als zuvor“, fasst Dr. Trzaskowski im Gespräch mit PAP zusammen. Und er fügt hinzu, dass es eine subjektive Meinung ist, ob ein bestimmter Beitrag ein Hassbeitrag ist oder nicht. „Wenn sich jemand durch eine bestimmte Mitteilung schlechter fühlt oder wir sehen, dass dem Ruf jemandes geschadet wurde, können wir sagen, dass wir es mit Hass zu tun hatten“, beschreibt er.
Nach Ansicht des Forschers stellen unethische Spracheinhalte einen klaren Minderheitsanteil im Internet dar, aber wir erinnern uns besser an sie als an andere Mitteilungen; „es ist laut, grell, aggressiv und versucht, Schaden zu verursachen“.
Nach Ansicht des Sprachwissenschaftlers gibt es zwei Hauptgründe für den Einsatz von Hass. Der erste Grund ist monetär – es gibt Menschen, die Geld dafür bekommen, jemanden zu diskreditieren, z. B. politische Trolle. Wie viele solcher Personen es gibt, ist jedoch schwer zu untersuchen. Der zweite Grund ist emotional. „Jemand benutzt Hass, um seine Frustration abzubauen – er senkt den Status einer anderen Person und fühlt sich dadurch selbst wichtiger, besser, und kann glauben, dass er Einfluss hat“, erzählt Dr. Trzaskowski.
Nach seiner Einschätzung ist Hass eine Sprache der Gewalt. „Gewalt ist immer mit der Aneignung von Macht durch jemanden Stärkeren über jemanden Schwächeren verbunden, und das Verletzen wird zum Nutzen eines anderen begangen. Und so ist es auch beim Hass. In der Kommentarabteilung wird ein Angriff auf das Opfer vermutet. Diese Person kann sich nicht verteidigen, auch wenn sie es wollte, weil sie übertönt wird. Es gibt ein Machtungleichgewicht, jemandem wird Schaden zugefügt. Und der Hassende profitiert davon“, erklärt der Forscher.
Der Wissenschaftler beschrieb Methoden, um in Kommentaren Schaden zu verursachen. „Zunächst findet der Hasser einen Angriffspunkt: Er greift etwas auf, um die andere Person zu diskreditieren“, sagt er. Und er zählt auf, dass dies ihre Sexualität, ihr Aussehen oder Vorwürfe von Heuchelei und Zynismus, das Aufzeigen von Fremdheit, Abhängigkeit oder Unglaubwürdigkeit sein kann.
Was die im Rahmen des Hasses angewandten Diskreditierungstechniken betrifft, so können darunter unter anderem Spott (jemanden lächerlich machen, seine Eigenschaften verspotten), Herabsetzung (Beleidigungen, Beschimpfungen), Etikettierung (jemanden einer schlecht konnotierten Kategorie zuordnen), Ablenkung (sich auf ein völlig anders Thema als die Sache beziehen) sowie Provokation (z. B. Angriffe auf sensible Punkte der Person – ihre Intimität, ihre Familie) unterschieden werden.
Dr. Trzaskowski unterscheidet auch einige Arten von Hassern: „Scherzbolde“ (wollen zum Lachen bringen), „Schreier“ (verwenden kurze, oft vulgäre Äußerungen), „Empörte“ (geben ihrem Unmut Ausdruck) und „Informanten“ (teilen ihr Wissen mit anderen).
Während die Sprache des Hasses vielfältig ist und die Kommentierenden alle sprachlichen Mittel einsetzen, um den Gegner zu diskreditieren, sind die Hass-Techniken wiederholbar und leicht zu zählen. Wenn man sie also erst einmal kennt, kann man leicht voraussagen, wie der Kommentarbereich unter einem Artikel aussehen wird, so der Gesprächspartner von PAP.
Dr. Trzaskowski untersuchte in seiner Arbeit unter anderem öffentlich zugängliche Nachrichtenportale. „Sie helfen nicht dabei, Gemeinschaften zu schaffen. Es gibt kein Gefühl der Gemeinschaft, das die Kommentierenden dazu motivieren würde, sich gut zu benehmen. Dadurch werden solche Portale zu einem zeitgemäßen Äquivalent des mittelalterlichen Prangers, einem Platz, an dem Lynchjustiz stattfindet“, vergleicht er.
Der PAP-Interviewpartner weist darauf hin, dass man, wenn man Teil einer Menschenmenge ist, das Gefühl hat, dass man sich mehr erlauben kann. „Aber wenn man jemanden aus der Menge auswählt, zum Beispiel für eine Straßenumfrage – wird die Person plötzlich ruhiger, sie äußert sich in vollständigen Sätzen, weil sie dann für sich selbst verantwortlich ist. Sie stellt sich selbst zur Beurteilung. Ähnlich ist es beim Hass. In Kommentarbereichen, wo sich die Menschen anonym fühlen, wird ihnen ein Teil der Verantwortung genommen. Wenn wir jedoch auf irgendeine Weise ein Gefühl der Verantwortung schaffen, wird ein verpflichteter Benutzer sich besser benehmen als ein anonymer Schreier“, erzählt er.
Als ich mit dieser Studie begann, dachte ich, dass Kommentarbereiche wie der Augiasstall sind – es gibt keine Rettung für sie. Es stellte sich jedoch heraus, dass es Möglichkeiten gibt, Hasskommentaren erfolgreich entgegenzuwirken. Man kann die Sprache der Online-Kommentare ordnen und die Debatte in die richtige Richtung lenken. Es erfordert jedoch Anstrengung“, sagt er.
Der Doktor beruft sich auf Analysen, denen zufolge hasserfüllte Kommentare die Meinungen der Leser über den Ausgangstext senken. Daher sollten Verlage daran interessiert sein, die Qualität der Kommentare zu verbessern.
Er weist darauf hin, dass es große polnische Portale wie Onet und Interia gibt, die bereits auf das Veröffentlichen von Kommentaren ihrer Leser verzichtet haben. Das Schließen der Möglichkeit, Kommentare zu hinterlassen, ist die einfachste, aber nicht die einzige Möglichkeit, Hass loszuwerden.
Es gibt Orte im Internet, an denen ein Dialog stattfindet, wie zum Beispiel spezialisierte oder thematische Foren. Die Mitglieder dieser Gruppen bilden eine Gemeinschaft – sie kommen zusammen, um Informationen auszutauschen. Hass ist an solchen Orten eine Ausnahme. Die Verlage sollten also daran interessiert sein, solche gut organisierten Gemeinschaften zu schaffen. Das ist jedoch keine einfache Aufgabe.
„Dazu sind unter anderem Menschen erforderlich, die sich mit einer gerechten und transparenten Moderation befassen werden. Und das ist zeitaufwendig und kostspielig“, betont Dr. Trzaskowski.
Nach Ansicht des Forschers sollten Moderatoren ein faires und transparentes Belohnungs- und Strafsystem für die Benutzer anwenden. Kommentatoren sollten also wissen, wofür sie bestraft wurden (z.B. durch das Löschen ihrer Beiträge oder ein Verbot) und sollten gegen diese Strafe Einspruch einlegen können. Wenn das Bannsystem nicht transparent ist, kehren Hasskommentatoren zurück und werden noch aggressiver, sagt Dr. Trzaskowski.
Neben Strafen sollten auch Belohnungen für Kommentatoren berücksichtigt werden, um wertvolle Beiträge zu würdigen. Zum Beispiel können Benutzer auf der Website der New York Times laut einem Forscher auswählen, welche Kommentare für sie sichtbar sein sollen: alle, die von der Redaktion ausgewählt wurden oder die von anderen Lesern gut bewertet wurden. Diese Unterteilung in Abschnitte motiviert Kommentatoren, sorgfältige und durchdachte Beiträge zu schreiben.
In dem Online-Spiel League of Legends (das sich unter anderem durch die effektive Begrenzung von „toxischer“ Sprache in der Kommunikation zwischen Spielern einen Namen gemacht hat) wurde ein Belohnungssystem für Benutzer entwickelt, die nicht von anderen wegen aggressiver Sprache gemeldet wurden.
„Dies kann jedoch nur funktionieren, wenn die Person, die im Internet schreibt, sich mit ihrem Avatar identifiziert. Sie muss nicht unbedingt unter ihrem richtigen Namen auftreten, darf aber auch nicht vollständig anonym sein. Es ist wichtig, ein Gefühl der Verantwortung dafür zu schaffen, wie andere sie wahrnehmen“, kommentiert ein Linguist.
Es sind auch Maßnahmen hilfreich, die Kommentatoren davon abhalten, Beiträge unter dem Einfluss plötzlicher negativer Emotionen zu veröffentlichen. Deshalb helfen beispielsweise im Kampf gegen Hasskommentare: das Verstecken des Kommentarbereichs (der vom Benutzer selbst erweitert werden muss), die Notwendigkeit, sich anzumelden, bevor ein Kommentar hinzugefügt wird, sowie verschiedene Überprüfungsfragen. Verzögertes Veröffentlichen von Kommentaren – nach der Genehmigung durch einen Moderator – hat sich auch im Kampf gegen Hasskommentare bewährt. Einige Websites verzichten auch darauf, Kommentarbereiche bereitzustellen und ermutigen stattdessen dazu, Briefe an die Redaktion zu senden, die wie in den besten Jahren der gedruckten Presse später veröffentlicht werden können.
Im Kampf gegen Hasskommentare ist auch das sogenannte „Gegenrede“ (counterspeech) wirksam, also das Präsentieren einer anderen Erzählung unter einem aggressiven Kommentar. Damit die Gegenrede jedoch wirksam ist, darf sie nicht aggressiv, sondern sachlich und eher empathisch sein.
„Das Entfernen von Kommentaren muss nicht bedeuten, dass die Meinungsfreiheit verletzt wird. In der öffentlichen Sphäre gelten oft ungeschriebene Regeln, die uns zeigen, dass man nicht überall alles sagen kann. Und einige Orte im Internet erzeugen gerade diese Illusion der vollen Freiheit, indem sie Raum bieten, in dem sprachlich alles erlaubt ist“, kommentiert der Forscher.
„Das Problem ist global. Vor nicht allzu langer Zeit hatten wir die Hoffnung, dass durch die Entwicklung des Internets Bürgerjournalismus entstehen würde. Leser gewannen damals eine gewisse Handlungsmacht. Aber dann stellte sich heraus, dass nichts davon wahr ist. Gewöhnliche Benutzer werden immer noch nicht gehört, niemand liest ihre Meinungen“, sagt Dr. Trzaskowski. Und fügt hinzu, dass dies bei einigen von ihnen Frustration hervorruft. Deshalb finden einige Kommentatoren diesen Hauch von Handlungsmacht in der Anwendung verbaler Gewalt – indem sie andere mit Worten verletzen. Das löst jedoch keine Frustration, sondern treibt weitere an – gemäß dem Prinzip, dass Aggression Aggression erzeugt.“ (PAP)
Nauka w Polsce, Ludwika Tomala
lt/bar/