Was können wir als #DMW-Community tun, wenn wir sehen, dass Menschen auf unseren digitalen Kanälen angegriffen werden? Das hat uns Kathi von der Organisation HateAid in unserem Workshop „Sicher im digitalen Raum“ verraten.
Hass im Netz hat viele Gesichter. Beleidigungen und sexualisierte Gewalt fallen genauso darunter wie Stalking, Doxing – also das Veröffentlichen personenbezogener Daten oder gezielte Mobbing-Kampagnen. Dabei tritt digitale Gewalt nicht nur auf X (formerly known as Twitter) oder Facebook auf, sondern auch auf Plattformen wie Pinterest oder Kleinanzeigen.
Für die Betroffenen kann digitale Gewalt dramatische Folgen haben, die im schlimmsten Fall mit dem Selbstmord enden. Werden Personen gezielt angegriffen, beschränken sich die Übergriffe nicht nur auf den digitalen Raum, sondern setzen sich in der analogen Welt fort. Das macht es besonders frustrierend, dass Betroffenen immer noch mit Unverständnis begegnet wird: „Warum musst du denn so oft im Internet sein? Melde dich da doch einfach ab!“
Hier setzt die Organisation HateAid an: Sie berät Betroffene und übernimmt je nach Fall auch die Prozesskosten. Unter dem Hashtag #hasskostet findet ihr auf X Beispiele ihrer Erfolge.
Community Management: So geht ihr mit Hater:innen um
Deshalb waren wir sofort dabei, als #DMW Claudia Huber für uns einen Workshop mit HateAid arrangieren konnte. Hier lag der Fokus besonders auf dem Thema Community-Management.
Das Wichtigste zuerst: Grundlage jedes guten Community-Managements sind klare Richtlinien, die als Referenz dienen, um User:innen darauf hinzuweisen, welche Art von Beiträgen nicht erwünscht sind. Hier sollte man auch ankündigen, dass beleidigende und störende Kommentare, insbesondere rassistische, antisemitische, sexistische, behinderten- oder queerfeindliche Inhalte, gelöscht werden. Auch das Blockieren der dahinterstehenden Personen, falls sie nicht auf eine Verwarnung reagieren sollten, kann man hier festlegen.
Im Umgang mit Hasskommentaren gibt es unterschiedliche Strategien. Grundsätzlich kann man dabei folgende Arten von Kommentaren unterscheiden:
- Angst- oder Wutkommentare: Darunter fallen zum Beispiel Kommentare von Männern, die Angst haben, durch die Einführung einer Frauenquote Nachteile im Beruf zu erleiden, oder von weißen Menschen , die glauben, staatliche Hilfe für Geflüchtete würde diesen ein Leben in Luxus ermöglichen, während sie selbst finanzielle Probleme haben. Hier ist die beste Strategie, Empathie zu zeigen, Menschen zu ermöglichen, ihre Ängste auszusprechen und sie zum Nachdenken anzuregen. Eventuell kann man ihnen so helfen, diese Ängste abzubauen.
- WhatAboutism: Sehr beliebt in Online-Diskussionen ist das Themen-Hopping. Es ist ja schön und gut, dass du dich für A einsetzt, aber B ist dir wohl egal? Fatal wird es, wenn dabei eine Täter-Opfer-Umkehr versucht wird und jemand beispielsweise eine Diskussion über sexuelle Übergriffe mit Hinweisen auf die Folgen von Falschbeschuldigungen unterbricht. Wichtig bei dieser Sorte Kommentar: Sich auf keinen Fall auf das neue Thema einlassen, sondern klar benennen, dass es darum aktuell nicht geht und die Diskussion auf das Ausgangsthema zurückführen.
- Verschwörungsideologien: Beispiele hierfür haben wir während der Corona-Pandemie oft erlebt. Menschen beschuldigten etwa Bill Gates, Microchips in Impfstoffe einzuschleusen, weil … an dem Punkt wird es dann meistens schwer nachvollziehbar. Hier hilft es, Fakten zu nennen und Widersprüche aufzudecken, damit Fakemeldungen nicht unwidersprochen stehen bleiben.
- Trollkommentare: Das Besondere an dieser Art Kommentar ist, dass Trolle nicht an einer Diskussion interessiert sind. Es geht ihnen oft nur darum, das Gespräch zu stören. Deshalb sollte man ihnen auch nicht allzuviel Zeit widmen. Sinnvoll ist es, nachzufragen, was der- oder diejenige zur Diskussion beitragen möchte. Falls dann immer noch keine konstruktiven Beiträge kommen, kann man die Person mit einem Verweis auf die Community-Richtlinien sperren.
Besonders ehrenamtliche Organisationen wie wir, die nur eine begrenzte Zeit für das Community-Management aufbringen können, sollten nicht zu viel Zeit damit verbringen, auf reine Provokationen zu antworten. Der Fokus sollte immer auf der Auseinandersetzung mit konstruktiven Beiträgen und sachlicher Kritik liegen.
Gegenrede, aber richtig
Lässt man sich auf Diskussionen ein, sollte man sich immer vergegenwärtigen, dass man Verfasser:innen von Hasskommentaren nur schwer davon überzeugen kann, dass sie falsch liegen. Besonders Menschen, die an Verschwörungsideologien glauben, ziehen sich im Zweifel immer darauf zurück, dass die Fakten, die ihrer Aussage widersprechen, manipuliert sind. Überzeugen kann man allerdings die stillen Mitlesenden. Das funktioniert am besten durch:
- Deeskalieren und Gemeinsamkeiten der Ansichten betonen
- Auch auf Provokationen sachlich und respektvoll antworten
- Quellen für Behauptungen einfordern und eigene Aussagen durch Fakten (mit entsprechendem Link) belegen
- Keine Grundsatzdiskussion: Begriffe wie „wahr“ und „falsch“ vermeiden
- Kurze Sätze und strukturierte Argumentation, um sich positiv von ausufernden Schwurbelkommentaren abzuheben
- Diskussionen schließen, wenn sie sich im Kreis drehen (am besten mit Ankündigung)
Was dabei sehr helfen kann, ist eine Linksammlung, in der Zahlen und Fakten zu bekannten Reizthemen gesammelt werden. So hat man alle Informationen schnell zur Hand.
Nützliche Links
Natürlich gibt es zum Thema digitale Gewalt noch viel mehr zu sagen. Hilfreiche Informationen findet ihr hier:
- Helpdesk der Neuen deutschen Medienmacher:innen
- HateAid-Ratgeber
- Studie „Lauter Hass – leiser Rückzug“, Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz (Hrsg.) (2024)
Bild von Benedikt Geyer auf Pixabay