Umgang mit Hate Speech im digitalen Raum
Äußerungen von vor knapp 100 Jahren treffen heute noch zu
Die Äußerung des französischen Philosophen Julien Benda aus dem Jahr 1927 spiegelt perfekt das Gefühl derer, die sich in die Kommentarspalten von Artikeln der Tagespresse auf Facebook wagen: Es genüge schon, "allmorgendlich eine beliebige Zeitung aufzuschlagen, um festzustellen, daß die [...] Haßgefühle keinen Tag ruhen."1 Wer einen Blick in die Kommentarspalten der Tagespresse wirft oder sich auf Twitter die Äußerungen mancher Politiker(innen) zum Thema Flucht anschaut, wird sich in Brendas Wahrnehmung von vor fast einhundert Jahren wiederfinden. "Ob Hetze und Diffamierung die Oberhand gewinnen oder ob Vorurteilen und verbaler Gewalt entschlossen begegnet wird, ist daher nicht nur - und gewiss nicht in erster Linie - eine Frage des Rechts", resümiert die Historikerin Birgit Hofmann2 in einem geschichtlichen Rückblick auf das Phänomen. Hate Speech - die Hassrede also - gibt es schon länger als das Internet, und so lange stellt sich auch die Frage nach dem Umgang damit. Dennoch wird der Begriff im deutschsprachigen Raum genutzt, um explizit Hass-Postings in sozialen Medien zu beschreiben. Dabei meint "Hate Speech" die diskriminatorische Abwertung von Menschen oder Menschengruppen mit dem Ziel der Herabwürdigung oder Verunglimpfung. Der Begriff beschreibt also ein vielschichtiges Phänomen, das sich nicht nur in Worten, sondern auch in Bildern und anderen medialen Formen im Netz ausbreiten kann. Auch wer von Formen des Hate Speech betroffen ist, ist nicht gefeit davor, selbst welche zu produzieren. Es handelt sich um eine Online-Form von gruppenbezogener Menschenfeindlichkeit.
Hate Speech wurde sichtbarer
Die Veränderung von Öffentlichkeiten, die mit der Entwicklung der sozialen Netzwerke einherging, hat dazu geführt, dass Hate Speech wesentlich schneller und öffentlich sichtbarer wird, zumal in den Anfangsjahren von Facebook, Twitter und Youtube Hate Speech kaum bis zuweilen gar nicht gelöscht oder moderiert wurde. Einer der bahnbrechenden Aspekte der Digitalisierung ist die Demokratisierung der Kommunikation in den öffentlichen Raum für jede Person mit einem Internetzugang. So wurden auch die Schattenseiten jeder verbalen Auseinandersetzung - wie unter anderem Hate Speech - stärker abgebildet. Menschen, die in der Dunkelheit des Lebens wandeln, gibt es auch im Netz. Was früher eher am Stammtisch als Abwertung in einem "eingeschworenen" Kreis geäußert wurde, wurde plötzlich wesentlich öffentlicher einsehbar.
Löschen ist keine Lösung
Doch wo verläuft die Grenze der abwertenden Meinungsäußerung, und wann sind Fake News, die von jeder Person mit einem Online-Account verbreitet werden können, schädigend für die öffentliche Meinungsbildung? In Deutschland gibt es seit Januar 2018 das Netzwerkdurchsetzungsgesetz (NetzDG), das die großen Plattformen wie Facebook, Twitter und Youtube stärker in die Pflicht nimmt, strafrechtlich relevante Inhalte in sozialen Medien innerhalb von 24 Stunden zu prüfen und gegebenenfalls zu entfernen. Auch wenn das Gesetz versucht, soziale Medien stärker an deutsches Recht zu binden, so kreiert es doch neue Probleme: Es lagert die gesamte Entscheidung über die Äußerungen an die privaten Unternehmen aus und agiert zugleich etwas am Problem vorbei. Die Antwort auf Hate Speech ist nicht etwa das einfache Löschen menschenfeindlicher Einstellungsäußerungen, sondern vor allem die Förderung einer digitalen Debattenkultur: eine demokratische, wertebasierte Haltung.
Hate Speech vs. Toxic Speech
Insbesondere die sozialen Medien sind von rechtsextremen Bewegungen (wie zum Beispiel Identitären), rechtspopulistischen Strömungen und Parteien als Orte der Rekrutierung, Mobilisierung und Verbreitung ihrer Ideologie in den letzten Jahren erschlossen worden. Häufig genutzt wird dabei nicht direkt Hate Speech - vielmehr wird mit "toxic speech", "gefährlichen Sprachanwendungen" gearbeitet. Diese Sprache sind "Worte, die sein können wie winzige Arsendosen: Sie werden unbemerkt verschluckt; sie scheinen keine Wirkung zu tun - und nach einiger Zeit ist die Giftwirkung doch da".3 Victor Klemperer wusste, wovon er da schrieb - auch ganz ohne soziale Netzwerke. Er beobachtete rechtsextreme Sprache sehr genau und empfand sie als eines der relevantesten Mittel, um Menschen und ihr Handeln zu beeinflussen. Insbesondere rassistische Narrative, zum Beispiel zu den Themen Migration und Kriminalität und ihrer scheinbaren Korrelation, werden als Geschichten im Netz erzählt, die Menschen erst stark emotionalisieren und dann auch mobilisieren können - wie es die Ereignisse im Sommer 2018 in Chemnitz zeigten. So kann gefährliche Sprache sehr wohl auch die Vorstellung und nachfolgend Handlungen mitbeeinflussen. Die Wissenschaftlerin Susan Benesch hat das Konzept der "gefährlichen Sprache" entwickelt, von dem sie sagt, dass ein vergiftetes Kommunikationsklima und die Verschiebung von Sagbarem (dessen, was als gesellschaftlich akzeptabel empfunden wird) vor Hate Speech passieren. Diese Sprachanwendungen sind rechtlich schwierig zu fassen, da sie unter die Meinungsäußerungsfreiheit fallen, aber zu Gewalt und gewaltvoller Sprache anregen. Dazu gehören zum Beispiel das Bezeichnen von Menschengruppen als Tiere/Ungeziefer sowie die Beschreibung von Gruppen als Krankheit.⁴
Community als Unterstützer(innen) verstehen
Wie kann ein angemessener Umgang damit stattfinden? Präventiv und am besten vorbereitet sind solche Akteure, die eine gute Community aufgebaut haben, in der eine aktive Auseinandersetzung mit eigenen Standards existiert. Sie wissen meist sehr genau, was sie auf ihren Seiten und Foren zulassen wollen, und können so schnell und klar toxischem Onlineverhalten und Hate Speech von vornherein die Grenzen aufzeigen. Gleiches gilt für Akteure, die gute Personalressourcen und Ideen in ihre Social-Media-Arbeit stecken und sich im Vorfeld im Umgang mit Hate Speech auseinandersetzen. Gefährliche Sprachanwendung und toxische Narrative wirken vor allem dort, wo es keinen Widerspruch mehr gibt, wo die Gleichgültigkeit der bewussten demokratischen Haltung Platz gemacht hat und wo ihren diskriminierenden Inhalten überhaupt eine öffentliche Plattform gegeben wird. Oder auch dort, wo gefährliche Sprache in den Kommentaren stehen gelassen wird, sei es - wie im Fall rechtsextremer und -populistischer Seiten - absichtlich mit Strategie oder - im Fall mancher Tageszeitung - aus Gründen einer "fairen Meinungsabbildung" und defensiven Moderation: Damit wird das Kommunikationsklima nachhaltig toxischer, und auch die Sagbarkeit von Abwertungen erscheint legitim.
Sind Filtersysteme die Zukunft?
Es geht also um die Bereitstellung von Ressourcen im Umgang mit Hate Speech als wichtige Aufgabe in den Digitalisierungsprozessen, die viele Institutionen durchlaufen, darunter auch die Schulung von Ehrenamtlichen und Professionellen. Dies birgt zugleich eine große Chance: eigene Werte der Beteiligung und Vorstellung von demokratischer Debattenkultur im gesamten Organisationsbereich zu reflektieren, sich dieser selbstwirksam zu vergewissern und sie dann mit klarer Haltung nach außen zu tragen. In der Zukunft werden im Zusammenhang mit Hate Speech vor allem Filtersysteme und künstliche Intelligenz getestet - diese können Geschriebenes danach filtern, ob es sich möglicherweise um gefährliche Sprache handelt. Sie können jedoch nie ersetzen, was für die Auseinandersetzung mit Hate Speech und für die Digitalisierung unbedingt notwendig erscheint: eine Haltung gegenüber einer technischen Entwicklung und auch ihren Schattenseiten zu haben.
PRAXISTIPPS ZUM UMGANG MIT HATE SPEECH
- Melden (beim sozialen Netzwerk oder bei der Moderation des Kanals) und Anzeigen (Polizei - Onlinewachen). Wenn Sie unsicher sind, ob der Beitrag strafbar ist: Senden an www. internet-beschwerdestelle.de oder www.hass-im-netz.info - er wird geprüft und je nachdem weitergeleitet.
- Weil Meldungen manchmal dauern: Es schadet nicht, sich gegen den Post zu positionieren, aber bringen Sie sich nicht selbst in Gefahr.
- Die Meinungsfreiheit deckt auch bestimmte rassistische, antisemitische, islamfeindliche, sexistische Äußerungen - es ist an uns, zu widersprechen, Sachlichkeit in Diskussionen zu bringen und Gleichwertigkeit als eine Grundlage unseres Zusammenlebens zu verteidigen.
- Je persönlicher der Kontakt, desto größer die Bereitschaft, Argumenten zuzuhören: Diskussionen über problematische Postings lieber per persönlicher Nachricht oder im persönlichen Gespräch als öffentlich einsehbar klären.
- Möchte die Person die problematische Quelle für Informationen oder den abwertenden Kommentar nicht löschen - kommentieren Sie für die Mitlesenden, machen Sie Ihre Haltung klar, aber möglichst sachlich.
- Bieten Sie andere Sichtweisen, Erzählungen, Quellen, Erfahrungen.
- Solidarisieren Sie sich mit von Hate Speech Betroffenen.
- Nicht vergessen: Das Liken guter Beiträge und Gegenpositionen geht immer!
- Über strafrechtlich relevante Hate Speech (wie Volksverhetzung, Holocaust-Leugnung) keine Diskussion entfachen. Weitere Tipps für den Umgang mit verschiedenen Aspekten von Hate Speech finden Sie auf: www.amadeu-antonio-stiftung.de
Anmerkungen
1. https://bit.ly/2uIsSns
2. Ebd.
3. Klemperer, V.: LTI. Notizbuch eines Philologen. Stuttgart: Reclam Verlag, 23. Auflage 2007, S. 26.
4. https://dangerousspeech.org/faq/?faq=577