10.510

Wie Deplatforming Verschwörungsideologen und Rechtsextreme ausbremsen kann

von | Okt 28, 2020 | Aktuelles, Gastkommentar, Social Media

Wie #Deplatforming Verschwörungsideologen und Rechtsextreme ausbremsen kann

Gastbeitrag von Erik Klügling 

In einer Demokratie hat jede*r das Recht auf freie Meinungsäußerung. Dazu gehört auch die Freiheit, sich Accounts in den sozialen Medien anzulegen. Wer das für Hassrede, Falschinformationen, Aufrufe zu Gewalt oder Hetze gegen Minderheiten ausnutzt, überschreitet Grenzen und muss bestraft werden. Sollte man zumindest meinen. Doch viel zu lange wurde nichts gegen Hatespeech und Fake News im Netz unternommen. Große Plattformen wie YouTube, Facebook und Twitter waren zu lange inaktiv und kommen nun nicht mehr hinterher.

Was fehlt, sind nachhaltige Strategien gegen die Verbreitung von Hassrede, Verschwörungsideologien oder rechtsextremen Gedankengut. Trauriger Fakt ist: Lügen und Fake News verbreiten sich online viel schneller als Fakten und die Wahrheit. Und nicht nur die Algorithmen von YouTube oder Instagram unterstützen Rechtsextreme und Verschwörungsideologen beim Verbreiten ihrer Lügen und Hetze. Das zeigen auch die jüngsten Recherchen des correctiv.

5 Schritte: Wie rechte „Influencer:innen“ junge Menschen auf Instagram manipulieren

Denn vielleicht kennst Du diesen Moment: Jemand setzt einen Hasskommentar ab, hetzt gegen Minderheiten oder wünscht sich den Tod von Politiker:innen. Die jeweilige Plattform reagiert nicht oder löscht die Inhalte erst nach Deinem Hinweis. Oder, noch frustrierender, aber leider zu oft Realität: Du bekommst eine Nachricht, dass die gemeldeten Inhalte nicht gegen die Gemeinschaftsrichtlinien verstoßen, obwohl Du genau das Gegenteil beweisen kannst.

Mich überkam dann oftmals das Gefühl, dass Content Moderator*innen nur bei offensichtlichen Verstößen handeln und kein Feingefühl für Dinge wie Ironie, Andeutungen oder Auslassungen von Wörtern hatten. Hass und Hetze, so subtil sie auch sein mögen, bleiben dadurch online. Das ist ein großes Problem!

Hetze und Fake News aus dem demokratischen Diskurs verbannen

Seit ein paar Monaten jedoch habe ich das Gefühl, etwas ändert sich – auch wenn es nur schleichend vorangeht. Die großen Unternehmen setzen auf eine vielversprechende und beliebte Strategie im Kampf gegen Fake News und rechtsextremer Hetze: Deplatforming, also der Ausschluss von Accounts in sozialen Netzwerken, aber auch von Zahlungsdienstleistern wie Paypal. Netzpolitik.org erklärt:

„Deplatforming verringert in der Regel die öffentliche Sichtbarkeit der betroffenen Organisationen oder Einzelpersonen signifikant und oftmals auch deren finanzielles Einkommen. Es ist ein sehr mächtiges Instrument, das den privaten Plattformen zur Verfügung steht.“

Den Akteuren wird Reichweite und Sichtbarkeit genommen und damit radikale Ideen und Hetze vom öffentlichen demokratischen Diskurs ausgeschlossen. Das trifft viele Verschwörungsideologen und Rechtsextreme ziemlich hart, da sie mit ihren Ideen und Inhalten stets die Masse im Blick haben und anschlussfähig bleiben wollen. Deplatforming treibt sie in die Nische, da sie ihre Inhalte fortan auf alternativen Formaten wie Telegram, Vkontakte, DLive oder Bitchute verbreiten müssen. Letzteres wird auch als „YouTube für Rechtsextreme“ bezeichnet – hier findet man Profile und Inhalte von Attila Hildmann, Nikolai Nerling, Heiko Schrang, Ken Jebsen und Co.

It’s all about the money

Ein weiterer Vorteil von Deplatforming: Die gesperrten Inhalte werden der breiten Masse nicht mehr auf dem YouTube-Präsentierteller dargeboten, man muss schon gezielt danach suchen. Die Gefahr der Radikalisierung wird dadurch ausgebremst. Und Strategien zur Rekrutierung von Nachwuchsfunktionieren funktionieren auf den alternativen Plattformen nicht mal ansatzweise so gut. Denn in den jeweiligen Gruppen bei Telegram und Co. treiben sich oftmals Leute herum, die eh schon dem Dunstkreis von Verschwörungsgläubigern oder Rechten angehören und deren Aussagen Glauben schenken. Also Leuten wie Attila Hildmann oder Michael Ballweg. Und die Überleitung passt.

Denn ein weiterer wunder Punkt ist wie so oft das Geld. Die gesperrten Akteure verlieren wichtige Einnahmequellen und die Möglichkeit, ihre Inhalte auf den „Mainstreamplattformen“ zu monetarisieren. Fortan sind sie vielmehr auf Spenden ihrer treuen Fanbase angewiesen.

Ein paar Beispiele aus letzter Zeit:

  • Der Österreicher Martin Sellner ist wohl das prominenteste „Opfer“ von Deplatforming. Das Aushängegesicht der Identitären Bewegung verlor erst seine Kanäle auf YouTube, Facebook, Twitter und Co. Vor kurzem kam neben der Verbannung von TikTok auch laut eigener Aussage die Kündigung seines Webhosters. Er hat vergeblich dagegen geklagt. Der IB ereilte das gleiche Schicksal, damit sind sie faktisch von der breiten Masse abgeschnitten und stützen sich lediglich auf Telegram und Co.
  • Der rechtsextreme Rapper Chris Ares wollte 2020 mit seinem Album „Ares“ richtig durchstarten. Doch erst sperrten Amazon, iTunes, Spotify und GooglePlay (teilweise erst nach öffentlichem und medialem Druck) seinen Musikkatalog. Dann zog YouTube nach und löschte seinen Kanal mit 80.000 Abonnenten und 10 Millionen Videoaufrufen. Der massive Reichweitenverlust ist wohl einer der Gründe, warum Ares vor Kurzem seinen musikalischen und polit-aktivistischen Rücktritt bekannt gab (hier, hier und hier mehr dazu).
  • „Volkslehrer“ Nikolai Nerling wurde im April 2019 von YouTube gesperrt. Er versucht zwar weiterhin mit Zweitkanälen und Auftritten bei anderen Accounts (z.B. bei „Aktivist Mann“) an alte Erfolge anzuknüpfen. Doch er sagte selbst, dass die Reichweite seines neuen Kanals nicht ausreiche und klagt über einen massiven Einbruch seiner Spenden (mehr Hintergründe dazu).
  • Nachdem das Magazin „Compact“ die Seiten bei Instagram und Facebook verloren hat (infolge der Einstufung als „Verdachtsfall“ vom Verfassungsschutz), klagt Chefredakteur Jürgen Elsässer über massiven Reichweiteverlust und Wegfall von Einnahmen (Quelle).
  • Der Verschwörungsideologe KenFM hat alle seine Videos auf Youtube heruntergenommen, weil ihm eine endgültige Löschung durch die Plattform drohte, da zu viele seiner Videos gefährliche Desinformation erhielten.

Aber: Opfermythos

Die Beispiele zeigen: Deplatforming schafft Probleme bei Reichweite, Rekrutierung und Finanzierung. Es gibt aber auch Nachteile: Werden massenweise Accounts gesperrt, füttert das indirekt den so beliebten „Opfermythos“. Die betroffenen Personen inszenieren sich als Opfer „staatlicher Zensur“ (auch wenn hinter den sozialen Netzwerken Privatunternehmen stecken) und könnten sich genau wie ihre Fanbase noch schneller radikalisieren und Gewaltbereitschaft entwickeln, weil sie in ihrer Blase verschwinden und noch weniger Gegenmeinungen hören.

Das sagt zum Beispiel Extremismusforscher Jakob Guhl (im Gespräch bei Deutschlandfunk). Ein Problem, dem wir als Gesellschaft nur bedingt entgegenwirken können, denn diese Menschen sind auf eine gewisse Art verloren, da sie so tief in ihrer Verschwörungsblase stecken, dass schlüssige und faktenbasierte Gegenargumente ohnehin nicht mehr viel bringen.

Welche Rolle Du bei Deplatforming spielen kannst

Deplatforming liegt immer noch in der Hand der jeweiligen Unternehmen und Anbieter. Einzelpersonen, Institutionen, Medien oder Politiker:innen haben nur beschränkten Einfluss darauf, welche Inhalte auf den Plattformen stattfinden. Nicht immer lassen sich diese Entscheidungen nachvollziehen. Bestes Beispiel ist der Podcast „Lagebesprechung“ des rechtsextremen Vereins „Ein Prozent e.V.“, den es auf Spotify und iTunes gibt. Auf dem ersten Blick sind die rechtsextremen Inhalte nicht klar erkennbar.

Spätestens wenn man sich die Liste der Gäste anschaut – darunter Björn Höcke, Martin Sellner, Andreas Kalbitz und Benedikt Kaiser – sollte man stutzig werden. Wenn man dann noch die politische Einstellung und Agenda von „Ein Prozent“ verfolgt, wird die ganze Sache zu einem handfesten Skandal für Spotify und Apple: „Ein Prozent für unser Land e.V.“ wurde im Juni vom Verfassungsschutz als „Verdachtsfall“ eingestuft – der Podcast ist aber nach wie vor auf beiden Plattformen verfügbar. Instagram und Facebook haben Ein Prozent bereits verbannt, warum ziehen die Streaminganbieter nicht nach?

Es fehlen Strategien

Für mich steht fest: Gefährdende Inhalte zu erkennen und zu löschen ist definitiv Aufgabe des Anbieters, wird aber offensichtlich nicht gut genug geleistet. Die Strategien fehlen, die Plattformen laufen den Akteuren ständig hinterher, die passen ihre Strategien kontinuierlich an. Das zeigen die Recherchen von correctiv zu Instagram deutlich. Daher ist es umso wichtiger, dass Du und alle in Deiner Blase mit diesem Hintergrundwissen aktiv werden und antidemokratische Inhalte (mit ausreichender und nachvollziehbarer Begründung) melden, im Netz mobilisieren und Ihr euch immer wieder an Journalist:innen wendet, um mediale Aufmerksamkeit zu schaffen.

Denn Plattformen wie Facebook wollen laut eigener Aussage nicht mit Hatespeech und Hetze verbunden werden, da sie davon nicht profitieren würden und ihre Nutzer:innen (aber vor allem Anzeigekunden) nicht mit solchen negativen Inhalten konfrontieren wollen. Ein öffentlicher Aufschrei setzt die Anbieter unter Druck und zwingt sie, sich die Kanäle doch mal genauer anzuschauen. Eine gute Online-Anlaufstelle für jegliches Anliegen ist die Plattform hassmelden.de, welche gemeldete Inhalte auf strafrechtliche Relevanz prüfen und eventuell Anzeige erstattet.

Deplatforming ist ein gutes Mittel, um die Arbeit von Verschwörungsideologen und Rechtsextremen zu behindern, denn jede Verbannung kostet Follower und Einnahmen. Doch „Deplatforming ist ein Effekt für die Öffentlichkeit, aber keine Antwort. Die Menschen und ihr Hass verschwinden nicht. Das geht nur, wenn auch die inhaltliche Ebene bearbeitet wird“, sagt Miro Dittrich, Monitoring-Experte der Amadeu Antonio Stiftung, bei Belltower. Vielmehr sind die Plattformen und die Politik in der Verantwortung, effektivere Strategien bzw. Gesetze gegen Hatespeech und Co. schaffen, sondern vor allem bildungspolitisch dagegenwirken. Sonst bleibt Deplatforming nur ein Tropfen auf dem heißen Stein.

Zum Thema:

Die perfekte Einstiegsdroge? Wie Rechtsextreme mit Musik Nachwuchs rekrutieren

Autor: Erik Klügling. Artikelbild: pixabay.com, CC0 / Screenshots youtube.com


Unsere Autor:innen nutzen die Corona-Warn App des RKI: