3.690

Nicht nur Telegram: Wie Meta, Google & Co. Radikalisierung unterstützen – und profitieren

von | Jan 17, 2022 | Aktuelles

Profit mit Corona-Leugnern und Rechtsradikalen

Gastbeitrag von Annika Schnabel

Dass sich Anhänger:innen von Querdenken und den sogenannten „Spaziergängen“ über Telegram verabreden, ist bereits hinlänglich bekannt. Auch, dass der Handel mit gefälschten Impfpässen über den Nachrichtendienst floriert, sollten die meisten Menschen mitbekommen haben. Zuletzt wurde viel Kritik an Telegram laut, die sich immer weiter radikalisierenden Chats besser moderieren zu müssen und Hass und Hetze einzudämmen (Quelle). Eine Analyse der Organisation reset.tech, die sich für eine strengere Regulierung der großen Tech-Konzerne einsetzt, zeigt nun, dass eigentlich die Riesen auf dem Markt wie Meta, Google und Co. die Radikalisierungstreiber sind.

Obwohl es Telegram Corona-Leugner:innen, Querdenker:innen und Rechtsradikalen sehr leicht macht, Demonstrationen und organisierte Angriffe auf Arztpraxen, Journalist:innen und so weiter zu koordinieren, werden diese Angriffe wiederum in den meisten Fällen über die sozialen Plattformen Facebook, Google oder YouTube ausgeführt. Dabei werden beispielsweise Arztpraxen, die Corona-Impfungen durchführen oder gastronomische Betriebe, welche sich für die verhängten Maßnahmen oder eine Impfpflicht aussprechen, massenhaft mit künstlichen schlechten Bewertungen überschwemmt.

Weder Nutzer:innen noch Behörden können Unternehmen zur Verantwortung ziehen

Obwohl die Betreiber der größten Social-Media-Plattformen laut dem NetzDG verpflichtet sind, einen Bericht über den Umgang mit Beschwerden über rechtswidrige Inhalte abgeben müssen, sobald ihnen „im Kalenderjahr mehr als 100 Beschwerden über rechtswidrige Inhalte“ vorliegen, haben weder Nutzer:innen noch Behörden wirkliche Handhabe gegenüber den Konzernen (Quelle). Tatsächlich haben sich Hilfegesuche von Betroffenen digitaler Gewalt im Jahr 2021 gegenüber dem Vorjahreszeitraum laut der Beratungsorganisation HateAid verdreifacht. Besonders betroffen waren darunter Kommunalpolitiker:innen und Journalist:innen.

Die Organisationen reset.tech und HateAid untersuchten in einem Selbstversuch, wie Facebook auf das Melden offensichtlich rechtswidriger Kommentare reagierte. So meldeten sie 100 Kommentare von öffentlichen AfD-Seiten, die offensichtlich sowohl gegen die im NetzDG aufgeführten Straftaten, als auch gegen die von Facebook selbst aufgestellten Richtlinien verstoßen. In 33 der gemeldeten Fälle fand Facebook keinen Grund zur Beanstandung, fast alle der übrigen 67 Kommentare wurden von der Plattform gelöscht. Dabei bezog sich Facebook jedoch lediglich auf die eigenen Richtlinien, nicht aber auf das NetzDG. Dies hat zur Folge, dass die rechtswidrigen Kommentare lediglich gelöscht werden, den Urheber:innen jedoch keine rechtlichen Konsequenzen drohen. Von selbst wird Facebook jedoch in den seltensten Fällen tätig, die gemeldeten Kommentare waren im Durchschnitt bereits 409 Tage auf der Plattform online.

Dabei fällt auf, dass gerade moderatere Stimmen durch Hass und Hetze aus den sozialen Medien verdrängt werden. Eine repräsentative Umfrage von reset.tech und Pollytix unter deutschen Internetnutzer:innen fand heraus, dass etwa 38 Prozent der Befragten selbst schon digitaler Gewalt oder Hass im Netz ausgesetzt waren (Quelle). So erfahren Hass und Hetze im Internet immer weniger Gegenrede. Nur knapp 15 Prozent der Befragten gaben an, sich regelmäßig online zu politischen Themen zu äußern, die meisten davon waren jüngere Männer oder Anhänger:innen der AfD.

Gewinn durch Radikalisierung

Doch Facebook & Co. gehen nicht nur nicht gegen die zunehmende Radikalisierung, Morddrohungen und Hetze auf ihren Plattformen vor, sie schlagen auch Gewinn daraus. Hetzerische Inhalte generieren Klicks, Likes und Traffic in den sozialen Medien, wodurch sich mehr Werbung an mehr Kund:innen ausspielen lässt. So ergab eine Untersuchung von reset.tech, dass Facebook antisemitische Hetze gezielt an AfD-Wähler:innen ausspielte und jugendlichen Angehörigen der LGBTQI*-Community personalisierte Werbung für „Heilungstherapien“ anzeigte (Quelle).

Auch mit bereits widerlegten Behauptungen zur Corona-Pandemie konnte Facebook weiterhin Traffic generieren, wie der ARD Faktencheck belegen konnte (Quelle). Dabei ließ sich natürlich auch weiterhin Geld verdienen.

Exklusiv: Facebook lässt sich von AfD-naher Zeitung bezahlen, Corona Fakes zu verbreiten

Was kann man dagegen tun?

Trotzdem sind Nutzer:innen den Plattformen nicht gänzlich ausgeliefert und es ist kein ganz so rechtsfreier Raum, wie es nun erscheint. Die EU-Kommission hat den Entwurf eines Digital Services Act (DSA) ausgearbeitet, das Tech-Riesen wie Meta und Google dazu verpflichten soll, regelmäßig darlegen zu müssen, welche Maßnahmen ergriffen werden, um massiver Hetze vorzubeugen und die Interessen von Nutzer:innen und Gesellschaft zu schützen. Sollten die Bemühungen der Unternehmen nicht ausreichen, könnte eine Aufsichtsbehörde empfindliche Strafen verhängen.

Da auch das NetzDG auf Bundesebene bereits genau diese Punkte vorsieht, sie jedoch nicht stringent durchgesetzt werden, sollte sich die Bundesregierung zumindest auf EU-Ebene stark dafür einsetzen, dass dieser künftigen Aufsichtsbehörde ausreichend personelle und technische Kapazitäten zur Verfügung stehen, um nicht zu einer Büroleiche zu verkommen.

Zum Thema:

Soll Facebook Querdenken-Konten sperren? Antwort: Warum erst jetzt? – Gastbeitrag von Michael Blume

Gastbeitrag von Annika Schnabel. Artikelbild: Twin Design

Unsere Autor:innen nutzen die Corona-Warn App des RKI.