|
wochentaz: Herr Nazari, Sie und Ihre Kolleg:innen beobachten die
Bedrohung durch [1][Desinformation] im Kontext der EU-Wahl. Gerade erst
flog eine großangelegte Aktion prorussischer Akteure gegen westliche
Faktenchecker:innen auf. Was hat es damit auf sich?
Saman Nazari: Kolleg:innen konnten zeigen, dass prorussische Akteure
zwischen August 2023 und Mai 2024 über 800 Faktenchecker:innen und
Nachrichtenredaktionen in westlichen Ländern wie Deutschland und Frankreich
mit massenhaft gefälschten Anfragen geflutet haben. Dabei wurden auf
[2][Plattformen wie Telegram] und X zuerst hunderte gefälschte Videos,
Fotos und Artikel verbreitet. Die wurden an die Faktenchecker:innen
geschickt, verbunden mit der Aufforderung, die Inhalte zu überprüfen. Das
Ziel war, diese Organisationen lahmzulegen. So etwas haben wir noch nie
gesehen.
Es gibt Millionen von Social-Media-Kanälen – wie lassen sich solche
Desinformationskampagnen überhaupt identifizieren?
Wir haben uns als Netzwerk aus 30 Organisationen zusammengeschlossen, um
gemeinsam gegen die [3][Bedrohung durch Desinformation zu kämpfen]. Dazu
setzen wir im Wesentlichen auf Software zur Überwachung von sozialen
Medien. Solche Tools werden normalerweise von Unternehmen genutzt, um zu
verfolgen, wie über ihre Marke gesprochen wird. Wir nutzen Kombinationen
aus Suchwörtern, um Social-Media-Posts zu analysieren, die wir für relevant
halten.
Welche sind das zum Beispiel?
Beispielsweise Posts, die mit der EU-Klimapolitik zu tun haben. Da suchen
wir nach Begriffen wie „EU Green Deal“ oder „CO2-Steuer“, in Verbindung mit
negativ aufgeladenen Worten, die man nicht in normalen Publikationen finden
würde – beispielsweise „dumm“, „fanatisch“, „ideologisch“, „Schwindel“ oder
„gefährlich“. Und da findet sich einiges. Die Herausforderung ist,
herauszufinden, welche Posts manipuliert sind und welche nicht.
Gibt es auch Themenfelder außerhalb der Klimapolitik?
Die Ukraine, Gaza/Israel und natürlich die Immigration. Diese Themen waren
schon immer da. Das Besondere ist, wie mit ihnen heute umgegangen wird.
Was ist denn daran das Neue?
Es gibt neue Strategien der Manipulation. Beispielsweise versteckte
politische Werbung. Grundsätzlich ist es legal und legitim, auf
Social-Media-Plattformen politische Werbung zu schalten. Dafür gelten aber
bestimmte Regeln: Sie muss unter anderem als solche gekennzeichnet und der
Urheber muss klar erkennbar sein. Wird beides verschleiert, betrachten wir
dies als manipulativ. Meta und die anderen Plattformen haben sich selbst
verpflichtet, die politische Werbung zu regulieren. Es gibt aber Massen an
politischen Werbeanzeigen, die eben nicht als solche erkennbar sind.
Wie muss man sich das genau vorstellen?
Ein Beispiel sind von uns analysierte prorussische Facebook-Seiten, die
Anzeigen mit manipulativen Inhalten und gefälschte Videos verbreiten. Darin
wird beispielsweise behauptet, die Ukraine stecke hinter dem [4][Anschlag
des islamistischen IS in Russland Ende März]. Eine Facebook-Seite konnte im
Mai 400.000 Nutzer mit ihren Anzeigen erreichen. Sie wird von Konten im
westafrikanischen Benin kontrolliert und die Facebook-Gebühren werden in
kanadischen Dollar bezahlt. Sie zielt vor allem auf Frankreich und macht
Werbung für das Rassemblement National.
Das ist doch von der Redefreiheit gedeckt.
Natürlich. Wir sagen nicht, dass das nicht gesagt werden darf, auch wenn
wir damit nicht übereinstimmen. Uns geht es um den manipulativen Charakter.
Die Inhalte werden nicht als politische Werbung deklariert, es werden mit
Absicht bestimmte technische Elemente versteckt, um der automatisierten
Moderation durch Facebook zu entgehen.
Gibt es auch Akteure, die offen auftreten und trotzdem manipulativ sind?
Es gibt beispielsweise Medien, die wegen der Nähe zum russischen Staat mit
Sanktionen belegt werden, also etwa Russia Today und Sputnik sowie
Journalist:innen dieser Sender. Deren Inhalte sind teils weiter auf
Tiktok und Twitter verfügbar. Dabei hat die EU-Kommission klar entschieden,
dass diese Medien in der EU nicht weiter verfügbar sein dürfen. Die
Plattformen setzen die Sanktionen nicht um.
Es klingt, als sei das Ganze vor allem ein Russland-Problem.
Nein, nicht nur. Inländische Akteure sind ein großer Teil des Problems.
Die rechtsextreme Schwedendemokraten-Partei etwa bezahlt Influencer dafür,
dass sie ihre Talking points verbreiten und Feindseligkeit gegen
Migrant:innen schüren – auch hier, ohne das zu kennzeichnen.
Viele hoffen darauf, dass der kürzlich in Kraft getretene [5][Digital
Services Act der EU] das Problem der Desinformation eindämmt. Hierbei
werden die großen Plattformen zum eigenständigen sogenannten
Risikomanagement verpflichtet. Hat die Neuregelung etwas gebracht?
Sicher ist jedenfalls, dass das Gesetz die Plattformen verpflichtet hat,
Forscher:innen umfassende Analysemöglichkeiten einzuräumen. Das hat uns
ganz neue Möglichkeiten gegeben, die Dynamiken von Desinformation zu
beobachten und zu verstehen, und das ist eine Voraussetzung, um überhaupt
über Gegenstrategien nachdenken zu können.
Welche Gegenstrategien fallen Ihnen ein?
Vielleicht kann man von dem Blick lernen, den wir als Forscher:innen
einnehmen. Wir beschäftigen uns stärker mit den Methoden von Desinformation
statt mit den Inhalten. Dieser Ansatz könnte auch für die Aufklärung
helfen. Wenn man den Leuten sagen kann: „Schaut her, hier ist ein anonymer
Account aus Benin, der mit kanadischem Geld bezahlt wird und versucht, sich
in die Debatte in Frankreich einzumischen – da stimmt doch was nicht“, dann
ist das etwas völlig anderes als zu sagen, Macron oder die Ukraine zu
attackieren sei falsch. Manipulatives Verhalten offenzulegen und auf
Quellentransparenz zu drängen ist etwas, das auch Regierungen tun sollten.
Wie soll diese Quellentransparenz praktisch aussehen?
Ich arbeite beispielsweise an einer Datenbank von Social-Media-Kanälen, die
mit autoritären Staaten wie China verbunden sind, aber vorgeben,
unabhängige Medien zu sein. Die Identifizierung jedes einzelnen Kanals
kostet mich viele Stunden, wenn nicht sogar Tage Arbeit. Für den normalen
Nachrichtenkonsumenten ist das unmöglich zu schaffen. In diesem
schnelllebigen Informationsumfeld holen sie sich ihre Informationen einfach
von dort und verinnerlichen, was gesagt wird. Man kann das alles nicht in
den Griff bekommen, wenn man einfach sagt, dies und das sei nicht wahr.
Wenn Menschen Konten folgen, die an autoritäre Staaten gebunden sind, muss
man ihnen sagen: „Was ihr hier lest, kommt von einer ausländischen
Regierung.“ Man muss ihnen die Möglichkeit geben, sich selbst eine Meinung
zu bilden, wenn sie weiterlesen wollen.
Es kommt aber nicht alles von ausländischen Regierungen, es gibt auch
inländische Akteure, die destabilisierende, manipulative Informationen
verbreiten, weil es ihrer eigenen Agenda nützt.
In der Tat. Und in der Summe sind die ein größeres Phänomen als jene, die
etwa von Russland oder China gesteuert sind. Aber auch hier muss man
versuchen, Transparenz herzustellen: Wer kommuniziert hier?
Was ist mit Menschen, die sich bewusst dafür entscheiden, sich von
rechtsextremen Medien oder Parteien informieren zu lassen?
Ein Ansatz ist das sogenannte „Pre-Bunking“ – das gezielte Aufzeigen
anderer Perspektiven und faktenbasierter Informationen. Dabei geht es
darum, proaktiv zu sein, anstatt nur zu reagieren. Also nicht nur zu
versuchen, Desinformationen im Nachhinein zu widerlegen. Dies kann
besonders in Krisenzeiten und bei Wahlen wichtig sein.
7 Jun 2024
## LINKS
|