Direkt zum Seiteninhalt springen

Wie man erfolgreich Desinformation bekämpft

Reaktive Ansätze – Potentiale und Grenzen

SWP-Aktuell 2024/A 69, 18.12.2024, 8 Seiten

doi:10.18449/2024A69

Forschungsgebiete

Regierungen, Medien, Wissenschaft und Gesellschaft sind sich einig, dass zur Be­kämpfung von Desinformation vielfältige und koordinierte Anstrengungen not­wendig sind. Uneinigkeit herrscht oft darüber, wie diese Erkenntnis in konkrete Maßnahmen umgesetzt werden soll. Besonders greifbare, unmittelbare und sichtbare Ansätze erhalten regelmäßig überproportional viel Aufmerksamkeit. Der Vorteil von Faktenchecks, von Kennzeichnung und Deplatforming ist, dass sie ein zählbares Er­gebnis liefern. So lässt sich öffentlichkeitswirksam kommunizieren, dass bereits mehr als 18.000 Desinformationen widerlegt wurden oder man ein Netzwerk mit 50.000 in­authentischen Accounts abgeschaltet hat. Doch solche Zahlen sagen noch nichts über die Wirksamkeit derartiger Interventionen aus. Der empirische Forschungsstand zum Effekt reaktiver Instrumente auf die Verbreitung und Wirkung von Des­information ist lückenhaft und mitunter widersprüchlich. Mit Blick auf Faktencheck, Kenn­zeichnung und Deplatforming stellen sich die Fragen: Was beinhaltet die Maßnahme, welcher Effekt ist aus wissenschaftlicher Sicht zu erwarten, welche nicht-intendierten Effekte können eintreten und wie skalierbar ist der jeweilige Ansatz?

Desinformation – also die gezielte Ver­brei­tung von falschen oder irreführenden In­formationen mit der Absicht, einzelne Men­schen oder Gruppen zu manipulieren – hat das Potential, den demokratischen Diskurs zu beeinträchtigen, Radikalisierung zu be­feuern und Hass und Gewalt auszulösen. Sie wird auf der ganzen Welt als Bedrohung für Demokra­tien angesehen. Viele politische Entscheidungsträger:innen suchen daher nach schnellen und wirksamen Wegen, Menschen davon abzuhalten, Desinformation anzunehmen und zu verbreiten.

Empirische Forschungsergebnisse zum Effekt von Desinformation auf Menschen und Gesellschaften – etwa, wie sie Über­zeugungen oder Wahlverhalten be­einflusst oder Gewalt auslöst – sind jedoch rar und variieren stark. Dies erschwert die Bewertung der Bedrohung durch Desinformation und die Wahl geeigneter präventiver und reaktiver Gegenmaßnahmen. Nachfolgend liegt der Fokus auf drei der häufigsten re­aktiven Ansätze: Faktenchecks, Kennzeichnung und Deplatforming. Dabei werden vier Hauptfragen beleuchtet:

  1. Was wird unter dem jeweiligen Ansatz verstanden?

  2. Wie wird die Wirkung des Ansatzes von der aktuellen Forschung eingeschätzt?

  3. Welche möglichen nicht-intendierten Effekte gibt es?

  4. Lässt sich der Ansatz im großen Maßstab umsetzen?

Faktencheck

Was ist das? – Unter diesem Ansatz, auch als Fact-Checking oder Debunking bekannt, versteht man die Veröffentlichung korri­gierender Informationen zur Widerlegung irreführender Behauptungen. Faktenchecks werden häufig im Rahmen journalistischer Arbeit durchgeführt oder von spezialisierten Institutionen betrieben. Diese können entweder dauerhaft oder temporär tätig sein, oft mit einem spezifischen thema­tischen Fokus, etwa zu Themen wie der Corona-Pandemie, kriegerischen Konflikten oder Wahlen. Staatlich organisierte Fakten­checks sind hingegen eher selten.

Wie wird die Wirkung eingeschätzt? – Zu der Frage, wie genau und beständig die korrigierte Information wirkt, liefert die Forschung komplexe und teils widersprüchliche Ergebnisse.

Einige Studien legen nahe, dass die Kor­rektur falscher Informationen aus ver­trauenswürdigen Quellen zu einem Wissens­zuwachs führen kann, der Verhalten und Einstellung der Empfänger:innen nach­haltig beeinflusst. Andere Untersuchungen zeigen auf, dass die Wirkung von Faktenchecks vor allem davon abhängt, wie stark die Des­information mit der Überzeugung der Betrof­fenen übereinstimmt. Ein Grund dafür ist der sogenannte »confirmation bias«, also die Tendenz, Informationen selek­tiv und passend zu den eigenen Über­zeugungen aufzunehmen.

Selbst wenn Desinformation unmittelbar und überzeugend widerlegt wurde und die­ser Akt der Korrektur von den Betroffenen erinnert wird, bedingt das Wissen um die Unwahrheit der Information nicht zwingend auch eine Einstellungs- und Verhaltens­änderung. Dieses Phänomen wird als »con­tinued influence effect« und »belief echo« bezeichnet. Betroffene können etwa um die Lügen von Kriegsparteien oder politischen Kandidat:innen wissen und diese Parteien oder Personen weiterhin unterstützen. Das bedeutet, dass im öffent­lichen Diskurs ein­gesetzte Desinformation die Haltungen gegenüber Persönlichkeiten und Themen auch dann noch beeinflussen kann, wenn die Information unmittelbar und schlagend widerlegt wurde.

Nicht abschließend geklärt sind der Ein­fluss und die Wechselwirkung einer Viel­zahl an Faktoren, die immer wieder in Untersuchungen zu Faktenchecks auf­tauchen. Dazu gehören einerseits Bildung, das Vertrauen der Betroffenen in die Wissen­schaft und in das bestehende politische System, aber auch die Schnelligkeit, Art und Formulierung, in der die Richtig­stellung der Desinformation präsentiert wird, und ob die korrigierende Quelle den Betroffenen bekannt ist. Einige Forschungsergebnisse deu­ten zudem darauf hin, dass es wirksamer ist, eine Desinformation in Form einer Er­zäh­lung zu widerlegen als schlicht die nackten Fakten darzulegen. Hier besteht ein Bedarf an weiteren tief­gehenden Studien, um die angesproche­nen Widersprüche aufzulösen oder zu er­klären.

Gefahr nicht-intendierter Effekte? – Für alle reaktiven Maßnahmen gilt: ein mög­licher negativer Effekt einer Reaktion auf Desinformation ist, dass die Auseinandersetzung mit derselben zu deren Verbreitung und Wirkung beiträgt.

Wie skalierbar ist der Ansatz? – Fak­ten­checks, die als Bestandteil journalistischer Arbeit durchgeführt werden, finan­zieren sich durch Unternehmensgewinne. Eigen­ständige Institutionen, die sich auf Fakten­checks spezialisiert haben, sind hin­gegen oft auf externe Unterstützung an­gewiesen. Die Vielzahl an Initiativen welt­weit deutet darauf hin, dass dieser Ansatz grundsätzlich gut hochskalierbar ist. Aller­dings soll­ten dabei grundlegende strukturelle Nach­teile nicht übersehen werden: 

1. Zeit- und Fachaufwand: Die Korrektur von Desinformation erfordert oft deutlich mehr Zeit und Fachwissen als deren Erstellung. Der Zugang zu den für die Verifikation notwendigen Informationen ist in autoritären Regimen, Krisen- und Konfliktregionen nicht immer möglich. Eine umfassende Korrektur aller Des­informationen ist daher nicht realistisch.

2. Effektive Verteilung: Die Verteilungsmechanismen müssen so gestaltet sein, dass die korrigierten Informationen schnell, zielgerichtet und wiederholt diejenigen erreichen, die am empfänglichsten für die spezifische Desinformation sind. Idealerweise sollte die Korrektur gleichzeitig mit der Verbreitung der Desinformation erfolgen. Dies dürfte jedoch aufgrund der in Punkt 1 beschrie­benen Herausforderungen (Zeit- und Fachaufwand) nie restlos zu bewerk­stelligen sein.

3. Fragmentierung sozialer Medien: Die zunehmende Fragmentierung sozialer Medien erschwert sowohl die Erfassung von Desinformation als auch die Ver­breitung der entsprechenden Korrek­turen.

Die Einbindung von KI zur Erkennung von Desinformation, zur Recherche und zur Erstellung und Verteilung korrektiver Kurz­nachrichten ist denkbar und wird schon erprobt. Für alle hier betrachteten Ansätze gilt: Die Qualität der Trainingsdatensätze ist entscheidend, um die Gefahr von »algo­rithm biases« zu reduzieren. Ansätze zur Reduzierung dieses Risikos und zur Bereit­stellung ausgewogener KI-Trainingsdaten­sätze und Überprüfungsmethoden gibt es bereits. Die Vielfalt der Desinformationsformate – Text, Bild, Bewegtbild und Ton – wird allerdings weiterhin eine Herausforderung für eine automatisierte Erkennung bleiben.

Kennzeichnung

Was ist das? – Unter diesem Ansatz, auch als Labeling bekannt, versteht man die Anfügung von (Warn-)Hinweisen oder re­levantem Kontext bei einzelnen Beiträgen oder Quellen. Beispielsweise werden Ac­counts in sozialen Medien, Beiträge oder Links als journalistisch qualitativ hoch­wertig oder als staatlich finanzierte Quellen gekennzeichnet. Zu den üblichen Kennzeichnungen gehören auch Hinweise dar­auf, dass zu einem bestimmten Sachverhalt noch nicht alle Informationen vorliegen oder dass es dazu widersprüchliche In­formationen gibt. Zudem wird angegeben, ob Infor­mationen möglicherweise veraltet sind. Auch das Labeling von Bildern, Videos oder Tonaufnahmen – also ob sie authen­tisch sind oder mit Hilfe von KI erzeugt wur­den – fällt unter diesen An­satz. Das Ziel der Kennzeichnung ist, Einfluss darauf zu nehmen, wie Rezipient:innen die Rich­tigkeit und Wichtigkeit der dargebotenen Informationen einschätzen. Kennzeich­nungen können, müssen aber nicht mit einem Faktencheck einhergehen.

Wie wird die Wirkung eingeschätzt? – Zahlreiche Forschungsergebnisse belegen, dass die Kennzeichnung von strittigen und falschen Inhalten die Wahrscheinlichkeit verringern kann, dass diese Informationen geglaubt oder geteilt werden. Dafür muss die Kennzeichnung jedoch unmittelbar ins Auge springen und der enthaltene Text kurz und vor allem explizit sein. Vage Hin­weise, wie etwa die Feststellung, dass ein Sachverhalt unter Beobachtung stehe, ge­nügen vor allem in sozialen Medien nicht, um die Verbreitung effektiv einzudämmen.

Neuere Studien haben gezeigt, dass eine einfache Aufforderung zum Nachdenken über die Exaktheit eines Beitrags oft aus­reicht, um das unreflektierte Teilen von Inhalten und damit die Verbreitung von Desinformation einzuschränken. Die For­scher:innen gehen davon aus, dass die meisten Men­schen nicht bewusst Unwahrheiten verbreiten wollen, in sozialen Medien aber andere Fak­toren – etwa Belustigung oder der Wunsch nach Be­stätigung – das Nut­zungsverhalten erheblich beeinflussen. Die Aufforderung, vor dem Teilen über die Korrektheit und den Wahrheitsgehalt eines Beitrags nachzudenken, kann dieses Hand­lungsschema aufbrechen.

Zusätzlich zur Kennzeichnung einzelner Beiträge kann auch die allgemeine jour­nalis­tische Qualität einer Quelle bewertet werden. Diesen Ansatz verfolgt beispielsweise das Portal Newsguard, das anhand grundlegender journalistischer Kriterien, wie Faktentreue und Transparenz, eine Bewertung auf einer Skala von 0 bis 100 vergibt. Eine Studie zum Mediennutzungsverhalten ergab, dass Newsguards Kennzeichnung bei den stärksten und häufigsten Konsument:innen von Desinformation zu einem qualitativ höherwertigen Nach­richtenkonsum führt.

Gefahr nicht-intendierter Effekte? – Die Forschung zur Kennzeichnung zeigt vor allem zwei mögliche nicht-intendierte Kon­sequenzen auf: den »implizierten Wahrheitseffekt« sowie den »implizierten Un­wahrheitseffekt«. Einige Studien kamen zu dem Ergebnis, dass das Vorhandensein von Warnhinweisen bei einzelnen Beiträgen die Neigung der Proband:innen erhöht, die un­gekennzeichneten Beiträge allgemein als glaubwürdiger oder unglaubwürdiger ein­zustufen. Warum bestimmte Gruppen ten­denziell mehr von dem einen oder anderen Effekt betroffen sind, kann bisher nicht ab­schließend beantwortet werden. Die um­fassende Kennzeichnung aller Beiträge und Quellen als geprüft (wahr oder un­wahr) oder ungeprüft stellt angesichts der schie­ren Masse an Inhalten in sozialen Medien keinen praktikablen Lösungsansatz dar.

Eine Untersuchung von Twitter-Beiträgen aus 2020 – unter anderem von Donald Trump – hat gezeigt, dass Kennzeichnung die Verbreitung von Desinformation nicht immer eindämmt. Seine als »umstritten« gekennzeichneten Beiträge wurden deut­lich öfter geteilt als die ungekennzeichneten. Hier bedarf es weiterer Forschung, vor allem weil sehr prominente Einzelpersonen oft­mals eine überproportionale Wirkung bei der Verbreitung von Desinformation entfalten können.

Wie skalierbar ist der Ansatz? – Die schon jetzt umfangreich praktizierte Kenn­zeichnung von Informationen in sozialen Medien zeigt, dass dieser Ansatz im großen Stil implementiert werden kann. Im Ver­gleich zu weniger transparenten Methoden, wie der bloßen Entfernung oder der Verrin­gerung der Sichtbarkeit von Bei­trägen, wird die Kennzeichnung von vielen Nutzer:in­nen zudem besser akzeptiert. Ähn­lich dem Faktencheck sind jedoch einige strukturelle Nachteile zu berücksichtigen: 

1. Individuelle Kennzeichnung: Eine in­dividuelle Prüfung und explizite Kenn­zeichnung – durch Menschen – ist effek­tiver, erfordert jedoch Zeit und Res­sourcen, was die Umsetzbarkeit eines solchen Ansatzes einschränkt.

2. Automatische Kennzeichnung: Eine auf Algorithmen basierende automatische Kennzeichnung ist verhältnismäßig un­präzise und birgt die Gefahr von »algo­rithm biases«, ermöglicht jedoch eine schnellere und breitere Anwendung.

3. Fragmentierung sozialer Medien: Die wachsende Zahl sozialer Medienplattformen mit unterschiedlicher Ausrichtung, Ressourcenausstattung und öffentlicher Sichtbarkeit erschwert die Etablierung eines einheitlichen Kennzeichnungs­prozesses und schränkt die Skalierbarkeit des Ansatzes ein.

Die Einbindung von KI hat das Potential, bei der Bewältigung großer Datenmengen im Prozess präziser Kennzeichnungen zu unterstützen.

Deplatforming

Was ist das? – Unter diesem Ansatz wird hier die Entfernung von inauthentischen Netzwerken von sozialen Plattformen zu­sammengefasst, die eine authentische Iden­tität oder einen authentischen Zweck in der Absicht vortäuschen, Desinformation zu verbreiten. Die Ab­schaltung von Seiten und Accounts des sogenannten Doppelgänger-Netzwerks ist ein aktuelles Beispiel für eine derartige Maßnahme.

Das Deplatforming wird von den sozialen Netzwerken selbst, von Dienstleistern sowie von staatlichen oder zivilgesellschaftlichen Akteuren initiiert. Die Abschaltung erfolgt aufgrund unterschiedlicher gesetz­licher Vorgaben, öffentlichen Drucks oder Verstößen gegen Plattformrichtlinien. Das Vorgehen ist nicht umfassend und ein­heitlich geregelt, daher kann es sich von Plattform zu Plattform oder innerhalb der­selben Plattform von Land zu Land unter­scheiden.

Wie wird die Wirkung eingeschätzt? – Deplatforming wird aktuell regelmäßig in den Medien thematisiert. Die Anzahl der öffentlichkeitswirksamen Abschaltungen ist aber kein Beleg für deren Wirksamkeit. Die zu beobachtende Zunahme derartiger Berichte könnte ebenso auf ein gesteigertes öffentliches Interesse oder eine wachsende Zahl von Desinformationskampagnen zu­rückzuführen sein.

Einige Untersuchungen deuten darauf hin, dass kontinuierliche Abschaltungen und der damit verbundene stetige Anpas­sungsdruck zulasten der Qualität der ein­zelnen Desinformationsbeiträge (z. B. mehr Übersetzungsfehler, schlichterer Content) gehen und deren Reichweite reduzieren können, selbst wenn die Betreiber immer wieder neue Accounts oder Seiten erstellen. Auch wenn es gelingt, derartige Kam­pa­gnen klar zu attribuieren, wird eine begrenzte Wirkung attestiert, da manche Desinformationsakteure dann lieber Wege der Ein­fluss­nahme wählen, bei denen sie die Urheberschaft einfacher ab­streiten können.

Die Bedeutung von inauthentischen Netz­werken in sozialen Medien für die Verbreitung von Desinformation und auf die Einstellung von Nutzer:innen ist um­stritten. Eine Studie zu russischen Einflussnahmeversuchen während der US-Wahlen 2016 etwa konnte keine definitive Wir­kung auf die Einstellung und das Verhalten der Twitter-Nutzer:innen nachweisen. Auch andere Unter­suchungen bewerten den Impact der rus­sischen Internet Research Agency, der sogenannten »russischen Troll­fabrik«, nur als gering. Demgegenüber wird in einigen Analysen die Bedeutung authen­tischer/mensch­licher Akteure bei der Ver­breitung von Desinformation deutlich höher eingeschätzt. Die Regulierung der­artiger authentischer Akteure, wie etwa der Reichsbürgerbewegung oder QAnon, ist ein besonders sensibler Bereich. Hier besteht das Risiko von Zensurvorwürfen, unabhängig davon, ob die Abschaltungen aufgrund von Verstößen gegen die Platt­formricht­linien oder auf staatliche An­ordnung er­folgen.

Gefahr nicht-intendierter Effekte? – Das Deplatformen von einzelnen Accounts kann, zumindest kurzfristig, die Sichtbarkeit und damit Reichweite der Betreiber bzw. der von ihnen verbreiteten Beiträge erhö­hen. Zudem haben einige Studien nachgewiesen, dass das Deplatforming zwar die Möglichkeiten zur Verbreitung von Des­information vor allem auf großen und ver­hältnismäßig gut regulierten Plattformen einschränkt, gleichzeitig jedoch Migrations­bewegungen zu weniger regulierten Platt­formen begünstigen und Radi­kalisierung beschleunigen kann. Interessanterweise haben Untersuchungen auf un­regulierten Plattformen gezeigt, dass Des­informationen dort, entgegen der allgemeinen Annahme, nicht flächendeckend, sondern überwiegend innerhalb eines kleinen, aktiven Nutzerkreises geteilt werden.

Wie skalierbar ist der Ansatz? – Schwierig ist vor allem die Abschät­zung der Kosten für das Deplatforming, denn die Maßnahme wird seitens der sozialen Netz­werke aktuell zumeist unter allgemeinen Posten wie Sicherheitsausgaben oder Fak­tenchecks subsumiert. Der Ansatz ist nur bedingt skalierbar, Grund dafür sind neben der komplizierten Kostenkalkulation fol­gende Herausforderungen: 

1. Auswahl der sozialen Netzwerke: Es gibt keine einheitlichen Kriterien, nach denen Plattformen priorisiert werden könnten. Unterschiede in Größe, regionaler und internationaler Reichweite und potentieller politischer Wirkung machen es schwer, eine kohärente Stra­tegie zur Bekämpfung inauthentischer Netzwerke zu entwickeln. Ein Fokus auf Plattformen wie META oder X erfordert Abwägungen, die nicht immer eindeutig messbar sind.

2. Standardisierte Meldungen: Die Not­wendigkeit der Standardisierung von Mel­dungen, vor allem bei plattformübergreifenden Desinformationskampa­gnen, ist erkannt. Der Digital Services Act beispielsweise verweist hier auf den Code of Practice on Disinformation und den Europäischen Aktionsplan für Demo­kratie als Grundlage. Allerdings werden kleinere Plattformen noch gar nicht oder nur im Rahmen einer frei­willigen Teilnahme erfasst.

3. Zusammenarbeit: Die Natur der in­authen­tischen Netzwerke und deren mög­liches plattformübergreifendes Wir­ken wird es regelmäßig erfordern, dass die Plattformen untereinander und diese mit staatlichen und zivilgesellschaft­lichen Institutionen kooperieren. Allerdings unterscheiden sich diese drei Akteure deutlich, was ihre Expertise in Sachen Desinformation und ihre personelle und finanzielle Ausstattung angeht.

4. Frühwarnfunktion: Eine Abschaltung ist nicht immer sinnvoll. Die Beobachtung eines solchen Netzwerks kann auch als Frühwarnmechanismus die­nen, der Aufschluss über aufkommende Desinfor­mationskampagnen und das dahinterstehende Akteursnetzwerk gibt.

KI kommt bei der Erkennung inauthentischer Accounts und Netzwerke bereits zum Einsatz.

Abschließende Überlegungen und Handlungsempfehlungen

Komplexität und Unsicherheit – Im Kampf gegen Desinformation müssen wir die Komplexität und Unsicherheit des Pro­blems als Teil der Herausforderung akzep­tieren. Die – zum Teil widersprüchlichen – Forschungsergebnisse machen deutlich, dass unser Wissen über das komplexe Zu­sammenspiel zwischen kognitiven und sozialen Dynamiken noch immer begrenzt ist, ebenso wie das Ver­ständnis der Rolle von Emotionen. Aktuell gibt es keine re­aktive Maßnahme, die alle Verbreitungs­wege der Desinformation abdeckt und gleichermaßen umfassend erforscht, wirk­sam und leicht skalierbar ist. Dennoch sind Nichtstun und Schweigen keine Optio­nen. Die ausgewerteten Studien bieten Hand­lungsempfehlungen, um die knappen Res­sourcen zur Bekämpfung von Desinformation gezielt und koordiniert einzusetzen.

Forschung – Obwohl die bisherige For­schung wertvolle Einblicke bietet, handelt es sich häufig um kleine Studien unter Laborbedingungen. Zudem fokussiert sich die absolute Mehrheit der Studien zur Be­kämpfung von Desinformation auf den Globalen Norden. Und selbst innerhalb dieser Gruppe fokussiert sich wiederum ein erheblicher Teil der Analysen auf die USA. Wegen des spezifischen Zweiparteien­systems und des seit Jahren auf­geladenen politischen Umfelds lassen sich die so ge­won­nenen Erkenntnisse nicht ohne Weite­res in wirk­same Strategien zur Bekämpfung von Des­information im Rest der Welt über­tragen. Daher besteht ein genereller Bedarf an mehr und breiter angelegter evidenz­basierter Forschung, welche die Auswirkun­gen von Desinformation auf Einstellungs- und Verhaltensänderungen über längere Zeit­räume, in unterschiedlichen Regionen und unter Berücksichtigung unterschiedlicher Verbreitungswege untersucht. Zudem gibt es Forschungslücken bei nicht text­basierten Formen der Desinformation. Dazu zählen Memes, Deepfakes und subtilere Arten der Irreführung wie das Paltering – die Ver­wendung wahrheitsgemäßer Aus­sagen, um einen irreführenden Eindruck zu vermitteln. Für eine derartige Forschung ist der Zugang zu Daten auf allen Plattformen notwendig, nicht nur zu denen der großen, die derzeit vom Digital Services Act erfasst sind. Hier besteht politischer Regelungs­bedarf, um technische, ethische und regu­latorische Hindernisse für eine im öffent­lichen Interesse liegende Forschung ab­zubauen. Gleichzeitig müssen die Privat­sphäre der Nutze­r:innen geschützt und Rechtssicherheit für Plattformbetreiber geschaffen werden.

Einsatz von KI – Algorithmen haben das Potential, bei der Erkennung und Kennzeich­nung von Desinformation zu helfen und deren Verbreitung einzuschränken. So können beispielsweise »Natural Language Pro­cessing«-Tools (NLP) durch Sentiment­analyse und Entitätserkennung verdächtige Textmuster identifizieren. Maschinelle Lernklassifikatoren können dabei unterstützen, diese Mus­ter als wahr oder falsch zu kategorisieren, während graphenbasierte Techniken helfen, die Informationsverbreitung besser zu ver­stehen und enthaltene Desinformation zu erkennen.

Es ist somit wichtig, dass KI nicht nur als Mittel zur Erstellung und Verbreitung von Des­information ein­gesetzt wird. Bei der KI‑gestützten Desinformationserkennung kommt es allerdings entscheidend darauf an, die Grenzen der Technologie zu ver­stehen und mit entsprechenden Trainingsdatensätzen und Überprüfungsmethoden faire und zuverlässige Ansätze zu ent­wickeln.

Staatliche Institutionen und politische Entscheidungsträger:innen – Die be­trach­teten reaktiven Maßnahmen sehen aus unterschiedlichen Gründen nur eine begrenzte Rolle des Staates vor. Vor allem bei aktuellen und sehr umstrittenen The­men könnten sich staatliche Akteure mit Eingriffen in Form von Faktenchecks, Kenn­zeichnungen und Deplatforming schnell dem Vor­wurf der Zensur aussetzen. Ohne­hin sind zumindest deutsche Ministerien und Behörden aufgrund der üblichen Freigabe- und Abstimmungsverfahren nur sehr begrenzt in der Lage, selbst schnell und im großen Maßstab auf Desinforma­tion zu reagieren. Staatliche Institutionen und politische Entscheidungsträger:innen soll­ten eine proaktive, transparente und fak­tenbasierte Kommunikation praktizieren und fördern sowie folgende Punkte beachten:

  • Unterscheidung von Wirkung und Reichweite – Bei der Auswahl reaktiver Maßnahmen ist zu berücksichtigen, dass Reichweite, das Ausmaß der in Gang ge­setzten Interaktion (z. B. durch Lesen, Weiterleiten, Likes, andere Formen der Kommentierung), die Anzahl der korrigierten Desinformationen und die Größe der abgeschalteten Netzwerke nicht mit der tatsächlichen Wirkung in Bezug auf Einstellungs- und Verhaltensänderungen gleichgesetzt werden können. Wo immer möglich, ist eine Wirkungskontrolle ein­zufordern, die Einstellungs- und Ver­haltensänderungen erfasst.

  • Wert reaktiver Maßnahmen kennen – Ungeachtet der Kritik an der Zuverlässigkeit der Wirkungs­messung schützen reaktive Maßnahmen eine Vielzahl potentieller Zielgruppen. Darunter sind beispielsweise Menschen, die zu einem Thema noch unschlüssig sind oder bisher noch nichts davon gehört haben.

  • Frühzeitige Identifikation von Zielen – Mutmaßliche Ziele von Desinforma­tionskampagnen, wie Referenden und Wahlen, müssen frühzeitig identifiziert werden. Vorbeugend sind transparente und faktenbasierte Informationsquellen anzubieten sowie Sensibilisierungs­maßnahmen, sprich Aufklärungs­kampagnen durchzuführen, die Wähler:in­nen bewusst machen, dass sie mög­licher­weise Ziel von Desinformations­angrif­fen werden. So wird der Informa­tionsraum nicht den Desinforma­tions­akteuren überlassen, und reaktive Maßnahmen wie Faktenchecks in Verbin­dung mit Kennzeichnungen können be­schleunigt werden.

  • Internationaler Austausch – Der Aus­tausch mit regelmäßig von Desinformation betroffenen Staaten wie Taiwan oder Moldau sollte gepflegt werden. Dies dient dazu, das Vorgehen von Desinformations­akteuren in unterschiedlichen kultu­rellen und technischen Kontexten besser zu verstehen und sich über erfolgreiche Maßnahmen und deren notwendige Voraussetzungen auszutauschen.

  • Forschungsförderung – Die Forschung zur Wirkung von Desinformation, zu Gegenmaßnahmen, präventiven An­sätzen und zum Einsatz von KI zur Erstellung und Erkennung von Des­informa­tion sollte gefördert werden. Gleichzeitig sollte der Zugang der Forschung zu qualitativ hochwertigen Daten ermöglicht werden.

Oberstleutnant i.G. Aldo Kleemann ist Gastwissenschaftler in der Forschungsgruppe Sicherheitspolitik.

SWP

Stiftung Wissenschaft und Politik

ISSN (Print) 1611-6364

ISSN (Online) 2747-5018