Bedrohungen durch Narrative in der Katastrophe

Dr. Michael Wunder, Prof. Dr. Ulrich Schade, Albert Pritzkau

picture alliance/dpa/Thomas Frey

Die Flutkatastrophe Mitte Juli hat verheerende Schäden angerichtet und unendlich viel Leid über viele Menschen gebracht. Feuerwehren, Bundeswehr, Polizeien und Hilfsorganisationen sind im Dauereinsatz, um bei den Aufräumarbeiten zu unterstützen. Doch nicht immer werden die Kräfte an den Einsatzorten freundlich empfangen. Das THW wurde bei seinem Eintreffen in den Flutgebieten stellenweise mit wüsten Beschimpfungen begrüßt, die Einsatzfahrzeuge mit Müll beworfen. Dahinter stecken teils verzweifelte Opfer der Katastrophe, vielfach aber auch aufhetzende Narrative von Menschen, die akute Krisensituationen wie diese zur Delegitimierung und Demontage des bestehenden Systems und zur Untermauerung von Verschwörungstheorien nutzen. Psychischer Stress, Trauer und Existenzängste der Menschen werden durch sie politisch aufgeladen und gelenkt.

Narrative – also Erzählungen, die die Wahrnehmung unserer Umwelt beeinflussen – halten als Alternative zur (objektiven) Berichterstattung verstärkt Einzug in die mediale Kommunikation. Gefördert wird diese Entwicklung durch die Schnelligkeit öffentlicher digitaler Medienkanäle, in denen ungefiltert Meinungen und Kommentare abgegeben werden können. Narrative sind auch nicht per se nur negativ. Sie existieren, seitdem Menschen miteinander kommunizieren. Eltern geben ihren Kindern Narrative in Form von Märchen weiter. Diese transportieren Werte und Emotionen und beeinflussen Erziehung und Weltwissen. Als didaktisches Mittel in der Pädagogik können Narrative daneben Zusammenhalt, Sinn, Motivation und Entscheidungsfähigkeit vermitteln. Gerade Narrative, die die Welt einordnen und erklären, zählen zu den wirkmächtigsten im gesellschaftlichen Gefüge.

Narrative können jedoch auch gezielt in die entgegengesetzte Richtung eingesetzt werden. Dann wirken sie ausgrenzend und zerstörend und wecken Furcht, Ablehnung und Hass. Solche sogenannten „toxischen Narrative“ stellen aktuelle Informationen und Fakten über Ereignisse, Orte, handelnde Charaktere und ungelöste Konflikte in den gewünschten Kontext einer meist einseitigen und voreingenommenen Perspektive. Ihre Verfasser und Akteure verfolgen das langfristige Ziel, in gesellschaftlichen Diskursen Deutungshoheit zu gewinnen und setzen hierzu konkrete Medienstrategien ein. Ist ein Narrativ erst einmal entstanden, kann es durch wenige Schlüsselwörter oder ein Bild referenziert werden. Und es ist sehr hilfreich, sich auf ein bestehendes Narrativ beziehen zu können, wenn nur wenig Zeit für ausführliche Erklärungen bleibt, z. B. in Fernsehinterviews, kurzen Artikeln, Anzeigen, Schlagzeilen und insbesondere Social Media.

Eine wichtige Erkenntnis in diesem Zusammenhang ist, dass Menschen dazu neigen, ihre Aufmerksamkeit auf Erzählungen zu richten, die ihrem Grundverständnis, ihren festen Überzeugungen, ihren Herzenswünschen oder einfach dem, was ihnen vertraut klingt, entsprechen. Leicht können ihre bestehenden Überzeugungen weiter gefestigt, aber nur schwer umgedreht werden. Allenfalls bei wankelmütigen Gemütern besteht noch die Chance, sie auf die gewünschte Seite zu ziehen. Dies ist eine der Voraussetzungen für die Bildung isolierter Online-Communities und Echokammern. Ob die Information richtig ist oder nicht, ist völlig irrelevant.

Narrative als Angriff auf Gesellschafts­systeme

Es sind in diesen Zeiten gerade die toxischen Narrative, die sich immer schneller verbreiten. Sie sind zu einem globalen Risiko geworden. Politische Verschwörungstheorien, Lügen und Fake News beeinflussen die öffentliche Meinung und bedrohen die sozialpolitische Entwicklung. Stellte eine wirksame Informationskampagne in den Prä-Internet-Zeiten zudem noch eine extrem kostspielige Angelegenheit dar, ist ihre Durchführung und Aufrechterhaltung nun extrem kostengünstig. Bereits ein Minimum an technischer Ausstattung und geringe Fähigkeiten reichen aus, um breit angelegte Kampagnen in sozialen Medien zu lancieren. Die Geschwindigkeit, mit der dies geschieht, und die große Reichweite, die sie erzielen, sind beeindruckend.

Technische Innovationen als Katalysator von Narrativen

Wichtigste Treiber hierbei sind technische Innovationen und aus ihnen resultierende Algorithmen, die vor allem Internetunternehmen zur Etablierung und stetigen Verbesserung ihrer Geschäftsmodelle nutzen. Die Unternehmen bieten ihren Kunden, die online Produkte vermarkten möchten, ausgeklügelte Werkzeugkästen an. Diese funktionieren jedoch nicht nur für physische Güter, sondern genauso für Gedankengut wie zum Beispiel eine Vision, ein Unternehmensethos, eine Ideologie, einen Mythos, eine Diffamierung, eine konstruierte Theorie usw. Auch Narrative und ihre Verbreitung sind daher eng mit Algorithmen verknüpft.

Algorithmen können optimal auf die eigenen Geschäftsfelder sowie Wünsche und Bedürfnisse der Kunden angepasst werden. Durch das Sammeln von Big Data und die Nutzung aller Fußabdrücke, die Verbraucher im Internet hinterlassen, ist das Bild eines Kunden sehr vollständig und erlaubt genaue Vorhersagen über sein Verhalten und seine Interessen. Werbung ist damit nicht mehr lästig, sondern erwünscht oder zumindest unauffällig und damit überaus effektiv. Das bietet ein gewaltiges Umsatzpotenzial, weshalb Internetfirmen alle Arten modernster High-Tech-Tools wie KI-basierte Social-Media-Auswertungen und Vorhersagen einsetzen.

Internetunternehmen haben demzufolge ein sehr starkes Interesse daran, dass sich nichts an dieser Situation ändert. Es ist daher wohl eher eine Illusion, dass sie sich dazu bewegen ließen, zweifelhafte Kunden zu filtern und zu sperren. Einzelne Verbote prominenter Nutzer, beispielsweise von Social-Media-Diensten, sind zwar öffentlichkeitswirksam, aber mehr auch nicht. Den sich mehr und mehr manifestierenden allgemeinen Missbrauch der Angebote können sie nicht eindämmen. Für bösartige Zeitgenossen ist dies eine sehr willkommene Situation. Sie können sich die Werkzeuge weiterhin leicht zunutze machen, die es ihnen zudem ermöglichen, ihre Identität zu verschleiern. Es ist erstaunlich, wie effektiv viele Warlords, Terroristen, Antisemiten, Extremisten usw. Algorithmen zur Verbesserung ihres Rankings in den Suchmaschinen füttern, um ihre Narrative und Kampagnen zu pushen.

Kampf um Aufmerksamkeit überlagert die Untersuchung des Wahrheitsgehalts

In unserer hektischen Welt wird die Zeit, die für die Beschäftigung mit einem Thema aufgewendet wird, immer kürzer. Zudem konkurriert eine Vielzahl bereitgestellter Informationen um Aufmerksamkeit. Dies führt einerseits dazu, dass seriöse Medien herausgefordert sind, kostenintensiv geprüfte und belegte Fakten zu liefern. Andererseits sind Fakten weniger relevant, da die aufregendste und spannendste Nachricht die höchste Anzahl von Klicks verspricht. Die Konsumenten sozialer Medien (mit einer Tendenz zu "7 Sekunden Aufmerksamkeit") prüfen nicht die Gültigkeit und den Wahrheitsgehalt einer Information. Schlimmer noch: Sie streben nach Informationen, die mit ihren Überzeugungen vereinbar sind.

Die Gesellschaft ist folglich anfällig für verzerrte und falsche Informationen, die Überprüfung von Glaubwürdigkeit und Zuverlässigkeit kompliziert oder gar unmöglich. Zudem kann die öffentliche Aufklärung eines unrichtigen Narratives in Teilen der Gesellschaft sogar unerwünscht sein, beispielsweise wenn es für sie vorteilhaft ist. Und auch manche Politiker greifen gerne auf zweifelhafte Narrative zurück, wenn es ihnen dabei hilft, ihre Konkurrenten zu diskreditieren.

Hinzu kommt, dass Narrative oft nicht mit dem tatsächlichen Urheber gekennzeichnet sind. Es ist folglich schwer zu erkennen oder zurückzuverfolgen, wer hinter ihnen steckt. Systematische und umfassende Kampagnen kombinieren zudem eine Vielzahl unterschiedlicher Informationselemente und Quellen. Dies erleichtert es den Akteuren, die Stimmung einer Gesellschaft in großem Rahmen zu beeinflussen und Unruhen und Demonstrationen bis hin zu schweren Verwerfungen innerhalb eines ganzen Staatsgefüges auszulösen. Dieses Instrument ist daher nicht nur für aggressive Staaten sehr attraktiv, die nur über begrenzte technische und militärische Fähigkeiten verfügen, sondern auch für die Profiteure sozial und wirtschaftlich destabilisierter Systeme. Ein Beispiel für eine wirklich effektive Informationskriegskampagne als „Nebenprodukt" eines militärischen Konflikts ist die Krimkrise, ein weiteres aktuelles die Diskreditierung der Wirksamkeit der Covid-19-Impfstoffe.

Maßnahmen gegen toxische Narrative

Fest steht: Eine Falschmeldung mit einer Gegendarstellung zu widerlegen, ist stets viel weniger wirksam als die Falschmeldung selbst. Ist die Story erst einmal im öffentlichen Gedächtnis gespeichert, wird die Richtigstellung kaum noch wahrgenommen. Fake News können zudem durch Verweise verstärkt werden. Erinnerungswürdig ist zum Beispiel das kolportierte Gerücht, Barack Obama sei nicht in den USA geboren, und dessen verblüffende Wirkung auf Teile der amerikanischen Bevölkerung. Nicht einmal die Offenlegung seiner Geburtsurkunde konnte diese ausreichend vom Gegenteil überzeugen. Ein weiteres prominentes Beispiel sind die Anhänger Donald Trumps. Viele von ihnen wissen, dass er ein Lügner ist. Aber es ist ihnen egal, solange er gleichzeitig und lautstark ihre Überzeugungen unterstützt. Für den Kampf gegen Lügen gibt es keine einfache Lösung.

Medienkompetenz kann ein Weg sein. Jedoch ist ihre Reichweite begrenzt, sie ist zeitintensiv und erfordert erfahrene Lehrer. Einige Internetkanäle (z. B. www.twitch.tv) richten sich an die jüngere Bevölkerung, informieren leicht verständlich und spielerisch über die Gefahren in den sozialen Medien und leiten an, wie man hinter die Kulissen schauen kann. Eine weitere wichtige Möglichkeit sind Faktenchecker. Ihr Einfluss wächst derzeit in der Medienbranche. Seriöse Journalisten nutzen zunehmend entsprechende Websites, die Falschmeldungen durch die Angabe von Herkunft und Quelle identifizieren (www.politifact.com; www.factcheck.org; www.newsguard.com). Mittlerweile schließen sich Faktenchecker zu Netzwerken (z. B. www.poynter.org) zusammen, in denen sie sich zur Einhaltung eines gemeinsamen Verhaltenskodex verpflichten, um sich von dubiosen Social-Media-Anbietern abzugrenzen. Faktenchecker können prüfen, ob eine Geschichte oder ein Bild bereits in einem anderen Kontext verwendet wurde, und helfen Journalisten oder Lesern so dabei, die Richtigkeit einer Information zu überprüfen: Fakt oder Fake?

Die NATO’S Science and Technology Organization (STO) hat Angriffe durch manipulierte Informationskampagnen in Social Media mittlerweile als Ereignis eingestuft, das den militärischen Bündnisfall auslösen kann. Externe Angriffe können auf die Destabilisierung einer Sozialgesellschaft und deren wirtschaftlichen Wohlstand zielen. Eingebettet in ein hybrides Bedrohungsszenario haben Informationskrieg und Cyberoperationen das Potenzial, Konflikte auszulösen, die punktuelle Schäden bis hin zu einer umfassenden Zerstörung einer Gesellschaft anrichten können. Was sie so extrem gefährlich macht, ist die Tatsache, dass sie völlig verdeckt von jedem Ort der Welt aus gestartet, vorbereitet und ohne jegliche Vorwarnung eingesetzt werden können. Zudem herrscht hier kein Gleichgewicht der Kräfte, da die NATO-Staaten die Manipulation von Informationen als inakzeptables Mittel bewertet und somit nicht in das eigene Waffenarsenal integriert haben.

Gesellschaftssysteme stellt das immer verbreitetere Auftreten manipulativer Informationskampagnen im Hinblick auf ihre Erkennung und Bekämpfung vor zahlreiche technische Herausforderungen. Entsprechende Analysen werden unabhängig von einer konkreten Fragestellung in der Regel unterstützt durch computergestützte Instrumente. Tatsächlich hängt der Erfolg hierbei oft von der Flexibilität, der Kreativität und den kognitiven Fähigkeiten des Analysten ab wie auch vom Grad und der Qualität, mit welcher diese mit der Kapazität und Rechenleistung heutiger Computer verflochten sind. Das Spektrum der Analyse und Bewertung entsprechender Informationskampagnen erstreckt sich von der Informationserfassung über die explorative Analyse bis hin zur vorausschauenden Analyse. Die Informationsanalyse beschränkt sich dabei im Allgemeinen auf zwei grundlegende Komponenten der Kommunikation: den Inhalt als Grundelement der Kommunikation und den Akteur als Grundeinheit zur Beschreibung eines konkreten Kommunikationsverhaltens. Ein Online-Netzwerk wie Twitter liefert beispielsweise zusätzlich zu den Inhalten von Nachrichten auch den Kontext der Kommunikation in Form von Entitäten und Beziehungen. Daraus lassen sich Netzwerkstrukturen ableiten, die sich als Aktivitäts- und Kommunikationsmuster interpretieren lassen und das Situationsbewusstsein deutlich verbessern können.

Forschungsaktivitäten und Ergebnisse liefern Analyse-, Lagedarstellungs- und Entscheidungsunterstützung

In den letzten Jahren ist eine rasche Entwicklung neuer Forschungsherausforderungen und -ansätze zur Detektion von (Des-)Informationskampagnen zu beobachten. Auf Basis existierender Methoden entwickelt beispielsweise das Fraunhofer FKIE domänenspezifische Analysemodelle, bei denen alle verfügbaren Wissensressourcen – Ontologien, Wissensgraphen und die domänenspezifische Expertise des Analysten – Berücksichtigung finden. Implementiert werden hybride Ansätze, die sowohl auf daten- als auch auf wissensbasierten Methoden gründen. Die Strategie besteht darin, unterschiedliche Merkmale von Inhalten und Kommunikationsverhalten durch unterschiedliche Ansichten auf die zugrundeliegenden Daten zu extrahieren. Auf diese Weise lässt sich der Datenbestand nach vielfältigen Fragestellungen analysieren.

Aktive Unterstützung leisten die FKIE-Wissenschaftler in diesem Arbeitsfeld auch in Forschungs- und Technologiegruppen der NATO STO. Diese konzentrieren sich auf Techniken und Werkzeuge für Hintergrundanalysen von Social-Media-Kampagnen, um nachrichtendienstlichen Analysten Hinweise auf Quellen, Ursprung, Plausibilität, Verbreitungsverfahren, inhaltliche Tendenzen etc. zu liefern. So kann beispielsweise bereits das Beobachten der Sendezeiten von Nachrichten und Posts verraten, ob ein Bot dahintersteckt – so gibt es beispielsweise keine Sendepausen, die ein Mensch zum Schlafen benötigen würde. Weitere Hinweise auf Hoaxes liefern Merkmale in der Diktion von Nachrichten, die typisch für eine bestimmte Gruppe sind (spezielle Phrasen oder unregelmäßige Syntax). Auch der Verkehr zwischen einzelnen Twitter-Knoten und den mit ihnen verknüpften Links kann Hinweise liefern (Aufkommen, Übermittler, Replikator, Übersetzer etc.). Die Kombination geeigneter Techniken und Werkzeuge unterstützt Social-Media-Analysten bei der Einschätzung von Lagen und liefert wichtige Beweise als Entscheidungsgrundlage für Gegenmaßnahmen. 


Verwandte Artikel

11. Globale Dialogplattform: Der Mensch im Mittelpunkt von vorausschauender humanitärer Hilfe

11. Globale Dialogplattform: Der Mensch im Mittelpunkt von vorausschauender humanitärer Hilfe

Wie können mehr Menschen durch vorausschauendes Handeln im Katastrophenrisikomanagement erreicht werden? Dieser Frage widmet sich die Dialogplattform für vorausschauende Humanitäre Hilfe vom 10. bis 12. Oktober 2023.

#NovelleKSG: Bergwacht fordert bessere Vernetzung – Wie kann das aussehen?

#NovelleKSG: Bergwacht fordert bessere Vernetzung – Wie kann das aussehen?

Im Zuge der Novellierung des Bayerischen Katastrophenschutzgesetzes beleuchten wir in diesem Artikel eine der zentralen Forderungen der Bergwacht Bayern:

DRK zur Zivilreserve: Vorhandene Strukturen stärken und nutzen

DRK zur Zivilreserve: Vorhandene Strukturen stärken und nutzen

Das Deutsche Rote Kreuz (DRK) begrüßt den Vorschlag von Kanzleramtschef Helge Braun, eine Art zivile Reserve zur Unterstützung staatlicher Behörden in Krisenlagen zu schaffen.

:

Photo

Entwickung Cybercrime 2023/2024

Die Bedrohung im Cyberraum ist so hoch wie noch nie. Aber es gibt auch wirksame Präventionsmöglichkeiten und hervorragende Bekämpfungserfolge. All das lässt sich an der aktuellen Entwicklung in…