Desinformationen in der Lage oder – Die Suche nach dem Koch der Gerüchteküche

Ramian Fathi, Anja Kleinebrahn, Yannic Schulte, Stefan Martini

THW

Social Media nehmen seit Jahren einen immer größeren Platz im Alltag ein. Untersuchungen zeigen, dass Menschen in Krisenlagen zu Kommunikationsmitteln und zu Informationskanälen zurückgreifen, die sie aus dem Alltag kennen. Entsprechend spiegelt sich diese Entwicklung auch in Großlagen wieder.

Vor die Lage kommen 2.0

Einerseits werden auf den Plattformen der Social Media Krisen- und Katastrophenlagen diskutiert, es werden aber auch Hilfeersuchen geäußert, Schlafplätze kommuniziert, spontan Helfergruppen gegründet und koordiniert. Betroffene und Beteiligte posten darüber hinaus (georeferenzierte) Textnachrichten, Bilder und Videos. Außerdem wird die Lage vor Ort mitunter per Live-Stream im Internet übertragen und erreicht zum Teil über 100.000 Zuschauer. Facebook stellt neben einem sogenannten „Safety Check” nun auch weitere Informationen zu einer Katastrophe bereit. 

Andererseits ist zu beobachten, dass Gerüchte und Desinformationen (un-)bewusst gestreut werden – zum Teil mit enormer Reichweite und Relevanz. Neben der „absichtlichen Lancierung” (Schweiger, 2017) können Gerüchte unbewusst entstehen und die Gesamtlage beeinflussen. Beispielsweise die Nachricht, dass die Bundeswehr während des G20-Gipfels zum Einsatz kommt, wurde auf den Social Media Plattformen und in den etablierten Medien massiv diskutiert. Ausgangspunkt war der Post eines Users bei Twitter (Abb. 1). 

Beispiel für Falschinformation bei Twitter
Abbildung 1: „Die Bundeswehr kommt“- Falschinformation bei Twitter
während einer Lage I.
Quelle: Twitter

Um entstehende Negativwirkungen auf den Einsatz abzuwenden, stellte die Polizei Hamburg frühzeitig klar, dass die Bundeswehr nicht eingesetzt werde. 

Neben der realen Lage entsteht also eine parallele „virtuelle Lage“, die die Gesamtlage beeinflusst. Beispiele für diese „Lagebeeinflussung” finden sich insbesondere in der jüngeren Vergangenheit: Die Anschlagslage in München 2016 verdeutlichte, wie Live-Videos, Bilder und Textnachrichten eine solche massive Beeinflussung haben können. 

Hierbei spielen nicht nur Social Media User eine Rolle, auch etablierte Medien können die Lagebewältigung erschweren. 

Zum Beispiel wurde ein Live-Video eines Social Media Users, bei dem die einsatztaktische Vorgehensweise der Polizei während der Anschlagslage in München zu sehen war, ungefiltert auf einem TV-Sender übertragen. Die Möglichkeit eines redaktionellen Eingriffs war nicht mehr möglich. 

Darüber hinaus wurde von dem Twitter-Profil „Sat 1 Bayern” ein offensichtlich falsches Bild verbreitet, das mit dem Text: „Ein Student hat ein Foto gepostet. #amoklauf am #oez” versehen (Abb. 3) war. Das verwendete Bild stammte nicht aus München, suggerierte dem Leser aber genau das. Später wurde das Bild gelöscht. Mit einer Bilderrückwärtssuche hätte der wahre Ursprung des Bildes (ein Überfall 2015 in Südafrika) aufgedeckt werden können. Weitere Falschmeldungen, die primär bei Twitter, aber auch bei Facebook und WhatsApp verbreitet wurden, führten in München zu Einsätzen mit verletzten Personen. 

Es ist also davon auszugehen, dass unabhängig davon, wo eine Krisensituation stattfindet, innerhalb von wenigen Sekunden einsatzrelevante und vor allem einsatzbeeinflussende Informationen in diversen Social Media Kanälen zu finden sind.

Desinformationen

Bei Desinformationen handelt es sich um die bewusste und gezielte Verbreitung falscher Information zum Zwecke der Täuschung. Schon mit beziehungsweise seit Einführung der Druckpresse wurde man gewahr, dass damit die Möglichkeit einer Verbreitung von möglichen Falschinformationen über einen größeren Raum einhergeht.

An sich also kein neues Phänomen, können Falschinformationen heutzutage jedoch aufgrund der technisierten Welt und der damit einhergehenden enormen Verbreitungsmöglichkeit und -geschwindigkeit weitaus mehr Menschen erreichen. Vorzufinden sind Falschmeldungen inzwischen überwiegend in den Social Media beziehungsweise in alternativen Medien. In diesem Kontext und eher etwas umgangssprachlich ist häufig von „Fake News“ die Rede. Der Begriff ist indes so präsent, dass er sogar jüngst in den Duden aufgenommen wurde. 

Einen Versuch der Definition macht Wolfgang Schweiger: 

„Fake News“ (Falschinformationen) sind unzutreffende Nachrichtenmeldungen. Sie entstehen durch nachlässige Recherche von Medien oder werden von Journalisten, Regierungen, Politikern, Unternehmen, Privatpersonen etc. absichtlich lanciert.“ (Schweiger, 2017)

Laut aktuellen Umfragen sind in Deutschland circa zwei Drittel (67 Prozent) der Internetnutzer aktive Mitglieder auf den verschiedenen Social Media-Plattformen (Bitkom 2016). Davon nutzen viele die Social Media auch als Nachrichtenquelle. Entsprechend hoch ist die potentielle Reichweite von Informationen – auch von falschen.

Da Social Media auch zunehmend im Bereich des Bevölkerungsschutzes genutzt werden, können Falschinformationen Entscheidungen und somit einsatztaktische Maßnahmen (stark) beeinflussen und im schlimmsten Fall fatale Folge haben.

Beispiele für die Nutzung von Social Media im Bereich des Bevölkerungsschutzes sind

  • die ereignisbezogene Krisenkommunikation (insbesondere für die Warnung der Bevölkerung und Informationen zum Ereignis mit Verhaltenshinweisen),
  • die Erstellung eines öffentlichen Stimmungsbildes,
  • die Steuerung ungebundener beziehungsweise spontaner Helfer oder
  • die Gewinnung lagerelevanter Informationen und als Unterstützung für die Lagefeststellung.

Grundsätzlich ist die Intention für die Verbreitung von Desinformationen beziehungsweise Fake News sehr unterschiedlich. Neben persönlichen und politischen Motiven können beispielsweise auch wirtschaftliche Gründe motivierend sein. Auch ihre Erscheinungs- beziehungsweise Anwendungsformen sind vielfältig. So können sie zum Beispiel in Gestalt von konstruierten Ereignissen (sog. „False-Flags“) auftreten oder durch überproportionale Aufmerksamkeit eine vermeintlich starke Relevanz eines Themas suggerieren.

Besonders tückisch sind Fake News, wenn sie nicht gänzlich erfunden sind, sondern einen Bezug zu realen Gegebenheiten aufweisen (siehe Abb.2). Das macht sie besonders schwer erkennbar. Gefährlich sind sie vor allem dann, wenn Betroffene beziehungsweise Nutzer in dem Glauben sind, Informationen von vertrauenswürdigen, seriösen Institutionen zu erhalten.

Falschinformationen auf Twitter während einer Lage II
Abbildung 2: “Ein Student hat ein Foto gepostet“- Falschinformation bei
Twitter während einer Lage II.
Quelle: Twitter

Die bereits angeklungene schnelle Verbreitung von Falschmeldungen ist nicht allein auf die Verursacher, sondern auch auf die Nutzer von Social Media zurückzuführen. „Retweetet“ und „geliked“ wird häufig, ohne die Nachricht vollständig gelesen zu haben oder aber den Urheber dessen zu kennen. Je viraler eine Nachricht ist, desto mehr Nutzern wird sie zusätzlich angezeigt.

Einmal im Netz, lassen sich gewisse Fake News also schwer wieder einfangen.

Zwar gibt es technische Werkzeuge (bspw. für die Durchführung von Fotoanalysen oder Rückwärtssuchen), mit Hilfe derer Fake News aufgedeckt werden können. Hierzu bedarf es allerdings sowohl personelle als auch zeitliche Ressourcen; also „Güter“ an denen es insbesondere in Krisen-, Katastrophen- oder Schadenslagen, und somit Situationen, in denen schnelles Handeln gefordert ist, oftmals mangelt.

Mit Fakten gegen Gerüchte vorgehen

Wie im ersten Abschnitt dargestellt, kann das (un-)beabsichtigte Verbreiten von Falschinformationen durch Nutzer der Social Media Plattformen zu realen Einsätzen führen. Damit der Einfluss der virtuellen Lage auf die Gesamtlage nicht zu groß wird, müssen die Behörden und Organisationen mit Sicherheitsaufgaben (BOS) gezielt in die Kommunikation eingreifen. 

Hierbei ist zu beobachten, dass die nötige Mediennutzungskompetenz zur Beurteilung der „digitalen Lageerkundung“ teilweise fehlt oder nicht besonders hoch ist. 

Um weitere negative Folgen für die Lage abzuwehren, hat es sich bewährt, offensiv mit Fakten gegen mögliche Spekulationen, Gerüchte oder sogar Desinformationen vorzugehen. Dabei ist allerdings festzuhalten, dass eine gezielte und kanalisierte Steuerung der Online-Kommunikation kaum möglich ist. Die Verbreitung von Informationen auf den Social Media Plattformen wird maßgeblich von Algorithmen und den Usern selbst gesteuert und hat somit eine hohe Eigendynamik. 

Aus diesem Grund ist es besonders wichtig, Gegendarstellungen zu Falschinformationen dort zu veröffentlichen, wo die zahlreichen Nutzer sich ohnehin schon aufhalten und dabei diskutieren, spekulieren und publizieren: auf den Social Media Plattformen. 

Als gutes Beispiel kann hier die Kommunikation der australischen Polizei aus Queensland bei einem Hochwasser herangezogen werden. Sie nutzte den Hashtag #mythbusting (angelehnt an die Fernsehserie „Mythbusters“), um Gegendarstellungen zu Gerüchten, wie z. B. einem angeblich bevorstehenden Dammbruch, entgegenzuwirken. 

Auch die Polizei München hat bei der bereits im ersten Abschnitt beschriebenen Anschlagslage entsprechend gearbeitet. Ihr Twitter-Account war der am meisten geteilte und retweetete Medienaccount in dieser Lage. Die Folge dessen war, dass nicht etwa Hashtags wie #Terror oder #ISIS dominierten, sondern #München, #OEZ oder #prayformunich. Die Polizei war somit führend in der Online-Kommunikation und hat trotz der hohen Eigendynamik der Social Media in dieser Lage die Kommunikation wesentlich bestimmt.

Um das zu erreichen kann unter anderem die „3W-Taktik“ angewendet werden. Dabei wird in der frühen (Chaos-)Phase die Botschaft „we know – we do – we care“ vermittelt. Dabei ist wichtig, dass der Account nicht erst während einer „heißen“ Lage eingerichtet wird. 

Über einen offiziellen BOS-Account, an den durch eine langfristige Kommunikationsstrategie bereits Follower gebunden sind, können während der Lage synchronisiert Informationen weitergegeben werden. 

Dabei kann nicht nur von einer großen Reichweite ausgegangen werden. Durch einen kontinuierlichen Informationsfluss kann Vertrauen gegenüber dem Absender aufgebaut werden. Auch dadurch kann eine Multiplikation der Posts erzielt werden, wodurch die BOS die Informationshoheit auch in den Social Media erhalten können.

Eine ganz neue Möglichkeit der Social Media Analyse aus BOS-Perspektive erprobt momentan das THW. Die Bundesanstalt Technisches Hilfswerk testet in einem Pilotprojekt ein sogenanntes „Virtual Operations Support Team“ (VOSTde). Dieses Team, das momentan aus 20 Experten aus ganz Deutschland besteht, arbeitet hauptsächlich virtuell zusammen und sucht im digitalen Raum nach lage- und einsatzrelevanten (Fehl-)Informationen. Durch technische Berater des VOST, die im Stab der Einsatzleitung als Verbindungspersonen fungieren, werden Erkenntnisse in die Führungsgremien der BOS eingebracht, um dort bewertet zu werden. Dieses VOST kann im Zuge der Amtshilfe auch von anderen BOS angefordert werden. 

Verwandte Artikel

Erstes System von Katastrophenschutz-Leuchttürmen wird aufgebaut

Erstes System von Katastrophenschutz-Leuchttürmen wird aufgebaut

Der Katastrophenschutz des Landkreises Meißen will auch die Folgen
eines Blackouts besser beherrschen können. Hierzu wird im Landkreis
ein Funksystem für den ausfallgeschützten und autarken Betrieb von
zunächst 15 portablen...

Feierliche Eröffnung der Fotoausstellung „Held:innen von nebenan - Ehrenamtliche im Porträt“ im Forum Confluentes in Koblenz

Feierliche Eröffnung der Fotoausstellung „Held:innen von nebenan - Ehrenamtliche im Porträt“ im Forum Confluentes in Koblenz

Treffen Sie die Held:innen von nebenan! In Jena und Kiel gestartet, ist jetzt in Koblenz ebenfalls eine Ausstellung mit Fotos von lokalen, ehrenamtlichen Einsatzkräften des Bevölkerungsschutzes zu sehen.

Erfolgreicher vierter Bonner Katastrophenschutztag

Erfolgreicher vierter Bonner Katastrophenschutztag

Am 28. Oktober 2023 fand der vierte Bonner Katastrophenschutztag auf dem Münsterplatz statt. Schwerpunktthemen des Tages waren Starkregen und Hochwasserschutz.

: