Eine mustergültige Falschmeldung

Verbreiter·innen von Desinformation stellen gerne Fallen. Im Katz-und-Maus-Spiel um die Fakten gilt es daher, flink und ­geschickt zu sein – und die raffinierten Techniken dahinter zu ­kennen. Zwei Faktencheckerinnen erklären, warum Falschinfos oft so schwer zu fassen sind.

Propaganda17.4.2025 

Text: Eva Wackenreuther (ORF defacto), Katharina Zwins (AFP Faktencheck)
Visualisierung: Jakob Listabarth
 

in Kooperation mit

Als Faktenchecker·in ist man stets im Nachteil: Während es schnell und einfach ist, eine Behauptung in die Welt zu setzen, ist es langsam und kompliziert, sie wieder zurechtzurücken. Und selbst wenn das Kunststück gelingt, schnell und akkurat zu sein, ist die daraus entstehende Geschichte oft weniger attraktiv als jene der Hetzer·innen.

Zumindest für Algorithmen der Onlineplattformen, die Übertreibung und Skandalisierung über Aufklärung und Komplexität stellen. Nutzer·innen wie Faktenchecker·innen sind im Katz-und-Maus-Spiel mit Online-­Lügen einigen Fallen ausgesetzt. Ein Einblick in die Tricks der Lügner·innen.

1. Die drei As

Mit den drei As – Ambiguität, Auslassung und ­Anspielung – können Verbreiter·innen von Desinformation ihren Kopf aus jeder noch so engen Schlinge ziehen. Die Kunst dabei ist, so zu formulieren, dass jede·r herauslesen kann, was er oder sie will. Die aufgehetzten Leser·innen auf X oder in einer Telegram-Gruppe können dann etwas ganz anderes in einen Beitrag hineininterpretieren als Anwält·innen. Praktisch!

Da gibt es zum Beispiel die Phrase »plötzlich und unerwartet«, die schon lange vor Corona zum Standardrepertoire der Formulierungen auf Partezetteln gehörte. Impfgegner·innen deuten sie aber um, versehen Todesanzeigen mit dem Hashtag #plötzlichundunerwartet. Ihrer Logik zufolge haben viele Todesfälle vor allem einen Grund: massenhaft verschleierte Impfreaktionen.

Dafür gibt es keinerlei Belege, trotzdem holen User·innen seit dem Sommer 2021 das Schlagwort hervor, wann immer Prominente, junge Menschen oder Sportler·innen sterben.

Und das funktioniert: Als die in der Impfgegner·innen-Szene beliebte Boulevardseite Exxpress Anfang des Jahres 2025 über den Tod des jungen Strabag-Chefs Klemens Haselsteiner berichtet, braucht sie nur die Schlagworte »plötzlicher Tod« oder »unerwarteter Tod« fallenzulassen, um entsprechende Reaktionen zu provozieren: »Vermutlich ein Booster zu viel«, heißt es in den Kommentaren, und: »Ich weiß, ist alles Zufall, außerdem bin ich Verschwörungstheoretiker.«

Ohne dass das Wort »Impfung« im Artikel überhaupt erwähnt wird, wird in der Kommentarspalte wild über ein anderes Thema als den augenscheinlichen Inhalt des Berichts diskutiert. Nützlich, falls sich Angehörige gegen die Anspielung wehren wollen – der entscheidende Teil ist ja gar nicht direkt gesagt worden.

Verpackt in Phrasen wie »Man wird ja noch Fragen stellen können« oder »Schon seltsam, dass ...«, lässt sich so jede noch so weit hergeholte Behauptung oder gezielte Falschinformation als harmlose Vermutung tarnen – die Effekte sind oft dieselben. Auch bestimmte Kampfbegriffe und Codes, sogenannte ­Dogwhistles, erfüllen diesen Zweck.

Wer ein Totenkopf-Emoji hinter einen Beitrag über ­Corona oder ein Clown-Emoji hinter einen Beitrag über den Klimawandel setzt, hat manchmal viel gesagt, ohne etwas direkt auszusprechen.

2. Sorry, privat

»Kokainwahn« – das unterstellte das rechte Portal Report 24 dem ukrainischen Präsidenten im April 2022. Das ist jene Plattform, deren Vertreter·innen FPÖ-Politiker Norbert Hofer am Abend der vergangenen Nationalratswahl gerne im Medienzentrum des Parlaments gesehen hätte. Falschbehauptungen wie diese, massenhaft auf Facebook und X geteilt und in dubiosen Telegram-Gruppen verbreitet, stellen Faktenchecker·innen vor eine Herausforderung.

Der Grund: Eine umfassende Aufklärung würde entweder zu tief in die Privatsphäre der ­Betroffenen eingreifen oder wäre auf vertrauliche Informationen angewiesen, die aus Gründen des Quellenschutzes nicht offengelegt werden ­können. Wolodymyr Selenskyj müsste sich etwa einer medizinischen Untersuchung unterziehen und die Ergebnisse öffentlich machen – alles nur, um ein Gerücht zu entkräften, für das es gar keine Anhaltspunkte gibt. Und selbst dann wäre es gut möglich, dass sofort neue Spekulationen über die Authentizität des Tests aufkommen.

Ähnliches spielte sich bereits im Präsidentschaftswahlkampf 2016 ab: Damals kursierte die Falschbehauptung, Alexander Van der Bellen sei schwer an Krebs erkrankt, erhalte Chemotherapie und leide zudem an Demenz. Die Schmutzkübelkampagne war besonders bei FPÖ-Wähler·innen beliebt. In solchen Fällen fehlt oft die Möglichkeit einer zweifelsfreien Überprüfung.

3. Die Verschwörung

Behauptungen über undurchsichtige Vorgänge, die bewusst vage bleiben, entziehen sich einer unabhängigen Überprüfung – ein logischer Zirkelschluss. Ein aktuelles Beispiel ist die Erzählung, ein geheimer »Globalisten-Plan« habe den Aufstieg von FPÖ-Chef Herbert Kickl zum Kanzler verhindert.

Solche Behauptungen, die unter anderem auf der rechtsextremen Plattform Auf 1 verbreitet werden, suggerieren, globale Eliten würden gezielt intervenieren, um politische Entwicklungen in ihrem Sinne zu steuern. Und warum gibt es keinerlei Belege für so einen Plan? Na, weil er ­geheim ist – ist doch logisch.

Ein weiteres Beispiel ist der sogenannte Great Reset, ein angeblich geheimer Plan zur Errichtung eines globalen Totalitarismus. Ihren Ursprung hat diese Verschwörungs­erzählung in einem eigentlich harmlosen Buch des Gründers des Weltwirtschaftsforums, das ebendiesen Namen trägt.

Das Muster ist immer dasselbe: Misstrauen gegen »Eliten« und offizielle Stellen säen. Vielfach handelt es sich dabei auch um Zukunfts­prognosen, die erst recht nicht überprüfbar sind, oder Behauptungen, die auf angeblichem Insider·innenwissen basieren.

4. Nur Spaß, meine Meinung

Nach dem Motto »Das ist alles von der Kunstfreiheit gedeckt« des deutschen Musikers Danger Dan pulvern Desinfo-Akteur·innen irreführende Inhalte raus, die sie wahlweise unter dem Deckmantel der Meinung oder der Satire verstecken. Da verbreitet etwa ein ­Nutzer, der sich selbst als Verschwörungskomiker beschreibt, ein Video, in dem der chinesische Präsident Xi Jinping die damalige deutsche Außenministerin Annalena Baerbock hart kritisiert und sie sogar als Wiesel bezeichnet. Nur, das hat Xi gar nicht getan, das Video ist mit erfundenen Untertiteln versehen.

Das Posting wurde ursprünglich mit der Beschreibung »Xi Jinping äußert sich zum diplomatischen Fehltritt von Annalena Baerbock #satire« veröffentlicht. Der Zusatz #satire hat in dem Satz eine schwere Last zu tragen und wurde schnell übersehen. Kurze Zeit später macht die Äußerung als vermeintlich echtes ­Ereignis die Runde. Verlässt Satire den Raum, für den sie gedacht ist, sorgt sie auch versehentlich immer wieder für Falschmeldungen.

Da ist etwa der Text der deutschen Satire-Seite Postillon, laut dem die deutsche Regierung offiziell die Existenz eines Chemtrail-Programms zugibt. In deutschsprachigen Postings ­lachen User·innen über den Text, in Serbien ist das anders. Durch ­automatische Übersetzungen geht der Witz verloren, das Wissen um die Einordnung des ­Postillon als bekanntes Satiremedium ist nicht vorhanden.

5. Die Macht der Bilder

US-Präsident Donald Trump hat Ende Februar ein Video über den Gazastreifen veröffentlicht, das man nur als bizarr beschreiben kann. In offensichtlicher KI-Optik wird dort eine absurde Vision gezeichnet. Die Region wandelt sich von einem kriegszerstörten Gebiet zu einem Ort, an dem Geld vom Himmel regnet, bärtige Frauen bauchtanzen und eine riesige goldene Trump-­Statue bewundert wird. Keine neue Taktik – immer wieder verwendet Trump offensichtlich mithilfe von künstlicher Intelligenz erstellte Bilder, die ihn heroisch auf dem Rücken eines Löwen reiten lassen oder als muskelbepackten Sportler zeigen.

Das Ziel ist nicht, sie für bare ­Münze zu nehmen, sondern, ein bleibendes Bild zu schaffen. Wenn es kein echtes Foto gibt, springt das KI-Bild ein, um das gewünschte Gefühl zu vermitteln. Sogar wenn bekannt ist, dass etwas nicht echt ist, weckt es die entsprechenden Emotionen.

Die AfD nutzte das im Bundestagswahlkampf. Online ­machte sie mit grimmigen Ausländergruppen und verarmten ­Familien unterm Weihnachtsbaum ­Stimmung. Eines haben die Bilder gemeinsam: Sie sind nicht echt.

Deshalb funktioniert Rage-Bait gut. Darunter versteht man Inhalte, deren Ziel es ist, Empörung zu erzeugen. Dass die FPÖ zur EU-Wahl ein Plakat wählte, auf dem EU-Kommissionspräsidentin Ursula von der Leyen den ukrainischen Präsidenten küsst, ist also kein Zufall. Die wütenden Kommentare, die dadurch ausgelöst werden, setzen eine Algorithmen-Spirale in Gang, die sowohl den Verfasser·innen als auch den Plattformen nutzt.

Das Motto »Auch ­schlechte ­Werbung ist gute Werbung« gilt in sozialen Medien besonders, viel Interaktion ist dort Gold wert. Wer also besonders absurde, besonders spektakuläre oder besonders aufwühlende Aufnahmen verbreitet, gehört zu den Gewinner·innen auf Social Media.

6. Beweislastumkehr

In der öffentlichen Debatte wird die Beweislast zunehmend auf den Kopf gestellt. Nicht mehr derjenige, der eine Behauptung aufstellt, muss sie belegen, sondern derjenige, der sie bestreitet, soll das Gegenteil beweisen. Ein nahezu unmögliches Unterfangen. Das zeigt unter anderem die Instrumentalisierung des Todes eines Gemeindearztes aus Oberösterreich durch verschwörungstheoretische Websites.

Ohne Belege suggerierten sie, dass sein Tod im Zusammenhang mit der Covid-19-Impfung stehe. Der Sohn des Verstorbenen sah die Persönlichkeitsrechte seines Vaters verletzt und klagte. Als Kläger muss er vor Gericht Beweise vorlegen.

Als im März 2025 in Mannheim ein Auto in eine Menschenmasse fuhr, brauchte der Onlinemob gar nicht erst auf Erkenntnisse zum Täter warten – für ihn war sofort klar, dass es sich um einen islamistischen Anschlag handelte. Zahlreiche Einwände, inklusive der Mannheimer Polizei, dass ein Mann namens Alexander aus Rheinland-Pfalz verantwortlich sei, wurden ignoriert.

Aufgebrachte User·innen verlangten Beweise für die »Deutschheit« des Täters, legten zunächst aber selbst keine für seine angeblich ausländischen Wurzeln vor. Im Verlauf der Debatte kursierte sogar das Foto eines Ausweises, der mit dem Attentäter nichts zu tun hatte, aber aufgrund des Namens in das Weltbild des Mobs passte.

Auch mit persönlichen Erfahrungen wie »Ich wurde mal von einem Ausländer bestohlen« lässt sich Stimmung machen, egal ob sie ein repräsentatives Abbild der Realität sind oder nicht. Einzelne Eindrücke übertrumpfen die Statistik. Der gesamten wissenschaftlichen Welt setzt etwa FPÖ­Gesundheitssprecherin Dagmar Belakowitsch ihre persönliche Anekdote entgegen: »Ich bin nicht geimpft – das ist wahrscheinlich keine besondere Überraschung. Und bis zum heutigen Tag habe ich Corona nicht gehabt.«

Das Spiel mit der Beweislast ist längst zu einem strategischen Werkzeug geworden. Dazu kommt ein generelles Problem: Je öfter eine Behauptung wiederholt wird, desto mehr Menschen halten sie für plausibel.

Flood the zone

Der einstige Trump-Flüsterer Steve Bannon hat seine Devise einmal treffend zusammengefasst: »Die wahre Opposition sind die Medien. Der Weg, mit ihnen umzugehen, ist, die Zone mit Scheiße zu überfluten.« Die Strategie ist die einer Nebelmaschine, bei der es nicht darum geht, jemanden zu überzeugen, sondern darum, für Verwirrung und Misstrauen zu sorgen.

Konkret heißt das: so viele Nachrichten auf einmal rausballern, dass niemand mehr folgen kann. Wenn eines der unzähligen Dekrete, die Donald Trump in seinen ersten Tagen als 47. US-Präsident verabschiedete, für Kontroversen sorgt, ist die ­Lösung nicht, das Vorgehen mit Argumenten zu verteidigen. Trump sorgt einfach mit anderen aufsehenerregenden Plänen für neue ablenkende Nachrichten.

Wenn er den ukrainischen Präsidenten einen Diktator nennt und nach viel Kritik darauf angesprochen wird, fragt er kurzerhand: »Habe ich das gesagt? Ich kann nicht glauben, dass ich das gesagt habe«, als ob nie etwas gewesen wäre. Diese Nebelkerzen sind nicht zufällig provokativ – schließlich ist es das Ziel von autoritären Kräften, den Minimalkonsens einer Gesellschaft anzukratzen.

In der Masse an widersprüchlichen Informationen ist es für den Einzelnen oder die Einzelne ein Kraftakt geworden, zu sortieren. Da haben auch vermeint­liche Autoritäten leichtes Spiel. Sobald ein Mann in weißem Kittel auftaucht, löst er dieselben Emotionen wie ein echter Arzt aus. Ganz egal, ob er gar keinen ­Expertenstatus hat – oder einfach in einem anderen Feld.

Beliebt sind zum Beispiel Nobelpreisträger·innen, die zu Universalgelehrten werden. Die meisten Menschen lehnen nicht die Wahrheit ab, sondern sind des aufwendigen Prozesses müde, der dort hinführt. An seine Stelle treten dann Verkürzungen: Passt die Aussage in mein Weltbild, was denken die Leute, denen ich mich zugehörig ­fühle, oder wie nahe steht mir die Quelle, von der ich eine Info habe?

Was heute mit wenigen Zeichen auf X oder in einer kleinen Telegram-Gruppe in Ungarn gepostet wird, kann morgen schon auf Smartphones in Österreich für Empörung sorgen. Oder umgekehrt. Desinformation kennt keine Ländergrenzen. Dank moderner Übersetzungsprogramme spielen Sprachbarrieren keine Rolle, manchmal lassen sich die Reste solcher automatischen Übersetzungen noch in den holprigen Texten erkennen.

Viele bekannte Portale sind ohnehin eng vernetzt und greifen gegenseitig Inhalte auf. Genauigkeit ist Nebensache. Schließlich geht es nicht um Fakten oder akkurate Berichterstattung, sondern um maximale Reichweite und Emotionen. Hauptsache, die Erzählung bleibt wirkungsvoll.