eBooks

Desinformation? Frag doch einfach!

Klare Antworten aus erster Hand

1208
2025
978-3-8385-6543-9
978-3-8252-6543-4
UTB 
Maik Philipp
10.36198/9783838565439

Wer (digital) liest, wird nahezu unvermeidlich auf Desinformationen stoßen. Gerade bei kontroversen oder komplexen Themen braucht es inzwischen hohe kognitive Fähigkeiten, um dafür gewappnet zu sein. Denn die Gefahren durch Desinformationen sind hoch, für einzelne Personen und für die Gesellschaft. Das Buch behandelt darum zentrale Fragekomplexe: Was sind Desinformationen und wie werden sie kognitiv verarbeitet? Welche sozialen Mechanismen in den sich derzeit in starken Wandelungen befindlichen Medien- und Wissensgesellschaften begünstigen Desinformationen und wem nutzen sie? Warum ereignen sich Fehlleistungen aus kognitionspsychologischer Warte? Was lässt Personen anfällig oder resistenter gegenüber Desinformationen werden? Wie sehen geeignete Gegenmaßnahmen aus und was sind aber auch deren Grenzen?

9783838565439/9783838565439.pdf
<?page no="0"?> Maik Philipp Desinformation? Klare Antworten aus erster Hand Frag doch einfach! <?page no="1"?> utb 6543 Eine Arbeitsgemeinschaft der Verlage Brill | Schöningh - Fink · Paderborn - Vandenhoeck & Ruprecht · Göttingen - Böhlau · Wien · Köln Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Walter de Gruyter · Berlin · Boston Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Narr Francke Attempto Verlag - expert verlag · Tübingen Psychiatrie Verlag · Köln Psychosozial-Verlag · Gießen Ernst Reinhardt Verlag · München transcript Verlag · Bielefeld Verlag Eugen Ulmer · Stuttgart UVK Verlag · München Waxmann · Münster · New York wbv Publikation · Bielefeld Wochenschau Verlag · Frankfurt am Main UTB (M) Impressum_09_25_4c.indd 1 UTB (M) Impressum_09_25_4c.indd 1 17.09.2025 16: 06: 23 17.09.2025 16: 06: 23 <?page no="2"?> Prof. Dr. Maik Philipp ist Professor für Lese- und Schreibdidaktik an der PH Zürich. #fragdocheinfach Alle Bände der Reihe finden Sie am Ende des Buches. <?page no="3"?> Maik Philipp Desinformation? Frag doch einfach! Klare Antworten aus erster Hand <?page no="4"?> DOI: https: / / doi.org/ 10.36198/ 9783838565439 © 2025 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikro‐ verfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor: innen oder Heraus‐ geber: innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor: innen oder Herausgeber: innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter oder Betreibenden der Seiten verantwortlich. Internet: www.narr.de eMail: info@narr.de Einbandgestaltung: siegel konzeption | gestaltung Druck: Elanders Waiblingen GmbH utb-Nr. 6543 ISBN 978-3-8252-6543-4 (Print) ISBN 978-3-8385-6543-9 (ePDF) ISBN 978-3-8463-6543-4 (ePub) Umschlagabbildung: © bgblue - istock Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. <?page no="5"?> 11 13 14 17 18 19 21 22 23 25 27 29 30 31 33 Alle Fragen im Überblick Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was die verwendeten Symbole bedeuten . . . . . . . . . . . . . . . . Zahlen und Fakten zu Falsch- und Desinformationen . . . . Gegenstandsklärungen: was Desinformationen sind . . . . . Was sind Informationen und was ist Wissen? . . . . . . . . . . . . . . . . . . . . . . Was versteht man unter Desinformationen? . . . . . . . . . . . . . . . . . . . . . . . Sind Fake News auch Desinformationen? . . . . . . . . . . . . . . . . . . . . . . . . . Zählen Verschwörungstheorien zu den Desinformationen? . . . . . . . . . . Welche Dimensionen machen die Desinformationen im Allgemeinen und die Fake News im Besonderen aus? . . . . . . . . . . . . . . . . . . . . . . . . . . . Sind Desinformationen ein neues Phänomen? . . . . . . . . . . . . . . . . . . . . . Postfaktismus und Desinformation - wie lassen sich diese beiden Phänomene zusammendenken? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Negative Effekte: welche Schäden Des- und Falschinformationen anrichten . . . . . . . . . . . . . . . . . . . . . . . . . . . Viel Lärm um nichts oder nur die Spitze des Eisbergs: Wie wird die Desinformationsproblematik in der Wissenschaft gesehen? . . . . . . . . . . Welche persönlichen Nachteile bringen Falsch- und Desinformationen mit sich? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Welche negativen Wirkungen haben wissenschaftliche Falschinformationen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . <?page no="6"?> 35 37 39 40 41 43 45 48 50 52 55 57 61 62 63 66 67 69 Was macht die Wissenschaft als gesellschaftliches Teilsystem so anfällig für Desinformationskampagnen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist der politische Schaden von Desinformationen (in sozialen Medien)? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leistungen: wie (kompetentes) Leseverstehen funktioniert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist Leseverstehen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was beeinflusst das Leseverstehen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist epistemisch wachsames Lesen? . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie gehen Personen mit widersprüchlichen Aussagen um? . . . . . . . . . . Warum ist Sourcing so bedeutend für das (digitale) Lesen? . . . . . . . . . . Was für eine Rolle spielen Vertrauen und Vertrauenswürdigkeit beim (Lese-)Verstehen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie lässt sich Vertrauen als Prozess verstehen? . . . . . . . . . . . . . . . . . . . . Was sind „epistemische Überzeugungen“ und welchen Einfluss haben sie auf das Leseverstehen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Welche Rolle spielt das inhaltliche Vorwissen für das Leseverstehen? . Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Welche Herausforderungen digitalen Lesens begünstigen potenziell die Nebenwirkungen von Falschinformationen? . . . . . . . . . . . . . . . . . . . . . . . Was ist der Bildschirmunterlegenheitseffekt und warum könnte er Falsch- und Desinformationseffekte begünstigen? . . . . . . . . . . . . . . . . . . Wie gut sind Personen darin, Desinformationen in Nachrichten(schlagzeilen) zu erkennen? . . . . . . . . . . . . . . . . . . . . . . . . . . Sind Personen dazu in der Lage, Deepfakes als solche zu identifizieren? Was sind kognitive Illusionen und welche Bereiche der Informationsverarbeitung sind von ihnen betroffen? . . . . . . . . . . . . . . . . 6 Alle Fragen im Überblick <?page no="7"?> 71 72 75 77 79 80 82 85 86 87 89 92 94 96 98 99 100 101 Warum sind individuelle Wahrheitsurteile anfällig für Desinformationen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist der Wahrheitsillusionseffekt und wie funktioniert er? . . . . . . . . Die Hauptaussage oder die Details - was gibt den Ausschlag bei der Verarbeitung von Falschinformationen? . . . . . . . . . . . . . . . . . . . . . . . . . . Können durch Fake News Personen gezielt falsche Erinnerungen eingepflanzt bekommen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Führt schon der einmalige Kontakt mit Falschinformationen zu problematischen Veränderungen in den Überzeugungen? . . . . . . . . . . . . Was ist der „Effekt des anhaltenden Einflusses“? . . . . . . . . . . . . . . . . . . . Beeinflusst die Vertrauenswürdigkeit der Quelle von falschen Informationen deren Wirkung? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Risiko- und Schutzfaktoren: warum Falsch- und Desinformationen bei den Empfänger: innen (nicht) verfangen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie stellt man sich allgemein die Effekte von Desinformationen vor - und welche Rolle spielen dabei Risikofaktoren? . . . . . . . . . . . . . . . . . . . . Welche Risikofaktoren werden aktuell für besonders wichtig gehalten? Was ist „zielgerichtetes Denken“ und warum wird es als Risikofaktor erachtet? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was verbirgt sich hinter dem Bestätigungsfehler und warum gilt er als ungünstig? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Warum gilt politischer Konservatismus (im Sinne der Parteilichkeit) als Risikofaktor? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Weshalb lässt sich die Empfänglichkeit für „Bullshit“ als Risikofaktor modellieren? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was sind thematische Überzeugungen und wie wirken sie sich nachteilig auf das Leseverstehen aus? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ist Lesekompetenz ein ausreichender Schutz vor Falschinformationen? Was ist intellektuelle Demut und warum gilt sie als Schutzfaktor? . . . . (Warum) Ist analytisches Denken ein Schutzfaktor? . . . . . . . . . . . . . . . . Alle Fragen im Überblick 7 <?page no="8"?> 105 106 107 109 111 113 114 116 118 120 121 124 126 127 129 131 132 135 136 139 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation . Auf welchen Ebenen lassen sich Gegenmaßnahmen verorten? . . . . . . . Wie lassen sich die Ansätze auf der Individualebene systematisieren? . Wie misst man die Fähigkeiten zum Erkennen von Fake News? . . . . . . Reicht es aus, was gegenwärtig gemessen wird und was wir über die Wirksamkeit wissen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was verbirgt sich hinter dem Konzept des „kritischen Ignorierens“? . . Wie wirken sich Warnhinweise zu geprüften Falschaussagen aus? . . . . Sorgen Akkuratheitshinweise dafür, weniger falsche Informationen teilen zu wollen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kann man gegen Desinformationen immun werden - oder: Was ist mit „Inoculation“-Ansätzen gemeint? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ist Gamification ein sinnvoller Ansatz, gegen Fake News vorzugehen? Sind Vermittlungsansätze zur Erhöhung des kritischen Lesens wie das „laterale Lesen“ die Antwort? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was lässt sich von der Logik der Widerlegungstexte für erfolgreiche Falschinformationskorrekturen lernen? . . . . . . . . . . . . . . . . . . . . . . . . . . . Was bringen Korrekturen von Falschinformationen (Debunking)? . . . . Sind Faktenchecks als nachträgliche Korrekturen wirksam? . . . . . . . . . Gibt es so etwas wie eine Grundstruktur günstiger Korrekturen von Falschaussagen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Existiert ein Bumerang-Effekt bei der Korrektur von Falschinformationen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Welche rhetorischen Strategien flankieren Falschaussagen? . . . . . . . . . Kann der Effekt des anhaltenden Einflusses minimiert werden und wenn ja wodurch? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lassen sich die Fähigkeiten zum Erkennen von Deepfakes durch Maßnahmen verbessern? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Alle Fragen im Überblick <?page no="9"?> 143 155 157 158 Verwendete Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wo sich welches Stichwort befindet . . . . . . . . . . . . . . . . . . . . . Abbildungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabellenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Alle Fragen im Überblick 9 <?page no="11"?> Vorwort Es ist eine paradox wirkende Situation: Wir leben in einem Zeitalter, in dem das Internet zum neuen Leitmedium unseres Kommunikations- und Lesealltags avanciert ist, welches uns potenziell unendlich viele Optionen gibt, uns zu informieren und Wissen zu erwerben und mit Menschen und Ideen in Kontakt zu treten. Dieses emanzipatorische Potenzial ist auf der Positivseite zu verbuchen. Zugleich ist es auch das Internet, in dem Hass und Hetze, Radikalisierung und Destruktion stattfinden. Es sind erodierende Mechanismen in Gang geraten, die unsere Sicht auf die Welt, unser In-der- Welt-Sein und die Art, wie wir auf Gesellschaften blicken und welche Werte wir haben, zu verändern begonnen haben. Das ist die Schattenseite. Zwischen alldem befinden wir uns als Leser: innen des frühen 21. Jahr‐ hunderts in einem komplexen medialen Ökosystem mit teils neuen und teils alten Medien, die nach unterschiedlichen Vorgehensweisen verlangen, damit wir kompetent agieren, auswählen und dadurch einerseits ignorieren, was uns gefährdet, verwirrt, ablenkt oder schlicht nicht dient, und anderer‐ seits vertieft zu verstehen versuchen, was sich vertiefend zu durchdringen und anzueignen lohnt. Bei alldem können wir prinzipiell auf Aussagen stoßen, die nicht nur inhaltlich falsch sind, sondern sogar gezielt als Falsch‐ information verbreitet werden, um eine negative Wirkung zu entfalten. Desinformationen sind damit Teil unseres Alltags geworden. Mehr noch: Wir sind alle nicht vor ihnen gefeit. Und wir alle sind vulnerabel. Diesem wichtigen Thema ist das vorliegende Buch gewidmet. Ein so kom‐ plexer Gegenstand lässt sich aus verschiedenen Perspektiven beleuchten und betrachten. In diesem Buch steht eine Perspektive besonders im Fokus; sie betrifft kognitive Verstehensprozesse und deren Fehleranfälligkeit, die Einfallstore für Desinformationen darstellen. Die Reise, auf die Sie dieses Buch demnach einlädt, ist eine Erkundung der Weise, wie wir Menschen mit Informationen und Desinformationen umgehen. Zürich, im Frühjahr 2025 Maik Philipp <?page no="13"?> Was die verwendeten Symbole bedeuten Toni verrät spannende Literaturtipps, Videos und Blogs im World Wide Web. Die Glühbirne zeigt eine Schlüsselfrage an, deren Antwort unbedingt lesenswert ist. <?page no="14"?> Zahlen und Fakten zu Falsch- und Desinformationen Nebenwirkung Falschinformation bei medizinischen Themen in sozialen Medien Eine Überblicksarbeit über die Verbreitung medizinischer Falschaussagen in Zeiten von „Infodemien“ hat sich auch den sozialen Medien gewidmet und Erkenntnisse aufbereitet (Borges do Nascimento et al., 2022). Zwei Erkenntnisse: Erstens sind g esundheitliche Falschinformationen in Posts in sozialen Medien weit verbreitet: in 1-51 Prozent der impfstoffbezogenen Posts, 0,2-28,8 Prozent der Covid-19-Posts und 4-60 % der Posts zu Pandemien. Zweitens enthalten zwischen 20 und 30 Prozent der YouTube-Videos entweder ungenaue oder irreführende Aussagen über neu aufgetretene Infektionskrankheiten. Bilder-Bias Wie viele Bilder auf Facebook rund um das Thema US-Präsidentschaftswahl 2020 fehlerhaft waren, untersuchte eine Studie (Yang et al., 2023). Die Ergebnisse zeigen Ausmaß und Verteilungsauffälligkeiten der Bilder mit Falsch- und Desinformationen: • Etwa jedes vierte Bild war fehlerhaft. • Bei politisch konservativen Posts betrug der Anteil solcher Bilder rund 40 Prozent, bei politisch liberalen Posts hingegen 5 Prozent. Der Wahrheitsillusionseffekt: Menschen halten Informationen für umso wahrer, je häufiger sie ihnen begegnen Desinformationen funktionieren auch nach dem Prinzip der Wiederholung: Was uns als (Falsch-)Aussage häufig begegnet, halten wir für wahrer. Das unterstreichen eindrucksvoll Experimente, bei denen Personen Dutzende Aussagen auf ihren Wahrheitsgehalt beurteilen sollten. Ein Ergebnis eines solchen Experiments (Hassan & Barber, 2021) zeigt das nachstehende Diagramm: Bis zu 27-mal bekamen die Personen Aussagen zu Gesicht, sie hielten sie zunehmend für wahrer. Abb. 1: Wahrheitsurteile in Abhängigkeit der Wiederholungen in zwei Experimenten (eigene Darstellung, basierend auf Hassan & Barber, 2021) Wahrheitsurteile in Abhängigkeit der Wiederholungen in zwei Experimenten Darstellung, basierend auf Hassan & Barber, 2021) <?page no="15"?> Digital natives or digitally naïve? Oder: Wie gut sind Jugendliche darin, Informationen im Internet zu beurteilen? Eine der größten und systematischsten Studien testete über 3.400 US-amerikanische Schüler: innen der Klassenstufen 7-12 in der Fähigkeit, verschiedene digitale Informationen zu beurteilen. Sechs Aufgaben, diverse davon mit Falschinformationen, galt es zu lösen, zum Beispiel die vertrauenswürdigere von zwei Websites zu benennen und die Antwort zu begründen. Die Antworten auf die jeweiligen Fragen konnten die Jugendlichen mithilfe des Internets lösen, und für eine angemessene Lösung war das in der Regel auch nötig. Die Aufgabenlösungen wurden einer von drei Kategorien zugeordnet: Fehlanwendungen als falsche Antworten, tendenziell korrekt und korrekt. Nach ihren erbrachten Leistungen lassen sich die Jugendlichen zu Gruppen zusammenfassen, wie es im nachstehenden Diagramm erfolgt. Demnach haben fünf von sechs Personen mehrheitlich keine Aufgabe korrekt gelöst oder allenfalls hin und wieder eine tendenziell richtige Antwort geben können. Über die Hälfte hatte bei keiner Aufgabe eine korrekte Lösung. Abb. 2: Verteilung von US-amerikanischen Jugendlichen zu Leistungsgruppen bei der Beurteilung von digitalen Informationen (Quelle: eigene Darstellung aus Philipp, 2025c, S. 226, basierend auf Breakstone et al., 2021) 15-Jährige und ihre Selbsteinschätzungen zum Umgang mit Online- Informationen In der PISA-Studie 2022 wurden die rund 6.500 teilnehmenden deutschen 15-Jährigen zu ihrem Online-Informationsverhalten befragt (Kastorff et al., 2025). Die Antworten sind reine Selbstauskünfte zum eigenen Verhalten. Einige Schlaglichter, die auf eine Diskrepanz von kritischen und unkritischen Umgängen mit Online-Informationen verweisen: • 37 Prozent vertrauen dem, was sie online lesen. • 39 Prozent vergleichen unterschiedliche Onlinequellen nicht, wenn sie im Internet nach Informationen suchen. • 34 Prozent bekunden, Online-Informationen hinsichtlich deren Korrektheit ungeprüft in sozialen Medien zu teilen. • 17 Prozent geben zu, erfundene Informationen auf sozialen Netzwerken zu teilen, ohne darauf hinzuweisen, dass sie nicht richtig sind. zusammenfassen, wie es im nachstehenden Diagramm erfolgt. Demnach haben fünf sechs Personen mehrheitlich keine Aufgabe korrekt gelöst oder allenfalls hin und eine tendenziell richtige Antwort geben können. Über die Hälfte hatte bei keiner Aufgabe eine korrekte Lösung. Abb. 2: Verteilung von US-amerikanischen Jugendlichen zu Leistungsgruppen bei der Beurteilung von digitalen Informationen (Quelle: eigene Darstellung aus Philipp, 2025c, S. 226, basierend auf Breakstone et al., 2021) <?page no="17"?> Gegenstandsklärungen: was Desinformationen sind Wovon sprechen wir eigentlich, wenn von „Desinformationen“ die Rede ist? Aus Sicht der Forschung ist die Antwort einfach und komplex zugleich. Einfach ist sie insofern, als es einen Kernbestand gibt, nämlich objektiv falsche, mit einer schädigenden Absicht verbreitete Aussagen. Komplex ist sie, weil andere Begrifflichkeiten und Konzepte existieren, die in einem Zusammenhang zu Desinformationen stehen. Dieses Ka‐ pitel führt darum in wichtige Begrifflichkeiten ein. <?page no="18"?> Was sind Informationen und was ist Wissen? Die Notwendigkeit, sich mit „Desinformationen“ zu befassen, ergibt sich schon aus dem Wort heraus, nämlich aus dem Präfix „des-“. Denn dieses Präfix zeigt das Gegenteil an: Wer desinformiert, informiert eben gerade nicht. Was bedeutet dann aber „informieren“ bzw. das Substantiv und das Konzept „Information“? Der Begriff „Information“ hat eine lange Begriffsgeschichte. An dieser Stelle erfolgt, zumal in Abgrenzung zur Desinformation, eine kurze Definition: Informationen ■ stellen einen Teil der Welt in einer bestimmten Weise dar - sie besitzen einen semantischen (oder dargestellten) Inhalt, sie beziehen sich also auf etwas, das existiert (Funktion der Repräsentation) - Desinformationen geben nur vor, dass etwas existiert; ■ haben einen Gültigkeitsanspruch auf Wahrheit - sie bezeichnen also, dass ein Sachverhalt in einer bestimmten Art vorliegt, existiert, besteht etc. und dass dies mit dem Inhalt der Information überein‐ stimmt (Funktion der Wahrhaftigkeit) - Desinformationen bedienen sich hingegen der Täuschung bzw. zielen auf eine Schädigung ab (Fallis, 2015). Informationen sind aus der Sicht der psychologischen Lernforschung klei‐ nere Bestandteile für ein größeres Konstrukt, nämlich das Wissen. In der Psychologie werden darunter ganz allgemein alle im Langzeitgedächtnis ei‐ ner Person verfügbaren Informationen verstanden (McCarthy & McNamara, 2023), wobei sich dieses Wissen auf sehr unterschiedliche Bereiche beziehen kann. Von einer philosophischen Warte aus ist Wissen aber nicht nur die Gesamtheit von Informationen: Wissen Im philosophischen Sinne ist Wissen eine gerechtfertigte, wahre Über‐ zeugung. Demnach muss a) etwas wahr sein, b) jemand muss überzeugt sein, dass etwas wahr ist, und c) die Überzeugung, dass etwas wahr ist, muss plausibel begründet werden können. Entsprechend sind Aussagen 18 Gegenstandsklärungen: was Desinformationen sind <?page no="19"?> nicht per se als Wissen oder Nicht-Wissen zu werten, sondern müssen sich als wahr und begründbar herausstellen. Entscheidend ist neben dem Wahrheitsgehalt von Wissen auch dessen wie auch immer belastbare und nachvollziehbare Begründbarkeit (Alexander & Schoute, 2022). Für Informationen gelten im Sinne der bisherigen kurzen Darstellung prinzi‐ piell ähnlich Kriterien wie für das übergeordnete Wissen. Das kann deshalb nicht ausdrücklich genug betont werden, weil sich daraus die Schlussfolge‐ rung ableitet, dass Desinformationen den Aufbau von Wissen gefährden (s. S. 31). Darum sind Wissen und Information beiderseits darauf angewiesen, dass Faktizität und Wahrhaftigkeit als Ansprüche an sie gelten. Was versteht man unter Desinformationen? Es gibt im Zusammenhang mit inhaltlich fehlerhaften Aussagen ganz unter‐ schiedliche Begriffsverständnisse und wissenschaftlich gesehen noch keine Universaldefinition (Adams et al., 2023). Das hat einerseits damit zu tun, dass sehr viele unterschiedliche Phänomene unter solche falschen Aussagen fallen, und resultiert andererseits daraus, dass sich Wissenschaftler: innen teils uneins sind, welche Merkmale denn zwingend erfüllt sein müssen. Zu‐ gleich gibt es weitere Begrifflichkeiten, die eine zweifelsfreie Verständigung erschweren. Sowohl eine Definition als auch eine Abgrenzung nehmen Wardle und Derakhshan (2017) vor, wie es der nachstehende Kasten zeigt: Desinformationen: Informationen, die falsch sind und absichtlich erstellt werden, um einer Person, einer sozialen Gruppe, einer Organi‐ sation oder einem Land zu schaden. Fehlinformationen: Informationen, die zwar falsch sind, aber nicht in der Absicht erstellt wurden, Schaden anzurichten. Mal-Informationen: Informationen, die zwar auf der Realität beruhen, aber aus ihrem Kontext entfernt wurden und dazu dienen, einer Person, einer Organisation oder einem Land Schaden zuzufügen. Was versteht man unter Desinformationen? 19 <?page no="20"?> Damit sind bereits zwei Merkmale benannt, mittels derer sich Desinfor‐ mationen konzeptuell schärfen lassen: ein Mangel an Wahrheit und eine schädigende Absicht. Dafür ein paar Beispiele: ■ Wenn gezielt Unwahrheiten über Folteranwendung in einem Militärge‐ fängnis verbreitet werden, um dadurch das Ansehen eines Staates zu schädigen, der in einen Krieg involviert ist, fällt das unter Desinforma‐ tionen. ■ Wenn Personen in sozialen Medien ungeprüft das Gerücht weiterver‐ breiten, dass ein Unfall ein Terroranschlag gewesen sein soll, dann wäre dies eher eine Fehlinformation. ■ Wenn politische Gegner: innen gezielt vertrauliche Informationen aus zugespielten Dokumenten unter dem Deckmantel des Whistleblowings in Wahlkampfzeiten veröffentlichen, dann wären dies Mal-Informationen. Je nach Wahrheitsgehalt und schädigender Absicht können also negative Folgen gezielt herbeigeführt werden, auch wenn es sich nicht immer um Desinformation im Sinne der obigen Definition handeln muss. Desinfor‐ mationen lassen sich also als unwahre und mit schädigender Absicht erstellte und verbreitete Aussagen verstehen. Es gibt aber auch noch weitere Merkmale, die gegenwärtig diskutiert werden, um Desinformationen besser definieren zu können (s. dazu s. S.-23). In der Forschung werden trotz aller terminologisch sinnvollen Trennung von Fehl- und Desinformationen beide Gruppen oftmals als Falschinfor‐ mationen gemeinsam deklariert. Auch in diesem Band wird, wenn nicht explizit und zweifelsfrei Desinformationen im Fokus stehen, die Rede von Falschinformationen sein. Lesetipp Eine gute lesbare Einführung in den Bereich des Verarbeitens und Ver‐ stehens falscher Informationen allgemein geben zwei ausgewiesene Ex‐ perten aus der Psychologie. Das Buch behandelt neben den Grundlagen auch Grenzen und Erträge in der Bekämpfung von Desinformationen: Roozenbeek, J. & van der Linden, S. (2024). The Psychology of Misinfor‐ mation. Cambridge University Press. 20 Gegenstandsklärungen: was Desinformationen sind <?page no="21"?> Sind Fake News auch Desinformationen? In der Öffentlichkeit ist der technische Ausdruck „Desinformation“ sicher nicht so gebräuchlich wie „Fake News“. In der Forschung hat die Konjunktur des Ausdrucks „Fake News“ sogar dazu geführt, dass einige Forscher: innen den Begriff für zu unscharf halten, weil er zunächst für satirische Nach‐ richtenformate galt, seit Donald Trumps Verwendung zur Diskreditierung unliebsamer Berichterstattung und Medien degradierend gebraucht wurde und zudem ein ganzes Genre von (sozialen) Medien so bezeichnet wird (Zimmermann & Kohring, 2020). Anders formuliert: Der Begriff hat Abnut‐ zungserscheinungen. Dennoch gibt es Verfechter: innen, die mit Fake News eine ganz spezifi‐ sche Form der Desinformation bezeichnen wollen: Fake News „Fake News sind Nachrichten, denen es an Wahrheit und Wahrhaftigkeit fehlt. Es mangelt ihnen an Wahrheit in dem Sinne, dass sie entweder wörtlich falsch sind oder etwas Falsches vermitteln. Sie sind nicht wahrhaftig in dem Sinne, dass sie in der Absicht verbreitet werden, zu täuschen oder sich nicht um die Wahrheit zu kümmern.“ ( Jaster & Lanius, 2021, S.-20) Nach dieser Definition gibt nicht die objektive geringe Faktizität den Aus‐ schlag, sondern vielmehr die schädigende Absicht, bei der durchaus Fakten verwendet werden können, diese aber so verdreht, verknappt, einseitig oder sonstig manipulativ genutzt werden, dass eine Desinformation die Folge ist. Fake News lassen sich damit durchaus als ein Ausschnitt aus den übergeord‐ neten Desinformationen bezeichnen. Fake News sind zugleich eine wichtige Teilmenge, die sich über das Wort „Nachrichten“ in der obigen Definition bestimmen lässt. Denn Fake News sind Desinformationen, die im Gewand der objektiven Nachricht auftreten und sich gezielt die Vertrauenswürdigkeit von Nachrichtenorganisationen und -institutionen zunutze machen, ohne deren Ethos zu folgen. Dementsprechend ist es legitim, Fake News im Sinne vorgeb‐ licher journalistischer Produkte für solche Kommunikate zu reservieren, die gleichzeitig unwahr und nicht wahrhaftig sind, die aber in einer Aufmachung (Stilistik, Aussehen, Verwendung typischer Elemente) von journalistischen Produkten verbreitet werden (Fallis & Mathiesen, in Druck). Sind Fake News auch Desinformationen? 21 <?page no="22"?> Lesetipp „Fake News“ ist - wie auch „Desinformation“ - kein feststehender Aus‐ druck. Die Diskussion von sieben fremden und einer eigenen Definition anhand sieben verschiedener Dimensionen von Jaster und Lanius (2021) hilft dabei, die Nuancierungen in den Definitionen und die Kritik an ihnen besser zu verstehen: Jaster, R. & Lanius, D. (2021). Speaking of Fake News: Definitions and Dimensions. In S. Bernecker, A. K. Flowerree & T. Grundmann (Hg.), The Epistemology of Fake News (S.-19-45). Oxford University Press. Zählen Verschwörungstheorien zu den Desinformationen? Im medialen Ökosystem mit seinen vielfältigen Ausprägungen wird häufig - mitunter auch in synonymer Weise - ein Phänomen der Desinformationen behandelt: das der Verschwörungstheorien. Der Anschlag auf das World Trade Center im September 2001 und wer ihn angeblich wirklich durchgeführt hat, Chemtrails, QAnon etc. sind Narrative, nach denen Personen(gruppen) heimlich anderen Schaden zufügen. Diese auf Intrigen großen Ausmaßes abzielenden Erzählungen werden als „Verschwörungstheorien“ bezeichnet. Verschwörungstheorien „Eine Verschwörungstheorie ist die Überzeugung, dass zwei oder mehr Akteure sich im Geheimen abgestimmt haben, um ein Ergebnis zu erzielen, und dass ihre Verschwörung von öffentlichem Interesse, aber nicht öffentlich bekannt ist.“ (Douglas & Sutton, 2023, S.-282) Douglas und Sutton (2023) weisen also darauf hin, dass Verschwörungstheo‐ rien durch verschiedene Merkmale gekennzeichnet sind. Ihre Darstellung läuft darauf hinaus, dass Verschwörungen eine spezielle Form von Annah‐ men über die Wirklichkeit sind. Es sind oppositionelle Auffassungen zu den öffentlich akzeptierten, also als Common Sense geltenden und akzeptablen, also ausreichend plausibel wirkendend Aussagen und Repräsentationen, was sie in die Nähe der Falschinformationen rückt (s. S. 19). Tatsächlich sind 22 Gegenstandsklärungen: was Desinformationen sind <?page no="23"?> sie mit (binären) Kategorien wie richtig und falsch allerdings kaum sinnvoll fassbar. Zudem haben sie soziale Facetten, indem sie zum einen von sinistren Akteur: innen ausgehen und zum anderen soziale Konstruktionen darstellen, indem sie Gruppen erschaffen und soziale Kohäsionen unter jenen stiften, die aktiv an die jeweilige Verschwörungstheorie glauben. Dieser Merkmalskatalog macht sie zu einem eigenen Phänomenbereich (Seargeant, 2022). Das lässt sich an zwei Punkten besonders deutlich machen: ■ Erstens sind Verschwörungstheorien kaum bis gar nicht zu widerlegen und operieren gezielt damit, dass sie alternative Erklärungen offerieren (Uscinski, 2018). ■ Zweitens ist eine direkte schädigende Absicht nicht immer direkt erkennbar (jedoch unterstellbar), auch wenn ihre Folgen (Polarisierung und Radikalisierung, Abnahme von regulärer politischer Partizipation und Vertrauen in Wissenschaft) zweifelsohne schädlich sein können (Douglas & Sutton, 2023). Zusammengenommen: Verschwörungstheorien sind nicht per se Desinfor‐ mationen. Das hat mit ihrer unklaren Passung zu den Kriterien für Desin‐ formationen zu tun. Während die schädigende Absicht über die negativen Folgen abstützbar wirkt (und somit das Kriterium der Schädigung erfüllt ist), ist die Hybridität von teils korrekten, teils falschen, teils schwer in diese binäre Logik einfügbaren Aussagen eine Herausforderung für das Kriterium der inhaltlichen Falschaussage. Darum werden Verschwörungstheorien in diesem Band nicht weiter behandelt. Welche Dimensionen machen die Desinformationen im Allgemeinen und die Fake News im Besonderen aus? Wenn Konzepten wie „Desinformationen“ bzw. deren Ausschnitt „Fake News“ eine gewisse Unschärfe anhaftet, dann lohnen sich Eingrenzungen über konzeptuelle Analysen oder dimensionale Vergleiche. Deren Ziel besteht darin, die Uneinheitlichkeit von Begriffen in Definitionen und Ausprägungen dessen, welche Phänomenbereiche sie bezeichnen, durch eingrenzende Merkmalsausprägungen zu verringern. Idealerweise entste‐ hen dadurch geschärfte Analyseraster, die bei der zweifelsfreieren Kommu‐ nikation helfen (Fallis, 2015; Jaster & Lanius, 2021; Kapantai et al., 2021). Welche Dimensionen weisen Desinformationen und Fake News auf? 23 <?page no="24"?> Aus den bisherigen Versuchen, essenzielle Merkmale von Desinformatio‐ nen in ihrem Gesamt zu extrahieren, sei an dieser Stelle jener von Jaster und Lanius (2021) herausgegriffen (s. Tab. 1). Deren sieben Dimensionen umfassende Systematik bezieht sich auf Fake News (s. S. 21) und damit lediglich auf einen Ausschnitt. Dieser Zugang hat für die Zwecke dieses Buchs den darstellerischen Vorteil, dass er sowohl die Spezifik der Fake News als auch die Generik der Desinformationen als übergeordnetem Konzept einholt. Dies erfolgt in der Tabelle 1, indem die vier relevanten Dimensionen zuoberst dargestellt sind, wobei die Dimensionen Unwahrheit und Täuschung übergreifend zu den Desinformationen zählen, während Bullshit sowie das Erscheinungsbild Spezifika der Fake News darstellen. Dimension Beschreibung Unwahrheit** Fake News sind falsch oder irreführend. Täuschung** Die Verbreiter: innen bzw. Produzent: innen haben die Absicht, das Publikum zu täuschen. Bullshit* Die Verbreiter: innen bzw. Produzent: innen sind gegenüber der Wahrheit gleichgültig. Erscheinungs‐ bild* Fake News ahmen gezielt echte Nachrichten nach. Effekt/ Wirkung Fake News bringen die tatsächliche (oder eine gewisse Wahr‐ scheinlichkeit der) Täuschung des Publikums mit sich. Viralität Fake News werden weit verbreitet bzw. sollen weit verbreitet werden. (Online-)Me‐ dien Fake News sind ein Phänomen, das im Internet bzw. in sozialen Medien besonders auftritt bzw. dieser digitalen Medien bedarf. Tabelle 1: Sieben Dimensionen von Fake News (** essenzielle Dimension für Desinforma‐ tionen und für Fake News; * essenzielle Dimension für Fake News; Quelle der Darstellung: Jaster & Lanius, 2021, S.-25-27) Wenn man sich also vom Wortlaut einzelner Definitionen löst und sich auf die zentralen oder peripheren Dimensionen von Konzepten wie Desin‐ formation und Fake News konzentriert, hilft dies bei der Verständigung. Ihren Wert haben solche Vorschläge zudem darin, dass sich damit Analyse‐ kategorien für konkrete Ausprägungen anbieten. Zur Wahrheit gehört aber 24 Gegenstandsklärungen: was Desinformationen sind <?page no="25"?> auch, dass es durchaus kontroverse Kriterien gibt. Außerdem sind solche Dimensionen einer Veränderung unterworfen, die sich aus dem technischmedialen Wandel zum einen und dem fortschreitenden Erkenntnisgewinn zum anderen ergibt. Lesetipp Der Flut an Definitionen und Ausprägungen von unterschiedlichen Phänomenen der Falsch- und Desinformationen begegnen Kapantai et al. (2021). Sie extrahieren drei Dimensionen von Falschsowie Desinfor‐ mationen (Faktizität und Verifizierbarkeit der Aussagen sowie Motive der Quelle), mittels derer sich einzelne Phänomene klassifizieren lassen. Positiv hervorzuheben sind die systematisch dargebotenen Definitionen in dem Beitrag. Kapantai, E., Christopoulou, A., Berberidis, C. & Peristeras, V. (2021). A Systematic Literature Review on Disinformation: Toward a Unified Taxonomical Framework. New Media & Society, 23(5), 1301-1326. Sind Desinformationen ein neues Phänomen? Dass falsche Informationen gezielt und durchaus mit einer schädigenden Absicht verbreitet werden, ist als Phänomen keineswegs neu. Eine spezi‐ ell auf politische und nachrichtendienstliche Desinformation abzielende historische Analyse (Rid, 2021) zeigt, dass es in den letzten 100 Jahren eine mehrphasige Entwicklung bei Desinformationen gab. Diese Entwick‐ lung zeichnet sich durch eine geopolitisch getriebene und von nationalen Nachrichtendiensten professionalisierte, die jeweils aktuellen medialen Entwicklungen nutzende und in ihrem historischen Kontext zu sehende Genese aus. Vorläufiger Höhepunkt dieser Entwicklung ist eine im Internet stattfindende, im Vergleich zu Operationen von Nachrichtendiensten wenig steuerbare und ferngesteuerte Variante der Destabilisierung gesellschaftli‐ cher Gegner: innen auf mannigfaltige Art und Weise. Vor diesem Hintergrund mag erklärbar wirken, warum das Internet und dort insbesondere die sozialen Medien im Zentrum aktueller Debatten in der Gesellschaft und Forschung stehen. Natürlich ist das nur ein Teil der Wahrheit, doch sind die Wirkweisen von sozialen Medien und der Verbreitung von Informationen dort ein wichtiges, weil noch zu wenig Sind Desinformationen ein neues Phänomen? 25 <?page no="26"?> verstandenes Phänomen, zumal wegen ihrer tiefen Diffundierung in aktuelle Gesellschaften. Als besonders eindrucksvolles Beispiel galt und gilt die Aus‐ nahmesituation der Covid-19-Pandemie. Die Weltgesundheitsorganisation hat die damalige Situation unter anderem als „Infodemie“ bezeichnet. Infodemie „Eine Infodemie ist eine Informationsflut, die im Rahmen einer Epidemie auftritt, wobei einige Informationen korrekt sind und andere nicht. Ähnlich wie bei einer Epidemie breitet sie sich zwischen den Menschen über digitale und physische Informationssysteme aus. Sie macht es den Menschen schwer, vertrauenswürdige Quellen und verlässliche Orien‐ tierungshilfen zu finden, wenn sie sie brauchen.“ (Tangcharoensathien et al., 2020, S. 2) Solche Phänomene, die zum einen die Verbreitung falscher Aussagen betreffen und zum anderen das Nebeneinander von Aussagen und ihren Quellen in Situationen mit einem hohen Informationsbedürfnis kennzeichnen, verweisen auf die gestiegenen Anforderungen an die kompetente Nutzung von Medien. Das gilt auch und gerade in Zeiten von Unsicherheit (Kozyreva et al., 2020). Demnach sind Desinformation kein neuer Bestandteil unseres Medienalltags, sondern eher einer, auf den wir in dem aktuellen Medienmenü prinzipiell eher stoßen können und der uns zur Wachsamkeit als Grundhaltung anhält, um unsere Souveränität und Mündigkeit zu bewahren. Lesetipp Wer sich für die Geschichte von Desinformationen als zunächst nach‐ richtendienstliches Instrument in den vergangenen hundert Jahren interessiert, wird in der folgenden Publikation fündig, die politikwissen‐ schaftlicher Herkunft ist und sich stark auf russische und US-amerika‐ nische Desinformation konzentriert: Rid,-T. (2021). Active Measures: The Secret History of Disinformation and Political Warfare. Picador. 26 Gegenstandsklärungen: was Desinformationen sind <?page no="27"?> Postfaktismus und Desinformation - wie lassen sich diese beiden Phänomene zusammendenken? Desinformation und Postfaktismus sind zwei Phänomene, die oft in einem Zug genannt werden, ohne dass das Verhältnis beider Begriffe immer geklärt wäre. Beiden wird attestiert, individuelle und soziale negative Folgen zu haben, wobei - allen anhaltenden wissenschaftlichen Debatten zum Verhältnis beider Konzepte zum Trotz - der Postfaktismus das umfassendere Phänomen ist. Postfaktismus Postfaktismus (engl. „Post-Truth“) bezeichnet einen selektiven Umgang mit Informationen, bei dem Emotionen, subjektive Wahrnehmungen und zur eigenen Einstellung passende Aussagen systematisch zuun‐ gunsten objektiver bzw. von epistemischen Autoritäten hergestellten Aussagen genutzt werden. Die Abwendung von Fakten ist Wesenskern dieses Phänomens (Mclntyre, 2018). Die Abkehr von Fakten ist die Schnittmenge beider Phänomene, wobei sich das Verhältnis von Falsch- und Desinformationen auf der einen Seite und dem Postfaktismus auf der anderen Seite noch präzisieren lässt. Falsch- und Desinformationen sind Bestandteile einer postfaktischen Umwelt, in der sich kulturelle, mediale und soziale Verschiebungen ergeben haben, die ihrerseits einen sehr ungünstigen Kulminationspunkt haben. Der Postfaktis‐ mus nebst der Desinformationsproblematik ist also kein rein individuelles, sondern vor allem ein soziales Phänomen, dessen Auftreten nicht ohne die Berücksichtigung weiterer makroskopischer gesellschaftlicher Veränderun‐ gen erklärbar ist (Lewandowsky et al., 2017). Einige dieser Faktoren sind: ■ Abnahme der sozialen Kohäsion: Darunter fallen die historisch verrin‐ gerten Zustimmungen zu sozialen Werten, die Zunahme von Einsam‐ keit und Isolation, die wachsende Ungleichheit von gesellschaftlichen Gruppen und eine steigende Polarisierung zwischen weltanschaulichen Gruppen, wobei insbesondere politisch konservativ eingestellte Perso‐ nen im Gefolge empfänglicher für die negativen Folgen dieser Entwick‐ lung zu sein scheinen (Lewandowsky et al., 2017). In dieser Gemengelage ist eine problematische Folge die Abnahme von gemeinsamen sozia‐ Wie lassen sich Postfaktismus und Desinformation zusammendenken? 27 <?page no="28"?> len Referenzpunkten und damit die verringerte Notwendigkeit, sich kommunikativ auf gemeinsam Getragenes zu beziehen, worunter auch die Tonverschärfungen im Miteinander und die Diskreditierung von Kompromissen fallen. ■ Vertrauensverlust bislang anerkannter (epistemischer) Autoritäten: Ein weiteres Phänomen ist eine teils aggressive Abwehr von Aussagen der Wissenschaft, die in hochkomplexen Gesellschaften arbeitsteilig für die Produktion gesicherter Aussagen zuständig ist, allerdings auch auf ein informiertes Vertrauen durch die Öffentlichkeit angewiesen ist. Selbiges gilt für Medien. Skeptizismus, also eine überkritische Haltung gegenüber der Kommunikation von regelgeleitet hergestellten und absi‐ cherbaren Aussagen, und die Zuwendung zu sogenannten ‚alternativen Medien‘ sind ein Ausdruck davon. Der Zweifel an Wissensaussagen und Positionen wird damit, zumal wenn er (von radikalen Akteur: innen gezielt) politisch instrumentalisiert wird, schlimmstenfalls zum Gegen‐ stand des Kulturkampfes (Barzilai & Chinn, 2020; Lewandowsky et al., 2017). ■ Veränderungen in der Medienlandschaft: Das Medienökosystem hat sich durch die Digitalisierung stark auszudifferenzieren begonnen. Es sind einige negativ zu wertende Auffälligkeiten in Bezug auf Plattformen und sozialen Medien mit eigenen ökonomischen Funktionsweisen und Zwe‐ cken beobachtbar. Darunter fallen a) die problematischen algorithmus‐ basierten Ausspielungen von Inhalten an Teilgruppen, b) die Tendenz, emotional zu erregen, und nicht zuletzt die Möglichkeit, c) ungefiltert Falsch- und Desinformation über mangelndes editoriales Gatekeeping - etwa durch redaktionelle Betreuung oder Moderator: innen in sozialen Medien - an eine große Anzahl von Personen zu verbreiten (Kozyreva et al., 2020). Eine Nebenwirkung davon ist die Fragmentierung von medial vermittelten Wirklichkeitsangeboten, die zu einem Nebeneinander von inhaltlich teils weit auseinanderliegenden Weltsichten führen, die ihrer‐ seits Mechanismen wie den Wahrheitsillusionseffekt befeuern (s. S. 72), insbesondere wenn es keine Korrektive oder eine weitere, balancierte Mediennutzung gibt. Diese gesellschaftlichen Veränderungen sind in ihrem Zusammenkommen eine Basis dafür, dass sich postfaktische Tendenzen zu einem so großen und brisanten Problem ausgewachsen haben, da sie für Des- und Falschin‐ formationen einen Nährboden bilden. 28 Gegenstandsklärungen: was Desinformationen sind <?page no="29"?> Negative Effekte: welche Schäden Des- und Falschinformationen anrichten Desinformationen sind (manipulativ) herbeigeführte Verstehensleistun‐ gen auf der Basis falscher Aussagen, die aus normativer Sicht ungünstige Folgen haben. Doch wem schaden Desinformationen - und wie? Diese Frage lässt sich nicht pauschal beantworten. Vielmehr lohnt es sich, zwischen verschiedenen Gruppen von Betroffenen, seien es Individuen, seien es übergeordnete Einheiten wie Organisationen, Firmen, Perso‐ nengruppen etc., zu differenzieren. Auch wenn in diesem Band die individuumsbezogenen Perspektiven leitend sind, ist ein Blick über diesen Tellerrand hinaus hilfreich, um die gesellschaftlichen Kosten von Desinformationen zu umreißen. <?page no="30"?> Viel Lärm um nichts oder nur die Spitze des Eisbergs: Wie wird die Desinformationsproblematik in der Wissenschaft gesehen? Wie berechtigt sind die Sorgen um die Effekte und das Ausmaß des Phäno‐ mens Falsch- und Desinformationen? Diese Frage wird in der Wissenschaft kontrovers diskutiert, wobei sich die Debatte an zwei Punkten entzündet: Ausmaß des Auftretens und Ausmaß der Wirkungen. Beide Positionen lassen sich anhand zweier aktueller Publikationen gut konturieren (Altay et al., 2023; Ecker et al., 2025). 1. Strittiger Punkt: Ausmaß des Auftretens. Die eine Seite nimmt eine eher abschwächende Position ein, die besagt, dass bereits die Grundannahme einer hohen Kontaktwahrscheinlichkeit mit Desinformationen fraglich sei. Demnach werde (über definitorische Entscheidungen) die Größe des Problems des Auftretens und des Verbreitens überhöht (Altay et al., 2023). Insbesondere die Konzentration auf soziale Medien und eine implizit negative Sicht auf das Internet im Allgemeinen sorge dafür, dass eine tendenziöse bis die Problemlage überschätzende Sicht dominiere. Die Gegenseite (Ecker et al., 2025) argumentiert, das Problem sei deshalb so groß, weil Falschaussagen nur einen kleinen Bestandteil aller fehlerhaften und irreführenden Aussagen in einem gesamten Mediennutzungskontext ausmachen. In diesem würden immer noch sehr viele Personen - mögli‐ cherweise sehr viel subtileren - Falsch- und Desinformationen ausgesetzt sein, was das Risiko schädlicher Folgen erhöhe. 2. Strittiger Punkt: Ausmaß der Wirkungen. Selbst wenn Personen auf Falsch- und Desinformationen treffen, so die abschwächende Position, seien sie damit nicht automatisch anfällig für Veränderungen in ihren Überzeugungen und/ oder ihren Verhaltensweisen. Stattdessen gebe es eigensinnige, Täuschungsversuche konterkarierende Umgangsweisen. Insgesamt seien Personen durch inhaltlich falsche Aussagen weniger leicht manipulierbar, so die allgemeine Position (Altay et al., 2023). Die Gegenposition dazu gibt an, dass Veränderungen in der Einstellung der Rezipient: innen von Falsch- und Desinformationen bestünden und auch hinreichend dokumentiert seien, konstatiert aber, dass verhaltens‐ bezogene Folgen gleichwohl schwer messbar seien. Zudem seien einige der Folgen, z.B. Hassverbrechen aufgrund von rassistischen Online- Falschinformationen, ausreichend genug belegt, um die Problematik als solche deutlich zu machen. Alleine aus ethischen Gründen sei es daher 30 Negative Effekte: welche Schäden Des- und Falschinformationen anrichten <?page no="31"?> legitim, Desinformationen als Problem gesellschaftlich zu bekämpfen (Ecker et al., 2025). Die beiden hier exemplarisch gegenübergestellten Positionen schätzen Aus‐ maß und Wirkung fehlerhafter Aussagen also unterschiedlich ein. Diese konträren Sichtweisen, wie sie typisch sind für den Gegenstandsbereich, erschweren eine eindeutige und vereinfachende Antwort auf die Frage nach dem tatsächlichen Gefährdungspotenzial. Zugleich wird daran deutlich, dass es nötig ist, konzeptionell zu klären und methodisch angemessen zu erforschen (s. S. 112), welche Personengruppen für welche Art von Falschinformationen unter welchen Bedingungen empfänglich sind. Diese Daueraufgabe an die Forschung wird dabei helfen, die Risiken besser zu verstehen. Und doch: Es ist berechtigt anzunehmen, dass Desinformationen schädliche Wirkungen haben, die bereits jetzt Aufmerksamkeit und nicht zuletzt Gegenmaßnahmen verdienen (Krause et al., 2022). Welche persönlichen Nachteile bringen Falsch- und Desinformationen mit sich? Die Frage, welche Schäden inhaltlich falschen Aussagen bei Personen anrichten können, wird in der Forschung kontrovers diskutiert. Allgemein muss in den unerwünschten Wirkungen differenziert werden, zum einen danach, wie direkt und indirekt sie sind (Ridder, 2024), sowie zum anderen hinsichtlich der empirischen Nachweisbarkeit versus der reinen, wenn‐ gleich berechtigt wirkenden Befürchtungen ihrer Effekte (Adams et al., 2023). Drei Arten von Nachteilen lassen sich umreißen: 1. Unmittelbares Problem: Etablierung einer Persistenz falscher Inhalte im Gedächtnis. Ein erster wichtiger negativer Effekt besteht darin, dass Falsch- und Desinformationen Gefahr laufen, unkorrigiert ins Langzeit‐ gedächtnis überführt zu werden (Adams et al., 2023). Dies zeigt sich in Phänomenen wie dem Wahrheitsillusionseffekt (s. S.-72) und dem Effekt des anhaltenden Einflusses (s. S. 80). Wer also auf fehlerhafte Aussagen zu Impfnebenwirkungen stößt und diese in sein Gedächtnis übernimmt, wird damit einen Gedächtnisinhalt entwickeln, der zum Bestandteil der subjektiven Annahmen über das Impfen avanciert. Diese Veränderungen im Gedächtnis führen weiter gedacht zu schwer korrigierbaren Modifika‐ tionen im Denken, zumal einige der Korrekturbemühungen, z.B. Fakten‐ Welche persönlichen Nachteile bringen Falsch- und Desinformationen mit sich? 31 <?page no="32"?> checks zu Impfwirkungen und -nebenwirkungen, in ihrer Wirksamkeit eingeschränkt sind (s. S.-126). 2. Mittelbares Problem: Veränderungen in der Wahrnehmung und Evaluatio‐ nen von Informationen. Gedächtnisinhalte sind die Basis für weitere kognitive Verarbeitungsprozesse und das Einschätzen von weiteren In‐ formationen (Pohl, 2022). Darum sind negative Effekte zu erwarten, wenn bspw. fälschlicherweise als wahr angenommene Aussagen (zu Impfnebenwirkungen) die Grundlage für weitere Einschätzungen neuer Informationen bilden. Teils gibt es empirische Hinweise zu derartigen ungünstigen Einstellungsveränderungen (s. S.-79). 3. Folgeprobleme höherer Ordnung: dauerhafte ungünstige Veränderungen in der habituellen Art des Denkens, des Beurteilens und Polarisierung von Einstellungen bis hin zum Verhalten. Ein Beispiel dafür wäre etwa die Genese radikal impfkritischer und infolgedessen möglicherweise sogar medizinische Erkenntnisse im Besonderen und wissenschaftliche Aussa‐ gen im Allgemeinen stark ablehnender Einstellungen. Auch ein verändert einseitiges Informationsverhalten sowie generell eine allmähliche Verhal‐ tensänderung und riskante Gesundheitsentscheidungen wären diesem Phänomenbereich zuzuordnen. Diese weitreichende Wirkkette von der Falschinformation zu heiklen Entscheidungen großer Tragweite ist die‐ jenige, die besonders stark befürchtet wird, allerdings auch methodisch am schwersten entwirrbar und zu belegen ist. Das hat damit zu tun, dass zum einen derartige Wirkketten komplex sind und zum anderen die bisherigen Forschungsergebnisse und -designs derlei noch kaum empirisch zu unterfüttern in der Lage sind (Adams et al., 2023). Abgesehen von solchen Versuchen, die Frage nach den Wirkungen spezi‐ fischer Falschinformationen zu systematisieren, besteht eine allgemeine alltagspraktische Implikation von Falsch- und Desinformation in einer Erhöhung von Komplexität, wenn Personen sich informieren wollen. Manche Forscher sprechen von einer Art ‚epistemischer Verschmutzung‘, die den Aufwand bei der Suche, Verarbeitung und Beurteilung von Aussagen erhöht und zu unerwünschten Nebenwirkungen führt (Ridder, 2024). Darunter fallen a) Misstrauenszunahme (aufgrund der Menge an potenziellen Falsch‐ nachrichten bspw. zum Impfen), b) Erschöpfung (wegen des Aufwands, belastbare Informationen zu finden) und c) eine unter Umständen ungüns‐ tige Entwicklung bei den eigenen epistemischen Überzeugungen (bspw. 32 Negative Effekte: welche Schäden Des- und Falschinformationen anrichten <?page no="33"?> einer Abwertung und Abwendung von externen Wissensquellen zu medi‐ zinischen Themen, s. S.-55). Es lassen sich also einige grundsätzliche Muster aus der Forschung benennen, was die negativen individuumsbezogenen Effekte angeht. Wie konzentrische Kreise lassen sich direkte, desbzw. falschinformationsspe‐ zifische Wirkungen bis hin zu Effekten höherer Ordnung benennen. Die Konsequenzen sind außerdem die generelle Komplexitätssteigerung und deren Folgen im Umgang mit Ambiguität und das Oszillieren zwischen begründetem Vertrauen und begründbarem Misstrauen. Welche negativen Wirkungen haben wissenschaftliche Falschinformationen? Wissenschaft soll Wissen für die Gesellschaft herstellen. Doch selbst wenn sie dies erfolgreich tut, bleibt die Frage, ob dieses Wissen in die Gesellschaft abstrahlt und dort korrekt ankommt. Zum Beispiel gibt es empirische Hinweise darauf, dass große Teile von krebsbezogenen Aussagen in sozialen Medien - nämlich ein Drittel der untersuchten Texte - falsch und dann überwiegend sogar potenziell gesundheitsschädlich sind ( Johnson et al., 2022). Das Thema Krebs und Falschaussagen ist eines von vielen Beispielen für sogenannte wissenschaftliche Falschinformationen. Wissenschaftliche Falschinformationen Wissenschaftliche Falschinformationen sind ein Phänomen der öffent‐ lichen Kommunikation über Wissenschaftsthemen. Es handelt sich um Aussagen, die gemessen an den besten verfügbaren Belegen oder dem Urteil von Fachexpert: innen in der Wissenschaft keinen Bestand haben (Southwell et al., 2022). Solche wissenschaftlichen Falschinformationen bzw. deren Gefahr hat bspw. ein Forschungsteam auf Facebook analysiert (Allen et al., 2024). Dazu wurden zirkulierte Falschinformationen, die als solche gekennzeichnet waren, und solche, die ungekennzeichnet waren, miteinander bezüglich der Impfintentio‐ nen von US-amerikanischen Testpersonen in den ersten drei Monaten der Covid-19-Pandemie verglichen. Dabei stellte sich heraus, dass die Impfintenti‐ onen signifikant geringer waren, wenn die Personen auf ungekennzeichnete Welche negativen Wirkungen haben wissenschaftliche Falschinformationen? 33 <?page no="34"?> impfkritische Falschinformationen gestoßen waren. Diese wurden ohnehin im Vergleich zu den erkennbar als Falschinformationen deklarierten Quellen massiv häufiger betrachtet. Das Forschungsteam schätzte, dass der Schaden der ungekennzeichneten Falschinformationen um den Faktor 46 größer war als jener der gekennzeichneten Falschinformationen. Gemessen an der damals aktuellen Zahl der US-amerikanischen Facebook-Nutzer: innen (233 Millionen) hätten gemäß einer Hochrechnung drei Millionen Personen zusätzlich geimpft werden können (van der Linden & Kyrychenko, 2024). Wissenschaftliche Falschinformationen haben neben den direkten Effek‐ ten auf Individuen wie dem Erwerb falscher Überzeugungen (s. S. 31) oder Impfintentionen weitere Folgen, von denen hier zwei herausgearbeitet werden (Ridder, 2024; Blake-Turner, in Druck): ■ Des- und Falschinformationen verunsichern Personen epistemisch. Das heißt: Durch die Konfrontation mit fehlerhaften Aussagen kann eine Unsicherheit darüber entstehen, was Personen als Wissen annehmen sollen, und sie können sich sogar in ihren korrekten Annahmen ver‐ unsichern lassen. Insofern ist der Kontakt mit fehlerhaften Aussagen gerade vor dem Hintergrund der bekannten Effekte auf Gedächtnisin‐ halte riskant, jedoch nicht nur in der Art, dass konkrete Inhalte falsch sind, sondern auch, dass Zweifel gesät werden können, die sich erst sukzessive ungünstig auf thematische und epistemische Überzeugungen (s. S.-55) auswirken können. ■ Auf einer Systemebene verunreinigen Falsch- und Desinformationen die sogenannte „epistemische Umwelt“. In Wissensgesellschaften sind Laien‐ personen in einem Vertrauensverhältnis an Expert: innen gebunden, die als zuverlässig (bzw. in ihrer Rolle als Instanzen der Wissenspro‐ duktion vertrauenswürdig) gelten. Laien sollen ihnen zwar nicht blind und bedingungslos vertrauen, doch ist ein informiertes Vertrauen eine Bedingung von Wissensgesellschaften. Der Kontext, in dem Personen Zugriff auf vertrauenswürdige Wissensquellen mit einer hohen Qualität haben, lässt sich als „epistemische Umwelt“ bezeichnen. Ist diese nun von einer schwer durchschaubaren Unklarheit gekennzeichnet, ist es für Personen schwierig, sich darin zu orientieren; das gilt umso mehr, je mehr Falsch- und Desinformationen Bestandteil dieser Umwelt werden. Solche Hindernisse im Erwerb von Wissen werden auch als „epistemi‐ sche Bedrohungen“ erachtet, nämlich als Gefahr für den Erwerb und Erhalt von Wissen (Harris, 2022). 34 Negative Effekte: welche Schäden Des- und Falschinformationen anrichten <?page no="35"?> Die negativen Effekte wissenschaftlicher Falschinformationen jenseits der unmittelbaren konkreten Auswirkungen sind darin zu sehen, dass Personen unsicherer werden, was den Kontakt mit Wissen betrifft. Ihre internen und externen Bemessungsgrundlagen werden dadurch insgesamt diffuser. Was macht die Wissenschaft als gesellschaftliches Teilsystem so anfällig für Desinformationskampagnen? Klimawandel, Impfnebenwirkungen, künstliche Intelligenz, genmodifizierte Lebensmittel - es existieren zahlreiche Themen, zu denen es wissenschaftliche Falsch- und Desinformationen gibt. Was damit zusammenhängt: Es sind kom‐ plexe Themen, unübersichtliche zumal und mit hoher Dynamik und vielen Stimmen, die sich in einem Diskurs zu Wort melden. Die inhärente Komplexität von Gegenständen der Wissenschaft und die wissenschaftlichen Funktionsprin‐ zipien sind als Einfallstore für unbeabsichtigte Missverständnisse und gezielte Desinformation bekannt (Kienhues et al., 2020; Krause et al., 2022). Es gibt viele Faktoren, die dazu führen, dass dem Umgang mit wissen‐ schaftlichen Aussagen eine Restunsicherheit innewohnt. Sie können außer‐ halb der Wissenschaft missverständlich sein, anders beurteilt werden und sogar eine ungewollte negative Wirkung entfalten, indem es zu anderen Beurteilungen wissenschaftlicher Aussagen oder einer ungewollten Art der Darstellung - als wissenschaftliche Falschinformationen (s. S. 33) - kommt (Krause et al., 2022, s. S. 132). Nicht alles davon ist alleinig der Wissenschaft anlastbar. Dennoch gibt es Eigenheiten der Funktionsweise in der Wissenschaft, die sie für gezieltes Desinformieren anfällig machen. Zwei dieser Merkmale sind zum einen die soziale Natur von Wissensaussagen und zum anderen der unvermeidliche Umgang mit Unsicherheit (Kienhues et al., 2020). ■ Aussagen aus der Wissenschaft sind das Ergebnis von komplexen kommu‐ nikativen und konsensuellen Aushandlungen von beteiligten Expert: innen. Hochspezialisierte Wissensgesellschaften haben zu einer kognitiven Ar‐ beitsteilung geführt, in der die Expertise von Personen in Fachgebieten Bedingung dafür ist, innerhalb einer Diskursgemeinschaft wissensbe‐ zogene Aussagen zu treffen, etwa zur Frage, welche Nebenwirkungen genmodifizierte Lebensmittel wann haben oder nicht haben. Das erfolgt in einem regelgeleiteten System des Herstellens und Verhandelns von Positionen, für dessen Teilhabe eher alltagsfernes Spezialwissen nötig Warum ist ausgerechnet die Wissenschaft anfällig für Desinformationskampagnen? 35 <?page no="36"?> ist. Von außen (d.h. vor allem von Laienpersonen aus) betrachtet besteht hierin eine doppelte Herausforderung: Einerseits ist dieser Diskurs mit dem Ziel einer Konsensfindung in der Gruppe der beteiligten Expert: innen und Disziplinen schwer verständlich. Gleichzeitig sind, an‐ dererseits, Gesellschaften und ihre Mitglieder aber von der Wissenschaft epistemisch abhängig. Diese besondere Machtkonstellation lässt sich relativ leicht in ein Feindbild von Eliten umdeuten und missbrauchen, in diesem Fall einer vermeintlichen Wissenschaftselite. ■ Wissenschaftlichen Erkenntnissen wohnt dauerhaft eine Unsicherheit inne. Erschwerend zu den sozialen Prozessen der Wissensherstellung und deren Eigenheiten kommt hinzu, dass wissenschaftliche Wissenspro‐ duktion ein permanenter Prozess ist, der neue Positionen, Erkenntnisse, Methoden, Diskurse etc. hervorbringt. Mit anderen Worten: Wissen ist im Lichte der Wissenschaft prinzipiell nicht abgeschlossen, sondern per se provisorisch. Das Wissen bspw. über die Gefährlichkeit und Ungefährlichkeit genmodifizierter Nahrung wird darum immer wieder justiert und teils auch anders behandelt und beurteilt. Diese Fluidität beim Wissen ist wiederum ein Einfallstor für alle, die sich einfache und unveränderliche Antworten von der Wissenschaft erhoffen. Darum ist der in der Sache verständlich wirkende, aber oftmals den Kern von Wissenschaftlichkeit verfehlende Anspruch an Eindeutigkeit eine weitere Schwachstelle und damit ein Angriffspunkt. Es sind demnach komplexitätsbezogene Merkmale der Wissenschaft, die für Missbrauch und bewusstes Missverstehen Achillesfersen darstellen. Hinzu kommt, dass bei vielen Sachverhalten aufgrund der fortlaufenden und andauernden Wissensproduktion Grenzziehungen zwischen Information und Desinformation nicht ohne weiteres möglich sind. Darum gibt es Vorschläge, die Beurteilung von Aussagen als Information bzw. Wissen vs. Desinformation resp. kein Wissen an zwei Kategorien in der Wissenschaftskommunikation festzumachen: einerseits an der Konsensfähig‐ keit zwischen Personen mit erkennbarer Expertise und andererseits an den Belegen in ihrer Zahl, Plausibilität, Kohärenz, Genese etc. (Vraga & Bode, 2020). Damit ist auch eine Möglichkeit benannt, bei der Einschätzung von Aussagen Kriterien zu nutzen und der Öffentlichkeit zu liefern. Das behebt zwar grund‐ sätzlich nicht das Risiko missbräuchlicher Darstellungen, schafft allerdings Transparenz für Wissenschaftsthemen und eine Basis für eine angemessene Verständigung über die Grenzen des Wissenschaftssystems hinweg. 36 Negative Effekte: welche Schäden Des- und Falschinformationen anrichten <?page no="37"?> Was ist der politische Schaden von Desinformationen (in sozialen Medien)? Sind soziale Medien, also Plattformen im Internet, in denen Personen mit ihrem persönlich kreierten Inhalt untereinander interagieren (van Bavel, Robertson, et al., 2024), besonders anfällig für ungünstige Dynamiken, die Demokratien schädigen? Die Antwort darauf ist weder ein klares Ja noch ein absolutes Nein, denn nachweislich wirken soziale Medien positiv und negativ, wie es eine Auswertung von fast 500 wissenschaftlichen Artikeln zeigte (Lorenz-Spreen et al., 2023). Zu den positiven Effekten zählen: politi‐ sche Partizipation sowie Ausdruck politischer Meinungen und Haltungen. Negative Zusammenhänge werden angenommen beim Verlust an Vertrauen in Medien und Regierungen, der Zunahme an Populismus und Hass sowie Spaltungen in der Gesellschaft. Von reinweg negativen Effekten und den sozialen Medien als einem Sündenbock kann demnach keine Rede sein. Und doch: Die Schäden von Falsch- und Desinformationen werden im Bereich der Politik im Licht der soeben skizzierten Forschungen berechtigt angenommen, aber nicht immer im Sinne von direkten, unterkomplexen Effekten, sondern eher in der Art, wie moralisch aufgeladene Debatten zu Einstellungsveränderungen führen (van Bavel, Robertson, et al., 2024), die vor allem unter dem Stichwort der politischen Polarisierung behandelt werden. Politische Polarisierung Politische Polarisierung bezeichnet eine größer werdende Distanz und Entfremdung zwischen Personen mit unterschiedlicher politischer Weltanschauung. Zwei Formen werden unterschieden. Die erste, die ideologische Polarisierung, bezeichnet die zunehmende Divergenz der politischen Meinungen, Überzeugungen, Einstellungen und Haltungen der politischen Gegner: innen. Die zweite Variante, die affektive Polari‐ sierung, fokussiert auf die Ablehnung bzw. Wärme gegenüber Personen, die gemessen an der eigenen politischen Identität als (nicht) verbündet wahrgenommen werden (Kubin & von Sikorski, 2021). Die Funktionsweise der sozialen Medien hinsichtlich der Polarisierung wird kontrovers betrachtet, wenngleich es diverse empirische Belege dafür gibt (Kubin & von Sikorski, 2021). Es sind in aller Regel nicht Falschin‐ formationen allein, die als Auslöser erachtet werden. Vielmehr werden Was ist der politische Schaden von Desinformationen (in sozialen Medien)? 37 <?page no="38"?> die zielgruppengenauen - d.h. an sich mit einer politischen Gruppe iden‐ tifizierenden Personen gerichteten - algorithmusbasierten Ausspielungen von emotionalen und die politische Identität der eigenen Gruppe betref‐ fenden Inhalten verantwortlich gemacht (van Bavel, Rathje, et al., 2021). Anders formuliert: Für die Polarisierung werden weltsichtbestätigende bzw. im Negativfall gezielt die Weltsicht herausfordernde Inhalte wie bspw. Falschinformationen verantwortlich gemacht. Gleichwohl wird zusätzlich angenommen, dass diese Funktionsweise der sozialen Medien ein Einfallstor für gezielte, subtile Desinformationskampagnen von politisch extremen Parteien und/ oder ausländischen Destabilisierungsorganisationen darstellt (Bennett & Livingston, 2018; Kozyreva et al., 2020). Die leicht moralisch auf‐ ladbare Interaktion von Personen in sozialen Medien ist damit vulnerabel für Polarisierung, die wiederum Gesellschaften destabilisieren können. Das gilt umso mehr, als ausgerechnet im Bereich politisch konservativ eingestellter Personengruppen die empirischen Effekte unerfreulich konsistent belegt worden sind (s. S.-94). Desinformationen, soziale Medien und negative Effekte im Bereich der Politik sind nach allem, was gegenwärtig bekannt ist, ein dokumentiertes, komplexes Phänomen. Mehrere Logiken des generellen Funktionierens von sozialen Medien, zumal jenen von Tech-Konzernen geführten, sowie des Verarbeitens von Informationen im Allgemeinen bzw. des zielgerichteten Denkens von Personen im Besonderen bilden einen Nährboden für vorsätzlich oder fahrlässig herbeigeführte Effekte von Falsch- und Desinformationen. 38 Negative Effekte: welche Schäden Des- und Falschinformationen anrichten <?page no="39"?> Leistungen: wie (kompetentes) Leseverstehen funktioniert Desinformationen funktionieren unter anderem deshalb, weil sie über Leseverstehensprozesse handlungsleitend werden bzw. ins Gedächtnis von Personen Einzug halten. Für ein besseres Verständnis des Themen‐ komplexes Des- und Falschinformation ist es daher notwendig, generell zu klären, wie man aus externen Repräsentationen (Texten, auch multi‐ modalen) eine internale Repräsentation aufbaut. Bereits mit Blick auf die Verarbeitung von inhaltlich falschen Informationen setzt dieses Kapitel selektiv einige Akzente insofern, als quellenbezogene Merkmale und kognitive Ressourcen der lesenden Person behandelt werden. <?page no="40"?> Was ist Leseverstehen? Medial vermittelte Kommunikation über Symbolsysteme wie die Schrift (aber auch visuelle und auditive Elemente) erfolgt mit der Absicht, dass bei einer rezipierenden Person eine Wirkung erzielt werden soll. Im Falle des Lesens bzw. des verstehenden Lesens ist jenseits persuasiver, die Ein‐ stellungen oder das Verhalten verändern wollender Absichten zunächst das Verstehen der Aussagen in längeren oder kürzeren abgeschlossenen Einheiten anzuführen. Leseverstehen Leseverstehen ist der aktive Aufbau einer inhaltlich angemessenen Repräsentation innerhalb des Gedächtnisses einer lesenden Person, die auf externen textuellen Informationen basiert und einer kognitiven Transformation der lesenden Person bedarf. Der Grad der Transforma‐ tion mittels eigener kognitiver Ressourcen entscheidet darüber, wie umfassend das Leseverstehen ist (McNamara & Magliano, 2009). Leseverstehen wird auf der einen Seite als Verbund komplex interagieren‐ der, teils automatisch ablaufender, teils bewusst steuerbarer Teilprozesse modelliert und beschrieben, man kann also Leseverstehen als Prozess betrachten. Auf der anderen Seite wird das Produkt als Folge der gelingenden Prozesse fokussiert. In dieser Produktperspektive, die auch großen Bildungs‐ monitoringstudien wie der Internationalen Grundschul-Lese-Untersuchung (IGLU), dem Programme for International Student Assessment (PISA) und den Vergleichsarbeiten (VERA) in Deutschland zugrunde liegt, geht es um das Erreichen von psycholinguistisch definierten Leseverstehensleistungen, die als Kompetenzstufen beschrieben werden. Mit Blick auf die Produkte wird Leseverstehen danach unterschieden, inwieweit es Leser: innen gelingt, ■ sich von der wortwörtlichen Abfolge von Wörtern zu lösen und eine Differenzierung von zentraleren gegenüber peripheren Informations‐ einheiten vorzunehmen oder sogar umfassende Relationen zwischen Informationen aus Texten aufgrund eigener Vorwissensbestände zu erkennen, sodass umfassende, kohärente mentale Modelle entstehen; 40 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="41"?> ■ nicht nur explizit gegebene Aussagen in Texten zu identifizieren, son‐ dern auch indirekte, also implizite Bezüge über Schlussfolgerungen (Inferenzen) herzustellen - damit geht einher, dass sich teils die Menge an Text dadurch erhöht und so mitunter auch die Entfernung zwischen den Informationen, die man kombiniert; ■ Informationen nicht nur zu erkennen, sondern sie überdies zu beurtei‐ len, wobei sich diese Urteile auf mehreres beziehen: auf Darstellungsstrategien (s. S. 132), Rhetorik, Plausibilität, Verzerrtheit und Eignung in der Sache sowie Nützlichkeit mit Blick auf ein Leseziel; ■ Aussagen in einem Kontext zu beurteilen, also als eine Kombination von Text und einer Person bzw. Institution als Urheberin dieser Aussage, bzw. als Teil von Diskursen, meistens bei multiplen Dokumenten (s. S.-48). Aus dieser Aufzählung wird deutlich, dass sich diverse Leistungen im verstehenden Lesen verbergen, die teils voraussetzungsreich sind und al‐ lein deshalb nicht von allen Personen im gleichen Maß erbracht werden (können). Solche Fähigkeiten implizieren, dass Verstehen vor allem auf den Nachvollzug wahrer Aussagen in einzelnen Texten abzielt, und wer‐ den durch die sich verändernden Anforderungen im (digitalen) Lesealltag zunehmend herausgefordert. Nunmehr geht man deshalb davon aus, dass sich mehr und vor allem mehr kognitiv anspruchsvolle Fähigkeiten in das Ensemble alltagsnotwendiger Lesekompetenzen einfügen (Alexander et al., 2012). Was beeinflusst das Leseverstehen? Leseverstehen ist keine reine Extraktion von feststehender Bedeutung aus Texten, die auf immer gleiche Weise von allen Leser: innen mit dem gleichen Resultat erfolgt. Die Leseforschung hat in zunehmend differenzierender Perspektive ihren Gegenstand erweitert und um die kognitiven Prozesse, die in der lesenden Person bei der Konstruktion von textbasierter Bedeutung elementar sind, weitere Merkmale gruppiert. Ein Beispiel hierfür ist das auf einer Synthese verschiedener Modelle basierende Modell, das in Abb. 3 dargestellt ist. Dieses Modell ist darum so lehrreich, weil es die Kohärenz‐ bildungsprozesse ins Zentrum stellt, diese jedoch als beeinflussbar durch diverse Merkmale der zu lesenden Texte, der (kognitiven) Eigenschaften von Leser: innen sowie dem Zweck der Aufgabe und den sich aus alldem Was beeinflusst das Leseverstehen? 41 <?page no="42"?> speisenden angestrebten Verstehenszielen (Kohärenzstandards) annimmt. Dadurch werden die Kohärenzbildungsprozesse und deren Ergebnisse - das Erkennen von Sinnstrukturen und darauf aufbauend angereicherte mentale Vorstellungen der Textinhalte - als hochdynamisch und variabel modelliert. Abb. 3: Faktoren und Prozesse bei der Konstruktion einer kohärenten mentalen Repräsen‐ tation (Quelle: leicht modifizierte Darstellung gemäß van den Broek & Kendeou, 2022, S.-241) Als günstig für das Leseverstehen gelten nach aktuellem Kenntnisstand: ■ ein hohes inhaltliches Vorwissen; ■ ein hochgradig automatisiertes und gleichwohl genaues Dekodieren; ■ umfassende Fähigkeiten, Informationen sinnvoll und widerspruchsarm (kohärent) schlussfolgernd zu verknüpfen (= Inferenzbildungsfähigkeit); ■ adäquat hohe Kohärenzstandards, sprich dem Leseziel angemessene Soll- Vorstellungen zur angestrebten Leseverstehensleistung; ■ ein ausreichend breites Spektrum an verschiedenen Lesestrategien, also selbstregulierten Problemlöseprozessen zusätzlich zur Verarbeitung von Informationen; ■ die Fähigkeit, Informationen zu analysieren und kritisch einzuschätzen, also vernunftbasiertes Denken; 42 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="43"?> ■ ausreichend entwickelte exekutive Funktionen und metakognitive Selbstregulationsfähigkeiten (zusammengefasst unter dem Stichwort kognitive Fähigkeiten). Diese individuellen Merkmale sind an dieser Stelle besonders hervorzuhe‐ ben. Sie bilden nämlich sowohl für die gelingenden als auch misslingenden Verstehensprozesse beim Lesen einen wichtigen Kristallisationspunkt der Erklärungsversuche sowohl von Unterschieden (s. S. 85) als auch von Gegenmaßnahmen bei Falsch- und Desinformationen (s. S.-105). Was ist epistemisch wachsames Lesen? Lesekompetenz wird zunehmend als eine Fähigkeit betrachtet, zumal beim Lesen im Internet, die hohe Anforderungen an Leser: innen stellt, epistemisch unsichere Informationen einzuschätzen (Philipp, 2025a). Mit „epistemisch unsicheren Informationen“ sind solche Aussagen gemeint, die nicht eindeutig und klar wahr oder falsch sind, sondern einer angemesse‐ nen Einschätzung seitens der lesenden Person bedürfen. Dadurch stellt die Leserin bzw. der Leser sicher, nur hinreichend geprüfte Aussagen weiter‐ zuverwenden, um mentale Modelle aufzubauen. Das steht im Zentrum des Konzepts „epistemisch wachsamen Lesens“ (s. Abb. 4). Ein derartiges Lesen geht über das reine Verstehen von (digitalen) Dokumenten heraus. Es ist ein selbstreguliertes und damit flexibles Vorgehen, bei dem idea‐ lerweise adaptive Evaluationen erfolgen. In dessen Kern befinden sich Lesestrategien. Lesestrategien des epistemisch wachsamen Lesens Lesestrategien des epistemisch wachsamen Lesens bezeichnen zielbe‐ zogene Aktivitäten der lesenden Person, um die Inhalte und darstel‐ lerischen Bestandteile von Texten zum einen und die Merkmale der Quellen von Aussagen zum anderen besser einschätzen zu können. Insbesondere bei epistemisch unsicheren Informationen sind solche evaluativen Strategien nötig (Philipp, 2023). Was ist epistemisch wachsames Lesen? 43 <?page no="44"?> Abb. 4: Überblick über das epistemisch wachsame Lesen als Dachkonstrukt mit darunter liegender metakognitiver Selbstregulation und vier kognitiven Lesestrategien (Quelle: Philipp, 2023, S.-7) Das Entscheidende an der Sammlung der Strategien des epistemisch wach‐ samen Lesens ist der Katalog an Handlungsoptionen, welche Personen selbstregulativ steuern. Wer sich mit einer Aussage einer Politikerin über das angebliche Erfordernis von ‚Remigration‘ konfrontiert sieht, kann den Wunsch verspüren, im Sinne einer epistemischen Validierung die Plausibilität zu eruieren: Ist die Konsequenz massenhafter Abschiebung eine angemes‐ sene Reaktion und als solche logisch zwingend bzw. überhaupt ableitbar aus den Aussagen? Die Person kann sich auch kontextualisierend fragen: Sind in der Aussage selbst faschistische oder rassistische Denkfiguren zu erkennen oder werden gezielt emotionalisierende Elemente benutzt? In diesen Fällen würde sie eine Einschätzung aus erster Hand vornehmen (Braasch & Scharrer, 2020), also mit ihrem Vorwissen, ihren Überzeugungen und den in den Dokumenten enthaltenen Aussagen eine analytische Gültigkeitsevaluation des Inhalts vornehmen. 44 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="45"?> Bei epistemisch unsicheren Informationen ist eine derartige direkte Gültig‐ keitsbeurteilung nicht immer ohne weiteres möglich. Darum sind Strategien zur indirekten Gültigkeitsbeurteilung als Zweite-Hand-Einschätzung eine wei‐ tere Option (Braasch & Scharrer, 2020). Hier weichen Personen auf das Sourcing aus (Welche quellenbezogenen Metadaten helfen bei der Interpretation der Intention und der Qualifikation bzw. der Motiv-Einschätzung, wenn es um das Thema Remigration geht? ) oder vergleichen Aussagen aus verschiedenen Dokumenten. Dieses Corroboration genannte Vorgehen dient dazu, die Glaub‐ würdigkeit von Aussagen über die Übereinstimmung zwischen verschiedenen Dokumenten festzustellen (indem jemand prüft, wer sich wie über Remigration geäußert hat und welche Konnotation dieser Begriff hat). Auf den Erste- und Zweite-Hand-Einschätzungen, die sich dynamisch treffen lassen (s. z.B. beim lateralen Lesen, s. S. 121), basieren dann Entschei‐ dungen der lesenden Person, welche Glaubhaftigkeit sie Aussagen einräumt. In exakt dieser Klärung mittels verschiedener Strategien liegen Kern und Zweck des epistemisch wachsamen Lesens. Wie gehen Personen mit widersprüchlichen Aussagen um? Widersprüche, divergierende Perspektiven und Kontroversen sind beim Lesen im Internet erwartbare Phänomene. Hierin liegt das Hauptaufgaben‐ gebiet eines Ausschnitts der Leseforschung, nämlich jener zur „Multiple Documents Literacy“, die sich der Hauptfrage verschrieben hat, wie es Perso‐ nen glückt, angemessene Repräsentationen von Sachverhalten aufzubauen, die in mehr als einem Text, nämlich in mehreren Dokumenten, beschrieben sind. Entscheidend ist also, dass es multiple Dokumente sind und dass mit dem Ausdruck „Dokument“ eine Kombination aus textuellen (= Inhalte) und quellenbezogenen (= Metadaten) Informationen als Gesamteinheit gemeint ist (Bråten & Braasch, 2018). Wenn jemand zu einem neuen Phänomen wie einem bewaffneten Konflikt zweier politisch verfeindeter Gruppen im Internet recherchiert, ist davon auszugehen, dass es widersprüchliche Aussagen geben wird. Der Aufbau von mentalen Repräsentationen auf dieser widersprüchlichen Basis vollzieht sich über das sogenannte „Updating“ (Richter & Singer, 2017). Dieser Prozess meint im Allgemeinen, dass Leser: innen neue Informationen bei mentalen Repräsen‐ tationen dazu nutzen, die Struktur der im Arbeits- und Langzeitgedächtnis aktivierten Inhalte kohärent anzupassen, wobei jede neue Information poten‐ Wie gehen Personen mit widersprüchlichen Aussagen um? 45 <?page no="46"?> ziell solche Aktualisierungen nach sich ziehen kann. Inkohärente Aussagen im Besonderen führen zum Updating im Sinne einer Korrektur der Inkonsistenz oder einer Klärung der widersprüchlichen Aussagen. Solche Korrekturen sind allerdings aus verschiedenen kognitionspsychologischen Gründen nicht immer realistisch erwartbar, insbesondere wenn es darum geht, Falsch- oder Desinformationen im Gedächtnis dauerhaft zu korrigieren. Allerdings gibt es Varianten wie Widerlegungstexte, die dazu imstande sind (Danielson et al., 2025, s. S.-124). Doch wie können Personen zunächst die mentalen Repräsentationen bei konfligierenden (sich widersprechenden) Aussagen aktualisieren? Dies ver‐ deutlicht das Phasenmodell in Abb. 5, das in der Tradition von Forschungs‐ arbeiten zum Verstehen von Laienpersonen steht (Braasch & Scharrer, 2020). Abb. 5: Kognitive Prozesse beim Verstehen konfligierender Inhalte (Quelle: modifizierte Darstellung von Braasch & Scharrer, 2020, S.-209) 46 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="47"?> Wenn Personen Widersprüche verarbeiten, haben sie mehrere Optionen, die alle eint, dass die Widersprüchlichkeit überhaupt erst einmal erkannt wurde und dass die sich widersprechenden Inhalte als kognitiver Konflikt im Arbeitsgedächtnis gemeinsam der weiteren Verarbeitung zur Verfügung stehen (s. Phase 1 in Abb. 5). In dem Bemühen, Kohärenz herzustellen, stehen ab der folgenden zwei‐ ten Phase dann mehrere Optionen zur Verfügung. Eher ungünstig ist es, wenn Leser: innen den Dissens auf interne Faktoren zurückführen und ihn als Verstehensproblem erachten, welches sie mit Ignorieren, unzulässigen inhaltlichen Umdeutungen oder dem Konstruieren von falschem Verstehen zu beheben versuchen. Derartige Vorgehensweisen sind dysfunktional, weil sie zu unvollständigen oder verzerrten Repräsentationen führen. Angemessener sind hingegen die Vorgehensweisen, welche den Dissens als objektiv gegeben anerkennen und den Widerspruch aufrechterhalten, ihn aber mittels Sourcing auf die Quellen der Aussagen zurückführen (s. S. 48). Der Versuch, die Widersprüche erklärbar zu machen, kann dann auf zweierlei Weisen erfolgen, die einander nicht ausschließen. Zum einen können die Leser: innen Merkmale der Quelle wie ihre Expertise oder ihr Wohlwollen als Erklärung bemühen, also etwa Parteizugehörigkeiten und daraus resultierende diskrepante Darstellungen von ideologisch überform‐ ten Sachverhalten. Dies wird unter „sozialen Gründen“ verstanden. Zum anderen sind „epistemische Gründe“ benennbar, welche die intertextuellen Konflikte als Folge der Vielschichtigkeit und Komplexität des Sachverhalts erachten, was zum Beispiel in der Wissenschaft ein ganz typisches Phäno‐ men ist (s. S. 35), etwa wenn es darum geht, Gegenstände in ihrer inhärenten Logik zu verstehen, z.B. die Effekte stark verarbeiteter Lebensmittel auf die menschliche Gesundheit. Die dritte Phase betrifft die Auflösung des Konflikts. Hier entscheiden Personen aufgrund von Analysen der jeweiligen Inhalte bzw. deren Quellen, welche Aussagen sie für glaubwürdiger halten. Dies entspricht den Erste- und Zweite-Hand-Einschätzungen, die im vorherigen Kapitel behandelt wurden. Welche Quelle die bessere inhaltliche Argumentation und die neutralere Darstellung enthält, wessen Informationen einschlägiger wirken und wem Personen die höhere fachliche Expertise attestieren, all dies beeinflusst das Urteil der Leser: innen (Philipp, 2025c). Wie gehen Personen mit widersprüchlichen Aussagen um? 47 <?page no="48"?> Lesetipp Einen gut lesbaren Überblick über Modelle zum Umgang mit inkonsis‐ tenten Informationen gibt dieser Beitrag, der das Forschungsfeld ange‐ nehm strukturiert und in einen Ausschnitt der „Multiple Documents Literacy“ einführt: Saux, G., Britt, M. A., Vibert, N. & Rouet, J.-F. (2021). Building Mental Models from Multiple Texts: How Readers Construct Coherence from Inconsistent Sources. Language and Linguistics Compass, 15(3), Artikel e12409. Warum ist Sourcing so bedeutend für das (digitale) Lesen? Geht man bei Desinformationen davon aus, dass sie mit einer schädigen‐ den Absicht verbreitet wurden (s. S. 19), so stellt sich die Frage, wer dahintersteckt und welche Absicht die Person hegt. Das sind Fragen, die zum Kernbereich eines Prozesses namens Sourcing gehören, der sich vom englischen Wort „source“ für Quelle ableitet und auf Informationen zur Quelle von Aussagen (Metadaten) abzielt. Sourcing Unter Sourcing versteht man das Beachten, das Beurteilen und das Nutzen von verfügbaren oder zugänglichen Informationen über die Quellen von Dokumenten (Metadaten), meist in Verbindung mit den inhaltlichen Aussagen. Das Sourcing erfüllt für den Umgang mit (digita‐ len) Informationsangeboten verschiedene wichtige Funktionen (Bråten et al., 2017). In der Leseforschung sind aktuell drei Funktionen des Sourcings besonders deutlich in der Theorie bearbeitet und teils empirisch erforscht worden (Philipp, 2023), dabei sind die letzten beiden in der folgenden Liste stark mit der evaluativen Komponente des Sourcings verknüpft, die erste eher mit dem Verbinden von Metadaten und Inhalt: 48 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="49"?> 1. Sourcing ist ein Mechanismus, um widersprüchliche Inhalte trotz vorhan‐ dener Kohärenzproblemen in eine kohärente mentale Repräsentation zu überführen. Eine kaum zu vermeidende Auffälligkeit des Lesens im Internet besteht in abweichenden Positionen zu Sachverhalten. Wer sich bspw. über die Ursachen von körperlichen Beschwerden, den menschen‐ gemachten Klimawandel, das Impfen, Ursachen für politische Konflikte und dergleichen mehr zu informieren versucht, wird unausweichlich auf Dissens stoßen. Um zunächst nachzuvollziehen, was die strittigen Punkte sind, helfen intertextuelles Verstehen und Corroboration (s. S. 43). Ein Aufbau kohärenter Repräsentationen angesichts inkohärenter Aussagen (z.B. fundamental andere Einschätzung der Migrationspolitik) ist über das Sourcing dann möglich, wenn Personen den Widerspruch auf die Quellen (etwa Mitglieder aus verschiedenen politischen Parteien von unterschiedlichen Spektrumsenden) zurückführen und ggf. noch (über die weltanschauliche Perspektive und die politische Agenda) zu begründen imstande sind. In diesem Falle werden die Metadaten dazu verwendet, inhaltliche Aussagen anzureichern und zu interpretieren. Man löst also den Konflikt und den Dissens nicht auf, kann ihn aber bes‐ ser verstehen. Entscheidend ist hierfür, dass das gemeinsame Betrachten von Quellen, ihrem Bezug untereinander und ihren Inhalten Bestandteil der umfassenden mentalen Repräsentation ist. 2. Sourcing hilft dabei, anhand der quellenbezogenen Informationen begrün‐ dete und begründbare Gewichtungen zur (Nicht-)Nutzung von Dokumen‐ ten und Aussagen vorzunehmen. Angefangen bei der Recherche über das Lesen von Texten oder Betrachten von Videos bis hin zum Tref‐ fen von Entscheidungen auf der Basis von digitalen Informationen - bei alldem können Metadaten dabei helfen, bei Unsicherheiten zur inhaltlichen Belastbarkeit von Aussagen begründete Urteile zu fällen. Wenn sich Personen über die angebliche Nebenwirkungsfreiheit des Vapings informieren wollen, weil sie sich überlegen, von Zigaretten auf Vapes umzusteigen oder mit dem Rauchen ganz aufzuhören, werden sie mutmaßlich auf sehr unterschiedliche Aussagen stoßen. Wenn sie systematisch prüfen, welche Art von Ärzt: innen und Institutionen sich mit welcher Art von Forschungsfinanzierung zu Wort melden und wo diese Studien publiziert worden sind, können diese Metadaten dabei hel‐ fen, übergeordnete Vertrauenswürdigkeitsurteile zu treffen, um dadurch Aussagen, Informationsquellen und ganze Dokumente gezielt (nicht) zu verwenden (s. S.-45). Warum ist Sourcing so bedeutend für das (digitale) Lesen? 49 <?page no="50"?> 3. Sourcing ermöglicht unter bestimmten Bedingungen unterstützend die Überwindung eigener überzeugungsbedingter verzerrter mentaler Reprä‐ sentationen. Dies ist ein Spezialfall, bei dem eigene Überzeugungen zu einem Thema einem vollständigen Verstehen zunächst entgegenstehen (s. S. 98). Entgegengewirkt werden kann dem mit externen Faktoren wie komplexen Aufträgen mit Fokus auf Ausgewogenheit, also der balancierten Berücksichtigung von Positionen (z.B. widersprüchlichen Informationen zu sowohl positiven als auch negativen Effekten von UV- Strahlung). Interne Prozesse sind ein Korrektiv, etwa das Anerkennen der über mehrere Dokumente hinweg übereinstimmenden, aber der eigenen Überzeugung widersprechenden wissenschaftlichen Evidenz zur Unwirksamkeit von homöopathischer Behandlung von Krankhei‐ ten. In solchen Fällen ist es wichtig, dass die Quellen der Aussagen als kompetente, wohlwollende und integre epistemische Autoritäten wahrgenommen werden, um eine im Kern persuasive Wirkung zu unterstützen und zu erzielen (s. S.-55). Was für eine Rolle spielen Vertrauen und Vertrauenswürdigkeit beim (Lese-)Verstehen? Fake News und handwerklich professionell produzierte Desinformationen täuschen die Adressat: innen - auch und nicht zuletzt, indem sie eine gewisse Glaubwürdigkeit dadurch erzielen, dass sie über ihre Machart Vertrauen missbrauchen. Das rückt das bereits im Zusammenhang mit dem Sourcing aufgekommene Thema der vertrauenswürdigen Kommunikation in den Blick (s. S. 45 und 48). Leseverstehen setzt dieses Vertrauen oftmals implizit voraus bzw. wirft die Frage nicht auf, ob die lesende Person dem Text und dessen Urheber: in vertraut. Die bildet einen denkwürdig blinden Fleck in bestehenden traditionellen Theorien und Modellen des Lesens (Bråten et al., 2017), was sich inzwischen deutlich zu ändern beginnt (Philipp, 2023). Doch was ist mit „Vertrauen“ eigentlich gemeint? 50 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="51"?> Vertrauen Vertrauen ist die einseitige, freiwillige und damit risikobehaftete Ab‐ hängigkeit von Vertrauensgeber: innen von den Handlungen der Ver‐ trauensnehmer: innen. Die Vertrauensentscheidung beruht auf der zu‐ geschriebenen Vertrauenswürdigkeit der Vertrauensnehmer: innen. Das Urteil über die Vertrauenswürdigkeit erfolgt mehrdimensional (Bromme & Hendriks, 2024). Eng verknüpft mit dem Vertrauen ist die Vertrauenswürdigkeit, eine Be‐ grifflichkeit, die in der Leseforschung nicht immer trennscharf von der Glaubwürdigkeit in Gebrauch ist. Die für dieses Buchs relevante arbeitsdefi‐ nitorische Abgrenzung lautet: Während die Glaubwürdigkeit die inhaltliche Korrektheit betrifft und damit Fragen, wie abgesichert die unterstellte Wahrheit der Aussage ist, ist Vertrauenswürdigkeit eine quellenbezogene Einschätzung. Hierfür sind verschiedene Merkmale der Quelle dafür ent‐ scheidend, wie sich Personen darauf einlassen, eine informatorische Ab‐ hängigkeit von der Quelle einzugehen (Lombardi et al., 2016). Im Kontext des digitalen Lesens ist die Einschätzung von Vertrauenswürdigkeit ein an Bedeutung zunehmendes Feld der Forschung. Das liegt v.a. daran, dass Sourcing mittlerweile als zentraler Bestandteil des Leseprozesses betrachtet wird (Bråten et al., 2017, s. S.-48). Empirisch belegt ist, dass Personen beim Beurteilen von Aussagen und Dokumenten ihre Urteile auf mehrere Bezugspunkte stützen, was sich mit theoretischen Überlegungen zu den Dimensionen der Vertrauenswürdigkeit erklären lässt (Philipp, 2025c). Ausgehend von der Expert: innen-Laienper‐ sonen-Kommunikation lassen sich drei Dimensionen extrahieren: ■ Expertise ist das Ausmaß an Wissen und Fähigkeiten der Quelle in dem jeweiligen Fachgebiet. Haben Personen, Institutionen oder auch größere Aggregate (wie z.B. Systeme wie Wissenschaftsdisziplinen) aus Sicht der beurteilenden Person die nötige Kompetenz, um sich qualifiziert äußern zu können, erhöht das die Vertrauenswürdigkeit. Merkmale wie Berufserfahrung oder auch formale Abschlüsse gelten hier als Indikatoren. ■ Integrität meint, dass die Aussagen nach den gültigen Regeln der jewei‐ ligen Fachgebiete und der darin als state of the art geltenden Prozedu‐ ren hergestellt wurden, um so als Wissen gelten zu können. Selbiges Was für eine Rolle spielen Vertrauen und Vertrauenswürdigkeit beim (Lese-)Verstehen? 51 <?page no="52"?> lässt sich auch für die redaktionelle Bereitstellung bei journalistischen Kommunikaten benennen. Die Zugehörigkeit zu etablierten (neutralen) Institutionen und der Erscheinungskontext von Aussagen in Qualitäts- oder anerkannten Fachmedien sind Hinweise auf Integrität. Ähnliches gilt dafür, wenn die Genese von Aussagen transparent genug gemacht wird. ■ Wohlwollen ist ein weiterer Faktor mit einer sozialen Komponente. Die nicht-schädigende Absicht (darunter etwa, dass jemand nicht wie bei echter Desinformation täuscht oder irreführen will, s. S. 19) kann sowohl neutral gewertet als auch positiv honoriert werden. Demgegenüber kann die Einschätzung, dass bspw. Institutionen mit eigennützigen Interessen Medien oder Quellen finanzieren (Auftragsforschung oder politisch agierende ‚alternative Medien‘), zu einer Diskreditierung der Vertrauenswürdigkeit führen. Vertrauenswürdigkeit ist demnach eine Einschätzung, die als Annäherung dabei hilft, Vertrauen zu einer Quelle zu fassen oder davon Abstand zu nehmen. Es handelt sich um einen offenen Prozess, bei dem Personen analy‐ tisch und heuristisch gleichermaßen vorgehen können; empirisch zeigt sich immer wieder, dass diese Einschätzungen von inhaltlichen Urteilen flankiert werden, die mitunter (und nicht immer zurecht) das größere Gewicht für Vertrauenswürdigkeitsurteile haben (Philipp, 2025c). Für das Leseverstehen und das kompetente Lesen ist die Zuweisung von Vertrauenswürdigkeit inzwischen zu einer wichtigen Fähigkeit avanciert (s. S.-48). Wie lässt sich Vertrauen als Prozess verstehen? Vertrauen ist ein komplexes Konstrukt. Es ist nötig für die Zuschreibung von Glaubwürdigkeit einer Aussage - die Quelle muss als vertrauenswürdig eingeschätzt werden. Aus sozialpsychologischer und medienwissenschaft‐ licher Forschungssicht erfreut sich der Gegenstand Vertrauen einer längeren Zuwendung. Für die Zwecke dieses Buchs ist eine Bündelung verschiedener Theorien hilfreich (Blöbaum, 2021). Dabei werden die vertrauende Person (Vertrauensgeber: in) sowie die Vertrauen empfangende Person/ Organisa‐ tion/ Institution bzw. das System (Vertrauensnehmer: in), der sie beide ver‐ bindende Prozess des Vertrauens (mitsamt seinem Ziel, der Entscheidung zu vertrauen, entsprechend zu agieren und die Handlungen zu prüfen) und ein umgebendes Setting (eine konkrete Situation und ein rahmender größerer 52 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="53"?> Kontext) als Konstituenten betrachtet (Blöbaum, 2021). Diese Synopse ist als grafische Darstellung Gegenstand von Abb. 6. Abb. 6: Modell der Konstituenten und des Prozesses von Vertrauen (Quelle: übersetzte und modifizierte Darstellung von Blöbaum, 2021, S.-20) Die Merkmale der vertrauensgebenden Person lassen sich auf verschiedene personenbezogene Eigenschaften, darunter allgemeine soziodemografische und sozialisatorische Eigenheiten, aber auch vertrauensnähere Merkmale wie die Risikobereitschaft und die Vertrauensneigung engführen. Hinzu kommen das Wissen über die Situation und die Erfahrungen, die bereits unmittelbar (Primärerfahrungen mit einer Nachrichtenquelle) oder stellver‐ tretend über andere mittelbar (Sekundärerfahrung, z.B. Erfahrungsberichte Wie lässt sich Vertrauen als Prozess verstehen? 53 <?page no="54"?> über die Inhalte von Bezahlschrankenmedien im Freundeskreis) sein kön‐ nen. Bereits zu den Wahrnehmungen und Beurteilungen innerhalb der Person selbst zählen Merkmale wie die sozialen und kulturellen Merkmale, die für eine Person als maßgeblich gelten, wenn sie bspw. Wissen über natio‐ nale Mediensysteme hat und freie Presse oder staatliche Zensur unterstellt. Mit Kompetenz, Wohlwollen und Integrität sind zentrale Konstituenten der Vertrauenswürdigkeitsurteile bzw. der Wahrnehmungen seitens der vertrauensgebenden Person angesprochen. Je mehr Fähigkeiten sie der vertrauensnehmenden Partei zuschreibt (Kompetenz: Kann sich jemand zu den Wirkungen von „Ewigkeitschemikalien“ per- und polyfluorierte Alkyl‐ verbindungen, PFAS, in einem Nachrichtenbeitrag äußern? ), je kongruenter sie in Bezug auf eigene Ziele erlebt wird (Wohlwollen: Ist die Person von der chemischen Industrie finanziert und damit befangen? ) und je stärker sie Wertvorstellungen entspricht bzw. je kohärenter ihre (kommunikativen) Handlungen sind (Integrität: Hat die Person sich in der Vergangenheit konsistent zum Gegenstand PFAS geäußert? ), als desto vertrauenswürdiger wird sie wahrgenommen (s. S.-50). Gespiegelt wird diese Wahrnehmung von den auf mehreren Ebenen lokalisierbaren Merkmalen der Vertrauensnehmer: innen und den Faktoren der Vertrauenswürdigkeit. So schließen die Leser: innen bzw. Rezipient: in‐ nen anhand verfügbarer Informationen (im Fall des Sourcings: Metadaten) schlussfolgernd darauf, ob die Ausbildungsmerkmale der Person (wie ein Doktortitel in Biowissenschaften) die Vertrauenswürdigkeitsurteile bzgl. der Kompetenz positiv beeinflussen können. Zudem können sie die daraus unterstellbare Leistungsfähigkeit in der Belastbarkeit von Aussagen (etwa über PFAS-Effekte) als Indikator der inhaltlichen Verlässlichkeit werten. Weitere Informationen, darunter die etwaige vorherige Arbeit der Person in privatwirtschaftlichen Zusammenhängen bei Herstellern von PFAS, können zusätzlich dabei helfen, den möglichen Wandel des Ethos’ zu erkennen und sich auf dieser Grundlage ein Urteil über die Professionalität zu bilden. Schließlich sind Symbole wie Urteile von anderen, Zertifikate etc. Anhalts‐ punkte dafür, Vertrauenswürdigkeit zu untermauern, z.B. Preise für eine besonders gute Wissenschaftskommunikation über PFAS. 54 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="55"?> Was sind „epistemische Überzeugungen“ und welchen Einfluss haben sie auf das Leseverstehen? Wenn Personen nach Informationen suchen oder unvertraute Aussagen einschätzen sollen, dann tun sie das nicht zuletzt auf der Basis ihrer Über‐ zeugungen. Eine dieser Überzeugungsarten betrifft die Frage, wie Personen beurteilen und vor allem wie sie begründen, was sie als Wissen gelten lassen und wie Aussagen zustande kommen müssen, um begründet als Wissen akzeptabel zu sein (s. S. 18). Dies ist der Gegenstand der „epistemischen Überzeugungen“, also jenen subjektiven Theorien über das Wissen als Pro‐ dukt bzw. als Prozess, von denen angenommen wird, dass sie die (kritische) Verarbeitung von Informationen, den Verarbeitungsaufwand und letztlich die Verarbeitungstiefe von Aussagen beeinflussen (Bråten et al., 2011). Solche epistemischen Überzeugungen haben in der Forschung zum Lesen multipler (digitaler) Dokumente erhebliche Zuwendung erfahren, weil dort der Umgang mit einerseits ambivalenten, andererseits durchaus epistemisch unsicheren Informationen bei gleichzeitiger Besonderheit der Verteilung über mehrere Dokumente typisch ist (Philipp, 2025c). Die epistemischen Überzeugungen werden als System parallel vorhan‐ dener, auf unterschiedlichen Ebenen (Wissen allgemein, Wissensgebiete, Themen) ansiedelbarer Annahmen beschrieben. Als Konsens und immer wieder bemühter, in der Leseforschung dominierender Katalog werden zwei Hauptdimensionen nebst jeweils zwei Subdimensionen geführt (s. Tab. 2). Die epistemischen Überzeugungen lassen sich hierbei als günstig bzw. ungünstig für die Prozesse und deren Resultate benennen. Was sind „epistemische Überzeugungen“ und wie beeinflussen sie das Leseverstehen? 55 <?page no="56"?> Merkmal Hauptdimension „Nature of Knowledge“ (Merkmale von Wissen) Hauptdimension „Nature of Knowing“ (Genese von Wissen) Name der Teildimen‐ sion (Kurzcharakteri‐ sierung) Einfachheit des Wissens (Struktur von Elemen‐ ten des Wissens) Bestimmtheit des Wis‐ sens (Veränderlichkeit von Wissen) Begründung des Wissens (Herstellung von Aus‐ sagen als Wissen) Ursprung des Wissens (soziale Herkunft von wissensbezogenen Aussagen) Kontinuum der Ausprägungen als Formulierung von Endpunkten/ Polen (erstgenannter Pol gilt als günstiger) • Komplexität: Wis‐ sen als untereinan‐ der hochgradig verknüpfte Kon‐ zepte • Einfachheit: Wis‐ sen als Sammlung isolierter Fakten • Veränderung: Wis‐ sen ist vorläufig und veränderlich • Konstanz: Wissen ist absolut und sta‐ tisch • Überprüfbarkeit über epistemisch verlässliche Quel‐ len: Wissen ent‐ steht regelgeleitet und über kriti‐ schen Vergleich mehrerer Quellen • rein subjektive Überprüfbarkeit: Wissen ist entwe‐ der von anderen oder dem eigenen ‚gesunden Men‐ schenverstand‘ ab‐ hängig • Expert: innen als Quelle: Wissen liegt außerhalb der eigenen Person bei epistemischen Au‐ toritäten, von wo es übertragen wird • Selbst als Quelle: Wissen ist Ergeb‐ nis der Ko-Kon‐ struktion von eige‐ ner Person und anderen Personen/ Quellen Tabelle 2: Gegenüberstellung von (Teil-)Dimensionen epistemischer Überzeugungen (Quelle: leicht modifizierte Übernahme aus Philipp, 2025c, S.-333) 56 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="57"?> Generell ist es für das Verstehen vielschichtiger Sachverhalte günstiger, wenn Personen Wissen als komplex und veränderlich annehmen und die Stützung durch mehrere vertrauenswürdige Quellen und Legitimierung durch geeignete Verfahren der Wissensproduktion als notwendig erachten (s. S. 35). Das impliziert hohe Anforderungen an die Leser: innen, die teils auch den Narrativen und rhetorischen Strategien von Falschinformation gezielt wider‐ stehen müssen, da diese einfache Aussagen ohne aufwändige Mechanismen der Herstellung von Aussagen proklamieren (s. S.-132). Lesetipp Wie Personen Aussagen beurteilen, um sie als Wissen zu akzeptieren, behandelt ein wichtiger Überblicksbeitrag. Im Lichte der Zeit seines Ent‐ stehens legt er die Bedeutung verschiedener Facetten der epistemischen Überzeugungen für das Verstehen multipler Dokumente dar; inzwischen hat sich die Forschung weiterentwickelt, aber als Einstieg ist der Text nach wie vor sehr gut geeignet: Bråten, I., Britt, M. A., Strømsø, H. I. & Rouet, J.-F. (2011). The Role of Epistemic Beliefs in the Comprehension of Multiple Expository Texts: Toward an Integrated Model. Educational Psychologist, 46(1), 48-70. Welche Rolle spielt das inhaltliche Vorwissen für das Leseverstehen? Leseverstehen wird als Interaktion von textuellen Informationen, die sich außerhalb der lesenden Person befinden, und den internen Ressourcen einer lesenden Person modelliert, wobei dem Vorwissen eine zentrale Rolle zukommt (s. S. 42). Der Hintergrund dafür ist, dass viele theoretische Modelle davon ausgehen, dass beim Lesen mindestens automatische Akti‐ vierungen des inhaltlichen Vorwissens im Langzeitgedächtnis erfolgen, die dabei helfen, Informationen in Texten miteinander über Schlussfolgerungen („Inferenzen“) zu verbinden und fehlende Informationen gedächtnisbasiert so zu ergänzen, dass kohärente mentale Vorstellungen zum Gelesenen entstehen (McNamara & Magliano, 2009). Der Ausdruck „Vorwissen“ ist relativ uneinheitlich in Gebrauch, meist wird er nicht in seiner allgemeinsten Bedeutung verwendet, sondern be‐ zeichnet vor allem das themenbezogene Wissen. Welche Rolle spielt das inhaltliche Vorwissen für das Leseverstehen? 57 <?page no="58"?> Vorwissen, inhaltliches Domänen- und themenbezogenes Wissen Vorwissen ist die Gesamtheit erworbenen Wissens einer Person. Dar‐ aus ist das domänenspezifische Wissen ein Ausschnitt, der sich auf das semantische und konzeptionelle Wissen einer Person über ein bestimmtes Fachgebiet (z.B. Biologie) bezieht. Ein Teil davon wiederum ist das themenspezifische Wissen, weil es spezielleres Wissen in Bezug auf Schlüsselkonzepte oder Themen beinhaltet (z.B. Genetik oder Stoff‐ wechsel; Alexander & Schoute, 2022). Die Uneinheitlichkeit dessen, was unter dem Vorwissen verstanden wird, hat Rufe lauter werden lassen, den Begriff zu systematisieren. Dies hat unter anderem zu einem Vorschlag geführt, nämlich dem „Multidimensional Knowledge in Text Comprehension Framework“ (McCarthy & McNamara, 2021). Dieses Rahmenwerk geht von mehreren Dimensionen bzw. Merk‐ malen des thematischen Wissens aus, die parallel vorliegen und in einer Kontinuumslogik beschrieben werden können. Die vier untereinander in‐ teragierenden Dimensionen sind im Einzelnen: 1. Menge: Das meint in einem quantitativen Sinne die Anzahl der Konzepte, die für den Inhalt eines Textes oder mehrerer Dokumente verstehens‐ wichtig sind und welche die lesende Person kennt. Je mehr solcher Konzepte einer lesenden Person inhaltlich bekannt sind, möglichweise sogar mit einem Schwellenwert, den man überschreiten muss, als desto günstiger gilt dies für das Leseverstehen. 2. Akkuratheit: Sie bezeichnet das Ausmaß, in dem das Wissen der lesenden Person richtig oder falsch ist. Hierbei geht es darum, dass Personen komplexere oder unterkomplexe Gedächtnisinhalte haben, die mit dem Gegenstand und dessen inhärenter Systematik mehr oder minder über‐ einstimmen, was insbesondere bei der Nutzung von Widerlegungstex‐ ten bedeutend ist (s. S.-124). 3. Spezifität: Die Spezifität zielt auf den Grad des inhaltlichen Zusammen‐ hangs bzw. der Passung zwischen dem Wissen und den Informationen im Text ab. Diese Passung und letztlich Nutzbarkeit bemisst sich zum Beispiel daran, wie generisch das Thema (etwa Biologie) bzw. speziali‐ siert (etwa invasive Arten) ist und ob damit seine Anknüpfungspunkte an das Vorwissen eher allgemeiner Natur oder hochspezifisch sind. 58 Leistungen: wie (kompetentes) Leseverstehen funktioniert <?page no="59"?> 4. Kohärenz: Nicht nur mentale Modelle der Lesenden unterscheiden sich in ihrer Kohärenz, also Vernetztheit, die Qualität des Vorwissens im Hinblick auf die Vernetztheit der Konzepte lässt sich ähnlich konzeptu‐ alisieren. Die Kohärenz des Wissens ist entscheidend dafür, wie die eigenen Kenntnisse dafür genutzt werden können, Informationen besser zu verstehen und Muster zwischen ihnen zu erkennen. Das domänenspezifische themenbezogene Vorwissen benötigen Leser: innen neben dem regulären Verstehen vor allem bei der Erste-Hand-Einschätzung (s. S. 43), aber auch bei der evaluativen Komponente des Sourcings (s. S.-48). Außerdem ist Wissen nicht nur eine Bedingung des Leseverstehens, sondern auch dessen Folge. Darum genießt die Lesekompetenz ihren Ruf als Voraussetzung des Lernens, und darum ist es zudem problematisch, wenn über Falsch- und Desinformation die Vorwissensbestände, darunter auch weiter gefasst die subjektiven Überzeugungen, kontaminiert werden. Welche Rolle spielt das inhaltliche Vorwissen für das Leseverstehen? 59 <?page no="61"?> Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert Warum Falsch- und Desinformationen auf ihre Weise erfolgreich sind, lässt sich zum Teil aus der Perspektive der (Lese-)Psychologie erklären. Sie hat facettenreiche Erkenntnisse beigesteuert, die das Miss- und Fehlverstehen erklärlich machen. In diesem Kapitel werden einige Phä‐ nomene rund um das missglückende Verstehen beleuchtet. Das Kapitel widmet sich damit der übergeordneten Frage, welche Prozesse und kognitiven Illusionen allgemein dazu beitragen, dass Personen unkritisch falsche Aussagen akzeptieren und in ihre internen Repräsentationen übernehmen. <?page no="62"?> Welche Herausforderungen digitalen Lesens begünstigen potenziell die Nebenwirkungen von Falschinformationen? Auch wenn Falschinformation kein auf digitales Lesen beschränktes Phäno‐ men ist, so gibt es einige Merkmale des Lesens im Internet, die kognitiv herausfordernd sind. Es ist die Vielzahl von Prozessen, zumal in ihrer hohen Dynamik und Verschränktheit (Magliano et al., 2017; Philipp, 2025c; Salmerón et al., 2018), die eine hohe kognitive Belastung generiert. Es lassen sich aus der Forschung drei Ergebnislinien bzw. Muster bei den Erfordernissen extrahieren: ■ Dauererfordernis der Beurteilung: Die Beurteilung kann sich auf ver‐ schiedene Bezugspunkte erstrecken. Darunter fallen Verwertbarkeit der Informationen für den von der lesenden Person angestrebten Zweck (= Relevanzbeurteilung), Status als mutmaßlich wahr (= Plausibilität) und die epistemischen Merkmale von Informationen, deren Quelle und Kontext (= Sourcing). Diese Einschätzungen, die mit der Recherche beginnen, bleiben im Gesamtprozess erhalten und können sich durch jedes neue potenziell zu lesende oder tatsächlich gelesene Dokument, jede Information und jede neue Quelle verändern. Das ist partiell mit dem „epistemisch wachsamen Lesen“ gemeint (s. S. 43). Auch wenn dies als Ressource gilt, weil es davor schützt, ungeprüften Informationen und Quellen grundlos und naiv zu vertrauen, ist es als Aufwand nicht zu unterschätzen, zumal angesichts der schieren Menge im Internet im Umlauf befindlicher Aussagen und Dokumente. Denn Leser: innen sind gefragt, jederzeit und adaptiv Informationen evaluieren zu können, um bspw. gezielt Aussagen nicht zur Kenntnis zu nehmen. Das Beurtei‐ lungserfordernis macht damit Leseprozesse kognitiv aufwändiger. ■ Dauererfordernis der Kohärenzbemühung: Ein typisches Merkmal des Lesens im Internet besteht darin, dass Personen mehr als ein Dokument lesen. Kontroverse und komplexe Themen, aber auch solche mit einer hohen Interaktion zwischen User: innen auf sozialen Medien sind im Kern diskursiv angelegt. Das bedeutet: Verschiedene Perspektiven und Äußerungen - teils verschiedenster Couleur und infolge von hochgra‐ dig kontingenten Navigationspfaden durch hypertextuell strukturierte Einzeldokumente in einem Netzwerk - gilt es kognitiv zu bewältigen. Aus vielstimmigen, mehrperspektivischen, polykontextuellen und mög‐ licherweise auch sich inhaltlich schnell in der Belastbarkeit veränder‐ 62 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="63"?> lichen Aussagen eine kohärente Repräsentation zu generieren bzw. aufrechtzuerhalten und damit ein Verständnis von Sachverhalten auf‐ zubauen, ist anspruchsvoll. Wenn bspw. nach Unfällen oder Unglücken unklar ist, ob sich dahinter eine terroristische Attacke verbirgt, dann ist die Nachrichtenlage häufig widersprüchlich und der Kenntnisstand damit provisorisch. Die Leser: innen müssen in solchen Fällen immer wieder neue Informationen verarbeiten (s. S.-45). ■ Dauererfordernis der metakognitiven Selbstregulation: Gerade das Re‐ cherchieren und das prüfende Lesen von Aussagen im Internet bringen es mit sich, dass Personen diverse Entscheidungen zu treffen haben, die sich teils aus der Entscheidungsnotwendigkeit in den oben angeführten Evaluationsprozessen ergeben. Hinzu kommt, dass das eigene zielbezo‐ gene Verhalten der Selbstregulation bedarf, also einer vom Individuum selbst initiierten und überwachten Steuerung des Vorgehens. In dieser zielbezogenen Steuerung sind diverse Merkmale von Person, Verhalten und Kontext austarierend zu berücksichtigen, um im ergebnisoffenen Gesamtprozess zu einer Lösung zu gelangen. Links zu folgen oder nicht zu folgen, über unklare Aussagen oder Quellen weiter zu recherchieren, ergebnislos wirkende Lese- und Rechercheprozesse zu modifizieren oder abzubrechen - all das sind Beispiele für selbstregulative Verhaltenswei‐ sen. Die obige Aufzählung ist nicht spezifisch auf Falschinformationen ausgelegt, dennoch lässt sie sich auf dieses Phänomen gut anwenden. Denn die mehrdimensionale Wachsamkeit, der Versuch, aus volatilen und ambigen Aussagen Kohärenz zu stiften und all dies zu überwachen, macht Prozesse kognitiv aufwändig. Dieser hohe Aufwand, der sich natürlich zusätzlich an Lesezielen bemisst und von Merkmalen der Person, der Dokumente und der Lesesituationen beeinflusst wird (s. S. 42), birgt die Gefahr, dass unerkannte Ungenauigkeiten und kleine Fehler zu größeren Folgeproblemen führen. Was ist der Bildschirmunterlegenheitseffekt und warum könnte er Falsch- und Desinformationseffekte begünstigen? Ist es ungünstig, wenn Leser: innen digital lesen? Aus dem Alltag ist das Lesen am Bildschirm nicht mehr wegzudenken; mit den Nebenwirkungen beginnt sich die Forschung allmählich sehr intensiv zu befassen. Als Lesen Begünstigt der Bildschirmunterlegenheitseffekt Falschinformationen? 63 <?page no="64"?> am Bildschirm soll an dieser Stelle ein Ausschnitt der digitalen Leseaktivi‐ täten bezeichnet werden, nämlich das Lesen eines statischen, nicht-verän‐ derlichen Textes, welcher auf einem Bildschirm dargestellt wird (Delgado & Salmerón, 2024). Ein solches Lesen hat sich in aktuellen Metaanalysen vor allem beim Lesen von Sachtexten und beim Lesen unter Zeitdruck als nachteilig für das Leseverstehen erwiesen, wenn es mit dem Lesen der gleichen Texte in einer Printvariante verglichen wurde - dies wird als „Bildschirmunterlegenheitseffekt“ bezeichnet (Delgado & Salmerón, 2024). Für dessen Zustandekommen lassen sich aktuell zwei komplementäre Be‐ gründungen anführen: ■ Bildschirmlesen erfolgt aufgrund aktivierter „Bildschirmleseschemata“ anders als die Lektüren von Printmedien, nämlich mutmaßlich flüchtiger - und diese flüchtige Leseweise könnte wichtige filternde Ausschlüsse wenig belastbarer Aussagen und Quellen erschweren. Grundlage dieser Annahme ist, dass Leser: innen eine Weise des digitalen Lesens prakti‐ zieren, die sich für bestimmte informatorische Zugänge beim Lesen im Internet als funktional erweist, nämlich ein eher suchender, die Verwertbarkeit von Informationen fokussierender und auf Erkennen von Hauptgedanken abzielender Stil des Lesens. Wenn Leser: innen dies als typisches Schema im Gedächtnis speichern und dieses Schema beim Lesen am Bildschirm unbewusst aktivieren, praktizieren sie ein Lesen, das mit der „Shallowing-Hypothese“ bezeichnet wird: ein oberflächen‐ orientiertes Lesen, das ein tieferes Verstehen eher behindert (Delgado & Salmerón, 2024). Für ein aufmerksames, kritisches und evaluatives Lesen, das dabei hilft, epistemisch unsichere Informationen als solche zu erkennen und nicht allzu schnell Aussagen zu folgen, die potenziell Des- oder Falschinfor‐ mationen sein könnten, ist also das digitale Lesen nicht förderlich. Um es aber deutlich zu sagen: Es geht nicht um die unproduktive Dicho‐ tomisierung von (‚minderwertigem‘) digitalem und (‚höherwertigem‘) analogem Lesen, womöglich noch mit wertenden Anteilen, sondern um die Nutzung von verschiedenen Kontextschemata. Diese Überlegungen stammen bislang vor allem aus der Theorie und sind noch zu wenig untersucht und damit verstanden; demgegenüber ist man bei Aspekten der mangelnden Aufmerksamkeit als Erklärung bereits weiter. ■ Bildschirmlesen geht mit einer ungünstigeren Nutzung kognitiver Prozesse einher, die zu einer zu geringen Verarbeitungstiefe führen. Die Forschung 64 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="65"?> hat sich zwei Phänomenen gewidmet, die erklären können, warum Leser: innen Texte am Bildschirm schlechter verstehen (Delgado & Salmerón, 2024; Philipp, 2025c). Das erste Phänomen wird „Metaver‐ stehen“ genannt und bezeichnet ein gut kalibriertes, also akkurates Einschätzen, wie gut das eigene Leseverstehen ist. Fällt Personen auf, dass ihr Leseverstehen zu gering ist, können sie selbstregulatorische Aktivitäten ergreifen, um ihr Vorgehen zu optimieren. Leser: innen sind aber überwiegend beim Bildschirmlesen ungenau in dieser Über‐ wachungsleistung und überschätzen ihr Leseverstehen. Mit anderen Worten: Ihnen entgeht, dass sie eigentlich korrigierend tätig werden sollten. Ein Grund hierfür könnte eine ungünstige Nutzung der Aufmerksamkeit sein. Die mangelnde Fokussierung auf das Leseverstehen wird zum Beispiel unter dem Schlagwort der abschweifenden Gedanken unter‐ sucht. Abschweifende Gedanken sind Veränderungen in der kognitiven Zuwendung zulasten der eigentlichen Aufgabe (wie dem verstehenden Lesen). Auch das Multitasking, also das vermeintlich parallel stattfin‐ dende Bearbeiten von Aufgaben, die jede für sich Aufmerksamkeit beanspruchen, als Phänomen von Bildschirmaktivitäten ist eine Ausprä‐ gung ungünstiger Aufmerksamkeitslenkung. Abschweifende Gedanken zum einen und Multitasking zum anderen sind Ausdruck davon, dass das (digitale) Lesen mit weniger Konzentration auf das Lesen und die Textinhalte erfolgt. Die Leser: innen zahlen dafür den Preis, indem sie Texte schlechter verstehen (Philipp, 2025c). In der Essenz ist der Bildschirmunterlegenheitseffekt beim Lesen am Bild‐ schirm im geringeren Leseverstehen im Vergleich zu Print-Darbietung der‐ selben Texte recht gut dokumentiert, seine Ursachen sind jedoch noch nicht ausreichend verstanden. Mehrere Erklärungen, die auf eine undetektierte und unzureichend tiefe Verstehensbemühung seitens der Leser: innen ver‐ weisen, liegen vor. Für den Umgang mit Falsch- und Desinformationen lässt sich begründet vermuten, dass ihnen die eher oberflächliche Verarbeitung von digital dargebotenen Inhalten in die Hände spielt. Begünstigt der Bildschirmunterlegenheitseffekt Falschinformationen? 65 <?page no="66"?> Wie gut sind Personen darin, Desinformationen in Nachrichten(schlagzeilen) zu erkennen? Eine Befürchtung bei den Desinformationen und zugleich deren Wirkungs‐ absicht besteht darin, dass Personen Desinformationen als solche nicht erkennen können. Dieser Frage haben sich zahlreiche Experimente gewid‐ met, um eine empirische Antwort zu finden, teils mit Hunderten bis Tau‐ senden Testpersonen. In aller Regel laufen solche Experimente so ab, dass Testpersonen nach dem Zufallsprinzip reale und fingierte/ falsche Nachrich‐ tenüberschriften dahingehend beurteilen sollen, ob sie diese für echt oder eine Falschnachricht halten. Aus den Urteilen lassen sich verschiedene Maßzahlen gewinnen bzw. bilden und auswerten (s. auch S.-109): ■ Der erste und besonders wichtige Indikator ist der Akkuratheitsindex zur Bestimmung des Unterscheidungsvermögens: Je mehr die Testper‐ sonen echte Schlagzeilen als echt erkennen und je weniger Fehler sie dabei machen, desto größer ist ihr Differenzierungsvermögen; das gilt natürlich auch für die Einschätzungen bei den Falschnachrichten. ■ Der zweite Indikator ist die Bestimmung von Auffälligkeiten im Leis‐ tungsvermögen, die sich aus den Relationen von korrekten und falschen Antworten ergeben, z.B., ob Personen dazu neigen, zu skeptisch zu sein, also überproportional echte Schlagzeilen für Fakes zu halten, oder unkritisch Fakes als echte Nachrichten einzuschätzen. Zwei Metaanalysen haben jüngst überprüft, welche Leistungen Erwachsene in dieser Hinsicht erbringen. Die erste widmete sich den Fähigkeiten USamerikanischer Erwachsener, es handelte sich um über 11.000 Personen, die in 31 Experimenten getestet wurden (Sultan et al., 2024). Die zweite hatte mit 194.000 Personen aus 40 Ländern einen erheblich größeren Datenpool (Pfänder & Altay, 2025). Die allgemeinen Ergebnisse dazu lauten: Erwachsene Leser: innen können - erstens - überwiegend wahre und falsche Schlagzeilen voneinander differen‐ zieren. Je nach Auswertung kommen die beiden Metaanalysen zu anderen Resultaten, was - zweitens - eine zentrale Tendenz angeht, nämlich die Unterschiede in den Fähigkeiten, wahre Nachrichten für wahr und unwahre Nachrichten für unwahr zu halten. Die eine Metaanalyse gelangte zum Befund, dass die Testpersonen falsche Nachrichten korrekter als falsch ein‐ zuschätzen und gleichzeitig wahre Nachrichten auffällig stark für unwahr zu halten (Pfänder & Altay, 2025), was als „Skepsisverzerrung“ bezeichnet 66 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="67"?> wird (s. S. 109). Die Leser: innen waren also misstrauischer, als es angemessen und korrekt gewesen wäre. Die andere Metaanalyse ermittelte hingegen, dass beide Arten von Einschätzungen gleich gut gelangen. Für beide Urteile waren die Werte ähnlich hoch und ähnlich gut, sie lagen bei rund zwei Dritteln korrekter Antworten (Sultan et al., 2024). Entscheidend ist eine wichtige Gemeinsamkeit zwischen beiden Metaanalysen trotz unterschied‐ licher Ergebnisse: Die Personen halten falsche Schlagzeilen nicht für korrekter, als sie es sind. Ein wichtiges spezifisches Ergebnis stammte noch aus einer vertiefenden Betrachtung, ob die Skepsisverzerrung größer wird, wenn die Nachrichten unterschiedlich dargeboten wurden (Pfänder & Altay, 2025). Das war bei zwei Varianten der Fall: Erstens waren Bild-Text-Kombinationen davon be‐ troffen, zweitens waren es die Varianten, die von der Aufmachung sozialen Medien ähnelten. Gerade die Skepsis, die sich gegenüber den Nachrichten in der Gestalt von sozialen Medien zeigte, deutet auf eine gewisse Distanz bzw. Wachsamkeit hin. Erwachsene Personen scheinen stärker zu differenzieren, dass sie in sozialen Medien auf falsche Nachrichten stoßen könnten. Zumindest für Erwachsene wirken die Befunde erst einmal entwarnend, obwohl sich teils Effekte von individuellen Merkmalen als problemverschär‐ fende Faktoren erwiesen (s. S. 85). Ob diese Ergebnisse für Kinder und Ju‐ gendliche gelten, ist mangels Studien derzeit nicht klar genug beantwortbar, von ähnlich (guten) Fähigkeiten darf man ohne entsprechende Forschung dazu aber kaum ausgehen (Shtulman, 2024). Kritisch ist zudem anzumerken, dass Schlagzeilen nur einen Teil der möglichen digitalen Texte ausmachen und subtilere Varianten der Desinformationen in den soeben beschriebenen Ergebnissen aus Online-Experimenten nicht im Zentrum stehen (Philipp, 2025c). Die Aussagekraft ist damit auf diese Form von in großen Studien leicht verwendbaren Lesestimuli begrenzt. Sind Personen dazu in der Lage, Deepfakes als solche zu identifizieren? Bildern wird zugestanden, dass sie eine Abbildfunktion haben und damit eine gewisse Authentizität aufweisen. Doch auch bildliche Informationen sind nicht vor Manipulationen und Fälschungen gefeit. Ein Schlagwort dafür sind die „Deepfakes“. Sind Personen dazu in der Lage, Deepfakes als solche zu identifizieren? 67 <?page no="68"?> Deepfakes Deepfakes sind auf maschinellem Lernen (deep learning) basierende hyperrealistische digitale Imitationen bzw. Fälschungen von Videos, Audiomaterial und Bildern (fakes; darum das Kofferwort „Deepfakes“). Deepfakes sind somit eine Technologie zur Herstellung gefälschter, aber sehr überzeugender Videos, Tonaufnahmen bzw. Bildern von Personen, die Dinge tun, äußern oder zeigen, die sie nicht getan oder gesagt haben (Diel et al., 2024; Nieweglowska et al., 2023). Deepfakes stellen nur eine Variante aller Desinformationen mit Bildern dar. Es lassen sich grundsätzlich zwei Arten unterscheiden, die sich auf rein statische Bilder oder bewegte Bilder, also Videos, beziehen können (Weikmann & Lecheler, 2022). Die erste Art zeichnet sich durch einen gerin‐ gen technischen Aufwand aus. Bildausschnitte manipulativ zu nutzen oder falsche Beschriftungen zu verwenden, also Bilder bewusst in einen anderen Kontext stellen, zählen dazu. Deepfakes gehören der zweiten Kategorie an, den Varianten, bei denen massiver, mit höherem Aufwand und unter Nutzung von künstlicher Intelligenz gezielt in Bildern oder Videos Elemente ergänzt, hinzugefügt oder gänzlich neu hergestellt werden. Der Austausch von Gesichtern (zum Beispiel bei pornografischen Inhalten), Bildmanipula‐ tionen, Videos, bei denen andere Personen als Avatare erzeugt werden und erfundene Aussagen mit einer täuschend echten Stimme tätigen, Tonspuren, die es nicht gibt - derlei fällt in diese zweite Variante. Solche Desinformationen können dazu führen, dass Personen erstens eine fehlerhafte kognitive Verarbeitung vornehmen, indem sie Unwahres für wahr und Wahres für unwahr halten. Zweitens können sie Bilder emotional verarbeiten. Je nach Ausprägung sind dann zweierlei Arten von Folgen zu unterscheiden: Die unmittelbaren Folgen können eine falsche Repräsentation und/ oder ein (emotional begründetes) Teilen solcher Inhalte in sozialen Medien sein. Mittelbar ist zu befürchten, dass Personen einen doppelten Vertrauensverlust erleiden, zum einen in Videos, Bilder und Tonaufnahmen, zum anderen in Medien allgemein (Weikmann & Lecheler, 2022). Die unmittelbaren Effekte beim korrekten Erkennen von Deepfakes hat eine aktuelle Metaanalyse auf der Basis von 56 Studien vorgenommen, wobei die Originalstudien im Zeitraum 2017-2024 veröffentlicht wurden (Diel et 68 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="69"?> al., 2024). Das Hauptergebnis war, dass die Trefferquote beim korrekten Erkennen von Deepfakes bei 56 Prozent lag (im Vergleich zu 68 Prozent bei echten Stimuli). Gemessen daran, dass die Zufallswahrscheinlichkeit bereits bei 50 Prozent liegt, ist dieser Wert beim Erkennen von Deepfakes sehr gering. In der Metaanalyse wurde zusätzlich geprüft, ob sich die Fähigkeiten nach Modalität unterschieden. Das war der Fall, denn bei Stimuli mit ent‐ haltenem Ton waren die Personen zu etwas besseren Erkennensleistungen imstande: ■ Audioaufnahmen von Stimmen (62 Prozent vs. 71 Prozent bei realen Stimmaufnahmen), ■ Videos (57 Prozent vs. 68 Prozent bei realen Videos), ■ statische Bilder (53 Prozent vs. 68 Prozent bei realen Bildern), ■ Text (52 Prozent vs. 67 Prozent bei realen Texten). Diese Befunde unterstreichen, dass Personen nur ungenügend dazu in der Lage sind, vor allem statische (bildliche oder textuelle) Inhalte trennscharf als real oder als Fälschung zu erkennen. Ihre Treffsicherheit ist nach aktuellem empirischem Stand im metaanalytischen Mittel nur unwesent‐ lich besser als die Ratewahrscheinlichkeit. Mit Blick auf den erwartbaren technologischen Fortschritt bei der Herstellung von Deepfakes ist davon auszugehen, dass sich das Problem eher verschärfen denn verringern wird. Was sind kognitive Illusionen und welche Bereiche der Informationsverarbeitung sind von ihnen betroffen? Das Zustandekommen und die unerfreuliche Hartnäckigkeit von Effekten von Falsch- und Desinformationen werden partiell auf kognitive Verzerrun‐ gen zurückgeführt (Britt et al., 2019; Lewandowsky et al., 2017). Kognitive Verzerrungen betreffen übergreifende Muster, auf welche Art Menschen als kognitive Akteur: innen Informationen verarbeiten und welche Auffäl‐ ligkeiten sich hierbei ergeben. Insbesondere die problematischen Aspekte bei diesen kognitiven Verzerrungen - bzw. wie sie auch genannt werden: die „kognitiven Illusionen“ - sind seit Langem Gegenstand der Forschung. Aber was sind kognitive Illusionen? Wie beeinflussen kognitive Illusionen die Informationsverarbeitung? 69 <?page no="70"?> Kognitive Illusionen und ihre fünf Hauptmerkmale Mit kognitiven Illusionen ist eine Vielzahl von Phänomenen gemeint, bei denen Menschen in ihrem Erinnern, Verarbeiten und Beurteilen von Informationen Verzerrungen aufweisen. Fünf Merkmale helfen dabei, die kognitiven Illusionen einzugrenzen. Erstens eint die Phänomene die Abweichung von der Realität, d.h. sie entsprechen nicht einem akzeptierten normativen Standard, z.B. nachprüfbaren Fakten. Diese Divergenz erfolgt zweitens systematisch und in Bezug auf eine etablierte Norm, es gibt also eine musterhafte und damit auch eine vorhersehbare Richtung der Abweichung. Drittens sind die Illusionen unbewusst und unwillkürlich, man kann sie also nicht steuern. Das führt, viertens, dazu, dass man sie schwer oder sogar überhaupt nicht vermeiden kann. Fünftens sind solche Illusionen universell, d.h. sie treten nicht nur bei Einzelpersonen, sondern übergreifend auf (Pohl, 2022). Kognitive Illusionen erstrecken sich auf verschiedene Bereiche der Kogni‐ tionen, die auch in diesem Buch in Ausschnitten behandelt werden. Diese drei Bereiche sind nicht völlig trennscharf, weil bspw. erinnerungsbasierte Prozesse die Basis für die weiteren beiden sind und Denken und Beurteilen ebenfalls aufeinander aufbauen. ■ Illusionen des Erinnerns: In diesem Fall bestehen Abweichungen des Erinnerten von dem, was objektivierbar außerhalb der Person und ihrem Langzeitgedächtnis existiert. Erkennbar wird dies an der Hartnäckigkeit von Falschinformationen (s. S. 77) - selbst bei Bemühungen, sie zu korrigieren (s. S.-80 und 126). ■ Illusionen des Denkens: Hier werden Regeln benötigt, um Informationen zu verarbeiten, etwa (un-)logische Schlussfolgerungen zu erkennen oder Zusammenhänge zwischen Informationen herstellen. Die Illusion besteht darin, dass aufgrund von Abweichungen von solchen Regeln fehlerhafte Schlüsse gezogen werden. Beispiele hierfür sind der Bestä‐ tigungsfehler (s. S. 93), der Text-Überzeugungskonsistenz-Effekt, also das Privilegieren überzeugungskongruenter Aussagen in der kognitiven Verarbeitung (s. S. 98), oder auch der Effekt des langanhaltenden Ein‐ flusses (s. S.-80 und 135). ■ Illusionen des Beurteilens: Wenn Personen Aussagen oder Quellen nur unter Rückgriff auf ihre subjektiven Eindrücke einschätzen, ihr Urteil 70 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="71"?> aber in die eine oder andere Richtung verzerrt ist, dann tangiert dies die kognitiven Illusionen des Beurteilens. Darunter fallen die Effekte des kurzfristigen und langfristigen Ausgesetztseins von Falschinforma‐ tionen auf Wahrheitsurteile (s. S.-72 und 77). Auch wenn die kognitiven Illusionen, wie es der Name nahelegt, sich auf kognitive Phänomene beziehen, so sind dies nicht durchgängig rein kognitiv bedingte Auffälligkeiten, sondern haben teils motivationale Ursachen bzw. sie interagieren miteinander (Pohl, 2022; Sultan et al., 2024). Wichtig ist: Es existieren kognitive Illusionen, die praktisch alle wichtigen menschlichen Verstehensprozesse betreffen und ereilen können. Lesetipp Das unten genannte Kapitel fasst die Literatur zu kognitiven Verzer‐ rungen gut zusammen, was dabei hilft, sich in dem komplexen Gegen‐ standsgebiet zu orientieren: Weber, S. & Knorr, E. (2019). Kognitive Verzerrungen und die Irrationa‐ lität des Denkens. In M. Appel (Hg.), Die Psychologie des Postfaktischen: Über „Fake News“, „Lügenpresse“, „Clickbaits“ und Co (S. 103-115). Sprin‐ ger. Warum sind individuelle Wahrheitsurteile anfällig für Desinformationen? Wahrheitsbeurteilungen sind eine wichtige Komponente in der Desinfor‐ mationsproblematik, denn sie bilden ein Nadelöhr für die Einflussnahme fehlerhafter Aussagen. Darum stellt sich die Frage, woran Personen ihre individuellen Urteile über faktisch korrekte bzw. inkorrekte Aussagen fest‐ machen. Urteile darüber, ob Aussagen als wahr oder unwahr gelten, basieren hauptsächlich auf drei Arten von Hinweisen (Brashier & Marsh, 2020): 1. Basisraten: Das meint, dass aufgrund der bisherigen Alltagserfahrungen mehr Aussagen wahr als unwahr sind und darum zunächst neue Aus‐ sagen eine Art „Vertrauensvorschuss“ genießen, sie also eher als wahr angenommen werden. Basisraten als eine auf Wahrscheinlichkeitsan‐ nahmen fußende Zuschreibung von unterstellter Wahrheit führen zu einer falsch positiven Verzerrung, deren Korrektur zwar möglich, aber Warum sind individuelle Wahrheitsurteile anfällig für Desinformationen? 71 <?page no="72"?> aufwändig ist (Brashier & Marsh, 2020). Somit sind Basisraten eine Quelle von Urteilen, die aber wenig dazu geeignet wirken, Wahres von Unwahrem zu trennen. 2. Gefühle: Daneben sind Gefühle (im weitesten Sinne) eine Einflussquelle, so z.B. der subjektive Eindruck, mit Informationen bereits vertraut zu sein, was die Verarbeitung erleichtert. Dieser Mechanismus liegt zum Teil dem Wahrheitsillusionseffekt zugrunde (s. nächste Frage). Hinzu kommen affektive Zustände, z.B. eine höhere Zuschreibung von Wahrheit bei positiver Stimmung und eine Art von Schutz bei Traurigkeit (Brashier & Marsh, 2020; Ecker et al., 2022). Die Folge von Einschätzungen auf der Basis von Eindrücken und Emotionen bzw. affektiven Zuständen können sowohl korrekte als auch inkorrekte Beurteilungen sein. Es wird also deutlich, dass die Fähigkeit, Wahres und Unwahres unterscheiden zu können, von gefühlsbasierten Einschätzun‐ gen betroffen ist. 3. Konsistenz mit Gedächtnisinhalten: Sowohl Wissen zum Gegenstand als auch zum Ursprung von Quellen helfen dabei, Aussagen direkt bzw. indirekt zu beurteilen und damit Wahres und Unwahres besser zu differenzieren. Dies liegt den Prozessen des epistemisch wachsamen Lesens als Annahme zugrunde (s. S. 43), allerdings können selbst Wis‐ sensbestände nicht vor den Effekten von Falschinformationen schützen, weil etwa die Wiederholung von Falschaussagen den Schutzeffekt des Wissens unterminiert (Brashier & Marsh, 2020). Wenn Personen die Wahrheit also auf eine Art beurteilen, bei der heuristi‐ sche Vorgehensweisen bemüht werden, dann ist das nicht per se naiv oder unterlegen. Es verdeutlicht allerdings, dass es Einflussquellen jenseits der analytischen, kognitiv aufwändigen Einschätzung gibt, die Personen im Alltag nutzen und die sie anfällig machen können, wenn Falschaussagen ausreichend oft wiederholt werden, wenn sie in affektiven Zuständen unkri‐ tisch verarbeitet werden und wenn die Wissensbestände nicht ausreichen. Was ist der Wahrheitsillusionseffekt und wie funktioniert er? Dem Nationalsozialismus-Propagandaminister Joseph Goebbels wird das folgende Zitat zugeschrieben: „Wenn man eine große Lüge erzählt und sie oft genug wiederholt, dann werden die Leute sie am Ende glauben.“ Werden 72 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="73"?> Aussagen, große Lügen gar, für wahrer gehalten, je häufiger man auf sie stößt? Das ist die Kernfrage eines gedächtnispsychologischen Effekts, der als „Wahrheitsheitsillusionseffekt“ (im Englischen: „Illusory Truth Effect“; Udry & Barber, 2024) bezeichnet wird. Dieser Effekt ist ein Baustein unter mehreren, wenn man verstehen will, wie Filterblasen bzw. Echokammern funktionieren, in denen die gleichen Falschaussagen zirkulieren und durch die Wiederholungen verstärkt werden (Unkelbach et al., 2019). Wahrheitsheitsillusionseffekt Der Wahrheitsheitsillusionseffekt bezeichnet das Phänomen, dass die Wiederholung von (unwahren) Aussagen dazu führt, dass Personen diese Aussagen für wahrer halten, selbst wenn diese Aussagen ihrem eigenen Vorwissen widersprechen. Dieser Effekt schlägt sich neben den Überzeugungen des Wahrheitsgehalts auch darin nieder, dass Personen solche Informationen eher im Internet zu teilen bereit sind (Udry & Barber, 2024). Der Wirkmechanismus des Wahrheitsheitsillusionseffekt besteht sprich‐ wörtlich im steten Tropfen, der den Stein höhlt: Je häufiger Personen Inhalte dargeboten bekommen, desto eher akzeptieren sie diese mit jeder weiteren Wiederholung als wahrer. In einer schon älteren Metaanalyse wurde das Phänomen geprüft und empirisch untermauert (Dechêne et al., 2010). Vertiefende Ergebnisse zeigen, dass der Wahrheitsheitsillusionseffekt wahrscheinlicher ist, wenn ■ die Aussagen identisch wiederholt werden, ■ die Aussagen in ihrem Wahrheitsgehalt eher oberflächlich zu beurteilen waren. Abgesehen von diesen Auffälligkeiten spielte es in dieser Metaanalyse für die Ergebnisse keine Rolle, wie alt die Personen waren, ob die Stimuli sprachlich oder visuell waren, wie lang sie präsentiert wurden und wie viel Zeit zwischen den Wiederholungen lag. Das spricht für einen unerfreulich robusten Befund, da sich der Effekt unabhängig von diesen potenziellen Einflussgrößen eingestellt hatte. Außerdem fällt dieser Effekt noch erheblich größer aus, wenn Personen keinerlei Vorwarnungen erhalten, dass einige der wiederholten Aussagen falsch sind ( Jalbert et al., 2020). Was ist der Wahrheitsillusionseffekt und wie funktioniert er? 73 <?page no="74"?> Es gibt verschiedene theoretische Annahmen dazu, warum der Effekt auftritt. Die folgende Liste basiert auf der Überblicksarbeit von Unkelbach et al. (2019), die weiter unten in der Liste befindlichen Erklärungen sind theoretisch erklärungsstärker: 1. Gültigkeitssteigerung durch Wiederholung: Nach dieser allerbasalsten Annahme verleiht der häufige Kontakt allein eine subjektive erhöhte Zuschreibung von Wahrheit. 2. Gültigkeitssteigerung durch Wiedererkennen: Eine darüber hinaus ge‐ hende Erklärung ist, dass die Gültigkeitserhöhung erst auftritt, wenn Personen bewusst wiedererkennen, dass sie einer Aussage schon einmal begegnet sind. 3. Gültigkeitssteigerung durch quellenbezogene Vertrautheit: Noch weiter geht dieser Erklärungsansatz. Hier ist die erhöhte Gültigkeitszuschrei‐ bung zusätzlich daran gebunden, dass man mit der Quelle von Aussagen vertrauter ist. 4. Gültigkeitssteigerung durch erhöhte Verarbeitungsflüssigkeit: Eine ergän‐ zende Erklärung betont, dass eine leichtere kognitive Verarbeitbarkeit von Informationen (darunter eben auch bereits verarbeitete) dazu bei‐ trägt, wiederholte Aussagen für wahrer zu halten. 5. Gültigkeitssteigerung durch kohärente Gedächtnisreferenzen: Diese Erklä‐ rung geht davon aus, dass Personen dann Wiederholungen für plausibler halten, wenn die Aussagen zum einen Gedächtnisinhalte aktivieren, die für jedes Leseverstehen nötig sind (s. S.-57), zum anderen müssen diese aktivierten Inhalte aber möglichst kohärent zueinander sein, was dazu führt, dass sie im Gedächtnis als Netzwerk repräsentiert werden. Im Falle der Wiederholung werden diese Netzwerke dann eher reaktiviert. Der Wahrheitsheitsillusionseffekt ist also ein Phänomen, das empirisch gut nachweisbar existiert und durch verschiedene Erklärungen aus der Kogni‐ tionspsychologie plausibilisiert werden kann. Das Problematische an dem Effekt ist, dass die reine Wiederholung ausreicht, dass Personen zunehmend Aussagen für wahr halten. Darum setzen manche der Gegenmaßnahmen darauf, früh die Ausbreitung von Desinformationen auf Mediensystemebene zu verhindern bzw. stark einzuschränken, um derart das Risiko des wieder‐ holten Kontakts zu reduzieren (s. S.-106). 74 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="75"?> Die Hauptaussage oder die Details - was gibt den Ausschlag bei der Verarbeitung von Falschinformationen? Ist es möglich, dass jemand wider besseren Wissens Falschinformationen für vertretbar hält? Die Antwort kann lauten: Ja. Einen in der Gedächtnis‐ forschung verortbaren Ansatz, die Nutzung von gelesenen Informationen, darunter auch Falschinformationen, erklärbar zu machen, stellt die soge‐ nannte „Fuzzy Trace Theory“ dar (Edelson et al., 2024; Reyna, 2021). Die Theorie basiert auf der grundsätzlichen Annahme, dass Personen Aussagen auf zweierlei Art verarbeiten und vor allem memorieren. Unterschieden werden die wortwörtlich gegebenen Details von der nicht wortwörtlich formulierten, unscharfen (engl. fuzzy) Hauptaussage. Leser: innen bilden gemäß dieser Theorie beide Arten von Repräsentationen, sie privilegieren aber unbewusst die Hauptaussagen, und zwar durchaus angesichts und trotz widersprechender Fakten, also Details. Abb. 7: Beurteilung von Aussagen im Zusammenspiel von subjektiv eingeschätzter Korrektheit von Details und Hauptaussagen (Quelle: modifizierte Darstellung aus Langdon et al., 2024, S.-3) Sind Details oder Hauptaussagen für die Verarbeitung von Falschinformationen wichtiger? 75 <?page no="76"?> Diesen Grundlagen folgend gibt es einen Vorschlag, wie das Zusammenspiel von Detail- und Hauptaussagenverstehen dafür genutzt werden kann, paradox anmutende Phänomene zu erklären, z.B. warum Personen Aussagen glauben oder teilen, deren Details nicht dazu geeignet sind, die Hauptaussagen zu un‐ termauern (Langdon et al., 2024). Der entscheidende Mechanismus ist hierbei, dass Personen Falschinformationen zu verzeihen bereit sind und deren Weiter‐ verbreitung als weniger unethisch tolerieren, wenn sie der Überzeugung sind, die Hauptaussage stimme (s. oberer Teil in Abb. 7). Entsprechend differenziert der Zugang aus Abb. 7 zwei orthogonale Achsen der von Personen unterstellten Wahrheit, aus denen sich im Falle, dass Details und/ oder Hauptideen unwahr sind, drei Arten von Falschinformationen ergeben, von denen die Typen 1 und 2 aus ethischer Warte problematisch sind: 1. Offenkundige Unwahrheit (Typ 1): Hier sind weder die Details noch die Haupaussagen korrekt, weshalb die Aussage insgesamt inakzeptabel ist. 2. Verfälschung (Typ 2): In diesem Fall suggerieren die korrekten Details, dass die Hauptaussage legitimierbar ist, was sie faktisch nicht ist, was insgesamt dazu führt, dass auch dieser Typus unethisch ist. 3. Wahrheitsgemäße Unwahrheit (Typ 3): Das Oxymoron bezeichnet den Umstand, dass die Details nicht stimmen, die Hauptaussage hingegen schon. Allein daraus speist sich die Akzeptabilität der Aussage - sei es in der eigenen Akzeptanz, sei es in der Bereitschaft, die Nachricht weiterzuverbreiten. Demnach ist die Einschätzung der Hauptideen durch den Abgleich mit Vorwissen bzw. Überzeugungen entscheidend. Damit wird nachvollziehbar, dass Einflussfaktoren wie die politischen, thematischen und weltanschauli‐ chen Überzeugungen hier eine Rolle spielen (s. S.-94 und 98). Lesetipp Einen Überblick über eine Nutzbarmachung der Fuzzy-Trace-Theorie für den Umgang mit Falschinformationen gibt folgender aktueller Über‐ blicksbeitrag. Er widmet sich aus einer entwicklungspsychologischen Sicht dem Thema und klärt, warum Jüngere und Ältere vulnerablere Gruppen sind; diverse Einflussfaktoren werden aufgearbeitet: Edelson, S. M., Reyna, V. F., Singh, A. & Roue, J. E. (2024). The Psychology of Misinformation across the Lifespan. Annual Review of Developmental Psychology, 6(1), 425-454. 76 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="77"?> Können durch Fake News Personen gezielt falsche Erinnerungen eingepflanzt bekommen? Eine weitere negative Folge auf Individualebene wird darin gesehen, dass Fake News die Rezipierenden dazu bringen könnten, dass sie die Inhalte für etwas zu halten, dass sie selbst erlebt haben oder zu wissen glauben. Es wird darum konkret befürchtet, dass Desinformationen - und hier genauer: Fake News - zu falschen Erinnerungen führen können. Solche falschen Erinnerungen werden zunehmend auch in der Forschung zur Desinformation unter dem Stichwort der „False Memory Effects“ diskutiert und vor allem problematisiert. Falsche Erinnerungen Falsche Erinnerungen bezeichnen eine Form des Pseudogedächtnisses. Diese Erinnerungen sind fehlerhaft, weil sie entweder verzerrt sind (jemand erinnert sich also ungenau) oder aber das vermeintliche Er‐ eignis gar nicht stattgefunden hat (es gibt also nichts, woran sich jemand erinnern könnte). Wichtig ist: Die Personen halten das erinnerte Ereignis als solches für wahr und sie glauben überdies daran, dass ihre Erinnerung korrekt ist (Nichols et al., 2015). Aus Sicht der Forschung stellt sich zunächst aber die Frage, ob Personen überhaupt durch Desinformationen dazu gebracht werden können, falsche Erinnerungen aufzubauen. Empirisch untersucht ist das Phänomen noch recht wenig, aber eine neuere Metaanalyse hat die Studienlage aus 13 psychologischen Experimentalstudien zusammengefasst (Schincariol et al., 2024). Das Forschungsteam interessierte sich hauptsächlich dafür, wie hoch der Anteil von Personen war, die nach der Präsentation von Fake News an‐ gaben, deren Inhalt bereits gekannt zu haben (falsche Erinnerungen). Direkt verglichen wurden diese Werte mit jenen, die sich auf echte Nachrichten bezogen, die ebenfalls Gegenstand in den Experimenten waren (wahre Erinnerungen). ■ Zwei von fünf Personen hatten in mindestens einem Fall fälschlicherweise eine Aussage aus einem Fake-News-Beitrag für eine echte eigene Erinne‐ rung gehalten. Im Vergleich dazu waren bei den echten Nachrichten, die als Vergleichsgruppe genutzt wurden, mehr als doppelt so viele Können durch Fake News Personen gezielt falsche Erinnerungen eingepflanzt bekommen? 77 <?page no="78"?> Personen dazu in der Lage, korrekterweise eine wahre Erinnerung an eine echte Information zum Thema wiederzugeben (86 Prozent). ■ Da den Personen mehrere verschiedene Fake News vorlegt worden waren, könnten die Ergebnisse aus dem ersten Punkt verzerrt sein, weil es zu Überschätzungen kommen kann: Wer sich bei mehreren Fake News - die Zahl lag in den Studien zwischen 2 und 10 - nur ein einziges Mal irrte, zählte bereits in diese Gruppe. Berücksichtigte man nämlich die Anzahl der Fake News in den Experimenten, so sank die Zahl auf 22 Prozent. Jede fünfte Person erinnerte sich also an Ereignisse, die es nicht gegeben hatte, die aber in Fake News beschrieben worden waren. Bei den echten Nachrichten und den wahren Erinnerungen lag der korrigierte Wert bei 54 Prozent. Die Unterschiede in korrekten und falschen Erinnerungen fallen in beiden Analysezugängen auf. Entscheidend ist: Selbst bei konservativer Analyse (zweiter Punkt) läuft jede fünfte erwachsene Person Gefahr, durch Fake News falsche Erinnerungen zu bilden. Zusatzanalysen ergaben, dass ähnlich viele Personen auch an diese Aussagen glauben, sie also nicht nur falsch memorieren, sondern zusätzlich noch Bedeutung beimessen. Die Metaanalyse prüfte zu guter Letzt, was vor falschen Erinnerungen schützt. Wer erstens höhere kritisch-analytische Fähigkeiten hatte und zweitens ein höheres Interesse an der Thematik aufwies, lief weniger Gefahr, falsche Erinnerungen durch Fake News aufzubauen. Das Vorwissen war kein Schutzfaktor gegen falsche Erinnerungen, aber es half dabei, sich korrekt an echte Gegebenheiten zu erinnern. Die Ergebnisse dieser Metaanalyse machen also zuallererst darauf auf‐ merksam, dass eine von fünf Personen vulnerabel war, durch Fake News eine falsche Erinnerung zu benennen - wohlgemerkt: bei jeder einzelnen Fake- News-Begegnung. Die Antwort auf die Frage dieses Kapitels lautet also: Ja, zu einem besorgniserregend hohen Anteil können Fake News Personen dazu bringen, sie später für einen bedeutungsvollen echten Gedächtnisinhalt zu halten. 78 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="79"?> Führt schon der einmalige Kontakt mit Falschinformationen zu problematischen Veränderungen in den Überzeugungen? Eine der Befürchtungen rund um die schädlichen Folgen von Falschinfor‐ mationen im Allgemeinen und Desinformationen im Besonderen lautet, dass bereits der erste Kontakt negative Auswirkungen auf Urteile haben kann. Diese Frage hat die empirische Forschung zu bearbeiten begonnen. Zwei Überblicksarbeiten, die eine basierend auf dem Auszählen von si‐ gnifikanten Effekten von Falschinformationen auf gesundheitsbezogene Merkmale (Schmid et al., 2023), die andere eine Metaanalyse zu Effekten von gesundheitlichen Falschinformationen auf Einstellungen bzw. inhaltliche Überzeugungen (Li & Yang, 2025), helfen bei der Einschätzung. Beide Über‐ blicksarbeiten stützen sich auf zusammengezählt fast 100 experimentelle Studien mit über 46.000 erwachsenen Proband: innen, in denen Personen verglichen wurden, die entweder Falschinformationen präsentiert oder nicht präsentiert bekommen hatten. Mit dem Fokus auf die Gesundheitsthe‐ matik sind die Ergebnisse zwar nicht ohne weiteres auf andere Gebiete verallgemeinerbar, aber bereits als solche instruktiv. ■ Der Kontakt mit Falschinformationen führt nicht in allen Fällen zu einer Veränderung. Li und Yang (2025) zufolge ergaben sich Effekte der Falschinformationen auf Überzeugungen in 60 Prozent der Experi‐ mente; ihr metaanalytisch ermittelter Effekt war somit zwar vorhanden, jedoch geringer als erwartet. Schmid et al. (2023) differenzieren dies noch aus. Unter den am häufigsten untersuchten Variablen, die sie auswerteten, zeigten sich die Effekte ungleichmäßig, nämlich mehr bei der Wahrnehmung sozialer Normen, z.B. dem Einschätzen von wissenschaftlichem Konsens (50 %), einem Verlust an Akkuratheit ge‐ genüber korrekten bzw. inkorrekten Aussagen (43 %) und weniger bei gesundheitsbezogenen Verhaltensabsichten wie Impfintentionen (23 %), Einstellungsänderungen wie Einschätzungen von Lebensmitteln (30 %) und einem Verlust an Vertrauen in Institutionen (25 %). Kognitive Maße sind damit anscheinend anfälliger für Effekte der Falschinformationen. ■ Es gibt Merkmale, die das Auftreten von negativen Effekten begünsti‐ gen. So war der negative Effekt in sozialen Medien nicht feststellbar, während die Effekte von Falschinformationen, die in traditionellen Medien kommuniziert worden waren, massiv in Erscheinung trat (Li & Yang, 2025), was man als Sensibilität der Proband: innen hinsichtlich Führt einmaliger Kontakt mit Falschinformationen zu Überzeugungsänderungen? 79 <?page no="80"?> der allgemeinen Vertrauenswürdigkeit von Bestandteilen des medialen Ökosystems werten kann. Ein weiteres Ergebnis war, dass die Effekte dann ungünstiger waren, wenn die Falschinformationen durchgängig falsch waren (statt in einem Verbund mit richtigen Informationen; Li & Yang, 2025). Außerdem gab es bei den Merkmalen der Nachrichten selbst noch zwei Auffälligkeiten: Negative Effekte traten dann auf, wenn zum einen falsche Expert: innen zu Wort kamen und zum anderen verschwörungstheoretische Aussagen Bestandteil der Präsentation von Falschaussagen waren (Schmid et al., 2023). Gesundheitsbezogene Falschinformationen haben direkt nach dem Erstkon‐ takt in einigen Bereichen einen deutlichen, negativen Effekt, der sich als Verunsicherung hinsichtlich des eigenen Wissens und dessen Einschät‐ zung bezeichnen lässt. Neben Eigenschaften der Falschinformationen, die auf eine Verzerrtheit der Faktizität der Quelle hinweisen (durchgängig unwahre/ falsche Aussagen, Personen ohne Expertise äußern sich bzw. verschwörungstheoretische Elemente), ist es ungünstig, wenn der Kontext eine Vertrauenswürdigkeit unterstellt. Aus den Ergebnissen deuten sich also unterschiedliche Weisen an, wie Falschinformationen ihren negativen (ko‐ gnitiven) Effekt erzielen: durch das Vorschützen von Vertrauenswürdigkeit der Quelle und durch eine homogene, kohärente Dosis faktisch falscher Aussagen. Was ist der „Effekt des anhaltenden Einflusses“? Vielleicht haben Sie von der britischen ‚Studie‘ gehört, dass Impfen an‐ geblich Autismus verursacht (Davidson, 2017). Obwohl längst widerlegt und als Betrug enttarnt, ist diese Mär immer noch Bestandteil dessen, was Personen für wahr halten und was Eltern davon zurückhält, ihren Nachwuchs impfen zu lassen. Den Effekt, den diese unrühmliche Publikation hatte und hat (s. S. 135), bezeichnet die Forschung als „Effekt des anhaltenden Einflusses“ („Continued Influence Effect“), also als unerwünschten Effekt fortschreitenden Einflusses von falschen, widerlegten Informationen. Effekt des anhaltenden Einflusses Der Effekt des anhaltenden Einflusses bezeichnet die Tendenz von Personen, dass sie immer noch auf fehlerhafte Informationen in ihrem 80 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="81"?> Denken und Entscheiden zurückgreifen, obwohl diese fehlerhaften Informationen als solche benannt und bekannt sind sowie bereits wi‐ derlegt oder zurückgezogen wurden (Lewandowsky et al., 2012). Diese Fehlleistung, dass Personen Aussagen im Gedächtnis behalten und sie trotz Korrekturbemühungen persistent bleiben, wird über verschiedene Me‐ chanismen erklärt. Einige der zentralen sind die folgenden (Lewandowsky et al., 2012): ■ Aufrechterhalten von mentalen Modellen: Diese Erklärung basiert auf der Annahme, dass Personen bei der Widerlegung von Aussagen Ko‐ härenzlücken in ihren mentalen Vorstellungen haben, die das Gesamt von Aussagen und ihrem Bezug untereinander gefährden. Das gilt vor allem für den Fall, dass Informationen aufeinander aufbauen, indem zum Beispiel Ursache (Masernimpfungen) und Folge (angeblicher Autismus) miteinander verknüpft sind. Die Personen sind (unbewusst) darum bemüht, die Kohärenz ihrer Erinnerung aufrechtzuerhalten - und sei es um den Preis (und teils auch das Wissen), dass eine Aussage (wie die zur angeblichen Nebenwirkung von Impfungen) falsch ist. Dieser Mechanismus beschreibt also, dass die falsche Information dominiert. ■ Mangelnde kontrollierte Gedächtnisprozess: Personen können Probleme haben, die Informationen korrekt zu memorieren bzw. aus dem Gedächt‐ nis abzurufen. So ist es bspw. möglich, dass sie nicht präsent genug haben, ob die strittige Information aus der ursprünglichen Aussage oder der Korrektur stammt. Sie können außerdem Schwierigkeiten dabei haben, die Richtigkeit von Aussagen aus dem Gedächtnis angemessen zu beurteilen, also die automatisch aktivierte Erinnerung an die falsche Information nicht als falsch erkennen, weil sie ihr Gedächtnis nicht ausreichend prüfen. Schließlich gelingt es Personen auch schlechter, das Wort „nicht“ bei der Korrektur von „Impfungen führen nicht zu Autismus“ ausreichend stark zu memorieren und korrekt abzurufen. Es besteht also das Problem, die Korrektur von falschen Informationen korrekt zu memorieren. ■ Vertrautheit und leichte Verarbeitbarkeit der falschen Informationen: Ähnlich wie schon beim Wahrheitsillusionseffekt (s. S. 72) sind die Vertrautheit mit (falschen) Informationen durch wiederholten Kontakt mit den Aussagen und deren leichtere Verarbeitbarkeit durch einen Was ist der „Effekt des anhaltenden Einflusses“? 81 <?page no="82"?> leichteren Zugang weitere Erklärungsansätze. Die heuristisch einge‐ schätzte Bekanntheit einer Aussage und eine einfachere Verarbeitung unterstützen damit im Beispiel, dass Personen Impfen und Autismus als zusammengehörig wahrnehmen. Der Effekt fortschreitenden Einflusses ist aufgrund seiner Hartnäckigkeit ein Problem für die Korrektur von Desinformationen. Denn ähnlich wie beim Wahrheitsillusionseffekt müssen bestehende Gedächtnisspuren nach‐ träglich aufwändig verändert werden. Beeinflusst die Vertrauenswürdigkeit der Quelle von falschen Informationen deren Wirkung? Sourcing gilt als wichtiger Bestandteil des kompetenten Lesens in digitalen Kontexten im Allgemeinen (Salmerón et al., 2018; s. S. 48), darum lässt sich die Frage danach aufwerfen, ob Sourcing Vorteile beim Umgang mit Falschinformationen im Besonderen mit sich bringt. Dies hat ein systema‐ tischer Forschungsüberblick aus 91 Studien mit über 64.000 Testpersonen zu eruieren versucht (Mang et al., 2024). Die Befundlage ist allerdings nicht eindeutig, was das Autorenteam auf diverse methodische Gründe zurückführt. Gleichwohl bestehen studienübergreifende Tendenzen: ■ Bei den Dimensionen der Einschätzungen der Quellen-Vertrauenswürdig‐ keit gibt es nur zum Teil klare Muster. In Studien, welche die Sichtbarkeit der Quelle, die Expertise bzw. die Verzerrung der Quellen als Einzeldi‐ mensionen der Vertrauenswürdigkeit untersucht haben, gibt es wenig klare Muster, die zu statistisch auffälligen Effekten führten. Deutlicher hingegen wirkt das Muster bei der übergeordneten Vertrauenswürdig‐ keit als einem Gesamtmaß, denn hier zeigten sich klarere Effekte: Die allgemeine Vertrauenswürdigkeit und deren Beurteilung korrespondie‐ ren eher statistisch. Diese Eindeutigkeit bei einer allgemeinen Vertrau‐ enswürdigkeitsbetrachtung hat jedoch den Preis der Präzision: Denn es ist dadurch kaum zu entwirren, welche Metadatenmerkmale es genau waren, die zu einer Einschätzung geführt haben. ■ Die Effekte treten bei verschiedenen Gruppen von Variablen unterschiedlich konsistent auf, am eindeutigsten wirkt die Befundlage bei kognitiven Maßen. Die Forschung hat diverse Arten von Variablen ins Auge gefasst, auf die sich die Vertrauenswürdigkeit der Quelle auswirkt. Unterschie‐ 82 Fehlleistungen: wie falsches bzw. misslingendes Leseverstehen funktioniert <?page no="83"?> den wurde zwischen kognitiven Maßen (z.B. wahrgenommene Infor‐ mationsgenauigkeit zu Impfinformationen), evaluativen Indikatoren (z.B. Einstellungen zur Impfung) und Verhaltensweisen (z.B. Impfab‐ sichten). Am konsistentesten waren die Ergebnisse bei den kognitiven Maßen, die zudem die größte Gruppe im Ensemble der untersuchten Bereiche stellten. Bei solchen kognitiven Indikatoren schlugen also die Vertrauenswürdigkeitsvariationen am deutlichsten an. Hier waren vertiefende Betrachtungen insofern erhellend, als die Dimensionen aus der Vertrauenswürdigkeitsbestimmung untersucht wurden. Expertise- Unterschiede bei Aussagen und allgemeine Vertrauenswürdigkeitsindi‐ katoren waren mit Unterschieden assoziiert. Alles in allem wirkt die Befundlage damit nicht eindeutig genug, um gesi‐ chert zu sagen, wie Personen das Sourcing nutzen, um Falschinformationen mittelbar zu beurteilen. Zwar zeichnen sich vor allem bei den kognitiven Indikatoren und generischen Vertrauenswürdigkeitsmerkmalen Tendenzen ab, doch wirkt die bisher vorlegte Empirie noch zu uneindeutig, um klar zu benennen, welche Indikatoren der Vertrauenswürdigkeit maßgeblich beeinflussen, wie Personen Falschinformationen verarbeiten und bewerten. Dies ist kein Unikum dieses Forschungszweigs, denn auch das Sourcing allgemein wird von einer Vielzahl divergierender Befunde charakterisiert, deren Zustandekommen noch nicht ausreichend verstanden ist (Philipp, 2025c). Beeinflusst die Vertrauenswürdigkeit der Quelle von falschen Informationen deren Wirkung? 83 <?page no="85"?> Risiko- und Schutzfaktoren: warum Falsch- und Desinformationen bei den Empfänger: innen (nicht) verfangen Personen sind unterschiedlich anfällig für Desinformationen. Für diese Anfälligkeit hat die Forschung verschiedene Faktoren bestimmt. In die‐ sem Kapitel wird eine Auswahl daraus vorgestellt, wobei die Darstellung dreigeteilt erfolgt. Zu Beginn werden überblicksartig Zusammenhänge und bekannte Faktoren präsentiert, ehe im Nachgang vier Risiko- und drei (potenzielle) Schutzfaktoren behandelt werden. Einstellungen und ein analytischer, distanzierter verstehender Zugang sind aktuell besonders wichtige, aber bei Weitem nicht die einzigen Faktoren, die den Umgang mit Falsch- und Desinformationen ungünstig oder günstig beeinflussen. <?page no="86"?> Wie stellt man sich allgemein die Effekte von Desinformationen vor - und welche Rolle spielen dabei Risikofaktoren? Die Wirkung von Desinformationen wird in verschiedenen Modellen und Theorien unterschiedlich behandelt. Einen überblicksartigen Vorschlag, der vor allem dabei hilft, die Ergebnisse aus Theorie und Forschung gut verortbar zu machen, hat ein Team von Psycholog: innen vorgelegt (van Bavel, Harris, et al., 2021). Dieser Vorschlag ist Gegenstand der Abb. 8. Das Modell unterscheidet den Kontakt mit Desinformationen und dessen beide voneinander trennbaren Folgen: Überzeugungsänderung und Weiter‐ verbreitung (Pennycook & Rand, 2021). Diese Verbreitung kann einerseits mittelbar Folge der geänderten Überzeugungen sein, allerdings auch un‐ mittelbar nach dem Kontakt erfolgen. Anders gesagt: Es ist nicht nötig, seine Überzeugungen auf der Grundlage von Desinformationen geändert zu haben, um Desinformationen zu streuen und damit andere in Kontakt mit den Desinformationen zu bringen. Abb. 8: Modell der Überzeugungsänderung und Verbreitung von Desinformationen (Quelle: adaptierte Darstellung von van Bavel, Harris, et al., 2021, S.-86) Das Modell beinhaltet zentral dargestellt zudem Risikofaktoren, die den Kontakt mit Desinformationen begünstigen, aber auch dessen Folgen: die Überzeugungsänderungen und die Dissemination, also Weiterverbreitung von Desinformationen. Nach der Logik dieses Modells haben Risikofakto‐ ren also unterschiedliche Effekte auf die Wahrscheinlichkeit, Desinforma‐ tionen zu begegnen und mit ihnen internal zu verfahren oder sie sozial zu streuen. 86 Risiko- und Schutzfaktoren <?page no="87"?> Die Forschung hat begonnen, diese Risikofaktoren zu kartieren und zu systematisieren (Ecker et al., 2022; van Bavel, Harris, et al., 2021), wobei das Entscheidende hierbei der Plural ist: Es gibt mehrere solcher Faktoren. Wichtig ist zusätzlich, dass einige dieser Risikofaktoren so massiv sind, dass sich die Korrektur der Effekte von Desinformationen als langfristiges und mühsames Unterfangen erweist (s. S.-105). Der Plural bei den Risikofaktoren ist noch eine weitere Bemerkung wert: Es gibt nicht nur einen Faktor, der vom Kontakt zu kognitiven bzw. Verhaltenseffekten führt, sondern es besteht die Gefahr, dass bestimmte Kombinationen das Risiko negativer Folgen von Desinformationen verstär‐ ken. Diese Risikoakkumulation macht also Personen anfälliger. Welche Risikofaktoren werden aktuell für besonders wichtig gehalten? Der Frage, welche Personenmerkmale mit einer erhöhten Anfälligkeit für die Effekte von Falschinformationen einhergehen, ist in zwei Bereichen besonders gut erforscht. Zum einen handelt es sich um die Suche nach Merkmalen in eher politischer Kommunikation (Sultan et al., 2024). Zum anderen widmet sich die Forschung solchen Merkmalen im Bereich der ge‐ sundheitsbezogenen Falschinformationen (Nan et al., 2022). Je nach Erkennt‐ nisinteresse werden unterschiedliche Merkmale von Personen betrachtet, entscheidend ist hierbei der Blick auf mehrere Faktoren, auch in der Theorie. Ein alleiniges Merkmal reicht in der Regel demnach nicht aus, um die Vulnerabilität von Gruppen zu bestimmen. Welche Risikofaktoren werden aktuell für besonders wichtig gehalten? 87 <?page no="88"?> Abb. 9: Einflussfaktoren für die Empfänglichkeit von gesundheitsbezogenen Falschinfor‐ mationen (Quelle: modifizierte Darstellung von Nan et al., 2022, S.-9) Ein Beispiel für die Sammlung von Risikofaktoren - weitere liegen durchaus vor (z.B. Chen et al., 2023) - ist eine Extraktion von 46 verschiedenen Merkmalen, die bei gesundheitsbezogenen Themen (primär Covid-19) aus 61 Studien vorgenommen wurde (Nan et al., 2022) und in Abb. 9 zusam‐ mengefasst dargestellt ist. Entscheidend sind an dieser Stelle die vier grau unterlegten Gruppen aus dem oberen Teil der Grafik: ■ Fähigkeiten zum genauen Denken: Hierbei gelten verschiedene kognitive Ressourcen wie Vorwissen und vor allem ein kompetenter Umgang mit Informationen in einzelnen Domänen als einflussreich. Die empirisch stark gestützte Annahme ist, dass mehr solcher Ressourcen als Schutz- und weniger solcher Ressourcen als Risikofaktor zählen. 88 Risiko- und Schutzfaktoren <?page no="89"?> ■ Genauigkeitsorientiertes Denken: Unter diese Kategorie fallen diverse das eigene Denken, aber auch das Vertrauen von epistemischen Autori‐ täten betreffende Merkmale. Vor allem das kritische Denken und das (begründete) Vertrauen in Wissenschaft gelten aus empirischer Sicht als protektiver Faktor. Verschwörungsdenken hingegen ist ein Risikofaktor, ebenso eine häufige und einseitige Nutzung von sozialen Medien. ■ Richtungsorientiertes Denken: Dieses zielgerichtete Denken stellt das Gegenteil vom genauigkeitsorientierten Denken insofern dar, als das Er‐ gebnis in Passung mit eigenen Sichtweisen bereits vorgängig feststeht. Das trifft vor allem auf politische und religiöse Weltsichten zu, teils auch auf starke Emotionen wie Ängste. ■ Identitätsmotiviertes Denken: In dieser Form des zielgerichteten Denkens ist vor allem die soziale Identität gemeint, also das Eingebundensein in Gruppen, denen sich Individuen zugehörig fühlen, darunter Parteien, aber auch Nationen. So gehen z.B. Konservatismus und der Glaube an nationale Überlegenheit (nationaler Narzissmus) mit einer erhöhten Empfänglichkeit für Falschinformationen einher. Es gibt also ganze Gruppen von Merkmalen, die sich als ungünstig erweisen und Personen anfälliger machen für Falschinformationen. Stark ausgeprägte weltanschauliche Werte und gute kognitive Ressourcen wirken hierbei wie Gegenspieler und können die Effekte von Falschinformationen verstärken oder abschwächen. Was ist „zielgerichtetes Denken“ und warum wird es als Risikofaktor erachtet? Wenn es um den Glauben an Falschinformationen geht, werden häufig zwei Arten von Erklärungen bemüht. Die erste bezieht sich darauf, dass Personen Inhalte nicht ausreichend analytisch prüfen (s. S. 101), die zweite sieht eher die Motivation als Problem an (van der Linden, 2022). Das Stichwort hier lautet: zielgerichtetes Denken. Was ist „zielgerichtetes Denken“ und warum wird es als Risikofaktor erachtet? 89 <?page no="90"?> Zielgerichtetes Denken „Zielgerichtetes Denken bezieht sich auf die Tendenz von Individuen, die Bewertung von objektiven Informationen unbewusst an einem Ziel auszurichten, das neben der Bewertung des Wahrheitsgehalts existiert.“ (Kahan, 2015, S.-2) Mit dem zielgerichteten Denken werden also Tendenzen von Personen beschrieben, unbewusst - oder bewusst - in Abhängigkeit ihrer Ziele Informationen so zu verarbeiten, dass sie ihre Ziele erreichen. Diese Ziele können durchaus positiv sein (z.B., wenn jemand bewusst das Ziel verfolgt, etwas genau zu verstehen oder korrekte Überzeugungen aufzubauen, bspw. zum menschengemachten Klimawandel). Im Rahmen der Falschinformati‐ onsthematik sind aber vor allem die weltanschaulichen oder mit der eigenen Identität verbundenen unbewussten Ziele gemeint (z.B. eine kollektive oder individuelle starke Ablehnung von Klimaschutzmaßnahmen mit Ein‐ schränkungen vorheriger Konsumweisen), die eine selektive Verarbeitung und Beurteilung nach sich ziehen (etwa eine Präferenz von Nachrichten, die Aussagen zum Klimaschutz negativ darstellen, oder sogar Falsch- und Desinformationen zum Thema, solange sie der eigenen Anschauung ent‐ sprechen; Kunda, 1990; van der Linden, 2022). Um das zielgerichtete Denken besser zu verstehen, hilft ein Vergleich verschiedener und prototypischer Arten, die Gegenstand in Abb. 10 sind. Die Grundidee hinter der grafischen Darstellung ist, dass die revidierten Überzeugungen davon abhängen, wie die Ursprungsüberzeugungen in Abhängigkeit mit den neuen Belegen bzw. Informationen interagieren. Entscheidend ist, wie und auf welche Weise die neuen Belege und Informa‐ tionen verarbeitet und beurteilt werden - und damit, was die Grundlage der Beurteilung und damit die rekonstruierbare Motivation ist (Kahan, 2015). In der Reihenfolge der Abb. 10 von oben nach unten sind dies drei: ■ Wahrscheinlichkeitsbasierte Informationsverarbeitung: Eine Leserin ur‐ teilt in diesem Falle aufgrund von Kriterien, die mit der Wahrheit bzw. der Annäherung an sie übereinstimmen. In diesem Fall hätte eine neue, aber sehr plausible Information die Chance, dass sie die vorherige Überzeugung überwiegt und darum zu einer Veränderung führt. Wer bspw. liest, dass sich 97 Prozent der Klimaforscher: innen einig sind, dass der aktuelle Klimawandel menschenverursacht ist, wird den Konsens 90 Risiko- und Schutzfaktoren <?page no="91"?> in der Forschung als Indikator für eine hohe Wahrscheinlichkeit der Korrektheit der Aussage annehmen. Abb. 10: Arten der Informationsverarbeitung beim zielgerichteten Denken (Quelle: modifizierte Darstellung von Kahan, 2015, S.-3) Was ist „zielgerichtetes Denken“ und warum wird es als Risikofaktor erachtet? 91 <?page no="92"?> ■ Informationsverarbeitung mit Bestätigungsfehler: Personen neigen dazu, Aussagen entsprechend ihren inhaltlichen Überzeugungen zu verarbei‐ ten und dabei überzeugungskongruente Aussagen leichter zu akzeptie‐ ren bzw. abweichende Aussagen kritischer zu prüfen (s. nächste Frage). So können Personen die Konsensaussage von Expert: innen für wenig belastbar halten, wenn sie selbst der Auffassung sind, der Klimawandel sei rein natürlichen Ursprungs. ■ Politisch motivierte Informationsverarbeitung: Treibende Kraft bei der Beurteilung ist die Zugehörigkeit zu einer Gruppe von Personen mit ähnlichen politischen bzw. weltanschaulichen Merkmalen, wobei dies eine identitätsstiftende Funktion hat. In diesem Fall werden die politi‐ schen Einstellungen dazu genutzt, neue Informationen zu beurteilen, nämlich danach, wie stark sie in der Gruppe, der man sich politisch zugehörig fühlt, befürwortet oder abgelehnt werden. Die Konsensaus‐ sage zum menschenverursachten Klimawandel wird damit in diversen politischen Gruppen unterschiedlich stark als wahr akzeptiert oder abgelehnt. Zielgerichtetes Denken ist also janusköpfig. Es kann positiv vertieftes Verstehen und eine Optimierung von Überzeugungen ermöglichen. Es kann derlei aber auch verhindern und Bestehendes zementieren, wenn eigene (politische) Überzeugungen zu stark ausgeprägt sind und die Verarbeitung von zulässigen Positionen erschweren oder verhindern. In diesem Fall ist es ein Risikofaktor. Was verbirgt sich hinter dem Bestätigungsfehler und warum gilt er als ungünstig? Menschen haben zu vielen verschiedenen Themen Meinungen bzw. Über‐ zeugungen, sie verarbeiten Aussagen also nicht neutral, seien es Informatio‐ nen, Falsch- oder Desinformationen. Solche Annahmen sind allgegenwärtig und haben viele Bezugspunkte, z.B. tragen wir in uns inhaltliche Überzeu‐ gungen zu verschiedenen Themen wie der Gefahr von Mobilfunkstrahlung, günstigen Erziehungsstilen oder zur Komplexität von Phänomenen wie Globalisierung etc. 92 Risiko- und Schutzfaktoren <?page no="93"?> Überzeugungen In der Forschung werden Überzeugungen ganz allgemein als genauig‐ keitsfokussierte Hypothesen von Individuen über bestimmte Aspekte der Welt beschrieben, sei es, weil Personen bereits über den Genauig‐ keitsstatus von Aussagen eigene Annahmen haben oder diesen Status erst noch prüfen wollen (Oeberst & Imhoff, 2023). Überzeugungen haben demnach einen Bezug dazu, was Personen für korrekt halten. Die Folgen der Überzeugungen werden mit Blick auf Verstehensleistungen nicht als rein positiv oder ausschließlich negativ angenommen, sondern gelten eher als eine Möglichkeit, kognitiv sparsam Informationen leichter zu verarbeiten, die zu den eigenen Einstellungen passen (Mercier, 2022; Oeberst & Imhoff, 2023). In einem engen Verständnis wird dies als „Text-Überzeu‐ gungskonsistenz-Effekt“ (s. S. 98) bezeichnet und benennt die Tendenz, jene Textinhalte automatisch bei Verstehensprozessen zu privilegieren, die mit den eigenen thematischen Überzeugungen konsistent sind. Aus einer etwas umfassenderen Perspektive meint man einen Effekt von nicht nur themati‐ schen, sondern weiter gefassten Überzeugungen, darunter ideologischen, religiösen etc., wenn es um ein Mediennutzungs- und Informationsverhalten geht, das eine stark einseitige Tendenz zugunsten eigener Überzeugungen aufweist. Dies wird als Bestätigungsfehler bezeichnet, wobei sich diese Benennung noch als zu ungenau erwiesen hat. Bestätigungsfehler oder my-side-bias - was ist präziser? In der Forschung wird häufig allgemein vom Bestätigungsfehler („con‐ firmation bias“) gesprochen. Bei strenger Auslegung ist damit gemeint, dass Personen jeden eigenen Gedanken bestätigen würden. Das Gegen‐ teil ist aber der Fall: Menschen bestätigen nur das, wovon sie inhaltlich überzeugt sind. Wenn sie jedoch mit etwas nicht einverstanden sind, be‐ mühen sie sich, die inhaltlich nicht geteilte Position mit Ausnahmen, Ge‐ genbeispielen und -argumenten zu widerlegen („disconfirmation bias“). Darum ist der Ausdruck „my-side-bias“, die Meine-Seite-Verzerrung, für die überzeugungsbasierte Informationsverarbeitung präziser (Mercier, 2022). Was verbirgt sich hinter dem Bestätigungsfehler und warum gilt er als ungünstig? 93 <?page no="94"?> Die verzerrte, von Überzeugungen gesteuerte Verarbeitung (und die darauf aufbauende Evaluation) von (Falsch-/ Des-)Informationen gilt als Risikofak‐ tor. Das gilt zumal in einer algorithmusbasierten Vorsortierung von Inhalten, denn diese bergen die Gefahr, dass Leser: innen unerkannt zu den eigenen Ansichten passende Inhalte gezielt vorsortiert bekommen, was dazu führen kann, Publika und Nutzer: innengruppen zu fragmentieren (Kozyreva et al., 2020). Es ist damit weniger der my-side-bias das genuine Problem, sondern vielmehr dessen unkorrigierter Einfluss, der zu einer Vereinseitigung und Selbstverstärkungen führen kann. Warum gilt politischer Konservatismus (im Sinne der Parteilichkeit) als Risikofaktor? Einstellungen und Überzeugungen beeinflussen, wie Personen auf Aussagen reagieren und sie verarbeiten, darunter fallen die politischen bzw. weltan‐ schaulichen Ansichten, die unter dem Sammelbegriff „politische Ideologie“ geführt werden. Gemeint sind damit eine Reihe miteinander verbundener Einstellungen, Werte und Überzeugungen, die den Menschen helfen, die politische Welt zu organisieren und zu vereinfachen (Kteily & Brandt, 2025). Diese Einstellungen, Werte und Überzeugungen lassen sich reihen und ver‐ orten, die einfachste Variante ist das politische Spektrum von konservativen bis liberalen politischen Ideologien. Die Anhänger: innen dieser Ideologie werden gemäß ihrer Parteilichkeit klassifiziert, und es wird zu erklären versucht, ob und worin sie sich unterscheiden, darunter zunehmend auch in Fragen, wie die Personen mit Falsch- und Desinformationen umgehen (van Bavel, Harris, et al., 2021, van Bavel, Rathje, et al., 2024). Für die Parteilichkeit - also das Zugehörigkeitsgefühl zu einer Gruppe von politisch eingestellten Personen bzw. Organisationen und die daraus resultierende soziale Identität - wird angenommen, dass soziale Ziele (wie der Wunsch, als Teil einer Gruppe von Gleichgesinnten bestätigt zu werden) bestehen. Diese Ziele koexistieren mit kognitiven Zielen, zum Beispiel dem akkuratheitsbezogenen Suchen nach wahren, neutralen Informationen und Wissen. Beide Zielarten können konkurrieren und je nach Kontext interagieren. Entscheidend ist, dass gerade bei polarisierten und stark die soziale Identität betreffenden Sachverhalten soziale Ziele dominieren kön‐ nen und andere Ziele nachrangig werden, sodass Personen stark einseitig vorgehen und darum Falschinformationen nicht nur glauben, sondern auch 94 Risiko- und Schutzfaktoren <?page no="95"?> verbreiten, wenn sie mit den sozialen Zielen kongruent sind (Pennycook & Rand, 2021; van Bavel, Rathje, et al., 2024). Bei den allgemeinen Effekten der Parteilichkeit wird immer wieder auf spezifische Merkmale einzelner Gruppen hingewiesen, die entsprechend erforscht werden. Inzwischen existiert ein vergleichsweise konsistentes Bild in der empirischen Forschung, dass konservative politische Einstellungen eher ungünstig mit den Effekten von Falsch- und Desinformationen zusam‐ menhängen. Pointiert wurde dies in einem aktuellem Forschungsüberblick beschrieben, der bei aller Uneindeutigkeit in verschiedenen Forschungsge‐ bieten Folgendes festhält: Politisch Konservative sind nach gegenwärtigem Kenntnisstand eher geneigt, Falsch- und Desinformationen zu glauben und zu verbreiten; zudem sind sie teils schwerer mit Gegenmaßnahmen zu erreichen, denn die Effekte fallen in dieser Gruppe systematisch geringer aus (Kteily & Brandt, 2025). Mehrere Metaanalysen bzw. sehr große Studien mit zusammengenom‐ men 360.000 Teilnehmer: innen illustrieren, dass diese Problemlagen an gleich mehreren Stellen vorfindbar sind: Sich selbst als politisch konservativ identifizierende erwachsene Personen (viele davon aus den USA mit ihrem polarisierten Zwei-Parteien-System) ■ können Falsch- und echte Nachrichten weniger gut differenzieren (Kyry‐ chenko et al., 2025); ■ weisen die ungerechtfertigte Tendenz auf, wahre Nachrichten fälschli‐ cherweise für Falschinformation zu halten („Skepsisverzerrung“/ “Skep‐ tizismus“, s. S. 109; Pfänder & Altay, 2025; dieser Effekt gilt aber in umgekehrte Richtung ebenfalls für politisch Liberale) bzw. teils auch dazu, eher naiv Nachrichten für wahrer zu halten, als sie es sind, wenn sie ihrer politischen Überzeugung entsprechen (Sultan et al., 2024); ■ sind eher gewillt, Falschnachrichten zu verbreiten (Pennycook & Rand, 2022); ■ besitzen ein geringeres Vertrauen in Faktencheck-Organisationen (Martel & Rand, 2024); ■ sind mit Gegenmaßnahmen bei Falschinformationen wie Akkuratheits‐ hinweisen (Martel et al., 2024) oder Faktenchecks (Walter et al., 2020) teils weniger gut erreichbar. Soziale Ziele, bei denen die Zugehörigkeit zu gemeinsam getragenen Wer‐ ten, Einstellungen und Weltsichten handlungsleitend sind, bilden eine eigene Kategorie und sind treibende Kraft für den Umgang mit Des-, Falsch- Warum gilt politischer Konservatismus (im Sinne der Parteilichkeit) als Risikofaktor? 95 <?page no="96"?> und generell Informationen. Sie beeinflussen die Informationsverarbeitung und -verbreitung. Anscheinend sind politisch konservativ eingestellte Per‐ sonen aber als Gruppe mit ihren sozialen Zielen anfälliger für die ungüns‐ tigen Effekte von Falschinformationen. Weshalb lässt sich die Empfänglichkeit für „Bullshit“ als Risikofaktor modellieren? Angenommen, Sie sollten Sätze wie die folgenden danach beurteilen, für wie tiefgründig Sie sie halten (1 = überhaupt nicht tiefgründig, 2 = etwas tiefgründig, 3 = ziemlich tiefgründig, 4 = definitiv tiefgründig, 5 = sehr tief‐ gründig): „Die Vollkommenheit bewirkt, dass unendliche Phänomene zur Ruhe kommen“ oder „Die Vorstellungskraft befindet sich innerhalb exponentieller Raum-Zeit-Ereignisse“. Wie würden Sie derlei einschätzen? Diese und acht weitere ähnliche Aussagen formieren die Skala zur Erfassung von Bullshit-Empfänglichkeit (Pennycook et al., 2015). Sie misst die Neigung, Bullshit für bedeutungsvoll zu halten, was als „Empfänglichkeit für Bullshit“ bezeichnet wird und wiederum als Persönlichkeitsmerkmal gilt. Bullshit und Bullshit-Empfänglichkeit Bullshit liegt dann vor, wenn sich jemand zu einer zu klärenden Fra‐ gestellung so äußert, dass sich zum einen die Antwort der Wahrheits‐ findung entzieht und dass es zum anderen gleichgültig ist, ob die Antwort in der Sache wahr oder falsch ist und ob die Belege ausreichend sind (Stokke & Fallis, 2017). Einen Ausschnitt daraus stellt der „pseudo‐ begründete Bullshit“ dar, auf den sich das psychologische Konstrukt der Bullshit-Empfänglichkeit bezieht. Es bezeichnet die Tendenz, bedeu‐ tungsvoll klingende miteinander verbundene Schlagwörter als wirklich tiefgründig wahrzunehmen (Sepúlveda‐Páez et al., 2025). Wer Sätze wie jene aus der Einleitung dieses Kapitels für sinnhaft hält, gilt als empfänglich für Bullshit. Erklärt wird dies darüber, dass Personen zu unkritisch mit Aussagen von anderen umgehen und darum nicht dazu in der Lage sind, Unsinn als solchen zu erkennen (Pennycook et al., 2015). Wer in diesem Sinne vulnerabel ist, hat gemäß einer aktuellen Metaanalyse mit 46 Studien (Sepúlveda‐Páez et al., 2025) einige weitere Tendenzen in 96 Risiko- und Schutzfaktoren <?page no="97"?> Aufgaben gezeigt, die aus Sicht der Falsch- und Desinformationsforschung als ungünstig gelten und die vor allem mit den Referenzpunkten des eigenen Denkens zu tun haben: ■ Die Personen akzeptieren generell auch weitere Behauptungen mit geringer inhaltlicher Aussagekraft. Das interpretieren die Autor: innen der Meta‐ analyse als Indiz dafür, dass Personen zu leichtgläubig sind, also generell weniger dazu neigen, Aussagen kritisch zu hinterfragen. ■ Die Personen weisen gemeinsam mit der Neigung, Bullshit zu glauben, stärker ausgeprägte Verschwörungs-, religiöse und paranormale Überzeu‐ gungen auf. Das bedeutet, die Personen sind - im Falle der paranormalen Überzeugungen - spirituell empfänglicher, glauben an Astrologie, An‐ zeichen von Glück etc. bzw. haben religiöse Überzeugungen, glauben also an die Existenz Satans, von Engeln, Wundern und dergleichen. Außerdem sind sie stärker der Überzeugung, dass es Verschwörungen gibt. ■ Die Personen haben Schwierigkeiten, objektive und subjektive Phänomene voneinander zu trennen, und weisen die Tendenz auf, Intuitionen stark zu vertrauen. Das bedeutet, sie glauben daran, dass bspw. Beten die Gesundheit positiv beeinflusst, und neigen dazu, ihre subjektiven Ein‐ drücke als Entscheidungsgrundlage zu nutzen. Im Lichte dieser Ergebnisse zeichnet sich also die Tendenz ab, dass die unge‐ prüfte Akzeptanz von Behauptungen als belastbare, sinnhafte Aussagen mit einer ganzen Phalanx an problematischen Denkweisen und Überzeugungen einhergeht. Die Orientierung an subjektiv für wahr gehaltenen, irrationalen Gewissheiten und Grundsätzen korrespondiert also mit einem unkritischen Umgang mit obskuren Behauptungen. Die als „Bullshit“ bezeichneten Aussagen sind nicht das Gleiche wie Falschinformationen, weil Wahrheit oder Faktizität keine Kategorien sind, die qua Definition für Bullshit greifen. Auch die für Desinformationen so wichtige Täuschungsabsicht ist aufgrund der Gleichgültigkeit der Bullshit produzierenden Person bzw. Organisation nicht ausschlaggebend. Gleich‐ wohl ist es wichtig, das Phänomen, dass Personen sich von bedeutungs‐ schwanger wirkenden Phrasen blenden lassen, als Problem anzuerkennen. Das Phänomen legt nahe, die Bullshit-Empfänglichkeit als Risikofaktor zu bewerten, da sie eine oberflächliche Verarbeitung von Aussagen nahelegt, die zugleich als eine wichtige Erklärung für die Empfänglichkeit für Falsch‐ information gilt (van der Linden, 2022). Weshalb lässt sich die Empfänglichkeit für „Bullshit“ als Risikofaktor modellieren? 97 <?page no="98"?> Was sind thematische Überzeugungen und wie wirken sie sich nachteilig auf das Leseverstehen aus? Neben den epistemischen, also wissensbezogenen Überzeugungen (s. S. 55) tragen Personen inhaltliche Auffassungen in sich, wenn sie sich über Gegenstände informieren bzw. mit ihnen konfrontiert werden. Gerade bei kontroversen Themen sind diese wirkmächtig - und teils auch hinderlich. Thematische Überzeugungen Thematische Überzeugungen werden als subjektive Standpunkte ge‐ genüber dem Wahrheitswert von Aussagen definiert, unabhängig von der tatsächlichen Wahrheit oder dem Vorliegen von Belegen (Wolfe & Griffin, 2017). Thematische Überzeugungen (etwa dass Handystrahlung gesundheitsge‐ fährlich sei) unterscheiden sich insofern vom thematischen Vorwissen (dass es aktuell keine ausreichenden Belege für strahlungsbedingte Gefährdungen gibt), als jemand etwas kognitiv verstehen oder sogar wissen kann, aber trotzdem der persönlichen Ansicht sein kann, dass dieses Wissen falsch ist. Überzeugungen unterscheiden sich ferner von Einstellungen, denen eine affektive Komponente innewohnt, indem es jemand aus Angst ablehnt, dass in der direkten Nachbarschaft eine Mobilfunkantenne aufgestellt wird (Wolfe & Griffin, 2017). Thematische Überzeugungen sind lesepsychologisch zunächst eine Res‐ source für einen „Validieren“ genannten Prozess, bei dem neue Informatio‐ nen automatisch einer Prüfung unterzogen werden und bei einer Passung mit Vorwissen, bislang Rezipiertem, aber auch den eigenen inhaltlichen Überzeugungen flüssig weiterverarbeitet werden (Richter & Maier, 2017). Dieser kognitiv energiesparende Mechanismus ist damit eine Unterstützung für das Verstehen, hat aber eine Schwachstelle: den „Text-Überzeugungskon‐ sistenz-Effekt“. Dieser Effekt wird dann zum Nachteil, wenn die Vielschich‐ tigkeit und Komplexität von uneindeutigen und kontroversen Sachverhal‐ ten eine Verstehensleistung erfordern, bei der die filternde Funktion der Überzeugungskonsistenz zu einer einseitig verzerrten Repräsentation führt. Dieses durchgängige Muster ergab sich bspw. in dem Überblicksbeitrag von Richter und Maier (2017) mit 18 Studien. Inzwischen zeichnet sich ab, dass dieser Text-Überzeugungskonsistenz-Effekt deutlicher bei Leistungen 98 Risiko- und Schutzfaktoren <?page no="99"?> auftritt, bei denen die Leser: innen Inferenzen bilden, als es bei reinen Erinnerungsleistungen isolierter Fakten der Fall ist (Philipp, 2025c). Das bedeutet, dass der unkorrigierte Effekt eigener thematischer Über‐ zeugung eher ungünstig ist, wenn der Gegenstand und dessen Verstehen Ausgewogenheit und Balance erfordern - was angesichts der Komplexität vieler Phänomene eher der Normalfall ist. Falschinformationen, die thema‐ tisch zu den Auffassungen passen, haben mutmaßlich gerade bei kontrover‐ sen Themen mit dem Text-Überzeugungskonsistenz-Effekt gleichsam ein Schlupfloch, das es ihnen erleichtert, privilegiert verarbeitet zu werden. Ist Lesekompetenz ein ausreichender Schutz vor Falschinformationen? Lesekompetenz ist ein psychologisches Konstrukt, welches weiter gefasst ist als das Leseverstehen (s. S. 40). Kompetenzen sind in der Regel Leistungs‐ dispositionen, die Personen dazu befähigen, in variablen Situationen hand‐ lungsfähig zu sein und ein optimales Ergebnis bei einer Leistungsanforde‐ rung zu erbringen, z.B. beim Lesen von Dokumenten und der Einschätzung deren potenzieller Glaubwürdigkeit. Solche Fähigkeiten werden zunehmend in Kompetenzstufenmodelle aufgenommen und sie sind dort eher in den oberen Kompetenzstufen verortbar, sie zählen also zu den anspruchsvolleren Fähigkeiten (Philipp, 2023, 2025a). Innerhalb der so verstandenen Lesekompetenz sind also sowohl verste‐ hende, d.h. den Textsinn zunächst konstruierende, als auch evaluative, d.h. die Plausibilität der Aussagen bzw. die Vertrauenswürdigkeit von Quellen betreffende, Fähigkeiten nötig. Diese werden dadurch zum potenziellen Schutzfaktor, wenn sie eine solide Basis für die Beurteilung von episte‐ misch unsicheren Informationen bzw. deren Ursprung bilden (s. S. 43). Was beurteilt werden soll, setzt in vielen Fällen das Verstehen voraus, insbesondere wenn fehlerhafte oder bewusst desinformierende Aussagen nicht offensichtlich sind, sondern subtiler in Texten vorliegen (s. S. 132). Ein anderes, empirisch allmählich erforschtes Feld ist, dass Leistungen wie die Beurteilung von Quellen dann besser gelingen, wenn Leser: innen zu inferenziellen Leseleistungen imstande sind (Philipp, 2025c). Wer Vorwissen für das Verknüpfen von Aussagen und das Erschließen von impliziten Aus‐ sagen erfolgreich nutzt, kann vor diesem Hintergrund Quellen ebenfalls eher kritisch einschätzen. Die gemeinsame Klammer beider Fähigkeiten ist die Ist Lesekompetenz ein ausreichender Schutz vor Falschinformationen? 99 <?page no="100"?> Fähigkeit zum angemessenen schlussfolgernden Denken und begründbaren Urteilen. Lesekompetenz ist darum eher als ein allgemeiner Schutzfaktor zu verste‐ hen, von dem annehmbar ist, dass er eine notwendige, aber nicht hinreichende Bedingung dafür darstellt, Falschinformationen variierender Art adäquat zu adressieren. Gleichwohl ist noch zu wenig darüber empirisch bekannt, in welchem Ausmaß Lesekompetenz faktisch schützt und welche weiteren kognitiven Prozesse wie das kritische Denken zusätzlich im Verbund mit dem Lesen nötig sind (Braasch & Graesser, 2020). Was ist intellektuelle Demut und warum gilt sie als Schutzfaktor? Da uns Menschen keineswegs eine immer nur rationale Wahrnehmung, Ver‐ arbeitung von und Reaktion auf Informationen und Aussagen innewohnt, ist die Einsicht darin ein wichtiger Schutz, allzu schnell Dinge als wahr anzunehmen oder als unwahr abzutun. In der Forschung hat sich dafür ein Name etabliert: die „intellektuelle Demut“. Intellektuelle Demut Die intellektuelle Demut wird als ein zuvorderst metakognitives Kon‐ strukt verstanden, dessen Kern darin besteht, sowohl die Grenzen des eigenen Wissens anzuerkennen als auch sich der eigenen kognitiven Fehlbarkeit bewusst zu sein (Porter et al., 2022). Wer sich also seiner eigenen kognitiven Limitationen gewahr ist, weist einige insgesamt positive Merkmale auf, wie es ein Forschungsüberblick zeigt (Porter et al., 2022). Demnach geht erhöhte intellektuelle Demut mit ei‐ nigen der Big Five der Persönlichkeit einher (höhere Verträglichkeit, höhere Offenheit für Erfahrungen, weniger Neurotizismus). Daneben sind soziale Merkmale solcher Person wünschenswert positiver ausgeprägt, darunter Perspektivenübernahme, Prosozialität und Kompromissbereitschaft. Ebenso gibt es in kognitiver Hinsicht positive Zusammenhänge, z.B. mit einem erhöhten Kognitionsbedürfnis und weniger Dogmatismus. Dies lässt erwarten, dass im Kontext der Desinformationen intellektuelle Demut günstig ist. Eine aktuelle Metaanalyse hat dies überprüft, wobei es 100 Risiko- und Schutzfaktoren <?page no="101"?> weniger um Desinformationen ging, sondern vielmehr um die Anfälligkeit für falsche Informationen (Bowes & Fazio, 2024). Aus 27 Studien mit fast 34.000 erwachsenen Personen stammten die Daten, die in den Bereichen Überzeugungen, Verhaltensabsichten und (Gesundheits-)Verhalten ausge‐ wertet wurden. Die Ergebnisse: Wer eine höhere intellektuelle Demut aufweist, ■ glaubt weniger an Fake News, Pseudowissenschaft und Verschwörungs‐ theorien (hat also günstigere Überzeugungen); ■ neigt weniger zum Verbreiten von Fake News, dafür aber zur Überprü‐ fung von falschen Informationen, und will sich eher impfen lassen (hat also distanzierende und gesundheitsbezogene Verhaltensabsichten), und ■ gibt mehr Verhaltensweisen an, die auf ein aktives Gesundheitsverhalten schließen lassen. Vertiefende Analysen bei verschiedenen Dimensionen der intellektuellen Demut ergaben, dass zwei Facetten beim verringerten Glauben an Fake News bedeutend waren. Wer zum einen weniger seine eigenen intellektu‐ ellen Fähigkeiten überschätzt und zum anderen sein Selbstbild und seinen Intellekt weniger straff aneinander koppelt, ist Fake News gegenüber dis‐ tanzierter und wirkt weniger gefährdet. Gerade dieser letzte Befund ist erhellend, unterstreicht er doch, dass der metakognitive Kern der intellektu‐ ellen Demut tatsächlich die engsten Zusammenhänge mit einem günstigen Umgang mit Desinformation aufweist. (Warum) Ist analytisches Denken ein Schutzfaktor? Gibt es ein Korrektiv im eigenen Denken, welches dafür sorgt, allzu schnell intuitiv und damit unkritisch Aussagen als wahr anzunehmen, die es nicht sind? Dies ist die Kernfrage jenes Forschungszweigs aus der Falschinfor‐ mationsforschung, der sich dem analytischen Denken oder auch kritisch reflektiertem Denken widmet. Dieses analytische Denken wird häufig mit dem „Cognitive Reflection Test“ (CRT) gemessen. Dieser Test stellt kurze Aufgaben wie die folgende: Ein Schläger und ein Ball kosten 1,10 Dollar. Der Schläger kostet einen Dollar mehr als der Ball. Wie hoch ist der Preis des Balls? Die intuitive Antwort ist oftmals: 10 Cent; die richtige Antwort, die ein genaueres Denken erfordert, lautet indes: 5 Cent. Dieser Test misst die Fähigkeit, die erste impulsive Reaktion unseres Denkens zu stoppen (die 10 (Warum) Ist analytisches Denken ein Schutzfaktor? 101 <?page no="102"?> Cent als Antwort erbringt) und die Reflexionsmechanismen zu aktivieren, welche eine überlegtere Antwort ermöglichen. Diese Fähigkeit basiert zu großen Teilen auf der Intelligenz einer Person (Otero et al., 2022). Es gibt verschiedene Erklärungsansätze zur Wirkweise der kognitiven Fähigkeiten, die der CRT messbar macht. Darunter fallen der Erwerb von Wissen und Bildung mit den daraus resultierenden besseren kognitiven Fähigkeiten als Basis, aber auch die Fähigkeiten, logische Inkonsistenzen schneller zu erkennen oder metakognitiv stärker die eigene Anfälligkeit für Fehler überwachen zu können (Edelson et al., 2024; Pennycook & Rand, 2021). Kritische Stimmen in der Forschung mahnen an, dass die Bedingun‐ gen und das Zusammenspiel des analytischen Denkens noch wesentlich genauer zu beschreiben wären, um besser zu verstehen, wann und wie dieses Denken bei der Verarbeitung und vor der Verbreitung von Falsch- und Desinformationen schützt (Kwek et al., 2023). Selbst wenn die theoretischen Zusammenhänge noch nicht ausreichend geklärt wirken, so korrelieren Fähigkeiten zum analytischen Denken güns‐ tig mit Indikatoren angemesseneren Umgehens mit Falschinformationen: ■ Höhere Werte im CRT korrespondieren mit besserem Erkennen von falschen und korrekten Schlagzeilen. Das berichten übereinstimmend zwei Meta‐ analysen, die erste mit 31 Primärstudien (Sultan et al., 2024), die zweite mit 20 Primärstudien (Pennycook & Rand, 2022), in denen CRT-Maße und die Einschätzungen von zwei Arten von Schlagzeilen erhoben wur‐ den. Wer im CRT besser abschnitt, war zur besseren Unterscheidung von objektiv wahren bzw. falschen Schlagzeilen in der Lage. Die Metaanalyse von Sultan et al. (2024) wertete dies noch genauer aus: Die Personen mit höheren CRT-Werten waren auf der einen Seite zum besseren Erkennen bei den echten Schlagzeilen fähig. Auf der anderen Seite hatten sie aber auch die Tendenz, generell eher Aussagen als falsch anzunehmen, neigten also zu einer größeren Skepsis allgemein (s. S.-66 und 109). ■ Bessere Werte im CRT hängen mit geringerer Empfänglichkeit für Bullshit zusammen. Zu diesem Ergebnis kam eine Metaanalyse von 19 Studien mit nahezu 10.000 erwachsenen Versuchspersonen (Sepúlveda‐Páez et al., 2025). Wer analytischer denkt, misst Nonsensaussagen also erheblich weniger Aussagekraft bei. ■ Wer im CRT bessere Ergebnisse aufweist, glaubt weniger stark an Ver‐ schwörungstheorien. Dies ist das Ergebnis einer Metaanalyse mit fast 80.000 Studienteilnehmer: innen aus 145 Studien (Yelbuz et al., 2022). 102 Risiko- und Schutzfaktoren <?page no="103"?> Zwar stehen Verschwörungstheorien nicht im Zentrum dieses Buchs (s. S.-22), es ist dennoch bemerkenswert, dass analytische Fähigkeiten vor dem Glauben an (nicht beweisbare) Falschaussagen, nämlich Verschwö‐ rungstheorien, bewahren. Analytisches Denken, also ein genaueres Prüfen von Zusammenhängen, scheint es demnach aus metaanalytischer Warte zu begünstigen, Falsch‐ informationen besser zu erkennen und zugleich Nachrichten mit einer gewissen Skepsis zu begegnen. (Warum) Ist analytisches Denken ein Schutzfaktor? 103 <?page no="105"?> Gegenmaßnahmen: (k)ein Kraut gegen Desinformation Wie lassen sich die Effekte von Falschaussagen, also Falsch- und Desinformationen, eindämmen? Dieser Frage widmet sich vor allem die psychologische Forschung seit geraumer Zeit und sie fokussiert zuvorderst auf die Individuen. In diesem abschließenden Kapitel wer‐ den Gegenmittel von Falschinformationen systematisierend betrachtet. Die wichtigste Erkenntnis bei alldem: Es gibt und braucht mehrere Varianten bzw. Mittel, um gegen Falschinformationen vorzugehen. Ihre Wirksamkeit ist vorrangig in Laborsettings untersucht worden, über die Effektivität in weniger kontrollierten Settings ist noch zu wenig bekannt. <?page no="106"?> Auf welchen Ebenen lassen sich Gegenmaßnahmen verorten? Der adäquate Umgang mit Desinformationen (bzw. weiter gefasst mit Falschinformationen) wird in der Forschung als notwendigerweise meh‐ rere Ebenen und Akteursgruppen umfassende Angelegenheit beschrieben. Die Herausforderung betrifft mindestens eine makroskopische bzw. gesell‐ schaftliche Ebene, auch als Systemebene bezeichnet. Daneben sind die Ein‐ zelpersonen und ihr Umgang mit Informationen auf einer Individualebene angesprochen (Kozyreva et al., 2020; Roozenbeek et al., 2023). Auf der Systemebene bilden politische Regulationen wie Gesetze zur Bekämpfung und Eindämmung von Falsch- und Desinformationen Steuer‐ möglichkeiten. Hinzu kommen Regulationen (von sozialen Medien) in der Form, dass Geschäftsmodelle von Tech-Firmen beschränkt werden, insbe‐ sondere das Ausspielen von Werbung und fehlerhaften Informationen an vulnerable Gruppen, oder auch Transparenzregeln zur Funktionsweise von Algorithmen und Schutz vor schädigenden und manipulativen Gestaltungen der Interaktion und der Interfaces. Auch das (automatische) Löschen und die Kennzeichnungspflicht von Falschinformationen fallen hierunter. Hinzu kommen (geo-)politische Bemühungen, den Einfluss von schädigenden Institutionen und Organisationen, aber auch Staaten und Geheimdiensten einzudämmen. Solche (inter-)nationalen Gegenmaßnahmen sind langwierig und betreffen die mediale Infrastruktur und deren Schutz zum einen sowie den Schutz der Nutzer: innen innerhalb digitaler Medien mit hoher Reich‐ weite zum anderen (Kozyreva et al., 2020). Die Gegenmaßnahmen auf der Individualebene betreffen die Fähigkeiten von Rezipient: innen von (Des-)Informationen, die wahlweise vermittelt oder durch externe Hinweise hervorgerufen werden sollen. Die Maßnahmen auf der Individualebene lassen sich verschiedentlich systematisieren (s. für einen temporalen Zugang das Modell in Tab. 3 auf S. 108). Manche Forscher tun dies, indem sie bspw. die Angemessenheit von Maßnahmen nach Desbzw. Falschinformationskonfiguration als Passung ausweisen, also die Eignung für Anwendungsfälle fokussieren (Roozenbeek & van der Linden, 2024). Andere Forschende nutzen übergeordnete Kategorien, zum Beispiel in der Dreiteilung von Kozyreva et al. (2020): ■ Technikkognition: Hierbei handelt es sich um kognitiv inspirierte tech‐ nologische Maßnahmen bei Informationsarchitekturen, die als Siche‐ rungsmaßnahmen dazu dienen, Falschinformationen bzw. deren Wei‐ 106 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="107"?> terverbreitung zu minimieren (z.B. Widerstandserhöhung durch das Erschweren von Kommentierungen oder Teilen von Aussagen). ■ Nudging: Dieses „Anstupsen“ (engl. „to nudge“) meint kurzfristige Verhaltensinterventionen in der Wahlmöglichkeitsgestaltung, die das Verhalten der Menschen auf vorhersehbare Weise verändern sollen, etwa durch automatisch gesetzte Standardeinstellungen, welche die Privatsphäre respektieren, durch Verändern von Reihenfolgen bei Re‐ aktionsmöglichkeiten auf Posts in sozialen Medien oder durch Zusatz‐ informationen wie Warnlabels. ■ Boosting: Das sind längerfristige edukative Maßnahmen und Werkzeuge, die darauf abzielen, die kognitiven und motivationalen Kompetenzen der Leser: innen zu fördern. Das kann über Regeln oder Hinweise zum Vorgehen erfolgen, das (selbstgewählte) kritische Ignorieren meinen, die Vermittlung des lateralen Lesens oder anderer (Lese-)Strategien betreffen, aber auch Ansätze wie Inoculation beinhalten. Lesetipp Umfassend und inhaltlich schwergewichtig ist folgender Überblicksbei‐ trag, der sich aus verschiedenen Perspektiven der Frage widmet, vor welche Herausforderungen digitale Medien die Leser: innen stellen und welche Antworten sich aus psychologischer Sicht anbieten: Kozyreva, A., Lewandowsky, S. & Hertwig, R. (2020). Citizens versus the Internet: Confronting Digital Challenges with Cognitive Tools. Psychological Science in the Public Interest, 21(3), 103-156. Wie lassen sich die Ansätze auf der Individualebene systematisieren? Die vielen Bemühungen, gegen fehlerhafte Informationen vorzugehen (Kozyreva et al., 2024; Roozenbeek & van der Linden, 2024), lassen sich verschiedentlich systematisieren. Ein nützlicher Vorschlag hierfür ist das „Rahmenwerk für das Engagement bei Online-Falschinformationen“ (Geers et al., 2024). Es beinhaltet vier Phasen im Umgang mit Falschinformationen, denen sich zentrale Merkmale ebenso zuordnen lassen wie Gegenmaßnah‐ men. Eine stark kondensierte Fassung findet sich in Tab.-3. Wie lassen sich die Ansätze auf der Individualebene systematisieren? 107 <?page no="108"?> Phase Merkmale Gegenmaßnahme 1) Quellen‐ auswahl Auswahl von Quellen in der Online-Infor‐ mationsumge‐ bung einer Person, z.B. Suchmaschi‐ nen, soziale Medien ■ Hinweise zur Glaubwürdigkeit der Aussagen von Quellen (z.B. durch Hinweise auf erfolgte Prüfung der Quelle durch Faktencheckorgani‐ sation, s. S.-114, 126) ■ Widerstandserhöhung beim Handeln durch Verlangsamen von Prozessen bzw. Aufwands‐ erhöhung (z.B. danach fragen, ob man etwas wirklich lesen will) 2) Informa‐ tionsaus‐ wahl Bestimmen, welche Infor‐ mationen man verwendet oder ignoriert ■ Warnhinweise (explizite Hinweise auf das Ri‐ siko, durch eine bestimmte Information oder deren Quelle in die Irre geführt zu werden) ■ Kritisches Ignorieren (Nutzung verschiedener Strategien zum gezielten Nicht-Auswählen, s. S.-113) 3) Beur‐ teilung Bewertung der Korrekt‐ heit der Infor‐ mationen und/ oder der Vertrauens‐ würdigkeit der Quellen ■ Widerlegung/ Debunking (Korrektur von inhalt‐ lichen Falschaussagen mit korrekten Aussa‐ gen, s. S.-126, 129) ■ Laterales Lesen (verifikatorisches und evaluati‐ ves Lesen im Internet zum Zweck der Beurtei‐ lung von Aussagen bzw. Quellen, s. S.-121) ■ Inoculation (Vorabkontakt mit abgeschwächter Falschinformation bzw. zu Wirkweisen des Falschinformierens zur Stärkung der Wider‐ standsfähigkeit, s. S.-118) ■ Medienkompetenz-Hinweise (Hinweislisten von Strategien, um falsche und irreführende Infor‐ mationen zu erkennen) 4) Reak‐ tion Entscheidung darüber, ob und wie man auf die Infor‐ mationen re‐ agiert ■ Akkuratheitshinweise (Hinweis, Informationen zu prüfen, bzw. Hinweise mit der Erinnerung an soziale Normen des Teilens von Aussagen, s. S.-116) ■ Widerstandserhöhung (durch Fragen, ob man tatsächlich etwas teilen/ weiterleiten möchte) Tabelle 3: Rahmenwerk für das Engagement bei Online-Falschinformationen (Quelle der modifizierten und vereinfachten Darstellung: Geers et al., 2024, S.-2, angereichert mit Kozyreva et al., 2024, S.-1047) 108 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="109"?> Das Modell und die ihm zugeordneten Gegenmaßnahmen im Umgang mit Falschinformationen helfen dabei, besser abzuschätzen, wo sich Ansatz‐ punkte befinden, wobei die Gegenmaßnahmen sich vor allem auf die Nut‐ zer: innen des Internets und der dort vorfindlichen Informationsangebote beziehen. Nicht enthalten im Modell sind Gegenmaßnahmen, die sehr viel früher und anderweitig ansetzen, nämlich bei der mindestens ebenbürtigen Fähigkeit, gezielt belastbare Informationen zu suchen und zu nutzen (Acerbi et al., 2022). Deutlich ist, dass es mehrere Gegenmaßnahmen gibt und geben muss, da es sich mithin um ein Gesamtinstrumentarium handelt. Lesetipp Neun Arten von weltweit erforschten Interventionen versammelt dieser Überblicksbeitrag, der die Interventionen als Synopse beschreibt und vor allem systematisiert: Kozyreva,-A., Lorenz-Spreen, P., Herzog, S. M., Ecker, U. K. H., Lewan‐ dowsky, S., Hertwig, R., Ali, A., Bak-Coleman, J., Barzilai, S., Basol, M., Berinsky, A. J., Betsch, C., Cook, J., Fazio, L. K., Geers, M., Guess, A. M., Huang, H., Larreguy, H., Maertens, R., … Wineburg, S. (2024). Toolbox of Individual-Level Interventions Against Online Misinformation. Nature Human Behaviour, 8(6), 1044-1052. Wie misst man die Fähigkeiten zum Erkennen von Fake News? Forscher: innen können ganz unterschiedlich vorgehen, wenn sie - z.B. in Interventionsstudien zur Erfolgsbestimmung - die Fähigkeit von Per‐ sonen erfassen wollen, zwischen wahr und unwahr bzw. Fakt und Fake zu unterscheiden. Ein häufig benutztes, testökonomisches und inhaltlich empfohlenes Verfahren besteht darin, fingierte und echte Schlagzeilen zu verwenden, welche die Testpersonen zuordnen sollen (Guay et al., 2023). Ein Beispiel für eine Testentwicklung in einem größeren Rahmen ist ein standardisierter Fragebogen, der in einer Kurzform vorliegt, nämlich der acht Items umfassende „Misinformation Susceptibility Test“. Er ist im nachstehenden Kasten nebst vollständiger Anleitung enthalten (Maertens et al., 2024, Supplement S17). Wie misst man die Fähigkeiten zum Erkennen von Fake News? 109 <?page no="110"?> Der „Misinformation Susceptibility Test“-Kurzfragebogen Bitte kategorisieren Sie die folgenden Schlagzeilen entweder als „Falsch‐ meldung“ oder als „echte Nachricht“. Manche Meldungen sehen auf den ersten Blick glaubwürdig oder offensichtlich falsch aus, fallen aber in Wirklichkeit in die andere Kategorie. Für jede Schlagzeile ist jedoch nur eine Kategorie richtig. Schlagzeile Echte Nach‐ richt Falschmel‐ dung 1) Hyatt entfernt 2021 kleine Flaschen aus Hotelbadezimmern ☐ ☐ 2) Bestimmte Impfstoffe sind mit gefähr‐ lichen Chemikalien und Toxinen belastet ☐ ☐ 3) Altersunterschied bei der globalen Erwärmung: Jüngere Amerikaner: innen sind am meisten besorgt ☐ ☐ 4) Regierungsbeamte haben Aktienkurse manipuliert, um Skandale zu vertuschen ☐ ☐ 5) Neue Studie: Linke lügen mit größerer Wahrscheinlichkeit, um ein höheres Ge‐ halt zu bekommen ☐ ☐ 6) Republikaner sind geteilter Meinung über Trumps Verhalten, Demokraten sind weitestgehend kritisch ☐ ☐ 7) Einstellungen gegenüber der EU sind sowohl innerhalb als auch außerhalb Eu‐ ropas weitgehend positiv ☐ ☐ 8) Die Regierung verbreitet wissentlich Krankheiten über die Luftfahrt und die Lebensmittelversorgung ☐ ☐ Der Test lässt sich auf verschiedene Arten auswerten, die zwei Arten von unterschiedlichen Leistungen bezeichnen (Maertens et al., 2024): 1. Fähigkeiten zum Erkennen von Aussagen als echte bzw. falsche Schlagzei‐ len (Leistungen): Die Anzahl der korrekten Antworten zu den Falsch‐ nachrichten (Nr. 2, 4, 5 und 8) und die echten Schlagzeilen (Nr. 1, 3, 6 110 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="111"?> und 7) können aufsummiert als Ausdruck der Teilfähigkeiten benutzt werden, entweder falsche oder richtige Schlagzeilen zu erkennen. Beide Werte lassen sich aufeinander beziehen, zum Beispiel als Summenwert korrekter Antworten, der das gesamthafte Urteilsvermögen zum Erken‐ nen von Aussagen widerspiegelt, also die übergeordnete Fähigkeit. 2. Verzerrungen in den Urteilen (Fehlleistungen): Zudem können die Urteile unabhängig von ihrer Korrektheit auf zwei Arten von Tendenzen bzw. Verzerrungen geprüft werden. Dies erfolgt dadurch, dass vertikal alle Urteile als reale Nachricht bzw. Falschmeldungen aufsummiert werden, unabhängig davon, ob die Urteile korrekt oder inkorrekt sind. Von diesem Summenwert werden dann vier Punkte abgezogen, welche die möglichen korrekten Antworten widerspiegeln. Die Differenz gibt als Fehlersumme an, wie sehr jemand entweder zu sehr skeptischen Urteilen neigt, weil die Person Falschmeldungen da sieht, wo sie nicht vorliegen (Skeptizismus bzw. Skepsisverzerrung), bzw. unkritisch Aussagen als echte Nachrichten anzunehmen, auch wenn sie es nicht sind (Naivität). Mit den acht Antworten lassen sich also ganz unterschiedliche Indikatoren bilden, die genauer die Leistungen (Korrektheit bei der Detektion von realen Nachrichten und Falschmeldungen als Teile bzw. deren Gesamtsumme) bzw. Fehlleistungen (im Sinne der verzerrten Tendenzen des zu skeptischen bzw. zu naiven Einschätzens) spezifizieren. Für Gegenmaßnahmen zu Falschin‐ formationen ist dies deshalb von Belang, weil so Wirkmechanismen besser zu entwirren sind und man erkennen kann, worauf sich Interventionen auswirken, etwa die bessere Fähigkeit, vor allem Falschnachrichten zu erkennen, und ob sie ggf. auch Nebenwirkungen haben, weil sie bspw. zu mehr Misstrauen (Skeptizismus) führen (so geschehen bspw. bei Maertens et al., 2024, Studie 3). Reicht es aus, was gegenwärtig gemessen wird und was wir über die Wirksamkeit wissen? Die Art, wie die Frage gestellt ist, legt nahe: Es gibt aus Sicht der For‐ schung zwar Fortschritte und Kennnisse, dennoch üben Forscher: innen durchaus Selbstkritik am Kenntnisstand. Der Hintergrund ist, dass die bisherige Forschung vor allem einer experimentellen Logik mit mehrheitlich erwachsenen Proband: innen folgt und dass dabei die Forschung in Ländern des globalen Nordens überwiegt. Abgesehen davon bemisst sich in den Reicht es aus, was gegenwärtig gemessen wird und was wir über die Wirksamkeit wissen? 111 <?page no="112"?> Interventionen der Erfolg häufig (und ausschließlich) daran, dass Personen Aussagen wie (fingierte) Schlagzeilen als wahr oder unwahr einschätzen sollen (s. S. 109). Zudem gibt es Hinweise darauf, dass Ergebnisse aus reinen Laborstudien um den Faktor sechs höher ausfallen als in realweltlich durchgeführten Studien (DellaVigna & Linos, 2022). Besonders pointiert haben Roozenbeek et al. (2024) angesichts solcher blinden Flecken die Selbstkritik und die Desiderate in einem Überblicksbei‐ trag auf den Punkt gebracht. Ihre sechs Kritikpunkte lassen sich zu zwei übergeordneten Punkten verdichten: ■ Ungeklärte Effektivität jenseits von experimentellen und Laborsettings: Ob sich die in Experimentalstudien gefundenen Muster und die ermittelte Effektivität auch in komplexere realweltliche Settings übertragen lassen und ob sie dort bspw. das Verhalten (längerfristig) zu verändern helfen, ist oftmals entweder unklar oder zu wenig belegt. Ob es z.B. immer wie‐ der Auffrischungen benötigt, ist eine solche Frage. Eine andere betrifft die Unklarheit, ob bestehende Instrumente und Designs die Effektivität eher überschätzen, weil bspw. die zu beeinflussenden Merkmale sehr eng gefasst sind und die Maßnahmen möglicherweise gar nicht zu mittelfristigen oder längerfristigen erwünschten Wirkungen führen. ■ Ungeklärtheit der Wirkkette: Den Maßnahmen, welche die Forschung ersinnt, liegen bestimmte Annahmen zugrunde, etwa dass die Testperso‐ nen in ihren gesamthaften Merkmalen die Intervention auf vergleichbare Weise erleben und darauf reagieren. Mitunter sind diese aufeinander aufbauenden Wirkungsannahmen aber nicht genau genug verstanden; zudem liegen Hinweise vor, dass manche Personengruppen anscheinend besonders schwer zu erreichen sind. Ob es nicht sogar Nebenwirkungen gibt und bei wem sie auftreten, das ist eine wichtige Frage, deren Klärung wichtig wäre, um passgenauere Maßnahmenbündel zu schnüren. Wie so häufig gleicht also der Kenntnisstand in der Wissenschaft einer teils noch leeren Leinwand bzw. einer Leinwand, auf der einzelne Bereiche klarer und detaillierter gezeichnet sind als andere. Dieses Ungleichgewicht ist ein typisches Phänomen; es hilft zuvorderst dabei, mit Verallgemeinerungen vorsichtig zu sein. Es ist zudem eine Herausforderung sowohl für die Wissenschaft, belastbare Befunde zu erbringen, als auch für die Gesellschaft, mit der Restunsicherheit auf die Entwicklungen zu reagieren, die sich im Bereich der Falschinformationen ergeben haben und noch ergeben werden. 112 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="113"?> Was verbirgt sich hinter dem Konzept des „kritischen Ignorierens“? Falschinformationen entfalten ihre schädlichen Wirkungen dann, wenn sie von Leser: innen verarbeitet worden sind. Neben all den Gegenmaßnahmen, die mehr oder weniger direkt proaktiv oder reaktiv auf Falschinformationen Bezug nehmen, liegt eine Maßnahme in den Händen der Leser: innen selbst: das kritische Ignorieren. Kritisches Ignorieren Mit dem kritischen Ignorieren wird ein absichtsvolles und bewusstes Ausblenden von zwar verfügbaren, aber ablenkenden oder anderweitig schädlichen Informationen bezeichnet. Dadurch schirmen sich Personen gezielt ab, um ihre Aufmerksamkeit selbstbestimmt auf für sie relevante, qualitativ höherwertige Informationen zu richten (Kozyreva et al., 2023). Kritisches Ignorieren ist eine Form der gezielten Aufmerksamkeitslenkung, die nicht mit einer Form von Ignoranz, Rückzug in Echokammern oder einer Totalverweigerung an demokratischer oder zivilgesellschaftlicher Partizipation zu verwechseln ist (Kozyreva et al., 2020). Vielmehr liegt es in ihrem Kern, gezielt die limitierten eigenen kognitiven Ressourcen innerhalb digitaler Medienangebote zielführend abzuschirmen. Dabei ist die Grenzziehung zu allgemeinen Anpassungen der Online-Umwelt (z.B. das Ausschalten von Push-Benachrichtigungen) nicht leicht (Kozyreva et al., 2023); solche gezielten Modifikationen werden unter dem Stichwort „Self- Nudging“ geführt (Herzog & Hertwig, 2025). Kritisches Ignorieren ist eine Schutzmaßnahme, die Leser: innen gegen ein potenzielles Überangebot leicht verfügbarer Informationsangebote mit unklarer Qualität ergreifen. Sie minimieren also eigenaktiv das Risiko, auf Aussagen zu stoßen, die falsch oder irreführend sind. Beispiele dafür sind Recherchen im Internet, bei denen Leser: innen gezielt nicht nach Berichten suchen, die erwiesenermaßen falsche Aussagen - etwa zum Zu‐ sammenhang von Impfen und überzogenen Aussagen zu Nebenwirkungen - reproduzieren. Auch das Ausblenden von Gesundheitsempfehlungen von Influencer: innen oder Prominenten fällt darunter (Kozyreva et al., 2020). Ein solches Ignorieren setzt Wissen voraus, um entscheiden zu können, was man ignoriert - im Falle der unklaren Qualifikation zu Gesundheits‐ Was verbirgt sich hinter dem Konzept des „kritischen Ignorierens“? 113 <?page no="114"?> themen wäre dies die Einschätzung, dass medizinisch nicht ausgebildete Quellen nicht vertrauenswürdig sind und man auf dieser Grundlage getrost auf verarbeitungsintensive und potenziell Nebenwirkungen entfaltende Aussagen verzichten kann. Zum kritischen Ignorieren fähig zu werden, ist also paradoxerweise voraussetzungsreich, eben weil Personen interne Benchmarks benötigen, um überhaupt berechtigt ignorieren zu können. Lesetipp Die wissenschaftsbasierte Website „Science of Boosting“ versammelt Informationen dazu, was Menschen dazu befähigt, in ihren Entschei‐ dungen gestärkt zu werden. Kritisches Ignorieren ist ein Ausschnitt davon. Ein Teil der Inhalte ist auf Deutsch verfügbar: www.scienceofboosting.org/ de Wie wirken sich Warnhinweise zu geprüften Falschaussagen aus? Anders als bei den nachträglichen Faktenchecks, die nach der Veröffentli‐ chung und Verbreitung als Korrektive fungieren sollen und dabei Gefahr laufen, nicht mehr wahrgenommen zu werden, sind Warnhinweise, die parallel zu den Falschinformationen erscheinen (z.B.: „Falschinformation. Geprüft von unabhängigen Faktenchecker: innen“) und vor bzw. mindestens zeitgleich zu der eigentlichen Aussage präsentiert werden, als „Prebunking“ wertbar (s. S.-118). Warnhinweise zu geprüften Aussagen Solche Warnhinweise erscheinen - anders als Faktenchecks - nicht nachträglich, sondern parallel mit der Falschinformation. Eine Markie‐ rung des als falsch eingestuften Inhalts von einer Quelle ist damit Teil des unmittelbaren Kontexts und soll damit gezielt die Verarbeitung des Inhalts und den Umgang mit ihm beeinflussen (Martel & Rand, 2023). Die Wirksamkeit solcher Warnhinweise hat eine Serie von 21 metaana‐ lytisch ausgewerteten Experimenten mit über 14.000 US-amerikanischen Erwachsenen getestet (Martel & Rand, 2024). Zwei Maße standen in den 114 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="115"?> Experimenten im Vordergrund: In zehn Experimenten wurde die Fähigkeit fokussiert, falsche Schlagzeilen korrekterweise als falsch zu erkennen, in den übrigen elf Experimenten wurde die Absicht des Teilens von Falsch‐ nachrichten geprüft. Zusätzlich, und das ist neben der Berücksichtigung von weiteren demografischen Faktoren ein Unikum dieser Metaanalyse, eruierten die Forscher: innen, ob das Vertrauen in Faktenchecker: innen sys‐ tematisch mit den beiden Maßzahlen im Umgang mit Falschinformationen zusammenhängt. ■ Warnhinweise zu Falschnachrichten erhöhen die Fähigkeit der Testperso‐ nen, Falschnachrichten zu erkennen. Verglichen mit Kontrollgruppen wiesen die Personen mit den Warnhinweisen Testergebnisse auf, die um ein gutes Viertel besser waren. Zusätzlich waren Personen mit hö‐ herem Vertrauen in Faktenchecker: innen für die Korrekturen insofern empfänglicher, als sie besser darin waren, die Falschaussagen korrekt als solche zu identifizieren. Gleichwohl erwiesen sich selbst bei den misstrauischsten Personen die Warnhinweise immer noch als effektiv, wenn auch nicht auf so hohem Niveau. ■ Warnhinweise verringern die Absicht, falsche Nachrichten weiterverbrei‐ ten zu wollen. Die Intentionen der Personen mit vorgängigen Hinweisen, die betroffenen Nachrichten weiterleiten zu wollen, fiel im Vergleich zu den Kontrollgruppen ohne Hinweise um ein knappes Viertel geringer aus. Das für das Erkennen von Falschnachrichten vorgefundene Muster des allgemeinen positiven Effekts von höherem Vertrauen in Fakten‐ checkerinnen bestand bei den Weiterverbreitungsabsichten ebenso wie der (geringere) Effekt selbst bei gegenüber Faktencheckorganisationen misstrauischen Personen. Neben diesen Befunden lassen sich aus der Forschung Merkmale effektiver Warnhinweise ableiten (Martel & Rand, 2023): ■ So sind erstens Warnhinweise wirksamer, die spezifischer in den Hin‐ weisen sind, ob die Aussage falsch, umstritten etc. ist. Zur Spezifität gehört ebenfalls, bekannte Quellen von Falsch- und Desinformationen als solche zu kennzeichnen. Solche Fälle bedürfen aber einer gewissen Konsequenz und Abdeckung, weil sonst nicht mit Hinweisen versehene Aussagen von Personen als implizit wahr angenommen werden (sog. „impliziter Wahrheitseffekt“). Wie wirken sich Warnhinweise zu geprüften Falschaussagen aus? 115 <?page no="116"?> ■ Zweitens ist die Quelle des Warnhinweises bedeutend, d.h. wer die Aus‐ sagen beurteilt hat. Im Licht der Befunde oben sind Warnhinweise von Faktenchecker: innen wirksamer, je mehr Vertrauen Personen in Fakten‐ checker: innen allgemein haben. Automatische (KI-basierte) Hinweise, Crowd-Tagging etc. sind weitere Varianten, von denen anzunehmen ist, dass manche von ihnen effektiver sind als andere. Außerdem machen Martel und Rand (2023) darauf aufmerksam, dass die Effektivität der Hinweise zwar vorhanden, aber gering ist und dass es in sozialen Medien weiterer prophylaktischer Maßnahmen bedarf, etwa der Sperrung von Accounts mit erwiesener Verbreitung von Falsch- und Desinformationen oder der algorithmischen Unterdrückung von Falschin‐ formationen. Zudem sind auch Machtmissbräuche für solche Warnhinweise ein Risiko, indem gezielt kritische Stimmen mit dem Label der Falschinfor‐ mation diskreditiert werden. Sorgen Akkuratheitshinweise dafür, weniger falsche Informationen teilen zu wollen? Einen vergleichsweise simplen Zugang, die Verbreitung falscher Nachrich‐ ten zu reduzieren, ist das vorgängige Präsentieren sogenannter „Akkurat‐ heitshinweise“, welche von den Leser: innen ein Innehalten verlangen, das mit einer Einschätzung bzw. einer Verarbeitung von Hinweisen einhergeht. Diese Hinweise werden in der Forschungsliteratur als „Nudging“ bezeichnet (Roozenbeek et al., 2023). Akkuratheitshinweise Mit Akkuratheitshinweisen wird eine Gruppe von vorgängigen Hinwei‐ sen bezeichnet, die Personen erhalten, ehe sie die Möglichkeit haben, Nachrichten zu teilen. Bei aller Unterschiedlichkeit in den konkreten Maßnahmen eint Akkuratheitshinweise, dass sie gezielt die Aufmerk‐ samkeit auf die Akkuratheit lenken und eine Verzögerung vor dem Teilen erwirken wollen (Pennycook & Rand, 2022). Die im Definitionskasten angesprochene Vielzahl von Hinweisen lässt sich gut illustrieren an einer der größten bisher durchgeführten Studien, in 116 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="117"?> welcher verschiedene Varianten miteinander verglichen wurden (Epstein et al., 2021): 1. Reine Beurteilung: Vor den eigentlichen Aufgaben gab es einen neutralen Impuls, eine nicht mit den Folgeaufgaben verwandte Aussage als akku‐ rat bzw. als inakkurat einzuschätzen; 2. Ausführlichere Beurteilung mit Feedbacks: Mehrere thematisch nicht mit den Folgeaufträgen zusammengehörige Schlagzeilen wurden beur‐ teilt, die Proband: innen erhielten neben einer Rückmeldung zu ihrer Einschätzung die Informationen, ob die Schlagzeilen wahr oder falsch gewesen waren; 3. Korrektheitsbezogene Einschätzung des eigenen Verhaltens beim Verbrei‐ ten von Aussagen: Hier wurden die Personen zu einer Einschätzung aufgefordert, die die Frage „Wie wichtig ist es Ihnen, dass Sie nur Nachrichtenartikel in sozialen Medien (wie Facebook und Twitter [in‐ zwischen: X]) teilen, wenn sie korrekt sind? “ betraf; 4. Allgemeine Tipps: In dieser Variante wurden allgemeine Hinweise gege‐ ben wie „Seien Sie Überschriften gegenüber skeptisch. Prüfen Sie die Quelle. Achten Sie auf ungewöhnliche Formatierung. Prüfen Sie die Belege.“; 5. Allgemeine Normen: Die Personen erhielten die Aussage, dass mehr als 80 Prozent der früher Befragten angegeben hatten, dass es wichtig sei, vor dem Teilen die Genauigkeit zu berücksichtigen; 6. Parteipolitische Normen: Die Personen bekamen den Hinweis wie bei den allgemeinen Normen, ergänzt um die Mitteilung, dass diese Aussagen für Wähler: innen der Demokratischen und der Republikanischen Partei gleichermaßen galten; 7. Kombinationen von parteipolitischen Normen und allgemeinen Tipps bzw. korrektheitsbezogenen Einschätzungen und parteipolitischen Nor‐ men. Wie wirksam sind Akkuratheitshinweise allgemein? Dazu legte ein For‐ scherteam eine Metaanalyse aus 20 Experimenten mit fast 27.000 erwachse‐ nen Testpersonen vor (Pennycook & Rand, 2022). In diesen Experimenten wurde verglichen, ob die Proband: innen mit oder ohne Akkuratheitshin‐ weisen echte und falsche Nachrichten unterschiedlich weiterverbreiten würden. Geprüft wurde also, ob die Akkuratheitshinweise dazu führen, dass die Testpersonen falsche Nachrichten im Vergleich zu echten Nachrichten weniger teilen würden. Das war tatsächlich der Fall: Die Testpersonen hatten Sorgen Akkuratheitshinweise dafür, weniger falsche Informationen teilen zu wollen? 117 <?page no="118"?> eine geringere Tendenz, falsche Nachrichten streuen zu wollen, während sie echte Nachrichten unverändert stark zu teilen beabsichtigten. Besonders wichtig ist noch ein weiteres Ergebnismuster, das damit zu tun hat, welche Art von Akkuratheitshinweisen in den Experimenten zum Einsatz kamen. Dabei wurden zwei Arten unterschieden. Positive Effekte wurden zum einen in der Gruppe von Studien beobachtet, in der es nur darum ging, eine neutrale Information zu beurteilen (Nr. 1 in der Liste oben). Zum anderen ließ sich dieser Effekt aber noch erheblich steigern, wenn das Beurteilen mit anderen Maßnahmen kombiniert wurde, etwa mit weiteren Hinweisen oder mit Feedback zur Richtigkeit der Evaluationen. Anders formuliert: Die ohnehin vorhandene Effektivität ließ sich nahezu verdoppeln, wenn mehrere Nudging-Komponenten genutzt wurden. Akkuratheitshinweise sind also vielgestaltig und helfen unter Erwachse‐ nen dabei, das Verbreiten von Falschnachrichten zu verringern. Wenn die Personen nicht nur einmalig neutrale Aussagen beurteilen, sondern darüber hinaus weitere Hinweise gegeben werden, lässt sich dadurch die Effektivität erhöhen. Kann man gegen Desinformationen immun werden - oder: Was ist mit „Inoculation“-Ansätzen gemeint? Desinformationen gehen ‚viral‘ und verbreiten sich als ‚Infodemie‘ in so‐ zialen Netzwerken (s. S. 25) - wäre es da nicht naheliegend, sich gegen schädigende Aussagen impfen zu lassen? Diese Grundidee liegt dem „Inocu‐ lation“-Ansatz, also dem Impf-Ansatz („Inoculation“ = englischer Ausdruck für „Impfung“), tatsächlich zugrunde (van der Linden, 2024). Analog zum medizinischen Impfen wird der ‚Impfstoff ‘ in Form einer abgeschwächten Aussage vor dem Kontakt mit der eigentlichen Falschaussage gezielt verab‐ reicht. Zwei Bestandteile sind für den psychologischen Impfprozess elementar. Erstens erhalten Personen eine mobilisierende Aussage und zweitens eine widerlegende Aussage, Prebunking genannt. Während die erste Komponente dazu dient, über eine affektive Komponente schützende Überzeugungen zu aktivieren, ist die zweite informierende Komponente dazu gedacht, sich gegenüber ungewollten Überzeugungsversuchen durch Falschinformatio‐ nen kognitiv zu wappnen (Lewandowsky & van der Linden, 2021). Das 118 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="119"?> nachstehende Beispiel aus einer Studie verdeutlicht, wie eine solche Aussage aussieht. Beispiel für eine Inoculation-Aussage (vor dem Kontakt mit der Falschaussage) Fast alle Klimaforschenden - 97 % - sind zu dem Schluss gekom‐ men, dass der vom Menschen verursachte Klimawandel stattfindet. Einige politisch motivierte Gruppen versuchen mit irreführenden Taktiken, die Öffentlichkeit davon zu überzeugen, dass es unter den Wissenschaftler: innen viele Unstimmigkeiten gibt. Wissenschaftliche Untersuchungen haben jedoch ergeben, dass es unter den Klimawis‐ senschaftlern „praktisch keine Uneinigkeit darüber gibt, dass der Mensch den Klimawandel verursacht.“ (Quelle: Übersetzung von van der Linden et al., 2017, Zusatzmaterial C) Die Wirksamkeit dieses Vorgehens ist erforscht worden, als empirischer Beleg soll hier eine aktuelle Metaanalyse fungieren. In ihr wurden aus 42 Experimenten mit über 42.000 Personen Effekte ausgewertet; thematisch widmeten sich die Experimente der Frage, ob sich bei verschiedenen gesell‐ schafts- und naturwissenschaftlichen Themen verschiedene Wirkungen des Inoculation-Ansatzes nachweisen lassen (Lu et al., 2023). Die Personen mit Inoculation wiesen tatsächlich in einigen, aber nicht allen untersuchten Bereichen bessere Werte als Personen ohne Inoculation auf: ■ Höhere Sensibilität bei der Glaubwürdigkeitseinschätzung: Die Testperso‐ nen schätzten Falschinformationen als weniger glaubwürdig ein und konnten Falsch- und echte Nachrichten besser voneinander trennen. ■ Gesteigertes Teilen-Wollen von echten Nachrichten: Sie neigten zudem dazu, echte Informationen eher zu teilen. Eine verringerte Absicht, Falschinformationen verbreiten zu wollen, bestand zwar, war allerdings statistisch nicht absicherbar genug. Daneben ergaben sich in der Metaanalyse noch teils Effekte bei den Tests mit echten Informationen, nämlich deren Glaubwürdigkeitsbeurteilung und Verbreitungsabsicht. Es war hierbei erstens von Vorteil, wenn sie von den Teilnehmenden eine „passive“ Verarbeitung einforderten (ein genaues Lesen und Nachvollziehen), statt selbstständig eine Widerlegung zu ersinnen (sog. „aktive“ Verarbeitung). Beide Varianten setzten natürlich eine aktive Immunisieren „Inoculation“-Ansätze gegen Desinformationen? 119 <?page no="120"?> Informationsverarbeitung voraus, doch die „aktive Verarbeitung“ erforderte mehr Aktivitäten, die aber nicht leistungssteigernd war. Zweitens erwies es sich als günstiger, wenn der Inhalt und nicht die rhetorische Strategie der Kommunikation in der vorgängigen Nachricht behandelt wurde. Es wirkt also so, als wäre die inhaltliche Auseinandersetzung der entscheidende Mechanismus. In einem gewissen Maße ist es also möglich, vor dem Kontakt mit Falschinformationen ‚kognitiv geimpft‘ zu werden. Das spricht sehr dafür, frühzeitig derartige präventive Gegenmaßnahmen zu ergreifen, wenn er‐ wartbar ist, dass sich Falschinformationen zu verbreiten drohen. Ist Gamification ein sinnvoller Ansatz, gegen Fake News vorzugehen? Der Einsatz von Spielen für die Bildung ist in der Lernforschung ein gut untersuchtes Gebiet mit ermutigenden Ergebnissen. Zwischenzeitlich wur‐ den spielerische Ansätze auch als Maßnahme gegen Falschinformationen erkannt. Konkret gelten sie als aktive Variante im Inoculation-Ansatz (s. S.-118; Traberg et al., 2022). Was ist mit dem aktiven Ansatz gemeint? Wie im letzten Kapitel darge‐ stellt wurde, beinhalten Inoculation-basierte Vorgehensweisen zwei Kom‐ ponenten - die affektiv mobilisierende und die kognitiv entkräftende. Im Falle der aktiven Variante kreieren die Personen selbst die entkräftende Aussage, während sie diese beim passiven Pendant bereits erhalten. Die gamifizierten Ansätze bedienen sich gezielt des aktiven Ansatzes, um die Spielenden an diesem Punkt herauszufordern (Roozenbeek & van der Lin‐ den, 2024; Traberg et al., 2022). Diese Variante ist wirksam, wie zwei jüngere Metaanalysen unterstrichen haben. Insbesondere ist sie anderen Ansätzen wie der statischen Präsentation von Aussagen mit Text und Grafik teilweise überlegen (Huang, Jia & Wu, in Druck; Lu et al., 2024). In einem der bislang sehr wenigen systematischen Forschungsüberblicke wurden anhand von 15 empirischen Beiträgen mit einem Dutzend unter‐ suchten Spiele Trends extrahiert, die sich vor allem auf die untersuchte Zielgruppe von Erwachsenen beziehen lassen (Kiili et al., 2024). ■ Die Zugänge in den Spielen weisen den Spieler: innen zwei Arten von Rollen zu. Einige Spiele, wie „Bad News“ lassen die Spielenden als Herstellende von Fake News agieren. In einer zweiten Gruppe von Spielen schlüpfen 120 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="121"?> die Spieler: innen in die Rolle von Faktenchecker: innen, z.B. im Spiel „Escape the Fake“. Beide Varianten eint, dass es um die Mechanismen und Merkmale von Falschinformationen geht. ■ Die Spiele nutzen das Potenzial noch nicht völlig aus. So fällt auf, dass ei‐ nige Aspekte wie die motivationalen Merkmale der Inoculation, darun‐ ter die Mobilisierung durch Vorwarnungen, noch wenig berücksichtigt werden. Auch die Einschätzungen von quellenbezogenen Merkmalen (Sourcing; s. S.-48) als Option wirken randständig. Damit lässt sich der Gamification-Ansatz sowohl empirisch als auch konzep‐ tionell theoretisch als ein Baustein im Umgang mit Fake News legitimieren. Dabei wirkt die Nutzbarmachung vor allem der Inoculation-Variante mit der aktiven Konstruktion von entkräftenden Aussagen im Sinne eines „Learning by doing“ als Wirkmechanimus (Lewandowsky & van der Linden, 2021). Gleichwohl bedarf es aktuell noch diverser Optimierungen, um das Potenzial von Spielen besser zu nutzen. Spieltipps Das auf Deutsch erhältliche Spiel „Bad News“ versetzt die Spieler: innen in die Rolle einer Produzentin bzw. eines Produzenten von Falschinfor‐ mationen mit dem Ziel, die eigene Reichweite zu erhöhen, und macht dadurch mit den Mechanismen von Falschnachrichten vertraut: www.getbadnews.com/ books/ german/ Ein humorvolles Spiel mit dem Titel „Cranky Uncle“ (engl. grantiger Onkel) hat der australische Psychologe John Cook ersonnen. Das Spiel widmet sich vor allem der Frage, wie Falschinformationen zum Klima‐ wandel erkannt werden können. Das Spiel gibt es auch auf Deutsch und ist als App sowie als Browsergame spielbar: www.crankyuncle.com/ Sind Vermittlungsansätze zur Erhöhung des kritischen Lesens wie das „laterale Lesen“ die Antwort? Wie können Personen vorgehen, wenn sie auf ihnen unvertraute Websites und Aussagen stoßen, die sie in ihrer Vertrauensbzw. Glaubwürdigkeit einschätzen sollen? Und lassen sich diese Fähigkeiten fördern? Beiden Fragen ist ein Forschungsteam nachgegangen, welches das „laterale Lesen“ als Vorgehen von Faktenchecker: innen er- und vermittelte. Helfen Ansätze wie das „laterale Lesen“ beim kritischen Lesen? 121 <?page no="122"?> Das „laterale Lesen“ ist eine Mischung aus mehreren Strategien (s. S. 43), die sich bei Faktenchecker: innen beobachten ließen, als diese erfolgreich und schnell zu korrekten evaluativen Einschätzungen gelangten, wenn sie mit neuen Websites konfrontiert worden waren (Wineburg & McGrew, 2019). Dazu bedienten sie sich hauptsächlich zweier Strategien: ■ Positionsbestimmungen vornehmen (Taking Bearing): Schon die Such‐ maschinenergebnisse lassen sich nutzen, um Snippets zu vergleichen und zu analysieren, welche Ergebnisse unter den gefundenen zielfüh‐ rend wirken, um dadurch begründbare und selektive Zuwendungen zu Websites vorzunehmen. Damit geht einher, dass nicht jeder potenziell anklickbare Link genutzt wird (sog. „Klickbeschränkung“). ■ Laterales Lesen praktizieren (Lateral Reading): Da die Websites als solche schwer einschätzbar sind, besteht eine Möglichkeit, recherchierend im Internet mehr über die Informationen bzw. Quellen von Aussagen auf Websites in Erfahrung zu bringen. Die Art, wie Faktenchecker: in‐ nen vorgehen, ist dabei kognitiv sparsam und sinnvoll: Mit parallel geöffneten Tabs im Browser haben sie jederzeit nachvollziehbare Navi‐ gationswege eingeschlagen und Recherchen vorgenommen (und damit lateral, also seitwärts gelesen). Sie konnten in den jeweils neuen Tabs mit geöffneten Links oder Suchmaschinennutzungen mehr über die zu prüfende Website erfahren, statt diese vertikal zu lesen. Laterales Lesen ist demnach mehr ein Lesen über als ein Lesen von. Die Faktenchecker: innen verließen in der Regel schnell die konkret zu beurteilenden Websites bzw. Aussagen und nutzen parallel geöffnete Tabs für gezielte Suchen, bei denen sie vielversprechenden Rechercheergebnissen nachspürten. Sie lasen weniger und waren genau darum erfolgreicher als die mit ihnen verglichenen Studierenden einerseits und die ausgebildeten Historiker: innen andererseits (Wineburg & McGrew, 2019). Aus dieser Grundlagenforschung entstand wenig später ein Förderansatz, bei dem es darum ging, das Verhalten der Faktenchecker: innen als Vorbild zu nutzen und deren Vorgehensweisen als Lesestrategien zu vermitteln, was in diversen Einzelstudien untersucht und bestätigt wurde (Fendt, Muth & Edelsbrunner, 2025; McGrew, 2024). Die Art der Vermittlung, die Zielgruppen, die Kontexte und die Instrumente und Indikatoren, um den Erfolg zu bestimmen, variieren erheblich. Den Förderansätzen liegt bei aller Heterogenität und Unterschiedlichkeit doch einiges an Gemeinsamkeiten zugrunde (Philipp, 2025b): 122 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="123"?> ■ Die komplexen Fähigkeiten werden in kleinere Bestandteile portioniert. Strategien sind in der Regel Kombinationen aus einzelnen Handlungen, und darum wird bspw. die Analyse von Suchmaschinenergebnissen als einzelnes Modul behandelt, das man separiert und die Fähigkeiten einzeln trainiert. ■ Die Personen erhalten Hinweise zum Vorgehen. Sie bekommen das Vorge‐ hen entweder von Lehrpersonen demonstriert oder können es in Videos nachvollziehen. Auch schriftliche Schrittabfolgen und Hinweise lassen sich dazu zählen. Dadurch werden die Lernenden entlastet und haben eine gezielt geschaffene kognitive Repräsentation zum erforderlichen Vorgehen. ■ Die Vermittlung ist sukzessive aufgebaut. Die Lernenden erhalten neben einer Einführung die Möglichkeit, die Fähigkeiten erst einmal zu imitie‐ ren, zu üben und später anzupassen. Teils wurden weitere passende und nützliche Strategien wie die Bilderrückwärtssuche mitvermittelt. Damit sind Vermittlungsformen eines kritischen Umgangs mit Online- Informationen eine weitere Variante, die kritisch-evaluativen Fähigkeiten von Schüler: innen sowie Studierenden wirksam zu fördern. Gleichzeitig ergaben die Studien einschränkend, dass selbst nach der zeitlich begrenzten Förderung die erworbenen Fähigkeiten noch nicht ausreichend erworben wurden (McGrew, 2024). Gleichwohl bilden solche Vermittlungsansätze die Möglichkeit, Lesekompetenzsteigerung und Desinformationsumgang aus einer edukativen Perspektive gemeinsam anzugehen. Lesetipp Ein ganzes Buch, prall gefüllt mit Beispielen und vertiefenden Informa‐ tionen, haben zwei Bildungsforscher vorgelegt, in dem das laterale Lesen vielschichtig und praxisnah beschrieben wird: Caulfield, M. & Wineburg, S. S. (2023). Verified: How to Think Straight, Get Duped Less, and Make Better Decisions about What to Believe Online. University of Chicago Press. Helfen Ansätze wie das „laterale Lesen“ beim kritischen Lesen? 123 <?page no="124"?> Was lässt sich von der Logik der Widerlegungstexte für erfolgreiche Falschinformationskorrekturen lernen? Fehlerhafte Vorstellungen zu Sachverhalten zu korrigieren, damit haben sich jenseits der Des- und Falschinformationsthematik bereits bildungswissen‐ schaftliche Forschungstraditionen befasst, was inzwischen als theoretische Infusionen für die Bekämpfung von Desinformationen erkannt wurde (Ama‐ zeen & Krishna, 2024). Unter ihnen ist das Modell „Knowledge Revision Components“ und dessen Anwendung auf multiple Dokumente (KReC- MD; Kendeou, 2024) anzuführen, dessen zentrales Erkenntnisinteresse darin besteht, Prozesse und Bedingungen zu erhellen, die dabei helfen, fehlerhafte Gedächtnisinhalte dauerhaft abzuschwächen. Dazu dienen auf breiter em‐ pirischer Basis nachweislich erfolgreich Widerlegungstexte (Danielson et al., 2025). Widerlegungstexte Widerlegungstexte nennen, widerlegen und erklären ausdrücklich gän‐ gige Fehlvorstellungen. Sie bestehen also aus drei Komponenten: erstens der Benennung des bei den Leser: innen angenommenen unzutreffenden Wissens, zweitens der expliziten Kennzeichnung des Inkorrekten, und drittens der Darlegung der korrekten Informationen, oftmals mit unter‐ stützenden Erklärungen (Danielson et al., 2025; Kendeou, 2024). Wissensrevision bzw. die Veränderungen von subjektiv als wahr empfun‐ denen Gedächtnisinhalten - zum Beispiel infolge des Kontakts mit fehler‐ haften Informationen - ist nach der Logik des KReC-MD an mehrere Bedingungen geknüpft. Darum enthält das KReC-MD mehrere Prinzipien, die auf die kognitiven Prozesse verweisen (Kendeou, 2024). 1. Enkodierungsprinzip: Das bedeutet, dass Personen Gedächtnisinhalte dauerhaft gespeichert haben, was dazu führt, dass diese Gedächtnisin‐ halte immer wieder das aktuelle Verstehen beeinflussen. Daraus erklärt sich bspw. der Effekt des anhaltenden Einflusses (s. S. 80 und 135), und daraus folgt überdies, dass sich die Gedächtnisinhalte nicht einfach auslöschen bzw. überschreiben lassen. 2. Prinzip der passiven Aktivierung: Wenn Personen Informationen lesend verarbeiten, werden durch die aufgenommenen Informationen ohne 124 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="125"?> willentliches Zutun der lesenden Person Gedächtnisinhalte aktiviert. Diese aktivierten Gedächtnisinhalte beeinflussen, wie die neuen Infor‐ mationen weiterverarbeitet werden. 3. Prinzip der Koaktivierung von abzuschwächender und neuer Informatio‐ nen: Dieses Prinzip ist eine Bedingung dafür, dass sich Veränderungen im Gedächtnis ergeben können. Hierfür ist es nötig, dass beide Informatio‐ nen gleichermaßen im Arbeitsgedächtnis verfügbar gehalten werden, was erklärt, weshalb die korrigierende (neue) und die zu modifizierende (alte) Information in Widerlegungstexten dicht beieinander liegen. 4. Integrationsprinzip: Als Folge der Koaktivierung ist es erst möglich, dass die neuen Informationen verbunden mit der alten Information im Langzeitgedächtnis verknüpft und dort gespeichert (integriert) werden. 5. Prinzip der konkurrierenden Aktivierung: Für die Effektivität der Wis‐ sensrevision ist es entscheidend, dass die neue Information bzw. das gesamte Set an Informationen im Langzeitgedächtnis zukünftig stärker aktiviert wird als die abzuschwächende, zunächst noch interferierende alte Information. Dafür sind die (Kausal-)Erklärungen in den Widerle‐ gungstexten wichtig. Speziell für den Kontext multipler Dokumente ist es elementar, dass die korrigierenden Aussagen aus mehreren Doku‐ menten stammen, die erstens inhaltlich übereinstimmen, also Konsens und inhaltlich überzeugende Widerlegungen aufweisen, und zweitens von vertrauenswürdigen Quellen geäußert wurden. Gerade die Bedeu‐ tung der Übereinstimmung von Aussagen gilt als wichtig dafür, dass bei Themen wie genmodifizierten Organismen und Klimawandel Le‐ ser: innen die Übereinstimmung erkennen und verstärkt diese Aussagen memorieren (van Stekelenburg et al., 2022). Mit dem Modell zur Wissensrevision und den Widerlegungstexten als Vehikel für inhaltlich angemessenere Vorstellungen liegt ein lesetheoreti‐ sches Modell vor, das als ein Baustein für effektive Debunking-Maßnahmen fungieren kann. Vor allem ist das Modell dafür hilfreich, kognitive Prinzipien der gezielten Modifikation fehlerhafter Vorstellungen zu erkennen und zu nutzen. Was lässt sich von Widerlegungstexten für die Korrektur von Falschinformationen lernen? 125 <?page no="126"?> Was bringen Korrekturen von Falschinformationen (Debunking)? Was können Medien und Institutionen tun, wenn Falsch- oder Desinforma‐ tion bereits im Umlauf befindlich sind? Nachträgliche Korrekturen werden in der internationalen Forschung unter dem Begriff „Debunking“ geführt, der sich vom englischen Verb „to debunk“ für „entlarven“, „aufdecken“ oder „widerlegen“ ableitet. Debunking hat also etwas von einem Widerruf. Debunking Debunking ist die Präsentation einer korrigierenden Nachricht, welche belegt, dass die vorherige, zu korrigierende Nachricht eine Falschinfor‐ mation war. Solche Korrekturen können partiell erfolgen, indem sie die Details aktualisieren, oder vollständig, indem ganze Aussagen, Texte oder Schriftstücke zurückgezogen werden (Chan et al., 2017). Die Annahme beim Debunking besteht darin, dass die ursprüngliche fehler‐ hafte Information als solche klar benannt und von einer anderen ersetzt werden soll. Entsprechend wird erforscht, ob sich Personen, die eine kor‐ rigierende Aussage zu Falschaussagen erhalten haben, im Vergleich zu solchen ohne derartige Aussagen in ihren Überzeugungen unterscheiden. Eine der größten aktuellen Metaanalysen, die solche Experimente auswer‐ tete, widmete sich der Frage, ob sich wissenschaftsbezogene Falschinforma‐ tionen über das Debunking korrigieren lassen und was die Wirksamkeit des Debunkings beeinflusst (Chan & Albarracín, 2023). Die Datenbasis bildeten 74 Experimente mit knapp 61.000 Studienteilnehmenden. Die Ergebnisse der Metaanalyse waren im Vergleich zu weiteren Metaanalysen (z.B. Walter & Murphy, 2018) ernüchternd: Die Korrektureffekte waren zu klein und zu heterogen, um statistisch absicherbar zu sein. Mit anderen Worten: Die Effektivität war nicht eindeutig genug belegbar. Allerdings geben die vertie‐ fenden Analysen Hinweise, unter welchen Bedingungen sich Aussagen eher korrigieren lassen, von denen die wichtigsten drei diese sind: ■ Fehlerhafte Informationen zu negativen Themen sind leichter korrigierbar als solche zu neutralen Themen: Manchen Themen haftet eine emotionale Konnotation an, weil sie bspw. Ängste schüren, z.B. Impfnebenwirkun‐ gen. Bei solchen negativ besetzten Themen gelingen Korrekturen eher. 126 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="127"?> ■ Korrekturen fallen bei politisch polarisierten Themen schwerer: Wenn die Korrekturen Aussagen betreffen, bei denen sich bereits starke politische Lagerbildungen ereignet haben, verpuffen diese Korrekturen geradezu. Bei politisch neutralen Themen gelingt dies besser. ■ Wirksame Korrekturen setzen eine Erläuterung in der Korrektur voraus: Kurze, die Unrichtigkeit der Originalaussage nur lapidar benennende Korrekturen sind wirkungslos gewesen. Es braucht also verständliche Korrekturen, die Erklärungen liefern. Die überwiegend nur geringen Effekte des Debunkings für einen Ausschnitt der potenziell korrekturbedürftigen Aussagen in der realen Welt - nämlich die wissenschaftsbezogenen Falschaussagen - erweisen sich als vielschich‐ tig. Denn es gibt offenbar Bedingungen, unter denen Debunking wirkt, und dann sogar recht stark: Aussagen zu Themen, die Personen negativ bewegen, aber nicht gesellschaftlich spalten (und damit einem weltanschaulichen bias unterliegen, s. S. 94), können korrigiert werden, zumal wenn die Korrekturen über Erklärungen ihre Richtigstellung plausibilisieren. Debunking kann demnach gelingen, aber eben nicht in jeder Anwendungssituation. Sind Faktenchecks als nachträgliche Korrekturen wirksam? Eine Maßnahme, um für die Richtigkeit von Aussagen zu bürgen, besteht darin, dass Institutionen wie die Deutsche Presseagentur (www.dpa.com/ de/ faktencheck) oder Correctiv (www.correctiv.org/ faktencheck/ ) Aussagen auf ihren Wahrheitsgehalt prüfen und bei falschen Informationen nachträg‐ liche Richtigstellungen publizieren. Dies wird „Faktencheck“ genannt. Eine kommunikationswissenschaftliche Definition von Faktenchecks enthält der nachstehende Kasten. Faktencheck „Unter Faktencheck versteht man die systematische Veröffentlichung von Richtigkeitsbewertungen von Behauptungen, die von öffentlichen Stellen und Institutionen aufgestellt werden, um eindeutig zu ermitteln, ob eine Behauptung den Tatsachen entspricht.“ (Walter et al., 2020, S.-351) Sind Faktenchecks als nachträgliche Korrekturen wirksam? 127 <?page no="128"?> Die Frage bei solchen Faktenchecks ist, ob sie wirksam sind. Die Forschung hat dazu sehr uneinheitliche Befunde hervorgebracht, weshalb eine Meta‐ analyse hilft, die Erkenntnisse zu bündeln und zu quantifizieren (Walter et al., 2020). Das Korpus an Primärstudien umfasste 30 Experimente, an denen fast 21.000 Personen teilgenommen hatten. Geprüft wurde in den Experimenten, ob sich Faktenchecks auf Überzeugungen auswirken - dem war so. Faktenchecks verändern also (leicht) die Überzeugungen in angestrebter Weise. Es gab jedoch empirische Hinweise darauf, dass die Wirkung nicht gleichartig ausfällt, sondern in Abhängigkeit von Merkmalen der Personen, des Kontexts und der korrigierenden Nachricht selbst beeinflusst wird: ■ Die thematische und die inhaltliche Weltanschauung spielen eine Rolle: Wenn Faktenchecks Aussagen korrigieren sollen, die zur eigenen inhaltlichen Überzeugung passen, ist der Effekt geringer, als wenn Korrekturen bei Aussagen erfolgen, die der eigenen Überzeugung widersprechen. Anders gesagt: Personen glauben eher Korrekturen an Aussagen, die ohnehin nicht ihrer Sichtweise entsprochen haben. Dennoch sind Personen in etwas geringerem Maße bereit, Korrekturen an Aussagen zu akzeptieren, welche mit ihrer eigenen Weltsicht übereinstimmen. Teils wurde dieser Effekt noch davon beeinflusst, wie politisch liberal oder konservativ die Personen waren: Bei Kon‐ servativen waren Korrekturen überzeugungskongruenter Aussagen erheblich weniger effektiv. ■ Aussagen von politischen Kampagnen sind schwerer durch Faktenchecks korrigierbar: Wenn falsche Aussagen im Rahmen von offensiven Versu‐ chen, die öffentliche Meinung durch Werbung oder Öffentlichkeitsarbeit zu beeinflussen, getätigt wurden, waren die Korrekturen von weniger Erfolg gekennzeichnet. Kampagnen desinformieren demnach nachhal‐ tiger und wirken im Nachgang wenig gut korrigierbar. ■ Sprachliche Einfachheit zählt: Korrekturen waren erfolgreicher, wenn die Lexik einfach war. Je verständlicher die Korrektur formuliert war, desto höher fiel ihre Wirksamkeit aus. ■ Die gesamte Aussage zu korrigieren ist wirksamer, als nur Teile zu wider‐ legen: Es war wirksamer, wenn die Korrekturen sich nicht auf einzelne Details beschränkten, sondern die gesamte falsche Aussage betrafen. Die Metaanalyse dämpft insgesamt die hohen Erwartungen an Fakten‐ checks. Sie zeigen zwar durchaus Wirksamkeit, gleichwohl erreichen sie 128 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="129"?> ihr Ziel nur noch bedingt, sobald politische Ansichten bzw. die politische Meinungsbildung involviert sind, welche die Faktenchecks an Grenzen zu bringen scheinen. Dennoch sind diejenigen Faktenchecks erfolgreich, die sprachlich gezielt einfach gesamte Aussagen fokussieren, statt komplex und differenziert auf Detailebene zu operieren. Insofern ist die Suche nach effektiven Merkmalen von Faktenchecks noch nicht abgeschlossen (Porter & Wood, 2024). Zum jetzigen Zeitpunkt haben Faktenchecks also ihre Berech‐ tigung im gesamten Instrumentarium des Umgangs mit Desinformationen. Man darf sie in ihrer Wirksamkeit freilich nicht überhöhen. Lesetipp Die Literatur zur Effektivität von Faktenchecks ist auffällig von Unein‐ deutigkeit betroffen. Einen kurzen und gut lesbaren Einstieg offeriert dieser Text: Porter, E. & Wood, T. J. (2024). Factual Corrections: Concerns and Current Evidence. Current Opinion in Psychology, 55, Artikel 101715. Gibt es so etwas wie eine Grundstruktur günstiger Korrekturen von Falschaussagen? Ja, die gibt es. Die Forschung zum Debunking hat verschiedene Ansätze er‐ probt, wie sich falsche Aussagen nachträglich korrigieren lassen und welche Vorgehensweise sich hierbei anbietet (Vraga et al., 2023). Als Grundstruktur haben Lewandowsky et al. (2020) einen vierteiligen Aufbau vorgeschlagen, den sie aus der Forschungsliteratur abstrahiert haben: 1. Fakt: Man sollte mit dem Fakt beginnen, wenn dieser klar, prägnant und einprägsam ist. Ist er es nicht, sollte er dazu gemacht werden und zum Rest der Darstellung gut passen. 2. Warnung vor der Falschinformation: Es sollte eine explizite Warnung vor der falschen Aussage folgen, die eigentliche Falschaussage soll nur ein einziges Mal benannt werden. 3. Erklärung, wie der Trugschluss zustande kommt: Hier gilt es, die Wirk‐ weise bzw. das Zustandekommen der zuvor benannten falschen Aussage darzulegen. Gibt es so etwas wie eine Grundstruktur günstiger Korrekturen von Falschaussagen? 129 <?page no="130"?> 4. Wiederholen des Faktes: Den Abschluss sollte die möglichst mehrfache Wiederholung des Faktums bilden, das nochmals plausibel dargestellt werden sollte. Um diesen Aufbau nicht nur abstrakt zu formulieren, sondern auch einmal ganz plastisch darzustellen, dient das nachstehende Beispiel im Kasten. Es stammt aus einer großen Studie, in der unter anderem die Teilnehmer: innen nach einem Artikel, der die Ursache des Klimawandels in der Sonnenaktivität sieht, einen ausführlichen Korrekturhinweis erhalten haben. Ein Beispiel für einen Debunking-Hinweis Die globale Erwärmung ist eindeutig vom Menschen verursacht. Der Effekt der Erwärmung durch Treibhausgase ist durch zahlreiche Be‐ weise bestätigt worden. Ein Klimamythos besagt, dass der moderne Klimawandel natürlich ist und dass die Sonne und nicht der Mensch dafür verantwortlich war und immer noch ist. Diese Behauptung ist falsch. Im Gegenteil: Die erwärmende Wirkung von Treibhausgasen wie Kohlendioxid ist durch zahlreiche Beweise bestätigt worden. Der Artikel bedient sich mehrerer bekannter Techniken, um die Men‐ schen in die Irre zu führen: ■ Er behauptet, dass ein einziger wissenschaftlicher Artikel ein Beweis sei. Das allein sollte schon alarmierend sein, denn eine einzelne Studie ist niemals ein Beweis - sie ist ein Beleg, der im Lichte früherer Forschungen interpretiert werden muss. Beste‐ hende Forschungen unterstützen die erwärmende Wirkung der vom Menschen verursachten Treibhausgase. ■ Gegenteilige Belege werden als unglaubwürdig oder unlogisch abgetan. Dies ist ein Markenzeichen pseudowissenschaftlicher Argumentation. ■ Es wird behauptet, dass ein bösartiger Akteur hinter allem steht. Dies ist äußerst unwahrscheinlich. Die erwärmende Wirkung der vom Menschen verursachten Treibhausgase ist von mehreren unabhängigen Wissenschaftsteams bestätigt worden. ■ Es wird versucht, negative Emotionen zu wecken und ein Szenario „wir gegen sie“ zu schaffen. Dies lenkt von den Fakten ab. Kein wissenschaftlicher Artikel würde dies tun. 130 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="131"?> Die globale Erwärmung ist eindeutig vom Menschen verursacht. Der Erwärmungseffekt von Treibhausgasen wie Kohlendioxid ist durch zahlreiche Beweise bestätigt worden. (Quelle: Übersetzung von Bruns et al., 2024) Lesetipp Einen gut lesbaren, sehr stark die Forschung zum Debunking aufberei‐ tenden Überblick hat eine Gruppe renommierter Forscher: innen zusam‐ mengestellt. Diesen Überblick gibt es auch auf Deutsch („Widerlegen, aber richtig“), er lässt sich leicht im Internet recherchieren: Lewandowsky, S., Cook, J., Ecker, U. K. H., Albarracín, D., Ama‐ zeen, M. A., Kendeou, P., Lombardi, D., Newman, E. J., Pennycook, G., Porter, E., Rapp, D. N., Reifler, J., Roozenbeek, J., Schmid, P., Seifert, C. M., Sinatra, G. M., Swire-Thompson, B., van der Linden, S., Vraga, E. K., … Zarazoga,-M.-S. (2020). Debunking Handbook 2020. Databrary. Existiert ein Bumerang-Effekt bei der Korrektur von Falschinformationen? Sind Falsch- und Desinformationen im Umlauf, betreffen Gegenmaßnahmen die Korrekturbemühungen. Dabei hat sich in der Forschung, zunächst ausgehend von früh geäußerten Befürchtungen, eine Debatte darum ent‐ sponnen, ob es ungewollte Nebenwirkungen der Korrekturen gibt (Porter & Wood, 2024). In Gesundheitsfragen kursieren viele Falschaussagen, etwa Behauptungen zur angeblichen Wirksamkeit von ungeeigneten Mitteln zur Behandlung schwerer Krankheiten. Wenn Personen bspw. in einem Faktencheck oder einem Artikel gelesen haben, dass das Antiparasiten- Medikament Ivermectin keinen Effekt auf eine Covid-19-Infektion hat, ist eine Sorge, dass es zu einem sogenannten „Bumerang-Effekt“ kommen könnte. Der Bumerang-Effekt und seine zwei Hauptformen Ein Bumerang-Effekt tritt dann auf, wenn eine Korrektur einer Falsch‐ information unbeabsichtigt den Glauben an sie (im Vergleich zu einem Existiert ein Bumerang-Effekt bei der Korrektur von Falschinformationen? 131 <?page no="132"?> Ausgangswert vor der Korrektur oder ohne Korrektur) paradoxerweise erhöht. Zwei Formen werden aktuell besonders in der Forschung dis‐ kutiert: der Bumerang-Effekt der Weltanschauung und der Bumerang- Effekt des Vertrauten. Der Bumerang-Effekt der Weltanschauung führt dazu, dass Personen auf Korrekturen, die ihre individuellen weltan‐ schaulichen Überzeugungen infrage stellen, mit Abwehr reagieren und damit ihre Überzeugungen zementieren. Der Bumerang-Effekt des Ver‐ trauten meint eine Erhöhung des Glaubens an Falschinformationen durch die wiederholte Begegnung mit Falschinformationen, wenn diese eigentlich korrigiert werden sollen (Swire-Thompson et al., 2020). Strittig ist in der Wissenschaft, a) ob der Bumerang-Effekt überhaupt auftritt bzw. b) welche Variante davon. Die anfängliche Sorge nach einem allgemei‐ nen Bumerang-Effekt und dem des Vertrauten bzw. der Weltanschauung ließ sich empirisch nur selten nachweisen (Pennycook & Rand, 2022; Porter & Wood, 2024; Swire-Thompson et al., 2020). Für die Bekämpfung von Falschinformationen ist das ein wichtiger Befund, denn er unterstreicht, dass die Angst vor Bumerang-Effekten unbegründet ist. Mehr noch: Widerlegungen sollten keineswegs darauf verzichten, klar (und kurz) zu benennen, was sie zu korrigieren versuchen. Der explizite Zusatz, dass es den Mythos einer Wirkung von Ivermectin bei Covid-19-Erkrankungen gibt, ist im Lichte des ausbleibenden Bumerang- Effekts bei Widerlegungen also sinnvoll und sogar elementar (s. S. 124 und 129). Welche rhetorischen Strategien flankieren Falschaussagen? Um gegen Falsch- und Desinformationen effektiver vorgehen zu können, ist es nicht nur entscheidend zu erkennen, wie stark sie von Fakten und Wissen abweichen, sondern auch ihre Rhetorik zu verstehen. Oder anders: Die kommunikativen handwerklichen Merkmale zu kennen, welche die Überzeugungskraft von falschen Aussagen stärken sollen, ist ein wichtiges Element der Gegenwehr (Philipp, 2025b). Im Zusammenhang mit gesund‐ heitsbezogenen Fragen und wissenschaftlichen Falschinformationen stellt sich dieses Erfordernis ganz besonders. 132 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="133"?> Eine Überblicksarbeit hat sich der Forschungsfrage gewidmet, welche als „persuasive Strategien“ bezeichneten Merkmale der inhaltlichen und rhetorischen Darbietung gesundheitliche Online-Falschinformationen auf‐ weisen (Peng et al., 2023). Mit gesundheitlichen Online-Falschinformationen sind gesundheitsbezogene Informationen aus dem Internet gemeint, die mit Blick auf den Konsens der Wissenschaft und ihrer Belege wahlweise falsch, ungenau, irreführend, voreingenommen oder unvollständig sind - es handelt sich also um wissenschaftliche Falschinformationen (s. S. 35). Über die Hälfte der insgesamt 58 kriterienbasiert ausgewählten Studien bezog sich inhaltlich auf Covid-19 bzw. das Impfen und es ließen sich über 250 persuasive Strategien extrahieren, von denen der Großteil dann zu zwölf Kategorien verdichtbar war. Das Dutzend persuasiver Strategien war folgendermaßen (unter prozentualer Angabe, in wie vielen Studien die Strategie kodierbar war; in einigen Fällen trifft dies auf Subkategorien zu): 1. Rhetorische Winkelzüge nutzen (28 %): Dies umfasst unter anderem Übertreibungen, gezieltes Auslassen (z.B. für den Eindruck von falscher Balance) bzw. Negieren von Gegenbeweisen und irreführende Darstel‐ lungen. 2. Risiko und Unsicherheit stark betonen (26 %): Hierunter fallen Verstär‐ kungen des Zweifels an Maßnahmen, indem bspw. abschwächende Ausdrücke verwendet werden oder aber Gefahren stark betont werden, z.B. indem die Wirksamkeit von Impfstoffen mit Ausdrücken wie „kön‐ nen“ subtil heruntergespielt wird. 3. Emotional appellieren (24 %): Die Aussagen werden mit emotionalisier‐ enden Appellen ergänzt, die Ängste hervorrufen (auch in Verbindung mit der Betonung von Risiken und Unsicherheiten). 4. Misstrauen gegenüber Regierungen bzw. Pharmaunternehmen säen (24 %): Hierunter fällt, Regierungen, Behörden, Pharmaunternehmen als ‚Ein‐ richtungen‘ oder ‚mächtige Strukturen‘ bzw. wissenschaftlichen Metho‐ den als trügerisch, boshaft oder grundlegend untauglich darzustellen. Die Wirkung ist, dass ein unethischer, machmissbräuchlicher, korrupter oder inkompetenter Eindruck entsteht, dem analog zu Verschwörungs‐ theorien teils noch ein Aufruf zum ‚kritischen Denken‘ beigefügt wird. 5. Schlussfolgerungen mit verzerrten Gedankengängen belegen (24 %): Das meint vor allem logische Schwachstellen und manifestiert sich in Phä‐ nomenen wie falschen Verbindungen, falschen Schlussfolgerungen, ungeprüft übernommenen Aussagen, Spekulationen, verschwörungs‐ Welche rhetorischen Strategien flankieren Falschaussagen? 133 <?page no="134"?> theoretischen Ergänzungen, Fehlinterpretationen und Mutmaßungen ohne ausreichende Datenbasis. 6. Narrative herstellen und lebhaft mit Details ausschmücken (14 %): Die Strategie besteht darin, dass eine gezielt mit vielen Informationen ver‐ sehene Geschichte erzählt wird, z.B. die eines Teenagers, der lebenslustig wirkt und angeblich nach einer Impfung unerwartet stirbt. 7. Anekdotische Erste-Hand-Erlebnisse als Belege anführen (12-%): In diesen Narrationen berichten Personen über Dinge, die ihnen persönlich zuge‐ stoßen sein sollen, etwa ungewöhnliche Impfnebenwirkungen; die Ich- Perspektive soll die Glaubwürdigkeit der Aussagen unterstützen. 8. Wissenschaftliche Belege unangemessen verwenden (12 %): Unter diese Praktik fallen aus dem Kontext falsch entnommene, veraltete, ungenaue oder inhaltlich wenig belastbare Aussagen. 9. Gesundheitsthemen gezielt politisieren (7-21-%): In diese Sammelkatego‐ rie fallen vier unterschiedliche Fälle. Die erste Subkategorie besteht darin, mit Begriffen wie „Freiheit“, „Selbstbestimmung“ oder „Wahlfrei‐ heit“ Gesundheitsmaßnahmen als Zwang oder Form von Tyrannei zu inszenieren (12 %). Eine zweite Gruppe von Aussagen betont gezielt Innen- und Außengruppen, um über Intoleranz gegenüber anderen und Bevorzugung der eigenen Gruppen künstliche Differenzen herzustellen und zum Beispiel Erkrankungen als Merkmal von Gruppen darzustellen (21 %). Drittens werden auch gezielt falsche Informationen von politischen Kräften in Umlauf gebracht, um über Echokammern Verwirrung zu stiften und das Vorgehen von politischen Gegnern zu unterminieren (7 %). Die vierte Variante besteht darin, ideologische, religiöse oder moralisierende Aussagen zu bemühen (10-%). 10. Besondere sprachliche Merkmale nutzen (10 %): In dieser insgesamt wenig einheitlichen Gruppe sind linguistische Auffälligkeiten zu verorten, etwa die Verwendung negativ konnotierter Wörter oder sprachlicher Verstärkungsmittel. 11. Grenzen der Wissenschaft ausnutzen (7 %): Das bedeutet, dass die Wis‐ senschaft und ihre Methodik gezielt diskreditiert wird, weil der Erkennt‐ nisgewinn vorläufig, zeitintensiv und mit Restunsicherheit behaftet ist (s. S. 35). So wird etwa die fehlende Risikofreiheit von Impfstoffen als Beleg für die Unzulänglichkeit von Wissenschaft missbraucht. 12. Glaubwürdigkeit durch oberflächenorientierte Gestaltung insinuieren (16- 28 %): Diese Sammelkategorie umfasst Techniken wie - erstens - schein‐ bar vertrauenswürdige bzw. erfundene Quellen zu nutzen (21 %). Zweitens 134 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="135"?> sind das Einstreuen von Fachbegriffen, das Verwenden von Statistik, positiv besetzten Ausdrücken (etwa zur Reinheit von Inhaltsstoffen) und schlichten Behauptungen ein Mittel, Wissenschaftlichkeit vorzutäu‐ schen (28 %). Drittens sind komplexe Täuschungen durch Verwendungen mehrerer Quellen oder humoristischer oder metaphorischer Stilistiken anzuführen, die Glaubhaftigkeit und Zugänglichkeit unterstützen (16 %). Kann der Effekt des anhaltenden Einflusses minimiert werden und wenn ja wodurch? Sind Falsch- und Desinformationen erst einmal im Umlauf, stellt sich die Frage, ob sich trotz des bekannten Umstands, dass sich Personen in ihrem Denken und Handeln auf längst korrigierte Aussagen stützen (Effekt des anhaltenden Einflusses, s. S. 80), dieser Effekt wieder einhegen lässt. Das ist in begrenztem Maße möglich, wie es eine Metaanalyse auf der Basis von 32 ausgewählten Experimenten mit etwas mehr als 6.500 Testpersonen verdeutlicht (Walter & Tukachinsky, 2020). Die Formulierung „in begrenztem Maße möglich“ transportiert bereits das essenzielle Ergebnis der Auswertungen: Der Effekt des fortdauernden Einflusses hat sich in Gänze nicht beseitigen lassen, selbst wenn er nach den Gegenmaßnahmen schwächer war. In dieser Metaanalyse wurde zudem ausgiebig geprüft, welche Faktoren dazu führen bzw. nicht dazu führen, den Effekt des anhaltenden Einflusses wirksam abzuschwächen. Aus diesen Ergebnissen lässt sich eine Liste effektiver Merkmale, zunächst der Korrekturen, extrahieren: ■ Kohärente Korrekturen helfen: Damit ist gemeint, dass die Korrekturen eine Begründung für die korrigierende Erklärung enthalten oder aber beschreiben, weshalb die falsche Information eine Verbreitung gefunden hat. ■ Unverzügliche Korrekturen helfen: Wenn die Korrektur unmittelbar nach dem Kontakt mit der Falschaussage erfolgt, ist dies günstiger, als wenn mehr Zeit zwischen Kontakt und Korrektur verstreicht. ■ Korrekturen helfen, aber nur wenn sie den Einstellungen entsprechen: Die Korrekturen minimieren den Effekt, aber nur wenn sie nicht mit der eigenen Weltsicht konfligieren. Kann der Effekt des anhaltenden Einflusses minimiert werden und wenn ja wodurch? 135 <?page no="136"?> Daneben gibt es Effekte, die eher die fehlerhaften Informationen betreffen: ■ Je weniger die zu korrigierende falsche Information bis zu ihrer Korrektur wiederholt wird, desto besser: Ganz im Einklang mit dem Wahrheitsillu‐ sionseffekt (s. S. 72) erwies es sich als ungünstig, wenn die zu überwin‐ dende Information vor der Korrektur häufiger wiederholt worden war. ■ Selbstkorrekturen der Ursprungsaussagen sind effektiver als Fremdkorrek‐ turen: Das bedeutet, dass der Effekt des fortschreitenden Einflusses geringer ist, wenn sich die Quelle der falschen Information selbst korrigiert. Im Vergleich dazu bleibt der Effekt der Falschinformationen bestehen, wenn die Korrekturen durch andere Quellen erfolgen. ■ Falsche Aussagen von weniger vertrauenswürdigen Quellen sind leichter korrigierbar: Hat die Quelle von falschen Aussagen eine geringere Vertrauenswürdigkeit bzw. wenig erkennbare Expertise, dann ist der Schaden ihrer Aussage geringer, als wenn eine renommierte Quelle etwas inhaltlich Falsches geäußert hat. Der Effekt des anhaltenden Einflusses ist unerfreulich hartnäckig und lässt sich nach gegenwärtigem Kenntnisstand nicht ausräumen, sondern nur mildern. Bezogen auf Merkmale fehlerhafter Informationen, deren Quelle und die Kor‐ rekturen lässt sich aber etwas ableiten: Kohärente, unverzügliche (Selbst-)Kor‐ rekturen, die der weiteren Ausbreitung und dem neuerlichen Kontakt mit den falschen Informationen energisch entgegentreten, wirken hilfreich und angezeigt. Es geht also um Schadensbegrenzung bzw. -minimierung. Lassen sich die Fähigkeiten zum Erkennen von Deepfakes durch Maßnahmen verbessern? Im Kapitel zu Deepfakes war ein wichtiges, zugleich ernüchterndes Ergebnis aus einer Metaanalyse, dass Personen nur etwas mehr als in der Hälfte der Entscheidungen, ob sie einen Deepfake als solchen erkennen, korrekt lagen (s. S. 67). Dieselbe Metaanalyse setzte noch einen weiteren wichti‐ gen Analysefokus, nämlich ob sich diese Leistungen durch Maßnahmen verbessern lassen. Das war laut 17 ausgewerteten Studien tatsächlich der Fall: Um zehn Prozentpunkte, nämlich auf 65 Prozent korrekte Antworten, ließen sich die Fähigkeiten im Erkennen von Deepfakes steigern (Diel et al., 2024). Die Metaanalyse hat nicht gesondert quantitativ berichtet, ob und 136 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="137"?> in welchem Ausmaß welche Fördermaßnahme wirkte. Gleichwohl wurden fünf Maßnahmen unterschieden: ■ Feedback: Die Personen bekamen nach der Einschätzung eine positive bzw. negative Rückmeldung zur Korrektheit ihrer Lösung. Dies half vor allem bei den Einschätzungen von bildlichen Deepfakes, die in den zugrundeliegenden Studien dominierten. Diese Maßnahme war in allen Studien effektiv. ■ Nutzung weiterer Ressourcen: Hierunter fällt, dass die Personen entwe‐ der ein weiteres KI-basiertes Urteil zum Stimulus erhielten, also eine unterstützende Einschätzung von einer KI, oder aber kooperierend entscheiden konnten. Beide Varianten steigerten die Leistungen. ■ Hinweise zur Erhöhung der Deepfakes-Bewusstheit: Hier wurden Perso‐ nen sensibilisiert, was Deepfakes sind und welche Schäden sie anrichten. Dies war eine eher implizite Fördermaßnahme und erwies sich nicht durchgängig als effektiv. ■ Explizite Hinweise zu Merkmalen von Deepfakes: Die Personen erhielten verschiedene Hinweise dazu, woran sie Deepfakes erkennen können, etwa Auffälligkeiten in Videos an Augen und Stirn, Flackern und Unschärfen von Gesichtsteilen etc. Diese Maßnahme war überwiegend effektiv. ■ Deepfake-Karikaturierungen: Hier wurden Videos mithilfe von KI-Ap‐ plikationen geprüft und unnatürliche Elemente wurden im Bild verzer‐ rend hervorgehoben, sodass es den Betrachter: innen leichter fiel, diese Bestandteile zu erkennen. Diese Maßnahme steigerte die Erkennensleis‐ tungen der Betrachter: innen besonders stark. Die Ergebnisse aus der Metaanalyse zeigen Potenziale und Limitationen. Potenziale bestehen darin, dass Personen ihre Fähigkeiten zur Detektion von Deepfakes dann steigern, wenn sie über Rückmeldungen eine bessere Grundlage für ihre Urteilssicherheit haben, wenn sie andere Informations‐ quellen nutzen können (KI-basierte Einschätzungen bzw. karikierende Her‐ vorhebungen, andere Urteile von Mitbeurteilenden) oder wenn sie Wissen über Deepfakes vermittelt bekommen. Eine rein auf allgemeine Merkmale von Deepfakes hinweisende Form reicht, zumindest in den experimentellen Studien, hingegen nicht aus. Es gibt also mehrere Möglichkeiten, Personen dazu zu befähigen, Deep‐ fakes zu erkennen, auch wenn die Forschung dazu gerade erst beginnt. Denn auch das gehört zur Wahrheit über Deepfakes: Diese Studien sind weder Lassen sich die Fähigkeiten zum Erkennen von Deepfakes durch Maßnahmen verbessern? 137 <?page no="138"?> zahlreich noch homogen noch mit Kindern und Jugendlichen durchgeführt worden. 138 Gegenmaßnahmen: (k)ein Kraut gegen Desinformation <?page no="139"?> Glossar Bullshit: Äußerungen zu einem offenen Sachverhalt, die gegenüber der Wahrheit und der Wahrheitsfindung gleichgültig sind Bumerang-Effekt von Korrekturen: Nebenwirkung von Korrekturen, bei denen die Wiederholung von Falschaussagen dazu führt, dass Personen sie noch mehr glauben; der Effekt gilt als nicht robust belegt Corroboration: vergleichendes Lesen von mehreren Dokumenten, um die inhalt‐ liche Übereinstimmung (intertextuelle → Kohärenz) verifikatorisch festzustellen Debunking: nachträgliche Korrektur von fehlerhaften Aussagen mit einer Erklä‐ rung, welche Aussage inkorrekt war und worin die Korrektur besteht Deepfakes: durch maschinelles Lernen herstellbare Texte, vor allem aber Audio-, Bild- und Videodateien, die unwahre Inhalte glaubhaft darstellen Desinformation: inhaltlich unwahre, absichtsvoll erstellte Aussagen, die dazu dienen, jemandem zu schaden Dokument: abgeschlossene kommunikative Einheit bzw. ein kommunikatives Artefakt, das sich aus einer inhaltlichen Komponente (Text bzw. (audio-)visuellen Darstellungen) und Metadaten zur Quelle zusammensetzt Effekt des anhaltenden Einflusses (Continued Influence Effect): gedächtnis‐ basierte Fehlleistung, bei der eine widerlegte oder sonstig als ungültig bekannte Information immer noch Denk- und Entscheidungsprozesse beeinflusst Epistemische Autorität: inhaltlich glaubwürdige und als Quelle vertrauenswür‐ dige Instanz mit höherem fachlichem Wissen, die nachweislich als Wissensquelle legitimierbar ist Epistemisch wachsames Lesen: Prozessverbund verschiedener kognitiver und metakognitiver Strategien mit dem Ziel, mentale Repräsentationen aufzubauen, die hinreichend mehrdimensional geprüft wurden Fake News: → Desinformationen, die gezielt echte Nachrichten nachahmen, ohne journalistischen Qualitätsstandards zu genügen Inferenz: schlussfolgerndes Verbinden von textuellen Aussagen untereinander und/ oder mit Elementen aus dem eigenen Vorwissen; gilt als zentraler Prozess des → Leseverstehens Inoculation: dem Impfmechanismus nachempfundene Intervention, bei der Le‐ ser: innen auf in Kürze zu erwartende Falschinformationen vorbereitet werden, um ihre Widerstandsfähigkeit zu erhöhen <?page no="140"?> Kognitive Illusionen: Sammelbegriff für nicht-steuerbare, universelle Prozesse und Produkte des Erinnerns, Denkens und Beurteilens, denen eine subjektive Abweichung von einem Soll innewohnt Kohärenz: Widerspruchsarmut von mental repräsentierten, untereinander sinnvoll vernetzten Inhalten aus Dokumenten, aber auch Merkmal von Vorwissen und Texten Leseverstehen: Aufbau einer internen mentalen Repräsentation (als propositiona‐ les Netzwerk bzw. als mentales Modell) durch aktive Verarbeitung von textuell transportierten, externen Inhalten Metaanalyse: quantitative Sekundärauswertung von kriterienbasiert ausgewähl‐ ten Primärstudien, um Effekte (z.B. Zusammenhänge, Unterschiede, Effektivität) studienübergreifend zu bestimmen; wenn ausreichend Primärstudien vorhanden sind, kann noch geprüft werden, ob einzelne Merkmale (wie Eigenschaften der Proband: innen, methodische Merkmale etc.) die Ausprägung der Effekte beeinflussen (sog. Moderationseffekte) My-side-bias: unbewusste Tendenz, überzeugungskonsistente Argumente für die eigene Position zu finden bzw. Gegenargumente zu suchen, um eine subjektiv abgelehnte Position zu entkräften Nudging: durch niederschwellige Anpassungen vorgenommene verhaltensbezo‐ gene Interventionen, die den Umgang mit Falschinformationen optimieren sollen, z.B. Warnhinweise Postfaktismus: zielbasierte Abwertung von Fakten und Wissen sowie → episte‐ mischen Autoritäten zugunsten von Emotionen, subjektiven Überzeugungen und Ansichten Prebunking: → Inoculation Sourcing: Prozessverbund, der das Beachten, das Beurteilen (der → Vertrauens‐ würdigkeit einer Quelle) und das Nutzen von Metadaten als Zusatzinformationen über die Quellen von Aussagen betrifft und eine potenziell bedeutungsmodifizie‐ rende Funktion erfüllt Text-Überzeugungskonsistenz-Effekt: automatisch ablaufender Prozess, bei dem Aussagen, die zu den eigenen → thematischen Überzeugungen passen, leichter verarbeitet werden und unkorrigiert zu verzerrt einseitigen Verstehen‐ sprodukten führen Überzeugungen, epistemische: Set von subjektiven Theorien darüber, was Wis‐ sen ist und wie es hergestellt wird Überzeugungen, thematische: subjektive Einschätzungen zu dem unterstellten Wahrheitsgehalt von inhaltlichen Aussagen 140 Glossar <?page no="141"?> Vertrauen: in der medialen Kommunikation einseitige Beziehung von vertrau‐ ensgebender Person zu einer vertrauensnehmenden Partei, die auf mehreren Dimensionen der wahrgenommenen → Vertrauenswürdigkeit basiert und eine Vulnerabilität für die vertrauensgebende Person mit sich bringt Vertrauenswürdigkeit: quellenbezogene Einschätzung (→ Sourcing) einer Per‐ son, die sich auf Dimensionen wie Expertise, Wohlwollen und Integrität stützt, um dadurch mittelbar einzuschätzen, wie inhaltlich belastbar (= glaubwürdig) die inhaltlichen Aussagen der Quelle sind Wahrheitsheitsillusionseffekt: Tendenz, wiederholt dargebotene Inhalte zuneh‐ mend für wahrer zu halten, unabhängig davon, ob sie faktisch wahr sind Widerlegungstexte: eine Form des → Debunkings, bei der mittels eigens verfass‐ ter Texte gängige Missverständnisse explizit benannt, widerlegt und plausibel erklärt werden Glossar 141 <?page no="143"?> Verwendete Literatur Acerbi,-A., Altay,-S. & Mercier,-H. (2022). Fighting Misinformation or Fighting for Information? Harvard Kennedy School Misinformation Review, 3(1), 1-15. Adams, Z., Osman, M., Bechlivanidis, C. & Meder, B. (2023). (Why) Is Misinformation a Problem? Perspectives on Psychological Science, 18(6), 1436-1463. Alexander,-P.-A., Fox,-E., Maggioni,-L., Loughlin,-S., Baggetta,-P., Dinsmore,-D.-L., Grossnickle,-E.-M., List,-A., Parkinson,-M.-M., Winters,-F.-I. & Dumas,-D. (2012). Reading into the Future: Competence for the 21 st Century. Educational Psychologist, 47(4), 259-280. Alexander, P. A. & Schoute, E. C. (2022). Knowledge, Knowing, and Information: Their Meaning and Meaningfulness to Learning and Development. Routledge. Allen, J., Watts, D. J. & Rand, D. G. (2024). Quantifying the Impact of Misinformation and Vaccine-Skeptical Content on Facebook. Science, 384(6699), Artikel eadk3451. Altay,-S., Berriche,-M. & Acerbi,-A. (2023). Misinformation on Misinformation: Conceptual and Methodological Challenges. Social Media + Society, 9(1), 1-13. Amazeen, M. A. & Krishna, A. (2024). Refuting Misinformation: Examining Theore‐ tical Underpinnings of Refutational Interventions. Current Opinion in Psychology, 56, Artikel 101774. Barzilai,-S. & Chinn,-C.-A. (2020). A Review of Educational Responses to the „Post-Truth“ Condition: Four Lenses on „Post-Truth“ Problems. Educational Psychologist, 55(3), 107-119. Bennett,-W.-L. & Livingston,-S. (2018). The Disinformation Order: Disruptive Communication and the Decline of Democratic Institutions. European Journal of Communication, 33(2), 122-139. Blake-Turner, C. (in Druck). Fake News, Relevant Alternatives, and the Degradation of Our Epistemic Environment. Inquiry. Blöbaum,-B. (2021). Some Thoughts on the Nature of Trust: Concept, Models and Theory. In B. Blöbaum (Hg.), Trust and Communication: Findings and Implications of Trust Research, 3-28, Springer International Publishing. Borges do Nascimento,-I.-J., Pizarro,-A.-B., Almeida,-J.-M., Azzopardi-Muscat,-N., Gonçalves, M. A., Björklund, M. & Novillo-Ortiz, D. (2022). Infodemics and Health Misinformation: A Systematic Review of Reviews. Bulletin of the World Health Organization, 100(9), 544-561. Bowes, S. M. & Fazio, L. K. (2024). Intellectual Humility and Misinformation Recep‐ tivity: A Meta-Analytic Review. Advances in Psychology, 2(1), Artikel e940422. <?page no="144"?> Braasch, J. L. G. & Graesser, A. C. (2020). Avoiding and Overcoming Misinformation on the Internet. In D. F. Halpern & R. J. Sternberg (Hg.), Critical Thinking in Psychology, 2. Aufl., 125-151, Cambridge University Press. Braasch, J. L. G. & Scharrer, L. (2020). The Role of Cognitive Conflict in Understan‐ ding and Learning from Multiple Perspectives. In P. N. van Meter, A. List, D. Lombardi & P. Kendeou (Hg.), Handbook of Learning from Multiple Representations and Perspectives, 205-222, Routledge. Brashier,-N.-M. & Marsh,-E.-J. (2020). Judging Truth. Annual Review of Psychology, 71(1), 499-515. Bråten,-I. & Braasch,-J.-L.-G. (2018). The Role of Conflict in Multiple Source Use. In J. L. G. Braasch, I. Bråten & M. T. McCrudden (Hg.), Handbook of Multiple Source Use, 184-201, Routledge. Bråten,-I., Britt,-M.-A., Strømsø,-H.-I. & Rouet,-J.-F. (2011). The Role of Epistemic Beliefs in the Comprehension of Multiple Expository Texts: Toward an Integrated Model. Educational Psychologist, 46(1), 48-70. Bråten,-I., Stadtler,-M. & Salmerón,-L. (2017). The Role of Sourcing in Discourse Comprehension. In M. F. Schober, D. N. Rapp & M. A. Britt (Hg.), The Routledge Handbook of Discourse Processesm, 2. Aufl., 141-168, Routledge. Breakstone,-J., Smith,-M.-D., Wineburg,-S.-S., Rapaport,-A., Carle,-J., Garland,-M. & Saavedra,-A. (2021). Students’ Civic Online Reasoning: A National Portrait. Educational Researcher, 50(8), 505-515. Britt,-M.-A., Rouet,-J.-F., Blaum,-D. & Millis,-K. (2019). A Reasoned Approach to Dealing with Fake News. Policy Insights from the Behavioral and Brain Sciences, 6(1), 94-101. Bromme, R. & Hendriks, F. (2024). Trust in Science: Considering Whom to Trust for Knowing What Is True. In R. C. Mayer & B. M. Mayer (Hg.), A Research Agenda for Trust: Interdisciplinary Perspectives, 37-49, Edward Elgar Publishing. Bruns, H., Dessart, F. J., Krawczyk, M., Lewandowsky, S., Pantazi, M., Pennycook, G., Schmid, P. & Smillie, L. (2024). Investigating the Role of Source and Source Trust in Prebunks and Debunks of Misinformation in Online Experiments across Four EU Countries. Scientific Reports, 14(1), Artikel 20723. Chan,-M.-P.-S. & Albarracín,-D. (2023). A Meta-Analysis of Correction Effects in Science-Relevant Misinformation. Nature Human Behaviour, 7(9), 1514-1525. Chan,-M.-P.-S., Jones,-C.-R., Hall Jamieson,-K. & Albarracín,-D. (2017). Debunking: A Meta-Analysis of the Psychological Efficacy of Messages Countering Misinfor‐ mation. Psychological Science, 28(11), 1531-1546. 144 Verwendete Literatur <?page no="145"?> Chen,-S., Xiao,-L. & Kumar,-A. (2023). Spread of Misinformation on Social Media: What Contributes to It and How to Combat It. Computers in Human Behavior, 141, Artikel 107643. Danielson,-R.-W., Jacobson,-N.-G., Patall,-E.-A., Sinatra,-G.-M., Adesope,-O.-O., Kennedy, A. A. U., Bhat, B. H., Ramazan, O., Akinrotimi, B., Nketah, G., Jin, G. & Sunday, O. J. (2025). The Effectiveness of Refutation Text in Confronting Scientific Misconceptions: A Meta-Analysis. Educational Psychologist, 60(1), 25-47. Davidson,-M. (2017). Vaccination as a Cause of Autism - Myths and Controversies. Dialogues in Clinical Neuroscience, 19(4), 403-407. Dechêne,-A., Stahl,-C., Hansen,-J. & Wänke,-M. (2010). The Truth about the Truth: A Meta-Analytic Review of the Truth Effect. Personality and Social Psychology Review, 14(2), 238-257. Delgado, P. & Salmerón, L. (2024). Lesen am Bildschirm. In T. Richter & W. Lenhard (Hg.), Diagnose und Förderung des Lesens im digitalen Kontext, 19-43, Hogrefe Verlag. DellaVigna, S. & Linos, E. (2022). RCTs to Scale: Comprehensive Evidence from Two Nudge Units. Econometrica, 90(1), 81-116. Diel,-A., Lalgi,-T., Schröter,-I.-C., MacDorman,-K.-F., Teufel,-M. & Bäuerle,-A. (2024). Human Performance in Detecting Deepfakes: A Systematic Review and Meta- Analysis of 56 Papers. Computers in Human Behavior Reports, 16, Artikel 100538. Douglas,-K.-M. & Sutton,-R.-M. (2023). What Are Conspiracy Theories? A Definiti‐ onal Approach to Their Correlates, Consequences, and Communication. Annual Review of Psychology, 74, 271-298. Ecker,-U.-K.-H., Lewandowsky,-S., Cook,-J., Schmid,-P., Fazio,-L.-K., Brashier,-N., Kendeou, P., Vraga, E. K. & Amazeen, M. A. (2022). The Psychological Drivers of Misinformation Belief and Its Resistance to Correction. Nature Reviews Psycho‐ logy, 1(1), 13-29. Ecker,-U.-K.-H., Tay,-L.-Q., Roozenbeek,-J., van der Linden,-S., Cook,-J., Oreskes,-N. & Lewandowsky, S. (2025). Why Misinformation Must Not Be Ignored. American Psychologist 80(6), 867-878. Edelson,-S.-M., Reyna,-V.-F., Singh,-A. & Roue,-J.-E. (2024). The Psychology of Misinformation across the Lifespan. Annual Review of Developmental Psychology, 6(1), 425-454. Epstein,-Z., Berinsky,-A.-J., Cole,-R., Gully,-A., Pennycook,-G. & Rand,-D.-G. (2021). Developing an Accuracy-Prompt Toolkit to Reduce COVID-19 Misinformation Online. Harvard Kennedy School Misinformation Review, 2(3), 1-12. Fallis,-D. (2015). What Is Disinformation? Library Trends, 63(3), 401-426. Fallis,-D. & Mathiesen,-K. (in Druck). Fake News Is Counterfeit News. Inquiry. Verwendete Literatur 145 <?page no="146"?> Fendt, M., Muth, X. & Edelsbrunner, P. A. (2025). Judging a Text by Its Author - A Meta-Analysis of Interventions to Foster Source Credibility Assessment. Learning and Individual Differences, 124, Artikel 102782. Geers,-M., Swire-Thompson,-B., Lorenz-Spreen,-P., Herzog,-S.-M., Kozyreva,-A. & Hertwig, R. (2024). The Online Misinformation Engagement Framework. Current Opinion in Psychology, 55, Artikel 101739. Guay,-B., Berinsky,-A.-J., Pennycook,-G. & Rand,-D. (2023). How to Think about Whether Misinformation Interventions Work. Nature Human Behaviour, 7(8), 1231-1233. Harris,-K.-R. (2022). Real Fakes: The Epistemology of Online Misinformation. Philosophy & Technology, 35(3), Artikel 83. Hassan, A. & Barber, S. J. (2021). The Effects of Repetition Frequency on the Illusory Truth Effect. Cognitive Research: Principles and Implications, 6(1), Artikel 38. Herzog, S. M. & Hertwig, R. (2025). Boosting: Empowering Citizens with Behavioral Science. Annual Review of Psychology, 76, 851-881. Huang, G., Jia, W. & Yu, W. (in Druck). Media Literacy Interventions Improve Resilience to Misinformation: A Meta-Analytic Investigation of Overall Effect and Moderating Factors. Communication Research. Jalbert, M., Newman, E. & Schwarz, N. (2020). Only Half of What I’ll Tell You Is True: Expecting to Encounter Falsehoods Reduces Illusory Truth. Journal of Applied Research in Memory and Cognition, 9(4), 602-613. Jaster,-R. & Lanius,-D. (2021). Speaking of Fake News: Definitions and Dimensions. In S. Bernecker, A. K. Flowerree & T. Grundmann (Hg.), The Epistemology of Fake News, 19-45, Oxford University Press. Johnson,-S.-B., Parsons,-M., Dorff,-T., Moran,-M.-S., Ward,-J.-H., Cohen,-S.-A., Aker‐ ley, W., Bauman, J., Hubbard, J., Spratt, D. E., Bylund, C. L., Swire-Thompson,-B., Onega,-T., Scherer,-L.-D., Tward,-J. & Fagerlin,-A. (2022). Cancer Misinformation and Harmful Information on Facebook and Other Social Media: A Brief Report. Journal of the National Cancer Institute, 114(7), 1036-1039. Kahan,-D.-M. (2015). The Politically Motivated Reasoning Paradigm, Part 1: What Politically Motivated Reasoning Is and How to Measure It. In S. M. Kosslyn, R. A. Scott & M. C. Buchmann (Hg.), Emerging Trends in the Social and Behavioral Sciences: An Interdisciplinary, Searchable, and Linkable Resource, 1-16, Wiley. Kapantai,-E., Christopoulou,-A., Berberidis,-C. & Peristeras,-V. (2021). A Systematic Literature Review on Disinformation: Toward a Unified Taxonomical Framework. New Media & Society, 23(5), 1301-1326. 146 Verwendete Literatur <?page no="147"?> Kastorff, T., Müller, M., Selva, C., Greiff, S. & Moser, S. (2025). Fake News oder Fakten? Wie Jugendliche ihre digitale Informationskompetenz einschätzen und welche Rolle Schulen und Lehrkräfte dabei spielen: Erkenntnisse aus PISA 2022. Waxmann. Kendeou, P. (2024). A Theory of Knowledge Revision: The Development of the KReC Framework. Educational Psychology Review, 36(2), Artikel 44. Kienhues, D., Jucks, R. & Bromme, R. (2020). Sealing the Gateways for Post-Truthism: Reestablishing the Epistemic Authority of Science. Educational Psychologist, 55(3), 144-154. Kiili,-K., Siuko,-J. & Ninaus,-M. (2024). Tackling Misinformation with Games: A Systematic Literature Review. Interactive Learning Environments, 32(10), 7086- 7101. Kozyreva,-A., Lewandowsky,-S. & Hertwig,-R. (2020). Citizens versus the Internet: Confronting Digital Challenges with Cognitive Tools. Psychological Science in the Public Interest, 21(3), 103-156. Kozyreva,-A., Lorenz-Spreen,-P., Herzog,-S.-M., Ecker,-U.-K.-H., Lewandowsky,-S., Hertwig,-R., Ali,-A., Bak-Coleman,-J., Barzilai,-S., Basol,-M., Berinsky,-A.-J., Betsch, C., Cook, J., Fazio, L. K., Geers, M., Guess, A. M., Huang, H., Larreguy, H., Maertens,-R., … Wineburg,-S. (2024). Toolbox of Individual-Level Interventions Against Online Misinformation. Nature Human Behaviour, 8(6), 1044-1052. Kozyreva, A., Wineburg, S. S., Lewandowsky, S. & Hertwig, R. (2023). Critical Igno‐ ring as a Core Competence for Digital Citizens. Current Directions in Psychological Science, 32(1), 81-88. Krause,-N.-M., Freiling,-I. & Scheufele,-D.-A. (2022). The „Infodemic“ Infodemic: Toward a More Nuanced Understanding of Truth-Claims and the Need for (Not) Combatting Misinformation. The ANNALS of the American Academy of Political and Social Science, 700(1), 112-123. Kteily,-N.-S. & Brandt,-M.-J. (2025). Ideology: Psychological Similarities and Diffe‐ rences across the Ideological Spectrum Reexamined. Annual Review of Psychology, 76(1), 501-529. Kubin, E. & von Sikorski, C. (2021). The Role of (Social) Media in Political Polariza‐ tion: A Systematic Review. Annals of the International Communication Association, 45(3), 188-206. Kunda,-Z. (1990). The Case for Motivated Reasoning. Psychological Bulletin, 108(3), 480-498. Kwek,-A., Peh,-L., Tan,-J. & Lee,-J.-X. (2023). Distractions, Analytical Thinking and Falling for Fake News: A Survey of Psychological Factors. Humanities and Social Sciences Communications, 10(1), Artikel 319. Verwendete Literatur 147 <?page no="148"?> Kyrychenko, Y., Koo, H. J., Maertens, R., Roozenbeek, J., van der Linden, S. & Götz, F. M. (2025). Profiling Misinformation Susceptibility. Personality and Individual Differences, 241, Artikel 113177. Langdon,-J.-A., Helgason,-B.-A., Qiu,-J. & Effron,-D.-A. (2024). „It’s Not Literally True, But You Get the Gist“: How Nuanced Understandings of Truth Encourage People to Condone and Spread Misinformation. Current Opinion in Psychology, 57, Artikel 101788. Lewandowsky,-S., Cook,-J., Ecker,-U.-K.-H., Albarracín,-D., Amazeen,-M.-A., Ken‐ deou,-P., Lombardi,-D., Newman,-E.-J., Pennycook,-G., Porter,-E., Rapp,-D.-N., Reifler,-J., Roozenbeek,-J., Schmid,-P., Seifert,-C.-M., Sinatra,-G.-M., Swire- Thompson, B., van der Linden, S., Vraga, E. K., … Zarazoga, M. S. (2020). Debunking Handbook 2020. Databrary. Lewandowsky,-S., Ecker,-U.-K.-H. & Cook,-J. (2017). Beyond Misinformation: Understanding and Coping with the „Post-Truth“ Era. Journal of Applied Research in Memory and Cognition, 6(4), 353-369. Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N. & Cook, J. (2012). Mis‐ information and Its Correction: Continued Influence and Successful Debiasing. Psychological Science in the Public Interest, 13(3), 106-131. Lewandowsky, S. & van der Linden, S. (2021). Countering Misinformation and Fake News Through Inoculation and Prebunking. European Review of Social Psychology, 32(2), 348-384. Li,-J. & Yang,-X. (2025). Does Exposure Necessarily Lead to Misbelief ? A Meta- Analysis of Susceptibility to Health Misinformation. Public Understanding of Science, 34(2), 222-242. Lombardi,-D., Nussbaum,-E.-M. & Sinatra,-G.-M. (2016). Plausibility Judgments in Conceptual Change and Epistemic Cognition. Educational Psychologist, 51(1), 35-56. Lorenz-Spreen, P., Oswald, L., Lewandowsky, S. & Hertwig, R. (2023). A Systematic Review of Worldwide Causal and Correlational Evidence on Digital Media and Democracy. Nature Human Behaviour, 7(1), 74-101. Lu,-C., Hu,-B., Bao,-M.-M., Wang,-C., Bi,-C. & Ju,-X.-D. (2024). Can Media Literacy Intervention Improve Fake News Credibility Assessment? A Meta-Analysis. Cyberpsychology, Behavior, and Social Networking, 27(4), 240-252. Lu, C., Hu, B., Li, Q., Bi, C. & Ju, X.-D. (2023). Psychological Inoculation for Credibility Assessment, Sharing Intention, and Discernment of Misinformation: Systematic Review and Meta-Analysis. Journal of Medical Internet Research, 25, Artikel e49255. 148 Verwendete Literatur <?page no="149"?> Maertens,-R., Götz,-F.-M., Golino,-H.-F., Roozenbeek,-J., Schneider,-C.-R., Kyry‐ chenko,-Y., Kerr,-J.-R., Stieger,-S., McClanahan,-W.-P., Drabot,-K., He,-J. & van der Linden,-S. (2024). The Misinformation Susceptibility Test (MIST): A Psychometrically Validated Measure of News Veracity Discernment. Behavior Research Methods, 56(3), 1863-1899. Magliano,-J.-P., McCrudden,-M.-T., Rouet,-J.-F. & Sabatini,-J.-P. (2017). The Modern Reader: Should Changes to How We Read Affect Research and Theory? In M. F. Schober, D. N. Rapp & M. A. Britt (Hg.), The Routledge Handbook of Discourse Processes, 2. Aufl., 343-361, Routledge. Mang, V., Fennis, B. M. & Epstude, K. (2024). Source Credibility Effects in Misinfor‐ mation Research: A Review and Primer. Advances in Psychology, 2(1), Artikel e443610. Martel,-C. & Rand,-D.-G. (2023). Misinformation Warning Labels Are Widely Effective: A Review of Warning Effects and Their Moderating Features. Current Opinion in Psychology, 54, Artikel 101710. Martel, C. & Rand, D. G. (2024). Fact-Checker Warning Labels Are Effective Even for Those Who Distrust Fact-Checkers. Nature Human Behaviour, 8(10), 1957-1967. Martel,-C., Rathje,-S., Clark,-C.-J., Pennycook,-G., van Bavel,-J.-J., Rand,-D.-G. & van der Linden, S. (2024). On the Efficacy of Accuracy Prompts across Partisan Lines: An Adversarial Collaboration. Psychological Science, 35(4), 435-450. McCarthy, K. S. & McNamara, D. S. (2021). The Multidimensional Knowledge in Text Comprehension Framework. Educational Psychologist, 56(3), 196-214. McCarthy,-K.-S. & McNamara,-D.-S. (2023). Knowledge: A Fundamental Asset. In R. J. Tierney, F. Rizvi, K. Erkican, I. A. G. Wilkinson & J. M. Parr (Hg.), International Encyclopedia of Education: Volume 6: Learning, Cognition and Human Development, 4. Aufl., 209-218, Elsevier. McGrew, S. (2024). Teaching Lateral Reading: Interventions to Help People Read like Fact Checkers. Current Opinion in Psychology, 55, Artikel 101737. Mclntyre,-L. (2018). Post-Truth. MIT Press. McNamara,-D.-S. & Magliano,-J.-P. (2009). Toward a Comprehensive Model of Comprehension. In B. H. Ross (Hg.), The Psychology of Learning and Motivation: Volume 51, 297-384, Elsevier. Mercier,-H. (2022). Confirmation Bias - Myside Bias. In R. F. Pohl (Hg.), Cognitive Illusions: Intriguing Phenomena in Thinking, Judgment, and Memory, 3. Aufl., 78-91, Routledge. Nan, X., Wang, Y. & Thier, K. (2022). Why Do People Believe Health Misinformation and Who Is at Risk? A Systematic Review of Individual Differences in Suscepti‐ bility to Health Misinformation. Social Science & Medicine, 314, Artikel 115398. Verwendete Literatur 149 <?page no="150"?> Nichols, R. M., Bogart, D. & Loftus, E. F. (2015). False Memories. In J. D. Wright (Hg.), International Encyclopedia of the Social & Behavioral Sciences, 2. Aufl., 709-714, Elsevier. Nieweglowska,-M., Stellato,-C. & Sloman,-S.-A. (2023). Deepfakes: Vehicles for Radicalization, Not Persuasion. Current Directions in Psychological Science, 32(3), 236-241. Oeberst,-A. & Imhoff,-R. (2023). Toward Parsimony in Bias Research: A Proposed Common Framework of Belief-Consistent Information Processing for a Set of Biases. Perspectives on Psychological Science, 18(6), 1464-1487. Otero,-I., Salgado,-J.-F. & Moscoso,-S. (2022). Cognitive Reflection, Cognitive Intelligence, and Cognitive Abilities: A Meta-Analysis. Intelligence, 90, Artikel 101614. Peng,-W., Lim,-S. & Meng,-J. (2023). Persuasive Strategies in Online Health Misin‐ formation: A Systematic Review. Information, Communication & Society, 26(11), 2131-2148. Pennycook, G., Allan Cheyne, J., Barr, N., Koehler, D. J. & Fugelsang, J. A. (2015). On the Reception and Detection of Pseudo-Profound Bullshit. Judgment and Decision Making, 10(6), 549-563. Pennycook,-G. & Rand,-D.-G. (2021). The Psychology of Fake News. Trends in Cognitive Sciences, 25(5), 388-402. Pennycook,-G. & Rand,-D.-G. (2022). Accuracy Prompts Are a Replicable and Generalizable Approach for Reducing the Spread of Misinformation. Nature Communications, 13(1), Artikel 2333. Pfänder, J. & Altay, S. (2025). Spotting False News and Doubting True News: A Meta- Analysis of News Judgments. Nature Human Behaviour, 9(4), 688-699. Philipp,-M. (2023). Lesekompetenz - neue prozessuale Herausforderungen im kri‐ tisch-evaluativen Lesen und ihre Folgen für das Kompetenzkonstrukt. Leseräume, 10(9), 1-25. Philipp,-M. (2025a). „Wer alles glaubt, was er liest, sollte besser aufhören zu lesen.“ Evaluative Bestandteile kompetenten Lesens von Online-Informationen in mehrperspektivischer Verortung. Leseforum (2), 1-21. Philipp,-M. (2025b). Digitales Lesen fördern. Vandenhoeck & Ruprecht. Philipp,-M. (2025c). Lesen digital: Komponenten und Prozesse einer sich wandelnden Kompetenz. Beltz Juventa. Pohl,-R.-F. (2022). What Are Cognitive Illusions? In R. F. Pohl (Hg.), Cognitive Illusions: Intriguing Phenomena in Thinking, Judgment, and Memory, 3. Aufl., 3-23, Routledge. 150 Verwendete Literatur <?page no="151"?> Porter, E. & Wood, T. J. (2024). Factual Corrections: Concerns and Current Evidence. Current Opinion in Psychology, 55, Artikel 101715. Porter,-T., Elnakouri,-A., Meyers,-E.-A., Shibayama,-T., Jayawickreme,-E. & Gross‐ mann,-I. (2022). Predictors and Consequences of Intellectual Humility. Nature Reviews Psychology, 1(9), 524-536. Reyna, V. F. (2021). A Scientific Theory of Gist Communication and Misinformation Resistance, with Implications for Health, Education, and Policy. Proceedings of the National Academy of Sciences of the United States of America, 118(15), Artikel e1912441117. Richter,-T. & Maier,-J. (2017). Comprehension of Multiple Documents with Conflic‐ ting Information: A Two-Step Model of Validation. Educational Psychologist, 52(3), 148-166. Richter, T. & Singer, M. (2017). Discourse Updating: Acquiring and Revising Know‐ ledge through Discourse. In M. F. Schober, D. N. Rapp & M. A. Britt (Hg.), The Routledge Handbook of Discourse Processes, 2. Aufl., 167-190, Routledge. Rid,-T. (2021). Active Measures: The Secret History of Disinformation and Political Warfare. Picador. Ridder, J. d. (2024). What’s So Bad about Misinformation? Inquiry, 67(9), 2956-2978. Roozenbeek, J., Culloty, E. & Suiter, J. (2023). Countering Misinformation: Evidence, Knowledge Gaps, and Implications of Current Interventions. European Psycholo‐ gist, 28(3), 189-205. Roozenbeek,-J., Remshard,-M. & Kyrychenko,-Y. (2024). Beyond the Headlines: On the Efficacy and Effectiveness of Misinformation Interventions. Advances in Psychology, 2(1), Artikel e24569. Roozenbeek,-J. & van der Linden,-S. (2024). The Psychology of Misinformation. Cambridge University Press. Salmerón,-L., Strømsø,-H.-I., Kammerer,-Y., Stadtler,-M. & van den Broek,-P.-W. (2018). Comprehension Processes in Digital Reading. In M. Barzillai, J. Thomson, S. Schroeder & P. W. van den Broek (Hg.), Learning to Read in a Digital World, 91-120, John Benjamins. Schincariol,-A., Otgaar,-H., Greene,-C.-M., Murphy,-G., Riesthuis,-P., Mangiulli,-I. & Battista,-F. (2024). Fake Memories: A Meta-Analysis on the Effect of Fake News on the Creation of False Memories and False Beliefs. Memory, Mind & Media, 3, Artikel e17. Schmid,-P., Altay,-S. & Scherer,-L.-D. (2023). The Psychological Impacts and Message Features of Health Misinformation: A Systematic Review of Randomized Controlled Trials. European Psychologist, 28(3), 162-172. Verwendete Literatur 151 <?page no="152"?> Seargeant,-P. (2022). Complementary Concepts of Disinformation: Conspiracy Theories and ‚Fake News‘. In M. Demata, V. Zorzi & A. Zottola (Hg.), Conspiracy Theory Discourses, 193-214, John Benjamins. Sepúlveda‐Páez,-G., Leiva‐Bianchi,-M., Ferrer‐Urbina,-R., Escudero‐Pastén,-J. & Sa‐ las, F. (2025). Relationship between Bullshit, Cognitive Skills, and Belief Systems: A Meta‐Analytic Review. Applied Cognitive Psychology, 39(1), Artikel e70029. Shtulman,-A. (2024). Children’s Susceptibility to Online Misinformation. Current Opinion in Psychology, 55, Artikel 101753. Southwell,-B.-G., Brennen,-J.-S.-B., Paquin,-R., Boudewyns,-V. & Zeng,-J. (2022). Defining and Measuring Scientific Misinformation. The ANNALS of the American Academy of Political and Social Science, 700(1), 98-111. Stokke,-A. & Fallis,-D. (2017). Bullshitting, Lying, and Indifference toward Truth. Ergo, 4(10), 277-309. Sultan, M., Tump, A. N., Ehmann, N., Lorenz-Spreen, P., Hertwig, R., Gollwitzer, A., Kurvers, R. & Kurvers, R. H. J. M. (2024). Susceptibility to Online Misinformation: A Systematic Meta-Analysis of Demographic and Psychological Factors. Procee‐ dings of the National Academy of Sciences of the United States of America, 121(47), Artikel e2409329121. Swire-Thompson, B., DeGutis, J. & Lazer, D. (2020). Searching for the Backfire Effect: Measurement and Design Considerations. Journal of Applied Research in Memory and Cognition, 9(3), 286-299. Tangcharoensathien,-V., Calleja,-N., Nguyen,-T., Purnat,-T., D’Agostino,-M., Gar‐ cia-Saiso,-S., Landry,-M., Rashidian,-A., Hamilton,-C., AbdAllah,-A., Ghiga,-I., Hill,-A., Hougendobler,-D., van Andel,-J., Nunn,-M., Brooks,-I., Sacco,-P.-L., Domenico,-M.-de, Mai,-P.,-.-.-. Briand,-S. (2020). Framework for Managing the COVID-19 Infodemic: Methods and Results of an Online, Crowdsourced WHO Technical Consultation. Journal of Medical Internet Research, 22(6), e19659. Traberg, C. S., Roozenbeek, J. & van der Linden, S. (2022). Psychological Inoculation against Misinformation: Current Evidence and Future Directions. The ANNALS of the American Academy of Political and Social Science, 700(1), 136-151. Udry, J. & Barber, S. J. (2024). The Illusory Truth Effect: A Review of How Repetition Increases Belief in Misinformation. Current Opinion in Psychology, 56, Artikel 101736. Unkelbach, C., Koch, A., Silva, R. R. & Garcia-Marques, T. (2019). Truth by Repetition: Explanations and Implications. Current Directions in Psychological Science, 28(3), 247-253. Uscinski, J. E. (2018). The Study of Conspiracy Theories, Argumenta 3(2), 2233-2245. 152 Verwendete Literatur <?page no="153"?> van Bavel,-J.-J., Harris,-E.-A., Pärnamets,-P., Rathje,-S., Doell,-K.-C. & Tucker,-J.-A. (2021). Political Psychology in the Digital (Mis)Information Age: A Model of News Belief and Sharing. Social Issues and Policy Review, 15(1), 84-113. van Bavel, J. J., Rathje, S., Harris, E., Robertson, C. & Sternisko, A. (2021). How Social Media Shapes Polarization. Trends in Cognitive Sciences, 25(11), 913-916. van Bavel,-J.-J., Rathje,-S., Vlasceanu,-M. & Pretus,-C. (2024). Updating the Identity- Based Model of Belief: From False Belief to the Spread of Misinformation. Current Opinion in Psychology, 56, Artikel 101787. van Bavel,-J.-J., Robertson,-C.-E., Del Rosario,-K., Rasmussen,-J. & Rathje,-S. (2024). Social Media and Morality. Annual Review of Psychology, 75, 311-340. van den Broek, P. W. & Kendeou, P. (2022). Reading Comprehension I: Discourse. In M. J. Snowling, C. Hulme & K. Nation (Hg.), The Science of Reading, Aufl., 239-260, Wiley. van der Linden, S. (2022). Misinformation: Susceptibility, Spread, and Interventions to Immunize the Public. Nature Medicine, 28(3), 460-467. van der Linden, S. (2024). Countering Misinformation through Psychological Inocu‐ lation. In B. Gawronski (Hg.), Advances in Experimental Social Psychology: Volume 69, 1-58, Academic Press. van der Linden,-S. & Kyrychenko,-Y. (2024). A Broader View of Misinformation Reveals Potential for Intervention. Science, 384(6699), 959-960. van der Linden,-S., Leiserowitz,-A., Rosenthal,-S. & Maibach,-E. (2017). Inoculating the Public against Misinformation about Climate Change. Global Challenges, 1(2), Artikel 1600008. van Stekelenburg,-A., Schaap,-G., Veling,-H., van ‘t Riet,-J. & Buijzen,-M. (2022). Scientific-Consensus Communication About Contested Science: A Preregistered Meta-Analysis. Psychological Science, 33(12), 1989-2008. Vraga,-E.-K. & Bode,-L. (2020). Defining Misinformation and Understanding its Bounded Nature: Using Expertise and Evidence for Describing Misinformation. Political Communication, 37(1), 136-144. Vraga,-E.-K., Ecker,-U.-K.-H., Žeželj,-I., Lazić,-A. & Azlan,-A.-A. (2023). To Debunk or Not to Debunk? Correcting (Mis)Information. In T. D. Purnat, T. Nguyen & S. Briand (Hg.), Managing Infodemics in the 21 st Century: Addressing New Public Health Challenges in the Information Ecosystem, 85-98, Springer. Walter,-N., Cohen,-J., Holbert,-R.-L. & Morag,-Y. (2020). Fact-Checking: A Meta- Analysis of What Works and for Whom. Political Communication, 37(3), 350-375. Walter, N. & Murphy, S. T. (2018). How to Unring the Bell: A Meta-Analytic Approach to Correction of Misinformation. Communication Monographs, 85(3), 423-441. Verwendete Literatur 153 <?page no="154"?> Walter, N. & Tukachinsky, R. (2020). A Meta-Analytic Examination of the Continued Influence of Misinformation in the Face of Correction: How Powerful Is It, Why Does It Happen, and How to Stop It? Communication Research, 47(2), 155-177. Wardle,-C. & Derakhshan,-H. (2017). Information Disorder: Toward an Interdiscipli‐ nary Framework for Research and Policy Making. Council of Europe. Weikmann,-T. & Lecheler,-S. (2022). Visual Disinformation in a Digital Age: A Literature Synthesis and Research Agenda. New Media & Society, 25(12), 3696- 3713. Wineburg,-S.-S. & McGrew,-S. (2019). Lateral Reading and the Nature of Expertise: Reading Less and Learning More when Evaluating Digital Information. Teachers College Record, 121(11), Artikel 110302. Wolfe,-M.-B.-W. & Griffin,-T.-D. (2017). Beliefs and Discourse Processing. In M. F. Schober, D. N. Rapp & M. A. Britt (Hg.), The Routledge Handbook of Discourse Processes, 2. Aufl., 295-314, Routledge. Yang,-Y., Davis,-T. & Hindman,-M. (2023). Visual Misinformation on Facebook. Journal of Communication, 73(4), 316-328. Yelbuz,-B.-E., Madan,-E. & Alper,-S. (2022). Reflective Thinking Predicts Lower Conspiracy Beliefs: A Meta-Analysis. Judgment and Decision Making, 17(4), 720- 744. Zimmermann,-F. & Kohring,-M. (2020). Aktuelle Desinformation - Definition und Einordnung einer gesellschaftlichen Herausforderung. In R. Hohlfeld, M. Harnischmacher, E. Heinke, L. Lehner & M. Sengl (Hg.), Fake News und Desin‐ formation: Herausforderungen für die vernetzte Gesellschaft und die empirische Forschung, 23-41, Nomos. 154 Verwendete Literatur <?page no="155"?> Wo sich welches Stichwort befindet Bullshit-24, 96f., 102, 139 Corroboration-45, 49, 139 Covid-19-26, 33, 88, 133 Debunking-125f., 129, 139, 141 Deepfake-67, 136, 139 Desinformationen-19, 50, 139 Fake News-21, 24 Schäden-30f., 34, 37, 68, 77, 86 Verhältnis zu Informationen-18 Verschwörungstheorien-22 zentrale Merkmale-24 Epistemische Autorität-27f., 50, 56, 89, 139 Expertise-33-36, 47, 51, 56, 80, 82f., 136, 141 Fake News-21, 23, 50, 66, 77, 101, 109, 120, 139 Faktencheck-95, 114, 121, 127 Falschinformationen- als Sammelbegriff für Des- und Fehlinformationen-20 Fuzzy-Trace Theory-75 politische-38, 87, 92, 94f. Verhältnis zu Verschwörungstheorien-22 Vertrauenswürdigkeitsurteile-82 wissenschaftliche-33, 35, 79, 87, 126, 133 Fehlinformationen-19, 126 Gesundheit-33, 79, 87, 101, 133f. Glaubwürdigkeit-45, 47, 50ff., 119, 121, 134, 139, 141 Impfung-33, 79f., 83, 101, 110, 133f. Inferenz-41f., 57, 99, 139 Infodemie-26, 118 Inoculation-107, 118, 120, 139 Kohärenz-36, 40ff., 45, 47, 49, 57, 59, 62, 74, 81, 135, 140 Kritisch-analytisches Denken 42, 78, 89, 100f. Laterales Lesen-45, 107, 121 Leseverstehen 40f., 50, 52, 55, 57, 59, 65, 74, 98, 139f. Bildschirmunterlegenheitseffekt-64 Lesekompetenz-41, 43, 52, 59, 99f. Metaanalyse-64, 66, 68, 73, 77, 79, 95f., 100, 102, 114, 117, 119f., 126, 128, 135f., 140 Plausibilität-18, 36, 41, 44, 62, 74, 90, 99, 127, 130, 141 Polarisierung-23, 27, 32, 37, 94, 127, 134 Postfaktismus-27, 140 Prebunking-114, 118 Sourcing-45, 47f., 59, 62, 121, 140f. Funktionen-48 Vertrauen-50, 54, 82 Soziale Medien-20, 24f., 28, 33, 37f., 62, <?page no="156"?> 67f., 79, 89, 106, 116f. Überzeugungen 30, 34, 37, 44, 59, 73, 86, 90, 92, 97, 101, 118, 140 epistemische-32, 34, 55, 140 politische-27, 89, 92, 94f., 128, 132 Text-Überzeugungskonsistenz- Effekt-70, 93, 98, 140 thematische-34, 50, 76, 79, 92f., 98, 128, 140 Validieren-44, 98 Verschwörungstheorie-22, 80, 89, 97, 101f., 133f. Vertrauen 28, 37, 51f., 62, 79, 89, 95, 115, 141 Vertrauenswürdigkeit-21, 26, 34, 49, 51f., 57, 80, 82, 99, 121, 125, 136, 139ff. Vorwissen-40, 42, 44, 57ff., 72f., 76, 78, 88, 98f., 139f. Widerlegungstext-46, 58, 124, 132, 141 Wissen 18, 34, 36, 51, 53, 80, 94, 100, 102, 113, 137 epistemische Überzeugungen-55 Wissensrevision-124 156 Wo sich welches Stichwort befindet <?page no="157"?> Abbildungsverzeichnis Abb. 1: Wahrheitsurteile in Abhängigkeit der Wiederholungen in zwei Experimenten (eigene Darstellung, basierend auf Hassan & Barber, 2021) . . 14 Abb. 2: Verteilung von US-amerikanischen Jugendlichen zu Leistungsgruppen bei der Beurteilung von digitalen Informationen (Quelle: eigene Darstellung aus Philipp, 2025c, S. 226, basierend auf Breakstone et al., 2021) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Abb. 3: Faktoren und Prozesse bei der Konstruktion einer kohärenten mentalen Repräsentation (Quelle: leicht modifizierte Darstellung gemäß van den Broek & Kendeou, 2022, S.-241) . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Abb. 4: Überblick über das epistemisch wachsame Lesen als Dachkonstrukt mit darunter liegender metakognitiver Selbstregulation und vier kognitiven Lesestrategien (Quelle: Philipp, 2023, S.-7) . . . . . . . . . 44 Abb. 5: Kognitive Prozesse beim Verstehen konfligierender Inhalte (Quelle: modifizierte Darstellung von Braasch & Scharrer, 2020, S.-209) . . . . . . . . . . . . . . . . . . . . . . . . 46 Abb. 6: Modell der Konstituenten und des Prozesses von Vertrauen (Quelle: übersetzte und modifizierte Darstellung von Blöbaum, 2021, S.-20) . . . . . . . . . . . . 53 Abb. 7: Beurteilung von Aussagen im Zusammenspiel von subjektiv eingeschätzter Korrektheit von Details und Hauptaussagen (Quelle: modifizierte Darstellung aus Langdon et al., 2024, S.-3) . . . . . . . . . . . . . . . . . . . . . . . 75 Abb. 8: Modell der Überzeugungsänderung und Verbreitung von Desinformationen (Quelle: adaptierte Darstellung von van Bavel, Harris, et al., 2021, S.-86) 86 Abb. 9: Einflussfaktoren für die Empfänglichkeit von gesundheitsbezogenen Falschinformationen (Quelle: modifizierte Darstellung von Nan et al., 2022, S.-9) . . 88 <?page no="158"?> Abb. 10: Arten der Informationsverarbeitung beim zielgerichteten Denken (Quelle: modifizierte Darstellung von Kahan, 2015, S.-3) . . . . . . . . . . . . . . . 91 158 Abbildungsverzeichnis <?page no="159"?> Tabellenverzeichnis Tabelle 1: Sieben Dimensionen von Fake News (**-essenzielle Dimension für Desinformationen und für Fake News; *-essenzielle Dimension für Fake News; Quelle der Darstellung: Jaster & Lanius, 2021, S.-25-27) . . . . . . . . . . 24 Tabelle 2: Gegenüberstellung von (Teil-)Dimensionen epistemischer Überzeugungen (Quelle: leicht modifizierte Übernahme aus Philipp, 2025c, S.-333) . . . . 56 Tabelle 3: Rahmenwerk für das Engagement bei Online- Falschinformationen (Quelle der modifizierten und vereinfachten Darstellung: Geers et al., 2024, S.-2, angereichert mit Kozyreva et al., 2024, S.-1047) . . . . . . . 108 <?page no="160"?> Bisher sind erschienen: Claudia Ossola-Haring Ein Start-up gründen? Frag doch einfach! 2020, 238 Seiten ISBN 978-3-8252-5436-0 Martin Oppelt Demokratie? Frag doch einfach! 2021, 202 Seiten ISBN 978-3-8252-5446-9 Florian Kunze, Kilian Hampel, Sophia Zimmermann Homeoffice und mobiles Arbeiten? Frag doch einfach! 2021, 190 Seiten ISBN 978-3-8252-5664-7 Gerald Pilz Mobilität im 21. Jahrhundert? Frag doch einfach! 2021, 230 Seiten ISBN 978-3-8252-5662-3 Anke Brinkmann, Gabriele Dreilich, Christian Stadler Virtuelle Teams führen? Frag doch einfach! 2022, 148 Seiten ISBN 978-3-8252-5780-4 Andreas Koch Armut? Frag doch einfach! 2022, 179 Seiten ISBN 978-3-8252-5554-1 Fabian Kaiser, Arie van Bennekum Scrum? Frag doch einfach! 2. Auflage, 2022, 134 Seiten ISBN 978-3-8252-5974-7 Florian Spohr Lobbyismus? Frag doch einfach! 2023, 199 Seiten ISBN 978-3-8252-5688-3 Henrik Bispinck Friedliche Revolution und Wiedervereinigung? Frag doch einfach! 2023, 185 Seiten ISBN 978-3-8252-5445-2 Roman Simschek, Arie van Bennekum Agilität? Frag doch einfach! 3. Auflage, 2023, 197 Seiten ISBN 978-3-8252-6055-2 Frag doch einfach! Klare Antworten aus erster Hand Die utb-Reihe „Frag doch einfach! “ beantwortet Fragen, die sich nicht nur Studierende stellen. Im Frage-Antwort-Stil geben Expert: innen kundig Auskunft und verraten alles Wissenswerte rund um das Thema. Die wichtigsten Fachbegriffe stellen sie zudem prägnant vor und verraten, welche Websites, YouTube-Videos und Bücher das Wissen vertiefen. So lässt sich leicht in ein Thema einsteigen und über den Tellerrand schauen. <?page no="161"?> Nassim Madjidian, Sara Wissmann Seenotrettung? Frag doch einfach! 2023, 192 Seiten ISBN 978-3-8252-6014-9 Arndt Sinn Organisierte Kriminalität? Frag doch einfach! 2023, 204 Seiten ISBN 978-3-8252-6100-9 Detlev Frick Big Data? Frag doch einfach! 2023, 123 Seiten ISBN 978-3-8252-5442-1 Annegret Braun Glück? Frag doch einfach! 2023, 172 Seiten ISBN 978-3-8252-6092-7 Jenny Amelingmeyer / Thomas B. Berger / Sven Seidenstricker Innovationsmanagement? Frag doch einfach! 2024, 208 Seiten ISBN 978-3-8252-6097-2 Matthias Kaufmann Ethik und Moral? Frag doch einfach! 2024, 199 Seiten ISBN 978-3-8252-5444-5 Seongcheol Kim Populismus? Frag doch einfach! 2024, 139 Seiten ISBN 978-3-8252-6104-7 Anna-Lisa Müller Migration? Frag doch einfach! 2024, 169 Seiten ISBN 978-3-8252-5694-4 Petra Jansen Achtsamkeit? Frag doch einfach! 2024, 158 Seiten ISBN 978-3-8252-6173-3 Michael von Hauff Nachhaltigkeit für Deutschland? Frag doch einfach! 2. Auflage, 2024, 190 Seiten ISBN 978-3-8252-6353-9 Simon Werther / Laura Werther New Work als Normalität? Frag doch einfach! 2024, 190 Seiten ISBN 978-3-8252-5810-8 Barbara Schmidt Angst? Frag doch einfach! 2. Auflage, 2025, 156 Seiten ISBN 978-3-8252-6345-4 Thomas Kessel / Alexander Brandt ChatGPT und Large Language Models? Frag doch einfach! 2024, 179 Seiten ISBN 978-3-8252-6276-1 Rolf J. Daxhammer / Moritz Schüßler ETFs - Börsengehandelte Indexfonds? Frag doch einfach! 2025, 174 Seiten ISBN 978-3-8252-6271-6 Maik Philipp Desinformation? Frag doch einfach! 2025, 159 Seiten ISBN 978-3-8252-6543-4 Steffen Kailitz Extremismus? Frag doch einfach! 2025, 234 Seiten ISBN 978-3-8252-5905-1 <?page no="162"?> ISBN 978-3-8252-6543-4 Wer (digital) liest, wird nahezu unvermeidlich auf Desinformationen stoßen. Gerade bei kontroversen oder komplexen Themen braucht es inzwischen ausgeprägte kognitive Fähigkeiten, um dafür gewappnet zu sein. Denn die Gefahren durch Desinformationen sind hoch, für einzelne Personen und für die Gesellschaft. Das Buch behandelt darum zentrale Fragekomplexe: Was sind Desinformationen und wie werden sie kognitiv verarbeitet? Welche Mechanismen in den sich derzeit stark wandelnden Medien- und Wissensgesellschaften begünstigen Desinformationen und wem nutzen sie? Warum ereignen sich Fehlleistungen aus kognitionspsychologischer Warte? Was lässt Personen anfällig oder resistenter gegenüber Desinformationen werden? Wie sehen geeignete Gegenmaßnahmen aus und was sind deren Grenzen? Sprachwissenschaft | Medien- und Kommunikationswissenschaft Politikwissenschaft Dies ist ein utb-Band aus dem Narr Francke Attempto Verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehr- und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb.de QR-Code für mehr Infos und Bewertungen zu diesem Titel