Skip to main content
Interview / 16.03.2025

Politikwissenschaftler Jungherr: „Warnungen vor Desinformation als große Gefahr für die Demokratie sind übertrieben“

"Mit Paniknarrativen über die vermeintliche Omnipräsenz und Gefährlichkeit von Fake News sollte man sehr vorsichtig sein". Foto: © Adobe Stock | Skórzewiak

Vor der Bedrohung der öffentlichen Meinungsbildung durch Desinformation wird viel gewarnt. Viele sehen in ihnen eine veritable Gefahr für die Demokratie, doch es gibt auch Stimmen, die dies für alarmistisch halten. Im Interview spricht Andreas Jungherr, Professor für Politikwissenschaft, insbesondere Digitale Transformation an der Universität Bamberg, über den Forschungsstand zu diesem Thema. Was wissen wir aus der Forschung über die Verbreitung, die Funktionsweise und die politischen Effekte von Desinformation? Warum wird ihre Gefährlichkeit häufig dramatisiert? Und wie transformiert die Digitalisierung politische Öffentlichkeit?

Herr Jungherr, fangen wir einmal ganz grundsätzlich an. Wie lässt sich Desinformation überhaupt definieren?

Desinformation ist ein wissenschaftlich umstrittener Begriff, der als bewusste Verbreitung falscher oder irreführender Informationen mit der Absicht der Täuschung definiert werden kann.[1] Streng genommen muss man also die Motivlage des Senders einer Information kennen, um von Desinformation sprechen zu können. Das ist offenkundig schwierig. Manche Wissenschaftlerinnen und Wissenschaftler argumentieren daher, dass diese Sichtweise zu eng ist, da sie den Blick auf das eigentliche Problem verstellt, nämlich strategisch ausgerichtete Versuche, Menschen in modernen Kommunikationsumgebungen zu täuschen oder gegen ihre Interessen zu beeinflussen. Aber das ist dann nicht mehr unbedingt eine Frage von wahr oder falsch. Wenn russische Propaganda beispielsweise verbreitet, dass westliche Gesellschaften von großer ökonomischer Ungleichheit geprägt sind und daher zu Wahlenthaltung bzw. zur Wahl bestimmter Parteien aufruft, ist das durchaus ein Problem für westliche Demokratien, aber in der Kerndiagnose keine faktische Falschinformation im engeren Sinne. 

Vermutlich hängt die Antwort von der zugrundeliegenden Definition ab, aber welche Reichweite haben Desinformationen überhaupt?

Wenn wir generell fragen, ob Menschen Desinformationen ausgesetzt sind, muss man dies bejahen. Dies ist dann aber überwiegend nicht digitale Desinformation auf Social Media oder wilden Internetseiten. Die meiste Desinformation, der Menschen direkt ausgesetzt sind, sind Lügen oder Verdrehungen durch politische Eliten, die diese entweder direkt oder über traditionelle Medien verbreiten.[2] Das ist aber nicht primär ein Problem der Digitalisierung, sondern ein Problem des Versagens von politischen Diskursen, Eliten und Institutionen.

Die präzise Quantifizierung der Reichweite von digitaler Desinformation ist sehr schwierig und mir sind für Deutschland oder Europa keine belastbaren Zahlen bekannt. Aus Studien über die USA wissen wir, dass digitale Desinformationen nur eine begrenzte direkte Reichweite haben und sich vor allem auf Gruppen beschränken, die in der Regel politisch schon von vornherein überzeugt sind. Insofern ist digitale Desinformation kein gesamtgesellschaftliches Problem, sondern konzentriert sich auf bestimmte Gruppen.[3]

Dass die meisten Bürgerinnen und Bürger wenig unmittelbaren Kontakt mit digitaler Desinformation haben, hat verschiedene Gründe. Zum einen liegt es schlicht daran, dass die meisten im Netz betrachteten Inhalte nichts mit Nachrichten zu tun haben. Politische Inhalte werden bei Weitem nicht von allen Nutzerinnen und Nutzern konsumiert und selbst bei denen, die das tun, sind politische Informationen in der Regel nur ein kleiner Teil der insgesamt konsumierten Inhalte.[4] Zwar nutzen in Deutschland etwa 67 Prozent der Erwachsenen mindestens einmal in der Woche digitale Nachrichtenangebote und 34 Prozent sehen mindestens einmal in der Woche Nachrichten in sozialen Medien,[5] allerdings sind dies häufig die digitalen Angebote von traditionellen journalistischen Angeboten und nicht der informative Wildwuchs, vor dem in der Debatte um digitale Desinformation häufig Angst gemacht wird.

In den Medien ist immer wieder von sehr großen Zahlen zu lesen, die zu diesem Thema herumschwirren. So gab es beispielsweise Berichte über eine russische Kampagne mit „mehr als 50.000 gefälschte[n] Nutzerkonten, die insgesamt mehr als eine Million deutschsprachige Tweets absetzten.“[6]

Das Problem an solchen Zahlen ist, dass wir eigentlich nicht wissen, was sie bedeuten und was da eigentlich gezählt wird. Häufig wird mit den hohen Klickzahlen und Interaktionsraten argumentiert, die ausgewählte Falschinformationen oder irreführende Quellen erreicht haben. Doch ohne den genauen Kontext zu kennen, ist so eine Information nicht belastbar. Waren es Wahlberechtigte oder zumindest echte Menschen, die den Post gesehen haben oder treiben automatisierte Accounts die Interaktion nach oben?[7] Nutzerinnen und Nutzer sehen täglich hunderte Posts; macht es überhaupt einen Unterschied, wenn darunter ein Post mit Falschinformation ist? Hat die Person die Falschinformation überhaupt wahr- und dann sogar ernstgenommen? Ich wäre mit der Interpretation von öffentlichen Interaktionsraten daher sehr zurückhaltend und würde davor warnen, großen Zahlen automatisch große Bedeutung zuzusprechen. Zumal alle digitalen Plattformen ein Interesse daran haben, die Interaktionsraten möglichst groß aussehen zu lassen.

Die Verbreitung von Desinformation sagt also nicht unbedingt etwas über deren Effekte aus. Was ist aus der Forschung über die Wirkung von Desinformation auf die politischen Einstellungen von Individuen bekannt?

Generell kann man festhalten, dass der bloße Kontakt einer Person mit Desinformation nicht automatisch dazu führt, dass sie ihr Glauben schenkt oder gar ihre politischen Einstellungen ändert.[8] Desinformation ist wie andere politische Informationen. Typischerweise würde man die Wirkung von Informationen über Experimente testen. Diese experimentellen Tests zeigen überwiegend schwache Informationswirkungen. Dies gilt insbesondere für politische Themen, bei denen Menschen in der Regel bereits bestehende Meinungen zu Themen und Akteuren haben. Neue Information – faktisch richtig oder faktisch falsch – hat es hier schwer, sich gegenüber bereits bestehenden Meinungen und anderen mit ihr im Wettbewerb stehenden Informationen durchzusetzen.[9] Dies führt dazu, dass man in der politischen Kommunikationsforschung generell von einer schwachenr Wirkung einzelner Informationen ausgeht.[10]

Allerdings kann man diese Sicht auch relativieren. Experimentelle Wirkungsmessungen sind gut dazu geeignet, Wirkungen einzelner Informationen zu identifizieren. Gleichzeitig ist sie deutlich weniger gut dafür geeignet, langfristige Wirkungen von habitueller Mediennutzung oder wiederholte Informationsaussetzung über einen langen Zeitraum abzubilden. Hier kann es sein, dass selbst wenn einzelne Informationen bei einmaligem Kontakt keine oder schwache Wirkungen entfalten es über die Zeit bei wiederholter Aussetzung zu deutlich stärkeren Wirkungen kommen mag.

Neben Effekten auf Individuen sind auch gesellschaftliche Wirkungen denkbar. Hier würde ich zwischen den Folgen auf bestimmte gesellschaftliche Gruppen und die Gesamtgesellschaft unterscheiden. Gesamtgesellschaftlich kann man davon ausgehen, dass Desinformation keine besonders hohe Wirkung auf politische Einstellungen entfaltet. Dafür ist ihre Verbreitung schlicht zu klein und die Effekte, die wir finden, sind zu gering. Hinzu kommt, dass die Verbreitung von Desinformation vor allem dort stattfindet, wo Menschen ohnehin schon eine entwickelte Weltsicht haben. Hier kann Falschinformation verstärkend wirken oder anderen Menschen signalisieren, welchem politischen Lager man angehört. Insofern sind Warnungen vor Desinformation als eine der großen Gefahren für Demokratien übertrieben.

Das ist aber keine vollständige Entwarnung, denn in den Gruppen, in denen Falschinformationen sehr stark zirkulieren, können sie eine gefährliche Wirkung entfalten, indem sie existierende Vorurteile oder Überzeugungen weiter bestärken. Dies kann in Bezug auf Radikalisierungsprozesse von Individuen oder für die Wählermobilisierung radikaler Parteien wichtig sein. Insofern ist Desinformation ein Problem, aber ein Problem mit begrenzter Reichweite und Wirkung.

Gerade bei der US-Wahl 2016 und dem Brexit gibt es die Annahme, dass Desinformation einen entscheidenden Einfluss auf den Ausgang gehabt haben könnte. Insbesondere zur Erklärung von Donald Trumps ersten Wahlsieg ging es in der öffentlichen Debatte daher viel um die russischen Bots, die den Wahlausgang zugunsten Trumps beeinflusst hätten. Gibt es nachweisbare Effekte von Desinformation auf den Ausgang von Wahlen?

Ich kenne keine belastbaren Studien, die darauf hindeuten, dass eine Wahl auf Basis von Desinformationen entschieden wurde. Insbesondere in Bezug auf die US-Wahl 2016 und den Brexit kursieren teilweise wilde Vermutungen über den wahlentscheidenden Einfluss von Desinformation, die keinerlei wissenschaftlicher Überprüfung standhalten. Das gilt sowohl für die Gerüchte rund um die Rolle von Cambridge Analytica als auch den vermeintlich wahlentscheidenden Einfluss russischer Bots.[11] Ich würde solche Spekulationen vor allem darauf zurückführen, dass sowohl Trumps Wahlsieg als auch der Brexit sehr überraschende Ereignisse waren, die den bisherigen Erwartungen innerhalb der Gesellschaften und medialer und politischer Eliten widersprochen haben. Der Hinweis auf Desinformation bot eine sehr bequeme und entlastende Erklärung, um sich selbst zu vergewissern, dass da kein authentischer demokratischer Wille zum Ausdruck gekommen sein konnte, sondern das Ergebnis die Konsequenz einer strategischen Manipulation war.

Wenn wir darüber nachdenken, wie Änderungen in der politischen Kommunikation zu diesen Entwicklungen beigetragen haben, sollten wir weniger die russischen Bots und mehr die Veränderungen im kommunikativen Verhalten von politischen Eliten in den Blick nehmen, die sich in ihren Aussagen teilweise schlicht nicht mehr an das Kriterium der Faktentreue gebunden fühlen. Trump ist hier sicher das Extrembeispiel, nach meiner Einschätzung hat diese Bereitschaft zur Lüge aber auch etwas mit veränderten politischen Wettbewerbsbedingungen und der Schwächung von etablierten Institutionen zu tun. Parteien sind in ihrer gesellschaftlichen Bindekraft geschwächt und heute viel eher bereit, Kandidatinnen oder Kandidaten aufzustellen, die gezielt provozieren oder sogar lügen. Insofern haben wir es weniger mit einem Problem der digitalen Kommunikationsumgebung als vielmehr mit einem Problem politischer Institutionen zu tun, die nicht mehr stark genug sind, um politische Eliten an etablierte Regeln des politischen Wettbewerbs zu binden und ein Elitenproblem, die für Machtgewinn willens sind, etablierte Institutionen und Regeln zu schleifen. Aber diese Diagnose ist natürlich unbequemer als die Klage über digitale Kommunikationsumgebungen.

Einige Studien kommen zu dem Ergebnis, dass alarmistische Warnungen vor Desinformation – wohlgemerkt die Warnungen, nicht die Desinformation selbst –, einen negativen Effekt auf die Wahrnehmung demokratische Institutionen haben. Könnten Sie diese Befunde, die teilweise auch aus Studien von Ihnen stammen, etwas ausführen?

Der Ausgangspunkt unserer Untersuchung war die Frage, woher die weit verbreitete Besorgnis über die Informationsqualität im Internet eigentlich stammt.[12] Sind wir alarmiert, weil wir alle permanent von Falschinformationen geflutet werden oder sind wir alarmiert, weil wir in der Medienberichterstattung häufig auf das Problem der Desinformation hingewiesen werden? Wir hatten davor darüber gesprochen, dass nur eine überschaubare Minderheit unmittelbar mit digitaler Desinformation direkt in Berührung kommt. Dagegen erreichen die politischen und medialen Warnungen vor der Gefahr der Fake News ein sehr viel größeres Publikum. Die wenigsten Deutschen hatten direkten Kontakt mit russischen Bots, aber trotzdem haben wohl fast alle von dem Phänomen gehört. In einem Experiment konnten Adrian Rauchfleisch und ich zeigen, dass alarmistische Warnungen vor Desinformationen bei Probandinnen und Probanden en dazu geführt haben, dass sie die Qualität demokratischer Systeme negativer wahrnehmen und eher dazu bereit sind, restriktive Regulierung von Online-Kommunikationsräumen zu befürworten. Bei einer anderen Gruppe, die differenziert über das Phänomen der Desinformation informiert wurde, stellten sich diese negativen Effekte in Bezug auf die Wahrnehmung demokratischer Qualität und auf die Breitschaft zu restriktiver Einschränkung von Meinungsäußerungen hingegen nicht ein. Dies zeigt, dass man mit Paniknarrativen über die vermeintliche Omnipräsenz und Gefährlichkeit von Fake News sehr vorsichtig sein sollte, weil man so das Vertrauen in demokratische Institutionen untergräbt und damit ausgerechnet die Ziele des Manipulators unterstützt.

Dieser Befund erinnert mich an eine Formulierung von Philip Manow, der in einem anderen Kontext vor einer „Demokratiegefährdung durch Demokratiegefährdungsdiskurse“[13] warnte.

Gerade die Kommunikations- oder Politikwissenschaft sollte mit solchen Krisendiagnosen sehr vorsichtig sein, denn sie folgen einer gefährlichen Anreizstruktur: Wenn Desinformationen als ein sehr großes gesellschaftliches Problem gelten, ist meine Expertise als Kommunikations- oder Politikwissenschaftler plötzlich systemrelevant und das wertet meine persönliche Bedeutung als Experte massiv auf. Auf der anderen Seite gibt es politische Eliten, die gesellschaftliche Probleme nicht mit ihrer eigenen Rolle in Verbindung bringen wollen, sondern sie allzu gerne zu Kommunikationsproblemen erklären.[14] Insofern wirken auf Seiten von Wissenschaft und politischen Eliten Anreize, die dazu beitragen, das existierende Phänomen Desinformation zur größten Gefahr unserer Zeit hochzuschaukeln, auch wenn dass die wissenschaftlichen Befunde so nicht hergeben.

Wenn in der Öffentlichkeit die Diagnose Demokratiegefährdung durch Desinformation gestellt wird, wird häufig gleich ein Therapievorschlag mitgeliefert, nämlich unabhängige Faktenchecks. Mark Zuckerberg hat noch vor Trumps Amtseinführung angekündigt, eben dieses Instrument für Meta in den USA abzuschaffen und durch Community Notes zu ersetzen. Nach Vorbild von X sollen die Nutzer*innen selbst die Möglichkeit haben, Falschmeldungen zu markieren und einzuordnen. In Europa hat diese Entscheidung für heftige Kritik gesorgt. Wie sieht die wissenschaftliche Evidenz zu den Effekten von Faktenchecks und Community Notes aus?

Mit Blick auf die Forschungsliteratur kann man sagen, dass Faktenchecks die gewünschten Effekte erzielen, indem sie falsche Informationen berichtigen.[15] Ob Menschen sich von Faktenchecks aber auch überzeugen lassen, hängt allerdings zum einen davon ab, ob sie den Fakten-Checkern vertrauen und zum anderen, inwiefern es beim Teilen einer faktischen Aussage überhaupt um deren Richtigkeit geht.[16] Gerade in politischen Debatten übernehmen Menschen zum Teil falsche Aussagen – nicht, weil sie von deren Richtigkeit überzeugt sind –, sondern weil sie auf diese Weise deutlich machen, auf welcher Seite eines politischen Konflikts sie stehen. Da geht es gar nicht um Faktizität, sondern politische Identität, insofern helfen da auch keine Faktenchecks oder Community Notes.

Sowohl bei Faktenchecks als auch Community Notes kommt es immer auf die konkrete Umsetzung an. Grundsätzlich würde ich aber davor warnen, beide Instrumente gegeneinander auszuspielen, nicht zuletzt, da Fragen der Regulierung von digitalen Kommunikationsräumen immer auch mit politischen Einstellungen und gesellschaftlichen Wertevorstellungen zusammenhängen.[17] Beide Methoden haben Vor- und Nachteile. Der große Vorteil bei Faktenchecks ist, dass sie im Idealfall eine journalistische Institution durchführt, die über die entsprechenden Ressourcen verfügt, um bei strittigen Aussagen selbst zu recherchieren und so neue Informationen zu generieren. Das ist eine große Bereicherung für die öffentliche Debatte. Das bedeutet aber auch, dass man es mit Institutionen zu tun hat, die als parteilich wahrgenommen werden können und die immer über begrenzten Ressourcen verfügen und daher immer nur einen Teil der Aussagen prüfen können. Community Notes setzen dagegen auf die Stärke der Masse, funktionieren dezentral und können daher deutlich mehr Aussagen kontextualisieren. Allerdings sind sie auf journalistische Vorarbeit angewiesen; sprich, dass es Journalistinnen und Journalisten gab, die die Informationen bereits recherchiert haben. Potenziell ergänzen sich beide Mechanismen also sogar sehr gut.

Sie schrieben, dass die öffentliche Debatte rund um Schlagwörter wie Desinformation, Fake News und Filterblasen einer moralischen Panik gleiche. Statt die Aufmerksamkeit auf diese „suggestiven, aber empirisch marginalen Phänomene“[18] zu richten, sei es viel entscheidender, die tiefgreifenden und strukturellen Transformationen politischer Öffentlichkeit in den Blick zu nehmen. Um welche Transformationen handelt es sich dabei?

Wir haben mit der Digitalisierung einen technischen Prozess erlebt, der die ökonomische und politökonomische Situation von politischer Kommunikation massiv verändert hat.[19] Der Fokus auf Aufregerthemen führt teilweise dazu, dass wir übersehen, wie grundlegend die Digitalisierung die bisherige Art Politik zu koordinieren, zu organisieren und zu kommunizieren verändert hat.[20] Es gibt beispielsweise im Wahlkampf und in der Koordination politischer Kampagnen neue Möglichkeiten, auf die etablierte Akteure zum Teil nur sehr langsam reagiert haben. Auf der anderen Seite haben wir politische Herausforderer, die durch die neuen technischen Möglichkeiten sehr viel schneller zu echten Konkurrenten wurden.[21] Statt sich mit den komplexen Implikationen des Zusammenspiels von Politik und Technik zu befassen, gibt es die Tendenz, unerwünschte Entwicklungen schlicht digitalen Medien in die Schuhe zu schieben.

Was sind das für konkrete Veränderungen?

Nehmen wir das Beispiel der Parteien und Interessengruppen.[22] Diese haben sich im Laufe der Zeit entwickelt, um Menschen zu repräsentieren, zu koordinieren und politisch zu mobilisieren.[23] In der vordigitalen Zeit brauchte es meistens eine Partei- oder Gewerkschaftsbürokratie und eine große Zahl an Mitgliedern, um Menschen für ein bestimmtes Anliegen auf die Straße zu bringen. Heutige Mobilisierungen, beispielsweise für Occupy Wall Street oder Fridays for Future, laufen ganz anders, indem sie relativ dezentral bereits kodifizierte Netzwerkinformationen nutzen. Das hat ein enormes Vitalisierungspotential und führt dazu, dass die Öffentlichkeit deutlich reaktiver für bestimmte Anliegen wird, weil sich diese unabhängig der etablierten Organisationsbürokratien realisieren lassen. Auf der anderen Seite gibt es das Problem, dass dieser spontanen Koordination bislang der Übersetzungsmechanismus in den politischen Prozess fehlt.[24] Fridays for Future war enorm gut darin, zu mobilisieren und Aufmerksamkeit zu generieren, hatte aber Schwierigkeiten, dies in mehrheitsfähige Politik zu übersetzen und auf eine Weise in den politischen Prozess einzuspeisen, sodass am Ende aus Sicht der Unterstützerinnen und Unterstützer wenig zufriedenstellende Politikergebnisse dabei herauskamen. Daraus kann sehr schnell Frustration erwachsen, weil die Responsivitätserwartung an das politische System in einer Weise gestiegen ist, die diese gar nicht erfüllen kann.[25] Parteien und organisierte Interessen funktionieren nach einer anderen Logik als Demonstrationen und soziale Bewegungen, weil sie Interessen filtern, verstetigen und institutionalisieren müssen. Wir befinden uns in einem noch nicht abgeschlossenen gesellschaftlichen Lernprozess, dieses Spannungsverhältnis unter digitalen Vorzeichen richtig zu verstehen. 

Lassen Sie uns einmal über die Eigentumsverhältnisse digitaler Plattformen sprechen. Momentan wird an Elon Musk und X besonders deutlich, dass die Entscheidungsmacht über die Regeln auf den zentralen Kommunikationsplattformen in den Händen einzelner Tech-Milliardäre liegt, die offenkundig politische Ziele verfolgen. Müsste sich die Debatte nicht viel mehr darum drehen, wie es gelingen kann, diese Plattformen durch demokratisch legitimierte Regeln zu gestalten und zu regulieren?

Auf Basis der meisten Theorien, die sich mit Öffentlichkeit beschäftigen, seien es Deliberationstheorien oder Public-Sphere-Theorien, würde man sagen, dass das private und kommerzielle Eigentum zentraler Strukturen von Öffentlichkeit ein Problem darstellt, weil es im Konflikt mit unseren Idealvorstellungen von politischem Diskurs steht.[26] Auf der anderen Seite wäre es kaum besser, wenn diese Strukturen direkt durch den Staat gelenkt würden, insofern bräuchte es hier im Idealfall eine Mischung aus beidem.

Daher ist die Frage, wem Strukturen digitaler Öffentlichkeit gehören und welchen Regeln die Eigentümer folgen müssen, perspektivisch wichtig. Für europäische Länder ist aber das zentrale aktuelle Problem die Abhängigkeit politischer Öffentlichkeit von digitalen Strukturen, die in den USA oder China entwickelt und betrieben werden. Europa kann sich die besten Regeln ausdenken, letztlich ist man aber von der Bereitschaft der USA und Chinas abhängig, sich an diese Regeln zu halten. Diese Spannung zwischen wachsender Abhängigkeit von den Kommunikationsangeboten internationaler Firmen und eingeschränkter Kontrolle durch nationale Politik steigt im Kontext von handels- und sicherheitspolitischen Konflikten zwischen der EU, den USA und China weiter an. Die europäischen Staaten tragen jetzt die Kosten dafür, dass sie digitale Technik und Geschäftsmodelle in der Vergangenheit weitgehend ignoriert und gezielt durch Regulierungsvorhaben ausgebremst haben.

Es braucht also weniger Regulierung?

Klar braucht es Regulierung, aber welche? Wir tun in der Regulierung digitaler Technik gerne so, als wäre es ein für den Regulierer durchschaubares und gelöstes Problem. Das ist es aber nicht. Besonders Europa tut sich bei der effektiven digitalen Regulierung zunehmend schwer. Uns fehlt schlicht der Einblick in aktuelle und perspektivische Entwicklungen, da sowohl unsere Digitalwirtschaft als auch zunehmend unsere Forschung hinter den internationalen Entwicklungen zurückbleiben. Und dann wird es eben auch schwer, steuernd einzugreifen.

Generell gibt es hier gerade in Deutschland eine Spannung zwischen dem von einigen artikulierten Wunsch nach einer öffentlich finanzierten, gemeinwohlorientierten Tech- und Medienlandschaft und dem für Tech-Entwicklungen notwendigen Lernprozess durch harten internationalen Wettbewerb zwischen Tech-Firmen um technischen Fortschritt, Produktinnovation und Nutzerinnen und Nutzer. Nehmen wir das Beispiel Nachrichten. Bei all ihren Schwierigkeiten ist die Finanzierung und Struktur des öffentlich-rechtlichen Rundfunks gut geeignet, wichtige politische, gesellschaftliche und kulturelle Informationen zu produzieren und einem breiten Publikum zur Verfügung zu stellen. Dies unterstützt unsere Gesellschaft, sich selbst zu reflektieren, Gemeinsamkeiten sichtbar zu machen und politische Diskurse zu führen. Gleichzeitig ist dies nicht die beste Struktur, um digitale Werkzeuge für Informationsproduktion und -verbreitung zu entwickeln. Hierfür ist erfahrungsgemäß der Wettbewerb zwischen am Markt konkurrierender Firmen der bessere Mechanismus.[27]

Und wenn man als EU will, dass auch hier Firmen entstehen, die international wettbewerbsfähig sind und zu technischem Fortschritt und Produktinnovation beitragen, dann muss ich mich trauen, diesen Wettbewerb zuzulassen. Wenn man Angst vor diesem Wettbewerb hat und die damit verbundenen Lernprozesse stoppt, muss man auch bereit sein, den Preis der technischen Abhängigkeit von China und den USA zu zahlen.


Anmerkungen:

[1] Lecheler, Sophie/Egelhofer, Jana Laura (2022): Disinformation, Misinformation, and Fake News. Understanding the Supply Side, in: Knowledge Resistance in High-Choice Information Environments, online unter: https://www.taylorfrancis.com/chapters/oa-edit/10.4324/9781003111474-4/disinformation-misinformation-fake-news-sophie-lecheler-jana-laura-egelhofer [letzter Zugriff: 12.03.2025].

[2] Kessler, Glenn/Rizzo, Salvador/Kelly, Meg (2021): Trump’s false or misleading claims total 30,573 over 4 years. In Washington Post, online unter: https://www.washingtonpost.com/politics/2021/01/24/trumps-false-or-misleading-claims-total-30573-over-four-years/ [letzter Zugriff: 11.03.2025].

[3] Guess, Andrew/Nagler, Jonathan/Tucker, Joshua (2019): Less than you think. Prevalence and predictors of fake news dissemination on Facebook, in: Science Advances Vol 5, Issue 1 eaau4586(2019), online unter: https://www.science.org/doi/10.1126/sciadv.aau4586

[4] Jennifer Allen et al. (2020): Evaluating the fake news problem at the scale of the information ecosystem. In: Sci. Adv.6,eaay3539(2020), online unter: https://www.science.org/doi/full/10.1126/sciadv.aay3539

[5] Behre, Julia/Hölig, Sascha/Möller, Judith (2024): Reuters Institute Digital News Report 2024: Ergebnisse für Deutschland. Hamburg: Verlag Hans-Bredow-Institut, S. 34.

[6] Tagesschau (2024): Auswärtiges Amt deckt auf. Bericht: Russische Kampagne auf X gegen Ampel, in: www.zdf.de, online unter: https://www.zdf.de/nachrichten/politik/ausland/desinformation-kampagne-x-auswaertiges-amt-russland-ukraine-krieg-100.html [letzter Zugriff: 11.03.2025].

[7] Karpf, David (2019): On Digital Disinformation and Democratic Myths, in: MediaWell, online unter: https://mediawell.ssrc.org/articles/on-digital-disinformation-and-democratic-myths/

[8] Mercier, Hugo (2020): Not Born Yesterday. The Science of Who We Trust and What We Believe, Princeton: Princeton University Press.

[9] Kahan, Dan M. (2016): The Politically Motivated Reasoning Paradigm, Part 1: What Politically Motivated Reasoning Is and How to Measure It, in: Emerging Trends in the Social and Behavioral Sciences: An Interdisciplinary, Searchable, and Linkable Resource https://doi.org/10.1002/9781118900772.etrds0417

[10] McLeod, Douglas/Kosicki, Gerald/McLeod, Jack (2009): Political Communication Effects, in: Jennings Bryant und Mary Beth Oliver (Hg.), Media Effects: Advances in Theory and Research, 3. Auflage, New York: Routledge, S. 228-251.

[11] Written Testimony of Eitan Hersh (2018): Hearing before the United States Senate Committee on the Judiciary, online unter: https://www.judiciary.senate.gov/download/05/16/2018/05-16-18-hersh-testimony [letzter Zugriff: 11.03.2025].

[12] Jungherr, Andreas/Rauchfleisch, Adrian (2024): Negative Downstream Effects of Alarmist Disinformation Discourse: Evidence from the United States, in: Political Behavior 46, S. 2123–2143.

[13] Manow, Philip (2020): (Ent-)Demokratisierung der Demokratie, Berlin: Suhrkamp, S.124.

[14] Jungherr, Andreas (2024): Foundational questions for the regulation of digital disinformation, in: Journal of Media Law 2024, Vol. 16, No. 1, 8–17 https://doi.org/10.1080/17577632.2024.2362484, online unter: https://www.tandfonline.com/doi/epdf/10.1080/17577632.2024.2362484?needAccess=true

[15] Nyhan, Brendan /Porter, Ethan /Reifler, Jason/Wood, Thomas J. (2019):  Taking Fact-Checks Literally But Not Seriously? The Effects of Journalistic Fact-Checking on Factual Beliefs and Candidate Favorability, in: Political Behavior Volume 42, pages 939–960, online unter: https://link.springer.com/article/10.1007/s11109-019-09528-x

[16] Walter, Nathan/Cohen, Jonathan/Holbert, R. Lance/Morag, Yasmin (2019): Fact-Checking. A Meta-Analysis of What Works and for Whom, in: Political Communication Volume 37, 2020 - Issue 3, online unter: https://www.tandfonline.com/doi/full/10.1080/10584609.2019.1668894

[17] Rauchfleisch, Adrian/Jungherr, Andreas (2024): Blame and obligation. The importance of libertarianism and political orientation in the public assessment of disinformation in the United States, in: Policy & Internet Volume16, Issue4, Pages 801-817, online unter: https://onlinelibrary.wiley.com/doi/10.1002/poi3.407

[18] Jungherr, Andreas/Schröder, Ralph (2021): Disinformation and the Structural Transformations of the Public Arena: Addressing the Actual Challenges to Democracy, in: Social Media + Society, 7(1), S. 1.

[19] Jungherr, Andreas et al. (2020): Retooling Politics. How Digital Media Are Shaping Democracy, Cambridge: Cambridge University Press.

[20] Jungherr, Andreas/Schroeder, Ralph (2021): Digital Transformations of the Public Arena, Cambridge: Cambridge University Press.

[21] Jungherr, Andreas/Schroeder, Ralph/Stier, Sebastian (2019): Digital Media and the Surge of Political Outsiders. Explaining the Success of Political Challengers in the United States, Germany, and China, in: Social Media + Society, 5(3). https://doi.org/10.1177/2056305119875439, online unter:  https://journals.sagepub.com/doi/full/10.1177/2056305119875439

[22] Jungherr, Andreas (2023): Digital campaigning. How digital media change the work of parties and campaign organizations and impact elections, Kapitel 25 in: Sociology, Social Policy and Education 2023, S. 446–462, online unter: https://www.elgaronline.com/edcollchap-oa/book/9781789906769/book-part-9781789906769-35.xml

[23] Bimber, Bruce (2009): Information and American Democracy. Technology in the Evolution of Political Power, Cambridge: Cambridge University Press.

[24] Bimber, Bruce/ Flanagan, Andrew/ Stohl, Cythia (2012): Collective Action in Organizations Interaction and Engagement in an Era of Technological Change, Cambridge: Cambridge University Press.

[25] Gurri, Martin (2018): The Revolt of the Public and the Crisis of Authority in the New Millennium, San Francisco, CA : Stripe Press.

[26] Peters, Bernhard (2007): Der Sinn von Öffentlichkeit. Berlin: Suhrkamp.

[27] Li, Kaifu (2018): AI superpowers. China, Silicon Valley, and the new world order, Boston; New York: Houghton Mifflin Harcourt.



DOI: https://doi.org/10.36206/IV25.4
CC-BY-NC-SA
Neueste Beiträge aus
Repräsentation und Parlamentarismus