Desinformation ist keine Nebenwirkung moderner Medien, sondern eine gezielt eingesetzte Technik der Macht. Sie unterscheidet sich fundamental von Irrtum oder schlampiger Berichterstattung. Während Fehlinformation aus Unwissen oder Nachlässigkeit entsteht, ist Desinformation absichtsvoll konstruiert. Ihr Zweck ist nicht Aufklärung, sondern Steuerung. Nicht Wahrheit, sondern Wirkung ist ihr Maßstab.
Im Kern operiert Desinformation über Wirklichkeitsverschiebung. Sie verändert nicht zwangsläufig Fakten, sondern deren Einordnung, Gewichtung und emotionale Bewertung. Genau hier verbindet sie sich strukturell mit Framing. Bestimmte Aspekte werden hervorgehoben, andere ausgeblendet. Die Auswahl selbst wird unsichtbar gemacht. Was gezeigt wird, gilt als relevant. Was fehlt, existiert im Diskurs faktisch nicht.
Ein zentrales Merkmal moderner Desinformation ist ihre Langfristigkeit. Sie wirkt selten durch den einzelnen spektakulären Fake. Entscheidend ist die stetige Wiederholung ähnlicher Narrative. Durch Priming werden Deutungsmuster vorbereitet, sodass spätere Informationen automatisch in bekannte Schablonen einsortiert werden. Der Rezipient glaubt, selbst zu urteilen, reproduziert jedoch vorgefertigte Denkpfade.
Desinformation ist dabei hochgradig adaptiv. Sie passt sich Milieus, politischen Lagern und kulturellen Codes an. Dass sich widersprüchliche Narrative gleichzeitig verbreiten können, ist kein Fehler, sondern Methode. Ziel ist nicht Konsistenz, sondern Destabilisierung. Wenn alles unsicher wirkt, verliert Wahrheit ihre orientierende Funktion. Skepsis wird zur Dauerhaltung, Vertrauen zur Naivität.
Ein besonders wirksames Element ist die emotionale Aufladung. Angst, Empörung und moralische Überlegenheit beschleunigen Verbreitung und senken kritische Distanz. In Kombination mit Angst Nudging entsteht ein Zustand latenter Alarmbereitschaft. Entscheidungen werden nicht mehr rational abgewogen, sondern reflexhaft getroffen. Desinformation nutzt diesen Zustand gezielt aus, indem sie einfache Schuldige und klare Fronten anbietet.
Digitale Plattformen verstärken diese Dynamik strukturell. Algorithmische Systeme belohnen Aufmerksamkeit, nicht Wahrheitsgehalt. Polarisierende Inhalte performen besser als differenzierte Analysen. Desinformation fügt sich hier nahtlos ein. Sie ist anschlussfähig, teilbar, emotional. In dieser Umgebung wird nicht der beste Inhalt sichtbar, sondern der wirksamste.
Hinzu kommt die strategische Vermischung von Wahrem und Falschem. Reine Lügen sind angreifbar. Hybride Erzählungen sind robust. Ein korrekter Fakt, eingebettet in eine falsche Kausalität, wirkt glaubwürdig und immunisiert sich gegen Kritik. Widerlegung wird als Angriff auf den wahren Kern umgedeutet. Kritik erscheint damit nicht sachlich, sondern ideologisch motiviert.
Desinformation entfaltet ihre volle Wirkung in Verbindung mit Agenda Setting. Nicht nur wie berichtet wird, ist entscheidend, sondern worüber überhaupt gesprochen wird. Themen, die dauerhaft präsent sind, gelten als wichtig. Themen, die fehlen, verschwinden aus dem kollektiven Problembewusstsein. Desinformation lenkt Aufmerksamkeit, ohne explizit zu lügen. Sie ersetzt Wahrheit durch Relevanzsimulation.
Ein weiterer Mechanismus ist die moralische Markierung von Abweichung. Kritische Stimmen werden nicht argumentativ widerlegt, sondern etikettiert. Hier überschneidet sich Desinformation mit Labeling. Wer widerspricht, gilt als unsolidarisch, gefährlich oder extrem. Der Diskurs verengt sich, ohne formale Zensur zu benötigen. Selbstzensur übernimmt die Arbeit.
Historisch ist dieses Prinzip gut dokumentiert. Bereits Edward Bernays beschrieb Öffentlichkeit als formbares Material. Zustimmung entsteht nicht durch Information, sondern durch emotionale und symbolische Steuerung. Moderne Desinformation ist die technologische Fortsetzung dieser Einsicht, skaliert durch digitale Netzwerke und algorithmische Distribution.
Wichtig ist dabei: Desinformation ist kein exklusives Merkmal einzelner politischer Lager oder Staaten. Sie ist strukturell. Überall dort, wo Macht, Aufmerksamkeit und Deutungshoheit zusammentreffen, entsteht der Anreiz zur Wirklichkeitsmanipulation. Moralische Empörung über „die anderen“ verkennt diese Systemlogik und stabilisiert sie zugleich.
Desinformation zerstört selten Wissen. Sie zerstört Orientierung. Wenn jede Information potenziell manipuliert erscheint, wird Rückzug rational. Politik wird als schmutzig wahrgenommen, Medien als unglaubwürdig, Wahrheit als subjektiv. Genau dieser Zustand ist funktional. Eine orientierungslose Öffentlichkeit ist leicht steuerbar, weil sie Entscheidungen delegiert oder resigniert hinnimmt.
Damit ist Desinformation kein Kommunikationsproblem, sondern ein demokratisches Strukturproblem. Sie untergräbt nicht einzelne Positionen, sondern die Fähigkeit zur gemeinsamen Wirklichkeitsdefinition. Wo diese Fähigkeit verloren geht, wird Macht unsichtbar – und damit besonders stabil.
Quellen
Grundlagen & klassische Theorie
Bernays, E. (1928). Propaganda. New York: Horace Liveright.
Lippmann, W. (1922). Public Opinion. New York: Harcourt, Brace and Company.
Arendt, H. (1967). Truth and Politics. The New Yorker.
Ellul, J. (1965). Propaganda: The Formation of Men’s Attitudes. New York: Knopf.
Framing, Agenda Setting, Wirklichkeitskonstruktion
Entman, R. M. (1993). Framing: Toward Clarification of a Fractured Paradigm. Journal of Communication, 43(4), 51–58.
Gamson, W. A., & Modigliani, A. (1989). Media Discourse and Public Opinion on Nuclear Power. American Journal of Sociology, 95(1), 1–37.
Scheufele, D. A. (1999). Framing as a Theory of Media Effects. Journal of Communication, 49(1), 103–122.
Iyengar, S. (1991). Is Anyone Responsible? How Television Frames Political Issues. Chicago: University of Chicago Press.
Desinformation, Fake News, Informationskrieg
Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an Interdisciplinary Framework. Council of Europe.
Benkler, Y., Faris, R., & Roberts, H. (2018). Network Propaganda. Oxford University Press.
Bradshaw, S., & Howard, P. (2019). The Global Disinformation Order. Oxford Internet Institute.
Paul, C., & Matthews, M. (2016). The Russian “Firehose of Falsehood” Propaganda Model. RAND Corporation.
Digitale Plattformen & algorithmische Verstärkung
Gillespie, T. (2014). The Relevance of Algorithms. In Media Technologies. MIT Press.
van Dalen, A. (2023). Platform Power and Algorithmic Gatekeeping. Digital Journalism.
Siciliano, M. (2023). Algorithmic Amplification and Disinformation. New Media & Society.
Garajamirli, S. (2025). Algorithmic Visibility and Political Manipulation. Information, Communication & Society.
Diskurs, Macht, Wahrheit
Foucault, M. (1971). Orders of Discourse. Paris: Gallimard.
van Dijk, T. A. (2018). Discourse and Power. London: Palgrave Macmillan.
Byung-Chul Han (2017). Psychopolitik. Frankfurt am Main: Fischer.
Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent. New York: Pantheon Books.
Bild: Ki Illustration
- desinformation-rede-buehne-publikumsperspektive: © https://gedankenschleife.net
