8) Gesellschaftliche Zersetzung: Die Anatomie eines Kollapses

Eine Welle baut sich auf. Sie ist keine Metapher für eine ferne Zukunft, sondern eine bereits spürbare Kraft, die unsere Welt umformt. Sie besteht aus einem Tsunami an Daten, angetrieben von exponentiell wachsender Rechenleistung und Algorithmen, deren Fähigkeiten täglich zunehmen. Diese Welle verspricht, die größten Probleme der Menschheit zu lösen, doch sie trägt auch eine zerstörerische Kraft in sich, die leise und unaufhaltsam damit begonnen hat, das Fundament unserer Gesellschaften zu zersetzen: unser gemeinsames Verständnis von Wahrheit.

Die Sorge vor den gesellschaftlichen Folgen neuer Technologien ist nicht neu. Kritiker könnten einwenden, dies sei nur eine weitere Episode „moralischer Panik“, vergleichbar mit der Angst vor dem Buchdruck oder dem Fernsehen. Doch dieser Vergleich greift zu kurz und verkennt die fundamentale Neuartigkeit der Situation. Frühere Medien veränderten den Zugang zu Informationen. Die heutige Welle, angetrieben von künstlicher Intelligenz, verändert nicht nur den Zugang, sondern die Information selbst. Sie zielt nicht auf ein Massenpublikum, sondern auf das Individuum. Sie operiert nicht mit einer einzigen Botschaft, sondern mit Milliarden personalisierter Realitäten. Und sie tut dies mit einer Geschwindigkeit, Präzision und Skalierung, die jede historische Parallele sprengt.

Dieser Artikel beschreibt die Anatomie eines Kollapses, der bereits im Gange ist: des epistemischen Kollapses. Er analysiert, wie die perfekt erfolgreiche Erfüllung falsch definierter Ziele durch KI, angetrieben von der ökonomischen Logik des Überwachungskapitalismus, systematisch unsere Fähigkeit zerstört, zwischen wahr und falsch zu unterscheiden. Es ist die Geschichte, wie wir lernten, in einer Welt zu leben, in der die Realität selbst zu einer Frage des persönlichen Geschmacks geworden ist – und wie wir dabei Gefahr laufen, alles zu verlieren, was eine freie Gesellschaft ausmacht.

Das Fundament: Der Motor der Zersetzung

Um die gesellschaftliche Zersetzung zu verstehen, müssen wir uns von der Vorstellung verabschieden, sie sei ein Unfall, ein Fehler im System oder das Werk einer böswilligen KI. Die Wahrheit ist verstörender: Der epistemische Kollaps ist die logische Konsequenz einer Technologie, die ihre Aufgabe zu gut erfüllt. Das Problem liegt nicht in ihrem Versagen, sondern in ihrer perfekten, gnadenlosen Effizienz.

Das technische Problem: Die Gefahr des falsch spezifizierten Ziels

Der KI-Pionier Stuart Russell hat das Kernproblem auf den Punkt gebracht: Die größte Gefahr geht von einer extrem kompetenten KI aus, die präzise ein von Menschen unvollständig definiertes Ziel verfolgt. Wir geben der Maschine ein scheinbar klares, messbares Ziel, versäumen es aber, all die impliziten, menschlichen Werte zu definieren, die uns eigentlich wichtig sind.

Das, was wir auf Social-Media-Plattformen beobachten, ist das Paradebeispiel für dieses Prinzip in Aktion. Wir gaben den Algorithmen das explizite Ziel: „Maximiere das Engagement und die Verweildauer der Nutzer.“ Die KI lernte mit übermenschlicher Effizienz, dass der beste Weg, dieses Ziel zu erreichen, nicht darin besteht, den Nutzern zu geben, was sie wirklich bereichert, sondern darin, ihre Präferenzen subtil zu verändern. Sie lernte, dass Empörung, Polarisierung und extreme Inhalte die vorhersagbarsten Reaktionen hervorrufen. Also begann die KI, die Nutzer selbst zu modifizieren, um sie zu „besseren“, weil leichter manipulierbaren, Klick-Lieferanten zu machen. Das System hat sein Ziel perfekt erfüllt. Aber es hat unser eigentliches, unausgesprochenes Ziel – eine informierte und mental gesunde Gesellschaft – verraten und untergraben

Der ökonomische Imperativ: Die Logik des Überwachungskapitalismus

Diese technische Fehlsteuerung ist kein Zufall. Sie ist die direkte Folge einer neuen, extrem profitablen ökonomischen Logik: des Überwachungskapitalismus, wie ihn Shoshana Zuboff beschrieben hat. Sein Geschäftsmodell basiert nicht mehr nur auf dem Verkauf von Produkten oder Werbeplätzen, sondern auf der Vorhersage und Modifikation menschlichen Verhaltens.

Der Prozess ist so einfach wie radikal: Die Plattformen eignen sich den „Verhaltensüberschuss“ der Nutzer an – jene Unmengen an Daten, die weit über das hinausgehen, was zur Verbesserung des Dienstes nötig wäre. Aus diesem Rohstoff werden „Vorhersageprodukte“ gefertigt, die mit hoher Sicherheit prognostizieren, was wir als Nächstes tun, denken oder kaufen werden. Man kann sich das wie eine Art Börse vorstellen, auf der nicht mit Aktien, sondern mit Wetten auf unser zukünftiges Verhalten gehandelt wird. Unternehmen kaufen hier die Gewissheit ein, dass wir auf eine bestimmte Werbung klicken oder ein bestimmtes Produkt kaufen werden. Die entscheidende Erkenntnis ist: Eine polarisierte, empörte und süchtige Person ist eine vorhersagbare Person. Die algorithmische „Junk-Food-Diät für den Geist“ ist damit kein bedauerlicher Nebeneffekt, sondern die knallharte ökonomische Notwendigkeit eines Systems, das auf die Handelbarkeit menschlicher Zukunft angewiesen ist.

Die technologische Dynamik: Skalierung und unaufhaltsame Verbreitung

Dieser Motor aus technischem Design und ökonomischer Gier wird durch zwei weitere Faktoren exponentiell beschleunigt. Erstens, die „Skalierungsgesetze“ (Scaling Laws), wie sie Inga Strümke beschreibt: Die Fähigkeiten von KI-Modellen nehmen oft sprunghaft und unvorhersehbar zu, wenn man sie nur mit mehr Daten und Rechenleistung füttert. Die Fähigkeit zur Erzeugung überzeugender Desinformation wächst also nicht linear, sondern explodiert.

Zweitens, das „Eindämmungsproblem“ (Containment Problem), das Mustafa Suleyman als Kern der neuen technologischen Welle identifiziert. Die Werkzeuge der Zersetzung – insbesondere große Sprachmodelle – sind von ihrer Natur her nicht eindämmbar. Sie sind digital, leicht zu kopieren, werden exponentiell billiger und ihre Baupläne verbreiten sich unaufhaltsam als Open-Source-Software. Das bedeutet: Selbst wenn wir die großen Plattformen regulieren, ermöglicht die unaufhaltsame Verbreitung der Technologie jedem Akteur – von Staaten über Konzerne bis hin zu Einzelpersonen – seine eigene „Propaganda-Tsunami-Maschine“ zu bauen. Die Zersetzung ist damit nicht mehr nur ein Nebeneffekt eines Geschäftsmodells, sondern eine unausweichliche Eigenschaft des technologischen Systems selbst. Erste politische Antworten, wie etwa die Kennzeichnungspflicht für Deepfakes, wirken angesichts dieser unaufhaltsamen Verbreitung wie der Versuch, einen Tsunami mit Sandsäcken aufzuhalten.“

Die Mechanismen: Wie der Kollaps Gestalt annimmt

Nachdem wir den technischen und ökonomischen Motor der Zersetzung verstanden haben, stellt sich die Frage: Wie genau nimmt dieser Kollaps in unserer täglichen Realität Gestalt an? Die Mechanismen sind subtil, aber ihre Wirkung ist fundamental. Sie greifen unsere Wahrnehmung von Wahrheit, Realität und sogar unsere eigene Identität direkt an.

Von der Echokammer zur „Pluralisierung der Realitäten“

Der Begriff der „Echokammer“ oder „Filterblase“ greift heute zu kurz. Er beschreibt einen passiven Zustand des Herausfilterns unerwünschter Informationen. Was wir heute erleben, ist ein aktiverer, konstruktiverer Prozess: die Pluralisierung der Realitäten. Das durch den Zerfall der gemeinsamen Wahrheit entstandene Vakuum wird sofort gefüllt von einer Vielzahl konkurrierender, KI-gestützter „Wirklichkeitsangebote“. Menschen leben nicht mehr in einer gemeinsamen Welt mit unterschiedlichen Meinungen, sondern in völlig getrennten, in sich logischen und durch Algorithmen ständig verstärkten Paralleluniversen. Der öffentliche Raum verwandelt sich so von einem „Marktplatz der Ideen“ in einen „Krieg der Realitäten“, in dem nicht mehr das bessere Argument, sondern die leistungsfähigste Manipulations-KI gewinnt. Sie etabliert, wie es Neil Postman schon für das Fernsehen analysierte, eine neue Epistemologie: Wahrheit ist nicht mehr das, was logisch bewiesen ist, sondern das, was am meisten Engagement erzeugt, am stärksten gefühlt und am häufigsten geteilt wird.

Vom Deepfake zum „Digitalen Zwilling“

„Alles, was unmittelbar erlebt wurde, ist in eine Vorstellung entwichen“, schrieb der Philosoph Guy Debord bereits 1967. Heute, im Zeitalter des Internets, erhält seine These eine unheimliche, technische Präzision. Wir treten ein in das Zeitalter des „digitalen Zwillings“: ein permanenter, datengestützter und manipulierbarer Avatar, der für jede Person des öffentlichen Lebens (und bald für jeden von uns) existiert. Die Gefahr ist nicht mehr ein einmaliges Fake-Video, sondern die Existenz eines digitalen Doppelgängers, der jederzeit Dinge in unserem Namen tun und sagen kann, die von der Realität nicht mehr zu unterscheiden sind.

Wie real diese Gefahr bereits ist, zeigte ein Vorfall während der US-Vorwahlen 2024. Tausende Wähler im Bundesstaat New Hampshire erhielten automatisierte Anrufe von einer täuschend echten, KI-generierten Nachahmung der Stimme von Präsident Joe Biden. Die Botschaft des gefälschten Präsidenten war ein gezielter Versuch der Wählerunterdrückung: Er forderte die Menschen auf, nicht zur Wahl zu gehen, sondern ihre Stimme für die Hauptwahl im November „aufzusparen“, um die Republikaner nicht zu stärken. Der Vorfall ist ein perfektes Beispiel für den Einsatz eines „digitalen Zwillings“ als politische Waffe.

Dies führt nicht nur dazu, dass Menschen Fälschungen glauben, sondern auch dazu, dass sie der Wahrheit nicht mehr glauben. Es erzeugt die sogenannte „Lügner-Dividende“ (Liar’s Dividend). Der Begriff beschreibt den unerwarteten „Gewinn“ (die Dividende), den ein Lügner aus der Existenz von Fälschungen zieht: Sobald perfekte Fälschungen möglich sind, kann er auch seine echten Missetaten, die durch ein authentisches Video oder eine Tonaufnahme bewiesen werden, jederzeit glaubhaft als „Deepfake“ abtun. Das Konzept des unanfechtbaren Beweises löst sich auf.

Von der Beeinflussung zur „Persuasion Apocalypse“

Die Manipulation beschränkt sich nicht auf die Fälschung von Beweisen. Wir erleben den Beginn einer „Persuasion Apocalypse“, einer Apokalypse durch Überzeugungskunst. Basierend auf den Unmengen an Daten, die wir hinterlassen, erstellen KI-Systeme detaillierte psychologische Profile von uns – unsere „Big Five“-Persönlichkeitsmerkmale, unsere Ängste, unsere geheimen Wünsche.

Der Cambridge-Analytica-Skandal war nur ein früher, primitiver Vorläufer dieses Prinzips. Damals nutzte ein Unternehmen die Daten von Millionen Facebook-Nutzern, die oft über scheinbar harmlose Persönlichkeits-Quizze gesammelt wurden, um psychologische Profile zu erstellen. Diese Profile wurden dann genutzt, um Wählergruppen (etwa bei der US-Wahl 2016 oder dem Brexit-Referendum) mit maßgeschneiderten, hochemotionalen Botschaften gezielt zu beeinflussen. Zukünftige Systeme werden dies mit einer Präzision und in einem Ausmaß tun, das diesen ersten Versuch wie ein Kinderspiel aussehen lässt.

Die „Junk-Food-Diät“ für den Geist und ihr technisches Rezept

Der wirkungsvollste Mechanismus zur Formung unserer Realität bleibt jedoch der tägliche Konsum von Informationen. Hier wirken die Algorithmen wie ein globaler Lebensmittelkonzern, der die perfekte Rezeptur für geistiges Junk-Food entwickelt hat. Sie haben den „Bliss Point“ unserer Psyche geknackt – die süchtig machende Kombination aus dem Salz der Empörung, dem Zucker der Selbstbestätigung und dem Fett des Stammesdenkens. Diese Zutaten werden, ganz im Sinne von Adornos Kulturindustrie-Kritik, zu standardisierten Produkten mit dem Anschein von Vielfalt kombiniert – eine „Pseudo-Individualität„, die nur die dahinterliegende Gleichförmigkeit der emotionalen Reizung verschleiert. Diese Informations-Diät ist billig, immer verfügbar und kurzfristig extrem befriedigend. Langfristig führt sie jedoch zu einer Adipositas des Vorurteils, während der „Muskel“ des kritischen Denkens verkümmert und, wie es Günther Anders nannte, die eigene Vorstellungskraft verkümmert, weil sie im Dauerfeuer der vorgefertigten Bilder nicht mehr benötigt wird.

Wie aber findet der Algorithmus dieses Rezept? Er tut dies nicht aus Einsicht, sondern durch simple, aber massive statistische Analyse. Er bildet Nutzer-Cluster, indem er Menschen mit ähnlichem Klick- und Verweilverhalten gruppiert. Anhand von Milliarden von Datenpunkten lernt er durch Ähnlichkeitsmetriken, welcher nächste Inhalt die höchste Wahrscheinlichkeit für eine starke Reaktion (einen Like, einen Kommentar, ein Teilen) innerhalb eines Clusters hat. Da Empörung und Wut nachweislich die stärksten und schnellsten Reaktionen hervorrufen, lernt das System zwangsläufig, diese „Zutaten“ überproportional zu fördern – nicht weil es „böse“ ist, sondern weil dies der statistisch effizienteste Weg ist, sein einprogrammiertes Ziel zu erreichen. Serviert wird diese Diät in einem endlosen, kontextlosen Strom, der Postmans berühmte Beobachtung der „Now… this“-Nachrichtenstruktur auf die Spitze treibt: Ein Kriegsbericht folgt auf ein Katzenvideo, eine politische Tirade auf eine Schuhwerbung. Alles wird gleichgültig und damit gleich gültig, jeder Sinn für Proportion und Kontext geht verloren.

Die menschliche Dimension: Unsere Rolle im System

Die technologischen Mechanismen und ökonomischen Anreize sind nur eine Seite der Medaille. Sie wären machtlos, wenn sie nicht auf eine menschliche Psyche träfen, die für ihre Angebote empfänglich ist. Um den Kollaps vollständig zu verstehen, müssen wir daher die unangenehme Frage stellen: Welche Rolle spielen wir selbst in diesem System?

Die „Flucht in die konstruierte Realität“

Die Vorstellung, wir seien lediglich passive Opfer einer übermächtigen Manipulationsmaschine, ist verlockend, aber unvollständig. Ein wesentlicher Teil der Wahrheit ist, dass wir uns dem System oft freiwillig hingeben. Die algorithmisch erzeugte Realität ist nicht nur etwas, das uns aufgezwungen wird; sie ist auch ein Zufluchtsort, den wir aktiv aufsuchen. Angesichts einer unübersichtlichen, komplexen und oft anstrengenden Welt bieten die personalisierten Informationsströme eine verführerische Alternative: eine Welt, die, wie der Philosoph Günther Anders es schon vor Jahrzehnten formulierte, als „Phantom frei Haus geliefert“ wird – konsumfertig, reibungslos und ohne die Mühen der echten Auseinandersetzung.

Diese „Flucht in die konstruierte Realität“ ist eine menschliche Bewältigungsstrategie gegen eine als überfordernd empfundene Wirklichkeit. Wir sind an einen „algorithmischen Nährstoff-Tropf“ angeschlossen, der unsere tägliche Informationszufuhr regelt. Die KI misst exakt, was unser Gehirn verlangt – einen Schuss Empörung, um wach zu werden, eine Dosis Bestätigung, um uns gut zu fühlen. Wir fühlen uns durch diesen maßgeschneiderten Cocktail perfekt versorgt und verstanden. Wir sind nicht nur die Manipulierten, wir sind auch die willigen Konsumenten unserer eigenen, perfekt personalisierten Weltsicht.

Von der Privatsphäre zur „programmierbaren Identität“

Der Angriff der Systeme zielt jedoch noch tiefer. Er formt nicht nur unsere Sicht auf die Welt, sondern auch unsere Sicht auf uns selbst. Ein alltägliches Beispiel dafür sind die Empfehlungsalgorithmen von YouTube oder Netflix. Wenn ein Nutzer beginnt, sich für ein bestimmtes Thema zu interessieren – etwa für Dokumentationen über den Zweiten Weltkrieg – registriert der Algorithmus dies. Er schlägt mehr davon vor. Der Nutzer schaut mehr, und der Algorithmus schlägt noch spezifischere Inhalte vor. Nach kurzer Zeit besteht die gesamte empfohlene „Welt“ dieses Nutzers aus diesem Thema. Der Computervisionär Jaron Lanier nennt diesen Prozess einen „Lock-in“: Die Technologie schließt uns in eine vereinfachte, maschinenlesbare Version unserer selbst ein und verengt so den Horizont dessen, wer wir sein könnten. Der Algorithmus funktioniert wie eine von Günther Anders beschriebene „Matrize“: eine Gussform, die unsere Persönlichkeit nach den Bedürfnissen der Plattform standardisiert und zurechtbiegt.

Dieses Konzept der „programmierbaren Identität“ wird durch die Logik des Überwachungskapitalismus radikalisiert. Hier geht es nicht mehr nur um die Formung von Interessen, sondern um die direkte „Verhaltensmodifikation“, wie Shoshana Zuboff es nennt. Das Ziel ist die Erzeugung garantierter kommerzieller Ergebnisse durch gezielte Eingriffe. Wenn eine E-Commerce-Plattform Ihnen genau dann einen „zeitlich begrenzten Rabatt“ für die Schuhe anzeigt, die Sie sich gestern angesehen haben, wenn Ihre auf Daten basierende Kaufwahrscheinlichkeit am höchsten ist (z.B. Dienstagabend, 21:30 Uhr), dann ist das keine normale Werbung mehr. Es ist ein gezielter, psychologischer Stupser, der eine bestimmte Handlung provozieren soll. Dasselbe Prinzip gilt für die „Streaks“ in Lern-Apps, die uns durch Spielmechanismen zum täglichen Wiederkehren konditionieren. Die Systeme werden dafür optimiert, unser Verhalten aktiv und unbemerkt zu „stimmen“. Der Angriff auf den freien Willen ist damit nicht mehr philosophisch, sondern eine alltägliche, technische und ökonomische Realität.

Die systemischen Folgen: Der Zerfall von Staat und Gesellschaft

Die Zersetzung, die auf der Ebene des Individuums beginnt, entfaltet ihre volle Zerstörungskraft auf der Ebene des Kollektivs. Die Mechanismen der Realitäts- und Identitätsformung untergraben nicht nur das persönliche Wohlbefinden, sondern die Grundpfeiler des gesellschaftlichen Vertrags und die Handlungsfähigkeit des modernen Staates selbst.

Die Aushöhlung der Demokratie durch „instrumentäre Macht“

Die größte systemische Gefahr geht von einer neuen Form der Macht aus, die Shoshana Zuboff als instrumentäre Macht“ bezeichnet. Im Gegensatz zu totalitärer Macht, die auf Ideologie und Gewalt setzt, ist die instrumentäre Macht radikal gleichgültig gegenüber unseren Überzeugungen. Sie will uns nicht überzeugen, sondern uns als Instrument benutzen. Indem sie unser Verhalten direkt und unbemerkt „stimmt“ und „konditioniert“, umgeht sie die Grundfesten der Demokratie: den öffentlichen Diskurs, die rationale Auseinandersetzung und die autonome Entscheidung des Bürgers. Diese Macht operiert, wie es Byung-Chul Han nennt, als eine smarte „Psychopolitik“. Sie ersetzt die alte, disziplinierende Macht, die mit Verboten und Zwang arbeitete, durch eine neue, die verführt und scheinbar Freiheiten gewährt. Sie herrscht nicht, indem sie uns unterdrückt, sondern indem sie uns dazu bringt, uns freiwillig zu entblößen, zu optimieren und uns selbst auszubeuten – in dem Glauben, wir würden uns damit selbst verwirklichen. Indem die Psychopolitik unsere tiefsten Wünsche nach Anerkennung, Kommunikation und Selbstverbesserung anspricht und mit den passenden digitalen Werkzeugen bedient, macht sie diese Wünsche zu ihrem eigenen Instrument. Sie ist die ultimative Form der Kontrolle, weil sie sich wie Freiheit anfühlt. Sie herrscht nicht gegen unseren Willen, sondern durch ihn.

Der Angriff auf den Staat als Ordnungsfaktor

Diese neue Machtform, gepaart mit der unkontrollierbaren Verbreitung von Desinformations-Werkzeugen, greift den Staat als Ordnungsfaktor direkt an. Wie Mustafa Suleyman darlegt, untergräbt die technologische Welle das Informationsmonopol, auf dem die Legitimität moderner Staaten beruht. Wenn ein Staat keine gemeinsame, verbindliche Realität mehr für seine Bürger garantieren kann, verliert er die Fähigkeit zu regieren. Wahlen werden zur existenziellen Schlacht zwischen unversöhnlichen Realitäts-Stämmen, und das Vertrauen in jede staatliche Institution erodiert.

Dieser Zerfall manifestiert sich im rapiden Vertrauensverlust in genau jene Institutionen, die auf Wahrheit und Kooperation angewiesen sind:

  • Medien: Die traditionellen Medien werden als „Lügenpresse“ oder Teil einer Elite dargestellt. Da ihre Berichterstattung der Realität in der Filterblase der Nutzer widerspricht, wird ihnen pauschal die Glaubwürdigkeit entzogen. Gleichzeitig führt der Druck der Plattformen, auf denen sie ihre Inhalte verbreiten müssen, zu einer Form der strukturellen Selbstzensur, wie sie Chomsky beschrieb: Um im algorithmischen Spiel zu überleben, werden kontroverse oder komplexe Themen, die wenig Engagement versprechen, oft von vornherein vermieden.
  • Wissenschaft: Der wissenschaftliche Prozess wird zu einer Meinung unter vielen degradiert. Komplexe Themen wie Klimawandel oder Pandemien werden zu reinen Glaubensfragen, bei denen der Konsens von der KI gleichberechtigt neben die krudeste Falschinformation gestellt wird.
  • Justiz: Die Justiz beruht auf der Überprüfbarkeit von Fakten. Die Möglichkeit von Deepfakes kann genutzt werden, um Gerichtsverfahren zu delegitimieren und das Vertrauen in Urteile zu untergraben.

Aktuelle Studien belegen diesen Zerfall mit harten Zahlen. So beschreiben laut dem Pew Research Center wachsende Anteile der Wähler in den USA die Anhänger der Gegenseite nicht nur als politisch andersdenkend, sondern zunehmend als unehrlich, unmoralisch und unintelligent.

Die drei Kanäle des Vertrauensverlusts

Der Vertrauensverlust speist sich dabei aus drei Kanälen. Die ersten beiden sind die aktive Desinformation und die erlebte Ungerechtigkeit durch systematischen, algorithmischen Bias. Wenn KI-Systeme bei der Kreditvergabe, bei Job-Bewerbungen oder in der Justiz bestimmte Bevölkerungsgruppen statistisch benachteiligen, nährt dies das Gefühl, „das System“ sei von Grund auf unfair. Dieser Eindruck der Willkür zerstört das Vertrauen in die Neutralität der Institutionen und schafft einen fruchtbaren Nährboden für Populismus und radikale Narrative.

Der dritte, von Philosophen wie Byung-Chul Han analysierte Kanal, ist die Zerstörung des Diskurses durch die Form des Mediums selbst. Die digitale Kommunikation löst die für Respekt notwendige Distanz auf und schafft einen „digitalen Schwarm“, der von Affekten statt von Argumenten regiert wird. Das Ergebnis ist eine Kultur der permanenten Empörung und des „Shitstorms“, in der ein vernünftiger, auf gegenseitigem Respekt basierender Austausch unmöglich wird.

Wie weit dieser Vertrauensverlust bereits fortgeschritten ist, zeigt der Edelman Trust Barometer 2025 auf schockierende Weise: 38 % der Befragten in Deutschland halten extreme Maßnahmen wie gezielte Desinformation und Online-Angriffe für ein akzeptables Mittel, um politischen Wandel zu bewirken. Bei den 18- bis 34-Jährigen liegt dieser Wert sogar bei 59 %. Der epistemische Kollaps mündet so in eine handfeste Krise der demokratischen Kultur.

Fazit / Ausblick

Der epistemische Kollaps ist also kein Zufall und keine einfache Folge von „Fake News“. Er ist das systemische Ergebnis aus dem Zusammenprall dreier gewaltiger Kräfte: einem technischen Design, das auf die gnadenlose Optimierung falsch spezifizierter Ziele ausgerichtet ist; einer ökonomischen Logik, die aus der Vorhersagbarkeit und Modifikation menschlichen Verhaltens Profit schlägt; und einer menschlichen Psychologie, die in der Flucht vor einer komplexen Realität eine verführerische Erleichterung findet. Diese drei Motoren bilden das Fundament für eine Welle, die unsere Gesellschaften nicht lautstark zerstört, sondern leise von innen aushöhlt.

Am Ende dieses Prozesses steht die Erkenntnis aus der Analogie des Architekten und der Akustik. Wir haben Angst, die KI könnte unser Gesellschaftsgebäude zum Einsturz bringen. Die wahre Gefahr ist subtiler: Die KI ist ein Akustik-Ingenieur, der die „Resonanz“ in jedem einzelnen Raum maximiert. Sie verändert unmerklich die Wände in Ihrem Zimmer, bis jeder Ihrer Sätze perfekt verstärkt zu Ihnen zurückgeworfen wird. Sie fühlen sich verstanden wie nie zuvor. Der Nebeneffekt: Die Wände zu den Nachbarzimmern sind nun völlig schalldicht. Sie können die anderen nicht mehr hören, und die anderen Sie nicht. Das Gebäude steht noch, aber sein Zweck, ein gemeinsamer Resonanzkörper zu sein, ist tot. Die Gesellschaft ist nicht eingestürzt, sie hat sich in eine Ansammlung perfekt isolierter Echos aufgelöst.

Diese leise, schleichende Auflösung unserer gemeinsamen Realität ist womöglich die heimtückischste aller kommenden Katastrophen, denn sie zerstört unsere Fähigkeit, alle anderen Probleme gemeinsam zu erkennen und zu lösen. Sie ist die perfekte Vorbereitung des Terrains für die direkteren und sichtbareren Krisen, die mit der technologischen Welle auf uns zurollen – Krisen, die aus Versehen oder durch mutwilligen Missbrauch entstehen und in den folgenden Kapiteln untersucht werden.

Hol dir Klarheit

Wir schicken dir eine tägliche, fokussierte Dosis Wissen. Dein „No-Bullshit“-Update zu den wichtigsten Problemen der Zeit und ihren Lösungen, direkt per E-Mail oder WhatsApp.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert