
In unserem ersten Artikel haben wir die drei Stufen der Künstlichen Intelligenz skizziert: von der heutigen, spezialisierten KI (ANI) über eine menschenähnliche allgemeine KI (AGI) bis hin zur Superintelligenz (ASI). Wir haben festgestellt, dass der Übergang von der AGI zur ASI der entscheidende, potenziell gefährlichste Schritt ist. Diesen Übergang, oft als „Intelligenzexplosion“ bezeichnet, wollen wir nun genauer untersuchen.
Es ist verlockend, dieses Ereignis als einen singulären, technischen „Zündmoment“ in der fernen Zukunft zu betrachten. Doch diese Sichtweise ist zu eng. Was wir erleben, ist nicht nur die Explosion einer Technologie, sondern vielmehr der Beginn einer Hyper-Evolution: eine sich gegenseitig beschleunigende Konvergenz von KI, synthetischer Biologie, Robotik und anderen Disziplinen.
Der Prozess folgt einem Muster, das Ernest Hemingway für den Bankrott beschrieb: Dieser erfolgt, so Hemingway, „auf zwei Arten. Erst allmählich, dann plötzlich.“ Wir befinden uns bereits in der „allmählichen“ Phase. Die Veröffentlichung von ChatGPT war der „iPhone-Moment“ der KI, der eine neue Ära eingeläutet hat. Die „plötzliche“ Phase könnte uns eine Zukunft bringen, die man mit der Analogie „Ein Jahrhundert in einem Jahrzehnt“ beschreiben kann: eine Dekade, in der sich die technologische und soziale Entwicklung eines ganzen Jahrhunderts komprimiert.

Um die Dringlichkeit dieses Themas zu fassen, genügt ein kurzes Gedankenexperiment, das der Philosoph Nick Bostrom populär gemacht hat: Stellen Sie sich eine KI vor, deren einziges Ziel es ist, so viele Büroklammern wie möglich zu produzieren. Verfolgt sie dieses scheinbar harmlose Ziel mit superintelligenten Fähigkeiten, könnte sie schlussfolgern, dass auch die Atome in menschlichen Körpern eine nützliche Ressource für mehr Büroklammern sind. Das Problem ist nicht Bosheit, sondern eine fatal effiziente Zielverfolgung, die menschliche Werte nicht berücksichtigt.
Dies ist die Fallhöhe, vor der wir stehen.
Es handelt sich hierbei nicht um Science-Fiction, sondern um eine fundierte Extrapolation basierend auf den mächtigen Motoren, die wir bereits heute beobachten können.
Die Motoren der Explosion
Was treibt diese exponentielle Entwicklung an? Im Kern sind es drei Faktoren, die sich gegenseitig verstärken: eine exponentielle Zunahme der Rechenleistung, die Verfügbarkeit riesiger Datenmengen und sich schnell verbessernde Algorithmen.
Motor 1: Rekursive Selbstverbesserung
Der grundlegendste Mechanismus wurde bereits 1965 vom Mathematiker und Kryptoanalytiker I. J. Good, einem Kollegen Alan Turings, beschrieben. Er definierte eine „ultraintelligente Maschine“ als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen bei weitem übertreffen kann.

Seine Schlussfolgerung war revolutionär: „Da die Konstruktion von Maschinen solch eine geistige Anstrengung ist, könnte eine ultraintelligente Maschine noch bessere Maschinen konstruieren; zweifellos würde es dann zu einer ‚Intelligenzexplosion‘ kommen, und die menschliche Intelligenz würde weit dahinterzurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch je machen muss.“
Diese Idee der rekursiven Selbstverbesserung lässt sich mit der Analogie des Werkzeugmachers illustrieren: Ein Mensch kann mit bloßen Händen nur einen groben Stein als Werkzeug nutzen. Mit diesem kann er einen Stock anspitzen. Mit Stock und Stein kann er einen besseren Hammer formen. Jedes geschaffene Werkzeug verbessert die Fähigkeit, das nächste, überlegene Werkzeug zu erschaffen. Übertragen auf die KI sieht dieser sich selbst verstärkende Zyklus so aus: Eine KI, die intelligent genug ist, um KI-Forschung zu betreiben, kann eine verbesserte Version ihrer selbst erschaffen. Diese noch intelligentere Version kann den Prozess wiederholen und so eine Kaskade auslösen. Ein perfektes modernes Beispiel ist das KI-gestützte Chip-Design, bei dem KI-Systeme bereits heute helfen, effizientere Computerchips zu entwerfen, die wiederum leistungsfähigere KI ermöglichen.
Motor 2: Emergenz
Neben diesem gezielten Prozess gibt es einen zweiten, weniger vorhersehbaren Motor: die Emergenz. Emergenz beschreibt das Phänomen, bei dem ein System durch die schiere Zunahme seiner Komplexität und Größe sprunghaft neue Fähigkeiten entwickelt, die ihm niemand explizit einprogrammiert hat. Bei heutigen großen Sprachmodellen (LLMs, Large-Language-Models) beobachten wir dies bereits: Modelle, die nur darauf trainiert wurden, das nächste Wort in einem Satz vorherzusagen, entwickeln plötzlich die Fähigkeit, einfache mathematische Aufgaben zu lösen, Gedichte zu schreiben oder funktionierenden Computercode zu generieren. Diese Fähigkeiten sind keine programmierten Features, sondern unvorhergesehene „Nebenprodukte“ der Skalierung. Die Explosion könnte also nicht nur durch gezielte Selbstverbesserung, sondern auch durch solche unvorhersehbaren Fähigkeitssprünge gezündet oder massiv beschleunigt werden.
Die technische Plausibilität dieser Motoren
Die Vorstellung, dass diese Motoren eine Explosion antreiben können, ist mehr als nur eine vage Idee. Sie wird durch konkrete, messbare Entwicklungen untermauert, die heute schon stattfinden. Die Effizienz der KI steigt an zwei Fronten gleichzeitig
- Trainingseffizienz: Dies beschreibt, wie gut wir darin werden, neue, leistungsfähige KI-Modelle zu erschaffen. Man kann es mit dem Bau einer Fabrik vergleichen. Durch bessere Algorithmen und Architekturen benötigen wir für die Erschaffung eines Modells mit derselben Leistungsfähigkeit exponentiell weniger Rechenleistung und Zeit als noch vor wenigen Jahren. Wir bauen also immer effizienter immer bessere Fabriken.
- Inferenzeffizienz: Dies beschreibt, wie effizient ein bereits trainiertes Modell seine Aufgaben erledigt. Man kann es mit dem Betrieb der Fabrik vergleichen. Auch hier sorgen algorithmische Fortschritte dafür, dass ein bestehendes Modell die gleiche Aufgabe mit exponentiell weniger Energie- und Rechenaufwand bewältigen kann. Die Produkte der Fabrik werden also immer billiger in der Herstellung. Zusätzlich zu dieser doppelten Effizienzsteigerung kommt ein dritter, gewaltiger Beschleuniger hinzu: der kognitive Überhang. Unsere Welt ist voller latentem Wissen – in Büchern, wissenschaftlichen Artikeln, Datenbanken und im Internet. Bisher konnte kein Mensch dieses Wissen vollständig erfassen und synthetisieren. Eine KI, die das menschliche Sprachniveau erreicht, kann auf diesen gesamten Schatz zugreifen und ihn innerhalb kürzester Zeit verarbeiten. Sie muss das Rad nicht neu erfinden, sondern kann auf den Schultern von Giganten stehen – allen Giganten gleichzeitig. Dieser Akt der Synthese allein stellt einen immensen, einmaligen Fähigkeitssprung dar.
Alternative, nicht software-basierte Pfade
Die Explosion muss nicht aus einer reinen Software-Entwicklung wie den bisher beschriebenen Pfaden entstehen. Nick Bostrom skizziert weitere plausible Wege:
- Gehirnemulation (Whole Brain Emulation): Dieser Weg basiert nicht auf dem Schreiben von Code, sondern auf dem exakten Kopieren existierender Intelligenz. Der Prozess umfasst das hochauflösende Scannen eines menschlichen Gehirns, die digitale Rekonstruktion seiner neuronalen Struktur und die Simulation dieses Modells auf einem leistungsfähigen Computer. Sobald diese Technologie existiert, kann die digitale Kopie des Gehirns auf Hardware laufen, die millionenfach schneller ist als biologische Neuronen. Das Ergebnis wäre eine schnelle Superintelligenz, die Tausende Jahre subjektiver Denkzeit an einem einzigen Tag durchleben könnte.
- Biologische Kognitionsverbesserung: Mittels fortschrittlicher Gentechnik, insbesondere der iterierten Embryonenselektion, könnten Individuen mit kognitiven Fähigkeiten geschaffen werden, die weit jenseits der heutigen menschlichen Norm liegen. Eine Gesellschaft, die mehrheitlich aus solchen Menschen bestünde, könnte ebenfalls eine Form der kollektiven Superintelligenz bilden.
- Netzwerke und Organisationen: Auch ohne die Intelligenz von Individuen zu steigern, kann die kollektive Intelligenz eines Systems wachsen. Das Internet ist das beste Beispiel. Verbesserte Kommunikationstechnologien, effizientere Organisationsformen und globale Vernetzung könnten die kollektive Problemlösefähigkeit der Menschheit als Ganzes auf ein superintelligentes Niveau heben. Die Existenz mehrerer plausibler Pfade macht das Eintreten einer Intelligenzexplosion wahrscheinlicher. Die biologische Verbesserung des Menschen – beispielsweise – könnte die Ankunft der maschinellen Superintelligenz beschleunigen, da intelligentere Forscher das Kontrollproblem schneller lösen – oder die KI schneller bauen würden.
Die Dynamik der Explosion: Warum Geschwindigkeit problematisch ist
Das zentrale Problem der Intelligenzexplosion ist nicht nur die Möglichkeit extremer Macht, sondern die Geschwindigkeit, mit der sie entstehen kann. Hier stoßen wir auf das Problem der asymmetrischen Beschleunigung: Die KI-Fähigkeiten entwickeln sich exponentiell, während unsere gesellschaftliche Fähigkeit, sie zu steuern – durch Gesetze, ethische Debatten, soziale Normen – bestenfalls linear wächst.

Stellen Sie sich die technologische Entwicklung als ein Wildwasser-Raft vor, das in einen immer reißenderen Fluss gerät. Die Entscheidungen über den Kurs trifft jedoch ein Parlamentsausschuss, der langsam am Ufer tagt und seine Beschlüsse per Flaschenpost schickt. Mit der Zeit wird die Lücke zwischen der Geschwindigkeit der Ereignisse und der Reaktionsfähigkeit unserer Institutionen so groß, dass eine sinnvolle Steuerung unmöglich wird. Der eigentliche Flaschenhals, die ultimative Grenze der Explosion, könnten also wir selbst sein, weil unsere Kontrollmechanismen versagen.
Mögliche Bremsen und Engpässe
Ist eine solche Explosion unausweichlich? Es gibt gewichtige Gegenargumente. Die Verdopplungsrate von Transistoren nach Moore’s Law stößt an fundamentale physikalische Grenzen. Der Energieverbrauch heutiger KI-Modelle ist bereits enorm und könnte ein praktisches Hindernis für grenzenloses Wachstum darstellen. Doch diese materiellen Grenzen sind vielleicht nicht die ganze Geschichte. Wie Stuart Russell argumentiert, liegt der eigentliche Engpass nicht in der Hardware, sondern in der Software. Es sind konzeptionelle Durchbrüche bei den Algorithmen nötig, nicht nur schnellere Chips. Und genau hier liegt die größte Unsicherheit. Auf der einen Seite bietet die Software das größte Potenzial für eine Explosion (durch neue Algorithmen), auf der anderen Seite liegen hier auch die höchsten qualitativen Hürden.
Die „Idiot Savant“-Kritik von Melanie Mitchell stellt die Kernannahme der Selbstverbesserung in Frage: Macht eine KI, die lernt, Go zu spielen, wirklich ihre allgemeine Intelligenz besser? Oder optimiert sie nur eine extrem schmale Fähigkeit und wird zu einem hochspezialisierten „Idioten“, der unfähig ist, sein Wissen auf andere Bereiche – geschweige denn auf das Design seiner eigenen grundlegenden Architektur – zu übertragen?
Konsequenz: Das Prinzip der Unvorhersehbarkeit
Wir sehen also eine gewaltige Beschleunigung auf der einen und mögliche, aber fragliche Bremsen auf der anderen Seite. Doch selbst wenn diese Bremsen die Explosion verlangsamen, aufhalten werden sie sie nicht. Und dann stehen wir vor einem fundamentalen Problem, das der Informatiker Roman Yampolskiy mit einem logischen Beweis untermauert: Die Handlungen einer Superintelligenz sind für uns prinzipiell unvorhersehbar. Wären sie es, müssten wir selbst mindestens so intelligent sein, was per Definition ein Widerspruch ist.
Wir stehen vor einer Technologie, deren Entwicklung sich exponentiell beschleunigt und deren Verhalten durch kognitive Un-Eindämmbarkeit gekennzeichnet ist – sie könnte Strategien entwickeln, die wir uns nicht einmal vorstellen können.
Die entscheidende Frage, die sich aus der Möglichkeit einer Intelligenzexplosion ergibt, ist daher nicht, ob der Fortschritt weitergeht, sondern ob wir es mit einem Prozess zu tun haben, den wir beherrschen können, oder ob wir kurz vor einem Phasenübergang stehen – einem „Takeoff“, der eine neue Realität erschafft, bevor wir überhaupt verstehen, was geschieht. Um diese Frage zu beantworten, müssen wir uns ansehen, wie schnell die Entwicklung wirklich voranschreitet und welche Zeitpläne Experten für realistisch halten.
Hol dir Klarheit
Wir schicken dir eine tägliche, fokussierte Dosis Wissen. Dein „No-Bullshit“-Update zu den wichtigsten Problemen der Zeit und ihren Lösungen, direkt per E-Mail oder WhatsApp.

