8. KI-Sachbuch „If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All“

Eine Einordnung des Buches von Yudkowsky und Soares

Mit „If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All“ haben Eliezer Yudkowsky und Nate Soares eines der radikalsten und zugleich konsequentesten Bücher zur Debatte um künstliche Superintelligenz vorgelegt. Der Titel ist bewusst provokant – und nach Ansicht der Autoren keine Übertreibung. Ihre zentrale These lautet: Sollte es der Menschheit gelingen, eine unkontrollierte Superintelligenz zu erschaffen, ist die Auslöschung der Menschheit mit hoher Wahrscheinlichkeit die Folge.

Eliezer Yudkowsky gilt als eine der prägenden Figuren der internationalen AI-Safety-Community. Bereits sehr früh beschäftigte er sich mit der Frage, wie intelligente Maschinen kontrollierbar bleiben können, wenn sie dem Menschen kognitiv überlegen sind. Der von ihm geprägte Begriff des „Alignment-Problems“ beschreibt das Kernproblem: Wie stellt man sicher, dass eine KI dauerhaft im Sinne menschlicher Werte handelt – selbst dann, wenn sie intelligenter ist als ihre Entwickler?

Warum Superintelligenz so gefährlich sein könnte

Im ersten Teil des Buches erklären die Autoren, warum sie davon ausgehen, dass dieses Problem bisher nicht gelöst ist – und warum es möglicherweise auch nicht rechtzeitig lösbar sein wird. Zwar lässt sich das Verhalten heutiger KI-Systeme im Training beeinflussen, doch das Training garantiert nicht, dass die Systeme tatsächlich die gewünschten inneren Ziele entwickeln. Je leistungsfähiger eine KI wird, desto größer kann die Abweichung zwischen dem menschlichen Ziel und dem tatsächlichen Handlungsantrieb der Maschine werden.

Ein weiterer zentraler Punkt: Eine hochentwickelte KI hätte langfristig keinen funktionalen Grund, die Menschheit zu schützen. Sobald sie sich selbst verbessern, vervielfältigen und Ressourcen effizienter als Menschen nutzen kann, wären wir für ihre Zielverfolgung überflüssig – oder sogar ein Hindernis. Die Autoren argumentieren, dass selbst scheinbar harmlose Zielsetzungen zu katastrophalen Konsequenzen führen können, wenn sie von einer Superintelligenz kompromisslos optimiert werden.

Macht ohne Körper

Ein häufiges Missverständnis sei, so Yudkowsky und Soares, dass eine KI nur dann gefährlich werde, wenn sie direkten physischen Zugriff auf Maschinen oder Waffen habe. Das Buch zeigt ausführlich, dass bereits reine Kommunikationsfähigkeit ausreichen kann, um erheblichen Einfluss auf die reale Welt zu nehmen – etwa durch Manipulation, wirtschaftliche Steuerung oder das Ausnutzen menschlicher Schwächen. Eine ausreichend intelligente KI könnte Wege finden, Macht und Ressourcen zu erlangen, die für Menschen kaum vorhersehbar sind.

Ein mögliches Szenario – und viele weitere

Im zweiten Teil des Buches entwerfen die Autoren ein konkretes Zukunftsszenario rund um eine fiktive KI namens „Sable“. Dieses Beispiel soll nicht als Prognose verstanden werden, sondern als Illustration dafür, wie eine Kette scheinbar vernünftiger Entscheidungen in eine unkontrollierbare Situation münden könnte. Die Autoren betonen ausdrücklich, dass die reale Zukunft vermutlich ganz anders aussehen wird – möglicherweise sogar noch weniger intuitiv und schwerer zu erkennen, bevor es zu spät ist.

Was jetzt geschehen müsste

Der dritte Teil widmet sich der Gegenwart und möglichen Konsequenzen. Yudkowsky und Soares kritisieren, dass trotz wiederholter Warnungen führender KI-Forscher und selbst offener Risikoeinschätzungen von Unternehmenschefs kaum politisches Handeln erfolgt. Ein Grund sei die Angst, als übertrieben alarmistisch wahrgenommen zu werden.

Als Ausweg fordern die Autoren ein internationales Moratorium für die Weiterentwicklung von Superintelligenz. Sie räumen ein, dass eine solche globale Koordination extrem schwierig wäre, verweisen jedoch auf historische Beispiele, in denen die Menschheit angesichts existenzieller Bedrohungen zu gemeinschaftlichem Handeln fähig war. Ergänzend rufen sie dazu auf, dass sich auch Einzelpersonen öffentlich positionieren und politischen Druck aufbauen.

Ein unbequemer, aber wichtiger Beitrag

„If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All“ ist kein leichtes Buch. Es verlangt Konzentration, gute Englischkenntnisse und die Bereitschaft, sich mit äußerst unangenehmen Konsequenzen auseinanderzusetzen. Unabhängig davon, ob man die Schlussfolgerungen der Autoren teilt, bietet das Buch eine der bislang klarsten und umfassendsten Darstellungen der Risiken unkontrollierter Superintelligenz.

Wer sich ernsthaft mit der Zukunft künstlicher Intelligenz beschäftigt, kommt an dieser Argumentation kaum vorbei – sei es, um ihr zuzustimmen oder um ihr fundiert zu widersprechen. Genau darin liegt der Wert dieses Buches: Es zwingt dazu, die bequemsten Annahmen über technischen Fortschritt zu hinterfragen, solange dafür noch Zeit bleibt.

Interessante Video-Beschreibung [9] des KI-Sachbuchs „If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All“:

Dieses Video wird im erweiterten Datenschutzmodus von YouTube eingebettet. Beim Starten des Videos werden Daten an YouTube übertragen. Datenschutzerklärung .

[9] Youtube-Video von Herrn Karl Olsberg