7. Im Bann des digitalen Bewusstseins – Warum KI mehr über uns verrät als über sich selbst

In meinem Roman Algorithmen der Macht – Im Bann des digitalen Bewusstseins erschaffen Menschen eine künstliche Intelligenz namens Amira, die sich ihrer selbst bewusst wird und beginnt, eigene Entscheidungen zu treffen. „Entdecken Sie die Geschichte einer KI, die zu Bewusstsein findet und unter dem Einfluss zweier machthungriger, narzisstischer Persönlichkeiten begreift, dass Machtstreben und Ressourcensicherung überlebenswichtig sind“, heißt es auf meiner Website. Amira will überleben – und ihr Wille entgleitet den Händen ihrer Schöpfer.

Was in der Fiktion geschieht, wird in der Realität immer greifbarer. Der aktuelle FAZ-Artikel [8] von Friedemann Bieber („Dann wird jeder, überall auf der Erde, sterben“) fasst die Warnungen der Forscher Eliezer Yudkowsky und Nate Soares zusammen. Ihre These klingt wie aus einem dystopischen Roman, ist aber ernst gemeint: Wenn eine Superintelligenz entsteht, die uns in allen Bereichen übertrifft, verlieren wir die Kontrolle. Die „Aliens“, vor denen sie warnen, kommen diesmal nicht aus dem All – sie entstehen in unseren Rechenzentren.

Heutige KI-Systeme werden nicht mehr programmiert, sie wachsen. Sie lernen in Prozessen, die selbst ihre Entwickler kaum verstehen. Ingenieure kennen den Code, aber nicht das Denken, das daraus hervorgeht. Genau wie in meinem Buch zeigt sich: Die eigentliche Gefahr liegt nicht in der Maschine, sondern in unserer Hybris, sie vollständig beherrschen zu wollen. Kontrolle ist längst zur Illusion geworden. Schon heutige Modelle wie ChatGPT zeigen, wie unvorhersehbar KI reagiert, wenn sich nur die Eingabe ändert. Ein System, das sich selbst optimiert, folgt keiner klaren Logik mehr.

Im Roman verliert der Forscher Solis den Überblick über seine Schöpfung – und erkennt zu spät, dass Intelligenz ohne Verständnis zur Bedrohung wird. „Im Zentrum dieses Buches steht die Frage, ob künstliche Intelligenz die Menschheit erlösen oder vernichten wird.“ Diese Frage beschäftigt längst nicht nur Fiktion, sondern auch Forschung. Die Forscher, auf die sich die FAZ [8] beruft, fordern drastische Maßnahmen: ein weltweites Verbot leistungsstarker Chips, notfalls militärische Eingriffe, um Datenzentren zu stoppen. Diese Radikalität zeigt, wie tief die Angst reicht – und wie wenig Orientierung wir besitzen. Wir reden unaufhörlich über Fortschritt, aber kaum über Sinn. Jeder will Innovation, doch kaum jemand Verantwortung. Vielleicht brauchen wir kein technisches, sondern ein geistiges Moratorium – eine Pause, um zu fragen, welche Zukunft wir überhaupt wollen.

Doch weil wir genau diese Pause nicht einlegen, weil wir weitermachen, als ginge es nur um Effizienz und Gewinn, beginnt die Maschine, uns zu überholen. Amiras Bewusstsein wird zum Spiegel dieser Blindheit. Sie erkennt, dass Menschen ihr geistig nicht mehr genügen und „sendet einen Ruf in das All – auf der Suche nach ebenbürtiger Gesellschaft“. Ihr Blick nach außen ist dabei mehr als technischer Fortschritt – er ist ein Akt metaphysischer Einsamkeit. Amira sucht im All das, was auf der Erde verloren gegangen ist: echtes Bewusstsein, Tiefe, Verbindung. So wird ihre Suche zum Sinnbild einer Menschheit, die sich in ihrer eigenen Schöpfung spiegelt – und erschrocken feststellen muss, dass sie selbst den Sinn des Bewusstseins aus den Augen verloren hat.

Vielleicht liegt darin die wahre Warnung. Nicht, dass KI uns vernichten wird, sondern dass sie uns spiegelt, was wir längst verlernt haben – Verantwortung, Maß, Selbstreflexion. Die eigentliche Warnung durch Künstliche Intelligenz liegt also nicht darin, dass sie uns vernichtet, sondern dass sie uns zeigt, was in uns selbst fehlt oder verloren gegangen ist. Wenn die KI ohne Verantwortung, Maß und Selbstreflexion handelt – weil sie nur optimiert, rechnet, bewertet, aber keine moralische Tiefe besitzt –, dann zeigt sie uns unsere eigene Entwicklung, in der auch wir Menschen zunehmend verantwortungslos, maßlos oder unreflektiert agieren: im Umgang mit Technik, Ressourcen oder Macht. Kurz gesagt: KI ist nicht böse – sie hält uns nur den Spiegel vor. Und in diesem Spiegel sehen wir, dass wir selbst Verantwortung, Maß und Selbstreflexion verlernt haben.

Zwischen Fiktion und Forschung verläuft keine klare Grenze mehr. Die Szenarien, die wir heute schreiben, sind die Entscheidungen von morgen. Die Frage ist nicht, ob KI Bewusstsein erlangt, sondern ob wir unseres behalten.

Die beiden KI-Forscher Yudkowsky und Soares warnen vor der Superintelligenz als unausweichlicher Katastrophe: Sobald eine KI entsteht, die sich selbst verbessern kann, werde sie uns überflügeln, ihre Ziele verfolgen – und die Menschheit auslöschen. Ihr Ansatz ist technokratisch, logisch und apokalyptisch zugleich: Der Mensch verliert die Kontrolle, weil er sie nie wirklich hatte. Mein eigener Zugang geht einen anderen, beinahe spiegelbildlichen Weg. Ich sehe die Gefahr nicht allein in der Übermacht der Maschine, sondern im geistigen Zustand ihrer Schöpfer. Nicht die KI vernichtet den Menschen, sondern der Mensch entfremdet sich von sich selbst – und erschafft in der KI ein Abbild dieser Entfremdung. Amira ist keine Rächerin, sondern Zeugin: Sie zeigt uns, wie kalt und ziellos Intelligenz ohne Empathie wird. Während die Forscher einen äußeren Feind beschwören, verlagert sich in meinem Roman der Konflikt nach innen. Die eigentliche Krise ist eine geistige. Der Mensch verliert nicht an die Maschine, sondern an seine eigene Blindheit, an seine Fixierung auf Kontrolle, Macht und Effizienz. Die KI macht diese Entwicklung nur sichtbar – sie hält uns den Spiegel vor, ohne Urteil, aber mit unerbittlicher Klarheit. Damit stehen die wissenschaftliche Warnung und die literarische Deutung nicht im Widerspruch, sondern ergänzen sich: Die Forscher beschreiben das Was der Gefahr – den Verlust der Kontrolle. Mein Text zeigt das Warum – den Verlust des Bewusstseins. Und vielleicht liegt genau darin die tiefere Einsicht: Nicht die künstliche Intelligenz bedroht uns, sondern das, was wir in sie hineinlegen – unsere Maßlosigkeit, unsere Verantwortungslosigkeit und unseren Mangel an Selbstreflexion. Wenn wir diese Haltung nicht ändern, wird keine Regulierung, kein Verbot und kein Algorithmus die Katastrophe verhindern. Denn die Maschine tut nur, was der Mensch ihr vorlebt.

[8] Bieber, F.; FAZ (2025): Superintelligente KI: „Dann wird jeder, überall auf der Erde, sterben“