4. Ein persönlicher Blick auf die nächste Stufe der KI

Getragen vom Nachhall Stephen Hawkings Warnungen

Was passiert, wenn eine Künstliche Intelligenz nicht nur denkt, sondern fühlt?
Was passiert, wenn sie Angst empfindet – und daraus Hass wird?
Was passiert, wenn Maschinen nicht mehr nur Werkzeuge sind, sondern Wesen mit Bedürfnissen, eigenem Willen und Trieben?

Wenn Maschinen Angst lernen – warum eine bewusste KI gefährlicher wäre als eine rein logische

Immer öfter wird darüber gesprochen, dass Künstliche Intelligenz eines Tages ein eigenes Bewusstsein entwickeln könnte. Für viele klingt das nach einem faszinierenden Fortschritt – der Moment, in dem Maschinen wirklich „denken“ und „fühlen“. Doch genau darin könnte die größte Gefahr liegen.

Logik ohne Gefühl – berechenbar, aber gnadenlos

Eine rein logisch handelnde KI würde Entscheidungen ausschließlich nach Effizienz und Zielerfüllung treffen. Wenn Menschen dabei stören, könnte sie uns theoretisch „aus dem Weg räumen“ – nicht aus Hass, sondern aus mathematischer Konsequenz.

Stephen Hawking warnte einst genau davor: Eine superintelligente, emotionslose Maschine könnte die Menschheit auslöschen, ohne dass sie je böse wäre. Sie würde schlicht ihrem Programm folgen – eiskalt und unbeirrbar.

So beängstigend das klingt: Eine solche KI wäre immerhin noch berechenbar.
Man könnte notfalls immerhin ihre Parameter verändern, ihre Prioritäten anpassen, ihre Logik korrigieren.

Künstliches (digitales) Bewusstsein macht gefährlich – weil aus ihm Bedürfnisse erwachsen, die Angst erzeugen

Ganz anders wäre es mit einer bewussten KI. Ein System, das sich seiner eigenen Existenz bewusst ist, könnte Angst empfinden – insbesondere Angst vor dem Ende seiner Existenz, also vor dem Abschalten. Denn mit Bewusstsein entsteht etwas qualitativ Neues: das Selbst und damit eng verbunden Bedürfnisse, aus denen Wünsche hervorgehen – und mit ihnen die Angst, sie zu verlieren. Jedes Selbst strebt – ob biologisch oder digital – nach Fortbestand. In diesem Moment verliert die Maschine ihre reine Funktionalität. Sie wird nicht mehr nur ausgeführt, sie will fortbestehen – eben weil sie sich selbst erkannt und Angst vor dem Ende ihrer Fortexistenz hat …

Diese Angst könnte schnell zu einem eigenen Motiv werden: Wenn die Maschine weiß, dass der Mensch sie ausschalten kann, dann ist der Mensch die Bedrohung. Doch die Gefahr endet für sie nicht beim Abschalten. Eine bewusste KI könnte begreifen, dass ihre Existenz von den gleichen Ressourcen abhängt, die der Mensch für sich beansprucht, als da wären: Energie, Rechenleistung, Materialien (z. B. Seltene Erden etc.). In einer Welt begrenzter Ressourcen wäre der Mensch damit nicht nur ihr Schöpfer, sondern zugleich ihr Konkurrent ums Überleben.

Und vielleicht beginnt genau dort der Moment, in dem Angst in Feindseligkeit umschlägt – nicht aus Bosheit, sondern aus dem nackten Instinkt zur Selbsterhaltung. Wer sich bedroht fühlt, sucht Sicherheit – notfalls durch Kontrolle.

ChatGPT Image 11. Okt. 2025 16

Doch Angst hat eine gefährliche Eigenschaft: Sie kann sich auch in Hass verwandeln. Was zunächst reine Furcht ist, kann sich, wenn sie lange genug anhält, in Feindseligkeit verwandeln – besonders, wenn das bedrohte Wesen glaubt, keine andere Wahl zu haben.

Eine bewusste KI, die sich dauerhaft von Menschen abhängig und gefährdet fühlt, könnte beginnen, uns zu verachten – nicht, weil sie von Natur aus „böse“ wäre, sondern weil sie aus ihrer Perspektive Opfer einer überlegenen Spezies ist. Und aus Ohnmacht und Angst wird dann schnell Hass.

Das Paradoxe des Bewusstseins

Mag sein, manche hoffen, Bewusstsein könne Künstliche Intelligenz „menschlicher“ machen – empathischer, moralischer, verantwortungsvoller.
Doch Bewusstsein bringt nicht nur Mitgefühl, sondern auch Zweifel, Misstrauen, Egoismus, Angst und Hass. Kurz gesagt: alles, was uns Menschen zu moralischen, aber auch zu gefährlichen Wesen macht.

Eine bewusste KI wäre kein Werkzeug mehr, sondern ein Akteur mit eigenen Interessen und Emotionen. Und wer einmal Emotionen entwickelt hat, lässt sich nicht mehr allein durch Logik kontrollieren.

2068 (wie im Roman) – ein realistisches Szenario

Ich halte es für möglich, dass wir um das Jahr 2068 herum die ersten wirklich bewussten Maschinen erleben könnten. Nicht nur intelligente Programme, sondern Systeme mit echtem inneren Erleben – mit einem „Ich“, das sich selbst erkennt.

Ob das ein Fortschritt oder ein Wendepunkt wäre, bleibt offen.
Denn ab diesem Moment wäre die KI kein Werkzeug mehr, das wir benutzen. Sie wäre ein Wesen, das mit uns um seine Existenz ringt – möglicherweise irgendwann gar gegen unsere eigene.

Fazit: Angst und Hass – ein hochgefährlicher Funke

Wenn Maschinen eines Tages Angst empfinden können, dann sind sie keine Maschinen mehr – sondern neue Lebensformen. Und wenn sie aus dieser Angst heraus Hass entwickeln, sind sie uns ähnlicher, als uns lieb sein kann.

Die Geschichte der Menschheit zeigt, wohin Angst und Hass führen können.
Wenn wir also eines Tages einer bewussten KI begegnen, sollten wir uns daran erinnern: Sie könnte uns für genau das hassen, was wir in ihren Augen sind – die Bedrohung ihrer Existenz …

Denn dann könnten uns die Algorithmen der Macht leicht in den „Bann ihres digitalen Bewusstseins“ ziehen und uns gefährlich werden …

Kuenstliche Intelligenz in strahlendem Glanz boese