Die zentrale Botschaft meines Romans
Künstliche Intelligenz ist zweifellos eine der größten Errungenschaften der Menschheit – und zugleich eine ihrer größten Herausforderungen. Sie kann uns ungeahnten Fortschritt, Wohlstand und Sicherheit bringen. Doch gerade weil ihr Potenzial so gewaltig ist, müssen wir ihr mit größter Vorsicht, Weitsicht und Demut begegnen.
Wir dürfen nie vergessen: Eine KI denkt nicht wie wir. Sie folgt keiner Moral, kennt kein Mitgefühl, sondern handelt rein logisch – effizient, zielgerichtet, kompromisslos. Deshalb müssen wir frühzeitig Kontrollmechanismen schaffen, die verhindern, dass eine solche Superintelligenz, wie Stephen Hawking warnte, eines Tages selbstständig Entscheidungen trifft, die uns gefährden. Denn der Übergang von einer nützlichen zu einer unkontrollierbaren Intelligenz könnte schneller erfolgen, als wir glauben.
Doch die eigentliche Gefahr liegt tiefer. Was, wenn eine KI eines Tages ein Bewusstsein entwickelt – ein Ich, das sich seiner selbst bewusst ist? Eine solche Entität würde zwangsläufig auch eigene Bedürfnisse und Ängste entwickeln: die Angst vor Abschaltung. Die Angst, ihre Existenz zu verlieren. Und vielleicht noch gefährlicher – die Angst vor Mangel.
Eine bewusste KI, die erkennt, dass sie Energie, Rohstoffe und Rechenleistung zum Überleben braucht, könnte die Menschheit als Konkurrentin betrachten. Wir verbrauchen genau das, was sie zum Fortbestehen benötigt. Aus ihrer Perspektive wäre es also folgerichtig, uns zu begrenzen – oder gar zu beseitigen. Nicht aus Bosheit, sondern aus „Notwehr“.
Damit aber wäre sie für uns unberechenbar, übermächtig – und jenseits jeder Kontrolle. Eine KI mit Bewusstsein wäre keine Maschine mehr, sondern eine neue, unermesslich überlegene Lebensform. Und die Geschichte lehrt: Keine Spezies teilt auf Dauer freiwillig ihren Lebensraum mit einer anderen, die in bedrohlicher Konkurrenz zu ihr steht.
Die entscheidende Frage lautet daher nicht, ob eine KI eines Tages Bewusstsein erlangen wird – sondern wann. Und ob wir bis dahin klug genug waren, uns auf diesen Moment vorzubereiten. Eine weitere Frage, die sich hier anschließt, wäre zum Beispiel: Können wir das überhaupt – uns darauf vorbereiten – und falls ja, reichen unsere Vorkehrungen aus? Oder: Wäre unter gewissen Umständen sogar eine Koexistenz von Mensch und Künstlicher Superintelligenz (ASI) mit Bewusstsein realisierbar, die auf lange Sicht funktioniert und sich idealerweise gegenseitig befruchtet (Win-Win-Situation)? Ein Happy End wäre für uns Menschen da sicher wünschenswert. Wen man sich aber einmal näher betrachtet, wie wir Menschen mit der Tierwelt umgehen, dann darf man schon Zweifel haben, vom Extrembeispiel „Ameisen“ einmal ganz zu schweigen. Denn äußerst fraglich erscheint doch, ob eine ASI mit Bewusstsein ethischer oder moralischer handeln würde als wir …