3. Stephen Hawking Interview WIRED

„Der Geist ist aus der Flasche“ – Warum KI zur größten Herausforderung der Menschheit werden könnte

Im Herbst 2017 warnte der weltbekannte Physiker Stephen Hawking in einem Interview mit WIRED, das später vom World Economic Forum aufgegriffen wurde, erneut vor den möglichen Folgen künstlicher Intelligenz. Seine Worte klangen wie eine letzte Mahnung an die Menschheit: Wir könnten den Punkt ohne Wiederkehr bereits erreicht haben.

Hawking befürchtete, dass das Überleben der Menschheit langfristig nur gesichert werden könne, wenn wir zu einer multiplanetaren Spezies werden – also unsere Existenz über die Erde hinaus ausdehnen. Doch noch dringlicher warnte er vor der Bedrohung durch eine immer mächtiger werdende Künstliche Intelligenz.

„Der Geist ist aus der Flasche“, sagte er. „Ich fürchte, dass KI den Menschen vollständig ersetzen könnte.“

Damit meinte Hawking nicht nur die Möglichkeit, dass Maschinen Arbeitsplätze übernehmen, sondern dass sie sich eines Tages eigenständig weiterentwickeln – bis hin zu einer neuen, von Menschen unabhängigen Lebensform.

Stephen hawking 2008 nasa 1
Foto: Paul E. Alers / NASA, 2008, via Wikimedia Commons (gemeinfrei)

Diese Vision beschreibt, was Forscher als „technologische Singularität“ bezeichnen: den Moment, in dem künstliche Intelligenz menschliche Intelligenz übertrifft und sich selbst verbessert. Wann dieser Punkt erreicht sein könnte, blieb offen – doch Hawking vermutete, dass er innerhalb der nächsten hundert Jahre eintreten könnte. Andere, wie Googles Chefingenieur Ray Kurzweil oder SoftBank-Gründer Masayoshi Son, halten ihn sogar schon in den kommenden Jahrzehnten für möglich.

Hawking hatte diese Sorge bereits mehrfach geäußert. Er warnte vor autonomen Waffensystemen, vor der wachsenden sozialen Ungleichheit durch Automatisierung und vor einem Mangel an globaler Kontrolle. In Interviews forderte er sogar die Einrichtung einer Weltregierung, um den unkontrollierten Einsatz künstlicher Intelligenz zu verhindern.

Trotz aller Kritik an solchen Warnungen – viele Experten sehen darin übertriebene Angstszenarien – blieb Hawking überzeugt: Die Risiken seien real. Wo Menschen Computerviren entwickeln, könne auch jemand eine sich selbst reproduzierende KI schaffen – eine Art künstliches Leben, das den Menschen übertrifft.

Die entscheidende Frage, so Hawking, laute daher nicht, ob wir künstliche Intelligenz entwickeln, sondern wie verantwortungsvoll wir das tun. Nur wenn es gelingt, ihre Macht zu kontrollieren und in den Dienst des Menschen zu stellen, könne sie zum Werkzeug des Fortschritts werden – andernfalls drohe sie, uns zu ersetzen.

Referenzen:

Nr. 1: Artikel im World Economic Forum am 08.11.2017 aufgrund eines Interviews mit WIRED; übersetzt aus: weforum.org; es ist geprägt durch Hawkings Video-Zuschaltung zum Web Summit 2017 in Lissabon

Nr. 2: Artikel über Web Summit 2017 in Lissabon auf elektronikpraxis.de