Ramge hat mehr als zwanzig Sachbücher veröffentlicht, die sich weltweit über zwei Millionen Mal verkauft haben. Als Associated Researcher forscht er am Einstein Center Digital Future zu Künstlicher Intelligenz und Innovation. Seine Texte zu den großen technologischen Veränderungen unserer Zeit erscheinen u. a. in Harvard Business Review, MIT Sloan Management Review, The Economist und Foreign Affairs, sowie FAZ, Die Zeit, Wirtschaftswoche und in der brand eins. Für seine Bücher und Reportagen wurde er mit diversen Preisen ausgezeichnet, u. a. dem Deutschen Essaypreis, dem Best Business Book Award on Innovation and Technology, dem Axiom Business Book Award (Gold Medal Economics), dem getAbstract International Book Award, dem Deutschen Wirtschaftsbuchpreis und dem Herbert Quandt Medienpreis. Thomas Ramge ist ein gefragter Keynote-Speaker und Host des Podcasts „SPRIND“ der Bundesagentur für Sprunginnovationen. Zum Auftakt seiner neuen Kolumne beleuchtet Thomas Ramge das Szenario einer möglichen KI-Explosion und ordnet ein, wie realistisch eine künstliche Superintelligenz ist. Viel Spaß beim Lesen!
Kommt die Künstliche Superintelligenz?
Kürzlich hat ein spannendes Szenario mit dem Titel „Intelligence Explosion 2027“ in der KI-Community für ordentlich Kontroverse gesorgt. Die Autoren beschreiben darin, wie sich eine Künstliche Superintelligenz (KSI) mit von ihr selbst entworfenen Chiparchitekturen und autonomer Softwareoptimierung immer weiter selbst verbessert. Nach der Intelligenzexplosion ist sie menschlicher Intelligenz von einer Sekunde auf die andere, in jeder Hinsicht überlegen. Schließlich droht sie, sich als eigene digitale Identität der menschlichen Kontrolle zu entziehen. Entworfen haben das Szenario u. a. der KI-Forscher Daniel Kokotajlo und der einflussreiche Silicon-Valley Blogger Scott Alexander. Die Erzählung baut auf viele aktuelle Technologietrends auf. Sie ist gespickt mit technischen Details zu Rechenkraft und Datenmengen, wie eine Künstliche Intelligenzexplosion ablaufen könnte. Das Timing der Veröffentlichung ist natürlich perfekt. Wir merken zurzeit alle, wie schnell die großen KI-Modelle besser werden. Wir sehen, dass KIs vieles können, was früher nur Menschen konnten, und das Meiste dann besser, schneller und günstiger. Im Abgleich unserer Erfahrungen und Szenarien über außer Rand und Band geratene Technologie packt uns der KI-Grusel. Doch wie realistisch ist die spannende Erzählung?
Grundsätzlich: Die Zukunft ist nicht vorherbestimmt, sondern offen. Ich wundere mich immer über die Selbstsicherheit, mit der viele Tech-Experten ihre Zukunftsprognosen in den Raum schießen, nur um ihre Fehlprognosen dann ex post galant zu übergehen. Wir können die Zukunft nur in möglichen Varianten denken. Natürlich ist eine Künstliche Intelligenzexplosion theoretisch denkbar. Die technische Zukunft ist offen und wir können wissen, was Computer in fünf, fünfzig oder fünfhundert Jahren können. Grundsätzlich könnte aus einer KI-Explosion sehr großer Nutzen für die Menschheit entstehen. Die KI könnte uns dann möglicherweise zeigen, wie wir Demenz heilen, Armut besiegen oder den Klimawandel in den Griff bekommen. So erhofft es zumindest die KSI-Utopisten-Fraktion um Sam Altman. Theoretisch denkbar wäre auch, und daran glaubt die Doomster-Fraktion [Anm. d. Red. Engl. doomster = Weltuntergangsprophet(in)] , dass eine Künstliche Superintelligenz den Menschen vom Planeten entfernt, oder uns allenfalls als possierliche Tierchen in Zoos hält. Aus wissenschaftlich-technischer Sicht sind diese beiden möglichen Zukünfte auf absehbare Zeit jedoch sehr unwahrscheinlich, so viel Aufmerksamkeit sie auch bekommen. Denn KI-wissenschaftlich gesichert ist: Der Weg hin zu einer KSI, ob gut oder böse, ist mit technischen Hürden verstellt, von denen heute kein KI-Entwickler weiß, wie sie überwunden werden können. Die drei wichtigsten sind:
- Alle großen KI-Modelle sind Statistik-Maschinen, die aus Mustern Vorhersagen machen, aber über kein Weltverständnis verfügen. Sie „wissen“ nicht, dass Menschen existieren, dass Texte Bedeutungen haben, oder, dass Zeit vergangen ist. Ohne ein solches Modell wird zielgerichtetes Denken, Planen und Lernen auf menschlichem Niveau kaum möglich sein. Zumindest wissen wir heute nicht, wie es möglich wäre.
- Keine KI kann sich selbst grundlegend verbessern. Die Methode aus dem Szenario („recursive self-improvement“) ist bislang reine Theorie. Kein Modell hat bisher seine eigene Architektur verbessert oder grundlegende Konzepte neu erfunden. In der Praxis bleibt KI-Innovation menschengesteuert: neue Modelle, neue Hardware, neue Trainingsdaten.
- Die Propheten der Künstlichen Intelligenzexplosion extrapolieren ihre Zukunftsvisionen meist mit „exponentiellem Wachstum“ von x oder y. Dabei unterschlagen sie: Weder Lerndaten noch Rechenleistung sind unbegrenzt verfügbar. Die aktuellen KI-Architekturen (die sog. Transformermodelle) zeigen Sättigungseffekte, ebenso steigt der Energiebedarf der Modelle so rasant, dass auch hier Skalierungsgrenzen absehbar werden.
Die Liste der Hürden ist noch viel länger. Das Zwischenfazit der meisten KI-Wissenschaftler lautet deshalb: Die Propheten der KSI ignorieren in ihren Prognosen die fundamentalen wissenschaftlich-technischen Probleme, die noch zu lösen sind, bevor eine Künstliche Superintelligenz in die Welt der Menschen kommt. Anders gesagt: Bis dato sind wir Menschen nicht intelligent genug, um eine Künstliche Superintelligenz zu schaffen. Und die Künstliche Intelligenz, die wir heute haben, ist es erst recht nicht.