GPT-4, PaLM, Auto-GPT: Wann wird KI die Welt erobern?

12. Juli, 2023 | Maximilian Vogel

Ein Rückblick … vor drei Jahren war GPT-2 eines der fortschrittlichsten Sprachmodelle auf dem Markt und verstand dennoch selbst die einfachsten Gespräche falsch. Es halluzinierte nicht nur, es produzierte unstrukturierte und unsinnige Antworten. Jetzt kann ChatGPT (einschließlich des integrierten GPT-4-Modells) Fragen aus einem extrem breiten Themenspektrum beantworten, das von Physik, Biologie, Geschichte, Kunst, Technik, Sport und sogar Unterhaltung reicht. Es ist es gut im logischen und kreativen Denken geworden, schreibt und versteht Code und darüber hinaus besteht es viele professionelle Tests mit besseren Ergebnissen als Menschen.

lasst uns in die Zukunft blicken… wenn OpenAI, Google, Amazon oder irgendjemand anders einen weiteren Coup landet, könnten wir schon bald einer KI gegenüberstehen, die dem Menschen an kognitiver Leistung weit überlegen ist.


… Oh oh… Einige Tech-Prominente wie Elon Musk (Tesla, Twitter), Steve Wozniak (Apple) und Yuval Noah Harari (Sapiens, Homo Deus) haben zusammen mit Zehntausenden anderer Unterzeichner vor ein paar Wochen eine Pause, ein Moratorium gefordert:

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4 […]

Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? […]

Society has hit pause on other technologies with potentially catastrophic effects on society. We can do so here. 

Open Letter Page

Was passiert, wenn es keine Pause gibt? Werden KI-Systeme dann in 2 oder 3 Jahren weit über die menschlichen Fähigkeiten hinausgeht? Und könnte in 5 Jahren die Schwelle zur Superintelligenz erreichen – eine Intelligenz, die die des Menschen in den meisten Themenbereichen weit übertrifft?

Wird die KI in 5, 10 oder 20 Jahren versuchen, die Welt zu beherrschen und uns auszulöschen? Oder ist das alles nur Science-Fiction?

Many people seem to believe that SMI [Superhuman Machine Intelligence] would be very dangerous, if it were developed, but think that it’s either never going to happen or definitely very far off. This is sloppy, dangerous thinking.

blog.samaltman.com

Sam Altman, der CEO von OpenAI, dem Unternehmen, das GPT-4 und ChatGPT entwickelt hat, schrieb diese Worte viele Jahre bevor ChatGPT oder sogar GPT-2 auf den Markt kamen. Jetzt fordert OpenAI ein internationales Gremium wie die IAEA (die Aufsichtsbehörde für die Nutzung von Atomenergie) zur Regulierung von KI.

In diesem Zusammenhang hat Altman gemeinsam mit weiteren namhaften Persönlichkeiten und einer langen Liste von KI-Wissenschaftlern kürzlich die folgende Erklärung zu den Risiken der KI unterzeichnet:

Quelle: https://www.safe.ai/statement-on-ai-risk?

Überbewerten KI-Gläubige die Fähigkeiten ihrer Modelle völlig, um sich wichtig zu machen?


Schauen wir uns die Fakten an.


Bei der Superintelligenz geht es nicht um einen auf Silizium basierenden klügeren Bruder Einsteins, der die Relativitätstheorie und die Quantentheorie in einer eleganten einzeiligen Gleichung zusammenführen kann. Vielmehr geht es bei der Superintelligenz um ein Wesen, das in Bezug auf die Intelligenz eine ähnliche Beziehung zu uns hat wie wir zu Ameisen. Wenn sich dieses Wesen die Mühe machen würde, einen brillanten Gedanken aufzuschreiben, könnten wir diesen nicht einmal einem Genre zuordnen.


Wenn wir uns ansehen, wie wir als eine der intelligentesten Spezies auf der Erde andere Spezies behandeln (domestizieren, abschlachten, ausrotten), wie technologisch oder organisatorisch überlegene Gesellschaften weniger fortgeschrittene behandeln (ausrauben, unterjochen, versklaven, zerstören), ist es zumindest eine interessante Frage, wie ein intellektuell überlegenes Wesen uns behandeln wird.

Kann uns eine überlegene maschinelle Intelligenz also wirklich schaden? Oder gar das Leben auf der Erde auslöschen? Zur Beantwortung dieser Fragen sollen zunächst die folgenden Unterfragen geklärt werden:


1. Sind die Maschinen zumindest nahe an einer Artificial General Intelligence (AGI)?
Eine superintelligente KI, die Bilder erkennt, Schach spielt, Musik komponiert oder Chatbots erstellt, fehlen die nötigen Fähigkeiten, um die Welt zu erobern. Dazu bräuchte die KI die Fähigkeit (neben vielen anderen Fähigkeiten) Menschen zu überzeugen in Computersysteme einzubrechen, Maschinen und Waffen zu bauen, Proteine zu falten sowie sich selbst zu optimieren. Um erfolgreich zu sein, müsste es eine langfristige Strategie mit mehreren Schritten entwickeln und verfolgen können. Wenn die KI noch weit von der AGI entfernt ist, kann es zwar immer noch Risiken durch spezialisierte superintelligente Maschinen geben, jedoch gibt es derzeitig keine Anzeichen dafür, dass sie die Macht übernehmen könnte.


2. Wächst die maschinelle Intelligenz wirklich so schnell, dass sie in absehbarer Zeit Superintelligenz erreichen kann?
Während sich die erste Frage auf die Breite der maschinellen Fähigkeiten bezieht, geht es bei dieser Frage um die Tiefe der Intelligenz. Im Vergleich der Leistung der Maschine zum Menschen: Wie viel besser sind sie? Wenn es wahrscheinlich ist, dass Maschinen in den nächsten Jahrzehnten mit dem Menschen gleichziehen oder ihn nur geringfügig übertreffen werden, brauchen wir uns jetzt keine Sorgen zu machen.

3. Wird eine superintelligente KI wirklich die Welt beherrschen wollen?
Sind das nicht nur Gute-Nacht-Geschichten für Datenwissenschaftler? Warum sollte eine KI böse werden? Können wir sie nicht so bauen, dass sie nett ist, oder zumindest eine Kontrolle einbauen, die automatisch den Stecker zieht, wenn das Stück Schrott frech wird?


4. Ist es möglich, dass eine KI allein durch ihre überlegene Intelligenz die Weltherrschaft übernimmt?
Systeme wie GPT-4 zeigen bereits ein erstaunliches Maß an Intelligenz. Aber sie können nicht einmal ihre eigenen Server ein- oder ausschalten. Wie um alles in der Welt sollen sie dann uns ausschalten?

Wenn wir alle vier Fragen ankreuzen können, dann haben wir ein Problem. Ein großes Problem, das in kurzer Zeit gelöst werden müsste.

1. GPT-4 & Unternehmen: Sind die Maschinen zumindest nahe an einer künstlichen allgemeinen Intelligenz (AGI)?

Wir versuchen uns immer davon zu überzeugen, dass die KI bei weitem nicht so intelligent wie der Mensch ist. Wir neigen dazu Fähigkeiten, für die man als Mensch sehr intelligent sein muss und bei denen uns Maschinen übertroffen haben, nachträglich als nicht wirklich intelligent abzutun:

Ein System kann einen mathematischen Beweis über Hunderte von Seiten führen? – „Nicht intelligent, nur reine Anwendung von Regeln“. Millionen von Menschen anhand ihrer Bilder wiedererkennen? – „Nicht sehr intelligent – mein Hund kann das und er braucht dazu nicht einmal Bilder!“. Tausende von Kilometern unfallfrei fahren? – „Uber-Fahrer können das auch – heißt das, dass sie eine intelligente Lebensform sind?“. Die amerikanische Anwaltsprüfung im 10%-Perzentil neben vielen anderen Tests bestehen? – „Nicht intelligent, nur Inhalte aus dem Internet auswendig lernen“, sagen die meisten Reddit-Nutzer.

Diese Äußerungen erinnern ein wenig an die Rückzugsgebiete einer chauvinistischen Spezies. Das zentrale chauvinistische oder speziesistische Mantra lautet: „Wenn jemand anderes das Gleiche tut wie wir – natürlich – ist es nicht das Gleiche, sondern etwas anderes“. Andererseits gibt es hier einen Punkt: KI zeigt Spitzenleistungen, aber keine umfassende Intelligenz wie ein Mensch: Eine Schach-KI ist in anderen Bereichen dumm wie Bohnenstroh – im Gegensatz zu einem guten menschlichen Schachspieler, der in der Regel auch eine E-Mail beantworten, ein paar Dinge für das Abendessen kaufen und Magnus Carlsen auf einem Foto erkennen kann.


Eine KI, die die Weltherrschaft anstrebt, muss in der Lage sein, ein breites Spektrum menschlicher Aufgaben genauso gut oder besser als ein Mensch auszuführen. Sie muss in der Lage sein, mit Weltwissen umzugehen, zu planen, in Sprache zu kommunizieren, Schlussfolgerungen zu ziehen, visuelle Informationen zu verstehen und andere Systeme zu steuern. Besondere Talente wie Schach spielen, Auto fahren und mathematische Beweise führen, reichen nicht aus. Im Moment gibt es ein solches System noch nicht. Aber meiner Meinung nach sind wir auf dem Weg zu einer vollständigen künstlichen allgemeinen Intelligenz (AGI). Werfen wir einen Blick auf die Leistung von Sprachsystemen.

Klassische regelbasierte Chatbots haben programmierte Intents – Ziele des Benutzers, die das System verarbeiten kann:
time_inquiry => Ausgabe der aktuellen Uhrzeit
Die Nutzeräußerungen, die diesem Intent zugeordnet werden, können sehr breit gefächert sein:
Sag mir, wie spät es ist? Wie spät ist es? Uhrzeit?


Kleine Systeme, z.B. Selbstbedienungsautomaten, können einige wenige Intents verarbeiten – ein Auto viele hundert. Siri, Google Assistant, Alexa – ein paar Dutzend oder Hunderte mehr (von denen einige noch parametrisierbar sind, d. h., dass sich z. B. Zahlen, Namen oder Orte in einer Äußerung ändern können).
Mit einem solchen System, selbst wenn man es Jahr für Jahr erweitert, könnte man im Bereich der Sprache niemals das Niveau einer AGI erreichen. Menschen können unendlich viele Absichten ihrer Gesprächspartner verstehen (auch wenn sie nicht alle zur eigenen Zufriedenheit beantworten können). Selbst wenn man die maximale Wortzahl einer Äußerung auf 15 Wörter begrenzt, gibt es Billionen von Absichten, die ausgedrückt werden können. Mit anderen Worten: Selbst wenn man die Anzahl der Intentionen, die ein System verarbeiten kann, auf 1000, 10.000 oder 100.000 erhöht, wird man kaum in der Lage sein, sie alle zu verarbeiten.

Klassische regelbasierte Chatbots können eine (kleine) endliche Anzahl von Intents beantworten.

Große Sprachmodelle beantworten nicht nur mehr Fragen. Es handelt sich um eine neue Dimension im Bereich des Verstehens – ein bisschen wie die Beziehung zwischen ganzen Zahlen (Integer) und reellen Zahlen. Während ein klassischer regelbasierter Chatbot eine endliche, abzählbare Anzahl von Intents beantworten kann, können die LLMs alle Zwischenräume ausfüllen. Sie können im Prinzip alle syntaktisch und semantisch wohlgeformten Phrasen verstehen und beantworten – lange und kurze – und sogar solche, die nicht korrekt formuliert sind.

LLMS (Large Language Models) können im Prinzip alle Äußerungen beantworten.

Und voilà, wir kommen einer echten AGI näher. Allerdings ist die Intelligenz noch nicht wirklich „general“, denn sie ist noch auf sprachliche Interaktionen beschränkt. Aber Sprache ist der wichtigste kognitive Bereich, in dem sich die menschliche Leistung am meisten von der unserer Mitsäugetiere unterscheidet. Es ist vielleicht zutreffender zu sagen, dass LLMs das Stadium der Artificial Lieutenant General Intelligence (ALGI) erreicht haben.


Nur eine kurze Anmerkung: Jede Frage verstehen und beantworten zu können, ist nicht dasselbe wie alle Fragen richtig beantworten zu können. Das derzeitige Schlüsselmantra der meisten LLMs ist das alte italienische Sprichwort se non è vero, è ben trovato – wenn es nicht wahr ist, ist es doch gut erfunden.


Wenn wir andere Bereiche wie Bilderkennung und -erstellung, räumliche Bewegung, Spielbeherrschung (MuZero) oder Sprache-zu-Text-Übersetzung untersuchen, wird deutlich, dass wir Fortschritte auf dem Weg zu einer ALGI für mehrere Bereiche machen.


Der schwierigste Teil liegt vielleicht schon hinter uns: der Übergang von der Lösung einer endlichen Liste von Einzelproblemen (natürliche Zahlen) zur Beherrschung eines vollständigen Problemraums (reelle Zahlen).


Es könnte sein, dass die Fähigkeit, zwischen verschiedenen und hochgradig fähigen Domänen-ALGIs hin und her zu wechseln, so einfach ist, dass Plattformen, die nur geringfügig weiter fortgeschritten sind als Auto-GPT oder BabyAGI, in wenigen Monaten dazu in der Lage sein werden. Diese autonomen Agenten bauen eine Agentenschicht auf, die die Modelle als granulare Reasoner zur Lösung einzelner Schritte einer längeren Aufgabe nutzt.

Um ehrlich zu sein, haben wir einen Punkt erreicht, an dem die AGI noch nicht vollständig realisiert ist, aber eindeutig in Reichweite. Unsere Antwort auf die erste Frage lautet also leider ja – wir sind fast am Ziel:
☑ 1. Sind die Maschinen zumindest nahe an der AGI?
☐ 2. Wächst die maschinelle Intelligenz wirklich so schnell, dass sie in absehbarer Zeit Superintelligenz erreichen kann?
☐ 3. Wird eine superintelligente KI wirklich die Welt beherrschen wollen?
☐ 4. Ist es möglich, dass eine KI allein durch ihre überlegene Intelligenz die Weltherrschaft übernimmt?

2. Explonentielles Wachstum – Wächst die maschinelle Intelligenz wirklich so schnell, dass sie in absehbarer Zeit Superintelligenz erreichen kann?

Die Entwicklung der künstlichen Intelligenz ist etwas ganz anderes als z.B. die Leistung von Mikrochips, die – gemäß dem Mooreschen Gesetz – ein abnehmendes exponentielles Wachstum aufweist. Wir können das Wachstum der Intelligenz nicht genau messen, weil wir kein allgemeines Maß für die maschinelle Intelligenz haben (insbesondere die folgenden quantitativen Aussagen sind nicht unangreifbar).
Langfristig ist das Wachstum des „Ichs“ in der KI exponentiell, aber es gibt immer wieder Phasen langsamen oder stagnierenden Wachstums, wenn die KI oder ein Teilbereich der KI an die Grenzen der bisherigen Ansätze stößt. Die Phasen der Beschleunigung treten auf, wenn neue Konzepte wie Perceptrons, Deep Learning, CNNs, selbstgesteuertes Verstärkungslernen, Transformator-Architektur oder Basismodelle erfunden und implementiert werden. Dann setzen oft automatisierte Iterationen des Lernens, Erforschens, Hinzufügens von Ressourcen und Optimierens ein, die die Systeme in kürzester Zeit wesentlich besser machen. Darüber hinaus füllen greifbare Erfolge die Petrischale, in der KI gedeihen kann, und ziehen Forschungsgelder, Fördermittel für Start-ups, Budgets in Unternehmen oder in diesem Bereich tätige Experten an.

Explonentielles Wachstum der KI

Ich verwende den Begriff „explonentielles Wachstum“, weil es im Nachhinein oft wie ein exponentielles Wachstum aussieht. Allerdings schein es sich in der Anfangsphase wie eine Zeitbombe zu verhalten. Lange Zeit geschieht nichts oder fast nichts, und wir sind geneigt zu sagen, dass sie nicht hochgehen wird – d. h. wir werden dieses oder jenes Ziel nie erreichen. In der Vergangenheit (vor den Gründungsmodellen) ergaben Umfragen innerhalb der KI-Gemeinschaft zur Frage, wann AGI oder die Singularität erreicht sein werden, in der Regel eine schöne Gaußsche Verteilung der Antworten über die nächsten 50 oder 100 Jahre. Es handelte sich im Wesentlichen um Vermutungen – es gab keine einigermaßen klare Wachstumsrate, die in die Zukunft abgeleitet werden konnte.
Das explonentielles Wachstum gilt seit langem weniger für die KI als Ganzes, sondern oft für Teilbereiche wie Bilderkennung, Chatbots oder Spiele. Zwei kurze Beispiele: Mit dem Brettspiel Go taten sich KI-Entwickler mehrere Jahrzehnte lang schwer, obwohl DeepBlue 1997 den Schachweltmeister besiegte. Computerprogramme spielten Go nur auf Amateur- oder Mittelstufenniveau, bis 2015 AlphaGo plötzlich einen Entwicklungssprung machte, der es ihm ermöglichte, die Dans (so etwas wie Go-Großmeister) und schließlich den weltbesten Go-Spieler zu schlagen. Der Nachfolger AlphaZero schlug dann 2017 / 2018 AlphaGo in Go und die besten anderen KIs in Schach und Shogi mit einer extrem kurzen Trainingszeit.

Bildcredit: Leesongun

All diese Fortschritte erfolgten extrem schnell, obwohl die Fortschritte in den Jahrzehnten zuvor minimal waren. Die explosive Wachstumsphase basierte auf Konzepten, die völlig neu waren (einschließlich des selbstgesteuerten Lernens) und nicht auf den Errungenschaften, die Jahrzehnte zuvor in der Entwicklung von KI-Spielen erzielt wurden. Meine persönliche Schlussfolgerung ist: Selbst wenn ein Problem über einen längeren Zeitraum hinweg für Maschinen unlösbar erscheint, können sich durch einen neuen Ansatz und ein paar Jahren Zeit neue maschinelle Intelligenz Lösungen ergeben, die weit über die menschliche Vorstellungskraft hinausgehen.

Dr. E. A. Quade, Manager der Advanced Technology Group im IBM Advanced Systems Development Laboratory in San Jose, Kalifornien, demonstriert Shoebox. Bildcredit: IBM

Bei der automatischen Spracherkennung (ASR) gibt es eine noch ausgeprägtere „schlafende“ Phase kurz vor dem Beginn des explosionsartigen Wachstums. Bereits 1952 konnte die „Audrey“ der Bell Laboratories gesprochene Ziffern erkennen. In den frühen 60er Jahren konnte die IBM „Shoebox“ 16 Wörter (arithmetische Operatoren plus die 10 Ziffern von Audrey) erkennen und (das war wirklich ein Durchbruch) Berechnungen durchführen. 10 Jahre, 6 Wörter mehr. Der Fortschritt der ASR setzte sich in diesem Tempo fort. Bereits etwa 60 Jahre nach den ersten Entwicklungen waren Systeme, die auf der neuen Deep Neural Networks (DNN)Technologie basieren, in der Lage die Fehlerquote bei der Erkennung gesprochener Sprache so massiv zu reduzieren, sodass die Eingaben nicht dreimal wiederholt oder das System auf die eigene Stimme trainiert werden müssen. Eine sehr lange Zeit mit nicht viel spürbarem Fortschritt. Stell dir vor, das World Wide Web, welches 1989 erfunden wurde, würde erst in den 2040er oder 2050er Jahren Anwendungen wie die Suche, das Online-Shopping oder Wikis hervorbringen.

Auch hier bedeutet explonentielles Wachstum, dass es lange Zeit so aussieht, als würden wir uns überhaupt nicht bewegen (zumindest nicht in diesem speziellen Bereich). Es sieht so aus, als ob die KI ihre Grenzen erreicht hat. Diese Phase wird manchmal von einem „KI-Winter“ begleitet, der durch nachlassendes Interesse und das Einfrieren der Forschungsgelder gekennzeichnet ist (z. B. hat Bell Labs, eine führende Einrichtung dieser Zeit, hat in den 1960er Jahren die Spracherkennung nicht weiter finanziert). Wachstum wird fast ausschließlich in explosiven Schubphasen erzielt. Es ist nicht vorhersehbar, ob und wann eine Schubphase kommt und wie viel Fortschritt sie bringen wird.


In der gegenwärtigen explosiven Beschleunigungsphase, die sich über ein breites Spektrum von Bereichen erstreckt, oder spätestens in der nächsten explosiven Phase ist es möglich, dass intelligente Maschinen völlig neue konzeptionelle Ansätze entwickeln. Sie können zunächst in kleinerem Maßstab auftreten und dann lawinenartig in einen größeren Maßstab übergehen, so dass andere Maschinen innerhalb kürzester Zeit viel besser werden. Dann werden möglicherweise diese besseren Maschinen fortschrittlichere Konzepte für zukünftige noch bessere Maschinen entwickeln. Dies ist eine so genannte Runaway-Reaktion nach John von Neumann oder Vernor Vinge, die zu einer Intelligenzexplosion führt, bei der der Fortschritt die menschliche Intelligenz rasch überholt. Dies ist die letzte der explosiven Schubphasen, die dann irgendwann nur noch an Beschränkungen wie Quantengrößen, Lichtgeschwindigkeit oder der Expansion des Universums enden kann. Hey ho, Singularität!

Singularität

Wenn wir davon ausgehen, dass sich das Wachstum der maschinellen Intelligenz in Zukunft nicht grundlegend ändern wird, dann müssen wir die zweite Frage mit einem vorsichtigen „Ja“ beantworten – die maschinelle Intelligenz könnte potenziell so schnell wachsen, dass sie in einigen Jahren Superintelligenz erreicht.
Wichtig ist, dass wir vielleicht keine „Runaway Reaction“ brauchen, um das zweite Kästchen zu überprüfen – das übliche Wachstum der Intelligenz in dieser oder der nächsten explosiven Schubphase sollte ausreichen.


☑ 1. Sind die Maschinen zumindest nahe an der AGI?
☑ 2. Wächst die Maschinenintelligenz wirklich so schnell, dass sie in absehbarer Zeit Superintelligenz erreichen kann?
☐ 3. Wird eine superintelligente KI wirklich die Welt beherrschen wollen?
☐ 4. Ist es möglich, dass eine KI allein durch ihre überlegene Intelligenz die Welt erobert?

Finde Beantwortung der 3. und 4. Unterfragen in Teil 2/2 auf medium.com/@maximilianvogel