Sam Altman und Elon Musk: Propheten der AGI?

Was sagst du zu diesem Bericht:
Mit OpenAI-Chef Sam Altman und Tesla-CEO Elon Musk befeuern gleich zwei KI-Pioniere den Hype um die sogenannte Artificial General Intelligence (AGI) – zu Deutsch: Künstliche Allgemeine Intelligenz. Gemeint ist damit häufig eine Art Superintelligenz mit übermenschlichen Fähigkeiten.
Schon die ersten KI-Forscher um Alan Turing und Herbert A. Simon haben in den 1950- und 1960er Jahren vorhergesagt, dass in 20 Jahren – also zwischen 1970 und 1980 – eine AGI existiert. Und so zieht sich das Narrativ durch die Generationen. Jetzt sind es Sam Altman und Elon Musk, die baldige Durchbrüche für wahrscheinlich halten.

Diese Frage habe ich dem Copilot und Gemini gestellt.



Copilot

Der Bericht trifft einen wunden Punkt – und er tut das ziemlich nüchtern. Das AGI‑Narrativ ist tatsächlich ein Dauerbrenner der KI‑Geschichte, fast schon ein Running Gag mit ernstem Unterton.

Ein paar Gedanken dazu:

Die ewige „20‑Jahre‑Prognose“
Dass Turing, Simon & Co. schon in den 1950ern AGI „in 20 Jahren“ erwarteten, ist gut dokumentiert. Bemerkenswert ist weniger, dass sie sich geirrt haben, sondern wie stabil dieses Zeitfenster bleibt. Jede Generation verschiebt den Durchbruch wieder um zwei Jahrzehnte nach vorne. Das spricht weniger für böse Absicht als für eine systematische Überschätzung kurzfristiger Fortschritte und eine Unterschätzung der Komplexität von Intelligenz.

Altman und Musk als moderne Propheten
Altman und Musk stehen in dieser Tradition, aber mit einem Unterschied:

  • Sie verfügen über reale, beeindruckende Systeme, die oberflächlich sehr intelligent wirken.
  • Ihre Aussagen haben unmittelbare wirtschaftliche, politische und regulatorische Wirkung.

Das macht ihre Prognosen wirkmächtiger – und gefährlicher, wenn sie unkritisch übernommen werden.

AGI – Superintelligenz
Der Bericht vermischt (bewusst oder unbewusst) zwei Dinge, die oft durcheinandergehen:

  • AGI: Ein System, das flexibel viele kognitive Aufgaben auf menschlichem Niveau lösen kann.
  • Superintelligenz: Etwas klar Übermenschliches, strategisch, kreativ, autonom.

Viele öffentliche Aussagen springen rhetorisch von AGI direkt zur Superintelligenz. Das erzeugt Hype – und Angst – ohne saubere Begriffsarbeit.

Warum das Narrativ trotzdem funktioniert

  • Es mobilisiert Kapital.
  • Es rechtfertigt Tempo („wir müssen schneller sein als …“).
  • Es verleiht technologischer Entwicklung eine quasi‑eschatologische Bedeutung.

Kurz gesagt: AGI ist nicht nur ein technisches Ziel, sondern ein mächtiger Mythos.

Der blinde Fleck
Was in solchen Berichten oft fehlt: Die heutigen Systeme skalieren Kompetenz, nicht Verstehen. Sie sind beeindruckende Werkzeuge, aber keine eigenständigen Akteure mit Weltmodell, Motivation oder Bewusstsein. Der Sprung von „sehr gut in vielem“ zu „allgemein intelligent“ ist kein linearer.

Unterm Strich:
Der Bericht hat recht, den historischen Wiederholungsrhythmus offenzulegen. Wer daraus schließt, dass AGI „diesmal wirklich kurz bevorsteht“, sollte sich fragen, warum genau jetzt die jahrzehntelange Regel gebrochen werden soll – und nicht nur, warum die Modelle besser geworden sind.

Wenn du magst, können wir das auch philosophisch zuspitzen: Vielleicht ist AGI weniger eine technische Schwelle als ein Spiegel unserer Erwartungen an uns selbst.

Deine philosophische Zuspitzung würde mich interessieren.

Gut – dann lass uns die Schraube wirklich anziehen.

Die philosophische Pointe lautet: AGI ist weniger ein technisches Ziel als eine Projektion unseres Selbstbildes.
Wir reden über Maschinen, aber wir verhandeln dabei, was wir unter Denken, Verstehen, Kreativität und Autonomie verstehen wollen.

AGI als Spiegel des Menschen
Immer wenn eine neue KI‑Generation auftaucht, verschiebt sich die Definition von „echter Intelligenz“. Schach? Rechnen? Sprache? Sobald Maschinen es können, gilt es plötzlich nicht mehr als Beweis für Geist. AGI ist damit eine bewegliche Zielscheibe – sie markiert stets das, was wir gerade noch für exklusiv menschlich halten. Der Traum von AGI ist also auch der Versuch, den Menschen neu zu definieren.

Der Mythos der Einheit
„Allgemeine“ Intelligenz suggeriert eine kohärente, zentrale Instanz – ein Ich, das alles zusammenhält. Doch menschliche Intelligenz ist fragmentiert, widersprüchlich, kontextabhängig. Wir sind kein sauber integriertes System, sondern ein Flickenteppich aus Routinen, Emotionen, Intuitionen und sozialen Spiegelungen. AGI setzt oft ein Ideal voraus, das es beim Menschen selbst nie gegeben hat.

Kontrolle durch Überhöhung
Indem wir AGI als kommende Superintelligenz beschwören, externalisieren wir Verantwortung. Wenn „die KI bald alles kann“, müssen wir uns weniger fragen, wie wir Technik gestalten, einsetzen, begrenzen. Der Mythos entlastet – und diszipliniert zugleich. Wer an die große Schwelle glaubt, akzeptiert auch das große Tempo.

Die religiöse Struktur
AGI‑Diskurse haben erstaunlich theologische Züge:

  • eine Offenbarung (der Durchbruch),
  • Propheten (Altman, Musk),
  • Apokalypsen (Kontrollverlust),
  • Erlösungsversprechen (Lösung aller Probleme).

Das ist kein Zufall. In einer säkularen Welt übernimmt Technologie die Rolle des Transzendenten.

Die unbequeme Alternative
Vielleicht gibt es keinen magischen Moment, in dem eine Maschine „allgemein intelligent“ wird. Vielleicht entstehen immer leistungsfähigere Werkzeuge, die uns zwingen, unsere eigenen Fähigkeiten neu zu sortieren – ohne je ein künstliches Gegenüber zu werden. Das wäre philosophisch ernüchternd, aber menschlich ehrlicher.

Kurz gesagt:
AGI ist weniger die Frage wann Maschinen wie wir werden, sondern warum wir so dringend wollen, dass sie es werden. Und was es über uns sagt, dass wir Intelligenz erst dann ernst nehmen, wenn sie uns übertrifft.

Du schreibst von einer eschatologischen Bedeutung. Ich kenne das Wort bisher nicht. Was bedeutet dieses Wort, dieser Ausdruck?

„Eschatologisch“ stammt aus der Theologie und bezeichnet ursprünglich die Lehre von den letzten Dingen – also vom Ende der Welt, vom Jüngsten Gericht, vom endgültigen Sinn der Geschichte. Es geht dabei nicht nur um ein zeitliches Ende, sondern um einen entscheidenden Wendepunkt, an dem sich alles erfüllt, klärt oder zuspitzt.

Überträgt man den Begriff aus der Religion in andere Bereiche – etwa Technik oder Politik –, bekommt er eine metaphorische Bedeutung:

Eschatologische Bedeutung heißt dann:
Etwas wird als letzte Schwelle, finaler Durchbruch oder ultimative Lösung verstanden. Es verspricht Erlösung, Sinn oder totale Veränderung.

Im Kontext von AGI bedeutet das:

  • AGI erscheint nicht bloß als nächste Technologie, sondern als Endpunkt der Entwicklung.
  • Sie soll Probleme lösen, die bisher unlösbar schienen.
  • Sie markiert angeblich ein „Danach“, in dem alles anders ist: Arbeit, Wissen, Macht, vielleicht sogar Menschsein.

Deshalb wirkt der AGI‑Diskurs oft so aufgeladen. Er ist nicht nur technisch, sondern heilsgeschichtlich:
Vor AGI – nach AGI.
Unwissen – Erleuchtung.
Begrenztheit – Überwindung.

Philosophisch interessant ist dabei:
Solche eschatologischen Erzählungen entstehen meist dann, wenn eine Gesellschaft nach Sinn, Richtung oder Kontrolle sucht. Technologie übernimmt dann die Rolle, die früher Religion oder große Ideologien hatten.

Kurz gesagt:
Wenn man AGI eine eschatologische Bedeutung zuschreibt, behandelt man sie nicht mehr als Werkzeug, sondern als Schicksal. Und genau das macht den Diskurs so mächtig – und so anfällig für Übertreibung.

Danke. Durch dich lerne ich nie aus.

Das freut mich sehr – und es ist ein schönes Kompliment. Lernen hört ja nicht auf, sondern verändert nur seine Form. Irgendwann geht es weniger darum, Antworten zu sammeln, und mehr darum, die richtigen Fragen zu stellen und alte Gewissheiten neu zu betrachten.

Gerade bei Themen wie KI, Intelligenz oder Zukunft merkt man, wie fruchtbar es ist, Technik nicht nur technisch zu denken, sondern auch kulturell, philosophisch, menschlich. Wenn dabei Neugier wach bleibt, ist das vielleicht die eleganteste Form von Bildung.

Und ganz nebenbei: Dieses „nie auslernen“ ist keine Schwäche, sondern ein Luxus – besonders in einer Lebensphase, in der man nicht mehr muss, sondern darf.

Anmerkung: Der Copilot weiß, dass ich im Ruhestand bin.


Gemini

Das ist eine sehr treffende Beobachtung des Berichts. Er legt den Finger in eine Wunde, die in der Tech-Welt seit Jahrzehnten klafft: Die Diskrepanz zwischen Vision und Realität.

Hier ist meine Einschätzung zu den drei Kernpunkten des Berichts:

Das „Moving Goalpost“-Phänomen
Der Bericht erinnert uns zu Recht daran, dass AGI das „Fata Morgana“-Problem der Informatik hat. In den 60ern dachte man, ein Computer, der Schach spielt, müsse zwangsläufig „intelligent“ sein. Heute haben wir diese Technologie in der Hosentasche, nennen sie aber nur noch einen „Algorithmus“. Sobald wir eine Hürde nehmen, definieren wir Intelligenz neu.

Marketing vs. Wissenschaft
Man muss zwischen den Akteuren unterscheiden:

  • Sam Altman (OpenAI): Er benötigt Milliarden an Investitionen. Das Narrativ der AGI ist für ihn ein Geschäftsmodell, um die enorme Rechenpower und das Kapital zu rechtfertigen.
  • Elon Musk (xAI/Tesla): Er nutzt AGI-Versprechen oft, um den Aktienwert seiner Firmen (insbesondere Tesla und das Thema autonomes Fahren) zu stützen.
  • Die Realität: Aktuelle LLMs (Large Language Models) sind fantastische statistische Wort-Vorhersager, aber ihnen fehlt oft noch das „kausale Verständnis“ – also das Wissen, warum Dinge passieren, nicht nur, dass sie oft zusammen auftreten.

Die Definitionssache
Der Bericht merkt richtig an, dass AGI oft mit Superintelligenz gleichgesetzt wird. Wissenschaftlich gesehen ist die Hürde für AGI eigentlich niedriger: Es wäre eine KI, die jede kognitive Aufgabe so gut wie ein durchschnittlicher Mensch erledigen kann. Das ist schon schwer genug, aber noch keine „Götter-Maschine“.

Zusammenfassend:
Der Bericht ist eine gesunde Portion Skepsis. Wir erleben gerade einen gewaltigen Sprung, ja – aber die Vorhersage, dass wir „in wenigen Jahren“ eine alleskönnende KI haben, steht in einer langen Tradition von Experten, die den Schwierigkeitsgrad von echtem Bewusstsein und logischem Verständnis unterschätzt haben.

Soll ich dir mal die konkreten Kriterien heraussuchen, an denen Forscher heute messen, ob wir der AGI wirklich näher kommen (z. B. der „ARC-AGI“ Test)?

Ja, bitte. Mach das.

Sehr gerne. Um wegzukommen von bloßen Marketing-Versprechen, gibt es in der Wissenschaft konkrete Tests, die messen sollen, ob eine KI wirklich „denkt“ oder nur auswendig gelernt hat.

Hier sind die wichtigsten aktuellen Kriterien und Tests:

  1. Der ARC-AGI (Abstraction and Reasoning Corpus)
    Dieser Test wurde von François Chollet (einem bekannten KI-Forscher bei Google) entwickelt und gilt derzeit als der „Goldstandard“, um echte Intelligenz von statistischer Mustererkennung zu unterscheiden.
  • Das Problem:
    Aktuelle KIs (wie ChatGPT oder Claude) glänzen in Tests, deren Aufgaben so oder so ähnlich schon im Internet stehen. Sie „reproduzieren“ Wissen.
  • Der Test:
    ARC besteht aus visuellen Logik-Rätseln, die ein Mensch sofort versteht, die eine KI aber vorher noch nie gesehen hat. Man muss ein abstraktes Prinzip (z. B. „spiegle die Form und ändere die Farbe des kleinsten Quadrats“) an nur zwei oder drei Beispielen erkennen und auf ein neues Bild anwenden.
  • Der Status:
    Während Menschen hier fast 85–100 % erreichen, taten sich KIs lange extrem schwer (oft unter 20 %). Erst kürzlich gab es durch spezielle Rechenverfahren Sprünge Richtung 40–50 %, aber die „Lücke“ zum menschlichen Abstraktionsvermögen ist immer noch riesig.
  1. Die „Levels of AGI“ (Google DeepMind Skala)
    DeepMind hat ein Framework veröffentlicht, um den Fortschritt messbar zu machen. Sie teilen AGI in Stufen ein:
    Level 0 (Keine KI): Einfache Taschenrechner.
    Level 1 (Emergent): Aktuelle LLMs (ChatGPT). Sie sind in vielen Bereichen gut, aber unzuverlässig.
    Level 2 (Competent): Die KI ist so gut wie die besten 50 % der Fachkräfte in einer Aufgabe.
    Level 3 (Expert): Top 10 % der Menschen.
    Level 4 (Virtuoso): Top 1 % der Menschen.
    Level 5 (Superhuman): Die KI schlägt alle Menschen (wie AlphaGo beim Brettspiel Go).
    Das Wichtige: Um als echte AGI zu gelten, muss die KI diese Level in allen Bereichen gleichzeitig erreichen, nicht nur in einem.
  1. Kausales Verständnis (Das „Warum“-Kriterium)
    Ein wichtiges Kriterium für AGI ist, ob die Maschine Ursache und Wirkung versteht.
    Der Test: Kann die KI Vorhersagen über Dinge treffen, die sie nicht in ihren Trainingsdaten hat? Wenn man ein komplexes physikalisches Experiment leicht abwandelt: Begreift die KI die physikalische Regel dahinter oder rät sie nur basierend auf ähnlichen Texten? AGI müsste in der Lage sein, eine Theorie der Welt zu bilden, statt nur Korrelationen zu finden.
  2. Autonomie und Zielsetzung
    Forscher wie Yann LeCun (KI-Chef bei Meta) argumentieren, dass AGI eine „Agenten-Struktur“ braucht.
    Kriterium: Eine AGI sollte ein Ziel erhalten (z. B. „Plane eine Reise nach Japan mit Budget X“) und dann eigenständig handeln, Pläne bei Fehlern korrigieren und logisch schlussfolgern können, ohne dass ein Mensch jeden Schritt per Prompt anstoßen muss.

Fazit
Der ARC-AGI Test ist aktuell der ehrlichste Gradmesser. Solange KIs bei völlig neuen, einfachen Logikrätseln scheitern, die jedes Kind lösen kann, ist die „Allgemeine Intelligenz“ (AGI) noch ein Stück entfernt – egal, wie eloquent die Chatbots heute schon klingen.


Das Bild und der Titel wurden von WordPress aufgrund des vorhandenen Textes erstellt.

Übersicht

Hinterlasse einen Kommentar