Wie weit ist man mit Artificial General Intelligence (AGI) schon?

Microsoft und OpenAI haben ihre Zusammenarbeit neu geregelt. Die Partnerschaft wird flexibler, beide Unternehmen erhalten mehr Freiheiten.

In einer Art Nebensatz bin ich darüber „gestolpert“:

Microsoft behält exklusive Rechte am geistigen Eigentum sowie die Exklusivität für Azure-APIs – allerdings nur bis zur Erreichung einer künstlichen allgemeinen Intelligenz.

Eine zentrale Neuerung betrifft die Definition und Feststellung von AGI. Wenn OpenAI künftig erklärt, AGI erreicht zu haben, muss dies ein unabhängiges Expertenpanel verifizieren.

https://www.heise.de/news/Microsoft-und-OpenAI-einigen-sich-auf-neue-Partnerschaftsregeln-10961901.html

Wie weit ist man in diesen Bereichen schon?

Offensichtlich weiter, als in der breiten Öffentlichkeit bekannt ist und man sich vorstellen kann. Oder täusche ich mich?

Ich kannte den Begriff AGI bereits. Allerdings: so richtig definieren konnte ich ihn bisher nicht. „Es ist etwas mit künstlicher Intelligenz.“

Ich habe den Copilot und Gemini dazu befragt:

Artificial General Intelligence (AGI) bezeichnet eine Form von Künstlicher Intelligenz, die nicht nur auf eng umrissene Aufgaben spezialisiert ist, sondern menschenähnliche, allgemeine kognitive Fähigkeiten besitzt – also flexibel lernen, verstehen, planen und Probleme in ganz unterschiedlichen Bereichen lösen kann.

Eigenschaften von AGI
Generalisierung: Kann Wissen aus einem Kontext auf andere übertragen.
Selbstlernen: Lernt ohne ständige menschliche Anleitung.
Flexibilität: Löst Probleme in Bereichen, für die sie nicht explizit programmiert wurde.

AGI existiert noch nicht. Alle heutigen Systeme – auch die fortschrittlichsten Sprachmodelle – gelten als Narrow AI.

Narrow AI (schwache KI): Systeme, die nur für spezifische Aufgaben entwickelt wurden (z. B. Sprachassistenten, Schachprogramme, Empfehlungssysteme).

Aktuelle Forschungsansätze in Richtung Artificial General Intelligence (AGI) konzentrieren sich auf multimodale Modelle, Agenten-Architekturen, Selbstverbesserung durch Rückkopplung und Sicherheitsmechanismen. Große Labore wie OpenAI, DeepMind, Anthropic, Meta und kleinere Forschungsgruppen verfolgen unterschiedliche Strategien, die sich zwischen technischer Skalierung und sicherheitsorientierter Steuerung bewegen.

Die aktuellen AGI-Forschungsansätze bewegen sich zwischen technischer Skalierung (größere, multimodale Modelle) und Sicherheits- bzw. Governance-Fragen. Während OpenAI und DeepMind stark auf Integration und Leistungssteigerung setzen, betont Anthropic die Werteausrichtung. Parallel dazu treibt die Open-Source-Szene Experimente mit Agenten-Systemen und Werkzeug-Orchestrierung voran.

Ein echtes AGI-System existiert derzeit noch nicht. Es ist das große, noch unerreichte Ziel vieler KI-Forscher.

Ob und wann wir AGI erreichen, ist eine der am heißesten diskutierten Fragen der modernen Technologie.

Übersicht

Hinterlasse einen Kommentar