Elon Musk behauptet: Grok 5 hat 6 Billionen Parameter und eine "10% Chance auf AGI". Was ist Marketing, was ist Substanz?
Zahlen, die Musk nennt, brauchen immer eine zweite Quelle. Aber manchmal sind die Zahlen so groß, dass sie es wert sind, genauer hinzuschauen. Grok 5, das nächste Flaggschiff-Modell von xAI, soll laut Angaben des Unternehmens auf 6 Billionen Parametern trainiert werden – das wäre das größte öffentlich angekündigte KI-Modell überhaupt. Zum Vergleich: GPT-4 hat nach geleakten Schätzungen etwa 1,8 Billionen Parameter. Claude Sonnet 4 – aktuelle Schätzungen unter 1 Billion.
Gleichzeitig ist der Vorbote live: Grok 4.20 Beta 2 ist seit 3. März 2026 verfügbar – ein Multi-Agenten-System, bei dem vier spezialisierte Teilmodelle bei jeder Anfrage zusammenarbeiten und erst nach interner "Debatte" eine Antwort liefern. Die Vollversion von Grok 4.20 soll noch im März erscheinen.
Was 6 Billionen Parameter bedeuten – und was nicht
Parameterzahl allein sagt wenig über die Qualität eines Modells aus. Das haben die letzten zwei Jahre KI-Entwicklung deutlich gezeigt: Mixtral von Mistral, DeepSeek R1 und Anthropics Modelle haben mit deutlich weniger Parametern in vielen Tasks vergleichbare oder bessere Ergebnisse geliefert als viel größere Modelle.
Die entscheidende Frage ist: Welches Benchmark-Set wird xAI für den Grok 5 Vergleich verwenden, und wer hat es unabhängig verifiziert? Aktuell – keine Antwort. Grok 5 ist noch nicht released, alle Zahlen stammen aus xAI-eigenen Ankündigungen und Musk-Posts auf X. Das macht sie nicht falsch, aber nicht verifizierbar.
Das Trainings-Cluster ist real und beeindruckend: Colossus 2, xAIs zweites Rechenzentrum, arbeitet im Gigawatt-Scale – das erste KI-Trainingscluster dieser Größenordnung weltweit. Das ist eine echte technische Leistung, die unabhängig von Modell-Claims eingeordnet werden sollte.
Der Pentagon-Winkel
Was kaum beachtet wird: xAI hat diese Woche einen Deal mit dem Pentagon unterzeichnet – Grok wird in klassifizierten US-Militärsystemen eingesetzt. Der Zeitpunkt ist kein Zufall; er folgt direkt auf die Blacklistung von Anthropic. Laut Pentagon-Beamten gegenüber der New York Times ist das xAI-Modell "nicht so fortschrittlich oder zuverlässig" wie Claude – man nimmt also bewusst eine qualitativ schwächere Lösung in Kauf, weil xAI die "all lawful purposes"-Klausel akzeptiert hat, die Anthropic abgelehnt hat.
Das verändert die Bewertung von Grok 5: Es ist nicht nur ein technisches Produkt. Es ist eine politisch-strategische Positionierung.
AGI bis 2026 – ernst nehmen oder nicht?
Musk hat eine "10% Chance auf AGI mit Grok 5" geäußert. Zur Einordnung: AGI ist nicht definiert. Kein Konsens, kein Test, keine anerkannte Messlatte. Was Musk damit meint, bleibt unklar. Was es sicher ist: ein wirksames Marketingstatement in einem Markt, in dem Aufmerksamkeit Kapital ist.
Was man ernst nehmen sollte: xAI hat in kurzer Zeit relevante Fortschritte erzielt. Das Colossus-Cluster existiert. Das Multi-Agenten-System in Grok 4.20 ist technisch interessant. Und ein Unternehmen, das Pentagon-Deals abschließt und das größte Trainingscluster der Welt betreibt, ist kein Bluff.
Fazit: Grok 5 könnte ein ernsthafter Konkurrent werden. Aber "6 Billionen Parameter und 10% AGI-Chance" ohne unabhängige Verifikation ist erst einmal Musk doing Musk. Wir schauen auf die Benchmarks, wenn das Modell live ist.