Jensen Huang betritt heute Abend um 20 Uhr deutscher Zeit die Bühne des SAP Center in San Jose — und die KI-Branche hält den Atem an.
Die NVIDIA GTC 2026 ist keine normale Tech-Konferenz. Seit Jensen Huang 2023 in Lederjacke auf der GTC-Bühne stand und Blackwell ankündigte, gilt die Veranstaltung als das wichtigste Datum im KI-Kalender. Dieses Jahr steht ein noch größerer Sprung bevor: die Rubin-Architektur.
Rubin: Was diese GPU technisch bedeutet
Rubin ist NVIDIAs nächste GPU-Generation nach Blackwell — und die Zahlen sind beeindruckend. Der Chip soll bis zu 288 GB HBM4-Speicher mitbringen, gefertigt auf TSMCs 3-nm-Prozess (N3/N3P). Das ist ein vollständiger Node-Shrink gegenüber Blackwells 4NP-Prozess.
Was das konkret bedeutet: Mehr Speicher pro GPU heißt größere Modelle ohne Sharding über mehrere Chips. Weniger Latenz, weniger Kommunikations-Overhead zwischen GPUs, schnellere Inferenz. Für Unternehmen die heute Millionen für GPU-Cluster ausgeben, ist das kein Marketing — das ist Capex-Kalkulation.
Bei GTC wird Huang die Produktions-Timeline, erste Kundenzusagen und konkrete Performance-Benchmarks gegenüber Blackwell präsentieren. Zusätzlich wird Vera Ultra als Ausblick auf die zweite Jahreshälfte 2027 erwartet.
NemoClaw: NVIDIAs Einstieg in die Agenten-Plattform
Neben dem Hardware-Highlight steht ein Software-Thema im Mittelpunkt: NemoClaw, NVIDIAs neue Open-Source-Plattform für Enterprise-KI-Agenten. Der Name kombiniert NeMo (NVIDIAs etabliertes LLM-Framework) mit Groq-Technologie, die NVIDIA im vergangenen Jahr akquiriert hat.
NemoClaw positioniert NVIDIA direkt im Wettbewerb mit Microsoft Azure AI, Amazon Bedrock und Google Vertex AI — also nicht mehr nur als Hardware-Lieferant, sondern als vollständiger Agenten-Stack-Anbieter.
Das ist strategisch bedeutsam: Wer die Agenten-Plattform kontrolliert, entscheidet mit welcher Hardware diese Agenten laufen. NVIDIAs Logik ist simpel — eigene Plattform, eigene GPUs, geschlossener Kreislauf.
Der Groq-Inferenzchip: Geschwindigkeit vor Trainingskraft
Weniger im Rampenlicht, aber möglicherweise wirtschaftlich relevanter: Huang soll bei GTC einen neuen Inferenz-fokussierten Chip enthüllen, der auf Groqs Technologie basiert. Groq war vor der Akquisition bekannt für extrem schnelle Inferenz bei deutlich niedrigerem Energieverbrauch als klassische GPU-Setups.
Das adressiert ein zentrales Problem des aktuellen KI-Marktes: Training ist gelöst — Inferenz ist teuer. Jede ChatGPT-Anfrage, jede Claude-Antwort, jeder API-Call verbraucht GPU-Rechenzeit. Ein günstigerer, schnellerer Inferenzchip wäre für die Wirtschaftlichkeit von KI-Produkten wichtiger als der nächste Training-Rekord.
Warum das heute wichtig ist
GTC 2026 findet in einem spezifischen Kontext statt: Meta hat gerade 16.000 Entlassungen angekündigt um seine KI-Infrastruktur zu finanzieren. Microsoft, Google und Amazon überbieten sich bei Capex-Ankündigungen. Der gesamte KI-Boom hängt an NVIDIAs Lieferkette.
Was Huang heute Abend sagt, entscheidet mit wie viel dieser Capex tatsächlich ausgegeben wird — und wohin er fließt. Die Keynote ist kostenlos live auf nvidia.com zu sehen, ohne Registrierung.
Der nächste KI-Sprung beginnt heute Abend um 20 Uhr.