Nvidia kündigt nächste KI-Chips an
Nvidia-Chef Jensen Huang schwört die Welt auf ein KI-Zeitalter ein - für das seine Firma die Chips liefern will. (Urheber/Quelle/Verbreiter: Nic Coury/FR171100 AP/AP/dpa)

Der Halbleiter-Riese Nvidia will dem schnell wachsenden Bedarf an Rechenleistung für Künstliche Intelligenz mit einer neuen Generation seiner Chips begegnen. Das neue System mit dem Namen «Vera Rubin» soll im Herbst 2026 auf den Markt kommen, sagte Nvidia-Chef Jensen Huang bei der hauseigenen Entwicklerkonferenz GTC. Rubin und die für dieses Jahr angekündigte Weiterentwicklung der aktuellen Plattform Blackwell sollen die Kosten für den Betrieb von KI-Software im Vergleich zu bisheriger Technik drastisch senken. 

Chips von Nvidia wurden zu einer Schlüsseltechnologie für Künstliche Intelligenz. Zunächst wurden die Systeme rund um die Welt vor allem für das Training von Anwendungen mit Künstlicher Intelligenz verwendet. Tech-Riesen wie Google oder der Facebook-Konzern Meta füllen ganze Rechenzentren damit – aber auch KI-Start-ups wie die ChatGPT-Erfinderfirma OpenAI setzen darauf. Diese Position ließ das Geschäft von Nvidia in den vergangenen Jahren explosiv wachsen. 

100 Mal mehr Rechenleistung als gedacht

Huang versuchte zugleich, Sorgen von Investoren zu zerstreuen, dass die Welt künftig mit weniger KI-Rechenleistung auskommen könnte – und damit auch die Erwartungen an das zukünftige Geschäft von Nvidia zu hoch sein könnten. 

Die Welt gehe insgesamt dazu über, Antworten mit Hilfe Künstlicher Intelligenz frisch zu generieren, statt gespeicherte Antworten abzurufen. Insbesondere die neuen KI-Modelle, die zur Problemlösung Schritt für Schritt eine Argumentationskette aufbauen können, seien leistungshungrig. Als Beispiel demonstrierte Huang, wie das chinesische Modell Deepseek R1 150 Mal mehr Rechenleistung als eine traditionelle KI-Software brauchte, um die richtige Sitzordnung bei einer Hochzeit zu berechnen. Das herkömmliche Modell scheiterte zugleich an der Aufgabe. 

Insgesamt brauche man locker 100 Mal mehr Rechenkapazität als noch vor einem Jahr angenommen, sagte Huang. Dass er Deepseek zur Demonstration aussuchte, dürfte kein Zufall gewesen sein. R1 soll mit deutlich weniger Rechenaufwand trainiert worden sein als bisherige KI-Modelle. Das hatte vor einigen Wochen einen Kurssturz der Nvidia-Aktie ausgelöst. Huang argumentiert jedoch, dass der eigentliche Bedarf an Rechenleistung nicht beim Training, sondern bei der Erzeugung der Antworten entstehen werde.

Von