Zudem blieben einige Fragen zu einer Änderung beim Produktionsverfahren für das nächste Chipsystem mit dem Namen Blackwell unbeantwortet. Anleger liessen die Aktie im nachbörslichen US-Handel um rund sieben Prozent fallen.
Noch vor einigen Jahren war Nvidia vor allem Gamern als Anbieter von Grafikkarten ein Begriff. Doch dann stellte sich heraus, dass sich die Technik dahinter auch hervorragend für Anwendungen mit Künstlicher Intelligenz eignet.
Nvidias Chips wurden so zu einer Schlüsseltechnologie für die KI-Zukunft - und der Konzern avancierte zum Überflieger mit einem Börsenwert von rund drei Billionen Dollar. Allein seit Jahresbeginn stieg der Aktienkurs um rund 150 Prozent. Viele Nvidia-Mitarbeiter machte das Kursfeuerwerk dank ihrer Aktienpakete zu Multimillionären.
«Watch Party» zu Quartalsbericht
Dem aktuellen Quartalsbericht wurde wie einem Grossereignis entgegengefiebert, das den ganzen Markt bewegen kann. In einer Bar auf der New Yorker Sixth Avenue veranstalteten einige Fans sogar eine «Watch Party», wie man sie sonst zu hochkarätigen Sport-Begegnungen macht.
Doch nach Quartalen, in denen Nvidia die Markterwartungen sprengte, blieben grosse Überraschungen diesmal aus. Der Rekordlauf ging dennoch weiter. Der Umsatz stieg von 13,5 Milliarden Dollar im Vorjahr auf gut 30 Milliarden Dollar - ein Zuwachs von 122 Prozent und gut eine Milliarde Dollar mehr als im Schnitt von Analysten prognostiziert. Damit knüpfte Nvidia an die drei Monate davor an, in denen die Erlöse um 262 Prozent hochsprangen.
Der Quartalsgewinn schoss im Jahresvergleich von gut 6,2 auf knapp 16,6 Milliarden Dollar hoch. Für das laufende Quartal stellte der Konzern einen weiteren Umsatzanstieg auf 32,5 Milliarden Dollar in Aussicht - während Analysten im Schnitt eine Prognose von knapp 32 Milliarden Dollar erwartet hatten. Nvidia würde damit die Erlöse im Jahresvergleich um rund 75 Prozent steigern. Doch einige der Experten waren noch viel optimistischer.
Produktionsänderung bei nächstem Chipsystem
Nach Medienberichten über Probleme beim nächsten Chipsystem Blackwell sagte Nvidia-Chef Jensen Huang, man habe Veränderungen an der sogenannten Maske vorgenommen, mit deren Hilfe die Chipstrukturen auf Halbleiterplatten aufgetragen werden. «Die Änderung ist abgeschlossen, es waren keine funktionalen Veränderungen notwendig», betonte er in einer Telefonkonferenz mit Analysten.
Nvidia plane nach wie vor, im bis Ende Januar 2025 laufenden Schlussquartal des aktuellen Geschäftsjahres Blackwell-Chips an die Kunden zu liefern - und rechne mit Milliarden an Erlösen daraus. Ob die Änderung beim Produktionsverfahren zu Verzögerungen verglichen mit ursprünglichen Planungen führt, liess Huang offen.
Neue KI-Modelle sind stromhungriger
Huang bewirbt Blackwell seit Monaten als bahnbrechende Neuentwicklung, die das Anlernen von Software mit Künstlicher Intelligenz viel schneller und günstiger machen werde. Als Beispiel nannte er bei der Vorstellung im März ChatGPT. Mit der aktuellen Nvidia-Generation Grace Hopper hätte man den Chatbot innerhalb von drei Monaten mit 8000 Chips und einem Stromverbrauch von 15 Megawatt trainieren können. Mit Blackwell schaffe man das in der gleichen Zeit mit 2000 Chips und 4 Megawatt Strom.
Dabei könnten komplexere neue KI-Modelle 20 bis 40 Prozent mehr Energie benötigen als die heute genutzten, betonte Huang jetzt. Und die Chatbots und Bilder-Generatoren, die heute viel Aufmerksamkeit bekommen, seien nur «die Spitze des Eisbergs», wenn es um den Wandel durch Künstliche Intelligenz gehe.
Huang rechnet unter anderem damit, dass in Zukunft alle möglichen Inhalte, die heute aus Datenbanken abgerufen werden, jedes Mal frisch von KI formuliert werden. Diese Vision benötigt gewaltige Computer-Ressourcen.
Analyst: Kunden kaufen alles, was Nvidia anbietet
Nvidia versuchte die Börse zugleich davon zu überzeugen, dass man gar nicht so dringend auf schnelle Blackwell-Erlöse angewiesen sei, um zu wachsen. Auch die Nachfrage nach der aktuellen Chipgeneration Hopper sei weiterhin stark. Einige Marktexperten pflichten dem bei. Die Kunden «werden kaufen, was auch immer Nvidia verkauft», sagte etwa Branchenanalyst Gil Luria von der Finanzfirma D.A. Davidson bei Bloomberg TV.
Ursprünglich wurde Nvidia-Technik vor allem zum Anlernen von KI-Systemen mit gewaltigen Datenmengen verwendet. Inzwischen komme Nvidia-Technik verstärkt auch bei der Erzeugung von Inhalten mithilfe Künstlicher Intelligenz zum Einsatz, betonte Finanzchefin Colette Kress. Im vergangenen Quartal habe das mehr als 40 Prozent der Erlöse von 26,3 Milliarden Dollar aus dem Geschäft mit Rechenzentren eingebracht.
Darin steckt potenziell ein noch stabileres Geschäft für Nvidia. Denn das Anlernen braucht zwar eine gewaltige Rechenleistung - ist jedoch nur einmal pro KI-Modell nötig.
(AWP)
1 Kommentar
Meiner Meinung ist es höchste Zeit für einen Einstieg bei Nvidia (KI-Revolution) - für jene, die noch nicht dabei sind: Warum? Das Wichtigste, was die meisten Leute bei der KI-Revolution nicht verstehen, ist, dass die Chipentwicklung die KI-Entwicklung anführt, nicht umgekehrt. Der ChatGPT-„Moment“ ereignete sich am 30. November 2022, als OpenAI sein GPT-3.5-Modell veröffentlichte und zum ersten Mal die wahre Leistung der KI zeigte. Aber was machte GPT-3.5 so viel besser als alle anderen KI-Modelle, die ihm vorausgingen? Es war das erste Modell, das auf der (damals) hochmodernen DGX A100-Plattform von Nvidia trainiert wurde. Mit dem neuesten Chip von Nvidia, dem H100, konnte der OpenAI-Forscher Andrej Karpathy GPT-2 in nur 24 Stunden nachbilden (was mit älteren Chips Monate dauerte). Wenn man die beste KI entwickeln will, muss man die Nvidia-Plattform verwenden.
Zweitens erreichen die Produkte von Nvidia nur dann eine optimale Leistung, wenn sie als Teil einer grösseren Plattform eingesetzt werden. Einer der Schlüssel zur Entwicklung der besten KI liegt darin, die Fähigkeiten der zum Trainieren und Ausführen der KI verwendeten GPUs voll auszuschöpfen. Dazu braucht man die grösstmögliche Bandbreite und die geringstmögliche Latenz. Aus diesem Grund hat Nvidia seine eigenen Netzwerkarchitekturen, NVLink und Infiniband, seine eigenen Switches und seine eigenen Netzwerkschnittstellenkarten (NICs) entwickelt, um eine maximale Kommunikation zwischen den einzelnen GPUs zu ermöglichen.
Drittens ist der Software-Stack von Nvidia entscheidend für die Entwicklung der besten KI. Nvidias CUDA-Software ermöglicht es Entwicklern, direkt mit Nvidias GPUs zu kommunizieren. Fast alle KI-Ingenieure sind bereits mit der CUDA-Software vertraut und wollen nicht noch ein weiteres Softwarepaket eines Anbieters wie Intel oder AMD erlernen, um ihre GPUs zu steuern. Darüber hinaus ist die Software von Nvidia so optimiert, dass sie dem Endbenutzer hilft, das Beste aus der Hardware herauszuholen, so dass die Verwendung eines anderen Anbieters zu Leistungseinbußen führt.