Am 20. September rückte ein Artikel des VC-Riesen Sequoia Nvidia und sogar die gesamte KI-Branche in den Vordergrund. David Cahn, Partner bei Sequoia, geht davon aus, dass nach konservativen Schätzungen Nvidias GPU-Umsätze in Höhe von 50 Milliarden US-Dollar den Ausgaben anderer Unternehmen für Rechenzentren in Höhe von 100 Milliarden US-Dollar entsprechen. Geht man von einer Gewinnmarge von 50 % aus, benötigt die KI-Branche einen Umsatz von 200 Milliarden US-Dollar, um diese Ausgaben auszugleichen. Allerdings hat das Unternehmen derzeit nur einen Jahresumsatz von 75 Milliarden US-Dollar, sodass eine Lücke von 125 Milliarden US-Dollar verbleibt.

Cahn wies darauf hin, dass es sich bei der GPU-Produktionskapazität um eine Überkapazität handele, und geht davon aus, dass sich das „Geldverbrennungsmodell“ im KI-Bereich wiederholen wird.

Nachdem der Vorfall drei Tage lang gedauert hatte, veröffentlichte Guido Appenzeller, Sonderberater des Risikokapitalriesen A16Z aus dem Silicon Valley und Gründer des KI-Startups 2X, fast zehn Tweets, in denen er nicht nur Sequoias Einschätzung der Rentabilität von KI zunichte machte, sondern auch darauf hinwies, dass Sequoias grundlegendstes Problem darin bestehe, dass es die Auswirkungen der historischen Revolution der KI unterschätzt habe.


Appenzeller: KI wird alle Software untergraben, und die Umsatzlücke besteht nicht

In einer Reihe von Tweets wies Appenzeller auf drei große Fehler in Cahns Artikel hin.

Um Aufmerksamkeit zu erregen, verwendete Cahn zu Beginn des Artikels zunächst eine Zahl von 200 Milliarden US-Dollar, doch Appenzeller glaubt, dass es bei der Berechnung dieser Zahl ein Problem gibt.


Appenzeller wies darauf hin, dass Cahn die Anschaffungskosten (Investitionsausgaben) der GPU, die jährlichen Betriebskosten, die kumulierten Einnahmen während des GPU-Lebenszyklus und die jährlichen Einnahmen aus KI-Anwendungen addierte und zu einer scheinbar übertriebenen Zahl von 200 Milliarden US-Dollar kam.


Eine angemessenere Berechnung würde jedoch auf der jährlichen Kapitalrendite basieren, die GPU-Käufer nach Kapitalinvestition erzielen können. Mit anderen Worten: Der Return on Investment für GPU-Käufer sollte berechnet werden.Anstatt einfach verschiedene Kosten und Einnahmen unterschiedlicher Zeiträume und Art zu addieren.


Zweitens ist Appenzeller der Ansicht, dass auch die GPU-Stromkosten überbewertet sind.Cahn ging davon aus, dass das Verhältnis von GPU-Stromverbrauch zu Hardwarekosten 1:1 betrug, aber in Wirklichkeit war es nicht so übertrieben.

Laut Appenzeller kostet eine H100-PCIe-GPU etwa 30.000 US-Dollar und verbraucht etwa 350 Watt Leistung. Unter Berücksichtigung von Servern und Kühlung dürfte der Gesamtstromverbrauch bei rund 1 Kilowatt liegen.

Wenn der Strompreis 0,1 US-Dollar/kWh beträgt, dann ist dies bei dieser H100-GPU der FallFür jeden US-Dollar, der für GPU-Hardware ausgegeben wird, beträgt die Stromrechnung nur 0,15 US-Dollar, weit weniger als der von Cahn geschätzte 1 US-Dollar.


Die beiden oben genannten Schätzungen seien nicht die fatalsten, glaubt Appenzeller.Das grundlegende Problem des Artikels besteht darin, dass er das Ausmaß der KI-Revolution unterschätzt.

Appenzeller sagte, dass KI-Modelle ebenso eine Infrastrukturkomponente seien wie CPUs, Datenbanken und Netzwerke. Mittlerweile nutzt fast jede KI-Software CPU, Datenbank und Netzwerk, und das wird auch in Zukunft der Fall sein.

Daher werden KI-Modelle tiefgreifende Auswirkungen auf alle Software- und IT-Systeme haben, und ihr Einflussbereich geht weit über die im Artikel analysierten engen Bereiche hinaus. Der Artikel ignoriert den Status von KI-Modellen als zukünftige Software-Infrastruktur und unterschätzt daher die wahre Bedeutung der KI-Revolution.


Können Startups diese Lücke schließen? Cahn glaubt, dass es eine „große Chance“ gibt. Der Technologiesprung im Bereich der KI und die beispiellose Welle an GPU-Käufen sind immer eine gute Nachricht für die Menschheit.Aber:

In historischen Technologiezyklen hat der übermäßige Ausbau der Infrastruktur tendenziell Kapital verbrannt, aber auch zukünftige Innovationen ermöglicht, indem die Grenzkosten der Entwicklung neuer Produkte gesenkt wurden.Wir gehen davon aus, dass sich dieses Muster im Bereich der KI wiederholen wird.

Die Frage ist also: Kann die KI-Industrie genug 200 Milliarden US-Dollar verdienen?Appenzeller gab eine bejahende Antwort, und mehr noch: Da es sich um eine Netzwerkinfrastruktur handelt, werden die dadurch erzielten Einnahmen in jeder Abteilung in unterschiedlicher Form vorliegen.

Appenzeller sagte:

Jährlich werden über 200 Milliarden US-Dollar für die Netzwerkinfrastruktur ausgegeben.Kann es 800 Milliarden US-Dollar an Einnahmen aus „Netzwerksoftware“ generieren?

Nein, aber Google nutzt die Netzwerkinfrastruktur, um Anzeigen zu verkaufen, und die erzielten Einnahmen werden als Werbeeinnahmen und nicht als „Netzwerksoftware“-Einnahmen ausgewiesen, und die durch Microsoft Office 365 erzielten Einnahmen werden nicht als „Netzwerksoftware“-Einnahmen gekennzeichnet.


Mit anderen Worten: Einnahmen aus der Infrastruktur werden je nach Sektor in unterschiedliche Einnahmekategorien eingeteilt.

Abschließend kam Appenzeller zu dem Schluss:KI wird jegliche Software untergraben. Die von Cahn beschriebene „KI-Umsatzlücke“ existiert tatsächlich nicht:

Die im Artikel angenommene „KI-Einkommenslücke“ existiert tatsächlich nicht. Die Ausgaben für KI und die von ihr unterstützte Infrastruktur werden sich letztendlich in unterschiedlicher Form in Softwareausgaben und -einnahmen in verschiedenen Branchen widerspiegeln.

KI wird tiefgreifende Auswirkungen auf alle Software haben, nicht nur auf „KI-Software“ im engeren Sinne. Wir müssen uns also keine Sorgen über eine „Umsatzlücke“ machen und können getrost auf die tiefgreifenden Auswirkungen der KI-Revolution auf die gesamte IT-Branche blicken.


NVIDIA-Kunden haben nur langsam Geld verdient, und die Geduld des Kapitals geht auf „Hunderte von Milliarden“ zu Ende.

Es ist erwähnenswert, dass Sequoias Bedenken hinsichtlich der Monetarisierungsfähigkeiten von KI nicht unbegründet sind.

In einem früheren Artikel von Wall Street Insights wurde erwähnt, dass die enormen Investitionen in jede GPU letztendlich in einen Endkundennutzen umgewandelt werden müssen, damit sich die Branche langfristig weiterentwickeln kann.

Als Hauptnutznießer der „Nuggets buy shovel“-Logik war Nvidia derzeit in den ersten beiden Quartalen dieses Jahres recht beeindruckend. Auf der nachgelagerten Anwendungsebene sind die KI-Investitionen jedoch nur gestiegen, die Leistung hat sich jedoch nicht verbessert.

Aufgrund der enormen Nachfrage, die das Training großer Modelle mit sich bringt, wurden die Aufträge und die Leistung der Hersteller von KI-Infrastrukturen kontinuierlich überprüft. Allerdings befinden sich B-Seiten-Anwendungen noch in einem frühen Stadium. Die meisten Hersteller von KI-Anwendungen sind noch nicht in der Kommerzialisierungsphase angekommen. Aus Sicht der Lieferzeit wird erwartet, dass sie 2-3 Quartale später als die Infrastrukturschicht liegt.

Wenn Goldgräber kein Geld verdienen können und ihre Schaufelverkäufe explodieren, werden sie natürlich nicht lange überleben. Im vergangenen Monat ist der Aktienkurs von Nvidia um mehr als 11 % gefallen und liegt wieder auf dem Niveau vom Juni dieses Jahres.


Unter der Prämisse, dass Kostensenkung und Effizienzsteigerung weiterhin das Hauptthema der Entwicklung globaler Technologieaktien sind, geht die Geduld des Kapitalmarktes zur Neige.