Seit Anfang dieses Jahres haben sich US-Aktien dank künstlicher Intelligenz (KI) stark erholt, und auch Technologieaktien haben „ihren Ruhm wiedererlangt“ und die „Big Seven“ gebildet, darunter $Microsoft (MSFT.US)$ und $NVIDIA (NVDA.US)$. Alles scheint sehr gut auszusehen, allerdings sollte man bedenken, dass derzeit nur Nvidia wirklich Geld mit KI verdient.
Ganz gleich, ob es sich um den „Marktführer“ Microsoft oder die „aufstrebenden Stars“ Google, Meta und Adobe handelt, diese Unternehmen befinden sich immer noch in der Phase der Integration von KI in ihre Produkte und haben sie noch nicht wirklich „monetarisiert“, also echtes Geld mit KI verdient. Derzeit sind die KI-Dienste vieler Unternehmen kostenlos. Nur Microsoft wagt es, den Preis von Copilot um 83 % zu erhöhen, aber Verbraucher werden es möglicherweise noch nicht kaufen.
Obwohl sie noch nicht wirklich profitabel sind, ist es eine Tatsache, dass Technologieunternehmen stark in den KI-Bereich investieren und GPUs horten. Laut Wall-Street-Analysten könnte der GPU-Umsatz von Nvidia bis Ende dieses Jahres die 50-Milliarden-Dollar-Marke überschreiten.
An diesem Punkt kommen Anleger nicht umhin, sich zu fragen: Können Technologieunternehmen ihr Kapital durch den Kauf von GPUs in so großem Umfang zurückgewinnen, wenn ihre Gewinnaussichten noch unklar sind? Wird am Ende alles umsonst sein? Wenn es zurückgezahlt werden kann, wann kann es zurückgezahlt werden?
David Cahn, Partner bei der Risikokapitalgesellschaft Sequoia, hat kürzlich eine Berechnung veröffentlicht. Cahn geht davon aus, dass jeder Dollar an GPU-Ausgaben ungefähr einem Dollar an Energiekosten für Rechenzentren entspricht. Mit anderen Worten: Wenn NVIDIA bis Ende des Jahres GPUs im Wert von 50 Milliarden US-Dollar verkaufen kann, werden sich die Ausgaben für Rechenzentren nach konservativen Schätzungen auf bis zu 100 Milliarden US-Dollar belaufen.
Unter der Annahme einer Gewinnspanne von 50 % benötigt die KI-Branche dann einen Umsatz von 200 Milliarden US-Dollar, um die Kosten der Vorabinvestition wieder hereinzuholen. Cahn wies jedoch darauf hin, dass der Jahresumsatz derzeit nur 75 Milliarden US-Dollar beträgt, sodass ein Defizit von 125 Milliarden US-Dollar verbleibt.
Zweifel kommen
Guido Appenzeller, Sonderberater des Silicon Valley-Risikokapitalriesen A16Z und Gründer des KI-Startups 2X, widerlegte Cahns Ansichten und kippte seine Argumente Wort für Wort.
Insgesamt dreht sich Appenzellers Kernargument um die Überzeugung, dass künstliche Intelligenz ein allgegenwärtiger Bestandteil in fast jedem softwarehaltigen Produkt werden wird. Er behauptete, dass große Investitionen in die GPU-Infrastruktur, selbst in der Höhe von 50 Milliarden US-Dollar, sich leicht gegen die gewaltigen 5 Billionen US-Dollar an weltweiten IT-Ausgaben amortisieren könnten.
Er widerrief nicht nur Sequoias Einschätzung der Rentabilität von KI, sondern wies auch darauf hin, dass Sequoias grundlegendstes Problem darin bestehe, dass es die Auswirkungen der historischen Revolution der KI unterschätzt habe.
Konkret wies Appenzeller zunächst darauf hin, dass Cahn ein „Clickbait“ sei und versuche, mit einer Zahl wie „200 Milliarden US-Dollar“ die Aufmerksamkeit der Menschen auf sich zu ziehen, tatsächlich sei seine Berechnung jedoch völlig falsch gewesen.
Appenzeller wies darauf hin, dass Cahn die Anschaffungskosten (Investitionsausgaben) der GPU, die jährlichen Betriebskosten, die kumulierten Einnahmen während des GPU-Lebenszyklus und die jährlichen Einnahmen aus KI-Anwendungen addierte und zu einer scheinbar übertriebenen Zahl von 200 Milliarden US-Dollar kam. Er glaubt jedoch, dass eine angemessenere Berechnung auf der jährlichen Rendite basieren würde, die GPU-Käufer auf ihre Investitionskosten erhalten.
Zweitens glaubt er auch, dass die Stromkosten von GPUs ebenfalls übertrieben seien. Laut Appenzeller kostet eine H100-PCIe-GPU etwa 30.000 US-Dollar und verbraucht etwa 350 Watt Leistung. Unter Berücksichtigung von Servern und Kühlung dürfte der Gesamtstromverbrauch bei rund 1 Kilowatt liegen.
Berechnet mit einem Strompreis von 0,1 US-Dollar pro Kilowatt benötigt diese H100-GPU für jeden US-Dollar, der während ihres fünfjährigen Lebenszyklus für GPU-Hardware ausgegeben wird, nur 0,15 US-Dollar an Strom, was weitaus weniger ist als der von Cahn geschätzte US-Dollar.
Vor allem aber, so glaubt Appenzeller, ignoriert Cahn das Ausmaß der KI-Revolution. Er wies darauf hin, dass KI-Modelle ebenso wie CPUs, Datenbanken und Netzwerke eine Infrastrukturkomponente seien. Mittlerweile nutzt fast jede KI-Software CPU, Datenbank und Netzwerk, und das wird auch in Zukunft der Fall sein.
Kann die KI-Industrie also genug 200 Milliarden US-Dollar verdienen? Appenzeller gab eine bejahende Antwort, und mehr noch: Da es sich um eine Netzwerkinfrastruktur handelt, werden die dadurch erzielten Einnahmen in jeder Abteilung in unterschiedlicher Form vorliegen.
Daher kam er zu dem Schluss, dass KI alle Software untergraben wird und Cahns sogenannte „KI-Umsatzlücke“ tatsächlich nicht existiert.