Am Mittwoch veröffentlichte AMD seine mit Spannung erwartete neue MI300-Serie von KI-Chips, darunter MI300A- und MI300X-Chips, die auf diesen von NVIDIA dominierten Markt abzielen. Der neue Chip von AMD verfügt über mehr als 150 Milliarden Transistoren. Der Speicher des neuen Chips ist 2,4-mal so groß wie der von Nvidias H100-Produkt und die Speicherbandbreite beträgt 1,6-mal so viel wie beim H100. AMD hat seine Prognose für die Marktgröße von KI-Beschleunigern im Jahr 2027 im Vergleich zum August fast verdoppelt.

Am Mittwoch veröffentlichte AMD seine mit Spannung erwartete neue MI300-Serie von KI-Chips, darunter MI300A- und MI300X-Chips, die auf diesen von NVIDIA dominierten Markt abzielen. Solche Chips können die großen Datenmengen, die beim KI-Training anfallen, besser verarbeiten als herkömmliche Computerprozessoren.

Diese neue Produkteinführung ist eine der wichtigsten in der 50-jährigen Geschichte von AMD und dürfte Nvidias Position auf dem heißen Markt für Beschleuniger für künstliche Intelligenz herausfordern.

Die neuen Chips von AMD verfügen über mehr als 150 Milliarden Transistoren. Der MI300X-Beschleuniger unterstützt bis zu 192 GB HBM3-Speicher.

Der Speicher des MI300X ist 2,4-mal so hoch wie bei NVIDIA H100-Produkten und die Speicherbandbreite ist 1,6-mal so hoch wie bei H100, was die Leistung weiter verbessert.


Die Leistung des neuen MI300X-Chips kann im Vergleich zu Nvidias H100 um bis zu 60 % gesteigert werden. Im Eins-zu-eins-Vergleich mit dem H100 (Llama270B-Version) verbesserte sich die Leistung des MI300X um bis zu 20 %. Im Eins-zu-eins-Vergleich mit dem H100 (FlashAttention2-Version) verbesserte sich die Leistung um bis zu 20 %. In einem 8-zu-8-Server-Vergleich mit H100 (Llama270B-Version) stieg die Leistung um bis zu 40 %. In einem 8-gegen-8-Serververgleich mit H100 (Bloom176B) stieg die Leistung um bis zu 60 %.


Lisa Su, CEO von AMD, sagte, dass der neue Chip hinsichtlich seiner Fähigkeit, Software für künstliche Intelligenz zu trainieren, dem H100 gleichwertig sei. In Bezug auf die Schlussfolgerung, also den Prozess des Ausführens der Software nach ihrer tatsächlichen Verwendung, ist sie viel besser als Konkurrenzprodukte.

Angesichts der Popularität künstlicher Intelligenz besteht auf dem Markt eine große Nachfrage nach High-End-Chips. Dadurch können Chiphersteller diesen lukrativen Markt gezielt ansprechen und die Einführung hochwertiger KI-Chips beschleunigen.

Obwohl der Wettbewerb auf dem gesamten KI-Chip-Markt ziemlich hart ist, gab AMD am Mittwoch eine kühne und schockierende Prognose zur zukünftigen Marktgröße ab und ging davon aus, dass der KI-Chip-Markt schnell wachsen wird. Konkret wird erwartet, dass der Markt für Chips für künstliche Intelligenz (KI) bis 2027 mehr als 400 Milliarden US-Dollar erreichen wird, was fast dem Doppelten der im August prognostizierten 150 Milliarden US-Dollar entspricht, was die sich schnell ändernden Erwartungen an KI-Hardware unterstreicht.


AMD ist zunehmend zuversichtlich, dass seine MI300-Serie einige Technologiegiganten überzeugen kann, was dazu führen könnte, dass diese Unternehmen Milliarden von Dollar für AMD-Produkte ausgeben. AMD sagte, dass Microsoft, Oracle und Meta alle seine Kunden seien.

Nachrichten vom selben Tag zeigten, dass Microsoft die Nachfrage nach AMDs KI-Beschleunigerprodukten bewerten und die Machbarkeit der Einführung des neuen Produkts bewerten wird. Meta wird im Rechenzentrum die neu eingeführten MI300X-Chipprodukte von AMD einsetzen. Oracle sagte, es werde die neuen Chips von AMD in seinen Cloud-Diensten verwenden.

Bisher ging der Markt davon aus, dass AMDs MI300-Serie im Jahr 2024 etwa 300.000 bis 400.000 Einheiten ausliefern wird, wobei die größten Kunden Microsoft und Google sind. Wenn es nicht den begrenzten Kapazitätsmangel bei TSMC CoWoS gäbe und Nvidia bereits mehr als 40 % seiner Produktionskapazität gebucht hätte, dürften die Auslieferungen von AMD nach oben korrigiert werden.

Der Aktienkurs von NVIDIA fiel um 1,5 %, nachdem die Nachricht über den MI300X-Beschleuniger von AMD veröffentlicht wurde. Der Aktienkurs von Nvidia ist in diesem Jahr in die Höhe geschossen und hat seinen Marktwert auf über 1 Billion US-Dollar erhöht. Die größte Frage ist jedoch, wie lange das Unternehmen den Beschleunigermarkt monopolisieren kann. AMD sah seine eigene Chance: Große Sprachmodelle erfordern viel Computerspeicher, und hier sieht AMD seinen Vorteil.

Um seine Marktdominanz zu festigen, entwickelt Nvidia auch eigene Chips der nächsten Generation. Der H100 wird in der ersten Hälfte des nächsten Jahres durch den H200 ersetzt, der letzten Monat auf den Markt kam und einen neuen Hochgeschwindigkeitsspeicher bietet, der doppelt so schnell Inferenzen durchführen kann wie der H100 auf Llama2. Darüber hinaus wird Nvidia noch in diesem Jahr eine neue Prozessorarchitektur auf den Markt bringen.