Nachdem Google jahrelang Chips produziert hat, die sowohl für das Training von Modellen der künstlichen Intelligenz als auch für Inferenzen verwendet werden können, teilt Google die beiden Aufgaben auf verschiedene Prozessoren auf – sein jüngster Schritt, um mit Nvidia im Bereich der KI-Hardware zu konkurrieren. Google gab am Mittwoch bekannt, dass es diese Änderung an seiner Tensor-Processing-Unit (TPU) der achten Generation vornehmen wird, wobei beide Chips noch in diesem Jahr auf den Markt kommen sollen.

Amin Wahdat, Senior Vice President und Chief Technology Officer für künstliche Intelligenz und Infrastruktur bei Google, sagte in einem Blogbeitrag: „Mit dem Aufkommen von KI-Agenten glauben wir, dass die Branche von Chips profitieren wird, die professionell auf Schulungs- und Einsatzanforderungen zugeschnitten sind.“
Im März dieses Jahres bewarb Nvidia sein bevorstehendes Chipprodukt, das es Modellen ermöglichen würde, mithilfe der Technologie, die durch die 20-Milliarden-Dollar-Übernahme des Chip-Start-ups Groq erworben wurde, schnell auf Benutzerfragen zu reagieren. Google ist ein großer Kunde von Nvidia, bietet aber auch TPUs als Alternative für Unternehmen an, die seine Cloud-Dienste nutzen.
Die meisten der weltweit führenden Technologieunternehmen entwickeln Halbleiter speziell für künstliche Intelligenz, um die Recheneffizienz zu maximieren und den Anforderungen spezifischer Anwendungsszenarien gerecht zu werden. Apple entwickelt seit vielen Jahren seine eigene neuronale Netzwerk-Engine mit KI-Komponenten für iPhone-Chips. Microsoft hat im Januar dieses Jahres seinen KI-Chip der zweiten Generation herausgebracht; Letzte Woche gab Meta bekannt, dass es mit Broadcom zusammenarbeitet, um verschiedene KI-Prozessoren zu entwickeln.
Google ist ein Vorreiter in diesem Trend. Im Jahr 2015 begann Google, selbst entwickelte Chips zum Betrieb von KI-Modellen zu nutzen, und im Jahr 2018 eröffnete das Unternehmen die Vermietung an Cloud-Service-Kunden. Amazon Cloud Technology brachte 2018 den Inferentia-Chip zur Verarbeitung von KI-Anfragen und 2020 den Trainium-Prozessor zum Training von KI-Modellen auf den Markt.
Analysten des Investmentinstituts DADavidson schätzten im September letzten Jahres, dass der Gesamtwert des TPU-Geschäfts plus des Google DeepMind AI-Teams etwa 900 Milliarden US-Dollar betrug.
Derzeit kann kein Technologieriese Nvidia ersetzen, und Google hat die Leistung des neuen Chips noch nicht einmal mit den Produkten des KI-Chipführers verglichen. Google gab jedoch an, dass die Leistung des neuen Trainingschips 2,8-mal so hoch ist wie die des im November letzten Jahres veröffentlichten Ironwood TPU der siebten Generation, und der Preis ist derselbe; Die Leistung des Inferenzchips wird um 80 % gesteigert.
Nvidia sagte, dass seine kommende Groq3LPU-Hardware große Mengen an statischem Direktzugriffsspeicher (SRAM) verwenden wird, eine Technologie, die auch vom KI-Chiphersteller Cerebras verwendet wird, der Anfang dieses Monats einen Zulassungsantrag eingereicht hat. Auch Googles neuer Inferenzchip mit dem Codenamen TPU8i ist mit SRAM ausgestattet. Der einzelne Chip verfügt über 384 MB integrierten SRAM und die Kapazität ist dreimal so hoch wie die von Ironwood TPU.
Sundar Pichai, CEO von Googles Muttergesellschaft Alphabet, schrieb in einem Blog, dass die Chip-Architektur darauf ausgelegt sei, „einen enormen Durchsatz und eine geringe Latenz auf kostengünstige Weise zu erreichen, um den Anforderungen der gleichzeitigen Ausführung von Millionen von Agenten gerecht zu werden“.
Der Anwendungsumfang von Google AI-Chips erweitert sich. Google gab an, dass Citadel Securities quantitative Forschungssoftware auf Basis von Google TPU entwickelt hat und alle 17 nationalen Labore des US-Energieministeriums KI-Software für die Zusammenarbeit von Wissenschaftlern verwenden, die auf Basis dieses Chips entwickelt wurde; Anthropic, ein Unternehmen für künstliche Intelligenz, hat sich außerdem dazu verpflichtet, mehrere Gigawatt der TPU-Rechenleistung von Google zu nutzen.