Nach Angaben von mit der Angelegenheit vertrauten Personen hat Google kürzlich eine neue mehrjährige Cloud-Computing- und strategische Kooperationsvereinbarung mit dem Startup Thinking Machines Lab für künstliche Intelligenz geschlossen. Das Transaktionsvolumen beläuft sich auf Milliarden von Dollar, was zeigt, dass der Suchriese seine Investitionen in hochmoderne Großmodellkunden erhöht. Diese Vereinbarung wurde getroffen, nachdem Thinking Machines Lab zuvor eine groß angelegte Kooperation zur Beschaffung von Rechenleistung mit NVIDIA unterzeichnet hatte. Dies bedeutet, dass das Unternehmen gleichzeitig branchenführende Lieferanten sowohl für den zugrunde liegenden Chip als auch für die Cloud-Plattform binden wird.

Thinking Machines Lab wurde 2025 von der ehemaligen OpenAI-CTO Mira Murati gegründet und hat seinen Hauptsitz in San Francisco. Im Jahr seiner Gründung schloss das Unternehmen eine Seed-Finanzierungsrunde in Höhe von 2 Milliarden US-Dollar mit einer Bewertung von etwa 12 Milliarden US-Dollar ab. Zu den Investoren zählen Institutionen und Branchen wie Andreessen Horowitz, Accel, Nvidia und AMD und gilt als eines der aktuellsten KI-Labore. Das Unternehmen ist als Forschungs- und Entwicklungseinrichtung für „allgemeine KI-Systeme für die menschliche Zusammenarbeit“ positioniert und legt Wert auf Erklärbarkeit, Anpassbarkeit und interdisziplinäre Fähigkeiten mit dem Ziel, die Lücke zwischen modernsten KI-Fähigkeiten und dem Verständnis der wissenschaftlichen Gemeinschaft zu schließen.
Im März dieses Jahres gab Thinking Machines Lab gerade eine mehrjährige Rechenleistungskooperation mit NVIDIA bekannt, die ab 2027 mindestens 1 GW NVIDIA Vera Rubin-Systeme in ihrer Trainings- und Inferenzinfrastruktur einsetzen wird. NVIDIA wird außerdem eine strategische Investition in das Unternehmen tätigen. Brancheninsider gehen davon aus, dass der Gesamtwert dieser Zusammenarbeit während der Vertragslaufzeit sehr wahrscheinlich „Milliarden US-Dollar“ oder sogar mehr erreichen wird, basierend auf Huangs früherer Schätzung der Kosten für ein 1-Gigawatt-KI-Rechenzentrum mit „bis zu 50 Milliarden US-Dollar“.
In diesem Zusammenhang wird die jüngste Zusammenarbeit mit Google als wichtige Ergänzung seiner Rechenleistungslandschaft angesehen: Nvidia stellt Chips und dedizierte Systeme bereit, während Google Thinking Machines Lab über seine Cloud-Plattform große GPU/TPU-Cluster, Netzwerke, Speicher und technische Unterstützung für das Training der neuen Generation multimodaler großer Modelle des Labors bereitstellt. Bereits nach Abschluss der Seed-Finanzierungsrunde hat Thinking Machines Lab eine Zusammenarbeit mit Google Cloud etabliert. Diese Vereinbarung gilt als Verstärkung und Sicherung der bestehenden Beziehung und ermöglicht es Google, eine solidere Infrastruktur und ökologische Nische in diesem „potenziellen nächsten OpenAI- oder Anthropic“-Labor zu besetzen.
Nach Angaben von Personen, die der Transaktion nahe stehen, umfasst die Vereinbarung neben der Anmietung von Cloud-Computing-Leistung auch ein Paket gemeinsamer Technologieoptimierung und kommerzieller Konditionen, wie etwa den gemeinsamen Aufbau von Trainings- und Inferenzsystemen rund um Googles TPU-Plattform der neuen Generation, Netzwerk- und Datenpipeline-Optimierung für groß angelegte verteilte Schulungen sowie eine intensive Zusammenarbeit bei Sicherheit und Compliance. Was Google schätzt, ist, dass durch den Aufbau intensiver, verbindlicher Beziehungen zu frühen, hochmodernen Laboren in Zukunft Chancen bestehen, auf der Grundlage des Wachstums dieser Kunden beträchtliche Erträge zu erzielen, unabhängig davon, ob es sich um Modellhosting, API-Verteilung oder Lösungen auf Unternehmensebene handelt.
Für Thinking Machines Lab bedeutet die kontinuierliche, wichtige Zusammenarbeit mit NVIDIA und Google, dass die langfristige Garantie für Rechenressourcen erheblich verbessert wurde, was dem Unternehmen dabei helfen wird, seinen Forschungs- und Entwicklungskurs des „Aufbaus hochmoderner KI-Modelle mit reproduzierbaren Ergebnissen“ fortzusetzen. In einem Umfeld, in dem die Nachfrage der KI-Industrie nach High-End-GPUs und Rechenleistung weiterhin knapp ist, trägt diese Bindung dazu bei, das Risiko zu verringern, dass Trainingspläne durch die Ressourcenversorgung eingeschränkt werden, und legt außerdem den Grundstein für die mögliche zukünftige Einführung kommerzieller APIs und wissenschaftlicher Forschungstools.
Solch große Rechenleistung und Cloud-Service-Verträge bedeuten jedoch auch, dass beide Parteien überzeugende Antworten auf Kostendeckungs- und Kommerzialisierungspfade geben müssen. Für Google wird die Frage, wie sich solche hochriskanten, hochinvestitionsintensiven Laborkunden in den langfristigen Wachstumsmotor von Google Cloud umwandeln lassen, zu einem Schwerpunkt des Kapitalmarktes werden; Und für das Thinking Machines Lab, das sich noch in einem frühen Stadium befindet, steht die Frage, wie man Produkte stabil auf den Markt bringt, Einnahmen generiert und die Vision eines „verständlicheren und anpassbareren allgemeinen KI-Systems“ verwirklicht, während gleichzeitig weiterhin viel Rechenleistung aufgewendet wird, vor einer Herausforderung.