Google hat eine neue Vereinbarung mit dem Pentagon unterzeichnet, um den Zugang seiner eigenen KI-Tools zu seinen geheimen Netzwerken zu öffnen und fast alle „rechtmäßigen Nutzungen“ zu ermöglichen, nachdem Anthropic einen Antrag des US-Verteidigungsministeriums auf Genehmigung sensibler Nutzungen abgelehnt hatte. In mehreren Medienberichten heißt es, dass diese Vereinbarung bedeutet, dass das Verteidigungsministerium die KI von Google in geheimen Umgebungen für Geheimdienstanalysen, Entscheidungsunterstützung und andere Szenarien umfassender einsetzen kann.

Der Vorfall wurde durch die öffentliche Haltung von Anthropic gegen die Trump-Regierung ausgelöst. Zuvor wollte das Pentagon die Modelle von Anthropic mit wenigen Einschränkungen nutzen, einschließlich der Verwendung von KI zur inländischen Massenüberwachung und autonomen Waffensystemen, aber Anthropic bestand darauf, dem Vertrag klare „Leitplanken“ hinzuzufügen, die solche Nutzungen verbieten. Da Anthropic sich weigerte, bei diesen Anwendungsfällen zu kooperieren, setzte das Verteidigungsministerium das Modellunternehmen anschließend auf eine Liste mit „Lieferkettenrisiken“ – eine Bezeichnung, die normalerweise Unternehmen vorbehalten ist, die als „ausländische Gegner“ gelten.
Anthropic hat wegen der Benennung vor Gericht Klage eingereicht. Im März dieses Jahres gab ein Richter dem Antrag von Anthropic statt, eine einstweilige Verfügung zur Feststellung des „Lieferkettenrisikos“ zu erlassen, während das Verfahren noch anhängig war, und verhinderte damit vorübergehend die Ausbreitung der damit verbundenen Verwaltungsfolgen.
Inmitten dieses Konflikts nutzten andere große KI-Unternehmen schnell die Gelegenheit und versuchten, die „Verluste“ von Anthropic in eigene „Gewinne“ umzuwandeln. OpenAI unterzeichnete so schnell wie möglich eine Vereinbarung mit dem Verteidigungsministerium. Später erlangte xAI auch Zugang zu vertraulichen Netzwerken, was einige Mitglieder des US-Kongresses dazu veranlasste, die Entscheidungsfindung des Pentagons in Frage zu stellen. Jetzt ist Google das dritte Unternehmen, das eine ähnliche Vereinbarung mit dem Militär getroffen hat, und seine Zusammenarbeit hat die Palette der für das US-Verteidigungssystem verfügbaren Großmodelle weiter erweitert.
Dem Wall Street Journal zufolge enthielt der Text der Vereinbarung von Google mit dem Pentagon auch eine Formulierung, die besagte, dass das Unternehmen „nicht beabsichtigt“, seine KI für die inländische Massenüberwachung oder autonome Waffen einzusetzen, ähnlich wie Teile des OpenAI-Vertrags. Der Bericht wies jedoch auch darauf hin, dass immer noch Unsicherheit darüber bestehe, ob diese Bestimmungen wirklich rechtsverbindlich seien und wie sie bei der tatsächlichen Umsetzung überwacht und zur Rechenschaft gezogen würden.
Es ist erwähnenswert, dass Google diesen großen militärischen Auftrag vorantreibt, während der interne Widerstand nicht nachgelassen hat. Bisher haben 950 Google-Mitarbeiter einen offenen Brief unterzeichnet, in dem sie das Unternehmen auffordern, dem Beispiel von Anthropic zu folgen und keine KI-Funktionen ohne klare und durchsetzbare Nutzungsbeschränkungen an das Verteidigungsministerium zu verkaufen. Google hat bisher weder auf das gemeinsame Schreiben und den konkreten Inhalt des neuen Vertrags noch auf Medienanfragen nach Kommentaren reagiert.
Vor dem Hintergrund des rasanten Vordringens künstlicher Intelligenz in die Bereiche der öffentlichen Sicherheit und des Militärs spiegelt dieser Vorfall einen immer akuteren Wertekonflikt zwischen Technologieriesen, Regierungen und ihren eigenen Mitarbeitern wider. Einerseits versucht das Militär, den Einsatz modernster KI-Tools zu maximieren, um seine Fähigkeiten zu verbessern. Auf der anderen Seite versuchen einige Technologieunternehmen und ihre Mitarbeiter, durch Vertragsbedingungen und den Druck der öffentlichen Meinung das Endergebnis für die militärischen und sicherheitstechnischen Anwendungen von KI zu bestimmen. Die Entscheidung von Google, die Zusammenarbeit mit dem Pentagon auszubauen, anstatt der harten Haltung von Anthropic zu folgen, hat die Kontroverse darüber, „wer rote Linien für den Einsatz von KI ziehen sollte“, weiter verschärft.