Die Trump-Regierung in den Vereinigten Staaten erwägt die Verabschiedung eines Pakets administrativer Maßnahmen, um die Kontrollen modernster Modelle für künstliche Intelligenz zu verschärfen, um den eskalierenden nationalen Sicherheitsrisiken zu begegnen. Laut sieben Vertretern der Technologiebranche und Politikberatern, denen Anonymität gewährt wurde, laufen im Weißen Haus bereits seit einiger Zeit Diskussionen über neue Vorschriften, zu denen auch die Einrichtung eines formellen Überprüfungs- und Freigabemechanismus für fortschrittliche KI-Modelle gehören würde.

Mehrere mit der Angelegenheit vertraute Personen sagten, dass das Weiße Haus in jüngsten vertraulichen Kommunikationen mit der Branche unter anderem die Idee hatte, ein Überprüfungssystem in Form einer Executive Order einzurichten, um die potenziellen Auswirkungen sogenannter „modernster KI-Modelle“ zu bewerten. Ein Experte für KI-Politik und eine Quelle aus der Industrie sagten, dass Unternehmen im Rahmen dieses Programms möglicherweise „grünes Licht“ von der Bundesregierung einholen müssen, bevor sie leistungsstarke Modelle auf den Markt bringen. Die New York Times hatte zuvor offengelegt, dass das Weiße Haus eine ähnliche Überprüfungsstruktur erwäge.

Ein Sprecher des Weißen Hauses sagte, dass jede formelle Politik von Präsident Donald Trump persönlich bekannt gegeben würde und dass die aktuellen Diskussionen über mögliche Executive Orders immer noch „Spekulation“ seien. Gleichzeitig kooperieren immer mehr Technologieunternehmen freiwillig mit der Regierung und reichen aktiv neue Modelle zur Prüfung ein, bevor sie online gehen. Erst am Dienstag hat die Trump-Regierung eine Vereinbarung mit Microsoft, xAI und Google DeepMind getroffen, die es der Regierung ermöglicht, eine nationale Sicherheitsrisikobewertung für eine neue Generation von Modellen durchzuführen, bevor diese veröffentlicht werden.

Diese Reihe von Maßnahmen kommt zu einem Zeitpunkt, an dem das weit verbreitete öffentliche Unbehagen über KI weiter zunimmt, einschließlich Bedenken hinsichtlich der Sicherheit der Technologie selbst und Fragen zu den enormen Investitionen der Branche in politische Kampagnen. Eine Anfang des Monats veröffentlichte POLITICO-Umfrage ergab, dass die US-Wähler der künstlichen Intelligenz insgesamt sehr skeptisch gegenüberstehen. In diesem Zusammenhang ist ein formeller KI-Überprüfungsmechanismus vor dem Einsatz nur eine von mehreren Verwaltungsmaßnahmen, die das Weiße Haus derzeit erwägt. Weitere Ideen umfassen einen härteren Ansatz gegenüber den Sicherheitsrisiken, die von KI ausgehen, und die Einschränkung des Spielraums für die Technologiebranche, um staatlichen Sicherheits- und Richtlinienanforderungen entgegenzuwirken.

Die Regierung bereitet einen 16-seitigen Entwurf einer Durchführungsverordnung vor, der es dem Privatsektor verbieten würde, sich in die Nutzung von KI-Modellen durch die Regierung einzumischen, so vier mit der Angelegenheit vertraute Personen. Der Entwurf sieht außerdem vor, die Beschaffungs- und Vertragsstandards des Bundes zu verschärfen und der Regierung mehr Entscheidungsfreiheit bei der Zusammenarbeit mit KI-Anbietern zu geben. Die Bestimmungen werden weithin als direkte Reaktion auf die jüngste Auseinandersetzung zwischen dem Weißen Haus und dem KI-Unternehmen Anthropic angesehen, das es dem Militär verweigert hat, sein Modell Claude zur Überwachung von US-Bürgern oder zum Antrieb autonomer Waffen zu verwenden, was einen Aufschrei beim Verteidigungsministerium ausgelöst hat.

Als Reaktion darauf stufte Verteidigungsminister Pete Hegseth Anthropic im März als „Sicherheitsrisiko für die Lieferkette“ ein, ein seltener Schritt, der die Möglichkeiten der Bundesbehörden, die Produkte des Unternehmens zu nutzen, sofort einschränkte. Viele Beobachter wiesen darauf hin, dass die aktuelle politische Runde rund um die KI einen wichtigen Wandel im regulatorischen Denken der Trump-Regierung darstellt. Zuvor hatte das Weiße Haus unter der Lobbyarbeit von „Laissez-faire“-Risikokapitalgebern wie David Sacks und Marc Andreessen stets eine relativ lockere „leichte“ Haltung gegenüber der Regulierung und Aufsicht der KI-Branche eingenommen.

Jetzt weckt diese scheinbar „scharfe Wende“ Wachsamkeit in der Technologiebranche. Einige Branchenvertreter befürchten, dass eine strengere staatliche Kontrolle das Innovationstempo verlangsamen wird. Daniel Castro, Vorsitzender der Denkfabrik „Information Technology and Innovation Foundation“, sagte, niemand wolle eine Welt betreten, in der „jede neue Version des Modells zuerst der Regierung zur Genehmigung vorgelegt werden muss“. Er warnte, dass sich die „Geschwindigkeit im Silicon Valley“ stark von der „Geschwindigkeit in Washington“ unterscheide und dass die Vereinigten Staaten weiterhin schnell vorankommen müssten, wenn sie mit China in der KI konkurrieren wollen.

Die vorgeschlagene Durchführungsverordnung zielt auch auf neue Bedrohungen ab, die von modernster KI in der Cybersicherheit ausgehen, insbesondere dem neuen Modell Mythos von Anthropic. Obwohl das Modell noch nicht der Öffentlichkeit zugänglich gemacht wurde, zeigen erste Testergebnisse von Regierungen und großen Institutionen, dass Mythos in der Lage ist, Software-Schwachstellen auf eine Weise zu finden und auszunutzen, die weit über die Fähigkeiten menschlicher Hacker hinausgeht. Zwei mit den Diskussionen vertraute Personen gaben bekannt, dass der Entwurf die Formulierung technischer Richtlinien und Best Practices für „Open-Weight-Modelle“ zur Stärkung des Sicherheitsschutzes erwägt. Solche Modelle legen Trainingsparameter offen und ermöglichen es Benutzern, sie für verschiedene Aufgaben neu zu trainieren und zu modifizieren. Das Weiße Haus erwäge außerdem, die Geheimdienste zu mobilisieren, um bei der Abwehr von Bedrohungen kritischer Systeme durch modernste KI zu helfen, fügten drei mit der Angelegenheit vertraute Personen hinzu.

Die potenziellen Risiken, die Mythos mit sich bringt, haben bei hochrangigen Beamten der Trump-Regierung höchste Alarmbereitschaft geweckt. Mehrere Beamte befürchten, dass Bundesbehörden angesichts der Pattsituation mit Anthropic Schwierigkeiten haben werden, Mythos für den „Stresstest“ kritischer Systeme zu erhalten. In den letzten Wochen hat das Weiße Haus damit begonnen, die Spannungen mit dem KI-Unternehmen „abzukühlen“. Zwei Quellen sagten, die Regierung beabsichtige die Einrichtung eines Prüfungsgremiums, um die bei Anthropic getroffene Bestimmung des Lieferkettenrisikos neu zu bewerten. Es sei jedoch unklar, ob diese Vereinbarung in den Text der endgültigen KI-Durchführungsverordnung aufgenommen werde.

Von außen betrachtet verändert das Aufkommen von Mythos den Diskussionsrahmen rund um KI und nationale Sicherheit im Weißen Haus. Saif Khan, der in der Biden-Regierung als Berater für aufstrebende Technologien tätig war und jetzt Forscher am Think Tank Institute for Progress ist, sagte, dass es in der Regierung zuvor ein gewisses Maß an Verachtung für damit verbundene Risiken gegeben habe, „aber jetzt beginnen viele Menschen, diese Angelegenheit äußerst ernst zu nehmen.“ Seiner Ansicht nach könnte die Ära der KI-Politik, die ausschließlich von der Logik des Risikokapitals aus dem Silicon Valley geleitet wird, innerhalb der Trump-Regierung zu Ende gehen.