Sicherheitsforscher gaben kürzlich bekannt, dass sie das künstliche Intelligenzmodell Mythos der neuen Generation von Anthropic verwendet haben, um eine neue Sicherheitsumgehungsmethode in Apples macOS-System zu entdecken und damit erfolgreich die Speichersicherheitsschutztechnologie zu durchbrechen, auf deren Entwicklung Apple sich in den letzten Jahren konzentriert hat. Diese Entdeckung wird von der Branche als wichtige Herausforderung für Apples Image als „das am schwierigsten einzubrechende Desktop-System der Welt“ angesehen.

Calif, ein Sicherheitsunternehmen aus Palo Alto, Kalifornien, sagte, als sein Team im April dieses Jahres eine frühe Version von Mythos testete, habe es auf der Grundlage der vom Modell ausgegebenen Hinweise zwei unabhängige Schwachstellen entdeckt und kombiniert, ergänzt durch eine Reihe von Angriffstechniken, um letztendlich den Speicher des Mac-Geräts zu zerstören und Systembereiche zu erhalten, auf die nicht zugegriffen werden sollte. Diese Art von Angriff wird als „Privilege-Escalation-Exploit“ eingestuft und hat in Kombination mit anderen Angriffsketten das Potenzial, Hackern die vollständige Kontrolle über einen Zielcomputer zu verschaffen.

Viele Sicherheitsexperten wiesen darauf hin, dass diese Technologie von großer Bedeutung ist, da Apple viel in die Sperrung der Angriffsfläche von macOS investiert hat und seit langem für seine starke Sicherheit bekannt ist. Nach Durchsicht der Forschungsergebnisse von Calif sagte Michał Zalewski, ein Sicherheitsforscher, der einst bei Google arbeitete, dass eine solche Schwachstellenkette im Zusammenhang mit der kontinuierlichen Stärkung des Plattformschutzes durch Apple besonders auffällig sei und die doppelte Entwicklung der Techniken und Werkzeuge der Angreifer zeige.

Apple sagte, es prüfe den von Calif vorgelegten technischen Bericht, um die Ergebnisse zu überprüfen, und betonte, dass „Sicherheit für uns oberste Priorität hat und wir alle Berichte über potenzielle Schwachstellen sehr ernst nehmen.“ In den letzten Jahren hat Apple auch intern hochmoderne Großmodelle bereitgestellt und getestet, um Systemschwachstellen automatisch zu erkennen und zu beheben, und versucht so, in dieser neuen Runde des offensiven und defensiven Wettbewerbs, der durch KI vorangetrieben wird, proaktiv zu bleiben.

In den letzten Monaten hat die Fähigkeit großer Modelle, Softwarefehler zu ermitteln, dramatisch zugenommen, was in der Cybersicherheits-Community Bedenken hinsichtlich eines „Bugmageddon“ auslöst: Sicherheitslücken von beispiellosem Ausmaß werden konzentriert entdeckt, was nicht nur einen enormen Druck auf die für das Patchen verantwortlichen technischen Teams ausüben wird, sondern auch kurzfristig die Cybersicherheitsrisiken verstärken wird. Anfang des Jahres fand ein anderes Anthropic-Modell innerhalb von zwei Wochen mehr als 100 Schwachstellen mit hohem Schweregrad für den Firefox-Browser, was in etwa den Gesamtergebnissen globaler Forscher in zwei Monaten entspricht.

Apple kündigte im September letzten Jahres eine Technologie namens „Memory Integrity Enforcement (MIE)“ an und sagte, sie sei das Ergebnis einer fünfjährigen gemeinsamen Entwicklung von Hardware und Betriebssystemen mit dem Ziel, die Schutzfunktionen vor Speicherangriffen von Grund auf deutlich zu verbessern. Laut Calif wurde jedoch mit Hilfe von Claudes Modell der Exploit-Code für zwei macOS-Schwachstellen in nur fünf Tagen entwickelt, was die Effizienzsteigerung von KI bei der offensiven Sicherheitsforschung unterstreicht.

Duong Thai, CEO von Calif und hochrangiger Sicherheitsexperte, betonte, dass dieser Angriff nicht allein durch Mythos „automatisiert“ wurde, sondern mit der Erfahrung und dem Urteilsvermögen menschlicher Sicherheitsforscher kombiniert wurde. Was Mythos derzeit am besten kann, ist seiner Meinung nach die Rekonstruktion und Erweiterung von Angriffsideen in bestehenden öffentlichen Dokumenten. Bisher gab es noch keinen Fall, in dem es unabhängig neue Angriffstechnologien entwickelt hätte, daher betrachtet das Team diese Entdeckung als „in gewissem Sinne einen neuen Durchbruch“.

Zalewski glaubt, dass, obwohl die öffentliche Meinung über Mythos von außen teilweise „überbewertet“ sei, die neueste Generation von Tools bereits für „aussagekräftige Schwachstellenforschung und Code-Audits“ genutzt werden könne, was nicht nur die Effizienz der Fehlererkennung verbessere, sondern in gewissem Maße auch das Arbeitsparadigma der traditionellen Sicherheitsforschung ändere. Bei diesem Vorfall ergänzten sich die durch das Tool vorgegebenen Kandidatenpfade und die Analyse menschlicher Experten, sodass die ursprünglich äußerst schwer erreichbare Schwachstellenkette endlich Gestalt annehmen konnte.

Berichten zufolge war das kalifornische Forschungsteam von dieser Entdeckung so begeistert, dass es am Dienstag von Palo Alto zum Apple-Hauptquartier in Cupertino fuhr, um dem Sicherheitsteam von Apple den 55-seitigen technischen Bericht persönlich vorzulegen, in dem die Details der ausgenutzten Schwachstelle und des Angriffsprozesses detailliert beschrieben werden. Die Szene, in der die Firmenmitbegründer Bruce Dang und Duong Thai im Park Fotos machten, ist auch zu einem symbolischen Schauplatz der „Zusammenarbeit von Mensch und Maschine, um die Verteidigungslinie von Apple zu durchbrechen“ geworden.

Im Einklang mit der Branchenpraxis plant Calif, technische Details zu veröffentlichen, nachdem Apple den Patch fertiggestellt hat, um eine böswillige Ausnutzung der Schwachstelle vor dem Patchen zu verhindern. Da Apple großen Wert auf Sicherheit legt, prognostiziert Duong, dass diese Schwachstellen in relativ kurzer Zeit behoben werden sollten.

Der Vorfall hatte auch Folgewirkungen auf politischer Ebene. Das Weiße Haus hatte Vorbehalte oder sogar Widerstand gegen den Plan von Anthropic, den externen Zugang zu Mythos schrittweise auszuweiten, da es den wechselseitigen Verstärkungseffekt leistungsstarker Modelle im Bereich der Netzwerksicherheit befürchtete. Die Kontroverse um die Sicherheit von KI-Modellen der neuen Generation zwingt die Trump-Regierung dazu, ihren bisherigen, relativ „laissez-faire“-Ansatz bei der KI-Entwicklung zu überdenken.

Bundesbeamte erwägen derzeit eine Durchführungsverordnung, die eine klarere staatliche Aufsicht über hochmoderne KI-Modelle schaffen würde, einschließlich der Bewertung, Überprüfung und notwendigen Zugriffsbeschränkungen für Modelle, die erhebliche Auswirkungen auf die Sicherheit haben können. Nach dem Vorfall mit der macOS-Sicherheitslücke wird die Frage, wie KI zur Verbesserung der Verteidigungsfähigkeiten eingesetzt werden kann und gleichzeitig verhindert wird, dass sie zur Vergrößerung der Angriffsfläche eingesetzt wird, zu einem Kernproblem, mit dem sich die US-Regierung, Technologiegiganten und die Sicherheitsbranche gemeinsam auseinandersetzen müssen.