OpenAI kündigte die Einführung eines neuen Sicherheitsplans namens „Advanced Account Security (AAS)“ für ChatGPT-Benutzer an und markiert damit den Beginn des Unternehmens, den Kontoschutz systematischer zu stärken. Diese Funktion ist optional und für „hochwertige Zielbenutzer“ konzipiert. Theoretisch kann sie jedoch von jedem Benutzer verwendet werden, der bereit ist, die Sicherheitsstufe seines Kontos zu erhöhen.

Als Teil dieses Plans kündigte das digitale Sicherheitsunternehmen Yubico eine Partnerschaft mit OpenAI an, um zwei neue Hardware-Sicherheitsschlüssel direkt an das ChatGPT-Kontosystem zu binden, um sich gegen die wachsende Phishing-Bedrohung zu verteidigen. Yubico sagte, dass diese Zusammenarbeit darauf abzielt, Benutzern dabei zu helfen, Angriffsszenarien zu verhindern, bei denen Chatbot-Konten durch Phishing-Methoden gestohlen werden.
Die beiden Unternehmen werden zwei „Co-Branding“-YubiKey-Produkte mit den Namen YubiKey C NFC und YubiKey C Nano auf den Markt bringen. Laut OpenAI eignet sich AAS besonders für Gruppen wie politische Dissidenten, Journalisten, Forscher und gewählte Beamte, die politisch sensible Arbeiten mit hohem Risiko ausführen, und eignet sich auch für Unternehmensbenutzer, um ihre in ChatGPT-Sitzungen gespeicherten Geschäftsgeheimnisse zu schützen. „Unser Ziel ist es, das Risiko eines unbefugten Zugriffs auf OpenAI-Konten weltweit deutlich zu reduzieren“, sagte Yubico-CEO Jerrod Chong in einer Pressemitteilung zur Bekanntgabe der Partnerschaft.
Der sogenannte Sicherheitsschlüssel ist ein kleines Hardwaregerät, das an ein digitales Konto gebunden werden kann und im Allgemeinen über die USB-Schnittstelle eines Computers verwendet wird. Jeder Schlüssel enthält eine eindeutige kryptografische Identifikation. Nur die Person, die das Gerät tatsächlich besitzt, kann sich bei dem entsprechenden Konto anmelden und bietet so zusätzlich zum Passwort eine starke physische Verteidigungslinie.
Obwohl die Gefahr des „ChatGPT-Konto-Phishing“ für viele normale Benutzer immer noch etwas abstrakt klingt, zeigen immer mehr Studien und Berichte, dass Cyberkriminelle Chatbot-Plattformen im Visier haben. Da so viele Benutzer in ihren Gesprächen vertrauliche Geschäftsinformationen oder private Details preisgeben, können diese Gespräche, sobald sie in die falschen Hände geraten, zum Nährboden für Erpressung, Betrug oder weitere Angriffe werden.
Auch in der gesamten KI-Branche rückt die digitale Sicherheit zunehmend in den Fokus. Vor ein paar Wochen hat Anthropic gerade ein Netzwerksicherheitsmodell namens Mythos veröffentlicht, das versucht, die Anwendung von KI sowohl im Angriff als auch in der Verteidigung zu untersuchen. Um in dieser Frage nicht auf der Strecke zu bleiben, hat OpenAI kürzlich eine Reihe von Initiativen im Zusammenhang mit der Netzwerkverteidigung gestartet, darunter die Einführung eines digitalen Sicherheitsrahmens für das „intelligente Zeitalter“. Diese Zusammenarbeit mit Yubico ist der jüngste Teil seiner Sicherheitsstrategie.
Obwohl die Aktivierung von Hardware-Sicherheitsschlüsseln die Kontosicherheit erheblich verbessern kann, bringt sie in der praktischen Anwendung natürlich auch Nachteile mit sich: Sobald der Benutzer den Schlüssel verliert, kann OpenAI ihm nicht dabei helfen, den Kontozugriff wiederherzustellen. Mit anderen Worten: Sobald das an den Sicherheitsschlüssel gebundene Konto „in der realen Welt verloren geht“, können auch die entsprechenden ChatGPT-Sitzungsdatensätze und Kontodaten dauerhaft verschwinden.