SpaceX warnte Berichten zufolge in seinem kürzlich eingereichten Prospekt, dass mehrere Untersuchungen zur Erstellung und Verbreitung von Bildern sexuellen Missbrauchs durch seine Einheit für künstliche Intelligenz, xAI, dazu führen könnten, dass das Unternehmen den Zugang zu bestimmten Märkten verliert. Im Abschnitt über Risikofaktoren heißt es in dem von SpaceX eingereichten S-1-Listenantragsdokument, dass viele Institutionen auf der ganzen Welt „aktiv relevante Untersuchungen zur Nutzung sozialer Medien oder künstlicher Intelligenz untersuchen und durchführen“, was Themen wie Werbung, Verbraucherschutz und die Verbreitung schädlicher Inhalte betrifft.

SpaceX betonte in seiner S-1-Anmeldung, dass eine der Herausforderungen, mit denen das Unternehmen konfrontiert war, „Vorwürfe waren, dass seine Produkte der künstlichen Intelligenz verwendet wurden, um nicht einvernehmliche explizite Bilder oder Inhalte mit sexualisierten Szenen von Kindern zu erstellen.“ In der Akte heißt es, dass solche behördlichen Untersuchungen SpaceX mit Klagen, Haftungsansprüchen und staatlichen Strafen aussetzen könnten – „einschließlich des Verlusts des Zugangs zu bestimmten Märkten, der in der Vergangenheit vorgekommen ist“.

Es ist unklar, ob mögliche Regulierungsmaßnahmen SpaceX insgesamt am Eintritt in bestimmte Märkte hindern würden oder nur seine Tochtergesellschaft xAI betreffen würden.

xAI wurde wegen der Verbreitung sexuell anzüglicher Bilder auf seiner Plattform weltweit unter die Lupe genommen, obwohl in den Zulassungsanträgen unter anderem eine im Februar von der irischen Datenschutzkommission eingeleitete Untersuchung als Risikofaktor genannt wurde. Der Inhalt, der Ende 2025 und Anfang 2026 besonders bekannt war, enthielt Bilder von fast nackten Frauen und Kindern auf der Social-Media-Plattform

Mehrere zuvor in Kanada, dem Vereinigten Königreich, Brasilien, Kalifornien und anderswo eingeleitete Untersuchungen dauern noch an. In Frankreich ignorierte Musk am Montag eine Vorladung der Staatsanwaltschaft und weigerte sich, auf die Vorwürfe zu antworten, dass er Algorithmen missbraucht, illegal Daten extrahiert und an der Verbreitung von Material über sexuellen Kindesmissbrauch beteiligt gewesen sei.

Die Marktzugangswarnung in der S-1-Anmeldung unterstreicht die Bedeutung verschiedener Untersuchungen zu xAI, insbesondere der KI-generierten Bilder von mutmaßlichem sexuellen Kindesmissbrauch und nicht einvernehmlichen weiblichen Sexbildern. Die Herstellung solcher Bilder kann in manchen Gerichtsbarkeiten eine Straftat sein, und ihre Verbreitung ist ein höchst umstrittenes Thema, das schnell die öffentliche Meinung entfachen kann.

Die Beschränkungen von XAI für Grok scheinen die Verbreitung missbräuchlicher Inhalte verlangsamt, aber nicht vollständig gestoppt zu haben. Im Februar wurde berichtet, dass Grok immer noch sexuell anzügliche Bilder erzeugte, selbst wenn Benutzer Grok ausdrücklich davor warnten, dass die Personen auf diesen Bildern nicht zustimmten. Letzte Woche tauchten Berichte auf, dass Grok immer noch öffentlich sexuell anzügliche Bilder erzeugte, darunter Bilder von Schauspielern und Popstars.