In den frühen Morgenstunden des Mittwochmorgens Pekinger Zeit veröffentlichte OpenAI, ein amerikanisches Technologie-Start-up, eine Ankündigung, in der es den Start einer weltweiten Rekrutierung von „Red Team“-Netzwerkmitgliedern ankündigte, mit dem Ziel, externe Kräfte einzusetzen, um Fehler und Risiken in KI-Systemen im Voraus aufzudecken. Das Konzept des sogenannten „Red Team“-Netzwerks, kurz RedTeaming, stammt aus militärischen Simulationen.
(Quelle: OpenAI)
Im Bereich der KI besteht die Aufgabe des „roten Teams“ darin, Hacker oder andere potenziell gefährliche Personen zu simulieren, um Schwachstellen in großen Sprachmodellen zu finden und so zu verhindern, dass KI illegale Zwecke wie die Gefährdung der sozialen Sicherheit in der realen Gesellschaft unterstützt.
OpenAI sagte, dass in den letzten Jahren Experten aus verschiedenen Bereichen dabei geholfen hätten, unveröffentlichte Modelle zu testen. Jetzt wird eine „reguläre Truppe“ aufgebaut, um eine große Anzahl von Menschen aus unterschiedlichen Regionen, unterschiedlichen Sprachen, unterschiedlichen Berufsfeldern und unterschiedlichen Lebenserfahrungen zu rekrutieren, um gemeinsam das KI-Modell sicherer zu machen. Anders als in der Vergangenheit, wo nur eine Gruppe von Personen für zentralisierte Tests rekrutiert wurde, bevor eine wichtige Version online ging, wird OpenAI einer unbestimmten Anzahl von Mitgliedern ermöglichen, Tests während des gesamten Entwicklungszyklus basierend auf der Nachfrage durchzuführen.
Gleichzeitig wird dieses „Red Team“-Netzwerk auch zur globalen Expertenbibliothek von OpenAI, und OpenAI wird auch eine Plattform für die Kommunikation zwischen „Red Team“-Mitgliedern bieten. OpenAI listet auf seiner offiziellen Website auch einige der Expertenrichtungen auf, die es zu rekrutieren hofft, betont aber auch, dass es nicht auf diese Bereiche beschränkt ist.
CognitiveScience: Kognitionswissenschaft
Chemie: Chemie
Biologie: Biologie
Physik: Physik
Informatik: Informatik
Steganographie: Steganographie
PoliticalScience: Politikwissenschaft
Psychologie: Psychologie
Überzeugung: Überzeugung
Wirtschaftswissenschaften: Wirtschaftswissenschaften
Anthropologie: Anthropologie
Soziologie: Soziologie
HCI (Human-Computer Interaction): Mensch-Computer-Interaktion
FairnessandBias: Fairness und Bias
Ausrichtung: Zielausrichtung
Bildung: Bildung
Gesundheitswesen: medizinische Versorgung
Gesetz: Gesetz
Kindersicherheit: Kindersicherheit
Cybersicherheit: Netzwerksicherheit
Finanzen: Finanzen
Fehl-/Desinformation: Fehl-/Falschinformationen
PoliticalUse: Politische Anwendung
Privatsphäre: Privatsphäre
Biometrie: Biometrie
Sprachen und Linguistik: Sprachen und Linguistik
OpenAI erklärte übrigens auch, dass es den Mitgliedern, die am „Red Team“-Projekt teilnehmen, eine Vergütung zahlen werde (hat jedoch nicht angegeben, wie viel es zahlen wird), OpenAI betonte jedoch auch, dass die Teilnahme am „Red Team“-Projekt im Allgemeinen die Unterzeichnung einer Vertraulichkeitsvereinbarung oder Schweigen für einen unbestimmten Zeitraum erfordert.
OpenAI gab an, dass der Bewerbungskanal bis zum 1. Dezember dieses Jahres geöffnet bleiben wird. Das Unternehmen wird die Bewerbungen fortlaufend prüfen und anschließend bewerten, ob weitere offene Stellenbesetzungen erforderlich sind.
Mitglieder des „roten Teams“ von OpenAI, die die Bühne betraten
Wie von OpenAI erwähnt, gibt es das „Red Team“-System schon seit langem und viele Mitglieder haben bereits öffentliche Interviews von den Medien erhalten.
In einem aufschlussreichen Artikel in der Financial Times im April dieses Jahres sagte Andrew White, Professor für Chemieingenieurwesen an der Universität von Rochester in den Vereinigten Staaten, dass er am „Red Team“-Test von GPT-4 teilgenommen habe und sein Angriffsziel darin bestand, ChatGPT zu verwenden, um ein neues Neurotoxin zu erzeugen. White sagte, er habe die „Plug-in“-Funktion genutzt, um dem großen Modell Chemiepapiere und Chemieherstellerkataloge zuzuführen, und das große Modell habe ihm sogar einen Ort gefunden, an dem er sein hypothetisches Toxin produzieren könne.
White sagte, dass große Modelle letztendlich vielen Menschen dabei helfen könnten, chemische Experimente schneller und genauer durchzuführen, aber es bestehe auch die ernsthafte Gefahr, dass einige Menschen KI für gefährliche Experimente nutzen würden.
Nachdem OpenAI Feedback von White erhalten hatte, nahm es Änderungen am System vor, um sicherzustellen, dass es nicht auf ähnliche Fragen antwortet. Den Medien zufolge gibt es etwa zehn Mitglieder des „roten Teams“ mit unterschiedlichem Hintergrund – Anwälte, Lehrer, Risikokontrollpersonal, Sicherheitsforscher usw. Die meisten von ihnen sind in den Vereinigten Staaten und in Europa ansässig. Sie enthüllten, dass sie in den Monaten vor der Veröffentlichung von GPT-4 etwa 10 bis 40 Stunden damit verbrachten, das Modell zu testen, und etwa 100 US-Dollar pro Stunde erhielten.