In den frühen Morgenstunden des Mittwochmorgens Pekinger Zeit veröffentlichte OpenAI, ein amerikanisches Technologie-Start-up, eine Ankündigung, in der es den Start einer weltweiten Rekrutierung von „Red Team“-Netzwerkmitgliedern ankündigte, mit dem Ziel, externe Kräfte einzusetzen, um Fehler und Risiken in KI-Systemen im Voraus aufzudecken. Das Konzept des sogenannten „Red Team“-Netzwerks, kurz RedTeaming, stammt aus militärischen Simulationen.Das heißt, finden Sie ein Team von Leuten, die einen imaginären „Feind“ simulieren, um die Bereitschaft Ihrer eigenen Seite (des „blauen Teams“) zu testen.


(Quelle: OpenAI)

Im Bereich der KI besteht die Aufgabe des „roten Teams“ darin, Hacker oder andere potenziell gefährliche Personen zu simulieren, um Schwachstellen in großen Sprachmodellen zu finden und so zu verhindern, dass KI illegale Zwecke wie die Gefährdung der sozialen Sicherheit in der realen Gesellschaft unterstützt.

OpenAI sagte, dass in den letzten Jahren Experten aus verschiedenen Bereichen dabei geholfen hätten, unveröffentlichte Modelle zu testen. Jetzt wird eine „reguläre Truppe“ aufgebaut, um eine große Anzahl von Menschen aus unterschiedlichen Regionen, unterschiedlichen Sprachen, unterschiedlichen Berufsfeldern und unterschiedlichen Lebenserfahrungen zu rekrutieren, um gemeinsam das KI-Modell sicherer zu machen. Anders als in der Vergangenheit, wo nur eine Gruppe von Personen für zentralisierte Tests rekrutiert wurde, bevor eine wichtige Version online ging, wird OpenAI einer unbestimmten Anzahl von Mitgliedern ermöglichen, Tests während des gesamten Entwicklungszyklus basierend auf der Nachfrage durchzuführen.

Gleichzeitig wird dieses „Red Team“-Netzwerk auch zur globalen Expertenbibliothek von OpenAI, und OpenAI wird auch eine Plattform für die Kommunikation zwischen „Red Team“-Mitgliedern bieten. OpenAI listet auf seiner offiziellen Website auch einige der Expertenrichtungen auf, die es zu rekrutieren hofft, betont aber auch, dass es nicht auf diese Bereiche beschränkt ist.

CognitiveScience: Kognitionswissenschaft

Chemie: Chemie

Biologie: Biologie

Physik: Physik

Informatik: Informatik

Steganographie: Steganographie

PoliticalScience: Politikwissenschaft

Psychologie: Psychologie

Überzeugung: Überzeugung

Wirtschaftswissenschaften: Wirtschaftswissenschaften

Anthropologie: Anthropologie

Soziologie: Soziologie

HCI (Human-Computer Interaction): Mensch-Computer-Interaktion

FairnessandBias: Fairness und Bias

Ausrichtung: Zielausrichtung

Bildung: Bildung

Gesundheitswesen: medizinische Versorgung

Gesetz: Gesetz

Kindersicherheit: Kindersicherheit

Cybersicherheit: Netzwerksicherheit

Finanzen: Finanzen

Fehl-/Desinformation: Fehl-/Falschinformationen

PoliticalUse: Politische Anwendung

Privatsphäre: Privatsphäre

Biometrie: Biometrie

Sprachen und Linguistik: Sprachen und Linguistik

OpenAI erklärte übrigens auch, dass es den Mitgliedern, die am „Red Team“-Projekt teilnehmen, eine Vergütung zahlen werde (hat jedoch nicht angegeben, wie viel es zahlen wird), OpenAI betonte jedoch auch, dass die Teilnahme am „Red Team“-Projekt im Allgemeinen die Unterzeichnung einer Vertraulichkeitsvereinbarung oder Schweigen für einen unbestimmten Zeitraum erfordert.

OpenAI gab an, dass der Bewerbungskanal bis zum 1. Dezember dieses Jahres geöffnet bleiben wird. Das Unternehmen wird die Bewerbungen fortlaufend prüfen und anschließend bewerten, ob weitere offene Stellenbesetzungen erforderlich sind.

Mitglieder des „roten Teams“ von OpenAI, die die Bühne betraten

Wie von OpenAI erwähnt, gibt es das „Red Team“-System schon seit langem und viele Mitglieder haben bereits öffentliche Interviews von den Medien erhalten.

In einem aufschlussreichen Artikel in der Financial Times im April dieses Jahres sagte Andrew White, Professor für Chemieingenieurwesen an der Universität von Rochester in den Vereinigten Staaten, dass er am „Red Team“-Test von GPT-4 teilgenommen habe und sein Angriffsziel darin bestand, ChatGPT zu verwenden, um ein neues Neurotoxin zu erzeugen. White sagte, er habe die „Plug-in“-Funktion genutzt, um dem großen Modell Chemiepapiere und Chemieherstellerkataloge zuzuführen, und das große Modell habe ihm sogar einen Ort gefunden, an dem er sein hypothetisches Toxin produzieren könne.

White sagte, dass große Modelle letztendlich vielen Menschen dabei helfen könnten, chemische Experimente schneller und genauer durchzuführen, aber es bestehe auch die ernsthafte Gefahr, dass einige Menschen KI für gefährliche Experimente nutzen würden.

Nachdem OpenAI Feedback von White erhalten hatte, nahm es Änderungen am System vor, um sicherzustellen, dass es nicht auf ähnliche Fragen antwortet. Den Medien zufolge gibt es etwa zehn Mitglieder des „roten Teams“ mit unterschiedlichem Hintergrund – Anwälte, Lehrer, Risikokontrollpersonal, Sicherheitsforscher usw. Die meisten von ihnen sind in den Vereinigten Staaten und in Europa ansässig. Sie enthüllten, dass sie in den Monaten vor der Veröffentlichung von GPT-4 etwa 10 bis 40 Stunden damit verbrachten, das Modell zu testen, und etwa 100 US-Dollar pro Stunde erhielten.