Im Frühjahr 2026 wurde Dario Amodei plötzlich zu einer Plage im Silicon Valley. Huang Renxun nannte Amodei beinahe direkt und kritisierte diejenigen CEOs, die weiterhin vorhersagen, dass KI Arbeitsplätze in großem Umfang vernichten werde, heftig als Leidende eines „Gotteskomplexes“: Sobald Sie CEO sind, ist es leicht zu glauben, dass Sie alles wissen. Altman sagte, Amodei nutze „Angst“ für sein Marketing, und Yang Likun sagte lediglich, er verstehe nicht, wie sich die technologische Revolution auf die Beschäftigung auswirken würde.

Sogar die Medien begannen zu fragen: Warum hört ein KI-Chef, der ständig vor dem Ende der Welt warnt, nicht auf?

Amoudi beleidigt Menschen natürlich nicht nur, weil sein moralischer Sinn zu hoch und seine emotionale Intelligenz zu niedrig ist.

Das Subtile daran ist, dass er tatsächlich schon seit langem an die Risiken der KI glaubt und diesen Glauben tatsächlich zur schärfsten kommerziellen Waffe von Anthropic gemacht hat.

Dieses nach dem Ausstieg aus OpenAI gegründete Unternehmen ist nicht mehr nur ein Forschungsteam unter dem Motto „KI-Sicherheit“. Claude Code hat sich mit einem Jahresumsatz von mehreren Milliarden Dollar zu einem der leistungsstärksten Produkte auf dem Markt für Unternehmens-KI entwickelt. Was noch übertriebener ist, ist, dass laut Business Insider die Bewertung von Anthropic auf dem privaten Sekundärmarkt 1 Billion US-Dollar überschritten hat.

Wenn jemand auf der moralischen Überlegenheit steht und alle daran erinnert, langsamer zu werden, und gleichzeitig in der Mitte des Feldes setzt und die Einsätze immer größer werden, fällt es ihm schwer, nicht zur Zielscheibe zu werden.

01

T AGPH27Public Enemy

Amoudi wird am meisten unangenehme Person in der KI-Branche.

Die letzte Person, die das Feuer eröffnet hat, ist Huang Renxun.

In einem Podcast bezeichnete Huang Renxun Technologie-CEOs, die häufig vorhersagen, dass KI zu großer Arbeitslosigkeit führen und sogar das Risiko des Aussterbens der Menschheit mit sich bringen wird, als Menschen, die an einem „Gotteskomplex“ leiden.

Seine allgemeine Idee ist, dass es für die Leute leicht ist, zu denken, dass sie alles wissen, wenn man erst einmal die Position des CEO innehat. Aber die öffentliche Diskussion über KI sollte sich auf die Fakten besinnen und nicht von überzogenen Weltuntergangsnarrativen geleitet werden.

Diese Wörter wurden nicht namentlich erwähnt, aber es ist schwer, nicht an Amoudi zu denken.

Und dies ist nicht das erste Mal, dass Huang Renxun von Amodeis KI-Risikonarrativ provoziert wird.

Amoudi hat immer strengere Chip-Exportkontrollen unterstützt und sogar einen langen Artikel geschrieben, in dem strengere Beschränkungen gefordert werden. Auf dem Davoser Forum in diesem Jahr verglich er den Export fortschrittlicher KI-Chips nach China mit dem „Verkauf von Atomwaffen“.

Natürlich würde Jen-Hsun Huang diese Aussage nicht akzeptieren.

Als Huang in einem anderen Podcast nach dieser Analogie gefragt wurde, sagte er direkt, dass sie „lächerlich“ sei. Er glaubt, dass der Vergleich von KI-Chips mit Atomwaffen eine schlechte und unlogische Analogie ist.

Wenn Huang Jen-Hsuns Gegenangriff auf den direkten Interessenkonflikt zwischen Nvidia und Anthropic bezüglich der Chippolitik zurückzuführen ist, dann gleicht der Angriff von OpenAI eher einer direkten Konfrontation zwischen alten Rivalen.

In einem Podcast-Gespräch sagte Altman, Anthropic nutze „Angst“ für Marketingzwecke.

Er benutzte eine ziemlich harte Metapher: Es ist, als würde jemand sagen: „Wir haben eine Bombe gebaut und werden sie bald auf Ihren Kopf werfen, und dann können wir Ihnen einen Luftschutzbunker für 100 Millionen Dollar verkaufen.“

Dieser Satz verweist offensichtlich auf die gerade von Anthropic veröffentlichte Claude Mythos Preview. Nach eigener Aussage von Anthropic ist dieses Netzwerksicherheitsmodell zu mächtig und wird vorerst nicht für die Öffentlichkeit zugänglich sein. Stattdessen wird es in ein Projekt namens „Wings of Glass“ gesteckt, um defensive Sicherheitsarbeit für Partnerorganisationen zu leisten.

Dies ist nicht der einzige „Angriff“ von OpenAI. Am 13. April veröffentlichte The Verge ein vierseitiges internes Memo, das Denise Dresser, Chief Revenue Officer von OpenAI, an Mitarbeiter gesendet hatte. Das Thema des Memos ist, wie man den Unternehmens-KI-Markt erobern kann, aber ein Abschnitt ist der Erörterung von Anthropic gewidmet, bei dem es fast darum geht, den Gegner Punkt für Punkt zu demontieren.

Es heißt, dass die Geschichte von Anthropic auf „Angst, Einschränkungen und der Vorstellung, dass eine kleine Elite die KI kontrollieren sollte“ basiert.

Sie sagte auch, dass Anthropic sich zu sehr auf Code-Szenarien verlasse und nicht über ausreichende Rechenleistungsreserven verfüge, und stellte ihre Jahresumsatzrechnung in Frage und sagte, dass Anthropic seine Umsatzbeteiligung mit Amazon und Google auf Gesamtbasis berücksichtige, was dazu führe, dass sein Jahresumsatz von 30 Milliarden US-Dollar um etwa 8 Milliarden US-Dollar überschätzt werde.

Amodei und Ultraman sind alte Feinde, OpenAI und Anthropic sind direkte Konkurrenten; Auch das Chipgeschäft von Huang Renxun war direkt von Amodeis politischen Vorschlägen betroffen. Ihr Gegenangriff scheint auf dem richtigen Weg zu sein.

Aber es ist noch nicht vorbei.

Yann LeCun kritisierte Amoudi auch öffentlich zu X. Diesmal entsteht die Kontroverse aus den Auswirkungen von KI auf die Beschäftigung.

Im Jahr 2025 sagte Amodei in einem Interview mit Axios, dass KI in den nächsten ein bis fünf Jahren die Hälfte der Einstiegsjobs im Angestelltenbereich eliminieren und die Arbeitslosenquote auf 10 bis 20 % drücken könnte. Er sagte auch, dass KI-Unternehmen und Regulierungsbehörden die kommenden Auswirkungen nicht weiterhin beschönigen oder herunterspielen könnten.

Als Antwort auf Amodeis Urteil zur Beschäftigung sagte Yang Likun auf X: „Dario hat Unrecht“ und „er weiß nichts darüber, wie sich die technologische Revolution auf den Arbeitsmarkt auswirkt.“ Er sagte sogar, dass solche Fragen eher von Ökonomen als von irgendjemandem im KI-Kreis, einschließlich Yang Likun selbst, gehört werden sollten.

Sogar die öffentliche Meinung begann einige Zweifel zu haben.

Um nur Beispiele für Kommentare bekannter Medien zu nennen: Die Times fragte, warum der KI-Gigant, der vor dem Ende der Welt warnte, nicht von alleine aufhörte. TechCrunch wies darauf hin, dass Anthropic die Öffnung von Mythos angeblich zum Schutz der Internetsicherheit eingeschränkt habe. Diese selektive Öffnung könne aber auch dazu beitragen, große Unternehmenskunden zu gewinnen und kleine Unternehmen daran zu hindern, Fähigkeiten durch Destillation zu reproduzieren und so ihre eigenen Geschäftsinteressen zu schützen.

Offensichtlich führt Amoudi Anthropic an und nimmt eine Art moralische Überlegenheit ein. Aber je höher man steht, desto mehr wird man zum Ziel.

Die Frage ist: Wird Amoudi seinerseits angegriffen, nur weil er zu prinzipiell ist, zu sehr auf „Sicherheit“ besteht und nicht davor zurückschreckt, andere zu beleidigen?

Je mehr Amodei versucht, ein „moralischer Schrittmacher“ zu sein, desto eklatanter ist sein moralisches Paradoxon – er steht in der Mitte des Feldes, platziert Wetten und erinnert alle daran, dass dieses Spiel giftig sein kann.

Das ist so umständlich.

02

“ Wie „Security King“ entstand

In der Memo, OpenAI Chief Revenue Officer Denise erwähnte ein Wort: „Elite“.

Dies ist in der Tat eines der auffälligsten Labels auf Amoudi. Seine Konfrontation auf der moralischen Ebene ist fast zum Höhepunkt seines Rufs geworden Grenzen von Claudes Verwendung und bestand darauf, dass es weder für groß angelegte Überwachung noch für vollständig autonome Waffen ohne menschliche Beteiligung an der Entscheidungsfindung verwendet werden dürfe „Stimmen Sie guten Gewissens“ der Bitte zu. In diesem Moment jubelte die Öffentlichkeit mit einem Gefühl längst verlorener Erleichterung. Die Elite des Silicon Valley stand endlich wieder auf und sagte „Nein“ zu größerer Macht.

Amoudi wurde 1983 in San Francisco geboren. Sein Vater, ein italienischer Lederarbeiter aus der Toskana, litt an langfristigen Gesundheitsproblemen und starb, als Amodei jung war; seine Mutter, eine in Chicago geborene Jüdin, arbeitete als Projektmanagerin in einer Bibliothek Kind. Er besuchte eine der berühmtesten öffentlichen Elite-Highschools in San Francisco und wurde im Jahr 2000 in das Team der US-Physikolympiade gewählt. Nach seinem College-Eintritt besuchte er das California Institute of Technology, eine der besten Wissenschafts- und Ingenieurschulen in den Vereinigten Staaten, wechselte dann nach Stanford, um einen Bachelor-Abschluss in Physik zu machen, und ging schließlich nach Princeton, um einen Doktortitel in Biophysik zu machen.

Er ist eine technische Figur, die Physik, Neurowissenschaften und KI-Forschung in mehreren Dimensionen kombiniert, was auch seine komplexe Perspektive bestimmt.

Im Jahr 2014 rekrutierte Ng Amodei für Baidus Labor für künstliche Intelligenz im Silicon Valley, um an der Erforschung von Spracherkennungssystemen mitzuwirken. Später wurde er einer der Autoren des Deep Speech 2-Artikels. Dieses System konzentriert sich auf die End-to-End-Spracherkennung und deckt Englisch und Mandarin ab. Es wird außerdem versucht, größere Datenmengen, Rechenleistung und Training zu nutzen, um den traditionellen Spracherkennungsprozess zu wiederholen. Zu dieser Zeit begann Amodei, sein erstes Gespür für die Größenordnung zu entwickeln. Später erinnerte er sich in einem Interview daran, dass er festgestellt hatte, dass die Ergebnisse immer besser würden, wenn das Modell größer, die Datenmenge größer und die Trainingszeit länger sei. Für ihn hatte der Scaling-Glaube, der sich später durch GPT und Claudes Generation großer Modelle zog, bereits den Grundstein für Baidus Spracherkennung gelegt.

Daniela Amodei spielt ebenfalls eine wichtige Rolle. Sie verließ auch OpenAI und die Geschwister gründeten Anthropic mit.

Der Bruder und die Schwester bilden eine Dual-Core-Struktur. Amoudi ist eher eine Vertreterin technischer Linien und Sicherheitserzählungen, während Daniela eher für den Unternehmensbetrieb, den Organisationsaufbau und die Geschäftsförderung verantwortlich ist. Das heutige einzigartige Temperament von Anthropic – es sieht einerseits wie eine Sicherheitsforschungseinrichtung und andererseits wie ein KI-Unternehmen mit schneller Finanzierung und rascher Expansion aus – beruht größtenteils auf dieser Paarung.

Diese familiäre Bindung verleiht Anthropic auch ein besonderes Gefühl der Stabilität und macht das Unternehmen eher zu einer kleinen Gruppe, die sich von der alten Organisation abgespalten hat, mit einer starken Selbstidentität und der Meinung ist, dass sie KI auf andere Weise umsetzen möchte.

Ende 2020 gab OpenAI ein sehr höfliches organisatorisches Update heraus und gab bekannt, dass der damalige Vizepräsident für Forschung Amodei das Unternehmen verlassen würde. Der Artikel dankt ihm für seine Beiträge in den letzten fünf Jahren, erwähnt seine Teilnahme an GPT-2 und GPT-3 und legt gemeinsam mit Ilya Sutskever und anderen Forschungsrichtungen fest.

Das Subtileste ist, dass OpenAI auch schrieb, dass Amoudi und mehrere Kollegen planen, ein neues Projekt zu starten, das „sich weniger auf die Produktentwicklung als vielmehr auf die Forschung konzentrieren könnte“. Die meisten anderen Seiten werden verwendet, um die Entschlossenheit von OpenAI im Sicherheitsbereich zu zeigen.

Jahre später, als der Konflikt zwischen Anthropic und OpenAI öffentlich wurde, blickten die Menschen auf die einvernehmliche „Trennung“ dieses Jahres zurück. Es ist nicht schwer zu erkennen, dass die beiden Seiten bereits Meinungsverschiedenheiten darüber hatten, wie das Wachstum der KI-Fähigkeiten und Sicherheitsgrenzen priorisiert werden sollten.

Einige Monate später wurde Anthropic gegründet. Seitdem hat sich die Sicherheit langsam von Amodeis persönlicher Haltung zum Rückgrat des Unternehmens entwickelt.

Es verfügt über RSP, die „Responsible Scaling Policy“. Es verwendet ASL-Stufen, um Risikoanforderungen für Modelle auf verschiedenen Fähigkeitsstufen festzulegen, ähnlich wie die KI-Version der Biosicherheitsstufen; es leitet das Verhalten des Modells durch eine Reihe von „verfassungsmäßigen“ Prinzipien; Darüber hinaus investiert es weiterhin in die Interpretierbarkeitsforschung und versucht, die Modell-Blackbox zu öffnen.

Amodei nutzt sicherlich die Vorteile von „Sicherheit“, aber nur, wenn er auch wirklich an langfristige Sicherheit glaubt. Vom Verlassen von OpenAI über die Gründung von Anthropic bis hin zu RSP, KI-„Verfassung“, Erklärbarkeit, Modellrisikoklassifizierung und Grenzen von Verteidigungsverträgen war sein Verhalten auf lange Sicht recht konsistent.

Hier ist auch Amoudi kompliziert.

Er hat ein starkes Elite-Selbstvertrauen – ich habe größere Risiken gesehen, daher bin ich qualifiziert, alle daran zu erinnern, langsamer, strenger und ängstlicher zu sein. Aber es ist das gleiche Selbstvertrauen, das ihn herablassend wirken lässt.

Und wenn Amoudi beginnt, ein Unternehmen zu leiten, wenn „Moral“ auf Geschäft trifft, wird es noch schwieriger, das empfindliche Gleichgewicht aufrechtzuerhalten.

03

Wenn „Sicher“ zur Hauptlinie des wird Unternehmen

„Sicherheit“ ist sowohl das Geschäft von Anthropic als auch sein Überprüfungsmechanismus.

Das Besondere an Anthropic ist, dass es sich um eine neue Organisation handelte, die von einer Gruppe von Menschen gegründet wurde, die OpenAI von Anfang an verlassen hatten. Zu den Gründen für den Ausstieg zählten technische Wege, Sicherheitskonzepte und Meinungsverschiedenheiten darüber, „wer die Zukunft der KI bestimmen soll“.

Kultur ist also bei Anthropic besonders wichtig, eher wie ein Betriebssystem.

Amoudi ist ein Organisationsdesigner mit dem Temperament eines Forschers. In einem Interview sagte er einmal, dass etwa ein Drittel oder sogar 40 % seiner Zeit darauf verwendet werde, dafür zu sorgen, dass die Kultur von Anthropic gut sei.

Anthropic spricht an der Oberfläche immer von Vorsicht, Zurückhaltung und Grenzen, aber intern ist es keine lauwarme Kultur. Im Gegenteil, Anthropic verfügt über einen Slack-Kanal, der einem persönlichen öffentlichen Notizbuch ähnelt, in dem Mitarbeiter ihre eigenen Ideen und Arbeitsfortschritte schreiben und sogar direkt über Amoudi diskutieren.

Es ist denkbar, dass sich eine Art Screening-Mechanismus für Talente gebildet hat, sei es die Eintrittsschwelle von Anthropic oder die kontinuierliche Gestaltung und Kollision der internen Kultur.

Im vergangenen Jahr hat Meta überall sein Scheckbuch geschwenkt, um Leute zu rekrutieren, um sein KI-Team zu verstärken. Der Preis für Talente in der KI-Branche ist auf ein übertriebenes Niveau gestiegen, und Spitzenforscher und Ingenieure sind auf dem freien Markt fast zu Superstars geworden. Angesichts dieser Art der Abwerbung folgen einige Unternehmen instinktiv dem Preis oder geben zumindest ausdrücklich an, dass sie die Gehälter ihrer Mitarbeiter erhöhen und die Mitarbeiter an erster Stelle halten wollen.

Amoudi hat das nicht getan. Er hat öffentlich erklärt, dass Anthropic nicht sofort gegen seine Vergütungsgrundsätze verstoßen wird, nur weil ein externes Unternehmen jemandem ein horrendes Angebot macht. Er sagte, wenn Zuckerberg zufällig wie ein Pfeil den Namen einer Person trifft, bedeute das nicht, dass diese Person zehnmal mehr bekommen sollte als der ebenso talentierte Kollege neben ihr.

Was noch interessanter ist, ist, dass Amodei sagte, dass einige Anthropic-Mitarbeiter nicht einmal bereit waren, mit Zuckerberg zu sprechen, als sie mit Metas Wilderei konfrontiert wurden. In diesem Satz steckt sicherlich ein Element der Angeberei. Aber was es wirklich vermitteln möchte, ist, dass der „Konsens“ unter den Anthropic-Mitarbeitern besteht und stark ist.

Amodei muss die Mitarbeiter davon überzeugen, dass Anthropic kein weiteres KI-Unternehmen ist, das einfach nur schneller laufen will; Gleichzeitig muss er dieses Unternehmen dazu bringen, wirklich schnell genug zu laufen. Andernfalls wird die Sicherheitserzählung, egal wie schön sie ist, nur zu einem moralischen Kommentar am Rande des Spiels.

„Sicherheit“ hat als Unternehmen großartige Ergebnisse erzielt.

Anthropic hat natürlich von Anfang an Kunden angezogen, die höhere Anforderungen an Zuverlässigkeit und Kontrollierbarkeit stellen. Bei der Einführung von Claude wurde Wert auf Zuverlässigkeit, Vorhersehbarkeit und Bootfähigkeit gelegt. Seine frühen Partner waren Wissensproduktions-, Such-, Bildungs- und Workflow-Tools wie Notion, Quora, DuckDuckGo und Juni Learning.

Anthropic verkauft nicht das „billigste Modell“. Unternehmen, Regierung, Code, Finanzen, Gesundheitswesen, Bildung, öffentlicher Sektor – diese Kunden legen mehr Wert auf Stabilität, Compliance, Sicherheitsgrenzen und langfristige Haftung. Auch am Preis lässt sich erkennen, dass es sich bei Claude nicht um eine Billigstrecke handelt. Der Preis für Claude Opus 4.7 beträgt 5 US-Dollar pro Million Input-Tokens und 25 US-Dollar pro Million Outputs; Claude Sonnet 4.6 kostet 3 US-Dollar Input und 15 US-Dollar Output. Im Vergleich dazu hat Grok 4.20 von xAI einen Input von 2 $ und einen Output von 6 $, was offensichtlich radikaler ist; GPT-5.5 von OpenAI hat einen Input von 5 US-Dollar und einen Output von 30 US-Dollar, was in der gleichen hohen Preisklasse wie Claude Opus liegt.

Reuters berichtete außerdem zuvor, dass Anthropic mehr als 300.000 Geschäfts- und Unternehmenskunden hat, die etwa 80 % des Umsatzes ausmachen. Unternehmenskunden zahlen nutzungsabhängig, mit stabilerer Bindung und größerem Raum für Erweiterungen. Sobald sie Code, Office Flow, Cloud-Plattformen und Regierungssysteme eingeben, sind die Einnahmen nicht mit gewöhnlichen Abonnementprodukten zu vergleichen.

Im Gegensatz dazu hat OpenAI mit ChatGPT den größten Aufruhr auf der C-Seite gemacht und tatsächlich Massenbenutzer in einem beispiellosen Ausmaß geschult; Viele C-Seite-Benutzer bedeuten jedoch nicht, dass die Umsatzstruktur die beste ist.

Die neueste Aussage von OpenAI besagt, dass der Unternehmensumsatz 40 % des Gesamtumsatzes überschritten hat und man hofft, bis Ende 2026 mit der Verbraucherseite gleichziehen zu können. Mit anderen Worten: Auch OpenAI arbeitet hart daran, in den Unternehmensmarkt einzusteigen.

Anthropics Zusammenarbeit mit dem US-Kriegsministerium DoW ist ein typisches Beispiel. Anthropic war lange Zeit das einzige KI-Unternehmen, mit dem DoW im „vertraulichen Bereich“ zusammenarbeitete. Claude wird für Aufgaben wie Geheimdienstanalyse, Modellierung und Simulation, Kampfplanung und Cyber-Operationen eingesetzt.

Wenn man diesem Gedankengang folgt und auf den erbitterten „Kampf“ zwischen Anthropic und DoW zurückblickt, zeigt sich, dass Amodei in der Lage ist, Sicherheit als Geschäft zu behandeln – indem er das Endergebnis von „Massenüberwachung“ und „autonomen Waffen“ betont, selbst wenn er die Zusammenarbeit mit DoW verlor, wurden Anthropics öffentliche Sichtbarkeit und „Zuverlässigkeit“ auf ein höheres Niveau gehoben. und es hat eine beispiellose Gunst am Kapitalmarkt erlangt.

Anthropics Jahresumsatz ist von 9 Milliarden US-Dollar Ende 2025 auf 30 Milliarden US-Dollar im April 2026 gestiegen; Im Februar dieses Jahres schloss das Unternehmen eine 30-Milliarden-US-Dollar-Finanzierung mit einem Wert von 380 Milliarden US-Dollar ab, und dann plante Google, bis zu 40 Milliarden US-Dollar in das Unternehmen zu investieren. Einige Berichte deuten darauf hin, dass seine Bewertung auf dem Sekundärmarkt 1,1 Billionen US-Dollar erreicht hat.

Sicherheit klingt wie eine Zurückhaltung, aber bei Anthropic ist es letztendlich eine Geschäftssprache auf höherem Niveau.

Aber diese Managementtechnik hat durchaus ihre gefährliche Seite.

Wenn ein Unternehmen „Sicherheit“ zu einem Unternehmensglauben macht, wird es ganz natürlich ein Gefühl moralischer Überlegenheit entwickeln und es wird einfacher sein, Konkurrenten als verantwortungslose Menschen darzustellen und Geschäftsentscheidungen in Wertentscheidungen zu verwandeln.

Deshalb wird Amoudi umso unbequemer, je erfolgreicher Anthropic ist.

04

Zwei Seiten der „Sicherheit“TAGPH 10

Es wäre ein bisschen naiv, nur Amoudi zu betrachten als „Wissenschafts- und Ingenieursmann“, der Ideale und Endergebnisse, aber eine geringe emotionale Intelligenz hat, sagt also immer die Wahrheit und beleidigt andere.

Das Wall Street Journal veröffentlichte einmal einen Artikel über die zehnjährige Fehde zwischen Amodei und Ultraman.

Amodeis Geschichte bei OpenAI lässt sich alles andere als durch „Unterschiede in den Sicherheitskonzepten“ erklären.

Im Jahr 2018, nach dem Rückzug von Musk, stimmte Amodei zu, unter der Bedingung zu bleiben, dass Brockman (einer der Mitbegründer) und Sutskowe nicht die Macht übernehmen – er sprach zuerst über die Machtverteilung, nicht über technische Aspekte Routen.

Später, im Schlüsselmodellprojekt, schlossen er und seine Schwester Daniela sich zusammen, um Brockman zu blockieren, der mitmachen wollte. Einer der Gründe war, dass ein bestimmter Kernforscher „nicht mit ihm zusammenarbeiten wollte“. Der Forscher beschrieb sich später selbst als „Stellvertreterwaffe“ durch leitende Angestellte, was zeigt, dass Amodei weiß, wie man Menschen nutzt, um Allianzen zu bilden.

Als GPT-2/3 populär wurde, wurde er immer sensibler in Bezug auf Kreditzuweisung und Offenlegung: Er war unzufrieden damit, dass Brockman im Podcast „das Rampenlicht stiehlt“, und er wurde wütend, als er herausfand, dass Altman und Brockman Obama ohne ihn treffen würden.

Im folgenden Jahr beantragte er die Beförderung zum Vizepräsidenten für Forschung. Altman stimmte zu und fügte in die E-Mail des Vorstands ein: „Amody verspricht, Projekte, die er nicht gutheißt, nicht herabzusetzen“, was einer Waffenstillstandsklausel gleichkam.

Diese Details zeigen, dass Sicherheit Amoudis Credo und eine scharfe organisatorische Waffe ist. Er spricht über Bedingungen, kämpft für Projekte und das Recht auf freie Meinungsäußerung und verwendet die Sprache des „Risikos“, um zu definieren, wer im Kern bleiben darf.

Endlich OpenAI verlassen, um Anthropic zu gründen. Es handelte sich nicht so sehr um einen idealen Aufbruch, sondern eher um eine Bewegung auf dem Schlachtfeld, nachdem der interne Machtkampf gescheitert war.

Als er das Ruder bei Anthropic übernahm, wurde die Situation komplizierter. Anthropic ist nicht länger ein ideales Testgelände in einem Forschungslabor, sondern ein schnell wachsendes kommerzielles Schlachtschiff. Mittlerweile hat sich Sicherheit von einem reinen Prinzip zu einem soliden Verkaufsargument für Produkte entwickelt.

Je auffälliger Anthropic die Risiken der KI hervorhebt, desto mehr unterstreicht es die Notwendigkeit ihrer eigenen Existenz; Je mehr es andere dafür beschimpft, dass es zu schnell läuft, desto mehr kann es sich als der zuverlässigste Partner von Unternehmen, Regierungen und Regulierungsbehörden präsentieren.

Seine Erzählung enthält natürlich einen moralischen Vergleich. Wenn Sie sich für Claude entscheiden, entscheiden Sie sich nicht nur für ein Modell, sondern auch für eine verantwortungsvollere und kontrollierbarere Route.

Für die Konkurrenz ist das sehr ärgerlich. Sie verkaufen nur Produkte und lassen andere bequemerweise wie verantwortungslose Spieler aussehen. Sicherheit ist zu einer Differenzierungsbarriere und einem Marketinginstrument geworden. Unternehmenskunden sind bereit, für „Sorgenfreiheit“ mehr zu zahlen, und Regierungsbehörden überlassen sensible Projekte eher dem „sichersten“ Unternehmen.

Dabei ist Sicherheit auch zu einem politischen Verhandlungsinstrument geworden.

Axios berichtete, dass die Bundeslobbyausgaben von Anthropic im ersten Quartal 2026 1,6 Millionen US-Dollar erreichten und damit die 1 Million US-Dollar von OpenAI übertrafen und einen eigenen Rekord aufstellten; Es hatte zuvor eine Investition von 20 Millionen US-Dollar in eine überparteiliche Interessenvertretung angekündigt, die sich auf KI-Transparenz und Sicherheitsleitplanken konzentriert, und plant, sein politisches Team zu erweitern und ein langfristiges Büro in Washington einzurichten.

Um es ganz klar auszudrücken: Amodei konkurriert bereits um die Spielregeln im KI-Zeitalter.

Die Komplexität von Amodei liegt in der Tatsache, dass diese beiden Dinge gleichzeitig wahr sein können: Er glaubt an KI-Sicherheit und hat KI-Sicherheit tatsächlich zur schärfsten kommerziellen Waffe von Anthropic gemacht. Sicherheit ist sowohl seine Religion als auch sein Machthebel.

Prinzipien und Interessen sind nicht einfach Gegensätze, sondern nähren und stärken sich gegenseitig. Es ist diese Verflechtung von Wahrheit und Lüge, die ihn sowohl als „Sicherheitskönig“ loben als auch von manchen auch als klugen Händler betrachten lässt.

Anthropisch Je besser Sie Risiken erklären können, desto mehr Möglichkeiten haben Sie, Risiken zu definieren; Je mehr Möglichkeiten man hat, Risiken zu definieren, desto mehr kann man sich in den Mittelpunkt der Regeln der KI-Ära stellen.

Dies ist Amoudis „Sicherheitsmagie“, und „Staatsfeind“ ist ein notwendiger Nebeneffekt des Zauberns.

Vielleicht macht es ihm Spaß.