Die China Academy of Information and Communications Technology gab heute bekannt, dass sie den Lokalisierungsanpassungstest von DeepSeek V4 offiziell gestartet hat, um eine intensive Zusammenarbeit zwischen dem Modell und inländischer Software und Hardware zu fördern und die industrielle Implementierung zu beschleunigen.Dieser Test wurde auf der Grundlage des Schlüssellabors des Ministeriums für Industrie und Informationstechnologie und des AISHPerf-Benchmarksystems durchgeführt und deckte Full-Stack-KI-Software- und Hardwareprodukte wie Chips, Server, All-in-One-Maschinen, Cluster, Entwicklungstoolketten und intelligente Computerplattformen ab, wobei der Schwerpunkt auf den Inferenz- und Feinabstimmungsprozessen der gesamten Serie von DeepSeek V4-Modellen lag.

Die Bewertung erfolgt anhand von fünf Dimensionen: einfache Anpassung, funktionale Vollständigkeit, Optimierungseffekt, Leistung und Kosten, und fügt spezielle Indikatoren wie Sequenzverarbeitung, Codefähigkeiten, Erfolgsrate von Agentenanrufen und Aufgabenzerlegung neu hinzu, um ein dreidimensionales Bewertungssystem zu bilden.

Am Tag seiner Veröffentlichung hat DeepSeek V4 die Day-0-Anpassung für mehrere inländische Hardware erreicht und markiert damit den Eintritt inländischer KI-Software und -Hardware in die Iterationsphase mit der gleichen Frequenz.

Dieser Test wird den Anpassungsgrad objektiv überprüfen, die Unterstützung der inländischen Rechenleistung stärken und den Aufbau eines unabhängigen und kontrollierbaren KI-Ökosystems beschleunigen.

DeepSeek V4 umfasst zwei Versionen: V4-Pro (Flagship Edition) und V4-Flash (Lightweight Edition). Beide Versionen unterstützen nativ ultralange Kontexte mit 1 Million Token (ca. 750.000 Wörter). Sie nutzen einen selbst entwickelten DSA-Mechanismus mit geringer Aufmerksamkeit, um die Inferenzkosten für eine Million Kontexte um 70 % und die Speichernutzung um 40 % zu senken.

V4-Pro: Die Gesamtparameter erreichen 1,6 Billionen und die Aktivierungsparameter betragen 49B. Es konzentriert sich auf die oberste Leistungsgrenze, vergleicht sich mit den weltweit besten Closed-Source-Modellen wie GPT-5 und Claude Opus und eignet sich für komplexe Überlegungen, Codegenerierung, wissenschaftliche Forschungsberechnungen und andere schwierige Aufgaben.

V4-Flash: Gesamtparameter 284B, Aktivierungsparameter 13B, Schwerpunkt auf hoher Effizienz und niedrigen Kosten, Argumentationsfähigkeit ähnlich der Pro-Version, schnellere Geschwindigkeit, niedrigerer Preis, geeignet für tägliche Interaktion, Inhaltserstellung, leichte Bereitstellung im Unternehmen und andere Szenarien.