Die erste Iteration des High-Bandwidth-Speichers (HBM) war auf eine maximale Geschwindigkeit von 128 GB/s pro Stapel begrenzt. Es gibt jedoch einen großen Vorbehalt: Aufgrund physikalischer Einschränkungen sind Grafikkarten mit HBM1 auf 4 GB Speicher begrenzt.

Im Laufe der Zeit haben HBM-Hersteller wie SKHynix und Samsung die Mängel von HBM verbessert. Das erste Update, HBM2, verdoppelte die potenziellen Geschwindigkeiten auf 256 GB/s pro Stack und erhöhte die maximale Kapazität auf 8 GB. Im Jahr 2018 wurde HBM2 leicht aktualisiert (HBM2E), die Kapazitätsgrenze wurde weiter auf 24 GB erhöht und auch die Geschwindigkeit wurde erneut erhöht, so dass schließlich ein Spitzenwert von 460 GB/s pro Chip erreicht wurde.

Nach der Einführung von HBM3 verdoppelte sich die Geschwindigkeit erneut und erreichte eine maximale Geschwindigkeit von 819 GB/s pro Stack. Noch beeindruckender ist, dass sich die Kapazität fast verdreifacht hat, von 24 GB auf 64 GB. Wie HBM2E erhält auch HBM3 ein weiteres Mid-Cycle-Upgrade, HBM3E, das die theoretischen Geschwindigkeiten auf 1,2 TB/s pro Stack erhöht.

Im Laufe der Zeit wurde HBM in Consumer-Grafikkarten nach und nach durch preisgünstigeren GDDR-Speicher ersetzt. Speicher mit hoher Bandbreite wird in Rechenzentren zum Standard, und Hersteller von Arbeitsplatz-Grafikkarten entscheiden sich für die Verwendung schnellerer Schnittstellen.

Trotz verschiedener Updates und Verbesserungen behält HBM in allen Iterationen die gleiche 1024-Bit-Schnittstelle (pro Stack) bei. Laut einem Bericht aus Südkorea könnte sich dies endlich ändern, wenn HBM4 auf den Markt kommt. Wenn die Berichte wahr sind, wird sich die Speicherschnittstelle von 1024 Bit auf 2048 Bit verdoppeln.

Theoretisch könnte der Wechsel zu einer 2048-Bit-Schnittstelle die Übertragungsgeschwindigkeit noch einmal verdoppeln. Leider sind Speicherhersteller möglicherweise nicht in der Lage, mit HBM4 die gleichen Übertragungsraten wie mit HBM3E aufrechtzuerhalten. Höhere Speicherschnittstellen ermöglichen es den Herstellern jedoch, weniger Stacking bei Grafikkarten zu verwenden.

Beispielsweise verwendet NVIDIAs Flaggschiff-KI-Grafikkarte H100 derzeit sechs nachweislich funktionierende gestapelte 1024-Bit-Chips, was eine 6144-Bit-Schnittstelle ermöglicht. Wenn die Speicherschnittstelle auf 2048 Bit verdoppelt würde, könnte NVIDIA theoretisch die Anzahl der Chips auf drei halbieren und die gleiche Leistung erzielen. Natürlich ist unklar, welchen Ansatz die Hersteller verfolgen werden, da HBM4 mit ziemlicher Sicherheit erst in einigen Jahren in Produktion gehen wird.

Derzeit glauben sowohl SK Hynix als auch Samsung, dass sie mit der Produktion von HBM4 eine „100-prozentige Ausbeute“ erzielen können. Nur die Zeit wird zeigen, ob diese Berichte Bestand haben. Behandeln Sie diese Nachrichten daher mit Vorsicht.

Zugang:

Jingdong Mall