← Zpět na Tech News
Tento článek je z archivu. Byl publikován 12.02.2026.
📰 Techpowerup.com

Samsung zahájil dodávky první komerční HBM4 s vysokým výkonem pro AI výpočty

Samsung zahájil dodávky první komerční HBM4 s vysokým výkonem pro AI výpočty

Souhrn

Samsung Electronics zahájil hmotnou výrobu a dodávky první komerční HBM4 paměti, která je navržena pro vysokovýkonné AI výpočty. Použil k tomu pokročilý 6. generace 10nm DRAM procesu (1c) a 4nm logický proces, což zajišťuje stabilní výnosy a výkon nad standardy. Tím si zajišťuje náskok na trhu HBM4.

Klíčové body

  • Rychlost zpracování 11,7 Gbps, což je o 46 % více než standard 8 Gbps a 1,22násobek oproti HBM3E (9,6 Gbps); lze navýšit na 13 Gbps.
  • Šířka pásma jedné vrstvy až 3,3 TB/s, což je 2,7násobek oproti HBM3E.
  • 12vrstvé stohování pro vyšší kapacitu.
  • První komerční dodávky bez nutnosti redesignu.

Podrobnosti

Samsung dosáhl tohoto milníku zahájením hmotné výroby HBM4 12. února 2026, jak uvádí tisková zpráva. Na rozdíl od konkurentů nepoužil osvědčené designy, ale přešel na nejnovější 1c DRAM proces v 10nm třídě a 4nm logiku. To umožnilo stabilní výnosy od startu výroby. Sang Joon Hwang, výkonný viceprezident pro vývoj pamětí v Samsungu, zdůraznil, že optimalizace procesu a designu poskytuje rezervu výkonu pro rostoucí požadavky AI modelů.

HBM4 (High Bandwidth Memory 4) slouží jako paměť pro grafické procesory (GPU) v datech centrech, kde trénink velkých jazykových modelů (LLM) jako GPT nebo Llama vyžaduje obrovskou propustnost dat. Předchozí generace HBM3E dosahuje maximálně 9,6 Gbps na pin, což způsobuje úzká místa při škálování modelů na biliony parametrů. HBM4 s konzistentními 11,7 Gbps (až 13 Gbps) a 3,3 TB/s na stack řeší tento problém. 12vrstvé stohování zvyšuje kapacitu oproti 8 vrstvám v HBM3E, což umožňuje větší modely bez častějšího přístupu k systémové paměti.

Pro průmysl to znamená, že výrobci GPU jako NVIDIA nebo AMD mohou integrovat HBM4 do dalších generací čipů, například nástupců Blackwell architektury. Samsung tak posiluje svou pozici dodavatele pamětí pro AI hyperscalery jako Google, Microsoft nebo OpenAI, kteří investují miliardy do tréninkových clusterů. Žádné redesigny znamenají rychlejší nasazení do produkce.

Proč je to důležité

V éře rostoucích AI modelů, kde velikost datových sad a parametrů exploduje, je paměť klíčovým bottleneckem. HBM4 umožňuje efektivnější trénink a inference, což urychlí vývoj pokročilých systémů směrem k AGI. Pro uživatele to znamená levnější cloudové AI služby díky vyšší efektivitě. Samsungovo vedení donutí konkurenty jako SK Hynix k urychlení, což pohání celý ekosystém AI hardware. V kontextu partnerství s NVIDIA (která ovládá 80 % AI GPU trhu) to ovlivní ceny a dostupnost výpočetního výkonu pro výzkum i komerční aplikace.


Číst původní článek

Zdroj: 📰 Techpowerup.com

© 2026 Marigold.cz