Souhrn
Samsung oznámil, že jako první společnost na světě zahájil hromadnou výrobu pamětí high-bandwidth memory (HBM4) šesté generace. Tyto čipy s výrazně vyšší propustností dat než předchozí generace HBM3E jsou určeny pro nejpokročilejší AI akcelerátory, jako jsou GPU od Nvidia nebo AMD. Tento milník posiluje pozici Samsungu v dodavatelském řetězci pro umělou inteligenci.
Klíčové body
- Samsung je první s hromadnou výrobou HBM4, což předchází konkurentům jako SK Hynix a Micron.
- HBM4 poskytuje až dvojnásobnou propustnost dat oproti HBM3E, klíčové pro trénink velkých jazykových modelů (LLM).
- Čipy budou integrovány do AI akcelerátorů pro datová centra, kde je vysoká rychlost přenosu dat nezbytná.
- Výroba probíhá v pokročilých továrnách Samsungu s technologií 1b nm pro paměťové kostky.
- Očekává se dodávky pro klíčové zákazníky v roce 2025.
Podrobnosti
High-bandwidth memory (HBM) je specializovaný typ DRAM paměti navržený pro aplikace vyžadující extrémně vysokou propustnost dat, jako je strojové učení a AI trénink. Na rozdíl od běžné GDDR paměti, kterou používají herní grafické karty, HBM skládá paměťové kostky vertikálně v jednom balení s logickým čipem pomocí through-silicon via (TSV) technologie. To umožňuje šířku pásma až 1,6 TB/s na stack u HBM4, oproti 1,2 TB/s u HBM3E.
Samsung, jeden z největších výrobců polovodičů na světě, investoval do této technologie miliardy dolarů, aby dohnal lídra SK Hynix, který dodává většinu HBM pro Nvidia H100 a H200 GPU. HBM4 přináší nejen vyšší rychlost, ale i lepší energetickou účinnost díky pokročilému 1b nm procesu pro paměťové buňky a TC-NCF (thermal compression non-conductive film) lepidlu pro stabilnější spoje. Každý stack HBM4 může obsahovat až 16 vrstev po 24 Gb, což znamená kapacitu přes 1 TB na GPU balení.
Výroba začala v továrnách v jihokorejském Hwaseongu a připravuje Samsung na poptávku po AI hardwaru v době, kdy trénink modelů jako GPT-5 nebo Llama 4 vyžaduje paměti s propustností přesahující současné limity. Samsung již testoval HBM4 s partnery a dosáhl plné kvalifikace pro masovou produkci. Konkurence je tvrdá: SK Hynix plánuje HBM4 v polovině 2025, zatímco Micron se zaměřuje na HBM3E. Tento krok také znamená diverzifikaci dodávek pro AI firmy, které jsou závislé na jednom dodavateli rizikem.
Pro uživatele to znamená nepřímo rychlejší AI služby – od lepšího výkonu ChatGPT po efektivnější inference v cloudu. V průmyslu posiluje to soutěž v paměťovém segmentu, kde ceny HBM stouply na 40 USD za Gb kvůli nedostatku.
Proč je to důležité
V éře explozivního růstu AI, kde trénink jediného velkého modelu spotřebuje energie odpovídající spotřebě malého města, je HBM4 klíčovým krokem k vyšší efektivitě. Bez takových pamětí by GPU jako nadcházející Nvidia Blackwell (B200) nedosáhly slibovaného výkonu 20 petaflopů v FP8 pro AI. Samsungův prvenství snižuje rizika v dodavatelském řetězci, podporuje globální AI závody mezi USA, Čínou a Evropou a může snížit ceny hardware díky větší dostupnosti. Dlouhodobě to urychlí vývoj AGI, protože vyšší bandwidth umožní škálování modelů na biliony parametrů bez úzkého hrdla v datech. Nicméně závislost na korejských výrobcích zůstává geopolitickým rizikem.
Zdroj: 📰 SamMobile