Souhrn
AMD a Meta uzavřely definitivní víceletou a vícegenerační dohodu na nasazení až 6 gigawattů AMD Instinct GPU pro pohánění další generace AI infrastruktury Meta. Dodávky pro první gigawatt by měly začít v druhé polovině roku 2026 a budou založeny na vlastním AMD Instinct GPU s architekturou MI450, optimalizovaném pro úlohy Meta. Partnerství rozšiřuje stávající spolupráci a sladí roadmapy v oblasti křemíku, systémů i softwaru.
Klíčové body
- Nasazení až 6 gigawattů AMD Instinct GPU přes více generací pro Meta AI infrastrukturu.
- Základ na AMD Helios rack-scale architektuře, oznámené na Global Summit Open Compute Project 2025.
- První dodávky v 2H 2026 s GPU na bázi MI450, přizpůsobeným pro Meta workloads.
- Hloubější spolupráce na sladění GPU a CPU křemíku, systémů a softwaru.
- Rozšíření stávajícího strategického partnerství z roku 2026.
Podrobnosti
Společnosti AMD a Meta, která se zaměřuje na vývoj otevřených AI modelů jako Llama, oznámily tuto dohodu 24. února 2026 ze Santa Clary a Menlo Parku. Šestigigawattová kapacita představuje masivní expanzi výpočetního výkonu pro trénink a nasazení velkých jazykových modelů (LLM) a dalších AI úloh. AMD Instinct GPU slouží k paralelnímu zpracování dat v AI, kde vysoký počet jader umožňuje rychlé výpočty tensorů nutné pro strojové učení. Architektura MI450, která má nahradit současné MI300X, přináší vylepšení v paměti HBM3e a výkonu pro inferenci i trénink modelů s miliardami parametrů.
AMD Helios rack-scale architektura integruje GPU do racků s kapacitou až 100 kW na rack, což umožňuje škálování na datacentra bez ztráty efektivity chlazení a napájení. Tato architektura byla prezentována na konferenci Open Compute Project, kde se diskutuje o standardech pro otevřené datacentra. Meta, která v současnosti spoléhá převážně na NVIDIA H100 a H200 GPU, tímto krokem diverzifikuje dodavatele a snižuje rizika závislosti na jednom výrobci. Spolupráce zahrnuje i CPU části, jako AMD EPYC procesory, které slouží k orchestraci úloh v clusterech GPU.
Dodávky prvního gigawattu v roce 2026 znamenají, že Meta plánuje rychlou expanzi kapacity, pravděpodobně pro modely Llama 4 nebo následovníky, kteří vyžadují desítky tisíc GPU. Roadmapy jsou sladěny, aby AMD poskytlo hardware přesně pro Meta potřeby, včetně optimalizací softwaru jako ROCm platforma, která slouží k programování GPU pro AI workloads a konkuruje NVIDIA CUDA.
Proč je to důležité
Toto partnerství posiluje pozici AMD na trhu AI akcelerátorů, kde NVIDIA dominuje s více než 80procentním podílem, a umožňuje Meta snížit náklady na compute díky nižším cenám AMD GPU oproti NVIDIA. Pro průmysl znamená větší konkurenci, což může urychlit inovace v efektivitě energie – 6 GW spotřebuje ekvivalent energie malého města a vyžaduje pokročilé chlazení. V širším kontextu AI ekosystému to podporuje otevřené standardy přes Open Compute Project a pomáhá škálovat modely jako Llama, které jsou volně dostupné pro výzkum i komerční použití. Kriticky řečeno, úspěch závisí na tom, zda ROCm dosáhne parity s CUDA v ekosystému knihoven; jinak by Meta mohla zůstat u NVIDIA pro složitější úlohy. Pro uživatele to znamená rychlejší pokrok v AI modelech, které pohání sociální sítě, AR a autonomní systémy Meta.
Zdroj: 📰 Financial Post