Souhrn
AMD investuje do fotonické technologie a modulárních rackových architektur, aby posílilo svou pozici v infrastruktuře pro umělou inteligenci. Tyto pokroky mají řešit klíčové bottleneck v datových centrech, jako je pomalá komunikace mezi čipy. Podle CTO Marka Papermastera to signalizuje širší změnu v designu AI systémů.
Klíčové body
- Integrace fotoniky pro rychlejší optickou komunikaci mezi procesory v AI clusterech.
- Modulární rack-scale platformy umožňují flexibilní škálování hardware bez plné rekonfigurace.
- AMD cílí na budoucí potřeby AI tréninku, kde tradiční elektrické propojení selhává.
- Strategie CTO Papermastera zdůrazňuje dlouhodobý posun od monolithických designů.
- Konkurence s Nvidii v oblasti GPU pro AI, jako MI300X série.
Podrobnosti
AMD, přední výrobce procesorů a grafických zpracovatelů, se zaměřuje na překonání limitů současné AI infrastruktury. Fotonika, tedy technologie využívající světlo pro přenos dat místo elektrických signálů, slibuje dramatické zrychlení komunikace v hyperskálových datových centrech. V tradičních systémech, kde tisíce GPU jako AMD Instinct MI300X zpracovávají modely umělé inteligence, způsobují měděné kabely zpoždění a vysokou spotřebu energie. Fotonické propojení, například pomocí silikonových fotonických čipů, umožňuje přenos dat rychlostmi řádově vyššími při nižší spotřebě – ideální pro trénink velkých jazykových modelů (LLM), kde se pohybují petabajty dat mezi uzly.
Modulární rack-scale architektury doplňují tento přístup. Místo pevně integrovaných superpočítačů AMD navrhuje disaggregované systémy, kde lze samostatně škálovat výpočetní moduly, paměti a síťové prvky. To připomíná koncepty jako Nvidia GB200 NVL72, ale AMD zdůrazňuje otevřenost a kompatibilitu s existujícími racky. CTO Mark Papermaster, který vede vývoj od roku 2022, v nedávném interview popsal tuto strategii jako odpověď na explozivní růst AI poptávky. AMD již testuje prototypy v laboratořích a plánuje nasazení v partnerových datových centrech do roku 2027.
V kontextu současného trhu, kde Nvidia dominuje s 80% podílem na AI akcelerátorech, představuje toto AMD snahu o diferenciaci. Společnost nedávno uvedla MI325X GPU s podporou vyšší paměťové kapacity pro inference AI modelů, ale fotonika přidává dlouhodobý rozměr. Kriticky lze říci, že fotonická integrace je stále v rané fázi – většina systémů trpí ztrátami signálu a složitou výrobou –, ale AMD spolupracuje s firmami jako Ayar Labs na čipech TeraPHY, které dosahují 4 Tbps přenosu.
Proč je to důležité
Tato investice AMD ovlivní celý ekosystém AI infrastruktury. Pro průmysl znamená potenciální snížení nákladů na trénink modelů o 30-50% díky efektivnější komunikaci, což umožní menším hráčům konkurovat gigantům jako OpenAI nebo Google. Uživatelé – od cloud providerů po výzkumníky – získají škálovatelné systémy odolné vůči současným limitům energie a tepla. V širším kontextu urychluje přechod k exaskálovým AI clusterm, kde fotonika a modularita budou standardem. AMD tak posiluje svůj podíl na trhu AI hardware, který dosáhne 400 miliard dolarů do 2030, a tlačí konkurenty k podobným inovacím. Nicméně úspěch závisí na masové produkci, kde AMD zatím zaostává za TSMSC kapacitami.
Zdroj: 📰 Digitimes