← Zpět na Tech News
Tento článek je z archivu. Byl publikován 07.02.2026.
📰 Digitimes

Investice AMD do fotoniky a modulární architektury signalizuje posun v rozvoji infrastruktury pro umělou inteligenci

Investice AMD do fotoniky a modulární architektury signalizuje posun v rozvoji infrastruktury pro umělou inteligenci

Souhrn

AMD investuje do fotonické technologie a modulárních rackových architektur, aby posílilo svou pozici v infrastruktuře pro umělou inteligenci. Tyto pokroky mají řešit klíčové bottleneck v datových centrech, jako je pomalá komunikace mezi čipy. Podle CTO Marka Papermastera to signalizuje širší změnu v designu AI systémů.

Klíčové body

  • Integrace fotoniky pro rychlejší optickou komunikaci mezi procesory v AI clusterech.
  • Modulární rack-scale platformy umožňují flexibilní škálování hardware bez plné rekonfigurace.
  • AMD cílí na budoucí potřeby AI tréninku, kde tradiční elektrické propojení selhává.
  • Strategie CTO Papermastera zdůrazňuje dlouhodobý posun od monolithických designů.
  • Konkurence s Nvidii v oblasti GPU pro AI, jako MI300X série.

Podrobnosti

AMD, přední výrobce procesorů a grafických zpracovatelů, se zaměřuje na překonání limitů současné AI infrastruktury. Fotonika, tedy technologie využívající světlo pro přenos dat místo elektrických signálů, slibuje dramatické zrychlení komunikace v hyperskálových datových centrech. V tradičních systémech, kde tisíce GPU jako AMD Instinct MI300X zpracovávají modely umělé inteligence, způsobují měděné kabely zpoždění a vysokou spotřebu energie. Fotonické propojení, například pomocí silikonových fotonických čipů, umožňuje přenos dat rychlostmi řádově vyššími při nižší spotřebě – ideální pro trénink velkých jazykových modelů (LLM), kde se pohybují petabajty dat mezi uzly.

Modulární rack-scale architektury doplňují tento přístup. Místo pevně integrovaných superpočítačů AMD navrhuje disaggregované systémy, kde lze samostatně škálovat výpočetní moduly, paměti a síťové prvky. To připomíná koncepty jako Nvidia GB200 NVL72, ale AMD zdůrazňuje otevřenost a kompatibilitu s existujícími racky. CTO Mark Papermaster, který vede vývoj od roku 2022, v nedávném interview popsal tuto strategii jako odpověď na explozivní růst AI poptávky. AMD již testuje prototypy v laboratořích a plánuje nasazení v partnerových datových centrech do roku 2027.

V kontextu současného trhu, kde Nvidia dominuje s 80% podílem na AI akcelerátorech, představuje toto AMD snahu o diferenciaci. Společnost nedávno uvedla MI325X GPU s podporou vyšší paměťové kapacity pro inference AI modelů, ale fotonika přidává dlouhodobý rozměr. Kriticky lze říci, že fotonická integrace je stále v rané fázi – většina systémů trpí ztrátami signálu a složitou výrobou –, ale AMD spolupracuje s firmami jako Ayar Labs na čipech TeraPHY, které dosahují 4 Tbps přenosu.

Proč je to důležité

Tato investice AMD ovlivní celý ekosystém AI infrastruktury. Pro průmysl znamená potenciální snížení nákladů na trénink modelů o 30-50% díky efektivnější komunikaci, což umožní menším hráčům konkurovat gigantům jako OpenAI nebo Google. Uživatelé – od cloud providerů po výzkumníky – získají škálovatelné systémy odolné vůči současným limitům energie a tepla. V širším kontextu urychluje přechod k exaskálovým AI clusterm, kde fotonika a modularita budou standardem. AMD tak posiluje svůj podíl na trhu AI hardware, který dosáhne 400 miliard dolarů do 2030, a tlačí konkurenty k podobným inovacím. Nicméně úspěch závisí na masové produkci, kde AMD zatím zaostává za TSMSC kapacitami.


Číst původní článek

Zdroj: 📰 Digitimes

© 2026 Marigold.cz