📰 Biztoc.com

Arm začne nabízet technologii NVLink od Nvidie v čipech pro AI datová centra

Arm začne nabízet technologii NVLink od Nvidie v čipech pro AI datová centra

Souhrn

Arm, britský návrhář procesorových architektur, začne integrovat propojovací technologii NVLink od Nvidie do svých čipů určených pro datová centra specializovaná na AI úlohy. Tento krok umožní rychlejší a efektivnější komunikaci mezi procesory a akcelerátory, což je klíčové pro škálování náročných AI modelů.

Klíčové body

  • Arm bude nabízet NVLink jako součást svých řešení pro datová centra.
  • NVLink umožňuje vysokorychlostní propojení mezi GPU a CPU s nižší latencí než standardní PCIe.
  • Spolupráce posiluje ekosystém AI hardwaru mimo x86 architekturu.
  • Cílem je konkurovat řešením od Intelu a AMD v rychle rostoucím trhu AI infrastruktury.
  • Integrace bude dostupná u budoucích generací Arm procesorů pro serverové aplikace.

Podrobnosti

NVLink je proprietární propojovací technologie od Nvidie, která umožňuje přímou, vysokorychlostní komunikaci mezi GPU a mezi GPU a CPU. Na rozdíl od standardní sběrnice PCIe, která je univerzální, ale pomalejší a s vyšší latencí, NVLink nabízí šířku pásma až desítky gigabajtů za sekundu a lepší škálovatelnost pro paralelní výpočty. Arm nyní tuto technologii začlení do svých serverových procesorů, což umožní výrobcům serverů (např. Ampere, AWS nebo Fujitsu) vytvářet systémy optimalizované pro trénování a inferenci velkých jazykových modelů (LLM). Tento krok je logickým důsledkem rostoucího využití Arm architektury v datových centrech – například AWS Graviton čipy již několik let konkuruje Intelu a AMD v běžných cloudových úlohách, nyní se však Arm zaměřuje i na náročnější AI workloady. Integrace NVLink také snižuje závislost na x86 platformách a posiluje ekosystém open-source a alternativních architektur.

Proč je to důležité

Tato spolupráce mezi Armem a Nvidií má potenciál převést trh AI hardwaru směrem k větší diverzifikaci. Zatímco většina AI datových center dnes běží na kombinaci x86 CPU a Nvidia GPU přes PCIe, nové Arm-NVLink systémy mohou nabídnout lepší poměr výkon/spotřeba a nižší náklady na škálování. Pro vývojáře AI to znamená možnost využívat efektivnější infrastrukturu, zejména u distribuovaného trénování modelů. Z dlouhodobého hlediska může tento trend oslabit postavení Intelu a AMD v AI segmentu a urychlit přechod na specializované, energeticky úsporné architektury – což je klíčové v době, kdy spotřeba energie AI datovými centry rychle roste.


Číst původní článek

Zdroj: 📰 Biztoc.com