Souhrn
Amazon Web Services (AWS) představilo AI Factories, což je platforma pro nasazení kompletní AI infrastruktury přímo v datových centrech zákazníků s důrazem na datovou suverenitu. Současně spustilo obecné dostupnost serverů EC2 Trn3 UltraServers s čipem Trainium3 a nové P6e-GB300 UltraServery s platformou Nvidia GB300 NVL72 založenou na architektuře Blackwell. Tyto kroky cílí na vlády a regulovaná odvětví, kde je klíčové udržet data v zemi.
Klíčové body
- AWS AI Factories: Dedikovaná full-stack AI infrastruktura v zákaznických datových centrech, fungující jako soukromá AWS Region pro bezpečný přístup k výpočtům, úložišti a AI službám.
- Trainium3: Třetí generace vlastních AWS čipů optimalizovaných pro trénink a inference velkých AI modelů, napojená na EC2 Trn3 UltraServery.
- Nvidia GB300: Nejvýkonnější GPU instance na AWS s platformou GB300 NVL72, podporující vysokovýkonné AI workloady.
- Partnerství s Nvidia: Podpora architektur Grace Blackwell, Vera Rubin a budoucích NVLink Fusion pro Trainium4.
- Integrace služeb: Kombinace s Amazon Bedrock pro přístup k základním modelům a Amazon SageMaker pro vývoj a nasazení strojového učení.
Podrobnosti
AWS AI Factories přinášejí plnou AI infrastrukturu do existujících datových center zákazníků, kde AWS zajišťuje nasazení, provoz a správu životního cyklu. Zákazníci poskytují pouze své prostory, napájení a síťové připojení, což výrazně zkracuje dobu přípravy z let na měsíce. Platforma spojuje akcelerované výpočty Nvidia, čipy Trainium, vysokorychlostní sítě s nízkou latencí, energeticky efektivní hardware a služby jako Amazon Bedrock – který umožňuje experimentovat s velkými jazykovými modely (LLM) od různých tvůrců bez nutnosti vlastního tréninku – a Amazon SageMaker, nástroj pro budování, trénink a nasazení modelů strojového učení na škálu.
Servery EC2 Trn3 UltraServery poháněné Trainium3 jsou navrženy pro náročné AI úlohy, jako je trénink LLM s miliardami parametrů nebo inference v reálném čase. Trainium3 představuje vylepšení oproti předchozím generacím díky vyšší propustnosti paměti a lepší podpoře paralelního zpracování, což snižuje náklady na AI výpočty v porovnání s univerzálními GPU. Na druhé straně P6e-GB300 UltraServery integrují platformu Nvidia GB300 NVL72, která využívá architekturu Blackwell pro až 30násobné zrychlení inference oproti předchozím Hopper GPU. Tato platforma je ideální pro trénink modelů na úrovni stovek miliard parametrů.
AWS zdůrazňuje prohlubování spolupráce s Nvidia, včetně podpory nadcházejících GPU Vera Rubin a integrace NVLink Fusion pro lepší propojení Trainium4 čipů. Celkově tyto systémy podporují hybridní přístup, kde zákazníci mohou kombinovat cloudové zdroje AWS s lokálními kapacitami, aniž by ztratili kompatibilitu s existujícími nástroji.
Proč je to důležité
Tyto novinky reagují na rostoucí požadavky vlád a firem v regulovaných odvětvích, jako je finance nebo zdravotnictví, kde musí data zůstat na území kvůli legislativě jako GDPR nebo národním suverénním pravidlům. On-premises nasazení snižuje latenci pro aplikace v reálném čase, jako je autonomní rozhodování v průmyslu, a minimalizuje rizika úniku dat z cloudu. AWS tím posiluje svou dominanci v AI infrastruktuře proti konkurentům jako Microsoft Azure s jeho Cobalt čipy nebo Google Cloud s TPU. Dlouhodobě to urychlí adopci velkých AI modelů v privátním sektoru, kde náklady na cloudové GPU rostou, a donutí trh k větší standardizaci hybridních řešení. Kriticky lze říci, že zatímco Trainium3 snižuje závislost na Nvidia, hluboké partnerství udržuje AWS v čele, ale závisí na dodavatelských řetězcích čipů.
Zdroj: 📰 SiliconANGLE News
|