📰 Naturalnews.com

Google a Amazon vstupují do arény AI čipů: Dokáže Nvidia udržet svou dominanci?

Google a Amazon vstupují do arény AI čipů: Dokáže Nvidia udržet svou dominanci?

Souhrn

Google a Amazon investují do vlastních AI čipů, jako jsou TPU od Google a Trainium3 od Amazonu, aby omezily závislost na Nvidia. Tento krok signalizuje širší trend k soběstačnosti v hardwaru pro umělou inteligenci mezi velkými technologickými firmami. Nvidia čelí tlaku, ale její ekosystém zůstává silný.

Klíčové body

  • Google rozšiřuje své tensorové zpracovatelské jednotky (TPU) a jedná o jejich dodávkách pro Meta, což vedlo k poklesu akcií Nvidia o 2,5 %.
  • Amazon představuje Trainium3, čip optimalizovaný pro trénink velkých jazykových modelů (LLM).
  • Nvidia má vyprodané čipy Blackwell a nadcházející Rubin do roku 2026 díky svému univerzálnímu GPU a platformě CUDA.
  • Hyperscalers jako Google a Amazon preferují specializované ASIC čipy pro nákladovou efektivitu v konkrétních úlohách.
  • Geopolitické napětí mezi USA a Čínou podporuje vývoj domácích alternativ, například od Huawei.

Podrobnosti

Článek popisuje konkurenční tlak na Nvidia, která dlouhodobě dominuje trhu s grafickými procesory (GPU) pro umělou inteligenci. Google vyvíjí TPU od roku 2016; tyto čipy jsou navrženy specificky pro akceleraci tensorových operací v neuronových sítích, což je klíčové pro trénink a inference modelů jako Gemini. Nejnovější verze TPU v5p nabízejí vyšší výkon než předchozí generace a Google zvažuje jejich prodej externím firmám, včetně Meta, která hledá alternativy k Nvidia H100 kvůli vysokým cenám a omezené dostupnosti.

Amazon naopak staví na Trainium čipech, kde Trainium3 přináší až čtyřnásobné zlepšení výkonu oproti Trainium2 pro trénink LLM. Tyto čipy slouží k optimalizaci nákladů na výpočetní výkon v cloudu AWS, kde firmy jako Anthropic nebo Stability AI trénují modely na miliardách parametrů. Oba giganti tak budují uzavřené ekosystémy: Google s frameworkem JAX a Amazon s Neuron SDK, které umožňují efektivní nasazení bez závislosti na CUDA od Nvidia.

Nvidia však nereaguje pasivně. Její Blackwell platforma (B200) překonává H100 v rychlosti tréninku o 30násobek pro modely typu Mixture of Experts a Rubin má přijít v roce 2026 s ještě větší hustotou tranzistorů. CUDA, proprietární software pro programování GPU, zůstává bariérou vstupu – umožňuje vývojářům snadno přenášet kód mezi AI, hraním her, robotikou a simulacemi. Navíc exportní restrikce USA brání Nvidia v prodeji do Číny, kde Huawei vyvíjí Ascend čipy jako alternativa pro domácí AI trénink.

Proč je to důležité

Tento vývoj ohrožuje monopol Nvidia, která kontroluje přes 80 % trhu s AI akcelerátory, ale posiluje diverzifikaci hardwaru. Pro průmysl znamená nižší ceny a lepší dostupnost – hyperscalers ušetří miliardy na nákupu GPU a přenášejí úspory na zákazníky. Uživatelé v AI vývoji získají více voleb: specializované ASICs pro inferenci (např. Inferentia od Amazonu pro rychlé odpovědi LLM) versus univerzální GPU pro široké aplikace v robotice nebo autonomních vozidlech. Dlouhodobě to urychlí inovace, ale zvyšuje fragmentaci ekosystému, což komplikuje vývojářům portabilitu kódu. V kontextu USA-Čína války o technologie to podtrhuje nutnost soběstačnosti, kde Čína investuje do domácích čipů, aby obejela sankce. Celkově to signalizuje maturitu AI hardwaru, kde dominance jedné firmy končí a nastupuje soutěž mezi optimalizovanými řešeními.


Číst původní článek

Zdroj: 📰 Naturalnews.com