← Zpět na Tech News
Tento článek je z archivu. Byl publikován 18.02.2026.
🔧 Wired

Dohoda Nvidie s Metou signalizuje novou éru výpočetního výkonu

Dohoda Nvidie s Metou signalizuje novou éru výpočetního výkonu

Souhrn

Nvidia a Meta uzavřely víceletou dohodu, podle níž Meta zakoupí za miliardy dolarů čipy Nvidia včetně CPU Grace a miliony GPU Blackwell a Rubin. Tato spolupráce rozšiřuje stávající partnerství a zaměřuje se na stavbu hyperskalárních datacenter optimalizovaných pro trénink i inference AI modelů. Nvidia tak posiluje svou pozici nejen v high-end GPU, ale i v méně náročných segmentech AI výpočtů.

Klíčové body

  • Meta jako první technologický gigant nasadí v velkém měřítku samostatné CPU Grace z Nvidie, které je součástí superčipu Vera Rubin.
  • Předchozí plány Metu zahrnovaly 350 000 H100 GPU do konce 2024 a celkem 1,3 milionu GPU do konce 2025.
  • Nvidia nedávno investovala miliardy do licence technologie od startupu zaměřeného na nízkou latenci v AI výpočtech.
  • Dohoda zahrnuje masivní nasazení GPU Blackwell a Rubin pro dlouhodobou AI infrastrukturu Metu.
  • Nvidia začala prodávat standalone CPU jako součást svých systémů pro efektivní provoz agentických AI aplikací.

Podrobnosti

Nvidia je dlouhodobě spojována s grafickými procesory (GPU), které umožňují paralelní zpracování dat, což je klíčové pro trénink velkých jazykových modelů (LLM) a generativní AI. Růst poptávky po těchto technologiích výrazně zvýšil tržby společnosti, ale nyní se Nvidia zaměřuje na zákazníky, kteří nepotřebují nejsilnější GPU pro trénink, ale spíše efektivní řešení pro inference – tedy spouštění hotových AI modelů v produkčním prostředí. Agentická AI software, které autonomně vykonává úkoly jako plánování nebo rozhodování, vyžaduje nízkou latenci a nižší výpočetní nároky než trénink.

Nedávno Nvidia utratila miliardy dolarů za licenci technologie od startupu specializujícího se na výpočty s nízkou latencí pro AI. Současně spustila prodej samostatných CPU Grace v rámci svého nového superčipu Vera Rubin, jehož specifikace byly zveřejněny v lednu. CPU Grace slouží k obecnému zpracování dat, řízení systémů a doplňování GPU v hybridních architekturách, což umožňuje efektivnější provoz AI bez plýtvání výkonem.

Dohoda s Metou, oznámená včera, je rozšířením dlouhodobé spolupráce. Meta, provozovatel sociálních sítí jako Facebook a Instagram, buduje obrovskou AI infrastrukturu pro své modely jako Llama. Předchozí odhady hovořily o 350 000 H100 GPU do konce 2024, nyní se mluví o milionech Blackwell a Rubin GPU pro trénink i inference. Hyperskalární datacentra Metu budou optimalizována pro oba procesy: trénink vyžaduje masivní paralelní výkon GPU, zatímco inference potřebuje rychlost a efektivitu, kde CPU Grace hraje roli. Nvidia tak nabízí kompletní stack – GPU pro paralelizaci, CPU pro sekvenční úlohy a integrované systémy.

Tento posun znamená konec éry, kdy firmy kupovaly diskrétní čipy samostatně. Místo toho se prosazují integrované superčipy, které snižují složitost nasazení a zvyšují efektivitu. Pro Metu to znamená lepší škálovatelnost AI služeb, jako je personalizovaný obsah nebo autonomní agenti v jejich platformách.

Proč je to důležité

Tato dohoda posiluje dominanci Nvidie na trhu AI hardware, kde kontroluje přes 80 procent GPU pro AI. Rozšíření na CPU a low-end segmenty omezuje konkurenci od firem jako AMD nebo Intel a zvyšuje závislost gigantů jako Meta na jejich ekosystému. Pro průmysl to znamená přechod k hybridním systémům, které snižují energetickou náročnost inference – klíčové v době rostoucích nákladů na elektřinu v datacentrech. Uživatelé pocítí nepřímo lepší výkon AI služeb Metu, jako rychlejší odpovědi chatových botů nebo přesnější doporučení. Dlouhodobě to urychluje adopci agentických AI, ale zvyšuje rizika koncentrace technologie u jedné firmy, což může brzdit inovace jinde. Celkově signalizuje maturaci AI infrastruktury směrem k efektivitě místo hrubé síly.


Číst původní článek

Zdroj: 🔧 Wired

© 2026 Marigold.cz