← Zpět na Tech News
Tento článek je z archivu. Byl publikován 24.12.2025.
📰 New York Post

Nvidia rozšiřuje AI impérium licencí od Groq a přetahuje top manažery startupu

Nvidia rozšiřuje AI impérium licencí od Groq a přetahuje top manažery startupu

Souhrn

Nvidia uzavřela neexkluzivní licenci na čipovou technologii startupu Groq specializujícího se na inference AI modelů a přetáhla si jeho zakladatele Jonathana Rossa, prezidenta Sunnyho Madru a část inženýrského týmu. Groq oznámil, že bude pokračovat jako nezávislá společnost s novým CEO Simonem Edwardsem. Jedná se o strategický tah Nvidia v oblasti inference, kde čelí rostoucí konkurenci.

Klíčové body

  • Nvidia licencuje technologii Groq pro inference, kde AI modely zpracovávají uživatelské požadavky po tréninku.
  • Přecházejí klíčoví lidé: Jonathan Ross (ex-Google, zakladatel AI čipového programu Google), Sunny Madra a inženýři.
  • Groq zdvojnásobil valuaci na 6,9 miliardy dolarů po 750milionovém financování v září.
  • Žádné finanční detaily dohody; CNBC spekulovalo o 20miliardové akvizici, což firmy nepotvrdily.
  • Groq pokračuje v provozu cloudu a nezávislosti.

Podrobnosti

Nvidia, dominantní hráč na trhu s GPU pro trénink AI modelů, nyní posiluje pozici v inference – fázi, kdy již natrénované modely jako velké jazykové modely (LLM) odpovídají na dotazy uživatelů, například v chatbotech typu ChatGPT. Inference tvoří většinu provozních nákladů AI systémů v produkci, protože vyžaduje vysokou rychlost a efektivitu při opakovaném zpracování požadavků. Nvidia CEO Jensen Huang na keynote v roce 2025 zdůraznil, že firma udrží vedení i při posunu od tréninku k inference.

Groq, založený Jonathanem Rossem, který pomohl Google spustit jeho AI čipový program (TPU), se zaměřuje právě na inference čipy. Na rozdíl od Nvidia a konkurentů jako AMD nepoužívá externí vysokopásmovou paměť (HBM), která trpí globálním nedostatkem. Místo toho aplikuje on-chip SRAM paměť integrovanou přímo do čipu, což zrychluje interakce s AI modely a snižuje latenci – klíčové pro aplikace jako real-time chatboti nebo generování obrázků. Tato architektura umožňuje rychlejší odpovědi bez závislosti na paměťovém bottleneck.

Dohoda je neexkluzivní, takže Groq si zachovává práva pro vlastní produkty. Společnost nedávno uzavřela 750milionové kolo financování, které zdvojnásobilo valuaci z 2,8 na 6,9 miliardy dolarů. CNBC předtím hlásilo možnou akvizici za 20 miliard v hotovosti, ale ani Nvidia, ani Groq to nepotvrdily; zdroj blízko Nvidia potvrdil pouze licenci. Groq bude fungovat dál s cloudovou službou pro inference, kde uživatelé mohou spouštět AI modely na jejich hardwaru bez nutnosti vlastního nasazení čipů.

Konkurence v inference roste: AMD útočí svými Instinct akcelerátory, Cerebras nabízí obří wafer-scale enginy a další startupy jako Tenstorrent experimentují s alternativními architekturami. Nvidia tak poachingem talentů z Groq získává know-how pro hybridní řešení.

Proč je to důležité

Tento krok posiluje Nvidia v přechodové fázi AI trhu, kde inference převáží nad tréninkem – odhaduje se, že do roku 2027 bude tvořit 80 % AI výpočetní zátěže. Pro průmysl znamená snížení závislosti na HBM a rychlejší nasazení AI v cloudu, což ovlivní ceny služeb jako Grok nebo Gemini. Uživatelé pocítí nižší latenci v aplikacích, ale posílení Nvidia může omezit diverzitu čipů a zvýšit jejich tržní moc. Pro startupy jako Groq to ukazuje trend akvizic talentů (acqui-hire) místo plných převzetí, což umožňuje pokračovat v inovacích, ale oslabuje je o klíčové lidi. V širším kontextu urychluje konsolidaci AI hardwaru mezi několika giganty.


Číst původní článek

Zdroj: 📰 New York Post

© 2026 Marigold.cz