Souhrn
Nvidia uzavřela neexkluzivní licenční dohodu na čipovou technologii startupu Groq, který se specializuje na inference v AI, a přebírá jeho zakladatele Jonathana Rossa, prezidenta Sunnyho Madru a část inženýrského týmu. Groq zůstává nezávislou společností pod vedením nového CEO Simona Edwardse a pokračuje v provozu svého cloudového businessu. Tento krok přichází v době, kdy Nvidia čelí rostoucí konkurenci v oblasti inference, přestože dominuje v tréninku AI modelů.
Klíčové body
- Nvidia získává neexkluzivní licenci na Groqovu technologii pro inference AI modelů.
- Přecházejí klíčoví lidé: Jonathan Ross (zakladatel, veterán Google AI čipů), Sunny Madra (prezident) a inženýři.
- Groq zdvojnásobil valuaci na 6,9 miliardy USD po 750milionovém financování v září.
- Groq se zaměřuje na inference (odpovědi trénovaných modelů), kde Nvidia čelí rivalům jako AMD, Cerebras.
- Technologie Groq využívá SRAM paměť na čipu místo externí HBM, což zrychluje interakce s chatboti.
Podrobnosti
Společnost Groq, specializující se na hardware pro inference – fázi, kdy již trénované AI modely zpracovávají uživatelské požadavky a generují odpovědi –, oznámila v blogovém příspěvku dohodu s Nvidii. Inference se liší od tréninku modelů, kde Nvidia díky svým GPU s vysokopásmovou pamětí HBM (high-bandwidth memory) drží převahu. V inference je ale konkurence intenzivnější: tradiční rivalové jako Advanced Micro Devices (AMD) i startupy jako Groq nebo Cerebras Systems vyvíjejí specializované čipy pro efektivnější zpracování požadavků v reálném čase, například v chatbotech nebo doporučovacích systémech.
Zakladatel Groq Jonathan Ross, který pomohl Google spustit program AI čipů (TPU), Sunny Madra a další inženýři přecházejí k Nvidii. Tento pohyb talentů potvrdil zdroj blízký Nvidii, přičemž finanční podrobnosti dohody nebyly zveřejněny. Spekulace CNBC o akvizici Groq za 20 miliard dolarů v hotovosti Nvidia ani Groq nepotvrdily ani nevyvrátily. Groq zdůrazňuje, že zůstane nezávislý, s Simonem Edwardsem jako novým CEO, a jeho cloudová služba pro inference bude fungovat dál.
Groqova technologie vyniká odmítnutím externí HBM paměti, která sužuje globální čipový průmysl nedostatkem. Místo toho používá SRAM (static RAM) přímo na čipu, což umožňuje vyšší rychlost a nižší latenci při interakcích s AI modely, jako jsou velké jazykové modely (LLM) v aplikacích typu ChatGPT. Tento přístup patří mezi inovace startupů, které se snaží ohrozit Nvidia dominanci v inference trhu. Nvidia CEO Jensen Huang během keynote v roce 2025 argumentoval, že firma udrží vedení i při posunu AI trhu směrem k inference, což tato dohoda podporuje.
Proč je to důležité
Tato dohoda posiluje pozici Nvidia v klíčové oblasti inference, kde rychlost a efektivita rozhodují o nákladech provozu AI služeb. Absorpce Groq talentů a technologie umožní Nvidii integrovat SRAM-based řešení do svých GPU, což by mohlo snížit závislost na HBM a zlepšit výkon v datech centrech pro cloudové AI. Pro průmysl znamená konsolidaci: startupy jako Groq ztrácejí klíčové lidi, což zpomaluje konkurenci, zatímco Nvidia získává konkurenční výhody bez plné akvizice. Uživatelé pocítí rychlejší a levnější AI interakce v aplikacích, ale dlouhodobě to posiluje monopol Nvidia, což může brzdit inovace od menších hráčů. V širším kontextu AI ekosystému to podtrhuje trend, kdy giganti pohlcují startupy pro udržení vedení v přechodu od tréninku k nasazení modelů.
Zdroj: 📰 New York Post