Souhrn
Nvidia uzavřela neexkluzivní dohodu se startupem Groq, specializovaným na vývoj čipů pro umělou inteligenci, a současně najala jeho špičkové inženýry včetně zakladatele Jonathana Rossa. Ross, který předtím vedl vývoj AI čipů TPU v Google, přechází do Nvidia společně s dalšími klíčovými talenty. Tento krok signalizuje rostoucí trend acquihire, kdy velké firmy získávají experty bez plného převzetí společnosti.
Klíčové body
- Nvidia najímá zakladatele Groq Jonathana Rossa a další top inženýry.
- Dohoda je neexkluzivní, Groq tak může pokračovat v samostatném provozu.
- Ross má zkušenosti z Google, kde stál u vývoje tensorových procesorů (TPU) pro AI trénink a inference.
- Groq se zaměřuje na Language Processing Units (LPU), čipy optimalizované pro rychlou inferenci velkých jazykových modelů (LLM).
- Jedná se o nový model spolupráce v Silicon Valley, kde se kombinuje partnerství s odlivem talentů.
Podrobnosti
Nvidia, dominantní hráč na trhu grafických procesorů (GPU) pro umělou inteligenci, posiluje svou pozici v oblasti inference AI modelů. Groq, startup založený v roce 2016, vyvinul unikátní architekturu LPU, která slouží k zpracování dotazů na velkých jazykových modelech jako GPT nebo Llama s výrazně vyšší rychlostí než tradiční GPU. Tyto čipy umožňují například zpracování milionů tokenů za sekundu, což je klíčové pro nasazení AI v reálném čase, jako v chatbotech nebo generování kódu.
Jonathan Ross, zakladatel Groq, předtím v Google Brain vede tým, který vytvořil první generace TPU – specializovaných akcelerátorů pro lineární algebru v neuronových sítích. TPU se používají pro trénink i inferenci modelů, ale Groq je překonal v efektivitě pro inference díky proprietárnímu designu založenému na vektorových procesorech a tensorovém streamingovém jádru. Podle zpráv Business Insider tento deal zahrnuje nejen přechod inženýrů, ale i přístup k technologiím Groq bez exkluzivity, což znamená, že Nvidia může integrovat znalosti do svých GPU řad jako Blackwell nebo Rubin, zatímco Groq si zachovává své cloudové služby GroqCloud pro inference.
Tento typ dohody není ojedinělý. V posledních měsícůch podobně Google najal talenty z Anthropic a Microsoft z Inflection AI, což ukazuje na válku o experty v AI hardwaru. Pro Groq to znamená riziko zpomalení vývoje, protože ztrácí klíčové lidi, ale neexkluzivita umožňuje pokračovat v prodeji LPU do datových center. Nvidia tak získává know-how pro konkurenční výhodu v inference, kde aktuálně čelí tlaku od custom čipů jako TPU nebo čipů od Amazonu (Trainium/Inferentia). Uživatelé AI služeb mohou očekávat rychlejší a levnější inference v cloudu Nvidia, například v platformách jako DGX Cloud.
Proč je to důležité
Tento krok posiluje monopol Nvidia v AI hardwaru, kde kontroluje přes 80 procent trhu GPU pro trénink. Získáním expertů na inference se Nvidia připravuje na éru, kdy inference překoná trénink v objemu výpočtů – odhady hovoří o desetinásobném nárůstu do roku 2027. Pro průmysl to znamená konsolidaci talentů u gigantů, což omezuje inovace startupů a zvyšuje závislost na Nvidia ekosystému CUDA. Kriticky řečeno, takové acquihire brzdí diverzifikaci hardwaru, což by mohlo vést k vyšším cenám a menší konkurenci v dlouhodobém horizontu. V širším kontextu urychluje to vývoj edge AI zařízení a robotiky, kde rychlá inference je klíčová pro autonomní systémy.
Zdroj: 📰 Business Insider