Souhrn
Nvidia překvapivě uzavřela dohodu v hodnotě 20 miliard dolarů na licencování technologie startupu Groq, který vyvíjí specializované čipy pro zpracování AI modelů. Společnost přebírá většinu týmu Groq včetně spoluzakladatele a CEO Jonathana Rossa. Tento krok signalizuje, že Nvidia už nepovažuje své grafické procesory (GPU) za jediné řešení pro AI úlohy.
Klíčové body
- Nvidia licencuje technologii Groq za 20 miliard dolarů a přebírá klíčové zaměstnance.
- Groq se specializuje na Language Processing Units (LPU), čipy optimalizované pro rychlou inferenci velkých jazykových modelů (LLM).
- Dohoda naznačuje posun v strategii Nvidia směrem k integraci konkurenčních architektur.
- Článek zmiňuje další startupy jako potenciální cíle akvizic: Cerebras, SambaNova nebo Tenstorrent.
- Jeden disruptor, například Etched, cílí na transformaci AI čipů pomocí specifických architektur pro attention mechanismy.
Podrobnosti
Nvidia, dlouholetý dominant v trhu AI čipů díky svým GPU jako H100 nebo nadcházející Blackwell sérii, oznámila tuto dohodu 24. prosince 2025. Groq, založený v roce 2016 bývalými zaměstnanci Google, vyvinul unikátní architekturu LPU, která je navržena především pro inferenci – fázi, kdy AI modely jako GPT nebo Llama generují odpovědi na požadavky uživatelů. Na rozdíl od GPU, které jsou univerzální a excelují v tréninku modelů, LPU od Groq dosahují vyšší propustnosti při nižší latenci díky tensor streaming processorům (TSP), což umožňuje zpracovávat až 500 tokenů za sekundu na čip oproti desítkám u standardních GPU.
Tento krok přichází v době, kdy poptávka po AI hardwaru exploduje, ale dodávky Nvidia čipů zaostávají kvůli výrobním limitům TSMC. Groq již nasadil své systémy v cloudových službách pro firmy jako Anthropic nebo Perplexity AI, kde demonstroval až 10násobnou rychlost oproti Nvidia A100. Převzetím týmu Rossa, který má zkušenosti z Google TPU projektu, Nvidia získává know-how pro hybridní řešení: kombinaci GPU pro trénink a LPU pro inferenci.
Článek Fortune rovněž poukazuje na další startupy v hledáčku. Cerebras vyvíjí obrovské Wafer-Scale Engine čipy, které integrují miliardy tranzistorů na jediném krystalu pro paralelní zpracování. SambaNova nabízí kompletní AI platformy s reconfigurable dataflow units (RDU), které dynamicky přizpůsobují architekturu úlohe. Tenstorrent od Jima Kellherona (ex-AMD) se zaměřuje na skalovatelné čipy s n-gram processing pro efektivní LLM. Tyto firmy již získaly funding v řádech stovek milionů a lákají investory jako Saudi Aramco nebo AMD.
Jako disruptor je zmíněn Etched, který staví čipy plně optimalizované pro attention vrstvy v transformerech – jádro moderních LLM. Jejich architektura Sohu slibuje až 100násobnou úsporu energie oproti GPU tím, že nahrazuje univerzální výpočty specializovanými logickými obvody. To by mohlo dramaticky snížit náklady na inferenci v datech centrech.
Proč je to důležité
Tato dohoda potvrzuje, že éra dominance Nvidia GPU končí. Inferenci tvoří 90 % provozu AI cloudů, kde univerzálnost GPU vede k plýtvání energií – až 10x vyšší spotřebě než specializované čipy. Pro průmysl znamená akceleraci vývoje hybridních systémů, což sníží závislost na Nvidia a urychlí nasazení AI v edge zařízeních nebo autonomních vozidlech. Uživatelé pocítí nižší ceny API volání (např. od OpenAI) díky levnější inferenci. V širším kontextu to posiluje konkurenci, což brání monopolnímu chování Nvidia a stimuluje inovace v směru udržitelnějšího AI hardwaru. Pokud Nvidia integruje LPU, mohla by posílit svou pozici, ale riskuje kanibalizaci vlastních prodejů GPU.
Zdroj: 📰 Biztoc.com