📰 Biztoc.com

Po dohodě Nvidia s Groq: Další startupy na AI čipy v hře – a jeden, který je ohrožuje všechny

Po dohodě Nvidia s Groq: Další startupy na AI čipy v hře – a jeden, který je ohrožuje všechny

Souhrn

Nvidia překvapivě uzavřela dohodu v hodnotě 20 miliard dolarů na licencování technologie startupu Groq, který vyvíjí specializované čipy pro zpracování AI modelů. Společnost přebírá většinu týmu Groq včetně spoluzakladatele a CEO Jonathana Rossa. Tento krok signalizuje, že Nvidia už nepovažuje své grafické procesory (GPU) za jediné řešení pro AI úlohy.

Klíčové body

  • Nvidia licencuje technologii Groq za 20 miliard dolarů a přebírá klíčové zaměstnance.
  • Groq se specializuje na Language Processing Units (LPU), čipy optimalizované pro rychlou inferenci velkých jazykových modelů (LLM).
  • Dohoda naznačuje posun v strategii Nvidia směrem k integraci konkurenčních architektur.
  • Článek zmiňuje další startupy jako potenciální cíle akvizic: Cerebras, SambaNova nebo Tenstorrent.
  • Jeden disruptor, například Etched, cílí na transformaci AI čipů pomocí specifických architektur pro attention mechanismy.

Podrobnosti

Nvidia, dlouholetý dominant v trhu AI čipů díky svým GPU jako H100 nebo nadcházející Blackwell sérii, oznámila tuto dohodu 24. prosince 2025. Groq, založený v roce 2016 bývalými zaměstnanci Google, vyvinul unikátní architekturu LPU, která je navržena především pro inferenci – fázi, kdy AI modely jako GPT nebo Llama generují odpovědi na požadavky uživatelů. Na rozdíl od GPU, které jsou univerzální a excelují v tréninku modelů, LPU od Groq dosahují vyšší propustnosti při nižší latenci díky tensor streaming processorům (TSP), což umožňuje zpracovávat až 500 tokenů za sekundu na čip oproti desítkám u standardních GPU.

Tento krok přichází v době, kdy poptávka po AI hardwaru exploduje, ale dodávky Nvidia čipů zaostávají kvůli výrobním limitům TSMC. Groq již nasadil své systémy v cloudových službách pro firmy jako Anthropic nebo Perplexity AI, kde demonstroval až 10násobnou rychlost oproti Nvidia A100. Převzetím týmu Rossa, který má zkušenosti z Google TPU projektu, Nvidia získává know-how pro hybridní řešení: kombinaci GPU pro trénink a LPU pro inferenci.

Článek Fortune rovněž poukazuje na další startupy v hledáčku. Cerebras vyvíjí obrovské Wafer-Scale Engine čipy, které integrují miliardy tranzistorů na jediném krystalu pro paralelní zpracování. SambaNova nabízí kompletní AI platformy s reconfigurable dataflow units (RDU), které dynamicky přizpůsobují architekturu úlohe. Tenstorrent od Jima Kellherona (ex-AMD) se zaměřuje na skalovatelné čipy s n-gram processing pro efektivní LLM. Tyto firmy již získaly funding v řádech stovek milionů a lákají investory jako Saudi Aramco nebo AMD.

Jako disruptor je zmíněn Etched, který staví čipy plně optimalizované pro attention vrstvy v transformerech – jádro moderních LLM. Jejich architektura Sohu slibuje až 100násobnou úsporu energie oproti GPU tím, že nahrazuje univerzální výpočty specializovanými logickými obvody. To by mohlo dramaticky snížit náklady na inferenci v datech centrech.

Proč je to důležité

Tato dohoda potvrzuje, že éra dominance Nvidia GPU končí. Inferenci tvoří 90 % provozu AI cloudů, kde univerzálnost GPU vede k plýtvání energií – až 10x vyšší spotřebě než specializované čipy. Pro průmysl znamená akceleraci vývoje hybridních systémů, což sníží závislost na Nvidia a urychlí nasazení AI v edge zařízeních nebo autonomních vozidlech. Uživatelé pocítí nižší ceny API volání (např. od OpenAI) díky levnější inferenci. V širším kontextu to posiluje konkurenci, což brání monopolnímu chování Nvidia a stimuluje inovace v směru udržitelnějšího AI hardwaru. Pokud Nvidia integruje LPU, mohla by posílit svou pozici, ale riskuje kanibalizaci vlastních prodejů GPU.


Číst původní článek

Zdroj: 📰 Biztoc.com

Číst původní článek
Původní název: After Nvidia’s Groq deal, meet the other AI chip startups that may be in play—and one looking to disrupt them all