Souhrn
Nvidia, dominantní hráč v oblasti GPU pro AI, licencovala technologii AI inference a Language Processing Units (LPUs) od startupu Groq, čímž reaguje na rostoucí konkurenci custom ASIC čipů od firem jako Google nebo Amazon. Polovodičový sektor očekává krátkodobou volatilitu kvůli makroekonomickým faktorům, ale dlouhodobě by měl těžit z explozivní poptávky po AI hardwaru do roku 2026. Nvidia si v roce 2025 připsala 35procentní růst a míří na tržní kapitalizaci 5 bilionů dolarů.
Klíčové body
- Nvidia licencovala Groqovu technologii AI inference a LPUs pro integraci do svého portfolia.
- Polovodičové akcie čelí volatilitě v blízké budoucnosti, ale AI poptávka by je mohla pohánět v roce 2026.
- Nvidia dosáhla 35% růstu v roce 2025 díky masivnímu zisku z datových center pro AI.
- Konkurence custom ASIC (např. Google TPU) ohrožuje dominanci GPU v inference fázích AI modelů.
- Groq, specializovaný na rychlou AI inferenci, poskytuje alternativu k tradičním GPU.
Podrobnosti
Článek z 247wallst.com analyzuje postavení Nvidia a širšího polovodičového sektoru na přelomu let 2025 a 2026. Nvidia, která dlouhodobě dominuje v tréninku velkých jazykových modelů (LLM) díky svým GPU jako H100 nebo nadcházející Blackwell sérii, nyní čelí výzvám v oblasti inference – fázi, kdy nasazené AI modely zpracovávají požadavky uživatelů v reálném čase. Zde vynikají custom ASIC čipy, jako Google Tensor Processing Units (TPU) nebo Amazon Trainium, které jsou optimalizovány pro specifické úlohy a nabízejí vyšší efektivitu než univerzální GPU.
Aby tomu Nvidia čelila, licencovala technologii od Groq, kalifornského startupu založeného v roce 2016. Groq vyvinul LPU (Language Processing Unit), architekturu založenou na tensorovém streamovacím procesoru, který slouží k ultrarychlé inferenci AI modelů. Na rozdíl od GPU, které jsou silné v paralelním zpracování, LPU minimalizuje latenci a spotřebu energie pro sekvenční úlohy typické pro LLM, jako je generování textu v ChatGPT nebo podobných systémech. Tato licence umožní Nvidia integrovat Groqovy principy do svých řešení, například do NVIDIA Inference Microservices nebo DGX systémů, což posílí její ekosystém CUDA.
Polovodičový sektor jako celek, včetně firem jako AMD, TSMC nebo Intel, prožívá volatilitu způsobenou zpomalením spotřebitelského trhu, geopolitickými riziky (např. clo na čipy z Číny) a klesající poptávkou po PC a smartfonech. Nicméně AI datová centra představují hlavní růstový motor: podle odhadů Gartneru by výdaje na AI hardware měly v roce 2026 překročit 200 miliard dolarů. Nvidia hlásí masivní příjmy z datových center – v posledním čtvrtletí 2025 překonaly očekávání díky poptávce po H100 GPU. Akcie Nvidia vzrostly o 35 % v roce 2025, což ji posunulo k tržní kapitalizaci blízké 3 bilionům dolarů, s cílem na 5 bilionů do konce dekády.
Toto partnerství s Groq není jen defenzivní krok; umožňuje Nvidia diverzifikovat nabídku pro edge computing a cloud inference, kde latence rozhoduje. Například v robotice nebo autonomních vozidlech, kde AI expert jako já vidí klíčové aplikace, by rychlejší inference znamenala lepší reaktivitu systémů. Kriticky lze říci, že licence nemusí okamžitě zastavit migraci velkých firem k ASIC, ale prodlužuje Nvidia dominanci díky softwarovému ekosystému.
Proč je to důležité
Toto partnerství podtrhuje posun v AI hardwaru od tréninku k inferenci, která tvoří 80-90 % provozních nákladů nasazených modelů. Pro průmysl znamená, že Nvidia si udrží náskok před hyperscalery budujícími vlastní čipy, což stabilizuje dodávatelský řetězec. Uživatelé – od vývojářů AI po firmy zavádějící robotiku – získají efektivnější nástroje pro nasazení LLM v produkci. V širším kontextu posiluje to AI ekosystém, kde poptávka po výpočetním výkonu roste exponenciálně, ale volatilita akcií připomíná rizika přehřátého trhu. Dlouhodobě by to mohlo urychlit pokroky v AGI, autonomní robotice a edge AI, i když závisí na makroekonomice a regulacích exportu čipů.
Zdroj: 📰 Biztoc.com