📰 Thefly.com

Nvidia licencuje technologii od AI hardware startupu Groq

Nvidia licencuje technologii od AI hardware startupu Groq

Souhrn

Společnost Nvidia, dominantní hráč na trhu s grafickými procesory pro AI, licencuje technologii od startupu Groq. Groq se zaměřuje na vývoj čipů optimalizovaných pro inference velkých jazykových modelů (LLM). Tato dohoda signalizuje posílení pozice Nvidie v oblasti AI hardware.

Klíčové body

  • Nvidia získává licenci na technologii Groq pro své budoucí produkty.
  • Groq vyvíjí Language Processing Units (LPU), které slouží k rychlému zpracování AI inference.
  • Dohoda byla oznámena v rámci midday fly by zpravodajství The Fly.
  • Kategorie: AI hardware.
  • Potenciální dopad na konkurenci v sektoru čipů pro AI.

Podrobnosti

Nvidia, která dlouhodobě ovládá trh s GPU jako H100 nebo Blackwell, nyní expanduje své portfolio licencí od externích firem. Groq je kalifornský startup založený v roce 2016 ex-googlerem Jonathanem Rossem, který se specializuje na custom ASIC čipy pro AI. Jejich hlavní produkt, LPU, je navržený pro paralelní zpracování tokenů v LLM, jako jsou modely GPT nebo Llama. Na rozdíl od univerzálních GPU Nvidie dosahuje LPU vyšší propustnosti – například při inferenci Llama 2 70B zpracovává až 500 tokenů za sekundu na čip, což je výrazně více než u standardních GPU.

Technologie Groq vychází z tensor streaming processoru (TSP), který minimalizuje latenci a spotřebu energie tím, že eliminuje paměťové bottleneck. LPU slouží primárně k nasazení AI modelů v produkčním prostředí, kde je klíčová rychlost odpovědí, například v chatbotech nebo real-time analýzách. Groq již spolupracuje s firmami jako Anthropic nebo Shopify a nabízí cloudovou službu GroqCloud pro testování modelů.

Licenční dohoda s Nvidou pravděpodobně zahrnuje přístup k TSP architektuře nebo softwarovému stacku, což umožní Nvidii integrovat tyto prvky do svých CUDA ekosystému nebo nových čipů. To není první takový krok – Nvidia dříve licencovala technologie od Arm nebo Mellanox. Pro uživatele to znamená potenciálně rychlejší a efektivnější AI inference v cloudu nebo on-premise nasazeních, bez nutnosti měnit hardware. V širším kontextu posiluje to dominanci Nvidie, která v roce 2023 vydělala přes 60 miliard dolarů na AI čipech, zatímco startupy jako Groq hledají cestu k monetizaci skrz partnerství.

Proč je to důležité

Tato dohoda podtrhuje konsolidaci v AI hardware sektoru, kde velcí hráči jako Nvidia absorbují inovace od startupů, aby udrželi náskok před konkurenty jako AMD nebo čínskými firmami. Pro průmysl to znamená urychlení vývoje efektivnějších systémů pro inference, což snižuje náklady na provoz LLM – klíčové pro škálování aplikací jako ChatGPT. V ekosystému AI posouvá hranice výkonu, kde inference tvoří 80 % provozních nákladů datacenter. Kriticky lze říci, že Groq tak získává validaci, ale ztrácí exkluzivitu, což může zpomalit jeho samostatný růst. Celkově to stabilizuje trh, ale brání větší fragmentaci inovací.


Číst původní článek

Zdroj: 📰 Thefly.com