Souhrn
Poslední den roku 2025 zveřejnila čínská společnost DeepSeek, specializující se na vývoj velkých jazykových modelů (LLM), nový technický článek s 19 autory včetně zakladatele a CEO Lianga Wenfenga. Článek popisuje rámec ‘manifold-constrained hyper-connections’ pro škálovatelné trénování systémů umělé inteligence, který ukazuje potenciální cesty pro další evoluci základních modelů. Tento krok připomíná globální technologickou soutěž, kde Čína díky nižším nákladům na vývoj modelů významně tlačí na americké konkurenty.
Klíčové body
- DeepSeek vydal modely DeepSeek-V3 (LLM) a DeepSeek-R1 (model pro uvažování) na konci 2025, které překonaly nebo vyrovnaly výkony amerických modelů v benchmarkových testech za zlomek nákladů a výpočetního výkonu.
- Nový papír o ‘manifold-constrained hyper-connections’ navrhuje obecný framework pro efektivní trénink AI systémů ve velkém měřítku.
- Vydání modelů vedlo k masivnímu propadu technologických akcií 27. ledna, kdy ztratily hodnotu téměř 1 bilion dolarů, včetně 600 miliard u Nvidia.
- Analytici očekávají pokračování čínského momentum v roce 2026 díky státní podpoře, lepším možnostem financování a přílivu talentů.
- Anonymní spoluzakladatel čínského AI startupu predikuje, že Čína překoná USA jako světovou AI velmoc v roce 2027.
Podrobnosti
Čínská firma DeepSeek, která se zaměřuje na vývoj open-source velkých jazykových modelů, se rychle prosadila na globálním trhu. Na konci roku 2024 uvolnila model DeepSeek-V3, který slouží k zpracování a generování textu v široké škále úkolů, jako je překlad, sumarizace nebo kódování. O několik týdnů později následoval DeepSeek-R1, specializovaný na uvažování a logické úlohy, například řešení složitých matematických problémů nebo krok-za-krokem analýzu. Tyto modely dosáhly výsledků v průmyslových benchmarkách, jako jsou MMLU nebo HumanEval, které buď překonaly, nebo se vyrovnaly modelům od OpenAI, Google nebo Meta, přičemž spotřebovaly podstatně méně výpočetního výkonu a nákladů – odhaduje se desetiny procent z investic amerických gigantů.
Tento úspěch měl okamžitý dopad na trhy: 27. ledna 2025 došlo k prodeji technologických akcií v objemu téměř 1 bilionu dolarů, přičemž Nvidia, klíčový dodavatel GPU pro trénink AI, ztratila 600 miliard dolarů. Poslední den roku 2025 pak DeepSeek zveřejnil technický článek o ‘manifold-constrained hyper-connections’. Tento rámec kombinuje omezení na varietách (manifolds) s hyper-síťovými spojnicemi, což umožňuje efektivnější trénink velkých modelů tím, že redukuje dimenzionalitu dat a zlepšuje generalizaci. Slouží k optimalizaci tréninkových procesů pro foundational models, které tvoří základ pro specializované aplikace v průmyslu, jako je automatizace, zdravotnictví nebo finanční analýzy.
Pro rok 2026 analytici předpokládají další akceleraci díky politické podpoře z Pekingu, která zahrnuje dotace a regulace podporující domácí technologie. Zlepšují se i možnosti financování pro AI startupy, roste adopce AI systémů v čínském průmyslu a přitahuje se talent z univerzit i zahraničí. Čínská výhoda spočívá v obrovském poolu odborníků na strojové učení, což umožňuje rychlý vývoj bez závislosti na západních čipech.
Proč je to důležité
Tento vývoj zesiluje globální technologickou soutěž mezi Čínou a USA, kde čínské firmy jako DeepSeek demonstrují, že lze dosáhnout srovnatelného výkonu AI modelů s nižšími náklady, což tlačí americké hráče k inovacím v efektivitě tréninku. Pro průmysl to znamená potenciálně levnější přístup k pokročilým LLM, urychlující adopci v malých firmách a rozvojových ekonomikách. Nicméně jako expert upozorňuji, že slib ‘manifold-constrained hyper-connections’ musí být ověřen praktickými implementacemi – benchmarky jsou důležité, ale reálná nasazení v produkci odhalí limity škálovatelnosti a bezpečnosti. Dlouhodobě to může vést k diverzifikaci AI ekosystému, snižovat dominanci Nvidia a zvyšovat tlak na open-source vývoj, což prospěje uživatelům volbou levnějších alternativ.
Zdroj: 📰 Yahoo Entertainment