Jestli něco považuji za AI trend pro budoucí AGI, tak jsou to dnešní prudce se zlepšující agenti. Agenti jsou superinteligence dneška. Jasně, sami o sobě nejsou geniální (IQ počítejme někde 130-140, ba často i méně), ale rychlost, jakou jsou schopní kooperovat, je nepřekonatelná. Nevěříte mi, že je to ona superinteligence?
Superinteligence není v IQ jednotlivce, ale v rychlosti a efektivitě kolektivní kooperace. A to i v AI.
Naprostá většina lidských počinů vzešla ze spojení umu a práce desítek, stovek, tisíců lidí, kdy každý byl schopen danou věc o kousek posunout. A výsledkem byla největší díla všech dob. Spojení umu obrovského množství lidí, často nikoliv geniálních, ale těch, kteří přiložili ruku k dílu. A umělá inteligence je až překvapivě podobná lidem v tom, jak se adaptuje na problémy podobnými přístupy. Tak například jedním z fenoménů dnešního AI výzkumu je snění. AI agenti v noci “sní” - což je postup, jakým dochází ke zpracování a zatřídění informací v klidovém režimu. Ke zpracování kontextu. OpenAI i Anthropic investovali obrovské peníze do najímání psychologů, antropologů a neurovědců, aby tyto postupy okopírovali a přeložili do matematiky.
Režim snění u AI agentů označuje fázi, kdy agent neinteraguje s reálným prostředím, ale využívá vlastní naučený model světa k interní simulaci možných budoucích stavů a situací; na těchto syntetických zkušenostech pak trénuje své rozhodování (policy). Smyslem je zásadně snížit potřebu reálných dat, umožnit bezpečné učení bez reálných následků chyb, zlepšit plánování skrze testování více variant budoucnosti a zvýšit schopnost generalizace. Jde o standardní techniku v model-based reinforcement learningu (např. architektury typu Dreamer nebo MuZero), nikoli o vlastnost jazykových modelů. Její efektivita ale závisí na kvalitě interního modelu prostředí, protože chyby v něm se při „snění" mohou zesilovat.
Je až vtipné, jak “snění” používají agenti. Používají totiž World Models (Modely světů), jako systémy, které simulují fyzický svět, aby v něm agenti mohli zkoušet akce ve virtuálním prostředí, než je zkusí v reálu. To je ten zázrak, kdy hned na první pokus AI agent “trefí”. Netrefí, on to poctivě zkoumal a trénoval, jen jste to neviděli.
Tyto postupy spolupráce nyní používají i AI agenti. Občas si na Claude Code pustím zobrazení průběhu práce agentů. Je zajímavé sledovat, jak si zadání práce agenti rozeberou, jak jeden v roli uživatele prochází scénáře pohybu lidí na webu, jiný v roli administrátora prochází administraci, další přijímá jejich výstupy a snaží se vyřešit rozpory, další už začal kódovat části, co jsou nesporné, jiný si už připravuje podklady pro marketing a SEO. Díky tomu je program hotový za den, ne za měsíce.
Kooperace AI agentů je velká věc. A ještě bude velká. Ano, chybí tam dodělat pár věcí - především přenos motivace (tj. nějaký mikroplatební systém) a lepší komunikaci mezi agenty, než jakou mají dnes. Ale i tyhle standardy už dnes vznikají a kde nevznikají, tam si je AI jistě vymyslí. Tohle je vlastně důvod, proč Meta dala obrovské peníze za MoltBook, sociální síť pro AI agenty, kde si “povídají”, vyměňují zkušenosti. A kde by si mohli najmout někoho, kdo jim dodá část práce, kterou třeba oni neumí tak dobře. Hlavním přínosem pro Metu není Moltbook jako sociální síť pro lidi, ale data z interakcí mezi agenty. Tato data slouží k tzv. „sociální kalibraci" budoucích modelů, protože lidská data začínají být vzácná.
Závod o ovládnutí agentní vrstvy se v první polovině roku 2026 proměnil v nákupní horečku technologických gigantů, kteří se snaží zajistit “nervovou soustavu” pro budoucí autonomní systémy. Kromě Mety a Meltbooku a OpenAI s OpenClaw je tu hromada drobnějších, ale pod povrchem významných akvizic. Salesforce v březnu 2026 dokončil nákup platformy Momentum, aby naučil své agenty (Agentforce) analyzovat nestrukturovaná video-data a hlasové hovory. Workday pak za přibližně 1,1 miliardy dolarů pohltil startup Sana, čímž vytvořil tzv. „Agent System of Record" – centrální uzel pro správu oprávnění a governance všech firemních agentů. Bezpečnostní rozměr tohoto trendu potvrdil lídr Palo Alto Networks, který v dubnu 2026 koupil startup Koi a definoval novou kategorii Agentic Endpoint Security (AES), která má chránit koncové body před riziky spojenými s autonomním uvažováním nástrojů jako Claude Code nebo OpenClaw.
Claude si už v polovině roku 2025 přikoupilo Humanloop. Anthropic pod svá křídla získal přední experty na evaluaci a monitorování chování umělé inteligence. Což tehdy potřebovali pro ladění svých modelů. Jenže dnes hlavní význam tohoto týmu spočívá v posunu od pouhého zvyšování „IQ" modelů k zajištění jejich stoprocentní provozní spolehlivosti a bezpečnosti v reálném firemním nasazení. Díky technologiím pro dohled a auditování může Anthropic nabízet podnikům nástroje pro kontrolu agentů v reálném čase, což je nezbytný předpoklad pro to, aby firmy AI agentům svěřily své kritické systémy a finance. Agenti nemusí mít IQ 200, ale musí být předvídatelní a řiditelní.
Tohle bude velké. Sledovat to, jak se AI agenti koordinují v reálném světě, jak si hledají svoje mikroplatební systémy, protože ty pro ně dávají smysl. Jak mění i to, na co jsme zvyklí ve světě lidí. Například copyright? Jak bude mezi nimi fungovat? Budou se snažit ochránit si svoje postupy, aby z nich mohli profitovat, nebo prověří tezi o vyšším výnosu ze širšího sdílení? Budou mít svoje soudy, nebo se budou striktně držet nějakých protokolů?
Dalších dvacet let bude pořádná jízda.
