📰 Scientific American

Anthropicův AI s prioritou bezpečnosti se střetává s Pentagonem při rozšíření Claude do autonomních agentů

Anthropicův AI s prioritou bezpečnosti se střetává s Pentagonem při rozšíření Claude do autonomních agentů

Souhrn

Anthropic 5. února 2026 vydal model Claude Opus 4.6, svůj nejsilnější AI dosud, který koordinuje týmy autonomních agentů pro paralelní zpracování úkolů. O dvanáct dní později následoval levnější Sonnet 4.6 s podobnými schopnostmi v kódování a ovládání počítačů. Společnost rychle roste, ale čelí hrozbě od Pentagonu, který může označit Anthropic za riziko v dodavatelském řetězci kvůli omezením vojenského využití.

Klíčové body

  • Claude Opus 4.6 umožňuje koordinaci více autonomních AI agentů, kteří si dělí práci a dokončují ji paralelně.
  • Sonnet 4.6 ovládá webové aplikace a vyplňuje formuláře na úrovni člověka, s pracovní pamětí pro malou knihovnu dat.
  • Enterprise zákazníci tvoří 80 % příjmů; minulý týden uzavřeno financování 30 miliard dolarů při valuaci 380 miliard.
  • Pentagon hrozí označením za „supply chain risk“, což by znemožnilo použití Claude v citlivých kontraktech.
  • V roce 2024 modely Anthropic sotva zvládaly prohlížeč; nyní dosahují lidské úrovně.

Podrobnosti

Anthropic, firma zaměřená na vývoj bezpečných velkých jazykových modelů (LLM) jako alternativa k OpenAI, dosáhla v únoru 2026 významného milníku s vydáním Claude Opus 4.6. Tento model přináší autonomní agenty, což jsou samostatné AI instance schopné koordinovat se navzájem: dělí si složité úkoly, jako je analýza dat nebo vývoj softwaru, a vykonávají je paralelně bez lidského zásahu. Například agent může delegovat část výzkumu jinému agentovi, zatímco třetí ovládá nástroje. Sonnet 4.6, levnější varianta, téměř dorovnává Opus v programování a interakci s počítači – naviguje webové aplikace, vyhledává informace, vyplňuje formuláře a spravuje složité workflow. Oba modely mají pracovní paměť dostatečně velkou na uložení obsahu malé knihovny, což umožňuje dlouhodobou autonomní práci bez opakovaného načítání kontextu.

Tento pokrok kontrastuje s rokem 2024, kdy první modely Anthropic pro ovládání počítačů sotva zvládaly základní prohlížeč. Nyní enterprise klienti, jako firmy v IT a financích, generují 80 % příjmů. Minulý týden Anthropic uzavřel kolo financování 30 miliard dolarů při valuaci 380 miliard, což ho řadí mezi nejrychleji rostoucí tech společnosti. Nicméně tento růst ohrožuje princip „bezpečnost na prvním místě“: Anthropic omezuje vojenské aplikace, aby minimalizoval rizika zneužití, například v autonomních zbraních. Pentagon na to reaguje hrozbou označení za „supply chain risk“ – štítek typický pro zahraniční protivníky –, což by donutilo kontrakty vynechat Claude z citlivých projektů. Tento střet ilustruje dilema: globální expanze vyžaduje armádní zakázky, ale porušení bezpečnostních pravidel by podkopalo důvěru investorů a uživatelů. Kriticky řečeno, autonomní agenti urychlují cestu k AGI, ale bez robustních omezení zvyšují rizika chyb nebo zneužití v reálném světě.

Proč je to důležité

Tento vývoj posouvá autonomní agenty z experimentu do praxe, umožňující firmám automatizovat složité procesy jako vývoj softwaru nebo analýzu dat, což zvyšuje produktivitu o řády. Pro průmysl znamená konkurenci pro OpenAI a Google, kde Claude nabízí bezpečnější alternativu s enterprise zaměřením. Konflikt s Pentagonem odhaluje širší napětí v AI ekosystému: firmy jako Anthropic musí balancovat mezi etikou a komerčním tlakem. Pokud Pentagon prosadí svůj postoj, mohlo by to donutit změnu politiky, což oslabí bezpečnostní standardy v AGI vývoji. Naopak, udržení omezení by omezilo škálování, ale posílilo důvěryhodnost. V kontextu rychlého pokroku směrem k AGI je to varování před etickými kompromisy, které ovlivní globální regulace AI.


Číst původní článek

Zdroj: 📰 Scientific American

Číst původní článek
Původní název: Anthropic’s safety-first AI collides with the Pentagon as Claude expands into autonomous agents