Souhrn
Americký Pentagon vydal společnosti Anthropic ultimátum: odstranit bezpečnostní mechanismy z modelu Claude, který je jediným umělým modelem inteligence nasazeným v armádních klasifikovaných systémech, nebo riskovat ztrátu všech vojenských kontraktů. Spor se soustředí na podmínky použití AI v obraně, kde Anthropic požaduje záruky proti masovému sledování amerických občanů a vývoji autonomních zbraní bez lidského zásahu. Pentagon trvá na volném nasazení v souladu se zákony.
Klíčové body
- Ministr obrany Pete Hegseth svolal CEO Anthropic Dario Amodei do Pentagonu v úterý ráno na ultimátní jednání.
- Anthropic omezuje Claude proti masovému sledování občanů a autonomním zbraním bez lidského rozhodnutí.
- Pentagon hrozí označením Anthropic za „riziko v dodavatelském řetězci“, což by zrušilo kontrakty a zakázalo použití Claude v pracích pro armádu.
- Claude, dostupný přes partnerství s obrannou firmou Palantir Technologies, je jediným AI schopným pro citlivé obranné a zpravodajské úlohy.
- Žádný konkurenční model nenabízí srovnatelnou výkonnost v utajovaných prostředích.
Podrobnosti
Anthropic, kalifornská firma zaměřená na vývoj bezpečných velkých jazykových modelů (LLM), jako je Claude – konkurent modelů GPT od OpenAI nebo Gemini od Google – se dostala do konfliktu s americkou armádou. Claude slouží k analýze dat, zpracování informací a podpůrným úkolům v utajovaných sítích, kde překonává jiné modely díky své robustnosti a schopnosti zpracovávat složité bezpečnostní kontexty. Model je integrován přes platformu Palantir, společnosti specializující se na big data analytics pro obranu a zpravodajství, která již dlouho spolupracuje s Pentagonem na projektech jako DCGS (Distributed Common Ground System) pro sběr a analýzu zpravodajských dat.
Pentagon, prostřednictvím mluvčího Seana Parnella, jasně uvedl, že chce nasadit Claude podle svých potřeb, pokud to neporušuje zákony. Anthropic naopak požaduje formální záruky, aby se technologie nepoužívala k masovému sledování civilistů – například k automatizované analýze sociálních sítí nebo kamerových systémů na domácí půdě – ani k vývoji smrtících autonomních systémů, kde by AI rozhodovala o střelbě bez lidského dohledu. Takové systémy, známé jako lethal autonomous weapons systems (LAWS), jsou předmětem mezinárodních debat, ale USA je zatím nerozvinuly plně.
Hegseth, nominovaný Donaldem Trumpem na post ministra obrany, přijel na jednání s jasnou hrozbou: označení Anthropic za „supply chain risk“ podle federálních předpisů (DFARS 252.204-7018). To by okamžitě zrušilo stávající kontrakty, včetně těch s Palantirem, a vyžadovalo by od všech dodavatelů certifikaci, že Claude nepoužívají. Wall Street Journal zmínil nasazení Claude v speciálních operacích, což podtrhuje jeho klíčovou roli. Žádný jiný model, jako Llama od Meta nebo otevřené varianty, nedosahuje potřebné úrovně pro utajované prostředí kvůli bezpečnostním slabinám nebo nižší přesnosti.
Jako expert na AI vidím zde napětí mezi komerčními bezpečnostními standardy a vojenskými požadavky. Anthropic, založený bývalými výzkumníky OpenAI s důrazem na alignment (sladění AI s lidskými hodnotami), tak čelí dilematu: kapitulace by oslabila jejich misi, ale ztráta kontraktů by ohrozila financování vývoje.
Proč je to důležité
Tento spor nastavuje precedent pro budoucí nasazení AI v obraně a ovlivňuje celý ekosystém LLM. Pokud Pentagon prosadí odstranění guardrails – mechanismů bránících škodlivému chování –, otevře to dveře k širšímu vojenskému využití AI bez etických omezení, což by mohlo urychlit vývoj autonomních systémů a zesílit globální závody v AI zbraních mezi USA, Čínou a Ruskem. Pro průmysl znamená riziko fragmentace: firmy jako Anthropic by musely volit mezi civilním trhem a obranou, zatímco armáda by mohla spoléhat na méně schopné alternativy, což by zpomalilo inovace v zpravodajství. Dlouhodobě to testuje, zda mohou soukromé firmy diktovat pravidla státním aktérům v kritických technologiích, a posiluje debatu o regulaci AI safety na národní úrovni.
Zdroj: 📰 Freerepublic.com