Souhrn
Představitelé Pentagonu zvažují zařazení startupu Anthropic na černou listinu kvůli neshodám ohledně vojenského nasazení jeho chatbota Claude. Firma, která vyvinula model Claude Gov speciálně pro národní bezpečnost, čelí tlaku na obnovení kontraktu, jinak přijde o klíčové zakázky. Rozhodnutí by mohlo nastat po měsících neúspěšných jednání.
Klíčové body
- Pentagon označil Anthropic za potenciální ‘riziko v dodavatelském řetězci’, což by zakázalo jeho technologie všem vojenským dodavatelům.
- Claude Gov, chatbot určený pro americké bezpečnostní složky, byl chválen a použit v operaci na zatčení venezuelského prezidenta Nicolá Madura.
- Anthropic je jedinou firmou s kontraktem na AI model pro Pentagon, ale spor se týká podmínek obnovení.
- Zdroje tvrdí, že disentangle od Anthropic bude náročné a firma za to zaplatí.
- Pentagon zdůrazňuje, že partneři musí podporovat ‘bojové síly v každém konfliktu’.
Podrobnosti
Anthropic PBC, kalifornský startup specializující se na vývoj velkých jazykových modelů s důrazem na bezpečnost a etiku, se dostal do konfliktu s americkým ministerstvem obrany (Pentagonem). Firma vyvinula Claude Gov, upravenou verzi svého chatbota Claude, který slouží k analýze dat, generování zpráv a podpůrě rozhodování v národním bezpečnostním prostředí. Tento nástroj, deployovaný výhradně pro vládní uživatele, umožňuje zpracovávat citlivé informace s vysokou mírou přesnosti a bezpečnosti, což ho činí užitečným pro plánování operací nebo inteligence.
Podle zprávy Axios z 16. února 2026 ministr obrany Pete Hegseth a další představitelé po měsících jednání zvažují radikální krok: označení Anthropic za ‘riziko v dodavatelském řetězci’. Toto označení, obvykle rezervované pro zahraniční aktéry jako Čína nebo Rusko, by automaticky vyloučilo firmu ze všech dodávek pro Pentagon a jeho dodavatele. Jakékoli použití technologií Anthropic by ohrozilo kontrakty třetích stran. Anonymní zdroj prohlásil: ‘Bude to obrovská bolest zad disentanglovat a zajistíme, aby za nucení naší ruky zaplatili.’
Claude Gov si získal uznání – například Wall Street Journal zmínil jeho roli v loňské operaci speciálních sil, kdy americké jednotky unesly venezuelského prezidenta Nicolá Madura z jeho rezidence v Caracasu. Chatbot pomohl s plánováním, analýzou rizik a logistickou koordinací. Přesto Anthropic, známý svým přístupem ‘Constitutional AI’ – kde modely dodržují předem definované etické principy – pravděpodobně odmítá rozšířit použití na širší vojenské scénáře, jako jsou autonomní zbraně nebo agresivní operace. Pentagon naopak požaduje plnou podporu pro ‘vítězství v jakémkoli boji’, což zahrnuje i kontroverzní aplikace AI.
Pentagonský mluvčí potvrdil, že všechny AI partnerství jsou v revizi. Anthropic tak zatím ztrácí svou unikátní pozici – je jediným poskytovatelem AI modelu pro armádu, na rozdíl od konkurentů jako OpenAI, který již spolupracuje na projektech jako ChatGPT Enterprise pro obranu.
Proč je to důležité
Tento spor odhaluje napětí mezi etickými standardy v AI a národní bezpečností. Anthropic, financovaný Amazona a Googlem s hodnotou přes 18 miliard dolarů, představuje špičku v bezpečném AI vývoji, ale blacklist by ho oslabil ekonomicky a donutil k ústupkům. Pro průmysl to znamená riziko fragmentace: armáda by se obrátila k méně restriktivním hráčům jako OpenAI nebo xAI Elona Muska, což urychlí militarizaci AI. Uživatelé v obraně by ztratili specializovaný nástroj jako Claude Gov, což by způsobilo provozní problémy. Širší kontext ukazuje, jak USA tlačí na domácí AI firmy k plné loajalitě, což ovlivní globální trendy v regulaci AI – od EU AI Act po čínské investice do vojenské AI. Dlouhodobě to může vést k bifurkaci trhu: etické AI pro civilní použití versus neomezené pro státní aktéry.
Zdroj: 📰 SiliconANGLE News