Souhrn
Americký ministr obrany Pete Hegseth dnes v Washingtonu D.C. varoval generálního ředitele Anthropic PBC, Dario Amodeieho, aby firma okamžitě zrušila restrikce na vojenské použití svého AI chatbotu Claude. V opačném případě hrozí označení Anthropic za riziko v dodavatelském řetězci nebo aktivace zákona o obranné produkci s lhůtou do pátku. Anthropic odmítá kvůli obavám z použití AI na ovládání zbraní a masové sledování občanů.
Klíčové body
- Setkání Hegsetha a Amodeieho: požadavek na neomezené “legální použití” Claude v armádě.
- Restrikce Anthropic: zákaz ovládání zbraní a účasti na sledování občanů kvůli nespolehlivosti AI a absenci regulací.
- Hrozby Pentagonu: blacklist jako riziko dodavatelského řetězce nebo nucení zákonem o obranné produkci.
- Unikátní postavení Claude: jediný velký chatbot schválený pro práci s utajenými vojenskými systémy.
- Dopad: ohrožení desítek podnikových kontraktů Anthropic.
Podrobnosti
Anthropic PBC, firma zaměřená na vývoj bezpečných a interpretovatelných AI systémů, se v posledních letech prosadila v podnikovém sektoru díky chatbotu Claude, který konkuruje modelům jako GPT od OpenAI nebo Gemini od Google. Claude je navržen pro široké použití v analýze dat, generování textu a rozhodovacích procesech, ale s důrazem na etické limity. V současnosti je jediným velkým AI chatbotem, který získal schválení pro integraci s utajenými systémy americké armády, což mu dává strategickou výhodu.
Pentagon však nesouhlasí s interními pravidly Anthropic, které zakazují použití Claude k ovládání zbraní nebo k masovému sledování amerických občanů. Podle zdrojů z Axios ministr Hegseth požaduje plné “legální použití” bez těchto omezení, argumentuje, že vojenské aplikace by měly podléhat americkým zákonům, nikoli soukromým politikám firem. Amodeiho pozice vychází z odborných obav: AI systémy jako Claude stále nejsou dostatečně spolehlivé pro autonomní rozhodování v kritických scénářích, jako je ovládání zbraní, kde selhání může vést k fatálním chybám. Navíc chybí federální legislativa pro AI v sledování, což by mohlo otevřít dveře k zneužití.
Pokud bude Anthropic označen za riziko dodavatelského řetězce, žádná firma s armádními kontrakty s ním nebude moci spolupracovat. To by bylo devastující pro Anthropic, který uzavřel desítky enterprise smluv v posledních dvou letech. Zákon o obranné produkci (Defense Production Act) umožňuje vládě nutit soukromé firmy k dodávkám v zájmu národní bezpečnosti, což by přepsalo firemní pravidla. Lhůta do pátku zvyšuje tlak, ale Amodei dosud odmítá ustoupit, což odráží širší debatu v AI komunitě o bezpečnosti velkých jazykových modelů (LLM).
Proč je to důležité
Tento konflikt odhaluje napětí mezi technologickými firmami a vládou v oblasti AI governance. Anthropic, jako public benefit corporation, staví na principu bezpečnosti AI, což kontrastuje s tlaky na komercializaci pro obranné účely. Pro průmysl to znamená riziko precedensu: pokud vládové orgány překročí soukromé etické standardy, může to oslabit důvěru v AI jako bezpečné technologie. Pro uživatele a firmy v enterprise sektoru to ohrožuje dostupnost Claude v citlivých prostředích, zatímco posiluje debatu o regulacích – například o spolehlivosti LLM v reálném čase nebo o zákonech proti AI surveillance. V širším kontextu to ovlivní soutěž mezi AI giganty, kde bezpečnostní postoje jako ty Anthropic mohou být konkurenční výhodou nebo slabinou vůči státním zakázkám.
Zdroj: 📰 SiliconANGLE News