Souhrn
Americké ministerstvo obrany (Pentagon) dalo společnosti Anthropic, vývojáři modelů umělé inteligence Claude, ultimátum: do pátku 5:00 poledne místního času musí uvolnit omezení na vojenské použití svých technologií, jinak čelí tvrdým opatřením. Konflikt vzešel z etických obav Anthropic ohledně domácí surveillance a plně autonomních zbraňových systémů. Jednání mezi ministrem obrany Petem Hegsethem a generálním ředitelem Anthropic Dariem Amodeiem proběhla v dobrosousedském duchu, ale bez kompromisu.
Klíčové body
- Pentagon stanovil lhůtu do pátku 17:00 ET (23:00 CET) na uvolnění omezení pro vojenské aplikace.
- Anthropic odmítá použití Claude modelů pro masovou domácí sledovací činnost a autonomní cílení v bojových operacích.
- Hrozby zahrnují označení za riziko v dodavatelském řetězci nebo aktivaci Defense Production Act pro nucení soukromých firem.
- Firma Anthropic zdůrazňuje pokračující dialog v souladu s jejich zásadami bezpečného použití AI.
- Konflikt trvá měsíce a souvisí s národní bezpečností USA.
Podrobnosti
Společnost Anthropic, která se specializuje na vývoj velkých jazykových modelů (LLM) jako je řada Claude, dlouhodobě prosazuje striktní zásady použití. Tyto modely slouží k zpracování přirozeného jazyka, generování textu, analýze dat a řešení složitých úkolů, ale firma je omezuje pro citlivé aplikace, aby minimalizovala rizika zneužití. Odmítnutí spolupráce s Pentagonem začalo kvůli dvěma klíčovým oblastem: masové sledování amerických občanů na domácí půdě a nasazení v plně autonomních zbraňových systémech, kde AI rozhoduje o cílech bez lidského zásahu.
Podle zdrojů citovaných agenturou AP proběhlo v úterý setkání mezi Petem Hegsethem, novým ministrem obrany, a Dariem Amodeiem. Rozhovory byly zdvořilé, ale Anthropic na svých pozicích trvá. Firma vydala prohlášení, že pokračuje v “dobré víře rozhovorech o své politice použití, aby mohla nadále podporovat národní bezpečnost v souladu s tím, co jejich modely spolehlivě a zodpovědně zvládnou”. Pozdější zprávy však hovoří o ultimátu: do pátku musí Anthropic uvolnit omezení, jinak Pentagon aktivuje mechanismy jako označení za bezpečnostní riziko v dodavatelském řetězci nebo Defense Production Act. Tento zákon z roku 1950 umožňuje federální vládě přikazovat soukromým firmám prioritu pro národní bezpečnost, včetně nucené produkce nebo sdílení technologií.
Tento spor není ojedinělý. Anthropic, založený bývalými výzkumníky OpenAI s důrazem na AI alignment (zarovnání AI s lidskými hodnotami), se profiluje jako eticky odpovědná alternativa. Například jejich modely Claude 3.5 Sonnet překonávají GPT-4o v benchmarkách jako MMLU (masivní vícesměrové porozumění jazyku), ale s vestavěnými bezpečnostními vrstvami proti škodlivému obsahu. Pentagon naopak tlačí na přístup k špičkovým AI pro výhodu v soutěži s Čínou, kde firmy jako Baidu nebo Huawei již vojensky spolupracují. Kritici varují, že nucení by mohlo oslabit důvěru v americké AI firmy a urychlit globální závod v autonomních zbraních, známých jako lethal autonomous weapons systems (LAWS).
Proč je to důležité
Tento konflikt odhaluje napětí mezi národní bezpečností a etickými standardy v AI průmyslu. Pro uživatele znamená potenciální posun v dostupnosti Claude modelů – pokud Pentagon uspěje, mohou se objevit vojensky optimalizované verze, ale s rizikem úniku dat nebo zneužití v civilních aplikacích. Pro průmysl to nastavuje precedent: vlády mohou donutit soukromé firmy k militarizaci AI, což ohrožuje snahy o globální regulace jako EU AI Act. V širším kontextu posiluje to debatu o AI bezpečnosti – autonomní zbraně by mohly eskalovat konflikty bez lidského rozhodnutí, zatímco surveillance by narušila soukromí. Anthropicův odpor podtrhuje, že etika není jen marketing, ale jádro konkurenční výhody v éře, kdy AI ovlivňuje geopolitiku.
Zdroj: 📰 DW (English)