📰 DW (English)

USA: Pentagon dal Anthropic ultimátum kvůli omezením AI — zpráva

USA: Pentagon dal Anthropic ultimátum kvůli omezením AI — zpráva

Souhrn

Americké ministerstvo obrany (Pentagon) dalo společnosti Anthropic, vývojáři modelů umělé inteligence Claude, ultimátum: do pátku 5:00 poledne místního času musí uvolnit omezení na vojenské použití svých technologií, jinak čelí tvrdým opatřením. Konflikt vzešel z etických obav Anthropic ohledně domácí surveillance a plně autonomních zbraňových systémů. Jednání mezi ministrem obrany Petem Hegsethem a generálním ředitelem Anthropic Dariem Amodeiem proběhla v dobrosousedském duchu, ale bez kompromisu.

Klíčové body

  • Pentagon stanovil lhůtu do pátku 17:00 ET (23:00 CET) na uvolnění omezení pro vojenské aplikace.
  • Anthropic odmítá použití Claude modelů pro masovou domácí sledovací činnost a autonomní cílení v bojových operacích.
  • Hrozby zahrnují označení za riziko v dodavatelském řetězci nebo aktivaci Defense Production Act pro nucení soukromých firem.
  • Firma Anthropic zdůrazňuje pokračující dialog v souladu s jejich zásadami bezpečného použití AI.
  • Konflikt trvá měsíce a souvisí s národní bezpečností USA.

Podrobnosti

Společnost Anthropic, která se specializuje na vývoj velkých jazykových modelů (LLM) jako je řada Claude, dlouhodobě prosazuje striktní zásady použití. Tyto modely slouží k zpracování přirozeného jazyka, generování textu, analýze dat a řešení složitých úkolů, ale firma je omezuje pro citlivé aplikace, aby minimalizovala rizika zneužití. Odmítnutí spolupráce s Pentagonem začalo kvůli dvěma klíčovým oblastem: masové sledování amerických občanů na domácí půdě a nasazení v plně autonomních zbraňových systémech, kde AI rozhoduje o cílech bez lidského zásahu.

Podle zdrojů citovaných agenturou AP proběhlo v úterý setkání mezi Petem Hegsethem, novým ministrem obrany, a Dariem Amodeiem. Rozhovory byly zdvořilé, ale Anthropic na svých pozicích trvá. Firma vydala prohlášení, že pokračuje v “dobré víře rozhovorech o své politice použití, aby mohla nadále podporovat národní bezpečnost v souladu s tím, co jejich modely spolehlivě a zodpovědně zvládnou”. Pozdější zprávy však hovoří o ultimátu: do pátku musí Anthropic uvolnit omezení, jinak Pentagon aktivuje mechanismy jako označení za bezpečnostní riziko v dodavatelském řetězci nebo Defense Production Act. Tento zákon z roku 1950 umožňuje federální vládě přikazovat soukromým firmám prioritu pro národní bezpečnost, včetně nucené produkce nebo sdílení technologií.

Tento spor není ojedinělý. Anthropic, založený bývalými výzkumníky OpenAI s důrazem na AI alignment (zarovnání AI s lidskými hodnotami), se profiluje jako eticky odpovědná alternativa. Například jejich modely Claude 3.5 Sonnet překonávají GPT-4o v benchmarkách jako MMLU (masivní vícesměrové porozumění jazyku), ale s vestavěnými bezpečnostními vrstvami proti škodlivému obsahu. Pentagon naopak tlačí na přístup k špičkovým AI pro výhodu v soutěži s Čínou, kde firmy jako Baidu nebo Huawei již vojensky spolupracují. Kritici varují, že nucení by mohlo oslabit důvěru v americké AI firmy a urychlit globální závod v autonomních zbraních, známých jako lethal autonomous weapons systems (LAWS).

Proč je to důležité

Tento konflikt odhaluje napětí mezi národní bezpečností a etickými standardy v AI průmyslu. Pro uživatele znamená potenciální posun v dostupnosti Claude modelů – pokud Pentagon uspěje, mohou se objevit vojensky optimalizované verze, ale s rizikem úniku dat nebo zneužití v civilních aplikacích. Pro průmysl to nastavuje precedent: vlády mohou donutit soukromé firmy k militarizaci AI, což ohrožuje snahy o globální regulace jako EU AI Act. V širším kontextu posiluje to debatu o AI bezpečnosti – autonomní zbraně by mohly eskalovat konflikty bez lidského rozhodnutí, zatímco surveillance by narušila soukromí. Anthropicův odpor podtrhuje, že etika není jen marketing, ale jádro konkurenční výhody v éře, kdy AI ovlivňuje geopolitiku.


Číst původní článek

Zdroj: 📰 DW (English)