Souhrn
Ministerstvo obrany USA, známé jako Pentagon, je v konfliktu s firmou Anthropic ohledně bezpečnostních omezení, která by měla zabránit autonomnímu nasazení jejich AI technologií v cílení zbraní a domácím sledování obyvatelstva. Po rozsáhlých jednáních v rámci kontraktu v hodnotě až 200 milionů dolarů dospěli strany k patu. Tento spor odhaluje napětí mezi technologickými firmami a vládou v oblasti etického použití AI ve vojenském kontextu.
Klíčové body
- Pentagon a Anthropic nesouhlasí s omezeními na autonomní zbraně a domácí surveillance.
- Kontrakt v hodnotě až 200 milionů USD je na mrtvém bodě po měsících jednání.
- Anthropic formálně trvá na bezpečnostních zárukách, což zesílilo spory s vládou Trumpovy administrativy.
- Firma se připravuje na plánované uvedení na burzu a investovala do národních bezpečnostních kontraktů.
- Anthropic patří mezi několik klíčových AI vývojářů s podobnými smlouvami od Pentagonu.
Podrobnosti
Anthropic, startup se sídlem v San Franciscu specializující se na vývoj velkých jazykových modelů jako Claude, které slouží k zpracování textu, analýze dat, generování kódu a složitým úkolům v oblasti přirozeného jazyka s důrazem na bezpečnost a zarovnání s lidskými hodnotami, se dostal do sporu s americkým ministerstvem obrany. Podle tří zdrojů obeznámených se situací požaduje Anthropic zavedení přísných omezení, která by znemožnila použití jejich AI pro autonomní rozhodování o cílení zbraní nebo pro sledování amerických občanů na domácí půdě. Tyto technologie by jinak mohly být integrovány do systémů pro autonomní drony, rozhodovací procesy na bojišti nebo analýzu dat z surveillance.
Jednání probíhají v rámci kontraktu, jehož hodnota může dosáhnout 200 milionů dolarů, a zúčastnilo se jich šestice dalších insiderů. Po letech napětí mezi Silicon Vallejem a Washingtonem, kdy firmy jako OpenAI nebo Google odmítaly vojenské kontrakty kvůli etickým obavám, se situace změnila. Anthropic byl loni jedním z mála velkých AI vývojářů, kterým Pentagon udělil smlouvy na vývoj a nasazení AI nástrojů pro národní bezpečnost. Nicméně současný pat ohrožuje další spolupráci. Mluvčí ministerstva obrany, které administrativou Donalda Trumpa údajně přejmenovali na Ministerstvo války (Department of War), na dotazy neodpověděl. Anthropic naopak uvedl, že jejich AI je již široce využíváno pro mise národní bezpečnosti a jednání s ministerstvem pokračují produktivně.
Tento konflikt přichází v citlivém období pro Anthropic. Firma vynakládá značné zdroje na získávání vládních kontraktů a snaží se ovlivňovat politiku v oblasti AI. Zároveň se připravuje na budoucí veřejnou nabídku akcií (IPO), což by mohlo být ohroženo ztrátou klíčového klienta jako je Pentagon. Další AI firmy, jako OpenAI nebo xAI, čelí podobným dilematům, kde se etické standardy střetávají s národními zájmy. Například modely Claude jsou navrženy s vestavěnými bezpečnostními vrstvami (constitutional AI), které brání škodlivému výstupu, ale jejich aplikace v reálném boji vyžaduje další úpravy.
Proč je to důležité
Tento spor představuje klíčový test pro budoucnost vojenské AI v USA. Pokud Anthropic uspěje s prosazením omezení, mohlo by to nastavit precedent pro další firmy a omezit rychlost nasazení autonomních systémů, jako jsou smrtící autonomní zbraně (lethal autonomous weapons systems, LAWS), které by bez lidského zásahu rozhodovaly o útocích. Naopak selhání by posílilo vliv armády na vývoj AI, což by mohlo vést k eskalaci závodů v AI zbraních s Čínou nebo Ruskem. Pro průmysl to znamená rizika pro kontrakty v hodnotě stovek milionů, zatímco pro uživatele a společnost to otvírá debatu o etice: měly by soukromé firmy diktovat, jak vláda používá jejich technologie? V širším kontextu to ovlivní globální standardy bezpečnosti AI, kde USA zatím zaostávají za Evropou v regulacích.
Zdroj: 📰 The Times of India