Souhrn
Pentagon hrozí ukončením vojenských kontraktů se společností Anthropic do pátku kvůli neshodě na podmínkách použití jejího modelu Claude AI. Během utorňajšího setkání generální ředitel Anthropic Dario Amodei a ministr obrany Pete Hegseth diskutovali o omezeních, které firma klade na vojenské využití technologie. Anthropic trvá na tom, aby armáda nepoužívala jejich AI k autonomnímu zacílení nepřátel nebo k masovému sledování amerických občanů.
Klíčové body
- Pentagonova hrozba ukončením kontraktů, pokud Anthropic nesplní požadavky, což ohrozuje až 200 milionů dolarů v zakázkách.
- Možné prohlášení Anthropic za riziko v dodavatelském řetězci nebo aktivace Defense Production Act pro nucené použití AI.
- Anthropicova podmínka: zákaz autonomního zacílení bojovníků a masového sledování občanů USA, přestože tyto scénáře dosud nenastaly.
- Firma potvrdila pokračující jednání o své politice použití za účelem podpory národní bezpečnosti.
Podrobnosti
Společnost Anthropic PBC, která se specializuje na vývoj velkých jazykových modelů jako Claude – nástroje schopného zpracovávat složité texty, generovat odpovědi a analyzovat data pro různé aplikace včetně výzkumu a podnikových řešení – se dostala do konfliktu s americkým ministerstvem obrany. Podle zdrojů obeznámených s jednáním došlo k eskalaci během utorňajší schůzky mezi Darium Amodeiem, spoluzakladatelem Anthropic a bývalým výkonným ředitelem výzkumu v OpenAI, a ministrem obrany Petem Hegsethem. Američtí představitelé hrozili buď označením Anthropic za bezpečnostní riziko v dodavatelském řetězci, což by znemožnilo další spolupráci, nebo aktivací Defense Production Act, federálního zákona umožňujícího vládě v době krize nutit soukromé firmy k dodávkám klíčových technologií.
Anthropic, založený v roce 2021 s důrazem na bezpečnost umělé inteligence a tzv. alignment – zajištění, aby AI chovala v souladu s lidskými hodnotami – má s Pentagonem kontrakty v hodnotě až 200 milionů dolarů. Tyto zakázky zahrnují vývoj a nasazení AI pro národní bezpečnost, jako je analýza dat, plánování operací nebo logistika. Firma však prosazuje tzv. guardrails, bezpečnostní omezení zabudovaná do modelů Claude, která brání použití v citlivých scénářích. Amodei podle zdrojů zdůraznil, že autonomní zacílení nepřátel nebo masové sledování civilistů se v praxi dosud nevyskytlo, což podtrhuje, že omezení jsou preventivní. Anthropic v prohlášení po schůzce uvedl, že pokračuje v jednáních o politice použití, aby podpořil vládní mise v souladu s možnostmi svých modelů. Tento spor odráží širší napětí mezi AI firmami a vládami: zatímco OpenAI a Google umožňují vojenské využití s určitými výhradami, Anthropic je jedním z nejpřísnějších v etických standardech, což mu zajišťuje důvěru v civilním sektoru, ale komplikuje vládní kontrakty.
Proč je to důležité
Tento konflikt nastavuje precedent pro budoucí spolupráci mezi AI vývojáři a armádami. Pokud Pentagon hrozbu realizuje, Anthropic by ztratil významný příjem a přístup k vládním datům, což by ovlivnilo jeho růst – firma je oceňována na desítky miliard dolarů díky investorům jako Amazon a Google. Pro průmysl to znamená riziko, že vlády budou prosazovat nucené úpravy AI modelů, což podkopává snahy o bezpečnostní alignment. V širším kontextu to zvyšuje debatu o etice autonomních zbraní: zatímco Claude slouží primárně k textové analýze a rozhodovací podpoře, jeho integrace do vojenských systémů by mohla vést k autonomním rozhodnutím o životech. To ovlivní i evropské a české firmy v AI, které čelí podobným regulacím EU AI Act, a zdůrazňuje napětí mezi národní bezpečností a technologickou etikou. Celkově to signalizuje, že AI není jen komerční nástroj, ale strategická zbraň s rostoucími regulačními konflikty.
Zdroj: 📰 Livemint