📰 Livemint

Pentagon hrozí ukončením spolupráce s Anthropic kvůli sporu o podmínky použití AI

Pentagon hrozí ukončením spolupráce s Anthropic kvůli sporu o podmínky použití AI

Souhrn

Pentagon hrozí ukončením vojenských kontraktů se společností Anthropic do pátku kvůli neshodě na podmínkách použití jejího modelu Claude AI. Během utorňajšího setkání generální ředitel Anthropic Dario Amodei a ministr obrany Pete Hegseth diskutovali o omezeních, které firma klade na vojenské využití technologie. Anthropic trvá na tom, aby armáda nepoužívala jejich AI k autonomnímu zacílení nepřátel nebo k masovému sledování amerických občanů.

Klíčové body

  • Pentagonova hrozba ukončením kontraktů, pokud Anthropic nesplní požadavky, což ohrozuje až 200 milionů dolarů v zakázkách.
  • Možné prohlášení Anthropic za riziko v dodavatelském řetězci nebo aktivace Defense Production Act pro nucené použití AI.
  • Anthropicova podmínka: zákaz autonomního zacílení bojovníků a masového sledování občanů USA, přestože tyto scénáře dosud nenastaly.
  • Firma potvrdila pokračující jednání o své politice použití za účelem podpory národní bezpečnosti.

Podrobnosti

Společnost Anthropic PBC, která se specializuje na vývoj velkých jazykových modelů jako Claude – nástroje schopného zpracovávat složité texty, generovat odpovědi a analyzovat data pro různé aplikace včetně výzkumu a podnikových řešení – se dostala do konfliktu s americkým ministerstvem obrany. Podle zdrojů obeznámených s jednáním došlo k eskalaci během utorňajší schůzky mezi Darium Amodeiem, spoluzakladatelem Anthropic a bývalým výkonným ředitelem výzkumu v OpenAI, a ministrem obrany Petem Hegsethem. Američtí představitelé hrozili buď označením Anthropic za bezpečnostní riziko v dodavatelském řetězci, což by znemožnilo další spolupráci, nebo aktivací Defense Production Act, federálního zákona umožňujícího vládě v době krize nutit soukromé firmy k dodávkám klíčových technologií.

Anthropic, založený v roce 2021 s důrazem na bezpečnost umělé inteligence a tzv. alignment – zajištění, aby AI chovala v souladu s lidskými hodnotami – má s Pentagonem kontrakty v hodnotě až 200 milionů dolarů. Tyto zakázky zahrnují vývoj a nasazení AI pro národní bezpečnost, jako je analýza dat, plánování operací nebo logistika. Firma však prosazuje tzv. guardrails, bezpečnostní omezení zabudovaná do modelů Claude, která brání použití v citlivých scénářích. Amodei podle zdrojů zdůraznil, že autonomní zacílení nepřátel nebo masové sledování civilistů se v praxi dosud nevyskytlo, což podtrhuje, že omezení jsou preventivní. Anthropic v prohlášení po schůzce uvedl, že pokračuje v jednáních o politice použití, aby podpořil vládní mise v souladu s možnostmi svých modelů. Tento spor odráží širší napětí mezi AI firmami a vládami: zatímco OpenAI a Google umožňují vojenské využití s určitými výhradami, Anthropic je jedním z nejpřísnějších v etických standardech, což mu zajišťuje důvěru v civilním sektoru, ale komplikuje vládní kontrakty.

Proč je to důležité

Tento konflikt nastavuje precedent pro budoucí spolupráci mezi AI vývojáři a armádami. Pokud Pentagon hrozbu realizuje, Anthropic by ztratil významný příjem a přístup k vládním datům, což by ovlivnilo jeho růst – firma je oceňována na desítky miliard dolarů díky investorům jako Amazon a Google. Pro průmysl to znamená riziko, že vlády budou prosazovat nucené úpravy AI modelů, což podkopává snahy o bezpečnostní alignment. V širším kontextu to zvyšuje debatu o etice autonomních zbraní: zatímco Claude slouží primárně k textové analýze a rozhodovací podpoře, jeho integrace do vojenských systémů by mohla vést k autonomním rozhodnutím o životech. To ovlivní i evropské a české firmy v AI, které čelí podobným regulacím EU AI Act, a zdůrazňuje napětí mezi národní bezpečností a technologickou etikou. Celkově to signalizuje, že AI není jen komerční nástroj, ale strategická zbraň s rostoucími regulačními konflikty.


Číst původní článek

Zdroj: 📰 Livemint