📰 Alltoc.com

Co požaduje Pentagon od Anthropic? #tech

Co požaduje Pentagon od Anthropic? #tech

Souhrn

Americké ministerstvo obrany, známé jako Pentagon, požaduje od společnosti Anthropic, která vyvíjí velké jazykové modely jako Claude, širší přístup k tomuto AI pro použití v utajovaných a vojenských systémech. Anthropic odmítá uvolnit bezpečnostní omezení, zvaná guardrails, kvůli rizikům zneužití. Pentagon stanovil lhůtu a hrozí sankcemi, jako je označení firmy za riziko v dodavatelském řetězci nebo aktivací zákona Defense Production Act.

Klíčové body

  • Pentagon svolal CEO Anthropic Daria Amodeie na schůzku s vrcholovým vedením, včetně ministra obrany Pete Hegsetha, k projednání omezení modelu Claude.
  • Hrozba dvou sankcí: označení za národní riziko v dodavatelském řetězci, což omezí účast na vládních zakázkách, a použití Defense Production Act pro nucené přidělení přístupu.
  • Anthropic trvá na zachování guardrails, které brání zneužití AI na škodlivé aktivity, jako generování dezinformací nebo plánování útoků.
  • Firma jedná o podnikových a obranných partnerech, ale veřejně prosazují bezpečnostní kontroly.
  • Možné výsledky: nucená změna politiky, právní omezení kontraktů nebo kompromis s technickými audity.

Podrobnosti

Společnost Anthropic, založená bývalými výzkumníky OpenAI a zaměřená na vývoj bezpečných AI systémů, vytvořila model Claude jako konkurenční alternativu k GPT modelům. Claude slouží k analýze textu, generování obsahu, řešení složitých úloh a pomoci v programování, ale je omezen guardrails – softwarovými bariérami, které zabraňují odpovědím na žádosti o nelegální činnosti, násilí nebo utajené informace. Tyto omezení chrání před misí použitím, jako je tvorba propagandistického materiálu nebo plánování kybernetických útoků.

Pentagon nyní eskaluje spor tím, že požaduje odstranění těchto bariér pro integraci Claude do klasifikovaných systémů, kde by AI mohlo zpracovávat citlivá vojenská data pro analýzu, simulace scénářů nebo automatizaci rozhodování. Schůzka s Amodeiem proběhla nedávno a úředníci stanovili deadline pro uvolnění omezení. Pokud Anthropic neustoupí, hrozí označení za supply-chain risk, což by firmu vyloučilo z mnoha federálních kontraktů v hodnotě miliard dolarů. Druhou zbraní je Defense Production Act z roku 1950, který umožňuje vládě v nouzových situacích přidělovat průmyslové kapacity, včetně donucení firem k dodávkám technologií pro národní bezpečnost – podobně jako během pandemie pro výrobu vakcín.

Anthropic mezitím pokračuje v jednáních o enterprise licencích, kde guardrails zůstávají, a argumentuje, že bez nich hrozí nekontrolovatelné rizika, jako chyby v rozhodování vedoucí k eskalaci konfliktů. Tento spor odhaluje rozpor mezi rychlým nasazením AI v obraně a potřebou etických standardů.

Proč je to důležité

Tento konflikt ilustruje širší napětí v ekosystému AI: americká obrana potřebuje rychlý přístup k špičkovým modelům pro udržení převahy nad Čínou, kde AI jako od Baidu nebo Huawei nemají podobná omezení. Pro průmysl to znamená riziko, že vláda bude donucovat soukromé firmy k ústupkům od bezpečnostních standardů, což oslabí důvěru investorů a uživatelů. Pokud Pentagon uspěje, Claude by mohl být integrován do systémů jako JADC2 pro koordinaci bojových operací, ale bez guardrails roste riziko halucinací AI vedoucích k chybným rozkazům. Naopak, pokud Anthropic odolá, mohou následovat regulace nebo preference konkurentů jako OpenAI, který již spolupracuje s obranou. Dlouhodobě to ovlivní vývoj AGI, kde bezpečnostní kontroly jsou klíčem k prevenci katastrofických scénářů.


Číst původní článek

Zdroj: 📰 Alltoc.com