Domu Tech zpravy umělá inteligence
📰 New York Post

Dario Amodei z Anthropic se setká s ministrem obrany USA Petem Hegsethem, Pentagon zvažuje zařazení firmy na černou listinu

Minister obrany Pete Hegseth se v úterý setká s šéfem Anthropic Daria Amodeiem, aby řešili rostoucí napětí ohledně vojenského použití chatbota Claude AI. Setkání přichází krátce po zprávách, že Hegseth je blízko označení Anthropic za hrozbu dodavatelského řetězce.

Dario Amodei z Anthropic se setká s ministrem obrany USA Petem Hegsethem, Pentagon zvažuje zařazení firmy na černou listinu

Souhrn

Minister obrany USA Pete Hegseth se v úterý setká s generálním ředitelem Anthropic Daria Amodeiem kvůli rostoucímu napětí okolo vojenského využití modelu Claude AI. Pentagon zvažuje označení Anthropic za hrozbu dodavatelského řetězce, což by firmu efektivně vyloučilo z kontraktů s armádou a znemožnilo používání Claude v systémech spojených s ministerstvem obrany. Toto setkání není formální seznámení, ale ultimátní jednání, jak potvrdil vysoký představitel resortu.

Klíčové body

  • Anthropic je jediným poskytovatelem AI modelu schváleného pro použití v klasifikovaných vojenských systémech, ale omezuje jeho nasazení na masové sledování Američanů a autonomní zbraně bez lidského zásahu.
  • Napětí eskalovalo v lednu po použití Claude v operaci k zatčení venezuelského prezidenta Nicoláse Madura.
  • Setkání zúčastní i zástupce ministra Steve Feinberg a podsekretář pro výzkum a inženýrství Emil Michael.
  • Anthropic prohlásil závazek podporovat národní bezpečnost USA pomocí pokročilé AI, přičemž jednání probíhají produktivně.
  • Pentagon potvrdil schůzku, ale odmítl další komentáře.

Podrobnosti

Anthropic, kalifornská firma specializující se na vývoj velkých jazykových modelů s důrazem na bezpečnost, vyvinula Claude – chatbot schopný zpracovávat textové dotazy, analyzovat data a generovat odpovědi na složité úkoly. Claude je v současnosti jediným AI modelem certifikovaným pro nasazení v bezpečnostních vojenských sítích s utajenými informacemi, což mu umožňuje zpracovávat citlivá data bez rizika úniku. Firma však aktivně brání některým aplikacím: zakazuje použití pro hromadné sledování amerických občanů, což by porušovalo domácí právní normy, a pro autonomní zbraně, které by rozhodovaly o střelbě bez lidského dohledu, kvůli etickým a bezpečnostním rizikům.

Napětí mezi Anthropic a Pentagonem narůstá již několik měsíců. Vojenskí představitelé kritizují přísné kontroly firmy, které omezují flexibilitu nasazení AI v bojových podmínkách. Eskalace přišla v lednu, kdy byl Claude nasazen v operaci vedoucí k zatčení venezuelského lídra Nicoláse Madura – pravděpodobně pro analýzu komunikace nebo predikci pohybů. Podle zdrojů Axios, který novinku první popsal, je Hegseth blízko rozhodnutí označit Anthropic za riziko v dodavatelském řetězci. To by automaticky zrušilo všechny kontrakty, donutí dodavatele přerušit spolupráci a efektivně zablokovalo Claude pro armádu USA.

Setkání v úterý, popsané vysokým úředníkem jako „nepřátelské ultimátní jednání“, zahrnuje klíčové postavy: Hegsetha, Feinberga a Michaela. Anthropic reagoval prohlášením o závazku k národní bezpečnosti a produktivním dialogu, ale odmítl okamžitý komentář k schůzce. Tento konflikt odráží širší dilema v AI ekosystému, kde firmy jako Anthropic (zakládaná bývalými výzkumníky OpenAI) priorizují bezpečnostní mechanismy – tzv. alignment – před vojenskými požadavky na neomezené nasazení.

Proč je to důležité

Tento spor má dalekosáhlé dopady na vývoj a nasazení AI v obraně. Pokud Pentagon Anthropic blacklistuje, armáda ztratí jediný schválený model pro utajené systémy, což způsobí zpoždění v integraci AI do logistiky, analýzy zpravodajství nebo plánování operací. Pro průmysl to signalizuje rostoucí regulaci: firmy musí volit mezi etickými standardy a vládními kontrakty v hodnotě stovek milionů dolarů. V širším kontextu to zesiluje debatu o AI bezpečnosti – Anthropicův přístup chrání před zneužitím, ale frustruje vojenské potřeby v éře soutěže s Čínou. Dlouhodobě by to mohlo vést k vývoji vlastních vojenských AI modelů Pentagonem nebo posunem k méně restriktivním poskytovatelům jako OpenAI či Google, což by oslabilo globální standardy bezpečnosti AI.


Číst původní článek

Zdroj: 📰 New York Post