📰 Abcnews.com

Hegseth a šéf Anthropic se setkají, zatímco debata o využití AI v armádě nabírá na obrátkách

Hegseth a šéf Anthropic se setkají, zatímco debata o využití AI v armádě nabírá na obrátkách

Souhrn

Ministr obrany USA Pete Hegseth se má setkat s generálním ředitelem Anthropic Dario Amodeim kvůli probíhající debatě o roli AI v armádě. Anthropic, tvůrce chatbota Claude, je jedinou velkou AI firmou, která nedodává svou technologii do nové vnitřní vojenské sítě. Amodei vyjádřil etické obavy z autonomních ozbrojených dronů a AI-poháněného hromadného sledování, které by mohlo detekovat nespokojenost v populaci.

Klíčové body

  • Setkání potvrdil anonymní představitel ministerstva obrany.
  • Anthropic byl schválen pro práci v klasifikovaných sítích, na rozdíl od OpenAI a xAI.
  • Pentagon udělil kontrakty čtyřem firmám (Anthropic, Google, OpenAI, xAI) v hodnotě až 200 milionů dolarů.
  • Amodei varoval před riziky AI při analýze miliard konverzací pro detekci disloyalty.
  • Hegseth slibuje odstranění „probuzené kultury” v ozbrojených silách.

Podrobnosti

Setkání je naplánováno na úterý a zdůrazňuje napětí mezi národní bezpečností a etickými standardy v AI. Anthropic, specializující se na bezpečnou umělou inteligenci, vyvinul model Claude, který slouží k generování textu, analýze dat a řešení složitých úkolů, ale s důrazem na prevenci zneužití. Firma spolupracuje s partnery jako Palantir v klasifikovaných prostředích, kde AI zpracovává citlivé vojenské údaje pro rozhodování v reálném čase, například při plánování operací nebo analýze zpravodajských informací.

Pentagon loni v létě oznámil kontrakty pro čtyři AI společnosti, každou v hodnotě až 200 milionů dolarů. Anthropic byl první, kdo získal certifikaci pro classified military networks, což umožňuje nasazení v bezpečných sítích s utajenými daty. Naopak Google, OpenAI a xAI (firma Elona Muska zaměřená na pokročilé AI modely) fungují zatím pouze v neklasifikovaných prostředích. Nedávno však Hegseth veřejně zdůrazňoval pouze xAI a Google, což naznačuje posun v prioritách.

Dario Amodei ve svém eseji z minulého měsíce popsal scénář, kde AI analyzuje miliardy konverzací od milionů lidí, identifikuje sentiment veřejnosti, detekuje skupiny nespokojených a potlačuje je dříve, než se rozšíří. To souvisí s jeho širšími obavami z plně autonomních ozbrojených dronů, které by samostatně rozhodovaly o útocích bez lidského zásahu, a z AI-poháněného sledování dissentu. Hegseth mezitím prosazuje reformy v armádě, včetně boje proti „woke culture”, což může ovlivnit, jaké AI technologie budou preferovány.

Proč je to důležité

Toto setkání může rozhodnout o budoucnosti AI v americké armádě, kde jde o miliardy dolarů v kontraktech a klíčové technologie pro národní obranu. Pro AI průmysl znamená riziko polarizace: firmy jako Anthropic, které priorizují etiku (např. omezení na bezpečné použití Claude pro analýzu bez zabíjení), mohou ztratit přístup k největším klientům ve prospěch konkurentů jako xAI. Širší dopad je na globální standardy – pokud armáda nasadí autonomní systémy bez dostatečných omezení, zvýší se riziko eskalace konfliktů, jako v Ukrajině nebo na Blízkém východě, kde drony s AI již testují hranice. Pro uživatele a vývojáře to podtrhuje nutnost etických rámců, protože vojenské aplikace ovlivňují civilní AI vývoj prostřednictvím dat a know-how. Celkově to signalizuje, že debata o AI bezpečnosti přechází z akademických kruhů do politických rozhodnutí s reálnými strategickými důsledky.


Číst původní článek

Zdroj: 📰 Abcnews.com

Číst původní článek
Původní název: Hegseth and Anthropic CEO set to meet as debate intensifies over the military's use of AI