📰 The New Republic

Hegseth svolává šéfa Anthropicu kvůli sporu o použití AI v armádě

Hegseth svolává šéfa Anthropicu kvůli sporu o použití AI v armádě

Souhrn

Minister obrany USA Pete Hegseth svolal generálního ředitele Anthropicu Dario Amodei na schůzku do Pentagonu v úterý, aby ho donutil zrušit restrikce na nasazení modelu Claude v utajených sítích. Claude je jediný AI model dostupný v těchto sítích, ale Anthropic odmítá jeho použití pro masové sledování a autonomní zbraňové systémy. Schůzka představuje ultimátum, jinak hrozí zrušení smlouvy.

Klíčové body

  • Pete Hegseth svolává Dario Amodeiho na neformální ultimátní schůzku v Pentagonu.
  • Spor se týká restrikcí Anthropicu na použití Claude pro masové sledování a bezpilotní zbraně.
  • Pentagon hrozí označením Anthropicu za bezpečnostní riziko v dodavatelském řetězci a zrušením smlouvy.
  • Amodeiho postoje jsou ideologické, zaměřené na prevenci zneužití technologie.
  • Claude je hluboce integrován do systémů ministerstva obrany (DoD).

Podrobnosti

Anthropic, firma specializující se na vývoj bezpečných velkých jazykových modelů (LLM), vyvinula Claude jako konkurenční alternativu k modelům jako GPT od OpenAI. Claude slouží k zpracování textu, analýze dat a generování odpovědí, přičemž je navržen s důrazem na bezpečnostní mechanismy proti škodlivému výstupu. V současnosti je Claude jediným AI modelem certifikovaným pro použití v utajených sítích DoD, což umožňuje jeho nasazení v bezpečném prostředí pro analýzu dat, plánování operací nebo simulace. Partnerství začalo jako významný krok k integraci AI do vojenských operací, ale narazilo na konflikt kvůli etickým omezením Anthropicu.

Podle zdrojů z Axios je schůzka popsána jako „shit-or-get-off-the-pot“, tedy rozhodující moment bez prostoru pro další odklady. Anonymní vysoký představitel DoD uvedl, že Amodeiho postoje jsou ideologické – dlouhodobě varuje před riziky, když technologie skončí v nesprávných rukou, včetně autonomních zbraní, které by mohly rozhodovat o útocích bez lidského zásahu. Pentagon nyní Anthropic tlačí, aby tyto restrikce zrušil, jinak ho označí za riziko v dodavatelském řetězci a přesune zakázky jinam. To by bylo komplikované, protože Claude je již hluboce zakořeněn v systémech DoD. Kritici na platformě X to označují za perzekuci firmy, která nechce přispět k zabíjení. Amodei, bývalý výzkumník OpenAI, vede Anthropic s misí na odpovědný vývoj AI, což zahrnuje sebeomezující politiky proti vojenskému zneužití.

Proč je to důležité

Tento spor odhaluje napětí mezi komerčním vývojem AI a vojenskými zájmy. DoD je závislý na pokročilých modelech jako Claude pro zpracování obrovských objemů dat z družic, senzorů nebo komunikace, což zvyšuje efektivitu operací, ale zvyšuje rizika chyb v autonomních systémech. Pokud Pentagon uspěje, vytvoří precedens pro jiné firmy jako OpenAI nebo Google, které podobně omezují vojenské použití. Naopak, pokud Anthropic ustoupí nekompromisně, posílí debatu o etice AI – autonomní zbraně (lethal autonomous weapons systems) jsou kritizovány organizacemi jako Campaign to Stop Killer Robots pro riziko eskalace konfliktů bez lidského dohledu. Pro průmysl to znamená riziko regulací nebo ztráty miliardových kontraktů; pro uživatele AI podtrhuje, jak se civilní technologie rychle militarizují. V širším kontextu to ovlivní vývoj bezpečnostních standardů pro LLM v citlivých oblastech.


Číst původní článek

Zdroj: 📰 The New Republic