📰 Gizmodo.com

Pentagon prý zuří na Anthropic kvůli odmítnutí neomezené podpory vojenským projektům

Pentagon prý zuří na Anthropic kvůli odmítnutí neomezené podpory vojenským projektům

Souhrn

Podle zprávy serveru Axios zvažuje Pentagon ukončit spolupráci s Anthropic kvůli firměným omezením na vojenské využití AI modelů Claude. Hlavními problémy jsou plně autonomní zbraně, jako roje dronů bez lidského zásahu, a masové domácí sledování. Anthropic, který minulý rok slavil 200milionový kontrakt s Pentagonem, je označován za nejdůležitější „ideologickou“ AI společnost.

Klíčové body

  • Pentagon hrozí přerušením používání nástrojů Anthropic kvůli „ideologickým“ limitům.
  • Sporné oblasti: tvrdé limity na autonomní zbraně a masové sledování.
  • CEO Dario Amodei vyjádřil podobné obavy v podcastu New York Times a v eseji „The Adolescence of Technology“.
  • Anthropic vyvinul modely Claude a Claude Code pro kódování, které ovlivňují trhy jako Wall Street.
  • Loňský kontrakt za 200 milionů dolarů měl posílit národní bezpečnost USA.

Podrobnosti

Anthropic, americká firma specializující se na vývoj velkých jazykových modelů (LLM) s důrazem na bezpečnost, se dostala do konfliktu s Pentagonem. Podle anonymního zdroje z ministerstva obrany je Anthropic jedinou velkou AI společností, která trvá na striktních pravidlech pro vojenské aplikace. Konkrétně odmítá neomezené nasazení svých modelů v systémech plně autonomních zbraní, kde by AI rozhodovala o útocích bez lidského dohledu, a v technologiích masového sledování obyvatelstva doma. Tyto limity jsou zakotveny v designu modelů Claude, které využívají přístup Constitutional AI – rámec pravidel inspirovaný ústavními principy, aby se zabránilo škodlivému chování.

Tento spor navazuje na nedávné veřejné projevy zakladatele a CEO Darie Amodeieho. V podcastu Interesting Times od Rossa Douthata, vydaném před třemi dny New York Times, Amodei varoval před riziky autonomních rojů dronů, kde by tisíce zařízení koordinovaly útoky bez lidského zásahu. Zdůraznil, že současné vojenské struktury spoléhají na lidskou odpovědnost, kterou AI může podkopat. Podobné myšlenky rozvinul v loňské eseji „The Adolescence of Technology“, kde diskutuje dospívání technologií a nutnost etických omezeních. Paradoxně Anthropic před rokem oslavoval kontrakt s Pentagonem jako „novou kapitolu v podpoře národní bezpečnosti USA“. Firma zároveň vydává aktualizace Claude Code, nástroje pro automatizované programování, což ovlivňuje trhy práce v IT a vede k poklesům akcií souvisejících firem.

Kriticky lze poznamenat, že Anthropic, přestože se prezentuje jako zodpovědný aktér v AI, agresivně expanduje. Jeho modely konkurují GPT od OpenAI nebo Gemini od Google a cílí na široké komerční využití, včetně kódování, analýzy dat a generování textu. Vojenský kontrakt byl klíčový pro financování, ale ideologické postoje mohou ohrozit další zakázky. Jiné AI laboratoře jako OpenAI nebo Google DeepMind mají podobné, ale méně striktní politiky – OpenAI například umožňuje vojenské použití s výjimkami.

Proč je to důležité

Tento konflikt odhaluje napětí mezi komerčními ambicemi AI firem a nároky státních aktérů na neomezený přístup k technologiím. Pro průmysl znamená, že etické limity mohou ovlivnit alokaci miliardových kontraktů a urychlit vývoj specializovaných vojenských AI u konkurentů. Uživatelé a vývojáři pocítí dopady v podobě omezené dostupnosti modelů pro citlivé aplikace, zatímco debata o autonomních zbraních posiluje globální diskusi o regulacích AI. V širším kontextu to podtrhuje, jak firmy jako Anthropic balancují mezi zisky a bezpečností, což může změnit dynamiku americké obrany závislé na AI.


Číst původní článek

Zdroj: 📰 Gizmodo.com

Číst původní článek
Původní název: Pentagon Reportedly Hopping Mad at Anthropic for Not Blindly Supporting Everything Military Does