📰 The Times of India

Anthropic v konfliktu s americkou armádou kvůli použití AI

Anthropic v konfliktu s americkou armádou kvůli použití AI

Souhrn

Společnost Anthropic, vývojář pokročilých AI modelů jako Claude, se dostala do sporu s americkou armádou kvůli omezením na použití svých technologií. Pentagon požaduje neomezený přístup k AI modelům v souladu se zákony USA, zatímco Anthropic odmítá aplikace jako masové sledování občanů nebo autonomní zbraně. Na stole je kontrakt v hodnotě 200 milionů dolarů.

Klíčové body

  • Anthropic, OpenAI, Google a xAI získaly loni kontrakty na dodávku AI modelů pro vojenské projekty, včetně tzv. frontier AI.
  • Anthropic stanovil červené čáry: žádné masové sledování USA občanů, žádné plně autonomní zbraňové systémy.
  • Setkání manažerů Anthropic s Pentagonem proběhlo v úterý, konflikt mohl vést k zákazu účasti na budoucích zakázkách.
  • Emil Michael, poradce armády fungující jako de facto šéf technologie, kritizoval omezení jako nekompatibilní s vojenskými potřebami.
  • Trumpova administrativa přejmenovala Ministerstvo obrany na Department of War.

Podrobnosti

Anthropic patří mezi špičkové AI společnosti po bok OpenAI (vývojář ChatGPT) a Google (modely Gemini). Loni podepsaly tyto firmy spolu s xAI Elona Muska smlouvy s Pentagonem na dodávku AI modelů pro široké spektrum vojenských aplikací. Ty zahrnují tzv. frontier AI projekty, což jsou experimentální systémy na hranici současných možností umělé inteligence, například pro analýzu dat, plánování operací nebo autonomní rozhodování.

Pentagon nyní nasadil tyto modely a trvá na tom, aby byly dostupné pro všechny použití v souladu s americkými zákony. Anthropic však prosadil svou bezpečnostní politiku, která explicitně vylučuje masové sledování – tedy systematické monitorování komunikace a pohybu občanů bez soudního příkazu – a vývoj plně autonomních zbraňových systémů, kde AI sama rozhoduje o útocích bez lidského zásahu. Tato omezení vyvolala rozhořčení u vojenských představitelů. Americký úředník uvedl agentuře AFP, že manažeři Anthropic se setkali s Pentagonem v úterý k diskusi o kontraktu v hodnotě 200 milionů dolarů. Axios jako první informoval o jednání.

Emil Michael, senior poradce a neoficiální šéf technologie americké armády, v rozhovoru pro DefenseScoop řekl: „Nemůžete prodávat AI Ministerstvu války a pak mu nedovolit dělat věci Ministerstva války.“ Tato Trumpova administrativa změnila název Department of Defense na Department of War, což signalizuje agresivnější přístup k obraně. Pokud se Anthropic nedohodne, hrozí mu vyloučení z budoucích zakázek, což by oslabilo jeho pozici na trhu. Ostatní firmy jako OpenAI a Google zatím podobná omezení neaplikovaly, což jim dává konkurenční výhodu. Pro kontext: autonomní zbraně, známé jako lethal autonomous weapons systems (LAWS), jsou kontroverzní kvůli riziku chybného rozhodování AI v boji, kde absence lidského dohledu může vést k civilním obětem.

Proč je to důležité

Tento spor odhaluje napětí mezi etickými standardy AI firem a vojenskými požadavky. Anthropic, zaměřený na bezpečnou AI, demonstruje, jak principy jako Constitutional AI – rámec pro zarovnání modelů s lidskými hodnotami – kolidují s realitou státních zakázek. Pro průmysl to znamená riziko fragmentace: firmy buď přizpůsobí politiky a riskují reputaci, nebo ztratí miliardové kontrakty. V širším ekosystému posiluje debatu o regulaci AI v obraně – OSN a EU prosazují zákaz LAWS, zatímco USA vidí AI jako klíč k převaze nad Čínou. Pro uživatele to má nepřímý dopad: vojenské nasazení AI modelů může urychlit vývoj technologií, které se později vrátí do civilu, ale s rizikem militarizace algoritmů. Dlouhodobě to ovlivní, jaké modely budou dominantní – ty bez etických omezení mohou získat náskok.


Číst původní článek

Zdroj: 📰 The Times of India