📰 TechRadar

Pentagon může ukončit vztahy s Anthropic kvůli bezpečnostním omezením AI - Výrobce Claude vyjadřuje obavy z 'tvrdých limitů kolem plně autonomních zbraní a masového domácího sledování'

Pentagon může ukončit vztahy s Anthropic kvůli bezpečnostním omezením AI - Výrobce Claude vyjadřuje obavy z 'tvrdých limitů kolem plně autonomních zbraní a masového domácího sledování'

Souhrn

Pentagon a Anthropic jsou v konfliktu ohledně použití modelu Claude v armádních operacích. Anthropic odmítá povolit využití svého AI pro plně autonomní zbraně nebo masové domácí sledování, což vede k hrozbě zrušení 200milionového kontraktu. Jiné AI firmy jako OpenAI, Google a xAI čelí podobnému tlaku na uvolnění omezení pro “všechny zákonné účely”.

Klíčové body

  • Pentagon požaduje od AI dodavatelů povolení používání modelů pro všechny zákonné účely, včetně potenciálně citlivých armádních aplikací.
  • Anthropic striktně zakazuje použití Claude v plně autonomních zbraních a masovém domácím sledování podle svých zásad používání.
  • Model Claude byl podle Wall Street Journal použit v americké vojenské operaci na dopadení venezuelského prezidenta Nicoláse Madura.
  • Anonymní zdroj z Trumpovy administrativy uvedl, že jedna firma souhlasila s plným přístupem, dvě další projevily flexibilitu.
  • Konflikt eskaloval od ledna, Pentagon hrozí ukončením spolupráce s Anthropic.

Podrobnosti

Anthropic, firma specializující se na vývoj velkých jazykových modelů (LLM) s důrazem na bezpečnost a zarovnání s lidskými hodnotami, vyvinula model Claude jako konkurenční alternativu k GPT od OpenAI. Claude slouží k zpracování textu, analýze dat a generování odpovědí, ale Anthropic do něj implementovalo tvrdé bezpečnostní limity, které brání aplikacím v rizikových oblastech. Tyto limity explicitně zahrnují zákaz podpory pro plně autonomní zbraně – systémy, které samostatně rozhodují o útocích bez lidského zásahu – a masové domácí sledování, což by mohlo zahrnovat analýzu dat o občanech bez souhlasu.

Pentagon, ministerstvo obrany USA, má s Anthropic kontrakt v hodnotě 200 milionů dolarů na využití Claude pro různé operace. Podle zpráv Wall Street Journal byl Claude nasazen v operaci na dopadení Nicoláse Madura, bývalého venezuelského prezidenta, kde pravděpodobně pomáhal s analýzou dat nebo plánováním. Tento incident od ledna otřásl vztahy. Pentagon nyní tlačí na všechny hlavní AI dodavatele – Anthropic, OpenAI, Google a xAI (firmu Elona Muska zaměřenou na pokročilé AI modely) – aby povolily široké použití. Podle anonymního poradce Trumpovy administrativy pro Axios jedna z těchto firem již souhlasila s neomezeným přístupem, dvě další ukazují flexibilitu, ale Anthropic trvá na svých zásadách. Mluvčí Anthropic potvrdil, že firma nediskutovala podrobnosti, ale zdůraznil důraz na etické použití.

Tento spor odhaluje širší napětí mezi technologickými firmami a vládou. AI modely jako Claude lze použít k automatizaci rozhodování v reálném čase, například v dronových systémech nebo sledovacích sítích, což zvyšuje rizika chyb nebo zneužití. Pentagon argumentuje národní bezpečností, zatímco firmy se obávají odpovědnosti za škodlivé důsledky. Pokud dojde k ukončení kontraktu, Anthropic přijde o významný příjem, ale posílí svou reputaci v etické AI komunitě.

Proč je to důležité

Tento konflikt nastavuje precedent pro budoucí regulaci AI v armádních aplikacích. V širším ekosystému AI, kde modely jako Claude, GPT nebo Gemini dosahují úrovně, která umožňuje sofistikovanou analýzu, etická omezení brání rychlému nasazení v konfliktech. Pro průmysl to znamená rostoucí tlak na vyvažování komerčních zájmů s morálními standardy – firmy jako Anthropic, které priorizují bezpečnost (constitutional AI), mohou inspirovat další, zatímco souhlas xAI ukazuje rozdílné přístupy. Pro uživatele a společnost to podtrhuje rizika: autonomní zbraně by mohly eskalovat války bez lidského dohledu, zatímco masové sledování ohrožuje soukromí. V USA, kde AI výzkum vede svět, tento spor ovlivní globální standardy a může vést k legislativě jako EU AI Act. Dlouhodobě to určí, zda AI zůstane nástrojem pro obranu nebo se stane neregulovanou zbraní. (Celkem 528 slov)


Číst původní článek

Zdroj: 📰 TechRadar

Číst původní článek
Původní název: Pentagon may sever Anthropic relationship over AI safeguards - Claude maker expresses concerns over 'hard limits around fully autonomous weapons and mass domestic surveillance'