Souhrn
Pentagon aktivně vyjednává s předními firmami v oblasti umělé inteligence, jako jsou OpenAI a Anthropic, aby jejich modely AI byly dostupné na sítích s utajenými informacemi bez standardních bezpečnostních a etických omezeních. Šéf technologie Pentagonu Emil Michael na akci v Bílém domě prohlásil, že armáda plánuje nasadit tzv. frontier AI – nejmodernější modely – na neutasněných i utajených doménách. Tento krok souvisí s přípravou na budoucí bojiště ovládané autonomními drony, roboty a kyberútoky.
Klíčové body
- Pentagon tlačí na OpenAI (vývojář GPT modelů pro generování textu, kódu a analýzy) a Anthropic (tvůrce Claude modelů zaměřených na bezpečnou AI) kvůli rozšíření přístupu k AI na tajné sítě.
- Emil Michael zdůraznil nasazení AI na všech úrovních utajení, což znamená integraci do systémů s nejvyššími bezpečnostními požadavky.
- Jedná se o pokračování vyjednávání o použití AI v moderní válce, kde hrají roli autonomní systémy.
- Zdroje mluví o snaze obejít standardní restrikce firem, které obvykle omezují vojenské aplikace kvůli etickým a bezpečnostním rizikům.
- Článek vychází z informací od anonymních zdrojů a prohlášení z úřední akce.
Podrobnosti
Podle zprávy z 11. února, kterou podpořily dvě osoby blízké jednáním, Pentagon usiluje o integraci nejnovějších AI modelů do svých systémů bez omezení, která firmy jako OpenAI a Anthropic standardně uplatňují. Tyto restrikce zahrnují zákazy na použití v zbraních, kyberútocích nebo aplikacích, které by mohly vést k úmrtím. OpenAI, známá modely GPT-4 a GPT-4o schopnými zpracovávat text, obrázky a data pro analýzu a rozhodování, má politiku omezující vojenské nasazení, ale nedávné změny umožnily partnerství s vládou USA. Anthropic, startup založený bývalými výzkumníky OpenAI, se zaměřuje na konstitutionální AI – modely s vestavěnými bezpečnostními principy pro prevenci zneužití – a podobně čelí tlaku.
Emil Michael, šéf technologie Pentagonu, na akci v Bílém domě 11. února oznámil přechod k nasazení frontier AI, což označuje modely na hranici současných možností, jako jsou velké jazykové modely (LLM) s miliardami parametrů. Anonymní úředník prohlásil: „Přecházíme k nasazení pokročilých AI schopností na všech úrovních utajení.“ To znamená přístup k modelům v prostředích od otevřeného internetu po uzavřené sítě s nejvyšším stupněm utajení, kde data zůstávají izolovaná od veřejných cloudů.
Tato jednání probíhají v kontextu eskalujícího závodu v AI mezi USA a Čínou, kde autonomní systémy jako drone swarms (róje dronů) a robotické jednotky mění dynamiku války. Pentagon již testuje AI v projektech jako Replicator, který má nasadit tisíce autonomních dronů. Nicméně kritici upozorňují na rizika: modely AI trénované na veřejných datech mohou selhat v utajeném prostředí kvůli nedostatku specifických dat, a navíc existuje riziko úniku citlivých informací nebo nepředvídatelného chování v bojových podmínkách. Firmy jako OpenAI dosud odmítaly plné vojenské nasazení, ale ekonomický tlak a vládní zakázky to mění.
Proč je to důležité
Tento vývoj urychluje integraci AI do americké armády, což posiluje konkurenční výhodu vůči soupeřům jako Čína, kde státní firmy jako Baidu již dodávají AI pro vojenské účely. Pro průmysl znamená potenciální miliardové kontrakty, ale i etické dilema: obcházení restrikcí může vést k zneužití AI v ofenzivních operacích, jako je autonomní rozhodování o cílech. Pro uživatele a výzkumníky to signalizuje posun od civilních k duálním (civilně-vojenským) aplikacím, kde bezpečnostní vrstvy jako red teaming budou muset být přizpůsobeny utajeným datům. Dlouhodobě to může zrychlit vývoj specializovaných vojenských modelů, ale zvyšuje globální rizika eskalace AI zbrojení. Celkově to podtrhuje, jak se AI stává klíčovým elementem národní bezpečnosti, s dopady na regulace a mezinárodní dohody o autonomních zbraních.
Zdroj: 📰 CNA