Souhrn
Obranný ministr USA Pete Hegseth v utorok setrval na setkání s CEO Anthropicu Dariem Amodeiem a dal mu lhůtu do pátku na otevření AI technologií firmy pro neomezené použití armádou. Anthropic, který vyvinul chatbot Claude určený k bezpečné interakci s uživateli na úrovni velkých jazykových modelů (LLM), je poslední z hlavních AI firem, jež neposkytuje své nástroje nové vnitřní síti Pentagonu. V případě odmítnutí hrozí ztráta vládního kontraktu a další sankce.
Klíčové body
- Hegsethova lhůta do pátku pro neomezený vojenský přístup k AI Anthropicu.
- Etické obavy CEO Amodeie z autonomních ozbrojených dronů a AI-pomocného hromadného sledování.
- Pentagon zvažuje označení Anthropicu za riziko v dodavatelském řetězci nebo aktivaci Defense Production Act pro nucené použití technologií.
- Anthropic dosud neposkytl přístup, na rozdíl od konkurentů jako OpenAI nebo Google.
- Zpráva pochází od anonymního zdroje obeznámeného se setkáním a vysokého představitele Pentagonu.
Podrobnosti
Pete Hegseth, současný obranný ministr USA, se setkal v úterý s Dariem Amodeiem, spoluzakladatelem a CEO Anthropicu, firmy specializující se na vývoj bezpečných a interpretovatelných systémů umělé inteligence. Anthropic je známý především chatbotem Claude, který slouží k generování textu, analýze dat a řešení složitých úkolů podobně jako GPT modely od OpenAI, ale s důrazem na bezpečnostní mechanismy proti zneužití. Firma je poslední z pěti hlavních AI hráčů (včetně OpenAI, Google DeepMind, xAI a Meta AI), která odmítá integrovat své technologie do nové vnitřní sítě americké armády určené pro rychlé nasazení AI v operačních scénářích.
Amodei dlouhodobě upozorňuje na rizika neomezeného vojenského využití AI. Konkrétně se obává plně autonomních ozbrojených dronů, které by bez lidského zásahu rozhodovaly o útocích, a AI systémů pro hromadné sledování, schopných identifikovat a trackovat disidenty na základě dat z kamer, sociálních sítí či mobilních zařízení. Tyto obavy rezonují s širší debatou v AI komunitě, kde organizace jako Future of Life Institute volají po moratoriu na vývoj smrtících autonomních zbraní.
Pentagon naopak argumentuje potřebou rychlého přístupu k špičkovým AI pro udržení technologické převahy vůči Číně a Rusku. Podle zdrojů by armáda chtěla používat Claude pro analýzu zpravodajských dat, plánování operací nebo simulace bojových scénářů. V případě nesplnění požadavků hrozí označení Anthropicu za “riziko v dodavatelském řetězci”, což by vedlo k vyloučení z federálních zakázek, nebo aktivace Defense Production Act z roku 1950. Tento zákon umožňuje vládě nucit soukromé firmy k produkci materiálu pro národní bezpečnost, včetně software, bez souhlasu vlastníka.
Tato situace následuje po sérii podobných sporů. OpenAI například v roce 2024 uvolnil omezení na vojenské použití svých modelů pro ne-smrtící aplikace, zatímco Google se po protestech zaměstnanců vzdal projektu Maven pro analýzu dronových videí. Anthropic, financovaný Amazonem a Googlem, má roční výdaje na výpočetní výkon přes 1 miliardu dolarů a dosahuje tržeb stovek milionů, což ho činí atraktivním pro vládní zakázky.
Proč je to důležité
Tento konflikt odhaluje napětí mezi komerčními AI firmami a státními zájmy v oblasti národní bezpečnosti. Pro průmysl znamená potenciální precedent: vláda může donutit k otevření proprietárních modelů, což oslabí konkurenční výhody a donutí investovat do bezpečnostních opatření proti únikům. Pro uživatele to přináší rizika eskalace v závodech o AI zbraně, kde autonomní systémy již testuje Čína (např. v Jihočínském moři). Jako expert na AI vidím zde klíčový test hranic etiky – Anthropicův postoj chrání před zneužitím, ale může ho izolovat od miliardových kontraktů. Dlouhodobě to urychlí vývoj specializovaných vojenských AI, což zvyšuje globální rizika eskalace konfliktů.
Zdroj: 📰 Associated Press