Souhrn
Ministr obrany USA Pete Hegseth se v úterý setkal s generálním ředitelem Anthropicu Dariem Amodeiem a dal mu lhůtu do pátku na umožnění neomezeného vojenského použití firemní technologie umělé inteligence. Anthropic, tvůrce chatbota Claude, je poslední z velkých AI firem, která nedodává své modely do nové vnitřní sítě americké armády. Pokud firma neustoupí, Pentagon hrozí zrušením smlouvy nebo dalšími opatřeními.
Klíčové body
- Hegseth stanovil lhůtu do pátku; setkání proběhlo v úterý v souladu s informacemi anonymního zdroje z jednání.
- Anthropic odmítá překročit červené čáry: plně autonomní vojenské cílení a domácí sledování amerických občanů.
- Hrozby z Pentagona zahrnují zrušení kontraktu, označení firmy za riziko v dodavatelském řetězci nebo aktivaci Defense Production Act pro nucené poskytnutí technologií.
- Firma zůstává jedinou velkou AI společností bez dodávek do vojenské sítě; jiné jako OpenAI nebo Google už spolupracují.
- Tón setkání byl zdvořilý, Amodei však neustoupil.
Podrobnosti
Anthropic je americká firma založená v roce 2021 Dariem Amodeiem a jeho sestrou Danou, oba ex zaměstnanci OpenAI, s důrazem na vývoj bezpečné umělé inteligence. Jejich hlavní produkt, chatbot Claude, je velký jazykový model podobný GPT od OpenAI, schopný zpracovávat textové dotazy, generovat odpovědi, analyzovat data nebo pomáhat s kódováním. Claude se liší přístupem k bezpečnosti: modely jsou navrženy tak, aby odmítaly škodlivé požadavky, jako je tvorba dezinformací nebo plánování násilí.
Pentagon buduje novou interní síť pro umělou inteligenci, kam dodávají technologie firmy jako OpenAI, Google (s modelem Gemini) nebo Meta (s Llama). Tato síť slouží k analýze dat, logistice, predikci a podporě rozhodování v obraně. Anthropic zatím odmítá plnou integraci kvůli etickým omezením. Podle zdroje, který není oprávněn mluvit veřejně, Hegseth varoval před eskalací: označením za supply chain risk by firma ztratila přístup k dalším federálním zakázkám, zatímco Defense Production Act umožňuje vládě v nouzi převzít kontrolu nad výrobou a distribucí produktů.
Setkání proběhlo v kontextu rostoucího napětí mezi AI průmyslem a vládou. Anthropic má již nějaké vládní kontrakty, ale odmítá aplikace, které by vedly k autonomnímu rozhodování o útocích – například systémy, kde AI sama vybírá cíle bez lidského zásahu. Stejně tak blokuje použití pro masové sledování občanů doma, což souvisí s obavami z porušení ústavy. Amodei, známý svým zaměřením na dlouhodobé rizika AGI (umělé obecné inteligence), opakovaně zdůrazňoval tyto hranice. Článek zmiňuje i související kauzu: Muskův Grok čelí vyšetřování v EU kvůli deepfake obrázkům.
Proč je to důležité
Tento spor odhaluje klíčový konflikt v AI ekosystému: mezi národní bezpečností a etickými standardy. Pokud Pentagon donutí Anthropic k ústupkům, vytvoří precedens pro jiné firmy, což oslabí samoregulaci v AI. Naopak úspěšný odpor by posílil pozici firem zaměřených na bezpečnost, ale ohrozil by jejich přístup k financím – Anthropic získal miliardy od investorů jako Amazon. Pro průmysl to znamená riziko regulací: vláda USA může prosadit zákony na nucené sdílení AI modelů, podobně jako v Číně. Uživatelé pocítí dopady v omezené dostupnosti Claude pro civilní účely, pokud firma ztratí kontrakty. V širším kontextu urychluje to debatu o vojenském nasazení AI, kde autonomní systémy jako drony s AI cílením už testují Rusko nebo Izrael, což zvyšuje globální rizika eskalace.
Zdroj: 📰 PBS