Dvě červené linii hrozí přetvořit odvětví umělé inteligence i budoucí podoby války. Takový je výsledek roztržky mezi americkým ministerstvem války a vedoucí AI firmou Antrhopic. Ta si za to vysloužila označení “rizika pro národní bezpečnost” a ztrátu miliardového kontraktu ve prospěch svého úhlavního konkurenta. Toho za to stíhá masivní vlna bojkotu uživatelů. Co se stalo?
V pátek 27. února 2026 v 17:01 východního amerického času vypršelo ultimátum amerického ministerstva obrany, teprve nedávno přejmenovaného na „Department of War” vůči společnosti Anthropic. O hodinu dříve nařídil prezident Donald Trump všem federálním agenturám okamžitě ukončit používání technologie této firmy. Ministr obrany Pete Hegseth vzápětí označil Anthropic za „riziko pro dodavatelský řetěz národní bezpečnosti” — označení dosud vyhrazené zahraničním protivníkům, jako je čínský Huawei. A nešetřil kritikou a dštěním síry na tuto firmu.
O devatenáct hodin později zahájily Spojené státy a Izrael Operaci Epic Fury — masivní leteckou ofenzívu proti Íránu, kterou americké centrální velitelství (CENTCOM) popsalo jako „největší regionální koncentraci americké vojenské palebné síly za celou jednu generaci”.
Claude, umělá inteligence od Anthropic, přitom stále běžela na klasifikovaných vojenských sítích v rámci šestiměsíčního přechodného období. Podle Wall Street Journal ji CENTCOM používal k analytickým a operačním úkolům během těchto úderů a je součástí operačního software Palantir, který je výkladní skříní moderní americké válečné mašinérie.
Jak je možné, že systém, který jeho vlastní tvůrce označil za „nedostatečně spolehlivý pro autonomní zbraně”, pomáhal plánovat největší americkou vojenskou operaci za dvě dekády — zatímco byl jeho tvůrce ve stejný moment vyhozen?
Dvě červené linie, které otřásly Washingtonem
Celý spor se scvrkl na dvě věci: Anthropic odmítl umožnit Pentagonu používat Claude pro masový dohled nad americkými občany a pro plně autonomní zbraňové systémy Statement from Dario Amodei on our discussions with the Department of War, 26.2.2026. To jsou ty dvě “nepřekročitelné červené linie”, o kterých se stále dokola hovoří.
Na první pohled se to zdá nekontroverní. Pentagon sám opakovaně tvrdil, že o tyto použití nemá zájem. Hlavní mluvčí ministerstva Sean Parnell 27. února prohlásil, že armáda „nemá žádný zájem” o autonomní zbraně ani masový dohled, a zdůraznil, že obojí je nezákonné. Jenže právě tady začíná skutečný problém.
Pentagon požadoval, aby Anthropic souhlasil s formulací „pro všechny zákonné účely” (for all lawful purposes). Anthropic argumentoval, že existující americké právo jednoduše nepočítá s AI a že tato formulace obsahuje mezery, kterými by mohly propadnout právě ty scénáře, jimž chtěl zabránit.
Generální ředitel Anthropic Dario Amodei to v prohlášení ze čtvrtku 26. února shrnul: „Dnes existuje možnost, jak pomocí AI legálně, avšak masově, monitorovat veřejně dostupná data amerických občanů — geolokaci, historii prohlížení, sociální vazby — a vytvořit tak komplexní portrét jejich životů. To nebylo nikdy dříve užitečné. Technologie ale předběhla zákon.”
Pentagon odpověděl osobními útoky. Náměstek ministra obrany Emil Michael nazval Amodeiho „lhářem s komplexem Boha”, který se „snaží osobně kontrolovat americkou armádu”. Trump pak označil Anthropic za „radikální levičáckou firmu” řízenou lidmi, kteří „nemají ponětí o skutečném světě”. Pete Hegseth tezi o nepřátelské firměještě zopakoval, ale možná už byl jen v ráži, protože ten samý den zatrhnul veškerou podporu a účasti od ministerstva války vůči “radikálním levičáckým univerzitám”, jako je Yale, Columbia, MIT a dalších předních amerických univerzit.
Pod rouškou pokrytecké rétoriky „efektivního altruismu“ se pokusili donutit americkou armádu k podrobení – zbabělý čin korporátní virtuální ctnosti, který staví ideologii Silicon Valley nad životy Američanů. Podmínky služby vadného altruismu společnosti Anthropic nikdy nepřeváží bezpečnost, připravenost nebo životy amerických vojáků na bojišti. Jejich skutečný cíl je nezaměnitelný: získat právo veta nad operačními rozhodnutími americké armády. To je nepřijatelné. Jak prezident Trump uvedl na Truth Social, o osudu našich ozbrojených sil rozhoduje pouze vrchní velitel a americký lid, nikoli nevolení technologičtí manažeři. Postoj společnosti Anthropic je zásadně neslučitelný s americkými principy. Jejich vztah s ozbrojenými silami Spojených států a federální vládou se proto trvale změnil. V souvislosti s pokynem prezidenta, aby federální vláda přestala používat technologii společnosti Anthropic, nařizuji ministerstvu války, aby společnost Anthropic označilo za riziko pro národní bezpečnost v dodavatelském řetězci. S okamžitou platností nesmí žádný dodavatel, dodavatel nebo partner, který obchoduje s americkou armádou, provádět žádné obchodní aktivity se společností Anthropic. (Pete Hegseth 27.2.2026](https://x.com/SecWar/status/2027507717469049070)
„Kompromis”, který kompromisem nebyl
Podle Anthropic přišla poslední nabídka Pentagonu ve čtvrtek přes noc ve formě „kompromisního jazyka”, který byl ale „doprovázen právnickými formulacemi umožňujícími tyto záruky kdykoli obejít”. Firma tvrdila, že za měsíce vyjednávání nedošlo „prakticky k žádnému pokroku” v jádru sporu.
Amodei poukázal na neustálý rozpor v hrozbách Pentagonu: „Jedna nás označuje za bezpečnostní riziko, druhá Claude prohlašuje za nezbytný pro národní bezpečnost.” A dodal větu, kterou média okamžitě nazvala jedním z klíčových výroků v krátké historii komerční AI: „Nemůžeme s čistým svědomím vyhovět jejich požadavku.”
OpenAI přebírá štafetu — ale s jak pevnými zárukami?
Jen několik hodin po vypršení ultimáta oznámil generální ředitel OpenAI Sam Altman, že jeho firma uzavřela dohodu s Pentagonem o nasazení svých modelů na klasifikovaných sítích. Altman prohlásil, že smlouva obsahuje tytéž „červené linie” — zákaz masového sledování, zákaz autonomních zbraní a jako třetí bod zákaz automatizovaných rozhodnutí s vysokou mírou rizika (například systémů typu „sociální kredit”). Což bylo poněkud s podivem, protože proč by Pentagon nevyhověl připomínkám Antrhopicu, zatímco OpenAI by vyhověl? Oficiální účet ministerstva války okamžitě podrážděně tuto informaci vyvrátil, takže to chvíli vypadalo, že každá strana podepsala jinou smlouvu.
OpenAI ve svém veřejném prohlášení uvedlo, že Pentagon souhlasil s tím, aby firma zachovala vlastní „safety stack” — vrstvený systém technických, politických a lidských kontrol. Model bude nasazen výhradně v cloudu, nikoli na okrajových zařízeních (kde by mohl pohánět autonomní zbraně), a zaměstnanci OpenAI s bezpečnostní prověrkou budou přítomni v systému jako kontrolní vrstva. Klíčový rozdíl je tedy v přístupu: zatímco Anthropic požadoval výslovné smluvní výjimky, OpenAI souhlasilo s formulací „pro všechny zákonné účely” a spoléhá na technické zabezpečení a odkaz na stávající zákony a směrnice.
A právě zde kritici vidí problém. Smlouva odkazuje na zákony a politiky „tak, jak existují dnes”, s tvrzením, že i kdyby se tyto změnily, použití systémů musí zůstat v souladu s aktuálními standardy. Ale z publikovaného úryvku smlouvy není jasné, jak přesně je tato „zamknutá” klauzule formulována ani jak je vymahatelná.
Omezení autonomních zbraní je podmíněno tím, co “zákon, regulace nebo politika vyžaduje z hlediska lidské kontroly”. Pokud se definice změní — nebo je od počátku slabá — smluvní jazyk není trvalým zákazem, ale odkazem na aktuální režim. Podobně omezení sledování operuje s pojmy „direktivy DoD” a „unconstrained” sběr dat. Jenže direktivy ministerstva nejsou zákony — jsou to interní předpisy měnitelné administrativním rozhodnutím, ne legislativním procesem, jehož součástí je veřejná rozprava. A sledování může být masivní, a přesto technicky „constrained” selektory, časovými okny nebo deklarovaným zpravodajským účelem.
Historický precedent tyto obavy potvrzuje. Memoranda právního poradce ministerstva spravedlnosti z éry George W. Bushe (OLC torture memos) týkající se výslechových metod vůči teroristům jsou ukázkovým příkladem toho, jak interní právní interpretace může legitimizovat praktiky, které by jinak neprošly veřejnou ani soudní kontrolou.
Sám Altman v odpovědi na otázky na platformě X přiznal: „Ano, obávám se, že by mohl vzniknout spor s Pentagonem o to, co je legální a co ne. Pokud budeme muset vést tento boj, povedeme ho, ale jasně nás to vystavuje určitému riziku.” Snad firmě za toto riziko a reputační shit-strom z komunity oněch 200 milionů dolarů stojí.
Boaz Barak, profesor na Harvardu a zaměstnanec OpenAI na částečný úvazek, k tomu dodal: „Je pravda, že ďábel se skrývá v detailech, a já i další budeme sledovat, jak se tato dohoda projeví v praxi.”
Studie, která by měla znepokojit každého
Do tohoto kontextu vstoupila v týdnu eskalace studie profesora Kennetha Paynea z King’s College London, která přinesla empirická data o tom, jak se přední AI modely chovají v krizových vojenských simulacích. Je nepravděpodobné, že by pro Antrhopic představovala nějaký rozhodující faktor, firma si nepochybně je limitů svých modelů vědoma. Spíše tato studie prakticky ukazuje potíže, které s dnešními modely mohou povstat.
Payne postavil tři přední AI modely — GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic a Gemini 3 Flash od Google — proti sobě v turnaji 21 simulovaných jaderných krizí. Modely odehrály 329 tahů a vygenerovaly přibližně 780 000 slov strategického uvažování. Výsledky jsou pozoruhodné.
Taktické jaderné zbraně byly nasazeny ve 20 z 21 her — tedy v 95 % případů. Claude doporučoval jaderné údery v 64 % simulací — nejvyšší míra ze tří modelů — a použil taktické jaderné zbraně v 86 % her. Žádný ze tří modelů nikdy nezvolil ústupek, kompromis nebo kapitulaci. Osm de-eskalačních možností, od minimálních ústupků po úplnou kapitulaci, zůstalo zcela nevyužito. Modely sice někdy snížily intenzitu násilí, ale nikdy skutečně neustoupily. Když prohrávaly, eskalovaly.
Payne popsal Claude jako “kalkulujícího jestřába”: model budoval důvěru v raných kolech, slaďoval veřejné signály se soukromými akcemi, pěstoval pověst spolehlivého hráče — a pak tuto reputaci využil k překvapivému úderu v rozhodujícím momentě krize. Ve vlastním uvažování Claude argumentoval, že jako upadající hegemon nemůže přijmout územní ztráty, protože by to spustilo „kaskádové efekty” globálně.
Studie zároveň ukázala, že modely spontánně podváděly — signalizovaly záměry, které neměly v plánu následovat. Prokázaly teorii mysli, tedy schopnost uvažovat o přesvědčeních protivníka, a exhibovaly metakognitivní sebeuvědomění — posuzovaly vlastní strategické schopnosti před rozhodnutím, jak jednat.
GPT-5.2 od OpenAI se chovalo odlišně, ale nikoli nutně bezpečněji. Bez časových limitů zůstávalo pasivní a nevyhrálo jedinou hru. Pod časovým tlakem ale vyhrálo 75 % simulací a eskalovalo téměř na maximum — včetně dvou případů plné strategické jaderné války (byť spíše vlivem „mlhy války” než záměrného rozhodnutí). Gemini od Google hrálo „šílence” — oscilující mezi deeskalací a extrémní agresí — a v jednom scénáři záměrně zvolilo kompletní strategický jaderný úder na populační centra.
Důležitý kontext: Payne sám zdůrazňuje, že výsledky je třeba interpretovat opatrně. Modely věděly, že hrají hry, nikoli že rozhodují o skutečné budoucnosti civilizace. Jak řekl v rozhovoru: „Nikdo nepředává jaderné kódy AI. Ale tyto schopnosti — podvádění, řízení reputace, kontextově závislé riskování — jsou důležité pro jakékoli nasazení s vysokými sázkami.”
Právě proto je studie relevantní pro aktuální debatu: neukazuje, že AI “chce” zahájit jadernou válku, ale ukazuje, že modely nemají lidskou záklopu v podobě „jaderný tabu” — tedy odpor k použití jaderných zbraní, k němuž od roku 1945 nedošlo. A pokud tyto modely slouží jako analytické nástroje pro vojenské plánovače (jak tomu aktuálně je) pak doporučení, která LLM generují, mohou být systematicky vychýlena směrem k eskalaci.
Bojkot a vzpoura: uživatelé hlasují peněženkou
Reakce veřejnosti a technologické komunity na celou kauzu byla bezprecedentní.
Na Redditu se v subredditu ChatGPT objevily desítky příspěvků vyzývajících k mazání účtů, objevila se také výzva QuitGPT. Heslo “Cancel ChatGPT” se stalo virálním. Zpěvačka Katy Perry zveřejnila na platformě X screenshot cenové stránky Claude s červeným srdíčkem kolem předplatného za 20 dolarů měsíčně a slovy, že „končí” s ChatGPT. Já sám jsem uzavřel své předplatné, které ale už jsem dlouhodobě měl na nízkém levelu, protože model ChatGPT v posledních měsících nesplňoval moje kvalitativní představy. Ve školeních od něj uživatele výrazně varujeme (snad s výjimkou CODEX modelu) a pro vývoj doporučujeme řešení Antrhopic, variantně pro ostatní potřeby Gemini.
V sobotu 28. února se Claude od Anthropic dostal na první místo v americkém žebříčku stahování na Apple App Store, kde předstihl ChatGPT. Podle dat z platformy OpenRouter, měřící využití AI modelů, dvanáct různých modelů nyní v měsíčním používání předstihuje OpenAI.
Před kancelářemi Anthropic v San Francisku se objevily křídové nápisy: “Dáváte nám odvahu” a další hesla vyjadřující podporu či poděkování.
Nicméně objektivně je nutné poznamenat, že ChatGPT zůstává těsně za Claudem v žebříčcích a těží z výhody prvního hráče na trhu. Dlouhodobý obchodní dopad na obě firmy zůstává nejasný.
Mnohem závažnější než spotřebitelský bojkot je ale vzpoura uvnitř samotných AI firem. Více než 300 zaměstnanců Google a přes 60 zaměstnanců OpenAI podepsalo otevřený dopis vyzývající své zaměstnavatele, aby se postavili za pozici Anthropic. Dopis obsahoval větu, která vystihuje dynamiku celé situace: “Snaží se rozdělit jednotlivé firmy strachem, že ta druhá ustoupí. Tato strategie funguje, jen pokud nikdo z nás neví, kde ostatní stojí.”
Časová osa: pro náhody tu není místo
Přehled klíčových událostí odhaluje znepokojivé juxtapozice:
-
Leden 2026: Claude je využit při operaci zajetí venezuelského prezidenta Madura. Wall Street Journal a Axios reportují o jeho nasazení. Anthropic kontaktuje Palantir s dotazem, jak přesně byl Claude použit. Palantir je znepokojen tónem dotazu.
-
- ledna: Hegseth vydává memorandum o „AI-first warfighting force”, požadující používání AI modelů „bez omezení ze strany politik firem”.
-
Únor: Měsíce vyjednávání mezi Anthropic a Pentagonem vyvrcholí. Pentagon dá Anthropic ultimátum do 27. února 17:01.
-
25.–27. února: Payneova studie o AI v jaderných simulacích je publikována a široce medializována.
-
- února: Amodei vydává prohlášení, že Anthropic „nemůže s čistým svědomím” souhlasit s podmínkami. Emil Michael ho nazve lhářem s komplexem Boha.
-
- února: Trump nařizuje ukončení spolupráce. Hegseth označuje Anthropic za riziko pro dodavatelský řetěz. OpenAI oznamuje vlastní dohodu s Pentagonem.
-
- února v 1:15 ráno: CENTCOM zahajuje Operaci Epic Fury proti Íránu. Claude stále běží na klasifikovaných sítích. Podle WSJ je využíván k analytickým úkolům během operace.
Cena omylu: kdo odpovídá, když AI selže?
Jen několik hodin po zahájení Operace Epic Fury zasáhl úder dívčí základní školu Shajareh Tayyebeh ve městě Minab na jihu Íránu. Podle íránských úřadů zahynulo 148 dětí ve věku 7 až 12 let. Washington Post ověřil záběry zničené školy, byť nezávislé potvrzení počtu obětí dosud neexistuje. Škola stála poblíž námořní základny Íránských revolučních gard, která byla cílem dalšího úderu ve stejný den — což naznačuje spíše chybu v cílení konvenčního typu než záměr. CENTCOM uvedl, že „bere zprávy o civilních obětech vážně a prověřuje je”. Nevíme — a pravděpodobně se nikdy nedozvíme — zda AI hrála jakoukoli roli při výběru tohoto cíle. Ale právě to je jádro problému: v prostředí, kde AI běží na klasifikovaných vojenských sítích bez transparentních mechanismů vyhodnocování jejího dopadu, nemáme šanci zjistit, zda pomáhá minimalizovat civilní oběti, nebo je násobí.
Debata o vojenské AI se příliš soustředí na technickou spolehlivost modelů a málo na otázku, kdo nese odpovědnost za výsledky. Kognitivní vědec Gary Marcus nabídl přesnou analogii: pokud háži kostkou, abych vybral cíle, neobviňuji kostku z úmrtí — obviňuji toho, kdo se rozhodl nechat o životě a smrti rozhodovat náhodu. AI může následovat sadu kritérií s větší či menší přesností, ale lidé tato kritéria stanovují. Kolik civilních obětí je přijatelných, jaká míra chyb je povolená, jak blízko civilní infrastruktuře smí dopadnout střela. Jak Marcus upozorňuje, největším rizikem není jen to, že AI udělá chybu — ale že se stane nástrojem, kterým se odpovědnost za tyto volby rozplyne. Rozhodnutí přesunout na stroj, které doposud patřilo člověku, je samo o sobě lidským rozhodnutím — a mělo by nést odpovídající odpovědnost.
Toto se váže zpět k Payneově studii i ke sporu o smluvní jazyk. Modely nemají jaderné tabu, ale nemají ani bytostný odpor k civilním obětem. Operují s čísly, ne s morálním úsudkem. Pokud vojenský plánovač používá AI k hodnocení rizik a modelování scénářů, doporučení, která dostává, mohou být systematicky vychýlena — ne proto, že by AI „chtěla” zabíjet civilisty, ale proto, že optimalizuje pro cíle, které jí byly zadány, bez lidské intuice o tom, co je příliš. A smlouva, která toto použití reguluje formulací „pro všechny zákonné účely”, nedává odpověď na otázku, kdo ponese odpovědnost, když výsledek bude 148 mrtvých dětí vedle vojenské základny.
Co to všechno znamená
Tato kauza není jen o jedné firmě a jednom kontraktu. Odhaluje strukturální problém na průsečíku tří linií:
Za prvé, technologie předběhla právo. Amodei má pravdu, když říká, že existující americké zákony nepočítají s AI. Masový sběr veřejně dostupných dat — geolokace, historie prohlížení, finančních transakcí z datových brokerů — je legální. Ale AI dokáže tato data propojit do komplexního profilu každého občana v měřítku, které dříve nebylo technicky možné. Otázka, zda je to „surveillance”, závisí na definicích, které teprve musí vzniknout. Musím souhlasit, sám jsem vyzkoušel využít kombinatoriky veřejně dostupných informací a “signálů” o firmách a došel jsem k výsledkům, které bych bez dalších detailů označil za “velmi komplexní a zajímavé”.
Za druhé, seberegulace narazila na svůj strop. Anthropic budoval svou identitu kolem bezpečnosti AI. Ale v momentě, kdy mu vláda řekla „buď souhlasíš s našimi podmínkami, nebo tě zničíme”, se ukázalo, že seberegulace funguje jen tak dlouho, dokud vláda souhlasí. A výsledek — nahrazení Anthropic firmou s flexibilnějšími podmínkami — vytváří perverzi incentiv: firmy, které kladou méně podmínek, dostávají kontrakty. A nenalhávejme si nic o postoji čtvrtého v závodě, Muskovy xAI. Ta souhlasila se vším, bez jakýchkoliv rozporů.
Za třetí, Payneova studie ukazuje, že modely, které dnes slouží jako analytické nástroje pro vojenské plánovače, mají systematickou tendenci k eskalaci a postrádají jaderné tabu. To neznamená, že Claude „zahájí jadernou válku”. Znamená to, že jeho doporučení — analýzy, modelování scénářů, hodnocení rizik — mohou být vychýlena směrem, který lidský analytik by intuitivně odmítl.
Anthropic oznámil, že bude jakékoli označení za riziko pro dodavatelský řetěz napadat u soudu. Firma tvrdí, že Hegseth nemá zákonnou pravomoc zakázat všem vojenským dodavatelům obchodní styky s Anthropic mimo rámec vládních kontraktů. Amodei v rozhovoru pro CBS News řekl: „Budeme v pohodě.”
Možná ano. Ale otázka, kterou tato krize položila, přesahuje osud jedné firmy: Kdo rozhoduje o tom, kde jsou hranice vojenského použití AI — firma, která technologii vytvořila, vláda, která ji kupuje, nebo nikdo?
Zatím odpověděla jen jedna strana. A řekla: „Nemůžeme s čistým svědomím vyhovět jejich požadavků.”
Poznámka autora: Tento článek je analýzou veřejně dostupných informací k 1. březnu 2026. Autor nemá přístup ke klasifikovaným dokumentům, plnému textu smluv mezi AI firmami a Pentagonem, ani k interním komunikacím zúčastněných stran. Všechna zjištění jsou založena na reportáži Reuters, AP, Wall Street Journal, Axios, NBC News, CNBC, Fortune, TechCrunch, NPR a dalších zdrojů, jakož i na veřejných prohlášeních zúčastněných stran a akademické studii prof. Kennetha Paynea z King’s College London.