Souhrn
Americké ministerstvo obrany plně integruje pokročilé systémy umělé inteligence do tzv. kill chainu, což je řetězec vojenských rozhodnutí od detekce cíle po útok. Tento vývoj umožňuje AI autonomní rozhodování v reálném čase během vojenských a zpravodajských operací. Článek z Global Research poukazuje na rizika eskalace konfliktů a etické problémy spojené s touto technologií.
Klíčové body
- Řetězec zabíjení (kill chain): Proces find-fix-track-target-engage-assess, nyní řízený AI pro rychlejší a přesnější operace.
- Historický kontext: Odkaz na Huntingtonovu knihu „Střet civilizací“, kde se tvrdí, že Západ dominoval díky technologické převaze, což se teď zesiluje AI.
- Aktuální nasazení: Integrace do operací v konfliktech jako Ukrajina nebo Blízký východ, s projekty jako Project Maven.
- Rizika: Chyby AI vedoucí k civilním obětem, zranitelnost vůči kybernetickým útokům a závod ve výzbroji.
- Geopolitické dopady: Posílení dominance USA, ale riziko globální destabilizace.
Podrobnosti
Řetězec zabíjení, původně definovaný společností Lockheed Martin v roce 2010 jako model pro protiteroristické operace, zahrnuje šest fází: nalezení (find), fixaci (fix), sledování (track), zacílení (target), zapojení (engage) a hodnocení (assess). Tradičně řízený člověkem, nyní jej Pentagon nahrazuje systémy umělé inteligence, které využívají strojové učení k analýze dat z dronů, satelitů a senzorů. Například v projektu Maven, spuštěném v roce 2017, Google poskytl AI nástroje pro automatickou detekci objektů na drone videích, což urychlilo analýzu o řády. Od té doby se rozšířilo na Joint Artificial Intelligence Center (JAIC), který koordinuje nasazení AI v celé armádě.
V současnosti toto vede k plné autonomii v některých scénářích. AI modely, trénované na masivních datech z minulých konfliktů, predikují pohyb nepřítele, vybírají cíle a dokonce doporučují útoky s minimálním lidským vstupem. V praxi to vidíme v systémech jako israelický Lavender, používaný v Gaze pro hromadné zacílení, nebo americké Replicator initiative z roku 2023, která plánuje nasadit tisíce autonomních dronů. Článek Draga Bosnica, serbského geopolitického analytika, spojuje toto s širším trendem: USA testují tyto systémy v Ukrajině a na Blízkém východě, kde AI řídí kinetické útoky. Kriticky lze poznamenat, že AI založené na hlubokém učení (deep learning) trpí halucinacemi a biasy z tréninkových dat, což v minulosti vedlo k chybám, jako nesprávné identifikace civilistů v afghánských drone útocích. Navíc jsou tyto systémy zranitelné vůči adversarial attacks, kdy útočník manipuluje vstupní data pro oklamání AI.
Proč je to důležité
Tato integrace mění podstatu moderní války z pomalého, lidského rozhodování na hyperrychlé AI soutěže, kde rozhodnutí padají za milisekundy. Pro průmysl znamená to miliardové zakázky pro firmy jako Palantir, Anduril nebo Scale AI, které dodávají platformy pro targetingu. V širším ekosystému urychluje závod v zbraních mezi USA, Čínou a Ruskem – Čína má svůj Algorithmic Warfare Initiative, Rusko nasazuje AI v Ukrajině. Eticky to otevírá debatu o lethal autonomous weapon systems (LAWS), které OSN reguluje, ale bez úspěchu. Pro uživatele mimo armádu to znamená riziko kolaterálních škod v konfliktech ovlivňujících globální bezpečnost a ekonomiku, navíc posiluje surveillance státy díky sdílení dat mezi military a intelligence. Celkově toto není jen technologický krok, ale posun k válkám, kde lidé ztrácejí kontrolu nad zabíjením.
Zdroj: 📰 Globalresearch.ca