📰 Globalresearch.ca

Skříňka Pandorina Pentagonu je dokořán otevřená: USA integrují svůj pokročilý „řetězec zabíjení řízený AI“ do vojenských a zpravodajských operací

Skříňka Pandorina Pentagonu je dokořán otevřená: USA integrují svůj pokročilý „řetězec zabíjení řízený AI“ do vojenských a zpravodajských operací

Souhrn

Americké ministerstvo obrany plně integruje pokročilé systémy umělé inteligence do tzv. kill chainu, což je řetězec vojenských rozhodnutí od detekce cíle po útok. Tento vývoj umožňuje AI autonomní rozhodování v reálném čase během vojenských a zpravodajských operací. Článek z Global Research poukazuje na rizika eskalace konfliktů a etické problémy spojené s touto technologií.

Klíčové body

  • Řetězec zabíjení (kill chain): Proces find-fix-track-target-engage-assess, nyní řízený AI pro rychlejší a přesnější operace.
  • Historický kontext: Odkaz na Huntingtonovu knihu „Střet civilizací“, kde se tvrdí, že Západ dominoval díky technologické převaze, což se teď zesiluje AI.
  • Aktuální nasazení: Integrace do operací v konfliktech jako Ukrajina nebo Blízký východ, s projekty jako Project Maven.
  • Rizika: Chyby AI vedoucí k civilním obětem, zranitelnost vůči kybernetickým útokům a závod ve výzbroji.
  • Geopolitické dopady: Posílení dominance USA, ale riziko globální destabilizace.

Podrobnosti

Řetězec zabíjení, původně definovaný společností Lockheed Martin v roce 2010 jako model pro protiteroristické operace, zahrnuje šest fází: nalezení (find), fixaci (fix), sledování (track), zacílení (target), zapojení (engage) a hodnocení (assess). Tradičně řízený člověkem, nyní jej Pentagon nahrazuje systémy umělé inteligence, které využívají strojové učení k analýze dat z dronů, satelitů a senzorů. Například v projektu Maven, spuštěném v roce 2017, Google poskytl AI nástroje pro automatickou detekci objektů na drone videích, což urychlilo analýzu o řády. Od té doby se rozšířilo na Joint Artificial Intelligence Center (JAIC), který koordinuje nasazení AI v celé armádě.

V současnosti toto vede k plné autonomii v některých scénářích. AI modely, trénované na masivních datech z minulých konfliktů, predikují pohyb nepřítele, vybírají cíle a dokonce doporučují útoky s minimálním lidským vstupem. V praxi to vidíme v systémech jako israelický Lavender, používaný v Gaze pro hromadné zacílení, nebo americké Replicator initiative z roku 2023, která plánuje nasadit tisíce autonomních dronů. Článek Draga Bosnica, serbského geopolitického analytika, spojuje toto s širším trendem: USA testují tyto systémy v Ukrajině a na Blízkém východě, kde AI řídí kinetické útoky. Kriticky lze poznamenat, že AI založené na hlubokém učení (deep learning) trpí halucinacemi a biasy z tréninkových dat, což v minulosti vedlo k chybám, jako nesprávné identifikace civilistů v afghánských drone útocích. Navíc jsou tyto systémy zranitelné vůči adversarial attacks, kdy útočník manipuluje vstupní data pro oklamání AI.

Proč je to důležité

Tato integrace mění podstatu moderní války z pomalého, lidského rozhodování na hyperrychlé AI soutěže, kde rozhodnutí padají za milisekundy. Pro průmysl znamená to miliardové zakázky pro firmy jako Palantir, Anduril nebo Scale AI, které dodávají platformy pro targetingu. V širším ekosystému urychluje závod v zbraních mezi USA, Čínou a Ruskem – Čína má svůj Algorithmic Warfare Initiative, Rusko nasazuje AI v Ukrajině. Eticky to otevírá debatu o lethal autonomous weapon systems (LAWS), které OSN reguluje, ale bez úspěchu. Pro uživatele mimo armádu to znamená riziko kolaterálních škod v konfliktech ovlivňujících globální bezpečnost a ekonomiku, navíc posiluje surveillance státy díky sdílení dat mezi military a intelligence. Celkově toto není jen technologický krok, ale posun k válkám, kde lidé ztrácejí kontrolu nad zabíjením.


Číst původní článek

Zdroj: 📰 Globalresearch.ca

Číst původní článek
Původní název: The Pentagon’s Pandora’s Box Is Wide Open: The U.S. Integrates Its Advanced “AI-controlled Kill Chain” Into Military-Intelligence Ops