Souhrn
Čína a Spojené státy budou nadále soutěžit o vedení v oblasti umělé inteligence, ale jako jediné globální supervelmoci v AI musí zahájit přímý dialog o rizicích. V listopadu 2024 vydali prezidenti Biden a Xi Jinping první podstatné společné prohlášení o národně bezpečnostních hrozbách AI, včetně potřeby udržet lidskou kontrolu nad rozhodováním o použití jaderných zbraní. Článek Jakea Sullivana, bývalého poradce USA pro národní bezpečnost, volá po intenzivnější spolupráci.
Klíčové body
- První společné prohlášení Bidena a Xi Jinpinga z listopadu 2024 zdůrazňuje rizika AI pro národní bezpečnost, zejména v souvislosti s jadernými zbraněmi.
- USA a Čína jsou jediné dvě země schopné dominovat v AI, což vyžaduje jejich přímou angažovanost při mitigaci rizik.
- Rizika zahrnují narušení trhů, infrastruktury, sociální stability a existenciální hrozby pro lidstvo.
- Soutěž o AI vedení nesmí bránit spolupráci na bezpečnostních standardech.
- Autor navrhuje strukturovaný dialog mezi oběma mocnostmi.
Podrobnosti
Článek vychází z kontextu listopadového summitu v roce 2024, kde se Biden a Xi shodli na nutnosti zachovat lidskou kontrolu nad jadernými zbraněmi v éře AI. Tato deklarace představuje první explicitní uznání, že pokročilé AI systémy, jako velké jazykové modely (LLM) nebo autonomní rozhodovací systémy, mohou ovlivnit kritické vojenské procesy. Například AI algoritmy pro detekci hrozeb nebo optimalizaci odpovědí by mohly vést k eskalaci konfliktů, pokud nebudou pod lidským dohledem.
Jake Sullivan, který sloužil jako národní bezpečnostní poradce USA do roku 2025, argumentuje, že soutěž mezi USA a Čínou o AI převahu – viditelná v investicích do čipů, datových center a modelů jako GPT nebo čínských ekvivalentů – nesmí ignorovat rizika. Mezi nimi patří ekonomická destabilizace trhů masivní automatizací, kybernetické útoky zesílené AI (např. generování phishingu nebo exploitů zero-day), narušení kritické infrastruktury jako elektrické sítě nebo dopravní systémy a sociální nestabilita způsobená dezinformacemi z AI generovaného obsahu. Existenciální rizika, jako nesprávné zacílení AI v autonomních zbraních nebo nekontrolovaný pokrok směrem k AGI (umělé obecné inteligenci), vyžadují globální koordinaci.
Sullivan navrhuje přímý bilaterální dialog, podobný jednáním o jaderné zbraně během studené války. To by zahrnovalo sdílení standardů pro AI bezpečnost, testování robustness modelů proti jailbreakům nebo halucinacím a mechanismy pro prevenci zneužití v asymetrické válce. V praxi by to znamenalo pro průmysl povinné audity AI systémů, mezinárodní protokoly pro nasazení autonomních systémů a omezení exportu kritických technologií jako GPU pro trénink modelů. Pro uživatele a firmy to přineslo by větší jistotu v nasazení AI nástrojů, jako jsou chatboti nebo prediktivní analytics, bez rizika neočekávaných selhání.
Proč je to důležité
Toto volání po spolupráci přichází v době, kdy USA zavádějí exportní kontroly na AI čipy do Číny a Peking investuje miliardy do domácích alternativ. Bez koordinace hrozí závod na dno v bezpečnostních standardech, kde soutěžící strany upřednostní rychlost před bezpečností. V širším ekosystému to ovlivní vývoj robotiky, autonomních vozidel a brain-computer interfaces, kde selhání AI může mít fatální důsledky. Pro Evropu a další regiony to znamená tlak na vlastní regulace, jako EU AI Act, aby se zapojily do globálního rámce. Pokud dialog selže, rizika jako AI-sposobené krize by mohly překročit národní hranice a destabilizovat celý světový řád.
Zdroj: 📰 Project Syndicate