📰 Livemint

Čína a Amerika se musí vážně zabývat riziky AI

Čína a Amerika se musí vážně zabývat riziky AI

Souhrn

Jake Sullivan, bývalý národní bezpečnostní poradce USA, vyzývá Čínu a Spojené státy k rozvoji trvalé diplomacie na vysoké úrovni ohledně rizik umělé inteligence. Navazuje na společné prohlášení prezidentů Bidena a Si Ťin-pchinga z listopadu 2024, které zdůrazňuje nutnost udržet lidskou kontrolu nad rozhodováním o použití jaderných zbraní. Tento krok ukazuje, že i při intenzivní soutěži o globální vedení v AI lze dosáhnout pokroku v řízení rizik.

Klíčové body

  • Společné prohlášení USA a Číny z listopadu 2024 o lidské kontrole nad jadernými zbraněmi v éře AI.
  • Rok vyjednávání překonal skepticismus čínské strany vůči americkým návrhům na snížení rizik.
  • Setkání diplomatů a expertů v Ženevě na začátku roku 2024.
  • Výzva k pokračujícímu dialogu na úrovni vrcholových představitelů při souběžné soutěži o AI vedení.
  • Potenciál pro další kroky v řízení národně bezpečnostních rizik spojených s AI.

Podrobnosti

Článek vychází z autorovy zkušenosti jako národního bezpečnostního poradce, kde koordinoval přípravu USA na široké spektrum hrozeb včetně těch souvisejících s rychlým vývojem AI v civilních i vojenských aplikacích. Klíčovým milníkem je prohlášení z listopadu 2024, kdy Biden a Si Ťin-pching poprvé společně uznaly potřebu zachovat lidskou kontrolu nad jadernými zbraněmi. Tento bod, i když zdánlivě samozřejmý, vyžadoval více než rok intenzivních jednání. Čínská strana je tradičně skeptická vůči návrhům USA na snížení rizik, zejména když Rusko podobné formulace blokovalo v multilaterálních fórech. Úspěch bilaterálních rozhovorů tak vytváří trhlinu mezi Pekíngem a Moskvou, což posiluje pozici USA.

Dříve v roce 2024 se v Ženevě konala prodloužená setkání expertů obou zemí, která položila základy pro tento dialog. Sullivan zdůrazňuje, že rychlost vývoje AI – od velkých jazykových modelů (LLM) jako GPT nebo čínských ekvivalentů po autonomní systémy pro zpravodajství a vojenské operace – zvyšuje rizika nechtěné eskalace. Například AI by mohla ovlivnit rozhodování v kritických situacích, jako je detekce hrozeb nebo cílení zbraní, což by mohlo vést k chybám s katastrofálními následky. Pro Čínu i USA jde o strategickou soutěž: kdo ovládne globální standardy AI modelů, ten ovlivní ekonomiku, bezpečnost i geopolitiku. Sullivan proto navrhuje udržet dialog i při maximalizaci národních výhod, podobně jako v jiných oblastech zbrojení.

Tento přístup kontrastuje s absencí multilaterálních dohod, kde Čína a Rusko často kooperují proti Západu. Pro průmysl znamená, že firmy jako OpenAI, Google DeepMind nebo čínské Baidu a Tencent musí počítat s rostoucí regulací, která by mohla omezit export technologií nebo sdílení dat.

Proč je to důležité

Tento diplomatický pokrok nastavuje precedens pro globální governance AI, kde absence dohod hrozí závodným zbraněním v autonomních systémech. Pro uživatele a průmysl to znamená potenciální stabilizaci: méně rizik neočekávaných incidentů, jako je chyba AI v kritické infrastruktuře, ale zároveň zpomalení inovací kvůli bezpečnostním omezením. V širším kontextu posiluje to pozici USA v soutěži s Čínou, kde americké modely (např. od OpenAI) dominují v komerčním sektoru, zatímco čínské vedou v masové adopci. Bez takového dialogu by rostoucí integrace AI do vojenských systémů mohla vést k nestabilitě, podobně jako v minulosti u jaderných zbraní. Celkově to podtrhuje nutnost expertů na AI bezpečnost, aby ovlivňovali politiku a zabraňovali scénářům, kde algoritmy přebírají klíčová rozhodnutí.


Číst původní článek

Zdroj: 📰 Livemint