Souhrn
Donald Trump oznámil na platformě Truth Social, že brzy podepíše výkonný příkaz, který zakáže státům Spojených států regulovat umělou inteligenci. Tento krok navazuje na neúspěšný pokus zařadit do zákona o národní obraně (National Defense Authorization Act) ustanovení rušící státní regulace AI. Článek varuje, že absence regulací na úrovni států zvyšuje národní bezpečnostní rizika spojená se zranitelnostmi AI systémů.
Klíčové body
- Trump: „Nemůžete očekávat, že firma bude potřebovat 50 souhlasů pokaždé, když chce něco udělat. TO NIKDY NEZABÍJE!“
- Proponenti deregulace tvrdí, že státní pravidla brzdí inovace a oslabují konkurenceschopnost vůči Číně.
- AI systémy řídí klíčovou infrastrukturu: letiště, energetické sítě, detekci podvodů, bojová data a obranné operace.
- Zranitelnosti: data poisoning (zamoření dat tréninkovými daty nepřítelem) a adversarial prompting (útočné vstupy obcházející bezpečnostní mechanismy).
- Pentagono a zpravodajské služby varují před manipulací AI, která může paralyzovat ekonomiku nebo armádu.
Podrobnosti
Výkonný příkaz Donalda Trumpa by efektivně zablokoval státům možnost zavádět vlastní pravidla pro umělou inteligenci, což by centralizovalo regulaci na federální úrovni – nebo spíše vedlo k její absenci. Trumpův argument vychází z obav před byrokracií: firmy by podle něj musely získávat schválení v 50 státech pro každou novou AI aplikaci, což by zpomalilo vývoj. Tento postoj podpořili lobbisté technologických gigantů, kteří spojují deregulaci s globální konkurenceschopností, zejména vůči Číně, kde stát řídí AI vývoj bez podobných překážek.
Realita je však opačná. AI systémy již nyní tvoří páteř kritické infrastruktury: optimalizují směrování letadel na letištích, předpovídají zatížení energetických sítí, detekují finanční podvody v reálném čase, integrují bojová data na bojišti a podporují dodavatelské řetězce obranného průmyslu. Tyto systémy přinášejí obrovské výhody, ale zároveň vytvářejí jednotné body selhání s vysokým dopadem. Nepřítel může útokem na AI paralyzovat regionální elektrickou síť, destabilizovat burzy nebo snížit pohotovost armády – a to často neodhalitelně v reálném čase.
Pentagon opětovaně upozorňuje na slabiny stávajících modelů AI. Data poisoning spočívá v záměrném znečištění tréninkových dat, která ovlivňují chování modelu dlouhodobě. Adversarial prompting pak využívá pečlivě navržené vstupy k obejití bezpečnostních filtrů, což donutí model k nebezpečnému výstupu, například šíření dezinformací nebo sabotáži. Podle zpravodajských zpráv USA Čína aktivně testuje tyto techniky. Bez státních regulací, které by vynucovaly transparentnost algoritmů, audity a standardy odolnosti, zůstávají tyto systémy exponovaně zranitelné. Například Kalifornie a další státy již zavádějí pravidla pro deepfakes nebo bias v AI, což federální zákon by vymazal.
Proč je to důležité
Tato deregulace by oslabila USA v technologické soutěži paradoxním způsobem: místo inovací by vedla k nárůstu rizik, která by převážila krátkodobé zisky. Pro průmysl znamená absence pravidel vyšší pravděpodobnost kyberútoků, což by způsobilo miliardové ztráty a ztrátu důvěry. Pro uživatele a firmy závislé na AI (od bank po armádu) to znamená nutnost samostatné ochrany, což je neefektivní. V širším kontextu AI ekosystému posiluje Čínu, která investuje do bezpečnostních standardů AI pro své systémy. Regulace není brzdou, ale podmínkou udržitelného růstu – bez ní hrozí systémové selhání, které by podkopalo americkou dominanci.
Zdroj: 📰 The Atlantic