Souhrn
Prezident Donald Trump podepsal 11. prosince 2025 ve Vzpílené pracovně výkonný příkaz, který zakazuje americkým státům prosazovat vlastní předpisy týkající se umělé inteligence. Dokument nařizuje federální administrativě vytvořit jednotný národní rámec pro AI, aby se zabránilo fragmentaci regulací na úrovni 50 států. Výjimkou zůstávají předpisy zaměřené na bezpečnost dětí.
Klíčové body
- Výkonný příkaz blokuje státní regulace AI, s výjimkou těch týkajících se ochrany dětí.
- Administrativa má vypracovat federální rámec ve spolupráci s Kongresem.
- Cílem je zabránit ‘kaličení odvětví’ různorodými státními předpisy.
- David Sacks, poradce Bílého domu pro kryptoměny a AI, zdůraznil nástroje proti ‘příliš přísným’ státním regulacím.
- Kongres dříve v červenci 2025 odmítl desetileté moratorium na státní regulace v Trumpově domácím zákonu.
Podrobnosti
Výkonný příkaz byl podepsán v přítomnosti klíčových poradců, včetně Willa Scharfa z Bílého domu, který ho popsal jako nástroj k zajištění, že AI bude fungovat v rámci jednoho národního rámce místo podléhat státním předpisům, jež by mohly způsobit nekonzistenci a brzdit inovace. David Sacks, známý podnikatel a investor v technologickém sektoru, nyní působící jako tzv. ‘AI car’ Bílého domu (odborník na AI a kryptoměny), během ceremonie uvedl, že příkaz poskytuje administrativě nástroje k obraně proti nejpřílišným státním regulacím, zatímco plánuje spolupráci s Kongresem na federálním rámci.
Tento krok navazuje na neúspěšné pokusy v Kongresu. V červenci 2025 Senát téměř jednomyslně odstranil desetileté moratorium na státní AI regulace z Trumpova rozsáhlého domácího politika. Podobně Kongres odmítl zařadit moratorium do zákona o Národní obranné autorizaci, navzdory návrhům prezidenta. Sacks na sociálních sítích upřesnil, že příkaz neznamená výzvu k boji proti všem státním AI zákonům, ale zaměřuje se na ty nejvýraznější. Administrativa tak získává právní páku k pozastavení prosazování státních předpisů, což ovlivní oblasti jako nasazení velkých jazykových modelů (LLM), autonomních systémů nebo AI v kritické infrastruktuře.
Pro průmysl to znamená snížení administrativní zátěže: firmy jako OpenAI, Google nebo Meta nemusí přizpůsobovat své AI systémy – například modely GPT, Gemini nebo Llama – různým státním standardům. Státy jako Kalifornie nebo New York, které uvažovaly o vlastních pravidlech pro transparentnost AI nebo bias v algoritmech, teď čelí federálnímu zásahu. Kritici však upozorňují na rizika: absence státních předpisů by mohla oslabit lokální ochranu spotřebitelů před chybami AI, jako jsou halucinace v LLM nebo diskriminační výstupy.
Proč je to důležité
Tento příkaz má dalekosáhlé dopady na snahu USA udržet vedení v AI, odvětví, které již významně ovlivňuje ekonomiku a burzy, ale zůstává v mnoha ohledech nevyzkoušené. Jednotný národní rámec umožní rychlejší škálování technologií jako velké jazykové modely pro aplikace v medicíně, dopravě nebo obraně, bez nutnosti navigovat 50 různými regulacemi, což by mohlo způsobit ‘regulační mozaiku’ podobnou GDPR v Evropě. Pro uživatele to znamená konzistentnější prostředí pro AI nástroje, ale potenciálně slabší ochranu proti rizikům, jako je šíření dezinformací nebo soukromí.
V širším kontextu posiluje to konkurenční postavení USA vůči Číně, kde státní monopol umožňuje rychlý rozvoj AI bez federálních sporů. Nicméně jako expert na AI varuji, že absence robustních státních experimentů s regulacemi může vést k federálním chybám – například nedostatečnému zaměření na bezpečnostní standardy pro AGI pokroky. Dlouhodobě to urychlí inovace, ale vyžaduje pečlivou legislativu od Kongresu, aby se zabránilo explozi rizik v nevyzrálém ekosystému AI.
Zdroj: 📰 CNN