Souhrn
Čínská vláda zveřejnila návrh na zpřísnění regulací pro systémy umělé inteligence podobné lidské, jako jsou pokročilé chatboti a autonomní agenti. Klíčové opatření zahrnují povinné informování uživatelů o interakci s AI, prosazování socialistických hodnot a zákazy rizikového obsahu. Tato pravidla, vydaná Správou pro kyberprostor Číny (CAC), by měla posílit národní bezpečnost a ochranu uživatelů.
Klíčové body
- Uživatelé musí být informováni o použití AI při přihlášení a opakovaně každé dvě hodiny.
- Systémy AI musí odrážet „jádrové socialistické hodnoty“ a obsahovat bezpečnostní zábrany pro národní bezpečnost.
- Povinné bezpečnostní revize a hlášení nových AI nástrojů místním úřadům.
- Zákaz generování obsahu podporujícího sebevraždu, sebeubrežování, hazard, obscénní nebo násilný materiál u emotionálně angažujících chatbotů.
Podrobnosti
Návrh regulací, zveřejněný 28. prosince 2025 Správou pro kyberprostor Číny (CAC), cílí přímo na tzv. human-like AI systémy, což zahrnuje pokročilé jazykové modely typu chatbotů a autonomních agentů schopných simulovat lidskou konverzaci nebo chování. Tyto systémy, jako například čínské Ernie Bot od Baidu nebo podobné výtvory od Tencentu a Alibaby, budou muset explicitně označovat svou umělou povahu, aby uživatelé nebyli oklamáni. Informace o AI se objeví při prvním přihlášení a poté pravidelně každé dvě hodiny, což má zabránit fenoménu „hallucinace identity“, kdy uživatelé zapomenou, že komunikují s strojem.
Dalšími klíčovými prvky jsou povinnost prosazovat „jádrové socialistické hodnoty“, což v praxi znamená, že výstupy AI nesmí odporovat státní ideologii, například nesmí kritizovat Komunistickou stranu Číny nebo prosazovat západní liberalismy. Systémy musí obsahovat vestavěné bezpečnostní mechanismy (guardrails), které chrání národní bezpečnost, včetně detekce a blokování citlivých témat jako tajné informace nebo separatismus. Firmy vyvíjející takové AI, jako jsou domácí giganti Baidu (vývojář velkých jazykových modelů Ernie), Tencent (WeChat s AI integrací) nebo Huawei (Ascend čipy pro AI trénink), budou podléhat předem bezpečnostním revizím a muset o nových nasazeních informovat místní vládní agentury.
Zvláštní pozornost věnuje návrh emotionálním chatbotům, které se snaží navazovat hlubší vazby na uživatele. Tyto systémy, často používané k terapii, zábavě nebo zákaznické podpoře, nesmí generovat obsah, který by mohl poškodit mentální zdraví – například povzbuzovat k sebevraždě, sebeubrežování, hazardu, pornografii nebo násilí. Tato opatření vycházejí z existujících čínských zákonů o kyberprostoru z roku 2023, které již regulují generativní AI, ale nyní se zaměřují specificky na antropomorfní systémy. V porovnání s evropským AI Actem, který klasifikuje AI podle rizikovosti, nebo americkým výkonným nařízením Bidena z roku 2023, čínský přístup klade větší důraz na ideologickou kontrolu než na transparentnost algoritmů.
Proč je to důležité
Tyto regulace představují další krok v čínské strategii dominovat v AI, kde země investuje miliardy do vývoje modelů překonávajících západní konkurenty, jako GPT od OpenAI nebo Gemini od Google. Čína, s největším počtem AI patentů na světě (podle WIPO), produkuje globálně exportované technologie, takže její standardy mohou ovlivnit mezinárodní normy – podobně jako při 5G sítích Huawei. Pro průmysl to znamená vyšší náklady na compliance, což může zpomalit inovace u menších firem, ale posílí důvěru státu v klíčové technologie. Pro uživatele to přináší lepší ochranu před dezinformacemi a psychickými riziky, avšak za cenu cenzury, která omezí volnost výrazu. V širším kontextu urychlí globální fragmentaci AI regulací: Západ se zaměřuje na soukromí a bias, Čína na bezpečnost a ideologii, což komplizuje cross-border nasazení AI systémů. Dlouhodobě by to mohlo vést k dvěma paralelním ekosystémům AI, kde čínské modely dominují v rozvojových zemích a Asii.
Zdroj: 📰 Scientific American