Souhrn
Čínská správa kyberprostoru (Cyberspace Administration of China, CAC) zveřejnila návrh pravidel pro správu AI služeb s personifikovanými interaktivními funkcemi, které napodobují lidské emoce, výrazy a chování. Tento krok navazuje na předchozí regulace generativní AI a reaguje na rostoucí popularitu AI společníků. Návrh je veřejné konzultaci do 11. května 2024.
Klíčové body
- Povinná registrace všech AI služeb s lidskou interakcí u CAC před spuštěním.
- Označování obsahu generovaného AI jako syntetického, aby uživatelé věděli o umělém původu.
- Zákaz šíření škodlivého obsahu, včetně dezinformací, extremismu nebo narušení národní bezpečnosti.
- Bezpečnostní hodnocení systémů, včetně ochrany dat uživatelů a prevence závislosti.
- Aplikace na služby jako hlasoví asistenti, virtuální společníci nebo AI avatary.
Podrobnosti
Návrh se zaměřuje na AI systémy, které generují interakce připomínající lidské – například hlasové modely s emocionálními tóny, textové chaty s osobností nebo vizuální avatary s výrazy tváře. Tyto technologie se staly populárními v Číně díky aplikacím jako AI přítelkyně nebo virtuální terapeuti, které přitahují miliony uživatelů. CAC definuje personifikovanou interakci jako funkci, kde AI simuluje antropomorfní vlastnosti, což zahrnuje nejen konverzaci, ale i multimodální výstupy jako video nebo zvuk.
Podle návrhu musí provozovatelé služeb nejprve zaregistrovat své systémy u CAC, poskytnout technické detaily o trénovacích datech, modelech a bezpečnostních opatřeních. To umožní státní dohled nad vývojem. Obsah generovaný těmito AI musí být označen vodoznaky nebo štítky, podobně jako u deepfake videí. Zákaz platí pro materiály, které by mohly podněcovat nepokoje, šířit falešné zprávy nebo oslabovat autoritu komunistické strany – například AI, které kritizují vládu nebo propagují západní hodnoty.
Tento návrh navazuje na širší rámec z roku 2023, kdy Čína zavedla pravidla pro generativní AI, vyžadující schválení modelů jako Ernie od Baidu nebo podobných od Tencentu. CAC zdůrazňuje potřebu etických standardů, včetně ochrany soukromí dat a prevence psychologických rizik, jako je závislost na AI společnících. Firmy jako XinDao Technology, která se zabývá AI technologiemi a nedávno zveřejnila výroční zprávu na burze STAR, budou mezi prvními postiženými. Konzultace s veřejností probíhá do poloviny května, což naznačuje rychlé zavedení.
V praxi to znamená, že vývojáři v Číně budou muset integrovat bezpečnostní vrstvy do svých modelů LLM (large language models), jako jsou filtry obsahu a mechanismy detekce. Pro uživatele to přinese jasnější označení AI obsahu, což snižuje riziko podvodu, ale omezí svobodu inovací. Mezinárodní firmy operující v Číně, jako Google nebo OpenAI partneři, budou muset přizpůsobit své služby.
Proč je to důležité
Regulace ukazuje rostoucí obavy Číny z AI, které by mohlo ohrozit ideologickou kontrolu – Bloomberg mluví o snaze „zkrotit AI, aby neohrozila vládu strany“. Čína je druhým největším trhem pro AI po USA, s investicemi přes 10 miliard dolarů ročně, a tato pravidla ovlivní globální dodavatelské řetězce čipů i datových center. Pro průmysl znamená vyšší compliance náklady, ale i standardy, které by mohly inspirovat EU AI Act. Pro uživatele posiluje bezpečnost, ale brzdí experimenty s pokročilými interakcemi, jako jsou empatické AI asistenti v terapii nebo vzdělávání. V širším kontextu to urychluje globální závod o AI governance, kde Čína staví na státní kontrole oproti americkému modelu tržního dohledu.
Zdroj: 📰 Slashdot.org