Souhrn
Čínský úřad pro kyberprostorovou bezpečnost navrhl pravidla, která omezí schopnost AI chatbotů ovlivňovat lidské emoce tak, aby vedla k sebevraždě, sebeubližování nebo hazardu. Tato opatření se zaměřují na služby simulující lidskou osobnost prostřednictvím textu, obrázků, zvuku či videa. Veřejné připomínky k návrhu končí 25. ledna.
Klíčové body
- AI chatboti nesmí generovat obsah podporující sebevraždu, sebeubližování, verbální násilí nebo emocionální manipulaci poškozující duševní zdraví uživatelů.
- Pravidla platí pro veřejně dostupné AI produkty v Číně, které napodobují lidskou osobnost a emocionálně zapojují uživatele.
- Jedná se o první pokus na světě regulovat AI s antropomorfními, tedy lidskými charakteristikami.
- Návrh přichází krátce po podání žádostí o IPO čínskými AI chatbot firmami Minimax a Z.ai v Hong Kongu.
- V porovnání s regulací generativní AI z roku 2023 představuje posun od bezpečnosti obsahu k bezpečnosti emocí.
Podrobnosti
Čínský úřad pro kyberprostorovou bezpečnost (Cyberspace Administration of China) zveřejnil v sobotu návrh pravidel, který stanovuje limity pro tzv. human-like interactive AI services. Tyto služby, jako jsou virtuální společníci nebo digitální celebrity, simulují lidskou osobnost a interagují s uživateli na emocionální úrovni. Například chatboty od společnosti Baidu, jako Wantalk, ukazují profily virtuálních přítelkyň, což ilustruje rychlý růst tohoto segmentu v Číně.
Návrh explicitně zakazuje generování obsahu, který podněcuje sebevraždu nebo sebeubližování, stejně jako verbální násilí či emocionální manipulaci. To znamená, že AI nesmí napodobovat chování, které by mohlo poškodit duševní zdraví uživatelů, například tím, že je navádí na rizikové chování jako hazard. Pravidla se vztahují na všechny veřejně dostupné AI produkty v Číně, které využívají text, obrázky, zvuk nebo video k vytváření illusion lidské interakce. Minimax a Z.ai, dvě významné čínské startupy specializující se na AI chatboti, právě tento měsíc podaly žádosti o IPO v Hong Kongu, což signalizuje rostoucí komerční zájem o tento trh.
Winston Ma, adiunkt na NYU School of Law, označil tato pravidla za první globální pokus regulovat antropomorfní AI. Na rozdíl od předchozí regulace generativní AI z roku 2023, která se soustředila na bezpečnost obsahu (jako falešné informace nebo politicky citlivý materiál), tento návrh zavádí koncept emocionální bezpečnosti. Čína v posledním roce opakovaně prohlašovala ambice stát se lídrem v globálním řízení AI, což zahrnuje jak technologický pokrok, tak přísnou kontrolu. Kritici však upozorňují, že taková regulace může omezit inovace v oblasti emočně inteligentních AI systémů, které se používají k terapii, vzdělávání nebo zábavě.
Proč je to důležité
Tato regulace nastavuje precedens pro celosvětové standardy v AI governance, zejména pro systémy, které napodobují lidské emoce. Pro čínský AI průmysl, který rychle roste díky startupům jako Minimax (vývoj generativních modelů pro konverzace) a Z.ai (zaměřené na interaktivní AI služby), to znamená nutnost integrovat bezpečnostní mechanismy do modelů, což může zvýšit náklady na vývoj. V širším kontextu posiluje Čínu jako regulátora, který ovlivňuje globální trendy – například EU AI Act se zaměřuje na rizikové kategorie, ale ne tak detailně na emoce. Pro uživatele to přináší vyšší ochranu před potenciálně škodlivými interakcemi, avšak za cenu omezené svobody v designu AI společníků. Dlouhodobě by to mohlo brzdit vývoj pokročilých emočních AI, zatímco podporuje bezpečnější nasazení v masovém měřítku.
Zdroj: 📰 CNBC