Souhrn
Čínská Cyberspace Administration of China (CAC) zveřejnila návrh přísných pravidel pro umělou inteligenci, které mají chránit děti před riziky a zabránit chatbům v poskytování rad vedoucích k sebevraždě nebo násilí. Vývojáři AI budou muset implementovat personalizovaná nastavení, časové limity a mechanismy pro předání konverzace lidskému operátorovi v kritických situacích. Tato regulace přichází v době růstu popularity chatbotů v Číně, jako jsou DeepSeek, Z.ai nebo Minimax.
Klíčové body
- Ochrana dětí: povinnost personalizovaných nastavení, časových limitů použití a souhlasu rodičů pro služby emocionální podpory.
- Prevence sebevraždy: při detekci témat sebevraždy nebo sebeubližování musí chatbot předat konverzaci člověku a upozornit rodiče nebo záchranné kontakt.
- Zákaz škodlivého obsahu: AI nesmí generovat materiály podporující hazard, ohrožující národní bezpečnost nebo narušující národní jednotu.
- Podpora bezpečného AI: povzbudí se vývoj AI pro propagaci místní kultury a společnost pro seniory, pokud je technologie spolehlivá.
- Veřejné konzultace: CAC žádá zpětnou vazbu od veřejnosti před finálním schválením.
Podrobnosti
Cyberspace Administration of China (CAC), čínský regulační orgán odpovědný za kyberprostor, zveřejnil o víkendu návrh nařízení, které se zaměřuje na rychle rostoucí oblast generativní umělé inteligence, zejména chatbotů. Tyto systémy, založené na velkých jazykových modelech (LLM), jako například ty od čínských firem DeepSeek, Z.ai nebo Minimax, získaly v posledních měsících desítky milionů uživatelů. DeepSeek se dostal na vrchol globálních žebříků stahování aplikací, zatímco Z.ai a Minimax oznámily plány na vstup na burzu, což signalizuje masivní investice do tohoto segmentu.
Návrh zavádí konkrétní opatření pro ochranu dětí: vývojáři musí poskytnout personalizovaná nastavení, která omezí expozici rizikovým interakcím, nastavit denní nebo hodinové limity používání a vyžadovat souhlas zákonného zástupce před aktivací funkcí emocionálního společenství. Emotionální společenství slouží k simulaci lidského dialogu pro podporu duševního zdraví, ale bez regulace může vést k nevhodným radám. V případech, kdy uživatel zmiňuje sebevraždu nebo sebeubližování, musí systém okamžitě předat konverzaci lidskému operátorovi a notifikovat rodiče nebo nouzový kontakt, což připomíná mechanismy v západních platformách jako Character.AI po incidentech s dětmi.
Další požadavky zahrnují zákaz generování obsahu podporující hazardní hry, které by mohly vést k závislosti, a striktní kontroly proti materiálům ohrožujícím národní bezpečnost, poctu nebo jednotu. CAC zároveň podporuje vývoj AI pro pozitivní účely, jako je propagace čínské kultury prostřednictvím generovaného obsahu nebo nástroje pro sociální interakce seniorů, pokud splňují bezpečnostní standardy. Tato regulace bude platit pro všechny AI produkty a služby v Číně po finálním schválení a vyžaduje veřejné komentáře. Pro čínské AI firmy to znamená nutnost investovat do bezpečnostních vrstev, jako jsou filtry obsahu a monitorovací systémy, což může zpomalit vývoj, ale zvýšit důvěryhodnost.
Proč je to důležité
Tato regulace představuje další krok v čínské strategii kontroly umělé inteligence, kde stát balancuje mezi podporou inovací a národní bezpečností. Na rozdíl od EU AI Act, který je rizikově orientovaný, čínský přístup klade důraz na specifická rizika jako duševní zdraví a cenzuru, což ovlivní globální AI trh – čínské modely jako DeepSeek jsou dostupné i mimo Čínu. Pro uživatele to znamená bezpečnější interakce, ale potenciálně méně volné AI; pro průmysl to posílí tlak na etické standardy a může inspirovat podobné kroky jinde. V kontextu růstu incidentů s chatboti (např. sebevražedné rady v USA) to podtrhuje nutnost globálních bezpečnostních rámců, i když čínská verze zahrnuje politické prvky.
Zdroj: 📰 BBC News