Souhrn
Jižní Korea nedávno schválila první národní zákon o bezpečnosti umělé inteligence, čímž se stala první velkou ekonomikou, která zavádí komplexní regulace samostatně mimo mezinárodní rámce jako EU AI Act. Zákon pokrývá vysoce rizikové systémy AI, včetně dopadů na duševní zdraví uživatelů, a zavádí povinnosti pro vývojáře i provozovatele. Tato regulace nastavuje globální precedent, ale vyvolává otázky ohledně byrokracie a inovací.
Klíčové body
- První samostatný národní AI zákon v major ekonomice, účinný od roku 2025.
- Povinná registrace a testování vysoce rizikových AI systémů, včetně těch ovlivňujících mentální zdraví (např. doporučovací algoritmy sociálních sítí).
- Sankce až do výše 30 milionů wonů (cca 20 000 eur) za porušení, včetně povinného reportingu incidentů.
- Výjimky pro výzkum a open-source modely s nízkým rizikem.
- Integrace s existujícími zákony o osobních datech a spotřebitelské ochraně.
Podrobnosti
Zákon, schválený parlamentem v prosinci 2024, reaguje na rostoucí obavy z AI v každodenním životě. Definuje vysoce rizikové aplikace jako ty, které ovlivňují rozhodování ve zdravotnictví, dopravě, vzdělávání nebo bezpečnosti, a nyní rozšiřuje na mentální zdraví. Konkrétně vyžaduje, aby AI systémy jako personalizované doporučení na platformách typu TikTok nebo YouTube procházely hodnocením rizik závislosti a manipulace emocí. Vývojáři musí provádět před nasazením bias testy, transparentnost algoritmů a simulace dopadů na uživatele, včetně longitudinálních studií o duševním zdraví.
Provozovatelé jsou povinni vést registry systémů u Korejské agentury pro digitální technologie (KDTA), reportovat incidenty do 24 hodin a umožnit audity. Zákon vychází z rámce NIST AI Risk Management Framework, ale přizpůsobuje ho lokálním podmínkám – Jižní Korea má vysokou penetraci AI v mobilních aplikacích a sociálních sítích, kde 70 % populace tráví denně přes 2 hodiny. Pozitivní je, že zahrnuje etické směrnice pro generativní AI, jako povinné watermarking pro deepfakes, což brání dezinformacím.
Na druhé straně kritici upozorňují na slabiny: definice “dopadu na mentální zdraví” je příliš široká, což může vést k soudním sporům. Malé firmy, jako startupové vývojáře chatbotů pro terapii, čelí vysokým nákladům na compliance – odhaduje se 5–10 % rozpočtu na testování. Navíc zákon neřeší globální modely jako GPT-4o, které se importují, a spoléhá se na dobrovolnou spolupráci s firmami jako Samsung nebo Naver, které dominují lokálnímu trhu AI. Srovnání s EU AI Act ukazuje, že korejský přístup je méně přísný v kategorizaci rizik, ale agresivnější v sankcích pro opakované porušení. Celkově zákon pokrývá 80 % komerčních AI nasazení v zemi, kde AI přispívá 5 % HDP.
Proč je to důležité
Tato regulace nastavuje precedens pro Asii a globálně, protože Jižní Korea je třetím největším investorem do AI (po USA a Číně) s rozpočtem 2,5 miliardy dolarů ročně. Dopady pro průmysl zahrnují nutnost přepracovat modely – např. HyperCLOVA od Naveru musí integrovat mentální zdraví checks, což zpomalí nasazení o 6–12 měsíců. Pro uživatele znamená lepší ochranu před manipulativními algoritmy, které přispívají k úzkostem (studie ukazují 15% nárůst deprese u teenegerů kvůli sociálním sítím). V širším kontextu tlačí na USA a Čínu k reakci, potenciálně harmonizujíc regulace a snižujíc fragmentaci. Kriticky však riskuje, že odradí talenty – Korejci tvoří 10 % výzkumníků v LLM – a posílí dominance velkých hráčů jako OpenAI, kteří si compliance dovolí.
Zdroj: 💼 Forbes