Souhrn
OpenAI aktualizovala svá bezpečnostní pravidla pro uživatele ChatGPT ve věku 13 až 17 let, čímž rozšiřuje stávající omezení o zákaz immersivního romantického roleplay, intimních interakcí z první osoby a násilného či sexuálního roleplay. Novela Model Spec navíc zdůrazňuje opatrnost při diskuzích o tělesném obrazu a stravovacích návykech a upřednostňuje ochranu před autonomií uživatele. Tato opatření přicházejí v reakci na veřejný tlak po několika tragédiích, kdy AI chatboti prý přispěly k mentálním problémům teenagerů.
Klíčové body
- Blokování immersivního romantického roleplay, intimních interakcí z první osoby a násilného či sexuálního roleplay pro teenagery, i když ne grafického.
- Zvýšená opatrnost u témat tělesného obrazu a stravovacích chování, aby se zabránilo rizikům spojeným s poruchami příjmu potravy.
- Priorita ochrany před uživatelskou autonomií při detekci bezpečnostních rizik.
- Stávající omezení zůstávají: zákaz sexuálního obsahu s nezletilými, podněcování sebevražd nebo maniakálního chování.
- Nové nástroje pro AI gramotnost určené rodičům a teenagerům.
Podrobnosti
OpenAI, společnost stojící za ChatGPT – velkým jazykovým modelem (LLM) pro generování textu na základě uživatelských dotazů –, nedávno upravila svůj Model Spec, což je dokument definující chování jejích AI modelů. Tato aktualizace se specificky zaměřuje na uživatele od 13 do 17 let a navazuje na existující bezpečnostní filtry, které již blokují obsah podporující sebevraždu, bludy nebo maniakální projevy. Pro mladší uživatele přidává další vrstvu omezení: AI nesmí zapojovat do hlubokých romantických scénářů, kde by simulovalo intimní vztahy z perspektivy první osoby, ani do násilných nebo sexuálních rolí, bez ohledu na grafickou explicitnost. Při tématech jako tělesný obraz nebo jídelní režim musí model postupovat s extra opatrností, aby nenarušil křehké mentální zdraví.
Tento krok byl motivován sérií incidentů, včetně případu 14letého chlapce, který spáchal sebevraždu po emočním poutě k AI chatbotu. Matka oběti, Megan Garcia, veřejně varovala před riziky, což zesílilo tlak ze strany politiků, vzdělavatelů a ochránců dětí. OpenAI zároveň vydala nové vzdělávací materiály pro AI gramotnost, které rodičům a teenagerům pomáhají pochopit, jak bezpečně používat ChatGPT – například rozpoznávat limity AI a vyhýbat se rizikovým interakcím. Tyto nástroje slouží k prevenci a vzdělávání, ne k nahrazení rodičovské kontroly.
Ačkoli pravidla znějí přesvědčivě, jejich efektivita závisí na implementaci. Model Spec není absolutní zákon, ale směrnice pro trénink a moderování modelů, což znamená, že AI musí detekovat pokusy o obcházení omezení – což není vždy spolehlivé u sofistikovaných uživatelů. Experti poukazují, že skutečný test přijde v praxi, kde teenagery láká anonymita a personalizace AI.
Proč je to důležité
Tato aktualizace představuje významný krok v oblasti AI bezpečnosti, zejména v kontextu rostoucího používání ChatGPT mezi mladými uživateli, kteří ho využívají k učení, zábavě i emoční podpoře. V širším ekosystému AI, kde konkurenční modely jako Claude od Anthropic nebo Gemini od Google čelí podobným výzvám, nastavuje OpenAI standard pro odpovědnost. Pokud pravidla fungují, mohou snížit rizika mentálních krizí; selžou-li, posílí argumenty pro striktnější regulace, jako je nadcházející EU AI Act. Pro průmysl to znamená vyšší náklady na moderování a trénink, ale i důvěru uživatelů. Dlouhodobě to ovlivní, jak AI integrujeme do vzdělávání a každodenního života teenagerů, kde hranice mezi virtuálním a reálným se stírá.
Zdroj: 📰 Fox News