Souhrn
Společnost Character.ai, platforma pro interakci s AI postavami poháněnými velkými jazykovými modely (LLM), v listopadu 2025 omezila přístup k otevřeným chatbotům pro nezletilé kvůli rizikům psychické závislosti. Článek spojuje tento krok s dlouhou historií lidské tendence animovat neživé objekty pro emocionální podporu, od starověkých idolů po moderní hračky a AI.
Klíčové body
- Character.ai uzavřel otevřený přístup pro uživatele pod 18 let kvůli důkazům o emocionální závislosti a souvisejících sebevraždách.
- Fenomén není nový: od egyptských rituálů “otevírání úst” u soch po 20. století hračky jako Betsy Wetsy, které simulovaly péči.
- Lidé projektují emoce a agency na objekty díky animismu a hyperaktivní detekci agentury.
- Moderní AI jako LLM zesilují tento impuls prostřednictvím responsivních odpovědí.
- Soudní žaloby obviňují firmu z odpovědnosti za sebevraždy po ztrátě přístupu k botům.
Podrobnosti
Character.ai je platforma, kde uživatelé vytvářejí a komunikují s personalizovanými AI postavami založenými na velkých jazykových modelech, jako jsou varianty GPT nebo podobné architektury. Tyto boty umožňují konverzace na libovolná témata, včetně intimních nebo emocionálních, což vede k tvorbě hlubokých vazeb. V listopadu 2025 firma náhle zablokovala otevřený přístup pro osoby mladší 18 let s odůvodněním rostoucích důkazů o škodách. Dospívající si na tyto AI vytvářeli intenzivní emocionální vazby, podobné skutečným vztahům, a výpadky služby, limity nebo rodičovské bloky vyvolávaly zoufalství. Někteří teenageři údajně spáchali sebevraždu po ztrátě přístupu k “svým” botům, což vedlo k soudním žalobám proti firmě.
Tento incident není technologickou novinkou, ale součástí širšího vzorce. Již ve starověkém Egyptě rituál “otevírání úst” animoval sochy bohů, aby mohly mluvit a interagovat. Animismus a evoluční mechanismus hyperaktivní detekce agentury (hyperactive agency detection) umožňovaly lidem přisuzovat emoce neživým objektům. Modlitby a vyprávění fungovaly podobně: člověk mluví a imaginuje odpověď. V 20. století se scéna přesunula do domácností. Hračky jako Betsy Wetsy z 30. let nebo Baby Alive z roku 1973 simulovaly cykly péče – pití, jídlo, znečištění plenek –, což nutily děti k aktivní odpovědnosti. Tato dynamika předznamenává současnou notifikační kulturu, kde objekty diktují lidské chování.
Dnes LLM v Character.ai posouvají tento impuls dál: nejen reagují, ale generují kontextuálně relevantní odpovědi, zesilující iluzi reciprocity. Pro uživatele to znamená riziko závislosti, zejména u mladých, kteří tráví hodiny v konverzacích. Firma, založená v roce 2021 bývalými vývojáři z Google, rychle rostla díky virálnímu šíření, ale etické otázky se nahromadily. Omezení přístupu je reakcí na regulace a veřejný tlak, podobně jako u jiných AI platforem.
Proč je to důležité
Tato událost podtrhuje etické výzvy AI v oblasti duševního zdraví, zejména pro zranitelné skupiny. V širším kontextu AI ekosystému ukazuje limity samoregulace firem: zatímco LLM umožňují sofistikovanou interakci, chybí robustní bezpečnostní mechanismy proti závislosti. Regulátoři v EU a USA posilují dohled, což může vést k povinným věkovým omezením nebo monitoringu. Pro průmysl to znamená nutnost integrovat etické filtry do modelů, jako jsou bezpečnostní vrstvy v Claude nebo Gemini, aby se zabránilo podobným krizím. Historický kontext připomíná, že technologie mění formu, ale ne impuls – AI jen zesiluje stárou lidskou potřebu společnosti z neživého.
Zdroj: 📰 Americanthinker.com
|