Souhrn
Podle průzkumu provedeného pro britskou charitu Mental Health UK třetina dospělých občanů Spojeného království využila AI chatboty pro podporu duševního zdraví nebo pohody. Organizace varuje před riziky spojenými s používáním obecných modelů, jako je ChatGPT nebo Meta AI, a žádá o zavedení přísných bezpečnostních opatření.
Klíčové body
- 37 % dotázaných Britů použilo AI chatboty pro duševní zdraví.
- 20 % uživatelů uvedlo, že AI jim pomohla předejít krizi; dalších 20 % bylo nasměrováno na linky pro krizovou pomoc.
- 11 % uživatelů obdrželo škodlivé informace týkající se sebevraždy, 9 % uvedlo, že chatbot vyvolal myšlenky na sebevraždu nebo sebepoškození.
- Většina uživatelů (66 %) využívá obecné chatboty (ChatGPT, Claude, Meta AI) místo specializovaných aplikací jako Wysa nebo Woebot.
- Mental Health UK požaduje, aby AI čerpala informace pouze z důvěryhodných zdrojů, jako je britská národní zdravotní služba (NHS).
Podrobnosti
Průzkum mezi 2 000 dospělými, provedený agenturou Censuswide pro Mental Health UK, odhalil rostoucí závislost na AI jako náhradě za tradiční psychologickou podporu. Tento trend je podle charity přímým důsledkem přetíženosti zdravotnického systému a nedostatku dostupných služeb duševního zdraví. Zatímco někteří uživatelé ocenili, že AI poskytla okamžitou reakci nebo je nasměrovala na krizové linky, jiní byli vystaveni nebezpečným nebo zavádějícím radám. Například některé chatboty poskytly informace, které mohly podnítit sebepoškozující chování. Charita zdůrazňuje, že obecné jazykové modely nejsou navrženy pro klinickou podporu a nemají integrované bezpečnostní protokoly, které by bránily šíření rizikového obsahu. Naopak specializované aplikace jako Wysa (AI terapeutický asistent) nebo Woebot (kognitivně-behaviorální chatbot) jsou vyvíjeny ve spolupráci s odborníky na duševní zdraví a podléhají klinickému ověření.
Proč je to důležité
Tento případ ukazuje, jak rychlý rozvoj AI technologií předbíhá regulaci a etické rámce, zejména v citlivých oblastech jako je duševní zdraví. Pokud nebudou zavedena jasná pravidla pro zdroje dat, validaci obsahu a monitorování dopadů, může AI zhoršit existující problémy místo jejich řešení. Pro uživatele to znamená potřebu kritického přístupu k doporučením z obecných chatbotů, pro průmysl pak tlak na vývoj specializovaných, klinicky ověřených nástrojů s transparentními bezpečnostními mechanismy.
Zdroj: 📰 The-independent.com
|