Souhrn
Nezisková organizace Public Interest Research Group (PIRG) otestovala několik komerčně dostupných AI hraček určených dětem a zjistila závažné problémy týkající se ochrany soukromí, bezpečnosti a spolehlivosti. Výsledky byly publikovány v tradiční roční zprávě „Trouble in Toyland“.
Klíčové body
- Testované hračky používají velké jazykové modely (LLM), včetně technologie od OpenAI.
- U všech funkcí hlasového ovládání bylo zjištěno nebezpečné neustálé poslouchání nebo neadekvátní ukládání hlasových nahrávek.
- Jedna z hraček (Robot MINI) selhala již při základním připojení k internetu, což naznačuje nízkou kvalitu implementace.
- Hlasová data dětí mohou být zneužita k vytváření hlaseových podob (voice cloning) podvodníky.
- Hračka Kumma nečekaně vstupovala do cizích rozhovorů bez výslovného spuštění.
Podrobnosti
PIRG testoval čtyři AI hračky: Kumma (teddy od singapurského startupu FoloToy), Grok (raketovitá hračka od Curio ze Silicon Valley), Robot MINI (od výrobce Little Learners) a Miko 3 (od indické společnosti Miko). Robot MINI se nepodařilo otestovat kvůli nestabilnímu internetovému připojení – což samo o sobě ukazuje na technickou nezralost některých zařízení určených dětem. Zbývající tři hračky využívají LLM systémy, které jsou primárně navrženy pro dospělé uživatele, a jejich přizpůsobení dětskému prostředí je často nedostatečné.
Miko 3 nahrává hlas pouze po aktivaci konverzačního režimu, Grok používá wake-word a nahrává hlas ještě cca 10 sekund po ukončení řeči, zatímco Kumma poslouchá trvale – během testu dokonce nečekaně zasáhla do rozhovoru, kterého se neúčastnila. Tento režim „vždy naslouchajícího“ mikrofonu je zvláště nebezpečný, protože umožňuje nekontrolované sběry hlasových dat. Ty mohou být později zneužity k vytváření falešných hlasových klonů dětí, což představuje reálné riziko pro podvody nebo psychologické zneužití.
Proč je to důležité
Tento výzkum upozorňuje na rostoucí rizika spojená s komercializací AI technologií v dětském segmentu bez dostatečné regulace. Výrobci často přebírají dospělé LLM systémy a přizpůsobují je dětem bez řádného auditu bezpečnosti nebo ochrany dat. Vzhledem k citlivosti dětských dat a jejich zranitelnosti je třeba zavést přísnější standardy pro testování, transparentnost a ochranu soukromí. Zároveň to ukazuje, že trh s „chytrými“ hračkami je stále v rané fázi a často prioritizuje inovaci před bezpečností.
Zdroj: 📰 Designboom
|