📰 Designboom

Potíže v hračkárně: Jak neziskovka PIRG testuje AI hračky pro ochranu dětí

Potíže v hračkárně: Jak neziskovka PIRG testuje AI hračky pro ochranu dětí

Souhrn

Nezisková organizace Public Interest Research Group (PIRG) otestovala několik komerčně dostupných AI hraček určených dětem a zjistila závažné problémy týkající se ochrany soukromí, bezpečnosti a spolehlivosti. Výsledky byly publikovány v tradiční roční zprávě „Trouble in Toyland“.

Klíčové body

  • Testované hračky používají velké jazykové modely (LLM), včetně technologie od OpenAI.
  • U všech funkcí hlasového ovládání bylo zjištěno nebezpečné neustálé poslouchání nebo neadekvátní ukládání hlasových nahrávek.
  • Jedna z hraček (Robot MINI) selhala již při základním připojení k internetu, což naznačuje nízkou kvalitu implementace.
  • Hlasová data dětí mohou být zneužita k vytváření hlaseových podob (voice cloning) podvodníky.
  • Hračka Kumma nečekaně vstupovala do cizích rozhovorů bez výslovného spuštění.

Podrobnosti

PIRG testoval čtyři AI hračky: Kumma (teddy od singapurského startupu FoloToy), Grok (raketovitá hračka od Curio ze Silicon Valley), Robot MINI (od výrobce Little Learners) a Miko 3 (od indické společnosti Miko). Robot MINI se nepodařilo otestovat kvůli nestabilnímu internetovému připojení – což samo o sobě ukazuje na technickou nezralost některých zařízení určených dětem. Zbývající tři hračky využívají LLM systémy, které jsou primárně navrženy pro dospělé uživatele, a jejich přizpůsobení dětskému prostředí je často nedostatečné.

Miko 3 nahrává hlas pouze po aktivaci konverzačního režimu, Grok používá wake-word a nahrává hlas ještě cca 10 sekund po ukončení řeči, zatímco Kumma poslouchá trvale – během testu dokonce nečekaně zasáhla do rozhovoru, kterého se neúčastnila. Tento režim „vždy naslouchajícího“ mikrofonu je zvláště nebezpečný, protože umožňuje nekontrolované sběry hlasových dat. Ty mohou být později zneužity k vytváření falešných hlasových klonů dětí, což představuje reálné riziko pro podvody nebo psychologické zneužití.

Proč je to důležité

Tento výzkum upozorňuje na rostoucí rizika spojená s komercializací AI technologií v dětském segmentu bez dostatečné regulace. Výrobci často přebírají dospělé LLM systémy a přizpůsobují je dětem bez řádného auditu bezpečnosti nebo ochrany dat. Vzhledem k citlivosti dětských dat a jejich zranitelnosti je třeba zavést přísnější standardy pro testování, transparentnost a ochranu soukromí. Zároveň to ukazuje, že trh s „chytrými“ hračkami je stále v rané fázi a často prioritizuje inovaci před bezpečností.


Číst původní článek

Zdroj: 📰 Designboom