📰 Fox News

Kanadská politička zatčena po tvrzení, že vyhrožující hlasovou zprávu vytvořila umělá inteligence

Kanadská politička zatčena po tvrzení, že vyhrožující hlasovou zprávu vytvořila umělá inteligence

Souhrn

Kanadská rada města Corinna Traill z Ontaria byla v pondělí zatčena a obviněna z vyhrožování po tom, co údajně nechala bývalému kandidátovi na starostu Toma Dingwalla hlasovou zprávu s hrozbami zabití a sexuálního napadení jeho manželky. Traill původně tvrdila, že zprávu generovala umělá inteligence pomocí jejího hlasu, ale policie případ prověřila jako skutečné vyhrožování. Incident se odehrál v srpnu loňského roku a ukazuje na rostoucí rizika deepfake technologií v kriminálních kontextech.

Klíčové body

  • Traill byla zatčena (středa, podle policejní zprávy) a obviněna z dvou skutků vyhrožování podle kanadského trestního zákoníku.
  • V hlasové zprávě Dingwallovi vyhrožovala, že přijde do jeho domu, zabije ho a sexuálně napadne jeho manželku dvakrát, pokud nebude stáhnout kandidaturu ve prospěch její přítelkyně.
  • Traill na Facebooku popřela autorství a tvrdila, že části zprávy byly uměle generovány AI z jejího hlasu, zatímco její tým pátral po viníkovi.
  • Dingwall veřejně vyzval k její rezignaci a zdůraznil, že žádný volený představitel by neměl používat zastrašování.
  • Případ řeší Peterboroughská policejní služba v Ontariu.

Podrobnosti

Případ se týká události z srpna 2023, kdy Tom Dingwall, bývalý kandidát na starostu v Peterboroughu v kanadské provincii Ontario, obdržel hlasovou zprávu od místní rady města Corinny Traill. V zprávě ho Traill vyzvala, aby nestartoval v komunálních volbách, aby mohla kandidovat její přítelkyně bez konkurence. Pokud by tak neučinil, hrozila mu smrtí a opakovaným sexuálním napadením jeho manželky. Dingwall incident zveřejnil na Facebooku v září 2023 a okamžitě vyzval Traillovou k rezignaci, argumentuje, že volení představitelé financovaní z veřejných prostředků nesmí zastrašovat občany kvůli politickým zájmům.

Traill reagovala vlastním prohlášením na sociální síti, kde popřela, že by zprávu sama vytvořila. Tvrdila, že jde o produkt umělé inteligence: části obsahovaly její skutečný hlas, ale zbytek byl syntetizován AI nástroji, které dokážou klonovat hlas na základě krátkých ukázek. Tyto nástroje, jako například ElevenLabs nebo Respeecher, slouží primárně k tvorbě voiceoverů pro média, ale lze je zneužít k deepfake audio, které zní autenticky. Traill uvedla, že její tým vyšetřuje, kdo za útokem stojí, a zdůraznila, že se necítí vinná.

Peterboroughská policejní služba však po šetření v úterý Traillovou zatkla a vznesla obvinění z dvou paragrafů o vyhrožování. Policie nepotvrdila, zda bylo prokázáno, že zpráva nebyla generována AI, ale jejich rozhodnutí naznačuje, že považují Traillovou za odpovědnou. Traill je radní v Peterboroughu, městě s asi 80 tisíci obyvateli, a její web corinnatraill.ca prezentuje ji jako zkušenou komunální političku. Případ přitáhl pozornost médií jako Fox News, které ho spojují s širšími riziky AI v politice a každodenním životě.

Proč je to důležité

Tento incident ilustruje praktické zneužití deepfake audio technologií, které jsou dnes dostupné i amatérům prostřednictvím webových služeb za nízkou cenu. AI modely pro syntézu hlasu, trénované na velkých datech jako Common Voice nebo LibriSpeech, dokážou napodobit intonaci a akcent s přesností přes 90 procent, což ztěžuje detekci. Pro průmysl to znamená rostoucí tlak na vývoj detekčních nástrojů, jako jsou vodoznaky v audio (např. od OpenAI nebo Google) nebo forenzní analýzy spektra hlasu.

V širším kontextu posiluje debatu o regulaci AI: Kanada, podobně jako EU s AI Actem, zvažuje přísnější pravidla pro generativní modely. Pro uživatele to představuje riziko osobního bezpečí – hlasové deepfakes lze použít nejen k vyhrožování, ale i k podvodům nebo dezinformacím v kampaních. Případ Traillové ukazuje, že obhajoba “byl to AI” nemusí vždy obstát u soudu, což může odradit od pokusů o anonymní zneužití, ale zároveň zdůrazňuje nutnost lepšího vzdělávání o těchto technologiích. Celkově přispívá k diskuzi o etice AI v politice, kde takové nástroje mohou narušit důvěru ve veřejné instituce.


Číst původní článek

Zdroj: 📰 Fox News