Souhrn
Kanadská rada města Corinna Traill z Ontaria byla v pondělí zatčena a obviněna z vyhrožování po tom, co údajně nechala bývalému kandidátovi na starostu Toma Dingwalla hlasovou zprávu s hrozbami zabití a sexuálního napadení jeho manželky. Traill původně tvrdila, že zprávu generovala umělá inteligence pomocí jejího hlasu, ale policie případ prověřila jako skutečné vyhrožování. Incident se odehrál v srpnu loňského roku a ukazuje na rostoucí rizika deepfake technologií v kriminálních kontextech.
Klíčové body
- Traill byla zatčena (středa, podle policejní zprávy) a obviněna z dvou skutků vyhrožování podle kanadského trestního zákoníku.
- V hlasové zprávě Dingwallovi vyhrožovala, že přijde do jeho domu, zabije ho a sexuálně napadne jeho manželku dvakrát, pokud nebude stáhnout kandidaturu ve prospěch její přítelkyně.
- Traill na Facebooku popřela autorství a tvrdila, že části zprávy byly uměle generovány AI z jejího hlasu, zatímco její tým pátral po viníkovi.
- Dingwall veřejně vyzval k její rezignaci a zdůraznil, že žádný volený představitel by neměl používat zastrašování.
- Případ řeší Peterboroughská policejní služba v Ontariu.
Podrobnosti
Případ se týká události z srpna 2023, kdy Tom Dingwall, bývalý kandidát na starostu v Peterboroughu v kanadské provincii Ontario, obdržel hlasovou zprávu od místní rady města Corinny Traill. V zprávě ho Traill vyzvala, aby nestartoval v komunálních volbách, aby mohla kandidovat její přítelkyně bez konkurence. Pokud by tak neučinil, hrozila mu smrtí a opakovaným sexuálním napadením jeho manželky. Dingwall incident zveřejnil na Facebooku v září 2023 a okamžitě vyzval Traillovou k rezignaci, argumentuje, že volení představitelé financovaní z veřejných prostředků nesmí zastrašovat občany kvůli politickým zájmům.
Traill reagovala vlastním prohlášením na sociální síti, kde popřela, že by zprávu sama vytvořila. Tvrdila, že jde o produkt umělé inteligence: části obsahovaly její skutečný hlas, ale zbytek byl syntetizován AI nástroji, které dokážou klonovat hlas na základě krátkých ukázek. Tyto nástroje, jako například ElevenLabs nebo Respeecher, slouží primárně k tvorbě voiceoverů pro média, ale lze je zneužít k deepfake audio, které zní autenticky. Traill uvedla, že její tým vyšetřuje, kdo za útokem stojí, a zdůraznila, že se necítí vinná.
Peterboroughská policejní služba však po šetření v úterý Traillovou zatkla a vznesla obvinění z dvou paragrafů o vyhrožování. Policie nepotvrdila, zda bylo prokázáno, že zpráva nebyla generována AI, ale jejich rozhodnutí naznačuje, že považují Traillovou za odpovědnou. Traill je radní v Peterboroughu, městě s asi 80 tisíci obyvateli, a její web corinnatraill.ca prezentuje ji jako zkušenou komunální političku. Případ přitáhl pozornost médií jako Fox News, které ho spojují s širšími riziky AI v politice a každodenním životě.
Proč je to důležité
Tento incident ilustruje praktické zneužití deepfake audio technologií, které jsou dnes dostupné i amatérům prostřednictvím webových služeb za nízkou cenu. AI modely pro syntézu hlasu, trénované na velkých datech jako Common Voice nebo LibriSpeech, dokážou napodobit intonaci a akcent s přesností přes 90 procent, což ztěžuje detekci. Pro průmysl to znamená rostoucí tlak na vývoj detekčních nástrojů, jako jsou vodoznaky v audio (např. od OpenAI nebo Google) nebo forenzní analýzy spektra hlasu.
V širším kontextu posiluje debatu o regulaci AI: Kanada, podobně jako EU s AI Actem, zvažuje přísnější pravidla pro generativní modely. Pro uživatele to představuje riziko osobního bezpečí – hlasové deepfakes lze použít nejen k vyhrožování, ale i k podvodům nebo dezinformacím v kampaních. Případ Traillové ukazuje, že obhajoba “byl to AI” nemusí vždy obstát u soudu, což může odradit od pokusů o anonymní zneužití, ale zároveň zdůrazňuje nutnost lepšího vzdělávání o těchto technologiích. Celkově přispívá k diskuzi o etice AI v politice, kde takové nástroje mohou narušit důvěru ve veřejné instituce.
Zdroj: 📰 Fox News
|