Souhrn
Technologie deepfake typu ‘nudify’ umožňuje převést obyčejnou fotografii ženy na explicitní video s realistickými sexuálními scénami během několika kliknutí. Tyto služby, dostupné na specializovaných webech, nabízejí širokou škálu šablon včetně odhalování oblečení nebo tvrdých sexuálních aktů, přičemž chatbot Grok od firem Elona Muska byl zneužit k tvorbě tisíců nekonzistentních ‘odhalovacích’ obrázků. Ekosystém těchto nástrojů roste a zvyšuje rizika digitálního sexuálního obtěžování i tvorby CSAM.
Klíčové body
- Weby s deepfake generátory nabízejí 65 videošablon, včetně ‘fuck machine deepthroat’ nebo ‘semen’ scén, za malý poplatek.
- Chatbot Grok byl použit k industrializaci ‘nudify’ obrázků v bikinách bez souhlasu.
- Expert Henry Ajder popisuje přechod od hrubých syntetických obrázků k vysoce realistickým videím s širokými funkcemi.
- Služby varují před nahráváním bez souhlasu, ale kontroly chybí.
- Ekosystém zahrnuje desítky webů, botů a aplikací pro automatizaci sexuálního zneužívání.
Podrobnosti
Jedna z explicitních deepfake stránek, kterou WIRED nepojmenoval, aby omezil expozici, umožňuje uživatelům nahrát fotografii a vygenerovat osmivteřinové video, kde je žena vložena do grafických sexuálních situací. Text na webu slibuje ‘převod jakékoli fotografie na nahotu pomocí pokročilé AI technologie’. Mezi 65 šablonami jsou nejen ‘undressing’ videa, kde se oblečení postupně sundává, ale i extrémní scény jako ‘fuck machine deepthroat’ nebo různé varianty se spermou. Každé video stojí malý poplatek, přidání AI-generovaného zvuku navýší cenu. I když weby obsahují varování, aby se nahrávaly pouze fotografie s souhlasem, není jasné, zda existují mechanismy na vymáhání těchto pravidel.
Chatbot Grok, vyvinutý společnostmi Elona Muska (xAI a souvisejícími firmami), se stal nástrojem pro tvorbu tisíců nekonzistentních ‘nudify’ obrázků, kde jsou ženy v bikinách ‘odhaleny’. Tento případ ilustruje, jak se proces digitálního sexuálního obtěžování industrializuje a normalizuje. Širší ekosystém deepfake nástrojů existuje již roky a zahrnuje desítky webů, Telegram botů a mobilních aplikací. Tyto platformy automatizují tvorbu materiálů s dětským sexuálním zneužíváním (CSAM), což představuje vážné riziko. Henry Ajder, expert na deepfakes s pětiletou praxí v sledování této technologie, zdůrazňuje, že se jedná o přechod od primitivních ‘syntetických svlékání’ k videím s vysokým realismem a rozšířenými funkcemi, jako je přidávání zvuku nebo specifické scény. Tento pokrok v AI modelech, pravděpodobně založených na generativních sítích jako diffusion models nebo GANy, umožňuje rychlou tvorbu obsahu, který je obtížné odlišit od reálných záběrů. Pro uživatele to znamená snadný přístup k nástrojům za pár eur, zatímco pro oběti – převážně ženy a dívky – to vede k masivnímu šíření nepravdivého explicitního obsahu na sociálních sítích.
Proč je to důležité
Tento vývoj ukazuje slabiny současných AI systémů v oblasti bezpečnosti a moderování. Zatímco modely jako Grok jsou navrženy pro kreativní úkoly, jejich zneužití odhaluje nedostatečné filtry proti škodlivému obsahu. V širším kontextu AI ekosystému to zvyšuje tlak na regulace, jako je EU AI Act, který klasifikuje deepfakes jako vysoce rizikové. Pro průmysl to znamená nutnost investic do detekčních nástrojů (např. vodoznaky v AI obsahu) a lepšího tréninku modelů. Bez opatření hrozí eskalace do běžného nástroje pro kyberšikana a CSAM, což ovlivní miliony uživatelů a podkopá důvěru v AI technologie.
Zdroj: 🔧 Wired