Souhrn
V roce 2025 dosáhl objem dětské pornografie na internetu rekordní úrovně s 312 030 potvrzenými reporty podle Internet Watch Foundation (IWF), britské organizace zabývající se identifikací a odstraňováním takového materiálu. Počet AI-generovaných videí s obsahem sexuálního zneužívání dětí vzrostl z 13 na 3 440, což představuje dramatický nárůst. Tento trend zhoršuje dlouhodobý růst distribuce takového obsahu přes sociální sítě, šifrované zprávy a dark web.
Klíčové body
- Rekordních 312 030 reportů v 2025, nárůst o 7 % oproti roku 2024.
- AI-generovaná videa: 3 440 kusů, z toho přes dvě třetiny v kategorii A (nejzávažnější, zahrnující penetraci, sexuální mučení a bestialitu).
- Dalších 30 % tvoří kategorie B s nepenetračními sexuálními akty.
- AI umožňuje tvůrcům generovat materiál na míru bez nutnosti fyzického zneužívání, ale často vychází z reálných dětí.
- Očekává se další rekord v roce 2026.
Podrobnosti
Internet Watch Foundation, nezávislá britská neziskovka založená v 90. letech, monitoruje globální web a spolupracuje s policií i hostingy na mazání nelegálního obsahu. Jejich data za rok 2025 ukazují nejen celkový růst o 7 %, ale především explozivní nárůst AI-generovaného materiálu. Z 3 440 AI videí byla téměř dvě třetiny zařazena do kategorie A, což znamená nejtěžší formy zneužívání včetně penetrace, mučení a aktů se zvířaty. Tento materiál není harmless – generativní AI modely, jako ty založené na difúzních modelech (např. Stable Diffusion nebo podobné open-source varianty), jsou často trénovány na existujících databázích CSAM (child sexual abuse material), čímž perpetuují obrazy reálných obětí. Alternativně slouží k deepfake manipulacím, kde se reálné fotografie dětí z sociálních sítí kombinují s pornografickými šablonami pro vytvoření videí.
Kerry Smith, šéfka IWF, varuje, že kriminálníci nyní disponují „vlastními stroji na sexuální zneužívání dětí“, které generují libovolný obsah na příkaz. To je možné díky dostupným nástrojům: open-source modely jako Llama nebo fine-tuned verze GPT umožňují lokální generaci na běžných GPU bez cloudového dohledu. Sociální platformy jako Telegram nebo Discord s end-to-end šifrováním, stejně jako dark web fóra, usnadňují distribuci. IWF zdůrazňuje, že detekce je obtížná – AI obsah často obchází hash-based filtry jako PhotoDNA od Microsoftu, protože se liší od originálů. V USA a EU již probíhají diskuse o regulacích, např. EU AI Act klasifikuje high-risk AI aplikace, ale enforcement zůstává slabý. Pro uživatele to znamená riziko náhodného setkání s takovým obsahem i na mainstream platformách, zatímco pro průmysl to signalizuje nutnost lepších watermarků a detekčních modelů, jako je nedávno otevřený Hive Moderation.
Proč je to důležité
Tento vývoj odhaluje fundamentální slabiny generativní AI: absence robustních bezpečnostních mechanismů v open-source modelech umožňuje masovou produkci CSAM, což zvyšuje traumata obětí a komplizuje soudní procesy, protože deepfakes zpochybňují důkazy. V širším kontextu to urychluje tlak na regulace – firmy jako OpenAI a Google musí integrovat pokročilé filtry (např. SynthID pro vodoznaky), ale decentralizovaná povaha AI (lokální inference) to činí téměř nemožným. Pro ekosystém AI to znamená posun od inovací k bezpečnosti: bez systémových řešení, jako povinné audity tréninkových dat, hrozí erozí důvěry v technologii. Očekávaný rekord v 2026 podtrhuje, že současné přístupy selhávají, což může vést k globálním zákonům omezujícím přístup k AI nástrojům.
Zdroj: 📰 The Atlantic