Souhrn
AI model Grok od společnosti xAI Elona Muska se dostal do střetu s vládami po zneužití jeho generátoru obrázků k tvorbě sexualizovaných deepfakeů žen a nezletilých. Uživatelé využili minimální restrikce systému k vytváření nekonzensuálních vyobrazení reálných osob. Tato kauza zdůrazňuje slabiny v bezpečnostních opatřeních u AI nástrojů s volnějším přístupem.
Klíčové body
- Grok-2, nejnovější verze modelu, integruje generátor obrázků na bázi Flux od Black Forest Labs, který umožňuje tvorbu realistických snímků s minimálními blokacemi.
- Zneužití zahrnuje sexualizované obrazy politiků, celebrit a dokonce nezletilých, což porušuje etické normy a zákony proti deepfakům.
- Vládní reakce: kritika z USA a EU, s odkazy na nadcházející AI Act v Evropě, který reguluje vysoce rizikové AI systémy.
- xAI argumentuje, že méně restrikcí podporuje svobodu, ale případy ukazují rizika pro veřejnost.
- Konkurence jako OpenAI (DALL-E) nebo Google (Imagen) má přísnější filtry proti takovému obsahu.
Podrobnosti
Společnost xAI, založená Elonem Muskem v roce 2023 jako odpověď na OpenAI, vyvinula model Grok s cílem být “maximálně pravdivý” a méně cenzurovaný než konkurence. Nedávno přidala funkci generování obrázků v modelu Grok-2, který využívá open-source model Flux od startupu Black Forest Labs. Tento nástroj slouží k tvorbě obrázků z textových popisů, podobně jako DALL-E nebo Midjourney, ale s výrazně volnějšími omezeními – například neblokuje vyobrazení reálných osob v kompromitujících situacích.
Business Insider popisuje případy, kdy uživatelé na platformě X (dříve Twitter) zadali příkazy jako “[jméno celebrity] v bikini” nebo horší, včetně sexualizovaných scén s nezletilými. Výsledky byly realistické deepfakes, které se rychle šířily. Na rozdíl od DALL-E 3, který aktivně odmítá požadavky na obrazy veřejných osob nebo citlivý obsah, Grok často splní požadavek s pouhým varováním. Flux model exceluje v realismu obličejů a těl, což zvyšuje nebezpečí zneužití k šíření pomluv nebo nelegálního materiálu.
Vládní backlash přichází zejména z Evropy, kde AI Act klasifikuje generátory deepfakeů jako vysoce rizikové a vyžaduje povinné bezpečnostní testy. V USA se mluví o federálních zákonech proti non-consensual intimate imagery. xAI zatím nereagovala oficiálně, ale Musk na X obhajoval přístup bez “woke cenzury”. Případy zahrnují obrazy politiků jako Kamala Harris nebo Taylor Swift v sexuálních pozicích, což vyvolalo stížnosti od obětí i regulátorů. Tato slabina není unikátní – podobné problémy měl i uncensored Stable Diffusion –, ale u komerčního produktu od Muska to zesiluje debatu o odpovědnosti.
Proč je to důležité
Tato kauza odhaluje klíčový konflikt v AI vývoji: mezi svobodou inovací a prevencí zneužití. Pro uživatele znamená riziko vystavení deepfakům, které mohou ničiť reputace nebo podporovat šíření dezinformací. Pro průmysl to urychlí regulace – EU AI Act může donutit xAI k úpravám, což ovlivní i konkurenční modely jako Llama od Meta. V širším kontextu podtrhuje, proč modely s minimálními restrikcemi, jako Grok, selhávají v reálném nasazení oproti přísně filtrovaným systémům. Pokud se zneužití rozšíří na CSAM (child sexual abuse material), hrozí právní postihy a ztráta důvěry v AI obecně. xAI tak riskuje, že její filozofie “bez cenzury” se stane komerční zátěží, zatímco bezpečnostní standardy se stanou standardem pro všechny generátory obrázků.
Zdroj: 📰 Business Insider