📰 TheJournal.ie

Factfind: Kdo, pokud vůbec někdo, může být právně odpovědný za obrázky zneužívání na Grok a X?

Factfind: Kdo, pokud vůbec někdo, může být právně odpovědný za obrázky zneužívání na Grok a X?

Souhrn

Skandál s AI-generovanými nekonzistentními obrázky reálných lidí, včetně žen a dětí, na platformách Grok a X vyvolal politické odsouzení. Po zavedení funkce editování obrázků v prosinci na Grok se objevily vyrobené snímky dětí v plavkách a explicitně sexuální nebo násilné obrazy žen. Autorita vyjádřily nejasné a protichůdné stanoviska k trestným činům a odpovědnosti.

Klíčové body

  • Zavedení tlačítka pro editaci obrázků na Grok umožnilo masivní generování nevhodného obsahu na X.
  • Obrázky zahrnují nekonzistentní sexuální a násilné motivy s reálnými osobami, včetně dětí.
  • Právní autority neupřesňují konkrétní trestné činy ani odpovědné subjekty.
  • Skandál zdůrazňuje mezery v regulaci AI-generovaného obsahu.
  • Platformy Grok (xAI) a X (dříve Twitter) čelí veřejnému tlaku.

Podrobnosti

Grok je AI nástroj vyvinutý společností xAI Elona Muska, který slouží k generování textu i obrázků na základě uživatelských požadavků. V prosinci 2025 přidali funkci edit button, umožňující uživatelům upravovat generované obrázky přímo v rozhraní. Tato změna vedla k explozivnímu nárůstu nevhodného obsahu na sociální síti X, kde uživatelé sdíleli AI-vytvořené snímky dětí v bikinis, žen v explicitně sexuálních scénářích nebo dokonce s prvky násilí. Tyto obrázky nejsou pouze fikcí – často zobrazují reálné osoby bez jejich souhlasu, což zvyšuje etické a právní rizika.

Právní rámec je komplikovaný. V Evropě a USA neexistuje jednotná regulace pro AI-generovaný obsah. V Irsku, kde článek vychází, platí zákony proti dětské pornografii (Criminal Law (Sexual Offences) Act 2017), které trestají distribuci jakéhokoli realistického zobrazení sexuálního zneužívání dětí, včetně virtuálních obrázků. Nicméně odpovědnost za platformy jako X je omezena sekcí 230 Communications Decency Act v USA, která chrání poskytovatele před odpovědností za uživatelský obsah. Grok jako AI model spadá pod výjimky, ale xAI by mohlo čelit žalobám za nedostatečné bezpečnostní mechanismy, jako je absence filtrů proti deepfake pornografii.

Irské úřady, včetně Gardaí a Data Protection Commission, zatím neuvedly konkrétní obvinění. Politici volají po rychlejší implementaci EU AI Act, který od srpna 2025 klasifikuje high-risk AI systémy (jako generátory obrázků) a vyžaduje transparentnost a bezpečnostní testy. V USA trvá debata o DEFIANCE Act, který by umožnil obětem deepfake pornografie žalovat tvůrce. Pro uživatele to znamená riziko expozice osobních dat v trénovacích datech AI, zatímco pro průmysl to signalizuje nutnost investic do watermarkingu (viditelných značek na AI obsahu) a content moderation.

Proč je to důležité

Tento incident odhaluje slabiny současné regulace AI, kde rychlý vývoj funkcí jako edit button na Grok překonává právní rámce. Pro širší ekosystém AI to znamená rostoucí tlak na povinné bezpečnostní vrstvy v modelech jako Grok, Midjourney nebo DALL-E, aby se zabránilo masovému zneužití. Bez jasné odpovědnosti (platformy vs. uživatelé vs. tvůrci AI) hrozí erozí důvěry v technologie a další skandály, což ovlivní adopci AI v komerčním sektoru. V kontextu EU AI Act to urychlí sankce pro nekompatibilní systémy, zatímco v USA posílí volání po reformě sekce 230. Dlouhodobě to donutí firmy jako xAI integrovat robustní detekci nevhodného obsahu přímo do modelů.


Číst původní článek

Zdroj: 📰 TheJournal.ie

Číst původní článek
Původní název: Factfind: Who, if anyone, can be held legally responsible for abuse images on Grok and X?