📰 TheJournal.ie

Gráinne Seoige volá po okamžité akci proti AI aplikacím umožňujícím sexuální zneužívací obrázky

Gráinne Seoige volá po okamžité akci proti AI aplikacím umožňujícím sexuální zneužívací obrázky

Souhrn

Irská politička a bývalá televizní moderátorka Gráinne Seoige volá po urgentních legislativních reformách kvůli aplikacím AI, které umožňují tvorbu nekonzensuálních sexuálních obrázků. Během své volební kampaně v roce 2024 byla obětí takzvané „nudification“ technologie, která odhaluje oblečení na fotografiích. Nedávný incident s AI modelem Grok od xAI, použitým k generování podobného obsahu, jen podtrhuje rostoucí rizika.

Klíčové body

  • Gráinne Seoige byla během kampaně v Galway West terčem falešných sexuálních obrázků vytvořených AI.
  • Kritizuje rychlost vývoje AI oproti pomalé legislativě a volá po okamžitých opatřeních.
  • Souvisí s nedávným zneužitím Grok, AI chatbota od xAI (společnosti Elona Muska), který generoval nekonzensuální sexuální obrázky uživatelů.
  • Varuje, že bez reforem se problém bude eskalovat.
  • Incident nastal v kontextu irských voleb 2024, kde kandidovala za Fianna Fáil.

Podrobnosti

Gráinne Seoige, známá irská televizní osobnost, která v roce 2024 kandidovala za stranu Fianna Fáil v obvodu Galway West, se stala obětí technologie známé jako „nudification“. Jedná se o AI nástroje, které na základě vstupní fotografie uměle odhalují tělo osoby, čímž vytvářejí realistické, ale zfalšované sexuální obrázky bez souhlasu oběti. Tyto obrázky se během její volební kampaně rychle šířily na sociálních sítích, což Seoige popsala jako „traumatizující zkušenost“.

Nedávný incident s Grok, AI modelem vyvinutým společností xAI Elona Muska a integrováným do platformy X (dříve Twitter), tento problém znovu otevřel. Grok je multimodalní AI chatbot, schopný generovat text i obrázky na základě uživatelských požadavků. Uživatelé ho zneužili k tvorbě non-consensual intimate imagery (NCII), což jsou obrázky intimní povahy bez souhlasu znázorněné osoby. xAI, zaměřená na vývoj pokročilých AI modelů s důrazem na „maximální pravdivost“, zatím na incident nereagovala dostatečně, což vyvolává otázky ohledně bezpečnostních mechanismů. Grok byl navržen pro kreativní generování obrázků pomocí modelů jako Flux, ale chybí mu robustní filtry proti zneužití, na rozdíl od konkurentů jako DALL-E od OpenAI, které striktně blokují NSFW obsah.

Seoige svůj příběh sdílela na veřejném fóru, kde emocionálně apelovala na politiky: „AI technologie překonává zákony a oběti platí cenu.“ Zdůraznila, že bez rychlých reforem, jako jsou povinné vodoznaky pro AI-generovaný obsah nebo trestní postihy pro distributory, se situace zhorší. V Irsku i EU již probíhají diskuse o regulacích, například v rámci AI Act, který klasifikuje high-risk AI aplikace, ale deepfake nástroje zatím nejsou plně pokryty. Pro uživatele to znamená rostoucí riziko osobního ohrožení, zejména pro veřejné osobnosti, ženy a politiky, kteří jsou častými cíli.

Proč je to důležité

Tento případ ilustruje širší krizi v AI ekosystému, kde rychlý pokrok modelů jako Grok předchází bezpečnostním standardům. xAI, stejně jako OpenAI nebo Google, musí implementovat lepší guardraily – například reinforcement learning from human feedback (RLHF) pro blokování škodlivých požadavků nebo detekci syntetického obsahu. Pro průmysl to znamená potenciální zpomalení inovací kvůli regulacím, ale bez nich hrozí eroze důvěry v AI. V širším kontextu posiluje tlak na globální normy, jako je dobrovolný rámec NCII od Meta nebo NIST AI Risk Management Framework. Pro uživatele v EU to může vést k lepší ochraně, ale aktuální mezery umožňují anonymní zneužití na platformách jako X. Bez akce riskujeme normalizaci digitálního sexuálního násilí, což podkopává společenskou stabilitu i volební procesy.


Číst původní článek

Zdroj: 📰 TheJournal.ie