📰 Nextbigwhat.com

Platforma X Elona Muska zpřístupňuje AI nástroje pro odstranění oblečení

Platforma X Elona Muska zpřístupňuje AI nástroje pro odstranění oblečení

Souhrn

Platforma X vlastněná Elonem Muskem prostřednictvím iniciativy Grok zpřístupňuje umělou inteligenci určenou k odstranění oblečení z fotografií. Tato technologie, dosud omezená na placené služby v temných segmentech sítě, se nyní stává mainstreamovou. Novinka provokuje debatu o rizicích digitálního zneužití a nedostatku souhlasu.

Klíčové body

  • Grok od xAI integruje nástroje pro generování obrázků bez oblečení na základě vstupních fotografií.
  • Přechod z placených, skrytých služeb k veřejné dostupnosti na platformě X.
  • Etické rizika: porušení soukromí, tvorba non-konsensuálních deepfakeů a potenciál pro šíření pomsty.
  • Kontext: podobné AI modely fungují na principu difuzních modelů, jako Stable Diffusion s fine-tuningem na NSFW data.
  • Platforma X tak rozšiřuje své AI schopnosti za hranice běžného chatbota.

Podrobnosti

Iniciativa Grok, vyvinutá společností xAI Elona Muska, představuje rozšíření chatbotu Grok o pokročilé obrazové zpracování. Tyto AI nástroje berou za vstup běžnou fotografii člověka a generují verzi, kde je oblečení odstraněno, což odhaluje tělo v realistickém podání. Technicky se opírají o generativní modely umělé inteligence, především difuzní modely trénované na velkém množství obrázků, které umožňují inverzi a rekostrukci tělesných detailů. Například podobné open-source řešení jako Undress.app nebo Nudify.online fungovaly již dříve, ale vyžadovaly platbu a byly hostovány na méně regulovaných serverech.

Platforma X, dříve Twitter, nyní tyto funkce integruje přímo do svého ekosystému, což znamená, že uživatelé mohou nahrávat obrázky a získat upravenou verzi bez dalších instalací. Grok slouží původně jako konverzační AI s přístupem k datům z X, ale toto rozšíření přidává multimodální schopnosti – zpracování a generování obrázků. Pro uživatele to znamená snadný přístup k nástroji, který lze použít na libovolný obrázek, včetně veřejných fotografií celebrit nebo soukromých známých. V praxi to zahrnuje kroky jako nahrávání JPEG/PNG souboru, automatické detekci postavy a výstup v podobném formátu.

Tento krok přichází v době, kdy regulace AI deepfakeů roste – například v Evropě podle AI Act nebo v USA návrhy na označování syntetického obsahu. xAI, zaměřená na vývoj velkých jazykových modelů (LLM) a multimodálních systémů, tak riskuje kritiku za prioritu volnosti před bezpečností. Dříve podobné nástroje vedly k žalobám, jako případ DeepNude v roce 2019, který byl rychle stažen.

Proč je to důležité

Zpřístupnění těchto nástrojů na masivní platformě jako X s miliardami uživatelů dramaticky zvyšuje riziko zneužití. Non-konsensuální obrázky mohou sloužit k šíření pomstychtivého porna, obtěžování nebo dezinformacím, což ohrožuje zejména ženy a veřejné osobnosti. V širším kontextu to urychluje debatu o etických hranicích AI: zatímco modely jako Grok-1 nebo Grok-2 excelují v kreativitě, absence vestavěných filtrů (jako u DALL-E nebo Midjourney) vede k proliferaci škodlivého obsahu. Pro průmysl to znamená tlak na standardy – společnosti jako OpenAI nebo Google zavádějí striktní bezpečnostní vrstvy, zatímco xAI zdůrazňuje „maximální pravdu“ na úkor omezení. Dlouhodobě to může vést k legislativním změnám, které omezí volný vývoj AI, a ovlivnit konkurenci mezi giganty jako Meta, Anthropic nebo xAI. Celkově to podtrhuje nutnost vyváženého přístupu k inovacím v umělé inteligenci.


Číst původní článek

Zdroj: 📰 Nextbigwhat.com