← Zpět na Tech News
Tento článek je z archivu. Byl publikován 09.12.2025.
📰 Biztoc.com

Videá generovaná umělou inteligencí zaplavila sociální sítě. Nikdo nebyl připravený

Videá generovaná umělou inteligencí zaplavila sociální sítě. Nikdo nebyl připravený

Souhrn

Videá generovaná umělou inteligencí, především pomocí modelů jako OpenAI Sora, masivně zaplavila sociální sítě jako TikTok, Instagram a YouTube Shorts. Tento fenomén, označovaný jako „AI slop“, přinesl obrovské množství nekvalitního nebo zavádějícího obsahu, na který platformy ani uživatelé nebyli připraveni. Článek New York Times popisuje, jak se realistická videa stala běžnou součástí feedů, což zvyšuje rizika dezinformací a erozi důvěry.

Klíčové body

  • Modely jako OpenAI Sora umožňují tvorbu realistických videí z textových popisů, což usnadňuje masovou produkci obsahu.
  • Sociální sítě jsou zaplaveny krátkými klipy s AI-generovanými obrazy lidí, zvířat nebo událostí, často bez označení.
  • Platformy jako TikTok zavádějí nástroje pro detekci AI obsahu, ale jejich účinnost je nízká.
  • Uživatelé a tvůrci tradičního obsahu čelí poklesu viditelnosti kvůli levnému AI konkurenci.
  • Experti varují před růstem dezinformací, zejména v kontextu voleb nebo krizí.

Podrobnosti

OpenAI Sora, model pro generování videí vydaný v únoru 2024, umožňuje uživatelům vytvářet až minutové klipy na základě textových příkazů, jako „žena prochází futuristickým městem“. Tento nástroj, dostupný přes ChatGPT Plus za 20 dolarů měsíčně, democratizoval tvorbu videa, ale zároveň spustil lavínu nekvalitního obsahu. Podle analýzy New York Times z prosince 2025 se na TikToku objevily miliony klipů s AI prvky, od humorných parodií po falešné zprávy o celebritách. Sora generuje videa v rozlišení až 1080p s vysokou realističností, což ztěžuje rozlišení od skutečných záběrů – například klip s „mluvícím krokodýlem v obleku“ může působit autenticky.

Další modely, jako Runway Gen-3 nebo Luma Dream Machine, přispívají k floodingu. Tyto nástroje slouží k rychlé produkci obsahu pro marketing, vzdělávání nebo zábavu, ale v rukou amatérů vedou k repetitivnímu „slopu“: nekonečné smyčky tančících postaviček nebo surrealistických scén bez hlubšího smyslu. Platformy reagují pomalu – Meta na Instagramu testuje vodoznaky pro AI obsah, zatímco TikTok používá algoritmy detekce na základě artefaktů jako nepřirozené pohyby rukou. Nicméně, podle expertů z MIT, tyto systémy mají úspěšnost kolem 70 %, což nestačí na miliardy denně nahrávaných videí.

Pro uživatele to znamená nutnost větší opatrnosti: jak odlišit deepfake od reality? Pro průmysl to ohrožuje model sociálních sítí založený na autentickém obsahu – tvůrci jako youtubers nebo influencerové hlásí pokles engagementu o 20-30 %. Navíc, v Česku i EU se objevují první případy AI videí v politické kampani, kde Sora-like nástroje slouží k fabrikaci projevů politiků.

Proč je to důležité

Tento nápor AI videí urychluje transformaci sociálních médií do prostoru, kde realita a fikce splývají, což má širší dopady na veřejné mínění a ekonomiku obsahu. V technologickém ekosystému to zdůrazňuje potřebu lepších standardů detekce a regulací – EU AI Act už vyžaduje označování high-risk AI obsahu, ale implementace zaostává. Pro AI firmy jako OpenAI to přináší tlak na zodpovědnost: bez vylepšení watermarků nebo API omezení hrozí pokles důvěry. Dlouhodobě to může vést k fragmentaci internetu, kde uživatelé budou preferovat ověřené zdroje, a posílit poptávku po pokročilých nástrojích pro autentifikaci, jako blockchain-based video certifikáty.


Číst původní článek

Zdroj: 📰 Biztoc.com

© 2025 Marigold.cz