Souhrn
YouTube od 21. října 2025 zpřístupňuje vybraným tvůrcům v Partner Program nový AI nástroj nazvaný Likeness Detection, který automaticky vyhledává videa obsahující neoprávněně vytvořené deepfake záběry s jejich tváří. Tvůrci mohou podezřelá videa po ověření identity přímo nahlásit k odstranění prostřednictvím YouTube Studio.
Klíčové body
- Nástroj Likeness Detection je dostupný od 21. října 2025 pro první vlnu tvůrců z YouTube Partner Program, další budou následovat v příštích měsících
- Funguje podobně jako systém Content ID pro detekci autorských práv, ale zaměřuje se na AI-generovanou podobu tváří
- Tvůrci musí nejprve ověřit svou identitu, poté mohou v záložce Content Detection v YouTube Studio kontrolovat označená videa
- Technologie byla testována od prosince 2024 v pilotním programu s talenty zastoupenými agenturou Creative Artists Agency (CAA)
- YouTube upozorňuje, že nástroj v současné vývojové fázi může označit i legitimní videa obsahující skutečnou tvář tvůrce
Podrobnosti
Nový nástroj představuje rozšíření YouTube do oblasti ochrany digitální identity tvůrců obsahu. Po přihlášení do systému a ověření totožnosti mohou tvůrci přistupovat k nové záložce Content Detection v administračním rozhraní YouTube Studio. Zde jim systém zobrazuje videa, která jeho AI algoritmy identifikovaly jako potenciálně obsahující synteticky vytvořenou podobu jejich tváře.
Pokud tvůrce po kontrole vyhodnotí video jako neoprávněné použití své podoby vytvořené pomocí AI, může přímo odeslat žádost o jeho odstranění. Tento proces je navržen tak, aby umožnil správu takového obsahu “ve velkém měřítku”, jak YouTube uvádí ve svých materiálech.
Technologie staví na podobných principech jako dlouhodobě používaný systém Content ID, který automaticky detekuje neoprávněné použití chráněného audio a video obsahu. Zatímco Content ID porovnává digitální otisky souborů, Likeness Detection analyzuje vizuální charakteristiky tváří a jejich potenciální AI manipulaci.
YouTube v průvodci pro první uživatele upozorňuje na omezení současné verze nástroje. Systém může označit i videa obsahující skutečnou, nemanipulovanou tvář tvůrce, včetně úryvků z jejich vlastního obsahu. Toto varování naznačuje, že technologie je stále ve fázi vývoje a vyžaduje lidskou kontrolu před jakýmkoli zásahem.
První testování proběhlo od prosince 2024 s vybranými osobnostmi zastoupenými talentovou agenturou CAA. Tato spolupráce umožnila YouTube otestovat technologii na profilech známých osobností, které čelí nejvyššímu riziku zneužití své podoby v deepfake obsahu.
Proč je to důležité
Spuštění nástroje Likeness Detection představuje významný krok v boji proti šíření deepfake obsahu na největší video platformě světa. S rostoucí dostupností AI nástrojů pro generování realistických deepfake videí čelí tvůrci obsahu i celebrity zvýšenému riziku zneužití jejich podoby pro dezinformace, podvody nebo poškození reputace.
YouTube jako dominantní video platforma s více než 2 miliardami uživatelů měsíčně se tak staví do role aktivního strážce digitální identity. Nástroj však zatím cílí pouze na tvůrce v Partner Program, což jsou kanály splňující určité požadavky na počet odběratelů a sledovanost. Běžní uživatelé tak zůstávají bez této ochrany.
Implementace podobné technologie velkými platformami může nastavit standard pro celý průmysl a vytvořit tlak na další sociální sítě, aby zavedly srovnatelné ochranné mechanismy. Zároveň otevírá otázky ohledně přesnosti detekce, možných falešných pozitivních výsledků a potenciálního zneužití pro cenzuru legitimního obsahu.
Zdroj: ⚡ The Verge
|