Souhrn
Minulý týden vyhráli odborem pojištění novináři v Politico, americkém zpravodajském portálu, významný spor v arbitráži o zavádění umělé inteligence (AI). Arbitr v rozhodnutí ze 26. listopadu shledal, že management porušil klauzule kolektivní smlouvy, které stanovují 60denní lhůtu na vyjednávání o AI ovlivňujícím pracovní povinnosti a vyžadují etické standardy s lidským dohledem pro AI v novinářské práci. Toto rozhodnutí představuje jeden z prvních velkých testů takových ustanovení v odborových smlouvách.
Klíčové body
- Management Politico zaváděl dva AI nástroje pro redakční účely bez 60denní lhůty na vyjednávání s odbory.
- AI nástroje použité pro sběr zpráv nesplňovaly požadavky na žurnalistickou etiku a chyběl u nich lidský dohled.
- Arbitr zdůraznil, že AI zvyšuje rychlost na úkor přesnosti a odpovědnosti oproti lidské práci.
- NewsGuild-CWA, největší americký odbor novinářů, má v 43 kolektivních smlouvách ustanovení o AI.
- Rozhodnutí bylo zveřejněno 1. prosince 2025 a analyzováno portálem Nieman Lab.
Podrobnosti
Politico, specializující se na politické zpravodajství ve Washingtonu, má kolektivní smlouvu s odborem NewsGuild-CWA, která obsahuje specifická omezení pro zavádění AI. Podle ní musí management poskytnout odbory 60 dní na vyjednávání o jakékoli nové AI technologii, která “materiálně a podstatně” ovlivňuje pracovní povinnosti členů. Dále, pokud AI slouží k “sběru zpráv” (newsgathering), musí splňovat standardy žurnalistické etiky Politico a zahrnovat lidský dohled. Arbitr v rozhodnutí, které zveřejnil Nieman Lab, jednoznačně konstatoval porušení obou těchto ustanovení při zavádění dvou nedávných AI nástrojů pro redakční procesy. Tyto nástroje, určené pro zpracování a generování obsahu, byly nasazeny bez předchozí konzultace, což vedlo k arbitráži.
Arbitr citoval: “Pokud je cílem rychlost a cenou přesnost a odpovědnost, AI jasně vítězí. Pokud je přesnost a odpovědnost základnou, pak AI, jak bylo použito v těchto případech, dosud nemůže konkurovat znakům lidského výstupu.” Tento závěr odráží běžné rizika AI v žurnalistice, kde modely jako velké jazykové modely (LLM) generují text rychle, ale často s halucinacemi – vymýšlenými fakty – nebo zkreslenými informacemi z trénovacích dat. V praxi to znamená, že AI může sloužit k sumarizaci zpráv nebo generování návrhů, ale bez lidského ověření hrozí šíření dezinformací. NewsGuild-CWA, založený v roce 1933 a reprezentující tisíce novinářů, začal do smluv zahrnovat AI klauzule od roku 2023 v reakci na rostoucí tlak médií na automatizaci. K září 2025 jich bylo 43, což ukazuje na šířící se trend v americkém mediálním průmyslu.
Proč je to důležité
Rozhodnutí vytváří precedent pro odbory v médiích, kde AI rychle mění pracovní postupy – od automatizovaného psaní článků po analýzu dat. Pro průmysl znamená posílení vyjednávací pozice zaměstnanců proti unáhlenému nasazení AI, což chrání kvalitu žurnalistiky před komerčním tlakem na efektivitu. V širším kontextu AI ekosystému podtrhuje nutnost regulací pracovních dopadů, podobně jako v Evropě s AI Actem, který vyžaduje transparentnost u vysoce rizikových systémů. Pro uživatele médií to znamená potenciálně vyšší důvěryhodnost obsahu, protože vynucuje lidský dohled a etické kontroly. Nicméně kriticky: odbory musí specifikovat, jaké AI nástroje (např. pro transkripci nebo sumarizaci) jsou přijatelné, aby nezpůsobily stagnaci inovací.
Zdroj: 📰 Niemanlab.org
|