Souhrn
Společnost Flock, specializující se na kamery s automatickým čtením poznávacích značek a dohledové systémy poháněné AI, využívá pracovníky z platformy Upwork převážně ze zahraničí k trénování svých algoritmů strojového učení. Ti označují a kategorizují footage z kamer rozmístěných v USA, včetně identifikace vozidel, lidí a dokonce audio signálů jako křik. Tato praxe, odhalená náhodně exponovanými materiály, zvyšuje obavy z toho, kdo má přístup k údajům o pohybu obyvatel USA.
Klíčové body
- Flock najímá pracovníky z Upworku k anotacím videí, včetně kategorizace typů vozidel, barev, transkripce SPZ a audio úkolů jako detekce křiku.
- Jejich kamery jsou rozšířené v tisících amerických komunit, používané policií pro vyšetřování krádeží aut a i pro ICE (Imigrační a celní službu).
- Algoritmy detekují nejen SPZ a vozidla, ale i lidi včetně oblečení a podle patentu i rasu.
- Pracovníci někdy dokončují tisíce anotací za dva dny, což ukazuje na intenzivní využití levné pracovní síly.
- Exponovaný panel odhalil seznam anotátorů a statistiky úkolů.
Podrobnosti
Flock je americká firma, jejíž kamery s automatickým čtením poznávacích značek (automatic license plate readers, ALPR) a AI analýzou jsou instalovány v tisících lokalit po USA. Tyto systémy neustále monitorují veřejné prostory, zachycují pohyb vozidel a chodců, a slouží policiím k rychlému vyhledávání podezřelých aut při zločinech jako carjacking. Podle zprávy 404 Media, založené na náhodně exponovaných tréninkových materiálech, Flock outsourcuje anotace dat pracovníkům z Upworku, freelancové platformy, kde dominují uživatelé z rozvojových zemí kvůli nižším mezdám.
Anotace slouží k trénování modelů strojového učení (machine learning, ML), které automaticky rozpoznávají SPZ, typy vozidel (značka, barva, model), lidi včetně oblečení a dokonce audio prvky. Nedávno Flock propaguje funkci detekce “křiku”, což umožňuje identifikovat nouzové situace na základě zvuku. Patent firmy navíc zmiňuje detekci rasy, což přidává další vrstvu kontroverze ohledně možného rasového profilování. Exponovaný administrační panel ukazoval statistiky jako počet dokončených anotací (tisíce za den) a frontu zbývajících úkolů, včetně seznamu anotátorů.
Toto není ojedinělé – mnoho AI firem využívá globální pracovní sílu pro levný labeling dat, ale u Flocku jde o extrémně citlivá data: soukromé pohyby milionů Američanů. Policie provádí vyhledávání i pro ICE, což zahrnuje imigrační kontroly. Otázka zní, zda mají zahraniční pracovníci bezpečnostní prověrky a kde přesně sílí – materiály naznačují USA-specifická videa.
Proč je to důležité
Tato praxe odhaluje slabiny v řetězci dohledových technologií: levný outsourcing může vést k únikům dat nebo zneužití, zejména když jde o masivní sběr biometrických a lokálních údajů. V kontextu šířícího se dohledového AI (jako Clearview AI nebo podobné systémy) to zdůrazňuje potřebu regulací – kdo kontroluje, kdo vidí footage? Pro průmysl to znamená riziko reputačních ztrát a soudních sporů o soukromí (např. podle GDPR analogií v USA). Pro uživatele to připomíná, že veřejné kamery nejsou anonymní; AI trénink na reálných lidech bez souhlasu posiluje debatu o etice ML a nutnosti transparentnosti v datech.
Zdroj: 📰 Slashdot.org
|