Souhrn
Americká telekomunikační společnost Securus Technologies, která poskytuje telefonní a video volání ve věznicích, trénuje proprietární AI modely na nahrávkách konverzací vězňů. Tyto modely slouží k detekci plánování trestné činnosti v reálném čase. Kritici poukazují na etické problémy, protože souhlas s nahráváním je považován za nucený kvůli absenci alternativ komunikace s rodinou.
Klíčové body
- Securus Technologies shromažďuje data z telefonních a video hovorů z místních věznic, státních zařízení a center pro imigrační služby.
- AI modely jsou přizpůsobené lokálním podmínkám, například jeden model trénovaný na sedmi letech dat z texaských věznic.
- Modely detekují myšlenky o zločinech brzy v cyklu plánování pomocí large language models (LLM).
- Uživatelé jsou upozorněni na nahrávání, ale aktivisté to označují za „nucený souhlas“.
- Systém zahrnuje rozpoznávání hlasu vězňů, jejich rodin, přátel i právníků.
Podrobnosti
Securus Technologies, firma podpořená private equity a specializující se na telekomunikační služby pro americké vězeňské zařízení, vyvíjí AI od roku 2023, ale disponuje archivy nahrávek starými mnoho let. Podle zprávy MIT Technology Review zahrnují data hovory z různých zařízení, včetně místních věznic, dlouhodobých státních vězení a center Immigrations and Customs Enforcement. Prezident firmy Kevin Elder uvedl, že modely jsou navrženy pro detekci „kriminální aktivity“ v reálném čase. Například jeden model byl trénován na sedmi letech telefonátů vězňů v texaských státních věznicích, což naznačuje lokální přizpůsobení na specifické podmínky daného státu nebo regionu.
Elder popsal, jak large language model (LLM) analyzuje obrovské množství dat k identifikaci raných signálů plánování zločinů: „Můžeme namířit tento velký jazykový model na celé pokladnici dat, abychom detekovali a pochopili, kdy se zločiny plánují, a chytit to mnohem dříve v cyklu.“ Tato technologie navazuje na dřívější testy rozpoznávání hlasu, které John Dukes, bývalý vězeň z newyorské věznice Sing Sing, zažil již v roce 2019. Tehdy řekl pro The Intercept: „Znovu musím odevzdat část sebe sama vězeňskému systému.“ Dnes je systém pokročilejší díky AI, umožňuje rozpoznávání hlasu nejen vězňů před i po soudu, ale i jejich rodin, přátel a právníků.
Bianca Tylek z organizace Worth Rises, která obhajuje práva vězňů, označila upozornění na nahrávání za „nucený souhlas“. Vězni a jejich blízcí nemají reálnou alternativu k komunikaci, což zpochybňuje dobrovolnost. Firma Securus dominuje trhu s vězeňskými telefony, kde ceny volání bývají vysoké, což zvyšuje etické obavy o zneužití dat. Zatímco AI zlepšuje bezpečnost v zařízeních tím, že pomáhá prevenci zločinů zvenčí, otevírá dveře k masovému sledování soukromých konverzací bez adekvátního dohledu.
Proč je to důležité
Tento případ ilustruje rizika trénování AI na citlivých datech bez široké veřejné debaty. V širším kontextu AI etiky posiluje obavy z privacy, zejména u zranitelných skupin, kde souhlas není skutečně svobodný. Pro průmysl to znamená rostoucí tlak na regulace dat v uzavřených prostředích, jako jsou věznice, kde AI může být nástrojem kontroly, ale i zdrojem diskriminace při rozpoznávání hlasu. V USA, kde je Securus jedním z hlavních poskytovatelů, by to mohlo vést k soudním sporům o použití dat k trénování modelů, podobně jako u jiných případů zneužití nahrávek. Pro uživatele mimo vězeňský systém to upozorňuje na potenciál podobných praktik v jiných oblastech, kde firmy sbírají data pod záminkou služeb.
Zdroj: 📰 Futurism
|