📰 Futurism

Vězni šokováni objevem, že startup trénuje AI na jejich telefonních hovorech

Vězni šokováni objevem, že startup trénuje AI na jejich telefonních hovorech

Souhrn

Americká telekomunikační společnost Securus Technologies, která poskytuje telefonní a video volání ve věznicích, trénuje proprietární AI modely na nahrávkách konverzací vězňů. Tyto modely slouží k detekci plánování trestné činnosti v reálném čase. Kritici poukazují na etické problémy, protože souhlas s nahráváním je považován za nucený kvůli absenci alternativ komunikace s rodinou.

Klíčové body

  • Securus Technologies shromažďuje data z telefonních a video hovorů z místních věznic, státních zařízení a center pro imigrační služby.
  • AI modely jsou přizpůsobené lokálním podmínkám, například jeden model trénovaný na sedmi letech dat z texaských věznic.
  • Modely detekují myšlenky o zločinech brzy v cyklu plánování pomocí large language models (LLM).
  • Uživatelé jsou upozorněni na nahrávání, ale aktivisté to označují za „nucený souhlas“.
  • Systém zahrnuje rozpoznávání hlasu vězňů, jejich rodin, přátel i právníků.

Podrobnosti

Securus Technologies, firma podpořená private equity a specializující se na telekomunikační služby pro americké vězeňské zařízení, vyvíjí AI od roku 2023, ale disponuje archivy nahrávek starými mnoho let. Podle zprávy MIT Technology Review zahrnují data hovory z různých zařízení, včetně místních věznic, dlouhodobých státních vězení a center Immigrations and Customs Enforcement. Prezident firmy Kevin Elder uvedl, že modely jsou navrženy pro detekci „kriminální aktivity“ v reálném čase. Například jeden model byl trénován na sedmi letech telefonátů vězňů v texaských státních věznicích, což naznačuje lokální přizpůsobení na specifické podmínky daného státu nebo regionu.

Elder popsal, jak large language model (LLM) analyzuje obrovské množství dat k identifikaci raných signálů plánování zločinů: „Můžeme namířit tento velký jazykový model na celé pokladnici dat, abychom detekovali a pochopili, kdy se zločiny plánují, a chytit to mnohem dříve v cyklu.“ Tato technologie navazuje na dřívější testy rozpoznávání hlasu, které John Dukes, bývalý vězeň z newyorské věznice Sing Sing, zažil již v roce 2019. Tehdy řekl pro The Intercept: „Znovu musím odevzdat část sebe sama vězeňskému systému.“ Dnes je systém pokročilejší díky AI, umožňuje rozpoznávání hlasu nejen vězňů před i po soudu, ale i jejich rodin, přátel a právníků.

Bianca Tylek z organizace Worth Rises, která obhajuje práva vězňů, označila upozornění na nahrávání za „nucený souhlas“. Vězni a jejich blízcí nemají reálnou alternativu k komunikaci, což zpochybňuje dobrovolnost. Firma Securus dominuje trhu s vězeňskými telefony, kde ceny volání bývají vysoké, což zvyšuje etické obavy o zneužití dat. Zatímco AI zlepšuje bezpečnost v zařízeních tím, že pomáhá prevenci zločinů zvenčí, otevírá dveře k masovému sledování soukromých konverzací bez adekvátního dohledu.

Proč je to důležité

Tento případ ilustruje rizika trénování AI na citlivých datech bez široké veřejné debaty. V širším kontextu AI etiky posiluje obavy z privacy, zejména u zranitelných skupin, kde souhlas není skutečně svobodný. Pro průmysl to znamená rostoucí tlak na regulace dat v uzavřených prostředích, jako jsou věznice, kde AI může být nástrojem kontroly, ale i zdrojem diskriminace při rozpoznávání hlasu. V USA, kde je Securus jedním z hlavních poskytovatelů, by to mohlo vést k soudním sporům o použití dat k trénování modelů, podobně jako u jiných případů zneužití nahrávek. Pro uživatele mimo vězeňský systém to upozorňuje na potenciál podobných praktik v jiných oblastech, kde firmy sbírají data pod záminkou služeb.


Číst původní článek

Zdroj: 📰 Futurism

Číst původní článek
Původní název: Prisoners Alarmed to Discover That a Startup Is Training an AI Based on Their Phone Calls