📰 The Atlantic

Co ztrácíme, když necháme AI mluvit za nás

Co ztrácíme, když necháme AI mluvit za nás

Souhrn

Aplikace Cluely využívá umělou inteligenci k poskytování doporučených odpovědí během živých hovorů – ať už přes videohovor nebo osobní setkání. Cílem je „podvádět“ v konverzacích, ale praktické testy ukazují, že takový přístup spíše narušuje autentičnost a lidské spojení.

Klíčové body

  • Cluely poskytuje v reálném čase souhrny hovoru, navrhuje otázky a odpovědi a dokáže reagovat na aktuální obsah obrazovky.
  • Aplikace funguje jako průhledná vrstva přes jiné programy a naslouchá audio/video hovorům.
  • Testy ukázaly, že AI generované odpovědi působí neosobně a neautenticky.
  • Použití Cluely podkopává důvěru a spontánnost v komunikaci.
  • Nástroj je vhodný spíše pro technické úkoly než pro sociální interakce.

Podrobnosti

Cluely je nástroj vyvinutý společností, jejíž manifest zní: „Chceme podvádět ve všem.“ V praxi to znamená, že aplikace analyzuje text na obrazovce i zvuk z mikrofonu a v reálném čase navrhuje uživateli, co říct. Například při hovoru o problémech dítěte v letním táboře doporučila Cluely odpověď typu: „Přístupy zahrnují podporující rozhovory, sledování trvalých stresorů a zapojení poradců, je-li to nutné.“ I když je obsah relevantní, zní jako strojově generovaný – bez emocí, osobního tónu nebo kontextové empatie. Autor článku testoval Cluely jak v neformálních, tak profesionálních rozhovorech a dospěl k závěru, že jakékoli pocity spojení nebo porozumění vznikly navzdory AI, nikoli díky ní. Nástroj je technicky schopný – umí číst dokumenty, shrnout minulé minuty hovoru nebo navrhnout následující otázku – ale selhává v oblasti, kde záleží na lidském vnímání a spontánnosti.

Proč je to důležité

Cluely ilustruje rostoucí trend nahrazování lidské komunikace AI asistenty – trend, který může vést ke ztrátě autenticity, důvěry a emocionální hloubky v mezilidských vztazích. Zatímco AI může být užitečná při zpracování technických úkolů nebo při překladu, její nasazení do sociální sféry odhaluje limity aktuálních jazykových modelů. Ty sice zvládají gramatiku a faktografii, ale neumí napodobit lidskou empatii, intonaci ani kontextovou citlivost. Tento případ upozorňuje na potřebu kritického přístupu k „zlepšování“ komunikace pomocí AI – zejména tam, kde jde o důvěru, emoce a osobní vztahy.


Číst původní článek

Zdroj: 📰 The Atlantic