📰 DW (English)

AI chatboti selhávají při zpracování zpráv, ukazuje rozsáhlá studie

AI chatboti selhávají při zpracování zpráv, ukazuje rozsáhlá studie

Souhrn

Rozsáhlá studie zahrnující 22 veřejnoprávních médií z celého světa prokázala, že čtyři nejpoužívanější AI asistenti poskytují nepřesné nebo zkreslené informace ve 45 % případů při odpovídání na otázky týkající se zpravodajství. Výzkum testoval ChatGPT, Microsoft Copilot, Google Gemini a Perplexity AI a odhalil závažné problémy s přesností, zdrojováním a schopností rozlišit fakta od názorů.

Klíčové body

  • AI chatboti zkreslují zpravodajský obsah v 45 % případů bez ohledu na jazyk či region
  • 31 % odpovědí obsahovalo vážné problémy se zdrojováním informací
  • 20 % odpovědí obsahovalo závažné faktické chyby
  • U německého vysílatele DW mělo 53 % odpovědí významné problémy, přičemž 29 % trpělo konkrétními chybami v přesnosti
  • 7 % uživatelů online zpravodajství používá AI chatboty k získávání zpráv, u uživatelů mladších 25 let je to 15 %

Podrobnosti

Novinářské týmy z veřejnoprávních médií včetně BBC, NPR a DW systematicky testovaly odpovědi čtyř hlavních AI asistentů na otázky týkající se aktuálního zpravodajství. Hodnotící kritéria zahrnovala přesnost informací, kvalitu zdrojování, poskytování kontextu, schopnost vhodně editorizovat a rozlišovat fakta od názorů.

Výsledky jsou alarmující zejména proto, že AI chatboti se stávají stále populárnějším zdrojem informací. Podle Digital News Report 2025 od Reuters Institute využívá tyto nástroje již 7 % konzumentů online zpravodajství, přičemž u mladší generace do 25 let dosahuje toto číslo 15 %.

Konkrétní příklady chyb odhalených v rámci studie DW zahrnují označení Olafa Scholze za německého kancléře měsíc poté, co byl do funkce jmenován Friedrich Merz. Další chyba spočívala v uvedení Jense Stoltenberga jako generálního tajemníka NATO, ačkoliv tuto pozici již převzal Mark Rutte.

Studie prokázala, že problémy nejsou izolované incidenty ani závislé na konkrétním modelu, jazyku nebo geografické oblasti. Systematické zkreslování zpravodajského obsahu se projevuje napříč všemi testovanými platformami. Kromě faktických chyb měly AI asistenti potíže s korektním citováním zdrojů – 31 % odpovědí obsahovalo vážné nedostatky v této oblasti.

Zvláště problematická je neschopnost těchto nástrojů rozlišit mezi objektivními fakty a subjektivními názory, což je základní dovednost kvalitního žurnalismu. Tato slabina může vést k šíření dezinformací a zkreslování veřejného diskurzu.

Proč je to důležité

Tato studie přichází v kritickém okamžiku, kdy se AI chatboti stávají běžným nástrojem pro vyhledávání informací, zejména mezi mladšími uživateli. Zjištění má zásadní dopady na důvěryhodnost informací v digitálním věku a ukazuje na nebezpečí spoléhání se na AI asistenty jako primární zdroj zpravodajství.

Pro technologické společnosti jako OpenAI, Microsoft a Google představují výsledky výzvu k zásadnímu zlepšení přesnosti a spolehlivosti jejich AI modelů. Současně studie zdůrazňuje pokračující význam profesionálního žurnalismu a ověřených zpravodajských zdrojů.

Z hlediska regulace může výzkum posílit argumenty pro přísnější dohled nad AI nástroji používanými k šíření informací. Uživatelé by si měli být vědomi omezení těchto technologií a kriticky přistupovat k informacím z AI chatbotů, zejména pokud jde o aktuální události a zpravodajství.


Číst původní článek

Zdroj: 📰 DW (English)