📰 ScienceAlert

Používání AI k hledání informací může oslabit vaše znalosti, ukázala studie

Používání AI k hledání informací může oslabit vaše znalosti, ukázala studie

Souhrn

Nová studie, kterou provedli profesoři marketingu Shiri Melumad a Jin Ho Yun, ukazuje, že používání velkých jazykových modelů (LLM) jako ChatGPT k sumarizaci informací vede k mělčím znalostem než učení prostřednictvím standardního vyhledávání na Google. V sedmi experimentech s více než 10 000 účastníky lidé, kteří používali LLM, pocítili menší naučené množství, vynaložili méně úsilí na následné úkoly a vytvořili kratší, méně faktické rady. Tento efekt platí i při volném používání nástrojů bez omezení.

Klíčové body

  • Účastníci se učili témata jako pěstování zeleninové zahrady a pak psali rady pro přítele.
  • Skupina s LLM produkovala kratší, obecnější a méně faktické texty než skupina s Google vyhledáváním.
  • Lidé s LLM subjektivně vnímali, že se naučili méně, a investovali méně úsilí do psaní rad.
  • Studie zahrnovala sedm experimentů s přes 10 000 účastníky, bez omezení na dobu nebo počet dotazů.
  • Rady z LLM byly ohodnoceny nezávislými čtenáři jako méně užitečné.

Podrobnosti

Studie, publikovaná v prosinci 2025 v magazínu The Conversation, vychází z experimentálního designu, kde účastníci náhodně dostali buď přístup k LLM jako ChatGPT, nebo k běžnému vyhledávači Google. Témata byla praktická, například jak založit a udržovat zeleninovou zahradu, což umožnilo měřit znalosti skrz následné psaní rad pro hypotetického přítele. Žádné omezení na strategii učení nebylo – účastníci s Google mohli procházet libovolný počet odkazů a ti s ChatGPT mohli klást opakované dotazy pro více detailů.

Výsledky ukázaly konzistentní vzorec: skupina s LLM vnímala své naučení jako méně efektivní, což vedlo k nižší motivaci při psaní. Jejich rady byly průměrně kratší o 20–30 %, obsahovaly méně specifických faktů (např. konkrétní odrůdy zeleniny nebo postupy zalévání) a byly obecnější („zalévejte pravidelně“ místo „zalévejte ráno, 2–3 cm vody na týden“). Nezávislí hodnotitelé, kteří neveděli o metodě učení, ohodnotili tyto rady jako méně užitečné a méně důvěryhodné.

Autoři, oba profesoři marketingu z amerických univerzit, zdůrazňují kognitivní mechanismus: LLM poskytují okamžité, leštěné shrnutí, což snižuje kognitivní zátěž, ale brání hlubšímu zpracování informací. Na rozdíl od Google vyhledávání, kde uživatelé musí navigovat mezi zdroji, vybírat relevantní části a syntetizovat sami, LLM přebírají tuto práci. To vede k iluzi znalostí bez skutečného porozumění. Studie navíc testovala varianty, jako komplexnější témata nebo různé instrukce, a efekt přetrval. Jin Ho Yun a Shiri Melumad varují, že tento jev může ovlivnit vzdělávání i profesionální rozhodování, kde rychlost převažuje nad hloubkou.

Proč je to důležité

Tato studie upozorňuje na rizika přílišného spoléhání na LLM v době, kdy ChatGPT a podobné nástroje od listopadu 2022 změnily způsob, jak miliony lidí získávají informace. Pro uživatele to znamená, že zdánlivě efektivní AI může vést k povrchním znalostem, což ovlivní kvalitu rozhodnutí v oblastech jako zdraví, finance nebo hobby. V průmyslu to klade otázky na design AI nástrojů – měly by LLM podporovat hlubší interakci, např. nucením uživatele k ověření faktů nebo propojením s primárními zdroji? V širším kontextu AI ekosystému to kontrastuje s pokroky v generování textu tím, že odhaluje limity v podporě lidského učení. Pro výzkumníky v AI je to podnět pro další studie o kognitivních dopadech, zejména v porovnání s tradičními metodami. Celkově to připomíná, že AI je nástroj, ne náhrada za aktivní myšlení.


Číst původní článek

Zdroj: 📰 ScienceAlert