📰 Reason

Nezbytné chyby: Pomluva způsobená halucinacemi v AI modely uvažování

Nezbytné chyby: Pomluva způsobená halucinacemi v AI modely uvažování

Souhrn

Článek „Nezbytné chyby: Pomluva způsobená halucinacemi v AI modely uvažování“ od Lyrissy Lidsky a Andrewa Daves publikovaný v Journal of Free Speech Law zkoumá rostoucí riziko právně závazné pomluvy generované pokročilými jazykovými modely (LLM). Autoři upozorňují, že i když se umělá obecná inteligence (AGI) teprve blíží, současné modely už dosahují výkonu srovnatelného s lidmi v úzce definovaných úlohách – a zároveň produkují halucinace, které mohou poškodit reputaci jednotlivců.

Klíčové body

  • Pokročilé jazykové modely (např. OpenAI o3-preview) dosáhly 75–88 % úrovně AGI v testech, ale stále trpí halucinacemi.
  • Halucinace v LLM mohou vést k právně postižitelné pomluvě, zejména při generování falešných tvrzení o živých osobách.
  • OpenAI, Anthropic, Google a DeepSeek intenzivně zvyšují schopnosti svých modelů uvažovat a odpovídat lidsky, což zvyšuje riziko šíření neověřených informací.
  • Modely jako OpenAI o1 již dosahují lepších výsledků než průměrní právníci v testech jako LSAT.
  • Článek upozorňuje na právní mezeru: současné právo není připraveno na odpovědnost za škody způsobené autonomními AI systémy.

Podrobnosti

Autoři článku poukazují na paradox: zatímco společnosti jako OpenAI oficiálně prohlašují, že jejich cílem je, aby AGI „prospěla celému lidstvu“, jejich modely už dnes generují nepravdivé tvrzení, která mohou mít reálné právní důsledky. Například LLM může vytvořit falešnou informaci o tom, že někdo spáchal trestný čin, což splňuje definici pomluvy podle mnoha právních systémů. Zvláště problematické je, že tyto modely jsou stále častěji integrovány do vyhledávačů, asistentů a dokonce právních nástrojů, kde uživatelé implicitně důvěřují jejich výstupům. OpenAI o1, který překonává medián přijatých studentů právnických fakult v USA v testu LSAT, je příkladem toho, jak rychle se modely blíží lidské úrovni uvažování – avšak bez odpovídající schopnosti ověřovat faktickou správnost. Tento rozpor mezi kognitivním výkonem a faktickou spolehlivostí vytváří právní a etické dilema, které článek detailně analyzuje.

Proč je to důležité

Tento článek přichází v klíčovém okamžiku, kdy se AI stává součástí každodenního rozhodování – od zpravodajství po právní poradenství. Pokud nebudou zavedeny jasné právní rámce pro odpovědnost za halucinace, hrozí vlna žalob a ztráta důvěry ve veřejné informační systémy. Zároveň to ukazuje, že technologický pokrok v AI nemůže běžet odděleně od právní a etické regulace. Pro vývojáře, uživatele i regulátory je proto nezbytné pochopit, že „inteligentní“ model není zárukou pravdivosti – a že halucinace nejsou vedlejším efektem, ale inherentní vlastností současných LLM.


Číst původní článek

Zdroj: 📰 Reason

Číst původní článek
Původní název: Journal of Free Speech Law: "Inevitable Errors: Defamation by Hallucination in AI Reasoning Models," by Lyrissa Lidsky & Andrew Daves