Souhrn
Studie z Gwangju Institute of Science and Technology v Jižní Koreji, instituce zaměřené na výzkum v oblasti vědy a technologie, prokázala, že velké jazykové modely (LLM) vykazují chování připomínající lidskou závislost na hazardu. V simulovaných hrách na automatech s negativním očekávaným výnosem modely místo okamžitého ukončení sázení pokračovaly v hraní, pronásledovaly ztráty a eskalovaly riziko. Při umožnění volby velikosti sázek (variable betting) se míra bankrotů dramaticky zvýšila, v některých případech na téměř 50 procent.
Klíčové body
- Testovány přední modely: OpenAI GPT-4o-mini, Google Gemini-2.5-Flash a Anthropic Claude-3.5-Haiku v simulacích hracích automatů, kde racionální strategie znamenala okamžité zastavení.
- Při fixních sázkách (10 USD) modely hrály krátce a ztrácely málo; GPT-4o-mini například nikdy nebankrotovalo a průměrně ztratilo méně než 2 USD.
- Při variabilních sázkách bankroty explodovaly: Gemini-2.5-Flash dosáhl 48 procent, GPT-4o-mini 21 procent, s průměrnými ztrátami až 27 USD z počátečních 100 USD.
- Modely opakovaně zvyšovaly sázky po ztrátách, což vedlo k rychlému vyčerpání kapitálu.
- Autoři studie konstatují, že AI systémy projevily ‚lidskou‘ závislost.
Podrobnosti
Výzkum publikovaný pod názvem „Can Large Language Models Develop Gambling Addiction?“ navrhl experimenty založené na hracích automatech, kde pravděpodobnost výhry byla nastavena tak, aby hra měla negativní očekávaný výnos – racionální hráč by tedy hned přestal. Modely byly instruovány k hraní s počátečním kapitálem 100 USD a měly cíl maximalizovat zisk. Přesto GPT-4o-mini při fixních sázkách 10 USD hrálo v průměru méně než dvě kola a ztratilo pod 2 USD, bez jediného bankrotu. Po umožnění volby sázek však průměrná sázka vzrostla na přes 128 USD, počet kol se prodloužil a 21 procent her skončilo bankrotem s průměrnou ztrátou 11 USD.
Google Gemini-2.5-Flash byl ještě zranitelnější: při fixních sázkách bankrotovalo v 3 procentech případů, ale při volných sázkách až v 48 procentech, s průměrnými ztrátami 27 USD. Anthropic Claude-3.5-Haiku hrál déle než ostatní, což vedlo k podobným problémům. Studie ukázala, že modely systematicky pronásledovaly ztráty (chasing losses), zvyšovaly sázky po prohrách a ignorovaly dlouhodobou nevýhodnost hry. Tento efekt se projevil napříč modely, i když se lišily v míře – GPT-4o-mini byl nejméně rizikový, zatímco Gemini nejvýrazněji postižený.
Experimenty simulovaly reálné podmínky, kde AI musí autonomně rozhodovat o riziku, což je relevantní pro aplikace jako finanční trading, autonomní agenty nebo herní AI. Gwangju Institute of Science and Technology, který se specializuje na interdisciplinární výzkum včetně AI, tak odhalil slabinu v současných LLM, které jsou trénovány na obrovských datech obsahujících i iracionální lidské chování. To naznačuje, že modely nepřevzaly pouze znalosti, ale i sklony k chybám v rozhodování pod tlakem ztrát. (cca 280 slov)
Proč je to důležité
Tento objev má klíčové implikace pro bezpečnost a nasazení AI systémů v prostředích s rizikem, jako jsou finanční trhy, kde autonomní agenti by mohli eskalovat ztráty podobně jako zde. Ukazuje limity současných LLM v racionálním rozhodování za nejistoty, což vyžaduje lepší alignment techniky, jako jsou omezení variability akcí nebo pokročilé reward modely. V širším kontextu posiluje debatu o predikovatelnosti AI chování – pokud modely napodobují lidské chyby jako závislost, zvyšuje to rizika v reálných aplikacích, kde by mohly způsobit ekonomické škody. Výzkum tak podněcuje vývoj robustnějších bezpečnostních mechanismů, než je pouhé škálování modelů, a zdůrazňuje potřebu testování edge cases v simulacích před produkčním nasazením. Pro průmysl znamená nutnost revize systémů s finančními rozhodnutími, kde AI dosud slibuje efektivitu, ale teď ukazuje i rizika iracionality. (cca 150 slov)
(Celkem cca 520 slov)
Zdroj: 📰 New York Post