📰 GameSpot

Bývalý šéf GTA Dan Houser přirovnává AI k nemoci šílených krav

Bývalý šéf GTA Dan Houser přirovnává AI k nemoci šílených krav

Souhrn

Spoluzakladatel Rockstar Games a klíčová postava za sérií Grand Theft Auto Dan Houser v rozhovoru pro Virgin Radio UK přirovnal současný vývoj umělé inteligence k nemoci šílených krav. Podle něj technologie riskuje samo zničení v rekurzivním cyklu, kde se tréninková data stávají kontaminovanými výstupy AI samotné. Tento skeptický pohled vyjádřil v kontextu své nové sci-fi knihy A Better Paradise, která popisuje technodystopickou budoucnost.

Klíčové body

  • Houser varuje před ouroborosovým cyklem AI, kde modely trénované na AI-generovaných datech degradují.
  • Skeptický k euforii vrcholových manažerů ohledně AI, kterou považuje za přehnanou.
  • Rozhovor proběhl 26. listopadu 2025 v pořadu Chris Evans Breakfast Show.
  • Kontext: diskuse o Housersově knize A Better Paradise a jeho kariéře v herním průmyslu.
  • Příspěvek odhaluje širší obavy z dlouhodobé udržitelnosti AI bez kvalitních datových zdrojů.

Podrobnosti

Dan Houser, který opustil Rockstar Games v roce 2020 po více než 25 letech, je známý svou rolí při tvorbě kontroverzních her jako Grand Theft Auto, které kritizovaly společnost a technologie. V rozhovoru pro britskou stanici Virgin Radio UK, vedeném moderátorem Chrisem Evansem (ne hercem), se Houser vrátil k tématům své první knihy A Better Paradise. Tento sci-fi thriller, vydaný nedávno, líčí dystopii, kde pokročilá technologie vede k kolapsu společnosti. Evans se zeptal na skutečné rizika AI, která C-suite manažeři (vrcholoví ředitelé firem jako OpenAI nebo Google) prezentují jako revoluční nástroj pro produktivitu a kreativitu.

Houser nebyl plně přesvědčený. Přirovnal AI k bovinní spongiformní encefalopatii (BSE), známé jako nemoc šílených krav, kde prionové proteiny ničí mozek tím, že se rekurzivně replikují a ‘žerou’ zdravou tkáň. Analogicky vidí riziko v tréninku velkých jazykových modelů (LLM) jako GPT nebo Claude na datech generovaných AI samotnou. Pokud se původní lidské data vyčerpají – což studie jako ‘Model Collapse’ z roku 2023 od University of Oxford potvrzují – modely začnou produkovat horší výstupy, které se pak stávají novými tréninkovými daty. Výsledek: degradace kvality, ztráta diverzity a případný kolaps schopností. Houser odhaduje, že jsme ‘nedaleko’ od této fáze, což podtrhuje rychlost růstu AI od ChatGPT v roce 2022.

Rozhovor trval téměř 30 minut a pokryl i Housersovy herní kořeny, založení Rockstar v 90. letech a výzvy při tvorbě GTA. Rockstar, firma specializující se na open-world hry s realistickou fyzikou a satirou, zatím AI ve svých titulech jako GTA VI nepoužívá primárně kvůli autorským otázkám, ale experimentuje s ní pro NPC chování. Houserův názor není izolovaný; podobné varování vydali výzkumníci z Epoch AI, kteří predikují vyčerpání veřejných textových dat do roku 2026.

Proč je to důležité

Houserův komentář připomíná klíčové riziko AI ekosystému: závislost na datech. Pro průmysl znamená, že firmy jako OpenAI musí hledat syntetická data nebo federované učení, jinak čeká ‘model collapse’, což by zpomalilo pokrok v AGI. Pro uživatele to implikuje budoucí zhoršení kvality nástrojů jako ChatGPT pro psaní, kódování nebo analýzu. V širším kontextu posiluje hlasy skepticů jako Yann LeCun nebo Gary Marcus, kteří volají po diverzifikaci datových zdrojů. Zatímco optimisté jako Sam Altman slibují škálování, Houserské přirovnání zdůrazňuje nutnost regulace a etických standardů v tréninku AI, aby se zabránilo sebezničujícímu cyklu.


Číst původní článek

Zdroj: 📰 GameSpot