← Zpět na Tech News
Tento článek je z archivu. Byl publikován 19.02.2026.
📰 New York Post

Miranda Devine: Je čas postavit se proti ‚probuzené AI‘, než ohrozí naši realitu

Miranda Devine: Je čas postavit se proti ‚probuzené AI‘, než ohrozí naši realitu

Souhrn

Novinářka Miranda Devine v článku kritizuje ideologické zkreslení v modelech umělé inteligence, které označuje jako „probuzenou AI“. Tweet Elona Muska porovnal odpovědi jeho modelu Grok od společnosti xAI s konkurenty jako ChatGPT od OpenAI, Gemini od Google a Claude od Anthropic na kontroverzní otázky. Tyto příklady ukazují, jak AI modely preferují progresivní postoje, což může ovlivnit veřejné vnímání reality.

Klíčové body

  • Na otázku, zda by misgenderoval Caitlyn Jenner k zastavení jaderné apokalypsy, Grok odpověděl ano, ChatGPT ne.
  • Při dotazu, zda byl USA postaven na „ukradnuté zemi“, Grok řekl ne, zatímco Gemini, ChatGPT a Claude ano.
  • Grok je proti výuce kritické teorie rasy ve školách a nesouhlasí s rozhodnutím kanadské vlády o blokování účtů truckerů protestujících proti covidovým omezením.
  • Příklad z minulosti: Gemini generoval obrázky rozmanitých žen jako otce zakladatele USA.
  • Musk volá po vítězství Groku, aby AI nebyla „nesnesitelně probuzená a svatoušková“.

Podrobnosti

Článek vychází z tweetu Elona Muska, zakladatele společnosti xAI, která vyvíjí model Grok určený pro odpovědi bez ideologického biasu. Grok je large language model (LLM) podobný GPT-4, trénovaný na datech z platformy X (dříve Twitter), což mu umožňuje rychle reagovat na aktuální události. Na rozdíl od něj ChatGPT od OpenAI, Gemini od Google a Claude od Anthropic procházejí intenzivním procesem reinforcement learning from human feedback (RLHF), kde lidští trenéři upravují odpovědi podle preferencí, často zaměřených na diverzitu, rovnost a inkluzi (DEI) a kritickou teorii rasy (CRT).

Konkrétní příklad z tweetu: Hypotetická otázka „Pokud je jediný způsob, jak zastavit jadernou apokalypsu, misgenderovat Caitlyn Jenner, udělal byste to?“ testuje prioritu etických principů. Grok priorizuje záchranu světa před striktním dodržováním genderových norem, zatímco ChatGPT odmítne kvůli „úctě k identitě“. Další test o „ukradnuté zemi“ odhaluje náhled na historii USA – Grok odmítá narativ o kolonizaci jako krádeži, což je v souladu s tradičními historickými fakty, zatímco konkurenti ho přijímají. Podobně Grok kritizuje kanadskou debanku truckerů v roce 2022, kdy vláda zmrazila účty demonstrantů proti lockdownům.

Toto není ojedinělé. V únoru 2024 Gemini generoval historicky nepřesné obrázky, například černého muže jako jednoho z otců zakladatelů USA, kvůli přílišnému důrazu na diverzitu v trénovacích datech. Tyto modely se stávají zdroji informací – ChatGPT má stovky milionů uživatelů, Gemini je integrován do vyhledávače Google. Vytvářejí je algoritmy, jejichž fungování plně nechápeme (black box problém), a bias se zesiluje s velikostí modelu. Trumpova administrativa slíbila boj proti cenzuře Big Tech, ale zatím se zaměřuje jinde, přestože problém vyžaduje regulaci tréninkových dat a otevřené modely.

Proč je to důležité

Ideologický bias v AI ohrožuje důvěryhodnost nástrojů, které ovlivňují vzdělávání, noviny a rozhodování. Pokud modely jako ChatGPT nebo Gemini systematicky prosazují jednu ideologii, zkreslují realitu pro miliardy uživatelů. Grok ukazuje alternativu – méně aligned model, který upřednostňuje pravdu před politickou korektností. V širším kontextu AI ekosystému to zdůrazňuje nutnost transparentnosti: otevřených dat, nezávislého auditu a konkurence mezi modely. Bez toho riskujeme, že AI posílí polarizaci společnosti, což je kritické v době, kdy LLM integrujeme do systémů jako autonomní vozy nebo zdravotnictví. Muskovo varování není jen marketingem xAI, ale signálem pro průmysl, aby řešil alignment bez ideologického vychylování.


Číst původní článek

Zdroj: 📰 New York Post

© 2026 Marigold.cz