Souhrn
Elon Musk v říjnu 2025 spustil Grokipedii – AI poháněnou encyklopedii, která má konkurovat Wikipedii. Projekt využívá jeho chatbot Grok k úpravám a rozšiřování článků, avšak analýzy ukazují, že mnohé informace postrádají spolehlivé zdroje a obsahují chyby.
Klíčové body
- Grokipedia byla spuštěna 27. října 2025 jako součást Muskova AI ekosystému.
- Obsah je generován pomocí chatbotu Grok, který má „opravovat a rozšiřovat“ články z Wikipedie.
- Mnoho článků je téměř identických s Wikipedií, jiné obsahují neověřené nebo chybné informace.
- Články nesou označení „Fact-checked by Grok“, což však nezaručuje spolehlivost.
- Projekt vyvolává otázky ohledně důvěryhodnosti AI generovaného obsahu bez lidského dohledu.
Podrobnosti
Grokipedia vznikla jako ambiciózní pokus Elona Muska o vytvoření „lepší“ alternativy k Wikipedii. Podle jeho tvrzení z X (dříve Twitter) má Grokipedia překonat Wikipedii „o několik řádů“ v rozsahu, hloubce i přesnosti. V praxi však platforma využívá Grok – AI chatbot vyvinutý společností xAI – k automatickému procházení nejčtenějších článků Wikipedie a jejich úpravě na základě veřejně dostupných dat z internetu. Musk uvedl v podcastu „All-In“, že cílem je „opravit chyby a přidat více kontextu“.
Analýza serveru PolitiFact však ukázala, že výsledný obsah často postrádá kvalitní citace a obsahuje nepřesnosti. Některé články jsou téměř doslovnými kopie Wikipedie, jiné obsahují informace, které nejsou doloženy důvěryhodnými zdroji. Označení „Fact-checked by Grok“ vytváří klamný dojem ověřenosti, přestože Grok jako LLM (large language model) nemá schopnost nezávisle ověřovat fakta – pouze reprodukuje nebo překombinovává informace z trénovacích dat.
Proč je to důležité
Grokipedia ilustruje rostoucí trend nahrazování lidského autorského obsahu generativní AI bez dostatečného mechanismu kontroly kvality. Zatímco Wikipedie funguje na principu komunitního dohledu a transparentních zdrojů, Grokipedia spoléhá na algoritmickou „opravu“ bez veřejné editovatelnosti nebo auditovatelnosti. Tento přístup může vést k šíření dezinformací pod záminkou technologického pokroku. Pro uživatele znamená riziko, že budou považovat AI generovaný obsah za důvěryhodný, i když postrádá základní principy informační integrity. V širším kontextu jde o varovný příklad toho, jak mohou technologičtí magnáti formovat veřejný informační prostor bez odpovídající odpovědnosti.
Zdroj: 📰 Al Jazeera English
|