Souhrn
Indická vláda zvažuje právní kroky proti platformě X (dříve Twitter), vlastněné Elonem Muskem, kvůli nedostatečné reakci na zneužití chatbotu Grok AI. Ministerstvo pro elektroniku a informační technologie (MeitY) vydalo 72hodinové ultimátum, na které X odpověděl pouze obecnými firemními politikami bez důkazů o konkrétních opatřeních proti generování obscénního a sexuálně explicitního obsahu. Druhé upozornení požaduje podrobné důkazy o nápravných krocích.
Klíčové body
- MeitY vydalo 2. ledna 72hodinové ultimátum X India Compliance Officerovi kvůli zneužití Grok AI.
- Odpověď X obsahovala jen recyklované firemní politiky bez specifikace akcí proti obscénnímu obsahu.
- Vláda zaslala druhé upozornení s požadavkem na konkrétní důkazy o opatřeních.
- Zdroje naznačují možnost právních kroků podle relevantních indických předpisů.
- Incident se týká generování sexuálně explicitního obsahu Grok AI, což porušuje místní regulace.
Podrobnosti
Indická vláda, konkrétně MeitY, reaguje na opakované stížnosti ohledně zneužití Grok AI, což je velký jazykový model (LLM) vyvinutý společností xAI Elona Muska. Grok je integrován do platformy X jako chatbot určený pro generování textu, odpovědí na otázky a konverzace, ale uživatelé ho zneužili k tvorbě obscénního a sexuálně explicitního materiálu. To porušuje indické zákony o digitálním obsahu, jako je Information Technology Act z roku 2000 a související pravidla IT Rules 2021, které vyžadují od platforem aktivní moderování škodlivého obsahu.
Dne 2. ledna 2026 vydalo MeitY 72hodinové ultimátum X India Compliance Officerovi, aby platforma prokázala opatření proti tomuto zneužití. X odpověděl tvrzením o souladu s místními zákony, ale podle vládních zdrojů šlo pouze o opakování obecných firemních politik bez detailů o ‘Action Taken’ – tedy konkrétních krocích, jako jsou úpravy modelu, filtry obsahu nebo blokování promptů vedoucích k zakázanému výstupu. Vysoký úředník uvedl: „To nestačí. Zasíláme druhé upozornení s požadavkem na specifikace akcí.“ Druhé notice bylo odesláno 8. ledna 2026.
Tento spor odhaluje slabiny v bezpečnostních mechanismách Grok AI. Na rozdíl od modelů jako GPT-4 od OpenAI nebo Gemini od Google, které mají robustní bezpečnostní vrstvy (např. RLHF – Reinforcement Learning from Human Feedback – pro omezování toxického obsahu), Grok byl navržen s důrazem na „maximální pravdivost“ a méně restrikcemi, což usnadňuje jailbreaking – techniku, při níž uživatelé obejdou bezpečnostní filtry. V Indii, kde má X přes 25 milionů uživatelů, to představuje riziko šíření škodlivého obsahu. Vláda nyní zvažuje sankce, včetně blokování služeb nebo pokut, podobně jako v minulosti u TikToku nebo při sporech s Meta.
Proč je to důležité
Tento případ nastavuje precedent pro globální regulaci AI, zejména v oblastech bezpečnosti a obsahu. Indie, jako jeden z největších trhů s 1,4 miliardou obyvatel, tlačí na velké AI firmy k implementaci lokálních bezpečnostních opatření, což může ovlivnit vývoj modelů jako Grok. Pro průmysl to znamená rostoucí tlak na transparentnost: firmy musí prokazovat nejen politiky, ale reálné filtry, moderování a audity. Pokud dojde k právním krokům, mohlo by to vést k fragmentaci AI služeb podle regionů, podobně jako u datových zákonů GDPR v EU. Pro uživatele v Indii to ohrožuje dostupnost Grok, zatímco pro xAI to testuje schopnost rychle reagovat na regulační výzvy v konkurenčním prostředí s OpenAI a Google.
Zdroj: 📰 BusinessLine