Souhrn
Výzkumníci v polovině roku 2023 objevili síť přes tisíce sociálních botů poháněných umělou inteligencí, které koordinovaně šířily podvodný obsah o kryptoměnách na platformě X (dříve Twitter). Tato botnet, nazvaná „fox8“ podle jedné z zesílených falešných zpravodajských stránek, prokázala dosud neviděnou úroveň koordinace, která oklame doporučovací algoritmy a zvyšuje dosah dezinformací. Objev signalizuje nástup nové generace AI agentů schopných systematické manipulace veřejného mínění.
Klíčové body
- Síť přes 1000 botů zapojených do kryptopodvodů, zesilujících falešné zpravodajské stránky.
- Boty odhaleny díky chybám v generovaném textu z ChatGPT, který odmítal škodlivé příkazy.
- Koordinovaná interakce botů mezi sebou a s lidskými účty (diskuse, retweety) zvyšuje viditelnost přes algoritmy X.
- Lepší programování umožní botnety s open-source AI modely bez etických omezení, obtížně detekovatelné.
- Hrozba pro demokracii skrz masivní šíření dezinformací a ovlivňování voleb.
Podrobnosti
Článek Filippa Menczera, publikovaný 15. února 2026 na The Conversation, popisuje objev provedený těsně před ukončením volného přístupu k datům platformy X Elona Muskem. Sociální boty představují software na bázi AI, který automaticky generuje obsah a interaguje s uživateli na sociálních sítích, napodobuje lidské chování pro zesílení specifických narativů. Výzkumníci analyzovali data z X a identifikovali botnet „fox8“, kde boty navzájem vytvářely falešnou angažovanost: vedly realistické obousměrné diskuse, retweetovaly se a reagovaly na příspěvky lidských účtů. Tím oklamaly doporučovací algoritmus X, který tyto příspěvky posunul do vyšších pozic v doporučeních, což vedlo k rychlému nárůstu sledujících a vlivu.
Odhalení bylo možné díky nedbalosti tvůrců: boty občas publikovaly texty přímo z ChatGPT, kde model odmítl splnit příkaz v souladu s pravidly OpenAI. Typická odpověď zněla: „Omlouvám se, ale nemohu tento požadavek splnit, protože porušuje obsahovou politiku OpenAI ohledně škodlivého nebo nevhodného obsahu. Jako jazykový model AI by měly být mé odpovědi vždy respektující a vhodné pro široké publikum.“ Takové „sebeodhalující“ fráze umožnily detekci. Menczer však varuje, že „fox8“ je jen špičkou ledovce. Pokročilejší kódování by filtrovalo tyto chyby, případně použilo open-source modely AI jako Llama nebo Mistral, které lze doladit bez vestavěných etických omezení (guardrails). Tyto modely slouží k generování textu, obrázků nebo videa bez cenzury, což umožňuje škálovatelnou produkci obsahu pro podvody nebo propagandu.
Výzkum ukazuje, jak AI transformuje botnety z jednoduchých skriptů na sofistikované swarmy agentů, schopné dlouhodobé koordinace. Například boty nejen retweetují, ale vedou konverzace, které působí autenticky, což zvyšuje důvěryhodnost. Pro platformy jako X to znamená selhání současných detekčních mechanismů, které se spoléhají na vzorce chování, ale ne na hloubkovou analýzu AI-generovaného obsahu. Kontextem je eskalace po roce 2023, kdy Musk omezil akademický přístup k datům, což ztěžuje další výzkum.
Proč je to důležité
Tento objev zdůrazňuje bezpečnostní rizika AI v informačním prostoru. Koordinované botnety mohou ovlivňovat volby, šířit dezinformace o válkách nebo zesilovat polarizaci společnosti, což přímo ohrožuje demokracii. Pro průmysl to znamená nutnost vývoje pokročilých detekčních nástrojů, jako analýza vodoznaků v AI textu nebo monitorování swarmového chování. Platformy musí integrovat AI detektory do algoritmů, zatímco regulátoři (např. EU AI Act) by měli zavést povinnosti pro open-source modely. Pro uživatele to implikuje větší opatrnost vůči virálním příspěvkům a podporu nástrojů jako Botometer pro ověřování účtů. V širším ekosystému AI to urychluje debatu o etických guardrailech a globální koordinaci proti zneužití, protože lepší botnety mohou brzy dominovat diskusím na všech platformách.
Zdroj: 📰 Salon