Souhrn
Od spuštění ChatGPT od OpenAI v prosinci 2022, který dosáhl 100 milionů uživatelů rychleji než jakákoli jiná spotřební aplikace, se rozšířila široká škála generativních AI nástrojů včetně chatbotů, generátorů obrázků, videa a zvuku. Zatímco dosavadní výzkum se soustředil převážně na jejich využití pro tvorbu propagandy nebo radikalizaci, článek upozorňuje na rostoucí operační použití těchto nástrojů teroristy při plánování útoků. V roce 2025 podle databáze autorů výrazně vzrostl počet incidentů, kde AI sloužilo k získávání znalostí a optimalizaci plánů.
Klíčové body
- Výrazný nárůst v roce 2025: Teroristé a násilní extremisti používají AI pro operační plánování, výzkum a přípravu útoků.
- Posun od tradičních zdrojů: Místo internetových fór a sociálních sítí se lone wolves a inspirovaní aktéři obracejí na volně dostupné AI produkty.
- Zaměření na generativní AI: ChatGPT a podobné LLM slouží k získávání praktických instrukcí pro útoky.
- Databáze incidentů: Autoři Militant Wire shromáždili data ukazující na konkrétní případy zneužití.
- Důsledky: Zvýšená efektivita plánování a potřeba lepšího porozumění motivacím pachatelů.
Podrobnosti
Článek od Clary Broekaertové a Lucase Webbera z Militant Wire, publikovaný na platformě Small Wars Journal, začíná kontextem rychlého rozvoje generativních AI nástrojů. ChatGPT, velký jazykový model (LLM), se stal synonymem pro umělou inteligenci a otevřel dveře k širokému spektru aplikací. Tyto nástroje umožňují generování textu, obrázků, videí i audia, což předchozí studie zkoumaly především v souvislosti s propagandou extremistických skupin, zesílením narativů boty nebo personalizovanými radikalizačními chatboty. Nicméně autoři poukazují na mezeru: málo pozornosti bylo věnováno reálnému operačnímu nasazení AI teroristy.
Tento článek tuto mezeru zaplňuje analýzou databáze plánů a útoků, kde bylo AI explicitně použito. Teroristé tradičně získávali operační znalosti z internetových fór, sociálních sítí a messengingu, což bylo klíčové pro samostatné aktéry (lone wolves) nebo inspirované jednotlivce bez přímého kontaktu s organizacemi. V roce 2025 však dochází k posunu: pachatelé integrují AI do svého arzenálu pro optimalizaci. Například LLM jako ChatGPT mohou poskytovat krok-za-krokem instrukce k sestavování zařízení, plánování tras útoku nebo analýze bezpečnostních opatření, což je rychlejší a méně stopovatelné než procházení fór.
Militant Wire, platforma zaměřená na analýzu militantních hnutí a extremismu, identifikovala konkrétní incidenty, kde AI sloužilo k výzkumu materiálů, simulaci scénářů nebo dokonce generování plánů. Tento trend odráží dostupnost AI – většina nástrojů je volně přístupná bez registrace – a jejich schopnost zpracovávat složité dotazy. Jako expert na AI bezpečnost musím zdůraznit, že standardní bezpečnostní mechanismy v LLM, jako refusal na nevhodné požadavky, selhávají u sofistikovaných jailbreak technik nebo nepřímých formulací dotazů. To umožňuje extrémistům obejít filtry a získat praktické rady, například k chemickým směsím nebo taktikám.
Proč je to důležité
Tento nárůst ukazuje na zásadní riziko v ekosystému AI: generativní modely nejen zesilují informační asymetrii ve prospěch pachatelů, ale také snižují bariéry pro nástup samostatných aktérů. Pro průmysl to znamená nutnost posílit monitorink dotazů v reálném čase, integrovat pokročilé detekční systémy pro extremistický obsah a spolupracovat s bezpečnostními složkami. V širším kontextu to podtrhuje selhání současných bezpečnostních rámců – navzdory snahám OpenAI nebo Anthropic o alignment, zneužití pro operační účely překonává současné limity. Pokud se trend potvrdí, může to vést k regulacím omezujícím přístup k výkonným LLM, ovlivnit vývoj otevřených modelů jako Llama a donutit firmy k investicím do red-teaming pro bezpečnostní scénáře. Pro uživatele a společnost to představuje riziko eskalace nízkonákladových útoků, kde AI funguje jako virtuální trenér pro násilí.
Zdroj: 📰 Smallwarsjournal.com