Souhrn
Agentic AI je nová kategorie umělé inteligence schopná autonomního nastavování cílů, rozhodování v reálném čase a úpravy chování bez lidského zásahu. Článek od experta Yaz Bekkara z Barracuda Networks popisuje její využití v kyberbezpečnosti, kde přináší výhody obraně, ale zároveň umožňuje útočníkům provádět komplexní kampaně od průzkumu po exploity. Organizace tak potřebují specifická bezpečnostní opatření pro tyto agenty.
Klíčové body
- Agentic AI funguje jako digitální operátor: sbírá data, učí se z prostředí a vykonává složité úkoly s minimálním vstupem člověka.
- Útočníci mohou agentem řídit celou kampaň: průzkum, sběr dat, tvorba přesvědčivých návnad, testování vstupních cest a adaptace taktik podle reakcí obrany.
- Generuje polymorfní malware, který dynamicky mění svůj kód k obcházení detekce založené na signaturách nebo chování.
- V kombinaci se specializovanými kriminálními platformami analyzuje velké objemy dat pro identifikaci zranitelností.
- Barracuda Networks, firma zaměřená na cloudovou bezpečnost, XDR řešení a ochranu endpointů, varuje před nutností nových bezpečnostních postupů.
Podrobnosti
Generativní AI nástroje jako ChatGPT se během několika let staly standardem v podnicích díky zlepšení produktivity a efektivity. Nicméně agentic AI, na kterou se zaměřuje pozornost v roce 2026, jde dál. Tyto agenty nejen generují obsah, ale aktivně interagují se svým prostředím: nastavují si vlastní cíle, rozhodují v reálném čase a upravují strategie na základě zpětné vazby. Například v kyberbezpečnosti mohou defenďané agenty monitorovat sítě, detekovat anomálie a automaticky blokovat hrozby.
Problém nastává, když stejné schopnosti získají útočníci. Malicious AI agent může provést kompletní útokový cyklus: zahájí reconnaissance pro mapování cíle, shromáždí data o zaměstnancích z veřejných zdrojů, navrhne personalizované phishingové lures, které obcházejí standardní filtry. Poté testuje možné vstupní cesty, sleduje reakce obrany jako firewallů nebo SIEM systémů a okamžitě mění taktiku – například změnu časování nebo payloadu. V spojení s kriminálními platformami, které nabízejí přístup k dark web datům, agent analyzuje obrovské datasety pro nalezení zero-day zranitelností. Výsledkem je polymorphic malware, který se neustále přepisuje, čímž se stává neviditelným pro tradiční detekční mechanismy založené na statických signaturách nebo heuristikách chování.
Barracuda Networks, globální poskytovatel bezpečnostních řešení včetně XDR (Extended Detection and Response) pro EMEA region, zdůrazňuje, že takové agenty působí jako koordinovaný mozek: učí se z překážek, integrují se do normální sítěové aktivity a eskalují útoky bez lidského dohledu. Zatímco současné agentic AI jako ty od OpenAI nebo Anthropic jsou v rané fázi, jejich nasazení v bezpečnostních nástrojích už probíhá – například v automatizovaných SOC (Security Operations Centers). Kriticky lze říci, že přehánění autonomnosti agentů je zatím předčasné; většina vyžaduje stále lidskou validaci, ale trend směřuje k plné nezávislosti.
Proč je to důležité
Agentic AI mění kybernetickou hru tím, že democratizuje sofistikované útoky – i menší aktéři získají nástroje dříve vyhrazené státním aktérům. Pro organizace to znamená nutnost nových bezpečnostních vrstev: sandboxování agentů, monitorování jejich rozhodnutí a integraci do zero-trust architektur. V širším kontextu AI ekosystému urychluje závod v zbrojení mezi obranou a útokem, kde firmy jako Barracuda nebo Palo Alto Networks musí rychle adaptovat XDR platformy. Bez dedikovaných opatření hrozí eskalace incidentů, což ovlivní nejen IT, ale i compliance s regulacemi jako GDPR nebo NIS2. Dlouhodobě to posílí poptávku po AI-native bezpečnosti, ale vyžaduje etické rámce pro omezení zneužití.
Zdroj: 📰 TechRadar