Souhrn
Cisco rozšiřuje své řešení Cisco AI Defense o nové funkce zaměřené na bezpečnost v éře autonomních AI agentů. Klíčové novinky zahrnují skenování celého řetězce dodávek AI komponent, pokročilé testování algoritmů na zranitelnosti a real-time ochrany pro agenty. Tyto změny reagují na rostoucí rizika spojená s third-party modely, datasety a agenty s přístupem k citlivým datům.
Klíčové body
- Bezpečnost celého řetězce dodávek AI: Automatické skenování modelů, knihoven, datasetů a nástrojů pro agenty z platforem jako Hugging Face, kde je přes 2 miliony modelů a 500 tisíc datasetů.
- Pokročilý algoritmický red teaming: Simulace útoků na algoritmy pro odhalení skrytých zranitelností v AI systémech.
- Real-time ochranné mechanismy pro agenty: Okamžité blokování rizikového chování agentů, kteří mohou pracovat na prospěch útočníka.
- Integrace do vývojového workflow: Catalogizace aktiv a identifikace rizik před nasazením do podnikových AI aplikací.
- Ochrana před novými hrozbami: Řeší integritu third-party komponent a agenty s přístupem k citlivým datům.
Podrobnosti
Cisco AI Defense, které bylo představeno před rokem jako první ucelené podnikové řešení pro bezpečnost AI, nyní prochází největší aktualizací od svého spuštění. Tato aktualizace cílí na tři hlavní oblasti: bezpečnost celého řetězce dodávek AI, pokročilý algoritmický red teaming a real-time ochranné mechanismy pro agenty, známé jako guardrails.
Řetězec dodávek AI se stal kritickým bodem slabosti díky snadné dostupnosti open-source a third-party komponent. Platforma Hugging Face nabízí přes 2 miliony modelů strojového učení a 500 tisíc datasetů, což vývojářům usnadňuje tvorbu AI aplikací, ale zároveň zvyšuje riziko zranitelností. Tyto komponenty – včetně modelů, knihoven, datasetů, MCP serverů, zdrojů a nástrojů pro agenty – mohou obsahovat skryté chyby nebo zlomyslný kód, který ohrozí celý systém. Cisco AI Defense nyní integruje bezproblémové skenování do vývojového procesu, kde katalogizuje všechny externí aktiva a označí potenciální rizika ještě před integrací. Například model načtený z Hugging Face je automaticky prozkoumán na malware, backdoory nebo nesprávné tréninkové data, což zabraňuje kompromitaci podnikových AI systémů.
Pokročilý algoritmický red teaming rozšiřuje tradiční testování tím, že simuluje sofistikované útoky přímo na algoritmické jádro AI. Zatímco dříve se týkaly obavy hlavně chatbotech produkujících škodlivý obsah, dnes musí týmy řešit i integritu third-party komponent a agenty s autonomním přístupem k datům. Red teaming zde identifikuje slabiny jako prompt injection nebo model poisoning, které by mohly vést k úniku dat.
Real-time agentic guardrails monitorují chování AI agentů během provozu. Agenti, kteří autonomně plní úkoly jako analýza dat nebo interakce s API, mohou být kompromitováni a sloužit útočníkům. Tyto guardrails okamžitě detekují anomálie, jako neoprávněný přístup k citlivým souborům, a blokují je. Cisco tak chrání nejen statické komponenty, ale i dynamické systémy v éře agentů, kde AI není jen nástroj, ale autonomický aktér.
Tato řešení jsou navržena pro enterprise prostředí, kde se AI integruje do kritických aplikací. Cisco, globální leader v síťové bezpečnosti a IT infrastruktuře, tak reaguje na rychlý vývoj AI, kde se rizika posunula od jednoduchých halucinací k systémovým hrozbám.
Proč je to důležité
V širším kontextu AI ekosystému představuje tento pokrok odpověď na rostoucí komplexitu hrozeb v agentic éře, kde AI agenti získávají široké oprávnění. Pro podniky znamená snížení rizik spojených s third-party komponentami, což je klíčové při 80 % AI projektů využívajících open-source modely. Bez takových nástrojů hrozí úniky dat nebo sabotáž, jak ukazují nedávné incidenty s kompromitovanými modely. Pro průmysl posiluje důvěru v nasazení AI v regulovaných odvětvích jako finance nebo zdravotnictví, kde bezpečnostní normy jako NIST AI RMF vyžadují supply chain vértování. Kriticky řečeno, i když Cisco není jediný hráč (konkurence jako Palo Alto nebo Microsoft Sentinel mají podobné funkce), jejich integrace do existujícího security stacku činí řešení praktickým pro velké sítě. Dlouhodobě to může standardizovat bezpečnost AI, ale závisí na adopci a testech v reálném prostředí.
Zdroj: 📰 Cisco.com