← Zpět na Tech News
Tento článek je z archivu. Byl publikován 31.01.2026.
📰 SiliconANGLE News

Rozšiřující se povrch kyberútoků díky AI agentům, modelům a nepřátelským státům vyvolává nová varování

Rozšiřující se povrch kyberútoků díky AI agentům, modelům a nepřátelským státům vyvolává nová varování

Souhrn

Rostoucí adopce AI agentů dramaticky rozšiřuje povrch kybernetických útoků, což znepokojuje odborníky na kyberbezpečnost. Podle expertů z Darktrace a Cloud Security Alliance hrozí zneužití inter-agentové komunikace i serverů MCP, které slouží k propojení velkých jazykových modelů s externími zdroji. Tato rizika se stupňují v kontextu soutěže mezi státy jako Čína.

Klíčové body

  • AI agenti rozšiřují povrch útoků díky autonomním akcím a přístupu k externím systémům.
  • Servery MCP, standard od Anthropic z listopadu 2024, čelí útokům; bezpečnost je na uživatelích.
  • Dokumentované problémy od Red Hat a IANS Research; Anthropic vydal další pokyny v listopadu.
  • Obavy z inter-agentové komunikace a technologií urychlujících AI pokroky u států jako Čína.
  • ChatGPT od OpenAI spustil debatu o AI rizicích již v roce 2022, nyní se situace zhoršuje.

Podrobnosti

Článek popisuje, jak globální akcelerace umělé inteligence zvyšuje zranitelnosti její podpůrné infrastruktury. AI agenti, tedy autonomní systémy schopné samostatného rozhodování a akcí, mění bezpečnostní krajinu tím, že získávají přístup k datům, jiným modelům a aplikacím. Dr. Margaret Cunningham, viceprezidentka pro bezpečnost a AI strategii v Darktrace Inc. – firmě specializující se na detekci hrozeb pomocí AI –, to zdůraznila na virtuálním brífinku Cloud Security Alliance, neziskové organizace zaměřené na cloudovou bezpečnost.

Klíčovým problémem jsou servery Model Context Protocol (MCP), otevřený standard představený Anthropic PBC – společností vyvíjející bezpečné AI modely jako Claude – v listopadu 2024. MCP umožňuje velkým jazykovým modelům (LLM) propojovat se s externími daty, dalšími modely a softwarem, což urychluje jejich nasazení. Anthropic však přenesl odpovědnost za zabezpečení na uživatele, což security výzkumníci z Red Hat Inc. – dodavatele open-source řešení – a IANS Research označili za rizikové. V nedávných měsících zdokumentovali konkrétní zranitelnosti, včetně útoků na tyto servery. Anthropic v listopadu vydal aktualizované pokyny, které zahrnují techniky jako kontrola kódu při provádění.

Debata o AI rizicích začala po uvedení ChatGPT od OpenAI Group PBC koncem 2022. Po více než třech letech široké adopce se nyní soustředí na agentické AI, které vykonávají složité úkoly samostatně. Další vrstvou jsou protokoly pro komunikaci mezi agenty a technologie urychlující národní AI programy, například v Číně, kde státní investice do AI představují potenciální zdroj útoků od “rogue nations”. Tyto servery slouží jako most mezi izolovanými modely a reálným světem, což je činí atraktivním cílem pro injekci škodlivého kódu nebo krádež dat.

Proč je to důležité

Tato rizika ohrožují celou AI ekosystém, kde agentové systémy slibují revoluci v automatizaci, ale bez robustního zabezpečení mohou sloužit k masivním útokům. Pro firmy a uživatele to znamená nutnost přehodnotit přístup k MCP a podobným protokolům – standardní konfigurace nestačí, je třeba implementovat vrstvenou ochranu včetně sandboxingu a monitoringu. V širším kontextu to zvyšuje tlak na regulace, protože soutěž států jako Čína s USA urychluje vývoj bez dostatečné bezpečnosti. Pokud se povrch útoků nebude kontrolovat, může to vést k systémovým selháním AI infrastruktury, podobně jako současné cloudové incidenty, ale v mnohem větším měřítku. Experti varují, že bez okamžitých opatření se agentická AI stane katalyzátorem kyberkrizi.


Číst původní článek

Zdroj: 📰 SiliconANGLE News

© 2026 Marigold.cz