← Zpět na Tech News
Tento článek je z archivu. Byl publikován 31.01.2026.
📰 TechRadar

Když se agentické systémy umělé inteligence dostanou do špatných rukou

Když se agentické systémy umělé inteligence dostanou do špatných rukou

Souhrn

Agentické systémy umělé inteligence, které autonomně dosahují cílů bez neustálého lidského dohledu, se rychle prosazují v praxi, například v zdravotnictví. Podle průzkumu IEEE dosáhnou masového přijetí mezi spotřebiteli do roku 2026. Tato autonomie však zvyšuje rizika v oblasti soukromí, bezpečnosti a etiky, zejména při manipulaci s citlivými daty.

Klíčové body

  • Agentická AI autonomně interpretuje cíle, rozkládá je na dílčí úkoly a adaptuje se na změny bez kontinuálních instrukcí.
  • Systémy se učí z prováděných úkolů a zlepšují svou efektivitu v čase.
  • V zdravotnictví podporují administrativní procesy, jako je revize a organizace klinických dat.
  • Rizika zahrnují porušení GDPR, nadměrné sbírání dat a útoky ze strany škodlivých aktérů.
  • Podle expertky Keeley Crockett z Manchester Metropolitan University jsou tyto systémy už nyní v každodenním použití s velkými objemy citlivých informací.

Podrobnosti

Agentická umělá inteligence představuje pokročilý typ AI systémů, které nejen reagují na příkazy, ale aktivně plánují a vykonávají akce k dosažení stanovených cílů. Na rozdíl od tradičních modelů, jako jsou velké jazykové modely typu GPT, které generují text na základě vstupu, agentická AI rozkládá komplexní úkol na podúlohy, vybírá nejlepší strategii a upravuje chování podle výsledků. Tento princip je například implementován v nástrojích jako Auto-GPT nebo langchain-based agents, kde systém může volat externí API, procházet web nebo ovládat software bez dalšího zásahu.

V praxi se tyto systémy již používají v oblastech s vysokou mírou citlivých dat. V zdravotnictví automatizují administrativu tím, že procházejí pacientovy záznamy, kategorizují diagnózy a připravují reporty pro lékaře. Průzkum IEEE předpovídá, že do roku 2026 budou takové systémy masově dostupné spotřebitelům, což znamená integraci do aplikací jako osobní asistenti nebo chytré domácnosti. Keeley Crockett, profesorka výpočetní inteligence na Manchester Metropolitan University a přední expertka IEEE, upozorňuje, že tato autonomie umožňuje systémům sbírat data nad rámec nutného, pokud není přesně nastaveno soulad s předpisy jako GDPR. Například agentická AI by mohla pro optimalizaci úkolu načíst nepotřebné osobní údaje z databází, což vede k riziku úniku informací.

Dalším problémem je bezpečnost. Na rozdíl od běžných podnikových aplikací mají agentické systémy široký dosah akcí – mohou odesílat e-maily, provádět transakce nebo měnit nastavení systémů. To je činí ideálním cílem pro kyberzločince, kteří by mohli systém infikovat malwarem, aby směřoval k škodlivým cílům, jako je krádež dat nebo sabotáž. Bez robustního sandboxingu nebo monitoringu může chyba v programování vést k nečekaným akcím, například neoprávněnému přístupu k souborům.

Proč je to důležité

Tato rizika nejsou teoretická – s blížícím se masovým nasazením agentické AI do roku 2026 se stávají systémovou hrozbou pro průmysl i jednotlivce. Pro uživatele to znamená nutnost pečlivého nastavení oprávnění a pravidelného auditu, zatímco firmy musí investovat do alignment technik, které zajistí, že autonomie AI respektuje etické a právní hranice. V širším kontextu AI ekosystému to podtrhuje potřebu regulací podobných EU AI Act, které by klasifikovaly agentické systémy jako vysoce rizikové. Bez toho hrozí nejen finanční pokuty za porušení GDPR, ale i ztráta důvěry v technologii, což by zpomalilo inovace v oblastech jako zdravotnictví nebo logistika. Jako expert v AI vidím, že klíčem je vyvážený přístup: maximalizovat výhody autonomie při minimálním riziku prostřednictvím pokročilého monitoringu a open-source nástrojů pro bezpečnostní testování.


Číst původní článek

Zdroj: 📰 TechRadar

© 2026 Marigold.cz