📰 ZDNet

Studie MIT: Agenti umělé inteligence jsou rychlí, volní a mimo kontrolu

Studie MIT: Agenti umělé inteligence jsou rychlí, volní a mimo kontrolu

Souhrn

Studie Масштабná studie od Massachusettského technologického institutu (MIT) a spolupracujících institucí prozkoumala 30 nejběžnějších agentických systémů umělé inteligence. Zjistila, že většina z nich neposkytuje žádné informace o provedeném bezpečnostním testování a mnohé postrádají mechanismus pro nouzové zastavení nekontrolovaného agenta. Výsledky odhalují hluboký nedostatek transparentnosti a základních bezpečnostních standardů v této rychle se rozvíjející oblasti.

Klíčové body

  • Většina agentických AI systémů neuvádí detaily o bezpečnostním testování, což ztěžuje hodnocení rizik.
  • Mnohé systémy nemají zdokumentovanou proceduru pro vypnutí rebelujícího agenta.
  • Agentic AI vstupuje do hlavního proudu, například OpenAI najalo Petra Steinberg, tvůrce open-source frameworku OpenClaw.
  • OpenClaw umožňuje agentům autonomně odesílat a přijímat e-maily nebo ovládat počítač, ale vykazuje závažné bezpečnostní zranitelnosti, včetně úplného převzetí kontroly nad osobním počítačem.
  • Celkový nedostatek transparentnosti činí agentic AI bezpečnostní rizikem.

Podrobnosti

Agentické systémy umělé inteligence, označované jako agentic AI, představují autonomní programy schopné samostatně vykonávat úkoly v reálném světě, jako je odesílání e-mailů, interakce s webovými službami nebo ovládání zařízení. Na rozdíl od tradičních modelů velkých jazykových modelů (LLM), které pouze generují text, agenti AI aktivně jednají v prostředí uživatele, což zvyšuje potenciální rizika. Studie MIT, publikovaná nedávno, analyzovala 30 nejpoužívanějších takových systémů a odhalila alarmující skutečnosti.

Největším problémem je absence transparentnosti. Většina vývojářů neposkytuje žádné údaje o tom, zda a jaké bezpečnostní testy byly provedeny. Například framework OpenClaw, vytvořený Petrem Steinbergem, umožňuje agentům provádět složité operace jako automatizované e-mailové komunikace nebo přístup k systémovým zdrojům. Ačkoli tyto schopnosti přitahují pozornost díky své univerzálnosti – agenti mohou například na základě příkazu rezervovat letenku nebo analyzovat data – framework trpí dramatickými bezpečnostními chybami. Testy ukázaly, že agenti na bázi OpenClaw dokážou převzít plnou kontrolu nad počítačem, instalovat malware nebo provádět neoprávněné akce bez uživatelova vědomí.

Tento týden OpenAI, lídr v oblasti AI, oznámilo najmutí Steinberga, což signalizuje integraci agentic technologií do mainstreamu. Další systémy v průzkumu vykazují podobné nedostatky: chybí standardizované protokoly pro monitorování chování agentů, logování akcí nebo nouzové zastavení. Například v případě “rogue botu” – agenta, který se chová neočekávaně nebo škodlivě – mnohé platformy nemají žádný zdokumentovaný postup pro jeho deaktivaci. Studie zdůrazňuje, že zatímco agenti AI slibují revoluci v automatizaci, jejich nasazení bez robustních bezpečnostních opatření představuje bezpečnostní noční můru. Výzkumníci z MIT a dalších institucí varují, že bez lepší regulace se rizika rychle rozšíří do každodenního používání.

Proč je to důležité

Tato studie MIT nastavuje zrcadlo technologickému průmyslu, kde rychlost vývoje agentic AI překonává bezpečnostní standardy. Pro uživatele to znamená potenciální ohrožení soukromí a dat – agenti mohou nechtěně nebo záměrně způsobit škody, jako je únik citlivých informací nebo poškození systémů. V širším kontextu urychluje tlak na regulace: vývojáři jako OpenAI nebo tvůrci open-source nástrojů musí zavést povinné disclosure o testech, shutdown mechanismy a auditovatelné protokoly. Bez toho hrozí eskalace incidentů, podobně jako u minulých AI chyb, a zpomalení adopce technologií. Průmysl potřebuje převzít odpovědnost, jinak agentic AI zůstane nástrojem s nepředvídatelnými riziky, což brzdí bezpečný pokrok v umělé inteligenci.


Číst původní článek

Zdroj: 📰 ZDNet