📰 Seclists.org

Rizika Digest 34.87: Přehled počítačových rizik z února 2026

Rizika Digest 34.87: Přehled počítačových rizik z února 2026

Souhrn

Toto vydání RISKS digestu z 14. února 2026, moderované Peterem G. Neumannem, sbírá příspěvky o rizicích v počítačových systémech. Mezi klíčovými tématy patří uzavření vzdušného prostoru v El Paso kvůli vadné technologii na mexické straně, bezpečnostní problémy ChatGPT s funkcí paměti, hacky na Harvard a UPenn nebo porušení Evropské komise. Digest upozorňuje na systémové chyby v AI, letectví a bezpečnostních systémech.

Klíčové body

  • Uzavření vzdušného prostoru v El Paso FAA kvůli “grave risk of fatalities” způsobenému novou technologií z Mexika.
  • ChatGPT memory feature umožňuje superchargované prompt injection útoky, což zvyšuje riziko manipulace AI.
  • Hackeři zveřejnili osobní data z útoků na Harvard a UPenn; Evropská komise byla také zasažena.
  • Soud proti Tesle odhalil zoufalý 911 hovor řidiče uvězněného v hořícím autě s vadným systémem.
  • Další rizika: chyba skenerů tělesných skenerů ve věznicích, naivní AI a smrt Davea Farbera.

Podrobnosti

Digest začíná incidentem v El Paso, kde Federální úřad pro letectví (FAA) uzavřel vzdušný prostor kvůli nové technologii nasazené na mexické straně hranice. Podle New York Times šlo o systém, který vytvářel nebezpečné interference, ohrožující letadla a vedoucí k riziku smrtelných nehod. FAA musela zasáhnout, aby zabránila katastrofě, což ilustruje rizika nekontrolovaného zavádění nových radarových nebo sledovacích technologií bez koordinace mezi státy.

V oblasti AI upozorňuje Zoe Hitzig na chyby OpenAI podobné těm Facebooku, kvůli čemuž rezignovala. OpenAI opakuje selhání v moderování obsahu a etickém nasazení modelů, což vede k dezinformacím a zneužitím. Boston Globe varuje, že USA nejsou připraveny na dopady AI na pracovní místa, kde velké jazykové modely (LLM) jako GPT automatizují rutinní úkoly bez adekvátních sociálních opatření.

Zvláště alarmující je zpráva z DarkReading o funkci paměti v ChatGPT, která umožňuje pokročilé prompt injection útoky. Prompt injection je technika, při níž útočník vloží škodlivý vstup do kontextu AI, překonávající bezpečnostní filtry. S pamětí, která uchovává konverzační historii, se tyto útoky zesilují – útočník může postupně manipulovat model k úniku dat nebo šíření malware. To ovlivňuje uživatele používající ChatGPT pro citlivé úkoly, jako je analýza dokumentů nebo automatizace.

Další incidenty zahrnují soud proti Tesle, kde 911 záznam odhalil řidiče uvězněného v hořícím Modelu kvůli selhání dveří a autonomního systému. Hackeři publikují data z Harvardu a UPenn, včetně osobních údajů studentů a zaměstnanců. Evropská komise utrpěla breach, což ohrožuje regulační data pro AI Act. Vězeňské tělesné skenery mylně detekují tampóny nebo piercingy jako kontraband, vedoucí k zbytečným kontrolám. Rob Slade diskutuje rizika naivní AI, která bez robustního školení selhává v reálných scénářích, a Martin Ward reaguje na AI pronájem lidských těl.

Digest končí nekrologem Davea Farbera, klíčové postavy internetu, který zemřel ve věku 91 let.

Proč je to důležité

Tyto incidenty ukazují systémové slabiny v kritických infrastrukturách: letectví závisí na spolehlivých senzorech, AI na bezpečném zpracování vstupů a autonomní systémy na redundanci. Pro průmysl znamená prompt injection v ChatGPT nutnost revize nasazení LLM v enterprise prostředích, kde memory feature slouží k personalizaci, ale zvyšuje povrch útoku. Hacky na instituce jako Harvard nebo EU podtrhují nedostatečnou ochranu dat v cloudu. V širším kontextu to tlačí na lepší regulace, jako EU AI Act, a investice do verifikace technologií. Bez opatření hrozí eskalace rizik v autonomních vozidlech (Tesla), bezpečnostních systémech a AI aplikacích, což ovlivní uživatele i ekonomiku.


Číst původní článek

Zdroj: 📰 Seclists.org