Souhrn
Toto vydání Risks Digest 34.88, vydané 20. února 2026 moderátorem Peterem G. Neumannem, shrnuje širokou škálu rizik spojených s počítačovými systémy. Zaměřuje se na selhání podpory softwaru v automobilech, nové CVE zranitelnosti, kyberútoky na zdravotnická zařízení, botový traffic, spory o bezpečnost AI, hacky velkých jazykových modelů a regulace AI v EU. Tyto incidenty odhalují systémové slabiny v kritické infrastruktuře.
Klíčové body
- Kyberútok na University of Mississippi Medical Center vedl k uzavření všech klinik a zrušení služeb.
- Nová CVE-2025-21858 označená jako “Bad News” z Bruce Schneierova CryptoGramu představuje vážnou zranitelnost.
- Hack ChatGPT a Google AI trval pouze 20 minut, což ukazuje na snadnou manipulovatelnost LLM.
- EU Parlament zablokoval AI nástroje kvůli rizikům kyberbezpečnosti a soukromí.
- Geoffrey Hinton varuje, že AI musí podporovat ‘mateřské instinkty’, jinak hrozí vyhynutí lidstva.
Podrobnosti
Risks Digest je dlouholeté fórum ACM (Association for Computing Machinery) zaměřené na rizika veřejnosti z počítačů a souvisejících systémů, archivované na risks.org. Toto vydání pokrývá incidenty z února 2026, které ilustrují akutní problémy. Například článek Ars Technica popisuje, co se stane s automobilem, když firma za jeho software zanikne: softwarové aktualizace přestanou, což ohrozí bezpečnostní funkce jako autonomní brzdění nebo aktualizace map. To je kritické pro vozidla závislá na cloudovém softwaru, kde absence podpory vede k nepoužitelnosti.
Další položka je CVE-2025-21858, označená Bruce Schneierem jako “Bad News” v jeho CryptoGramu. Tato zranitelnost, pravděpodobně zero-day exploit, umožňuje útočníkům kritické útoky na širokou škálu systémů, což vyžaduje okamžité patchy. Podobně University of Mississippi Medical Center utrpěla kyberútok, který paralyzoval provoz: všechny kliniky zavřeny, služby zrušeny, pacienti odkázáni na jiné zařízení. Útok pravděpodobně ransomware, typický pro zdravotnictví kvůli citlivým datům.
V oblasti AI vyniká článek BBC o hacku ChatGPT (od OpenAI) a Google AI, který trval 20 minut: útočník obešel bezpečnostní filtry prompt injection technikami, což umožnilo generování škodlivého obsahu. To ukazuje, jak LLM jako GPT nebo Gemini lze rychle zkompromitovat bez pokročilých nástrojů. EU Parlament mezitím zablokoval nasazení AI nástrojů kvůli rizikům kyberútoků a únikům dat, což ovlivní evropské firmy. Wired hlásí vlnu nevysvětleného botového trafficu na webu, který přetěžuje servery a zkresluje metriky.
Spor mezi US Department of Defense a Anthropic (firma za AI modelem Claude) se týká bezpečnostních testů AI, kde DoD požaduje přístup k modelům pro red-teaming. Geoffrey Hinton, otec moderní neuronové sítě, varuje v CBC, že AI arms race riskuje vyhynutí, pokud nebude podporovat ‘mateřské instinkty’ – tedy etické mechanismy bránící agrese. Další příklady zahrnují AI-generované komentáře, které ovlivnily kalifornskou regulaci znečištění (LA Times), nebo TikTok pixel sbírající data o zdraví (Disconnect).
Proč je to důležité
Tato vydání Risks Digest zdůrazňují systémová rizika v kyberbezpečnosti a AI, kde selhání jedné firmy ovlivní miliony uživatelů – od nemocničních pacientů po řidiče autonomních aut. Pro průmysl znamená to nutnost diverzifikace dodavatelů softwaru a posílení open-source alternativ, aby se zabránilo single-point-of-failure. V AI kontextu ukazují hacky na nedostatečné jailbreak ochrany v modelech jako ChatGPT, což urychluje regulace jako EU AI Act. Bezpečnostní krize jako CVE nebo ransomware útoky na kritickou infrastrukturu (zdravotnictví) vedou k hospodářským ztrátám v miliardách a ztrátě důvěry. V širším ekosystému to nutí firmy jako OpenAI, Google a Anthropic investovat do robustních bezpečnostních protokolů, zatímco státy jako USA a EU zesilují dohled. Ignorování těchto rizik může vést k eskalaci, jak varuje Hinton, s potenciálem existenciálních hrozeb z AI arms race.
Zdroj: 📰 Seclists.org