Souhrn
Podle zprávy World Economic Forum Cyber Risk in 2026 je umělá inteligence (AI) nejdůležitějším faktorem ovlivňujícím strategie kyberbezpečnosti v roce 2026, který 94 % dotázaných vedoucích pracovníků označilo za multiplikátor síly pro obranu i útoky. Generativní AI rozšiřuje povrch pro útoky a zvyšuje riziko neúmyslného úniku dat, což překonává kapacity čistě lidských týmů. Prediktivní AI posouvá intervenci dříve v cyklu útoku tím, že identifikuje koordinované chování a signály rizik.
Klíčové body
- 94 % vedoucích pracovníků vidí AI jako klíčový faktor v kyberbezpečnosti.
- Generativní AI rozšiřuje povrch útoků a umožňuje složitější taktiky.
- Přechod od reaktivní remediativní kyberobrany k prediktivní prevenci.
- Použití strojového učení k korelaci aktivit napříč systémy místo izolovaných alertů.
- Příklad: Platforma Cyber Fraud Intelligence od Group-IB pro detekci podvodů v rané fázi.
Podrobnosti
Článek z PYMNTS z 15. ledna 2026 se opírá o zprávu World Economic Forum z 12. ledna, která zdůrazňuje, jak generativní AI technologie zvyšují povrch útoků. Tyto systémy usnadňují neúmyslné úniky dat a složitější exploitační taktiky, které překonávají rychlost lidských týmů. Tradiční kyberobrana se dlouho zaměřovala na opravy po ztrátách, ale AI umožňuje zásah dříve tím, že analyzuje koordinované chování a signály rizik před rozšířením podvodů.
Firmy zvyšují nasazení AI proti podezřelým aktivitám, přesto čelí rizikům ze shadow AI – neautorizovaných třetích stran, agentů a aplikací, které otevírají dveře kyberrizikům. Bezpečnostní firmy a finanční instituce přecházejí na strojové učení, které koreluje aktivity napříč více systémy. Konkrétním příkladem je platforma Cyber Fraud Intelligence od Group-IB, společnosti specializující se na detekci kyberpodvodů a threat intelligence. Tato platforma analyzuje behaviorální vzorce napříč účastnícími se organizacemi, identifikuje znaky převzetí účtů (account takeover), podvodů s autorizovanými push platbami (authorized push payment scams) a aktivit money-mulů ještě v rané fázi vývoje schémat. Místo čekání na potvrzené ztráty tak instituce mohou reagovat preventivně.
Tento přístup kontrastuje s tradičními izolovanými alerty, které často vedou k přetížení týmů falešnými poplachy. Strojové učení zde slouží k detekci anomálií v reálném čase, například k rozpoznání koordinovaných pokusů o převzetí účtů nebo praní špinavých peněz přes sítě money-mulů. Group-IB, původně ruská firma nyní s globálním dosahem, poskytuje threat intelligence a forenzní nástroje pro finanční sektor, což umožňuje sdílení dat mezi institucemi pro lepší predikci.
Proč je to důležité
Tento trend znamená posun v kyberbezpečnosti od reaktivních opatření k prediktivním, což snižuje ztráty pro finanční instituce a firmy. V širším kontextu AI ekosystému to podtrhuje dvojí roli AI: jako nástroje útočníků i obránců. Pro uživatele a průmysl to znamená nutnost integrace AI do bezpečnostních strategií, aby se vyrovnali automatizovaným útokům. Rizika shadow AI však vyžadují lepší governance, jinak mohou vést k novým zranitelnostem. V roce 2026 tak AI není jen technologickým trendem, ale nutností pro udržení konkurenceschopnosti v kyberprostoru.
Zdroj: 📰 pymnts.com