Souhrn
Průzkum Australské národní univerzity (Australian National University National Security College) ukázal, že 77 procent respondentů považuje použití umělé inteligence k útokům na australské lidi a firmy za nejzávažnější hrozbu v příštím desetiletí. Tato obava překonává i rizika ekonomické krize nebo klimatických změn. Data pocházejí z dvou průzkumů s více než 12 tisíci účastníky z listopadu 2024 a července 2025.
Klíčové body
- Použití AI k útokům na lidi a firmy: 77 % (nejvyšší, 40 % jako “velmi závažné”).
- Těžká ekonomická krize: 75 %.
- Narušení kritických dodávek kvůli zahraniční krizi: 74 %.
- Šíření falešných informací k podvodům: 73 %.
- Zahraniční interference v politice, ekonomice nebo společnosti: 72 %.
Podrobnosti
Průzkum hodnotil 15 potenciálních hrozeb na škále od “velmi závažné” po “nepodstatné”. Kombinací kategorií “velmi závažné” a “středně závažné” se AI umístila na prvním místě s 77 procenty v červenci 2025, což představuje nárůst oproti listopadu 2024. Například 40 procent respondentů označilo AI za “velmi závažné”, což je nejvyšší podíl mezi všemi hrozbami. Ekonomická krize následovala s 75 procenty, zatímco klimatická změna skončila na šestém místě s 67 procenty, přestože 38 procent ji vidí jako “velmi závažné”. Riziko zapojení Austrálie do vojenského konfliktu bylo hodnoceno 64 procenty.
Obavy z národní bezpečnosti rostou: v červenci 2025 souhlasilo s prohlášením “Jsem znepokojen/a australskou národní bezpečností” padesát procent respondentů, což je o osm procentuálních bodů více než v listopadu 2024. Všechny 15 hrozeb vykázaly růst vnímání závažnosti. Průzkum provedla Michelle Grattan z University of Canberra pro Australian National University, bez konfliktu zájmů.
V kontextu AI se obavy týkají pravděpodobně scénářů jako kyberútoky podporované AI, deepfakes pro dezinformace nebo automatizované útoky na infrastrukturu. Například AI může generovat personalizované phishingové kampaně nebo analyzovat slabiny firem pro cílené exploity. Tento průzkum odráží globální trendy, kde AI rizika jako adversarial attacks nebo model inversion útoky přitahují pozornost regulátorů. V Austrálii to souvisí s nedávnými incidenty, jako růst AI-generovaných scamů, kde podvodníci používají hlasové klonování k oklamání obětí.
Proč je to důležité
Tento průzkum signalizuje posun veřejného vnímání, kde technologické hrozby jako AI překonávají tradiční bezpečnostní rizika. Pro průmysl to znamená rostoucí tlak na bezpečnostní opatření, jako robustní AI governance, red teaming modelů nebo federované učení pro ochranu dat. V Austrálii to může urychlit legislativu podobnou EU AI Act, která klasifikuje vysokorizikové AI systémy. Pro uživatele to podtrhuje nutnost vzdělávání o detekci AI-generovaného obsahu, jako vodoznaky v modelech typu DALL-E nebo detektory pro text z GPT. V širším ekosystému to zdůrazňuje, že bezpečnost AI není jen technickým problémem, ale ovlivňuje ekonomickou stabilitu a důvěru veřejnosti. Pokud se obavy prohlubují, může to způsobit zpomalení adopce AI v podnicích kvůli reputačním rizikům.
Zdroj: 📰 The Conversation Africa