Souhrn
Australská federální vláda zveřejnila národní plán pro umělou inteligenci, který se zaměřuje na podporu investic do datových center a školení pracovníků, místo zavádění nových povinných bezpečnostních opatření. Tento přístup znamená odklon od dřívějšího návrhu bývalého ministra průmyslu Eda Husica na deset “povinných zábradlí”, která měla regulovat vysoce rizikové systémy AI. Od příštího roku začne fungovat institut pro bezpečnost AI s rozpočtem 30 milionů dolarů, který bude monitorovat vývoj technologie.
Klíčové body
- Odmítnutí povinných zábradlí: Vláda se rozhodla využít stávající zákony a expertní znalosti regulátorů místo nového samostatného zákona o AI.
- Podpora růstu: Plán zdůrazňuje investice do datových center a přípravu pracovní síly na éru AI.
- Nový institut: AI Safety Institute začne od roku 2026 monitorovat AI a identifikovat mezery v legislativě.
- Historický kontext: Plán vychází z konzultací spuštěných v roce 2023, které reagovaly na obavy veřejnosti z rychlého šíření AI.
- Firmy vítány: Podnikatelské kruhy prosazovaly odložení tvrdých regulací.
Podrobnosti
Národní plán pro umělou inteligenci, zveřejněný 1. prosince 2025, představuje významný obrat v australské politice vůči této technologii. Původně měl plán zahrnovat deset povinných bezpečnostních opatření navržených v září předchozího roku bývalým ministrem průmyslu Edem Husicem. Tyto opatření byla zamýšlena pro vývojáře vysoce rizikových systémů AI a zahrnovala tvorbu plánů řízení rizik, testování systémů před nasazením i po něm, zřízení mechanismů pro stížnosti, sdílení dat po incidentech a umožnění kontroly třetími stranami. Takový rámec měl fungovat pod samostatným zákonem o AI, který by kategorizoval technologie podle rizikovosti – striktní pravidla pro vysokorizikové aplikace a volnější prostor pro nízkorizikové nástroje, jako jsou jednoduché chatboti nebo generativní modely pro kreativní úkoly.
Vláda však tento směr opustila po tlaku podnikatelských skupin a rozhodla se pro krátkodobé řízení AI prostřednictvím “silných stávajících, většinou technologie neutrálních právních rámců”. To znamená, že existující regulátoři, jako například Úřad pro konkurenci a spotřebitele (ACCC) nebo Komise pro soukromí (OAIC), budou využívat své stávající pravomoci k řešení rizik, jako jsou dezinformace, diskriminace nebo bezpečnostní zranitelnosti v AI systémech. Plán tak navazuje na přístup podobný evropskému AI Actu, ale bez jeho rigidní kategorizace.
Klíčovou novinkou je zřízení AI Safety Institute s rozpočtem 30 milionů australských dolarů, který od roku 2026 bude sledovat globální trendy v AI, analyzovat rizika a radit vládě, firmám i agentuře, kde legislativní rámec selhává. Institut nebude mít sankční pravomoci, ale poslouží jako poradní orgán. Plán zároveň podporuje investice do infrastruktury, jako jsou datová centra pro trénink velkých jazykových modelů (LLM), které vyžadují obrovské výpočetní kapacity na GPU, a programy rekvalifikace pracovníků pro role v AI, například datoví anotátoři nebo etičtí auditori systémů.
Proč je to důležité
Tento plán odráží globální dilema regulace AI: vyvážení inovací a rizik. Austrálie, jako středně velká ekonomika závislá na tech exportu, se přidává k zemím jako USA, které preferují dobrovolné směrnice před tvrdými pravidly, na rozdíl od EU s jejím AI Actem. Pro průmysl to znamená méně byrokracie a rychlejší nasazení AI v oblastech jako zdravotnictví nebo finance, ale zvyšuje riziko incidentů, jako jsou biasy v rozhodovacích systémech nebo deepfakes. Pro uživatele to přineslo méně okamžité ochrany, ale potenciálně levnější AI nástroje. Dlouhodobě bude institut klíčový pro identifikování mezer, zejména v kontextu rychlého pokroku v modelech jako GPT nebo Gemini, kde současné zákony nestačí na specifická rizika, jako je halucinace nebo autonomní rozhodování.
Zdroj: 📰 ABC News (AU)
|