Souhrn
Austrálie zveřejnila Národní plán pro umělou inteligenci, který má urychlit zavádění AI do ekonomiky. Vláda se rozhodla neuvádět nové specifické zákony pro AI, ale spoléhat se na existující právní rámec k řešení rizik. Místo přísnějších opatření pro vysokorizikové aplikace plánuje investice do datových center a dovedností.
Klíčové body
- Žádné nové specifické zákony pro AI, využití stávajících regulací.
- Zaměření na přilákání investic do pokročilých datových center a rozvoj AI dovedností pro ochranu pracovních míst.
- Zřízení AI Safety Institute v roce 2026 pro posouzení rizik.
- Agentury a regulátoři budou řídit rizika v rámci svých sektorů.
- Předchozí plány na dobrovolné směrnice z roku 2024 byly opuštěny ve prospěch flexiblějšího přístupu.
Podrobnosti
Australská labouristická vláda, která nemá žádné specifické zákony pro umělou inteligenci, původně v loňském roce naznačovala zavedení dobrovolných směrnic kvůli obavám z ochrany soukromí, bezpečnosti a transparentnosti. Národní plán pro AI, zveřejněný 2. prosince, však tento směr mění. Dokument klade důraz na ekonomickou integraci AI: přilákání investic do datových center pro zpracování velkých objemů dat nutných pro trénink AI modelů, rozvoj dovedností pracovní síly, aby AI neohrozila stávající zaměstnanost, a zajištění veřejné bezpečnosti při každodenním nasazení technologií jako jsou velké jazykové modely nebo autonomní systémy.
Plán explicitně uvádí, že regulační přístup bude stavět na robustním existujícím právním rámci. To znamená, že rizika jako bias v algoritmech, úniky dat nebo dezinformace budou řešena prostřednictvím současných zákonů o ochraně dat (např. Privacy Act), spotřebitelské ochraně a sektorově specifických předpisů. Agentury jako Australian Competition and Consumer Commission nebo Office of the Australian Information Commissioner zůstanou odpovědné za identifikaci a mitigaci škod v oblastech jako finance, zdravotnictví nebo doprava. Tento přístup kontrastuje s přísnějšími modely jinde: například Evropský AI Act klasifikuje AI podle rizikovosti a zavádí povinné testování pro vysokorizikové systémy, zatímco USA spoléhají na dobrovolné rámce od společností jako OpenAI.
Dalším krokem je založení AI Safety Institute v roce 2026, který má pomoci s hodnocením rizik, testováním modelů a vývojem standardů. Institut bude podobný britskému AI Safety Institute a zaměří se na bezpečnostní aspekty, jako je robustnost proti jailbreakům nebo predikce společenských dopadů. Plán také zdůrazňuje etické aspekty, ale bez vymahatelných sankcí.
Proč je to důležité
Tento opatrný přístup Austrálie odráží globální dilema mezi inovací a regulací. Pro průmysl znamená nižší bariéry pro nasazení AI v oblastech jako zdravotnictví (diagnostika pomocí AI modelů) nebo zemědělství (optimalizace úrody), což může posílit ekonomiku v regionu Asie-Pacifik. Nicméně kritici upozorňují na rizika: bez specifických pravidel pro high-risk AI, jako jsou autonomní zbraně nebo deepfakes, mohou nastat incidenty podobné těm v USA (např. bias v rekurzích). V širším kontextu posiluje to trend “light-touch” regulace, který sledují i Velká Británie a Singapur, oproti restriktivnímu EU modelu. Pro uživatele v Česku a EU to znamená, že australské firmy budou konkurovat s menšími regulačními zátěžemi, což ovlivní globální dodavatelské řetězce AI technologií.
Zdroj: 📰 CNA
|