Souhrn
Australská labouristická vláda pod vedením Anthonyho Albaneseho zveřejnila národní plán umělé inteligence, který má zajistit inkluzivní AI ekonomiku chránící pracovníky a podporující místní vývoj. Plán odmítá zavést povinné bezpečnostní prvky pro vysoce rizikové AI systémy a spoléhá na existující zákony. Kritici poukazují na nedostatek specificity v opatřeních.
Klíčové body
- Národní AI plán slibuje inkluzivní ekonomiku, která chrání pracovníky, zaplňuje mezery ve službách a podporuje lokální AI vývoj.
- Austrálie neimplementuje povinné bezpečnostní mechanismy (guardrails) pro vysoce rizikové AI, na rozdíl od předchozích návrhů.
- Stávající právní rámec má být dostačující, s možnými drobnými úpravami pro specifická rizika.
- Vytváří se AI Safety Institute s rozpočtem 30 milionů australských dolarů v rámci Ministerstva průmyslu.
- Autoři článku (z Univerzity v Melbourne a Sydney) mají financování z Australian Research Council a souvisí s výzkumnými centry pro automatizované rozhodování.
Podrobnosti
Australský národní plán umělé inteligence, označený jako “celozákonný rámec, který zajišťuje, že technologie slouží lidem, nikoli naopak”, byl zveřejněn 6. prosince 2024. Dokument vychází z práce akademiků jako Jake Goldenfein, Christine Parker z University of Melbourne a Kimberlee Weatherall z University of Sydney, kteří se zabývají právem a technologií. Ti poukazují na to, že plán je ambiciózní v cílech, ale chybí mu konkrétní kroky k jejich dosažení.
Plán zdůrazňuje inkluzivitu: má chránit pracovníky před automatizací, například v sektorech jako zdravotnictví nebo veřejné služby, kde AI může zaplnit nedostatky personálu. Podporuje také místní vývoj AI, což znamená investice do australských firem a výzkumu, aby země nezaostávala za USA nebo Čínou. Klíčovým obratem je rozhodnutí ne zavádět povinné guardrails – tedy bezpečnostní omezení – pro systémy AI s vysokým rizikem, jako jsou autonomní rozhodovací systémy v justice nebo zdravotnictví. Místo toho vláda tvrdí, že současný právní rámec, včetně zákonů o soukromí, odpovědnosti a spotřebitelské ochraně, je dostatečný. Pro specifická rizika slouží nově zřízený AI Safety Institute s rozpočtem 30 milionů AUD (přibližně 450 milionů Kč), který spadá pod Department of Industry. Tento institut má testovat AI modely, vydávat doporučení a koordinovat rizika, podobně jako britský AI Safety Institute, ale bez regulační moci.
Autoři upozorňují na slabiny: plán neřeší, jak přesně integrovat AI do stávajících zákonů, kde chybí specifická pravidla pro algoritmické rozhodování. Například v EU platí AI Act s přísnými kategoriemi rizik, zatímco Austrálie volí dobrovolný přístup. Financování autorů z ARC Centre of Excellence for Automated Decision-Making and Society (CEADAS) naznačuje, že výzkum hraje roli, ale plán nereaguje na jejich doporučení pro silnější regulaci. DOI článku: https://doi.org/10.64628/AA.s5tcruwqh.
Proč je to důležité
Tento plán ovlivní australský AI ekosystém, kde působí firmy jako Atlassian nebo výzkumná centra v Sydney a Melbourne. Pro průmysl znamená nižší regulační zátěž, což usnadní nasazení AI v oblastech jako autonomní vozidla nebo zdravotnické diagnostika, ale zvyšuje rizika chyb, jako bias v rozhodování. V globálním kontextu ukazuje trend k měkké regulaci mimo EU, což může ovlivnit standardy v Asii-Pacifiku. Pro uživatele v Česku to znamená, že australské AI technologie (např. v cloudu nebo open-source modelech) budou méně regulované, což vyžaduje opatrnost při jejich adopci. Celkově plán posiluje konkurenceschopnost, ale bez specificity hrozí, že benefity zůstanou u velkých firem a ne u široké veřejnosti.
Zdroj: 📰 The Conversation Africa
|