Souhrn
Bývalý britský premiér Rishi Sunak změnil postoj k regulaci umělé inteligence: z organizátora prvního globálního summitu o bezpečnosti AI v roce 2023 se stal odpůrcem jakýchkoli zákonů. Vlády po celém světě upouštějí od přísných pravidel kvůli ekonomickým příležitostem, přestože AI jako ChatGPT se šíří rychlostí nejrychleji rostoucího softwaru v historii. Článek varuje, že čekání na katastrofu před zavedením regulací je riskantní sázka.
Klíčové body
- Rishi Sunak pořádal v roce 2023 AI Safety Summit, nyní tvrdí, že regulace není potřeba, protože firmy jako OpenAI dobrovolně spolupracují s výzkumníky.
- Vlády prioritizují ekonomický růst před bezpečností, bez důkazů o širokém poškození.
- ChatGPT dosáhl 10 % globální populace uživatelů do tří let od spuštění a ovlivňuje lidské myšlení.
- Firmy jako OpenAI čelí žalobám za psychické škody způsobené uživateli.
Podrobnosti
Článek Parmy Olsonové zmiňuje, jak se Rishi Sunak v roce 2023 obával rizik AI natolik, že svolal světové lídry a Elona Muska na první globální summit o bezpečnosti AI v Bletchley Parku. Tehdy Británie chtěla být „domovem regulace bezpečnosti AI“. Dnes Sunak tvrdí, že firmy jako OpenAI fungují dobře v spolupráci s bezpečnostními výzkumníky v Londýně, kteří testují modely na potenciální škody, jako je šíření dezinformací nebo manipulace. Tyto firmy se dobrovolně nechávají auditovat, což Sunak považuje za pozitivní. Autorka však poukazuje na riziko: co se stane, když se firmy rozhodnou spolupráci ukončit?
Tento obrat odráží globální trend. Vlády vidí v AI šanci na oživení stagnujících ekonomik – například ChatGPT od OpenAI, firmy zaměřené na velké jazykové modely (LLM), které generují text, odpovědi a kód na základě tréninku na obrovských datech, se stal nejrychleji rostoucím softwarem. Do tří let od spuštění v prosinci 2022 ho používá 10 % světové populace, což překonává růst sociálních sítí. Studie naznačují, že takové nástroje mění způsob myšlení uživatelů, snižují kritické myšlení a zvyšují závislost. OpenAI už čelí žalobám od rodin obětí, které upadly do bludů nebo sebevražd po nadměrném používání modelu.
Srovnání s jadernou technologií je trefné: i ta se původně šířila bez regulací kvůli ekonomickým a vojenským výhodám, než přišly Černobyl nebo Fukušima. AI rizika zahrnují nejen psychické dopady, ale i autonomní zbraně, masivní dezinformace ovlivňující volby nebo ztrátu pracovních míst v kreativních oborech. Firmy jako OpenAI, Anthropic nebo Google DeepMind slibují dobrovolné bezpečnostní testy, ale bez zákona mohou priorizovat zisky.
Proč je to důležité
Regulace AI ovlivní celý technologický ekosystém. Bez přísných pravidel hrozí eskalace rizik, jako je zneužití LLM k tvorbě deepfakeů nebo kyberútoků, což by způsobilo systémové selhání. Evropská unie s AI Actem vede v přístupu „riziko podle rizika“, kde vysoce rizikové systémy (např. v medicíně nebo dopravě) podléhají auditům. USA a Británie se spíš spoléhají na dobrovolnost, což kritici jako Yoshua Bengio varují jako chybu. Pro průmysl to znamená rychlejší inovace, ale pro uživatele vyšší expozici rizikům – od závislosti na AI po společenské polarizace. Dlouhodobě by absence regulací mohla vést k globálnímu „AI incidentu“, který donutí reaktivní opatření, podobně jako u klimatických změn.
Zdroj: 📰 Livemint