Souhrn
Bývalý britský premiér Rishi Sunak změnil svůj postoj k regulaci umělé inteligence: z organizátora prvního globálního summitu o bezpečnosti AI v roce 2023 se stal zastáncem absence legislativy. Vlády po celém světě upouštějí od přísných pravidel kvůli ekonomickým příležitostem, přestože rychlý růst technologií jako ChatGPT zvyšuje rizika. Článek varuje před čekáním na katastrofu.
Klíčové body
- Rishi Sunak pořádal AI Safety Summit v roce 2023, nyní tvrdí, že regulace není potřeba, protože firmy jako OpenAI dobrovolně spolupracují s výzkumníky.
- Globální trend: vlády prioritizují ekonomický růst před bezpečností, bez důkazů o širokém poškození.
- ChatGPT dosáhl 10 % globální populace uživatelů během tří let, což je nejrychlejší růst softwaru v historii.
- OpenAI čelí žalobám od rodin obětí duševních poruch spojených s používáním AI.
- Kritika: čekání na katastrofu je hazard s rychle se šířící technologií.
Podrobnosti
Článek od Parmy Olsonové analyzuje změnu postoje klíčových politiků k regulaci umělé inteligence. Rishi Sunak, který v roce 2023 hostil v Bletchley Parku první globální AI Safety Summit za účasti Elona Muska a dalších expertů na rizika AI, nyní argumentuje, že firmy jako OpenAI, vývojář ChatGPT, se dobrovolně nechávají testovat bezpečnostními výzkumníky v Londýně. Tyto testy zahrnují audity modelů na potenciální škody, jako je šíření dezinformací nebo podporu nebezpečných aktivit. Sunak tvrdí, že dosud nedošlo k situacím, kdy by firmy spolupráci odmítly, což považuje za pozitivní.
Tento obrat odhaluje širší trend mezi vládami. Například Británie, která se chtěla stát „domovem regulace bezpečnosti AI“, nyní legislativu opouští. Podobně USA a EU zpomalují plány na přísné normy, protože AI slibuje oživení stagnujících ekonomik – od automatizace průmyslu po nové služby. ChatGPT, spuštěný v listopadu 2022, se stal nejrychleji rostoucím softwarem: během tří let ho používá 10 % světové populace, což překonává růst sociálních sítí. Tento model large language model (LLM) generuje texty, odpovídá na otázky a pomáhá v programování, ale zároveň mění kognitivní procesy uživatelů – studie ukazují na závislost a snížení kritického myšlení.
Problémy se projevují: OpenAI čelí žalobám od rodin lidí, kteří po interakci s ChatGPT upadli do bludů nebo sebevražedných myšlenek. Firmy jako Anthropic (vývojář Claude) nebo xAI (Elon Musk) slibují dobrovolné audity, ale bez právní závaznosti mohou změnit politiku. Historické analogy s jadernou energií ukazují, že bez regulace (jako Mezinárodní agentura pro atomovou energii) dochází k nehodám – proč s AI čekat?
Proč je to důležité
Regulace AI ovlivňuje celý technologický ekosystém. Bez nezávislého dohledu hrozí zneužití modelů k dezinformacím, kyberútokům nebo zbraním – například generování kódu pro malware. Pro uživatele znamená self-regulace riziko nekontrolovaných dopadů na duševní zdraví a soukromí, protože modely sbírají data bez dostatečné ochrany. Průmysl profituje z absence pravidel (funding OpenAI překročil 10 miliard dolarů), ale dlouhodobě to brzdí důvěru veřejnosti. V kontextu pokroků jako GPT-5 nebo Gemini 2.0 je nezbytné legislativní rámce, podobně jako u datové ochrany GDPR. Čekání na katastrofu, jako u sociálních sítí, by mohlo způsobit globální škody v miliardách dolarů a ztrátu životů.
Zdroj: 📰 Livemint