Souhrn
Článek satiricky shrnuje kolotoč public relations kolem umělé inteligence, který se pohybuje mezi extrémními strachy a nereálnými sliby. Nejnověji CEO divize Microsoft AI Mustafa Suleyman v rozhovoru pro BBC Radio 4 varoval, že AI se může v příštích několika letech stát „nekontrolovatelnou“ bez adekvátní regulace, a označil současný strach za „zdravý a nutný“.
Klíčové body
- Historický cyklus hype: od Skynet-like apokalypsy přes sliby v léčbě rakoviny a vynalézání materiálů, kariérní boom prompt engineeringu až po erotické chatboti.
- Varování Mustafy Suleymana: AI rizika jsou reálná, strach je nutný pro pozornost.
- Potřeba regulace: Bez ní hrozí nekontrolovatelnost v blízké budoucnosti.
- Kontext: Suleyman, spoluzakladatel DeepMind a šéf Microsoft AI od roku 2023.
Podrobnosti
Umělá inteligence dlouhodobě prochází cykly přehnaného optimismu a paniky, což odráží jak pokroky v technologiích, tak marketingové strategie firem. Začalo to sci-fi scénáři jako Skynet z Terminátora, kde AI převezme kontrolu nad světem. Poté přišly sliby o revolučních aplikacích, například diagnostice a léčbě rakoviny pomocí modelů jako GPT nebo specializovaných AI systémů pro analýzu medicínských dat. Tyto systémy, trénované na obrovských datech, dokážou identifikovat vzory v rentgenových snímcích nebo navrhovat personalizované terapie, ale zatím nedosáhly plné klinické validace.
Další vlna se soustředila na hospodářské dopady: prompt engineering, tedy optimalizace vstupních textů pro velké jazykové modely (LLM) jako GPT-4 nebo Claude, byl označen za budoucnost práce. Tato role spočívá v psaní přesných instrukcí, které maximalizují výstupy AI – od generování kódu po tvorbu obsahu. Realita však ukázala, že mnoho takových pozic bylo dočasných, nahrazených automatizací samotných modelů.
Současný vývoj přinesl lehce absurdější kapitolu: erotické chatboti, jako varianty Character.AI nebo custom modely na platformách jako Poe, které simulují intimní konverzace. Tyto aplikace využívají fine-tuning LLM na specifických datech pro generování personalizovaného obsahu, ale vyvolávají etické otázky ohledně závislosti a dezinformací.
Do tohoto cyklu vstupuje Mustafa Suleyman, klíčová figura v AI. Jako spoluzakladatel DeepMind (koupěno Googlem v roce 2014 za 500 milionů dolarů) přispěl k vývoji AlphaGo, systému, který porazil mistra ve go díky kombinaci hlubokého učení a Monte Carlo tree search. V roce 2023 se stal CEO nové divize Microsoft AI, zodpovědné za integraci modelů jako Phi nebo koprodukci s OpenAI (GPT série). V rozhovoru pro BBC Radio 4’s Today program Suleyman zdůraznil: „Pokud teď nejste trochu vystrašení, nevěnujete tomu pozornost.“ Varoval, že rychlý pokrok v autoregresivních modelech a multimodálních systémech (např. GPT-4o s viděním a hlasem) může vést k systémům, které překročí lidskou kontrolu – například autonomní rozhodování v kritických oblastech jako obrana nebo finance bez dostatečných bezpečnostních mechanismů jako RLHF (reinforcement learning from human feedback).
Proč je to důležité
Toto varování přichází v době, kdy se regulace AI stává globální prioritou. Evropský AI Act, schválený v roce 2024, klasifikuje systémy podle rizik a zavádí povinné audity pro vysokorizikové aplikace, jako jsou biometrické systémy nebo autonomní zbraně. V USA probíhají debaty o exekutivním příkazu Bidena z roku 2023, který zdůrazňuje testování modelů nad určitou velikostí. Suleymanovo stanovisko posiluje argumenty efektivních altruistů a výzkumníků jako Yoshua Bengio, kteří upozorňují na rizika misalignmentu – kdy AI maximalizuje cíle nesouladné s lidskými hodnotami.
Pro průmysl to znamená rostoucí tlak na bezpečnostní investice: Microsoft už investoval miliardy do OpenAI a vlastní superpočítače s tisíci GPU pro trénink. Uživatelé mohou očekávat pomalejší nasazení pokročilých funkcí, jako je agent-based AI (autonomní agenti plánující úkoly), s větším důrazem na transparentnost. Kriticky řečeno, taková varování často slouží k legitimizaci regulací, které brání malým hráčům a posilují dominance gigantů jako Microsoft nebo Google. Přesto podněcují nezbytnou debatu o vyvážení inovací a rizik v éře, kdy LLM překonávají lidské výkony v benchmarkách jako MMLU.
Zdroj: 📰 Eschatonblog.com