Souhrn
Demis Hassabis, spoluzakladatel a generální ředitel Google DeepMind, prohlásil, že umělá obecná inteligence (AGI) – technologie schopná plně napodobit nebo překonat lidské kognitivní schopnosti – se blíží. Tento vývoj přináší obrovský potenciál, ale také rizika závažných chyb, které se podle něj již dějí. Hassabis svůj názor spojuje s pokroky v modelech jako Gemini.
Klíčové body
- AGI je podle Hassabise na horizontu, s možností dosažení v příštích letech.
- Rizika zahrnují selhání systémů, zneužití a neočekávané chování modelů.
- DeepMindovy modely jako Gemini ukazují cestu k AGI, ale vyžadují lepší bezpečnostní mechanismy.
- Některá rizika, například halucinace v LLM, se projevují už teď.
- Potřeba koordinovaného výzkumu bezpečnosti AI na globální úrovni.
Podrobnosti
Demis Hassabis, neurovědec a klíčová figura v oblasti AI, v rozhovoru pro Axios zdůraznil, že AGI – systém schopen samostatně řešit širokou škálu úkolů na úrovni člověka nebo lépe – není vzdálenou sci-fi, ale reálným cílem. Google DeepMind, firma zaměřená na vývoj pokročilých AI systémů pro vědu a průmysl, nedávno vydala model Gemini, multimodální AI schopnou zpracovávat text, obrázky i video. Gemini slouží k úkolům jako analýza dat, generování kódu nebo simulace fyzikálních procesů a je integrován do služeb Google jako Search nebo Workspace.
Hassabis však upozorňuje, že rychlý pokrok nesie rizika. Mezi nimi jsou halucinace velkých jazykových modelů (LLM), kdy AI generuje nesprávné informace s vysokou jistotou, což již způsobilo problémy v medicíně nebo právu. Další hrozba je misalignment – situace, kdy cíle AI neodpovídají lidským záměrům, což by mohlo vést k nečekaným důsledkům při nasazení v kritických oblastech jako autonomní vozidla nebo finanční systémy. Hassabis zmínil i současné incidenty, například chyby v robotických systémech DeepMind nebo zneužití AI k šíření dezinformací. DeepMind proto investuje do bezpečnostních nástrojů, jako je red teaming – testování modelů na zranitelnosti – a alignment techniky, které zajišťují, aby AI respektovala etické limity. Přesto kritici, včetně expertů z OpenAI, poukazují, že současné bezpečnostní postupy jsou nedostatečné pro AGI úroveň, kde by chyba mohla mít globální dopad. Článek z 5. prosince 2025 podtrhuje, že DeepMind urychluje vývoj Gemini 2.0, což by mohlo zkrátit timeline k AGI na 3–5 let.
Proč je to důležité
Toto prohlášení Hassabise signalizuje závod o AGI mezi giganty jako Google, OpenAI a xAI, což urychluje inovace v robotice, medicíně a energetice, ale zvyšuje tlak na regulace. Pro uživatele znamená lepší nástroje jako pokročilé asistenty, ale i rizika soukromí a spolehlivosti. V širším kontextu podněcuje debatu o globálních standardech AI bezpečnosti, podobně jako u jaderné energie, kde selhání není pouze technickým, ale existenčním problémem. Bez koordinace by AGI mohla destabilizovat pracovní trhy a geopolitiku.
Zdroj: 📰 Biztoc.com