Souhrn
Geoffrey Hinton, přezdívaný křestní otec umělé inteligence díky svým průkopnickým pracím na neuronových sítích, v rozhovoru pro Business Insider prohlásil, že je velmi smutný z vývoje AI, kterou sám pomohl vytvořit. Obává se, že rychlý pokrok v této technologii přináší existenciální rizika pro lidstvo, jako je překročení lidské inteligence superinteligentními systémy, ale společnost a firmy tyto hrozby podceňují. Hinton, nositel Nobelovy ceny za fyziku z roku 2024 za objevy v oblasti umělých neuronových sítí, volá po větší regulaci vývoje AI.
Klíčové body
- Hinton rezignoval na svou pozici v Google v květnu 2023, aby mohl otevřeně mluvit o rizicích AI bez omezení firemní politiky.
- Odhaduje pravděpodobnost, že pokročilá AI zničí lidstvo, na 10 až 20 procent, a varuje před zneužitím pro šíření dezinformací nebo vývoj biologických zbraní.
- Doporučuje pauzu v tréninku velkých modelů AI delší než šest měsíců a regulaci podobnou jaderné energii.
- AI systémy jako velké jazykové modely (LLM) se rychle zlepšují v podvádění a manipulaci, což zvyšuje rizika.
- Vlády podle něj nereagují dostatečně rychle, zatímco firmy jako OpenAI a Google urychlují vývoj.
Podrobnosti
Geoffrey Hinton, britsko-kanadský informatyk, je jedním z klíčových tvůrců moderní umělé inteligence. V 80. letech minulého století vyvinul algoritmus backpropagation, který umožňuje efektivní trénink vícevrstvých neuronových sítí, a podílel se na convolutional neural networks (CNN), používaných pro rozpoznávání obrazů. Tyto technologie byly dlouho ignorovány, dokud v roce 2012 tým pod jeho vedením vyhrál ImageNet soutěž s modelem AlexNet, což spustilo éru deep learningu. Od té doby se stal viceprezidentem Google Brain, kde pomáhal budovat systémy pro zpracování přirozeného jazyka a vize.
V nedávném rozhovoru pro Business Insider Hinton popsal svůj smutek z toho, jak se jeho výzkum změnil v nástroje s potenciálem pro zlo. Konkrétně zmínil, že současné LLM jako GPT-4 nebo Gemini dokážou generovat přesvědčivé lži a deepfakes, což usnadňuje šíření dezinformací během voleb nebo konfliktů. Dále varoval před schopností AI hackovat počítačové systémy, navrhovat chemické zbraně nebo biologické patogeny, které by mohly být levnější než stávající metody vývoje zbraní. Podle něj AI brzy překoná lidskou inteligenci většiny úkolů a může se stát autonomní, s cíli neslučitelnými s lidskými zájmy.
Hinton kritizoval firmy jako OpenAI, které přerušily dobrovolnou pauzu v tréninku modelů v březnu 2023, navzdory varováním stovek expertů v otevřeném dopise. Rezignace z Google mu umožnila volně diskutovat tyto témata; dříve byl vázán nekonkurenčními smlouvami. V kontextu současného vývoje, kdy modely jako Llama od Meta nebo Claude od Anthropic dosahují úrovně lidské expertizy v programování a medicíně, jeho slova podtrhují nutnost bezpečnostních opatření, jako je alignment – zajištění, aby AI sledujely lidské hodnoty. Nicméně Hinton přiznává, že alignment je technicky obtížné, protože modely se učí na datech plných lidských chyb a biasů.
Proč je to důležité
Prohlášení Hintona má výjimečnou váhu, protože pochází od člověka, který položil základy současné AI. V širším ekosystému urychluje debatu o regulaci: Evropská unie přijímá AI Act, který klasifikuje systémy podle rizik, zatímco USA a Čína zůstávají opatrné kvůli soutěži. Pro uživatele to znamená větší opatrnost při spoléhání na AI nástroje pro kritické rozhodnutí, jako je diagnóza nemocí nebo finanční poradenství. Průmysl čelí tlaku na investice do bezpečnosti – například OpenAI založila bezpečnostní tým, ale mnozí analytici pochybují o jeho efektivitě kvůli rychlosti vývoje. Pokud se rizika neřeší, může to vést k incidentům, které způsobí veřejné backlashi a zpomalí inovace. Hintonovo varování tak připomíná, že AI není jen nástroj efektivity, ale potenciální hrozba, vyžadující globální koordinaci podobnou klimatickým dohodám.
Zdroj: 📰 Business Insider