← Zpět na Tech News
Tento článek je z archivu. Byl publikován 21.01.2026.
📰 Decrypt

Očekávejte AGI do několika let, říká šéf Anthropic – a ztráty pracovních míst také

Očekávejte AGI do několika let, říká šéf Anthropic – a ztráty pracovních míst také

Souhrn

Šéf společnosti Anthropic Dario Amodei předpovídá dosažení AGI, tedy umělé obecné inteligence na úrovni člověka, během několika let. Tento vývoj podle něj přinese významné ztráty pracovních míst a narušení současných institucí. Lídři AI průmyslu varují před akcelerací pokroků v této oblasti.

Klíčové body

  • Dario Amodei očekává AGI do 2–3 let díky rychlým pokrokům v modelech jako Claude.
  • AGI by mohlo nahradit většinu lidských prací, zejména v kognitivních oblastech.
  • Anthropic zdůrazňuje potřebu bezpečnostních opatření kvůli rizikům spojeným s tak mocným AI.
  • Další lídři průmyslu souhlasí s akcelerací, ale předpovědi o AGI se historicky často mýlily.
  • Dopady zahrnují ekonomické narušení a nutnost přeškolování pracovní síly.

Podrobnosti

Společnost Anthropic, která vyvíjí velké jazykové modely (LLM) jako Claude, patří mezi lídry v oblasti bezpečného AI. Její CEO Dario Amodei v nedávném interview prohlásil, že AGI – systém schopný vykonávat jakoukoli intelektuální práci na úrovni člověka – přijde dříve, než mnozí očekávají, pravděpodobně do 2–3 let. Tato předpověď vychází z pozorování exponenciálního růstu výpočetního výkonu a školení modelů. Například současné modely Claude 3.5 Sonnet překonávají GPT-4 v mnoha benchmarkách, jako je programování nebo matematické úlohy, což ukazuje na zrychlení směrem k AGI.

Amodei upozorňuje, že AGI nebude jen nástrojem, ale autonomním agentem schopným plánovat dlouhodobé cíle, podobně jako lidé. To znamená, že by mohlo efektivně řídit složité procesy v průmyslu, medicíně nebo výzkumu bez lidského dohledu. Nicméně kriticky lze poznamenat, že podobné předpovědi – například od Raya Kurzweilla v 90. letech – se ne vždy naplnily, protože AGI vyžaduje nejen škálování dat a výpočtů, ale i řešení problémů jako halucinace nebo nedostatek skutečného porozumění. Anthropic se zaměřuje na bezpečnost: jejich modely procházejí přísným testováním na alignment, tedy soulad s lidskými hodnotami, aby minimalizovaly rizika zneužití.

Dopady na zaměstnanost jsou podle Amodei nevyhnutelné. AGI by mohlo automatizovat 50–80 % současných profesí, od administrativy přes programování až po kreativní úkoly. Průmysloví lídři jako Sam Altman z OpenAI nebo Demis Hassabis z DeepMind souhlasí s akcelerací, ale zdůrazňují potřebu regulací. V USA a EU již probíhají debaty o univerzálním základním příjmu jako odpovědi na masové propouštění.

Proč je to důležité

Toto prohlášení odhaluje napětí v AI ekosystému: rychlost pokroku překonává připravenost společnosti. Pro uživatele znamená, že nástroje jako Claude se brzy stanou nezbytnými pro produktivitu, ale zároveň ohrozí stávající kariéry. V širším kontextu urychluje to globální závod o AI dominance mezi USA, Čínou a Evropou, kde Anthropic spolupracuje s Amazonem a Googlem na obrovských clusterech GPU. Kriticky: bez robustních bezpečnostních rámců by AGI mohlo zesílit nerovnosti nebo vést k existenciálním rizikům. Tato předpověď nutí firmy i vlády přehodnotit strategii – od investic do přeškolování po mezinárodní dohody o pauze ve vývoji. Celkově to posiluje důraz na zodpovědný vývoj AI, kde Anthropic hraje klíčovou roli díky svému zaměření na scalable oversight.


Číst původní článek

Zdroj: 📰 Decrypt

© 2026 Marigold.cz