Souhrn
Článek tvrdí, že současný boom umělé inteligence (AI) závisí na obrovských investicích do infrastruktury, jako jsou datová centra plná grafických procesorů (GPU), ale dlouhodobý pokrok vyžaduje tlak nedostatku. Prasknutí investiční bubliny by podle autora podpořilo inovace směřující k efektivitě, podobně jako minulé krize v energetice nebo zemědělství. Místo nekonečného škálování hardwarem by se firmy soustředily na chytřejší algoritmy.
Klíčové body
- Současný růst AI financují rekordní investice do datových center, což podporují i lídři jako Eric Schmidt, bývalý šéf Google.
- Historické krize, například energetická krize v 70. letech, vedly k vývoji úsporných technologií jako efektivnější motory nebo rané obnovitelné zdroje.
- Koncept “directed technical change” popisuje, jak nedostatek zdrojů směřuje inovace k optimalizaci.
- Prasknutí bubliny by donutilo AI firmy snižovat spotřebu čipů a energie v modelech.
- Zemědělská revoluce v 20. století ukazuje podobný efekt nedostatku pracovní síly.
Podrobnosti
Článek odkazuje na současný narativ v AI průmyslu, kde se věří, že pokrok vyžaduje neustálé navyšování investic do infrastruktury. Například trénování velkých jazykových modelů (LLM) jako GPT-4 od OpenAI nebo Gemini od Google si vyžaduje clustery tisíců GPU od Nvidia, což spotřebovává energii odpovídající spotřebě malého města. Eric Schmidt nedávno prohlásil, že “bubliny jsou skvělé”, což odráží optimismus investorů, kteří očekávají, že více datových center přinese léčbu rakoviny nebo umělou obecné inteligenci (AGI).
Autor však argumentuje opačně: skutečné inovace vznikají pod tlakem. V roce 1977, během americké energetické krize, kdy lidé čekali v dlouhých frontách na benzín, prezident Jimmy Carter krizi přirovnal k válce. To spustilo vývoj úsporných technologií – lepších motorů, izolovaných domů, hybridních vozidel a raných solárních panelů. Podobně v zemědělství na počátku 20. století nedostatek pracovní síly vedl k mechanizaci, traktorům a hybridním semennům.
Ekonomové tento jev nazývají “directed technical change” – inovace jsou směrovány nedostatkem konkrétních zdrojů. V kontextu AI by vysychání investic znamenalo konec éry, kdy se pokrok měřil počtem GPU. Firmy by musely optimalizovat modely technikami jako modelové destilace (komprimace velkých modelů do menších), kvantizace (snížení přesnosti čísel pro úsporu paměti) nebo smíšené expertní modely (Mixture of Experts, MoE), kde se aktivuje jen část modelu podle úlohy. Současné modely jako Llama od Meta nebo Claude od Anthropic už ukazují kroky k efektivitě, ale masivní škálování je stále dominantní. Pokud investice klesnou – například kvůli vysokým úrokovým sazbám nebo regulacím spotřeby energie – bude nutné budovat AI systémy, které běží na běžných serverech nebo edge zařízeních, což by snížilo náklady na inference z desítek dolarů na centy za dotaz.
Proč je to důležité
Tento názor je relevantní v době, kdy AI průmysl čelí rostoucím nákladům: trénink jednoho modelu stojí stovky milionů dolarů a datová centra spotřebovávají až 2 % globální elektřiny. Prasknutí bubliny by mohlo vést k udržitelnějšímu vývoji, kde se priorita posune od hrubé síly k algoritmické inteligenci, což by usnadnilo nasazení AI v malých firmách nebo rozvojových zemích. Na druhé straně, pokud bublina nepraskne, hrozí přehřátí trhu s rizikem kolapsu jako u dot-com bubliny v roce 2000. Pro uživatele to znamená potenciálně levnější a rychlejší AI nástroje, ale i riziko zpomalení krátkodobých pokroků v AGI. Jako expert na AI vidím v tom varování: současné scaling laws (zákony škálování) se blíží limitům, a efektivita je klíčem k další dekádě inovací.
Zdroj: 📰 The Times of India
|