Souhrn
Sam Altman, generální ředitel OpenAI, na speciální akci v Indii obhajoval spotřebu zdrojů datových center pro umělou inteligenci. Připustil, že globální energetická náročnost AI je legitimní problém, ale srovnal životní spotřebu ChatGPT s tou průměrného člověka a odmítl nepravdivá tvrzení o vodě. Dále zesměšnil plán Elona Muska umístit datová centra do vesmíru.
Klíčové body
- Altman tvrdí, že ChatGPT spotřebuje za celou svou životnost stejně energie a zdrojů jako průměrný člověk.
- Vyvrátil tvrzení, že jeden dotaz do ChatGPT spotřebuje 17 galonů vody nebo ekvivalent 1,5 nabití baterie iPhonu, nazval je „úplně nepravdivými a nesouvisejícími s realitou“.
- Moderní datová centra přešla z evaporativního chlazení na efektivnější metody, čímž se problém s vodou vyřešil.
- Celková spotřeba energie AI by měla urychlit přechod na jadernou, větrnou a solární energii.
- Kritika od analytiků: srovnání lidí a modelů AI ignoruje hodnotu lidského života a působí necitlivě.
Podrobnosti
Sam Altman se na akci pořádané deníkem The Indian Express v Indii zabýval environmentálními dopady AI, které jsou v poslední době předmětem intenzivní debaty. Datová centra pro trénink a provoz velkých jazykových modelů jako GPT série spotřebovávají obrovské množství energie – například trénink GPT-4 vyžadoval tisíce GPU a ekvivalent stovek domácností během měsíců. Altman připustil, že souhrnná globální spotřeba je znepokojivá, ale argumentoval, že z pohledu celoživotní efektivity je ChatGPT srovnatelný s člověkem. Tento ChatGPT je velký jazykový model pro generování textu, odpovědí na otázky a úkolů jako psaní kódu nebo sumarizace dokumentů, který běží na cloudu OpenAI.
Na otázku o vodní spotřebě Altman kategoricky odmítl virální statistiky: jeden dotaz prý nespotřebuje 64 litrů vody (17 galonů) ani energii pro 1,5 nabití iPhonu. Tyto čísla vycházejí z zastaralých odhadů evaporativního chlazení v starších datech centrech, kde voda slouží k odpařování tepla z serverů. Dnes ale většina moderních zařízení, včetně těch od Microsoftu pro OpenAI, používá vzduchové nebo kapalinové chlazení s minimální evaporací, což výrazně snižuje vodní nároky. Například hyperskálová centra jako ty od Google nebo Amazon optimalizují PUE (Power Usage Effectiveness) pod 1,1, což znamená minimální ztráty energie na chlazení.
Altman navrhl, aby rostoucí poptávka po energii urychlila vývoj obnovitelných zdrojů a jaderné energie, kde OpenAI investuje do malých modulárních reaktorů. Nicméně kritici jako analytik Max Weinbach z Creative Strategies tento přístup označili za problematický: srovnání AI s lidmi redukuje člověka na „náklady na výstup“ a ignoruje etické aspekty. Další komentátoři ho vidí jako typický příklad „tech-bro“ mentality, která podceňuje veřejné vnímání. Altman také zesměšnil Muskův nápad datových center ve vesmíru (pravděpodobně odkaz na SpaceX koncepty), což podtrhuje rivalitu mezi OpenAI a xAI.
Proč je to důležité
Tato debata odhaluje klíčové napětí v AI průmyslu: rychlý růst modelů jako GPT-5 nebo Gemini 2.0 vyžaduje desítky gigawattů, což představuje 2–3 % globální spotřeby elektřiny do roku 2030 podle odhadů IEA. Altmanovy argumenty mohou ovlivnit regulace v EU nebo USA, kde se prosazují limity na uhlíkovou stopu datových center. Pro uživatele to znamená, že zdroje AI budou dražší, pokud nedojde k zelené transformaci, a zesílí tlak na efektivitu modelů (např. destilace nebo edge computing). V širším kontextu posiluje to rivalitu Altman–Musk, kde OpenAI staví na zemi s Microsoftem, zatímco xAI/Tesla hledá exotická řešení, což ovlivní směr investic v miliardách dolarů.
Zdroj: 📰 SiliconANGLE News