Souhrn
OpenAI oznámilo plány na výstavbu nových datacenter, která by mohla spotřebovat až 10 až 17 gigawattů energie denně, což překračuje celkovou spotřebu New Yorku. Tento krok odhaluje rostoucí environmentální zátěž spojenou s expanzí AI, navazující na již známé problémy jako ztráta pracovních míst, úbytek soukromí a šíření dezinformací. Spotřeba energie pro jediný dotaz do ChatGPT činí 0,34 Wh, při 2,5 miliardy denních požadavků se jedná o obrovské množství.
Klíčové body
- Každý dotaz do ChatGPT spotřebuje 0,34 Wh, ekvivalent několika minut svícení žárovky.
- Denně zpracovává 2,5 miliardy dotazů, což vede k kumulativní vysoké spotřebě.
- Plánovaná datacentra OpenAI: 10–17 GW, většina energie z fosilních zdrojů v USA.
- Dopady AI zahrnují nahrazování studentů v učení, ztráty pracovních míst a šíření AI-generovaných dezinformací.
- OpenAI, firma specializující se na velké jazykové modely jako GPT série, potřebuje tato datacentra pro trénink a provoz AI systémů.
Podrobnosti
OpenAI, společnost zaměřená na vývoj velkých jazykových modelů (LLM) jako je řada GPT, nedávno oznámila ambiciózní plány na rozšíření infrastruktury. Tato datacentra mají sloužit k tréninku a provozu pokročilých AI systémů, kde se modely učí na obrovských datových sadách a následně generují odpovědi na uživatelské dotazy. Například ChatGPT, konverzační nástroj pro generování textu, dialogů nebo kódu, vyžaduje pro každý dotaz přibližně 0,34 Wh energie. Při 2,5 miliardy denních interakcí to znamená denní spotřebu odpovídající tisícům megawatt hodin, což je jen zlomek celkových nákladů na inference a trénink modelů.
Plánovaná datacentra by měla kapacitu až 17 GW, což podle zpráv jako ta z Fortune převyšuje spotřebu celého amerického státu New York. V USA je většina energie stále produkována z fosilních paliv, jako uhlí nebo plyn, což vede k vyšším emisím CO2. Pro srovnání, celková spotřeba USA činí kolem 4 000 GW, takže OpenAI by mohlo pokrýt až 0,4 % národní poptávky. Tento růst je poháněn potřebou tisíců grafických procesorů (GPU), jako jsou NVIDIA H100, které jsou klíčové pro paralelní výpočty v AI. Každý takový čip spotřebovává stovky wattů a v clusteru desetitisíců se jedná o gigawatové úrovně.
Už nyní vidíme širší dopady AI: učitelé hlásí, že studenti používají AI k vyhýbání se učení základních konceptů, firmy nahrazují zaměstnance automatizací s nízkými provozními náklady a internet je plný AI-generovaných textů používaných k šíření lží, obtěžování nebo pomluvám. Datacentra OpenAI tak nejsou izolovaným problémem, ale součástí trendu, kde škálování AI vyžaduje masivní investice do energie a chlazení – často vodou v množství desítek milionů litrů ročně na jedno zařízení.
Proč je to důležité
Tento vývoj omezuje tempo růstu AI průmyslu, protože energetická síť nemůže rychle expandovat. V USA dochází k zpožděním ve výstavbě nových elektráren a přenosových sítí, což nutí firmy jako OpenAI hledat alternativy, včetně jaderné energie nebo obnovitelných zdrojů. Pro uživatele to znamená vyšší náklady na elektřinu a potenciální regulace, které by omezily přístup k AI službám. V širším kontextu to zdůrazňuje nutnost udržitelného vývoje AI: bez efektivnějších modelů nebo hardware (např. specializovaných AI čipů s nižší spotřebou) hrozí kolizí s klimatickými cíli. Firmy jako Google nebo Microsoft již čelí podobným výzvám a investují do vlastních jaderných reaktorů, což signalizuje dlouhodobou proměnu technologického ekosystému směrem k energetické soběstačnosti.
Zdroj: 📰 Twistedsifter.com