Souhrn
Sam Altman, generální ředitel OpenAI, v rozhovoru pro Business Insider přiznal, že jeho firma několikrát vstoupila do interního nouzového režimu ‘code red’ kvůli intenzivní konkurenci v oblasti vývoje umělé inteligence. Tento režim slouží k rychlému přesunu zdrojů a urychlení vývoje modelů, aby OpenAI udrželo náskok před rivaly. Altman naznačil, že takové situace se budou opakovat.
Klíčové body
- OpenAI aktivovalo ‘code red’ několikrát v posledních letech kvůli hrozbám od konkurentů jako Google DeepMind nebo xAI.
- Režim znamená prioritu na rychlost vývoje za cenu jiných projektů, včetně přesunu vývojářů a výpočetních kapacit.
- Altman varoval, že konkurence v AI je nelítostná a OpenAI musí být připraveno na opakované krize.
- Tato strategie pomohla OpenAI rychle reagovat na vydání modelů jako Gemini od Google.
- Altman zdůraznil, že bezpečnost zůstává prioritou, ale rychlost je klíčová pro přežití.
Podrobnosti
Sam Altman popsal ‘code red’ jako interní protokol OpenAI, který se spouští v situacích, kdy konkurenční firmy ohrožují jejich pozici na trhu s velkými jazykovými modely (LLM). Například v době, kdy Google vydal model Gemini, OpenAI rychle přealožilo zdroje z méně urgentních oblastí, jako je dlouhodobý výzkum bezpečnosti, směrem k vývoji nových verzí GPT modelů. Tento režim zahrnuje nejen přesun stovek inženýrů, ale i maximalizaci využití GPU clusterů, které slouží k tréninku modelů na obrovských datových sadách.
OpenAI, firma zaměřená na vývoj AGI (umělé obecné inteligence), čelí rostoucímu tlaku od hráčů jako Anthropic s modelem Claude, Meta s Llama nebo Elon Muskova xAI s Grok. Altman zmínil, že první ‘code red’ byl spuštěn krátce po založení OpenAI v roce 2015, kdy Google najal klíčové talenty z jejich týmu. Další instance následovaly po úspěchu ChatGPT v roce 2022, kdy rivalové urychlili své programy. V tomto režimu se firma soustředí na krátkodobé cíle, jako je zlepšení výkonu modelů v benchmarkách jako MMLU nebo HumanEval, což umožňuje rychlé vydání aktualizací.
Kriticky lze poznamenat, že takové urychlování nese rizika. Historie ukazuje, že rychlý vývoj LLM vede k problémům s halucinacemi, biasy nebo bezpečnostními zranitelnostmi, jako byly nedávné útoky na prompt injection v GPT-4. OpenAI sice investuje do red teamingu – testování hranic modelů – ale ‘code red’ může tyto procesy zkrátit. Navíc závislost na Microsoftu pro cloudové zdroje omezuje flexibilitu, protože Azure GPU clustery nejsou nekonečné.
Proč je to důležité
Tato výpověď odhaluje dynamiku AI průmyslu, kde náskok v měsících rozhoduje o miliardových investicích a tržním podílu. Pro uživatele znamená, že modely jako GPT-5 přijdou rychleji, ale potenciálně s vyšším rizikem chyb. V širším kontextu to zesiluje závod k AGI, kde firmy jako OpenAI riskují etické standardy kvůli komerčnímu tlaku. Regulátoři v EU nebo USA by měli zvážit, zda takové praktiky nevedou k nestabilním systémům, které ovlivňují miliardy uživatelů. OpenAI tak potvrzuje, že AI vývoj není lineární, ale chaotický sprint, což ovlivňuje celý technologický ekosystem od robotiky po autonomní vozidla.
Zdroj: 📰 Business Insider