📰 pymnts.com

Prezidentka Anthropic tvrdí, že společnost prosperuje s „zlomkem“ financování rivalů

Prezidentka Anthropic tvrdí, že společnost prosperuje s „zlomkem“ financování rivalů

Souhrn

Prezidentka a spoluzakladatelka Anthropic Daniela Amodei uvedla v rozhovoru pro CNBC, že jejich firma dosahuje nejvýkonnějších AI modelů s pouhým zlomek výpočetních zdrojů a kapitálu oproti rivalům jako OpenAI. Anthropic se zaměřuje na efektivitu, kvalitnější tréninková data a pokročilé post-tréninkové techniky místo honby za největšími rozpočty. Navzdory tomu má firma závazky na výpočetní výkon v objemu zhruba 100 miliard dolarů.

Klíčové body

  • Anthropic má podle Amodei historicky zlomek compute a kapitálu rivalů, přesto produkovala nejsilnější modely většinu posledních let.
  • Strategie spočívá v kvalitnějších tréninkových datech, technikách zlepšujících uvažování (reasoning) a optimalizaci modelů pro nižší provozní náklady.
  • Rival OpenAI oznámil závazky na 1,4 bilionu dolarů v infrastruktuře, což Amodei kontrastuje s efektivním přístupem Anthropic.
  • Firma není na útlé rozpočtové lince – plánuje velké investice do compute, protože budoucí požadavky budou enormní.
  • Cílem je ukázat, že soutěž nebude určena velikostí pretraining runů, ale kvalitou.

Podrobnosti

Anthropic, společnost zaměřená na vývoj bezpečných a výkonných velkých jazykových modelů (LLM) jako je řada Claude, se dlouhodobě profiluje jako efektivní hráč v AI průmyslu. V rozhovoru z 3. ledna pro CNBC Daniela Amodei, sestra hlavního vývojáře Daria Amodeiho, zdůraznila, že firma vždy cítila na efektivní využití zdrojů v prostředí, kde je compute – tedy výpočetní výkon založený především na GPU clusterech – klíčovým limitujícím faktorem. „Máme vždy zlomek toho, co mají konkurenti v compute a kapitálu, a přesto jsme většinu posledních let měli nejsilnější a nejvýkonnější modely,“ řekla.

Tento přístup kontrastuje s agresivní expanzí OpenAI, které nedávno oznámilo závazky na 1,4 bilionu dolarů v počítačové infrastruktuře pro trénink budoucích modelů. Anthropic naopak vsází na kvalitu před kvantitou: lepší kuraci tréninkových dat minimalizuje šum a zvyšuje relevanci, post-tréninkové metody jako reinforcement learning from human feedback (RLHF) nebo pokročilé chain-of-thought prompting zlepšují schopnosti uvažování modelů, což umožňuje složitější úlohy bez nutnosti ještě větších modelů. Dále optimalizují architekturu pro nižší inference náklady – tedy provoz modelů v reálném čase – díky čemuž jsou modely snadněji škálovatelné pro enterprise zákazníky.

Přesto Anthropic nešetří úplně: CNBC uvádí závazky na compute v řádu 100 miliard dolarů, což je stále obrovská částka, ale zlomek oproti gigantským rozpočtům gigantů. Amodei varovala, že budoucí požadavky na výpočetní výkon budou „velmi velké“, což naznačuje, že i efektivita má své limity v éře scaling laws, kde velikost modelu koreluje s výkonem. Tento model může inspirovat menší hráče, ale pro uživatele znamená potenciálně levnější přístup k špičkovým AI nástrojům, jako je Claude pro kódování, analýzu dat nebo kreativní úlohy.

Proč je to důležité

Tato strategie Anthropic signalizuje posun v AI soutěži od čisté honby za velikostí k udržitelné efektivitě, což má dopady na celý průmysl. Pokud se potvrdí, že kvalitní data a post-processing překonávají brute-force scaling, mohou se zmírnit obavy z energetické náročnosti AI – trénink jednoho velkého modelu spotřebuje energii odpovídající spotřebě stovek domácností. Pro uživatele to znamená dostupnější AI bez nutnosti obrovských cloudových výdajů, zatímco pro investory to otvírá dveře efektivnějším startupům proti monopolům jako OpenAI nebo Google. V kontextu rostoucí regulace AI (např. EU AI Act) se bezpečnostní zaměření Anthropic stává konkurenční výhodou, ale dlouhodobě bude klíčové, zda jejich modely udrží náskok bez parity v compute.


Číst původní článek

Zdroj: 📰 pymnts.com