📰 Geeky Gadgets

Anthropic zakazuje OpenClaw a OAuth tokeny v aplikacích třetích stran

Anthropic zakazuje OpenClaw a OAuth tokeny v aplikacích třetích stran

Souhrn

Anthropic zakázal použití svých OAuth tokenů v aplikacích třetích stran, včetně OpenClaw, který nedávno získala společnost OpenAI. Tento krok, uvedený v aktualizovaných podmínkách služby, se týká i integrací postavených na Agent SDK firmy a je odůvodněn vysokými provozními náklady na zpracování tokenů a nízkou užitečností dat z externích platforem. Reakce vývojářů a uživatelů jsou smíšené.

Klíčové body

  • Zákaz OAuth tokenů pro aplikace třetích stran, včetně OpenClaw.
  • Omezení platí i pro integrace s Agent SDK, což brání propojení s externími nástroji.
  • Důvody: vysoké náklady na provoz a omezená hodnota dat z třetích stran.
  • Alternativy: lokální modely jako Qwen 3.5 nebo MiniMax 2.5 a hardware jako Mac Studio pro nezávislý provoz AI.
  • Kritika: politika brzdí inovace a snižuje volbu uživatelů.

Podrobnosti

Anthropic, vývojář velkého jazykového modelu Claude, aktualizoval své podmínky služby tak, aby zakázal sdílení OAuth tokenů s aplikacemi mimo jeho ekosystém. OAuth tokeny slouží k bezpečné autentizaci a autorizaci přístupu k API službám, což umožňuje třetím stranám integrovat funkce Claude do svých aplikací bez nutnosti ukládání hesel. Tento zákaz přímo zasahuje OpenClaw, nástroj pro správu a interakci s AI modely, který byl nedávno převzat OpenAI. OpenClaw umožňuje uživatelům propojit více AI modelů v jednom rozhraní, včetně Claude, a slouží k automatizaci úkolů jako generování textu nebo analýza dat.

Podle Alexa Finna, vývojáře v AI komunitě, se omezení vztahuje i na Agent SDK od Anthropic. Tento software development kit umožňuje tvorbu autonomních AI agentů, kteří provádějí složité úkoly jako plánování, rozhodování nebo interakce s nástroji. Vývojáři tak nemohou propojovat tyto agenty s externími službami bez rizika porušení podmínek. Firma odůvodňuje rozhodnutí vysokými náklady na inference – zpracování požadavků modelu – které mohou dosahovat stovek dolarů měsíčně pro intenzivní použití, a nízkou kvalitou dat vrácených z třetích platforem, což snižuje celkovou efektivitu.

Tato změna komplikuje workflowy závislé na integracích, například v automatizaci podnikových procesů nebo vývoji custom nástrojů. Vývojáři, kteří stavěli na propojení Claude s jinými službami jako databázemi nebo CRM systémy, nyní musí hledat obcházky nebo přecházet na jiné modely. Článek navrhuje alternativy v podobě lokálních AI modelů: Qwen 3.5 od Alibaba, open-source model pro generování textu a kódu s podporou vícejazyčnosti; MiniMax 2.5, efektivní model pro rychlou inferenci; nebo Kimi K2.5 od Moonshot AI, zaměřený na dlouhé kontexty. Tyto modely lze spouštět na lokálním hardwaru, jako je Mac Studio s vysokovýkonnými GPU, což zajišťuje nezávislost na cloudových službách a snížení nákladů na dlouhodobé úkoly.

Proč je to důležité

Tato politika Anthropic posiluje trend uzavřených ekosystémů v AI průmyslu, podobně jako u Apple v mobilních zařízeních, kde kontrola nad API omezuje konkurenci a inovace od třetích stran. Pro developery znamená ztrátu flexibility – mnozí se obracejí k OpenAI ChatGPT nebo plně open-source řešením jako Llama, což urychluje fragmentaci trhu. Uživatelé ztrácejí volbu v nástrojích jako OpenClaw, kde kombinace modelů zvyšovala produktivitu. V širším kontextu to podtrhuje napětí mezi náklady na škálování AI a potřebou otevřenosti: zatímco Anthropic chrání své zdroje, riskuje odliv talentů k konkurentům podporujícím lepší integrace. Rostoucí zájem o lokální infrastrukturu, například s NVIDIA GPU nebo Apple Silicon, signalizuje posun k hybridním řešením, kde uživatelé minimalizují závislost na korporátních platformách a zvyšují bezpečnost dat. Tento krok může stimulovat vývoj pro-spotřebitelských politik, ale krátkodobě brzdí rychlost adopce pokročilých AI agentů.


Číst původní článek

Zdroj: 📰 Geeky Gadgets