Souhrn
Anthropic, společnost zaměřená na bezpečnou umělou inteligenci založená bývalými zaměstnanci OpenAI, investuje 20 milionů dolarů do nového super PAC nazvaného Public First Action. Tento politický výbor bude působit proti super PAC Leading the Future, který podporují lídři a investoři OpenAI. Konflikt se týká především míry regulace AI v USA před nadcházejícími midterm volbami.
Klíčové body
- Anthropic daruje 20 milionů dolarů do Public First Action, který má bránit nadměrné politické moci OpenAI.
- Opozice vůči Leading the Future, super PAC skeptickému k regulacím, podporovanému OpenAI lídry.
- Anthropic upřednostňuje politiky pro přísnější bezpečnostní rámce v AI, na rozdíl od OpenAI.
- Iniciativa přichází před midterm volbami, kde se rozhodne o směru AI politiky.
- OpenAI jako bývalá neziskovka nemůže dělat přímé politické dary, proto funguje přes podpůrné struktury.
Podrobnosti
Anthropic, založený v roce 2021 bývalými vrcholovými manažery OpenAI včetně Darie a Daniela Amodeiových, se specializuje na vývoj velkých jazykových modelů jako Claude s důrazem na bezpečnost a zarovnání s lidskými hodnotami. Firma nyní eskaluje svůj politický angažmá: v blogovém příspěvku z čtvrtka bez explicitního pojmenování OpenAI varovala před „obrovskými zdroji proudícími do politických organizací, které se staví proti snahám o bezpečnost AI”. Super PAC (political action committee) jsou v USA specifické entity, které mohou sbírat neomezené finanční dary od jednotlivců a firem na financování nezávislých politických kampaní, včetně reklam, aniž by přímo koordinovaly s kandidáty.
Podle zprávy New York Times z listopadu jednal Public First Action s Anthropicem o financování, aby zabránil dominanci OpenAI v politické sféře. Na opačné straně stojí Leading the Future, který prosazuje minimální regulace, aby umožnil rychlý rozvoj AI technologií. OpenAI, původně nezisková organizace, přešla částečně na ziskovou strukturu, což jí brání v přímých politických darech, ale její lídři jako Sam Altman a investoři jako Microsoft takto obcházejí omezení.
Tento duel mezi rivaly z Silicon Valley nastoluje novou dimenzi soutěže: nejen technologickou, ale i politickou. Anthropic plánuje podpořit federální zákonodárce favorizující rozsáhlejší regulace AI, což je v rozporu s postoji Trumpovy administrativy, která klade důraz na deregulaci. V blogu Anthropic zdůraznil, že „rozhodnutí v AI politice v příštích letech ovlivní téměř každý aspekt veřejného života” a odmítl pasivitu.
Proč je to důležité
Tato iniciativa odhaluje rostoucí politizaci AI průmyslu, kde klíčoví hráči jako Anthropic a OpenAI bojují o legislativní rámec, který určí tempo a směr vývoje technologií. Přísnější regulace, kterou prosazuje Anthropic, by mohla způsobit zpomalení inovací kvůli povinným bezpečnostním testům a etickým standardům, zatímco volnější přístup OpenAI by urychlil nasazení modelů jako GPT pro komerční použití v oblastech jako chatboti, generování kódu nebo analýza dat. Pro průmysl to znamená riziko fragmentace: firmy by musely přizpůsobovat modely různým jurisdikcím, což zvyšuje náklady.
Pro uživatele a širší společnost má to globální dopady, protože USA nastavují standardy pro AI regulace v EU nebo Číně. Jako expert na AI vidím zde riziko, že korporátní zájmy převáží nad veřejným zájmem – obě strany hrají na vybrané politiky, což může vést k regulacím prospěšným pro jednoho hráče na úkor konkurence. Midterm volby v roce 2026 posoudí, zda převáží bezpečnostní guardrails nebo rychlost inovací, což ovlivní bezpečnost systémů AGI v blízké budoucnosti. Celkově to podtrhuje, jak se AI stává centrem mocenských bojů.
Zdroj: 📰 The Times of India