📰 Nextgov

Bílý dům nařizuje agenturám přestat používat 'zkreslenou' AI

Bílý dům nařizuje agenturám přestat používat 'zkreslenou' AI

Souhrn

Úřad pro management a rozpočet (OMB) vydal 12. prosince 2025 memorandum, které federálním agenturám nařizuje zajistit, aby umělá inteligence, především velké jazykové modely (LLM), produkovala pravdivé výstupy bez manipulace ve prospěch ideologických dogmat. Tento krok vychází z prezidentského výkonného příkazu Donalda Trumpa z července, který měl eradikovat tzv. ‘woke’ AI v federální správě.

Klíčové body

  • Federální agentury musí vyhodnotit stávající kontrakty na LLM a upravit je tak, aby odpovídaly principům nestranné AI.
  • Do 11. března 2026 aktualizovat interní politiky a postupy včetně mechanismu pro hlášení LLM, které porušují nová pravidla.
  • Při zadávání nových zakázek na LLM získávat od dodavatelů dostatečné informace o souladu s principy nestranné AI.
  • LLM musí prioritizovat historickou přesnost, vědecký přístup, objektivitu a uznávat nejistoty v případech nedostatečných nebo protichůdných dat.
  • Memo zdůrazňuje, že AI nesmí být ‘truth-seeking’ jen formálně, ale musí se vyhýbat ideologickým zkreslením.

Podrobnosti

Úřad pro management a rozpočet (OMB), který spadá pod Bílý dům a řídí federální rozpočty a administrativu, vydal toto memorandum jako reakci na širší debatu o zkreslení v umělé inteligenci. Velké jazykové modely, jako jsou ty od OpenAI (GPT série), Anthropic (Claude) nebo Meta (Llama), slouží k generování textu, analýze dat a automatizaci úkolů v oblastiach jako je správa dokumentů, právní analýzy nebo veřejná komunikace. Problém spočívá v tom, že mnohé z těchto modelů jsou trénovány na datech obsahujících sociální a politické biasy, což vede k výstupům, které OMB označuje za ‘woke’ – tedy příliš liberálně nebo ideologicky zaměřené.

Memo explicitně uvádí, že LLM v federální správě musí být ‘truth-seeking’, což znamená zaměření na historickou přesnost (např. objektivní popis událostí bez moderních interpretací), vědeckou metodiku (overitelná data před spekulacemi) a objektivitu (vyvážené pohledy bez upřednostňování jedné ideologie). Agentury mají do 11. března 2026 přizpůsobit své postupy, včetně vytvoření kanálů pro stížnosti na nespolehlivé modely. Při nových zakázkách musí dodavatelé prokázat soulad, což může zahrnovat audity trénovacích dat nebo testy na bias.

Tento přístup navazuje na Trumpův výkonný příkaz z července 2025, který kritizoval existující AI systémy za šíření ‘ideologických dogmat’. V praxi to znamená, že firmy jako Microsoft (partner OpenAI) nebo Google, které dodávají AI federálním agenturám, budou muset upravit své modely – například přidáním ‘safety layers’ nebo fine-tuningem na neutrálnější datasety. OMB neupřesňuje technické detaily, jako je měření biasu (např. metriky jako WEAT nebo toxicity scores), ale zdůrazňuje zodpovědnost agentur za dodržování.

Jako expert na AI vidím zde rizika: definice ‘woke’ je subjektivní a může vést k opačnému biasu ve prospěch konzervativních narativů. Navíc, dosažení skutečné objektivity v LLM je technicky náročné, protože modely odrážejí data, na kterých jsou trénovány – často z internetu plného polarizace. Federální vláda utratila v posledních letech stovky milionů dolarů na AI kontrakty, takže toto memo přímo ovlivní trh.

Proč je to důležité

Tato regulace nastavuje precedens pro vládní nákupy AI v USA, což je největší světový trh s rozpočtem přes 20 miliard dolarů ročně na IT. Firmy vyvíjející LLM budou muset investovat do ‘debiasing’ technik, jako je reinforcement learning from human feedback (RLHF) s diverzními recenzenty nebo syntetická data. Pro průmysl to znamená vyšší náklady, ale i příležitost pro specializované ‘government-grade’ modely.

V širším kontextu posiluje debatu o AI etice: zatímco EU má AI Act s důrazem na rizika a transparentnost, USA se zaměřuje na ideologickou neutralitu. To může ovlivnit globální standardy, protože americké firmy dominují trhu. Pro uživatele v ČR nebo EU to znamená nepřímý tlak na mezinárodní dodavatele, aby upravili modely pro podobné požadavky. Dlouhodobě by to mohlo zlepšit spolehlivost AI v kritických oblastech, ale zároveň omezit kreativitu modelů v sociálních tématech.

(Celkem cca 550 slov)


Číst původní článek

Zdroj: 📰 Nextgov