Souhrn
OpenAI nasadilo upravenou verzi ChatGPT na bezpečnostní platformu amerického ministerstva obrany (Department of Defense, DoD) pro práci s neklasifikovanými daty. Tento krok umožní zaměstnancům rychlejší generování textů, analýzu dokumentů a podporu v administrativních úkolech. Odborníci však varují, že generativní AI může zesílit lidské chyby kvůli halucinacím a nepřesnostem.
Klíčové body
- OpenAI vytvořilo custom verzi ChatGPT přímo pro platformu DoD, která slouží k neklasifikované práci.
- Integrace probíhá přes bezpečnostní cloudovou platformu IL5, certifikovanou pro vládní použití.
- Experti jako technologičtí zastánci poukazují na rizika human error, kdy AI generuje nesprávné informace.
- Toto nasazení následuje za podobnými projekty Microsoftu s Azure OpenAI pro federální agentury.
- ChatGPT zde slouží k sumarizaci dokumentů, tvorbě zpráv a podpoře v rutinních úkolech.
Podrobnosti
Americké ministerstvo obrany oznámilo integraci vlastní verze ChatGPT do své bezpečnostní platformy, což umožní tisícům zaměstnanců používat AI nástroj pro neklasifikovanou práci. Tato platforma, známá jako IL5 (Impact Level 5), je certifikována pro zpracování citlivých, ale ne tajných údajů, a běží na infrastruktuře Microsoft Azure. OpenAI, společnost specializující se na velké jazykové modely (LLM), přizpůsobila ChatGPT tak, aby splňovala vládní standardy bezpečnosti, včetně omezení přístupu k datům a prevence úniků.
ChatGPT v této verzi funguje jako asistent pro sumarizaci dlouhých dokumentů, generování odpovědí na dotazy, tvorbu šablon zpráv nebo analýzu veřejných dat. Například zaměstnanci mohou zadat požadavek na shrnutí zprávy o logistice a AI vrátí stručný přehled. Tato integrace je součástí širšího trendu, kdy DoD testuje AI nástroje od roku 2023, včetně projektů s Palantir nebo Anduril pro autonomní systémy. OpenAI již dříve spolupracovalo s vládou USA prostřednictvím partnerství s Microsoftem, který poskytuje API přístup k modelům GPT-4.
Přesto experti, jako například technologičtí analytici z Center for a New American Security, upozorňují na klíčová rizika. Generativní AI jako ChatGPT trpí halucinacemi – generováním vymyšlených faktů – což v armádním kontextu může vést k špatným rozhodnutím. Human error se zesiluje, když uživatelé slepě důvěřují výstupům bez ověření. Navíc existují obavy z biasů v trénovacích datech, které mohou ovlivnit analýzy. DoD proto zavádí vrstvy ochrany, jako jsou watermarky pro detekci AI-generovaného obsahu a manuální revize kritických výstupů. Tento projekt není první: podobně Microsoft nasadil Azure OpenAI pro CIA a NSA, ale Pentagon zdůrazňuje, že custom verze je optimalizována pro federální prostředí s dodatečnými bezpečnostními opatřeními.
Proč je to důležité
Tato integrace urychluje adopci AI v obranném sektoru, kde efektivita administrativy ovlivňuje celkovou připravenost. Pro průmysl znamená precedens pro další vládní zakázky v hodnotě stovek milionů dolarů a posiluje pozici OpenAI na trhu enterprise AI. Zároveň zdůrazňuje nutnost řešit bezpečnostní a etické výzvy: v širším ekosystému to může vést k přísnějším regulacím AI v kritické infrastruktuře. Pokud se ukáže úspěšná, otevře cestu pro pokročilejší aplikace, jako je podpora v plánování operací, ale s rizikem eskalace chyb v citlivých oblastech. Celkově to ilustruje napětí mezi rychlou inovací a odpovědným nasazením AI v institucích s vysokými stakes.
Zdroj: 📰 Decrypt