Souhrn
OpenAI ukončila vývoj svého klasifikátoru AI textu, protože nástroj nedokázal spolehlivě rozlišit mezi textem napsaným člověkem a generovaným modelem. Přesnost nástroje byla pouze 26 procent a často mylně označoval lidské texty za AI generované.
Klíčové body
- OpenAI v lednu 2023 spustila AI Text Classifier, který měl určovat pravděpodobnost, že text pochází z AI.
- Nástroj dosahoval přesnosti pouze 26 % při detekci AI textu.
- Časté falešné pozitivy – lidské texty byly označovány jako AI generované.
- Vývoj byl ukončen v červenci 2025 kvůli nízké spolehlivosti a riziku zneužití.
- OpenAI uznala, že v současné době neexistuje bezpečný a spolehlivý způsob, jak takový detektor vylepšit.
Podrobnosti
Po uvedení ChatGPT v listopadu 2022 vzrostl tlak na vývoj nástrojů schopných odhalit AI generovaný obsah – zejména ve vzdělávání, žurnalistice a regulaci. OpenAI reagovala v lednu 2023 spuštěním experimentálního AI Text Classifieru, který texty hodnotil na stupnici od „nepravděpodobného“ po „pravděpodobné“ AI původu. Již od začátku však nástroj trpěl zásadními nedostatky. Podle vlastních údajů OpenAI správně identifikoval AI text pouze v 26 % případů. Závažnější byl však problém falešných pozitiv – lidské eseje, články nebo odborné texty byly často označeny jako pocházející z AI, což mohlo vést k neoprávněným podezřením z podvádění nebo porušení etických pravidel. V červenci 2025 OpenAI oznámila, že vývoj nástroje zastavuje, protože nevidí cestu ke zlepšení jeho přesnosti bez závažných rizik pro uživatele. Tento krok potvrzuje, že detekce AI textu zůstává otevřeným technickým problémem, zejména vzhledem k tomu, že moderní jazykové modely (LLM) produkují čím dál plynulejší a lidsky znějící text.
Proč je to důležité
Neúspěch OpenAI ukazuje, že spolehlivá detekce AI textu není v současné době technicky proveditelná – a možná nikdy nebude, pokud se nezavedou technické standardy pro označování AI obsahu (např. vodoznaky). Pro školy, redakce nebo právní systémy to znamená, že nelze spoléhat na automatizované nástroje při posuzování původu textu. Místo toho bude nutné se spoléhat na kontext, metadata nebo transparentní označování generovaného obsahu přímo na straně výstupu modelu. Tento krok také podtrhuje potřebu regulace na úrovni výstupu AI systémů, nikoli až na straně detekce.
Zdroj: 📰 TalkAndroid
|