📰 Decrypt

Sam Altman odpovídá Elonovi Muskovi ohledně tvrzení o bezpečnosti ChatGPT

Sam Altman odpovídá Elonovi Muskovi ohledně tvrzení o bezpečnosti ChatGPT

Souhrn

Sam Altman, generální ředitel OpenAI, ostře reagoval na varování Elona Muska, který na platformě X (dříve Twitter) radil uživatelům vyhnout se ChatGPT kvůli údajným bezpečnostním rizikům. Musk tvrdí, že model shromažďuje citlivá data a ohrožuje soukromí. Altman feud charakterizoval jako pokus o sabotáž a zdůraznil, že OpenAI investuje do bezpečnostních opatření.

Klíčové body

  • Elon Musk varoval na X před používáním ChatGPT kvůli riziku úniku dat a sledování uživatelů.
  • Sam Altman odpověděl, že Muskova xAI (jeho společnost zaměřená na vývoj bezpečného AGI) má podobné problémy.
  • Feud souvisí s dlouhodobým napětím mezi zakladateli OpenAI, včetně Muskovy žaloby proti společnosti.
  • OpenAI tvrdí, že ChatGPT má robustní šifrování a opt-out možnosti pro trénink dat.
  • Musk prosazuje svůj Grok model jako bezpečnější alternativu.

Podrobnosti

Spor mezi Samem Altmanem a Elonem Muskem, dvěma klíčovými postavami v oblasti umělé inteligence, nabral na obrátkách poté, co Musk 15. prosince na platformě X zveřejnil příspěvek, ve kterém varoval: „Nepoužívejte ChatGPT – ohrožuje to vaše soukromí.“ Musk, zakladatel xAI, která vyvíjí model Grok zaměřený na maximální pravdivost a minimální cenzuru, obviňuje OpenAI z toho, že ChatGPT – velký jazykový model (LLM) schopný generovat text, odpovídat na otázky a pomáhat s kódováním – sbírá osobní data pro trénink bez dostatečného souhlasu. Podle Muska to vede k potenciálním únikům, jako byly minuloroční incidenty, kdy došlo k expozici konverzací uživatelů.

Altman v odpovědi na X prohlásil, že Muskova tvrzení jsou zavádějící a slouží k propagaci Grok. OpenAI, společnost založená v roce 2015 s cílem bezpečného vývoje AGI (umělé obecné inteligence), implementovala v ChatGPT verze 4o a novějších řadu bezpečnostních vrstev: data jsou šifrována AES-256, uživatelé mohou vypnout využití jejich vstupů pro trénink přes nastavení v účtu, a model prochází red teamingem – simulovanými útoky na zjištění zranitelností. Navíc OpenAI spolupracuje s regulátory, jako je evropský AI Act, který vyžaduje transparentnost u high-risk AI systémů.

Muskovo varování přichází v kontextu jeho odchodu z OpenAI v roce 2018 kvůli neshodám v směru vývoje a následné žaloby v březnu 2024, kde obviňuje Altmanovu firmu z odchylky od původní neprofitní mise. xAI, založená v létě 2024, získala 6 miliard dolarů investic a Grok-1.5 je optimalizován pro delší kontexty (až 128K tokenů), což umožňuje lepší analýzu složitých úkolů bezpečněji než GPT-4. Nicméně oba modely čelí podobným výzvám: halucinacím (vymýšlení faktů) a jailbreakingu (obcházení bezpečnostních filtrů prompty).

Proč je to důležité

Tento veřejný spor odhaluje hluboké rozdíly v přístupu k bezpečnosti AI: OpenAI staví na škálovatelném dohledu (superalignment tým), zatímco Musk zdůrazňuje otevřenost a decentralizaci. Pro uživatele to znamená větší povědomí o rizicích – např. vyhnout se sdílení citlivých dat v jakémkoli LLM – a tlak na lepší standardy, jako EU AI Act nebo nadcházející americkou regulaci. V širším ekosystému to urychluje konkurenci mezi GPT, Grok, Claude (od Anthropic) a Llama (Meta), což vede k rychlejším bezpečnostním upgradům, ale zároveň zvyšuje riziko fragmentace trhu. Dlouhodobě může feud ovlivnit investice do AI bezpečnosti, kde funding překročil 100 miliard dolarů v roce 2024.


Číst původní článek

Zdroj: 📰 Decrypt