📰 Annielytics.com

Oddaluje se OpenAI záměrně od bezpečnosti?

Oddaluje se OpenAI záměrně od bezpečnosti?

Souhrn

OpenAI upravila svou misi v daňovém přiznání za rok 2024 tím, že odstranila zmínku o bezpečném vývoji AI. K tomu se přidalo rozpustění týmu pro sladění mise, který měl zajišťovat soulad s původními hodnotami. Tyto kroky naznačují možný posun prioritu směrem k rychlejšímu vývoji na úkor bezpečnostních opatření.

Klíčové body

  • V daňovém přiznání za 2023 stála mise: „vybudovat obecně účelovou umělou inteligenci (AI), která bezpečně prospívá lidstvu“; v roce 2024 se zkrátila na „zajistit, aby obecná umělá inteligence prospívala celému lidstvu“.
  • Tým pro sladění mise (Mission Alignment team) byl vytvořen v září 2024 a měl sedm členů; byl nedávno rozpusten a členové přeřazeni jinam.
  • Tým vznikl po odchodu klíčových lídrů jako Mira Murati (šéf technologií), Bob McGrew (šéf výzkumu) a Barret Zoph (viceprezident výzkumu).
  • Změny byly zaznamenány v článku na The Conversation a reportáži Platformeru z anonymních zdrojů.

Podrobnosti

OpenAI, společnost zaměřená na vývoj AGI (umělé obecné inteligence), dlouhodobě zdůrazňovala bezpečnost jako klíčový prvek svého poslání. V daňovém přiznání za rok 2023 byla mise formulována takto: „OpenAI’s mission is to build general-purpose artificial intelligence (AI) that safely benefits humanity, unconstrained by a need to generate financial return.“ Tato verze explicitně spojovala vývoj AI s bezpečností a širokým distribucí přínosů. V přiznání za rok 2024 došlo k výraznému zkrácení: „OpenAI’s mission is to ensure that artificial general intelligence benefits all of humanity.“ Slovo „safely“ zmizelo, stejně jako zmínky o odpovědném nasazení a absenci tlaku na finanční zisky.

Tato změna by sama o sobě nemusela být alarmující, ale v kontextu dalších událostí nabývá na významu. Podle reportáže Platformeru z minulého týdne OpenAI rozpustila tým pro sladění mise, který měl pomáhat zaměstnancům i veřejnosti chápat misi společnosti a dopady AI. Tým byl zřízen v září 2024, krátce po masivním odchodu vrchních manažerů: Miry Muratiové, Boba McGrewa a Barreta Zopha, kteří odešli v jeden den. Mluvčí OpenAI pro TechCrunch potvrdil, že tým sloužil k zajištění stability během organizačních změn a viditelně demonstroval závazek k hodnotám. S pouhými sedmi členy byl tým malý, ale jeho rozpustění a přeřazení zaměstnanců do jiných týmů signalizuje přehodnocení interních struktur.

Tyto události se odehrávají v období intenzivního vývoje modelů jako GPT série, kde bezpečnostní otázky – například rizika misalignmentu nebo nechtěných chování – jsou stále aktuální. OpenAI v minulosti čelila kritice za nedostatečné bezpečnostní testy, což vedlo k odchodu zakladatelů jako Ilya Sutskever.

Proč je to důležité

Změny v misi a rozpustění týmu odrážejí širší trendy v AI průmyslu, kde rychlost vývoje často převažuje nad bezpečností. Pro uživatele to znamená potenciálně méně robustní bezpečnostní mechanismy v modelech jako ChatGPT, což zvyšuje rizika dezinformací, biasů nebo zneužití. V širším ekosystému posiluje to obavy o AGI, kde absence explicitního důrazu na bezpečnost může urychlit soutěž s firmami jako Anthropic nebo xAI, které bezpečnost priorizují. Pro regulátory, jako EU s AI Actem, to je signál k většímu dohledu nad OpenAI. Celkově to podtrhuje napětí mezi komerčními cíli a etickými povinnostmi v AGI vývoji, což ovlivní budoucí nasazení AI v průmyslu i společnosti. (512 slov)


Číst původní článek

Zdroj: 📰 Annielytics.com