← Zpět na Tech News
Tento článek je z archivu. Byl publikován 28.12.2025.
📰 SiliconANGLE News

OpenAI hledá seniorního vedoucího přípravy na rizika, jak roste dohled nad bezpečností AI

OpenAI hledá seniorního vedoucího přípravy na rizika, jak roste dohled nad bezpečností AI

Souhrn

OpenAI Group PBC vyhlásilo výběr na pozici vedoucího přípravy (head of preparedness), což je seniorní bezpečnostní role odpovědná za predikci rizik z pokročilých AI modelů a koordinaci jejich mitigace. Tato pozice vede Preparedness Framework, rámec pro hodnocení hraničních schopností, které mohou vést k novým nebo závažným rizikům, jako je zneužití nebo kybernetické hrozby. Nabídka přichází po turbulentních změnách v bezpečnostním leadershipu společnosti.

Klíčové body

  • Role vede technickou strategii Preparedness Framework, včetně vývoje modelů hrozeb, hodnocení schopností a nastavování prahů rizik.
  • Monitoruje rizika jako zneužití modelů (misuse scenarios), kybernetické útoky a další dopady rostoucích schopností AI.
  • Pozice spadá pod Safety Systems a spolupracuje s výzkumnými, politickými a produktovými týmy, ovlivňuje rozhodnutí o vydávání modelů.
  • Základní plat 550 000 USD plus podíly, vyžaduje zkušenosti s velkými technickými systémy, bezpečností nebo rizikovou analýzou.
  • Nahrazuje dočasné řešení po odchodích Aleksandra Madryho, Lilian Weng a přesunu Joaquína Quiñonera Candely.

Podrobnosti

OpenAI, společnost zaměřená na vývoj pokročilých modelů umělé inteligence jako GPT série, nyní hledá stálého vedoucího přípravy v rámci své Safety Systems organizace. Preparedness Framework slouží k systematickému sledování a hodnocení tzv. frontier capabilities – hraničních schopností modelů, které překračují současné limity a mohou přinést nová rizika. Mezi tyto rizika patří například zneužití modelů k tvorbě škodlivého obsahu, jako dezinformace nebo biologické zbraně, kybernetické hrozby prostřednictvím automatizovaných útoků či neočekávané dopady na společnost při rostoucí autonomii systémů.

Vedoucí role bude vyvíjet threat models, což jsou modely predikující možné útoky nebo selhání, provádět capability evaluations – testy, které měří, zda model dosahuje nebezpečných úrovní výkonu – a nastavovat risk thresholds, prahové hodnoty, při jejichž překročení se aktivují další bezpečnostní opatření, jako omezení nasazení nebo dodatečné kontroly. Tyto výstupy přímo ovlivňují rozhodnutí o vydávání nových modelů a funkcí, což je klíčové v době, kdy regulační orgány jako evropská AI Act nebo americké federální agentury zesilují dohled.

Tato nabídka reflektuje nedávné změny v bezpečnostním týmu OpenAI. V polovině roku 2024 byl bývalý head of preparedness Aleksander Madry, expert na robustní AI, přeřazen na jinou pozici. Dočasně převzali odpovědnost seniorní manažeři Joaquin Quiñonero Candela a Lilian Weng, specialistka na bezpečnostní systémy. Weng později odešla a Quiñonero Candela přešel do náboru personálu, což zanechalo oblast bez dedikovaného lídra. CEO Sam Altman dříve zdůraznil přípravu na rizika jako klíčový pilíř, avšak opakované změny v týmu vyvolávají otázky o stabilitě závazků k bezpečnosti, zvláště po sporech o superalignment tým v roce 2024.

Požadavky na kandidáta jsou vysoké: zkušenosti s velkými systémy, bezpečností, rizikovou analýzou nebo governance, schopnost převádět výzkum do provozních kontrol. Nabídka s platem 550 000 USD plus equity signalizuje prioritu, ale kritici poukazují, že vysoké odměny mohou přitahovat talenty spíše z korporátního sektoru než z akademické sféry bezpečnosti AI.

Proč je to důležité

Tento krok nastupuje v době rostoucího tlaku na AI firmy kvůli potenciálním rizikům superinteligentních systémů. OpenAI jako lídr v LLM modelech ovlivňuje celý průmysl – jejich Preparedness Framework slouží jako benchmark pro ostatní, například Anthropic nebo Google DeepMind. Stabilní leadership v této oblasti může urychlit vývoj bezpečnostních standardů, ovlivnit regulační debaty a zabránit incidentům, jako byly minulé úniky dat nebo jailbreaky modelů. Pro uživatele a firmy znamená lepší predikce rizik bezpečnější nasazení AI v produkci, zatímco absence takové role by mohla vést k opožděným releasím nebo eskalaci veřejného skepticizmu. V širším kontextu podtrhuje to nutnost integrace bezpečnosti do jádra vývoje AI, což je podmínkou udržitelného pokroku směrem k AGI.


Číst původní článek

Zdroj: 📰 SiliconANGLE News

© 2026 Marigold.cz