📰 Breitbart News

OpenAI hledá 'Head of Preparedness' na řešení nových rizik bezpečnosti AI

OpenAI hledá 'Head of Preparedness' na řešení nových rizik bezpečnosti AI

Souhrn

OpenAI vyhlašuje hledání kandidáta na pozici Head of Preparedness, který má vést firemní rámec připravenosti na rizika umělé inteligence. Sam Altman na platformě X zdůraznil výzvy jako vliv na mentální zdraví a objevování zranitelností v kyberbezpečnosti. Tento krok přichází po změnách v leadershipu bezpečnostního týmu.

Klíčové body

  • OpenAI nabízí plat 555 000 USD plus podíly za roli Head of Preparedness.
  • Úkol: Provádět rámec připravenosti pro sledování hraničních schopností AI a přípravu na rizika těžkých škod.
  • Altman zdůrazňuje rovnováhu mezi posílením obránců kyberbezpečnosti a prevencí zneužití útočníky.
  • Tým preparedness byl založen v roce 2023 pro mitigaci rizik od phishingu po jaderné hrozby.
  • Bývalý šéf Aleksander Madry přešel do role zaměřené na uvažování AI, další bezpečnostní lídři odešli.

Podrobnosti

OpenAI, společnost za ChatGPT a dalšími velkými jazykovými modely (LLM), čelí rostoucím obavám z bezpečnosti svých systémů. V příspěvku na X Sam Altman popsal, jak pokročilé AI modely přinášejí rizika v oblastech jako mentální zdraví uživatelů – například prostřednictvím manipulativního obsahu generovaného AI – nebo schopnost AI odhalovat kritické zranitelnosti v počítačových systémech, což by mohlo urychlit kyberútoky. Nová pozice Head of Preparedness má tyto hrozby systematicky sledovat a připravovat na ně, s důrazem na ‘frontier capabilities’ – hraniční schopnosti AI, které překračují současné limity.

Rámec připravenosti OpenAI funguje jako strukturovaný přístup k hodnocení rizik. Zahrnuje monitorování vývoje modelů, testování na potenciální katastrofické scénáře a vývoj opatření. Tým byl založen v roce 2023 s cílem pokrývat široké spektrum rizik: od okamžitých jako phishingové útoky generované AI až po spekulativní jako biologické zbraně navržené algoritmy nebo eskalace jaderných konfliktů díky AI rozhodování. Nicméně leadership prošel změnami – Aleksander Madry, původní Head of Preparedness a expert na robustní AI, byl přeřazen do oblasti AI reasoning, což zahrnuje zlepšování logického uvažování modelů. Další bezpečnostní manažeři buď opustili firmu, nebo změnili role, což signalizuje nestabilitu v této klíčové oblasti.

Idealní kandidát podle Altmana musí zvládat rovnováhu: poskytovat AI nástroje pro kyberbezpečnostní obránce, jako detekci zranitelností rychlejší než u člověka, zatímco bránit útočníkům v zneužití stejných technologií. Pozice je vypsána s atraktivním balíčkem, což odráží prioritu OpenAI na přilákání top talentu v době, kdy konkurence jako Anthropic nebo Google DeepMind posilují své bezpečnostní týmy.

Proč je to důležité

Tato personální změna podtrhuje eskalaci tlaku na AI firmy v oblasti bezpečnosti. OpenAI, jako lídr v LLM, ovlivňuje miliardy uživatelů přes ChatGPT, a selhání v preparedness by mohlo vést k regulacím jako EU AI Act nebo zákonům v USA. Pro průmysl znamená posílení duality: AI urychluje kyberbezpečnost (např. automatizovaná detekce exploitů), ale zvyšuje rizika pro útočníky s přístupem k otevřeným modelům. V širším kontextu, kde AGI blíží, je stabilní leadership klíčem k prevenci ‘catastrophic risks’. Kriticky: časté odchody z OpenAI safety týmu zpochybňují dlouhodobou závazek firmy k bezpečnosti oproti rychlému nasazení modelů, což může oslabit důvěru investorů a veřejnosti.


Číst původní článek

Zdroj: 📰 Breitbart News