Souhrn
Pokročilé modely umělé inteligence, označované jako frontier AI, jako Claude 3 Opus od Anthropic a GPT-5 od OpenAI, dosáhly v testech úrovně lidských expertů při hledání zranitelností v smart contractech. Nová analýza odhalila, že tyto modely identifikovaly potenciální exploity s hodnotou milionů dolarů v simulovaných prostředích na různých blockchainových sítích. Výsledky naznačují, že AI může výrazně zlepšit audit bezpečnosti chytrých kontraktů, kde dochází k miliardovým ztrátám kvůli hackům.
Klíčové body
- Modely Claude 3 Opus a GPT-5 překonaly nebo vyrovnali lidské auditor(y) v detekci reálných typů exploitů, jako reentrancy nebo integer overflow.
- Testovány na blockchainových platformách včetně Ethereum, Solana a Binance Smart Chain, s celkovou simulovanou hodnotou zranitelností přesahující miliony dolarů.
- AI identifikovala 80-90 % známých zranitelností, což je srovnatelné s top lidskými specialisty.
- Analýza zahrnovala simulace aktuálních tržních cen kryptoměn, kde BTC dosahuje 93 308 USD a ETH 3 056 USD.
- Výsledky podtrhují rizika i příležitosti AI v automatizaci bezpečnostních auditů.
Podrobnosti
Studie, která analyzovala výkon frontier AI modelů, se zaměřila na jejich schopnost detekovat složité zranitelnosti v smart contractech – programovatelných smlouvách uložených na blockchainu, které automatizují transakce bez prostředníků. Smart kontrakty se používají pro DeFi aplikace, NFT tržiště nebo DAO, ale jejich chyby vedly k ztrátám přes 3 miliardy USD v roce 2023 podle reportů Chainalysis. Testy proběhly na simulovaných datech z více blockchainů, včetně Ethereum (s ETH na 3 056 USD), Solana (SOL 142 USD) a dalších, kde byly zahrnuty aktuální tržní ceny pro realistické hodnocení dopadů.
Claude 3 Opus, model od Anthropic specializovaný na bezpečnostní úlohy díky úpravám v tréninku, a GPT-5, očekávaná iterace GPT série s vylepšeným uvažováním, byly zadány úkoly jako analýza Solidity kódu (jazyk pro Ethereum smart kontrakty) na hledání exploitů typu reentrancy attack – útok, kdy kontrakt opakovaně volá funkci před dokončením předchozího volání, což vede k vyprázdnění fondů. Modely nejen identifikovaly známé CVE (Common Vulnerabilities and Exposures), ale navrhly i opravy a simulovaly útoky.
V porovnání s lidskými audity, jako ty od firem typu Trail of Bits nebo OpenZeppelin, AI dosáhla precision nad 85 % při detekci high-risk zranitelností. Například v jednom testu na Solana kontraktech odhalily modely potenciální ztráty 2,5 milionu USD při ceně SOL 142 USD. To je kritické v kontextu současného bull marketu, kde BTC stouplo o 7,42 % na 93 308 USD a celkový trh kryptoměn roste. Nicméně, studie zdůrazňuje limity: AI selhala u 10-15 % kontextově závislých exploitů vyžadujících hluboké znalosti specifických protokolů, a simulace nejsou totožné s reálnými nasazenými kontrakty.
Proč je to důležité
Tento průlom ukazuje, jak se velké jazykové modely posouvají k AGI-like schopnostem v specializovaných doménách jako blockchainová bezpečnost, kde lidští experti stojí tisíce dolarů za hodinu. Pro průmysl znamená rychlejší a levnější audity, což by mohlo snížit roční ztráty z 3 miliard USD. Zároveň to zvyšuje rizika: útočníci mohou AI použít k tvorbě exploitů, což urychlí závod v zbrojení mezi obránci a hackery. V širším ekosystému AI to podtrhuje nutnost bezpečnostních guardrails, jako ty v Claude, a regulace pro AI v kritické infrastruktuře. Pro uživatele DeFi to znamená potenciálně bezpečnější platformy, ale i potřebu diverzifikace rizik.
Zdroj: 📰 Decrypt
|