Souhrn
Společnost Hewlett Packard Enterprise (HPE) na konferenci HPE Discover Barcelona 2025 oznámila uzly datové inteligence HPE Alletra Storage MP X10000. Tyto uzly, poháněné grafikami Nvidia L40S GPU, slouží k obohacení metadat a vektorovým embeddingům přímo v úložišti, což urychluje přípravu dat pro AI aplikace jako RAG, velké jazykové modely (LLM) a analýzu. Řeší tak hlavní překážku on-premises AI iniciativ, kterou je příprava a přesun dat k výpočetním zdrojům.
Klíčové body
- Uzly Alletra Storage MP X10000 fungují jako vrstva mezi úložištěm a výpočty, automaticky extrahují a obohacují metadata z objektů X10000.
- Používají Nvidia L40S GPU pro inline zpracování dat v reálném čase, což zvyšuje rychlost, kvalitu a relevanci dat pro AI.
- Podle zprávy Omdia jsou hlavní výzvy identifikace datových sad, jejich příprava a přesun na správnou infrastrukturu.
- Eliminují potřebu samostatných nástrojů pro přípravu dat, což zkracuje čas na nasazení AI modelů.
- Podpora pro RAG (Retrieval-Augmented Generation), LLM a analýzu, včetně ukládání vektorových embeddingů.
Podrobnosti
Hewlett Packard Enterprise, která se specializuje na enterprise úložiště, servery a hybridní cloudová řešení, představila uzly datové inteligence jako odpověď na rostoucí potřeby firem s AI projekty. Podle průzkumu Omdia, který analyzuje trh s IT infrastrukturou, čelí podniky při on-premises AI iniciativách třem klíčovým problémům: nalezení vhodných datových sad, podpora týmů při jejich přípravě a přesun dat na GPU clustery. Scott Sinclair, ředitel praxe v Omdia, zdůraznil, že kvalita dat je klíčová pro úspěch AI, ale škála moderních datových prostředí a jejich distribuce komplikují lokalizaci relevantních zdrojů. Bez řádné přípravy klesá výkon GPU systémů, což vede k neefektivnímu využití drahé hardware.
Uzly HPE Alletra Storage MP X10000 řeší tento bottleneck vložením vrstvy zpracování přímo do úložiště. Integrovaný inline engine pro obohacení metadat automaticky extrahuje informace z objektů uložených v systému X10000, generuje vektorové embeddingy a ukládá je pro okamžité použití. Nvidia L40S GPU zajišťuje vysoký výkon pro tyto operace, přibližuje data k výpočtům a snižuje latenci. Fidelma Russo, výkonná viceprezidentka pro hybridní cloud a CTO v HPE, uvedla, že bottleneck AI není kapacita GPU, ale příprava dat pro ně. Tento přístup umožňuje firmám integrovat data přímo do AI workflow bez nutnosti více nástrojů, jako jsou separátní ETL (Extract, Transform, Load) systémy nebo manuální skripty.
Pro praktické použití slouží uzly k přípravě dat pro RAG, kde se relevantní dokumenty vyhledávají a kombinují s LLM pro přesnější odpovědi; pro trénink LLM, kde kvalitní embeddingy zlepšují přesnost modelů; a pro analýzu, kde rychlé metadata umožňují explorativní dotazy. HPE tak posiluje svou pozici v ekosystému Nvidia, kde se GPU stávají standardem pro AI akceleraci.
Proč je to důležité
Tato novinka přispívá k demokratizaci on-premises AI tím, že snižuje závislost na cloudových službách pro datovou přípravu a umožňuje firmám s citlivými daty zpracovávat je lokálně. V širším kontextu enterprise AI, kde podle Omdia 70 % firem plánuje hybridní nasazení, řeší klíčový bod selhání – data pipeline. Pro průmysl znamená méně složitostí v infrastruktuře, rychlejší čas na hodnotu z AI investic a lepší využití existujících úložišť HPE. Kriticky lze poznamenat, že zatímco hardware řeší škálovatelnost, úspěch závisí na integraci s otevřenými frameworky jako LangChain nebo Hugging Face, což HPE zatím podrobně nespecifikovalo. Celkově posiluje trend směřující k edge AI zpracování v enterprise prostředích.
Zdroj: 📰 Techtarget.com
|