3月27日,曙光存儲全新升級AI存儲方案,秉持“AI加速”理念,面向AI訓(xùn)練、AI推理和AI成本等需求,全面重塑AI存儲架構(gòu)。
曙光存儲副總裁張新鳳AI訓(xùn)練再提速效率提升3倍以上
曙光存儲ParaStor F9000專為 AI訓(xùn)練場景量身打造,針對AI訓(xùn)練帶來的GUP利用率低、KV Cache、向量數(shù)據(jù)庫存儲和檢索性能低等問題,升級后的ParaStor可整機柜交付,提供千卡/萬卡/十萬卡集群整機柜交付方案,輕松容納DeepSeek-R1這樣千億級參數(shù)的大模型,部署時間縮短50%。
性能方面,ParaStor F9000更是表現(xiàn)卓越,擁有500萬 IOPS的強大處理能力和190GB/s的高速帶寬。借助五級加速技術(shù)和秒級彈性擴容功能,可將GPT-4級別模型的訓(xùn)練周期從原本的3個月大幅縮短至1周,加速AI技能迭代。
AI推理零卡頓時延降低80%
大模型實時推理往往帶來每秒千萬級的并發(fā)請求,對存儲性能要求極高。FlashNexus集中式全閃存儲在AI推理領(lǐng)域樹立了新的性能標(biāo)桿,其32控配置可實現(xiàn)超3000萬 IOPS的驚人性能,時延低至0.202ms,在SPC-1基準(zhǔn)評測中榮獲全球第一。
基于國內(nèi)最新芯片級研發(fā)成果,優(yōu)化從處理器芯片、RDMA網(wǎng)絡(luò)芯片、PCIe芯片、NVMe控制器芯片的端到端協(xié)議路徑。微控架構(gòu)建立無鎖化的數(shù)據(jù)IO“超級隧道”,將寫性能提升2倍以上。為AI推理的向量數(shù)據(jù)庫、KV Cache長文本存儲提供了更優(yōu)方案。此外,高性能數(shù)據(jù)加密、完善的數(shù)據(jù)保護(hù)等技術(shù)為用戶最關(guān)鍵的私域核心數(shù)據(jù)資產(chǎn)提供全方位保護(hù)。
面對大模型實時推理需求,該產(chǎn)品可“零幀起手”支撐每秒百萬級并發(fā)需求;聚焦自動駕駛決策實時性需求,可以毫秒級速度加載TB級路況數(shù)據(jù);針對金融客戶,可在高波動市場環(huán)境下穩(wěn)定處理高頻量化交易數(shù)據(jù)流,讓交易更高效、安全。
AI成本更優(yōu)解海量存儲再升級
升級后的ParaStor S6000系列,以1.44PB/框的超大容量和20%成本降低支撐千億參數(shù)歸檔。單框配置14塊NVMe盤和60塊SATA/SAS盤,通過冷熱數(shù)據(jù)分層技術(shù)和智能數(shù)據(jù)調(diào)度功能,實現(xiàn)動態(tài)優(yōu)化存儲資源的分配、跨形態(tài)熱溫冷數(shù)據(jù)無感流動,提高存儲資源的利用率。
通過與2U2N全閃節(jié)點的統(tǒng)一管理和使用,利用系統(tǒng)間無縫數(shù)據(jù)遷移等技術(shù),顯著降低使用和運維成本
ParaStor高密存儲可滿足AI大模型的數(shù)據(jù)預(yù)處理以及模型、參數(shù)的歸檔,高端計算+AI科學(xué)計算數(shù)據(jù)湖應(yīng)用等場景,顯著降低AI大模型應(yīng)用存儲系統(tǒng)的構(gòu)建成本,是百PB-EB級超大規(guī)模AI基礎(chǔ)設(shè)施的更佳選擇。
曙光存儲通過不斷更新升級產(chǎn)品,帶來速度與容量的雙重革命。未來,曙光存儲將始終以用戶需求為導(dǎo)向,以先進(jìn)存力筑基AI時代,為千行百業(yè)AI升級提供堅實的數(shù)據(jù)底座支撐。