MLCommons,一個致力于推動全球 AI系統發(fā)展的頂級工程聯盟,匯聚了包括谷歌、斯坦福大學在內的眾多頂尖企業(yè)和研究機構。作為該聯盟的創(chuàng)始成員之一,浪潮信息自2020年起便積極參與其中,共同探索AI技術的無限可能。近日,在MLCommons的子項目MLPerf Storage v1.0性能基準評測中,浪潮信息再度展現了在AI存儲領域的卓越實力。
MLPerf Storage v1.0評測旨在全方位考量AI系統在端、邊、云等場景下的訓練、推理、存儲及安全性能。此次評估分為封閉賽道和公開賽道兩大類別。浪潮信息此次選擇了封閉賽道,要求嚴格遵循既定配置和代碼規(guī)范,以確保所有提交結果的公平性和可比性,在既定規(guī)則下更能客觀真實地展現產品的實際能力。公開賽道允許在基準測試和存儲系統配置方面有更多的靈活性,以展示對AI/ML社區(qū)有益的新方法或新功能。
MLPerf Storage v1.0工具是一個開源工具,可以從Github平臺下載。該工具允許所有廠商加入Storage社區(qū),發(fā)表見解,提出發(fā)現的問題和改進意見。在此次測試中,浪潮信息率先發(fā)現了測試負載CosmoFlow模型提交規(guī)則標準的問題(GPU利用率實際達不到90%)。通過多次橫向交流和社區(qū)溝通,浪潮信息得到了Micron、NVIDIA等多家廠商的積極響應,最終推動了社區(qū)對CosmoFlow模型提交規(guī)則的修改(GPU利用率要求降至70%)。這一舉措不僅體現了浪潮信息在測試過程中的積極參與,也展示了其作為國內參與該社區(qū)工具構建的先驅廠商的實力。
值得一提的是,MLPerf Storage v1.0評估采用了三種具有代表性的測試模型,分別是圖像分割領域的3D-UNet模型(平均文件大小146M,采用NPZ格式)、HPC領域的CosmoFlow模型(平均文件大小2.2M,采用TFRecord格式)以及圖像分類領域的ResNet50模型(平均文件大小百KB,采用TFRecord格式)。這些測試模型的選擇,不僅全面覆蓋了AI應用的主要場景,也確保了評估結果的客觀性和準確性。
核心概念
模擬加速器:通過引入非真實的GPU/TPU等加速器,為測試者提供了一個無需實際硬件加速器的測試環(huán)境,旨在降測試成本、保證公平性的同時,提升測試效率。(本次社區(qū)提供模擬加速器H和模擬加速器A)。
加速器利用率(Accelerator Utilization ,AU):衡量模擬加速器在基準測試過程中利用效率的關鍵指標,其計算公式為:
主機節(jié)點(Host Node):即客戶端,是運行MLPerf存儲基準代碼的機器,類似于AI訓練集群中搭載GPU的計算服務器。主機節(jié)點的性能與配置對存儲系統的測試結果具有重要影響。
提交規(guī)則
MLPerf Storage的提交規(guī)則旨在確保測試結果的統一性和可比性。主要規(guī)則包括:
前置條件(單主機提交規(guī)則):所有提交結果必須滿足AU在3D-UNet和ResNet50上達到90%,在CosmoFlow上達到70%及以上。同時,禁止使用主機節(jié)點緩存。
多主機提交規(guī)則:在多主機測試環(huán)境中,每個主機節(jié)點的模擬加速器數量必須一致,且所有主機的測試運行參數也必須保持一致。
從 MLPerf Storage的基本概念和提交規(guī)則來看,社區(qū)致力于通過統一標準和減少變量來確保測試結果的統一、公正和可評估性。然而,在實際測試中,仍存在兩個難以統一的影響因素:一是存儲架構的多樣性,涵蓋集中式、分布式及云端等多種形態(tài);二是存算節(jié)點配置非標準化,如主機與存儲節(jié)點配置不統一。這些因素的共同作用下,使得單一的測試指標難以全面反映各廠商存儲系統在AI場景下的適配程度。性能,無疑是AI存儲的一大關鍵需求。浪潮信息在MLPerf Storage v1.0基準測試中取得5項性能全球第一,單節(jié)點性能達到120GB/s,充分展示了在AI存儲性能測試領域的領先優(yōu)勢。然而,若僅將存儲帶寬作為評估標準,采用如Vdbench、FIO等專業(yè)存儲測試軟件即可滿足需求,無需借助MLPerf Storage這類針對AI場景的基準測試工具。事實上,AI對存儲的需求遠不止于產品性能本身,而是要求整體解決方案能夠高度適配AI應用場景。那么,如何科學衡量一套存儲系統是否適合AI場景呢?基于MLPerf Storage的提交規(guī)則,我們不妨回歸AI存儲的本質——即最大限度提升客戶端資源利用,減少資源浪費,以支撐更多的GPU計算。
MLPerf Storage的核心要求聚焦于兩大要素:一是加速器利用率(AU)需達到90%或70%以上;二是“最大加速卡數”,即在固定AU閾值下,存儲系統所能支撐的單節(jié)點最大加速卡數及多節(jié)點下每個客戶端的最大加速卡數。這里的“最大”不僅意味著帶寬要高,同時要求時延要低。在計算節(jié)點提供固定網絡帶寬的條件下,時延的降低意味著在相同時間內能夠供給的數據量增多,從而支持更多的加速卡。
在客戶端與存儲側網絡連接帶寬一定的情況下,單次IO時延的降低將直接導致每秒鐘能夠提供的文件數量增多,進而提升客戶端實際表現的帶寬。由于主機節(jié)點提供的網絡帶寬存在理論上限,因此,在存儲集群吞吐量略大于客戶端網絡總帶寬的情況下,既要確保AU在90%以上,又要盡可能跑滿每個客戶端的理論帶寬,以實現最佳存儲性能。
然而,在實際應用中,由于軟硬件開銷的存在,客戶端網絡往往難以完全跑滿。因此,在AU達到90%的條件下,盡可能提高主機節(jié)點帶寬的利用率,成為最大化計算資源、避免網絡資源浪費的關鍵。這實際上就涉及到了主機節(jié)點網絡利用率的計算,其公式為:
鑒于各廠商解決方案中主機節(jié)點連接存儲節(jié)點的網絡理論帶寬是固定的,我們可以將所有廠商的解決方案歸一化到網絡利用率這一指標上,從而在不考慮存算配置差異的情況下,對各廠商解決方案的表現進行客觀分析。以3D-UNet加速器H多客戶端下的測試結果為例,通過整理各廠商的測試結果,我們得到了該模型下的網絡利用率數據:
從結果來看,在AU達到90%以上時,浪潮信息本次提交的解決方案在網絡利用效率方面表現出色,達到了72%,相比之下,其他供應商的解決方案整體網絡利用率僅維持在50%左右,這直接導致了大量網絡資源的閑置。尤其在客戶端配置雙網卡情境下,實際利用率僅為50%左右,意味著整套方案實質上浪費了近乎一整張網卡資源,大大增加了總體成本。若在大模型訓練的萬卡集群下,僅網卡資源的浪費就高達數千萬級別,更不必說設備擴容所引發(fā)的算力利用率下降、連接線增加、運維復雜度提升等連鎖成本效應。對于本就成本高昂的AI基礎設施(AI Infra)而言,任何可以削減的開支都顯得尤為關鍵。此時,不同存儲解決方案下的網絡利用率便成為衡量成本效益的核心指標——網絡利用率越高,成本支出越低,算力潛能得以更充分釋放,存儲與AI應用場景的契合度也越高。通過AI存儲基準測試展現存儲對整個計算集群的支撐能力,這也是符合MLPerf Stortage作為AI測試基準,為ML/AI模型開發(fā)者選擇存儲解決方案提供權威參考的創(chuàng)立初衷。
進一步以3D-UNet加速器H單客戶端測試為例,我們發(fā)現,即便在單客戶端場景下,存儲集群的總帶寬依然超越了單客戶端的帶寬需求。浪潮信息的單客戶端網絡利用率依然保持在70%以上,實現了對雙網卡資源的最大化利用。
綜上所述,無論是單客戶端還是多客戶端環(huán)境,浪潮信息均能在AU超過90%的同時,維持70%以上的網絡利用率,與AI應用場景保持了高度的適配性。
浪潮信息與AI場景的緊密契合,主要歸因于兩大核心優(yōu)勢。一是產品場景化定制,緊密圍繞客戶需求,從實際應用出發(fā),提升產品性能,打造真正貼合AI需求的存儲產品;二是成熟的AI場景解決方案能力,精準平衡客戶需求、資源分配與成本控制,通過優(yōu)化解決方案與配置,為AI場景構建堅實的數據支撐平臺。
解讀MLPerf Storage這一AI存儲評測標準,其核心在于檢驗各廠商解決方案在保持加速器利用率90%以上的前提下,能否在性能與資源利用之間找到最佳平衡點。測試結果顯示,在相同AU條件下,浪潮信息能夠進一步提升網絡利用率,有效減少AI Infra的資源浪費。此次權威評測不僅驗證了浪潮信息存儲在AI場景下整體解決方案的實力,更彰顯了其新產品完全滿足AI應用對存儲嚴苛要求的能力,展現出強大的市場競爭力。對于客戶而言,浪潮信息憑借定制化產品開發(fā)模式和成熟的存儲解決方案能力,提供AI存儲的最優(yōu)解,為產業(yè)AI化(AI+)提供堅實的數據存儲底座。
-
存儲
+關注
關注
13文章
4218瀏覽量
85563 -
浪潮
+關注
關注
1文章
450瀏覽量
23781 -
AI
+關注
關注
87文章
29720瀏覽量
268028 -
MLPerf
+關注
關注
0文章
35瀏覽量
625
原文標題:MLPerf? Storage v1.0深度解析:浪潮信息AI存儲性能測試的領先之道
文章出處:【微信號:inspurstorage,微信公眾號:浪潮存儲】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論