0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MLPerf V2.0推理結(jié)果放榜,NVIDIA表現(xiàn)搶眼

荷葉塘 ? 來源:電子發(fā)燒友 ? 作者:程文智 ? 2022-04-15 22:12 ? 次閱讀

(文/程文智)不久前,AI性能基準評測平臺MLPerf公布了2022年首次推理(Inference v2.0)測試成績,NVIDIA的AI平臺表現(xiàn)依然搶眼。

據(jù)MLPerf官方介紹,它是由來自學(xué)術(shù)界、研究實驗室和相關(guān)行業(yè)的 AI 領(lǐng)導(dǎo)者組成的聯(lián)盟,旨在“構(gòu)建公平和有用的基準測試”,在規(guī)定的條件下,針對硬件、軟件和服務(wù)的訓(xùn)練和推理性能提供公平的評估。每年組織AI推理和AI訓(xùn)練測試各兩次,以對迅速增長的AI計算需求與性能進行及時的跟蹤測評。MLPerf比賽通常分為固定任務(wù)(Closed)和開放優(yōu)化(Open)兩類任務(wù),開放優(yōu)化能力著重考察參測廠商AI技術(shù)創(chuàng)新力,固定任務(wù)則因更公平地考察參測廠商的硬件系統(tǒng)和軟件優(yōu)化的能力,成為更具參考價值的AI性能基準測試。因此,目前MLPerf被看作是AI領(lǐng)域的風(fēng)向標,誰能夠在這個測試中取得更多的領(lǐng)先,誰的AI能力就越突出。


最新一期的榜單中,浪潮、NVIDIA、英特爾、高通、阿里巴巴、戴爾、Deci.ai、Azure、富士通、技嘉、聯(lián)想、寧暢、美超微、華碩、浙江實驗室、及新華三等廠商參與了競賽。評測以最新MLPerf Inference V2.0為基準,涵蓋了圖像分類、目標檢測、醫(yī)療圖像分割、自然語言處理、語音轉(zhuǎn)文字和推薦系統(tǒng)6類AI應(yīng)用場景,分為數(shù)據(jù)中心和邊緣兩類處理場景,每類場景都包含固定任務(wù)(Closed)和開放優(yōu)化(Open)兩類性能競賽。其中,在最新的V2.0規(guī)范中,在邊緣運算環(huán)境導(dǎo)入多資料流(Multi Stream)測試項目,測量邊緣運算設(shè)備在多攝影機、多傳感器場景的性能表現(xiàn),以得到更貼近真實使用情況的數(shù)據(jù)。


據(jù)統(tǒng)計,本輪測試一共展示了超過3900 次性能測試和 2200 次功耗測試,分別是上一輪的2倍和6倍。根據(jù)公開的數(shù)據(jù)顯示,本次測試中除了戴爾科技、富士通、技嘉、浪潮、聯(lián)想、寧暢和美超微等外,華碩和新華三本次測試中首次使用了NVIDIA AI平臺提交MLPerf結(jié)果。

Jetson AGX Orin提升邊緣AI性能,取得不俗成績

值得一提的是基于NVIDIA Ampere架構(gòu)的低功耗系統(tǒng)級芯片NVIDIA Orin首次參加MLPerf基準測試,就取得了不俗的成績。在邊緣AI領(lǐng)域,NVIDIA Orin預(yù)生產(chǎn)版本在六項性能測試中的五項處于領(lǐng)先地位,其運行速度比上一代Jetson AGX Xavier快了5倍,能效平均提高了2倍。


根據(jù)NVIDIA官網(wǎng)的介紹,Jetson AGX Orin 系列有32GB和64GB兩個版本,該系列具有高達275TOPS的AI性能,由 Ampere GPU深度學(xué)習(xí)加速器 (DLA) 提供支持。CPU配備了多達12個Arm Cortex A78AE內(nèi)核。

Orin配備了其第三代Tensor Cores,可提高性能并支持稀疏矩陣?;贜VIDIA為 Xavier 所做的多處理器構(gòu)建,它不僅具有 GPU 和CPU,還具有其他處理器,可以幫助從GPU和CPU卸載應(yīng)用程序的某些部分。它包括一個專用于 AI 應(yīng)用的深度學(xué)習(xí)加速器、一個用于計算機視覺應(yīng)用和ISP的視覺加速器,以及一個視頻解碼和視頻編碼引擎。與 Xavier 相比,NVIDIA還為 Orin 帶來了 LPDDR5 以提高帶寬,傳輸速度可達204.8GB/s。 Orin 還具備豐富的IO連接,比如其具有多達22個PCIe4.0通道、4個千兆以太網(wǎng)、16個MIPI CSI通道,以及各種其他傳感器接口等。


根據(jù)測試,Jetson AGX Orin提供了8倍于Jetson AGX Xavier的性能,Jetson AGX Orin是能夠運行所有六項MLPerf基準測試的邊緣加速器。憑借JetPack SDK,Orin可以運行整個NVIDIA AI平臺,這個軟件堆棧已經(jīng)在數(shù)據(jù)中心和云端得到了驗證,并且獲得了NVIDIA Jetson平臺100萬名開發(fā)者的支持。


在應(yīng)用方面,目前,Orin主要關(guān)注三大領(lǐng)域,分別為:工業(yè)、自動駕駛和醫(yī)療。Orin現(xiàn)已加入到用于機器人和自動化系統(tǒng)的NVIDIA Jetson AGX Orin開發(fā)者套件。包括亞馬遜網(wǎng)絡(luò)服務(wù)、約翰迪爾、小松、美敦力和微軟Azure在內(nèi)的6000多家客戶使用NVIDIA Jetson平臺進行AI推理或其他任務(wù)。

Orin也是NVIDIA Hyperion自動駕駛汽車平臺的關(guān)鍵組成部分。據(jù)NVIDIA介紹,Orin可處理在自動駕駛汽車和機器人中同時運行的大量應(yīng)用和深度神經(jīng)網(wǎng)絡(luò),并且達到了ISO 26262 ASIL-D 等系統(tǒng)安全標準。而且,比亞迪近期已經(jīng)宣布,他們將在其新一代自動駕駛電動汽車中使用內(nèi)置Orin的DRIVE Hyperion架構(gòu)。

Orin同樣也是NVIDIA Clara Holoscan醫(yī)療設(shè)備平臺的關(guān)鍵組成部分,且該平臺可供系統(tǒng)制造商和研究人員用來開發(fā)新一代AI儀器。

NVIDIA其他AI成果

除了Orin之外,本輪MLPerf,驗證了NVIDIA的多項成果,包括多實例GPU(MIG)、TensorRT等。比如MIG可提升每個 NVIDIA A100 Tensor 核心 GPU 的性能和價值。MIG可將 A100 GPU 劃分為多達七個實例,每個實例均與各自的高帶寬顯存、緩存和計算核心完全隔離。管理員可以支持從大到小的各項工作負載,為每項工作提供規(guī)模適當(dāng)?shù)?GPU,而且服務(wù)質(zhì)量 (QoS) 穩(wěn)定可靠,從而優(yōu)化利用率,讓每位用戶都能享用加速計算資源。


而根據(jù)實際測試結(jié)果,在使用7個實例時的性能為僅用一個實例的98%,這也意味著MIG可以充分利用GPU,避免了算力的浪費。


軟件是性能提升的關(guān)鍵驅(qū)動因素,NVIDIA在AI推理方面的軟件包括了用于優(yōu)化 AI 模型的 NVIDIA TensorRT 和用于有效部署它們的 NVIDIA Triton開源推理服務(wù)軟件。NVIDIA AI 推理和云高級產(chǎn)品經(jīng)理David Salvator在媒體發(fā)布會上介紹了NVIDIA的Triton開源推理服務(wù)軟件。


目前TensorRT廣泛的優(yōu)化GPU內(nèi)核庫已支持Jetson Orin,MLPerf中使用的插件已全部移植到Orin并添加到 TensorRT 8.4。Triton則Kubernetes緊密集成,可以管理GPU以及x86和Arm CPU上的AI推理工作,NVIDIA宣布,Triton現(xiàn)在可以只在CPU上運行,而無需GPU。

而也正是因為NVIDIA的跨平臺管理能力,使A100在Arm和x86-64平臺上的性能幾乎相同。并且,通過NVIDIA的軟件優(yōu)化,AI性能在過去一年中就增長了高達50%。

結(jié)語

這幾年,NVIDIA在AI領(lǐng)域一路狂奔,不僅僅在數(shù)據(jù)中心方面優(yōu)勢明顯,在汽車、邊緣計算方面也正推出優(yōu)勢產(chǎn)品,另外在他們還在準備推出工業(yè)級的AI產(chǎn)品,進入傳統(tǒng)工業(yè)領(lǐng)域。AI正在不斷滲透到人們生活的各個方面。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4855

    瀏覽量

    102711
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29806

    瀏覽量

    268103
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46652

    瀏覽量

    237073
  • 推理
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    7257
  • MLPerf
    +關(guān)注

    關(guān)注

    0

    文章

    35

    瀏覽量

    625
收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無論是在復(fù)雜的 AI 開發(fā)任務(wù)中,還是在高并發(fā)推理場景下,都能夠確保項
    的頭像 發(fā)表于 10-27 10:03 ?142次閱讀
    <b class='flag-5'>NVIDIA</b>助力麗蟾科技打造AI訓(xùn)練與<b class='flag-5'>推理</b>加速解決方案

    從TMS320TCI648x DSP的EDMA v2.0遷移到EDMA v3.0

    電子發(fā)燒友網(wǎng)站提供《從TMS320TCI648x DSP的EDMA v2.0遷移到EDMA v3.0.pdf》資料免費下載
    發(fā)表于 10-16 11:33 ?0次下載
    從TMS320TCI648x DSP的EDMA <b class='flag-5'>v2.0</b>遷移到EDMA <b class='flag-5'>v</b>3.0

    從EDMA v2.0遷移到TMS320DM644X DMSoC的EDMA v3.0

    電子發(fā)燒友網(wǎng)站提供《從EDMA v2.0遷移到TMS320DM644X DMSoC的EDMA v3.0.pdf》資料免費下載
    發(fā)表于 10-16 10:55 ?0次下載
    從EDMA <b class='flag-5'>v2.0</b>遷移到TMS320DM644X DMSoC的EDMA <b class='flag-5'>v</b>3.0

    從EDMA v2.0遷移到EDMA v3.0 TMS320C64X DSP

    電子發(fā)燒友網(wǎng)站提供《從EDMA v2.0遷移到EDMA v3.0 TMS320C64X DSP.pdf》資料免費下載
    發(fā)表于 10-15 10:12 ?0次下載
    從EDMA <b class='flag-5'>v2.0</b>遷移到EDMA <b class='flag-5'>v</b>3.0 TMS320C64X DSP

    阿童木二代Atom XL數(shù)字模擬對講手機用戶手冊V2.0

    阿童木二代Atom XL數(shù)字模擬對講手機用戶手冊V2.0 0119
    發(fā)表于 10-14 14:03 ?0次下載

    浪潮信息AS13000G7榮獲MLPerf? AI存儲基準測試五項性能全球第一

    北京2024年9月27日?/美通社/ -- 9月25日,MLCommons協(xié)會發(fā)布最新MLPerf? Storage v1.0 AI存儲基準測試成績。浪潮信息分布式存儲平臺AS13000G7表現(xiàn)
    的頭像 發(fā)表于 09-28 16:46 ?176次閱讀
    浪潮信息AS13000G7榮獲<b class='flag-5'>MLPerf</b>? AI存儲基準測試五項性能全球第一

    高鴻信安與百敖軟件完成產(chǎn)品兼容互認證

    近日,大唐高鴻信安與百敖軟件開展了產(chǎn)品兼容適配工作,高鴻信安自主研發(fā)的可信支撐模塊軟件V2.0、操作系統(tǒng)可信增強系統(tǒng)V2.0、可信管理平臺V2.0、可信代理軟件 V2.0等多款可信計算
    的頭像 發(fā)表于 09-19 15:06 ?325次閱讀

    英偉達推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI
    的頭像 發(fā)表于 07-25 09:48 ?643次閱讀

    英偉達推出AI模型推理服務(wù)NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務(wù)——NVIDIA NIM。這項服務(wù)將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發(fā)者提供前所未有的便利。
    的頭像 發(fā)表于 06-04 09:15 ?621次閱讀

    LwIP v2.0版本更換為v2.1.2版本后接收不到數(shù)據(jù)了怎么解決?

    請教下,吧 LwIP v2.0 版本更換為 v2.1.2 版本后接收不到數(shù)據(jù)了,是怎么回事啊 ?? 之前使用 v2.0 版本測試是完全可以了,不過目前 使用 v2.1.2版本的,dhc
    發(fā)表于 04-23 08:20

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱
    的頭像 發(fā)表于 04-20 09:39 ?614次閱讀

    Microchip發(fā)布Qi 2.0無線電源發(fā)射器參考設(shè)計

    為響應(yīng)汽車業(yè)等主流充電器制造商對Qi? v2.0(Qi2)標準的廣泛采納,Microchip Technology Inc.(微芯科技公司)近日推出了一款創(chuàng)新的Qi 2.0雙板無線電源發(fā)射器參考設(shè)計。
    的頭像 發(fā)表于 03-27 10:46 ?724次閱讀

    使用NVIDIA Triton推理服務(wù)器來加速AI預(yù)測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來加速 AI 預(yù)測。
    的頭像 發(fā)表于 02-29 14:04 ?532次閱讀

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學(xué)習(xí)模型,并借助NVIDIA Triton推理服務(wù)器在NVIDIA V1
    的頭像 發(fā)表于 01-17 09:30 ?633次閱讀

    HC6800-ES V2.0單片機開發(fā)板學(xué)習(xí)指南

    電子發(fā)燒友網(wǎng)站提供《HC6800-ES V2.0單片機開發(fā)板學(xué)習(xí)指南.doc》資料免費下載
    發(fā)表于 01-07 09:48 ?11次下載