NVIDIA 在 Microsoft Build 開發(fā)者大會上展示了與 Microsoft Azure 和 Windows PC 的集成解決方案,簡化了 AI 模型部署并優(yōu)化了路徑規(guī)劃和應(yīng)用性能。
如果說經(jīng)過優(yōu)化的 AI 工作流如同一個完美的交響樂團(tuán),從硬件基礎(chǔ)設(shè)施到軟件庫的每一個組成部分都恰到好處,那么 NVIDIA 與微軟長期以來的默契合作對于開發(fā)者來說便如同悅耳的音樂。
微軟開發(fā)的 Phi-3 系列小語言模型等最新 AI 模型經(jīng)過優(yōu)化后,可在 NVIDIA GPU 上運(yùn)行,并以 NVIDIA NIM 推理微服務(wù)的形式提供。NVIDIA 開發(fā)的其他微服務(wù),如 cuOpt 路徑優(yōu)化 AI 等,正作為 NVIDIA AI Enterprise 軟件平臺的一部分被定期添加到 Microsoft Azure Marketplace 中。
除了這些 AI 技術(shù)之外,NVIDIA 和微軟還為開發(fā)者提供越來越多的優(yōu)化和集成功能,幫助他們?yōu)榇钶d有 NVIDIA GeForce RTX 和 NVIDIA RTX GPU 的 PC 創(chuàng)建高性能 AI 應(yīng)用。
基于在 NVIDIA GTC 上所公布的進(jìn)展,兩家公司在今年于西雅圖舉行的年度開發(fā)者盛會 Microsoft Build 上進(jìn)一步推進(jìn)這一長期合作。
加速微軟的 Phi-3 模型
微軟正在擴(kuò)展其 Phi-3 開源小語言模型系列,增加了小型(70 億參數(shù))和中型(140 億參數(shù))模型,類似于擁有 38 億個參數(shù)的 Phi-3 Mini。另外,微軟還推出了一個新的 42 億參數(shù)多模態(tài)模型 Phi-3-vision,支持圖像和文本。
所有這些模型均通過 NVIDIA TensorRT-LLM 實(shí)現(xiàn)了 GPU 優(yōu)化,并以 NVIDIA NIM 的形式提供。NVIDIA NIM 是具有標(biāo)準(zhǔn)應(yīng)用編程接口(API)的加速推理微服務(wù),可以部署在任何位置。
您可在ai.nvidia.com上或通過 Azure Marketplace 上的 NVIDIA AI Enterprise,獲取由這些 NIM 支持的 Phi-3 模型的 API。
NVIDIA cuOpt
現(xiàn)已登陸 Azure Marketplace
NVIDIA cuOpt 是一項(xiàng)適用于路徑優(yōu)化的 GPU 加速 AI 微服務(wù),該服務(wù)現(xiàn)在通過 NVIDIA AI Enterprise 在 Azure Marketplace 上架。cuOpt 所采用的大規(guī)模并行算法能夠?qū)崿F(xiàn)航運(yùn)服務(wù)、鐵路系統(tǒng)、倉庫和工廠的實(shí)時物流管理。
該模型在主要的路徑基準(zhǔn)測試中創(chuàng)造了二十多項(xiàng)世界紀(jì)錄,展現(xiàn)出最高的準(zhǔn)確性和最快的速度。通過優(yōu)化車輛路線、節(jié)省行路時間和減少空閑時間,它能夠?yàn)槲锪骱凸?yīng)鏈行業(yè)節(jié)省數(shù)十億美元。
通過 Azure Marketplace,開發(fā)人員可以輕松地將 cuOpt 微服務(wù)與 Azure 地圖集成,在企業(yè)級管理工具和安全性的支持下,支持實(shí)時物流管理和其他基于云的工作流。
使用 NVIDIA RTX 優(yōu)化 PC 的 AI 性能
NVIDIA 加速計(jì)算平臺是現(xiàn)代 AI 的中堅(jiān)力量,可幫助開發(fā)者為全球超過 1 億臺 Windows GeForce RTX PC 和 NVIDIA RTX 工作站構(gòu)建解決方案。
NVIDIA 和微軟正在為 Windows 開發(fā)者打造能夠加速下一代 PC 和工作站應(yīng)用 AI 性能的全新優(yōu)化和集成,包括:
通過 NVIDIA DirectX 驅(qū)動、Generative AI ONNX Runtime 擴(kuò)展和 DirectML 提高大語言模型(LLM)的推理性能。NVIDIA GeForce Game Ready、NVIDIA Studio 和 NVIDIA RTX Enterprise 驅(qū)動現(xiàn)已提供這些優(yōu)化,在 NVIDIA GeForce RTX GPU 上提供至高可達(dá) 3 倍的性能提升。
通過 WebNN 優(yōu)化 Stable Diffusion、Whisper 等 AI 模型在 RTX GPU 上的性能。WebNN 是一個能夠幫助開發(fā)者使用設(shè)備端硬件加速網(wǎng)絡(luò)應(yīng)用 AI 模型的 API。
隨著 Windows 將通過 DirectML 來支持 PyTorch,數(shù)以千計(jì)的 Hugging Face 模型將在 Windows 中原生運(yùn)行。NVIDIA 與微軟正在合作,在 1 億多個 RTX AI GPU 上擴(kuò)展性能。
與 NVIDIA 一起參加Microsoft Build 開發(fā)者大會
大會參加者可以體驗(yàn) NVIDIA NIM、NVIDIA cuOpt、NVIDIA Omniverse 和 NVIDIA RTX AI 平臺的現(xiàn)場演示。展臺還將重點(diǎn)展示適用于醫(yī)療影像工作流的 NVIDIA MONAI 平臺和適用于藥物研發(fā)的 NVIDIA BioNeMo 生成式 AI 平臺。這兩個平臺均作為 Azure 上 NVIDIA AI Enterprise 的一部分提供。
審核編輯:劉清
-
NVIDIA
+關(guān)注
關(guān)注
14文章
4855瀏覽量
102711 -
ai技術(shù)
+關(guān)注
關(guān)注
1文章
1250瀏覽量
24200 -
Microsoft
+關(guān)注
關(guān)注
0文章
208瀏覽量
6822 -
大模型
+關(guān)注
關(guān)注
2文章
2274瀏覽量
2357
原文標(biāo)題:NVIDIA 與微軟擴(kuò)展合作,幫助開發(fā)者更快構(gòu)建和部署 AI 應(yīng)用
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論