作為人工智能 (AI) 的創(chuàng)新基礎,眾多企業(yè)都在使用通用且應用廣泛的 Arm 計算平臺。迄今為止,合作伙伴基于 Arm 架構的芯片出貨量已逾 2,800 億顆。如今,Arm 已為各類技術領域的 AI 應用提供支持,這也是為何 AI 的技術先行者們能夠基于 Arm 平臺快速創(chuàng)新的關鍵原因。
無論是現(xiàn)在還是未來,Arm 平臺都是 AI 運行的基石。若要滿足對 AI 技術和應用的旺盛需求,則必須在計算領域的方方面面實現(xiàn)無處不在的 AI 功能。從使用無數(shù)處理器訓練大語言模型 (LLM) 的大型數(shù)據(jù)中心,到全球數(shù)字消費者每天接觸邊緣 AI 的電子設備,計算領域的方方面面都有 AI 的身影。
接下來,讓我們一探究,了解 Arm 是如何賦能無處不在的 AI。
高效的 AI 計算
若要滿足 AI 對高算力的需求,則少不了對高效計算性能的投入。
生成式 AI 的發(fā)展推動了對 AI 算力和資源的需求空前增長。一名荷蘭研究人員指出,如果一年內每次使用 Google 進行搜索都運用到 AI,其所需的電力相當于愛爾蘭全國一年的用電量。長遠來看,考慮到地球上資源有限,這種方法是難以為繼的。
Arm 提供了計算性能和能效的卓越組合,推動了智能手機領域的技術革新,而我們看到同樣的趨勢也正發(fā)生在 AI 革新中。
數(shù)據(jù)中心中的 AI
頭部超大規(guī)模服務運營商正采用定制芯片戰(zhàn)略,來進行數(shù)據(jù)中心轉型,以迎接 AI 時代。
軟銀公司正在與 NVIDIA 合作,建設全球首座采用基于 Arm 架構的 Grace Hopper 超級芯片的 5G AI 數(shù)據(jù)中心。這一突破性的 AI 加速 CPU 專為超大規(guī)模 AI 和高性能計算應用而設計。Grace Hopper 基于 72 顆 Arm Neoverse V2 核心打造,在 AI 的高負荷任務中實現(xiàn)了 10 倍的性能飛躍,同時大幅提高了每瓦性能。微軟則在此前發(fā)布了其首款專為云計算打造的定制芯片 Azure Cobalt 100 處理器,該處理器基于Arm Neoverse CSS N2 打造。此外,基于 Arm Neoverse 平臺的 AWS Graviton3 可以使 AI 推理(使用訓練后的模型對新的真實數(shù)據(jù)進行預測的過程)的成本節(jié)約 50%。
在數(shù)據(jù)中心中約有 85% 的 AI 工作負載用于運行推理,其驅動了各種用例、行業(yè)和設備的 AI 應用,因此企業(yè)有巨大的動力來降低相關的能源消耗和成本。
邊緣 AI
除了數(shù)據(jù)中心和云服務,許多 AI 工作負載還需要在設備上進行處理,以便更有效地分布 AI 工作負載。
在設備上處理 AI 工作負載已經成為現(xiàn)實,無論是智能手機、智能家居設備還是智能汽車,這一趨勢將繼續(xù)增長,特別是隨著大語言模型 (LLM) 變得更加高效,并針對特定任務、用例或設備而專門打造。直接在采集數(shù)據(jù)的設備上處理 AI 計算,可以帶來更快、更安全的用戶體驗并減少延遲,這對于工業(yè)和汽車應用等對安全性要求很高的用例來說至關重要。
開發(fā)者正在編寫更精簡的 AI 模型,以在小型微處理器甚至更小的微控制器上運行,從而節(jié)省能源、時間和成本。例如,Plumerai 提供的軟件解決方案可在基于 Arm Cortex-A 和 Cortex-M 的系統(tǒng)級芯片 (SoC) 上加速神經網絡,并在基于 Arm 架構的微控制器上運行略高于 1MB 的 AI 代碼,其可執(zhí)行面部檢測和識別等功能。
基于處理器技術的 AI
無論是由 CPU 處理全部 AI 工作負載,還是由 GPU 或 NPU 等協(xié)處理器提供支持,AI 處理始于 CPU。
過去十年間,Arm 的 CPU 和 GPU 的 AI 處理能力每兩年就實現(xiàn)翻番,目前 70% 的第三方應用中的 AI 都基于 Arm CPU 運行,在關鍵技術市場中推動了邊緣 AI 的顯著發(fā)展。
基于 Armv9 CPU 和 GPU 技術打造的高性能 AI 手機現(xiàn)已問世,其中包括搭載 MediaTek 天璣 9300 的 vivo X100 和 X100 Pro 智能手機,以及 Google Pixel 8,這是首款專為 Google 的 AI 模型 Gemini Nano 進行工程研發(fā)的智能手機,可在邊緣執(zhí)行一系列 AI 的任務。與此同時,超過 200 億個基于 Arm 架構的 SoC 能夠運行各種物聯(lián)網設備上廣泛的 ML 工作負載,包括基于 Cortex-M 處理器、Arm Ethos-U NPU 和 Cortex-A CPU 打造的設備。而在汽車領域,如今的車用芯片可實現(xiàn)基本的 AI 功能,如障礙物檢測、3D 視圖和簡單的傳感器融合,這些功能都在 Arm CPU 上運行。下一代基于 AI 的汽車功能,如先進駕駛輔助系統(tǒng) (ADAS) 和自動駕駛功能,也基于 Arm CPU 而構建。
全球最大的開發(fā)者社區(qū)
Arm 持續(xù)的軟件投入正建立起全球最大的 AI 開發(fā)者社區(qū)。
Arm 致力于以最常見的方式讓開發(fā)者能夠更簡單、更快速、更安全地進行編碼,攜手實現(xiàn)無處不在的 AI。如今,超過一億用戶可以使用 Arm NN 軟件開發(fā)工具包,在 Arm CPU 和 GPU 上優(yōu)化 ML 工作負載。對于全球 1,500 萬 Arm 架構設備開發(fā)者來說,這使他們能夠運行復雜的 AI 和 ML 工作負載,確保將應用更快地推向市場。
Arm 在其業(yè)界領先的生態(tài)系統(tǒng)中開展了一系列合作,以使我們對開發(fā)者的 AI 承諾付諸實踐。此外,我們還通過開源框架和庫,為基于 Arm 架構的硬件提供強大的 ML 功能,為開發(fā)者提供全方位支持,包括 TensorFlow、PyTorch、Caffe 2、OpenVINO 和 TVM,從而為開源社區(qū)打造 AI 創(chuàng)新基礎。
寫在最后
AI 為下一個技術創(chuàng)新奠定了基礎,引領社會進入一個潛力非凡的新時代。而實現(xiàn)這一切的前提正是讓 AI 無處不在。這不僅意味著要在云端、數(shù)據(jù)中心和超級計算機中實現(xiàn) AI,還要確保復雜的 AI 工作負載能夠在更小、更受限的邊緣技術和設備上運行。能效與性能對于推動邊緣 AI 的發(fā)展同等重要。
Arm 正在促成這一目標。我們提供了應用廣泛的通用計算平臺,賦能邊緣設備和其他領域的各種可能性。無論是我們的 CPU、GPU、ISP 還是 NPU,Arm 在每一代產品中都增加了更多 AI 性能、效率功能及安全特性,同時還為合作伙伴提供了多樣的靈活性,使它們能夠集成和開發(fā)自己的創(chuàng)新解決方案。而在軟件、工具和生態(tài)系統(tǒng)方面,IP 與開源軟件和工具乃至廣泛的行業(yè)領先生態(tài)系統(tǒng)相結合,讓全球上千萬開發(fā)者都可以使用 Arm 計算平臺作為 AI 創(chuàng)新的基礎。從傳感器、智能手機,到工業(yè)級物聯(lián)網、汽車和數(shù)據(jù)中心,基于 Arm 平臺的 AI 無處不在。
-
ARM
+關注
關注
134文章
9027瀏覽量
366482 -
AI
+關注
關注
87文章
29806瀏覽量
268106 -
人工智能
+關注
關注
1789文章
46652瀏覽量
237083
原文標題:Arm 為無處不在的 AI 奠定技術基礎
文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論