0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

百度智算峰會(huì)精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

NVIDIA英偉達(dá) ? 來源:未知 ? 2022-12-27 21:15 ? 次閱讀

在今日舉行的“2022 百度云智峰會(huì)·智算峰會(huì)”上,NVIDIA 解決方案工程中心高級(jí)技術(shù)經(jīng)理路川分享了以“應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)”為題的演講,探討 GPU 數(shù)據(jù)中心的發(fā)展趨勢(shì),以及介紹 NVIDIA 在構(gòu)建以 GPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu)方面的實(shí)踐經(jīng)驗(yàn)。以下為內(nèi)容概要。

應(yīng)用對(duì)算力需求的不斷增長(zhǎng)

以 GPU 為核心的分布式計(jì)算系統(tǒng)已經(jīng)成為大模型應(yīng)用重要的一環(huán)

數(shù)據(jù)中心的發(fā)展是由應(yīng)用驅(qū)動(dòng)的。隨著 AI 的興起、普及,AI 大模型訓(xùn)練在各領(lǐng)域的逐步應(yīng)用,人們對(duì)數(shù)據(jù)中心的 GPU 算力、GPU 集群的需求在飛速增長(zhǎng)。傳統(tǒng)的以 CPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu),已很難滿足 AI 應(yīng)用的發(fā)展需求,NVIDIA 也一直在探索如何構(gòu)建一個(gè)高效的以 GPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu)。

今天我將從三個(gè)方面跟大家一起探討這個(gè)話題:一,應(yīng)用驅(qū)動(dòng);二,NVIDIA 最新一代 GPU SuperPOD 的架構(gòu)設(shè)計(jì);三,未來 GPU 數(shù)據(jù)中心、GPU 集群的發(fā)展趨勢(shì) 。

我們首先看下近幾年 AI 應(yīng)用的發(fā)展趨勢(shì)??傮w上來講,應(yīng)用業(yè)務(wù)對(duì)計(jì)算的需求是不斷飛速增長(zhǎng)。我們以目前最流行的三個(gè)業(yè)務(wù)方向?yàn)槔f明。

6ff18624-85e8-11ed-bfe3-dac502259ad0.png

第一個(gè)應(yīng)用場(chǎng)景,AI 應(yīng)用。我們可以從最左邊的圖表中可以看到,近 10 年 CV 和 NLP 模型的變化,這兩類業(yè)務(wù)場(chǎng)景是 AI 領(lǐng)域最流行、最成功,也是應(yīng)用范圍最為廣泛的場(chǎng)景。在圖表中我們可以看到,CV 從 2012 年的 AlexNet 到最新的 wav2vec,模型對(duì)計(jì)算的需求增長(zhǎng)了 1,000 倍。

NLP 模型在引入 Transformer 結(jié)構(gòu)后,模型規(guī)模呈指數(shù)級(jí)增長(zhǎng),Transformer 已成為大模型、大算力的代名詞。目前 CV 類的應(yīng)用也逐步引入 Transformer 結(jié)構(gòu)來構(gòu)建相關(guān)的 AI 模型,不斷提升應(yīng)用性能。數(shù)據(jù)顯示在最近兩年內(nèi)關(guān)于 Transformer AI 模型的論文增長(zhǎng)了 150 倍,而非 Transformer 結(jié)構(gòu)的 AI 模型相關(guān)論文增長(zhǎng)了大概 8 倍。

我們可以看到人們?cè)絹碓揭庾R(shí)到大模型在 AI 領(lǐng)域的重要性,和對(duì)應(yīng)用帶來的收益。同時(shí)大模型也意味著算力的需求的增長(zhǎng),以及對(duì)數(shù)據(jù)中心計(jì)算集群需求的增長(zhǎng)。

第二個(gè)應(yīng)用場(chǎng)景,數(shù)字孿生、虛擬人等模擬場(chǎng)景與 AI 的結(jié)合也是最近兩年的應(yīng)用熱點(diǎn)。人們通過數(shù)字孿生、虛擬人可以更好地對(duì)企業(yè)生產(chǎn)流程進(jìn)行管控,線上虛擬交互有更好的體驗(yàn),這背后都需要要巨大的算力資源來滿足渲染、實(shí)時(shí)交互等功能。

第三個(gè)應(yīng)用場(chǎng)景,量子計(jì)算,也是最近幾年我們計(jì)算熱點(diǎn)的技術(shù)。量子計(jì)算是利用量子力學(xué),可以比傳統(tǒng)的計(jì)算機(jī)更快地解決復(fù)雜的問題。量子計(jì)算機(jī)的發(fā)展還處在非常前期的階段,相關(guān)的量子算法的研究和應(yīng)用也需要大量的算力做模擬支撐。

前面我們提到了 AI 大模型的業(yè)務(wù)應(yīng)用,為什么要用到大模型,大模型可以給我們帶來什么樣的收益?

701bf95e-85e8-11ed-bfe3-dac502259ad0.png

在右圖中我們可以看到 1.5B GPT-2 和 MT-NLG 在 150B-270B 不同參數(shù)規(guī)模下對(duì)應(yīng)用精度的影響。

我們可以清楚地看到大模型對(duì)應(yīng)用精度的效果,尤其是對(duì)復(fù)雜、泛化的業(yè)務(wù)場(chǎng)景的表現(xiàn)尤為突出。同時(shí)大模型在預(yù)測(cè)(inference)端正在快速發(fā)展,優(yōu)化特定場(chǎng)景、特定行業(yè)的性能,優(yōu)化預(yù)測(cè)端計(jì)算資源使用等,相信在不久的將來會(huì)有更多像 ChatGPT 一樣令人驚嘆的應(yīng)用在行業(yè)落地。這都將會(huì)推動(dòng)大模型基礎(chǔ)研究,推動(dòng)對(duì)訓(xùn)練大模型所需算力的建設(shè)。一個(gè)以 GPU 為基礎(chǔ)的分布式計(jì)算系統(tǒng)也是大模型應(yīng)用所必須的。

AI 大模型訓(xùn)練為什么要用到 GPU 集群,用到更大規(guī)模的 GPU?它能給我們的訓(xùn)練帶來什么樣的收益?這邊我們用兩個(gè)實(shí)際的例子作為參考。

一個(gè)應(yīng)用是 BERT 340M 參數(shù)規(guī)模,使用 Selene A100 SuperPOD 集群,訓(xùn)練完成則需要 0.2 分鐘,在使用 1/2 個(gè)集群規(guī)模,訓(xùn)練完成需要 0.4 分鐘,使用 1/4 個(gè)集群規(guī)模下訓(xùn)練完成則需要 0.7 分鐘。我們可以看到在小參數(shù)規(guī)模下,使用幾十臺(tái) DGX A100 也可以快速完成整個(gè)訓(xùn)練任務(wù),對(duì)于整個(gè)訓(xùn)練的迭代影響并不大。

另一個(gè)是 Megatron 530B 參數(shù)規(guī)模的 NLP 大模型,訓(xùn)練這個(gè) 530B 參數(shù)的大模型,使用整個(gè) Selene SuperPOD 集群資源則需要 3.5 周、近一個(gè)月的時(shí)間才能完成,而使用 1/2、1/4 集群節(jié)點(diǎn)規(guī)模的情況下,則需要數(shù)月的訓(xùn)練時(shí)間才能完成整個(gè)訓(xùn)練,這對(duì)于大模型研發(fā)人員來說是不可接受的。另外研發(fā)人員的時(shí)間成本是非常寶貴的,研究到產(chǎn)品化的時(shí)間也是非常關(guān)鍵的,我們不可能把時(shí)間浪費(fèi)在訓(xùn)練等待上。

在管理層面,構(gòu)建一個(gè) GPU 集群,通過集群的作業(yè)調(diào)度和管理系統(tǒng),可以優(yōu)化調(diào)度各種類型、各種需求的 GPU 任務(wù),使用集群的 GPU 資源,以最大化利用 GPU 集群。在 Facebook 的一篇論文中提到,通過作業(yè)調(diào)度管理系統(tǒng),F(xiàn)acebook AI 超級(jí)計(jì)算系統(tǒng)上每天可以承載 3.5 萬個(gè)獨(dú)立的訓(xùn)練任務(wù)。

因此,GPU 規(guī)模和集群管理對(duì)于提升分布式任務(wù)的運(yùn)行效率非常關(guān)鍵。

集群的最關(guān)鍵的地方就是通信,集群任務(wù)的調(diào)試優(yōu)化重點(diǎn)也是在使用各種并行方式優(yōu)化通信策略。在 GPU 集群中,通信主要分為兩個(gè)部分,一個(gè)是節(jié)點(diǎn)內(nèi)通信,一個(gè)是節(jié)點(diǎn)間通信。

70449b2a-85e8-11ed-bfe3-dac502259ad0.png

在左圖中我們可以看到節(jié)點(diǎn)間通信 NVLink 對(duì)于它的重要性。圖中示例使用 tensor 并行的方式,在節(jié)點(diǎn)間分別采用 NVLink 和采用 PCIe 4.0 進(jìn)行通信的對(duì)比,我們可以看到,NVLink 環(huán)境下程序的通信時(shí)間僅需 70ms(毫秒),而 PCIe 環(huán)境下通信時(shí)間則需要 656ms,當(dāng)用多個(gè)節(jié)點(diǎn)組成的集群環(huán)境下差距會(huì)更加明顯。

在右圖中,我們使用 7.5B 的 AI 模型,采用 TPS=4,PPS=1,數(shù)據(jù)并行 DPS=64 的情況下,在 32 個(gè)集群的節(jié)點(diǎn)規(guī)模下,不同網(wǎng)卡對(duì)分布式訓(xùn)練任務(wù)的影響。紫色部分代表了通信占比,綠色代表計(jì)算時(shí)間占比。我們可以清晰地看到網(wǎng)卡數(shù)量、網(wǎng)絡(luò)帶寬對(duì)分布式應(yīng)用的性能的影響。

GPU 集群應(yīng)用于 AI 訓(xùn)練也是最近幾年才逐步在客戶中開始應(yīng)用。在 AI 發(fā)展的早期,模型較小,大部分采單機(jī)多卡或是多機(jī)數(shù)據(jù)并行的方式進(jìn)行訓(xùn)練,所以對(duì) GPU 集群的要求并不是很高。2018 年 11 月,NVIDIA 第一次推出基于 DGX-2 的 SuperPOD 架構(gòu),也是看到 AI 發(fā)展的趨勢(shì),看到了 AI 應(yīng)用對(duì) GPU 分布式集群在 AI 訓(xùn)練中的需求。

SuperPOD 的架構(gòu)也在不斷地演進(jìn)和優(yōu)化。通過 NVIDIA 實(shí)戰(zhàn)經(jīng)驗(yàn)和性能優(yōu)化驗(yàn)證,SuperPOD 可以幫助客戶迅速構(gòu)建起屬于自己的高性能 GPU 分布式集群。

NVIDIA 最新一代 Hopper GPU 架構(gòu)下 SuperPod 的集群拓?fù)?/strong>

下面我來簡(jiǎn)單介紹下,最新一代 Hopper GPU 架構(gòu)下 SuperPOD 的集群拓?fù)洹?/p>

計(jì)算節(jié)點(diǎn)采用 Hopper 最新的 GPU,相比較與 Ampere GPU 性能提升 2~3 倍。計(jì)算性能的提升需要更強(qiáng)的網(wǎng)絡(luò)帶寬來支撐,所以外部的網(wǎng)絡(luò)也由原來的 200Gb 升級(jí)為 400Gb,400Gb 的網(wǎng)絡(luò)交換機(jī)可以最多支撐到 64 個(gè) 400Gb 網(wǎng)口,所以每個(gè)計(jì)算 POD 由原來的 20 個(gè)變?yōu)?32 個(gè)。更高的計(jì)算密度,在一個(gè) POD 內(nèi) GPU 直接的通信效率要更高。

NDR Infiniband 網(wǎng)絡(luò)、AR、SHARP、SHIELD 等新的特性,在路由交換效率、聚合通信加速、網(wǎng)絡(luò)穩(wěn)定性等方面有了進(jìn)一步的提升,可以更好的支持分布式大規(guī)模 GPU 集群計(jì)算性能和穩(wěn)定性。在存儲(chǔ)和管理網(wǎng)絡(luò)方面,增加了智能網(wǎng)卡的支持,可以提供更多的管理功能,適應(yīng)不同客戶的需求。

未來數(shù)據(jù)中心 GPU 集群架構(gòu)的發(fā)展趨勢(shì):

計(jì)算、互聯(lián)、軟件

下面,站在 NVIDIA 的角度,我們?cè)賮硖接懸幌?,未來?shù)據(jù)中心 GPU 集群的架構(gòu)發(fā)展趨勢(shì)。整個(gè) GPU 的集群主要有三個(gè)關(guān)鍵因素,分別是:計(jì)算、互聯(lián)和軟件。

706c1eca-85e8-11ed-bfe3-dac502259ad0.png

一,計(jì)算。集群的架構(gòu)設(shè)計(jì)中,單節(jié)點(diǎn)計(jì)算性能越高,越有優(yōu)勢(shì),所以在 GPU 選擇上我們會(huì)采用最新的 GPU 架構(gòu),這樣會(huì)帶來更強(qiáng)的 GPU 算力。

在未來兩年,Hopper 將成為 GPU 分布式計(jì)算集群的主力 GPU。Hopper GPU 我相信大家已經(jīng)很了解,相關(guān)特性我在這就不在贅述。我只強(qiáng)調(diào)一個(gè)功能,Transformer 引擎。

在上文應(yīng)用的發(fā)展趨勢(shì)里,我們也提到了以 Transformer 為基礎(chǔ)的 AI 大模型的研究。Transformer 也是大模型分布式計(jì)算的代名詞,在 Hopper 架構(gòu)里新增加了 Transformer 引擎,就是專門為 Transformer 結(jié)構(gòu)而設(shè)計(jì)的 GPU 加速單元,這會(huì)極大地加速基于 Transformer 結(jié)構(gòu)的大模型訓(xùn)練效率。

二,互聯(lián)。GPU 是 CPU 的加速器,集群計(jì)算的另外一個(gè)重要組成部分是 CPU。NVIDIA 會(huì)在 2023 年發(fā)布基于 Arm 72 核、專為高性能設(shè)計(jì)的 Grace CPU,配置 500GB/s LPDDR5X 內(nèi)存,900GB/s NVLink, 可以跟 GPU 更好地配合,輸出強(qiáng)大的計(jì)算性能。

基于 Grace CPU,會(huì)有兩種形態(tài)的超級(jí)芯片,一是 Grace+Hopper,二是 Grace+Grace。

Grace+Hopper,我們知道 GPU 作為 CPU 加速器,并不是所有應(yīng)用任務(wù)都適用于 GPU 來加速,其中很關(guān)鍵的一個(gè)點(diǎn)就是 GPU 和 CPU 之間的存儲(chǔ)帶寬的瓶頸,Grace+Hopper 超級(jí)芯片就是解決此類問題。

在 Grace Hopper 超級(jí)芯片架構(gòu)下,GPU 可以通過高速的 NVLink 直接訪問到 CPU 顯存。對(duì)于大模型計(jì)算,更多應(yīng)用遷移到GPU上加速都有極大的幫助。

Grace+Grace ,是在一個(gè)模組上可以提供高達(dá) 144 CPU 核,1 TB/s LPDDR5X 的高速存儲(chǔ),給集群節(jié)點(diǎn)提供了強(qiáng)勁的單節(jié)點(diǎn)的 CPU 計(jì)算性能,從而提升整個(gè)集群效率。

70f99ac0-85e8-11ed-bfe3-dac502259ad0.png

之前我們所熟知的 NVLink,都是應(yīng)用在節(jié)點(diǎn)內(nèi) GPU 和 GPU 之間的互聯(lián)。在 Grace Hopper 集群下,NVLink 可以做到節(jié)點(diǎn)之間互聯(lián),這樣節(jié)點(diǎn)之間 GPU-GPU,或 GPU-CPU,或 CPU-CPU 之間,都可以通過高速的 NVLink 進(jìn)行互聯(lián),可以更高效地完成大模型的分布式計(jì)算。

在未來也許我們可以看到更多業(yè)務(wù)應(yīng)用遷移到 Grace+Hopper 架構(gòu)下,節(jié)點(diǎn)之間的 NVLlink 高速互聯(lián)也許會(huì)成為一個(gè)趨勢(shì),更好地支持 GPU 分布式計(jì)算。

智能網(wǎng)卡在集群中的應(yīng)用,首先智能網(wǎng)卡技術(shù)并不是一個(gè)新的技術(shù),各家也有各家的方案,傳統(tǒng)上我們可以利用智能網(wǎng)卡把云業(yè)務(wù)場(chǎng)景下的 Hypervisor 管理、網(wǎng)絡(luò)功能、存儲(chǔ)功能等卸載到智能網(wǎng)卡上進(jìn)行處理,這樣可以給云客戶提供一個(gè)云生的計(jì)算資源環(huán)境。NVIDIA 智能網(wǎng)卡跟百度也有很深的合作,包括 GPU 集群裸金屬方案也都配置了 NVIDIA 智能網(wǎng)卡進(jìn)行管理。

在非 GPU 的業(yè)務(wù)場(chǎng)景下,我們看到智能網(wǎng)卡對(duì) HPC 應(yīng)用業(yè)務(wù)的加速,主要是在分子動(dòng)力學(xué),氣象和信號(hào)處理應(yīng)用上,通過對(duì)集群中聚合通信的卸載,我們可以看到應(yīng)用可以獲得 20% 以上的收益。智能網(wǎng)卡技術(shù)也在不斷更新、升級(jí),業(yè)務(wù)場(chǎng)景也在不斷探索。相信在未來的 GPU 集群上會(huì)有更多的業(yè)務(wù)或優(yōu)化加速可以使用到智能網(wǎng)卡技術(shù)。

三,軟件。數(shù)據(jù)中心基礎(chǔ)設(shè)施是基礎(chǔ)底座,如何能夠更高效、快速、方便地應(yīng)用到基礎(chǔ)架構(gòu)變革所帶來的優(yōu)勢(shì),軟件生態(tài)的不斷完善和優(yōu)化是關(guān)鍵。

針對(duì)不同的業(yè)務(wù)場(chǎng)景,NVIDIA 提供了 SuperPOD、OVX 等數(shù)據(jù)中心基礎(chǔ)設(shè)施的參考架構(gòu),可以幫助用戶構(gòu)建最優(yōu)的數(shù)據(jù)中心基礎(chǔ)設(shè)施架構(gòu)。

上層提供了各種軟件加速庫,如 cuQuantum 可以幫助客戶直接在 GPU 集群上模擬量子算法計(jì)算,Magnum IO 用來加速數(shù)據(jù)中心 GPU 集群和存儲(chǔ)系統(tǒng)的訪存 IO 效率,提升整個(gè)集群計(jì)算效率。

在未來會(huì)有更多的軟件工具、行業(yè) SDK,來支撐數(shù)據(jù)中心架構(gòu)的使用,讓各領(lǐng)域的研發(fā)人員不需要了解底層細(xì)節(jié),更加方便、快速地使用到數(shù)據(jù)中心 GPU 集群的的最優(yōu)性能。


原文標(biāo)題:百度智算峰會(huì)精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3637

    瀏覽量

    89856

原文標(biāo)題:百度智算峰會(huì)精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Molex連接器助力構(gòu)建未來數(shù)據(jù)中心 充分發(fā)揮人工智能AI的力量

    AI數(shù)據(jù)中心計(jì)算龐大的數(shù)據(jù)集,并且以文本、視頻、音頻、圖片等形式做出實(shí)時(shí)響應(yīng)。 為了滿足性能需求,數(shù)據(jù)中心架構(gòu)師必須擴(kuò)展系統(tǒng)結(jié)構(gòu),通過 PAM4 調(diào)制方案支持 224 Gbps
    的頭像 發(fā)表于 08-29 11:57 ?1333次閱讀
    Molex連接器助力構(gòu)建未來<b class='flag-5'>數(shù)據(jù)中心</b> 充分發(fā)揮人工智能AI的力量

    數(shù)據(jù)中心、智中心、超中心,有何區(qū)別?

    數(shù)據(jù)中心、智中心和超中心是當(dāng)前計(jì)算機(jī)領(lǐng)域中比較重要的研究方向,三者雖然都屬于
    的頭像 發(fā)表于 06-22 08:27 ?3007次閱讀
    云<b class='flag-5'>數(shù)據(jù)中心</b>、智<b class='flag-5'>算</b><b class='flag-5'>中心</b>、超<b class='flag-5'>算</b><b class='flag-5'>中心</b>,有何區(qū)別?

    2024百度移動(dòng)生態(tài)萬象大會(huì):百度新搜索11%內(nèi)容已AI生成

    萬象大會(huì)上百度集團(tuán)資深副總裁、百度移動(dòng)生態(tài)事業(yè)群組(MEG)總經(jīng)理何俊杰公布了一項(xiàng)統(tǒng)計(jì)數(shù)據(jù)百度新搜索已有11%的搜索內(nèi)容是由AI生成的。同時(shí),他透露,
    發(fā)表于 05-30 18:58 ?337次閱讀

    百度沈抖沈抖正式發(fā)布新一代智能計(jì)算操作系統(tǒng)—萬源

    4月16日,Create 2024 百度AI開發(fā)者大會(huì)在深圳召開。期間,百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖正式發(fā)布新一代智能計(jì)算操作系統(tǒng)——萬源,通過對(duì)AI原生時(shí)代的智能
    的頭像 發(fā)表于 04-18 09:22 ?349次閱讀
    <b class='flag-5'>百度</b>沈抖沈抖正式發(fā)布新一代智能<b class='flag-5'>計(jì)算</b>操作系統(tǒng)—萬源

    百度沈抖:傳統(tǒng)云計(jì)算不再是主角,智能計(jì)算呼喚新一代“操作系統(tǒng)”

    4月16日,Create 2024 百度AI開發(fā)者大會(huì)在深圳召開。期間,百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖正式發(fā)布新一代智能計(jì)算操作系統(tǒng)——萬源,通過對(duì)AI原生時(shí)代的智能
    發(fā)表于 04-16 16:26 ?254次閱讀
    <b class='flag-5'>百度</b>沈抖:傳統(tǒng)云<b class='flag-5'>計(jì)算</b>不再是主角,智能<b class='flag-5'>計(jì)算</b>呼喚新一代“操作系統(tǒng)”

    #mpo極性 #數(shù)據(jù)中心mpo

    數(shù)據(jù)中心MPO
    jf_51241005
    發(fā)布于 :2024年04月07日 10:05:13

    數(shù)據(jù)中心交換機(jī)高速率發(fā)展,需要哪些電感與電容元件?

    電子發(fā)燒友網(wǎng)報(bào)道(文/李寧遠(yuǎn))在力向更高水平發(fā)展的推動(dòng)下,數(shù)據(jù)迎來了爆炸性增長(zhǎng)。數(shù)據(jù)中心需要處理越來越多的數(shù)據(jù),并且這些數(shù)據(jù)還在逐年增加,
    的頭像 發(fā)表于 04-05 00:03 ?3002次閱讀

    讓數(shù)字世界堅(jiān)定運(yùn)行 | 華為發(fā)布2024數(shù)據(jù)中心能源十大趨勢(shì)

    碳綠色,并分享數(shù)據(jù)中心在部件、產(chǎn)品、系統(tǒng)和架構(gòu)方面的技術(shù)演進(jìn)趨勢(shì),凝聚共識(shí),洞見未來。 華為數(shù)據(jù)中心能源領(lǐng)域總裁堯權(quán) 堯權(quán)表示,AI大模型時(shí)代,未來5年全球AI
    的頭像 發(fā)表于 01-17 20:45 ?469次閱讀
    讓數(shù)字世界堅(jiān)定運(yùn)行 | 華為發(fā)布2024<b class='flag-5'>數(shù)據(jù)中心</b>能源十大趨勢(shì)

    百度和阿里量子實(shí)驗(yàn)室捐贈(zèng)及研究進(jìn)展

    百度早在2018年便宣布創(chuàng)建量子計(jì)算研究所,專門致力于研發(fā)量子計(jì)算軟件以及相關(guān)信息技術(shù)應(yīng)用。悉尼科技大學(xué)量子軟件和信息中心創(chuàng)始人和負(fù)責(zé)人段潤(rùn)堯教授任職所長(zhǎng),并向
    的頭像 發(fā)表于 01-03 14:29 ?860次閱讀

    施耐德電氣基于創(chuàng)新技術(shù)驅(qū)動(dòng)數(shù)據(jù)中心革新

    據(jù)施耐德電氣估算,到2028年,人工智能電力消耗將占數(shù)據(jù)中心總電力消耗的15%-20%。AI需要愈加澎湃的力助其不斷演進(jìn),也為數(shù)據(jù)中心的設(shè)計(jì)和運(yùn)營(yíng)帶來顛覆性的變革。
    的頭像 發(fā)表于 12-01 11:38 ?869次閱讀
    施耐德電氣基于創(chuàng)新技術(shù)<b class='flag-5'>驅(qū)動(dòng)</b><b class='flag-5'>數(shù)據(jù)中心</b>革新

    時(shí)代:數(shù)據(jù)中心為什么要選用鎳氫電池?

    在智時(shí)代背景下,數(shù)據(jù)中心高功率密度和高彈性需求成為了亟待解決的問題。智中心作為信息基礎(chǔ)設(shè)施的核心,承擔(dān)著海量數(shù)據(jù)的處理、存儲(chǔ)和傳輸任務(wù),
    的頭像 發(fā)表于 11-24 16:44 ?649次閱讀
    智<b class='flag-5'>算</b>時(shí)代:<b class='flag-5'>數(shù)據(jù)中心</b>為什么要選用鎳氫電池?

    CDCE 2023國(guó)際數(shù)據(jù)中心展 | 構(gòu)筑綠色力底座,讓數(shù)字世界堅(jiān)定運(yùn)行

    計(jì)算技術(shù)、數(shù)據(jù)中心節(jié)能新標(biāo)準(zhǔn)等熱門話題,云集數(shù)位業(yè)界領(lǐng)袖和技術(shù)專家,共話數(shù)據(jù)中心及云計(jì)算產(chǎn)業(yè)綠色低碳化轉(zhuǎn)型,讓可持續(xù)發(fā)展之路有跡可循。 ?
    的頭像 發(fā)表于 11-16 19:25 ?513次閱讀
    CDCE 2023國(guó)際<b class='flag-5'>數(shù)據(jù)中心</b>展 | 構(gòu)筑綠色<b class='flag-5'>算</b>力底座,讓數(shù)字世界堅(jiān)定運(yùn)行

    百度世界2023看點(diǎn) 大模型改變世界

    百度世界2023看點(diǎn) 大模型改變世界 百度世界大會(huì)(Baidu World)是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級(jí)別的行業(yè)峰會(huì),自2006年以來已連續(xù)舉辦17年。 10月
    的頭像 發(fā)表于 10-17 19:01 ?1150次閱讀
    <b class='flag-5'>百度</b>世界2023看點(diǎn) 大模型改變世界

    百度世界2023看點(diǎn) 文心大模型4.0正式發(fā)布 百度文庫變身生產(chǎn)力工具

    百度世界2023看點(diǎn) 文心大模型4.0正式發(fā)布 百度文庫變身生產(chǎn)力工具 百度世界大會(huì)2023于10月17日,以“生成未來(PROMPT THE WORLD)”為主題在北京首鋼園舉辦。在在百度
    的頭像 發(fā)表于 10-17 18:49 ?1021次閱讀
    <b class='flag-5'>百度</b>世界2023看點(diǎn) 文心大模型4.0正式發(fā)布 <b class='flag-5'>百度</b>文庫變身生產(chǎn)力工具

    共話未來智時(shí)代數(shù)據(jù)中心新機(jī)遇|全球數(shù)據(jù)中心咨詢師峰會(huì)新加坡站成功舉辦

    數(shù)據(jù)中心基礎(chǔ)設(shè)施是邁向智時(shí)代的基石。2023年10月13日,以“共話智時(shí)代DC未來”為主題的華為全球數(shù)據(jù)中心咨詢師峰會(huì)—新加坡站召開,來
    的頭像 發(fā)表于 10-13 20:45 ?708次閱讀
    共話未來智<b class='flag-5'>算</b>時(shí)代<b class='flag-5'>數(shù)據(jù)中心</b>新機(jī)遇|全球<b class='flag-5'>數(shù)據(jù)中心</b>咨詢師<b class='flag-5'>峰會(huì)</b>新加坡站成功舉辦