0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

全球GPU缺口超40萬張!算力之困,中國大模型有解了

傳感器技術 ? 來源:新智元 ? 2023-09-01 15:54 ? 次閱讀

【導讀】大模型時代,玩家如何掘金?最近,這套大模型智算軟件棧OGAI,竟吸引了國內幾十家參與「百模大戰(zhàn)」的企業(yè)圍觀。 中國企業(yè),能否趕超OpenAI? 大模型爆火之后,許多人都在追問這樣的問題。 然而,這個領域的中美差異性,決定了這一事實:美國現(xiàn)在的格局,未必就是中國未來的格局。 美國可能只有少數(shù)的大模型企業(yè),而中國,或許會呈現(xiàn)百花齊放的新格局,并不會是只剩下少數(shù)幾個大模型,其他人在它們的基礎上去做應用和開發(fā)。 從十年維度來看,如今的GPT-4還只是一個baby,而今天的我們,只是剛剛打開生成式AI的一扇門而已。

87e9155a-47bf-11ee-97a6-92fbcf53809c.png

在這個大模型狂飆的時代,英偉達CEO黃仁勛有一句名言,「the more you buy,the more you save!」 「如果你能將一個價值50億美元的數(shù)據(jù)中心的訓練時間縮短一半,那么節(jié)省下來的費用就超過了所有芯片的成本?!?

大模型,怎樣才能玩得起

但問題在于,面對如此高的門檻,究竟哪些玩家才能玩得起? 目前,大模型研發(fā)已進入萬卡時代,一家企業(yè)如果想自己擁有大模型,至少需要幾十億投資。 然而,即便是買下來之后,緊接著還會面臨建不了的問題。 此前的云計算是把一臺機器拆分成很多容器,而現(xiàn)在的大模型需要多臺機器集群的集中力量,在較長時間內完成海量計算任務。 如何保證低時延海量數(shù)據(jù)交換?如何讓多臺機器均衡計算,避免冷熱不均?如果硬件出現(xiàn)故障,算法需要重新跑一遍,又怎么辦?

瓶頸之下,算力利用率變得尤為重要

不可否認,對于大模型的研發(fā)來說,最大的挑戰(zhàn)之一,就是對龐大的算力基礎設施的需求。 然而,訓練大模型的算力平臺并不是算力的簡單堆積,隨著模型的規(guī)模越來越大,單卡算力與模型總算力需求之間存在著巨大的差異。 與此同時,雖然隨著硬件的改進FLOPs的成本得到了部分改善,但大模型的持續(xù)升級使得總成本一直在增加。 目前,GPT-4、PaLM-2的算力當量,已經(jīng)達到了GPT-3的數(shù)十倍,相當于上萬顆業(yè)界性能領先的NVIDIA Hopper架構的GPU芯片組成的AI集群,訓練超過1個月的時間。 算力平臺的構建之所以這么難,是因為它不止是服務器、存儲、 網(wǎng)絡等硬件設備的集成,也有諸多設備軟硬件兼容性和性能調教上的know-how。 而對于企業(yè)來說,由于缺乏工程實踐的經(jīng)驗,進一步限制了硬件計算能力的發(fā)揮。這不僅讓本就匱乏的算力資源雪上加霜,更是無法快速地提升模型質量來應對狂卷的競爭。

88b77526-47bf-11ee-97a6-92fbcf53809c.png

從數(shù)據(jù)到算法再到RLHF,過程冗長

在算法開發(fā)層面,PB級數(shù)據(jù)的爬取、清洗、過濾和質檢,大規(guī)模預訓練的算法設計、性能優(yōu)化和失效管理,都面臨著重重難題。 DeepMind的研究表明,想要把一個大模型訓練充分,每個參數(shù)的訓練量要達到20個token。因此,當前的很多千億規(guī)模的大模型還需要多用10倍的數(shù)據(jù)進行訓練,模型性能才能達到比較好的水平。 目前,國內大模型產(chǎn)業(yè)數(shù)據(jù)集主要還是簡體中文加上少量英文為主,數(shù)據(jù)集的單詞量在100億級。相比之下,訓練GPT模型的單詞量級為5700億。也就是說,單從規(guī)模上來看就是1:57的差距。 不僅如此,從設計指令微調數(shù)據(jù)集,到優(yōu)化RLHF,整個開發(fā)鏈十分冗長,這更需要背后有諸多工程化工具。

88db48d4-47bf-11ee-97a6-92fbcf53809c.png

模型訓練:周期長、效率低,斷點問題嚴峻

另外,大模型的訓練過程,也比傳統(tǒng)的分布式訓練復雜,訓練周期長達數(shù)月。 而集群計算效率低、故障頻發(fā)且處理復雜,會導致訓練中斷后不能及時恢復,從而會降低成功率,也會使訓練成本 居高不下。 從工程角度來看,這是一個非常復雜的流程,其中的硬件、系統(tǒng)、軟件、驅動等等都必須相互適配,才能起跑。 期間,各個部分都需要能穩(wěn)定持續(xù)運轉,才能保障模型訓練的效率。一旦出現(xiàn)問題,都會讓整個訓練過程停擺。 比如,Meta就曾在訓練OPT-175B模型的日志中提到,幾乎整個訓練過程都要面對不停地重啟和中斷。

890ad9d2-47bf-11ee-97a6-92fbcf53809c.png

在訓練完成到30%左右處,Meta的訓練日志顯示,在兩個星期的時間段內因為硬件、基礎設施或實驗穩(wěn)定性問題而重新啟動了40多次! 絕大多數(shù)重新啟動都是由于硬件故障以及缺乏提供足夠數(shù)量的「緩沖」節(jié)點來替換壞節(jié)點的能力。通過云接口更換一臺機器可能需要幾個小時。

89197a1e-47bf-11ee-97a6-92fbcf53809c.png

在維護日志中,Meta的訓練人員記錄到:

總而言之,解決基礎設施問題占據(jù)了團隊最后兩周的大部分時間,因為這些硬件問題可能會在一天中的任何時間導致訓練中斷幾個小時。

雖然我們充分意識到這些問題會在這種規(guī)模的訓練過程中反復出現(xiàn),但考慮到在2021年底之前完成一個175B模型訓練全部工作時間非常緊迫,我們別無選擇,只能通過不停重啟的方式,看看如果沒有額外的訓練工具的幫助我們能走多遠。?

在找到一個加速重啟的方案并安排了更多的人手24小時輪值維護之后,Meta依然還是要面對硬件層面的各種問題。 內部訓練進度的圖表顯示,接下來的兩周之內,最長的3次連續(xù)訓練時間長度只有2.8天,2天,1.5天。

89ebed32-47bf-11ee-97a6-92fbcf53809c.png

不難看出,就連強如Meta這樣的團隊,都會或多或少地受到上述挑戰(zhàn)的困擾。 因此,對于還處在探索階段的國內大模型產(chǎn)業(yè)來說,就更加需要一套能夠保障其生產(chǎn)力的AI基礎設施。 正如浪潮信息人工智能與高性能應用軟件部AI架構師Owen ZHU所說:「以前都認為,買服務器就像買手機、買電腦一樣,只要開機就能用了;但實際上隨著算力需求持續(xù)變大,事情變得越來越復雜,實際上買回去也不一定能用得起來?!?/p>

OGAI:你可能要踩的坑,他們都替你踩過了

為了切實地解決這些問題,近日,浪潮信息正式發(fā)布發(fā)布了大模型智算軟件棧OGAI(Open GenAI Infra)——「元腦生智」。 面對各種以大模型為核心的生成式AI開發(fā)與應用場景,OGAI都提供了全棧全流程的軟件,包括集群系統(tǒng)環(huán)境部署、算力調度保障、大模型開發(fā)管理等。 為了充分釋放智算集群的能力,OGAI在每個層次上都對性能和穩(wěn)定性進行了相應的優(yōu)化,包括服務器BIOS的調教、大規(guī)模集群組網(wǎng)性能、算力調度策略等。 同時,也融合了浪潮信息在MLPerf性能評測、服務客戶實際需求、開發(fā)源大模型的實踐經(jīng)驗。 如此一來,就可以大幅降低大模型算力系統(tǒng)的使用門檻、優(yōu)化大模型的研發(fā)效率。無論是生產(chǎn),還是應用,都得到了保障。 總之,你可能會踩的坑,浪潮信息都提前幫你踩過了。

89f32764-47bf-11ee-97a6-92fbcf53809c.png

具體而言,OGAI由5層架構組成,從L0到L4分別對應基礎設施層的智算中心OS、系統(tǒng)環(huán)境層的PODsys、調度平臺層的AIStation、模型工具層的YLink和多模納管層的MModel。 值得注意的是,OGAI軟件棧的使用非常靈活。從L0到L4層的設計和實現(xiàn),都是分層的。也就是說,你并不一定要用到L0到L4整體的方案去開發(fā)大模型。 因為每一層都是分層解耦的,需要哪一層的實現(xiàn)或對應的功能,就只用那一層就可以了。

8a0eb27c-47bf-11ee-97a6-92fbcf53809c.png

L0層智算中心OS:面向大模型算力服務的智能算力運管平臺,滿足多租戶以裸金屬為主的彈性AI算力運管需求。

其中,高效的裸金屬服務可以在幾分鐘內部署規(guī)模達上千的裸金屬節(jié)點,并按照需求進行擴容,能夠一鍵獲取異構計算芯片、IB、RoCE高速網(wǎng)絡、高性能存儲等環(huán)境,同時實現(xiàn)計算、網(wǎng)絡和數(shù)據(jù)的隔離,確保業(yè)務的安全性。

8a402a0a-47bf-11ee-97a6-92fbcf53809c.png

L1層PODsys:開源、高效、兼容、易用的智算集群系統(tǒng)環(huán)境部署方案。

這一層可以全面覆蓋AI集群的部署場景,包括系統(tǒng)環(huán)境,從OS、驅動到系統(tǒng)監(jiān)控可視化、資源調度等。值得一提的是,這是浪潮信息首創(chuàng)的一個開源項目。

8a59a26e-47bf-11ee-97a6-92fbcf53809c.png

下載地址:https://podsys.ai/ PODsys集成了數(shù)十個智算集群部署所需的驅動程序、軟件和其他安裝包,并提供了一系列腳本工具來簡化部署過程,而用戶只需執(zhí)行兩個簡單的命令就能完成整個集群的部署。 就拿模型整套流程中的一環(huán)「驅動」來說,不管是上層調優(yōu),還是底層調優(yōu)。 在過去就像是開盲盒一樣,對于客戶來說A可能適用,而對B并非適用,由此所帶來的成本是巨大的。

8a6984cc-47bf-11ee-97a6-92fbcf53809c.png

舉個栗子,某互聯(lián)網(wǎng)客戶A在使用AI集群,在對面向推薦場景的AI大模型進行訓練時,卻發(fā)現(xiàn)服務器中的CPU到GPU之間的通信帶寬和存儲到服務器之間的通信帶寬沒法同時跑滿。 帶來的結果就是,模型數(shù)據(jù)不能及時從存儲讀取,進而導致GPU空閑和訓練性能低下。 面對這一難題,客戶A的算法團隊用了幾個月的時間也沒有攻克。 浪潮信息的AI團隊介入后,發(fā)現(xiàn)客戶的場景中,大模型對數(shù)據(jù)讀取IO的需求遠超一般的AI模型訓練情況,從而導致針對普通模型訓練的服務器配置在推薦場景中出現(xiàn)了不適配的情況。 針對這一特殊的需求,基于自身經(jīng)驗,浪潮信息團隊對CPU BIOS中的mps等多個選項配置進行了針對性的的修改優(yōu)化,很好的解決了這一問題。 再比如在環(huán)境配置中,也會遇到一些意想不到問題。 為了滿足大模型算力需求,某互聯(lián)網(wǎng)客戶B購買多臺高端的AI服務器,并沿用之前的使用習慣進行了操作系統(tǒng)和環(huán)境的部署。 然而,在運行大模型訓練任務時發(fā)現(xiàn),GPU掉卡,OOM等錯誤頻頻出現(xiàn),導致開發(fā)人無法正常使用設備。 觸發(fā)這一故障警報的主要原因就是,客戶B操作系統(tǒng)配置中的部分pcie相關參數(shù)和當前GPU設備的需求不兼容。 對此,浪潮信息向客戶提供了正確的配置參數(shù)之后,很快解決了這個問題。 可以看出,大模型算力平臺并非是簡單算力堆積,還需要解決訓練推理效率,系統(tǒng)穩(wěn)定性等一系列工程問題。 就像Owen ZHU談到的一樣,當智算中心的規(guī)模從十幾臺服務器擴展到幾百臺,使用難度便會呈指數(shù)級上升。 L1層PODsys就像初始化操作系統(tǒng)預裝的驅動程序,能夠高效部署AI系統(tǒng),而不用重新開發(fā)組件。 它恰恰為AI集群部署提供一個完美的解決方案,即「將工程經(jīng)驗總結成一套工具鏈式的回答?!?

L2層AIStation:面向大模型開發(fā)的商業(yè)化人工智能算力調度平臺。

這一層主要針對大模型訓練中常見的「訓練中斷」難題,能夠訓練異??焖俣ㄎ?,斷點自動續(xù)訓。 AIStation的核心能力,可以歸結為以下3個方面:1. 在開發(fā)環(huán)境和作業(yè)管理方面AIStation實現(xiàn)了計算、存儲、網(wǎng)絡等訓練環(huán)境的自動化配置,同時允許用戶自定義基本的超參數(shù),只需簡單幾步,就能完成大模型分布式訓練。 并且,AIStation還集成了主流的大模型訓練框架,包括Megatron-LM、DeepSpeed、HunggingFace上的諸多開源解決方案,實現(xiàn)了秒級構建運行環(huán)境。 這樣的優(yōu)勢在于,能夠幫助開發(fā)者在大規(guī)模集群環(huán)境下便捷地提交分布式任務。 然后,調度系統(tǒng)根據(jù)分布式任務對GPU算力的需求,通過多種親和性調度策略,大大降低構建分布式訓練任務技術門檻。 比如,英偉達開發(fā)的基于PyTorch框架Megatron-LM能夠在AIStation上實現(xiàn)快速部署,訓練全程都有保障。

8b37d7aa-47bf-11ee-97a6-92fbcf53809c.png

2. 在大規(guī)模算力調度方面能夠制定合理的作業(yè)執(zhí)行計劃,以最大限度地利用資源,滿足訓練任務的時延和吞吐需求。 AIStation優(yōu)化調度系統(tǒng)性能,實現(xiàn)了上千POD極速啟動和環(huán)境就緒。 另外,針對大模型訓練通信要求高的場景,AIStation提供集群拓撲感知能力。通過聯(lián)合優(yōu)化,AIStation在千卡集群中能實現(xiàn)90%以上的分布式計算擴展。 比如,就拿GPT-4來說,在大約25000個A100GPU上訓練90-100天,算力利用率為32%至36%。 而浪潮信息所打造的「源1.0」訓練算力效率則達到了44.8%。

8b79e686-47bf-11ee-97a6-92fbcf53809c.png

3. 在訓練穩(wěn)定保障方面健壯性與穩(wěn)定性是高效完成大模型訓練的必要條件。 利用AIStation內置的監(jiān)控全面的監(jiān)控系統(tǒng)和智能運維模塊,可以快速定位芯片、網(wǎng)卡、通訊設備異?;蚬收?。 進一步,通過對訓練任務進行暫停保持,然后從熱備算力中進行自動彈性替換異常節(jié)點,最后利用健康節(jié)點進行快速checkpoint讀取,讓大模型斷點自動續(xù)訓成為可能。 比如,之前提到Meta在訓練OPT-175B模型時反復遇到的訓練中斷問題。 AIStation就能提供一整套的解決方案,避免類似情況的發(fā)生,或者將訓練中斷造成的影響控制到最小。

8b8adc52-47bf-11ee-97a6-92fbcf53809c.png

L3層YLink:面向大模型數(shù)據(jù)治理、預訓練、微調的高效工具鏈。

針對大模型開發(fā)的2個核心環(huán)節(jié)——數(shù)據(jù)處理和模型訓練。浪潮信息在YLink中集成了大模型研發(fā)中所需的自研工具和開源工具,如數(shù)據(jù)處理工具包(Y-DataKit)、大模型訓練工具包(Y-TrainKit)和大模型微調工具包(Y-FTKit)。 這些多樣且完善的工程化、自動化工具,大大加速了大模型的訓練和開發(fā)效率。

8b945142-47bf-11ee-97a6-92fbcf53809c.png

首先是數(shù)據(jù)的處理。 在LLM出現(xiàn)以前,鮮少有人能預見它背后巨大的想象力。它被視為大模型落地的入場券,軍備競賽中的護城河,AI界的戰(zhàn)略資源。 GPT-3.5的文本語料多達45TB,而GPT-4在GPT-3和GPT-3.5訓練數(shù)據(jù)集的基礎上,又增加了多模態(tài)數(shù)據(jù)。 想訓練出強大的大語言模型,就需要依托充足的高質量數(shù)據(jù)。數(shù)據(jù)的數(shù)量、質量、多樣性乃至清洗能力,都是影響大模型性能的關鍵要素。 在YLink工具鏈中,數(shù)據(jù)生成工具DataGen、數(shù)據(jù)抽取工具FileQA、數(shù)據(jù)采集工具Gather、格式轉換工具Transform、數(shù)據(jù)清洗工具Purify,大大方便了開發(fā)者的數(shù)據(jù)處理過程。 這樣,數(shù)據(jù)源和元數(shù)據(jù)被采集、處理后,就被轉換成模型訓練所需的數(shù)據(jù),也就是得到了「煉丹」的原材料。 在有了「足夠高質量」的標注數(shù)據(jù)之后,就可以進一步為「足夠穩(wěn)定」的模型邏輯推理能力提供支撐了。 接下來,針對大模型的預訓練過程,YLink提供了數(shù)據(jù)處理工具Gather、Transform和Purity以及基于業(yè)界主流大模型分布式訓練框架NVIDIA Megatron和MS DeepSpeed的大規(guī)模分布式預訓練參考流程。

8bc50652-47bf-11ee-97a6-92fbcf53809c.png

ChatGPT能火爆全球,關鍵的原因之一,是「它能像人一樣思考。這背后的原因,就是基于人類反饋的強化學習(RLHF)」。 在微調類ChatGPT模型過程中,主要會涉及三個階段:有監(jiān)督微調(SFT)、獎勵模型(RM)訓練和獎勵模型上的近端策略優(yōu)化(PPO)。 在SFT階段,模型通過模仿人類標注的對話示例來學習通用的類人對話;在獎勵模型訓練過程中,模型會根據(jù)人類反饋來比較不同回復的偏好;在PPO階段,根據(jù)獎勵模型的反饋更新模型,通過探索(exploration)和利用(exploitation)發(fā)現(xiàn)最優(yōu)策略。 同樣的,對于模型微調這個階段來說,數(shù)據(jù)質量也至關重要。 現(xiàn)在,有了YLink在數(shù)據(jù)和訓練上提供的全方位支持,我們就可以輕松煉丹了。

8bcb4094-47bf-11ee-97a6-92fbcf53809c.png

L4層MModel:提供多模型接入、服務、評測等功能的納管平臺。

對于客戶來說,不論是開發(fā)大模型,還是調用第三方模型再用數(shù)據(jù)微調訓練,都會遇到一個問題,即不會只用到一個模型。 鑒于當前AI領域各種模型的豐富度,他們會選擇把多家模型進行比對,以找到更適合自己的最優(yōu)解。 而這當中需要經(jīng)歷一個必不可少的過程,涉及到如何管理多模型,如何下載,如何根據(jù)自身場景對模型進行自動化評測。 對此,浪潮信息提供了多模型納管方案,其核心組件包括數(shù)據(jù)集管理、模型納管和評測,可以方便開發(fā)者和研究人員更好地管理多版本、多類型的基礎大模型與任務模型。 并且,通過多樣化的評測數(shù)據(jù)集與評測任務,它可以對多個模型進行生成準確率、推理延遲、推理穩(wěn)定性等指標的全面評估。 這樣,開發(fā)者就可以快速部署和應用模型,并且,多模型的納管可以讓我們在保證模型權重、數(shù)據(jù)集安全的前提下,對外提供API服務。

大模型掘金的「秘密武器」

不難看出,OGAI不僅可以保障大模型訓練時算力供應的可持續(xù)性,而且還充分考慮到了硬件、軟件、算法、框架層面引發(fā)的訓練中斷、失效的問題,進而幫助企業(yè)順利跨越大模型研發(fā)應用門檻。 這些能力和基礎的背后,是來自浪潮信息在30余年深耕硬件行業(yè)的積累之上,在AI服務器產(chǎn)品,算力系統(tǒng)優(yōu)化方面的先發(fā)優(yōu)勢。 一方面,率先布局AIGC領域的浪潮信息,是國內為數(shù)不多具備了千億大模型工程實踐經(jīng)驗的企業(yè)。這使得浪潮信息對于開發(fā)大模型的整套流程了如指掌。 未來客戶在AIGC工程領域中要踩的坑,浪潮信息已經(jīng)提前替客戶踩了;必須要面對的技術難題,浪潮信息已經(jīng)提前解決了??蛻艚柚顺毙畔⑼瞥龅腛GAI解決方案,讓自己能站在巨人的肩膀上,落地產(chǎn)品和服務。

8c148812-47bf-11ee-97a6-92fbcf53809c.png

基于千億級大模型的工程實踐,浪潮信息對于如何高效調度千卡規(guī)模的算力,以及保障訓練任務的長期穩(wěn)定運行已經(jīng)有了豐富的經(jīng)驗。 具體來說,在訓練數(shù)據(jù)層面,浪潮信息的AI團隊逐步建立了完整的從公開數(shù)據(jù)爬取到數(shù)據(jù)清洗、格式轉化、數(shù)據(jù)質量評估的完整流程和工具鏈。 通過自研海量數(shù)據(jù)過濾系統(tǒng)(MDFS),建立從數(shù)據(jù)采集、粗濾、質量分類、精濾的全自動化的端到端數(shù)據(jù)工作流程,通過清洗866TB海量數(shù)據(jù),獲得5TB高質量中文數(shù)據(jù)集。 在模型訓練層面,浪潮信息通過對云原生的調度系統(tǒng)進行了改造,大幅加速其啟動速度,并重點解決了RDMA網(wǎng)絡在容器中的接入和適配優(yōu)化,較好地構建了一套能夠滿足大模型需求的算力調度系統(tǒng)。 另一方面,除了親自搭建和研發(fā)的經(jīng)驗之外,浪潮信息還在服務客戶的過程中,解決了各種不同體量、不同賽道的企業(yè)在實踐中遇到的問題。 在集群架構及軟硬件層面,解決了諸多如CUDA初始化失敗、GPU掉卡、 p2p Bandwidth Latency延遲過高、NCCL通信性能低,GPU direct RDMA未使能等問題。

8c326134-47bf-11ee-97a6-92fbcf53809c.png

2022年以來,浪潮信息的AI團隊協(xié)助多個客戶把大模型訓練的GPU峰值效率從30%左右提升到50%。從而大幅加速了模型訓練過程。 比如,將系統(tǒng)工程經(jīng)驗,應用于智算中心算力系統(tǒng),全面優(yōu)化了集群架構、高速互聯(lián)網(wǎng)絡和算力調度等等?!竿ㄟ^合理設計張量并行、流水并行和數(shù)據(jù)并行,精準調整模型結構和訓練過程的超參數(shù),千億參數(shù)規(guī)模的大模型訓練算力效率可達至53.5%」。 此外,網(wǎng)易伏羲中文預訓練大模型「玉言」,也在浪潮信息的助力下登頂中文語言理解權威測評基準CLUE分類任務榜單,并在多項任務上超過人類水平。 基于豐富的經(jīng)驗積累,浪潮信息能夠快速挖掘出客戶的痛點,并將需求與現(xiàn)有技術進行有效整合。 最大程度地解決未來客戶會的遇到的問題,滿足各個賽道不同客戶在AI工程領域的不同需求。而這,便是OGAI解決方案正在實現(xiàn)的。 大模型的發(fā)展,猶如黑暗森林里的一束光,讓整個產(chǎn)業(yè)高效邁入AGI。 站在未來10年看如今百模爭霸的時代,加快產(chǎn)業(yè)進度,就是核心關鍵。 浪潮信息高級副總裁劉軍表示,浪潮信息的初心即是「探索前沿技術,讓算力充分賦能大模型訓練,以及背后的產(chǎn)業(yè)落地化」。 今時火熱的AIGC產(chǎn)業(yè)機遇中,浪潮信息必然會留下濃墨重彩的一筆。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    27

    文章

    4591

    瀏覽量

    128144
  • 算力
    +關注

    關注

    1

    文章

    836

    瀏覽量

    14573
  • 大模型
    +關注

    關注

    2

    文章

    2136

    瀏覽量

    1980

原文標題:全球GPU缺口超40萬張!算力之困,中國大模型有解了

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構分析

    推出的NPU芯片設計也做了架構描述,中國也擁有獨立自主知識產(chǎn)權的高芯片,并且支持多芯片、高帶寬互連。本書也回顧了近20年來主流的CPU、GPU芯片架構的特點,介紹了存儲與互連總線技
    發(fā)表于 09-02 10:09

    淺析三大異同

    隨著一年多前ChatGPT的出現(xiàn)引爆人工智能(AI)浪潮,支撐大模型背后的“”概念突然闖進我們的視野,成為科技圈炙手可熱的新詞,引領著最新潮流。作為數(shù)字經(jīng)濟時代新生產(chǎn),也許不少人
    的頭像 發(fā)表于 08-30 12:56 ?314次閱讀
    淺析三大<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>之</b>異同

    摩爾線程GPU底座助力大模型產(chǎn)業(yè)發(fā)展

    以大模型為代表的新一代人工智能技術是引領新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術和重要驅動力量,隨著對需求的日益高漲,人工智能底座公司日
    的頭像 發(fā)表于 08-27 16:15 ?430次閱讀

    模型時代的需求

    現(xiàn)在AI已進入大模型時代,各企業(yè)都爭相部署大模型,但如何保證大模型,以及相關的穩(wěn)定性和性能,是一個極為重要的問題,帶著這個極為重要的問
    發(fā)表于 08-20 09:04

    【書籍評測活動NO.41】大模型時代的基礎架構:大模型中心建設指南

    書籍介紹 大模型是近年來引人注目的熱點之一。大模型蓬勃發(fā)展的基礎,是針對其需求設計的及基礎架構。本書針對如何為大模型構建基礎架構進行深入
    發(fā)表于 08-16 18:33

    服務器為什么選擇GPU

    隨著人工智能技術的快速普及,需求日益增長。智中心的服務器作為支撐大規(guī)模數(shù)據(jù)處理和計算的核心設備,其性能優(yōu)化顯得尤為關鍵。而GPU服務器也進入了大眾的視野,成為高性能計算的首選。那
    的頭像 發(fā)表于 07-25 08:28 ?276次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>服務器為什么選擇<b class='flag-5'>GPU</b>

    中國中心市場持續(xù)增長,智能規(guī)??焖籴绕?/a>

    7月24日,中國信息通信研究院(簡稱“中國信通院”)權威發(fā)布了《中國中心服務商分析報告(2024年)》,該報告深入剖析了
    的頭像 發(fā)表于 07-24 15:25 ?289次閱讀

    壁仞科技為中國移動呼和浩特智中心提供強大

    ? 隨著人工智能技術的飛速發(fā)展,高性能計算中心成為推動AI創(chuàng)新和應用的關鍵基礎設施。近日,中國移動智中心(呼和浩特)成功上線運營。國內領先的GPU企業(yè)壁仞科技的壁礪系列通用GPU
    的頭像 發(fā)表于 07-05 17:16 ?1068次閱讀

    卡集群解決大模型需求,建設面臨哪些挑戰(zhàn)

    解決大模型訓練對需求的巨大增長問題,尤其是現(xiàn)在模型參數(shù)量從百億級、千億級邁向萬億級。 ? 國內外企業(yè)積極構建卡集群 ? 目前,在國際上
    的頭像 發(fā)表于 06-02 06:18 ?4199次閱讀
    <b class='flag-5'>萬</b>卡集群解決大<b class='flag-5'>模型</b>訓<b class='flag-5'>算</b><b class='flag-5'>力</b>需求,建設面臨哪些挑戰(zhàn)

    摩爾線程建中:以國產(chǎn)助力數(shù)智世界,滿足大模型需求

    摩爾線程創(chuàng)始人兼CEO建中在會上透露,為了滿足國內對AI的迫切需求,他們正在積極尋求與國內頂尖科研機構的深度合作,共同推動更大規(guī)模的AI智集群項目。
    的頭像 發(fā)表于 05-10 16:36 ?625次閱讀

    “捷智”正式入駐國家互聯(lián)網(wǎng)平臺

    ABSTRACT摘要2024年4月2日,本公司旗下服務品牌“捷智”正式入駐國家互聯(lián)網(wǎng)平臺,開設云
    的頭像 發(fā)表于 04-12 08:26 ?314次閱讀
    “捷智<b class='flag-5'>算</b>”正式入駐國家<b class='flag-5'>超</b><b class='flag-5'>算</b>互聯(lián)網(wǎng)平臺

    中國第三代自主超導量子計算機“本源悟空”入駐國家互聯(lián)網(wǎng)

    量子計算機“本源悟空”上線運行。截至4月1日,全球范圍內115個國家逾477人次遠程訪問“本源悟空”,成功完成16.8全球量子計算任
    的頭像 發(fā)表于 04-04 08:21 ?209次閱讀
    <b class='flag-5'>中國</b>第三代自主超導量子計算機“本源悟空”入駐國家<b class='flag-5'>超</b><b class='flag-5'>算</b>互聯(lián)網(wǎng)

    Sora需求引發(fā)業(yè)界對集結國內AI企業(yè)的探討

    據(jù)周鴻祎觀察,Sora視頻分析所需恐遠超千億規(guī)模模型。因而,考慮到如今國內芯片供應受限,問題至關重要。事實上,Meta已有約50
    的頭像 發(fā)表于 02-25 10:03 ?450次閱讀

    智能規(guī)模通用,大模型對智能提出高要求

    的縮寫,即每秒所能夠進行的浮點運算數(shù)目(每秒浮點運算量)。 ? 可以分為通用、智能
    的頭像 發(fā)表于 02-06 00:08 ?5459次閱讀

    瘋狂的H100:現(xiàn)代GPU體系結構淺析,從焦慮開始聊起

    ,GPT-5 的訓練可能需要 3 到 5 H100,盡管之后被 Sam Altman 否認,也可窺見大模型訓練對于
    的頭像 發(fā)表于 10-29 09:48 ?7854次閱讀
    瘋狂的H100:現(xiàn)代<b class='flag-5'>GPU</b>體系結構淺析,從<b class='flag-5'>算</b><b class='flag-5'>力</b>焦慮開始聊起