★算力;算法;人工智能;高性能計算;高性能;高互聯(lián);生成式人工智能;StableDiffusion;ChatGPT;CoPilot;文本創(chuàng)建;圖像生成;代碼編寫;大語言模型;多模態(tài)大模型;預訓練;邊緣計算;液冷;HPC;冷板式液冷;Bard;AlphaGo;深度學習;AI服務器;GPU服務器;H100;A100;B100;X100;InfiniBand;L40S;PC;AI PC;PC集群; CoWoS; SoIC+CoWoS;MI300;PCfarm
2023年是人工智能發(fā)展的重要轉折年,企業(yè)正在從業(yè)務數(shù)字化邁向業(yè)務智能化。大模型的突破和生成式人工智能的興起為企業(yè)實現(xiàn)產品和流程的革新提供了先進工具,引領產業(yè)邁入智能創(chuàng)新的新階段。在這個新時代,企業(yè)不再僅關注如何增強智能化能力,而更加注重如何利用人工智能實現(xiàn)產品和流程的革新。
大模型和生成式人工智能的發(fā)展將引發(fā)計算范式、產業(yè)動能和算力服務格局的變革。未來,人工智能算力基礎設施將向高性能和高互聯(lián)等方向演進,以滿足大規(guī)模參數(shù)和數(shù)據(jù)集的訓練和調優(yōu)需求。
從感知智能到生成式智能,人工智能算力需求迅速增長,推動了人工智能服務器市場的發(fā)展。全球人工智能硬件市場規(guī)模預計將從2022年的195億美元增長到2026年的347億美元,而中國市場的人工智能服務器市場規(guī)模預計在2027年將達到134億美元。
中國市場對智能算力供給能力的衡量標準正在加速演變,從硬件性能轉向應用效果。技術提供商需要以應用為導向、系統(tǒng)為核心,構建靈活可擴展的集群,提高算力利用率,以滿足市場對資源需求。與此同時,人工智能技術的持續(xù)創(chuàng)新和落地將在知識管理、對話式應用、銷售和營銷、代碼生成等領域帶來廣泛應用。
為什么要對算力的發(fā)展和預測進行研究呢?從科技創(chuàng)新的角度來看,算力是推動人工智能、大數(shù)據(jù)、物聯(lián)網等技術發(fā)展的關鍵基礎設施。具有世界領先水平的算力可以極大地促進我國在全球科技競爭中的地位,推動創(chuàng)新型國家建設的進程。對于經濟發(fā)展來說,算力提升可以為產業(yè)互聯(lián)網、智慧城市、智能制造等產業(yè)的發(fā)展提供強大的動力。隨著算力的進一步增強,可以進一步優(yōu)化產業(yè)鏈條,提高生產效率,拉動經濟增長。另外,對于信息社會來說,日益增強的算力將進一步推進信息化進程,使信息化成為我國社會發(fā)展的重要驅動力。為公共服務、教育、醫(yī)療、交通等領域的信息化提供更好的基礎支撐。藍海大腦致力于為企業(yè)提供創(chuàng)新的智能化解決方案。在人工智能領域,通過不斷創(chuàng)新和落地,為企業(yè)的數(shù)字化轉型和算力提升提供有力支持。
中國人工智能算力發(fā)展現(xiàn)狀
一、人工智能發(fā)展邁入新階段
1、全球:生成式人工智能興起,產業(yè)步入關鍵轉折點
2023年人工智能經歷破圈式發(fā)展,以ChatGPT、GitHub CoPilot和Stable Diffusion等生成式人工智能應用和工具為代表,極大地提升了文本創(chuàng)建、圖像生成、代碼編寫和研發(fā)流程等工作智能體驗,顯著提高了生產力和生產水平。
大模型和生成式人工智能興起表明人工智能正從特定任務如圖像識別和語音識別邁向更為擬人的智能水平,具備自主學習、判斷和創(chuàng)造等能力。對企業(yè)而言,關注點已從增加智能化轉向如何利用人工智能實現(xiàn)產品和流程革新。大模型通過海量數(shù)據(jù)訓練和模型調優(yōu),展現(xiàn)出更精準執(zhí)行和更強大場景可遷移性,為元宇宙、城市治理、醫(yī)療健康、科學研究等綜合復雜場景中廣泛應用提供更為優(yōu)越的解決方案。
全球企業(yè)對生成式人工智能的態(tài)度
當前,全球各國均致力于加強對大型模型和生成式人工智能的支持,推動人工智能技術迅速發(fā)展和廣泛應用。以下是各國主要動向:
1)美國
一直在推動人工智能領域創(chuàng)新,通過支持基礎和應用研究,建立在大模型和生成式人工智能方面的領先地位。白宮發(fā)布《國家人工智能研發(fā)戰(zhàn)略計劃》,鼓勵持續(xù)創(chuàng)新,并強調在控制安全風險前提下推動人工智能應用。
2)歐洲
受多方面因素影響,歐洲地區(qū)對技術降本增效的關注度較高。然而,對生成式人工智能在安全和隱私方面存在較多顧慮,因此歐盟通過《人工智能法案》強調對透明度和風險評估要求,并加強對倫理和數(shù)據(jù)隱私監(jiān)管。
3)亞太地區(qū)
亞太地區(qū)國家,如中國、印度、新加坡、韓國和日本,都在積極推進國家人工智能戰(zhàn)略,著力推動大規(guī)模生成式人工智能項目實施。各國政府通過投資和政策支持,推進人工智能在不同領域廣泛應用。
4)中國
中國政府大力支持生成式人工智能研究,企業(yè)和科研機構也在加速推動相關研究和應用。中國人工智能的發(fā)展在東南亞地區(qū)產生溢出效應,促使該地區(qū)相關產業(yè)發(fā)展。
針對復雜模型和大規(guī)模訓練需求,市場對高性能計算資源需求不斷提升。高算力、高互聯(lián)、算力泛在性和多元化成為關鍵趨勢,推動算力生態(tài)的開放和融合。
不同領域模型類型豐富多樣,為企業(yè)業(yè)務智能化提供廣泛可能性。大模型在創(chuàng)作、自動駕駛、零售、醫(yī)療和金融等領域展示強大的應用潛力,推動整個人工智能產業(yè)鏈發(fā)展。
生成式人工智能生態(tài)價值鏈圖譜
二、人工智能算力及應用
1、算法和模型: 加速模型迭代以探索行業(yè)實踐
人工智能的發(fā)展受大模型參數(shù)擴大推動,由技術領軍企業(yè)如OpenAI、谷歌、Meta、微軟等主導,千億到萬億級參數(shù)大模型正迅速崛起,引領智能涌現(xiàn)的潮流。
1)大語言模型成為突破口
大語言模型在自然語言處理領域取得顯著進展,支持翻譯、文章生成、問題回答等任務。國內外企業(yè)不斷嘗試不同技術路線的大語言模型,但通用模型無法提供創(chuàng)新企業(yè)持續(xù)競爭力,因此垂直領域的數(shù)據(jù)、場景化模型優(yōu)化和工程化解決方案成為關鍵。
2)多模態(tài)模型的升級
大模型技術發(fā)展推動多模態(tài)模型不斷升級。多模態(tài)模型實現(xiàn)圖像、文本、語音等模態(tài)的統(tǒng)一表示和相互生成,覆蓋多個領域。頭部企業(yè)在多模態(tài)大模型領域布局,并在通用性和子領域優(yōu)化上不斷提升體驗和技術。
3)智能涌現(xiàn)受多因素影響
智能涌現(xiàn)不僅與參數(shù)量相關,還受模型設計、數(shù)據(jù)集、訓練方法、模型架構、任務類型和計算資源等多方面因素影響。企業(yè)需根據(jù)任務和模型設計確定參數(shù)量,而算力服務商需要提供全方位服務,包括硬件、軟件和算法,共同提高大模型準確性和可用性。
4)預訓練大模型成為選擇
預訓練大模型是人工智能產業(yè)發(fā)展重要選擇,通過大規(guī)模數(shù)據(jù)和知識預訓練,結合應用場景微調,實現(xiàn)高效率“工業(yè)化”開發(fā)。
2、AI軟件基礎設施: 加速大模型的應用落地
人工智能持續(xù)發(fā)展離不開底層服務支撐和軟件平臺優(yōu)化。尤其在大模型技術應用和應用落地過程中,面臨著算力、數(shù)據(jù)、效果和成本等多維度挑戰(zhàn)。
1)算力資源需求
大模型技術創(chuàng)新和應用要求海量的算力資源,尤其在分布式訓練中,對于擁有大規(guī)模加速卡的人工智能服務器集群需求非常高。缺乏足夠的算力資源將影響對大模型的高質量技術創(chuàng)新。
2)高效算力供給
大模型訓練不僅需要龐大算力規(guī)模,還需要考慮算力平臺設計的復雜性。大規(guī)模算力節(jié)點可能導致效率下降,因此在算力平臺設計上需要考慮如何提高算力使用效率,以降低訓練時長和算力成本。
3)優(yōu)質數(shù)據(jù)服務
優(yōu)質數(shù)據(jù)集對于訓練高質量模型至關重要。在大模型預訓練階段,對數(shù)據(jù)進行精準、高效清洗、集成、變換和規(guī)約,提高數(shù)據(jù)質量,降低噪音和錯誤數(shù)據(jù)的影響,從而提升算法準確性和泛化能力。
此外,邊緣計算對人工智能和機器學習的依賴度逐漸提高,成為未來發(fā)展趨勢。邊緣人工智能、5G邊緣計算、邊緣即服務等將在邊緣計算技術中發(fā)揮重要作用。全球邊緣人工智能基礎設施的發(fā)展預計將呈現(xiàn)顯著增長,成為邊緣計算技術重要組成部分。
全球邊緣人工智能基礎設施處理器和加速器市場規(guī)模,2022-2027
3、配套設施:液冷有望成為算力中心標配,國產算力率先推進
液冷有望成為智算中心主流。隨著AI計算、HPC計算等高性能計算需求的不斷提升,CPU、GPU等計算芯片正朝著高算力和高集成方向發(fā)展,這同時導致了單顆計算芯片功耗的顯著提升。目前,Intel的多款CPU芯片的熱設計功耗(TDP)已經超過350W,而Nvidia的H100系列GPU芯片的TDP更高達700W。在通用服務器中,CPU/GPU等計算芯片的功耗占比約為50%左右,而在AI服務器中,計算芯片的功耗占比更高達80%以上。
CPU/GPU TDP 變化趨勢
展望明年,運營商將迅速推進液冷技術的應用,計劃在2024年進行規(guī)模測試。三大運營商此前聯(lián)合發(fā)布《電信運營商液冷技術白皮書》,旨在加速液冷技術采用。按照白皮書的規(guī)劃,2023年將重點進行技術驗證,全面驗證液冷技術的性能,以降低能源使用效率(PUE),并積累規(guī)劃、建設與維護等技術能力。到2024年,運營商將啟動規(guī)模測試,其中新建的數(shù)據(jù)中心項目將有10%進行規(guī)模試點應用液冷技術。到2025年,預計將有50%以上的數(shù)據(jù)中心項目應用液冷技術。
運營商液冷應用規(guī)劃
目前,液冷方式主要以冷板式液冷為主導。冷板式液冷相對于其他液冷技術,改造難度低,成本可控,因此市場應用較為廣泛。據(jù)IDC報告,截至2023年上半年,我國服務器中冷板式液冷的比例已達到約90%,而浸沒式液冷的滲透率僅為10%。浸沒式液冷的大規(guī)模應用仍然面臨核心技術問題,需要解決冷卻工質等方面的挑戰(zhàn)。
液冷技術對比
4、人工智能算力服務和云: 根據(jù)算力需求優(yōu)化服務模式
近年來,人工智能的廣泛應用帶來更高算力需求,推動算力提供方式的重大改變。企業(yè)IT基礎架構逐漸從傳統(tǒng)采購模式向公有云遷移,人工智能aaS服務成為用戶便捷、快速部署應用的選擇。然而,人工智能應用對算力提出更高要求,呈現(xiàn)出算力資源集中、技術門檻提高等特征。大模型和生成式人工智能的快速發(fā)展將為人工智能算力服務市場帶來新機遇。
1)大模型訓練和推理需要更大的算力投入,特別是生成式人工智能處于起步階段,隨著應用的普及,更多用戶將投身其中。對于短期內不具備自建人工智能算力數(shù)據(jù)中心用戶,使用算力服務成為理想選擇。
2)超大規(guī)模云服務器提供商和人工智能解決方案提供商具有強大技術能力和大模型開發(fā)基礎,能夠進行快速迭代。人工智能算力服務有助于中小企業(yè)快速應用生成式人工智能技術,為業(yè)務發(fā)展提供迅速支持。
當前用戶主要面臨如何將人工智能技術應用到企業(yè)業(yè)務場景的挑戰(zhàn),需要合作伙伴的技術和時間投入,同時降低開發(fā)門檻,讓人工智能更好地服務各行業(yè)。
5、應用:企業(yè)積極投入以滿足大模型時代的應用需求
在人工智能單點技術應用方面,根據(jù) 2023年人工智能技術的應用現(xiàn)狀調研的結果,計算機視覺仍為最主要的應用技術類型,以生物識別和圖像技術為主,語音技術的應用程度緊隨其后,而自然語言處理仍處在相對早期發(fā)展階段,從調研的樣本來看,已經采用的企業(yè)不超過三成,但從未來三年計劃采用情況來看,自然語言處理類應用將快速落地,66%的企業(yè)表示將在未來三年采用該應用場景。
對于企業(yè)而言,人工智能對企業(yè)帶來的價值正愈加顯著,尤其體現(xiàn)在提高資產利用率、提高員工生產及研發(fā)效率、提升產品與服務三方面。據(jù)IDC調查顯示,企業(yè)在未來三年由人工智能所產生的價值將大幅提升,尤其在提高資產利用率、降低人力成本、提升洞察力、提升決策速度和優(yōu)化用戶體驗等幾個方面。
人工智能目前及未來三年對企業(yè)產生的價值
生成式人工智能應用在2023年迅速發(fā)展,將為各行業(yè)帶來更多機遇。不僅可以提高效率、質量和創(chuàng)新能力,還能加速實際應用的滲透,特別是在金融、制造、醫(yī)療等領域,為行業(yè)發(fā)展帶來新的競爭優(yōu)勢。
1)金融行業(yè)
金融行業(yè)對人工智能投入迅速增加,主要集中在風險管控、反欺詐、基于RPA的流程自動化等方面。在大數(shù)據(jù)支持下,銀行通過建立專屬信貸評級和審批系統(tǒng),顯著降低借貸風險,提高效率,實現(xiàn)便捷化、智能化、綠色化的目標。
2)智能制造
人工智能的革新推動了制造業(yè)的發(fā)展,智能產線、預測性維護、自動化生產、運營優(yōu)化和實時監(jiān)控等應用場景得到廣泛采用。未來,智能決策、遠程操作以及生成式人工智能將加速在制造業(yè)的落地應用。
3)智能產線
實現(xiàn)產品性能和質量可視化預測,幫助企業(yè)優(yōu)化生產計劃和提高產品設計效率。
4)預測性維護
通過數(shù)據(jù)收集和分析,預測設備故障,減少停機時間,提高生產效率。
5)自動化生產
控制和優(yōu)化生產線自動化過程,包括生產計劃、機器參數(shù)調整和供應鏈管理。
6)運營優(yōu)化和實時監(jiān)控
通過大數(shù)據(jù)分析,揭示潛在問題,提供優(yōu)化建議,實現(xiàn)生產過程的改進。
7)智能決策和遠程操作
實現(xiàn)設備和生產線的自主決策和遠程操作,提高自適應性和效率。
8)智慧醫(yī)療
人工智能在醫(yī)療行業(yè)廣泛應用,影響醫(yī)學診斷、患者監(jiān)測、個性化治療等方面。深度學習技術和大數(shù)據(jù)分析提高了醫(yī)學圖像的自動分析,實現(xiàn)了更準確的診斷,同時通過傳感器和實時數(shù)據(jù)分析,提供個性化治療建議,加速新藥研發(fā)。
9)AI4S (人工智能應用于科學)
科學領域利用人工智能進行數(shù)據(jù)分析、實驗模擬、新藥研發(fā)等,推動科學研究取得更多階段性成果。
中國人工智能應用場景發(fā)展,2023
三、AI 算力基建迎來高增
2023年上半年,OpenAI在AI領域嶄露頭角,推動一系列重要技術進展。
自然語言處理方面,ChatGPT和Google的Bard等對話機器人的問世顯著促進該領域的發(fā)展,引領新一輪語言模型的涌現(xiàn),使語言處理能力大幅提升。
自動機器學習(AutoML)方面取得進一步突破,實現(xiàn)對數(shù)據(jù)預處理和超參數(shù)調優(yōu)等任務的自動化,有效縮短數(shù)據(jù)科學家的工作時間,提高工作效率。
生成式AI技術在上半年同樣迎來成熟期,根據(jù)用戶提示生成文本、圖像等內容,廣泛應用于創(chuàng)作和輔助工作領域。
深度學習算法不斷改進,在圖像分類、目標檢測等任務上性能顯著提升,已廣泛運用于自動駕駛、醫(yī)療等行業(yè)。
為滿足AI計算需求,邊緣計算技術迎來進一步發(fā)展,使得數(shù)據(jù)處理更為實時高效,同時Google推出新一代TPU加速芯片。
1、人工智能經歷低谷與繁榮后迎來爆發(fā)增長階段
人工智能的發(fā)展經歷三個關鍵階段:推理期,知識期,機器學習期。
推理期指的是從20世紀50年代到70年代初,通過賦予機器邏輯推理能力,就能實現(xiàn)機器的智能。
知識期則是上世紀70年代,人們逐漸認識到判斷和決策不僅需要推理能力,還需要大量知識。
機器學習期,從20世紀80年代開始,機器學習成為一個獨立的學科領域,相關技術不斷涌現(xiàn)。深度學習模型和AlphaGo等增強學習的雛形在這一時期被發(fā)明。盡管早期系統(tǒng)效果不理想,但是到2010年至今,語音識別和計算機視覺等領域取得巨大進展,圍繞語音和圖像等人工智能技術的創(chuàng)業(yè)公司大量涌現(xiàn),實現(xiàn)從量變到質變的飛躍。
人工智能技術發(fā)展歷程
2、全球AI市場快速升溫,新AI應用不斷涌現(xiàn)
全球AI市場在AI算法不斷發(fā)展迭代的推動下呈現(xiàn)迅猛增長,帶來新的AI應用不斷涌現(xiàn),并推動現(xiàn)有應用快速整合AI功能。據(jù)SensorTower數(shù)據(jù),2023年上半年AI應用下載量同比增長114%,超過3億次,創(chuàng)下2022年全年水平。ChatGPT、Lensa AI等AI應用備受用戶認可,AI應用內購收入在2023年上半年同比增長175%,接近4億美元,美國市場占據(jù)AI應用內購收入的55%。
3、算力需求高增,催生新經濟增長點
生成式AI發(fā)展成為當前趨勢,對算力需求顯著提升,進而推動GPU需求增長。生成式AI整合GAN、CLIP、Transformer、Diffusion等算法,以及多模態(tài)等AI技術,數(shù)據(jù)、算力、算法是其不可或缺的三大關鍵。據(jù)TrendForce數(shù)據(jù),生成式AI需要大量數(shù)據(jù)進行訓練,尤其對高性能GPU需求巨大。以ChatGPT背后GPT模型為例,其訓練參數(shù)從2018年的約1.2億個增長至2020年的近1800億個,以NVIDIA A100為計算基礎,未來商用可能需要2萬顆至3萬顆GPU。
生成式AI算力不僅提升新興產業(yè)發(fā)展,為傳統(tǒng)產業(yè)轉型升級提供支撐。算力融入傳統(tǒng)制造業(yè)推動企業(yè)智能化改造和數(shù)字化轉型,在新興產業(yè)中算力的整合促進新業(yè)態(tài)、新模式、新應用發(fā)展,成為推動新興產業(yè)增長的重要動力。算力釋放數(shù)據(jù)等新型生產要素創(chuàng)新活力,云計算、大數(shù)據(jù)、區(qū)塊鏈、元宇宙等的興起都依賴于強大的算力。
Chatgpt潛在算力需求
算力發(fā)展全球格局
一、算力: AI 服務器滲透率提升,驅動計算、數(shù)通硬件需求
AI 芯片軍備競賽將持續(xù)推動產品升級,中長期供給或將多元化。中短期看,AI 模型發(fā)展、競爭仍將推升 AI 芯片出貨量和規(guī)格;長期看,AI 芯片需求將注重投入產出比和總擁有成本(TCO),重心預估將從 AI 大模型訓練轉向 AI 垂直模型訓練和 AI 推理。根據(jù) Yole 報告,AI 服務器(含 GPU 及其他加速器)2028 年滲透率有望從 2023 年的接近 10%增至超過 18%,其中約 70%-75%為 GPU 服務器。
加速器服務器規(guī)模及 GPU 服務器占比(左側百萬部;右側%)
1、訓練算力端:英偉達一枝獨秀,AMD、Intel 迎頭追趕
英偉達占據(jù)AI訓練領域主導地位,目前AI芯片市場份額達70%。其數(shù)據(jù)中心GPU產品A100和H100廣泛應用于AI訓練領域。英偉達在2023年11月推出H100的內存升級版本H200,同時預計在2024年推出B100,2025年推出X100,加速芯片升級的節(jié)奏,迭代周期縮短至1年。
在競爭對手方面,AMD預計在2024年服務器GPU訂單將超過20億美元,而Intel到2024年的服務器GPU訂單也將達到20億美元。盡管這兩家公司明年服務器GPU出貨有望增加,但全年總出貨量可能仍然低于英偉達數(shù)據(jù)中心業(yè)務單季度規(guī)模。
英偉達數(shù)據(jù)中心 GPU 技術路線圖
2、推理算力端:百舸爭流,技術路線更加多元
AI推理算力需求相較于訓練較低,主要是因為推理僅涉及前向計算,無需復雜的反復試錯和參數(shù)調整。對于推理任務,可通過模型優(yōu)化等手段在一定精度損失情況下減少算力需求。因此,GPU、CPU、FPGA和NPU等硬件都有適用的場景和機會。
英特爾第四代服務器CPU在AI推理性能上顯著提升,尤其是Sapphire Rapids(2023)在ResNet-50基準測試中表現(xiàn)接近T4 GPU,性能提升有助于CPU在AI推理市場份額上取得競爭優(yōu)勢。
GPU在推理和模型微調方面具有差異化優(yōu)勢。對于頭部客戶,如Open AI和Meta,需要低延時解決方案,同時GPU資源也可以在空閑時分配給AI訓練任務,提高硬件利用率。因此,A100、H100等GPU芯片仍然在AI推理任務中得到廣泛使用。而英偉達的中端GPU L40S除適用于推理,還適合中等參數(shù)模型的微調訓練。AMD、Intel等公司的旗艦AI芯片也宣稱在AI訓練和推理方面具有優(yōu)勢,適用于復合復雜場景。
自研芯片可能成為云服務商在推理硬件方面突破口。由于英偉達及其CUDA生態(tài)在推理端的壁壘相對較低,云服務商有機會從推理端開始實現(xiàn)自研芯片的AI布局。在某些固定功能的AI推理場景,如推薦搜索等,也適合發(fā)展自研ASIC芯片。目前,谷歌的TPU、亞馬遜的Inferentia等自研芯片已經得到廣泛應用,微軟也推出首個自研AI芯片Maia。多家公司,如邁威爾與亞馬遜、博通與谷歌,也在定制ASIC業(yè)務上有合作。
AI 計算芯片產業(yè)鏈一覽(2023/12/1)
3、AI 基建驅動光通信進入高成長通道
AI網絡升級是釋放AI算力的重要基礎,特別是以英偉達為代表的AI網絡結構升級,推動光器件、光模塊和交換機的需求增加。英偉達整合GPU算力和Mellanox的互聯(lián)技術,在InfiniBand交換機市場占據(jù)主導地位,但未來以太網交換機的滲透率可能會提高。
AI大模型的崛起推動高速率數(shù)通光模塊的加速放量,特別是在電信和數(shù)通市場。由于云服務龍頭增加對AI集群的投資,高端光通信需求上升,400G和800G光模塊的組件供不應求。LightCounting預測2024年以太網光模塊銷售額將同比增長近30%,各個細分市場也將逐步恢復增長。在經歷2023年全球光模塊市場規(guī)模同比下降6%后,2024-2028年的復合年增長率(CAGR)預計將達到16%。光模塊龍頭公司Coherent表示,由AI驅動的全球800G、1.6T和3.2T數(shù)通光模塊,相關行業(yè)規(guī)模在2024-2028年的5年CAGR可能超過40%,從2023年的6億美元增長至2028年的42億美元。
2018-2028E 全球光模塊銷售額(百萬美元)
光模塊領導者Coherent在整個產業(yè)鏈中具有顯著的優(yōu)勢,特別是在高門檻的上游光芯片技術方面。Coherent不僅在光芯片技術上領先,而且擁有強大的客戶壁壘,使其能夠率先推出產品,從而在整個產業(yè)鏈中保持競爭優(yōu)勢。光模塊生產主要涉及組裝性業(yè)務,因此在成本控制等經營方面的能力變得更為關鍵,國內廠商在這方面具有競爭優(yōu)勢。在LightCounting發(fā)布的2022年全球光模塊供應商產值榜單中,國內廠商表現(xiàn)搶眼:中際旭創(chuàng)排名第一,華為(海思)位居第四,光迅科技升至第五,海信位居第六,新易盛位居第七,華工正源位居第八。
光模塊產業(yè)鏈一覽
英偉達通過其AI解決方案推動InfiniBand交換機需求增長。由于InfiniBand在高性能計算和AI集群中的低時延優(yōu)勢,其在2023年6月的Top500超級計算機榜單中表現(xiàn)強勁,達到241套,占比為48.2%。英偉達在2020年收購Mellanox,借助其在InfiniBand架構方面的產品優(yōu)勢,目前已占據(jù)20%以上的市場份額。據(jù)LightCounting預測,英偉達InfiniBand交換機ASIC的銷售額在2023年將是2022年銷售額的近三倍,2023-2028年的復合年均增長率可能達到24%。
前 500 超級計算機高速以太網和 InfiniBand 系統(tǒng)數(shù)量(套)
大規(guī)模AI部署中,以太網方案的滲透率提升,英偉達積極發(fā)展以太網交換機以迎接競爭。以太網在多供應商生態(tài)系統(tǒng)和性價比等方面具有優(yōu)勢,其性能提升加劇與InfiniBand的競爭,客戶將受益于整體性價比的提高。云巨頭計劃在AI基礎設施中采用開源以太網交換機。
超以太網聯(lián)盟(UEC)于2023年7月宣布,通過全行業(yè)合作,將為HPC和AI開發(fā)基于以太網的通信棧架構,成員包括AMD、博通、Arista、思科、英特爾、Meta、微軟等公司。LightCounting預計,以太網交換機銷售額在2023-2028年的復合年均增長率達到14%。Cisco和Arista是全球市場份額前兩位的以太網交換機廠商,截至2023年第二季度的份額分別為47.2%和10.4%。英偉達通過Spectrum-X方案(Spectrum 4交換機+BlueField-3 DPU)積極參與競爭。
2021-2028E 交換機市場規(guī)模(百萬美元)
3、AI 終端創(chuàng)新大勢下,消費電子迎來新機遇
2023年下半年,AI終端備受關注,手機和PC制造商紛紛發(fā)布新品。在手機領域,蘋果、三星、谷歌、高通、聯(lián)發(fā)科等廠商推出的A17 Pro、Exynos 2400、Tensor G3、驍龍 8 GEN 3、天璣 9300處理器強調其AI功能。
在PC領域,Intel和AMD均啟動AI PC CPU計劃,高通也推出基于Arm架構的X Elite處理器,支持運行130億參數(shù)模型。小米、vivo、聯(lián)想等品牌也相繼發(fā)布基于新一代AI終端處理器的產品。
預計到2027年,AI PC的普及率有望達到60%以上,而2024年將成為這一趨勢的關鍵窗口。根據(jù)Canalys的預測,AI PC將在2024年年中開始迎來大規(guī)模增長,主要推動因素包括Intel等處理器廠商的新品發(fā)布以及Windows的最新版本將于2024年增加AI功能。英特爾估計未來兩年將出貨1億臺AI PC,而高通等新競爭者也表示OEM合作伙伴將于2024年中開始發(fā)布搭載驍龍X Elite的AI PC產品。Canalys預計到2027年,AI PC的出貨量將超過1.75億臺,占總PC出貨量的60%以上。
2022-2027E AI PC 滲透率
AI終端用戶長期愿景主要聚焦在個性化需求上。典型的AI終端應用包括AI個人助理、健康監(jiān)測、文本擴寫與問答、音頻、圖片、會議和視頻的識別、分類以及后期處理,以及設備端訓練等功能。一些應用已經在現(xiàn)有設備中得到廣泛應用,而一些前沿的AI應用,如設備端訓練,尚未完全成熟。
AI終端用戶核心需求包括對數(shù)據(jù)本地化的隱私關切、對AI應用低延時和離線功能需求,以及對AI大模型個性化需求。在個性化方面,AI大模型的個性化有望成為推動AI終端長期發(fā)展的核心競爭力。在設備端訓練中,AI終端將在云端預訓練模型的基礎上,結合用戶的本地數(shù)據(jù)進行微調,具有更接近用戶個人習慣的本地樣本,同時可以根據(jù)新數(shù)據(jù)進行可持續(xù)訓練,實現(xiàn)持續(xù)學習。
AI 終端應用場景匯總
微軟和Meta正在積極搶占跨終端AI機遇,通過與合作伙伴如Intel、AMD、高通等展開合作,推廣開源項目和AI工具,形成生態(tài)壁壘。利用跨終端用戶規(guī)模來吸引更多開發(fā)者,形成正向循環(huán)。
在AI終端方面,內存規(guī)格升級成為趨勢,例如高通的驍龍8 GEN 3已推動LPDDR5X和LPDDR5T產品的交付,速度達到9.6Gbps。此外,存算一體在AI終端上也有望獲得發(fā)展,例如三星的LPDDR5-PIM方案可提供4.5倍的性能提升和72%的功耗節(jié)省。
混合AI方案即終端和云端的協(xié)同工作,成為AI終端向無邊界外延趨勢?;旌螦I適用于各種邊緣終端,包括手機、PC、XR、物聯(lián)網設備和汽車等,有助于推動云端AI的發(fā)展。
混合 AI 三種案例
二、先進封裝大勢所趨,3D 集成時代終將來臨
隨著半導體制程逐漸接近物理極限,先進封裝成為提高芯片效能、節(jié)省硬件空間、減少功耗和延遲的必要途徑。HPC和AI應用對高算力、低延遲、低功耗的需求推動先進封裝技術的發(fā)展。臺積電、英特爾和三星的2.5D封裝技術以及逐漸興起的3D封裝技術在此領域有著長期發(fā)展。CoWoS(臺積電2.5D封裝技術)和HBM(高帶寬內存)是生產AI GPU中增長最迅速的領域之一。先進封裝的迅速發(fā)展也帶動了相關設備需求的激增。展望未來,重點關注2.5封裝技術產能的擴張和3D封裝技術的發(fā)展態(tài)勢。
1、先進封裝市場規(guī)模增長可期,2.5D/3D 集成顯未來潛力
2022-2028 年間先進封裝市場規(guī)模的 CAGR 達 10.6%,HPC 和 AI 應用或為主要推力。據(jù) Yole數(shù)據(jù)顯示,2022 年先進封裝市場規(guī)模達 443 億美元,占整體 IC 封裝市場的48%;2028 年全球封裝市場規(guī)模為1360億美元,其中先進封裝為786億美元,占比將提升至 57.8%。目前,先進封裝市場以移動和消費終端應用為主,由硅含量增加和封裝技術復雜化驅動。
2022-2028 年全球先進封裝市場規(guī)模預測(按終端應用)
2、臺積電 CoWoS 急擴產,關注設備訂單及技術趨勢
CoWoS是臺積電的2.5D封裝技術,分為CoW和WoS兩部分,其中WoS是將兩部分晶片堆疊在基板上的封裝。CoWoS根據(jù)中介層的不同分為三種技術架構,對于AI時代具有重要意義。
1)CoWoS-S采用硅中介層,是HBM和處理器互連的主流方案,在AI芯片中用于執(zhí)行訓練和推理任務。其高帶寬優(yōu)勢顯著提升性能,目前是主流高性能AI處理器的首選方案。大客戶如英偉達、AMD、博通、Marvell等的訂單增加,臺積電緊急擴產,2024年的CoWoS月產能預計將達到3.5萬片。
2)CoWoS-R采用RDL中介層,降低成本,預計在2024年開始量產。相較于CoWoS-S,CoWoS-R引入重新布線層(RDL)并具有成本優(yōu)勢。部分硅中介層產能可能被轉移到有機中介層,以滿足越來越多廠商選擇成本更低的CoWoS-R的需求。
3)CoWoS-L采用LSI和RDL中介層,支持更多HBM堆疊,可能應用于英偉達的B100。CoWoS-L通過在中介層加入主動元件LSI實現(xiàn)更高的設計復雜性,可支持更多HBM的堆疊。CoWoS-L目前處于驗證階段,預計在商業(yè)化時采用Chiplet技術和臺積電的CoWoS-L封裝技術,英偉達B100可能是首個采用這項技術的產品。
CoWoS 通過硅通孔(TSV)實現(xiàn)各層元件的集成和互聯(lián)
臺積電前、后段整合的 SoIC+CoWoS 也是未來解決 HPC 芯片面臨摩爾定律放緩的關鍵點。SoIC 是業(yè)界第一個高密度 3D 小芯片堆疊技術,通過 CoW(Chip-onWafer)封裝技術將不同尺寸、功能、節(jié)點的芯粒異質整合。SoIC 為前段 3D 封裝技術,集成到主要用于消費電子產品的 InFO 和主要用于 HPC 和 AI 的 CoWoS 兩項后段 2.5D 封裝技術中。由于 3D 封裝制程近似芯片制造,故更有利于芯片生產商主導。AMD MI300 率先采用 SoIC+CoWoS。如若該產品效果良好,或可助 SoIC+CoWoS 在 AI 芯片市場攻城略地。
臺積電 SoIC 與 CoWoS、InFO 集成
臺積電出貨量進入磨底階段,AI 芯片將在2024年助推3nm制程收入貢獻提升。半導體代工龍頭臺積電2023Q3營收172.8億美元(YoY-14.6%,QoQ+10.2%),季度晶圓出貨量 290.2萬片等效12寸晶圓(YoY-27%,QoQ-0.5%),反映市場需求雖有企穩(wěn),但仍處磨底階段。隨著高通、聯(lián)發(fā)科、AMD、英偉達等大客戶宣布跟進3nm制程,新技術發(fā)展對產業(yè)迭代周期的推動作用。臺積電也在2023Q3 業(yè)績會上稱,芯片市場非常接近底部,2024 年將是公司的健康成長之年。
臺積電收入結構——按制程(%)
采用65nm制程的硅中介層掣肘CoWoS-S產能,利好外溢。受制于供應鏈瓶頸,英偉達積極打造非臺積電 CoWoS 供應鏈。聯(lián)電由此受益,計劃將硅中介層月產能從目前的3千片增至1萬片,屆時硅中介層產能將與臺積電持平。原本就小量承接臺積電WoS 釋單的日月光和積極爭取CoW訂單的Amkor則負責后段WoS封裝。
CoWoS 流程示意圖
3、存儲原廠競逐 HBM,技術路線分化
AI 重振存儲市場信心,原廠逐鹿 HBM3。高帶寬內存HBM可滿足AI訓練所需的大規(guī)模數(shù)據(jù)搬運需求,Yole 預估 AI 服務器 DRAM 位元需求量增速將高于通用服務器,2021-2028E CAGR 分別為 47%、24%,該機構預估 AI 服務器 HBM出貨量將從 2022 年的 2EB 增至 2028 年的 30EB。競爭格局方面,根據(jù) TrendForce 報告,SK-海力士 2023-2024E 市場份額預估維持在 45%-50%區(qū)間,三星隨著 HBM產能擴張,份額有望提升至 2024 年的 47%-49%,與 SK-海力士并駕齊驅。
AI 服務器 HBM 出貨量(EB)
4、先進封裝有業(yè)績增速及長期邏輯,中型設備商具備較大彈性
先進封裝市場、HBM市場的競爭有助于推升先進封裝設備市場 TAM,拉姆研究管理層預估 AI 服務器滲透率每增長 1%,都將帶動 10-15 億美元增量設備投資。
硅通孔(TSV)用于形成 2.5D、3D 先進封裝垂直電氣通道,目前主流的方案為博世蝕刻法,該方法將蝕刻過程分為多個周期,每個周期分為蝕刻、鈍化和間歇三個過程,通過不斷向下蝕刻形成垂直的通孔。按TSV制造成本結構拆分,TSV包括光刻、通孔蝕刻、襯底沉積、嵌入屏障層和種子層、襯底開口、屏障層及種子層、銅電鍍、化學機械拋光,其中化學機械拋光(CMP)、屏障層及種子層、通孔蝕刻占比較高。
TSV 成本結構
鍵合用于組件之間的連接,可分為微凸塊鍵合、銅對銅鍵合,前者代表為倒裝芯片和熱壓鍵合(TCB)、后者代表為混合鍵合(Hybrid Bonding),混合鍵合能夠進一步縮短組件的間距,滿足先進封裝對更高性能的需求。臺積電目前主要使用倒裝芯片方案,AI 芯片初創(chuàng)公司 Graphcore 則是臺積電混合鍵合方案首個客戶。
AI算力加速國產化時代
國產AI算力迎來發(fā)展重要時刻?;仡櫝愫屯ㄓ盟懔Πl(fā)展歷史,國產AI算力有望經歷從“可用”到“好用”的階段,在當前國際局勢下,AI算力國產化過程有望在2024年邁向“客戶初選適配年”,2025年進入“客戶主動采購年”,并在2026年成為主導力量。
普通云計算方面,國產服務器市場預計在2024年達到198億,2027年達到1000億。
超算領域,我國在超算CPU研發(fā)上經歷八年的自主發(fā)展。超算云服務市場預計有望達到700億,其中企業(yè)導向市場潛力大。
智算方面,面臨美國的多方面制約,但國內算力需求仍呈現(xiàn)強勁增長。預計2024年國內AI算力總需求將達到211.50EFlops,國產化比例為46.45%。異騰910等技術的應用將驅動市場規(guī)模在AI芯片和服務器領域達到數(shù)百億。
一、從CPU到GPU,核心技術當自強
1、限制加速,國產化時點提前到來
算力是數(shù)字經濟發(fā)展的關鍵。提高算力對經濟增長具有長期和倍增效應:每提高1點的算力指數(shù),數(shù)字經濟和GDP分別增長3.5%和1.8%。當算力指數(shù)達到40分和60分時,每提升1點將分別帶動GDP增長1.5倍和3.0倍。
我國正迎來算力全面國產化時代。作為算力核心載體,服務器關鍵組成部分是CPU和類GPU等計算芯片。國產CPU已經從“可用”過渡到“好用”階段,大客戶特別是運營商和金融機構,正進行信創(chuàng)服務器的集中采購和規(guī)模應用。
算力與經濟增長模型
2、國內算力產業(yè)鏈的三大體系
算力產業(yè)鏈主要包含三大體系:
以海光為核心芯片的科院系x86信創(chuàng)服務器體系;
以鯤鵬+異騰為核心芯片的華為Arm信創(chuàng)服務器體系;
以飛騰為核心芯片的中電子系Arm信創(chuàng)服務器體系。
這些體系在整機制造上呈現(xiàn)出各自的特點,如兼容性和自主可控程度等。我國正在逐步完善算力產業(yè)鏈和生態(tài),以更好地應對國際挑戰(zhàn)。
二、普通計算: 從“可用”到“好用”
1、國產CPU技術路線正逐步趨于收斂
我國CPU技術路線主要基于x86和Arm兩大架構。當前的趨勢是逐漸向兩個核心體系收斂,即華為的ARM體系和海光的x86體系。在芯片的發(fā)展中,重點是實現(xiàn)性價比的穩(wěn)定提升、廣泛下游生態(tài)覆蓋、充足供應,以及具備與國外芯片競爭的性能和價格。
2、2027年國產PC市場規(guī)莫有望達到547億
根據(jù)《信創(chuàng)框架報告》預測,到2024年國產PC CPU市場規(guī)模有望增長至38億,并在2027年進一步擴大至87億,年復合增長率(CAGR)為19%。與此同時,國產PC市場整體規(guī)模預計將在2024年達到239億,并在2027年增至547億,年復合增長率(CAGR)為32%。
國產服務器市場規(guī)模測算
3、2027年國產服務器市場規(guī)模有望達到千億
2022年服務器芯片國產化程度達25%。在全球市場中,X86芯片占據(jù)91%的份額,ARM芯片占據(jù)6%,而其他芯片占據(jù)3%(Counterpoint數(shù)據(jù))。根據(jù)Bernstein的數(shù)據(jù),在中國市場,ARM芯片在服務器中的占比約為15%,而其他國產CPU(包括龍芯、海光、兆芯、申威等)的占比約為10%,使得總體國產芯片服務器的占比達到25%。
據(jù)《信創(chuàng)框架報告》預測,到2024年國產服務器CPU市場規(guī)模預計將增長至198億,并在2027年有望達到594億。與此同時,2024年國產服務器市場規(guī)模預計將增至1000億,年復合增長率(CAGR)為19%。這些數(shù)據(jù)表明,國產服務器市場正在快速發(fā)展,并且國產芯片中的占比也在逐漸提高。
4、以運營商和金融為代表的行業(yè)客戶已開始大規(guī)模集采國產服務器
從2023年下半年開始,運營商和金融客戶紛紛進行大規(guī)模國產服務器采購,而未來,能源電力、制造業(yè)、醫(yī)療、教育等行業(yè)的國有企業(yè)客戶也有望逐步加入信創(chuàng)服務器集采行列。
供應方面,Arm服務器在以運營商和銀行為代表的行業(yè)信創(chuàng)采購中的占比不斷提高,如在中信銀行65億訂單中,Arm芯片服務器份額約占總金額的3/4,預計Arm芯片服務器的市場份額將進一步增加。
2021年x86服務器的主要下游客戶構成
5、ARM:華為餛鵬CPU主打高性能和低功耗
鯤鵬920是由華為自主研發(fā)的核心CPU,專為數(shù)據(jù)中心設計,注重高性能和低功耗。基于ARM V8.2架構,主頻達2.6GHz,單芯片支持64核,提供8通道DDR4和100G ROCE大網卡,具備PCle4.0及CCIX接口,總帶寬達到640Gbps。通過優(yōu)化分支預測算法、增加運算單元數(shù)量、改進內存子系統(tǒng)架構等微架構設計大幅提升處理器性能。
鯤鵬920主打高性能和低功耗
6、ARM:飛騰CPU可擴展生、安全性強
飛騰CPU展現(xiàn)高可擴展、高性能、高安全、高可靠、高效五大核心能力。其新一代騰云S2500系列服務器芯片采用16nm工藝,64核架構,直連可達512核,總帶寬800Gbps,支持2至8路直連,形成128核到512核的計算機系統(tǒng)。最新的FTC870內核主頻可達3GHz,性能達到國際先進水平,相比上一代提升約20%。
新一代”870”高性能處理器核,性能追趕國際先進水平
7、兼容性X86:海光CPU兼具性能和兼容性
海光基于AMD授權的x86指令集研制CPU,如海光7285,具有32核、64個超線程、2.0GHz主頻、DDR4內存、8個內存通道、最高2666MHz內存頻率、128個PCle通道。采用先進的微結構和緩存層次結構,優(yōu)化分支預測算法,實現(xiàn)每個時鐘周期執(zhí)行指令數(shù)顯著提高。海光三號系列芯片是主力產品,具有32核心64線程,128條PCle4.0通道,支持3200MHz內存頻率,整體性能提升約45%。
各主流CPU性能參數(shù)對比
三、超算:受限較早,徐徐前行
1、數(shù)據(jù)密集型問題超級計算用于處理極端復雜
超級計算(HPC)是計算科學的前沿領域,利用多臺計算機系統(tǒng)(超級計算機)的集中式計算資源處理復雜或數(shù)據(jù)密集型問題。與智算相比,超算要求雙精度計算(FP64),而智算通常要求單精度、半精度計算(FP32、16、8)。超算產業(yè)具有明顯的政策性特征,主要是由于超算芯片難度較大,且下游應用主要集中在前沿基礎科學研究等非商業(yè)化需求。因此,產業(yè)鏈的發(fā)展在一定程度上受政策周期性影響。
2、超算芯片受限較早,我國超算在政策加持下已進入互聯(lián)階段
八年前美國就對中國超算領域實施限制,拒絕向中國的多個超算中心和國防科大提供“至強”芯片。隨后,美國不斷收緊對我國超算單位限制,包括對中國超算三巨頭中的“神威”和“曙光”實施制裁。這些限制促使我國在超算領域走上自主發(fā)展之路。
在2016年《“十三五”國家科技創(chuàng)新規(guī)劃》中提出突破超級計算機中央處理器(CPU)架構設計技術的目標。進入2021年的“十四五”規(guī)劃中,明確建設E級和10E級超級計算中心計劃。為推動國產超算算力提升,啟動超算互聯(lián)網建設工作,旨在建成一體化超算算力網絡和服務平臺,實現(xiàn)對算力資源的統(tǒng)籌調度。
3、中國超算算力總和2020年已達566PFlops
中國超級計算機在全球Top500榜單中已連續(xù)9次制造數(shù)量領先,市場份額一度達到全球第一。在2018年底至2020年中,中國超算上榜數(shù)量占比約為45%。然而,2017年至2019年,中國超算算力總和在Top500榜單中僅占總和的三成左右,略低于數(shù)量占比。自2020年起,中國停止向TOP500組織提交最新超算系統(tǒng)信息,因此后續(xù)數(shù)量和算力占比均呈下降趨勢。
全球超級計算機500強榜單中中國制造的數(shù)量及占比(臺、%)
4、預計2025年中國超算市場規(guī)模達到466億元
全球超算市場預計將在2026年達到395.3億美元,以HPC市場收入為口徑,2017-2021年市場規(guī)模CAGR為12.2%,而2021-2026年的預計CAGR為6.1%。
在中國,根據(jù)研究機構的測算,2016-2021年中國超算服務市場規(guī)模CAGR高達24.7%,預計2021-2025年的CAGR為24.1%,到2025年,中國超算服務市場規(guī)模將達到466億元。
2017-2026E全球超算市場規(guī)模(億美元、%)
5、全國有11家國家級超算中心,中科院體系占比過半
由于超算與國家前沿基礎科學研究需求緊密相關,因此國家級超算中心基本可分為中科院、國防科大和江南計算所三大體系,從數(shù)量上看,中科院體系份額超過50%。
6、超算上云是必經之路,超算云服務市場規(guī)模有望達到700億
超算互聯(lián)網的三層參與者包括基礎算力層、運行管理層和服務運營商,分別提供算力、管理資源和運營服務。通過超算互聯(lián)網建設,在2025年底前打造國家算力底座,實現(xiàn)超算算力一體化運營。超算服務需求涉及多領域,需要具備超算技術和行業(yè)科研思維的復合型人才。超算服務場景因應用領域不同而異,包括海洋氣象、地質勘探、工業(yè)仿真、富媒體渲染等。預計中國超算云服務市場規(guī)模有望在遠期達到700億,其中企業(yè)市場為主導力量,展現(xiàn)出未來商用企業(yè)市場的巨大潛力。
中國超算云服務市場規(guī)模遠期有望達到700億
四、智算:限制加速,國產化時點提前到來
1、美國政府上臺后加強對中國半導體產業(yè)多邊管制,通過諸多措施限制芯片設計、代工、生產設備、供應鏈等多個環(huán)節(jié)。
2、中國智算算力領域迎來新基建頂層規(guī)劃,通過《算力基礎設施高質量發(fā)展行動計劃》實現(xiàn)全國范圍內頂層規(guī)劃。政策強調網絡聯(lián)通,協(xié)調全國范圍內智算中心建設,提高使用國產芯片智算中心上架率。2025年的目標包括全國算力規(guī)模超過300EFlops,智能算力占比達到35%,光傳送網覆蓋率達到80%,各領域算力滲透率提升。這一規(guī)劃解決了各地建設節(jié)奏不一、標準不一的問題,有助于實現(xiàn)智算算力混合調用,提高國產智算算力上架率。
《算力基礎設施高質量發(fā)展行動計劃》主要內容
3、2024年國產AI算力需求有望接近100EFlops
商用客戶如互聯(lián)網有望將百億參數(shù)模型的部分訓練和推理需求轉向國產AI芯片,2024年國產芯片主要需求將包括:政府智算中心、運營商、金融、第三方大模型廠商、互聯(lián)網廠商,據(jù)測算,依8卡昇騰910 AI服務器計算,2024年預計昇騰910出貨量為30.7萬張,對應3.84萬臺AI服務器。
4、2024年國產AI算力需求有望接近100EFlops
1)2024年政府智算中心國產AI算力增量需求為23EP,需要7.19萬張昇騰910卡,0.90萬臺AI訓練服務器
截至2022年,中國的算力總規(guī)模已達180 EFlops,其中智能算力占41 EFlops。到2025年,全國算力目標規(guī)模將超過300 EFlops,智能算力占比達到35%。據(jù)此推算,2024年智能算力的缺口約為23 EFlops??紤]到智算中心建設由政府主導,國產芯片的供應占比將達到100%。因此,2024年政府智算中心對國產AI算力的需求為23 EFlops,相當于昇騰910卡7.19萬張和AI訓練服務器0.90萬臺。
2)2024年運營商國產AI算力增量需求為34.90EFlops, 需要10.91萬張昇騰910卡,1.36萬臺AI訓練服務器
中國電信AI算力服務器(2023-2024年)集中采購項目分為4個標包,總金額84.62億,總采購規(guī)模為4175臺訓練型服務器。其中,使用國產鯤鵬芯片的AI服務器數(shù)量為1977臺,占總采購數(shù)量的47.35%,總金額28億,IB交換機數(shù)量為1182臺。其中運營商將在地方算力基建任務中扮演角色,并提供智算算網服務;移動、聯(lián)通、電信三大運營商的采購節(jié)奏相近,算力服務器數(shù)量與2023年各家算力網絡Capex比例一致;運營商作為信創(chuàng)領軍者將承擔AI算力信創(chuàng)任務,國產化率有望達到80%。綜合分析得出,2024年運營商對增量國產AI算力的需求為34.90 EFlops,需要10.91萬張昇騰910卡和1.36萬臺AI訓練服務器。
3)2024年金融等行業(yè)客戶國產AI算力增量需求為6.41EFlops,需要2萬張昇騰910卡,0.25萬臺AI訓練服務器
6家國有銀行和12家股份制銀行等行業(yè)客戶的AI服務器采購規(guī)模為4175臺。假設國產化率為60%,則國產AI服務器的需求為1670臺,相應的算力規(guī)模為6.41 EFlops。這需要2萬張昇騰910卡和0.25萬臺AI訓練服務器。
4)2024年第三方大模型廠商的國產AI算力增量需求為19.84EFlops,需要6.20萬張昇騰910卡,0.78萬臺AI訓練服務器
截至2023年10月,中國已發(fā)布兩百余個大模型,主要由科研院所和互聯(lián)網企業(yè)推動。鑒于算力供應受到限制,科研院所以及訊飛、智譜、智源等第三方大模型廠商可能會尋求國內芯片以滿足部分算力需求。假設2024年新增大模型總數(shù)為50個,平均模型參數(shù)量為200億,國產化率為25%,則第三方大模型廠商在2024年對國產AI算力的增量需求為19.84 EFlops,需要6.20萬張昇騰910卡和0.78萬臺AI訓練服務器。
5)互聯(lián)網廠商需要國產算力分別為9.92EFlops(FP16)、8.33EFlops(INT8),合計需要4.4萬張昇騰910卡,0.55萬臺AI服務器
美國芯片禁令對國內獲取主流GPU(如A800、H800)產生限制,導致互聯(lián)網廠商調整算力選擇?;ヂ?lián)網廠商將使用國產替代方案將首先在百億模型推理領域實現(xiàn),通過團隊優(yōu)化達到A800等效;到2024年,百億模型訓練逐步實現(xiàn)國產替代;千億模型推理、訓練仍以英偉達芯片為主,后續(xù)選擇將基于硬件成本、人員成本和實際性能等多方面考慮。假設2024年在百億參數(shù)模型上,20%的訓練需求和80%的推理需求實現(xiàn)國產化,計算所需國產算力分別為9.92 EFlops、8.33 EFlops,總計需要4.4萬張昇騰910卡和0.55萬臺AI服務器。
5、2024年國產AI服務器市場規(guī)模有望達到409億
2024年國內新增AI總算力需求為211.5 EFlops(FP16),其中國產算力需求為98.24 EFlops(FP16),國產化比例為46.45%。按照單張昇騰910算力為320 TFLOPS計算,相應需要30.7萬張昇騰910和3.84萬臺AI服務器。據(jù)京東數(shù)據(jù),昇騰Atlas 300T A2訓練卡均價在10萬以上,預計2024年昇騰芯片潛在市場規(guī)模約為307億。參考IDC數(shù)據(jù),訓練型服務器中GPU成本占比約為72.8%,假設8張昇騰Atlas 300T A2的訓練服務器中GPU占比75%,推算2024年華為昇騰服務器潛在市場規(guī)模為409.33億。
審核編輯 黃宇
-
算法
+關注
關注
23文章
4588瀏覽量
92508 -
AI
+關注
關注
87文章
29824瀏覽量
268116 -
人工智能
+關注
關注
1791文章
46671瀏覽量
237115 -
算力
+關注
關注
1文章
907瀏覽量
14699 -
大模型
+關注
關注
2文章
2279瀏覽量
2362
發(fā)布評論請先 登錄
相關推薦
評論