解析ChatGPT背后的技術演進
一、OpenAI正式發(fā)布多模態(tài)大模型GPT-4,實現(xiàn)多重能力躍升
(一)多模態(tài)大模型GPT-4是OpenAI公司GPT系列最新一代模型
美國OpenAI公司成立于2015年12月,是全球頂級的人工智能研究機構之一,創(chuàng)始人 包括Elon Musk、著名投資者Sam Altman、支付服務PayPal創(chuàng)始人Peter Thiel等人。 OpenAI作為人工智能領域的革命者,成立至今開發(fā)出多款人工智能產(chǎn)品。2016年, OpenAI推出了用于強化學習研究的工具集OpenAI Gym;同時推出開源平臺OpenAI Universe,用于測試和評估智能代理機器人在各類環(huán)境中的表現(xiàn)。2019年,OpenAI 發(fā)布了GPT-2模型,可根據(jù)輸入文本自動生成語言,展現(xiàn)出人工智能創(chuàng)造性思維的 能力;2020年更新了GPT-3語言模型,并在其基礎上發(fā)布了OpenAI Codex模型,該 模型可以自動生成完整有效的程序代碼。
2021年1月,OpenAI發(fā)布了OpenAI CLIP, 用于進行圖像和文本的識別分類;同時推出全新產(chǎn)品DALL-E,該模型可以根據(jù)文字 描述自動生成對應的圖片,2022年更新的DALL-E2更是全方位改進了生成圖片的質(zhì) 量,獲得了廣泛好評。 2022年12月,OpenAI推出基于GPT-3.5的新型AI聊天機器人ChatGPT,在發(fā)布進 兩個月后擁有1億用戶,成為史上用戶增長最快的應用;美東時間2023年3月14日, ChatGPT的開發(fā)機構OpenAI正式推出多模態(tài)大模型GPT-4。
GPT(General Pre-Training)系列模型即通用預訓練語言模型,是一種利用 Transformer作為特征抽取器,基于深度學習技術的自然語言處理模型。 GPT系列模型由OpenAI公司開發(fā),經(jīng)歷了長達五年時間的發(fā)展: (1)其最早的產(chǎn)品GPT模型于2018年6月發(fā)布,該模型可以根據(jù)給定的文本序列進 行預測下一個單詞或句子,充分證明通過對語言模型進行生成性預訓練可以有效減 輕NLP任務中對于監(jiān)督學習的依賴; (2)2019年2月GPT-2模型發(fā)布,該模型取消了原GPT模型中的微調(diào)階段,變?yōu)闊o 監(jiān)督模型,同時,GPT-2采用更大的訓練集嘗試zero-shot學習,通過采用多任務模 型的方式使其在面對不同任務時都能擁有更強的理解能力和較高的適配性;
(3)GPT-3模型于2020年6月被發(fā)布,它在多項自然語言處理任務上取得了驚人的 表現(xiàn),并被認為是迄今為止最先進的自然語言處理模型之一。GPT-3訓練使用的數(shù) 據(jù)集為多種高質(zhì)量數(shù)據(jù)集的混合,一次保證了訓練質(zhì)量;同時,該模型在下游訓練 時用Few-shot取代了GPT-2模型使用的zero-shot,即在執(zhí)行任務時給予少量樣例, 以此提高準確度;除此之外,它在前兩個模型的基礎上引入了新的技術——“零樣 本學習”,即GPT-3即便沒有對特定的任務進行訓練也可以完成相應的任務,這使 得GPT-3面對陌生語境時具有更好的靈活性和適應性。
(4)2022年11月,OpenAI發(fā)布GPT-3.5模型,是由GPT-3微調(diào)出來的版本,采用 不同的訓練方式,其功能更加強大。基于GPT-3.5模型,并加上人類反饋強化學習 (RLHF)發(fā)布ChatGPT應用,ChatGPT的全稱為Chat Generative Pre-trained Transformer,是建立在大型語言模型基礎上的對話式自然語言處理工具,表現(xiàn)形式 是一種聊天機器人程序,能夠學習及理解人類的語言,根據(jù)聊天的上下文進行互動, 甚至能夠完成翻譯、編程、撰寫論文、編輯郵件等功能。 (5)2023年3月,OpenAI正式發(fā)布大型多模態(tài)模型GPT-4(輸入圖像和文本,輸出 文本輸出),此前主要支持文本,現(xiàn)模型能支持識別和理解圖像。
(二)GPT大模型通過底層技術的疊加,實現(xiàn)組合式的創(chuàng)新
由于OpenAI并沒有提供關于GPT-4用于訓練的數(shù)據(jù)、算力成本、訓練方法、架構等 細節(jié),故我們本章主要討論ChatGPT模型的技術路徑。 ChatGPT模型從算法分來上來講屬于生成式大規(guī)模語言模型,底層技術包括 Transformer架構、有監(jiān)督微調(diào)訓練、RLHF強化學習等,ChatGPT通過底層技術 的疊加,實現(xiàn)了組合式的創(chuàng)新。 GPT模型采用了由Google提出的Transformer架構。Transformer架構采用自注意 力機制的序列到序列模型,是目前在自然語言處理任務中最常用的神經(jīng)網(wǎng)絡架構之 一。相比于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(RNN)或卷積神經(jīng)網(wǎng)絡(CNN),Transformer 沒有顯式的時間或空間結構,因此可以高效地進行并行計算,并且Transformer具有 更好的并行化能力和更強的長序列數(shù)據(jù)處理能力。
ChatGPT模型采用了“預訓練+微調(diào)”的半監(jiān)督學習的方式進行訓練。第一階段是 Pre-Training階段,通過預訓練的語言模型(Pretrained Language Model),從大 規(guī)模的文本中提取訓練數(shù)據(jù),并通過深度神經(jīng)網(wǎng)絡進行處理和學習,進而根據(jù)上下 文預測生成下一個單詞或者短語,從而生成流暢的語言文本;第二階段是Fine-tuning 階段,將已經(jīng)完成預訓練的GPT模型應用到特定任務上,并通過少量的有標注的數(shù) 據(jù)來調(diào)整模型的參數(shù),以提高模型在該任務上的表現(xiàn)。
ChatGPT在訓練中使用了RLHF人類反饋強化學習模型,是GPT-3模型經(jīng)過升級并 增加對話功能后的最新版本。2022年3月,OpenAI發(fā)布InstructGPT,這一版本是 GPT-3模型的升級版本。相較于之前版本的GPT模型,InstructGPT引入了基于人類 反饋的強化學習技術(Reinforcement Learning with Human Feedback,RLHF), 對模型進行微調(diào),通過獎勵機制進一步訓練模型,以適應不同的任務場景和語言風 格,給出更符合人類思維的輸出結果。
RLHF的訓練包括訓練大語言模型、訓練獎勵模型及RLHF微調(diào)三個步驟。首先,需 要使用預訓練目標訓練一個語言模型,同時也可以使用額外文本進行微調(diào)。其次, 基于語言模型訓練出獎勵模型,對模型生成的文本進行質(zhì)量標注,由人工標注者按 偏好將文本從最佳到最差進行排名,借此使得獎勵模型習得人類對于模型生成文本 序列的偏好。最后利用獎勵模型輸出的結果,通過強化學習模型微調(diào)優(yōu)化,最終得 到一個更符合人類偏好語言模型。
(三)GPT-4相較于ChatGPT實現(xiàn)多重能力躍遷
ChatGPT于2022年11月推出之后,僅用兩個月時間月活躍用戶數(shù)便超過1億,在短 時間內(nèi)積累了龐大的用戶基數(shù),也是歷史上增長最快的消費應用。多模態(tài)大模型GPT-4是OpenAI的里程碑之作,是目前最強的文本生成模型。 ChatGPT推出后的三個多月時間里OpenAI就正式推出GPT-4,再次拓寬了大模型的 能力邊界。GPT-4是一個多模態(tài)大模型(接受圖像和文本輸入,生成文本),相比 上一代,GPT-4可以更準確地解決難題,具有更廣泛的常識和解決問題的能力:更 具創(chuàng)造性和協(xié)作性;能夠處理超過25000個單詞的文本,允許長文內(nèi)容創(chuàng)建、擴展 對話以及文檔搜索和分析等用例。
(1)GPT-4具備更高的準確性及更強的專業(yè)性。GPT-4在更復雜、細微的任務處理 上回答更可靠、更有創(chuàng)意,在多類考試測驗中以及與其他LLM的benchmark比較中 GPT-4明顯表現(xiàn)優(yōu)異。GPT-4在模擬律師考試GPT-4取得了前10%的好成績,相比 之下GPT-3.5是后10%;生物學奧賽前1%;美國高考SAT中GPT-4在閱讀寫作中拿 下710分高分、數(shù)學700分(滿分800)。
(2)GPT能夠處理圖像內(nèi)容,能夠識別較為復雜的圖片信息并進行解讀。GPT-4 突破了純文字的模態(tài),增加了圖像模態(tài)的輸入,支持用戶上傳圖像,并且具備強大 的圖像能力—能夠描述內(nèi)容、解釋分析圖表、指出圖片中的不合理指出或解釋梗圖。 在OpenAI發(fā)布的產(chǎn)品視頻中,開發(fā)者給GPT-4輸入了一張“用VGA電腦接口給 iPhone充電”的圖片,GPT-4不僅可以可描述圖片,還指出了圖片的荒謬之處。
(3)GPT-4可以處理超過25000字的文本。在文本處理上,GPT-4支持輸入的文字 上限提升至25000字,允許長文內(nèi)容創(chuàng)建、擴展對話以及文檔搜索和分析等用例。 且GPT-4的多語言處理能力更優(yōu),在GPT-4的測評展示中,GPT-4可以解決法語的 物理問題,且在測試的英語、拉脫維亞語、威爾士語和斯瓦希里語等26種語言中, 有24種語言下,GPT-4優(yōu)于GPT-3.5和其他大語言模型(Chinchilla、PaLM)的英 語語言性能。(4)具備自我訓練與預測能力,同時改善幻覺、安全等局限性。GPT-4的一大更新 重點是建立了一個可預測拓展的深度學習棧,使其具備了自我訓練及預測能力。同 時,GPT-4在相對于以前的模型已經(jīng)顯著減輕了幻覺問題。在OpenAI的內(nèi)部對抗性 真實性評估中,GPT-4的得分比最新的GPT-3.5模型高 40%;在安全能力的升級上, GPT-4明顯超出ChatGPT和GPT3.5。
(四)商業(yè)模式愈發(fā)清晰,微軟Copilot引發(fā)跨時代的生產(chǎn)力變革
OpenAI已正式宣布為第三方開開發(fā)者開放ChatGPT API,價格降低加速場景應用 爆發(fā)。起初ChatGPT免費向用戶開放,以獲得用戶反饋;今年2月1日,Open AI推 出新的ChatGPT Plus訂閱服務,收費方式為每月20美元,訂閱者能夠因此而獲得更 快、更穩(wěn)定的響應并優(yōu)先體驗新功能。3月2日,OpenAI官方宣布正式開放ChatGPT API(應用程序接口),允許第三方開發(fā)者通過API將ChatGPT集成至他們的應用程 序和服務中,價格為1ktokens/$0.002,即每輸出100萬個單詞需要2.7美元,比已有 的GPT-3.5模型價格降低90%。模型價格的降低將推動ChatGPT被集成到更多場景 或應用中,豐富ChatGPT的應用生態(tài),加速多場景應用的爆發(fā)。
GPT-4發(fā)布后OpenAI把ChatGPT直接升級為GPT-4最新版本,同時開放了GPT-4 的API。ChatGPT Plus付費訂閱用戶可以獲得具有使用上限的GPT-4訪問權限(每4 小時100條消息),可以向GPT-4模型發(fā)出純文本請求。用戶可以申請使用GPT-4 的API,OpenAI會邀請部分開發(fā)者體驗,并逐漸擴大邀請范圍。該API的定價為每輸 入1000個字符(約合750個單詞),價格為0.03美元;GPT-4每生成1000個字符價格為 0.06美元。 Office引入GPT-4帶來的結果是生產(chǎn)力、創(chuàng)造力的全面躍升。微軟今天宣布,其與 OpenAI共同開發(fā)的聊天機器人技術Bing Chat正在GPT-4上運行。
Copilot OpenAI發(fā)布升級后的GPT-4后,微軟重磅發(fā)布了GPT-4平臺支持的新AI功能, Microsoft 365 Copilot,并將其嵌入Word、PowerPoint、Excel、Teams等Office辦 公軟件中。Copilot可以在一篇速記的基礎上快速生成新聞草稿、并完成草稿潤色; 在Excel中完成各種求和、求平均數(shù),做表格、歸納數(shù)據(jù)、甚至是完成總結提??;在 PPT上可以直接將文稿內(nèi)容一鍵生成;在Outlook郵件中自動生成內(nèi)容、并自由調(diào)整 寫作風格、插入圖表;在Teams中總結視頻會議的要點/每個發(fā)言人誰說了核心內(nèi)容, 跟進會議流程和內(nèi)容,自動生成會議紀要、要點和任務模板?;贕PT-4的Copilot 可以看作是一個辦公AI助理,充分發(fā)揮出了AI對于辦公場景的賦能作用,有望從根 本上改變工作模式并開啟新一輪生產(chǎn)力增長浪潮。
二、GPT-4帶動多模態(tài)x多場景落地,AIGC藍海市場打開
(一)歷經(jīng)三階段發(fā)展,AIGC技術升級步入深化階段
AIGC全程為AI-Generated Content,人工智能生成內(nèi)容,是繼專業(yè)生成內(nèi)容(PGC, Professional Generate Content)和用戶生成內(nèi)容(UGC,User Generate Content) 之后,利用AI自動生成內(nèi)容的新型生產(chǎn)方式。傳統(tǒng)AI大多屬于分析式AI,對已有數(shù) 據(jù)進行分析并應用于相應領域。以AIGC為典型的生成式AI不在局限于分析固有數(shù)據(jù), 而是基于訓練數(shù)據(jù)和算法模型自主生成創(chuàng)造新的文本、3D、視頻等各種形式的內(nèi)容。
歷經(jīng)三階段迭代,AIGC現(xiàn)已進入快速發(fā)展階段: (1)早期萌芽階段(1950s-1990s),受限于科技水平及高昂的系統(tǒng)成本,AIGC 僅限于小范圍實驗。 (2)沉淀積累階段(1990s-2010s),AIGC開始從實驗性向實用性逐漸轉變。但 由于其受限于算法瓶頸,完成創(chuàng)作能力有限,應用領域仍具有局限性; (3)快速發(fā)展階段(2010s-至今),GAN(Generative Adversarial Network,生成 式對抗網(wǎng)絡)等深度學習算法的提出和不斷迭代推動了AIGC技術的快速發(fā)展,生成 內(nèi)容更加多元化。
AIGC可分為智能數(shù)字內(nèi)容孿生、智能數(shù)字內(nèi)容編輯及智能數(shù)字內(nèi)容創(chuàng)作三大層次。 生成式AI是指利用現(xiàn)有文本、音頻文件或圖像創(chuàng)建新內(nèi)容的人工智能技術,其起源 于分析式AI,在分析式AI總結歸納數(shù)據(jù)知識的基礎上學習數(shù)據(jù)產(chǎn)生模式,創(chuàng)造出新 的樣本內(nèi)容。在分析式AI的技術基礎上,GAN、Transformer網(wǎng)絡等多款生成式AI 技術催生出許多AIGC產(chǎn)品,如DALL-E、OpenAI系列等,它們在音頻、文本、視覺 上有眾多技術應用,并在創(chuàng)作內(nèi)容的方式上變革演化出三大前沿能力。AIGC根據(jù)面 向對象、實現(xiàn)功能的不同可以分為智能數(shù)字內(nèi)容孿生、智能數(shù)字內(nèi)容編輯及智能數(shù) 字內(nèi)容創(chuàng)作三大層次。
(二)生成算法+預訓練模型+多模態(tài)推動AIGC的爆發(fā)
AIGC的爆發(fā)離不開其背后的深度學習模型的技術加持,生成算法、預訓練和多模態(tài) 技術的不斷發(fā)展幫助了AIGC模型具備通用性強、參數(shù)海量、多模態(tài)和生成內(nèi)容高質(zhì) 量的特質(zhì),讓AIGC實現(xiàn)從技術提升到技術突破的轉變。 (1)生成算法模型不斷迭代創(chuàng)新,為AIGC的發(fā)展奠定基礎。早期人工智能算法學 習能力不強,AIGC技術主要依賴于事先指定的統(tǒng)計模型或任務來完成簡單的內(nèi)容生 成和輸出,對客觀世界和人類語言文字的感知能力較弱,生成內(nèi)容刻板且具有局限 性。GAN(Generative Adversarial Network,生成式對抗網(wǎng)絡)的提出讓AIGC發(fā)展 進入新階段,GAN是早期的生成模型,利用博弈框架產(chǎn)生輸出,被廣泛應用于生成 圖像、視頻語音等領域。隨后Transformer、擴散模型、深度學習算法模型相繼涌現(xiàn)。
Transformer被廣泛應用于NLP、CV等領域,GPT-3、LaMDA等預訓練模型大多是 基于transformer架構構建的。ChatGPT是基于Transformer架構上的語言模型, Transformer負責調(diào)度架構和運算邏輯,進而實現(xiàn)最終計算。Tansformer是谷歌于 2017年《Attention is All You Need》提出的一種深度學習模型架構,其完全基于注 意力機制,可以按照輸入數(shù)據(jù)各部分重要性來分配不同的權重,無需重復和卷積。 相較于循環(huán)神經(jīng)網(wǎng)絡(RNN)流水線式的序列計算,Transformer可以一次處理所有 的輸入,擺脫了人工標注數(shù)據(jù)集的缺陷,實現(xiàn)了大規(guī)模的并行計算,模型所需的訓 練時間明顯減少,大規(guī)模的AI模型質(zhì)量更優(yōu)。
Transformer的核心構成是編碼模塊和解碼模塊。GPT使用的是解碼模塊,通過模 塊間彼此大量堆疊的方式形成了GPT模型的底層架構,模塊分為前饋神經(jīng)網(wǎng)絡層、 編解碼自注意力機制層(Self-Attention)、自注意力機制掩碼層。自注意力機制層 負責計算數(shù)據(jù)在全部內(nèi)容的權重(即Attention),掩碼層幫助模型屏蔽計算位置右 側未出現(xiàn)的數(shù)據(jù),最后把輸出的向量結果輸入前饋神經(jīng)網(wǎng)絡,完成模型參數(shù)計算。
(2)預訓練模型引發(fā)AIGC技術能力的質(zhì)變。AI預訓練模型是基于大規(guī)模寬泛的數(shù) 據(jù)進行訓練后擁有適應廣泛下游任務能力的模型,預訓練屬于遷移學習的領域,其 主旨是使用標注數(shù)據(jù)前,充分利用大量無標注數(shù)據(jù)進行訓練,模型從中全面學習到 與標注無關的潛在知識,進而使模型靈活變通的完成下游任務。視覺大模型提升 AIGC感知能力,語言大模型增強AIGC認知能力。
NLP模型是一種使用自然語言處理(Natural Language Processing,NLP)技術來解決自然語言相關問題的機器學習模型。在NLP領域,AI大模型可適用于人機語言交互,并進行自然語言處理從實現(xiàn)相應的文本分類、文本生成、語音識別、序列標注、機器翻譯等功能。NLP的研究經(jīng)過了以規(guī)則為基礎的研究方法和以統(tǒng)計為基礎的研究方法的發(fā)展,目前以基于Transformer的預訓練模型已成為當前NLP領域的研究熱點,BERT、GPT等模型均采用這一方法。CV模型指計算機視覺模型,是一種基于圖像或視頻數(shù)據(jù)的人工智能模型。常見的CV 模型有采用深度學習的卷積神經(jīng)網(wǎng)絡(CNN)和生成對抗網(wǎng)絡(GAN)。
近年來以 視覺Transformer(ViT)為典型的新型神經(jīng)網(wǎng)絡,通過人類先驗知識引入網(wǎng)絡設計, 使得模型的收斂速度、泛化能力、擴展性及并行性得到飛速提升,通過無監(jiān)督預訓 練和微調(diào)學習,在多個計算機視覺任務,如圖像分類、目標檢測、物體識別、圖像 生成等取得顯著的進步。
(3)多模態(tài)技術拓寬了AIGC技術的應用廣度。多模態(tài)技術將不同模態(tài)(圖像、聲 音、語言等)融合在預訓練模型中,使得預訓練模型從單一的NLP、CV發(fā)展成音視 頻、語言文字、文本圖像等多模態(tài)、跨模態(tài)模型。多模態(tài)大模型通過尋找模態(tài)數(shù)據(jù) 之間的關聯(lián)點,將不同模態(tài)的原始數(shù)據(jù)投射在相似的空間中,讓模態(tài)之間的信號相 互理解,進而實現(xiàn)模態(tài)數(shù)據(jù)之間的轉化和生成。這一技術對AIGC的原創(chuàng)生成能力的 發(fā)展起到了重要的支持作用,2021年OpenAI推出AI繪畫產(chǎn)品DALL.E可通過輸入文 字理解生成符合語義且獨一無二的繪畫作品,其背后離不開多模態(tài)技術的支持。
(三)多模態(tài)x多場景落地,AIGC爆發(fā)商業(yè)潛力
ChatGPT的廣泛應用意味著AIGC規(guī)?;?、商業(yè)化的開始。ChatGPT是文字語言模 態(tài)AIGC的具體應用,在技術、應用領域和商業(yè)化方面和傳統(tǒng)AI產(chǎn)品均有所不同。 ChatGPT已經(jīng)具備了一定的對現(xiàn)實世界內(nèi)容進行語義理解和屬性操控的能力,并可 以對其回以相應的反饋。ChatGPT是AIGC重要的產(chǎn)品化應用,意味著AIGC規(guī)模化、 商業(yè)化的開始。創(chuàng)新工場董事長兼CEO李開復博士在3月14日表示,ChatGPT快速 普及將進一步引爆AI 2.0商業(yè)化。AI 2.0 是絕對不能錯過的一次革命。
多家公司正加緊研發(fā)ChatGPT類似產(chǎn)品,引爆新一輪科技企業(yè)AI軍備競賽。在GPT4 推出之后,Google開放自家的大語言模型API「PaLM API」,此外還發(fā)布了一款幫 助開發(fā)者快速構建AI程序的工具 MakerSuite。2月底,META公布一款全新的AI大型 語言模型LLaMA,宣稱可幫助研究人員降低生成式AI工具可能帶來的“偏見、有毒 評論、產(chǎn)生錯誤信息的可能性”等問題。 AIGC的應用領域分為視頻、音頻、文本、圖像、跨模態(tài)生成五個部分。
AIGC以其 真實性、多樣性、可控性、組合性的特質(zhì),為各行業(yè)、各領域提供了更加豐富多元、 動態(tài)且可交互的內(nèi)容。根據(jù)AIGC生成內(nèi)容的模態(tài)不同,可將AIGC的應用領域分為 視頻、音頻、文本、圖像、跨模態(tài)生成五個部分。其中,在圖像、文本、音頻等領 域,AIGC已經(jīng)得到了較大優(yōu)化,生成內(nèi)容質(zhì)量得到明顯提升;而在視頻與跨模態(tài)內(nèi) 容生成方面,AIGC擁有巨大發(fā)展?jié)摿Α?/p>
三、高算力需求帶動基礎設施迭代加速
(一)AI大模型驅動高算力需求
數(shù)據(jù)、算力及模型是人工智能發(fā)展的三要素。以GPT系列為例: (1)數(shù)據(jù)端:自OpenAI于2018年發(fā)布GPT-1,到2020年的GPT-3,GPT模型參數(shù) 數(shù)量和訓練數(shù)據(jù)量實現(xiàn)指數(shù)型增長。參數(shù)數(shù)量從GPT-1的1.17億增長到GPT-3的 1750億,訓練數(shù)據(jù)量從5GB增長到的45TB; (2)模型端:ChatGPT在以往模型的基礎上,在語料庫、計算能力、預訓練、自我 學習能力等方面有了明顯提升,同時Transformer架構突破了人工標注數(shù)據(jù)集的不足, 實現(xiàn)與人類更順暢的交流; (3)算力端:根據(jù)OpenAl發(fā)布的《Language Models are Few-Shot Learners》, 訓練13億參數(shù)的GPT-3 XL模型訓練一次消耗的算力約為27.5 PFlop/s-dav,訓練 1750億參數(shù)的完整GPT-3模型則會消耗算力3640 PFlop/s-dav(以一萬億次每秒速 度計算,需要3640天完成)。
在人工智能發(fā)展的三要素中,數(shù)據(jù)與算法都離不開算力的支撐。隨著AI算法突飛猛 進的發(fā)展,越來越多的模型訓練需要巨量算力支撐才能快速有效實施,同時數(shù)據(jù)量 的不斷增加也要求算力配套進化。如此看來,算力成為AI突破的關鍵因素。 AI大模型的算力需求主要來自于預訓練、日常運營和模型微調(diào)。 (1)預訓練:在完成完整訓練之前,搭建一個網(wǎng)絡模型完成特定任務,在訓練網(wǎng)絡 過程中不斷調(diào)整參數(shù),直至網(wǎng)絡損失和運行性能達到預期目標,此時可以將訓練模 型的參數(shù)保存,用于之后執(zhí)行類似任務。根據(jù)中國信通院數(shù)據(jù),ChatGPT基于GPT3.5 系列模型,模型參數(shù)規(guī)模據(jù)推測達十億級別,參照參數(shù)規(guī)模相近的GPT-3 XL模型, 則ChatGPT完整一次預訓練消耗算力約為27.5 PFlop/s-dav。
(2)日常運營:滿足用戶日常使用數(shù)據(jù)處理需求。根據(jù)Similarweb的數(shù)據(jù),23年1月份ChatGPT月活約6.16億,跳出率13.28%每次訪問頁數(shù)5.85頁,假設每頁平均200 token。同時假設:模型的FLlops利用率為21.3%與訓練期間的GPT-3保持一致;完整參數(shù)模型較GPT-3上升至2500億;以FLOPs為指標,SOTA大型語言在在推理過程中每個token的計算成本約為2N。根據(jù)以上數(shù)據(jù)及假設,每月日常運營消耗算力約為6.16億*2*(1-13.28%)*5.85*200*2500億/21.3%=14672PFlop/s-day。(3)模型微調(diào):執(zhí)行類似任務時,使用先前保存的模型參數(shù)作為初始化參數(shù),在訓練過程中依據(jù)結果不斷進行微調(diào),使之適應新的任務。
ChatGPT引發(fā)新一輪AI算力需求爆發(fā)。根據(jù)OpenAI發(fā)布的《AI and Compute》分 析報告中指出,自2012年以來,AI訓練應用的算力需求每3.4個月就回會翻倍,從 2012年至今,AI算力增長超過了30萬倍。據(jù)OpenAI報告,ChatGPT的總算力消耗 約為3640PF-days(即假如每秒計算一千萬億次,需要計算3640天),需要7-8個算 力500P的數(shù)據(jù)中心才能支撐運行。上海新興信息通信技術應用研究院首席專家賀仁 龍表示,“自2016年阿爾法狗問世,智能算力需求開啟爆發(fā)態(tài)勢。如今ChatGPT則 代表新一輪AI算力需求的爆發(fā)”。
全球算力規(guī)模將呈現(xiàn)高速增長態(tài)勢。根據(jù)國家數(shù)據(jù)資源調(diào)查報告數(shù)據(jù),2021年全球 數(shù)據(jù)總產(chǎn)量67ZB,近三年平均增速超過26%,經(jīng)中國信息通信研究院測算,2021 年全球計算設備算力總規(guī)模達到615EFlops,增速達44%。根據(jù)中國信通院援引的 IDC數(shù)據(jù),2025年全球算力整體規(guī)模將達3300EFlops,2020-2025年的年均復合增 長率達到50.4%。結合華為GIV預測,2030年人類將迎來YB數(shù)據(jù)時代,全球算力規(guī) 模達到56ZFlops,2025-2030年復合增速達到76.2%。
(二)云商/運營商推進AI領域算力基礎設施投入
北美云廠商資本支出向技術基礎設施和新數(shù)據(jù)中心架構傾斜。22Q4亞馬遜資本支出 主要用于技術基礎設施的投資,其中大部分用于支持AWS業(yè)務增長與支持履行網(wǎng)絡 的額外能力。預計未來相關投資將延續(xù),并增加在技術基礎設施方面的支出。谷歌 指引2023年資本開支與2022年基本持平,其中技術基礎設施有所增加,而辦公基礎 設施將減少。Meta2022年資本開支為314.3億美元,同比增長69.3%,但同時Meta 略微調(diào)低其2023年資本開支預期至300-330億美元(此前預期為340-370億美元), 主要原因系減少數(shù)據(jù)中心建設的相關支出,轉向新的更具成本效益的、同時支持AI 和非AI工作量的數(shù)據(jù)中心新架構。
國內(nèi)三大運營商積極布局算力網(wǎng)絡,資本支出向新興業(yè)務傾斜。電信運營商作為數(shù) 字基座打造者,運營商數(shù)字業(yè)務板塊成為收入增長的主要引擎,近幾年資本支出由 主干網(wǎng)絡向新興業(yè)務傾斜。中國移動計劃2022年全年算力網(wǎng)絡投資480億元,占其 總資本開支的39.0%。2022Q3,中國移動算力規(guī)模達到7.3EFLOPS,并計劃在2025 年底達到20EFLOPS以上。中國電信產(chǎn)業(yè)數(shù)字化資本開支占比同比上升9.3pc,算力 總規(guī)模計劃由2022年中的3.1EFLOPS提升至2025年底的16.3EFLOPS。中國聯(lián)通 2022年預計算力網(wǎng)絡資本開支達到145億,同比提升43%,云投資預計提升88%。
作為算力基礎設施建設的主力軍,三大運營商目前已經(jīng)進行前瞻性的基礎設施布局。 通信運營商自身擁有優(yōu)質(zhì)網(wǎng)絡、算力、云服務能力的通信運營商,同時具備天然的 產(chǎn)業(yè)鏈優(yōu)勢,依靠5G+AI技術優(yōu)勢,為下游客戶提供AI服務能力,是新型信息服務 體系中重要的一環(huán),助力千行百業(yè)數(shù)字化轉型。在移動網(wǎng)絡方面,中國運營商已建 設覆蓋全國的高性能高可靠4/5G網(wǎng)絡;在固定寬帶方面,光纖接入(FTTH/O)端 口達到10.25億個,占比提升至95.7%;在算力網(wǎng)絡方面,運營商在資本開支結構上 向算力網(wǎng)絡傾斜,提升服務全國算力網(wǎng)絡能力。在AI服務能力方面,加快AI領域商 業(yè)化應用推出,發(fā)揮自身產(chǎn)業(yè)鏈優(yōu)勢,助力千行百業(yè)數(shù)字化轉型。
(三)算力需求帶動數(shù)據(jù)中心架構及技術加速升級
1、數(shù)據(jù)中心呈現(xiàn)超大規(guī)模發(fā)展趨勢。超大規(guī)模數(shù)據(jù)中心,即Hyperscale Data Center,與傳統(tǒng)數(shù)據(jù)中心的核心區(qū)別在于 超大規(guī)模數(shù)據(jù)中心具備更強大的可擴展性及計算能力。1)規(guī)模上,超級數(shù)據(jù)中心可 容納的規(guī)模要比傳統(tǒng)數(shù)據(jù)中心大得多,可以容納數(shù)百萬臺服務器和更多的虛擬機;2) 性能上,超級數(shù)據(jù)中心具有更高的可擴展性和計算能力,能夠滿足數(shù)據(jù)處理數(shù)量和 速率大幅提升的需求。
具體來講,相較于傳統(tǒng)數(shù)據(jù)中心,超大規(guī)模數(shù)據(jù)中心的優(yōu)勢在于: (1)可擴展性:超大規(guī)模數(shù)據(jù)中心的網(wǎng)絡基礎架構響應更迅速、擴展更高效且更具 成本效益,并且提供快速擴展存儲和計算資源以滿足需求的能力,超大規(guī)模數(shù)據(jù)中 心通過在負載均衡器后水平擴展,快速旋轉或重新分配額外資源并將其添加到現(xiàn)有 集群,可以實現(xiàn)快速向集群添加額外資源,從而在不中斷操作的情況下進行擴展; (2)定制化:超大規(guī)模數(shù)據(jù)中心采用更新的服務器設計,具有更寬的機架,可以容 納更多組件并且允許定制化設計服務器,使得服務器能夠同時接入多個電源和硬盤 驅動器;
(3)自動化服務:超大規(guī)模數(shù)據(jù)中心提供自動化服務,幫助客戶管理高流量網(wǎng)站和 需要專門處理的高級工作負載,例如密碼學、基因處理和三維渲染; (4)冷卻效率更高:超大規(guī)模數(shù)據(jù)中心對其電源架構進行了優(yōu)化,并將冷卻能力集 中在托管高強度工作負載的服務器,大大降低了成本和對環(huán)境的影響,電源使用效 率和冷卻效率遠高于傳統(tǒng)數(shù)據(jù)中心;
(5)工作負載更平衡:超大規(guī)模數(shù)據(jù)中心有效地將工作負載分布在多臺服務器上, 從而避免單臺服務器過熱。避免了過熱的服務器損壞附近的服務器,從而產(chǎn)生不必 要的連鎖反應。 Statista數(shù)據(jù)顯示,全球超大規(guī)模數(shù)據(jù)中心的數(shù)量從2015年的259個,提升到2021年 的700個。根據(jù)PrecedenceResearch的報告顯示,全球超大規(guī)模數(shù)據(jù)中心市場規(guī)模 在2021年為620億美元,到2030年將達到5930億美元,預計在2022-2030年間以 28.52%的復合增長率(CAGR)增長。
海內(nèi)外云商均具備自己的超大規(guī)模數(shù)據(jù)中心。Structure Research在其報告中估計, 到2022年全球超大規(guī)模自建數(shù)據(jù)中心總容量將達到13177兆瓦(MW)。全球四大 超大規(guī)模數(shù)據(jù)中心平臺——AWS、谷歌云、Meta和微軟Azure——約占該容量的78%。 全球占主導地位的超大規(guī)模數(shù)據(jù)中心企業(yè)仍然是亞馬遜、谷歌、Meta和微軟,在中 國,本土企業(yè)阿里巴巴、華為、百度、騰訊和金山云都是領先的超大規(guī)模數(shù)據(jù)中心 企業(yè)。
2、IB網(wǎng)絡技術將更廣泛應用于AI訓練超算領域。超級數(shù)據(jù)中心是具有更大規(guī)模和更高計算能力的數(shù)據(jù)中心。隨著對數(shù)據(jù)處理數(shù)量和 速率需求的提升,數(shù)據(jù)中心的可擴展性需求也在迅速提升。超級數(shù)據(jù)中心在規(guī)模和 性能上較傳統(tǒng)數(shù)據(jù)中心都有了大幅升級,能夠滿足超高速度擴展以滿足超級需求的 能力。
泛AI應用是超算中心的重要下游。自20世紀80年代以來,超級計算主要服務于科研 領域。傳統(tǒng)超算基本上都是以國家科研機構為主體的超算中心,如氣象預測、地震 預測、航空航天、石油勘探等。截止2022年底,國內(nèi)已建成10家國家超級計算中心, 不少省份都建立起省級超算中心,服務于當?shù)氐闹锌圃?、氣象局以及地震爆炸模型?一方面,行業(yè)頭部企業(yè)將超算應用于芯片設計、生物醫(yī)療、材料測試等工業(yè)應用場 景;另一方面,自動駕駛訓練、大語言模型訓練、類ChatGPT等AI訓練的需求,也 推動超算應用場景延伸至圖像識別、視頻識別定位、智能駕駛場景模擬以及對話和 客服系統(tǒng)等,成為超算中心的重要下游。
超級數(shù)據(jù)中心成為算力儲備的重要方向,中美加速算力基建布局。憑借其在算力能 力及能耗效率的巨大提升,超級數(shù)據(jù)中心在算力儲備中的地位日漸凸顯。根據(jù) Synergy Research Group數(shù)據(jù),全球超級數(shù)據(jù)中心數(shù)量從2017年的390個增長至 2021年二季度的659個,增長近一倍,預計2024年總數(shù)將超1000個。份額方面,中 美持續(xù)加強超級數(shù)據(jù)中心的布局,占全球市場份額持續(xù)提升。
InfiniBand網(wǎng)絡滿足大帶寬和低時延的需求,成為超算中心的主流。InfiniBand(簡 稱IB)是一個用于高性能計算的計算機網(wǎng)絡通信標準,主要應用于大型或超大型數(shù) 據(jù)中心。IB網(wǎng)絡的主要目標是實現(xiàn)高的可靠性、可用性、可擴展性及高性能,且能 在單個或多個互聯(lián)網(wǎng)絡中支持冗余的I/O通道,因此能夠保持數(shù)據(jù)中心在局部故障時 仍能運轉。相比傳統(tǒng)的以太網(wǎng)絡,帶寬及時延都有非常明顯的優(yōu)勢。(一般InfiniBand 的網(wǎng)卡收發(fā)時延在600ns,而以太網(wǎng)上的收發(fā)時延在10us左右,英偉達推出的 MetroX-3提升長距離InfiniBand系統(tǒng)帶寬至400G)。作為未來算力的基本單元,高 性能的數(shù)據(jù)中心越來越多的采用InfiniBand網(wǎng)絡方案,尤其在超算中心應用最為廣 泛,成為AI訓練網(wǎng)絡的主流。
(四)細分受益環(huán)節(jié)
GPT-4多模態(tài)大模型將引領新一輪AI算力需求的爆發(fā),超大規(guī)模數(shù)據(jù)中心及超算數(shù) 據(jù)中心作為泛AI領域的重要基礎設施支持,其數(shù)量、規(guī)模都將相應增長,帶動整個 算力基礎設施產(chǎn)業(yè)鏈(如高端服務器/交換機、CPO技術、硅光、液冷技術)的滲透 加速。同時在應用側,Copilot的推出加速AI在辦公領域的賦能,看好辦公場景硬件 配套廠商機會。
1、服務器/交換機: AIGC帶動算力爆發(fā)式增長,全球進入以數(shù)據(jù)為關鍵生產(chǎn)要素的數(shù)字經(jīng)濟時代。從國 內(nèi)三大運營商資本支出結構上看,加碼算力基礎設施投資成重要趨勢。重點推薦: 中興通訊。公司作為運營商板塊算力投資的核心受益標的,持續(xù)在服務器及存儲、 交換機/路由器、數(shù)據(jù)中心等算力基礎設施領域加強布局,將作為數(shù)字經(jīng)濟筑路者充 分受益我國數(shù)字經(jīng)濟建設。
算力需求帶動上游硬件設備市場規(guī)模持續(xù)增長,高規(guī)格產(chǎn)品占比提升。伴隨著數(shù)據(jù) 流量持續(xù)提升,交換機作為數(shù)據(jù)中心必要設備,預計全球數(shù)據(jù)中心交換機保持穩(wěn)定 增長。2021年全球數(shù)據(jù)中心交換機市場規(guī)模為138億美元,預計到2031年將達246 億美元,2022年至2031年復合年增長率為5.9%。多元開放的AI服務器架構為可以人 工智能發(fā)展提供更高的性能和可擴展性的AI算力支撐,隨著AI應用的發(fā)展,高性能 服務器數(shù)量有望隨之增長,帶動出貨量及服務器單價相應提升。根據(jù)IDC報告, 2022Q3,200/400GbE交換機市場收入環(huán)比增長25.2%,100GbE交換機收入同比增 長19.8%,高速部分呈現(xiàn)快速增長。
2、光模塊/光芯片: 算力需求提升推動算力基礎設施升級迭代,傳統(tǒng)可插拔光模塊技術弊端和瓶頸開始 顯現(xiàn)。(1)功耗過高,AI技術的加速落地,使得數(shù)據(jù)中心面臨更大的算力和網(wǎng)絡流 量壓力,交換機、光模塊等網(wǎng)絡設備升級的同時,功耗增長過快。以博通交換機芯 片為例,2010年到2022年交換機芯片速率從640G提升到51.2T,光模塊速率從10G 迭代到800G。速率提升的同時,交換機芯片功耗提升了約8倍,光模塊功耗提升了 26倍,SerDes功耗提升了25倍。(2)交換機端口密度難以繼續(xù)提升,光模塊速率 提升的同時,自身體積也在增大,而交換機光模塊端口數(shù)量有限。(3)PCB材料遭 遇瓶頸,PCB用于傳輸高速電信號,傳統(tǒng)可插拔光模塊信號傳輸距離長、傳輸損失 大,更低耗損的可量產(chǎn)PCB材料面臨技術難題難以攻克。
NPO/CPO技術有望成為高算力背景下的解決方案。CPO(光電共封裝技術)是一 種新型的高密度光組件技術,將交換芯片和光引擎共同裝配在同一個Socketed(插 槽)上,形成芯片和模組的共封裝。CPO可以取代傳統(tǒng)的插拔式光模塊技術,將硅 光電組件與電子晶片封裝相結合,從而使引擎盡量靠近ASIC,降低SerDes的驅動功 耗成本,減少高速電通道損耗和阻抗不連續(xù)性,實現(xiàn)更高密度的高速端口,提升帶 寬密度,大幅減少功耗。
CPO技術的特點主要有:(1)CPO技術縮短了交換芯片和光引擎之間的距離(控制在5~7cm),使得高速電信號在兩者之間實現(xiàn)高質(zhì)量傳 輸,滿足系統(tǒng)的誤碼率(BER)要求;(2)CPO用光纖配線架取代更大體積的可 插拔模塊,系統(tǒng)集成度得到提升,實現(xiàn)更高密度的高速端口,提升整機的帶寬密度; (3)降低功耗,根據(jù)銳捷網(wǎng)絡招股說明書,采用CPO技術的設備整機相比于采用可 插拔光模塊技術的設備,整機功耗降低23%。
高算力背景下,數(shù)據(jù)中心網(wǎng)絡架構升級帶動光模塊用量擴張及向更高速率的迭代。 硅光、相干及光電共封裝技術(CPO)等具備高成本效益、高能效、低能耗的特點, 被認為是高算力背景下的解決方案。CPO將硅光電組件與電子晶片封裝相結合,使 引擎盡量靠近ASIC,減少高速電通道損耗,實現(xiàn)遠距離傳送。目前,頭部網(wǎng)絡設備 和芯片廠商已開始布局硅光、CPO相關技術與產(chǎn)品。
3、數(shù)據(jù)中心: IDC數(shù)據(jù)中心:“東數(shù)西算”工程正式全面啟動一周年,從系統(tǒng)布局進入全面建設階 段。隨著全國一體化算力網(wǎng)絡國家樞紐節(jié)點的部署和“東數(shù)西算”工程的推進,算 力集聚效應初步顯現(xiàn),算力向規(guī)模化集約化方向加速升級,同時數(shù)據(jù)中心集中東部 的局得到改善,西部地區(qū)對東部地區(qū)數(shù)據(jù)計算需求的支撐作用越發(fā)明顯。我們認為 政策面推動供給側不斷出清,AI等應用將帶動新一輪流量需求,有望打破數(shù)據(jù)中心 近兩年供給過剩的局面,帶動數(shù)據(jù)中心長期發(fā)展。
液冷溫控:隨云計算、AI、超算等應用發(fā)展,數(shù)據(jù)中心機柜平均功率密度數(shù)預計將 逐年提升,高密度服務器也將被更廣泛的應用于數(shù)據(jù)中心中。數(shù)據(jù)中心液冷技術能 夠穩(wěn)定CPU溫度、保障CPU在一定范圍內(nèi)進行超頻工作不會出現(xiàn)過熱故障,有效提 升了服務器的使用效率和穩(wěn)定性,有助于提高數(shù)據(jù)中心單位空間的服務器密度,大幅 提升數(shù)據(jù)中心運算效率,液冷技術有望在超高算力密度場景下持續(xù)滲透。
4、運營商: 通信運營商自身擁有優(yōu)質(zhì)網(wǎng)絡、算力、云服務能力的通信運營商,同時具備天然的 產(chǎn)業(yè)鏈優(yōu)勢,依靠5G+AI技術優(yōu)勢,為下游客戶提供AI服務能力,是新型信息服務 體系中重要的一環(huán),助力千行百業(yè)數(shù)字化轉型。作為算力基礎設施建設的主力軍已 經(jīng)進行前瞻性的基礎設施布局。中國移動打造九天人工智能平臺,推進AI商業(yè)化, 賦能中國移動內(nèi)外部數(shù)智化轉型;中國電信全面布局大模型技術,積極探索產(chǎn)業(yè)版 “ChatGPT”的商業(yè)化應用;中國聯(lián)通全力升級算力網(wǎng)絡,推動5G和AI技術的融合。
5、企業(yè)通信: 3月16日晚微軟正式宣布推出Microsoft 365 Copilot,將大型語言模型(LLMs)的能 力嵌入到Office辦公套件產(chǎn)品中。基于GPT-4的Copilot以其視頻+圖文的多模態(tài)分析 以及更強大生成與理解能力,可更深度、全面發(fā)揮視頻會議AI助理功能,比如可以確定目標捕捉發(fā)言總結某人談話要點、全面理解會議主要內(nèi)容并自動整理及發(fā)送會 議紀要等。隨著Copilot更強大功能對微軟辦公套件的加持,有望帶動Teams需求的 增長,中國企業(yè)通信終端廠商將作為微軟重要的硬件合作伙伴有望深度受益。
GPT將如何影響我們的工作?
(報告出品方/作者:東北證券,黃凈、吳雨萌)
1. 總結:GPT 對工作的沖擊將跨越各個職業(yè)
3 月 17 日,OpenAI 官網(wǎng)發(fā)布最新研究論文 GPTs are GPTs: An early look at the labor market impact potential of large language models,對 LLM 語言模型,特別是 GPT, 對美國不同職業(yè)和行業(yè)的潛在影響進行了探討。我們將論文中的結論進行了匯總:
1、 多數(shù)職業(yè)將受到 GPT 的沖擊:80%的工人有至少 10%的任務可以被 GPT 減少 ≥50%的工作時間;19%的工人有至少 50%的任務可以被 GPT 減少≥50%的工 作時間;
2、 GPT 的影響橫跨各類薪資層級:盡管存在部分特殊情況,但整體來看,工資越 高,受 GPT 沖擊的程度越大;
3、 職業(yè)技能與 GPT 的沖擊程度有關:科學和批判性思維技能最不容易受 GPT 沖 擊,而編程和寫作技能受影響的程度最高;
4、 高學歷更容易受到 GPT 的沖擊:持有學士、碩士和更高學位的人比沒有正規(guī)教 育學歷的人更容易受到 GPT 的沖擊;
5、 在職培訓時間時長與 GPT 沖擊程度有關:在職培訓時長最長的職業(yè)收入水平偏 低,且受 GPT 沖擊程度最低,而沒有在職培訓或只需實習的工作則表現(xiàn)出更高 的收入水平和更容易受 GPT 沖擊的屬性。
6、 證券相關和數(shù)據(jù)處理行業(yè)受 GPT 影響程度最高:在人類打分和 GPT 打分模式 下,證券商品合約及其他金融投資和數(shù)據(jù)處理托管分別是受 GPT 沖擊程度最高 的行業(yè);在直接調(diào)用 GPT 模型的情況下,口譯筆譯和數(shù)學家分別是受影響最大 的職業(yè);在進一步開發(fā) GPT 衍生功能的情況下,數(shù)學家和會計審計則分別為受 影響最大的職業(yè)。
2. 統(tǒng)計指標來源及解釋
2.1. 數(shù)據(jù)來源
2.1.1. 美國職業(yè)、工作活動和任務數(shù)據(jù)的來源
論文中使用了 O*NET 27.2 數(shù)據(jù)庫,包含 1016 種職業(yè),以及各個職業(yè)的工作活動 (Detailed Work Activities,簡稱 DWA)和任務(Task)。論文中對工作活動和任務 給出了定義: 詳細工作活動 DWA 是由完成任務構成的綜合操作,大多數(shù)工作活動與一個或 多個任務相對應,該數(shù)據(jù)集中包括 2087 種 DWA; 任務 Task 是某個特定職業(yè)的基礎單位,一項任務可以與 0 個、1 個或多個 DWA 關聯(lián),且每個任務都有與之對應的職業(yè),該數(shù)據(jù)集中包括 19265 種任務。 例如,對于職業(yè)“急癥護理護士”,其工作活動 DWA 包括“操作診斷或治療性醫(yī)療儀 器或設備”和“準備醫(yī)療用品或設備”,其任務包括“設置、操作或監(jiān)測侵入性設備和 裝置,例如結腸造口術或氣管切開術設備、機械呼吸機、導管、胃腸道管和中心插 管”。
2.1.2. 工資、就業(yè)及人口數(shù)據(jù)來源
論文選取了美國勞工統(tǒng)計局(Bureau of Labor Statistics,以下簡稱 BLS)提供的 2020 年和 2021 年職業(yè)就業(yè)系列中的就業(yè)和工資數(shù)據(jù)。該數(shù)據(jù)集包括職業(yè)名稱、每個職 業(yè)的工人數(shù)量、2031 年職業(yè)水平的就業(yè)預測、職業(yè)準入的教育水平以及獲得職業(yè)能 力所需的在職培訓情況。BLS 數(shù)據(jù)庫可以同 O*NET 數(shù)據(jù)庫進行聯(lián)動:通過當前人 口調(diào)查(Current Population Survey,簡稱 CPS),將 O*NET 中的任務和工作活動數(shù) 據(jù)集與 BLS 勞動力人口統(tǒng)計數(shù)據(jù)聯(lián)系起來,形成截面數(shù)據(jù)。
2.2. 暴露度 Exposure:用于衡量 GPT 對各職業(yè)的沖擊程度
論文中設定了暴露度 Exposure 這一指標,作為重點討論的對象。暴露度 Exposure 用于衡量 GPT 對特定工作活動和任務的沖擊程度,即保證一項工作活動和任務完成 質(zhì)量相同的情況下,使用 GPT 或 GPT 驅動的系統(tǒng)是否能夠將執(zhí)行工作活動或任務 的所需時間減少 50%以上。 論文采用了兩種暴露度的注釋方式,分別為人工評分法與 GPT-4 評級法: 人工評分:通過對 O*NET 數(shù)據(jù)庫中的每一個工作活動 DWA 和任務進行人為 歸類并注釋打分。 GPT-4 評級:采用早期版本的 GPT-4 對工作活動和任務進行注釋打分。
論文將暴露度分為以下三類: E0 無暴露度:如果經(jīng)驗豐富的工人在高質(zhì)量完成任務時所需的時間沒有明顯減少 50%,或使用 GPT 相關技術會降低工作活動/任務的完成質(zhì)量,則定義為 E0(例: 需要高強度人際互動的任務)。 E1 直接暴露:在保證完成質(zhì)量相同的前提下,如果通過 ChatGPT 或 OpenAI 直接訪 問 LLM 或 GPT-4 可以將完成工作活動或任務所需時間減少 50%及以上,則將其定 義為 E1(例:指令編寫、轉換文本和代碼的任務)。 E2 LLM+暴露:直接訪問 LLM 不能將完成任務所需的時間減>50%,但在 LLM 基 礎上開發(fā)額外功能后可以達成目的,則定義該類工作活動和任務為 E2(例:總結超過 2000 字的文檔并回答關于文檔的問題)。 為了更為準確地衡量暴露度這一指標的統(tǒng)計學意義,論文中構建了三個度量指標, α、β 和 ζ,分別衡量低、中、高水平下的 GPT 對各職業(yè)的沖擊程度。其中,α=E1, 代表一個職業(yè)受 GPT 沖擊程度的下限;β=E1+0.5*E2,其中 E2 的 0.5 倍權重旨在解 釋通過補充工具或應用程序來完成任務/工作活動需要額外計算的暴露度;ζ=E1+E2, 代表一個職業(yè)受 GPT 沖擊程度的上限,可用于評估一項工作/任務對于 GPT 及 GPT 驅動的系統(tǒng)的最大暴露度(即GPT進一步開發(fā)后,一項工作/任務受到的最大影響)。
3. 研究結論:30%的職業(yè)或任務將受到 GPT 沖擊
前文將暴露度 Exposure 這一指標的定義進行了描述,論文中還將暴露度的衡量指標 α、β 和 ζ 進行了統(tǒng)計數(shù)據(jù)的匯總。不論采取人類打分的方式還是 GPT-4 打分,暴露 度α的均值在0.14左右,表示了從平均意義上說,15%左右的職業(yè)/任務暴露于GPT, 即 15%左右的工作可能會被現(xiàn)有的 LLM/GPT-4 降低 50%以上的工作時間。類似 地,暴露度 β 和 ζ 均值分別在 0.3 和 0.5 左右,代表 30%/50%的職業(yè)或任務將受到 中/高水平的 GPT 沖擊,即減少工作時間 50%及以上。
4. 研究結論:工資水平與 GPT 沖擊程度呈正相關
論文探索了職業(yè)、工人分布程度與暴露度之間的關系。對于中等水平的 GPT(β) 來說,約 19%的工人有 50%以上的任務將受到 GPT 的沖擊,80%的工人有 10%以 上的任務受到了 GPT 的沖擊;18%的職業(yè)中有 50%以上的任務受到了 GPT 的沖 擊。
論文還對工資、就業(yè)水平與暴露度的相關性進行了探討。兩種打分模式下,盡管存 在一些高暴露度的低工資職業(yè)和低暴露度的高工資職業(yè),整體圖表顯示,工資越高, 受 GPT 影響的程度也隨之增加。而 GPT 沖擊程度與就業(yè)水平則并無顯著關聯(lián)。
5. 研究結論:科學和批判性思維是受 GPT 沖擊最小的技能
論文研究了不同職業(yè)中技能重要性與 GPT 暴露度之間的關系。作者將 O*NET 數(shù)據(jù) 庫中的基本技能進行標準化,并將其與暴露度指標(α,β,ζ)進行回歸分析,檢驗 技能重要性和暴露度之間的關聯(lián)度。結果表明,科學和批判性思維技能(Science and CriticalThinking)與暴露度呈強烈的負相關(以β作為研究,相關系數(shù)分別-0.23 和 -0.19),即需要該技能的職業(yè)或任務不太可能受到 GPT 的沖擊;相反,編程和寫作 技能(Programming and Writing)與暴露度呈現(xiàn)出強正相關(相關系數(shù)分別為 0.62 和 0.47),即涉及該技能的職業(yè)更容易受到 GPT 的沖擊。
6. 研究結論:學歷水平和在職培訓時長與 GPT 沖擊程度相關
論文研究了不同工作類型的準入壁壘與暴露程度的關系。作者選取 O*NET 數(shù)據(jù)庫 中的“工作區(qū)(Job Zone)”概念作為變量,同一工作區(qū)中的職業(yè)在準入教育水平、 準入相關經(jīng)驗、在職培訓程度方面具有更高的相似度。O*NET 數(shù)據(jù)庫將工作區(qū)分為 5 種,隨著準入工作經(jīng)驗的增加,各工作區(qū)收入的中位數(shù)單調(diào)遞增,如工作區(qū) 1 的 準入工作經(jīng)驗是 3 個月,收入的中位數(shù)為 30,230 美元,而工作區(qū) 5 的準入工作經(jīng)驗 是≥4 年,收入中位數(shù)為 80,980 美元。 研究結果顯示,從工作區(qū) 1 到工作區(qū) 4,暴露度水平逐漸增加,但在工作區(qū) 5 則保 持相似甚至有所降低。平均來說,在不同工作區(qū),50%以上任務受到 GPT 沖擊的職 業(yè)比例分別為 0.00%(工作區(qū) 1)、6.11%(工作區(qū) 2)、10.57%(工作區(qū) 3)、34.5% (工作區(qū) 4)和 26.45%(工作區(qū) 5)。
論文還單獨研究了職業(yè)準入教育水平和在職培訓情況與暴露度的關系。結果表明, 持有學士、碩士和更高學位的人比沒有正規(guī)教育學歷的人更容易受到GPT的沖擊; 在職培訓時間最長的職業(yè)受 GPT 沖擊程度最低(且這類工作的收入水平更低),而 沒有在職培訓或只需要實習的工作表現(xiàn)出更高的收入水平和更容易受 GPT 沖擊的 屬性。
7. 研究結論:證券投資和數(shù)據(jù)處理可能是受沖擊程度最高的職業(yè)
論文中對各行業(yè)受 GPT 沖擊的程度進行了排序。結果表明,人類打分模式下,證券 商品合約及其他金融投資及相關活動是受 GPT 沖擊最為嚴重的行業(yè),而 GPT 打分 模式下,數(shù)據(jù)處理托管和相關服務的受沖擊程度最高。 在直接調(diào)用 GPT 模型的情況下(暴露度 α),口譯筆譯和數(shù)學家分別是兩種打分模 式下受影響最大的職業(yè)。在進一步開發(fā) GPT 衍生功能的情況下(暴露度 ζ),人類打 分模式中,有 15 項職業(yè)的所有任務都將被 GPT 降低 50%以上的工作時間,包括數(shù) 學家、稅務準備、量化分析師、作家、網(wǎng)頁和數(shù)字化頁面設計師;GPT 打分模式中, 有 86 項職業(yè)的所有任務都將被 GPT 降低 50%以上的工作時間,包括審計會計、新 聞分析記者、法務專員、臨床數(shù)據(jù)經(jīng)理、氣象變化政策分析師等。從方差角度看, 搜索營銷策略師、平面設計師、投資基金經(jīng)理、財務經(jīng)理、汽車損壞保險估價師可 能是受 GPT 影響程度爭議最大的幾項職業(yè)。
此外,論文研究表明,近期的生產(chǎn)增長率(包含全要素和勞動力兩方面)與暴露度 并無顯著相關性。換言之,如果 LLM 有可能在不同行業(yè)之間以不同程度提高生產(chǎn)力, 那么生產(chǎn)力最高的企業(yè)可能會良性循環(huán)。由于這些行業(yè)的生產(chǎn)需求普遍缺乏彈性, 生產(chǎn)率最高的部門在經(jīng)濟投入中所占的比例將縮小。
8. 對國內(nèi)的探討:賣方分析師≥80%的工作可能受 GPT 沖擊
我們采用了論文中類似的方法,試圖對國內(nèi)證券行業(yè)相關工作進行打分,并計算了 其可能受 GPT 沖擊的程度。論文中采用的 O*NET 數(shù)據(jù)庫將每一項職業(yè)對應的任務、 工作活動都進行了定義,但由于國內(nèi)暫無類似的數(shù)據(jù)庫和較為詳細的職業(yè)分類,我 們?nèi)圆捎昧?O*NET 數(shù)據(jù)庫中的分類,但依據(jù)國內(nèi)的情況做了本土化調(diào)整,例如, O*NET 數(shù)據(jù)庫中的金融投資分析師(Financial and InvestmentAnalysts)職業(yè)包含任 務“對綠色建筑和綠色改造項目進行投資財務分析(Conduct financial analyses related to investments in green construction or green retrofitting projects)”,而中國的分析師普 遍不涉及這項工作,因此予以刪除調(diào)整。
我們選取了 O*NET 數(shù)據(jù)庫中的Financial and Investment Analysts金融和投資分析師、 Investment Fund Managers 投資基金經(jīng)理這兩項職業(yè)和對應的任務與工作活動 (DWA),并根據(jù)中國的實際情況,將其重新組合為二級賣方分析師、一級市場投 行和基金經(jīng)理。采用與論文相同的標準,對這些職業(yè)的任務/工作活動進行了打分, 并計算了暴露度β和ζ。結果顯示,按任務情況進行計算,三種行業(yè)對比下,二級 賣方分析師受 GPT 沖擊的程度高于投行一級市場和基金經(jīng)理。在經(jīng)過專業(yè)知識訓 練的 LLM 和 GPT 的幫助下(代表暴露度ζ),賣方分析師可能有 82%的任務將被 減少 50%以上的工作時間,基金經(jīng)理可能有 55%的任務被減少 50%以上的工作時 間。按照工作活動計算,二級賣方分析師和一級市場投行受 GPT 影響的程度相差不 大,約為 65%左右,但仍顯著高于基金經(jīng)理。
在論文中,作者將 E1 直接暴露定義為運用現(xiàn)有 ChatGPT 和 OpenAI 接口直接方位 LLM 可以減少50%以上的工作時間,對應的工作內(nèi)容包括編寫文本(2000 字以內(nèi))、 翻譯、準備短資料等,而證券業(yè)的任務由于涉及專業(yè)知識、撰寫長度超過 2000 字的 報告等,因此在進行打分時,不存在直接暴露 E1 的情況,所有任務及工作活動均 被歸類為無暴露(E0)或 LLM+暴露(E2)。另外,在打分過程中,根據(jù)論文作者 的標準,我們將法律法規(guī)要求人類完成的任務、需要確認/授權/決策的任務、涉及雇 傭員工和培訓團隊的任務以及涉及大量人際交流的任務歸類為無暴露(E0),分析 類、文本整理類、資料搜集類工作定義為 LLM+暴露(E2)。值得注意的是,由于基 金經(jīng)理這一職業(yè)涉及更多審查合規(guī)性、響應監(jiān)管要求等任務,因此展現(xiàn)出較分析師 更低的暴露度(ζ),即受 GPT 的影響低于分析師。
根據(jù)論文中對于不同行業(yè)的暴露度統(tǒng)計,按照人類打分,美國證券商品合約及其他金融投資的暴露度β在 0.6-0.7 之間,我們將這一數(shù)值作為美國證券行業(yè)受到 GPT 沖擊的平均水平。為了方便對比,我們采用暴露度β進行對比,國內(nèi)賣方分析師、 一級市場(投行)和基金經(jīng)理分別對應的暴露度 0.41、0.33 和 0.28,證明國內(nèi)賣方 分析師、一級市場(投行)和基金經(jīng)理受到 GPT 沖擊的情況略好于美國證券行業(yè) 受沖擊的平均水平。我們推測可能由以下原因導致:
1、 美國擁有更高比例的量化分析師:論文中特別提到,在經(jīng)過專業(yè)知識訓練的 LLM 和 GPT 的幫助下(暴露度ζ),人類打分模式下,量化分析師的暴露度是 100%,即量化分析師所有的任務都可以在 GPT 的幫助下大幅降低工作時間;美 國量化分析行業(yè)發(fā)展相對靠前,量化分析師可能擁有更高的權重,從而拉高行 業(yè)整體的暴露度;
2、 不同證券市場的有效性可能對工作任務的打分產(chǎn)生影響:美國資本市場被認為 是半強有效市場,較 A 股相比,美股市場的信息更加公開透明;GPT 在公開信 息的搜集整理、歸納總結方面具有明顯的優(yōu)勢,因此相比國內(nèi),GPT 和 LLM 能 夠更好地幫助美國的證券從業(yè)者降低工作時長,從而表現(xiàn)出更高的暴露度。
GPT~4引發(fā)新一輪AI算力需求爆發(fā)
(報告出品方/作者:廣發(fā)證券,李娜,王亮)
一、OpenAI正式發(fā)布多模態(tài)大模型GPT-4,實現(xiàn)多重能力躍升
(一)多模態(tài)大模型GPT-4是OpenAI公司GPT系列最新一代模型
美國OpenAI公司成立于2015年12月,是全球頂級的人工智能研究機構之一,創(chuàng)始人 包括Elon Musk、著名投資者Sam Altman、支付服務PayPal創(chuàng)始人Peter Thiel等人。 OpenAI作為人工智能領域的革命者,成立至今開發(fā)出多款人工智能產(chǎn)品。2016年, OpenAI推出了用于強化學習研究的工具集OpenAI Gym;同時推出開源平臺OpenAI Universe,用于測試和評估智能代理機器人在各類環(huán)境中的表現(xiàn)。2019年,OpenAI 發(fā)布了GPT-2模型,可根據(jù)輸入文本自動生成語言,展現(xiàn)出人工智能創(chuàng)造性思維的 能力;2020年更新了GPT-3語言模型,并在其基礎上發(fā)布了OpenAI Codex模型,該 模型可以自動生成完整有效的程序代碼。
2021年1月,OpenAI發(fā)布了OpenAI CLIP, 用于進行圖像和文本的識別分類;同時推出全新產(chǎn)品DALL-E,該模型可以根據(jù)文字 描述自動生成對應的圖片,2022年更新的DALL-E2更是全方位改進了生成圖片的質(zhì) 量,獲得了廣泛好評。 2022年12月,OpenAI推出基于GPT-3.5的新型AI聊天機器人ChatGPT,在發(fā)布進 兩個月后擁有1億用戶,成為史上用戶增長最快的應用;美東時間2023年3月14日, ChatGPT的開發(fā)機構OpenAI正式推出多模態(tài)大模型GPT-4。
GPT(General Pre-Training)系列模型即通用預訓練語言模型,是一種利用 Transformer作為特征抽取器,基于深度學習技術的自然語言處理模型。 GPT系列模型由OpenAI公司開發(fā),經(jīng)歷了長達五年時間的發(fā)展: (1)其最早的產(chǎn)品GPT模型于2018年6月發(fā)布,該模型可以根據(jù)給定的文本序列進 行預測下一個單詞或句子,充分證明通過對語言模型進行生成性預訓練可以有效減 輕NLP任務中對于監(jiān)督學習的依賴; (2)2019年2月GPT-2模型發(fā)布,該模型取消了原GPT模型中的微調(diào)階段,變?yōu)闊o 監(jiān)督模型,同時,GPT-2采用更大的訓練集嘗試zero-shot學習,通過采用多任務模 型的方式使其在面對不同任務時都能擁有更強的理解能力和較高的適配性;
(3)GPT-3模型于2020年6月被發(fā)布,它在多項自然語言處理任務上取得了驚人的 表現(xiàn),并被認為是迄今為止最先進的自然語言處理模型之一。GPT-3訓練使用的數(shù) 據(jù)集為多種高質(zhì)量數(shù)據(jù)集的混合,一次保證了訓練質(zhì)量;同時,該模型在下游訓練 時用Few-shot取代了GPT-2模型使用的zero-shot,即在執(zhí)行任務時給予少量樣例, 以此提高準確度;除此之外,它在前兩個模型的基礎上引入了新的技術——“零樣 本學習”,即GPT-3即便沒有對特定的任務進行訓練也可以完成相應的任務,這使 得GPT-3面對陌生語境時具有更好的靈活性和適應性。
(4)2022年11月,OpenAI發(fā)布GPT-3.5模型,是由GPT-3微調(diào)出來的版本,采用 不同的訓練方式,其功能更加強大?;贕PT-3.5模型,并加上人類反饋強化學習 (RLHF)發(fā)布ChatGPT應用,ChatGPT的全稱為Chat Generative Pre-trained Transformer,是建立在大型語言模型基礎上的對話式自然語言處理工具,表現(xiàn)形式 是一種聊天機器人程序,能夠學習及理解人類的語言,根據(jù)聊天的上下文進行互動, 甚至能夠完成翻譯、編程、撰寫論文、編輯郵件等功能。 (5)2023年3月,OpenAI正式發(fā)布大型多模態(tài)模型GPT-4(輸入圖像和文本,輸出 文本輸出),此前主要支持文本,現(xiàn)模型能支持識別和理解圖像。
(二)GPT大模型通過底層技術的疊加,實現(xiàn)組合式的創(chuàng)新
由于OpenAI并沒有提供關于GPT-4用于訓練的數(shù)據(jù)、算力成本、訓練方法、架構等 細節(jié),故我們本章主要討論ChatGPT模型的技術路徑。 ChatGPT模型從算法分來上來講屬于生成式大規(guī)模語言模型,底層技術包括 Transformer架構、有監(jiān)督微調(diào)訓練、RLHF強化學習等,ChatGPT通過底層技術 的疊加,實現(xiàn)了組合式的創(chuàng)新。 GPT模型采用了由Google提出的Transformer架構。Transformer架構采用自注意 力機制的序列到序列模型,是目前在自然語言處理任務中最常用的神經(jīng)網(wǎng)絡架構之 一。相比于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(RNN)或卷積神經(jīng)網(wǎng)絡(CNN),Transformer 沒有顯式的時間或空間結構,因此可以高效地進行并行計算,并且Transformer具有 更好的并行化能力和更強的長序列數(shù)據(jù)處理能力。
ChatGPT模型采用了“預訓練+微調(diào)”的半監(jiān)督學習的方式進行訓練。第一階段是 Pre-Training階段,通過預訓練的語言模型(Pretrained Language Model),從大 規(guī)模的文本中提取訓練數(shù)據(jù),并通過深度神經(jīng)網(wǎng)絡進行處理和學習,進而根據(jù)上下 文預測生成下一個單詞或者短語,從而生成流暢的語言文本;第二階段是Fine-tuning 階段,將已經(jīng)完成預訓練的GPT模型應用到特定任務上,并通過少量的有標注的數(shù) 據(jù)來調(diào)整模型的參數(shù),以提高模型在該任務上的表現(xiàn)。
ChatGPT在訓練中使用了RLHF人類反饋強化學習模型,是GPT-3模型經(jīng)過升級并 增加對話功能后的最新版本。2022年3月,OpenAI發(fā)布InstructGPT,這一版本是 GPT-3模型的升級版本。相較于之前版本的GPT模型,InstructGPT引入了基于人類 反饋的強化學習技術(Reinforcement Learning with Human Feedback,RLHF), 對模型進行微調(diào),通過獎勵機制進一步訓練模型,以適應不同的任務場景和語言風 格,給出更符合人類思維的輸出結果。
RLHF的訓練包括訓練大語言模型、訓練獎勵模型及RLHF微調(diào)三個步驟。首先,需 要使用預訓練目標訓練一個語言模型,同時也可以使用額外文本進行微調(diào)。其次, 基于語言模型訓練出獎勵模型,對模型生成的文本進行質(zhì)量標注,由人工標注者按 偏好將文本從最佳到最差進行排名,借此使得獎勵模型習得人類對于模型生成文本 序列的偏好。最后利用獎勵模型輸出的結果,通過強化學習模型微調(diào)優(yōu)化,最終得 到一個更符合人類偏好語言模型。
(三)GPT-4相較于ChatGPT實現(xiàn)多重能力躍遷
ChatGPT于2022年11月推出之后,僅用兩個月時間月活躍用戶數(shù)便超過1億,在短 時間內(nèi)積累了龐大的用戶基數(shù),也是歷史上增長最快的消費應用。多模態(tài)大模型GPT-4是OpenAI的里程碑之作,是目前最強的文本生成模型。 ChatGPT推出后的三個多月時間里OpenAI就正式推出GPT-4,再次拓寬了大模型的 能力邊界。GPT-4是一個多模態(tài)大模型(接受圖像和文本輸入,生成文本),相比 上一代,GPT-4可以更準確地解決難題,具有更廣泛的常識和解決問題的能力:更 具創(chuàng)造性和協(xié)作性;能夠處理超過25000個單詞的文本,允許長文內(nèi)容創(chuàng)建、擴展 對話以及文檔搜索和分析等用例。
(1)GPT-4具備更高的準確性及更強的專業(yè)性。GPT-4在更復雜、細微的任務處理 上回答更可靠、更有創(chuàng)意,在多類考試測驗中以及與其他LLM的benchmark比較中 GPT-4明顯表現(xiàn)優(yōu)異。GPT-4在模擬律師考試GPT-4取得了前10%的好成績,相比 之下GPT-3.5是后10%;生物學奧賽前1%;美國高考SAT中GPT-4在閱讀寫作中拿 下710分高分、數(shù)學700分(滿分800)。
(2)GPT能夠處理圖像內(nèi)容,能夠識別較為復雜的圖片信息并進行解讀。GPT-4 突破了純文字的模態(tài),增加了圖像模態(tài)的輸入,支持用戶上傳圖像,并且具備強大 的圖像能力—能夠描述內(nèi)容、解釋分析圖表、指出圖片中的不合理指出或解釋梗圖。 在OpenAI發(fā)布的產(chǎn)品視頻中,開發(fā)者給GPT-4輸入了一張“用VGA電腦接口給 iPhone充電”的圖片,GPT-4不僅可以可描述圖片,還指出了圖片的荒謬之處。
(3)GPT-4可以處理超過25000字的文本。在文本處理上,GPT-4支持輸入的文字 上限提升至25000字,允許長文內(nèi)容創(chuàng)建、擴展對話以及文檔搜索和分析等用例。 且GPT-4的多語言處理能力更優(yōu),在GPT-4的測評展示中,GPT-4可以解決法語的 物理問題,且在測試的英語、拉脫維亞語、威爾士語和斯瓦希里語等26種語言中, 有24種語言下,GPT-4優(yōu)于GPT-3.5和其他大語言模型(Chinchilla、PaLM)的英 語語言性能。(4)具備自我訓練與預測能力,同時改善幻覺、安全等局限性。GPT-4的一大更新 重點是建立了一個可預測拓展的深度學習棧,使其具備了自我訓練及預測能力。同 時,GPT-4在相對于以前的模型已經(jīng)顯著減輕了幻覺問題。在OpenAI的內(nèi)部對抗性 真實性評估中,GPT-4的得分比最新的GPT-3.5模型高 40%;在安全能力的升級上, GPT-4明顯超出ChatGPT和GPT3.5。
(四)商業(yè)模式愈發(fā)清晰,微軟Copilot引發(fā)跨時代的生產(chǎn)力變革
OpenAI已正式宣布為第三方開開發(fā)者開放ChatGPT API,價格降低加速場景應用 爆發(fā)。起初ChatGPT免費向用戶開放,以獲得用戶反饋;今年2月1日,Open AI推 出新的ChatGPT Plus訂閱服務,收費方式為每月20美元,訂閱者能夠因此而獲得更 快、更穩(wěn)定的響應并優(yōu)先體驗新功能。3月2日,OpenAI官方宣布正式開放ChatGPT API(應用程序接口),允許第三方開發(fā)者通過API將ChatGPT集成至他們的應用程 序和服務中,價格為1ktokens/$0.002,即每輸出100萬個單詞需要2.7美元,比已有 的GPT-3.5模型價格降低90%。模型價格的降低將推動ChatGPT被集成到更多場景 或應用中,豐富ChatGPT的應用生態(tài),加速多場景應用的爆發(fā)。
GPT-4發(fā)布后OpenAI把ChatGPT直接升級為GPT-4最新版本,同時開放了GPT-4 的API。ChatGPT Plus付費訂閱用戶可以獲得具有使用上限的GPT-4訪問權限(每4 小時100條消息),可以向GPT-4模型發(fā)出純文本請求。用戶可以申請使用GPT-4 的API,OpenAI會邀請部分開發(fā)者體驗,并逐漸擴大邀請范圍。該API的定價為每輸 入1000個字符(約合750個單詞),價格為0.03美元;GPT-4每生成1000個字符價格為 0.06美元。 Office引入GPT-4帶來的結果是生產(chǎn)力、創(chuàng)造力的全面躍升。微軟今天宣布,其與 OpenAI共同開發(fā)的聊天機器人技術Bing Chat正在GPT-4上運行。
Copilot OpenAI發(fā)布升級后的GPT-4后,微軟重磅發(fā)布了GPT-4平臺支持的新AI功能, Microsoft 365 Copilot,并將其嵌入Word、PowerPoint、Excel、Teams等Office辦 公軟件中。Copilot可以在一篇速記的基礎上快速生成新聞草稿、并完成草稿潤色; 在Excel中完成各種求和、求平均數(shù),做表格、歸納數(shù)據(jù)、甚至是完成總結提?。辉?PPT上可以直接將文稿內(nèi)容一鍵生成;在Outlook郵件中自動生成內(nèi)容、并自由調(diào)整 寫作風格、插入圖表;在Teams中總結視頻會議的要點/每個發(fā)言人誰說了核心內(nèi)容, 跟進會議流程和內(nèi)容,自動生成會議紀要、要點和任務模板?;贕PT-4的Copilot 可以看作是一個辦公AI助理,充分發(fā)揮出了AI對于辦公場景的賦能作用,有望從根 本上改變工作模式并開啟新一輪生產(chǎn)力增長浪潮。
二、GPT-4帶動多模態(tài)x多場景落地,AIGC藍海市場打開
(一)歷經(jīng)三階段發(fā)展,AIGC技術升級步入深化階段
AIGC全程為AI-Generated Content,人工智能生成內(nèi)容,是繼專業(yè)生成內(nèi)容(PGC, Professional Generate Content)和用戶生成內(nèi)容(UGC,User Generate Content) 之后,利用AI自動生成內(nèi)容的新型生產(chǎn)方式。傳統(tǒng)AI大多屬于分析式AI,對已有數(shù) 據(jù)進行分析并應用于相應領域。以AIGC為典型的生成式AI不在局限于分析固有數(shù)據(jù), 而是基于訓練數(shù)據(jù)和算法模型自主生成創(chuàng)造新的文本、3D、視頻等各種形式的內(nèi)容。
歷經(jīng)三階段迭代,AIGC現(xiàn)已進入快速發(fā)展階段: (1)早期萌芽階段(1950s-1990s),受限于科技水平及高昂的系統(tǒng)成本,AIGC 僅限于小范圍實驗。 (2)沉淀積累階段(1990s-2010s),AIGC開始從實驗性向實用性逐漸轉變。但 由于其受限于算法瓶頸,完成創(chuàng)作能力有限,應用領域仍具有局限性; (3)快速發(fā)展階段(2010s-至今),GAN(Generative Adversarial Network,生成 式對抗網(wǎng)絡)等深度學習算法的提出和不斷迭代推動了AIGC技術的快速發(fā)展,生成 內(nèi)容更加多元化。
AIGC可分為智能數(shù)字內(nèi)容孿生、智能數(shù)字內(nèi)容編輯及智能數(shù)字內(nèi)容創(chuàng)作三大層次。 生成式AI是指利用現(xiàn)有文本、音頻文件或圖像創(chuàng)建新內(nèi)容的人工智能技術,其起源 于分析式AI,在分析式AI總結歸納數(shù)據(jù)知識的基礎上學習數(shù)據(jù)產(chǎn)生模式,創(chuàng)造出新 的樣本內(nèi)容。在分析式AI的技術基礎上,GAN、Transformer網(wǎng)絡等多款生成式AI 技術催生出許多AIGC產(chǎn)品,如DALL-E、OpenAI系列等,它們在音頻、文本、視覺 上有眾多技術應用,并在創(chuàng)作內(nèi)容的方式上變革演化出三大前沿能力。AIGC根據(jù)面 向對象、實現(xiàn)功能的不同可以分為智能數(shù)字內(nèi)容孿生、智能數(shù)字內(nèi)容編輯及智能數(shù) 字內(nèi)容創(chuàng)作三大層次。
(二)生成算法+預訓練模型+多模態(tài)推動AIGC的爆發(fā)
AIGC的爆發(fā)離不開其背后的深度學習模型的技術加持,生成算法、預訓練和多模態(tài) 技術的不斷發(fā)展幫助了AIGC模型具備通用性強、參數(shù)海量、多模態(tài)和生成內(nèi)容高質(zhì) 量的特質(zhì),讓AIGC實現(xiàn)從技術提升到技術突破的轉變。 (1)生成算法模型不斷迭代創(chuàng)新,為AIGC的發(fā)展奠定基礎。早期人工智能算法學 習能力不強,AIGC技術主要依賴于事先指定的統(tǒng)計模型或任務來完成簡單的內(nèi)容生 成和輸出,對客觀世界和人類語言文字的感知能力較弱,生成內(nèi)容刻板且具有局限 性。GAN(Generative Adversarial Network,生成式對抗網(wǎng)絡)的提出讓AIGC發(fā)展 進入新階段,GAN是早期的生成模型,利用博弈框架產(chǎn)生輸出,被廣泛應用于生成 圖像、視頻語音等領域。隨后Transformer、擴散模型、深度學習算法模型相繼涌現(xiàn)。
Transformer被廣泛應用于NLP、CV等領域,GPT-3、LaMDA等預訓練模型大多是 基于transformer架構構建的。ChatGPT是基于Transformer架構上的語言模型, Transformer負責調(diào)度架構和運算邏輯,進而實現(xiàn)最終計算。Tansformer是谷歌于 2017年《Attention is All You Need》提出的一種深度學習模型架構,其完全基于注 意力機制,可以按照輸入數(shù)據(jù)各部分重要性來分配不同的權重,無需重復和卷積。 相較于循環(huán)神經(jīng)網(wǎng)絡(RNN)流水線式的序列計算,Transformer可以一次處理所有 的輸入,擺脫了人工標注數(shù)據(jù)集的缺陷,實現(xiàn)了大規(guī)模的并行計算,模型所需的訓 練時間明顯減少,大規(guī)模的AI模型質(zhì)量更優(yōu)。
Transformer的核心構成是編碼模塊和解碼模塊。GPT使用的是解碼模塊,通過模 塊間彼此大量堆疊的方式形成了GPT模型的底層架構,模塊分為前饋神經(jīng)網(wǎng)絡層、 編解碼自注意力機制層(Self-Attention)、自注意力機制掩碼層。自注意力機制層 負責計算數(shù)據(jù)在全部內(nèi)容的權重(即Attention),掩碼層幫助模型屏蔽計算位置右 側未出現(xiàn)的數(shù)據(jù),最后把輸出的向量結果輸入前饋神經(jīng)網(wǎng)絡,完成模型參數(shù)計算。
(2)預訓練模型引發(fā)AIGC技術能力的質(zhì)變。AI預訓練模型是基于大規(guī)模寬泛的數(shù) 據(jù)進行訓練后擁有適應廣泛下游任務能力的模型,預訓練屬于遷移學習的領域,其 主旨是使用標注數(shù)據(jù)前,充分利用大量無標注數(shù)據(jù)進行訓練,模型從中全面學習到 與標注無關的潛在知識,進而使模型靈活變通的完成下游任務。視覺大模型提升 AIGC感知能力,語言大模型增強AIGC認知能力。
NLP模型是一種使用自然語言處理(Natural Language Processing,NLP)技術來解決自然語言相關問題的機器學習模型。在NLP領域,AI大模型可適用于人機語言交互,并進行自然語言處理從實現(xiàn)相應的文本分類、文本生成、語音識別、序列標注、機器翻譯等功能。NLP的研究經(jīng)過了以規(guī)則為基礎的研究方法和以統(tǒng)計為基礎的研究方法的發(fā)展,目前以基于Transformer的預訓練模型已成為當前NLP領域的研究熱點,BERT、GPT等模型均采用這一方法。CV模型指計算機視覺模型,是一種基于圖像或視頻數(shù)據(jù)的人工智能模型。常見的CV 模型有采用深度學習的卷積神經(jīng)網(wǎng)絡(CNN)和生成對抗網(wǎng)絡(GAN)。
近年來以 視覺Transformer(ViT)為典型的新型神經(jīng)網(wǎng)絡,通過人類先驗知識引入網(wǎng)絡設計, 使得模型的收斂速度、泛化能力、擴展性及并行性得到飛速提升,通過無監(jiān)督預訓 練和微調(diào)學習,在多個計算機視覺任務,如圖像分類、目標檢測、物體識別、圖像 生成等取得顯著的進步。
(3)多模態(tài)技術拓寬了AIGC技術的應用廣度。多模態(tài)技術將不同模態(tài)(圖像、聲 音、語言等)融合在預訓練模型中,使得預訓練模型從單一的NLP、CV發(fā)展成音視 頻、語言文字、文本圖像等多模態(tài)、跨模態(tài)模型。多模態(tài)大模型通過尋找模態(tài)數(shù)據(jù) 之間的關聯(lián)點,將不同模態(tài)的原始數(shù)據(jù)投射在相似的空間中,讓模態(tài)之間的信號相 互理解,進而實現(xiàn)模態(tài)數(shù)據(jù)之間的轉化和生成。這一技術對AIGC的原創(chuàng)生成能力的 發(fā)展起到了重要的支持作用,2021年OpenAI推出AI繪畫產(chǎn)品DALL.E可通過輸入文 字理解生成符合語義且獨一無二的繪畫作品,其背后離不開多模態(tài)技術的支持。
(三)多模態(tài)x多場景落地,AIGC爆發(fā)商業(yè)潛力
ChatGPT的廣泛應用意味著AIGC規(guī)模化、商業(yè)化的開始。ChatGPT是文字語言模 態(tài)AIGC的具體應用,在技術、應用領域和商業(yè)化方面和傳統(tǒng)AI產(chǎn)品均有所不同。 ChatGPT已經(jīng)具備了一定的對現(xiàn)實世界內(nèi)容進行語義理解和屬性操控的能力,并可 以對其回以相應的反饋。ChatGPT是AIGC重要的產(chǎn)品化應用,意味著AIGC規(guī)模化、 商業(yè)化的開始。創(chuàng)新工場董事長兼CEO李開復博士在3月14日表示,ChatGPT快速 普及將進一步引爆AI 2.0商業(yè)化。AI 2.0 是絕對不能錯過的一次革命。
多家公司正加緊研發(fā)ChatGPT類似產(chǎn)品,引爆新一輪科技企業(yè)AI軍備競賽。在GPT4 推出之后,Google開放自家的大語言模型API「PaLM API」,此外還發(fā)布了一款幫 助開發(fā)者快速構建AI程序的工具 MakerSuite。2月底,META公布一款全新的AI大型 語言模型LLaMA,宣稱可幫助研究人員降低生成式AI工具可能帶來的“偏見、有毒 評論、產(chǎn)生錯誤信息的可能性”等問題。 AIGC的應用領域分為視頻、音頻、文本、圖像、跨模態(tài)生成五個部分。
AIGC以其 真實性、多樣性、可控性、組合性的特質(zhì),為各行業(yè)、各領域提供了更加豐富多元、 動態(tài)且可交互的內(nèi)容。根據(jù)AIGC生成內(nèi)容的模態(tài)不同,可將AIGC的應用領域分為 視頻、音頻、文本、圖像、跨模態(tài)生成五個部分。其中,在圖像、文本、音頻等領 域,AIGC已經(jīng)得到了較大優(yōu)化,生成內(nèi)容質(zhì)量得到明顯提升;而在視頻與跨模態(tài)內(nèi) 容生成方面,AIGC擁有巨大發(fā)展?jié)摿Α?/p>
三、高算力需求帶動基礎設施迭代加速
(一)AI大模型驅動高算力需求
數(shù)據(jù)、算力及模型是人工智能發(fā)展的三要素。以GPT系列為例: (1)數(shù)據(jù)端:自OpenAI于2018年發(fā)布GPT-1,到2020年的GPT-3,GPT模型參數(shù) 數(shù)量和訓練數(shù)據(jù)量實現(xiàn)指數(shù)型增長。參數(shù)數(shù)量從GPT-1的1.17億增長到GPT-3的 1750億,訓練數(shù)據(jù)量從5GB增長到的45TB; (2)模型端:ChatGPT在以往模型的基礎上,在語料庫、計算能力、預訓練、自我 學習能力等方面有了明顯提升,同時Transformer架構突破了人工標注數(shù)據(jù)集的不足, 實現(xiàn)與人類更順暢的交流; (3)算力端:根據(jù)OpenAl發(fā)布的《Language Models are Few-Shot Learners》, 訓練13億參數(shù)的GPT-3 XL模型訓練一次消耗的算力約為27.5 PFlop/s-dav,訓練 1750億參數(shù)的完整GPT-3模型則會消耗算力3640 PFlop/s-dav(以一萬億次每秒速 度計算,需要3640天完成)。
在人工智能發(fā)展的三要素中,數(shù)據(jù)與算法都離不開算力的支撐。隨著AI算法突飛猛 進的發(fā)展,越來越多的模型訓練需要巨量算力支撐才能快速有效實施,同時數(shù)據(jù)量 的不斷增加也要求算力配套進化。如此看來,算力成為AI突破的關鍵因素。 AI大模型的算力需求主要來自于預訓練、日常運營和模型微調(diào)。 (1)預訓練:在完成完整訓練之前,搭建一個網(wǎng)絡模型完成特定任務,在訓練網(wǎng)絡 過程中不斷調(diào)整參數(shù),直至網(wǎng)絡損失和運行性能達到預期目標,此時可以將訓練模 型的參數(shù)保存,用于之后執(zhí)行類似任務。根據(jù)中國信通院數(shù)據(jù),ChatGPT基于GPT3.5 系列模型,模型參數(shù)規(guī)模據(jù)推測達十億級別,參照參數(shù)規(guī)模相近的GPT-3 XL模型, 則ChatGPT完整一次預訓練消耗算力約為27.5 PFlop/s-dav。
(2)日常運營:滿足用戶日常使用數(shù)據(jù)處理需求。根據(jù)Similarweb的數(shù)據(jù),23年1月份ChatGPT月活約6.16億,跳出率13.28%每次訪問頁數(shù)5.85頁,假設每頁平均200 token。同時假設:模型的FLlops利用率為21.3%與訓練期間的GPT-3保持一致;完整參數(shù)模型較GPT-3上升至2500億;以FLOPs為指標,SOTA大型語言在在推理過程中每個token的計算成本約為2N。根據(jù)以上數(shù)據(jù)及假設,每月日常運營消耗算力約為6.16億*2*(1-13.28%)*5.85*200*2500億/21.3%=14672PFlop/s-day。(3)模型微調(diào):執(zhí)行類似任務時,使用先前保存的模型參數(shù)作為初始化參數(shù),在訓練過程中依據(jù)結果不斷進行微調(diào),使之適應新的任務。
ChatGPT引發(fā)新一輪AI算力需求爆發(fā)。根據(jù)OpenAI發(fā)布的《AI and Compute》分 析報告中指出,自2012年以來,AI訓練應用的算力需求每3.4個月就回會翻倍,從 2012年至今,AI算力增長超過了30萬倍。據(jù)OpenAI報告,ChatGPT的總算力消耗 約為3640PF-days(即假如每秒計算一千萬億次,需要計算3640天),需要7-8個算 力500P的數(shù)據(jù)中心才能支撐運行。上海新興信息通信技術應用研究院首席專家賀仁 龍表示,“自2016年阿爾法狗問世,智能算力需求開啟爆發(fā)態(tài)勢。如今ChatGPT則 代表新一輪AI算力需求的爆發(fā)”。
全球算力規(guī)模將呈現(xiàn)高速增長態(tài)勢。根據(jù)國家數(shù)據(jù)資源調(diào)查報告數(shù)據(jù),2021年全球 數(shù)據(jù)總產(chǎn)量67ZB,近三年平均增速超過26%,經(jīng)中國信息通信研究院測算,2021 年全球計算設備算力總規(guī)模達到615EFlops,增速達44%。根據(jù)中國信通院援引的 IDC數(shù)據(jù),2025年全球算力整體規(guī)模將達3300EFlops,2020-2025年的年均復合增 長率達到50.4%。結合華為GIV預測,2030年人類將迎來YB數(shù)據(jù)時代,全球算力規(guī) 模達到56ZFlops,2025-2030年復合增速達到76.2%。
(二)云商/運營商推進AI領域算力基礎設施投入
北美云廠商資本支出向技術基礎設施和新數(shù)據(jù)中心架構傾斜。22Q4亞馬遜資本支出 主要用于技術基礎設施的投資,其中大部分用于支持AWS業(yè)務增長與支持履行網(wǎng)絡 的額外能力。預計未來相關投資將延續(xù),并增加在技術基礎設施方面的支出。谷歌 指引2023年資本開支與2022年基本持平,其中技術基礎設施有所增加,而辦公基礎 設施將減少。Meta2022年資本開支為314.3億美元,同比增長69.3%,但同時Meta 略微調(diào)低其2023年資本開支預期至300-330億美元(此前預期為340-370億美元), 主要原因系減少數(shù)據(jù)中心建設的相關支出,轉向新的更具成本效益的、同時支持AI 和非AI工作量的數(shù)據(jù)中心新架構。
國內(nèi)三大運營商積極布局算力網(wǎng)絡,資本支出向新興業(yè)務傾斜。電信運營商作為數(shù) 字基座打造者,運營商數(shù)字業(yè)務板塊成為收入增長的主要引擎,近幾年資本支出由 主干網(wǎng)絡向新興業(yè)務傾斜。中國移動計劃2022年全年算力網(wǎng)絡投資480億元,占其 總資本開支的39.0%。2022Q3,中國移動算力規(guī)模達到7.3EFLOPS,并計劃在2025 年底達到20EFLOPS以上。中國電信產(chǎn)業(yè)數(shù)字化資本開支占比同比上升9.3pc,算力 總規(guī)模計劃由2022年中的3.1EFLOPS提升至2025年底的16.3EFLOPS。中國聯(lián)通 2022年預計算力網(wǎng)絡資本開支達到145億,同比提升43%,云投資預計提升88%。
作為算力基礎設施建設的主力軍,三大運營商目前已經(jīng)進行前瞻性的基礎設施布局。 通信運營商自身擁有優(yōu)質(zhì)網(wǎng)絡、算力、云服務能力的通信運營商,同時具備天然的 產(chǎn)業(yè)鏈優(yōu)勢,依靠5G+AI技術優(yōu)勢,為下游客戶提供AI服務能力,是新型信息服務 體系中重要的一環(huán),助力千行百業(yè)數(shù)字化轉型。在移動網(wǎng)絡方面,中國運營商已建 設覆蓋全國的高性能高可靠4/5G網(wǎng)絡;在固定寬帶方面,光纖接入(FTTH/O)端 口達到10.25億個,占比提升至95.7%;在算力網(wǎng)絡方面,運營商在資本開支結構上 向算力網(wǎng)絡傾斜,提升服務全國算力網(wǎng)絡能力。在AI服務能力方面,加快AI領域商 業(yè)化應用推出,發(fā)揮自身產(chǎn)業(yè)鏈優(yōu)勢,助力千行百業(yè)數(shù)字化轉型。
(三)算力需求帶動數(shù)據(jù)中心架構及技術加速升級
1、數(shù)據(jù)中心呈現(xiàn)超大規(guī)模發(fā)展趨勢。超大規(guī)模數(shù)據(jù)中心,即Hyperscale Data Center,與傳統(tǒng)數(shù)據(jù)中心的核心區(qū)別在于 超大規(guī)模數(shù)據(jù)中心具備更強大的可擴展性及計算能力。1)規(guī)模上,超級數(shù)據(jù)中心可 容納的規(guī)模要比傳統(tǒng)數(shù)據(jù)中心大得多,可以容納數(shù)百萬臺服務器和更多的虛擬機;2) 性能上,超級數(shù)據(jù)中心具有更高的可擴展性和計算能力,能夠滿足數(shù)據(jù)處理數(shù)量和 速率大幅提升的需求。
具體來講,相較于傳統(tǒng)數(shù)據(jù)中心,超大規(guī)模數(shù)據(jù)中心的優(yōu)勢在于: (1)可擴展性:超大規(guī)模數(shù)據(jù)中心的網(wǎng)絡基礎架構響應更迅速、擴展更高效且更具 成本效益,并且提供快速擴展存儲和計算資源以滿足需求的能力,超大規(guī)模數(shù)據(jù)中 心通過在負載均衡器后水平擴展,快速旋轉或重新分配額外資源并將其添加到現(xiàn)有 集群,可以實現(xiàn)快速向集群添加額外資源,從而在不中斷操作的情況下進行擴展; (2)定制化:超大規(guī)模數(shù)據(jù)中心采用更新的服務器設計,具有更寬的機架,可以容 納更多組件并且允許定制化設計服務器,使得服務器能夠同時接入多個電源和硬盤 驅動器;
(3)自動化服務:超大規(guī)模數(shù)據(jù)中心提供自動化服務,幫助客戶管理高流量網(wǎng)站和 需要專門處理的高級工作負載,例如密碼學、基因處理和三維渲染; (4)冷卻效率更高:超大規(guī)模數(shù)據(jù)中心對其電源架構進行了優(yōu)化,并將冷卻能力集 中在托管高強度工作負載的服務器,大大降低了成本和對環(huán)境的影響,電源使用效 率和冷卻效率遠高于傳統(tǒng)數(shù)據(jù)中心;
(5)工作負載更平衡:超大規(guī)模數(shù)據(jù)中心有效地將工作負載分布在多臺服務器上, 從而避免單臺服務器過熱。避免了過熱的服務器損壞附近的服務器,從而產(chǎn)生不必 要的連鎖反應。 Statista數(shù)據(jù)顯示,全球超大規(guī)模數(shù)據(jù)中心的數(shù)量從2015年的259個,提升到2021年 的700個。根據(jù)PrecedenceResearch的報告顯示,全球超大規(guī)模數(shù)據(jù)中心市場規(guī)模 在2021年為620億美元,到2030年將達到5930億美元,預計在2022-2030年間以 28.52%的復合增長率(CAGR)增長。
海內(nèi)外云商均具備自己的超大規(guī)模數(shù)據(jù)中心。Structure Research在其報告中估計, 到2022年全球超大規(guī)模自建數(shù)據(jù)中心總容量將達到13177兆瓦(MW)。全球四大 超大規(guī)模數(shù)據(jù)中心平臺——AWS、谷歌云、Meta和微軟Azure——約占該容量的78%。 全球占主導地位的超大規(guī)模數(shù)據(jù)中心企業(yè)仍然是亞馬遜、谷歌、Meta和微軟,在中 國,本土企業(yè)阿里巴巴、華為、百度、騰訊和金山云都是領先的超大規(guī)模數(shù)據(jù)中心 企業(yè)。
2、IB網(wǎng)絡技術將更廣泛應用于AI訓練超算領域。超級數(shù)據(jù)中心是具有更大規(guī)模和更高計算能力的數(shù)據(jù)中心。隨著對數(shù)據(jù)處理數(shù)量和 速率需求的提升,數(shù)據(jù)中心的可擴展性需求也在迅速提升。超級數(shù)據(jù)中心在規(guī)模和 性能上較傳統(tǒng)數(shù)據(jù)中心都有了大幅升級,能夠滿足超高速度擴展以滿足超級需求的 能力。
泛AI應用是超算中心的重要下游。自20世紀80年代以來,超級計算主要服務于科研 領域。傳統(tǒng)超算基本上都是以國家科研機構為主體的超算中心,如氣象預測、地震 預測、航空航天、石油勘探等。截止2022年底,國內(nèi)已建成10家國家超級計算中心, 不少省份都建立起省級超算中心,服務于當?shù)氐闹锌圃?、氣象局以及地震爆炸模型?一方面,行業(yè)頭部企業(yè)將超算應用于芯片設計、生物醫(yī)療、材料測試等工業(yè)應用場 景;另一方面,自動駕駛訓練、大語言模型訓練、類ChatGPT等AI訓練的需求,也 推動超算應用場景延伸至圖像識別、視頻識別定位、智能駕駛場景模擬以及對話和 客服系統(tǒng)等,成為超算中心的重要下游。
超級數(shù)據(jù)中心成為算力儲備的重要方向,中美加速算力基建布局。憑借其在算力能 力及能耗效率的巨大提升,超級數(shù)據(jù)中心在算力儲備中的地位日漸凸顯。根據(jù) Synergy Research Group數(shù)據(jù),全球超級數(shù)據(jù)中心數(shù)量從2017年的390個增長至 2021年二季度的659個,增長近一倍,預計2024年總數(shù)將超1000個。份額方面,中 美持續(xù)加強超級數(shù)據(jù)中心的布局,占全球市場份額持續(xù)提升。
InfiniBand網(wǎng)絡滿足大帶寬和低時延的需求,成為超算中心的主流。InfiniBand(簡 稱IB)是一個用于高性能計算的計算機網(wǎng)絡通信標準,主要應用于大型或超大型數(shù) 據(jù)中心。IB網(wǎng)絡的主要目標是實現(xiàn)高的可靠性、可用性、可擴展性及高性能,且能 在單個或多個互聯(lián)網(wǎng)絡中支持冗余的I/O通道,因此能夠保持數(shù)據(jù)中心在局部故障時 仍能運轉。相比傳統(tǒng)的以太網(wǎng)絡,帶寬及時延都有非常明顯的優(yōu)勢。(一般InfiniBand 的網(wǎng)卡收發(fā)時延在600ns,而以太網(wǎng)上的收發(fā)時延在10us左右,英偉達推出的 MetroX-3提升長距離InfiniBand系統(tǒng)帶寬至400G)。作為未來算力的基本單元,高 性能的數(shù)據(jù)中心越來越多的采用InfiniBand網(wǎng)絡方案,尤其在超算中心應用最為廣 泛,成為AI訓練網(wǎng)絡的主流。
(四)細分受益環(huán)節(jié)
GPT-4多模態(tài)大模型將引領新一輪AI算力需求的爆發(fā),超大規(guī)模數(shù)據(jù)中心及超算數(shù) 據(jù)中心作為泛AI領域的重要基礎設施支持,其數(shù)量、規(guī)模都將相應增長,帶動整個 算力基礎設施產(chǎn)業(yè)鏈(如高端服務器/交換機、CPO技術、硅光、液冷技術)的滲透 加速。同時在應用側,Copilot的推出加速AI在辦公領域的賦能,看好辦公場景硬件 配套廠商機會。
1、服務器/交換機: AIGC帶動算力爆發(fā)式增長,全球進入以數(shù)據(jù)為關鍵生產(chǎn)要素的數(shù)字經(jīng)濟時代。從國 內(nèi)三大運營商資本支出結構上看,加碼算力基礎設施投資成重要趨勢。重點推薦: 中興通訊。公司作為運營商板塊算力投資的核心受益標的,持續(xù)在服務器及存儲、 交換機/路由器、數(shù)據(jù)中心等算力基礎設施領域加強布局,將作為數(shù)字經(jīng)濟筑路者充 分受益我國數(shù)字經(jīng)濟建設。
算力需求帶動上游硬件設備市場規(guī)模持續(xù)增長,高規(guī)格產(chǎn)品占比提升。伴隨著數(shù)據(jù) 流量持續(xù)提升,交換機作為數(shù)據(jù)中心必要設備,預計全球數(shù)據(jù)中心交換機保持穩(wěn)定 增長。2021年全球數(shù)據(jù)中心交換機市場規(guī)模為138億美元,預計到2031年將達246 億美元,2022年至2031年復合年增長率為5.9%。多元開放的AI服務器架構為可以人 工智能發(fā)展提供更高的性能和可擴展性的AI算力支撐,隨著AI應用的發(fā)展,高性能 服務器數(shù)量有望隨之增長,帶動出貨量及服務器單價相應提升。根據(jù)IDC報告, 2022Q3,200/400GbE交換機市場收入環(huán)比增長25.2%,100GbE交換機收入同比增 長19.8%,高速部分呈現(xiàn)快速增長。
2、光模塊/光芯片: 算力需求提升推動算力基礎設施升級迭代,傳統(tǒng)可插拔光模塊技術弊端和瓶頸開始 顯現(xiàn)。(1)功耗過高,AI技術的加速落地,使得數(shù)據(jù)中心面臨更大的算力和網(wǎng)絡流 量壓力,交換機、光模塊等網(wǎng)絡設備升級的同時,功耗增長過快。以博通交換機芯 片為例,2010年到2022年交換機芯片速率從640G提升到51.2T,光模塊速率從10G 迭代到800G。速率提升的同時,交換機芯片功耗提升了約8倍,光模塊功耗提升了 26倍,SerDes功耗提升了25倍。(2)交換機端口密度難以繼續(xù)提升,光模塊速率 提升的同時,自身體積也在增大,而交換機光模塊端口數(shù)量有限。(3)PCB材料遭 遇瓶頸,PCB用于傳輸高速電信號,傳統(tǒng)可插拔光模塊信號傳輸距離長、傳輸損失 大,更低耗損的可量產(chǎn)PCB材料面臨技術難題難以攻克。
NPO/CPO技術有望成為高算力背景下的解決方案。CPO(光電共封裝技術)是一 種新型的高密度光組件技術,將交換芯片和光引擎共同裝配在同一個Socketed(插 槽)上,形成芯片和模組的共封裝。CPO可以取代傳統(tǒng)的插拔式光模塊技術,將硅 光電組件與電子晶片封裝相結合,從而使引擎盡量靠近ASIC,降低SerDes的驅動功 耗成本,減少高速電通道損耗和阻抗不連續(xù)性,實現(xiàn)更高密度的高速端口,提升帶 寬密度,大幅減少功耗。
CPO技術的特點主要有:(1)CPO技術縮短了交換芯片和光引擎之間的距離(控制在5~7cm),使得高速電信號在兩者之間實現(xiàn)高質(zhì)量傳 輸,滿足系統(tǒng)的誤碼率(BER)要求;(2)CPO用光纖配線架取代更大體積的可 插拔模塊,系統(tǒng)集成度得到提升,實現(xiàn)更高密度的高速端口,提升整機的帶寬密度; (3)降低功耗,根據(jù)銳捷網(wǎng)絡招股說明書,采用CPO技術的設備整機相比于采用可 插拔光模塊技術的設備,整機功耗降低23%。
高算力背景下,數(shù)據(jù)中心網(wǎng)絡架構升級帶動光模塊用量擴張及向更高速率的迭代。 硅光、相干及光電共封裝技術(CPO)等具備高成本效益、高能效、低能耗的特點, 被認為是高算力背景下的解決方案。CPO將硅光電組件與電子晶片封裝相結合,使 引擎盡量靠近ASIC,減少高速電通道損耗,實現(xiàn)遠距離傳送。目前,頭部網(wǎng)絡設備 和芯片廠商已開始布局硅光、CPO相關技術與產(chǎn)品。
3、數(shù)據(jù)中心: IDC數(shù)據(jù)中心:“東數(shù)西算”工程正式全面啟動一周年,從系統(tǒng)布局進入全面建設階 段。隨著全國一體化算力網(wǎng)絡國家樞紐節(jié)點的部署和“東數(shù)西算”工程的推進,算 力集聚效應初步顯現(xiàn),算力向規(guī)模化集約化方向加速升級,同時數(shù)據(jù)中心集中東部 的局得到改善,西部地區(qū)對東部地區(qū)數(shù)據(jù)計算需求的支撐作用越發(fā)明顯。我們認為 政策面推動供給側不斷出清,AI等應用將帶動新一輪流量需求,有望打破數(shù)據(jù)中心 近兩年供給過剩的局面,帶動數(shù)據(jù)中心長期發(fā)展。
液冷溫控:隨云計算、AI、超算等應用發(fā)展,數(shù)據(jù)中心機柜平均功率密度數(shù)預計將 逐年提升,高密度服務器也將被更廣泛的應用于數(shù)據(jù)中心中。數(shù)據(jù)中心液冷技術能 夠穩(wěn)定CPU溫度、保障CPU在一定范圍內(nèi)進行超頻工作不會出現(xiàn)過熱故障,有效提 升了服務器的使用效率和穩(wěn)定性,有助于提高數(shù)據(jù)中心單位空間的服務器密度,大幅 提升數(shù)據(jù)中心運算效率,液冷技術有望在超高算力密度場景下持續(xù)滲透。
4、運營商: 通信運營商自身擁有優(yōu)質(zhì)網(wǎng)絡、算力、云服務能力的通信運營商,同時具備天然的 產(chǎn)業(yè)鏈優(yōu)勢,依靠5G+AI技術優(yōu)勢,為下游客戶提供AI服務能力,是新型信息服務 體系中重要的一環(huán),助力千行百業(yè)數(shù)字化轉型。作為算力基礎設施建設的主力軍已 經(jīng)進行前瞻性的基礎設施布局。中國移動打造九天人工智能平臺,推進AI商業(yè)化, 賦能中國移動內(nèi)外部數(shù)智化轉型;中國電信全面布局大模型技術,積極探索產(chǎn)業(yè)版 “ChatGPT”的商業(yè)化應用;中國聯(lián)通全力升級算力網(wǎng)絡,推動5G和AI技術的融合。
5、企業(yè)通信: 3月16日晚微軟正式宣布推出Microsoft 365 Copilot,將大型語言模型(LLMs)的能 力嵌入到Office辦公套件產(chǎn)品中?;贕PT-4的Copilot以其視頻+圖文的多模態(tài)分析 以及更強大生成與理解能力,可更深度、全面發(fā)揮視頻會議AI助理功能,比如可以確定目標捕捉發(fā)言總結某人談話要點、全面理解會議主要內(nèi)容并自動整理及發(fā)送會 議紀要等。隨著Copilot更強大功能對微軟辦公套件的加持,有望帶動Teams需求的 增長,中國企業(yè)通信終端廠商將作為微軟重要的硬件合作伙伴有望深度受益。
審核編輯 :李倩
-
GPT
+關注
關注
0文章
351瀏覽量
15281 -
AI算力
+關注
關注
0文章
68瀏覽量
8516 -
OpenAI
+關注
關注
9文章
1033瀏覽量
6378
原文標題:GPT~4引發(fā)新一輪AI算力需求爆發(fā)
文章出處:【微信號:AIOT大數(shù)據(jù),微信公眾號:AIOT大數(shù)據(jù)】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論