0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

當大模型被塞進PC:如何提升算力利用效率?

jf_WZTOguxH ? 來源:AI前線 ? 2023-11-10 16:45 ? 次閱讀

ChatGPT 的爆火掀起了 AI 大模型熱潮,也進一步拉動了算力需求的爆發(fā),面對呈指數(shù)級增長的算力需求,如何用得起、用得上、用得好算力成為大家普遍關心的問題。那么,在大規(guī)模 AI 模型訓練中,如何保證算力的高效利用?有哪些技術(shù)或方法可以提升訓練的效率和穩(wěn)定性?AIGC 應用如何下沉到終端?近日,InfoQ《極客有約》邀請到了英特爾中國技術(shù)部總經(jīng)理高宇,為大家分享《AIGC 時代,如何提升端側(cè)算力利用效率?》。

以下為訪談實錄,完整視頻參看:https://www.infoq.cn/video/w4UPiNImmKac6OSgpEiP

姜雨生:歡迎大家來到 InfoQ 極客有約,我是今天的特邀主持人,微軟軟件工程師姜雨生。本期直播,我們邀請到了英特爾中國技術(shù)部總經(jīng)理高宇老師來給我們做分享。今天的直播主題是《AIGC 時代,如何提升端側(cè)算力利用效率?》。先請高宇老師給大家做一個簡單的介紹。

高宇:InfoQ 的朋友們,大家晚上好。我是高宇(Gary Gao),來自英特爾中國,負責英特爾中國技術(shù)支持團隊的工作。今天,我非常榮幸與大家分享關于在端側(cè)實現(xiàn) AIGC 的熱門話題。

生成式 AI 技術(shù)的發(fā)展與挑戰(zhàn)

姜雨生:去年推出的 ChatGPT 引起了廣泛關注,掀起了大型 AI 模型的熱潮,企業(yè)和個人對算力的需求呈現(xiàn)出爆發(fā)性增長。這輪 AI 算力需求的爆發(fā)給您帶來最大的感受是什么?行業(yè)發(fā)生了哪些變化?

高宇:這一輪生成式 AI 熱潮確實代表了技術(shù)上的一個重大突破,無論是給消費者、商業(yè)客戶還是數(shù)據(jù)科學家,都帶來了巨大的潛力和影響。從去年 ChatGPT 3.5 正式發(fā)布以來,它展示出的智能和生成文本的能力讓整個學術(shù)界、消費市場和最終用戶都感到震驚。在短時間內(nèi),ChatGPT 3.5 已成為全球最受歡迎的應用之一,這一成就令人印象深刻。我認為,它對整個行業(yè)的影響可以從正面和挑戰(zhàn)兩個維度來分析。

從正面來看,首先,生成式 AI 極大地改善了用戶體驗。以前的搜索引擎和智能問答系統(tǒng)在知識方面相對固定,而生成式 AI 具有強大的學習和涌現(xiàn)能力,這是以前所沒有的。因此,用戶體驗得到了顯著改善。

其次,它激發(fā)了學術(shù)界和企業(yè)界對這項技術(shù)的研究興趣。在過去的半年里,全球企業(yè)和知名的學術(shù)機構(gòu)都大量投入到生成式 AI 的研究中。這種巨大的資金和智力投入使我們相信未來幾年生成式 AI 的發(fā)展將非常迅猛,因為許多人都在進行相關研究和突破。

第三,我們看到生成式 AI 目前主要應用于人機對話,但我們更看好它在各種行業(yè)中,尤其是垂直行業(yè)中的應用潛力。例如,目前人們正在探討用于醫(yī)療領域的大型模型,專為銀行系統(tǒng)設計的大型模型,甚至為金融等垂直行業(yè)開發(fā)的模型。因此,我們對它在這些領域的應用前景非常期待。

當然,大型模型的出現(xiàn)和生成式 AI 的發(fā)展確實帶來了一些重要挑戰(zhàn)。在這方面,我們可以總結(jié)為以下幾點。

首先,幾乎所有大型科技公司都加入到了這個浪潮中。因此,這個領域的應用進展非常迅速,有時候可能會出現(xiàn)一些重復性工作,甚至資源浪費。

第二,數(shù)據(jù)隱私和可靠性是一個重大問題。個人數(shù)據(jù)的保護以及互聯(lián)網(wǎng)上的開源內(nèi)容如何得到保護都是重要考慮因素。此外,還涉及到更深層次的問題,例如對問題的解釋、價值觀的取向和正確判斷等,這些都是全新的挑戰(zhàn)。

英特爾倡導的 AI 不僅關注性能和能力,還強調(diào)負責任的 AI。這也是領先廠商共同的理念,即人工智能的發(fā)展應該以對社會負責任的態(tài)度為基礎。總之,生成式 AI 對我們行業(yè)帶來了重要沖擊,后續(xù)我們可以深入探討這些挑戰(zhàn)的細節(jié)。

算力成本居高不下,如何找到破解之法?

姜雨生:無論是模型訓練還是模型調(diào)用,計算資源的需求都在不斷增加。這背后伴隨著高昂的成本,對許多企業(yè)而言,這成為了業(yè)務擴展的一道巨大障礙。您怎么看算力貴這一現(xiàn)象?隨著技術(shù)的發(fā)展,算力貴的現(xiàn)狀會有所改善嗎?

高宇:目前,大家都不得不承認算力成本有待解決。因此,大家都對這個行業(yè)的情況非常關注。我們可以分析一下導致算力成本上升的原因。

首先,運行生成實驗,特別是訓練模型所需的 GPU 性能相對較高,因此整個 GPU 以及 GPU 卡的成本較高,它需要更大的 GPU 芯片來提供更高的算力。此外,它還需要更快的內(nèi)存,通常采用 HBM(High Bandwidth Memory,高帶寬內(nèi)存)內(nèi)存架構(gòu),這也增加了成本。再加上需要用 8 卡互聯(lián)的訓練機,整機的物料成本非常昂貴,這是導致成本高昂的原因之一。

第二,與之前提到的問題相關,現(xiàn)在幾乎所有人都涌入了這個行業(yè),導致了短期內(nèi)供大于求的情況。一度出現(xiàn)了 GPU 卡供不應求的情況,這已經(jīng)從去年年底開始,需求量大但供應相對不足。

第三,整個大型 GPU 服務器或智算中心的運營成本極高,包括場地和能源消耗。一個標準的 GPU 服務器機柜功耗至少為 30 千瓦,而大多數(shù)數(shù)據(jù)中心機柜通常只能達到 10 千瓦到 20 千瓦之間,無法滿足 30 千瓦的要求,這也增加了成本因素。

當然,我們還需要考慮一點,因為生成式 AI 仍處于早期階段,所以在許多算法優(yōu)化和資源利用方面還有改進的空間。因此,有望在未來降低算力成本。

姜雨生:在目前算力貴這個方向,英特爾目前有哪些相關的解決方案,這面方便給我們大概介紹一下嗎?

高宇:我們需要思考一個根本性問題,即如何應對昂貴的算力這一行業(yè)性的難題。我們有幾個想法,雖然稍后我們還會談及產(chǎn)品方面的問題,但現(xiàn)在我們首先想從行業(yè)角度提出一些大的思路。

首先,我們認為當前的推理部分應該更加分布式和層次化,充分利用云、邊緣和終端的不同層次來部署推理算力,以充分發(fā)揮算力性能。具體來說,我們的建議是在云端進行大規(guī)模的訓練,這是云側(cè)的任務。此外,云側(cè)適合大集群訓練,部署超大型模型,例如 ChatGPT 等超過 100 億的模型。第三,云側(cè)適合部署高并發(fā)的場景,即當用戶數(shù)量龐大時,需要同時滿足所有客戶的需求,這也需要云端來實現(xiàn)。

對于不屬于以上幾種情況的 AI 推理算力,我們建議將其下沉到邊緣側(cè)。如今,運營商和企業(yè)都擁有許多邊緣側(cè)數(shù)據(jù)中心,雖然這些數(shù)據(jù)中心規(guī)模較小,機器配置的算力相對較低,但足以支持多種類型的大型模型的推理。根據(jù)我們的判斷,大約在 10 億到 30 億之間的模型可以考慮部署在邊緣側(cè),因為邊緣側(cè)可以使用性能稍微較低端的 GPU 卡或 CPU 進行推理,性能足夠。此外,在邊緣側(cè)部署可以提供更好的低延遲體驗,成本也較低。

下沉的第二步就是把它部署在端側(cè)。我們認為一些規(guī)模較小的模型,比如小于 10 億參數(shù)的模型,經(jīng)過一定的優(yōu)化和量化,以及低精度的比特量化后,完全可以部署到個人計算機(PC)或虛擬私有云(VPC)等設備上。將其部署到端側(cè)帶來兩個明顯的好處。首先,它的性能延遲是最低的,因為不需要經(jīng)過網(wǎng)絡傳輸,減少了任何網(wǎng)絡延遲。此外,邊緣側(cè)部署還有一個重要的優(yōu)勢,即對個人隱私的最大程度保護,因此數(shù)據(jù)泄露的風險幾乎不存在。因此,從大的原則上講,我們希望將大型模型轉(zhuǎn)化為云、邊緣和終端三層協(xié)同的架構(gòu),這應該是未來發(fā)展的趨勢之一。

姜雨生:有觀眾提問,在算力優(yōu)化方面,我們業(yè)界還有沒有一些通用的方案?

高宇:我們了解到,在當前的研究領域中,一個備受關注的通用方案是針對低比特量化的優(yōu)化。目前,大多數(shù)部署在云端的模型采用的是 FP16(16 位浮點數(shù))的精度。然而,如果要將模型部署在邊緣側(cè)或終端側(cè),通常的做法是首先將其量化為 INT8(8 位整數(shù)),然后可以進一步將其量化為更低比特位,如 INT5、INT4 或 INT3,這都是可能的,而且我們看到在這方面行業(yè)已經(jīng)取得了一些顯著的進展。

AIGC 應用如何下沉到終端?

姜雨生:我認為開發(fā)者會積極采用 AIGC 的大型模型,因為這是未來的趨勢。在過去,我們主要在云服務器上運行 AIGC 應用,包括我自己目前使用的一些 Azure 云上的產(chǎn)品。但云端 AI 也存在延遲和各種限制等方面的一些短板。那么,AIGC 應用有下沉到終端的可行性嗎?

高宇:根據(jù)我們目前的研究成果,我可以告訴大家,針對英特爾的最新平臺,也就是第 13 代(以及后續(xù)推出的第 14 代,采訪時第 14 代酷睿尚未發(fā)布)酷睿處理器家族,我們已經(jīng)取得了非常不錯的優(yōu)化結(jié)果。這個平臺不僅適用于筆記本電腦,還包括臺式機。我相信許多開發(fā)者和用戶在購買電腦時都會選擇最新的酷睿平臺。

以第 13 代酷睿平臺為例,我們的優(yōu)化結(jié)果可以使模型從 7 億參數(shù)到 18 億參數(shù)都能夠流暢運行。特別是在 7 億到 13 億參數(shù)范圍內(nèi),性能效果非常出色,即使超過 13 億參數(shù),模型也可以運行,盡管速度稍慢,但我們認為基本上也可以滿足用戶的需求。當然,我們目前的優(yōu)化主要是在 CPU 上進行的,但下一步我們將充分發(fā)揮平臺內(nèi)的集成顯卡(IGPU)能力,以進一步提升速度。

此外,對于未來,我想提到最近引起廣泛關注的一項重要消息,那就是我們披露了英特爾即將發(fā)布的下一代平臺,內(nèi)部代號為 Meteor Lake,正式品牌叫做 Core Ultra。這個平臺不僅具有強大的 CPU 算力,還將 GPU 算力提高了一倍,因此 GPU 算力非常強大。另外,它還內(nèi)置了專用的 AI 加速器(NPU),可以提供超過 11 tops 的峰值算力。因此,在下一代平臺上,我們將能夠充分利用三種計算資源,包括 CPU、GPU 和 NPU 的算力,以實現(xiàn)更出色的性能。這是我們下一代平臺的亮點,敬請期待。

姜雨生:英特爾之前提出在 PC 端側(cè)跑 AIGC 應用,具體是如何實現(xiàn)的?在軟硬件層面是如何提升算力利用效率,實現(xiàn)算力優(yōu)化的?

高宇:我來簡要介紹一下我們目前正在發(fā)布的開源框架,它叫做 BigDL,是專門為英特爾的處理器和 GPU 開發(fā)的一個低比特量化框架。感興趣的觀眾可以進入在 GitHub(https://github.com/intel-analytics/BigDL) 上查看,下載我們的 BigDL 開源代碼,進行實驗。

BigDL 有一些顯著特點。首先,它支持低比特量化,從 INT8 到 INT5、INT4、INT3 等各種低比特的數(shù)據(jù)精度,從而提供更好的性能,并減少內(nèi)存占用。這一點尤其重要,因為在邊緣計算領域,除了性能挑戰(zhàn)之外,內(nèi)存也相對較低,所以低比特量化是解決這個問題的一種方法。

此外,BigDL 支持多種平臺,包括英特爾的各種 CPU 系列,從 Xeon 處理器到酷睿處理器等。它還支持英特爾的各種 GPU 系列,包括英特爾 Flex 系列用于數(shù)據(jù)中心的專用顯卡以及英特爾銳炫( Arc) 系列面向消費者的顯卡。

姜雨生:我也確實感受到了在個人電腦上運行大型模型以及進行內(nèi)容生成的可能性,特別是在我的個人電腦上裝備了這些硬件的情況下。實際上,我也想了解一下一些相關的技術(shù),如果要大規(guī)模普及,關鍵的主要指標可能是顛覆,即用戶在他們的實際工作和生活中所體驗到的變革。那么 AI 能夠在端側(cè)帶給用戶哪些具體的體驗提升?

高宇:從我們現(xiàn)在的觀察來看,大型模型在端側(cè)用戶領域可能有幾個可能的應用場景。首先,大型模型可以成為每個用戶的個人超級助手。這種大型模型可以在云端運行,同時也可以通過我們剛剛提到的低比特量化技術(shù)在個人電腦上運行,從而提供更好的用戶體驗。這是第一個應用場景。

第二,它可以用于文檔處理,包括提取文檔的核心思想和糾正文檔中的語法錯誤等任務。對于這種應用場景,更適合將模型部署在端側(cè),因為許多文檔包含一些個人屬性,用戶可能不愿意將其上傳到云端。

第三,我們觀察到大型模型,特別是 Diffusion 模型,在圖像生成方面具有出色的能力,這對于許多設計師來說是一個強大的工具。許多圖形、圖像和三維設計公司積極采用 Stable Diffusion 以及相關衍生模型,以幫助設計師生成各種圖片和畫面,從而實現(xiàn)事半功倍的效果。

姜雨生:將 AIGC 相關應用以預裝軟件的方式適配到未來的電腦中,是否是 PC 創(chuàng)新的一個新方向?它對于 PC 應用效率的提升是否有著大幅超越以往的預期?

高宇:當然,答案是肯定的。在未來的個人電腦上,無論是筆記本還是臺式機,它們的算力已經(jīng)足以支持像 7 到 13 億級別的大型語言模型在本地運行。這種潛力已經(jīng)存在,接下來我們可以期待不同的商業(yè)模式的出現(xiàn)。

首先,我們可能會看到一些商業(yè)軟件集成了中小型大語言模型,將其變成了生成式人工智能的專業(yè)商業(yè)軟件。這些軟件還有可能集成了 Stable Diffusion 等功能,從而成為一種可用于文本生成和其他工作流程的商業(yè)軟件。因此,可以期待在桌面平臺上出現(xiàn)集成生成式人工智能能力的商業(yè)軟件,這是一個可能的落地方式。

另外一種方式是鼓勵更多的 OEM 制造商,也就是個人電腦的品牌制造商,為自己的產(chǎn)品開發(fā)專門針對硬件優(yōu)化的生成式人工智能軟件,并將其預裝在他們的電腦上,以提高最終用戶的體驗,使電腦更易于使用和更具趣味性。這種輔助性軟件可以提升用戶的使用體驗,增加趣味性,我認為這也是一個非常有潛力的方向。

端側(cè)運行大模型存在哪些挑戰(zhàn)?

姜雨生:有觀眾提問,端側(cè)跑這些大模型有沒有一些難點我也比較關注這個問題,端側(cè)跑大模型有沒有一些相對不適用的場景或內(nèi)容?

高宇:端側(cè)與云側(cè)相比,目前存在兩大限制。首先,端側(cè)的計算能力明顯不如云端強大。這是顯而易見的。第二,端側(cè)的內(nèi)存相對有限。當前,筆記本電腦和 PC 的主流配置通常為 16GB 內(nèi)存。明年我們可能會看到更多配置為 32GB 內(nèi)存的 PC,但即使是 32GB 內(nèi)存,相對于云端來說,內(nèi)存仍然有限。因此,端側(cè)需要應對以下兩個主要挑戰(zhàn)。

首先,模型的參數(shù)量需要受限,通常在 130 億以下。其次,必須進行低比特量化,這是一種必不可少的手段。經(jīng)常有人問一個常見的問題,即將一個 FP16 模型量化為 INT4 后,精度損失似乎很大,這對大型模型的性能會產(chǎn)生什么影響?我們目前的基本結(jié)論是,在大型語言模型的情況下,從 FP16 到 INT4 后,回答問題的質(zhì)量會略微下降,但下降幅度并不是很大。如果我們使用評分機制,原來的模型可能是 85 分的模型,經(jīng)過量化后,可能會下降到 82 分左右,所以大致是一個個位數(shù)的質(zhì)量下降。但是在內(nèi)存方面,收益是非常大的,這是一個權(quán)衡。

然而,對于 Stable Diffusion 模型而言,如果將 FP16 量化為 INT8,整個圖像生成的質(zhì)量下降會比較大。因此,對于運行穩(wěn)定擴散模型的端側(cè),我們?nèi)匀粓猿质褂?FP16。幸運的是, Stable Diffusion 模型的參數(shù)量不是很大,因此即使在端側(cè),F(xiàn)P16 的性能也完全可以勝任。

姜雨生:在端側(cè)執(zhí)行一些生成式內(nèi)容和場景時,精確度并不是特別重要,尤其是對于一些模型復雜度不太高的情況來說,這種方式會更加合適。下一步,英特爾有哪些技術(shù)探索和產(chǎn)品規(guī)劃呢?有哪些技術(shù)難題是我們在未來需要解決的?

高宇:對于英特爾未來的產(chǎn)品規(guī)劃,目前英特爾在生成式 AI 領域有幾個主要的產(chǎn)品家族,可以從云端、邊緣和端側(cè)三個維度來介紹。

在云端,英特爾的關鍵產(chǎn)品是 Gaudi2,這是 英特爾 Habana 最新推出的產(chǎn)品。Gaudi2 具有非常高的算力性能,它還具有大容量的顯存,目前 Gaudi2 的配置為 96GB 的 HBM2 顯存,因此可以容納更多的模型。此外,英特爾還推出了專門針對中國市場定制的 Gaudi2 中國版本。云端英特爾還有一款產(chǎn)品叫做 Xeon HBM,它是一款針對大模型推理而設計的 CPU,內(nèi)置了 64GB 的 HBM2 高速內(nèi)存,這對于大型語言模型的推理性能提升非常有幫助。

邊緣側(cè),英特爾推出了兩款顯卡產(chǎn)品,一款是英特爾 Flex 系列,另一款是銳炫( Arc) 系列。Flex 系列是為數(shù)據(jù)中心和服務器設計的無風扇 GPU 產(chǎn)品,而 Arc 系列則是面向消費者市場的顯卡,在算力方面也非常強大,可以滿足邊緣側(cè)推理的要求。這些產(chǎn)品將為邊緣側(cè)大模型推理和 Stable Diffusion 提供強大的支持。

總的來說,英特爾在生成式 A I 領域有一系列強大的產(chǎn)品,覆蓋了云端、邊緣和端側(cè),為不同應用場景提供了多樣化的解決方案。

姜雨生:有觀眾提問,端側(cè)模型跟云端模型有可以配合的方式嗎?

高宇:端側(cè)模型和云端模型可以進行協(xié)同配合,一種可能流行的做法是由端側(cè)模型進行問題的初步預判斷。這個端側(cè)模型可以是相對輕量級的,用于判斷用戶問題的導向方向。如果這個初步判斷結(jié)果顯示性能足以在端側(cè)大模型上運行,那么模型可以在端側(cè)執(zhí)行。但如果判斷需要更強大的計算能力,那么就可以將任務傳遞到云端進行更大型的模型推理。這種方式可能比較容易實現(xiàn),因為它避免了對同一個模型進行拆分,盡管拆分模型也是一種可能的方式,但會更加復雜。

姜雨生:如果希望在個人電腦上運行之前所描述模型相關的內(nèi)容,最低配置要求如何?

高宇:關于個人電腦的配置,主要取決于您的耐心和使用場景,當然這是個半開玩笑,但基本上,為了達到基本的用戶體驗要求,我們建議以下配置:

處理器(CPU):最好選擇第 13/14 代酷睿處理器,尤其是選擇 I7 或更高級別的型號。如果有預算,并且想要更出色的性能,選擇 I9 處理器會更好,正如我在之前的演示視頻中展示的那樣。

內(nèi)存(RAM):至少 16GB RAM 是起點,但更好的選擇是 32GB RAM。此外,要注意內(nèi)存的速度,因為現(xiàn)在的內(nèi)存,尤其是 DDR5 內(nèi)存,速度范圍從入門級的 5677 MHz,一直提升到高達 7233 MHz。內(nèi)存速度越快,性能表現(xiàn)通常越好。再次強調(diào),大型模型通常對內(nèi)存帶寬要求較高,因此提高內(nèi)存帶寬會帶來更大的性能收益。

散熱設計:除了硬件配置,還要考慮系統(tǒng)的散熱設計。良好的散熱設計可以讓 CPU 在 Turbo 模式下更長時間地運行,從而提高性能表現(xiàn)。

選擇適合需求的個人電腦配置是一個綜合考慮的過程。明年新發(fā)布的電腦新品通常會公布其運行大型模型的性能指標,用戶可以根據(jù)廠商提供的指標來選擇適合自己需求的配置,這應該會更準確地滿足你的期望。

當然了,我認為目前大模型仍然存在一些挑戰(zhàn),尤其是在處理模型的一些幻覺問題方面,這個問題在整個行業(yè)中仍然是一個難點,需要不斷攻克。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10702

    瀏覽量

    209373
  • 算力
    +關注

    關注

    1

    文章

    836

    瀏覽量

    14573
  • 大模型
    +關注

    關注

    2

    文章

    2136

    瀏覽量

    1980

原文標題:當大模型被塞進PC:如何提升算力利用效率?

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    的應用需求。 12年前,我與本書作者相識時,他向我提出一個想法:建立中關村在線高性能計算頻道。該頻道隸屬于核心硬件事業(yè)部,聚焦芯片相關的產(chǎn)品技術(shù)分析、評測,并為企業(yè)客戶提供內(nèi)部參考。后來這個想法否決
    發(fā)表于 09-02 10:09

    摩爾線程GPU底座助力大模型產(chǎn)業(yè)發(fā)展

    以大模型為代表的新一代人工智能技術(shù)是引領新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù)和重要驅(qū)動力量,隨著對需求的日益高漲,人工智能底座公司日
    的頭像 發(fā)表于 08-27 16:15 ?430次閱讀

    模型時代的需求

    現(xiàn)在AI已進入大模型時代,各企業(yè)都爭相部署大模型,但如何保證大模型,以及相關的穩(wěn)定性和性能,是一個極為重要的問題,帶著這個極為重要的問
    發(fā)表于 08-20 09:04

    【書籍評測活動NO.41】大模型時代的基礎架構(gòu):大模型中心建設指南

    書籍介紹 大模型是近年來引人注目的熱點之一。大模型蓬勃發(fā)展的基礎,是針對其需求設計的及基礎架構(gòu)。本書針對如何為大模型構(gòu)建基礎架構(gòu)進行深入
    發(fā)表于 08-16 18:33

    曙光攜手“互聯(lián)公共服務平臺”提高全國匹配效率

    近日,由中國信息通信研究院開發(fā)的“互聯(lián)公共服務平臺”在重慶上線。作為該平臺合作方之一,曙光智參與了平臺發(fā)布儀式。 ? ? 曙光將依托在
    的頭像 發(fā)表于 07-16 15:45 ?506次閱讀

    存內(nèi)計算WTM2101編譯工具鏈 資料

    工藝條件下將AI計算效率提升2個數(shù)量級,充分滿足快速發(fā)展的神經(jīng)網(wǎng)絡模型指數(shù)級增長的需求。 witin_mapper是知存科技自研的用于
    發(fā)表于 05-16 16:33

    時代, 如何打破內(nèi)存墻

    設計的不斷革新,進入了大時代。 目前,主流AI芯片的架構(gòu)仍然沿用了傳統(tǒng)的馮·諾依曼模型,這一設計將計算單元與數(shù)據(jù)存儲分離。在這種架構(gòu)下,處理器需要從內(nèi)存中讀取數(shù)據(jù),執(zhí)行計算任務,然后將結(jié)果寫回內(nèi)存。盡管AI芯片的
    的頭像 發(fā)表于 03-06 19:51 ?239次閱讀
    大<b class='flag-5'>算</b><b class='flag-5'>力</b>時代, 如何打破內(nèi)存墻

    潞晨科技Colossal-AI + 浪潮信息AIStation,大模型開發(fā)效率提升10倍

    的潞晨科技Colossal-AI系統(tǒng),用戶可實現(xiàn)在本地平臺一鍵訓練、微調(diào)、推理、部署大模型,將大模型開發(fā)效率
    的頭像 發(fā)表于 03-01 09:43 ?379次閱讀
    潞晨科技Colossal-AI + 浪潮信息AIStation,大<b class='flag-5'>模型</b>開發(fā)<b class='flag-5'>效率</b><b class='flag-5'>提升</b>10倍

    數(shù)據(jù)語料庫、算法框架和芯片在AI大模型中的作用和影響

    數(shù)據(jù)語料庫、算法框架和芯片的確是影響AI大模型發(fā)展的三大重要因素。
    的頭像 發(fā)表于 03-01 09:42 ?706次閱讀

    iBeLink KS MAX 10.5T大領跑KAS新領域

    挖掘機,它可以為用戶提供超高的,低廉的功耗,以及舒適的使用體驗。如果您想要加入Kaspa的挖掘行列,或者想要提升您的挖掘效率和收獲,那么iBeLink ks max 10.5T是您
    發(fā)表于 02-20 16:11

    智能規(guī)模超通用,大模型對智能提出高要求

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)是設備通過處理數(shù)據(jù),實現(xiàn)特定結(jié)果輸出的計算能力,常用FLOPS作為計量單位。FLOPS是Floating-point Operations Per Second
    的頭像 發(fā)表于 02-06 00:08 ?5459次閱讀

    大茉莉X16-P,5800M大稱王稱霸

    Rykj365
    發(fā)布于 :2024年01月25日 14:54:52

    淺談為AI大而生的存-體芯片

    模型爆火之后,存一體獲得了更多的關注與機會,其原因之一是因為存一體芯片的裸相比傳統(tǒng)架構(gòu)的AI芯片,能帶來十倍以上的
    發(fā)表于 12-06 15:00 ?299次閱讀
    淺談為AI大<b class='flag-5'>算</b><b class='flag-5'>力</b>而生的存<b class='flag-5'>算</b>-體芯片

    PODsys:大模型AI平臺部署的開源“神器”

    的大模型研發(fā)工具和框架。在平臺的部署過程中,大模型研發(fā)機構(gòu)常常需要面對一系列的問題:大模型
    的頭像 發(fā)表于 11-08 09:17 ?706次閱讀
    PODsys:大<b class='flag-5'>模型</b>AI<b class='flag-5'>算</b><b class='flag-5'>力</b>平臺部署的開源“神器”

    什么是?如何衡量?

    簡而言之就是設備的計算能力(Computing Power)。小至手機、PC,大到超級計算機,支撐各種軟硬件的正常應用,為生活、生產(chǎn)提供計算能力。以PC而言,搭載的CPU、顯卡、內(nèi)存配置越高,一般來說
    的頭像 發(fā)表于 11-02 10:23 ?1.6w次閱讀