0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI初出企業(yè)Cerebras已申請IPO!稱發(fā)布的AI芯片比GPU更適合大模型訓(xùn)練

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-06-26 00:09 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近日,據(jù)外媒報(bào)道,研發(fā)出世界最大芯片的明星AI芯片獨(dú)角獸Cerebras Systems已向證券監(jiān)管機(jī)構(gòu)秘密申請IPO。

Cerebras成立于2016年,總部在美國加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計(jì)算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級計(jì)算機(jī)。基于其最新旗艦芯片構(gòu)建的服務(wù)器可輕松高效地訓(xùn)練萬億參數(shù)模型。

Cerebras已發(fā)布第三代AI芯片

技術(shù)實(shí)力方面,Cerebras公司采用獨(dú)特的晶圓級集成技術(shù),將整片晶圓作為一個(gè)單獨(dú)的芯片來使用,實(shí)現(xiàn)了前所未有的集成度和性能。這種技術(shù)使得Cerebras的AI芯片在晶體管數(shù)量、計(jì)算能力和內(nèi)存帶寬等方面均達(dá)到了業(yè)界領(lǐng)先水平。

Cerebras的AI芯片具有強(qiáng)大的計(jì)算能力,能夠支持訓(xùn)練業(yè)界最大的AI模型,包括參數(shù)規(guī)模高達(dá)數(shù)十萬億個(gè)的模型。這種高性能計(jì)算能力使得研究人員能夠更快地測試想法、使用更多數(shù)據(jù)并解決新問題。

Cerebras的AI芯片采用了先進(jìn)的通信架構(gòu),實(shí)現(xiàn)了全局性的低延遲、高帶寬通信。這種通信架構(gòu)使得多個(gè)Cerebras芯片之間能夠高效地進(jìn)行數(shù)據(jù)傳輸和協(xié)作,進(jìn)一步提升了AI應(yīng)用的性能。

產(chǎn)品方面,Cerebras的核心產(chǎn)品線WSE(Wafer Scale Engine)系列已經(jīng)過更新三代。2019年8月,Cerebras發(fā)布第一顆芯片WSE,WSE作為Cerebras標(biāo)志性產(chǎn)品,是史上最大的AI芯片之一。其設(shè)計(jì)突破了傳統(tǒng)半導(dǎo)體制造的界限,采用了獨(dú)特的晶圓級集成(Wafer-Scale Integration, WSI)技術(shù),將整個(gè)晶圓作為一個(gè)單獨(dú)的芯片來使用,這在當(dāng)時(shí)是前所未有的。

這顆芯片采用臺積電16nm制程,在46225mm2面積上集成了40萬個(gè)AI核心和1.2萬億顆晶體管。同時(shí),該芯片配備了18GB的片上靜態(tài)隨機(jī)存取存儲器(SRAM),這一容量遠(yuǎn)大于大多數(shù)芯片的片外存儲(DDR)。帶寬達(dá)到100Pb/s(1Pb=1000TB),這一數(shù)值比現(xiàn)有芯片的相關(guān)參數(shù)高出一個(gè)單位(3個(gè)數(shù)量級)。

2021年,Cerebras推出第二代芯片WSE-2,搭載WSE-2芯片的AI超算系統(tǒng)CS-2也同期發(fā)布。WSE-2在繼承了WSE的晶圓級集成技術(shù)的基礎(chǔ)上,進(jìn)一步提升了制程工藝和性能,成為當(dāng)時(shí)業(yè)界領(lǐng)先的AI芯片之一。該芯片采用臺積電7nm制程,相較于前代產(chǎn)品WSE的16nm工藝,進(jìn)一步縮小了晶體管的尺寸,提高了集成度。與WSE相同,WSE-2也采用了整片晶圓作為單一芯片,面積約為462255mm2。晶體管數(shù)量達(dá)到了創(chuàng)紀(jì)錄的2.6萬億個(gè),相較于WSE的1.2萬億個(gè)晶體管,實(shí)現(xiàn)了翻倍的增長。

WSE-2集成了85萬個(gè)專為AI應(yīng)用優(yōu)化的稀疏線性代數(shù)計(jì)算(SLAC)核心,相較于WSE的40萬個(gè)核心,有了顯著的提升。片上內(nèi)存提升至40GB,相較于WSE的18GB,增加了近一倍。內(nèi)存帶寬高達(dá)20PB/s,相較于WSE的9PB/s,也有了顯著的提升。

今年3月,Cerebras推出了第三代晶圓級芯片WSE-3和AI超級計(jì)算機(jī)CS-3。WSE-3采用臺積電5nm制程,有90萬個(gè)AI核心和4萬億顆晶體管。配備了44GB的片上SRAM緩存,相較于前代產(chǎn)品有了顯著提升。這一大容量片上內(nèi)存能夠支持更大規(guī)模的AI模型訓(xùn)練,無需進(jìn)行分區(qū)或重構(gòu),大大簡化了訓(xùn)練工作流程。WSE-3的內(nèi)存帶寬高達(dá)21PB/s,峰值A(chǔ)I算力高達(dá)125 PetaFLOPS,相當(dāng)于每秒能夠執(zhí)行12.5億億次浮點(diǎn)計(jì)算。

Cerebras 的AI芯片被認(rèn)為更適合大模型訓(xùn)練

Cerebras的芯片被認(rèn)為比GPU更適合用于大模型訓(xùn)練。其WSE系列芯片具有龐大的規(guī)模和驚人的性能。例如,WSE-3擁有超過4萬億個(gè)晶體管和46225mm2的硅片面積,堪稱全球最大的AI芯片。與之相比,傳統(tǒng)GPU的規(guī)模和性能通常較小。Cerebras的芯片能夠在單個(gè)設(shè)備上容納和訓(xùn)練比當(dāng)前熱門模型大得多的下一代前沿模型。

Cerebras的芯片搭載了大量的核心和內(nèi)存。例如,WSE-3擁有900,000個(gè)核心和44GB內(nèi)存,這使得它能夠同時(shí)處理大量的數(shù)據(jù)和計(jì)算任務(wù)。傳統(tǒng)GPU的核心數(shù)量和內(nèi)存通常較小,可能需要多個(gè)GPU協(xié)同工作才能達(dá)到類似的性能。

Cerebras采用了片上內(nèi)存的設(shè)計(jì),這意味著內(nèi)存和計(jì)算核心都在同一個(gè)芯片上,從而大大減少了數(shù)據(jù)傳輸?shù)拈_銷和延遲。相比之下,傳統(tǒng)GPU的內(nèi)存和計(jì)算核心是分離的,需要通過PCIe等接口進(jìn)行數(shù)據(jù)傳輸,這可能導(dǎo)致性能瓶頸和延遲。

Cerebras的CS-3系統(tǒng)是基于WSE-3推出的,具備強(qiáng)大的系統(tǒng)支持。該系統(tǒng)擁有高達(dá)1.2PB的內(nèi)存容量,能夠訓(xùn)練比GPT-4和Gemini模型大10倍的下一代前沿模型。在大模型訓(xùn)練中,Cerebras的CS-3系統(tǒng)相較于GPU具有更低的代碼復(fù)雜性和更高的易用性。開發(fā)人員可以更加高效地實(shí)現(xiàn)和訓(xùn)練大模型。

Cerebras的芯片通過保持整個(gè)晶圓的完整性來降低互連和網(wǎng)絡(luò)成本以及功耗。這使得Cerebras的芯片在功耗和成本方面相較于多個(gè)GPU協(xié)同工作具有優(yōu)勢。

今年4月,Cerebras發(fā)文比較Cerebras CS-3與英偉達(dá)B200,稱CS-3和英偉達(dá)DGX B200是2024年上市的兩款最令人興奮的AI硬件新品。從對比數(shù)據(jù)來看,無論AI訓(xùn)練性能還是能效,CS-3都做到倍殺DGX B200。

wKgZomZ6l4uAM3yGAAHe43y7_Gk033.png

寫在最后

目前,AI大模型訓(xùn)練基本離不開GPU的支持,Cerebras發(fā)布的WSE系列芯片,給業(yè)界帶來了新的思路,尤其是其今年發(fā)布的第三代產(chǎn)品WSE-3,能夠支持訓(xùn)練業(yè)界最大的AI模型,包括參數(shù)規(guī)模高達(dá)24萬億個(gè)的模型。如果其能夠順利上市,一是對于其自身后續(xù)發(fā)展更有利,二是對于英偉達(dá)來說它可能會(huì)成長為一個(gè)較大的競爭對手。







聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4673

    瀏覽量

    128594
  • ipo
    ipo
    +關(guān)注

    關(guān)注

    1

    文章

    1184

    瀏覽量

    32520
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1850

    瀏覽量

    34849
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2275

    瀏覽量

    2358
收藏 人收藏

    評論

    相關(guān)推薦

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)框架,提供了豐富的工具和
    的頭像 發(fā)表于 11-05 17:43 ?406次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?176次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個(gè)廣泛用于圖像識別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁抓取數(shù)據(jù)以供自然語言處理模型
    的頭像 發(fā)表于 10-23 15:32 ?313次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?373次閱讀

    Cerebras提交IPO申請,估值達(dá)41億美元

    近日,晶圓級AI芯片領(lǐng)域的佼佼者Cerebras Systems正式啟動(dòng)了在美國納斯達(dá)克市場的首次公開募股(IPO)程序,股票代碼定為「CBRS」。此次
    的頭像 發(fā)表于 10-09 17:04 ?448次閱讀

    GPU服務(wù)器在AI訓(xùn)練中的優(yōu)勢具體體現(xiàn)在哪些方面?

    能力特別適合于深度學(xué)習(xí)中的大規(guī)模矩陣運(yùn)算和高維度數(shù)據(jù)處理,這些是AI訓(xùn)練中常見的計(jì)算密集型任務(wù)。 2、高效的數(shù)據(jù)處理:AI訓(xùn)練通常涉及大量的
    的頭像 發(fā)表于 09-11 13:24 ?294次閱讀

    蘋果AI模型訓(xùn)練新動(dòng)向:攜手谷歌,未選英偉達(dá)

    近日,蘋果公司發(fā)布的最新研究報(bào)告揭示了其在人工智能領(lǐng)域的又一重要戰(zhàn)略選擇——采用谷歌設(shè)計(jì)的芯片訓(xùn)練AI模型,而非行業(yè)巨頭英偉達(dá)的產(chǎn)品。這
    的頭像 發(fā)表于 08-01 18:11 ?885次閱讀

    蘋果承認(rèn)使用谷歌芯片訓(xùn)練AI

    蘋果公司最近在一篇技術(shù)論文中披露,其先進(jìn)的人工智能系統(tǒng)Apple Intelligence背后的兩個(gè)關(guān)鍵AI模型,是在谷歌設(shè)計(jì)的云端芯片上完成預(yù)訓(xùn)練的。這一消息標(biāo)志著在尖端
    的頭像 發(fā)表于 07-30 17:03 ?670次閱讀

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計(jì)算資源來進(jìn)行訓(xùn)練AI模型的主要特點(diǎn)包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?3.7w次閱讀

    AI初創(chuàng)公司Cerebras秘密申請IPO

    近日,全球科技圈再次掀起波瀾。據(jù)外媒最新報(bào)道,被譽(yù)為明星AI芯片獨(dú)角獸的Cerebras Systems,已經(jīng)悄然向證券監(jiān)管機(jī)構(gòu)遞交了首次公開募股(IPO)的秘密
    的頭像 發(fā)表于 06-27 17:44 ?681次閱讀

    摩爾線程與師者AI攜手完成70億參數(shù)教育AI模型訓(xùn)練測試

    近日,國內(nèi)知名的GPU制造商摩爾線程與全學(xué)科教育AI模型“師者AI”聯(lián)合宣布,雙方已成功完成了一項(xiàng)重要的大模型
    的頭像 發(fā)表于 06-14 16:31 ?526次閱讀

    AI訓(xùn)練,為什么需要GPU?

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI模型訓(xùn)練平臺的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    國產(chǎn)GPUAI模型領(lǐng)域的應(yīng)用案例一覽

    不斷推出新品,產(chǎn)品也逐漸在各個(gè)領(lǐng)域取得應(yīng)用,而且在大模型訓(xùn)練和推理方面,也有所建樹。 ? 國產(chǎn)GPU在大模型上的應(yīng)用進(jìn)展 ? 電子發(fā)燒友此前就統(tǒng)計(jì)過目前國內(nèi)主要的
    的頭像 發(fā)表于 04-01 09:28 ?3635次閱讀
    國產(chǎn)<b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>領(lǐng)域的應(yīng)用案例一覽

    最強(qiáng)AI芯片發(fā)布Cerebras推出性能翻倍的WSE-3 AI芯片

    近日,芯片行業(yè)的領(lǐng)軍企業(yè)Cerebras Systems宣布推出其革命性的產(chǎn)品——Wafer Scale Engine 3,該產(chǎn)品成功將現(xiàn)有最快AI
    的頭像 發(fā)表于 03-19 09:31 ?989次閱讀
    最強(qiáng)<b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>發(fā)布</b>,<b class='flag-5'>Cerebras</b>推出性能翻倍的WSE-3 <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>

    AI模型怎么解決芯片過剩?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05