0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

不再焦慮GPU供應(yīng),8芯片挑戰(zhàn)5萬(wàn)億參數(shù)大模型

E4Life ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚(yáng) ? 2023-09-27 09:10 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))隨著LLM與生成式AI熱度不減,不少AI芯片初創(chuàng)公司都找到了新的發(fā)力點(diǎn),紛紛調(diào)整設(shè)計(jì)思路,專為這一爆款應(yīng)用開(kāi)發(fā)出了新款芯片。且不說(shuō)這些芯片的實(shí)際性能如何,但這無(wú)疑是當(dāng)下推動(dòng)這些公司獲得投資,并在行業(yè)下行期存活下去的救命稻草。今天我們就來(lái)聊聊剛發(fā)布新品SN40L的AI芯片初創(chuàng)公司SambaNova。

SN40L背后的SambaNova

SambaNova成立于2017年,截至目前已經(jīng)歷了共計(jì)6輪融資,參與融資的公司包括谷歌、英特爾和軟銀等,融資總額高達(dá)11億美元。只不過(guò)最近的D輪融資,距今已經(jīng)有兩年多的時(shí)間,也難怪SambaNova急于推出SN40L這一芯片,畢竟此類初創(chuàng)公司的開(kāi)發(fā)從來(lái)都是燒錢的。

其實(shí)在SN40L推出以前,SambaNova也并非默默無(wú)聞,比如美國(guó)阿貢國(guó)家實(shí)驗(yàn)室早在第一代產(chǎn)品SN10推出時(shí)就在使用和測(cè)試SambaNova的系統(tǒng)了,只不過(guò)屆時(shí)基于SN10的SambaNova Dataflow系統(tǒng)還只是用于消除數(shù)據(jù)噪聲而已。

如果我們現(xiàn)在看阿貢國(guó)家實(shí)驗(yàn)室的ALCF AI測(cè)試平臺(tái),我們可以看到5大系統(tǒng),分別是Cerebras的CS2、SambaNova的Dataflow、Graphcore的Bow Pod64、Grop系統(tǒng)以及Habana的Gaudi。而目前用于ALCF AI測(cè)試平臺(tái)的SambaNova Dataflow就是基于SN40L的上一代產(chǎn)品SN30 RDU打造的,該芯片基于臺(tái)積電的7nm工藝打造。

目前SN30用在阿貢國(guó)家實(shí)驗(yàn)室的這套系統(tǒng)主要用于一些科學(xué)研究領(lǐng)域的AI計(jì)算,比如中微子物理、癌癥預(yù)測(cè)、氣候建模以及下一代汽車引擎研發(fā)等。而我們真正關(guān)注的是剛發(fā)布的SN40L,以及它在LLM這一應(yīng)用上能提供何種不同的優(yōu)勢(shì)。

英偉達(dá)GPU的替代方案

目前LLM的主流方案,即英偉達(dá)的A100、H100 GPU,存在一個(gè)很大的問(wèn)題,那就是缺貨。對(duì)于任何互聯(lián)網(wǎng)廠商來(lái)說(shuō),在市面上找到足夠多的GPU都是一件費(fèi)錢費(fèi)力的事。而對(duì)于云服務(wù)廠商來(lái)說(shuō)也是如此,他們也要考慮出租這類服務(wù)器時(shí),GPU的算力與容量分配問(wèn)題。

wKgaomUTgVGAKNovADO8XqFE2PU092.png
SN40L芯片和CEO Rodrigo Liang / SambaNova


為了解決“數(shù)量”的問(wèn)題,SambaNova推出了SN40L。相較上一代的SN30,該芯片基于臺(tái)積電5nm工藝打造,每個(gè)芯片集成了1020億個(gè)晶體管和1040個(gè)核,算力高達(dá)638TFlops。更夸張的是,SambaNova稱單個(gè)SN40L系統(tǒng)節(jié)點(diǎn)(8塊SN40L芯片)就能支持到最高5萬(wàn)億參數(shù)的大模型。

與其他AI芯片初創(chuàng)公司不一樣的是,他們并沒(méi)有選擇直接將芯片賣給其他公司這條路線,而是選擇了售賣訪問(wèn)其定制AI技術(shù)棧的訪問(wèn)權(quán),包括其自研硬件和運(yùn)行超大模型的軟件等。這種商業(yè)模式或許能吸引一部分互聯(lián)網(wǎng)公司,但在云服務(wù)廠商眼中,他們應(yīng)該不會(huì)覺(jué)得這是一套可盈利的方案。

此外,SambaNova與其他競(jìng)爭(zhēng)對(duì)手一樣,在AI芯片上引入了64GB HBM用于解決內(nèi)存墻的問(wèn)題,這也是SN40L與上一代芯片的差異之一。只不過(guò)SambaNova并沒(méi)有透露SN40L用的是何種HBM,以及帶寬性能如何。

寫在最后

雖然SambaNova展示了提高LLM擴(kuò)展性的另一條道路,但在沒(méi)有經(jīng)過(guò)實(shí)際驗(yàn)證之前,市場(chǎng)還是會(huì)對(duì)其持觀望態(tài)度。此前也有不少AI芯片公司發(fā)表過(guò)同樣大膽的聲明,但事實(shí)證明這類芯片只適合用于運(yùn)行那些預(yù)訓(xùn)練完成的模型,而訓(xùn)練過(guò)程仍需要靠GPU來(lái)完成。所以哪怕SambaNova的CEO Rodrigo Liang強(qiáng)調(diào)SN40L的訓(xùn)練性能足夠優(yōu)秀,但是否能在這套商業(yè)模式下闖出一片天,就得交由市場(chǎng)去驗(yàn)證了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4678

    瀏覽量

    128616
  • SambaNova
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    190
  • SN40L
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    40
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI大模型不再依賴英偉達(dá)GPU?蘋果揭秘自研大模型

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)過(guò)去幾年中爆發(fā)的AI算力需求,英偉達(dá)GPU成為了最大的贏家,無(wú)論是自動(dòng)駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節(jié)跳動(dòng)等廠商都在爭(zhēng)相搶購(gòu)英偉達(dá)GPU產(chǎn)品
    的頭像 發(fā)表于 08-05 06:07 ?3864次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>不再</b>依賴英偉達(dá)<b class='flag-5'>GPU</b>?蘋果揭秘自研大<b class='flag-5'>模型</b>

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)框架,提供了豐富的工具和方法來(lái)利用GPU進(jìn)行模型訓(xùn)練。 1. 了解
    的頭像 發(fā)表于 11-05 17:43 ?415次閱讀

    當(dāng)前主流的大模型對(duì)于底層推理芯片提出了哪些挑戰(zhàn)

    隨著大模型時(shí)代的到來(lái),AI算力逐漸變成重要的戰(zhàn)略資源,對(duì)現(xiàn)有AI芯片也提出了前所未有的挑戰(zhàn):大算力的需求、高吞吐量與低延時(shí)、高效內(nèi)存管理、能耗等等。
    的頭像 發(fā)表于 09-24 16:57 ?551次閱讀

    英偉達(dá)Blackwell可支持10萬(wàn)億參數(shù)模型AI訓(xùn)練,實(shí)時(shí)大語(yǔ)言模型推理

    、NVLink交換機(jī)、Spectrum以太網(wǎng)交換機(jī)和Quantum InfiniBand交換機(jī)。 ? 英偉達(dá)稱,Blackwell擁有6項(xiàng)革命性技術(shù),可支持多達(dá)10萬(wàn)億參數(shù)模型進(jìn)行AI訓(xùn)練
    的頭像 發(fā)表于 09-04 09:10 ?2790次閱讀

    英偉達(dá)震撼發(fā)布:全新AI模型參數(shù)規(guī)模躍升至80億量級(jí)

    8月23日,英偉達(dá)宣布,其全新AI模型面世,該模型參數(shù)規(guī)模高達(dá)80億,具有精度高、計(jì)算效益大等優(yōu)勢(shì),適用于GPU加速的數(shù)據(jù)中心、云及工作站環(huán)
    的頭像 發(fā)表于 08-23 16:08 ?672次閱讀

    暴漲預(yù)警!NVIDIA GPU供應(yīng)大跳水

    gpu
    jf_02331860
    發(fā)布于 :2024年07月26日 09:41:42

    模型發(fā)展下,國(guó)產(chǎn)GPU的機(jī)會(huì)和挑戰(zhàn)

    電子發(fā)燒友網(wǎng)站提供《大模型發(fā)展下,國(guó)產(chǎn)GPU的機(jī)會(huì)和挑戰(zhàn).pdf》資料免費(fèi)下載
    發(fā)表于 07-18 15:44 ?6次下載
    大<b class='flag-5'>模型</b>發(fā)展下,國(guó)產(chǎn)<b class='flag-5'>GPU</b>的機(jī)會(huì)和<b class='flag-5'>挑戰(zhàn)</b>

    AI初出企業(yè)Cerebras已申請(qǐng)IPO!稱發(fā)布的AI芯片GPU更適合大模型訓(xùn)練

    美國(guó)加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級(jí)芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計(jì)算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級(jí)計(jì)算機(jī)?;谄渥钚缕炫?b class='flag-5'>芯片構(gòu)建的服務(wù)器可輕松高
    的頭像 發(fā)表于 06-26 00:09 ?2863次閱讀
    AI初出企業(yè)Cerebras已申請(qǐng)IPO!稱發(fā)布的AI<b class='flag-5'>芯片</b>比<b class='flag-5'>GPU</b>更適合大<b class='flag-5'>模型</b>訓(xùn)練

    中國(guó)電信發(fā)布全球首個(gè)單體稠密萬(wàn)億參數(shù)語(yǔ)義模型

    近日,中國(guó)電信人工智能研究院(TeleAI)攜手北京智源人工智能研究院,共同推出了全球首個(gè)單體稠密萬(wàn)億參數(shù)語(yǔ)義模型——Tele-FLM-1T,這一里程碑式的成就標(biāo)志著中國(guó)電信在人工智能領(lǐng)域取得了重大突破,并成為了國(guó)內(nèi)首批發(fā)布稠密
    的頭像 發(fā)表于 06-20 10:50 ?616次閱讀

    萬(wàn)卡集群解決大模型訓(xùn)算力需求,建設(shè)面臨哪些挑戰(zhàn)

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)萬(wàn)卡集群是指由一萬(wàn)張及以上的加速卡(包括GPU、TPU及其他專用AI加速芯片)組成的高性能計(jì)算系統(tǒng),主要用于加速人工智能模型的訓(xùn)練和推理過(guò)程。這種集群的構(gòu)建旨在
    的頭像 發(fā)表于 06-02 06:18 ?4517次閱讀
    萬(wàn)卡集群解決大<b class='flag-5'>模型</b>訓(xùn)算力需求,建設(shè)面臨哪些<b class='flag-5'>挑戰(zhàn)</b>

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    百億億次計(jì)算和萬(wàn)億參數(shù)模型提供基礎(chǔ) NVIDIA推出世界首個(gè)高速GPU互連技術(shù)NVLink?,提供的速度遠(yuǎn)超基于PCIe的解決方案,是多GPU系統(tǒng)擴(kuò)展內(nèi)存和性能的理想選擇。NVLink
    發(fā)表于 05-13 17:16

    模型時(shí)代,國(guó)產(chǎn)GPU面臨哪些挑戰(zhàn)

    ,國(guó)產(chǎn)GPU在不斷成長(zhǎng)的過(guò)程中也存在諸多挑戰(zhàn)。 ? 在大模型訓(xùn)練上存在差距 ? 大語(yǔ)言模型是基于深度學(xué)習(xí)的技術(shù)。這些模型通過(guò)在海量文本數(shù)據(jù)上
    的頭像 發(fā)表于 04-03 01:08 ?4578次閱讀
    大<b class='flag-5'>模型</b>時(shí)代,國(guó)產(chǎn)<b class='flag-5'>GPU</b>面臨哪些<b class='flag-5'>挑戰(zhàn)</b>

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    現(xiàn)場(chǎng)可編程門陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時(shí)面臨的許多問(wèn)題 在過(guò)去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價(jià)也大幅
    發(fā)表于 03-21 15:19

    Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動(dòng),超越了傳統(tǒng)GPU和谷歌TPU。
    的頭像 發(fā)表于 02-26 10:24 ?943次閱讀
    Groq推出大<b class='flag-5'>模型</b>推理<b class='flag-5'>芯片</b> 超越了傳統(tǒng)<b class='flag-5'>GPU</b>和谷歌TPU

    揭秘GPU: 高端GPU架構(gòu)設(shè)計(jì)的挑戰(zhàn)

    在計(jì)算領(lǐng)域,GPU(圖形處理單元)一直是性能飛躍的代表。眾所周知,高端GPU的設(shè)計(jì)充滿了挑戰(zhàn)。GPU的架構(gòu)創(chuàng)新,為軟件承接大模型訓(xùn)練和推理場(chǎng)
    的頭像 發(fā)表于 12-21 08:28 ?841次閱讀
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b>架構(gòu)設(shè)計(jì)的<b class='flag-5'>挑戰(zhàn)</b>