0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

欲把AI計(jì)算成本打下來,谷歌高效益TPU正式開放

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚(yáng) ? 2023-11-14 00:18 ? 次閱讀

電子發(fā)燒友網(wǎng)報道(文/周凱揚(yáng))對于每個想要自己開發(fā)和部署AI模型的應(yīng)用開發(fā)者來說,硬件和服務(wù)器支出都是一筆不小的費(fèi)用。就以英偉達(dá)GPU為例,即便是消費(fèi)級的GPU,最近也迎來了一波漲價潮,更不用爆火的A100/H100等型號了。

即便是租賃服務(wù)器,基于這些熱門硬件的服務(wù)器也遠(yuǎn)算不上便宜,因此不少云服務(wù)廠商為了進(jìn)一步拉攏更多AI應(yīng)用開發(fā)者,紛紛推出了性價比更高的選項(xiàng)。這些選項(xiàng)有的是基于CPU的AI計(jì)算服務(wù)器,有的是基于第三方AI加速器打造的服務(wù)器,還有的則是由云服務(wù)廠商基于自研加速器打造且獨(dú)家提供的服務(wù)器。

谷歌高性價比TPU面世

谷歌在今年8月底發(fā)布了第五代的自研TPU,TPU v5e。谷歌稱該加速器實(shí)現(xiàn)了性能與成本效益的平衡。相比上一代TPU v4,TPU V5e提供了同成本下兩倍的訓(xùn)練性能,以及針對LLM和生成式AI模型2.5倍的推理性能。

wKgaomVR-HqAJvSzAABXKc7C2hk445.png
TPU v5e架構(gòu)


單個TPU v5e Pod由256個芯片互聯(lián),總帶寬超過400Tb/s,INT8總算力達(dá)100petaOps。而且谷歌為TPU v5e采用了更靈活的配置選項(xiàng),其支持8個不同的虛擬機(jī)配置,單個切片支持單芯片到250多個芯片,如此一來客戶就可以根據(jù)自己的模型大小來選擇合適的配置。

而且過去借助谷歌TPU進(jìn)行的訓(xùn)練負(fù)載只局限于單個切片中,谷歌為此開發(fā)了Multislice技術(shù),可通過芯片間互聯(lián)以及數(shù)據(jù)中心網(wǎng)絡(luò)中的多個TPU Pod相連,從而將訓(xùn)練工作擴(kuò)展到數(shù)萬個芯片上。

為了進(jìn)一步擴(kuò)大對開發(fā)生態(tài)的支持,TPU v5e還內(nèi)置了對JAX、Pytorch和Tensorflow等領(lǐng)先AI框架,以及 Hugging Face 的 TransformersAccelerate、PyTorch Lightning 和 Ray等一系列常用開源工具的支持。

開放使用與自用

近日,谷歌終于宣布TPU v5e進(jìn)入公用階段,且在最新的MLPerf訓(xùn)練3.1測試中,TPUv5e獲得了更好的表現(xiàn)。在該測試中,谷歌改進(jìn)了創(chuàng)新的混合精度訓(xùn)練算法,除了原生支持的BF16外,還用到了INT8精度格式。這意味著客戶在提高了模型準(zhǔn)確性的同時,將花費(fèi)更少的成本。

wKgZomVR-IOANSMPAAIyMIzn61I221.png
從谷歌云對于TPU v5e的定價表來看,v5e在成本效益上確實(shí)有著極大的優(yōu)勢。不過需要注意的是,v5e與v2、v3 Pod類似,每個芯片中只有一個TensorCore,而v4 Pod的每個芯片中有兩個TensorCore。這也是為何v5e的單芯片峰值算力為197TFLOPS,而v4的單芯片峰值算力為275TFLOPS,可即便如此,在按芯片小時的定價下,其所需成本依然低于v4。

在如此高的性價比下,谷歌不僅將TPU提供給外部開發(fā)者使用,其內(nèi)部一些開發(fā)項(xiàng)目也開始用上TPU v5e。比如其PaLM模型的創(chuàng)建,就用到了上文提到的Multislice技術(shù),谷歌的Bard團(tuán)隊(duì)同樣在用TPU v5e訓(xùn)練這一生成式AI聊天機(jī)器人。

寫在最后

其實(shí)在TPUv5e開放使用之前,谷歌也正式開放了A3 VM這類GPU加速虛擬機(jī)的使用。這也是多數(shù)云服務(wù)廠商采用的多方案供應(yīng)策略,其自研加速器只需要為客戶提供一個高性價比的方案,而追求更高性能的客戶,依然可以選擇基于H100 GPU打造的服務(wù)器。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266240
收藏 人收藏

    評論

    相關(guān)推薦

    SiC價格打下來!兩年內(nèi)擬降30%,市場加速滲透

    過去,SiC的晶體生長速度慢、良率低,導(dǎo)致生產(chǎn)成本較高,一直限制了SiC的普及。 ? 不過在近期據(jù)媒體報道,有業(yè)內(nèi)人士預(yù)計(jì),未來兩年SiC芯片價格將下降達(dá)30%,原因在于越來越多的本地廠商開始獲得電動汽車認(rèn)證并擴(kuò)大了其制造能力。SiC芯片將
    的頭像 發(fā)表于 08-03 00:59 ?4149次閱讀

    TPU v1到Trillium TPU,蘋果等科技公司使用谷歌TPU進(jìn)行AI計(jì)算

    ,在訓(xùn)練尖端人工智能方面,大型科技公司正在尋找英偉達(dá)以外的替代品。 ? 不斷迭代的谷歌TPU 芯片 ? 隨著機(jī)器學(xué)習(xí)算法,特別是深度學(xué)習(xí)算法在各個領(lǐng)域的廣泛應(yīng)用,對于高效、低功耗的AI
    的頭像 發(fā)表于 07-31 01:08 ?3060次閱讀

    谷歌發(fā)布新一代TPU芯片,挑戰(zhàn)OpenAI,挑戰(zhàn)語音助手市場

    當(dāng)日,谷歌在年度I/O開發(fā)者大會上展示了一系列人工智能產(chǎn)品,包括新增的旗艦級Gemini AI模型Gemini 1.5 Flash以及AI搜索引擎等,進(jìn)一步鞏固了其在網(wǎng)絡(luò)搜索領(lǐng)域的領(lǐng)先地位。
    的頭像 發(fā)表于 05-17 09:36 ?351次閱讀

    谷歌推出Trillium AI芯片,性能提高近5倍

    谷歌推出了其最新的人工智能數(shù)據(jù)中心芯片——Trillium。這款芯片是谷歌的第六代產(chǎn)品,與上一代TPU v5e相比,Trillium在每個芯片上的峰值計(jì)算性能提高了4.7倍,節(jié)能67%
    的頭像 發(fā)表于 05-16 10:39 ?630次閱讀

    谷歌推新AI音樂工具,發(fā)布第六代TPU芯片

    谷歌近日宣布與YouTube合作,推出全新音樂工具M(jìn)usic AI Sandbox。這款AI音樂創(chuàng)作工具將與傳統(tǒng)AI音樂應(yīng)用如Suno等展開競爭,為用戶提供更多元化的音樂創(chuàng)作體驗(yàn)。
    的頭像 發(fā)表于 05-16 09:44 ?299次閱讀

    谷歌將推出第六代數(shù)據(jù)中心AI芯片Trillium TPU

    在今日舉行的I/O 2024開發(fā)者大會上,谷歌公司震撼發(fā)布了其第六代數(shù)據(jù)中心AI芯片——Trillium Tensor處理器單元(TPU)。據(jù)谷歌首席執(zhí)行官皮查伊透露,這款新型
    的頭像 發(fā)表于 05-15 11:18 ?526次閱讀

    谷歌AI大模型Gemma全球開放使用

    谷歌公司近日宣布,其全新的AI大模型Gemma現(xiàn)已在全球范圍內(nèi)開放使用。這一重要舉措不僅彰顯了谷歌AI領(lǐng)域的領(lǐng)先地位,還為其在全球范圍內(nèi)的
    的頭像 發(fā)表于 02-28 18:12 ?987次閱讀

    Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。
    的頭像 發(fā)表于 02-26 10:24 ?824次閱讀
    Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和<b class='flag-5'>谷歌</b><b class='flag-5'>TPU</b>

    谷歌宣布Gemma大模型全球開放使用

    谷歌公司近日宣布,其先進(jìn)的AI大模型Gemma即日起在全球范圍內(nèi)開放使用。這一新模型由谷歌DeepMind和其他團(tuán)隊(duì)合作開發(fā),并與其最大的AI
    的頭像 發(fā)表于 02-23 10:41 ?644次閱讀

    谷歌TPU v5p超越Nvidia H100,成為人工智能領(lǐng)域的競爭對手

    TPU v5p已在谷歌AI超級計(jì)算機(jī)”項(xiàng)目中發(fā)揮重要作用,這并非專業(yè)科研型超算平臺,而是面向各類人工智能應(yīng)用。與Nvidia開放GPU購買
    的頭像 發(fā)表于 12-26 15:20 ?1600次閱讀

    谷歌最強(qiáng)大的定制設(shè)計(jì)人工智能加速器—TPU v5p芯片

    谷歌正迅速成為 BFF Nvidia 的強(qiáng)大對手——為其超級計(jì)算機(jī)提供動力的 TPU v5p AI 芯片速度更快,內(nèi)存和帶寬比以往任何時候都多,甚至擊敗了強(qiáng)大的 H100
    的頭像 發(fā)表于 12-26 09:31 ?1702次閱讀

    谷歌發(fā)布多模態(tài)Gemini大模型及新一代TPU系統(tǒng)Cloud TPU v5p

    谷歌亦發(fā)布新一代TPU 系統(tǒng)——Cloud TPU v5p,以幫助訓(xùn)練尖端的 AI 模型。目
    的頭像 發(fā)表于 12-12 10:50 ?1176次閱讀
    <b class='flag-5'>谷歌</b>發(fā)布多模態(tài)Gemini大模型及新一代<b class='flag-5'>TPU</b>系統(tǒng)Cloud <b class='flag-5'>TPU</b> v5p

    成都匯陽投資關(guān)于谷歌攜 Gemini 王者歸來,AI 算力和應(yīng)用值得期待

    “Cloud TPU v5p”, 以及來自谷歌云的人工智能超級計(jì)算機(jī)。 本次谷歌推出的多模態(tài)大模型Gemini 依然采用Transformer 架構(gòu),采用
    的頭像 發(fā)表于 12-11 14:40 ?803次閱讀
    成都匯陽投資關(guān)于<b class='flag-5'>谷歌</b>攜 Gemini 王者歸來,<b class='flag-5'>AI</b> 算力和應(yīng)用值得期待

    AI創(chuàng)企Anthropic將采用谷歌Cloud TPU v5e芯片

    隨著制造更大ai模型的競爭越來越激烈,像谷歌這樣的大型技術(shù)企業(yè)與該領(lǐng)域最尖端的新生企業(yè)建立了關(guān)系。據(jù)消息人士透露,anthropic已達(dá)成協(xié)議,將在最近4年里花費(fèi)30多億美元購買谷歌的云計(jì)算
    的頭像 發(fā)表于 11-09 11:55 ?543次閱讀

    LT8630:100V,0.6A 同步微電逐步降低高效益轉(zhuǎn)換監(jiān)管數(shù)據(jù)表 LT8630:100V,0.6A 同步微電逐步降低高效益轉(zhuǎn)換監(jiān)管數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)為你提供ADI(ADI)LT8630:100V,0.6A 同步微電逐步降低高效益轉(zhuǎn)換監(jiān)管數(shù)據(jù)表相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有LT8630:100V,0.6A 同步微電逐步降低高效益轉(zhuǎn)換監(jiān)管
    發(fā)表于 10-07 17:47
    LT8630:100V,0.6A 同步微電逐步降低<b class='flag-5'>高效益</b>轉(zhuǎn)換監(jiān)管數(shù)據(jù)表 LT8630:100V,0.6A 同步微電逐步降低<b class='flag-5'>高效益</b>轉(zhuǎn)換監(jiān)管數(shù)據(jù)表