電子發(fā)燒友網(wǎng)報道(文/周凱揚(yáng))對于每個想要自己開發(fā)和部署AI模型的應(yīng)用開發(fā)者來說,硬件和服務(wù)器支出都是一筆不小的費(fèi)用。就以英偉達(dá)的GPU為例,即便是消費(fèi)級的GPU,最近也迎來了一波漲價潮,更不用爆火的A100/H100等型號了。
即便是租賃服務(wù)器,基于這些熱門硬件的服務(wù)器也遠(yuǎn)算不上便宜,因此不少云服務(wù)廠商為了進(jìn)一步拉攏更多AI應(yīng)用開發(fā)者,紛紛推出了性價比更高的選項(xiàng)。這些選項(xiàng)有的是基于CPU的AI計(jì)算服務(wù)器,有的是基于第三方AI加速器打造的服務(wù)器,還有的則是由云服務(wù)廠商基于自研加速器打造且獨(dú)家提供的服務(wù)器。
谷歌高性價比TPU面世
谷歌在今年8月底發(fā)布了第五代的自研TPU,TPU v5e。谷歌稱該加速器實(shí)現(xiàn)了性能與成本效益的平衡。相比上一代TPU v4,TPU V5e提供了同成本下兩倍的訓(xùn)練性能,以及針對LLM和生成式AI模型2.5倍的推理性能。
TPU v5e架構(gòu)
單個TPU v5e Pod由256個芯片互聯(lián),總帶寬超過400Tb/s,INT8總算力達(dá)100petaOps。而且谷歌為TPU v5e采用了更靈活的配置選項(xiàng),其支持8個不同的虛擬機(jī)配置,單個切片支持單芯片到250多個芯片,如此一來客戶就可以根據(jù)自己的模型大小來選擇合適的配置。
而且過去借助谷歌TPU進(jìn)行的訓(xùn)練負(fù)載只局限于單個切片中,谷歌為此開發(fā)了Multislice技術(shù),可通過芯片間互聯(lián)以及數(shù)據(jù)中心網(wǎng)絡(luò)中的多個TPU Pod相連,從而將訓(xùn)練工作擴(kuò)展到數(shù)萬個芯片上。
為了進(jìn)一步擴(kuò)大對開發(fā)生態(tài)的支持,TPU v5e還內(nèi)置了對JAX、Pytorch和Tensorflow等領(lǐng)先AI框架,以及 Hugging Face 的 Transformers 和 Accelerate、PyTorch Lightning 和 Ray等一系列常用開源工具的支持。
開放使用與自用
近日,谷歌終于宣布TPU v5e進(jìn)入公用階段,且在最新的MLPerf訓(xùn)練3.1測試中,TPUv5e獲得了更好的表現(xiàn)。在該測試中,谷歌改進(jìn)了創(chuàng)新的混合精度訓(xùn)練算法,除了原生支持的BF16外,還用到了INT8精度格式。這意味著客戶在提高了模型準(zhǔn)確性的同時,將花費(fèi)更少的成本。
從谷歌云對于TPU v5e的定價表來看,v5e在成本效益上確實(shí)有著極大的優(yōu)勢。不過需要注意的是,v5e與v2、v3 Pod類似,每個芯片中只有一個TensorCore,而v4 Pod的每個芯片中有兩個TensorCore。這也是為何v5e的單芯片峰值算力為197TFLOPS,而v4的單芯片峰值算力為275TFLOPS,可即便如此,在按芯片小時的定價下,其所需成本依然低于v4。
在如此高的性價比下,谷歌不僅將TPU提供給外部開發(fā)者使用,其內(nèi)部一些開發(fā)項(xiàng)目也開始用上TPU v5e。比如其PaLM模型的創(chuàng)建,就用到了上文提到的Multislice技術(shù),谷歌的Bard團(tuán)隊(duì)同樣在用TPU v5e訓(xùn)練這一生成式AI聊天機(jī)器人。
寫在最后
其實(shí)在TPUv5e開放使用之前,谷歌也正式開放了A3 VM這類GPU加速虛擬機(jī)的使用。這也是多數(shù)云服務(wù)廠商采用的多方案供應(yīng)策略,其自研加速器只需要為客戶提供一個高性價比的方案,而追求更高性能的客戶,依然可以選擇基于H100 GPU打造的服務(wù)器。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
相關(guān)推薦
過去,SiC的晶體生長速度慢、良率低,導(dǎo)致生產(chǎn)成本較高,一直限制了SiC的普及。 ? 不過在近期據(jù)媒體報道,有業(yè)內(nèi)人士預(yù)計(jì),未來兩年SiC芯片價格將下降達(dá)30%,原因在于越來越多的本地廠商開始獲得電動汽車認(rèn)證并擴(kuò)大了其制造能力。SiC芯片將
發(fā)表于 08-03 00:59
?4149次閱讀
,在訓(xùn)練尖端人工智能方面,大型科技公司正在尋找英偉達(dá)以外的替代品。 ? 不斷迭代的谷歌TPU 芯片 ? 隨著機(jī)器學(xué)習(xí)算法,特別是深度學(xué)習(xí)算法在各個領(lǐng)域的廣泛應(yīng)用,對于高效、低功耗的AI
發(fā)表于 07-31 01:08
?3060次閱讀
當(dāng)日,谷歌在年度I/O開發(fā)者大會上展示了一系列人工智能產(chǎn)品,包括新增的旗艦級Gemini AI模型Gemini 1.5 Flash以及AI搜索引擎等,進(jìn)一步鞏固了其在網(wǎng)絡(luò)搜索領(lǐng)域的領(lǐng)先地位。
發(fā)表于 05-17 09:36
?351次閱讀
谷歌推出了其最新的人工智能數(shù)據(jù)中心芯片——Trillium。這款芯片是谷歌的第六代產(chǎn)品,與上一代TPU v5e相比,Trillium在每個芯片上的峰值計(jì)算性能提高了4.7倍,節(jié)能67%
發(fā)表于 05-16 10:39
?630次閱讀
谷歌近日宣布與YouTube合作,推出全新音樂工具M(jìn)usic AI Sandbox。這款AI音樂創(chuàng)作工具將與傳統(tǒng)AI音樂應(yīng)用如Suno等展開競爭,為用戶提供更多元化的音樂創(chuàng)作體驗(yàn)。
發(fā)表于 05-16 09:44
?299次閱讀
在今日舉行的I/O 2024開發(fā)者大會上,谷歌公司震撼發(fā)布了其第六代數(shù)據(jù)中心AI芯片——Trillium Tensor處理器單元(TPU)。據(jù)谷歌首席執(zhí)行官皮查伊透露,這款新型
發(fā)表于 05-15 11:18
?526次閱讀
谷歌公司近日宣布,其全新的AI大模型Gemma現(xiàn)已在全球范圍內(nèi)開放使用。這一重要舉措不僅彰顯了谷歌在AI領(lǐng)域的領(lǐng)先地位,還為其在全球范圍內(nèi)的
發(fā)表于 02-28 18:12
?987次閱讀
Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。
發(fā)表于 02-26 10:24
?824次閱讀
谷歌公司近日宣布,其先進(jìn)的AI大模型Gemma即日起在全球范圍內(nèi)開放使用。這一新模型由谷歌DeepMind和其他團(tuán)隊(duì)合作開發(fā),并與其最大的AI
發(fā)表于 02-23 10:41
?644次閱讀
TPU v5p已在谷歌“AI超級計(jì)算機(jī)”項(xiàng)目中發(fā)揮重要作用,這并非專業(yè)科研型超算平臺,而是面向各類人工智能應(yīng)用。與Nvidia開放GPU購買
發(fā)表于 12-26 15:20
?1600次閱讀
谷歌正迅速成為 BFF Nvidia 的強(qiáng)大對手——為其超級計(jì)算機(jī)提供動力的 TPU v5p AI 芯片速度更快,內(nèi)存和帶寬比以往任何時候都多,甚至擊敗了強(qiáng)大的 H100
發(fā)表于 12-26 09:31
?1702次閱讀
谷歌亦發(fā)布新一代TPU 系統(tǒng)——Cloud TPU v5p,以幫助訓(xùn)練尖端的 AI 模型。目
發(fā)表于 12-12 10:50
?1176次閱讀
“Cloud TPU v5p”, 以及來自谷歌云的人工智能超級計(jì)算機(jī)。 本次谷歌推出的多模態(tài)大模型Gemini 依然采用Transformer 架構(gòu),采用
發(fā)表于 12-11 14:40
?803次閱讀
隨著制造更大ai模型的競爭越來越激烈,像谷歌這樣的大型技術(shù)企業(yè)與該領(lǐng)域最尖端的新生企業(yè)建立了關(guān)系。據(jù)消息人士透露,anthropic已達(dá)成協(xié)議,將在最近4年里花費(fèi)30多億美元購買谷歌的云計(jì)算
發(fā)表于 11-09 11:55
?543次閱讀
電子發(fā)燒友網(wǎng)為你提供ADI(ADI)LT8630:100V,0.6A 同步微電逐步降低高效益轉(zhuǎn)換監(jiān)管數(shù)據(jù)表相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有LT8630:100V,0.6A 同步微電逐步降低高效益轉(zhuǎn)換監(jiān)管
發(fā)表于 10-07 17:47
評論