數(shù)量級(jí)效率優(yōu)勢(shì),原生適配AI計(jì)算:光芯片的下一個(gè)技術(shù)突破要來(lái)了
近年來(lái),人工智能等技術(shù)的快速發(fā)展讓計(jì)算機(jī)的算力需求暴增,但隨著摩爾定律失效,傳統(tǒng)芯片性能提升速度卻開始大幅放緩。全世界都在尋找新的解決方法,光芯片的發(fā)展正讓人看到希望。
我們經(jīng)常會(huì)看到光芯片技術(shù)、光學(xué)神經(jīng)網(wǎng)絡(luò)的研究登上 Nature 和 Science 等頂尖科學(xué)雜志。在一些研究中科學(xué)家們指出,光學(xué)開關(guān)的速度要比現(xiàn)在商用的頂級(jí)硅芯片的晶體管快 100 到 1000 倍。
1萬(wàn)美元的L4自動(dòng)駕駛解決方案面世,實(shí)測(cè)1小時(shí)表現(xiàn)如何?
高階自動(dòng)駕駛想要成功商業(yè)化,除了取決于感知、決策、執(zhí)行各個(gè)層級(jí)的成熟度,降本也是至關(guān)重要的一點(diǎn),否則不僅難以大規(guī)模投用,更難與乘用車結(jié)緣。
據(jù)艾瑞咨詢的一項(xiàng)報(bào)告顯示,僅L4級(jí)自動(dòng)駕駛的硬件,在2018年底的成本就達(dá)到50萬(wàn)元左右,還有可能更高。而到今年,百度采用ANP-Robotaxi架構(gòu)的Apollo Moon自動(dòng)駕駛運(yùn)營(yíng)車,已將整車成本降至48萬(wàn)元,這還計(jì)算了其原型車北汽極狐阿爾法T的費(fèi)用。
三年完成兩代產(chǎn)品迭代,燧原科技的推理芯片性能又提升了三倍。
12 月,燧原科技在線上發(fā)布會(huì)上發(fā)布了第二代云端人工智能推理加速卡「云燧 i20」。
這是時(shí)隔五個(gè)月以來(lái),燧原科技在今年連續(xù)第二次發(fā)布新產(chǎn)品。今年 7 月,燧原在 WAIC 世界人工智能大會(huì)上發(fā)布了第二代加速訓(xùn)練卡「云燧 T20」。
作為全新一代云端 AI 推理加速產(chǎn)品,云燧 i20 擁有迄今為止業(yè)內(nèi)最大的 AI 加速卡存儲(chǔ)帶寬,高達(dá) 819 GB/s,遠(yuǎn)超行業(yè)同類產(chǎn)品水平。與此同時(shí),該加速器全面支持從 FP32、TF32、FP16、BF16 到 INT8 的計(jì)算精度。單精度 FP32 峰值算力達(dá)到 32 TFLOPS,單精度張量 TF32 峰值算力達(dá)到 128 TFLOPS,整型 INT8 峰值算力達(dá)到 256 TOPS。對(duì)比第一代推理產(chǎn)品,云燧 i20 將浮點(diǎn)算力提升到 1.8 倍,整型算力提升到 3.6 倍。
達(dá)摩院成功研發(fā)存算一體AI芯片,性能提升10倍以上
12月3日,達(dá)摩院宣布成功研發(fā)新型架構(gòu)芯片。該芯片是全球首款基于DRAM的3D鍵合堆疊存算一體AI芯片,可突破馮·諾依曼架構(gòu)的性能瓶頸,滿足人工智能等場(chǎng)景對(duì)高帶寬、高容量?jī)?nèi)存和極致算力的需求。在特定AI場(chǎng)景中,該芯片性能提升10倍以上,能效比提升高達(dá)300倍。
過去70年,計(jì)算機(jī)一直遵循馮·諾依曼架構(gòu)設(shè)計(jì),運(yùn)行時(shí)數(shù)據(jù)需要在處理器和內(nèi)存之間來(lái)回傳輸。隨著時(shí)代發(fā)展,這一工作模式面臨較大挑戰(zhàn):在人工智能等高并發(fā)計(jì)算場(chǎng)景中,數(shù)據(jù)來(lái)回傳輸會(huì)產(chǎn)生巨大的功耗;目前內(nèi)存系統(tǒng)的性能提升速度大幅落后于處理器的性能提升速度,有限的內(nèi)存帶寬無(wú)法保證數(shù)據(jù)高速傳輸。
AI熱點(diǎn)
老電影和圖片變清晰的秘密!分辨率提升400%的AI算法已開源
如上圖, 從100x133pix→400x532pix,除了肉眼可見的清晰,擁有可以將分辨率提升400%的技術(shù)到底意味著什么?
它意味著:
老照片、老電影、動(dòng)漫等畫質(zhì)可快速提升,分辨率自由調(diào)節(jié)
產(chǎn)業(yè)算法效果可以隨著數(shù)據(jù)質(zhì)量的提升大幅提高
在網(wǎng)絡(luò)信號(hào)較差時(shí),也能快速查看高清視頻或圖片
影像傳輸帶寬與存儲(chǔ)空間大幅壓縮,傳輸成本也將大大減少
增大模型依然有用,DeepMind用2800億參數(shù)的Gopher,測(cè)試語(yǔ)言系統(tǒng)極限
近年來(lái),國(guó)內(nèi)外各大 AI 巨頭的大規(guī)模語(yǔ)言模型(large language model,LLM)一波接著一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成為社區(qū)勢(shì)不可擋的發(fā)展趨勢(shì)。
然而,當(dāng)前語(yǔ)言模型存在著一些問題,比如邏輯推理較弱。那么,我們是否可以僅通過添加更多數(shù)據(jù)和算力的情況下改進(jìn)這些問題呢?或者,我們已經(jīng)達(dá)到了語(yǔ)言模型相關(guān)技術(shù)范式的極限?
Gopher:2800 億參數(shù),接近人類閱讀理解能力
今日,DeepMind「一口氣」發(fā)表了三篇論文,目的之一就是解決當(dāng)前語(yǔ)言模型存在的問題。DeepMind 得出的結(jié)論是進(jìn)一步擴(kuò)展大規(guī)模語(yǔ)言模型應(yīng)該會(huì)帶來(lái)大量的改進(jìn)。此前在一次電話簡(jiǎn)報(bào)會(huì)上,DeepMind 研究科學(xué)家 Jack Rae 表示,「這些論文的一個(gè)關(guān)鍵發(fā)現(xiàn)是大規(guī)模語(yǔ)言模型依然在進(jìn)展之中,能力也在繼續(xù)增強(qiáng)。這個(gè)領(lǐng)域并沒有停滯不前?!?/p>
2600億參數(shù),60多項(xiàng)任務(wù)突破,全球首個(gè)知識(shí)增強(qiáng)千億大模型鵬城-百度·文心發(fā)布
百度與鵬城實(shí)驗(yàn)室聯(lián)合發(fā)布全球首個(gè)知識(shí)增強(qiáng)千億大模型——鵬城 - 百度 · 文心(ERNIE 3.0 Titan),是目前為止全球最大的中文單體模型。同時(shí),百度產(chǎn)業(yè)級(jí)知識(shí)增強(qiáng)大模型 “文心” 全景圖首次亮相。
從 15 億參數(shù)的 GPT-2 到 1750 億參數(shù)的 GPT-3,我們已經(jīng)看到了模型規(guī)模增長(zhǎng)和訓(xùn)練數(shù)據(jù)增加所帶來(lái)的顯著收益,其中最重要的一點(diǎn)就是對(duì)標(biāo)注數(shù)據(jù)的依賴顯著降低,這使得很多數(shù)據(jù)稀缺的場(chǎng)景也能用上性能強(qiáng)大的 AI 模型,為 AI 的大規(guī)模工業(yè)化應(yīng)用掃清了障礙。
原文標(biāo)題:【AI簡(jiǎn)報(bào)20211210期】L4自動(dòng)駕駛解決方案面世、達(dá)摩院成功研發(fā)存算一體AI芯片
文章出處:【微信公眾號(hào):RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
-
人工智能
+關(guān)注
關(guān)注
1791文章
46698瀏覽量
237190 -
AI芯片
+關(guān)注
關(guān)注
17文章
1851瀏覽量
34860 -
燧原科技
+關(guān)注
關(guān)注
0文章
116瀏覽量
8261
原文標(biāo)題:【AI簡(jiǎn)報(bào)20211210期】L4自動(dòng)駕駛解決方案面世、達(dá)摩院成功研發(fā)存算一體AI芯片
文章出處:【微信號(hào):RTThread,微信公眾號(hào):RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論