據(jù)悉,5月24日于比利時(shí)微電子研究中心所舉行的ITF世界2024大會(huì)上,AMD首席執(zhí)行官蘇姿豐因其杰出的創(chuàng)新才能及行業(yè)頂尖影響力榮獲IMEC創(chuàng)新獎(jiǎng)。
頒獎(jiǎng)典禮后,蘇姿豐隨即展示了其企業(yè)主張——“30x25”目標(biāo),即至2025年將計(jì)算節(jié)點(diǎn)能效提高至原先的30倍。同時(shí),她預(yù)測在2026-2027年間,有望進(jìn)一步找到使能效提升至百倍以上的解決方案。
近年來,隨著ChatGPT等生成式AI LLM的飛速發(fā)展,人工智能功耗問題日益凸顯。然而,早在2021年,AMD便已洞察到此問題,并為此設(shè)定了“30x25”目標(biāo),旨在提升數(shù)據(jù)中心計(jì)算節(jié)點(diǎn)能效,尤其針對AI和HPC能耗問題。
據(jù)報(bào)道,AMD自2014年起便設(shè)立了首個(gè)宏大的能源目標(biāo)——“25x20”,即至2020年將消費(fèi)級(jí)處理器能效提高至原有的25倍。如今,該目標(biāo)已超預(yù)期達(dá)成,實(shí)際提升幅度達(dá)31.7倍。
隨著訓(xùn)練模型所需算力的不斷攀升,問題愈發(fā)嚴(yán)峻。蘇姿豐指出,最初的圖像和語音識(shí)別AI模型規(guī)模每兩年翻一番,與過去十年計(jì)算能力的提升速度相當(dāng)。然而,當(dāng)前生成式AI模型規(guī)模正以每年20倍的驚人速度增長,遠(yuǎn)遠(yuǎn)超出了計(jì)算和內(nèi)存進(jìn)步的步伐。
蘇姿豐表示,目前最大的模型需在數(shù)萬個(gè)GPU上進(jìn)行訓(xùn)練,耗電量高達(dá)數(shù)萬兆瓦時(shí);而未來,隨著模型規(guī)模的急劇擴(kuò)張,可能很快就需要數(shù)十萬個(gè)GPU進(jìn)行訓(xùn)練,甚至可能僅訓(xùn)練一個(gè)模型就需消耗數(shù)千兆瓦的電力。
為應(yīng)對這一挑戰(zhàn),AMD采取了全方位策略,包括從硅架構(gòu)、先進(jìn)封裝策略,到人工智能專用架構(gòu)、系統(tǒng)和數(shù)據(jù)中心級(jí)調(diào)整,乃至軟硬件協(xié)同設(shè)計(jì)計(jì)劃等多種手段。
蘇姿豐透露,AMD公司硅技術(shù)路線圖的下一步將聚焦于3納米全柵極(GAA)晶體管,旨在提升能效和性能。此外,AMD還將持續(xù)關(guān)注先進(jìn)封裝和互連技術(shù),以實(shí)現(xiàn)更高效、更具性價(jià)比的模塊化設(shè)計(jì)。
先進(jìn)封裝在擴(kuò)大設(shè)計(jì)規(guī)模方面具有至關(guān)重要的作用,能夠在單個(gè)芯片封裝的限制范圍內(nèi)產(chǎn)生更大的功率。AMD采用了2.5D和3D混合封裝技術(shù),以最大化每平方毫米數(shù)據(jù)中心硅片的每瓦計(jì)算能力。
-
amd
+關(guān)注
關(guān)注
25文章
5421瀏覽量
133819 -
人工智能
+關(guān)注
關(guān)注
1791文章
46671瀏覽量
237123 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1547瀏覽量
7366 -
生成式AI
+關(guān)注
關(guān)注
0文章
480瀏覽量
446
發(fā)布評論請先 登錄
相關(guān)推薦
評論