0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

黃仁勛甩出最強生成式AI處理器,全球首發(fā)HBM3e,比H100還快

sakobpqhz ? 來源:算力基建 ? 2023-08-09 14:48 ? 次閱讀

英偉達再造生成式AI時代硬通貨!

芯東西8月9日報道,作為生成式AI、圖形顯示和元宇宙基礎(chǔ)設(shè)施領(lǐng)域的“狠角色”,全球圖顯兼AI計算霸主NVIDIA(英偉達)接下來會放出哪些重磅“核彈”,已經(jīng)預(yù)定了科技圈的焦點。

北京時間昨夜,在計算機圖形年會SIGGRAPH上,NVIDIA創(chuàng)始人兼CEO黃仁勛一如既往穿著經(jīng)典的皮衣登場,并一連亮出多款硬件。

在黃仁勛眼中,生成式AI是AI的“iPhone時刻”。他談道,人類語言是新的編程語言,我們已經(jīng)使計算機科學民主化,現(xiàn)在每個人都可以成為程序員。

6d0c6160-3667-11ee-9e74-dac502259ad0.png

在隨后大約1小時20分鐘的演講中,黃仁勛宣布全球首發(fā)HBM3e內(nèi)存——推出下一代GH200 Grace Hopper超級芯片。黃仁勛將它稱作“加速計算和生成式AI時代的處理器”。

還有5款硬件新品同期重磅發(fā)布,分別是搭載全新L40S Ada GPU的新款OVX服務(wù)器、搭載RTX 6000 Ada GPU的全新RTX工作站,以及3款高端桌面工作站GPU。

除此之外,黃仁勛還介紹了一系列軟件更新和合作進展,總體來說都是為了幫助開發(fā)人員和企業(yè)進一步提高效率,降低開發(fā)門檻。

01. 配備全球最快內(nèi)存的超級芯片來了!大降大模型推理成本

首先,全球第一款HBM3e GPU終于來了!

黃仁勛宣布推出面向加速計算和生成式AI的新一代NVIDIA GH200 Grace Hopper超級芯片。

6d3b5a60-3667-11ee-9e74-dac502259ad0.png

GH200由72核Grace CPU和4PFLOPS Hopper GPU組成,在全球最快內(nèi)存HBM3e的“助攻”下,內(nèi)存容量高達141GB,提供每秒5TB的帶寬。其每個GPU的容量達到NVIDIA H100 GPU的1.7倍,帶寬達到H100的1.55倍。

該超級芯片可以用于任何大型語言模型,降低推理成本。

與當前一代產(chǎn)品相比,新的雙GH200系統(tǒng)共有144個Grace CPU核心、8PFLOPS計算性能的GPU、282GB HBM3e內(nèi)存,內(nèi)存容量達3.5倍,帶寬達3倍。如果將連接到CPU的LPDDR內(nèi)存包括在內(nèi),那么總共集成了1.2TB超快內(nèi)存。

GH200將在新的服務(wù)器設(shè)計中提供,黃仁勛還放出了一段動畫視頻,展示組裝面向生成式AI時代的Grace Hopper AI超級計算機的完整過程。

6d87a00a-3667-11ee-9e74-dac502259ad0.gif

首先是一塊Grace Hopper,用高速互連的CPU-GPU Link將CPU和GPU“粘”在一起,通信速率比PCIe Gen5快7倍。

一個Grace Hopper機架裝上NVIDIA BlueField-3和ConnectX-7網(wǎng)卡、8通道4.6TB高速內(nèi)存,用NVLink Switch實現(xiàn)GPU之間的高速通信,再加上NVLink Cable Cartridge,組成了NVIDA DGX GH200構(gòu)建塊。

6dea2252-3667-11ee-9e74-dac502259ad0.png

NVIDA DGX GH200由16個Grace Hopper機架,通過NVLink Switch系統(tǒng)連成集群,能讓256塊GPU組成的系統(tǒng)像一塊巨型GPU一樣工作。由256塊GH200組成的NVIDIA DGX GH200 SuperPod,擁有高達1EFLOPS的算力和144TB高速內(nèi)存。

NVIDIA Quantum-2 InfiniBand Switch可用高速、低延時的網(wǎng)絡(luò)連接多個DGX SuperPod,進而搭建出面向生成式AI時代的Grace Hopper AI超級計算機。

6dfa2ea4-3667-11ee-9e74-dac502259ad0.png

這帶來的主要優(yōu)勢是,實現(xiàn)同等算力的情況下,用更少卡、省更多電、花更少錢。

黃仁勛拋出一個問題:花1億美元能買什么?

過去,1億美元能買8800塊x86 CPU組成的數(shù)據(jù)中心,功耗是5MW。

6e544a10-3667-11ee-9e74-dac502259ad0.png

如今,1億美元能買2500塊GH200組成的Iso-Budget數(shù)據(jù)中心,功耗是3MW,AI推理性能達到上述CPU系統(tǒng)的12倍,能效達20倍。

6e5edf8e-3667-11ee-9e74-dac502259ad0.png

如果達到跟x86 CPU數(shù)據(jù)中心相同的AI推理性能,Iso-Troughput數(shù)據(jù)中心只需用到210塊GH200,功耗是0.26MW,成本只有CPU數(shù)據(jù)中心的1/12,僅800萬美元。

6e8cd8d0-3667-11ee-9e74-dac502259ad0.png

“買得越多,省得越多?!秉S仁勛再度用這句講過很多遍的“導(dǎo)購金句”總結(jié)。

為方便GH200應(yīng)用,GH200與今年早些時候在COMPUTEX上推出的NVIDIA MGX服務(wù)器規(guī)范完全兼容。因此系統(tǒng)制造商可以快速且經(jīng)濟高效地將GH200添加到其服務(wù)器版本中。

新GH200預(yù)計將于明年第二季度投產(chǎn)。

02. OVX服務(wù)器上新,采用L40S Ada GPU

面向數(shù)據(jù)中心,黃仁勛宣布推出配備全新NVIDIA L40S GPU的NVIDIA OVX服務(wù)器,可用于加速AI訓練和推理、3D設(shè)計和可視化、視頻處理和工業(yè)數(shù)字化等復(fù)雜的計算密集型應(yīng)用。

NVIDIA OVX是針對服務(wù)器的參考架構(gòu),針對圖形、計算、存儲和網(wǎng)絡(luò)進行了優(yōu)化。全新OVX系統(tǒng)將在每臺服務(wù)器上啟用多達8個L40S GPU,每個GPU配備48GB GDDR6超快內(nèi)存。

6ef649d2-3667-11ee-9e74-dac502259ad0.png

L40S是一款功能強大的通用數(shù)據(jù)中心處理器,基于Ada架構(gòu),內(nèi)置第四代Tensor Core和FP8 Transformer Engine,提供超過1.45PFLOPS的張量處理能力。

對于具有數(shù)十億參數(shù)和多種數(shù)據(jù)模式(如文本和視頻)的復(fù)雜AI工作負載,與A100 GPU相比,L40S可實現(xiàn)快1.2倍的AI推理性能、快1.7倍的訓練性能、快3.5倍的渲染速度,啟用DLSS3時Omniverse渲染速度更是能高到近4倍。

L40S包含18176個CUDA內(nèi)核,提供近5倍于A100 GPU的單精度浮點(FP32)性能,以加速復(fù)雜的計算和數(shù)據(jù)密集型分析,支持對于工程和科學模擬等計算要求苛刻的工作流程。

為了支持實時渲染、產(chǎn)品設(shè)計和3D內(nèi)容創(chuàng)建等高保真的專業(yè)可視化工作流程,L40S GPU內(nèi)置有142個第三代RT核心,可提供212TFLOPS的光追性能。

L40S GPU將于今年秋季上市。NVIDIA之前投資的CoreWeave是首批提供L40S實例的云服務(wù)提供商之一。

03. 推出搭載RTX 6000的RTX工作站、三款桌面級RTX GPU

面向生成式AI和大模型開發(fā)、內(nèi)容創(chuàng)作、數(shù)據(jù)科學,黃仁勛宣布推出搭載RTX 6000 Ada GPU的全新NVIDIA RTX工作站。

6f235346-3667-11ee-9e74-dac502259ad0.png

新的RTX工作站提供多達4個NVIDIA RTX 6000 Ada GPU,每個都配備48GB內(nèi)存,單個桌面工作站可以提供高達5828TFLOPS的AI性能和192GB的GPU內(nèi)存。

按用戶需求,系統(tǒng)可配置NVIDIA AI Enterprise或Omniverse Enterprise軟件,以支持各種苛刻的生成式AI和圖形密集型工作負載。

該工作站將于秋季由系統(tǒng)制造商開始提供。

此外,NVIDIA也在SIGGRAPH期間推出三款新的桌面Ada GPU——NVIDIA RTX 5000、RTX 4500和RTX 4000,為全球?qū)I(yè)人士提供最新的AI、圖形和實時渲染技術(shù)。

6f2dac92-3667-11ee-9e74-dac502259ad0.png

▲NVIDIA RTX Ada工作站GPU主要參數(shù)對比(圖源:VideoCardz)

三款新GPU均采用4nm定制工藝,并擁有較大的內(nèi)存:RTX 4000提供20GB GDDR6內(nèi)存,RTX 4500提供24GB GDDR6內(nèi)存,RTX 5000提供32GB GDDR6內(nèi)存。所有都支持錯誤代碼糾正,適用于大型3D模型、渲染圖像、模擬和AI數(shù)據(jù)集的無誤差計算。

同時,它們能支持高分辨率AR(增強現(xiàn)實)和VR(虛擬現(xiàn)實)設(shè)備,以提供創(chuàng)造AR、VR和MR(混合現(xiàn)實)內(nèi)容所需的高性能圖形。

外媒Wccftech整理了不同RTX Ada工作站顯卡的參數(shù)對比:

6f45c7dc-3667-11ee-9e74-dac502259ad0.png

6f45c7dc-3667-11ee-9e74-dac502259ad0.png

RTX 5000現(xiàn)已上市,RTX 4500和RTX 4000 GPU將于今年秋季發(fā)售。

04. 新合作、新升級、新產(chǎn)品助攻生成式AI模型高效開發(fā)和部署

除了上述硬件產(chǎn)品外,黃仁勛分享了3個關(guān)于優(yōu)化生成式AI流程的新發(fā)布,這些將有助于加速行業(yè)采用基于大型語言模型的生成式AI:

一是NVIDIA和全球最大AI開源社區(qū)Hugging Face建立合作。

二是推出NVIDIA AI Enterprise 4.0,把DGX Cloud中的所有功能放到NVIDIA AI Enterprise軟件中。

三是推出NVIDIA AI Workbench,將需要用于生成式AI工作的一切打包在一起,只用點擊一下就能將這個項目移動到任何終端設(shè)備或云端。

1、與Hugging Face合作:將數(shù)百萬開發(fā)人員連接到生成式AI超級計算

黃仁勛宣布,NVIDIA和Hugging Face建立合作伙伴關(guān)系,將為構(gòu)建大型語言模型和其他高級AI應(yīng)用程序的開發(fā)人員提供生成式AI超級計算。

6f8c6714-3667-11ee-9e74-dac502259ad0.png

開發(fā)人員可以訪問Hugging Face平臺內(nèi)的NVIDIA DGX Cloud AI超級計算,來訓練和調(diào)優(yōu)先進的AI模型。他們將有一個非常簡單的界面來推進工作,無需擔心訓練的復(fù)雜性,因為這些都會由DGX Cloud處理。

DGX Cloud的每個實例有8個NVIDIA H100或A100 80GB Tensor Core GPU,每個節(jié)點的GPU內(nèi)存總計640GB。DGX Cloud包含來自NVIDIA專家的支持,可以幫助客戶優(yōu)化其模型并快速解決開發(fā)挑戰(zhàn)。

作為合作的一部分,Hugging Face將推出一項名為“訓練集群即服務(wù)(Training Cluster as a Service)”,以簡化為企業(yè)創(chuàng)建新的和自定義生成式AI模型。該服務(wù)由NVIDIA DGX Cloud提供支持,將在未來幾個月內(nèi)推出。

2、NVIDIA AI Workbench:在筆記本電腦上也能輕松啟動生成式AI項目

另一款新品NVIDIA AI Workbench,是一個統(tǒng)一、易用的工作空間,能讓開發(fā)人員隨處構(gòu)建或運行自己的生成式AI模型。

6f92af2a-3667-11ee-9e74-dac502259ad0.png

開發(fā)者可以很方便地將所有必要的企業(yè)級模型、框架、SDK和庫從開源代碼庫和NVIDIA AI平臺打包到這個統(tǒng)一的開發(fā)者工作空間中,然后只需點擊幾下鼠標,就能將自己的AI項目從一個位置移動到另一個位置。

這樣就能在個人電腦、筆記本電腦或工作站上快速創(chuàng)建、測試和定制預(yù)訓練的生成式AI模型,并在需要時將其擴展到數(shù)據(jù)中心、公有云或NVIDIA DGX Cloud。

舉個例子,你可以在NVIDIA AI Workbench頁面上導(dǎo)入項目,比如導(dǎo)入SDXL-dev文生圖模型,輸入“玩偶黃仁勛在太空”,結(jié)果因為模型似乎不認識玩偶老黃,生成的圖像跟老黃的形象完全不沾邊。

6fa4b080-3667-11ee-9e74-dac502259ad0.gif

接著只用幾張玩具老黃的圖像,對SDXL文生圖模型進行微調(diào),它就能生成還不錯的效果。

70eb9562-3667-11ee-9e74-dac502259ad0.gif

總的來說,AI Workbench為跨組織團隊創(chuàng)建基于AI的應(yīng)用程序提供了簡化的途徑,通過在本地系統(tǒng)上運行的簡化的界面訪問,讓開發(fā)人員能使用自定義數(shù)據(jù)從主流的代碼庫(如Hugging Face、GitHub和NVIDIA NGC)中定制模型,并能輕松跨多平臺共享。

戴爾、惠普、Lambda、聯(lián)想、超微等AI基礎(chǔ)設(shè)施供應(yīng)商正采用AI Workbench以增強其最新一代多GPU桌面工作站、高端移動工作站和虛擬工作站的能力。

3、NVIDIA AI enterprise 4.0:提供一系列生成式AI工具

最新版的企業(yè)軟件平臺NVIDIA AI enterprise 4.0,可提供生產(chǎn)就緒型生成式AI工具,并提供了可靠的生產(chǎn)部署所需的安全性和API穩(wěn)定性。

7144274a-3667-11ee-9e74-dac502259ad0.png

NVIDIA AI Enterprise 4.0新支持的軟件和工具有助于簡化生成式AI部署,其中一大亮點是引入用于構(gòu)建、定制和部署大型語言模型的云原生框架NVIDIA NeMo。

其他工具還包括NVIDIA Triton管理服務(wù)(通過模型編排實現(xiàn)可擴展AI高效運行)、NVIDIA Base Command Manager Essentials集群管理軟件(幫助企業(yè)在數(shù)據(jù)中心、多云和混合云環(huán)境中最大限度提高AI服務(wù)器性能和利用率)等。

NVIDIA AI Enterprise軟件支持用戶跨云、數(shù)據(jù)中心和邊緣構(gòu)建和運行支持NVIDIA AI的解決方案,經(jīng)認證可在主流NVIDIA認證系統(tǒng)、NVIDIA DGX系統(tǒng)、所有主要云平臺和新發(fā)布的NVIDIA RTX上運行工作站。

最新版本的企業(yè)軟件平臺將集成到谷歌云、微軟Azure、Oracle云基礎(chǔ)設(shè)施等NVIDIA合作伙伴市場。

05. Ominverse升級:加持生成式AI能力,曬OpenUSD路線圖

在生成式AI加持下,構(gòu)建工業(yè)元宇宙與數(shù)字孿生場景的開發(fā)更加方便高效、視覺效果更加逼真。

面向元宇宙領(lǐng)域,NVIDIA的主角當仁不讓是Omniverse平臺,以及該平臺的基礎(chǔ)——開源通用場景描述框架OpenUSD。生成式AI與Omniverse的結(jié)合也此次演講的重頭戲。

71525dd8-3667-11ee-9e74-dac502259ad0.png

黃仁勛宣布,比亞迪和梅賽德斯·奔馳合資的豪華電動汽車品牌騰勢(DENZA)已與營銷及通信巨頭WPP合作,在NVIDIA Omniverse Cloud上構(gòu)建和部署其下一代先進汽車配置器。

WPP通過USD或OpenUSD集成了來自電動汽車制造商首選的計算機輔助設(shè)計(CAD)工具的全保真設(shè)計數(shù)據(jù),從而構(gòu)建一個單一的、物理精確的、實時的騰勢N7汽車模型數(shù)字孿生體。

當想要添加一個功能時,無需任何手動返工,就能將該功能構(gòu)建到騰勢汽車的數(shù)字孿生體中,并立即部署到所有營銷渠道中。

USD提供了一個高性能的通用框架來描述、組合、模擬和協(xié)作3D項目和數(shù)據(jù)。NVIDIA堅信這是3D互聯(lián)網(wǎng)的基礎(chǔ)。

717f6986-3667-11ee-9e74-dac502259ad0.png

“就像HTML點燃了2D互聯(lián)網(wǎng)的重大計算革命一樣,OpenUSD將點燃3D寫作和工業(yè)數(shù)字化的時代?!秉S仁勛說,“通過開發(fā)NVIDIA Omniverse和生成式AI,NVIDIA將全力支持OpenUSD的發(fā)展和采用?!?/p>

在SIGGRAPH大會上,黃仁勛展示了從2020年至2023年NVIDIA加速OpenUSD的發(fā)展路線圖。

71a0310c-3667-11ee-9e74-dac502259ad0.png

NVIDIA正推出一個SIM Ready規(guī)范,將物理屬性應(yīng)用于USD資產(chǎn),以便機器人和自動駕駛汽車等AI代理可以完全在模擬世界中了解真實世界。

近期NVIDIA與皮克斯、Adobe、蘋果、Autodesk聯(lián)合成立了OpenUSD聯(lián)盟AOUSD,將為OpenUSD開發(fā)一個標準規(guī)范,以加速其在工具生態(tài)系統(tǒng)中的采用和軟件間的互操作性。

NVIDIA正通過NVIDIA Omniverse、新技術(shù)組合和云API以及新的NVIDIA OpenUSD開發(fā)者計劃,推進OpenUSD框架的開發(fā)。

為了讓開發(fā)人員更無縫地實施和部署OpenUSD流水線和應(yīng)用程序,NVIDIA將生成式AI和OpenUSD結(jié)合,推出一些Omniverse云API:

(1)ChatUSD:基于NVIDIA Nemo框架的一個大型語言模型副駕駛,可回答USD知識問題或生成Python-USD代碼腳本)。

71d5d898-3667-11ee-9e74-dac502259ad0.gif

(2)RunUSD:用于檢查上傳文件與OpenUSD版本兼容性,可生成實時的完全路徑跟蹤的交互式USD文件渲染。

(3)DeepSearch:基于大型語言模型的語義3D搜索服務(wù),可通過文本或圖像輸入輸入,對大量未標注資產(chǎn)的數(shù)據(jù)庫進行快速語義搜索。

71e7e9e8-3667-11ee-9e74-dac502259ad0.png

Omniverse云API將使開發(fā)人員能夠輕松地即時訪問NVIDIA及其合作伙伴的最新生成式AI和OpenUSD技術(shù)。

NVIDIA Picasso便是其中之一。它是一個基于云的代工廠,用于構(gòu)建自定義的生成式AI視覺模型。Picasso使開發(fā)人員能訓練文生圖、文生視頻、文本轉(zhuǎn)3D生成等模型。

Shutterstock正在使用NVIDIA Picasso(構(gòu)建的代工廠)來開發(fā)生成式AI服務(wù),以加速3D工作流程。Shutterstock宣布了這些新服務(wù)的首款產(chǎn)品360 HDRi。經(jīng)Picasso訓練的模型可生成逼真的8K分辨率360度高動態(tài)范圍成像(HDRi)環(huán)境地圖,從而大大加快3D場景的內(nèi)容創(chuàng)作。

此外,Omniverse進行了一些重要的版本更新:

Omniverse RTX渲染器集成了DLSS 3技術(shù)和新的AI降噪器,AI降噪器可實現(xiàn)對大規(guī)模工業(yè)場景的實時4K路徑追蹤。

開發(fā)人員還可以構(gòu)建基于OpenUSD的內(nèi)容和體驗,并將其部署到擴展現(xiàn)實(XR)設(shè)備上。新的XR開發(fā)工具使用戶能在基于Omniverse應(yīng)用程序中本地構(gòu)建空間計算選項,靈活體驗他們喜歡的3D項目和虛擬世界。

Omniverse USD Composer可支持3D用戶組裝大規(guī)模的、基于OpenUSD的場景。

提供生成式AI API的Omniverse Audio2Face,僅從音頻文件就能創(chuàng)建逼真的面部動畫和手勢,現(xiàn)在包括多語言支持和一個新的女性基礎(chǔ)模型。

Omniverse Kit Extension Registry是一個用于訪問、共享和管理全方位擴展的中央存儲庫,讓開發(fā)人員能輕松地在他們的應(yīng)用程序中打開和關(guān)閉功能,使構(gòu)建自定義app變得更容易。

這些新的應(yīng)用程序和體驗?zāi)0迥茏岄_發(fā)人員以很少的代碼開始使用OpenUSD和Omniverse。

此外,Adobe與NVIDIA擴大了在Adobe Substance 3D、生成式AI和OpenUSD計劃方面的合作,宣布將在Omniverse中將提供其創(chuàng)意生成式AI模型系列Adobe Firefly的API。

最新版本的Omniverse處于測試階段,很快就會發(fā)布到Omniverse Enterprise企業(yè)版。

06. 結(jié)語:英偉達All in 生成式AI

在本屆SIGGRAPH大會上,黃仁勛集中分享了NVIDIA最新的技術(shù)、研究、OpenUSD開發(fā)和AI內(nèi)容創(chuàng)建解決方案,并用一系列對開發(fā)者及企業(yè)極具吸引力的軟硬件新品,再度驗證NVIDIA在新時代的自定義——NVIDIA是一家平臺公司。

今年以來,NVIDIA GPU已成為支持生成式AI和大模型訓練的大算力AI芯片首選,亦當之無愧是推動生成式AI普及的核心功臣。受益于生成式AI熱潮的NVIDIA,也正積極地成為一個稱職的“生成式AI布道者”,近期一直盡心竭力地推廣生成式AI在各行各業(yè)應(yīng)用的價值。

在推動高效地、經(jīng)濟地、可擴展地運行生成式AI模型的道路上,NVIDIA所展示了許多軟硬件創(chuàng)新成果,無論是加速大型語言模型訓練和調(diào)優(yōu),還是簡化定制生成式AI模型的工作流程,抑或是持續(xù)提高圖形渲染及工業(yè)元宇宙基礎(chǔ)設(shè)施的性能和開發(fā)體驗,這些進展都令人印象深刻。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    18924

    瀏覽量

    227205
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4793

    瀏覽量

    102423
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28875

    瀏覽量

    266203
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    463

    瀏覽量

    410
  • HBM3
    +關(guān)注

    關(guān)注

    0

    文章

    73

    瀏覽量

    119
  • HBM3E
    +關(guān)注

    關(guān)注

    0

    文章

    71

    瀏覽量

    187

原文標題:昨夜,黃仁勛甩出最強生成式AI處理器,全球首發(fā)HBM3e,比H100還快

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    英偉達發(fā)布新一代H200,搭載HBM3e,推理速度是H100兩倍!

    200和B100兩款芯片。來源:英偉達官網(wǎng) ? 首款搭載HBM3e 的GPU ,推理速度幾乎是H100 的兩倍 ? 與A100H100
    的頭像 發(fā)表于 11-15 01:15 ?3105次閱讀
    英偉達發(fā)布新一代<b class='flag-5'>H</b>200,搭載<b class='flag-5'>HBM3e</b>,推理速度是<b class='flag-5'>H100</b>兩倍!

    有望超越馬斯克成全球首富 最快有望在2025年前實現(xiàn)

    得益于人工智能(AI處理器需求持續(xù)旺盛,英偉達第1季度銷售額連續(xù)第3個季度增長超200%。英偉達公司的股價在業(yè)績超預(yù)期的加持下創(chuàng)下歷史新高,這也使得
    的頭像 發(fā)表于 05-28 11:53 ?429次閱讀

    工資多少錢?薪酬大漲到3420萬美元

    3420萬美元(或者我們可以理解為總薪酬;的基本工資只在100萬美元的水平;
    的頭像 發(fā)表于 05-15 16:59 ?486次閱讀

    回應(yīng)中國市場問題 推出L20和H20芯片

    回應(yīng)中國市場問題 推出L20和H20芯片 在
    的頭像 發(fā)表于 03-20 15:45 ?984次閱讀

    回應(yīng)中國市場問題

    英偉達CEO近日在接受媒體采訪時,深入探討了公司在全球數(shù)據(jù)中心市場的戰(zhàn)略布局以及最新研發(fā)的AI芯片Blackwell的相關(guān)情況。
    的頭像 發(fā)表于 03-20 14:47 ?631次閱讀

    什么是HBM3E內(nèi)存?Rambus HBM3E/3內(nèi)存控制內(nèi)核

    Rambus HBM3E/3 內(nèi)存控制內(nèi)核針對高帶寬和低延遲進行了優(yōu)化,以緊湊的外形和高能效的封裝為人工智能訓練提供了最大的性能和靈活性。
    發(fā)表于 03-20 14:12 ?1911次閱讀
    什么是<b class='flag-5'>HBM3E</b>內(nèi)存?Rambus <b class='flag-5'>HBM3E</b>/<b class='flag-5'>3</b>內(nèi)存控制<b class='flag-5'>器</b>內(nèi)核

    SK海力士HBM3E正式量產(chǎn),鞏固AI存儲領(lǐng)域的領(lǐng)先地位

    SK海力士作為HBM3E首發(fā)玩家,預(yù)計這款最新產(chǎn)品的大批量投產(chǎn)及其作為業(yè)內(nèi)首家供應(yīng)HBM3制造商所累積的經(jīng)驗,將進一步強化公司在AI存儲
    的頭像 發(fā)表于 03-19 15:18 ?787次閱讀

    :競爭對手AI芯片免費,仍無法替代英偉達GPU

    此外,坦言道,NVIDIA所面臨的競爭“世界上任何公司都更為激烈”,有時甚至連自家的客戶都會與其競品展開競爭。同時,他表示NVIDIA會積極協(xié)助正在打造替代型
    的頭像 發(fā)表于 03-13 09:53 ?379次閱讀

    美光量產(chǎn)行業(yè)領(lǐng)先的HBM3E解決方案,加速人工智能發(fā)展

    內(nèi)存解決方案。英偉達 H200 Tensor Core GPU 將采用美光 8 層堆疊的 24GB 容量 HBM3E 內(nèi)存,并于 2024 年第二季度開始出貨。美光通過這一里程碑進展持續(xù)保持行業(yè)
    的頭像 發(fā)表于 03-04 18:51 ?1036次閱讀
    美光量產(chǎn)行業(yè)領(lǐng)先的<b class='flag-5'>HBM3E</b>解決方案,加速人工智能發(fā)展

    三星發(fā)布首款12層堆疊HBM3E DRAM

    近日,三星電子宣布,已成功發(fā)布其首款12層堆疊的高帶寬內(nèi)存(HBM3E)產(chǎn)品——HBM3E 12H,再次鞏固了其在半導(dǎo)體技術(shù)領(lǐng)域的領(lǐng)先地位。據(jù)了解,HBM3E 12
    的頭像 發(fā)表于 02-27 14:28 ?848次閱讀

    三星電子成功發(fā)布其首款12層堆疊HBM3E DRAM—HBM3E 12H

    2024年2月27日 - 三星電子今日宣布,公司成功發(fā)布其首款12層堆疊HBM3E DRAM——HBM3E 12H,這是三星目前為止容量最大的HBM產(chǎn)品。
    的頭像 發(fā)表于 02-27 11:07 ?610次閱讀

    美光科技批量生產(chǎn)HBM3E,推動人工智能發(fā)展

    美光執(zhí)行副總裁兼首席商務(wù)官薩達納(Sumit Sadana)稱,公司已實現(xiàn)HBM3E的市場首發(fā)和卓越性能,同時能耗具有顯著優(yōu)勢,使公司在AI加速領(lǐng)域穩(wěn)占先機。他還強調(diào),美光擁有業(yè)界頂尖的HBM
    的頭像 發(fā)表于 02-27 09:38 ?323次閱讀

    美光科技啟動高帶寬存儲芯片生產(chǎn) 為英偉達最新AI芯片提供支持

    英偉達下一代H200圖形處理器將采用美光HBM3E芯片,預(yù)計于今年第2季交付,有望超越現(xiàn)有的H100芯片,為美光科技貢獻更高業(yè)績。此外,龍頭廠商SK海力士等供應(yīng)的
    的頭像 發(fā)表于 02-27 09:33 ?468次閱讀

    AMD發(fā)布HBM3e AI加速升級版,2025年推新款I(lǐng)nstinct MI

    目前,只有英偉達的Hopper GH200芯片配備了HBM3e內(nèi)存。與現(xiàn)有的HBM3,HBM3e的速度提升了50%,單個平臺可以達到10TB/s的帶寬,單顆芯片能夠?qū)崿F(xiàn)5TB/s的
    的頭像 發(fā)表于 02-25 11:22 ?447次閱讀

    追趕SK海力士,三星、美光搶進HBM3E

    電子發(fā)燒友網(wǎng)報道(文/晶晶)新型存儲HBM隨著AI訓練需求的攀升顯示出越來越重要的地位。從2013年SK海力士推出第一代HBM來看,HBM
    的頭像 發(fā)表于 10-25 18:25 ?2752次閱讀
    追趕SK海力士,三星、美光搶進<b class='flag-5'>HBM3E</b>