0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達推出A800 GPU,為了能賣給中國客戶,對A100“砍了一刀”...

lPCU_elecfans ? 來源:未知 ? 2022-11-09 07:15 ? 次閱讀
電子發(fā)燒友網報道(文/梁浩斌)當地時間本周一,英偉達官方確認將面向中國客戶推出一款型號為A800的GPU,以替代此前受到出口管制的A100 GPU芯片。英偉達表示,A800符合美國政府的出口管制條例,不能通過編程超過限制的性能。

今年8月的最后一天,英偉達發(fā)布公告稱,公司收到美國政府通知,要求對中國大陸以及中國香港、俄羅斯的客戶出口的高端GPU芯片,需要申請出口許可證,其中覆蓋到A100和H100等幾款GPU,同時未來性能等于或高于A100的產品都會受到該政策影響。隨后10月繼續(xù)加碼的出口限制,更是將申請出口許可證的產品類別覆蓋到更大的范圍,包括用于超級計算機、量子計算等的尖端芯片、技術、設備等。

值得一提的是,A800 GPU是美國半導體公司首次為中國市場推出符合美國貿易政策的先進芯片。在9月份,英偉達曾表示,新的出口管制規(guī)則可能會令公司損失數億美元的收入。而A800作為應對貿易政策而“定制”的產品,可謂進展神速,英偉達透露在今年第三季度已經投產,目前已經有一些國內經銷商已經拿到實物,并打出A800 GPU的廣告。

A100性能和A800幾乎一致,但互連帶寬被“砍一刀”

相信大家最關心的是A800跟此前的A100性能有什么差別,A800會不會是特供中國的“低配版”。其實從英偉達已經公開的參數來看,A800單卡算力在參數上幾乎是與A100是完全一致的。


唯一的不同在于NVLink互連橋的帶寬縮水33%,從A100上的600GB/s砍至A800的400GB/s,這可能會影響到多卡服務器,比如數據中心、超級計算機的整體性能。

NVLink是英偉達在2014年發(fā)布的一種總線和通信協議,采用了點對點結構、串列傳輸,用于CPU和GPU之間,或是多個GPU之間的連接,相比通過PCIe總線互連的傳統方式,NVLink可以大幅提高交互效率。簡單來說,NVLink就是能在GPU和GPU、GPU和CPU之間實現高速大帶寬直連通信的互連技術。

圖源:英偉達

電子發(fā)燒友從英偉達官網上了解到,A100所支持的NVLink總帶寬達到600GB/s,屬于第三代產品。今年3月英偉達在GTC 2022上發(fā)布的第四代NVLink-C2C則可以實現高達900GB/s的總帶寬,是PCIe 5.0帶寬的七倍,并將互連技術擴展至芯片之間的互連,支持定制裸片與 NVIDIA GPU、CPU、DPU、NIC 和 SOC之間實現一致的互連。

而A800上的NVLink總帶寬為400GB/s,介于第二代和第三代之間。在AI和HPC等領域中,GPU之間的互連帶寬降低,對于動輒數千塊GPU組成的計算集群而言顯然會造成不小的性能損失。

國內自動駕駛行業(yè)首當其沖,誰能替代英偉達?

自動駕駛技術開發(fā),是一項需要大量算力進行AI模型訓練、計算的密集型工作。作為AI模型訓練的核心之一,英偉達的GPU產品一直以來都是自動駕駛玩家的主要選擇。英偉達推出的HGX A100平臺就是專為AI場景設計的高性能服務器平臺,包含比如驅動自動駕駛汽車的模型,以及大型數據集等,官方宣稱可以將模型開發(fā)效率提高20倍。

對于自動駕駛項目而言,開發(fā)效率的提高意味著縮短自動駕駛汽車的上市周期,加速架構的迭代。在行業(yè)內,包括特斯拉目前也在大量應用英偉達GPU打造超算平臺。去年6月,特斯拉公布了公司內部用于訓練Autopilot與自動駕駛深度神經網絡的超級計算機,這個集群使用了720個節(jié)點的8個A100 GPU(共5760個),實現高達1.8 exaflops的總算力。

國內方面,蔚來在去年年底就宣布采用英偉達A100 GPU以及Mellanox InfiniBand ConnectX-6網卡構建超級計算機集群。

小鵬汽車在今年8月2日宣布與阿里云合作在烏蘭察布建成了中國最大的自動駕駛智算中心“扶搖”,采用阿里云智能計算平臺,算力可達600PFLOPS。雖然官方沒有公布該超算中心所用的硬件,但此前阿里云一直與英偉達有密切合作,今年3月阿里云和英偉達還合作推出了初創(chuàng)加速計劃,為初創(chuàng)企業(yè)提供算力緩解計算壓力。

另一方面小鵬汽車創(chuàng)始人何小鵬在9月份的朋友圈中評論了英偉達A100出口受限的事件,并表示“壞消息是這會對所有自動駕駛云端訓練帶來挑戰(zhàn),好消息是剛好我們已經把未來幾年的需求提前買回來了。” 言下之意小鵬在自動駕駛AI模型訓練上所采用的GPU同樣來自英偉達。

因此,高端GPU的供應限制,給未來國內自動駕駛行業(yè)帶來了很大的不確定性,未來算力受限有可能成為抑制自動駕駛技術發(fā)展的關鍵因素。

當然,英偉達也在努力趕在出口的緩沖期盡量向中國完成更多交付。此前英偉達更新的最新消息稱,公司已經獲得了授權,可以使得A100和H100在2023年9月1日之前通過英偉達在相關的公司履行訂單和物流。

在9月份業(yè)內又傳出英偉達向臺積電下了“超級急件”訂單,要求臺積電提前生產原計劃在明年出貨的部分產品,交付期從原本的5-6個月縮短至2-3個月,總量約5000片晶圓。從時間上看,這批產品可能在11月前后可以向英偉達交貨。

可以預見,在近一年的緩沖期內,在目前沒有其他替代產品的情況下,國內廠商會加快采購相關產品,重點可能是相比A100性能提升高達450%的H100 GPU,這至少能保證在未來幾年內對算力的需求。

另一方面,英偉達與多家車企的自動駕駛已經進行深度綁定,包括蔚來、小鵬、極氪、輕舟智航等都已經宣布選擇英偉達下一代Thor自動駕駛芯片,但如今有了出口管制的先例,繼續(xù)在終端采用英偉達芯片難免會存在供應風險。

而在車端的自動駕駛芯片上,國內已經有一些替代產品,比如地平線、黑芝麻、寒武紀、華為等都推出了自研自動駕駛芯片,比如華為MDC810平臺采用了昇騰610芯片,可以支持最高400 TOPS算力;理想L8 首發(fā)的地平線征程5單芯算力也達到了196TOPS,據稱下一代征程6算力將超過100TOPS。而隨著國內自動駕駛芯片的發(fā)展,未來的供應風險,或許也會是國內車企轉向本土芯片公司的契機。

目前的狀況,對于英偉達以及國內自動駕駛行業(yè)來說顯然都不是一件好事。但至少在車端自動駕駛芯片上,國內車企往往采用多供應商的策略,扶持國內芯片廠商,并已經有所起色。然而在自動駕駛AI云端訓練上,國內供應商要走的路還很長。


聲明:本文由電子發(fā)燒友原創(chuàng),轉載請注明以上來源。如需入群交流,請?zhí)砑游⑿舉lecfans999,投稿爆料采訪需求,請發(fā)郵箱huangjingjing@elecfans.com。

更多熱點文章閱讀
  • 董明珠:格力為特斯拉供應底盤裝備,白電企業(yè)對“造車”達成共識?
  • 俄羅斯生產首顆純國產通信衛(wèi)星!俄衛(wèi)星實力有多強?
  • 歐盟統一充電接口!蘋果:確定改用USB-C!
  • Marvell大幅裁撤中國研發(fā)團隊,但另一市場正加大在華投資
  • 警惕!德州儀器:芯片需求疲軟,正從消費電子蔓延至工業(yè)領域!


原文標題:英偉達推出A800 GPU,為了能賣給中國客戶,對A100“砍了一刀”...

文章出處:【微信公眾號:電子發(fā)燒友網】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 電子發(fā)燒友網

    關注

    1010

    文章

    544

    瀏覽量

    164033
  • A800
    +關注

    關注

    0

    文章

    14

    瀏覽量

    233

原文標題:英偉達推出A800 GPU,為了能賣給中國客戶,對A100“砍了一刀”...

文章出處:【微信號:elecfans,微信公眾號:電子發(fā)燒友網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    阿里云暫停A100服務器出租,AI算力奇缺!國產AI芯片任重道遠

    A800/H800GPU對華出售也將受到限制。 ? 近日,阿里云A100服務器業(yè)務暫停出租的消息傳出。這反映出,美國對AI芯片的出口管制規(guī)定,已經對
    的頭像 發(fā)表于 11-09 09:08 ?3837次閱讀

    算力市場掀起價格風暴 英偉A800租賃價跳水

    在這場價格風暴中,英偉A800的租賃價格跳水至僅需2元/時,無疑成為了市場的焦點。
    的頭像 發(fā)表于 04-03 16:43 ?2173次閱讀

    美方持續(xù)收緊AI芯片對華出口限制,英偉等巨頭面臨挑戰(zhàn)

    為了挽回中國市場,英偉不得不做出妥協,推出了符合美方限制政策的A100A800芯片。
    的頭像 發(fā)表于 04-02 16:28 ?981次閱讀

    英偉H200和A100的區(qū)別

    英偉H200和A100兩款芯片在性能、架構、內存以及應用場景等多個方面存在顯著的區(qū)別。
    的頭像 發(fā)表于 03-07 16:23 ?2742次閱讀

    英偉H200和A100的差異

    英偉H200和A100在多個方面存在差異。
    的頭像 發(fā)表于 03-07 16:18 ?1766次閱讀

    英偉縮短AI GPU交付周期,持續(xù)推進算力產業(yè)鏈發(fā)展

    與此同時,隨著人工智能的迅猛發(fā)展及其廣泛應用,對像H100A100這類專為數據中心設計的高性能GPU的需求也大幅增長。而包括Yotta在內的多家公司因此紛紛加大向英偉
    的頭像 發(fā)表于 02-18 09:36 ?402次閱讀

    2024年,GPU能降價嗎?

    首當其沖的就是A100GPU。OpenAI使用的是3,617臺HGXA100服務器,包含近3萬塊英偉GPU。國內云計算相關專家認為,做好A
    的頭像 發(fā)表于 01-03 15:57 ?690次閱讀
    2024年,<b class='flag-5'>GPU</b>能降價嗎?

    英偉和華為/海思主流GPU型號性能參考

    句話總結,H100 vs. A100:3 倍性能,2 倍價格 值得注意的是,HCCS vs. NVLINK的GPU 間帶寬。 對于 8 卡
    發(fā)表于 12-29 11:43 ?4155次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>和華為/海思主流<b class='flag-5'>GPU</b>型號性能參考

    英偉vs.華為/海思:GPU性能

    NVIDIA NVLink采用全網狀拓撲,如下所示,(雙向)GPU-to-GPU 最大帶寬可達到400GB/s (需要注意的是,下方展示的是8*A100模塊時的600GB/s速率,8*A800也是類似的全網狀拓撲);
    的頭像 發(fā)表于 12-27 16:49 ?1489次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>vs.華為/海思:<b class='flag-5'>GPU</b>性能<b class='flag-5'>一</b>覽

    英偉A100芯片算力服務收費價格上調100%,這家企業(yè)的硬氣來自哪里?

    半導體芯情了解到,A100英偉最新推出款高性能計算芯片,采用了全新的Ampere架構,Ampere架構是NVIDIA于 GTC 20
    的頭像 發(fā)表于 11-14 16:30 ?1019次閱讀
    對<b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>A100</b>芯片算力服務收費價格上調<b class='flag-5'>100</b>%,這家企業(yè)的硬氣來自哪里?

    港媒:英偉再為中國推3款“改良”芯片?最快11月16日之后公布

    中國內地的家經銷商表示,英偉針對中國區(qū)已開發(fā)出最新改良版系列芯片:HGX H20、L20 PCle和L2 PCle。該經銷商表示,符合美
    的頭像 發(fā)表于 11-13 15:12 ?401次閱讀

    英偉稱受管制GPUA800和H800外,RTX 4090也被禁;壁仞回應被美列入實體清單:強烈反對

    熱點新聞 1、英偉稱受管制GPUA800和H800外,RTX 4090也被禁 美國政府10月17日公布了新的出口管制措施,進
    的頭像 發(fā)表于 10-18 19:05 ?2801次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>稱受管制<b class='flag-5'>GPU</b>:<b class='flag-5'>A800</b>和H<b class='flag-5'>800</b>外,RTX 4090也被禁;壁仞回應被美列入實體清單:強烈反對

    英偉詳解受管制GPUA800和H800外,RTX 4090也被禁

     據英偉介紹,美國政府的暫定最終規(guī)則修改了eccn 3a090和4a090的要求,對包括中國在內的d1、d4、d5國家(包括沙特阿拉伯、阿
    的頭像 發(fā)表于 10-18 11:08 ?1.1w次閱讀

    深度學習模型部署與優(yōu)化:策略與實踐;L40S與A100、H100的對比分析

    隨著生成式AI應用的迅猛發(fā)展,我們正處在前所未有的大爆發(fā)時代。在這個時代,深度學習模型的部署成為個亟待解決的問題。盡管GPU在訓練和推理中扮演著關鍵角色,但關于它在生成式AI領域的誤解仍然存在。近期英偉
    的頭像 發(fā)表于 10-07 09:43 ?1445次閱讀
    深度學習模型部署與優(yōu)化:策略與實踐;L40S與<b class='flag-5'>A100</b>、H<b class='flag-5'>100</b>的對比分析

    深度學習模型部署與優(yōu)化:策略與實踐;L40S與A100、H100的對比分析

    、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100、A800、H800
    的頭像 發(fā)表于 09-22 14:13 ?1008次閱讀
    深度學習模型部署與優(yōu)化:策略與實踐;L40S與<b class='flag-5'>A100</b>、H<b class='flag-5'>100</b>的對比分析