0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Amazon EC2 Inf2實例正式可用 助力低成本、高性能的生成式AI推理

全球TMT ? 來源:全球TMT ? 作者:全球TMT ? 2023-04-21 14:33 ? 次閱讀

深度學(xué)習(xí)(DL)的創(chuàng)新,特別是大語言模型(LLM)的快速發(fā)展,已經(jīng)席卷了整個行業(yè)。深度學(xué)習(xí)模型的參數(shù)已從數(shù)百萬增加到數(shù)十億,為我們呈現(xiàn)了越來越多激動人心的新能力。它們正在催生新的應(yīng)用,如生成式AI或醫(yī)療保健和生命科學(xué)的高級研究。亞馬遜科技一直在芯片、服務(wù)器、數(shù)據(jù)中心互連和軟件服務(wù)等多個方面創(chuàng)新,加速深度學(xué)習(xí)工作負(fù)載的大規(guī)模應(yīng)用。

亞馬遜云科技在2022 re:Invent 全球大會上,以其最新的自研機(jī)器學(xué)習(xí)推理芯片Amazon Inferentia2為基礎(chǔ),發(fā)布了AmazonEC2 Inf2系列實例的預(yù)覽版。AmazonEC2 Inf2類型實例專門針對全球大規(guī)模運行高性能深度學(xué)習(xí)推理應(yīng)用程序,為部署在EC2上的生成式AI應(yīng)用提供最佳性價比,其中包含GPT-J或開放式預(yù)訓(xùn)練Transformer(OPT)語言模型。

現(xiàn)在,亞馬遜云科技宣布Amazon EC2 Inf2實例正式可用。

Inf2實例是AmazonEC2上首個推理優(yōu)化的實例,支持可擴(kuò)展的分布式推理,可實現(xiàn)多個inferentia2芯片之間的超高速連接。用戶可以在Inf2實例中跨多個芯片高效部署具有數(shù)千億個參數(shù)的模型。與Amazon EC2 Inf1實例相比,Inf2實例的吞吐量提高4倍,延遲降低10倍。

新Inf2實例的亮點

Inf2實例目前有四種可用實例類型,最高擴(kuò)展至12個Amazon Inferentia2芯片和192個vCPU配置。在BF16或FP16數(shù)據(jù)類型下,它們能夠提供2.3 petaFLOPS的綜合計算能力,并具有芯片間超高速NeuronLink互連的功能。NeuronLink可在多個Inferentia2芯片上擴(kuò)展大模型,避免通信瓶頸,實現(xiàn)更高性能的推理。

每個Inferentia2芯片內(nèi)有32 GB的高帶寬內(nèi)存(HBM),最高配置的Inf2 實例可提供高達(dá)384 GB的共享加速器內(nèi)存,總內(nèi)存帶寬為9.8 TB/s。對于需要大內(nèi)存支持的的大型語言模型而言,這種帶寬對于支持模型推理尤為重要。

基于專門為深度學(xué)習(xí)工作負(fù)載而構(gòu)建的Amazon Inferentia2芯片的Amazon EC2 Inf2,相比同類實例,單位功率性能高出了50%。

AmazonInferentia2的創(chuàng)新之處

與亞馬遜自研機(jī)器學(xué)習(xí)訓(xùn)練芯片Amazon Trainium類似,每個Amazon Inferentia2芯片都配有兩個經(jīng)過優(yōu)化的NeuronCore-v2引擎、高帶寬內(nèi)存(HBM)堆棧和專用的集體計算引擎,以便在執(zhí)行多加速器推理時實現(xiàn)計算與通信的并行。

每個NeuronCore-v2都有專為深度學(xué)習(xí)算法構(gòu)建的標(biāo)量、向量和張量三種引擎,其中張量引擎針對矩陣運算進(jìn)行了優(yōu)化;標(biāo)量引擎針對ReLU(修正線性單元)函數(shù)等元素性操作進(jìn)行了優(yōu)化;向量引擎針對批處理規(guī)范化或池化等非元素向量運算進(jìn)行了優(yōu)化。

以下是Amazon Inferentia2芯片和服務(wù)器硬件其他創(chuàng)新總結(jié):

數(shù)據(jù)類型——Amazon Inferentia2 支持多種數(shù)據(jù)類型,包括FP32、TF32、BF16、FP16 和UINT8,用戶可以為工作負(fù)載選擇最合適的數(shù)據(jù)類型。它還支持新的可配置FP8(cFP8)數(shù)據(jù)類型,該數(shù)據(jù)類型特別適用于大模型,因為它減少了模型的內(nèi)存占用和I/O 要求。

動態(tài)執(zhí)行和動態(tài)輸入形狀——Amazon Inferentia2 具有支持動態(tài)執(zhí)行的嵌入式通用數(shù)字信號處理器DSP),因此無需在主機(jī)上展開或執(zhí)行控制流運算符。Amazon Inferentia2 還支持動態(tài)輸入形狀,這些形狀對于具有未知輸入張量大小的模型(例如處理文本的模型)至關(guān)重要。

自定義運算符——Amazon Inferentia2支持用C++語言編寫的自定義運算符。Neuron自定義C++運算符使用戶能夠編寫在NeuronCore上天然運行的C++自定義運算符。用戶可以使用標(biāo)準(zhǔn)的PyTorch自定義運算符編程接口將CPU 自定義運算符遷移到Neuron 并實現(xiàn)新的實驗運算符,所有這些都無需對NeuronCore 硬件有任何深入了解。

NeuronLink v2——Inf2實例是AmazonEC2類型中首個將NeuronLink V2 用于推理優(yōu)化的實例,NeuronLink v2 為Inferentia2芯片間的提供超高速連接,加強(qiáng)分布式推理性能。NeuronLink v2使用all-reduce等聚合通信(CC)運算符,將高性能推理管道擴(kuò)展到所有的推理芯片上。

新Inf2實例現(xiàn)已可用

用戶可在亞馬遜云科技美東(俄亥俄州)和美東(北弗吉尼亞州)地區(qū)啟動Inf2實例,以按需、預(yù)留和競價實例或Savings Plan方式調(diào)用。用戶僅需為其實際使用的服務(wù)付費。如需了解更多相關(guān)信息,請訪問Amazon EC2定價網(wǎng)站。

Inf2實例可使用亞馬遜云科技深度學(xué)習(xí)鏡像進(jìn)行部署,并可通過Amazon SageMaker、Amazon Elastic Kubernetes Service(Amazon EKS)、Amazon Elastic Container Service(Amazon ECS)和Amazon ParallelCluster等托管服務(wù)調(diào)用。

如需了解更多信息,請訪問Amazon EC2 Inf2實例頁面,并將相關(guān)反饋發(fā)送給Amazon re:Post for EC2;或垂詢您的AmazonSupport聯(lián)系人。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 半導(dǎo)體
    +關(guān)注

    關(guān)注

    334

    文章

    26910

    瀏覽量

    214667
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29862

    瀏覽量

    268154
  • 亞馬遜
    +關(guān)注

    關(guān)注

    8

    文章

    2621

    瀏覽量

    83138
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5471

    瀏覽量

    120904
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    480

    瀏覽量

    446
收藏 人收藏

    評論

    相關(guān)推薦

    Infor選擇Amazon Bedrock支持生成AI解決方案

    北京 ——2024 年 10 月 9 日 近日,Infor宣布選擇亞馬遜云科技專注于構(gòu)建及擴(kuò)展生成應(yīng)用的服務(wù)Amazon Bedrock,以部署集成于Infor CloudSuite的生成
    發(fā)表于 10-10 11:13 ?111次閱讀

    亞馬遜云科技宣布Amazon EC2 P5e實例正式可用 由英偉達(dá)H200 GPU提供支持

    1.7倍,GPU內(nèi)存寬帶提升1.5倍。Amazon EC2 P5e非常適用于復(fù)雜的大型語言模型(LLM)和多模態(tài)基礎(chǔ)模型(FM)的訓(xùn)練、微調(diào)和推理,用于支持最苛刻和計算密集型的生成
    的頭像 發(fā)表于 09-19 16:16 ?396次閱讀

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    提高成本效率。HyperAccel 針對新興的生成 AI 應(yīng)用提供超級加速的芯片 IP/解決方案。HyperAccel 已經(jīng)打造出一個快速、高效且
    的頭像 發(fā)表于 09-18 09:37 ?311次閱讀
    AMD<b class='flag-5'>助力</b>HyperAccel開發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)器

    Mistral Large 2現(xiàn)已在Amazon Bedrock中正式可用

    北京2024年7月25日 /美通社/ -- 亞馬遜云科技宣布,Mistral AI的Mistral Large 2(24.07)基礎(chǔ)模型(FM)現(xiàn)已在Amazon Bedrock中正式可用
    的頭像 發(fā)表于 07-26 08:07 ?309次閱讀

    亞馬遜云科技宣布基于自研Amazon Graviton4的Amazon EC2 R8g實例正式可用

    )?R8g實例現(xiàn)已正式可用。Amazon EC2 R8g實例與基于Amazon Graviton
    的頭像 發(fā)表于 07-15 16:09 ?338次閱讀

    基于瑞薩RZ/V2H AI微處理器的解決方案:高性能視覺AI系統(tǒng)

    復(fù)雜的實時物體識別及推理,同時功耗可與傳統(tǒng)的嵌入MPU相媲美,無需冷卻風(fēng)扇。這里介紹基于RZ/V2H的解決方案:高性能視覺AI系統(tǒng)。
    發(fā)表于 07-02 18:36 ?440次閱讀
    基于瑞薩RZ/V<b class='flag-5'>2</b>H <b class='flag-5'>AI</b>微處理器的解決方案:<b class='flag-5'>高性能</b>視覺<b class='flag-5'>AI</b>系統(tǒng)

    亞馬遜云科技宣布生成AI助手Amazon Q正式可用

    亞馬遜云科技近日宣布全新服務(wù)Amazon Q正式開放使用,該服務(wù)作為一款前沿的生成人工智能(AI)助手,專為加速軟件開發(fā)并最大化公司內(nèi)部數(shù)據(jù)價值而設(shè)計。
    的頭像 發(fā)表于 05-09 10:58 ?462次閱讀

    亞馬遜云科技宣布生成AI助手Amazon Q正式可用 激活企業(yè)內(nèi)部數(shù)據(jù)并加速軟件開發(fā)

    Business旨在增強(qiáng)員工的數(shù)據(jù)驅(qū)動能力,幫助他們生成內(nèi)容、構(gòu)建報表,并利用公司的內(nèi)部資源及數(shù)據(jù)做出更迅速、明智的決策。 Amazon Q Apps是Amazon Q Business的一個全新且強(qiáng)大的功能,它使員工能夠利用
    的頭像 發(fā)表于 05-06 08:43 ?289次閱讀

    Mistral Large模型現(xiàn)已在Amazon Bedrock上正式可用

    的 Mistral 7B 和 Mixtral 8x7B模型。今天,Mistral AI最新且最前沿的大語言模型(LLM)Mistral Large又在Amazon Bedrock上正式可用,這些將為客戶構(gòu)建
    的頭像 發(fā)表于 04-08 16:26 ?503次閱讀

    企業(yè)組網(wǎng)如何兼顧低成本高性能

    在數(shù)字化浪潮席卷全球的今天,企業(yè)的網(wǎng)絡(luò)需求變得愈加復(fù)雜和多樣化。面對激烈的市場競爭,企業(yè)不得不尋求一種既能降低成本又能保證高性能的網(wǎng)絡(luò)解決方案。傳統(tǒng)組網(wǎng)方式雖然穩(wěn)定可靠,但昂貴的硬件投入和升級成本
    的頭像 發(fā)表于 02-26 14:59 ?358次閱讀

    生成AI帶來的機(jī)遇與挑戰(zhàn)

    David Brown指出,生成AI的發(fā)展帶來了極其廣袤的市場,通過與NVIDIA等合作伙伴的攜手合作,以及自研的Amazon Graviton和
    的頭像 發(fā)表于 12-27 14:49 ?791次閱讀

    Kinara發(fā)布Ara-2邊緣AI處理器,實現(xiàn)高效、經(jīng)濟(jì)、節(jié)能的推理性能

    生成AI現(xiàn)已成為主流,然而大多數(shù)此類應(yīng)用卻在數(shù)據(jù)中心的GPU上運行,由此引發(fā)的延遲、高成本以及隱私問題亟待解決。Ara-2順應(yīng)時代變化,貼
    的頭像 發(fā)表于 12-19 11:05 ?832次閱讀

    Amazon Connect新增生成AI功能

    Connect Contact Lens為客戶互動添加了AI生成摘要功能,幫助管理人員評估和優(yōu)化坐席表現(xiàn); Amazon Connect中的Amazon Lex現(xiàn)已利用
    的頭像 發(fā)表于 12-18 17:34 ?513次閱讀

    亞馬遜推出Graviton4處理器及AI量子芯片Trainium2

    據(jù)介紹, Graviton4比前代性能提升 30%,內(nèi)核數(shù)增加 50%,內(nèi)存帶寬增加 75%,可以幫助 Amazon EC2 云服務(wù)的各類工作負(fù)載提供最佳性價比和能效。這款處理器還對所有高速物理硬件接口加密來提高安全性。
    的頭像 發(fā)表于 11-30 17:43 ?922次閱讀

    亞馬遜云科技與 NVIDIA 宣布開展戰(zhàn)略合作,為生成 AI 提供全新超級計算基礎(chǔ)架構(gòu)、軟件和服務(wù)

    計算機(jī),用于 NVIDIA AI 研發(fā)和自定義模型開發(fā)。 搭載 NVIDIA GH200、H200、L40S 和 L4 GPU的全新亞馬遜 EC2 實例生成
    的頭像 發(fā)表于 11-29 21:00 ?599次閱讀
    亞馬遜云科技與 NVIDIA 宣布開展戰(zhàn)略合作,為<b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 提供全新超級計算基礎(chǔ)架構(gòu)、軟件和服務(wù)