0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用上這個(gè)工具包,大模型推理性能加速達(dá)40倍

英特爾中國(guó) ? 來(lái)源:未知 ? 2023-12-01 20:40 ? 次閱讀
作者:英特爾公司 沈海豪、羅嶼、孟恒宇、董波、林俊

編者按:

只需不到9行代碼,就能在CPU上實(shí)現(xiàn)出色的LLM推理性能。英特爾Extension for Transformer創(chuàng)新工具包中的LLM Runtime為諸多模型顯著降低時(shí)延,且首個(gè)token和下一個(gè)token的推理速度分別提升多達(dá)40倍和2.68倍,還能滿足更多場(chǎng)景應(yīng)用需求。

英特爾Extension for Transformer是什么?

英特爾Extension for Transformers[1]是英特爾推出的一個(gè)創(chuàng)新工具包,可基于英特爾架構(gòu)平臺(tái),尤其是第四代英特爾至強(qiáng)可擴(kuò)展處理器(代號(hào)Sapphire Rapids[2],SPR)顯著加速基于Transformer的大語(yǔ)言模型(Large Language Model,LLM)。其主要特性包括:

  • 通過(guò)擴(kuò)展Hugging Face transformers API[3]和利用英特爾Neural Compressor[4],為用戶提供無(wú)縫的模型壓縮體驗(yàn);

  • 提供采用低位量化內(nèi)核(NeurIPS 2023:在CPU上實(shí)現(xiàn)高效LLM推理[5])的LLM推理運(yùn)行時(shí),支持Falcon、LLaMA、MPT、Llama2、 BLOOM、OPT、ChatGLM2、GPT-J-6B、Baichuan-13B-Base、Baichuan2-13B-Base、Qwen-7B、Qwen-14B和Dolly-v2-3B等常見(jiàn)的LLM[6];

  • 先進(jìn)的壓縮感知運(yùn)行時(shí)[7](NeurIPS 2022:在CPU上實(shí)現(xiàn)快速蒸餾和QuaLA-MiniLM:量化長(zhǎng)度自適應(yīng)MiniLM;NeurIPS 2021:一次剪枝,一勞永逸:對(duì)預(yù)訓(xùn)練語(yǔ)言模型進(jìn)行稀疏/剪枝)。

本文將重點(diǎn)介紹其中的LLM推理運(yùn)行時(shí)(簡(jiǎn)稱為“LLM運(yùn)行時(shí)”),以及如何利用基于Transformer的API在英特爾至強(qiáng)可擴(kuò)展處理器上實(shí)現(xiàn)更高效的LLM推理和如何應(yīng)對(duì)LLM在聊天場(chǎng)景中的應(yīng)用難題。

LLM運(yùn)行時(shí)(LLM Runtime)

英特爾Extension for Transformers提供的LLM Runtime[8]是一種輕量級(jí)但高效的LLM推理運(yùn)行時(shí),其靈感源于GGML[9],且與llama.cpp[10]兼容,具有如下特性:

  • 內(nèi)核已針對(duì)英特爾至強(qiáng)CPU內(nèi)置的多種AI加速技術(shù)(如 AMX、VNNI)以及AVX512F和AVX2指令集進(jìn)行了優(yōu)化;

  • 可提供更多量化選擇,例如:不同的粒度(按通道或按組)、不同的組大?。ㄈ纾?2/128);

  • 擁有更優(yōu)的KV緩存訪問(wèn)以及內(nèi)存分配策略;

  • 具備張量并行化功能,可助力在多路系統(tǒng)中進(jìn)行分布式推理。

LLM Runtime的簡(jiǎn)化架構(gòu)圖如下:

wKgZomVp1VeAe-FnAACtHVch3i8131.png

圖1.英特爾 Extension for Transformers的LLM Runtime簡(jiǎn)化架構(gòu)圖

使用基于Transformer的API,在CPU上實(shí)現(xiàn)LLM高效推理

只需不到9行代碼,即可讓您在CPU上實(shí)現(xiàn)更出色的LLM推理性能。用戶可以輕松地啟用與Transformer類似的API來(lái)進(jìn)行量化和推理。只需將 ‘load_in_4bit’設(shè)為true,然后從HuggingFace URL或本地路徑輸入模型即可。下方提供了啟用僅限權(quán)重的(weight-only)INT4量化的示例代碼:

fromtransformersimportAutoTokenizer,TextStreamer
fromintel_extension_for_transformers.transformersimportAutoModelForCausalLM
model_name="Intel/neural-chat-7b-v3-1”
prompt="Onceuponatime,thereexistedalittlegirl,"

tokenizer=AutoTokenizer.from_pretrained(model_name,trust_remote_code=True)
inputs=tokenizer(prompt,return_tensors="pt").input_ids
streamer=TextStreamer(tokenizer)

model=AutoModelForCausalLM.from_pretrained(model_name,load_in_4bit=True)
outputs=model.generate(inputs,streamer=streamer,max_new_tokens=300)
可左滑看完整版

默認(rèn)設(shè)置為:將權(quán)重存儲(chǔ)為4位,以8位進(jìn)行計(jì)算。但也支持不同計(jì)算數(shù)據(jù)類型(dtype)和權(quán)重?cái)?shù)據(jù)類型組合,用戶可以按需修改設(shè)置。下方提供了如何使用這一功能的示例代碼:

fromtransformersimportAutoTokenizer,TextStreamer
fromintel_extension_for_transformers.transformersimportAutoModelForCausalLM,WeightOnlyQuantConfig
model_name="Intel/neural-chat-7b-v3-1”
prompt="Onceuponatime,thereexistedalittlegirl,"

woq_config=WeightOnlyQuantConfig(compute_dtype="int8",weight_dtype="int4")
tokenizer=AutoTokenizer.from_pretrained(model_name,trust_remote_code=True)
inputs=tokenizer(prompt,return_tensors="pt").input_ids
streamer=TextStreamer(tokenizer)

model=AutoModelForCausalLM.from_pretrained(model_name,quantization_config=woq_config)
outputs=model.generate(inputs,streamer=streamer,max_new_tokens=300)
可左滑看完整版

性能測(cè)試

經(jīng)過(guò)持續(xù)努力,上述優(yōu)化方案的INT4性能得到了顯著提升。本文在搭載英特爾至強(qiáng)鉑金8480+的系統(tǒng)上與llama.cpp進(jìn)行了性能比較;系統(tǒng)配置詳情如下:@3.8GHz,56核/路,啟用超線程,啟用睿頻,總內(nèi)存 256 GB (16 x 16 GB DDR5 4800 MT/s [4800 MT/s]),BIOS 3A14.TEL2P1,微代碼0x2b0001b0,CentOS Stream 8。

當(dāng)輸入大小為32、輸出大小為32、beam為1時(shí)的推理性能測(cè)試結(jié)果,詳見(jiàn)下表:

wKgZomVp1ViAaBZqAAK0Kssl-FU362.png
表1.LLM Runtime與llama.cpp推理性能比較(輸入大小=32,輸出大小=32,beam=1)

輸入大小為1024、輸出大小為32、beam為1時(shí)的推理性能的測(cè)試結(jié)果,詳見(jiàn)下表:

wKgZomVp1ViAbFl4AALZLCa6TwA539.png
表2.LLM Runtime與llama.cpp推理性能比較(輸入大小=1024,輸出大小=32,beam=1)

根據(jù)上表2可見(jiàn):與同樣運(yùn)行在第四代英特爾至強(qiáng)可擴(kuò)展處理器上的llama.cpp相比,無(wú)論是首個(gè)token還是下一個(gè)token,LLM Runtime都能顯著降低時(shí)延,且首個(gè)token和下一個(gè)token的推理速度分別提升多達(dá) 40 倍[a](Baichuan-13B,輸入為1024)和2.68倍[b](MPT-7B,輸入為1024)。llama.cpp的測(cè)試采用的是默認(rèn)代碼庫(kù)[10]。

而綜合表1和表2的測(cè)試結(jié)果,可得:與同樣運(yùn)行在第四代英特爾至強(qiáng)可擴(kuò)展處理器上的llama.cpp相比,LLM Runtime能顯著提升諸多常見(jiàn)LLM的整體性能:在輸入大小為1024時(shí),實(shí)現(xiàn)3.58到21.5倍的提升;在輸入大小為32時(shí),實(shí)現(xiàn)1.76到3.43倍的提升[c]

準(zhǔn)確性測(cè)試

英特爾Extension for Transformers可利用英特爾Neural Compressor中的SignRound[11]、RTN和GPTQ[12]等量化方法,并使用lambada_openai、piqa、winogrande和hellaswag數(shù)據(jù)集驗(yàn)證了 INT4 推理準(zhǔn)確性。下表是測(cè)試結(jié)果平均值與FP32準(zhǔn)確性的比較。

wKgZomVp1ViAWBx_AAKt1XItMsY680.png
表3.INT4與FP32準(zhǔn)確性對(duì)比

從上表3可以看出,多個(gè)模型基于LLM Runtime進(jìn)行的INT4推理準(zhǔn)確性損失微小,幾乎可以忽略不記。我們驗(yàn)證了很多模型,但由于篇幅限制此處僅羅列了部分內(nèi)容。如您欲了解更多信息或細(xì)節(jié),請(qǐng)?jiān)L問(wèn)此鏈接:https://medium.com/@NeuralCompressor/llm-performance-of-intel-extension-for-transformers-f7d061556176

更先進(jìn)的功能:滿足LLM更多場(chǎng)景應(yīng)用需求

同時(shí),LLM Runtime[8]還具備雙路CPU的張量并行化功能,是較早具備此類功能的產(chǎn)品之一。未來(lái),還會(huì)進(jìn)一步支持雙節(jié)點(diǎn)。

然而,LLM Runtime的優(yōu)勢(shì)不僅在于其更出色的性能和準(zhǔn)確性,我們也投入了大量的精力來(lái)增強(qiáng)其在聊天應(yīng)用場(chǎng)景中的功能,并且解決了LLM 在聊天場(chǎng)景中可能會(huì)遇到的以下應(yīng)用難題:

  1. 對(duì)話不僅關(guān)乎LLM推理,對(duì)話歷史也很有用。

  2. 輸出長(zhǎng)度有限:LLM模型預(yù)訓(xùn)練主要基于有限的序列長(zhǎng)度。因此,當(dāng)序列長(zhǎng)度超出預(yù)訓(xùn)練時(shí)使用的注意力窗口大小時(shí),其準(zhǔn)確性便會(huì)降低。

  3. 效率低下:在解碼階段,基于Transformer的LLM會(huì)存儲(chǔ)所有先前生成的token的鍵值狀態(tài)(KV),從而導(dǎo)致內(nèi)存使用過(guò)度,解碼時(shí)延增加。

關(guān)于第一個(gè)問(wèn)題,LLM Runtime的對(duì)話功能通過(guò)納入更多對(duì)話歷史數(shù)據(jù)以及生成更多輸出加以解決,而llama.cpp目前尚未能很好地應(yīng)對(duì)這一問(wèn)題。

關(guān)于第二和第三個(gè)問(wèn)題,我們將流式LLM(Steaming LLM)集成到英特爾Extension for Transformers中,從而能顯著優(yōu)化內(nèi)存使用并降低推理時(shí)延。

Streaming LLM

與傳統(tǒng)KV緩存算法不同,我們的方法結(jié)合了注意力匯聚(Attention Sink)(4個(gè)初始token)以提升注意力計(jì)算的穩(wěn)定性,并借助滾動(dòng)KV緩存保留最新的token,這對(duì)語(yǔ)言建模至關(guān)重要。該設(shè)計(jì)具有強(qiáng)大的靈活性,可無(wú)縫集成到能夠利用旋轉(zhuǎn)位置編碼RoPE和相對(duì)位置編碼ALiBi的自回歸語(yǔ)言模型中。

wKgZomVp1ViAVSmlAAGz-8RbG5A155.png
圖2.Steaming LLM的KV緩存(圖片來(lái)源:通過(guò)注意力下沉實(shí)現(xiàn)高效流式語(yǔ)言模型[13])

此外,與llama.cpp不同,本優(yōu)化方案還引入了“n_keep”和“n_discard”等參數(shù)來(lái)增強(qiáng)Streaming LLM策略。用戶可使用前者來(lái)指定要在KV緩存中保留的token數(shù)量,并使用后者來(lái)確定在已生成的token中要舍棄的數(shù)量。為了更好地平衡性能和準(zhǔn)確性,系統(tǒng)默認(rèn)在KV緩存中舍棄一半的最新token。

同時(shí),為進(jìn)一步提高性能,我們還將Streaming LLM添加到了MHA融合模式中。如果模型是采用旋轉(zhuǎn)位置編碼(RoPE)來(lái)實(shí)現(xiàn)位置嵌入,那么只需針對(duì)現(xiàn)有的K-Cache應(yīng)用“移位運(yùn)算(shift operation)”,即可避免對(duì)先前生成的、未被舍棄的token進(jìn)行重復(fù)計(jì)算。這一方法不僅充分利用了長(zhǎng)文本生成時(shí)的完整上下文大小,還能在KV緩存上下文完全被填滿前不產(chǎn)生額外開(kāi)銷。

“shift operation”依賴于旋轉(zhuǎn)的交換性和關(guān)聯(lián)性,或復(fù)數(shù)乘法。例如:如果某個(gè)token的K-張量初始放置位置為m并且旋轉(zhuǎn)了θifor i ∈ [0,d/2),那么當(dāng)它需要移動(dòng)到m-1這個(gè)位置時(shí),則可以旋轉(zhuǎn)回到(-1)×θifori ∈ [0,d/2)。這正是每次舍棄n_discard個(gè)token的緩存時(shí)發(fā)生的事情,而此時(shí)剩余的每個(gè)token都需要“移動(dòng)”n_discard個(gè)位置。下圖以“n_keep=4、n_ctx=16、n_discard=1”為例,展示了這一過(guò)程。

wKgZomVp1ViAFtM0AALpErOdMGA097.png
圖3.Ring-Buffer KV-Cache和Shift-RoPE工作原理

需要注意的是:融合注意力層無(wú)需了解上述過(guò)程。如果對(duì)K-cache和V-cache進(jìn)行相同的洗牌,注意力層會(huì)輸出幾乎相同的結(jié)果(可能存在因浮點(diǎn)誤差導(dǎo)致的微小差異)

您可通過(guò)以下代碼啟動(dòng)Streaming LLM:

fromtransformersimportAutoTokenizer,TextStreamer
fromintel_extension_for_transformers.transformersimportAutoModelForCausalLM,WeightOnlyQuantConfig
model_name="Intel/neural-chat-7b-v1-1"#HuggingFacemodel_idorlocalmodel
woq_config=WeightOnlyQuantConfig(compute_dtype="int8",weight_dtype="int4")
prompt="Onceuponatime,alittlegirl"

tokenizer=AutoTokenizer.from_pretrained(model_name,trust_remote_code=True)
inputs=tokenizer(prompt,return_tensors="pt").input_ids
streamer=TextStreamer(tokenizer)

model=AutoModelForCausalLM.from_pretrained(model_name,quantization_config=woq_config,trust_remote_code=True)

#Recommendn_keep=4todoattentionsinks(fourinitialtokens)andn_discard=-1todrophalfrencetlytokenswhenmeetlengththreshold

outputs=model.generate(inputs,streamer=streamer,max_new_tokens=300,ctx_size=100,n_keep=4,n_discard=-1)

可左滑看完整版

結(jié)論與展望

本文基于上述實(shí)踐經(jīng)驗(yàn),提供了一個(gè)在英特爾至強(qiáng)可擴(kuò)展處理器上實(shí)現(xiàn)高效的低位(INT4)LLM推理的解決方案,并且在一系列常見(jiàn)LLM上驗(yàn)證了其通用性以及展現(xiàn)了其相對(duì)于其他基于CPU的開(kāi)源解決方案的性能優(yōu)勢(shì)。未來(lái),我們還將進(jìn)一步提升CPU張量庫(kù)和跨節(jié)點(diǎn)并行性能。

歡迎您試用英特爾Extension for Transformers[1],并在英特爾平臺(tái)上更高效地運(yùn)行LLM推理!也歡迎您向代碼倉(cāng)庫(kù)(repository)提交修改請(qǐng)求 (pull request)、問(wèn)題或疑問(wèn)。期待您的反饋!

特別致謝

在此致謝為此篇文章做出貢獻(xiàn)的英特爾公司人工智能資深經(jīng)理張瀚文及工程師許震中、余振滔、劉振衛(wèi)、丁藝、王哲、劉宇澄。

[a]根據(jù)表2 Baichuan-13B的首個(gè)token測(cè)試結(jié)果計(jì)算而得。
[b]根據(jù)表2 MPT-7B的下一個(gè)token測(cè)試結(jié)果計(jì)算而得。
[c]當(dāng)輸入大小為1024時(shí),整體性能=首個(gè)token性能+1023下一個(gè)token性能;當(dāng)輸入大小為32時(shí),整體性能=首個(gè)token性能+31下一個(gè)token性能。

參考鏈接:

[1]英特爾Extension for Transformers

https://github.com/intel/intel-extension-for-transformers

[2]Sapphire Rapids

https://www.intel.cn/content/www/cn/zh/products/docs/processors/xeon-accelerated/4th-gen-xeon-scalable-processors.html

[3]Hugging Face transformers

https://github.com/huggingface/transformers

[4]英特爾Neural Compressor

https://github.com/intel/neural-compressor

[5]NeurIPS 2023:在CPU上實(shí)現(xiàn)高效LLM推理

https://arxiv.org/pdf/2311.00502.pdf

[6]常見(jiàn)LLM:

Falconhttps://falconllm.tii.ae/

LLaMA:https://ai.meta.com/blog/large-language-model-llama-meta-ai/

MPT:https://www.mosaicml.com/blog/mpt-7b

Llama2:https://ai.meta.com/llama/

BLOOM:https://huggingface.co/bigscience/bloom

OPT:https://arxiv.org/abs/2205.01068

ChatGLM2:https://github.com/THUDM/ChatGLM2-6B

GPT-J-6B:https://huggingface.co/EleutherAI/gpt-j-6b

Baichuan-13B-Base:https://huggingface.co/baichuan-inc/Baichuan-13B-Base

Baichuan2-13B-Base:https://huggingface.co/baichuan-inc/Baichuan2-13B-Base

Qwen-7B:https://huggingface.co/Qwen/Qwen-7B

Qwen-14B:https://huggingface.co/Qwen/Qwen-14B

Dolly-v2-3B:https://huggingface.co/databricks/dolly-v2-3b

[7]先進(jìn)的壓縮感知運(yùn)行時(shí)

NeurIPS 2022:在 CPU 上實(shí)現(xiàn)快速蒸餾

https://arxiv.org/abs/2211.07715

QuaLA-MiniLM:量化長(zhǎng)度自適應(yīng) MiniLM

https://arxiv.org/abs/2210.17114

NeurIPS 2021:一次剪枝,一勞永逸:對(duì)預(yù)訓(xùn)練語(yǔ)言模型進(jìn)行稀疏/剪枝

https://arxiv.org/abs/2111.05754

[8]LLM Runtime

https://github.com/intel/intel-extension-for-transformers/tree/main/intel_extension_for_transformers/llm/runtime/graph

[9]GGML

https://github.com/ggerganov/ggml

[10]llama.cpp

https://github.com/ggerganov/llama.cpp

[11]SignRound

https://arxiv.org/abs/2309.05516

[12]GPTQ

https://arxiv.org/abs/2210.17323

[13]通過(guò)注意力下沉實(shí)現(xiàn)高效流式語(yǔ)言模型

http://arxiv.org/abs/2309.17453

本文轉(zhuǎn)載自:量子位

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9861

    瀏覽量

    171289
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10804

    瀏覽量

    210829

原文標(biāo)題:用上這個(gè)工具包,大模型推理性能加速達(dá)40倍

文章出處:【微信號(hào):英特爾中國(guó),微信公眾號(hào):英特爾中國(guó)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來(lái)越多,從目前的市場(chǎng)來(lái)說(shuō),有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對(duì)大語(yǔ)言模型
    的頭像 發(fā)表于 10-29 14:12 ?152次閱讀
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應(yīng)用

    澎峰科技高性能模型推理引擎PerfXLM解析

    自ChatGPT問(wèn)世以來(lái),大模型遍地開(kāi)花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭(zhēng)鳴之勢(shì)。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計(jì)算服務(wù)提供商,在2023年11月25日發(fā)
    的頭像 發(fā)表于 09-29 10:14 ?331次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>引擎PerfXLM解析

    開(kāi)箱即用,AISBench測(cè)試展示英特爾至強(qiáng)處理器的卓越推理性能

    。 中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院賽西實(shí)驗(yàn)室依據(jù)國(guó)家標(biāo)準(zhǔn)《人工智能服務(wù)器系統(tǒng)性能測(cè)試規(guī)范》(征求意見(jiàn)稿)相關(guān)要求,使用AISBench?2.0測(cè)試工具,完成了第五代英特爾至強(qiáng)可擴(kuò)展處理器的AI大模型
    的頭像 發(fā)表于 09-06 15:33 ?261次閱讀
    開(kāi)箱即用,AISBench測(cè)試展示英特爾至強(qiáng)處理器的卓越<b class='flag-5'>推理性能</b>

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國(guó)最具影響力的模型開(kāi)源社區(qū),致力給開(kāi)發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語(yǔ)言模型推理性能,方便了
    的頭像 發(fā)表于 08-23 15:48 ?353次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大
    的頭像 發(fā)表于 07-24 11:38 ?723次閱讀

    如何加速大語(yǔ)言模型推理

    的主要挑戰(zhàn)。本文將從多個(gè)維度深入探討如何加速大語(yǔ)言模型推理過(guò)程,以期為相關(guān)領(lǐng)域的研究者和開(kāi)發(fā)者提供參考。
    的頭像 發(fā)表于 07-04 17:32 ?445次閱讀

    自然語(yǔ)言處理應(yīng)用LLM推理優(yōu)化綜述

    當(dāng)前,業(yè)界在將傳統(tǒng)優(yōu)化技術(shù)引入 LLM 推理的同時(shí),同時(shí)也在探索從大模型自回歸解碼特點(diǎn)出發(fā),通過(guò)調(diào)整推理過(guò)程和引入新的模型結(jié)構(gòu)來(lái)進(jìn)一步提升推理性能
    發(fā)表于 04-10 11:48 ?541次閱讀
    自然語(yǔ)言處理應(yīng)用LLM<b class='flag-5'>推理</b>優(yōu)化綜述

    瑞薩電子宣布推出一款面向高性能機(jī)器人應(yīng)用的新產(chǎn)品—RZ/V2H

    具有10TOPS/W能效的新一代AI加速器無(wú)需冷卻風(fēng)扇即可提供高達(dá)80TOPS的AI推理性能
    的頭像 發(fā)表于 03-01 10:41 ?777次閱讀
    瑞薩電子宣布推出一款面向高<b class='flag-5'>性能</b>機(jī)器人應(yīng)用的新產(chǎn)品—RZ/V2H

    QE for Motor V1.3.0:汽車開(kāi)發(fā)輔助工具解決方案工具包

    電子發(fā)燒友網(wǎng)站提供《QE for Motor V1.3.0:汽車開(kāi)發(fā)輔助工具解決方案工具包.pdf》資料免費(fèi)下載
    發(fā)表于 02-19 10:44 ?0次下載
    QE for Motor V1.3.0:汽車開(kāi)發(fā)輔助<b class='flag-5'>工具</b>解決方案<b class='flag-5'>工具包</b>

    Torch TensorRT是一個(gè)優(yōu)化PyTorch模型推理性能工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個(gè)端到端的機(jī)器學(xué)習(xí)框架。而TensorRT則是NVIDIA的高性能深度學(xué)習(xí)推理軟件工具包。Torch TensorRT就是這兩者的結(jié)合。
    的頭像 發(fā)表于 01-09 16:41 ?1452次閱讀
    Torch TensorRT是一個(gè)優(yōu)化PyTorch<b class='flag-5'>模型</b><b class='flag-5'>推理性能</b>的<b class='flag-5'>工具</b>

    CPU也可以完美運(yùn)行大模型 英特爾第五代至強(qiáng)重磅發(fā)布

    處理器,它來(lái)了! 若是用一句話來(lái)概括它的特點(diǎn),那就是——AI味道越發(fā)得濃厚。 以訓(xùn)練、推理模型為例: ? ? ? ? ? ? 與第四代相比,訓(xùn)練性能提升多達(dá)29%,推理性能提升高達(dá)4
    的頭像 發(fā)表于 12-22 11:52 ?598次閱讀
    CPU也可以完美運(yùn)行大<b class='flag-5'>模型</b> 英特爾第五代至強(qiáng)重磅發(fā)布

    英特爾發(fā)布第五代至強(qiáng)可擴(kuò)展處理器:性能和能效大幅提升,AI 加速

    此外,至強(qiáng)可擴(kuò)展處理器被譽(yù)為行業(yè)首屈一指的內(nèi)置AI加速器數(shù)據(jù)中心處理器,全新第五代產(chǎn)品更能優(yōu)化參數(shù)量高達(dá)200億的大型語(yǔ)言模型,使其推理性能提升42%。眼下,它還是唯一歷次刷新MLPerf訓(xùn)練及
    的頭像 發(fā)表于 12-15 11:02 ?794次閱讀

    HarmonyOS:使用MindSpore Lite引擎進(jìn)行模型推理

    場(chǎng)景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)在圖像分類、目標(biāo)識(shí)別、人臉識(shí)別、文字識(shí)別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41

    Google的第五代TPU,推理性能提升2.5

     Gridspace 機(jī)器學(xué)習(xí)主管Wonkyum Lee表示:“我們的速度基準(zhǔn)測(cè)試表明,在 Google Cloud TPU v5e 上訓(xùn)練和運(yùn)行時(shí),AI 模型的速度提高了 5 。我們還看到推理
    發(fā)表于 11-24 10:27 ?555次閱讀
    Google的第五代TPU,<b class='flag-5'>推理性能</b>提升2.5<b class='flag-5'>倍</b>

    NNCF壓縮與量化YOLOv8模型與OpenVINO部署測(cè)試

    OpenVINO2023版本衍生出了一個(gè)新支持工具包NNCF(Neural Network Compression Framework – 神經(jīng)網(wǎng)絡(luò)壓縮框架),通過(guò)對(duì)OpenVINO IR格式模型的壓縮與量化更好的提升模型在Op
    的頭像 發(fā)表于 11-20 10:46 ?1451次閱讀
    NNCF壓縮與量化YOLOv8<b class='flag-5'>模型</b>與OpenVINO部署測(cè)試