0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

快速下載OpenVIN Notebooks中的AI大模型

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 2023-12-16 10:22 ? 次閱讀

作者:楊雪鋒 博士

英特爾邊緣計(jì)算創(chuàng)新大使

01OpenVINO Notebooks 簡(jiǎn)介

OpenVINO Notebooks 是 Jupyter Notebook 形式的 OpenVINO 范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握 OpenVINO 推理程序,并通過(guò) Copy&Paste 方式將范例中的關(guān)鍵程序應(yīng)用到自己的 AI 軟件中去。

01運(yùn)行 AI 大模型的挑戰(zhàn)

OpenVINO Notebooks 提供了非常豐富的 AI 大模型范例程序,例如:Dolly2、Stable Diffusion、LLama2、ChatGLM2 等等,方便廣大開發(fā)者學(xué)習(xí)并應(yīng)用 AI 大模型。

但運(yùn)行 AI 大模型范例程序時(shí),由于眾所周知的原因,通常會(huì)遇到因無(wú)法從 HuggingFace 官網(wǎng)下載模型,導(dǎo)致范例程序無(wú)法運(yùn)行的情況。

以 240-dolly-2-instruction-following.ipynb 為例,運(yùn)行“Download and Convert Model”代碼時(shí)會(huì)收到報(bào)錯(cuò)信息,如下圖所示:

fa4f1e70-9b41-11ee-8b88-92fbcf53809c.png

鑒于直接從 HuggingFace 官網(wǎng)無(wú)法下載 AI 大模型,可以考慮使用國(guó)內(nèi)的兩個(gè)下載速度非常好的網(wǎng)站:

一個(gè)是HuggingFace 的國(guó)內(nèi)鏡像網(wǎng)站;另一個(gè)是魔搭社區(qū)。

本文將演示分別從HuggingFace 的國(guó)內(nèi)鏡像網(wǎng)站和魔搭社區(qū)來(lái)解決下載 AI 大模型問(wèn)題。

03從HuggingFace 國(guó)內(nèi)鏡像網(wǎng)站

解決下載問(wèn)題

3.1命令行模式

第一步,安裝下載工具:

pip install -U huggingface_hub hf_transfer

左滑查看更多

第二步,設(shè)置環(huán)境變量

Linux中,執(zhí)行:

export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

在Windows中,執(zhí)行:

SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

第三步,運(yùn)行下載命令,下載模型到本地

huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b

左滑查看更多

fa5c7fc0-9b41-11ee-8b88-92fbcf53809c.png

3.2用下載器下載

在模型頁(yè)面,右鍵菜單啟動(dòng):“多選下載模式”,如下圖所示。

模型頁(yè)面:

fa7c4562-9b41-11ee-8b88-92fbcf53809c.png

然后選擇所有要下載的文件,最后按“Enter”啟動(dòng)下載。

faa46ca4-9b41-11ee-8b88-92fbcf53809c.png

實(shí)際測(cè)試,迅雷下載的方式,速度最快,平均在 6MB/s 左右。

facc62cc-9b41-11ee-8b88-92fbcf53809c.png

3.3從本地加載模型權(quán)重

將 dolly-v2-3b 下載到本地后,把 model_id 改為 model_local_path, 讓程序從本地加載模型權(quán)重,例如:

model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)

左滑查看更多

在 240-dolly-2-instruction-following.ipynb 中“Download and Convert Model”代碼塊更改如下所示:

from pathlib import Path
from transformers import AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
model_path = Path("dolly-v2-3b")
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
current_device = device.value
ov_config = {'PERFORMANCE_HINT': 'LATENCY', 'NUM_STREAMS': '1', "CACHE_DIR": ""}
if model_path.exists():
  ov_model = OVModelForCausalLM.from_pretrained(model_path, device=current_device, ov_config=ov_config)
else:
  ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)
  ov_model.half()
  ov_model.save_pretrained(model_path)

左滑查看更多

240-dolly-2-instruction-following.ipynb 從本地加載模型的運(yùn)行效果,如下圖所示:

fae8d4e8-9b41-11ee-8b88-92fbcf53809c.png

04從魔搭社區(qū)解決下載問(wèn)題

4.1使用 modelscope API 下載模型

第一步,安裝 modelscope:

pip install modelscope

左滑查看更多

第二步,運(yùn)行 Python 腳本,下載模型到本地

from modelscope import snapshot_download 
model_dir = snapshot_download("ZhipuAI/chatglm2-6b", revision = "v1.0.12")
print(model_dir)

左滑查看更多

下載速度非常快,模型保存在“model_dir”所展示的路徑里,如下圖所示。

fb00a9c4-9b41-11ee-8b88-92fbcf53809c.png

4.2使用 git lfs工具下載

git lfs install 
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

左滑查看更多

4.3從本地加載模型權(quán)重

打開 OpenVINO Notebooks 的 254-llm-chatbot.ipynb,把本地模型所在路徑傳入 AutoModelForCausalLM.from_pretrained(),如下圖所示:

fb1d77a2-9b41-11ee-8b88-92fbcf53809c.png

#從本地載入分詞器
tok = AutoTokenizer.from_pretrained("D:/chatglm2-6b", trust_remote_code=True)

左滑查看更多

254-llm-chatbot.ipynb 從本地加載模型的運(yùn)行結(jié)果,如下圖所示:

fb3e29ac-9b41-11ee-8b88-92fbcf53809c.png

總 結(jié)

當(dāng)遇到從 HuggingFace 官網(wǎng)無(wú)法下載 AI 大模型時(shí),可以從國(guó)內(nèi)鏡像網(wǎng)站或魔搭社區(qū)下載,然后從本地加載模型權(quán)重,實(shí)現(xiàn) OpenVINO Notebooks 的范例代碼順利運(yùn)行。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9747

    瀏覽量

    170640
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28875

    瀏覽量

    266199
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2134

    瀏覽量

    1971
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    73

    瀏覽量

    139
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    281

    瀏覽量

    212

原文標(biāo)題:快速下載 OpenVINO? Notebooks 中的 AI 大模型 | 開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用cube-AI分析模型時(shí)報(bào)錯(cuò)的原因有哪些?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 03-14 07:09

    防止AI模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開發(fā)套件評(píng)測(cè)4

    在訓(xùn)練一只聰明的AI小動(dòng)物解決實(shí)際問(wèn)題,通過(guò)構(gòu)建神經(jīng)網(wǎng)絡(luò)模型并進(jìn)行推理,讓電腦也能像人一樣根據(jù)輸入信息做出決策。 在上述示例,我創(chuàng)建了一個(gè)簡(jiǎn)單的深度學(xué)習(xí)模型,該
    發(fā)表于 03-19 11:18

    STM CUBE AI錯(cuò)誤導(dǎo)入onnx模型報(bào)錯(cuò)的原因?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 05-27 07:15

    聆思CSK6視覺語(yǔ)音大模型AI開發(fā)板入門資源合集(硬件資料、大模型語(yǔ)音/多模態(tài)交互/英語(yǔ)評(píng)測(cè)SDK合集)

    豐富外設(shè)配件 配套多模態(tài)應(yīng)用示例,支持快速上手體驗(yàn)大模型語(yǔ)音交互、智能視覺等 AI 應(yīng)用 板載 DAPLINK 調(diào)試器,外接一條USB 線即可實(shí)現(xiàn)燒錄、調(diào)試、串口日志查看 板載網(wǎng)絡(luò)模組,支持開發(fā)聯(lián)網(wǎng)類
    發(fā)表于 06-18 17:33

    AI模型可以設(shè)計(jì)電路嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29

    AI模型怎么解決芯片過(guò)剩?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05

    AI模型可以取代大學(xué)教育嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 16:27:52

    AI算法中比較常用的模型都有什么?

    AI算法中比較常用的模型都有什么
    發(fā)表于 08-27 09:19

    【KV260視覺入門套件試用體驗(yàn)】Vitis AI 構(gòu)建開發(fā)環(huán)境,并使用inspector檢查模型

    量化 七、Vitis AI 通過(guò)遷移學(xué)習(xí)訓(xùn)練自定義模型 八、Vitis AI 將自定義模型編譯并部署到KV260 鋪墊 Vitis
    發(fā)表于 10-14 15:34

    深度模型的優(yōu)化與學(xué)習(xí)課件下載

    深度模型的優(yōu)化與學(xué)習(xí)課件下載
    發(fā)表于 04-07 16:21 ?3次下載
    深度<b class='flag-5'>模型</b><b class='flag-5'>中</b>的優(yōu)化與學(xué)習(xí)課件<b class='flag-5'>下載</b>

    如何使用NVIDIA TAO快速準(zhǔn)確地訓(xùn)練AI模型

    利用 NVIDIA TLT 快速準(zhǔn)確地訓(xùn)練人工智能模型的探索表明,人工智能在工業(yè)過(guò)程具有巨大的潛力。
    的頭像 發(fā)表于 04-20 17:45 ?2670次閱讀
    如何使用NVIDIA TAO<b class='flag-5'>快速</b>準(zhǔn)確地訓(xùn)練<b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    AI模型和小模型是什么?AI模型和小模型的區(qū)別

      隨著人工智能的不斷發(fā)展和應(yīng)用,機(jī)器學(xué)習(xí)模型的大小越來(lái)越成為一個(gè)重要的問(wèn)題。在機(jī)器學(xué)習(xí),我們通常將模型分為兩類:大模型和小模型。本文將介
    發(fā)表于 08-08 16:55 ?8304次閱讀

    OpenVIN賦能BLIP實(shí)現(xiàn)視覺語(yǔ)言AI邊緣部署

    ,使用 OpenVINO 輕松文生圖》,我們介紹了利用OpenVINO 運(yùn)行Stable Diffusion模型快速實(shí)現(xiàn)文生圖應(yīng)用。讓人人可以成為繪畫大師,利用AI隨心作畫。
    的頭像 發(fā)表于 09-04 10:54 ?1w次閱讀
    <b class='flag-5'>OpenVIN</b>賦能BLIP實(shí)現(xiàn)視覺語(yǔ)言<b class='flag-5'>AI</b>邊緣部署

    如何快速下載OpenVINO NotebooksAI模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握OpenVINO推理程序,并通過(guò)Copy&Paste方式將范例的關(guān)鍵程序應(yīng)用到自己的
    的頭像 發(fā)表于 12-12 14:40 ?970次閱讀
    如何<b class='flag-5'>快速</b><b class='flag-5'>下載</b>OpenVINO <b class='flag-5'>Notebooks</b><b class='flag-5'>中</b>的<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>

    AI模型在MCU的應(yīng)用

    機(jī)遇。將AI模型集成到MCU,不僅提升了設(shè)備的智能化水平,還使得設(shè)備能夠執(zhí)行更復(fù)雜的任務(wù),實(shí)現(xiàn)自主決策和實(shí)時(shí)響應(yīng)。本文將從AI模型在MCU
    的頭像 發(fā)表于 07-12 10:24 ?590次閱讀