0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用張量板進行機器學(xué)習(xí)模型分析

星星科技指導(dǎo)員 ? 來源:嵌入式計算設(shè)計 ? 作者:Aekam Parmar ? 2022-10-24 15:53 ? 次閱讀

機器學(xué)習(xí)正在突飛猛進地發(fā)展,新的神經(jīng)網(wǎng)絡(luò)模型定期出現(xiàn)。

這些模型針對特定數(shù)據(jù)集進行了訓(xùn)練,并經(jīng)過準確性和處理速度的驗證。在部署之前,開發(fā)人員需要評估 ML 模型,并確保其滿足特定的閾值并按預(yù)期運行。有很多實驗可以提高模型性能,在設(shè)計和訓(xùn)練模型時,可視化差異變得至關(guān)重要。TensorBoard有助于可視化模型,使分析變得不那么復(fù)雜,因為當人們可以看到問題所在時,調(diào)試變得更加容易。

訓(xùn)練 ML 模型的一般做法

一般的做法是使用預(yù)先訓(xùn)練的模型并執(zhí)行遷移學(xué)習(xí),以便為類似的數(shù)據(jù)集重新訓(xùn)練模型。在遷移學(xué)習(xí)期間,神經(jīng)網(wǎng)絡(luò)模型首先在類似于正在解決的問題上進行訓(xùn)練。然后,在針對感興趣的問題進行訓(xùn)練的新模型中,將使用訓(xùn)練模型中的一個或多個層。

大多數(shù)情況下,預(yù)訓(xùn)練模型以二進制格式出現(xiàn),這使得獲取內(nèi)部信息并立即開始工作變得困難。從組織的業(yè)務(wù)角度來看,擁有一些工具來深入了解模型以減少項目交付時間表是有意義的。

有幾個可用選項可用于獲取模型信息,例如層數(shù)和相關(guān)參數(shù)?!澳P驼焙汀澳P屠L圖”是基本選項。這些選項非常簡單,考慮到很少的實現(xiàn)行,并提供非?;镜脑敿毿畔ⅲ鐚訑?shù),層類型以及每層的輸入/輸出。

但是,模型摘要和模型圖對于以協(xié)議緩沖區(qū)的形式了解任何大型復(fù)雜模型的每個細節(jié)并不那么有效。在這種情況下,使用張量板,張量流提供的可視化工具更有意義。考慮到它提供的各種可視化選項,如模型,標量和指標(訓(xùn)練和驗證數(shù)據(jù)),圖像(來自數(shù)據(jù)集),超參數(shù)優(yōu)化等,它非常強大。

用于可視化自定義模型的模型圖

此選項尤其有助于以協(xié)議緩沖區(qū)的形式接收自定義模型,并且需要在進行任何修改或訓(xùn)練之前了解它。如下圖所示,連續(xù) CNN 的概覽在電路板上可視化。每個塊代表一個單獨的圖層,選擇其中一個將在右上角打開一個包含輸入和輸出信息的窗口。

pYYBAGNWRIiAcnkVAAE0sYDVU1U464.png

如果需要進一步的信息,關(guān)于各個塊內(nèi)部有什么,可以簡單地雙擊塊,這將展開塊并提供更多詳細信息。請注意,一個塊可以包含一個或多個可以逐層擴展的塊。在選擇任何特定操作后,它還將提供有關(guān)相關(guān)處理參數(shù)的更多信息。

pYYBAGNWRJCAIawuAAMJIm9qc4Q977.png

用于分析模型訓(xùn)練和驗證的標量和指標

機器學(xué)習(xí)的第二個重要方面是分析給定模型的訓(xùn)練和驗證。從精度和速度的角度來看,性能對于使其適用于現(xiàn)實生活中的實際應(yīng)用非常重要。在下圖中,可以看出模型的準確性隨著 epoch/迭代次數(shù)的增加而提高。如果訓(xùn)練和測試驗證不符合標準,則表明某些事情不對勁。這可能是欠擬合或過擬合的情況,可以通過修改圖層/參數(shù)或改進數(shù)據(jù)集或兩者來糾正。

poYBAGNWRJmAXKMSAAI169c2dZE463.png

圖像數(shù)據(jù),用于可視化數(shù)據(jù)集中的圖像

顧名思義,它有助于可視化圖像。它不僅限于可視化數(shù)據(jù)集中的圖像,而且還以圖像的形式顯示混淆矩陣。此矩陣指示檢測各個類的對象的準確性。如下圖所示,模特將外套與套頭衫混淆。為了克服這種情況,建議改進特定類的數(shù)據(jù)集,以便將可區(qū)分的特征提供給模型,以便更好地學(xué)習(xí),從而提高準確性。

pYYBAGNWRKGAPf7eAAK49yHUzcU591.png

超參數(shù)調(diào)優(yōu)以實現(xiàn)所需的模型準確性

模型的準確性取決于輸入數(shù)據(jù)集、層數(shù)和相關(guān)參數(shù)。在大多數(shù)情況下,在初始訓(xùn)練期間,精度永遠不會達到預(yù)期的精度,并且除了數(shù)據(jù)集之外,還需要使用層數(shù),層類型,相關(guān)參數(shù)。此過程稱為超參數(shù)優(yōu)化。

在此過程中,提供了一系列超參數(shù)供模型選擇,并且使用這些參數(shù)的組合運行模型。每個組合的準確性都記錄在電路板上并可視化。它糾正了手動訓(xùn)練模型時會消耗的精力和時間,用于每個可能的超參數(shù)組合。

pYYBAGNWRKmAdY54AAJ_oXA72uk465.png

用于分析模型處理速度的分析工具

除了準確性之外,處理速度也是任何模型的一個同樣重要的方面。有必要分析單個塊消耗的處理時間,以及是否可以通過進行一些修改來減少。分析工具提供了具有不同 epoch 的每個操作所消耗的時間的圖形表示。通過這種可視化,人們可以輕松查明消耗更多時間的操作。一些已知的開銷可能是調(diào)整輸入大小,從Python轉(zhuǎn)換模型代碼,或者在CPU而不是GPU中運行代碼。處理這些事情將有助于實現(xiàn)最佳性能。

poYBAGNWRLCAI1RdAANsGq3qeok731.png

pYYBAGNWRLiAFjf6AAMPiKgpc8E032.png

總體而言,張量板是幫助開發(fā)和訓(xùn)練過程的絕佳工具。來自標量和指標、圖像數(shù)據(jù)和超參數(shù)優(yōu)化的數(shù)據(jù)有助于提高準確性,而分析工具有助于提高處理速度。TensorBoard還有助于減少所涉及的調(diào)試時間,否則這肯定會是一個很大的時間框架。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    【《時間序列與機器學(xué)習(xí)》閱讀體驗】+ 時間序列的信息提取

    之前對《時間序列與機器學(xué)習(xí)》一書進行了整體瀏覽,并且非常輕松愉快的完成了第一章的學(xué)習(xí),今天開始學(xué)習(xí)第二章“時間序列的信息提取”。 先粗略的翻
    發(fā)表于 08-14 18:00

    【「時間序列與機器學(xué)習(xí)」閱讀體驗】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析機器學(xué)習(xí)融合應(yīng)用的宏偉藍圖。作者不僅扎實地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了
    發(fā)表于 08-12 11:21

    【「時間序列與機器學(xué)習(xí)」閱讀體驗】全書概覽與時間序列概述

    如何通過根因分析技術(shù)獲得導(dǎo)致故障的維度和元素,包括基于時間序列異常檢測算法的根因分析、基于熵的根因分析、基于樹模型的根因分析、規(guī)則
    發(fā)表于 08-07 23:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    的信息,提供更全面的上下文理解。這使得模型能夠更準確地理解復(fù)雜問題中的多個層面和隱含意義。 2. 語義分析 模型通過訓(xùn)練學(xué)習(xí)到語言的語義特征,能夠識別文本中的命名實體、句法結(jié)構(gòu)和語義關(guān)
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    這個程序不需要程序員編寫,而是由計算機自動生成。因此,人工編程方法依賴程序員思考的規(guī)則,而自動編程是計算機算法通過分析數(shù)據(jù)自行創(chuàng)建規(guī)則。 作者通過類比學(xué)生準備高考的過程來說明機器學(xué)習(xí)的過程,如下圖: 此
    發(fā)表于 07-25 14:33

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 俯瞰全書

    上周收到《大語言模型應(yīng)用指南》一書,非常高興,但工作項目繁忙,今天才品鑒體驗,感謝作者編寫了一部內(nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個讓我了解大語言模型機器
    發(fā)表于 07-21 13:35

    Al大模型機器

    和迭代來不斷改進自身性能。它們可以從用戶交互中學(xué)習(xí)并根據(jù)反饋進行調(diào)整,以提高對話質(zhì)量和準確性??啥ㄖ菩耘c整合性: AI大模型機器人可以根據(jù)特定需求
    發(fā)表于 07-05 08:52

    機器學(xué)習(xí)在數(shù)據(jù)分析中的應(yīng)用

    隨著大數(shù)據(jù)時代的到來,數(shù)據(jù)量的爆炸性增長對數(shù)據(jù)分析提出了更高的要求。機器學(xué)習(xí)作為一種強大的工具,通過訓(xùn)練模型從數(shù)據(jù)中學(xué)習(xí)規(guī)律,為企業(yè)和組織提
    的頭像 發(fā)表于 07-02 11:22 ?304次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機器學(xué)習(xí)的對比

    在人工智能的浪潮中,機器學(xué)習(xí)和深度學(xué)習(xí)無疑是兩大核心驅(qū)動力。它們各自以其獨特的方式推動著技術(shù)的進步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機器
    的頭像 發(fā)表于 07-01 11:40 ?620次閱讀

    名單公布!【書籍評測活動NO.35】如何用「時間序列與機器學(xué)習(xí)」解鎖未來?

    設(shè)備的運行狀況,生成各種維度的報告。 同時,通過大數(shù)據(jù)分析機器學(xué)習(xí)技術(shù),可以對業(yè)務(wù)進行預(yù)測和預(yù)警,從而協(xié)助社會和企業(yè)進行科學(xué)決策、降低成本
    發(fā)表于 06-25 15:00

    將yolov5s的模型轉(zhuǎn)成.onnx模型,進行cube-ai分析時報錯的原因?

    報錯顯示張量不能大于四維的,想請教解決一下,我再此之后通過onnx-simplifier對.onnx進行簡化之后再通過cube-ai進行分析還是出現(xiàn)上述報錯,懇求指導(dǎo),謝謝您!
    發(fā)表于 03-15 06:54

    如何使用TensorFlow構(gòu)建機器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個簡單的機器學(xué)習(xí)模型
    的頭像 發(fā)表于 01-08 09:25 ?803次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    HarmonyOS:使用MindSpore Lite引擎進行模型推理

    使用 MindSpore Lite 推理引擎進行模型推理的通用開發(fā)流程。 基本概念 在進行開發(fā)前,請先了解以下概念。 張量 :它與數(shù)組和矩陣非常相似,是 MindSpore Lite
    發(fā)表于 12-14 11:41

    機器學(xué)習(xí)模型可解釋性的結(jié)果分析

    模型的可解釋性是機器學(xué)習(xí)領(lǐng)域的一個重要分支,隨著 AI 應(yīng)用范圍的不斷擴大,人們越來越不滿足于模型的黑盒特性,與此同時,金融、自動駕駛等領(lǐng)域的法律法規(guī)也對
    發(fā)表于 09-28 10:17 ?857次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>可解釋性的結(jié)果<b class='flag-5'>分析</b>

    GPU的張量核心: 深度學(xué)習(xí)的秘密武器

    GPU最初是為圖形渲染而設(shè)計的,但是由于其卓越的并行計算能力,它們很快被引入深度學(xué)習(xí)中。深度學(xué)習(xí)的迅速發(fā)展離不開計算機圖形處理單元(GPU)的支持,而GPU中的張量核心則被譽為深度學(xué)習(xí)
    的頭像 發(fā)表于 09-26 08:29 ?762次閱讀
    GPU的<b class='flag-5'>張量</b>核心: 深度<b class='flag-5'>學(xué)習(xí)</b>的秘密武器