0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)在ADC誤差校正中的應(yīng)用

MATLAB ? 來源:MATLAB ? 作者:MATLAB ? 2022-03-18 11:21 ? 次閱讀

“使用由 MATLAB 和 Deep Learning Toolbox 設(shè)計和訓練的神經(jīng)網(wǎng)絡(luò)來對 ADC 誤差進行后校正后,在 ASIC 上實現(xiàn)時,恩智浦設(shè)計的神經(jīng)網(wǎng)絡(luò)所需的面積只有 ADC 的 15%,正常工況下的功耗是 ADC 的大約 1/16。”

集成電路 (IC) 形式實現(xiàn)的模數(shù)轉(zhuǎn)換器 (ADC) 容易因 IC 制造缺陷而產(chǎn)生誤差。

晶體管、電阻電容模擬元件失配會導(dǎo)致信號失真,如導(dǎo)致嚴重的總諧波失真 (THD)。

減少 ADC 誤差的一種方法是使用更大的模擬元件來增強設(shè)計。

這種方法通過提高匹配來降低失真系數(shù),但需要更多面積和功耗。

第二種方法是增加校準電路,但這也需要額外的芯片面積,增加了成本和功耗,而且,這通常還要求了解待校準誤差的確切成因。

在恩智浦半導(dǎo)體埃因霍溫總部,我和同事使用由 MATLAB 和 Deep Learning Toolbox 設(shè)計和訓練的神經(jīng)網(wǎng)絡(luò)來對 ADC 誤差進行后校正。

在 ASIC 上實現(xiàn)時,該網(wǎng)絡(luò)所需的面積只有 ADC 的 15%,正常工況下的功耗是 ADC 的大約 1/16。

設(shè)計和訓練神經(jīng)網(wǎng)絡(luò)

我們在實驗室中向 30 個 ADC 樣本(裸片)輸入?yún)⒖夹盘柌⒉东@數(shù)字輸出,從而生成訓練數(shù)據(jù)。我們另外留出 10 個樣本用于驗證網(wǎng)絡(luò)。

由于 ADC 誤差同時受溫度和電壓的影響,我們在九種不同的電壓與溫度組合下測試每個樣本,總共獲得 360 個測量值。

我們使用信號處理方法對數(shù)據(jù)進行預(yù)處理,然后使用測得的 ADC 數(shù)字輸出值作為神經(jīng)網(wǎng)絡(luò)的輸入。我們將校正后的輸出信號與原始參考信號進行比較,據(jù)此更新網(wǎng)絡(luò)系數(shù)(圖 1)。

神經(jīng)網(wǎng)絡(luò)在ADC誤差校正中的應(yīng)用

圖 1.神經(jīng)網(wǎng)絡(luò)訓練設(shè)置。

項目剛開始的時候,我沒怎么用過神經(jīng)網(wǎng)絡(luò),因此不確定網(wǎng)絡(luò)該有多復(fù)雜。

最初,我在 MATLAB 中創(chuàng)建了基本的兩層和三層網(wǎng)絡(luò),并在各層嘗試不同的神經(jīng)元數(shù)量。第一層和第二層的神經(jīng)元使用 sigmoid 激活函數(shù),輸出層激活函數(shù)則是線性的。使用的代價函數(shù)是最小均方 (LMS) 代價函數(shù)。

我們基于手頭的數(shù)據(jù)集和上述早期配置訓練網(wǎng)絡(luò),發(fā)現(xiàn)可以加入電壓和溫度測量值作為預(yù)測變量來提高網(wǎng)絡(luò)性能。經(jīng)過這一更改,網(wǎng)絡(luò)在各種溫度和電壓條件下的性能都有顯著提升。

計算 IC 面積和功耗

現(xiàn)在,這個神經(jīng)網(wǎng)絡(luò)能夠有效地后校正 ADC 誤差,那下一步就是計算它需要多少芯片面積和功耗。

為此,我從 MATLAB 生成了經(jīng)過訓練的神經(jīng)網(wǎng)絡(luò)的 Simulink 模型。

接下來,我使用 Fixed-Point Designer 量化所有網(wǎng)絡(luò)系數(shù),然后使用 HDL Coder 從網(wǎng)絡(luò)生成 VHDL 代碼。

我的同事通過 HDL Verifier 協(xié)同仿真Simulink 中驗證生成的 VHDL,然后使用 Cadence Genus 來綜合設(shè)計。

他還在 Cadence 平臺上使用 28 納米 CMOS 制程進行物理實現(xiàn),生成功耗報告,并計算使用的柵極數(shù)量和這些柵極所需的面積。

分析結(jié)果表明,使用神經(jīng)網(wǎng)絡(luò)校正 ADC 誤差,面積和功耗成本都相對較低。

要實現(xiàn)一個能將信噪比提高約 17 dB 的網(wǎng)絡(luò),只需 4600 多個柵極,占據(jù) 0.0084 平方毫米的芯片面積。ADC 的面積是 0.06 平方毫米,是網(wǎng)絡(luò)的七倍多。當處于活動狀態(tài)時,網(wǎng)絡(luò)功耗大約 15 μW,而 ADC 功耗為 233 μW。

作為誤差校正電路,這樣的面積和功耗估計值可以說是過關(guān)了,但我相信,我們還可以通過優(yōu)化改進這些數(shù)字。即便我在機器學習方面經(jīng)驗尚淺,但用 VHDL 實現(xiàn)網(wǎng)絡(luò)的這個工作流并不復(fù)雜。

因此,雖然我是新手,但相比傳統(tǒng)方法,我也并沒有多花太多時間,就設(shè)計和實現(xiàn)了基于神經(jīng)網(wǎng)絡(luò)的電路。

提高可重用性和可移植性

近期,我們計劃在幾個方向進行探索,驗證神經(jīng)網(wǎng)絡(luò)在 ADC 誤差校正中的應(yīng)用。

首先,我們希望更好地了解經(jīng)過訓練的網(wǎng)絡(luò)是如何執(zhí)行誤差校正的,以便將生產(chǎn)環(huán)境下出現(xiàn)意外行為的風險降至最低。

其次,我們想擴展我們的數(shù)據(jù)集。我們需要知道,如果使用 100 萬個而不是僅僅 40 個樣本,之前的結(jié)果是否依然成立。

最后,我們想衡量神經(jīng)網(wǎng)絡(luò)的可重用性。我們預(yù)計,相比傳統(tǒng)設(shè)計,這一網(wǎng)絡(luò)能夠更有效地補償各種 ADC 上的不同誤差,因為網(wǎng)絡(luò)能夠適應(yīng)各種各樣的傳遞函數(shù)。

不過,我們需要進一步的測試來驗證此假設(shè)。

原文標題:MATLAB 芯思路 | 用神經(jīng)網(wǎng)絡(luò)對 ADC 誤差進行后校正

文章出處:【微信公眾號:MATLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    452

    文章

    50206

    瀏覽量

    420879
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4733

    瀏覽量

    100415
  • adc
    adc
    +關(guān)注

    關(guān)注

    98

    文章

    6391

    瀏覽量

    543766

原文標題:MATLAB 芯思路 | 用神經(jīng)網(wǎng)絡(luò)對 ADC 誤差進行后校正

文章出處:【微信號:MATLAB,微信公眾號:MATLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    AI知識科普 | 從無人相信到萬人追捧的神經(jīng)網(wǎng)絡(luò)

    ,神經(jīng)網(wǎng)絡(luò)之父Hiton始終堅持計算機能夠像人類一樣思考,用直覺而非規(guī)則。盡管這一觀點被無數(shù)人質(zhì)疑過無數(shù)次,但隨著數(shù)據(jù)的不斷增長和數(shù)據(jù)挖掘技術(shù)的不斷進步,神經(jīng)網(wǎng)絡(luò)開始語音和圖像等方面超越基于邏輯的人
    發(fā)表于 06-05 10:11

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    傳播的,不會回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡(luò)中的權(quán)重。BP神經(jīng)網(wǎng)絡(luò)思想:表面上:1. 數(shù)據(jù)信息的前向傳播,
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    是一種常用的無監(jiān)督學習策略,使用改策略時,網(wǎng)絡(luò)的輸出神經(jīng)元相互競爭,每一時刻只有一個競爭獲勝的神經(jīng)元激活。ART神經(jīng)網(wǎng)絡(luò)由比較層、識別層、
    發(fā)表于 07-21 04:30

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學習電機的智能控制,上周學習了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達能力,可以通過對系統(tǒng)性能的學習來實現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    分析了目前的特殊模型結(jié)構(gòu),最后總結(jié)并討論了卷積神經(jīng)網(wǎng)絡(luò)相關(guān)領(lǐng)域的應(yīng)用,并對未來的研究方向進行展望。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)
    發(fā)表于 08-02 10:39

    遺傳神經(jīng)網(wǎng)絡(luò)及其非線性校正中的應(yīng)用

    針對遺傳算法和神經(jīng)網(wǎng)絡(luò)的不足,介紹了對非線性校正的遺傳神經(jīng)網(wǎng)絡(luò)方法。計算機仿真結(jié)果表明了該方法的收斂速度優(yōu)越于其它傳統(tǒng)方法,且具有較強的魯棒性。關(guān)鍵詞:變
    發(fā)表于 06-25 14:05 ?12次下載

    基于神經(jīng)網(wǎng)絡(luò)的傳感器非線性誤差校正

    介紹了用神經(jīng)網(wǎng)絡(luò)校正傳感器系統(tǒng)非線性誤差的原理和方法,提出了基于BP 神經(jīng)網(wǎng)絡(luò)傳感器非線性誤差校正
    發(fā)表于 06-29 10:22 ?12次下載

    小波神經(jīng)網(wǎng)絡(luò)遙感測溫數(shù)據(jù)的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)進行擬合。對實驗數(shù)據(jù)進行了統(tǒng)計分析,結(jié)果表明,小波神經(jīng)網(wǎng)絡(luò)能保證擬合誤差很小的范圍之內(nèi),并且優(yōu)于BP神經(jīng)網(wǎng)絡(luò)。本文中對于遙感測溫數(shù)
    發(fā)表于 02-24 14:41 ?2次下載

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)是深度學習算法的核心,我們所熟知的很多深度學習算法的背后其實都是神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-23 09:14 ?3306次閱讀

    神經(jīng)網(wǎng)絡(luò)擬合的誤差怎么分析

    像識別、自然語言處理和時間序列預(yù)測等。然而,神經(jīng)網(wǎng)絡(luò)的擬合誤差是一個關(guān)鍵問題,影響模型的性能和泛化能力。本文將從多個角度分析神經(jīng)網(wǎng)絡(luò)擬合誤差的原因、影響因素和解決方案。
    的頭像 發(fā)表于 07-03 10:36 ?461次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測誤差大小怎么看

    的差異。神經(jīng)網(wǎng)絡(luò)預(yù)測中,誤差通常用均方誤差(MSE)、均方根誤差(RMSE)、平均絕對誤差(M
    的頭像 發(fā)表于 07-03 10:41 ?749次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達到最小化
    的頭像 發(fā)表于 07-03 11:00 ?603次閱讀