0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI/ML 解決方案加速驗證曲線收斂

jf_pJlTbmA9 ? 來源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-07-08 11:03 ? 次閱讀

保證覆蓋率的同時優(yōu)化仿真回歸

隨著應用要求的激增和用戶需求的增加,硬件設計變得更加復雜。市場趨勢的快速變化,以及對電動汽車等技術的更多關注,決定了對高效電源管理和高性能處理的需求水漲船高。隨著 SoC 設計規(guī)模的擴大,復雜程度的增加,驗證吞吐量仍然是一個瓶頸,單純依靠增加 CPU 核數量和運行更多的并行測試治標不治本。上述因素的疊加讓驗證工程師面對復雜設計的壓力與日俱增。

驗證永遠不會完成;當你的時間用完時,它就結束了。目標是在你耗盡時間之前使驗證過程收斂。每個人都希望看到關鍵指標收斂到目標,并在嚴格的成本和時間限制下做到這一點。想象一下,坐在駕駛艙里,向黑匣子輸入信息,然后等待奇跡發(fā)生(按一個按鈕,你的工作就完成了)。當務之急是人工智能機器學習AI/ML)如何幫助我們更快地完成回歸,節(jié)省調試時間,實現驗證/覆蓋率目標,并管理資源和資金——換句話說,我們如何使用 AI/ML 來提高驗證的效率?

瑞薩公司也面臨著類似的挑戰(zhàn)。市場壓力和嚴格的投片時間表促使他們尋找一種技術/方法來優(yōu)化仿真回歸,并在整個產品開發(fā)過程中加速設計驗證過程。他們希望減少風險,盡早發(fā)現盡可能多的錯誤,能夠快速調試,并滿足其終端用戶的要求。

瑞薩開始探索 Cadence Xcelium 機器學習應用。這個應用程序使用機器學習技術來優(yōu)化仿真回歸,以產生一個更緊湊的壓縮回歸。然后這個優(yōu)化的回歸被用來重現與原始回歸幾乎相同的覆蓋率,并通過運行現有隨機測試平臺可能出現的邊界場景,快速找到設計錯誤。

瑞薩的測試結果非常完美,整個隨機驗證回歸的時間縮短了 66%,大幅節(jié)省了資源,成本和時間。Xcelium ML App 幫助瑞薩在保證 100%覆蓋率的同時將壓縮效率提高 2.2 倍。此外,將 ML 回歸用于首次設計迭代時,瑞薩再次實現了 100%覆蓋率下,將時間縮短 3.6 倍。

1683785065627604.png

基于 ML 的測試回歸次數僅為 1168,相當于 3774 次原始回歸的 1/3。實現目標所需時間縮短了 30%,滿足了嚴格的上市需求。

除了利用 Xcelium ML App 節(jié)省資源和時間,加速實現設計收斂,瑞薩也評估了由 3款 Verisium App 組成,基于 AI 的 Cadence Verisium 平臺,將驗證生產力提高了 6 倍,共節(jié)省 27 個工時。

瑞薩評估的 App 如下:

1683785059602822.png

Verisium AutoTriage,一款基于 ML 的自動化測試失敗分類程序,可以將相同錯誤導致的測試失敗自動分組。失敗分組耗時降低了 70%,整體效率提升了 3.3 倍。

Verisium SemanticDiff 幫助瑞薩快速識別失敗原因,比傳統(tǒng) diff 工具更加高效。SemanticDiff 專注于設計環(huán)境,可以提供更相關的差異分析。此外,逐條檢查 diff 指令的歷史文件是很繁瑣的,SemanticDiff app 可以大幅縮短糾錯時間,顯著提升效率。

Verisium WaveMiner 可以高效識別差異點,用戶可以在 PASS 和 FAIL 中將差異點可視化,便捷地比較 PASS 和 FAIL 的波型及源代碼。瑞薩的糾錯時間得以縮短 89%-97%,帶來 9 倍的效率提升。

Cadence 的 Verisium 平臺和 Xcelium ML 應用一起提供了一套利用 AI/ML 的應用,以優(yōu)化驗證工作負載,提高覆蓋率,并加速復雜 SoC 上設計錯誤的根源分析。瑞薩公司利用人工智能平臺,將其驗證生產率提高了 10 倍。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • Cadence
    +關注

    關注

    63

    文章

    904

    瀏覽量

    141460
  • 瑞薩
    +關注

    關注

    33

    文章

    22274

    瀏覽量

    85512
收藏 人收藏

    評論

    相關推薦

    新一代AI/ML加速器新型內存解決方案——HBM2E內存接口

    近年來,隨著內存帶寬逐漸成為影響人工智能持續(xù)增長的關鍵焦點領域之一,以高帶寬內存(HBM、HBM2、HBM2E)和GDDR開始逐漸顯露頭角,成為搭配新一代AI/ML加速器和專用芯片的新型內存
    的頭像 發(fā)表于 10-23 15:20 ?5207次閱讀
    新一代<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b><b class='flag-5'>加速</b>器新型內存<b class='flag-5'>解決方案</b>——HBM2E內存接口

    富士通AI平臺“Fujitsu Kozuchi”加速AIML解決方案交付

    Platform",將面向全球企業(yè)用戶提供一系列強大的AI(人工智能)與ML(機器學習)技術。 基于富士通先進的AI技術,通過豐富的工具及軟件組合,該平臺將幫助制造、零售、金融以及醫(yī)療保健等各行業(yè)客戶
    發(fā)表于 05-12 09:20 ?252次閱讀
    富士通<b class='flag-5'>AI</b>平臺“Fujitsu Kozuchi”<b class='flag-5'>加速</b><b class='flag-5'>AI</b>與<b class='flag-5'>ML</b><b class='flag-5'>解決方案</b>交付

    海量干貨分享!XDF(賽靈思開發(fā)者大會)北京站各分論壇演講資料公布

    基礎 - Plunify視頻處理或數據壓縮 - 恒揚數據采用 FPGA 實現深綠 MPP:一個超動力 Greenplum 數據倉庫解決方案 - Vitesse Data數據與科學計算分論壇數據中心 AI 加速
    發(fā)表于 01-03 15:19

    如何加速電信領域AI開發(fā)?

    全流程工作中面臨的各種困難。繼機械化、電氣化、信息化三次工業(yè)革命后,以人工智能為代表的第四次工業(yè)革命正在到來,驅動人類社會邁向新紀元。就在今年的全聯接大會上,華為發(fā)布了AI戰(zhàn)略與全棧全場景AI解決方案
    發(fā)表于 02-25 06:53

    X-CUBE-AI和NanoEdge AI Studio在MLAI開發(fā)環(huán)境中的區(qū)別是什么?

    我想知道 X-CUBE-AI 和 NanoEdge AI Studio 在 MLAI 開發(fā)環(huán)境中的區(qū)別。我可以在任何一個開發(fā)環(huán)境中做同樣的事情嗎?使用的設備有什么限制嗎?
    發(fā)表于 12-05 06:03

    新思科技發(fā)布業(yè)界首款全棧式AI驅動型EDA解決方案Synopsys.ai

    摘要:Synopsys.ai可為芯片設計提供AI驅動型解決方案,包含數字、模擬、驗證、測試和制造模塊。AI引擎可顯著提高設計效率和芯片質量,
    發(fā)表于 04-03 16:03

    基于軟件的Vitis AI 2.0加速解決方案

    Vitis AI 2.0 全面發(fā)布!作為賽靈思 FPGA 和自適應 SoC 上最綜合全面的基于軟件的 AI 加速解決方案,Vitis AI
    的頭像 發(fā)表于 03-15 17:39 ?2224次閱讀

    AI驅動芯片驗證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標題:AI驅動芯片驗證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號:新思科技】歡迎添加關注!文章轉載請注明出處。
    的頭像 發(fā)表于 03-30 20:05 ?744次閱讀

    下周五|AI驅動芯片驗證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標題:下周五|AI驅動芯片驗證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號:新思科技】歡迎添加關注!文章轉載請注明出處。
    的頭像 發(fā)表于 03-31 17:30 ?665次閱讀

    本周五|AI驅動芯片驗證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標題:本周五|AI驅動芯片驗證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號:新思科技】歡迎添加關注!文章轉載請注明出處。
    的頭像 發(fā)表于 04-03 22:20 ?438次閱讀

    統(tǒng)一AI/ML解決方案加速驗證曲線收斂

    的增加,驗證吞吐量仍然是一個瓶頸,單純依靠增加 CPU 核數量和運行更多的并行測試治標不治本。上述因素的疊加讓驗證工程師面對復雜設計的壓力與日俱增。
    的頭像 發(fā)表于 05-11 16:59 ?459次閱讀
    統(tǒng)一<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b><b class='flag-5'>解決方案</b><b class='flag-5'>加速</b><b class='flag-5'>驗證</b><b class='flag-5'>曲線</b><b class='flag-5'>收斂</b>

    利用擴展型 NAS 存儲加速 AI/ML 工作負載

    虹科方案1AI&ML變革日常生活AI(人工智能)和ML(機器學習)的發(fā)展正逐漸滲透到我們的日常生活中,為我們帶來了翻天覆地的變化。從智能手機
    的頭像 發(fā)表于 08-05 08:11 ?570次閱讀
    利用擴展型 NAS 存儲<b class='flag-5'>加速</b> <b class='flag-5'>AI</b>/<b class='flag-5'>ML</b> 工作負載

    深入探討工業(yè)AI/ML技術的發(fā)展趨勢及相關解決方案

    芯科科技已經創(chuàng)建了一套完整的硬件和軟件解決方案,可支持開發(fā)用于工業(yè)市場的工業(yè)AI/ML解決方案。具體來說,我們的Sub-GHz、藍牙和802.15.4產品內置了硬件
    的頭像 發(fā)表于 01-29 09:42 ?386次閱讀

    Supermicro推新AI存儲方案,助力AIML應用加速

    Supermicro首席執(zhí)行官梁見后先生高瞻遠矚地指出:針對AIML應用的加速處理,我們推薦配置以每機柜20 PB高速閃存為主,配備四個NVIDIA HGX H100系列優(yōu)化版8-GPU氣冷服務器或者八個同款液冷服務器。
    的頭像 發(fā)表于 02-03 14:46 ?511次閱讀

    是德科技推出AI數據中心測試平臺旨在加速AI/ML網絡驗證和優(yōu)化的創(chuàng)新

    2024年2月29日,是德科技(Keysight Technologies,Inc.)宣布,針對人工智能(AI)和機器學習(ML)基礎設施生態(tài)系統(tǒng),推出了 AI數據中心測試平臺,旨在加速
    的頭像 發(fā)表于 02-29 09:32 ?501次閱讀
    是德科技推出<b class='flag-5'>AI</b>數據中心測試平臺旨在<b class='flag-5'>加速</b><b class='flag-5'>AI</b>/<b class='flag-5'>ML</b>網絡<b class='flag-5'>驗證</b>和優(yōu)化的創(chuàng)新