0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的機器學習技術(shù):FPGA加速機器學習推理,提速175倍輕松處理EB數(shù)據(jù)集

DPVg_AI_era ? 來源:lq ? 2019-09-01 07:59 ? 次閱讀

由麻省理工學院助理教授Philip Harris和核科學實驗室博士后Dylan Rankin等國際科學家團隊測試的新機器學習技術(shù)可以在眨眼間發(fā)現(xiàn)大型強子對撞機(LHC)海量數(shù)據(jù)中的特定粒子特征。

MIT助理教授Philip Harris和核科學實驗室博士后Dylan Rankin等國際科學家團隊正在測試一種新的機器學習技術(shù),該技術(shù)可以在眨眼間在大型強子對撞機(LHC)浩瀚如海的數(shù)據(jù)中發(fā)現(xiàn)特定粒子特征。

新系統(tǒng)既復(fù)雜又迅速,可以在數(shù)據(jù)集不斷變大變復(fù)雜的情況下,讓我們得以一窺機器學習將在粒子物理學的未來發(fā)現(xiàn)中,會發(fā)揮怎樣舉足輕重的作用。

機器學習成為攻堅利器

大型強子對撞機每秒造成大約4000萬次碰撞。篩選如此大量數(shù)據(jù),需要強大的計算機,來識別其中需要科學家去關(guān)注的碰撞,無論是暗物質(zhì)還是希格斯粒子。

現(xiàn)在,費米實驗室(Fermilab),歐洲核子研究中心(CERN),麻省理工學院,華盛頓大學和其他地方的科學家們已經(jīng)測試了一種新的機器學習系統(tǒng),與現(xiàn)有方法相比,該系統(tǒng)可將處理速度提高30到175倍!

傳統(tǒng)方法目前每秒只能處理不到一個圖像。相比之下,新的機器學習系統(tǒng)每秒最多可以查看600張圖像。在訓練期間,系統(tǒng)學會挑選出一種特定類型的后碰撞粒子模式。

哈里斯說:“我們所識別的碰撞模式,頂夸克是大型強子對撞機上探測的基本粒子之一。能夠分析盡可能多的數(shù)據(jù)非常重要,每一條數(shù)據(jù)都帶有關(guān)于粒子如何相互作用的有趣信息?!?/p>

等目前的LHC升級完成后,數(shù)據(jù)將以前所未有的方式涌入;到2026年,17英里的粒子加速器預(yù)計將產(chǎn)生20倍于目前的數(shù)據(jù),同時圖像也將以比現(xiàn)在更高的分辨率拍攝。總而言之,科學家和工程師估計大型強子對撞機所需的計算能力是目前的10倍以上。

哈里斯繼續(xù)說道:“未來的挑戰(zhàn)迫在眉睫,隨著計算變得更加準確,以及探測出更加精確的效果,它變得越來越難?!?/p>

該項目的研究人員對他們的新系統(tǒng)進行了訓練,以識別頂夸克的圖像,這是最龐大的基本粒子類型,比質(zhì)子重180倍。

“通過我們提供的機器學習架構(gòu),就能夠獲得高質(zhì)量的科學質(zhì)量結(jié)果,與世界上最好的頂夸克識別算法相媲美,”哈里斯解釋說。“高速實施核心算法使我們能夠靈活地在最需要的關(guān)鍵時刻增強LHC計算?!?/p>

EB級的數(shù)據(jù)集也能輕松處理

憑借大型數(shù)據(jù)集和高數(shù)據(jù)采集速率,高性能和高吞吐量計算資源是實驗粒子物理計劃的基本要素。這些實驗在探測器技術(shù)的復(fù)雜性和粒子束的強度方面不斷增加。

因此,粒子物理數(shù)據(jù)集的大小正在增加,就像處理數(shù)據(jù)的算法的復(fù)雜性一樣。例如,大型強子對撞機(HL-LHC)的高亮度階段,將提供比當前LHC運行多15倍的數(shù)據(jù)。

HL-LHC將以40 MHz的速率碰撞質(zhì)子束,碰撞環(huán)境中每次碰撞的粒子數(shù)將是原來的5倍。

Compact Muon Solenoid(CMS)實驗將針對HL-LHC進行升級,讀取通道的數(shù)量將增加10倍。通過一系列在線過濾器,CMS旨在以5 kHz的速率存儲HL-LHC碰撞事件。

這樣的數(shù)據(jù)速率導(dǎo)致數(shù)據(jù)集的規(guī)模為EB級。未來的中微子實驗,如深層地下中微子實驗(DUNE)和宇宙學實驗、平方公里陣列(SKA),預(yù)計將產(chǎn)生百億億字節(jié)的數(shù)據(jù)集。

大規(guī)模粒子物理實驗面臨著高吞吐量計算資源的挑戰(zhàn)。在具有增強的并行化的專用硬件上新的異構(gòu)計算范例,例如現(xiàn)場可編程門陣列(FPGA),能夠提供具有極大潛在增益的解決方案。

機器學習算法在粒子物理中用于模擬,重建和分析中,不斷增長的應(yīng)用,自然地部署在這樣的平臺上。

實驗證明,機器學習推理的加速即Web服務(wù),代表了粒子物理實驗的異構(gòu)計算解決方案,只需要對當前計算模型的最小修改。

作為示例,我們重新訓練ResNet50卷積神經(jīng)網(wǎng)絡(luò),以展示LHC頂級夸克噴射標記的最先進性能,并應(yīng)用ResNet50模型和中微子事件分類的遷移學習。

使用Microsoft的Project Brainwave來加速ResNet50圖像分類模型,我們使用Brainwave作為云(邊緣或本地)服務(wù)的實驗物理軟件框架實現(xiàn)了60(10)毫秒的平均推斷時間,顯示了一個因素導(dǎo)致模型推斷延遲比傳統(tǒng)CPU推斷提高了30-175倍。

作為粒子物理計算模型的邊緣或云服務(wù),協(xié)處理器加速器可以具有更高的占空比,并且可能更具成本效益。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1625

    文章

    21639

    瀏覽量

    601358
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1081

    瀏覽量

    40383
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8357

    瀏覽量

    132335

原文標題:MIT提出FPGA加速機器學習推理,提速175倍輕松處理EB數(shù)據(jù)集

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    具身智能與機器學習的關(guān)系

    (如機器人、虛擬代理等)通過與物理世界或虛擬環(huán)境的交互來獲得、發(fā)展和應(yīng)用智能的能力。這種智能不僅包括認知和推理能力,還包括感知、運動控制和環(huán)境適應(yīng)能力。具身智能強調(diào)智能體的身體和環(huán)境在智能發(fā)展中的重要性。 2. 機器
    的頭像 發(fā)表于 10-27 10:33 ?254次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領(lǐng)域的個熱門研究方向。以下是
    的頭像 發(fā)表于 10-25 09:22 ?118次閱讀

    【《時間序列與機器學習》閱讀體驗】+ 時間序列的信息提取

    本人有些機器學習的基礎(chǔ),理解起來點也不輕松,加油。 作者首先說明了時間序列的信息提取是時間序列分析的個重要環(huán)節(jié),目標是從給定的時間序列
    發(fā)表于 08-14 18:00

    【「時間序列與機器學習」閱讀體驗】+ 鳥瞰這本書

    這本書不僅內(nèi)容豐富,而且當我打開它時,它還帶有一種特殊的含義--頁面上的簽名來自次溫暖的社區(qū)活動。這些簽名充當了作者、讀者和整個學習社區(qū)之間的紐帶,見證了知識的轉(zhuǎn)移和成長的樂趣。 本書目錄結(jié)構(gòu)
    發(fā)表于 08-12 11:28

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學習

    語言的表達方式和生成能力。通過預(yù)測文本中缺失的部分或下個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言模型通?;赥ransformer架構(gòu),這是一種能夠處理序列
    發(fā)表于 08-02 11:03

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 、深度學習加速 訓練和推理過程
    發(fā)表于 07-29 17:05

    機器學習中的數(shù)據(jù)分割方法

    機器學習中,數(shù)據(jù)分割是項至關(guān)重要的任務(wù),它直接影響到模型的訓練效果、泛化能力以及最終的性能評估。本文將從多個方面詳細探討機器
    的頭像 發(fā)表于 07-10 16:10 ?1224次閱讀

    如何理解機器學習中的訓練、驗證和測試

    理解機器學習中的訓練、驗證和測試,是掌握機器學習
    的頭像 發(fā)表于 07-10 15:45 ?2993次閱讀

    機器學習中的數(shù)據(jù)預(yù)處理與特征工程

    機器學習的整個流程中,數(shù)據(jù)預(yù)處理與特征工程是兩個至關(guān)重要的步驟。它們直接決定了模型的輸入質(zhì)量,進而影響模型的訓練效果和泛化能力。本文將從數(shù)據(jù)
    的頭像 發(fā)表于 07-09 15:57 ?276次閱讀

    機器學習數(shù)據(jù)分析中的應(yīng)用

    隨著大數(shù)據(jù)時代的到來,數(shù)據(jù)量的爆炸性增長對數(shù)據(jù)分析提出了更高的要求。機器學習作為一種強大的工具,
    的頭像 發(fā)表于 07-02 11:22 ?526次閱讀

    深度學習與傳統(tǒng)機器學習的對比

    在人工智能的浪潮中,機器學習和深度學習無疑是兩大核心驅(qū)動力。它們各自以其獨特的方式推動著技術(shù)的進步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于
    的頭像 發(fā)表于 07-01 11:40 ?1128次閱讀

    機器學習的經(jīng)典算法與應(yīng)用

    關(guān)于數(shù)據(jù)機器學習就是喂入算法和數(shù)據(jù),讓算法從數(shù)據(jù)中尋找一種相應(yīng)的關(guān)系。Iris鳶尾花數(shù)據(jù)
    的頭像 發(fā)表于 06-27 08:27 ?1549次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>的經(jīng)典算法與應(yīng)用

    深入探討機器學習的可視化技術(shù)

    機器學習可視化(簡稱ML可視化)般是指通過圖形或交互方式表示機器學習模型、數(shù)據(jù)及其關(guān)系的過程。
    發(fā)表于 04-25 11:17 ?354次閱讀
    深入探討<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的可視化<b class='flag-5'>技術(shù)</b>

    FPGA在深度學習應(yīng)用中或?qū)⑷〈鶪PU

    將 AI 框架模型映射到硬件架構(gòu)。 Larzul 的公司 Mipsology 希望通過 Zebra 來彌合這差距。Zebra 是一種軟件平臺,開發(fā)者可以輕松地將深度學習代碼移植到
    發(fā)表于 03-21 15:19

    什么是機器學習?它的重要性體現(xiàn)在哪

    機器學習一種人工智能(AI)的子領(lǐng)域,旨在使計算機系統(tǒng)通過經(jīng)驗自動學習和改進,而無需明確地進行編程。它側(cè)重于開發(fā)算法和模型,使計算機能夠從數(shù)據(jù)
    的頭像 發(fā)表于 01-05 08:27 ?1358次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?它的重要性體現(xiàn)在哪