0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用GPU編程優(yōu)化模型/代碼

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-10 11:32 ? 次閱讀

雖然世界在不斷變化,但開發(fā)人員仍在不斷推動他們使用創(chuàng)新技術(shù)應(yīng)對挑戰(zhàn)。最近的臺灣計(jì)算云( TWCC ) GPU Hackathon 就是這樣一個例子,它是開發(fā)者和工程師使用 GPU 推進(jìn) HPC 和 AI 項(xiàng)目的催化劑。

國家高性能計(jì)算中心 、 臺灣網(wǎng)絡(luò)服務(wù)公司 、 NVIDIA 和 OpenACC 、 12 個團(tuán)隊(duì)和 15 名 NVIDIA 導(dǎo)師之間的合作,使用了從人工智能驅(qū)動的制造調(diào)度模型到快速洪水預(yù)測模型的各種方法來加速項(xiàng)目。

利用人工智能優(yōu)化生產(chǎn)效率

智能制造的關(guān)鍵領(lǐng)域之一是優(yōu)化和自動化生產(chǎn)線流程。團(tuán)隊(duì) AI 調(diào)度員和 工業(yè)技術(shù)研究中心(工研院) 的 計(jì)算智能技術(shù)中心( CITC ) 成員來到 hackathon ,使用機(jī)器學(xué)習(xí)開發(fā)他們的制造調(diào)度模型。

傳統(tǒng)的調(diào)度模型大多采用啟發(fā)式規(guī)則,能夠即時響應(yīng)動態(tài)事件。然而,他們的短期方法通常不會帶來最佳解決方案,并且在處理變化的變量時被證明是不靈活的,這限制了他們的持續(xù)生存能力。

該團(tuán)隊(duì)的方法使用蒙特卡羅樹搜索( MCTS )方法,將經(jīng)典的樹搜索實(shí)現(xiàn)與強(qiáng)化學(xué)習(xí)的機(jī)器學(xué)習(xí)原理結(jié)合起來。該方法解決了現(xiàn)有的啟發(fā)式限制,提高了整體調(diào)度模型的效率,提高了效率。

通過與導(dǎo)師合作,團(tuán)隊(duì) AI Scheduler 學(xué)會了使用 NVIDIA Nsight 系統(tǒng) 來識別瓶頸,并使用 GPU 來并行化代碼?;顒咏Y(jié)束時,團(tuán)隊(duì)能夠加快 MCTS 算法模擬步驟。這將調(diào)度時間從 6 小時減少到 30 分鐘,并使總體調(diào)度效率提高了 11.3 倍。

工研院 CITC 的曾正蘇博士和黃浩哲博士說:“在本次黑客大會上證明了使用 GPU 加速我們的模型的可行性之后,下一步是將其應(yīng)用到我們的商業(yè)模型中,供工業(yè)使用?!薄?/p>

使用 GPU 了解地球科學(xué)的全局

臺灣位于歐亞大陸和菲律賓海板塊之間,是世界上構(gòu)造最活躍的地區(qū)之一,也是全球地震研究的重要基地。地質(zhì)研究和構(gòu)造活動的時間尺度通常以數(shù)千年或數(shù)萬年為單位。這需要使用大量數(shù)據(jù)和足夠的計(jì)算能力來進(jìn)行有效分析。

由 中央研究院地球研究所 的譚博士領(lǐng)導(dǎo)的 IES 地球動力學(xué)團(tuán)隊(duì)來到 GPU Hackathon 加速他們的數(shù)值地球動力學(xué)模型。它名為 DynEarthSol ,模擬地幔對流、俯沖、造山和構(gòu)造。此前,該團(tuán)隊(duì)通過將數(shù)據(jù)分塊并限制計(jì)算過程以適應(yīng) CPU 有限的計(jì)算能力來減少計(jì)算和步驟的數(shù)量,從而處理大量數(shù)據(jù)。這使得很難看到研究的全貌。

pYYBAGJST-SAa2tjAASPieycVq8900.png

圖 2 俯沖帶的動畫模擬。

在黑客競賽的過程中,團(tuán)隊(duì)使用了一種新的數(shù)據(jù)輸入方法,利用 GPU 計(jì)算數(shù)據(jù)和多個步驟。使用 OpenACC , IES 地球動力學(xué)團(tuán)隊(duì)能夠?qū)?80% 的模型移植到 GPU ,并實(shí)現(xiàn)了 13.6 倍的加速。

“這是我第二次參加 GPU 黑客競賽,我肯定會參加下一次,”中央研究院國際研究所研究員譚恩恩教授說。“我們已經(jīng)學(xué)會了采用 GPU 的適當(dāng)方法,用戶友好的分析工具為我們提供了一個優(yōu)化模型的好主意。”

該團(tuán)隊(duì)將繼續(xù)致力于移植其模型的剩余 20% 。他們期待使用 GPU 運(yùn)行更多高分辨率模型,以更深入地了解臺灣的編隊(duì)活動。

用于應(yīng)急規(guī)劃和響應(yīng)的快速洪水評估

洪水是最具破壞性的自然災(zāi)害之一。每年造成大量人員傷亡和經(jīng)濟(jì)損失, 全世界平均有 2100 萬人受洪水影響 ,由于氣候變化和其他因素,預(yù)計(jì)人數(shù)還會增加。預(yù)防和減輕這些危害是一項(xiàng)關(guān)鍵工作。

來自 國立楊橋大學(xué)( NYCU ) 的 THINKLAB 團(tuán)隊(duì)正在開發(fā)一種模型,該模型可以為緊急情況提供快速準(zhǔn)確的結(jié)果,同時保持操作的簡單性。所提出的 混合淹沒模型( HIM ) 通過元胞自動機(jī)方法求解零慣性方程,并與亞網(wǎng)格級插值策略配合使用,以生成更高分辨率的結(jié)果。

Picture5.gif

圖 3 HIM 產(chǎn)生的洪水范圍示例。

使用 Python 和 NumPy 庫開發(fā)的 HIM 模型在 hackathon 開始時沒有并行或 GPU 計(jì)算。在活動期間, THINKLAB 團(tuán)隊(duì)使用 CuPy 為了使他們的代碼在 GPU 上并行運(yùn)行,然后重點(diǎn)將用戶定義的 CUDA 內(nèi)核應(yīng)用于參數(shù)。結(jié)果是 672 倍加速,計(jì)算時間從 2 周縮短到大約 30 分鐘。

THINKLAB 團(tuán)隊(duì)成員 Obaja Wijaya 說:“我們在這次活動中學(xué)到了很多技巧,并向其他人強(qiáng)烈推薦這些活動。”?!癗VIDIA 是這一領(lǐng)域的專家,通過與他們的導(dǎo)師合作,我們學(xué)會了如何使用 GPU 編程優(yōu)化模型/代碼?!?/p>

關(guān)于作者

Izumi Barker 是 NVIDIA GPU 黑客競賽和訓(xùn)練營的項(xiàng)目經(jīng)理,也是 OpenACC Standard 的公關(guān)總監(jiān)。組織。在這些角色之前,她在鳳凰城大學(xué)、 CeCon 集團(tuán)、囊性纖維化基金會和 LLP 安永等高等教育、生命科學(xué)、技術(shù)和出版行業(yè)的公司舉辦了戰(zhàn)略營銷和傳播職位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4679

    瀏覽量

    128620
  • python
    +關(guān)注

    關(guān)注

    55

    文章

    4775

    瀏覽量

    84389
  • CUDA
    +關(guān)注

    關(guān)注

    0

    文章

    121

    瀏覽量

    13587
收藏 人收藏

    評論

    相關(guān)推薦

    探索AIGC未來:CPU源碼優(yōu)化、多GPU編程與中國算力瓶頸與發(fā)展

    近年來,AIGC的技術(shù)取得了長足的進(jìn)步,其中最為重要的技術(shù)之一是基于源代碼的CPU調(diào)優(yōu),可以有效地提高人工智能模型的訓(xùn)練速度和效率,從而加快了人工智能的應(yīng)用進(jìn)程。同時,多GPU編程技術(shù)
    的頭像 發(fā)表于 12-08 11:49 ?1467次閱讀
    探索AIGC未來:CPU源碼<b class='flag-5'>優(yōu)化</b>、多<b class='flag-5'>GPU</b><b class='flag-5'>編程</b>與中國算力瓶頸與發(fā)展

    優(yōu)化模型與Lindo/Lingo優(yōu)化軟件

    優(yōu)化模型與Lindo/Lingo優(yōu)化軟件 優(yōu)化模型簡介 LINDO公司的主要軟件產(chǎn)品及功能簡介 LINDO軟件
    發(fā)表于 09-15 12:22

    GPU

    ,也是一個統(tǒng)一的編程環(huán)境,便于軟件開發(fā)人員為高性能計(jì)算服務(wù)器、桌面計(jì)算系統(tǒng)、手持設(shè)備編寫高效輕便的代碼,而且廣泛適用于多核心處理器(CPU)、圖形處理器(GPU)、Cell類型架構(gòu)以及數(shù)字信號處理器
    發(fā)表于 01-16 08:59

    【招聘】算法、圖像檢索、嵌入式、測試、架構(gòu)、GPU優(yōu)化等職位(bj&sh)

    。 2、熟悉NVIDIA或AMD GPU體系結(jié)構(gòu)和代碼優(yōu)化技術(shù)。 3、熟練使用CUDA或者OpenCL編程。 芯片驗(yàn)證工程師 Responsibilities: - Develop
    發(fā)表于 02-28 14:23

    GPU編程的平臺模型、執(zhí)行模型、內(nèi)存模型編程模型

    GPU編程--OpenCL四大模型
    發(fā)表于 04-29 07:40

    請問Mali GPU的并行化計(jì)算模型是怎樣構(gòu)建的?

    Mali T604 GPU的結(jié)構(gòu)是由哪些部分組成的?Mali T604 GPU編程特性有哪些?Mali GPU的并行化計(jì)算模型是怎樣構(gòu)建的
    發(fā)表于 04-19 08:06

    在Ubuntu上使用Nvidia GPU訓(xùn)練模型

    問題最近在Ubuntu上使用Nvidia GPU訓(xùn)練模型的時候,沒有問題,過一會再訓(xùn)練出現(xiàn)非??D,使用nvidia-smi查看發(fā)現(xiàn),顯示GPU的風(fēng)扇和電源報(bào)錯:解決方案自動風(fēng)扇控制在nvidia
    發(fā)表于 01-03 08:24

    Mali GPU支持tensorflow或者caffe等深度學(xué)習(xí)模型

    好的Tensorflow或者Caffe模型部署到ARM平臺Mali-G71/72 GPU上運(yùn)行,而不重新OpenCL編寫代碼,但沒有看見相關(guān)可行的資料。網(wǎng)上信息顯示tensorflow lit和caffe2Go可以部署到ARM,
    發(fā)表于 09-16 14:13

    Mali-Valhall系列GPU編程內(nèi)核

    2018年起。當(dāng)使用GPU優(yōu)化應(yīng)用程序時,至少有一個高級心理模型是有用的了解底層硬件的工作方式。了解預(yù)期性能也很有用以及它可能執(zhí)行的不同類型操作的數(shù)據(jù)速率。在優(yōu)化使用Mali時,了解塊
    發(fā)表于 08-02 16:38

    Keil C編譯器編程規(guī)則和代碼優(yōu)化

    本內(nèi)容介紹了Keil C編譯器編程規(guī)則和代碼優(yōu)化,要實(shí)用好單片機(jī)就必須清楚它的內(nèi)部結(jié)構(gòu)組織結(jié)構(gòu),無論是在芯片的選擇還是代碼的編寫
    發(fā)表于 04-20 17:37 ?315次下載
    Keil C編譯器<b class='flag-5'>編程</b>規(guī)則和<b class='flag-5'>代碼</b><b class='flag-5'>優(yōu)化</b>

    數(shù)據(jù)流編程模型優(yōu)化

    提出了新的挑戰(zhàn)。針對數(shù)據(jù)流程序在分布式架構(gòu)下所面臨的問題,設(shè)計(jì)并實(shí)現(xiàn)了數(shù)據(jù)流編程模型和分布式計(jì)算框架的結(jié)合在COStream的基礎(chǔ)上提出了面向Storm的編譯優(yōu)化框架??蚣馨▋蓚€模塊:面向Storm的層次性任務(wù)劃分與調(diào)度,以及
    發(fā)表于 11-23 15:48 ?3次下載
    數(shù)據(jù)流<b class='flag-5'>編程</b><b class='flag-5'>模型</b><b class='flag-5'>優(yōu)化</b>

    CUDA簡介: CUDA編程模型概述

    在 CUDA 編程模型中,線程是進(jìn)行計(jì)算或內(nèi)存操作的最低抽象級別。 從基于 NVIDIA Ampere GPU 架構(gòu)的設(shè)備開始,CUDA 編程模型
    的頭像 發(fā)表于 04-20 17:16 ?2951次閱讀
    CUDA簡介: CUDA<b class='flag-5'>編程</b><b class='flag-5'>模型</b>概述

    使用NVIDIA數(shù)學(xué)庫加速GPU應(yīng)用程序

      加速 GPU 應(yīng)用程序的主要方法有三種:編譯器指令、編程語言和預(yù)編程庫。編譯器指令,例如 OpenACC a 允許您順利地將代碼移植到 GPU
    的頭像 發(fā)表于 10-10 15:11 ?7346次閱讀
    使用NVIDIA數(shù)學(xué)庫加速<b class='flag-5'>GPU</b>應(yīng)用程序

    谷歌發(fā)布用于輔助編程代碼模型CodeGemma

    谷歌發(fā)布了用于輔助編程代碼模型 CodeGemma。CodeGemma 基于谷歌今年 2 月發(fā)布的輕量級開源大模型 Gemma,針對 Gemma 的兩個不同參數(shù)規(guī)模的版本 Gemm
    的頭像 發(fā)表于 04-17 16:07 ?616次閱讀
    谷歌發(fā)布用于輔助<b class='flag-5'>編程</b>的<b class='flag-5'>代碼</b>大<b class='flag-5'>模型</b>CodeGemma

    如何構(gòu)建及優(yōu)化GPU云網(wǎng)絡(luò)

    并從計(jì)算節(jié)點(diǎn)成本優(yōu)化、集群網(wǎng)絡(luò)與拓?fù)涞倪x擇等方面論述如何構(gòu)建及優(yōu)化GPU云網(wǎng)絡(luò)。
    的頭像 發(fā)表于 11-06 16:03 ?192次閱讀
    如何構(gòu)建及<b class='flag-5'>優(yōu)化</b><b class='flag-5'>GPU</b>云網(wǎng)絡(luò)