0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

比Colab更方便的GPU平臺-GPUlab

工程師鄧生 ? 來源:易心Microbit編程 ? 作者:易心Microbit編程 ? 2022-09-08 16:24 ? 次閱讀

GPUlab是一個提供付費(fèi)GPU的平臺,其接口源自JupyterLab(一種升級版的Jupyternotebook),因此可透過網(wǎng)頁接口提供完整的Python IDE接口,除了基本的Notebook,也有terminal、console可用,因此使用起來比起Colab更為方便。

產(chǎn)品是由一家位于美國加州的Deasil Works公司所提供,主要業(yè)務(wù)提供AI、Data science等方面的技術(shù)咨詢。

計(jì)費(fèi)方式

45890192-2f4d-11ed-ba43-dac502259ad0.png

目前提供三種plan,但主要在于購買周期的差異,硬件及執(zhí)行環(huán)境完全相同。三種計(jì)費(fèi)周期為日、周、月,信用卡付款,期限到自動扣款續(xù)約。

提供的GPU執(zhí)行環(huán)境

比較值得關(guān)心的是GPU執(zhí)行環(huán)境及配置:

1.GPU硬件:Tesla K80 x1,11MB

2.CUDA 10.02

3.Ubuntu 18.04

4.Tensorflow 2.3

5.PyTorch 1.8

6.無法sudo (無root權(quán)限)

7.可使用terminal或jupyternotebook來執(zhí)行程序,或管理/安裝移除相關(guān)套件。

8.Storage空間無論任何方案皆為25GB。

9.環(huán)境及檔案可持久保持,不像Colab,Kaggle在超過時數(shù)后便自動清空。

Tesla K80其實(shí)是由兩個K40核心所組成一片24GB的K80,在環(huán)境中看到的是兩片各為12GB的GPU,由于其架構(gòu)較老舊,速度在TF1.6測試下僅達(dá)GTX 1080一半(參考下圖)。

45afaaae-2f4d-11ed-ba43-dac502259ad0.png

硬件規(guī)格與GTX 1080比較如下:

45d28678-2f4d-11ed-ba43-dac502259ad0.jpg

(https://www.reddit.com/r/deeplearning/comments/5mc7s6/performance_difference_between_nvidia_k80_and_gtx/)

K80已是八-九年前的產(chǎn)品,使用的framework為Kepler(GTX 1080為差了兩代的Pascal,3080以后系列為差了五代的Ampere),從Nvidia的規(guī)劃(https://zh.wikipedia.org/wiki/CUDA)來看,Kepler只支持到CUDA 10.2,不支持最新的CUDA11.0之后版本。但測試結(jié)果,安裝了CUDA 11.0之后,還是能在GPUlab的K80 GPU執(zhí)行訓(xùn)練,這部份請參考后續(xù)說明。

GPUlab的使用接口

注冊賬號,選擇要購買的方案種類,使用信用卡繳費(fèi)后,便會自動設(shè)定好環(huán)境馬上便能使用。

45ed1fec-2f4d-11ed-ba43-dac502259ad0.png

GPUlab environment的界面

45fb55ee-2f4d-11ed-ba43-dac502259ad0.png

點(diǎn)選Notebook中的Python3,會于目前目錄(可從左側(cè)窗口的檔案總管切換)新建一個notebook。

462c4348-2f4d-11ed-ba43-dac502259ad0.png

點(diǎn)選Console中的Bash,會進(jìn)入一個可下方命令欄輸入bash command的窗口。

464c6be6-2f4d-11ed-ba43-dac502259ad0.png

點(diǎn)選Others中的Terminal,出現(xiàn)一個類似putty接口的終端窗口。

466e82d0-2f4d-11ed-ba43-dac502259ad0.png

輸入nvidia-smi

468a8c82-2f4d-11ed-ba43-dac502259ad0.png

輸入ls -la /usr/local/cuda,發(fā)現(xiàn)CUDA版本是10.1

46b6f448-2f4d-11ed-ba43-dac502259ad0.png

升級CUDA為最新版的11.03

如果想要使用較新的Tensorflow 2.5,那么必須要升級CUDA到最新版本11.X才行,不過目前GPUlab僅支持10.3,官方解釋要等到下一版(約在2021年七月底或八月左右)才有支持。如果打算自己安裝升級,會發(fā)現(xiàn)GPUlab并沒有開放sudo root權(quán)限,想要升級到11.X版似乎有些困難。

但其實(shí),CUDA/CUDNN安裝也可以用戶模式來安裝,不一定需要root權(quán)限。

下載CUDA 11.4

URL//developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=18.04&target_type=runfile_local

$ wgethttps://developer.download.nvidia.com/compute/cuda/11.4.0/local_installers/cuda_11.4.0_470.42.01_linux.run

安裝CUDA 11.4

$ chmod755 cuda_11.4.0_470.42.01_linux.run

# ./cuda_11.4.0_470.42.01_linux.run

安裝時取消Nvidia driver的安裝,并修改安裝路徑到個人家目錄下。(例如:/home/jovyan/cuda-11.4)

安裝結(jié)束后,于相同路徑下新增soft link cuda指向cuda-11.4。

加入path到.bash_profile

exportCUDA_HOME=/home/jovyan/cuda

使用pip升級tensorflwo-gpu及pytorch

pipinstall -U tensorflow-gpu torch torchvision torchaudio

將下方三行加到~/.bash_profile

exportLD_LIBRARY_PATH=/home/jovyan/cuda/lib64:/home/jovyan/cuda/extras/CUPTI/lib64/:${LD_LIBRARY_PATH}

exportLIBRARY_PATH=${LIBRARY_PATH}:/home/jovyan/cuda/lib64:/home/jovyan/extras/CUPTI/lib64:/home/jovyan/cuda/targets/x86_64-linux/lib

從NVidia下載解壓CUDNN,并將檔案復(fù)制到 ~/cuda相對應(yīng)路徑下。

測試

開啟一個terminal,import tensorflow,確認(rèn)可使用11.x版的CUDA。

46cb1dec-2f4d-11ed-ba43-dac502259ad0.png

Ps. 此方法僅對于terminal環(huán)境有效,在Jupyternotebook環(huán)境可在一開始就先執(zhí)行:

!source ~/.bash_profile

46e6ebee-2f4d-11ed-ba43-dac502259ad0.png

之后,PyTorch便能使用到新版CUDA了,但Tensorflow還不行。

心得

優(yōu)點(diǎn):

1.以每月不到三百元的價格,能使用不限時數(shù)11GBRAM的GPU,且已預(yù)先裝好所有可用的模塊,感覺相當(dāng)劃算。

2.若您僅需Jupyter Notebook接口進(jìn)行基本的模型測試及訓(xùn)練,GPUlab所提供的環(huán)境已足敷使用。

3.可同時從不同PC登入portal(看到相同執(zhí)行畫面),亦可同時執(zhí)行數(shù)個程序,只要Disk space及GPU usage沒有超過用量。

4.從GPUlab環(huán)境存取internet的速度快,例如,從Kaggle透過API下載dataset比在自己PC快相當(dāng)多。

5.提供的Terminal接口與Notebook搭配使用相當(dāng)方便。

缺點(diǎn):

1.提供的K80 GPU速度不是很令人滿意,以訓(xùn)練一個參數(shù)為600,612的Keras UNet模型來說,在最新GTX 3080 GPU每epochs約117 s,K80則需要383 s,兩者差距了三倍之多。

2.提供的Disk space僅有25GB,一次無法放置太多數(shù)量的dataset。

3.無sudo的root權(quán)限,因此,無法自行控制或修改更多的環(huán)境配置。

4.預(yù)載的CUDA僅支持到10.3,雖可自行升級到CUDA11.X,但會占用到disk quota(約8G)。

5.環(huán)境未安裝libopencv-dev套件,且也無法透過sudoapt-get install libopencv-dev 自行安裝,這使得訓(xùn)練YOLO的Darknetframe在編譯時若enableOpenCV,會產(chǎn)生error。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4591

    瀏覽量

    128144
  • IDE接口
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    13267
  • python
    +關(guān)注

    關(guān)注

    53

    文章

    4753

    瀏覽量

    84080

原文標(biāo)題:比Colab/Kaggle更方便的GPU平臺-GPUlab

文章出處:【微信號:易心Microbit編程,微信公眾號:易心Microbit編程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    ALINX FPGA+GPU異架構(gòu)視頻圖像處理開發(fā)平臺介紹

    Alinx 最新發(fā)布的新品 Z19-M 是一款創(chuàng)新的 FPGA+GPU 異構(gòu)架構(gòu)視頻圖像處理開發(fā)平臺,它結(jié)合了 AMD Zynq UltraScale+ MPSoC(FPGA)與 NVIDIA Jetson Orin NX(GPU
    的頭像 發(fā)表于 08-29 14:43 ?544次閱讀

    暴漲預(yù)警!NVIDIA GPU供應(yīng)大跳水

    gpu
    jf_02331860
    發(fā)布于 :2024年07月26日 09:41:42

    新手小白怎么學(xué)GPU云服務(wù)器跑深度學(xué)習(xí)?

    新手小白想用GPU云服務(wù)器跑深度學(xué)習(xí)應(yīng)該怎么做? 用個人主機(jī)通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動,如何實(shí)現(xiàn)經(jīng)濟(jì)便捷的實(shí)現(xiàn)GPU云服務(wù)器深度學(xué)習(xí)?
    發(fā)表于 06-11 17:09

    CPU渲染和GPU渲染優(yōu)劣分析

    使用計(jì)算機(jī)進(jìn)行渲染時,有兩種流行的系統(tǒng):基于中央處理單元(CPU)或基于圖形處理單元(GPU)。CPU渲染利用計(jì)算機(jī)的CPU來執(zhí)行場景并將其渲染到接近完美。這也是執(zhí)行渲染的傳統(tǒng)方式。然而,隨著
    的頭像 發(fā)表于 05-23 08:27 ?423次閱讀
    CPU渲染和<b class='flag-5'>GPU</b>渲染優(yōu)劣分析

    AI訓(xùn)練,為什么需要GPU?

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱的主角呢?要回答這個問題,首先需要了解當(dāng)前人工智能(AI
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    AI訓(xùn)練,為什么需要<b class='flag-5'>GPU</b>?

    國產(chǎn)GPU搭配國產(chǎn)處理器平臺主機(jī)

    處理器gpu
    GITSTAR 集特工控
    發(fā)布于 :2024年03月27日 14:11:32

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    英偉達(dá)和AMD的GPU降價大戰(zhàn)拉開

    現(xiàn)在是前幾個月更好的購買高端GPU的時機(jī)。
    的頭像 發(fā)表于 02-25 13:41 ?795次閱讀
    英偉達(dá)和AMD的<b class='flag-5'>GPU</b>降價大戰(zhàn)拉開

    詳解GPU硬件架構(gòu)及運(yùn)行機(jī)制

    為什么我們總說GPUCPU要強(qiáng)大,既然GPU強(qiáng)大,為什么不能取代CPU呢?
    的頭像 發(fā)表于 01-26 09:23 ?1970次閱讀
    詳解<b class='flag-5'>GPU</b>硬件架構(gòu)及運(yùn)行機(jī)制

    為什么GPUCPU更快?

    GPUCPU更快的原因并行處理能力:GPU可以同時處理多個任務(wù)和數(shù)據(jù),而CPU通常只能一次處理一項(xiàng)任務(wù)。這是因?yàn)?b class='flag-5'>GPU的架構(gòu)使得它可以同時處理多個核心,從而實(shí)現(xiàn)高效的并行計(jì)算,這是
    的頭像 發(fā)表于 01-26 08:30 ?1780次閱讀
    為什么<b class='flag-5'>GPU</b><b class='flag-5'>比</b>CPU更快?

    超微gpu服務(wù)器評測

    GPU服務(wù)器進(jìn)行評測。 一、超微GPU服務(wù)器概述 超微GPU服務(wù)器是一種基于超微服務(wù)器平臺GPU技術(shù)相結(jié)合的高性能計(jì)算設(shè)備。它采用了超微
    的頭像 發(fā)表于 01-10 10:37 ?1053次閱讀

    OpenHarmony開源GPU庫Mesa3D適配說明

    : Dayu200-rk3568 一、背景介紹 OpenHarmony對圖形的渲染,支持CPU和GPU兩種方式。為了支持流暢的用戶體現(xiàn),GPU適配是必不可少的。OpenHarmony使用GPU渲染,就必須依賴OpenGL
    發(fā)表于 12-25 11:38

    CPU和GPU之間的主要區(qū)別

    的任務(wù)。GPU的指令有限,只能執(zhí)行與圖形相關(guān)的任務(wù)。它通??梢詧?zhí)行任何類型的任務(wù),包括圖形,但不是以非常優(yōu)化的方式。雖然GPU的唯一目的是CPU更快地處理圖像和3
    的頭像 發(fā)表于 12-14 08:28 ?629次閱讀
    CPU和<b class='flag-5'>GPU</b>之間的主要區(qū)別

    什么是虛擬GPU?虛擬GPU的優(yōu)勢有哪些?

    虛擬 GPU,也稱為 vGPU,是通過將數(shù)據(jù)中心 GPU 進(jìn)行虛擬化,用戶可在多個虛擬機(jī)中共享該 GPU。
    的頭像 發(fā)表于 11-10 09:48 ?1569次閱讀
    什么是虛擬<b class='flag-5'>GPU</b>?虛擬<b class='flag-5'>GPU</b>的優(yōu)勢有哪些?

    RTOS相比裸機(jī)有什么優(yōu)點(diǎn)?RTOS相比裸機(jī)方便嗎?

    RTOS相比裸機(jī)有什么優(yōu)點(diǎn)?RTOS相比裸機(jī)方便嗎? RTOS代表實(shí)時操作系統(tǒng),專門為需要高可靠性和可預(yù)測性的系統(tǒng)設(shè)計(jì)。相比之下,裸金屬或“裸”系統(tǒng)的硬件或軟件層最少,嚴(yán)重依賴開發(fā)人員的代碼來處
    的頭像 發(fā)表于 10-29 16:33 ?1404次閱讀