0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)顯卡選型指南:關(guān)于GPU選擇的一般建議

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-08-24 09:11 ? 次閱讀

深度學(xué)習(xí)是一個(gè)對算力要求很高的領(lǐng)域,GPU的選擇將從根本上決定你的深度學(xué)習(xí)體驗(yàn)。如果沒有GPU,可能你完成整個(gè)實(shí)驗(yàn)需要幾個(gè)月,甚至當(dāng)你只想看看參數(shù)調(diào)整、模型修改后的效果時(shí),那可能也得耗費(fèi)1天或更久的時(shí)間。

憑借性能良好、穩(wěn)定的GPU,人們可以快速迭代深層神經(jīng)網(wǎng)絡(luò)的架構(gòu)設(shè)計(jì)和參數(shù),把原本完成實(shí)驗(yàn)所需的幾個(gè)月壓縮到幾天,或是把幾天壓縮到幾小時(shí),把幾小時(shí)壓縮到幾分鐘。因此,在選購GPU時(shí)做出正確選擇至關(guān)重要。

下面是華盛頓大學(xué)博士Tim Dettmers結(jié)合競賽經(jīng)驗(yàn)給出的GPU選擇建議,有需要的讀者可把它可作為參考意見。

當(dāng)一個(gè)人開始涉足深度學(xué)習(xí)時(shí),擁有一塊高速GPU是一件很重要的事,因?yàn)樗軒腿烁咝У胤e累實(shí)踐經(jīng)驗(yàn),而經(jīng)驗(yàn)是掌握專業(yè)知識的關(guān)鍵,能打開深入學(xué)習(xí)新問題的大門。如果沒有這種快速的反饋,我們從錯(cuò)誤中汲取經(jīng)驗(yàn)的時(shí)間成本就太高了,同時(shí),過長的時(shí)間也可能會(huì)讓人感到挫敗和沮喪。

以我個(gè)人的經(jīng)驗(yàn)為例。通過配置合理的GPU,我在短時(shí)間內(nèi)就學(xué)會(huì)把深度學(xué)習(xí)用于一系列Kaggle競賽,并在Chaly of Hashtags比賽中取得第二名。當(dāng)時(shí)我構(gòu)建了一個(gè)相當(dāng)大的兩層深層神經(jīng)網(wǎng)絡(luò),里面包含用于整流的線性神經(jīng)元和用于正則化的損失函數(shù)。

像這么深的網(wǎng)絡(luò),我手里的6GB GPU是跑不動(dòng)的。所以之后我入手了一塊GTX Titan GPU,這也是最終獲得佳績的主要原因。

終極建議

性能最好的GPU:RTX 2080 Ti

性價(jià)比高,但小貴:RTX 2080, GTX 1080

性價(jià)比高,同時(shí)便宜:GTX 1070, GTX 1070 Ti, GTX 1060

使用的數(shù)據(jù)集>250GB:RTX 2080 Ti, RTX 2080

預(yù)算很少:GTX 1060 (6GB)

幾乎沒預(yù)算:GTX 1050 Ti (4GB)/CPU(建模)+ AWS/TPU(訓(xùn)練)

參加Kaggle競賽:GTX 1060 (6GB)(建模)+ AWS(最終訓(xùn)練)+ fast ai

有前途的CV研究員:GTX 2080 Ti; 在2019年升級到RTX Titan

普通研究員:RTX 2080 Ti/GTX 10XX -> RTX Titan,注意內(nèi)存是否合適

有雄心壯志的深度學(xué)習(xí)菜鳥:從GTX 1060 (6GB)、GTX 1070、GTX 1070 Ti開始,慢慢進(jìn)階

隨便玩玩的深度學(xué)習(xí)菜鳥:GTX 1050 Ti (4或2GB)

我應(yīng)該多買幾塊GPU嗎?

那時(shí)候,看到GPU能為深度學(xué)習(xí)提供這么多的可能性,我很興奮,于是鉆進(jìn)了多GPU的“深坑”:我組裝了一個(gè)IB 40Gbit/s的小型GPU陣列,希望它能產(chǎn)出更好的結(jié)果。

但現(xiàn)實(shí)很殘酷,我很快就被“打臉”了,在多個(gè)GPU上并行訓(xùn)練神經(jīng)網(wǎng)絡(luò)不僅非常困難,一些常用的加速技巧也收效甚微。誠然,小型神經(jīng)網(wǎng)絡(luò)可以通過數(shù)據(jù)并行性大大降低訓(xùn)練用時(shí),但由于我構(gòu)建的是個(gè)大型神經(jīng)網(wǎng)絡(luò),它的效率并沒有多大變化。

面對失敗,我深入研究了深度學(xué)習(xí)中的并行化,并在2016年的ICLR上發(fā)表了一篇論文:8-Bit Approximations for Parallelism in Deep Learning。在論文中,我提出了8位近似算法,它能在包含96個(gè)GPU的系統(tǒng)上獲得50倍以上的加速比。與此同時(shí),我也發(fā)現(xiàn)CNN和RNN非常容易實(shí)現(xiàn)并行化,尤其是在只用一臺(tái)計(jì)算機(jī)或4個(gè)GPU的情況下。

所以,雖然現(xiàn)代GPU并沒有針對并行訓(xùn)練做過高度優(yōu)化,但我們?nèi)匀豢梢浴盎ㄊ健碧崴佟?/p>

主機(jī)內(nèi)部構(gòu)造:3個(gè)GPU和一個(gè)IB卡,這適合深度學(xué)習(xí)嗎?

N卡?A卡?Intel?谷歌?亞馬遜?

NVIDIA:主導(dǎo)者

在很早的時(shí)候,NVIDIA就已經(jīng)提供了一個(gè)標(biāo)準(zhǔn)庫,這使得在CUDA中建立深度學(xué)習(xí)庫非常容易。再加上那時(shí)AMD的OpenCL沒有意識到標(biāo)準(zhǔn)庫的前景,NVIDIA結(jié)合這個(gè)早期優(yōu)勢和強(qiáng)大的社區(qū)支持,讓CUDA社區(qū)規(guī)模實(shí)現(xiàn)迅速擴(kuò)張。發(fā)展至今,如果你是NVIDIA的用戶,你就能在各個(gè)地方輕松找到深度學(xué)習(xí)的教程和資源,大多數(shù)庫也都對CUDA提供最佳支持。

因此,如果要入手NVIDIA的GPU,強(qiáng)大的社區(qū)、豐富的資源和完善的庫支持絕對是最重要的因素。

另一方面,考慮到NVIDIA在去年年底不聲不響地修改了GeForce系列顯卡驅(qū)動(dòng)最終用戶許可協(xié)議,數(shù)據(jù)中心只被允許使用Tesla系列GPU,而不能用GTX或RTX卡。雖然他們到現(xiàn)在都沒有定義“數(shù)據(jù)中心”是什么,但考慮到其中的法律隱患,現(xiàn)在不少機(jī)構(gòu)和大學(xué)開始購買更貴但效率低的Tesla GPU——即便價(jià)格上可能相差10倍,Tesla卡與GTX和RTX卡相比并沒有真正優(yōu)勢。

這意味著作為個(gè)人買家,當(dāng)你接受了N卡的便捷性和優(yōu)勢時(shí),你也要做好接受“不平等”條款的心理準(zhǔn)備,因?yàn)镹VIDIA在這一領(lǐng)域占據(jù)壟斷地位。

AMD:功能強(qiáng)大但缺乏支持

在2015年的國際超算會(huì)議上,AMD推出HIP,可以把針對CUDA開發(fā)的代碼轉(zhuǎn)換成AMD顯卡可以運(yùn)行的代碼。這意味著如果我們在HIP中擁有所有GPU代碼,這將是個(gè)重要的里程碑。但三年過去了,我們還是沒能見證A卡在深度學(xué)習(xí)領(lǐng)域的崛起,因?yàn)檫@實(shí)踐起來太困難,尤其是移植TensorFlow和PyTorch代碼庫。

確切來說,TensorFlow是支持AMD顯卡的,所有常規(guī)網(wǎng)絡(luò)都可以在AMD GPU上運(yùn)行,但如果你想構(gòu)建新網(wǎng)絡(luò),它就會(huì)出現(xiàn)不少bug,讓你怎么都不能如意。此外,ROCm社區(qū)也不是很大,沒法直接解決這個(gè)問題,再加上缺乏深度學(xué)習(xí)開發(fā)的資金支持,AMD比肩NVIDIA遙遙無期。

然而,如果我們對比兩家的下一代產(chǎn)品,可以發(fā)現(xiàn)AMD的顯卡顯示出了強(qiáng)勁性能,未來,Vega 20可能會(huì)擁有類似Tensor-Core計(jì)算單元的計(jì)算能力。

總的來說,對于只是希望模型能在GPU上穩(wěn)穩(wěn)當(dāng)當(dāng)跑完的普通用戶,目前我還找不到推薦AMD的理由,選N卡是最合適的。但如果你是GPU開發(fā)者或是希望對GPU計(jì)算做出貢獻(xiàn)的人,你可以支持AMD,打擊NVIDIA的壟斷地位,因?yàn)檫@將使所有人長期受益。

Intel:努力嘗試

用過Intel家的Phi后,我簡直要“一生黑”。我認(rèn)為它們不是NVIDIA或AMD卡的真正競爭對手,所以這里我們長話短說。如果你決定入手Xeon Phi,下面是你可能會(huì)遇到的問題:支持很爛、計(jì)算代碼段比CPU慢、編寫優(yōu)化代碼非常困難、不完全支持C++11、編譯器不支持一些重要的GPU設(shè)計(jì)模式、和其他庫的兼容性差(NumPy和SciPy)等等。

我真的很期待Intel的Nervana神經(jīng)網(wǎng)絡(luò)處理器(NNP),但自提出以來,它就陷入了無休無止的跳票。根據(jù)最近的說法,NNP會(huì)在2019年第三/第四季度出貨,但參考他們家的Xeon Phi,如果我們想買顆技術(shù)成熟的NNP,估計(jì)至少得等到2020年。

谷歌:按需提供的廉價(jià)服務(wù)?

到現(xiàn)在為止,Google TPU已經(jīng)發(fā)展成為非常成熟的云產(chǎn)品,性價(jià)比超高。要理解TPU,我們可以把它簡單看做是打包在一起的多個(gè)GPU。如果你曾對比過Tensor-Core-enabled V100和TPUv2在ResNet50上的性能差距,如下圖所示,可以發(fā)現(xiàn),兩者的準(zhǔn)確率差不多,但TPU更便宜。

那么如果手頭緊又期望高性能,是不是就選TPU呢?是,也不是。如果你要做論文研究,或是會(huì)頻繁用到它,TPU確實(shí)是個(gè)經(jīng)濟(jì)實(shí)惠的選擇。但是,如果你上過fast ai的課,用過fast ai庫,你就會(huì)發(fā)現(xiàn)自己可以用更低的價(jià)格實(shí)現(xiàn)更快的收斂——至少對于CNN目標(biāo)識別來說是這樣的。

此外,雖然相比其他同類產(chǎn)品,TPU性價(jià)比更高,但它也存在不少問題:(1)TPU不能用于fast ai庫,即PyTorch;(2)TPU算法主要依賴谷歌內(nèi)部團(tuán)隊(duì);(3)沒有統(tǒng)一的高級庫,無法為TensorFlow提供良好的標(biāo)準(zhǔn)。

以上三點(diǎn)都是TPU的痛點(diǎn),因?yàn)樗枰獑为?dú)的軟件才能跟上深度學(xué)習(xí)算法的更新迭代。我相信谷歌團(tuán)隊(duì)已經(jīng)完成了一些列工作,但它們對某些任務(wù)的支持效果還是個(gè)未知數(shù)。因此,目前的TPU更適合計(jì)算機(jī)視覺任務(wù),并作為其他計(jì)算資源的補(bǔ)充,我不建議開發(fā)者把它當(dāng)做自己的主要深度學(xué)習(xí)資源。

亞馬遜:可靠但昂貴

AWS的GPU很豐富,價(jià)格也有點(diǎn)高。如果突然需要額外的計(jì)算,AWS GPU可能是一個(gè)非常有用的解決方案,比如論文deadline快到了。

經(jīng)濟(jì)起見,如果要購買亞馬遜服務(wù),你最好只跑一部分網(wǎng)絡(luò),而且確切知道哪些參數(shù)最接近最佳選擇。否則,這些因?yàn)樽约菏д`多出來的花費(fèi)可能會(huì)讓你的錢包見底。所以,即便亞馬遜的云GPU很快,我們還是自己買一塊專用的實(shí)體顯卡吧,GTX 1070很貴,但它至少也能用個(gè)一兩年啊。

是什么決定了GPU的快慢?

是什么讓這個(gè)GPU比那個(gè)GPU更快?面對這個(gè)問題,可能你最先想到的是看和深度學(xué)習(xí)有關(guān)的顯卡特征:是CUDA核心嗎?主頻多少?RAM多大?

雖然“看內(nèi)存帶寬”是個(gè)“萬金油”的說法,但我不建議這么做,因?yàn)殡S著GPU硬件和軟件的多年開發(fā),現(xiàn)在帶寬已經(jīng)不再是性能的唯一代名詞。尤其是消費(fèi)級GPU中Tensor Cores的引入,這個(gè)問題就更復(fù)雜了。

現(xiàn)在,如果要判斷顯卡性能好不好,它的指標(biāo)應(yīng)該是帶寬、FLOPS和Tensor Cores三合一。要理解這一點(diǎn),我們可以看看矩陣乘積和卷積這兩個(gè)最重要的張量操作是在哪里被加速的。

提到矩陣乘積,最簡單有效的一個(gè)理念是它受帶寬限制。如果你想用LSTM和其他需要經(jīng)常進(jìn)行大量矩陣乘積運(yùn)算的RNN,那么內(nèi)存帶寬是GPU最重要的特性。類似地,卷積受計(jì)算速度約束,因此對于ResNets和其他CNN,GPU上的TFLOP是性能的最佳指標(biāo)。

Tensor Cores的出現(xiàn)稍稍改變了上述平衡。它們是非常簡單的專用計(jì)算單元,可以加速計(jì)算——但不是內(nèi)存帶寬 ——因此對CNN來說,如果GPU里有Tensor Core,它們帶來的最大改善就是速度提高約30%到100%。

雖然Tensor Cores只能提高計(jì)算速度,但它們也可以使用16bit數(shù)進(jìn)行計(jì)算。這對矩陣乘法也是一個(gè)巨大優(yōu)勢,因?yàn)樵诰哂邢嗤鎯?chǔ)器帶寬的矩陣中,16bit數(shù)的信息傳輸量是32bit數(shù)的兩倍。數(shù)字存儲(chǔ)器大小的削減對于在L1高速緩存中存儲(chǔ)更多數(shù)字特別重要,實(shí)現(xiàn)了這一點(diǎn),矩陣就越大,計(jì)算效率也更高。所以如果用了Tensor Cores,它對LSTM的提速效果約為20%至60%。

請注意,這種加速不是來自Tensor Cores本身,而是來自它們進(jìn)行16bit數(shù)計(jì)算的能力。AMD GPU也支持16bit數(shù)計(jì)算,這意味著在進(jìn)行乘積運(yùn)算時(shí),它們其實(shí)和具有Tensor Cores的NVIDIA顯卡一樣快。

Tensor Cores的一個(gè)大問題是它們需要16位浮點(diǎn)輸入數(shù)據(jù),這可能會(huì)引入一些軟件支持問題,因?yàn)榫W(wǎng)絡(luò)通常使用32位。如果沒有16位輸入,Tensor Cores將毫無用處。但是,我認(rèn)為這些問題將很快得到解決,因?yàn)門ensor Cores太強(qiáng)大了,現(xiàn)在它們已經(jīng)出現(xiàn)在消費(fèi)級GPU中,未來,使用它的人只會(huì)越來越多。請注意,隨著16bit數(shù)被引入深度學(xué)習(xí),GPU內(nèi)存其實(shí)也相當(dāng)于翻倍了,因?yàn)楝F(xiàn)在我們可以在同樣大小的內(nèi)存中存儲(chǔ)比之前多一倍的參數(shù)。

總的來說,最好的經(jīng)驗(yàn)法則是:如果用RNN,請看帶寬;如果用卷積,請看FLOPS;如果有錢,上Tensor Cores(除非你必須購買Tesla)。

GPU和TPU的標(biāo)準(zhǔn)化原始性能數(shù)據(jù),越高越好

成本效益分析

GPU的成本效益可能是選擇GPU最重要的標(biāo)準(zhǔn)。我圍繞帶寬、TFLOP和Tensor Cores做了一項(xiàng)新的性價(jià)比分析。首先,顯卡的銷售價(jià)格來自亞馬遜和eBay,兩個(gè)平臺(tái)的權(quán)重是50:50;其次,我查看了有無Tensor Cores的顯卡在LSTM和CNN上的性能指標(biāo),對這些指標(biāo)做歸一化處理后進(jìn)行加權(quán),獲得平均性能得分;最后,我計(jì)算得到了下面這個(gè)性能/成本比率:

圍繞帶寬、TFLOP和Tensor Cores的性價(jià)比,越高越好

根據(jù)初步數(shù)據(jù),我們可以發(fā)現(xiàn)RTX 2080比RTX 2080 Ti更實(shí)惠。雖然后者在Tensor Cores和帶寬上提升了40%,在價(jià)格上提高了50%,但這不意味著它能在深度學(xué)習(xí)性能上提升40%。對于LSTM和其他RNN,GTX 10系列和RTX 20系列帶給它們的性能提升主要來自支持16bit數(shù)計(jì)算,而不是Tensor Cores;對于CNN,雖然Tensor Cores帶來的計(jì)算速度提升效果明顯,但它對卷積體系結(jié)構(gòu)的其他部分也不存在輔助作用。

因此,相比GTX 10系列,RTX 2080在性能上實(shí)現(xiàn)了巨大提升;相比RTX 2080 Ti,它在價(jià)格上又占盡優(yōu)勢。所以RTX 2080性價(jià)比最高是可以理解的。

此外,圖中的數(shù)據(jù)不可迷信,這個(gè)分析也存在一些問題:

如果你買了性價(jià)比更高但速度很慢的顯卡,那么之后你的計(jì)算機(jī)可能就裝不下更多顯卡了,這是一種資源浪費(fèi)。所以為了抵消這種偏差,上圖會(huì)偏向更貴的GPU。

這個(gè)圖假設(shè)我們用的是帶Tensor Cores和16bit數(shù)計(jì)算的顯卡,這意味著對于支持32bit數(shù)計(jì)算的RTX卡,它們的性價(jià)比會(huì)被統(tǒng)計(jì)得偏低。

考慮到“礦工”的存在,RTX 20系列開售后,GTX 1080和GTX 1070可能會(huì)迅速降價(jià),這會(huì)影響性價(jià)比排名。

因?yàn)楫a(chǎn)品還未發(fā)布,表中RTX 2080和RTX 2080 Ti的數(shù)字存在水分,不可盡信。

綜上可得,如果只從性價(jià)比角度看,選擇最好的GPU是不容易的。所以如果你想根據(jù)自身?xiàng)l件選一款中庸的GPU,下面的建議是合理的。

關(guān)于GPU選擇的一般建議

目前,我會(huì)推薦兩種主要的選擇方法:(1)購買RTX系列,然后用上兩年;(2)等新品發(fā)布后,購買降價(jià)的GTX 1080/1070/1060或GTX 1080Ti / GTX 1070Ti。

很長一段時(shí)間內(nèi),我們一直在等GPU升級,所以對于很多人來說,第一種方法最立竿見影,現(xiàn)在就可以獲得最好的性能。雖然RTX 2080更具成本效益,但RTX 2080 Ti內(nèi)存更大,這對CV研究人員是個(gè)不小的誘惑。所以如果你是追求一步到位的人,買這兩種顯卡都是明智的選擇,至于選擇哪種,除了預(yù)算,它們的主要區(qū)別就是你究竟要不要RTX 2080 Ti的額外內(nèi)存。

如果你想用16bit計(jì)算,選Ti,因?yàn)閮?nèi)存會(huì)翻倍;如果沒這方面的需要,2080足矣。

至于第二種方法,它對那些想要追求更大的升級、想買RTX Titan的人來說是個(gè)不錯(cuò)的選擇,因?yàn)镚TX 10系列顯卡可能會(huì)降價(jià)。請注意,GTX 1060有時(shí)會(huì)缺少某些型號,因此當(dāng)你發(fā)現(xiàn)便宜的GTX 1060時(shí),首先要考慮它的速度和內(nèi)存是否真正滿足自己的需求。否則,便宜的GTX 1070、GTX 1070 Ti、GTX 1080和GTX 1080 Ti也是絕佳的選擇。

對于創(chuàng)業(yè)公司、Kaggle競賽參賽者和想要學(xué)習(xí)深度學(xué)習(xí)的新手,我的推薦是價(jià)格便宜的GTX 10系列顯卡,其中GTX 1060是非常經(jīng)濟(jì)的入門解決方案。

如果是想在深度學(xué)習(xí)上有所建樹的新手,一下子買幾個(gè)GTX 1060組裝成陣列也不錯(cuò),一旦技術(shù)純熟,你可以在2019年把顯卡升級到RTX Titan。

如果你缺錢,我會(huì)推薦4GB內(nèi)存的GTX 1050 Ti,當(dāng)然如果買得起,還是盡量上1060。請注意,GTX 1050 Ti的優(yōu)勢在于它不需要連接到PSU的額外PCIe,所以你可以把它直接插進(jìn)現(xiàn)有計(jì)算機(jī),節(jié)省額外資金。

如果缺錢又看重內(nèi)存,eBay的GTX Titan X也值得入手。

我個(gè)人會(huì)買一塊RTX 2080 Ti,因?yàn)槲业腉TX Titan X早該升級了,而且考慮到研究需要的內(nèi)存比較大,加上我打算自己開發(fā)一個(gè)Tensor Core算法,這是唯一的選擇。

小結(jié)

看到這里,相信現(xiàn)在的你應(yīng)該知道哪種GPU更適合自己。總的來說,我提的建議就是兩個(gè):一步到位上RTX 20系列,或是買便宜的GTX 10系列GPU,具體參考文章開頭的“終極建議”。性能和內(nèi)存,只要你真正了解自己要的是什么,你就能挑出屬于自己的最合適的顯卡。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100023
  • 顯卡
    +關(guān)注

    關(guān)注

    16

    文章

    2406

    瀏覽量

    66885
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120597

原文標(biāo)題:ICLR老司機(jī)的經(jīng)驗(yàn)和建議:深度學(xué)習(xí)顯卡選型指南

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    相比GPU和GPP,F(xiàn)PGA是深度學(xué)習(xí)的未來?

    相比GPU和GPP,F(xiàn)PGA在滿足深度學(xué)習(xí)的硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計(jì)算的能力和高效的能耗,F(xiàn)PGA將在一般深度
    發(fā)表于 07-28 12:16 ?7438次閱讀

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時(shí)面臨的許多問題 在過去的十年里,人工智能的再次興起使顯卡行業(yè)受益匪淺
    發(fā)表于 03-21 15:19

    剛開始進(jìn)行深度學(xué)習(xí)的同學(xué)怎么選擇合適的機(jī)器配置

    怎么為自己的深度學(xué)習(xí)機(jī)器選擇合適的GPU配置呢?對于那些直想進(jìn)行深度
    發(fā)表于 09-19 13:56

    深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU詳解

    TensorFlow&TensorFlow-GPU深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU的簡介、安裝、使用方法詳細(xì)攻略
    發(fā)表于 12-25 17:21

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    類型,但經(jīng)常使用稱為準(zhǔn)確性的種。假設(shè)將 10 張貓的圖像輸入到預(yù)訓(xùn)練模型中,其中 9 張被確定為“貓”。在這點(diǎn)上,該模型可以說具有 90% 的準(zhǔn)確率。一般來說,你可以通過學(xué)習(xí)大量的
    發(fā)表于 02-17 16:56

    關(guān)于AD的一般性介紹

    關(guān)于AD的一般性介紹
    發(fā)表于 10-18 14:23 ?12次下載
    <b class='flag-5'>關(guān)于</b>AD的<b class='flag-5'>一般</b>性介紹

    關(guān)于AD的工具一般性介紹

    關(guān)于AD的工具一般性介紹
    發(fā)表于 11-01 10:29 ?14次下載

    深度學(xué)習(xí)GPU硬件選型

    本文談了談gpu些重要的硬件組成,就深度學(xué)習(xí)而言,我覺得對內(nèi)存的需求還是比較大的,core多也并不是能夠全部用上,但現(xiàn)在開源的庫實(shí)在完整,想做卷積運(yùn)算有cudnn,想做卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-06 12:01 ?3677次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>之<b class='flag-5'>GPU</b>硬件<b class='flag-5'>選型</b>

    GPU和GPP相比誰才是深度學(xué)習(xí)的未來

    相比GPU和GPP,F(xiàn)PGA在滿足深度學(xué)習(xí)的硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計(jì)算的能力和高效的能耗,F(xiàn)PGA將在一般深度
    發(fā)表于 10-18 15:48 ?1423次閱讀

    GPU 引領(lǐng)的深度學(xué)習(xí)

    GPU 引領(lǐng)的深度學(xué)習(xí)
    的頭像 發(fā)表于 01-04 11:17 ?643次閱讀

    深度學(xué)習(xí)如何讓Turing 顯卡如虎添翼

    NVIDIA 首席執(zhí)行官暢談深度學(xué)習(xí)讓 Turing 顯卡如虎添翼
    的頭像 發(fā)表于 08-01 14:55 ?482次閱讀

    深度學(xué)習(xí)算法的選擇建議

    常重要的。本文將提供選擇建議,以及如何決定使用哪種框架和算法。 首先,選擇框架。目前,深度學(xué)習(xí)
    的頭像 發(fā)表于 08-17 16:11 ?551次閱讀

    GPU的張量核心: 深度學(xué)習(xí)的秘密武器

    。深度學(xué)習(xí)中的大規(guī)模矩陣和張量運(yùn)算是計(jì)算密集型的,正是GPU的張量核心賦予了GPU計(jì)算工具在深度
    的頭像 發(fā)表于 09-26 08:29 ?766次閱讀
    <b class='flag-5'>GPU</b>的張量核心: <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的秘密武器

    低壓斷路器選型一般原則

    本文將介紹低壓斷路器的選型原則及方法,包括低壓電器選型一般原則、斷路器的選型、配電用斷路器的選型、電動(dòng)機(jī)保護(hù)用自動(dòng)開關(guān)的
    發(fā)表于 11-06 09:28 ?3024次閱讀

    GPU深度學(xué)習(xí)中的應(yīng)用與優(yōu)勢

    人工智能的飛速發(fā)展,深度學(xué)習(xí)作為其重要分支,正在推動(dòng)著諸多領(lǐng)域的創(chuàng)新。在這個(gè)過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角樣,GPU
    的頭像 發(fā)表于 12-06 08:27 ?1093次閱讀
    <b class='flag-5'>GPU</b>在<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中的應(yīng)用與優(yōu)勢