0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

流浪者緩解PyTorch DDP的層次SGD

jf_pJlTbmA9 ? 來源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-08-31 14:27 ? 次閱讀

羅漢·瓦爾馬(梅塔·艾)

PyTork DDP 點(diǎn)火 DDP該技術(shù)的性能對于模型勘探期間的快速迭代以及資源和成本節(jié)約至關(guān)重要。該技術(shù)的性能對于模型開發(fā)和勘探的快速迭代和成本節(jié)約至關(guān)重要。為了解決大規(guī)模培訓(xùn)中慢節(jié)點(diǎn)引入的無處不在的性能瓶頸問題,巡航和梅塔公司共同開發(fā)了一個基于此解決方案的解決方案。SGD 等級式 SGD算法可以大大加速訓(xùn)練 在有這些累贅者在場的情況下

減少斯特拉格勒公司的必要性

在 DDP 設(shè)置中,當(dāng)一個或多個流程運(yùn)行比其他流程慢得多時,可能會出現(xiàn)累贅問題(“累贅者 ” ) 。 如果發(fā)生這種情況,所有流程都必須等待累贅者,然后才能同步梯度和完成通信,而通信的瓶頸基本上將業(yè)績分配給了最慢的工人。 因此,即使培訓(xùn)相對較小的模型,通信成本也可能是一個主要的性能瓶頸。

Stragglers 的潛在原因

在同步之前,工作量不平衡通常會造成嚴(yán)重的累贅問題,許多因素可能促成這種不平衡。 比如,在分布環(huán)境中,一些數(shù)據(jù)載荷工人可能會成為累贅者,因?yàn)槟承┹斎雽?shí)例在數(shù)據(jù)大小方面可能出乎意料,或者由于網(wǎng)絡(luò)一/O不穩(wěn)定,一些實(shí)例的數(shù)據(jù)傳輸可能大大放緩,或者在飛行數(shù)據(jù)轉(zhuǎn)換成本可能有很大差異。

除數(shù)據(jù)加載外,梯度同步之前的其他階段還可能造成累贅,例如,在建議系統(tǒng)中的前端路過時,嵌入表格的查尋工作量不平衡。

Stragglers 外觀

如果我們剖析 DDP 培訓(xùn)有累加器的工作, 我們就會發(fā)現(xiàn)有些過程的梯度同步成本( a.k.a., 全部降低梯度) 可能比其它過程高得多。 因此, 分布式的性能可以以通信成本為主, 即使模型大小很小 。 在這種情況下, 有些過程的運(yùn)行速度比拖累器的步數(shù)快, 因此它們必須等待拖累器, 并且花費(fèi)更長的時間來進(jìn)行減速 。

以下顯示 PyTorrch 剖析器在使用案例中輸出的兩個追蹤文件的截圖。 每個截圖剖析圖分立為 3 步 。

第一個截圖顯示,一個過程在第一和第二步都有非常高的削減成本,因?yàn)檫@個過程比排減速器提前到達(dá)同步階段,而且要花更多的時間等待。另一方面,在第二步,削減成本相對較低,這意味著:(1) 這一步?jīng)]有排減速器;或者(2) 這個過程是所有過程的排減速度,因此它不必等待任何其他過程。

wKgaomTwBdmAdgAmAAPI4K-X4ss357.png

第一步和第三步 都被斯特拉格勒人拖慢了

第二個截圖顯示一個正常的大小寫, 不帶斜體。 在此情況下, 所有梯度同步都相對短 。

wKgZomTwBl6AX1TnAASksi7yaWA658.png

普通無斯特拉格器的普通大小寫

PyTorch 中的等級 SGD

最近,已提議通過減少大規(guī)模分布式培訓(xùn)中的數(shù)據(jù)傳輸總量,優(yōu)化通信成本,并提供了多重趨同分析,從而優(yōu)化了通信成本(最近,SGD等級結(jié)構(gòu)已提議通過大規(guī)模分布式培訓(xùn)減少數(shù)據(jù)傳輸總量)。示例示例示例作為這一職位的主要新穎之處,在游輪上,我們可以利用SGD等級來減輕拖拉機(jī),這也可能發(fā)生在培訓(xùn)相對較小的模型上,2022年初,我們通過游輪到皮托爾奇執(zhí)行。

等級制的SGD如何運(yùn)作?

正如名稱所暗示的那樣,SGD等級將所有過程按等級劃分為不同層次的分組,并按以下規(guī)則同步進(jìn)行:

同一級別的所有組組都有相同數(shù)量的流程,這些組的流程同步同步,同步期由用戶預(yù)先確定。

較高層次的一組是,使用較大的同步期,因?yàn)橥皆絹碓桨嘿F。

當(dāng)多個重疊組應(yīng)該按照各自時期同步時,為了減少冗余同步和避免不同組間的數(shù)據(jù)競賽,只有最高層組可以同步。

下圖舉例說明了8臺機(jī)器的16個工藝中4級級的SGD,每臺有2個GPU:

1級:1級:每個過程都在當(dāng)?shù)亟?jīng)營小型批次的SGD;

第2級:每兩臺機(jī)器的4-處理小組每兩臺機(jī)器每兩步同步;

第3級:每四臺機(jī)器每組8-處理8個程序,每四步同步;

4級:全球流程組由所有16個流程組成,超過8臺機(jī)器每8個步驟同步運(yùn)行。

特別是,當(dāng)步數(shù)除以8時,只執(zhí)行3時的同步,而當(dāng)步數(shù)除以4而不是8時,只執(zhí)行2時的同步。

wKgaomTwBrmABZewAASmNjjFvO8908.png

從直覺上看,可以將SGD等級視為本地 SGD只有兩級等級 — — 每一個過程都在當(dāng)?shù)剡\(yùn)行小型批次 SGD , 然后以一定頻率同步全球。 這也可以幫助解釋一下,就像本地 SGD 一樣,等級 SGD 同步模型參數(shù)而不是梯度。 否則,當(dāng)頻率大于1時,梯度下降在數(shù)學(xué)上是不正確的。

為什么分級的SGD SGD Mipigate Stragglers 能夠?

這里的關(guān)鍵洞察力是,當(dāng)有一個隨機(jī)的減速器時,它只會直接減慢相對較少的一組進(jìn)程,而不是所有進(jìn)程。 下一次,另一個隨機(jī)的減速器很可能減慢另一組不同的小組,因此,一個等級可以幫助平滑減速效應(yīng)。

下面的例子假設(shè)每步有8個流程中有一個隨機(jī)的分隔符。 在4個步驟后, 運(yùn)行同步 SGD 的香草 DDP 會被排縮 4 次, 因?yàn)樗坎蕉歼\(yùn)行全球同步 。 相反, 等級 SGD 在前兩步后與四組流程同步, 然后在后兩步后與四組流程同步。 我們可以看到前兩步和最后兩步都有很大的重疊, 從而可以減少性能損失 。

wKgaomTwCIaAbA9jAAbJAHHekfI874.png

基本上,這一等級的SGD實(shí)例的緩解效應(yīng)實(shí)際上是在每兩個步驟的頻率和每四個步驟的頻率之間,地方的SGD相對于地方的SGD的主要優(yōu)勢是同一全球同步頻率的更好趨同效率,因?yàn)榈燃壍腟GD允許更低層次的同步。此外,等級的SGD有可能提供比地方的SGD低的同步頻率,并具有模型等同性,從而導(dǎo)致更高的培訓(xùn)業(yè)績,特別是在大規(guī)模分布式培訓(xùn)中。

使用范圍

減少斯特拉格勒排放量并不是在分布式培訓(xùn)中進(jìn)行的一項(xiàng)新研究。Galk SGD八八八流, 數(shù)據(jù)編碼, 梯度編碼,以及某些特別設(shè)計(jì)的參數(shù)-服務(wù)器結(jié)構(gòu),包括:后備工人和平平同步平行然而,據(jù)我們所知,在這項(xiàng)努力之前,我們還沒有找到一個良好的開放源碼PyTorch(開放源碼PyTorch)的緩解拖拉機(jī)的功能,可以像我們游輪培訓(xùn)系統(tǒng)的插件一樣運(yùn)作。相反,我們的實(shí)施只需要最小的修改 — — 不需要修改現(xiàn)有的代碼或調(diào)整現(xiàn)有的任何超參數(shù)。這對工業(yè)用戶來說是一個非常有吸引力的優(yōu)勢。

如下面的代碼示例所示,DDP模式的設(shè)置只需要增加幾行,培訓(xùn)循環(huán)代碼可以保持不動。 如前所述,SGD等級是本地 SGD 的擴(kuò)大形式,因此增強(qiáng)功能可以與本地 SGD 相當(dāng)相似(見PyTorch docs,2003年)。后 postlocalsg 噴霧器):

注冊一個本地的 SGD 后通信鉤,以運(yùn)行一個同步的 SGD 和推遲級別 SGD 的熱級階段。

創(chuàng)建后本地 SGD 優(yōu)化器, 將現(xiàn)有的本地優(yōu)化器和等級 SGD 配置包起來 。

發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人: 發(fā)件人:

高分?jǐn)?shù)計(jì)

等級SGD有兩個主要的超強(qiáng)參數(shù):周期_ 群群大小_ dict和暖化步驟.

周期_ 群群大小_ dict命令從同步期到處理組大小的字典繪圖,用于在等級體系中初始化不同大小的流程組,以同時同步參數(shù)。預(yù)計(jì)較大組將使用較大的同步期。

暖化步驟指定一些步驟作為在 SGD 等級前同步 SGD 運(yùn)行的熱級階段。 類似之后的本地 SGD運(yùn)算算法,通常建議一個暖化階段,以達(dá)到更高的精度。開始日期(_localsgd_iter)用于后 本地 國家當(dāng) post_ localSGD_hook 注冊時。 通常在損失急劇減少時, 熱身階段至少應(yīng)覆蓋培訓(xùn)開始階段 。

PyTorrch 實(shí)施與相關(guān)文件提出的初步設(shè)計(jì)之間的一個微妙區(qū)別是,在暖化階段之后,每個東道主內(nèi)部的流程默認(rèn)仍然每一步都運(yùn)行東道主內(nèi)部的梯度同步。 這是因?yàn)?

東道方內(nèi)部通信相對便宜,通常能夠大大加快趨同速度;

東道方內(nèi)部組(對于大多數(shù)行業(yè)用戶來說,規(guī)模為4或8)通??梢院芎玫剡x擇最經(jīng)常同步的最小流程組。 如果同步期為1, 則梯度同步比模型參數(shù)同步(a.k.a., 平均模型)要快, 因?yàn)?DDP 自動重疊梯度同步和后傳。

這種東道方內(nèi)部梯度同步可因不設(shè)置而禁用員額(_L) 本地_ 梯度_ 全部減少參數(shù)以后 本地 國家.

演示演示

現(xiàn)在,我們證明,SGD等級可以通過減輕累贅來加快分散培訓(xùn)。

實(shí)驗(yàn)設(shè)置

我們比較了SGD等級與當(dāng)?shù)豐GD等級與SGD等級與SGD等級與SGD等級的成績,并比較了SGD等級與重新發(fā)送18由于模型太小,培訓(xùn)不會因同步期間的數(shù)據(jù)傳輸成本而受阻。 為了避免從遠(yuǎn)程存儲中輸入數(shù)據(jù)時產(chǎn)生的噪音,輸入數(shù)據(jù)是從內(nèi)存中隨機(jī)模擬的。 我們把培訓(xùn)使用的GPU數(shù)量從64個增加到256個。 每個工人的批量規(guī)模為32個,而培訓(xùn)的迭代數(shù)量是1,000個。 由于我們不評估這一組實(shí)驗(yàn)的趨同效率,因此無法進(jìn)行暖化。

我們還以128個和256個GPU和64個GPU的比例1%和2%的速率模仿了擠壓器,以確保平均每個步驟至少有一個壓壓壓器。這些壓壓器隨機(jī)出現(xiàn)在不同的 CUDA 設(shè)備上。每個壓壓壓器在正常的單步訓(xùn)練時間之外再拖延1秒( 在我們的設(shè)置中為~ 55米 ) 。 這可以被視為一種實(shí)際的情景,其中1%或2%的輸入數(shù)據(jù)在培訓(xùn)期間在數(shù)據(jù)處理費(fèi)用( I/O 和/或蒼蠅的數(shù)據(jù)轉(zhuǎn)換)方面出局,而這種費(fèi)用比平均數(shù)高20x。

下面的代碼片段顯示了如何在訓(xùn)練循環(huán)中模仿一個拖拉機(jī)。 我們將其應(yīng)用到 ResNet 模型中, 它也可以很容易地應(yīng)用到其他模型中 。

損失 = 損失 fn(y_pred, y)

每臺機(jī)器有4臺NVIDIA Tesla T4GPU,每臺GPU有16GB內(nèi)存,通過32Gbit/sepernet網(wǎng)絡(luò)連接,每臺都裝有96個VCPU,360GB RAM。

結(jié)構(gòu)架構(gòu)架構(gòu) 重新發(fā)送18(450MB)
工人 工人 64、128、256
后端 nccc 單位
gpu Tesla T4, 16 GB內(nèi)存
批批批量大小 32x 32 x
Straggler 期限 1 秒 1 秒
Straggler 率 128個和256個GPU的1%,64個GPU的2%

本地SGD和等級 SGD使用多種配置。 本地SGD每2、4和8個步驟分別運(yùn)行全球同步。

我們用以下配置來管理SGD的等級結(jié)構(gòu):

64 GPUs:

8-處理組、32-處理組和全球64-處理組分別每2、4和8個步驟同步。HSGD 2-8,4-32,8-64”.

每個32個處理組和全球64個處理組分別每4個和8個步驟同步。HSGD 4-32,8-64”.

在128個GPUs上:

8-處理組、32-處理組和全球128-處理組的每個8-處理組、32-處理組和全球128-處理組分別每2、4和8個步驟同步。SGSGD 2-8,4-32,8-128”.

每個32個處理組和全球128個處理組分別每4個和8個步驟同步。HSGD 4-32,8-128”.

在256個GPUs上:

每個4-處理組、16-處理組、64-處理組和全球256-處理組分別每1、2、4和8個步驟同步一次。1,4,2,16,4,64,8,256”.

8-處理組、64-處理組和全球256-處理組每2、4和8個步驟同步。SGSGD 2-8,4-64,8-256”.

每16個處理組和全球256個處理組分別每4個和8個步驟同步。HSGD 4-16,8-256”.

實(shí)驗(yàn)結(jié)果

下圖顯示了不同通信計(jì)劃相對于同步的 SGD 基線,與效仿的施壓者相比的加速速度。

如預(yù)期的那樣,我們可以看到,SGD等級和當(dāng)?shù)豐GD能夠以較低的同步頻率加快速度。

SGD等級制度的加速實(shí)施是:2.08x-2.45x64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,64 GPUs,2.57x-2.68x在128個GPUs,和2.63x-3.25x這表明,等級分級的SGD可以大大減輕排擠因素,而這種緩解在更大的規(guī)模上可以更加有效。

當(dāng)?shù)豐GD的性能與同步期分別為2個步驟和8個步驟,這可被視為試驗(yàn)的SGD等級制度下限和上限,這是因?yàn)?SGD等級制度比全球每2個步驟同步的頻率要低,但與全球同步期每8個步驟相比,其在小集團(tuán)的低水平同步是額外的間接費(fèi)用。

總體來說,SGD等級可以比當(dāng)?shù)豐GD在通信成本和模式質(zhì)量之間提供比當(dāng)?shù)豐GD更好的權(quán)衡。 因此,如果當(dāng)?shù)豐GD在8或4等相當(dāng)大的同步期不能帶來令人滿意的趨同效率,SGD等級可以有更好的機(jī)會實(shí)現(xiàn)良好的速度和模式對等。

由于試驗(yàn)中只使用模擬數(shù)據(jù),我們沒有在這里證明模型對等,在實(shí)踐中可以通過以下兩種方式實(shí)現(xiàn):

包括等級制和暖化步驟在內(nèi)的超參數(shù);

在某些情況下,等級級的SGD可能導(dǎo)致與原有模式相比,相同數(shù)量的培訓(xùn)步驟的質(zhì)量略低(即,趨同率較低),但是,如果每步培訓(xùn)的速度加快到2X,仍然有可能以更多的步驟實(shí)現(xiàn)模式對等,但總培訓(xùn)時間更小。

wKgaomTwCUyAeh9sAALGJXLv1bQ653.png

wKgaomTwCdOAS7ATAALUTGsM3-A588.png

wKgaomTwCh2AaDlyAAHuqZqR4Aw815.png

限制

在應(yīng)用SGD等級來緩解排減因素之前,用戶應(yīng)認(rèn)識到這種方法的一些局限性:

這種方法只能緩解不同工人在不同時期遇到的非持久性阻力因素。 但是,對于長期性阻力因素,因?yàn)?a href="http://www.ttokpm.com/v/tag/1751/" target="_blank">硬件退化或特定主機(jī)的網(wǎng)絡(luò)問題可能造成這種阻力因素,這些阻力因素會每次都減緩?fù)粋€低層次分組的速度,導(dǎo)致幾乎沒有緩解阻力因素。

這種方法只能緩解低頻排減器。 例如,如果30%的工人可以隨機(jī)地在每一步中成為排減器,那么大多數(shù)低級同步器仍會因排減器而放慢速度。 結(jié)果,SGD等級的SGD可能不會顯示出相對于同步的 SGD的明顯性能優(yōu)勢。

由于SGD適用的平均模式與香草 DDP使用的向后偏差一樣,與后向不重疊,其平均模式與香草 DDP使用的向后偏差相同,因此,由于通信和后向通行證之間沒有重疊的性能損失,SGD的性能增益必須大于其性能損失。 因此,如果遞減者只慢慢了不到10%的培訓(xùn),SGD的等級可能無法加快速度。 這一限制可以解決。overlapping optimizer step和backward pass未來。

由于SGD等級比當(dāng)?shù)豐GD受到的研究要少,因此不能保證具有精細(xì)的同步同步顆粒特性的SGD等級比當(dāng)?shù)豐GD某些先進(jìn)形式的SGD(例如:慢速然而,據(jù)我們所知,這些先進(jìn)的算法還不能作為PyTorrch DDP插件(如SGD等級插件)得到本地的支持。

承認(rèn)的確認(rèn)

我們要感謝巡游隊(duì)的隊(duì)友寶天, 謝爾蓋·沃羅貝夫, 尤金·塞利文奇克、李宣賢, 丹環(huán), 伊恩·阿克曼, 陳李立, 瑪根·朱麥根, 越南 Anh To, 龍小輝, 陳世玉, 亞歷山大·西多羅夫, 伊戈?duì)枴ご捻f特科夫, 胡信胡, 馬納夫·卡塔利亞, 瑪麗娜·魯布佐娃, 和穆罕默德·法瓦茲以及Meta隊(duì)友沈力、趙延利、蘇拉伊·蘇布拉馬尼揚(yáng)、哈米德·舒詹澤里、安賈利·斯里達(dá)爾伯納德·阮支持。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92023
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    794

    瀏覽量

    13010
收藏 人收藏

    評論

    相關(guān)推薦

    流浪涌保護(hù)器與交流浪涌保護(hù)器的區(qū)別和作用

    在現(xiàn)代社會,電力作為生產(chǎn)、生活的重要能源,其穩(wěn)定供應(yīng)顯得尤為重要。然而,電力系統(tǒng)常常受到電壓浪涌的干擾,這種突發(fā)的電壓沖擊可能給設(shè)備帶來損害。為了應(yīng)對這一問題,直流浪涌保護(hù)器和交流浪涌保護(hù)器應(yīng)運(yùn)而生
    的頭像 發(fā)表于 08-08 11:11 ?1568次閱讀
    直<b class='flag-5'>流浪</b>涌保護(hù)器與交<b class='flag-5'>流浪</b>涌保護(hù)器的區(qū)別和作用

    PyTorch如何入門

    PyTorch 入門實(shí)戰(zhàn)(一)——Tensor
    發(fā)表于 06-01 09:58

    JRCS工控機(jī)SGD-640-K7-2C維修,JRCS顯示屏維修案例

    JRCS工控機(jī)SGD-640-K7-2C維修,JRCS顯示屏維修案例,維修JRCS觸摸屏進(jìn)不了界面,無顯示,亮度看不清楚,黑屏,花屏,白屏,液晶屏顯示豎條,液晶屏顯示橫條,液晶屏顯示多畫面,以及
    發(fā)表于 09-15 16:25

    視頻解碼芯片DDP3310B電子資料

    概述:DDP3310B是Micronas公司出品的一款用于CRT彩電中的視頻解碼處理芯片,其具備視頻處理、偏轉(zhuǎn)處理等功能。DDP3310B采用68引腳PLCCK封裝工藝。
    發(fā)表于 04-08 07:45

    流浪寵物疫情監(jiān)控系統(tǒng)的設(shè)計(jì)資料分享

    流浪寵物疫情監(jiān)控系統(tǒng)CSND首次記錄一:對整體項(xiàng)目的了解1.這是一個物聯(lián)網(wǎng)方向的項(xiàng)目,由于新冠疫情的影響,或者也可以用于預(yù)防其它的疫情疾病,可以在城市里的各個角落通過傳感器監(jiān)測流浪寵物的健康狀況
    發(fā)表于 01-12 07:44

    通過Cortex來非常方便的部署PyTorch模型

    PyTorch 模型所需的大部分基礎(chǔ)設(shè)施工作,這是一個將模型作為 api 部署到 AWS 上的開源工具。這篇文章并不是一個完整的 Cortex 使用指南,只是一個高層次的 Cortex 使用方法,你
    發(fā)表于 11-01 15:25

    什么是聲卡DDP電路/聲卡杜比定邏輯技術(shù)

    什么是聲卡DDP電路/聲卡杜比定邏輯技術(shù)   DDP電路:DDP(Double Detect and Protect:二重探測與保護(hù)),它可以使Space對輸入的信號不再重復(fù)處
    發(fā)表于 02-05 11:34 ?589次閱讀

    Pytorch入門教程與范例

    pytorch 是一個基于 python 的深度學(xué)習(xí)庫。pytorch 源碼庫的抽象層次少,結(jié)構(gòu)清晰,代碼量適中。相比于非常工程化的 tensorflow,pytorch 是一個更易入
    發(fā)表于 11-15 17:50 ?5240次閱讀
    <b class='flag-5'>Pytorch</b>入門教程與范例

    人臉識別助力為流浪者找到親人 應(yīng)用越發(fā)廣泛

    多虧你們的幫助,讓我找回了丟失多日的老伴,太感謝了!昨天上午,新密市公安局來集派出所民警王正贊接到一名新鄭男子打來的電話。
    發(fā)表于 03-11 10:37 ?1509次閱讀

    基于區(qū)塊鏈技術(shù)的文檔處理遷移平臺MIGRANET介紹

    由于MIGRANET已經(jīng)顛覆了整個遷移過程,它確實(shí)是有效的,并且我接受:如果上面所記錄的每一個問題都能被處理和躲避,在那個時候,旅行者和流浪者需要開始考慮MIGRANET,這是一個基于區(qū)塊鏈的平臺?;趨^(qū)塊鏈的一個好處是,客戶和個人可以可靠地完全訪問和控制屬于自己的東西。
    發(fā)表于 06-19 11:16 ?591次閱讀

    DDP442X ASIC組件及其應(yīng)用程序編程接口的詳細(xì)資料描述

    本文件旨在描述DDP442X ASIC組件及其應(yīng)用程序編程接口(API),以及德州儀器公司提供的參考設(shè)計(jì)軟件應(yīng)用程序,作為投影機(jī)實(shí)施示例。本文件為基于DDP4421和DDP4422 ASIC的投影儀
    發(fā)表于 09-04 08:00 ?28次下載
    <b class='flag-5'>DDP</b>442X ASIC組件及其應(yīng)用程序編程接口的詳細(xì)資料描述

    德州將使用3D打印技術(shù)來建造流浪者之家

    從太空探索到醫(yī)療前沿再到機(jī)器人技術(shù),3D打印技術(shù)在各個領(lǐng)域均有巨大的潛力。
    的頭像 發(fā)表于 05-11 18:01 ?2814次閱讀

    Android Police中的團(tuán)隊(duì)分享了Moto X Play上Verizon品牌的外觀

    看一下圖片,我們看到了常見的Verizon流浪者郵票以及可移動的背面。SIM卡插槽位于手機(jī)頂部,但仍提供可移動的后蓋,這讓我們感到很感興趣。
    的頭像 發(fā)表于 07-30 09:33 ?2550次閱讀

    【開源硬件】從PyTorch到RTL - 基于MLIR的高層次綜合技術(shù)

    01 演講題目 ? 開源硬件系列02期: 從PyTorch到RTL - 基于MLIR的高層次綜合技術(shù) 02 演講時間 ? 2022年11月27日 上午?10:00 03 內(nèi)容簡介 ? 為了解
    的頭像 發(fā)表于 11-24 08:15 ?1728次閱讀

    隆基再創(chuàng)硅太陽能電池效率世界新紀(jì)錄

    氣候變化悄無聲息地重塑著人類的命運(yùn),它讓許多人失去了安身之地,成為了無家可歸的流浪者
    的頭像 發(fā)表于 09-19 14:46 ?176次閱讀