0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

dropout帶來(lái)的模型的變化

電子工程師 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-23 09:34 ? 次閱讀

開(kāi)篇明義,dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),對(duì)于隨機(jī)梯度下降來(lái)說(shuō),由于是隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。

dropout是CNN中防止過(guò)擬合提高效果的一個(gè)大殺器,但對(duì)于其為何有效,卻眾說(shuō)紛紜。在下讀到兩篇代表性的論文,代表兩種不同的觀點(diǎn),特此分享給大家。

▌組合派

參考文獻(xiàn)中第一篇中的觀點(diǎn),Hinton老大爺提出來(lái)的,關(guān)于Hinton在深度學(xué)習(xí)界的地位我就不再贅述了,光是這地位,估計(jì)這一派的觀點(diǎn)就是“武當(dāng)少林”了。注意,派名是我自己起的,各位勿笑。

▌?dòng)^點(diǎn)

該論文從神經(jīng)網(wǎng)絡(luò)的難題出發(fā),一步一步引出dropout為何有效的解釋。大規(guī)模的神經(jīng)網(wǎng)絡(luò)有兩個(gè)缺點(diǎn):

費(fèi)時(shí)

容易過(guò)擬合

這兩個(gè)缺點(diǎn)真是抱在深度學(xué)習(xí)大腿上的兩個(gè)大包袱,一左一右,相得益彰,額不,臭氣相投。過(guò)擬合是很多機(jī)器學(xué)習(xí)的通病,過(guò)擬合了,得到的模型基本就廢了。而為了解決過(guò)擬合問(wèn)題,一般會(huì)采用ensemble方法,即訓(xùn)練多個(gè)模型做組合,此時(shí),費(fèi)時(shí)就成為一個(gè)大問(wèn)題,不僅訓(xùn)練起來(lái)費(fèi)時(shí),測(cè)試起來(lái)多個(gè)模型也很費(fèi)時(shí)??傊?,幾乎形成了一個(gè)死鎖。

Dropout的出現(xiàn)很好的可以解決這個(gè)問(wèn)題,每次做完dropout,相當(dāng)于從原始的網(wǎng)絡(luò)中找到一個(gè)更瘦的網(wǎng)絡(luò),如下圖所示:

因而,對(duì)于一個(gè)有N個(gè)節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò),有了dropout后,就可以看做是2n個(gè)模型的集合了,但此時(shí)要訓(xùn)練的參數(shù)數(shù)目卻是不變的,這就解脫了費(fèi)時(shí)的問(wèn)題。

▌動(dòng)機(jī)論

雖然直觀上看dropout是ensemble在分類性能上的一個(gè)近似,然而實(shí)際中,dropout畢竟還是在一個(gè)神經(jīng)網(wǎng)絡(luò)上進(jìn)行的,只訓(xùn)練出了一套模型參數(shù)。那么他到底是因何而有效呢?這就要從動(dòng)機(jī)上進(jìn)行分析了。論文中作者對(duì)dropout的動(dòng)機(jī)做了一個(gè)十分精彩的類比:

在自然界中,在中大型動(dòng)物中,一般是有性繁殖,有性繁殖是指后代的基因從父母兩方各繼承一半。但是從直觀上看,似乎無(wú)性繁殖更加合理,因?yàn)闊o(wú)性繁殖可以保留大段大段的優(yōu)秀基因。而有性繁殖則將基因隨機(jī)拆了又拆,破壞了大段基因的聯(lián)合適應(yīng)性。

但是自然選擇中畢竟沒(méi)有選擇無(wú)性繁殖,而選擇了有性繁殖,須知物競(jìng)天擇,適者生存。我們先做一個(gè)假設(shè),那就是基因的力量在于混合的能力而非單個(gè)基因的能力。不管是有性繁殖還是無(wú)性繁殖都得遵循這個(gè)假設(shè)。為了證明有性繁殖的強(qiáng)大,我們先看一個(gè)概率學(xué)小知識(shí)。

比如要搞一次恐怖襲擊,兩種方式:

集中50人,讓這50個(gè)人密切精準(zhǔn)分工,搞一次大爆破。

將50人分成10組,每組5人,分頭行事,去隨便什么地方搞點(diǎn)動(dòng)作,成功一次就算。

哪一個(gè)成功的概率比較大? 顯然是后者。因?yàn)閷⒁粋€(gè)大團(tuán)隊(duì)作戰(zhàn)變成了游擊戰(zhàn)。

那么,類比過(guò)來(lái),有性繁殖的方式不僅僅可以將優(yōu)秀的基因傳下來(lái),還可以降低基因之間的聯(lián)合適應(yīng)性,使得復(fù)雜的大段大段基因聯(lián)合適應(yīng)性變成比較小的一個(gè)一個(gè)小段基因的聯(lián)合適應(yīng)性。

dropout也能達(dá)到同樣的效果,它強(qiáng)迫一個(gè)神經(jīng)單元,和隨機(jī)挑選出來(lái)的其他神經(jīng)單元共同工作,達(dá)到好的效果。消除減弱了神經(jīng)元節(jié)點(diǎn)間的聯(lián)合適應(yīng)性,增強(qiáng)了泛化能力。

個(gè)人補(bǔ)充一點(diǎn):那就是植物和微生物大多采用無(wú)性繁殖,因?yàn)樗麄兊纳姝h(huán)境的變化很小,因而不需要太強(qiáng)的適應(yīng)新環(huán)境的能力,所以保留大段大段優(yōu)秀的基因適應(yīng)當(dāng)前環(huán)境就足夠了。而高等動(dòng)物卻不一樣,要準(zhǔn)備隨時(shí)適應(yīng)新的環(huán)境,因而將基因之間的聯(lián)合適應(yīng)性變成一個(gè)一個(gè)小的,更能提高生存的概率。

▌dropout帶來(lái)的模型的變化

而為了達(dá)到ensemble的特性,有了dropout后,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和預(yù)測(cè)就會(huì)發(fā)生一些變化。

訓(xùn)練層面

無(wú)可避免的,訓(xùn)練網(wǎng)絡(luò)的每個(gè)單元要添加一道概率流程。

對(duì)應(yīng)的公式變化如下如下:

沒(méi)有dropout的神經(jīng)網(wǎng)絡(luò)

dropout的神經(jīng)網(wǎng)絡(luò)

測(cè)試層面

預(yù)測(cè)的時(shí)候,每一個(gè)單元的參數(shù)要預(yù)乘以p。

▌?wù)撐闹械钠渌夹g(shù)點(diǎn)

防止過(guò)擬合的方法:

提前終止(當(dāng)驗(yàn)證集上的效果變差的時(shí)候)

L1和L2正則化加權(quán)

soft weight sharing

dropout

dropout率的選擇

經(jīng)過(guò)交叉驗(yàn)證,隱含節(jié)點(diǎn)dropout率等于0.5的時(shí)候效果最好,原因是0.5的時(shí)候dropout隨機(jī)生成的網(wǎng)絡(luò)結(jié)構(gòu)最多。

dropout也可以被用作一種添加噪聲的方法,直接對(duì)input進(jìn)行操作。輸入層設(shè)為更接近1的數(shù)。使得輸入變化不會(huì)太大(0.8)

訓(xùn)練過(guò)程

對(duì)參數(shù)w的訓(xùn)練進(jìn)行球形限制(max-normalization),對(duì)dropout的訓(xùn)練非常有用。

球形半徑c是一個(gè)需要調(diào)整的參數(shù)??梢允褂抿?yàn)證集進(jìn)行參數(shù)調(diào)優(yōu)

dropout自己雖然也很牛,但是dropout、max-normalization、large decaying learning rates and high momentum組合起來(lái)效果更好,比如max-norm regularization就可以防止大的learning rate導(dǎo)致的參數(shù)blow up。

使用pretraining方法也可以幫助dropout訓(xùn)練參數(shù),在使用dropout時(shí),要將所有參數(shù)都乘以1/p。

部分實(shí)驗(yàn)結(jié)論

該論文的實(shí)驗(yàn)部分很豐富,有大量的評(píng)測(cè)數(shù)據(jù)。

maxout 神經(jīng)網(wǎng)絡(luò)中得另一種方法,Cifar-10上超越dropout

文本分類上,dropout效果提升有限,分析原因可能是Reuters-RCV1數(shù)據(jù)量足夠大,過(guò)擬合并不是模型的主要問(wèn)題

dropout與其他standerd regularizers的對(duì)比

L2 weight decay

lasso

KL-sparsity

max-norm regularization

dropout

特征學(xué)習(xí)

標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò),節(jié)點(diǎn)之間的相關(guān)性使得他們可以合作去fix其他節(jié)點(diǎn)中得噪聲,但這些合作并不能在unseen data上泛化,于是,過(guò)擬合,dropout破壞了這種相關(guān)性。在autoencoder上,有dropout的算法更能學(xué)習(xí)有意義的特征(不過(guò)只能從直觀上,不能量化)。

產(chǎn)生的向量具有稀疏性。

保持隱含節(jié)點(diǎn)數(shù)目不變,dropout率變化;保持激活的隱節(jié)點(diǎn)數(shù)目不變,隱節(jié)點(diǎn)數(shù)目變化。

數(shù)據(jù)量小的時(shí)候,dropout效果不好,數(shù)據(jù)量大了,dropout效果好。

模型均值預(yù)測(cè)

使用weight-scaling來(lái)做預(yù)測(cè)的均值化

使用mente-carlo方法來(lái)做預(yù)測(cè)。即對(duì)每個(gè)樣本根據(jù)dropout率先sample出來(lái)k個(gè)net,然后做預(yù)測(cè),k越大,效果越好。

Multiplicative Gaussian Noise

使用高斯分布的dropout而不是伯努利模型dropout

dropout的缺點(diǎn)就在于訓(xùn)練時(shí)間是沒(méi)有dropout網(wǎng)絡(luò)的2-3倍。

進(jìn)一步需要了解的知識(shí)點(diǎn)

dropout RBM

Marginalizing Dropout

具體來(lái)說(shuō)就是將隨機(jī)化的dropout變?yōu)榇_定性的,比如對(duì)于Logistic回歸,其dropout相當(dāng)于加了一個(gè)正則化項(xiàng)。

Bayesian neural network對(duì)稀疏數(shù)據(jù)特別有用,比如medical diagnosis, genetics, drug discovery and other computational biology applications

▌噪聲派

參考文獻(xiàn)中第二篇論文中得觀點(diǎn),也很強(qiáng)有力。

觀點(diǎn)

觀點(diǎn)十分明確,就是對(duì)于每一個(gè)dropout后的網(wǎng)絡(luò),進(jìn)行訓(xùn)練時(shí),相當(dāng)于做了Data Augmentation,因?yàn)?,總可以找到一個(gè)樣本,使得在原始的網(wǎng)絡(luò)上也能達(dá)到dropout單元后的效果。 比如,對(duì)于某一層,dropout一些單元后,形成的結(jié)果是(1.5,0,2.5,0,1,2,0),其中0是被drop的單元,那么總能找到一個(gè)樣本,使得結(jié)果也是如此。這樣,每一次dropout其實(shí)都相當(dāng)于增加了樣本。

稀疏性

知識(shí)點(diǎn)A

首先,先了解一個(gè)知識(shí)點(diǎn):

When the data points belonging to a particular class are distributed along a linear manifold, or sub-space, of the input space, it is enough to learn a single set of features which can span the entire manifold. But when the data is distributed along a highly non-linear and discontinuous manifold, the best way to represent such a distribution is to learn features which can explicitly represent small local regions of the input space, effectively “tiling” the space to define non-linear decision boundaries.

大致含義就是:

在線性空間中,學(xué)習(xí)一個(gè)整個(gè)空間的特征集合是足夠的,但是當(dāng)數(shù)據(jù)分布在非線性不連續(xù)的空間中得時(shí)候,則學(xué)習(xí)局部空間的特征集合會(huì)比較好。

知識(shí)點(diǎn)B

假設(shè)有一堆數(shù)據(jù),這些數(shù)據(jù)由M個(gè)不同的非連續(xù)性簇表示,給定K個(gè)數(shù)據(jù)。那么一個(gè)有效的特征表示是將輸入的每個(gè)簇映射為特征以后,簇之間的重疊度最低。使用A來(lái)表示每個(gè)簇的特征表示中激活的維度集合。重疊度是指兩個(gè)不同的簇的Ai和Aj之間的Jaccard相似度最小,那么:

當(dāng)K足夠大時(shí),即便A也很大,也可以學(xué)習(xí)到最小的重疊度

當(dāng)K小M大時(shí),學(xué)習(xí)到最小的重疊度的方法就是減小A的大小,也就是稀疏性。

上述的解釋可能是有點(diǎn)太專業(yè)化,比較拗口。主旨意思是這樣,我們要把不同的類別區(qū)分出來(lái),就要是學(xué)習(xí)到的特征區(qū)分度比較大,在數(shù)據(jù)量足夠的情況下不會(huì)發(fā)生過(guò)擬合的行為,不用擔(dān)心。但當(dāng)數(shù)據(jù)量小的時(shí)候,可以通過(guò)稀疏性,來(lái)增加特征的區(qū)分度。

因而有意思的假設(shè)來(lái)了,使用了dropout后,相當(dāng)于得到更多的局部簇,同等的數(shù)據(jù)下,簇變多了,因而為了使區(qū)分性變大,就使得稀疏性變大。

為了驗(yàn)證這個(gè)數(shù)據(jù),論文還做了一個(gè)實(shí)驗(yàn),如下圖:

該實(shí)驗(yàn)使用了一個(gè)模擬數(shù)據(jù),即在一個(gè)圓上,有15000個(gè)點(diǎn),將這個(gè)圓分為若干個(gè)弧,在一個(gè)弧上的屬于同一個(gè)類,一共10個(gè)類,即不同的弧也可能屬于同一個(gè)類。改變弧的大小,就可以使屬于同一類的弧變多。

實(shí)驗(yàn)結(jié)論就是當(dāng)弧長(zhǎng)變大時(shí),簇?cái)?shù)目變少,稀疏度變低。與假設(shè)相符合。

個(gè)人觀點(diǎn):該假設(shè)不僅僅解釋了dropout何以導(dǎo)致稀疏性,還解釋了dropout因?yàn)槭咕植看氐母语@露出來(lái),而根據(jù)知識(shí)點(diǎn)A可得,使局部簇顯露出來(lái)是dropout能防止過(guò)擬合的原因,而稀疏性只是其外在表現(xiàn)。

論文中的其他技術(shù)知識(shí)點(diǎn)

將dropout映射回得樣本訓(xùn)練一個(gè)完整的網(wǎng)絡(luò),可以達(dá)到dropout的效果。

dropout由固定值變?yōu)橐粋€(gè)區(qū)間,可以提高效果

將dropout后的表示映射回輸入空間時(shí),并不能找到一個(gè)樣本x*使得所有層都能滿足dropout的結(jié)果,但可以為每一層都找到一個(gè)樣本,這樣,對(duì)于每一個(gè)dropout,都可以找到一組樣本可以模擬結(jié)果。

dropout對(duì)應(yīng)的還有一個(gè)dropConnect,公式如下:

dropout

ropConnect

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100002
  • Dropout
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    10028

原文標(biāo)題:詳解 | Dropout為何能防止過(guò)擬合?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Dropout如何成為SDR的特殊情況

    如之前所說(shuō),Dropout需要將每層的隱藏單元在Bernoulli過(guò)程中刪除。如果我們?cè)谕瑯拥木W(wǎng)絡(luò)中,將Dropout和SDR進(jìn)行對(duì)比,可以發(fā)現(xiàn)二者的不同在于隨機(jī)處理是否影響了權(quán)重或隱藏單元。圖2我們描述了Dropout在隱藏單
    的頭像 發(fā)表于 08-15 08:32 ?3682次閱讀
    <b class='flag-5'>Dropout</b>如何成為SDR的特殊情況

    關(guān)于Dropout、BN及數(shù)據(jù)預(yù)處理方案

    Dropout 可以看作是 Bagging 的極限形式,每個(gè)模型都在當(dāng)一種情況中訓(xùn)練,同時(shí)模型的每個(gè)參數(shù)都經(jīng)過(guò)與其他模型共享參數(shù),從而高度正則化。
    的頭像 發(fā)表于 05-31 17:37 ?4248次閱讀
    關(guān)于<b class='flag-5'>Dropout</b>、BN及數(shù)據(jù)預(yù)處理方案

    手勢(shì)帶來(lái)什么變化

    ,可憐的 Yorick!我認(rèn)識(shí) Horatio …”一個(gè)場(chǎng)景涉及動(dòng)作,另一個(gè)則涉及手勢(shì)(圖 1)。本文探討了這兩者的差異,及這一差異給電機(jī)控制架構(gòu)帶來(lái)的巨大變化。圖 1.一些物體難以抓取。 動(dòng)作與手勢(shì)
    發(fā)表于 10-18 10:54

    TF之CNN:利用sklearn使用dropout解決學(xué)習(xí)中overfitting的問(wèn)題+Tensorboard顯示變化曲線

    TF之CNN:利用sklearn(自帶手寫(xiě)圖片識(shí)別數(shù)據(jù)集)使用dropout解決學(xué)習(xí)中overfitting的問(wèn)題+Tensorboard顯示變化曲線
    發(fā)表于 12-24 11:36

    請(qǐng)問(wèn)LM337IMP的Dropout Voltage是多少?

    請(qǐng)問(wèn)LM337IMP的Dropout Voltage是多少? 應(yīng)該一般是有這個(gè)參數(shù)的,跟輸出電流相關(guān),有個(gè)最小最大管壓降什么的,但是datasheet里面沒(méi)有。這邊用-3.3V輸入并不能輸出-3V,用-5V輸入才能輸出-3V
    發(fā)表于 07-12 08:10

    什么是模型呢?模型給我們帶來(lái)了什么?

    什么是模型呢?什么是關(guān)系?怎樣確定一個(gè)模型?模型給我們帶來(lái)了什么?
    發(fā)表于 07-02 07:13

    模型量化會(huì)帶來(lái)哪些好處?

    量化算法具有什么特點(diǎn)?模型量化會(huì)帶來(lái)哪些好處?
    發(fā)表于 09-28 06:32

    dropout正則化技術(shù)介紹

    dropout技術(shù)是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型的一種簡(jiǎn)單而有效的正則化方式。 本文將向你介紹dropout正則化技術(shù),并且教你如何在Keras中用Python將其應(yīng)用于你的模型。 讀完本文
    發(fā)表于 10-10 10:38 ?2次下載

    理解神經(jīng)網(wǎng)絡(luò)中的Dropout

    。 過(guò)擬合是深度神經(jīng)網(wǎng)(DNN)中的一個(gè)常見(jiàn)問(wèn)題:模型只學(xué)會(huì)在訓(xùn)練集上分類,這些年提出的許多過(guò)擬合問(wèn)題的解決方案,其中dropout具有簡(jiǎn)單性而且效果也非常良好。
    發(fā)表于 11-16 01:11 ?3718次閱讀
    理解神經(jīng)網(wǎng)絡(luò)中的<b class='flag-5'>Dropout</b>

    基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    自動(dòng)編碼機(jī)算法中;同時(shí),根據(jù)傳統(tǒng)dropout算法容易使部分節(jié)點(diǎn)長(zhǎng)期處于熄火狀態(tài)的缺陷,提出了一種動(dòng)態(tài)dropout改進(jìn)算法,使用動(dòng)態(tài)函數(shù)將傳統(tǒng)靜態(tài)熄火率修改為隨著迭代次數(shù)逐漸減小的動(dòng)態(tài)熄火率;最后,利用動(dòng)態(tài)dropout算法改
    發(fā)表于 12-26 14:37 ?0次下載
    基于動(dòng)態(tài)<b class='flag-5'>dropout</b>的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    一種針對(duì)街景變化檢測(cè)的神經(jīng)網(wǎng)絡(luò)模型

    、視角誤差等諸多干擾因素的影響,這給傳統(tǒng)的變仳檢測(cè)方法帶來(lái)挑戰(zhàn)。針對(duì)該問(wèn)題,提出了一種新的神經(jīng)網(wǎng)絡(luò)模型( Multiple Difference FeaturesNetwork,ⅳ Dfnet)。該模型首先使用孿生網(wǎng)絡(luò)提取成對(duì)輸
    發(fā)表于 04-14 11:02 ?4次下載
    一種針對(duì)街景<b class='flag-5'>變化</b>檢測(cè)的神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>模型</b>

    基于EBPNN模型的遙感圖像變化檢測(cè)

    基于EBPNN模型的遙感圖像變化檢測(cè)
    發(fā)表于 06-22 14:48 ?24次下載

    改進(jìn)Hinton的Dropout:可以用來(lái)減輕欠擬合了

    他們首先通過(guò)對(duì)梯度范數(shù)的有趣觀察來(lái)研究 dropout 的訓(xùn)練動(dòng)態(tài),然后得出了一個(gè)關(guān)鍵的實(shí)證發(fā)現(xiàn):在訓(xùn)練初始階段,dropout 降低小批量的梯度方差,并允許模型在更一致的方向上更新。這些方向也更與整個(gè)數(shù)據(jù)集的梯度方向保持一致,
    的頭像 發(fā)表于 03-13 10:15 ?346次閱讀

    AI大模型,將為智慧城市帶來(lái)哪些新變化?

    近日,在第十六屆(2023)中國(guó)國(guó)際社會(huì)公共安全產(chǎn)品博覽會(huì)上,商湯科技分享了AI大模型在智慧城市中的應(yīng)用——不僅為高效解決交通、公共安全等多元化城市管理難題帶來(lái)全新路徑,還將有效降低應(yīng)用門(mén)檻,為智慧城市發(fā)展構(gòu)建新一代AI基礎(chǔ)設(shè)施。
    的頭像 發(fā)表于 06-12 11:13 ?737次閱讀

    訓(xùn)練大語(yǔ)言模型帶來(lái)的硬件挑戰(zhàn)

    生成式AI和大語(yǔ)言模型(LLM)正在以難以置信的方式吸引全世界的目光,本文簡(jiǎn)要介紹了大語(yǔ)言模型,訓(xùn)練這些模型帶來(lái)的硬件挑戰(zhàn),以及GPU和網(wǎng)絡(luò)行業(yè)如何針對(duì)訓(xùn)練的工作負(fù)載不斷優(yōu)化硬件。
    的頭像 發(fā)表于 09-01 17:14 ?1388次閱讀
    訓(xùn)練大語(yǔ)言<b class='flag-5'>模型</b><b class='flag-5'>帶來(lái)</b>的硬件挑戰(zhàn)