0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于EM算法的九層境界的淺薄介紹,?Hinton和Jordan理解的EM算法

DPVg_AI_era ? 2017-12-15 14:37 ? 次閱讀

知乎上有一個討論:EM算法存在的意義是什么?是什么原因使得EM算法這么流行呢?EM算法是Hinton和Jordan強強發(fā)力的領(lǐng)域,本文作者縱向解析EM算法的9層境界,深入淺出,值得一讀。

Hinton, 這個深度學(xué)習(xí)的締造者( 參考攢說 Geoff Hinton), Jordan 當(dāng)世概率圖模型的集大成者(參考 “喬丹上海行”), 他們碰撞的領(lǐng)域,EM算法!這個是PCA外的,另外一個無監(jiān)督學(xué)習(xí)的經(jīng)典,是我們的主題。

他們怎么認(rèn)識的呢?Jordan的導(dǎo)師,就是著名的鏈接主義核心人物Rumelhart

(參考“易圖秒懂の連接主義誕生”)。在“人工智能深度學(xué)習(xí)人物關(guān)系[全]”里面我們介紹到,Hinton和Rumelhart是同事,都在Francis Crick的小組。

前言

為什么說EM算法是他們強強發(fā)力的領(lǐng)域呢?

這里我們討論Hinton和統(tǒng)計大神Jordan的強強發(fā)力的領(lǐng)域。當(dāng)Bayes網(wǎng)絡(luò)發(fā)展到高級階段, 概率圖模型使得計算成為問題,由此開啟了Variational Bayes領(lǐng)域。在“變の貝葉斯”里面, 我們解釋了研究Variational Bayes,有3撥人。 第一撥人, 把物理的能量搬到了機器學(xué)習(xí)(參考 “給能力以自由吧!”)。 第二撥人, 就是Hinton,他將VB和EM算法聯(lián)系了起來,奠定了現(xiàn)在我們看到的VB的基礎(chǔ)。 第三撥人,就是Jordan, 他重建了VB的框架ELBO的基礎(chǔ)。所以說EM算法擴展的VBEM算法,就是Hinton和Jordan共同發(fā)力的部分。

Hinton曾在采訪中,不無感慨的說到, 他當(dāng)時研究VB和EM算法的關(guān)系的時候, 主動去請教當(dāng)時的EM算法的大佬們, 結(jié)果那些人說Hinton是異想天開,神經(jīng)有問題。 但是最終, 他還是突破重圍,搞定了VBEM算法,打下了VB世界最閃光的那盞燈。老爺子真心不容易! 如果想切實深入到VB的世界, 我推薦Daphne Koller的神書“Probabilistic Graphical Models: Principles and Techniques”, 尤其其中的第8章:The Exponential Family 和第19章 Partially Observed Data。 這兩章幾乎是Hinton對VBEM算法研究的高度濃縮。 國內(nèi)機器學(xué)習(xí)牛人王飛躍老師, 率領(lǐng)各路弟子花了5年時間翻譯了這本神書!所以有中文版, 買了,反復(fù)閱讀8、19章,要的!

為什么無監(jiān)督深度學(xué)習(xí)突出成果都是Hinton和Jordan家的?

無監(jiān)督深度學(xué)習(xí),除了強化學(xué)習(xí),主要包括BM、自動編碼器AE和GAN領(lǐng)域。 1)這些領(lǐng)域中的DBN和DBM是Hinton搞的。2)AE中的經(jīng)典,VAE是DP Kingma和M Welling搞得。DP Kingma碩士導(dǎo)師是LeCun,LeCun的博士后導(dǎo)師是Hinton,并且Welling的博士后導(dǎo)師是Hinton。 3)而GAN是Ian Goodfellow和Yoshua Bengio的杰作, Goodfellow是Bengio的學(xué)生, 而Bengio的博士后導(dǎo)師是Jordan。 一句話, 無監(jiān)督深度學(xué)習(xí)的經(jīng)典模型幾乎全是Hinton和Jordan家的。 為什么? 因為能徹底理解EM算法到深不見底的人非Hinton和Jordan莫屬。

你現(xiàn)在明白徹底理解EM算法的重要性了吧? 下面我淺薄的縱向理解(忽略EM的各種變種的橫向)EM算法的9層境界,再回頭反思一下Hinton和Jordan等會對EM算法的理解到何種程度, 簡直嘆而觀止!

EM算法理解的九層境界
  1. EM 就是 E + M

  2. EM 是一種局部下限構(gòu)造

  3. K-Means是一種Hard EM算法

  4. 從EM 到 廣義EM

  5. 廣義EM的一個特例是VBEM

  6. 廣義EM的另一個特例是WS算法

  7. 廣義EM的再一個特例是Gibbs抽樣算法

  8. WS算法是VAE和GAN組合的簡化版

  9. KL距離的統(tǒng)一

第一層境界, EM算法就是E 期望 + M 最大化

最經(jīng)典的例子就是拋3個硬幣,跑I硬幣決定C1和C2,然后拋C1或者C2決定正反面, 然后估算3個硬幣的正反面概率值。

這個例子為什么經(jīng)典, 因為它告訴我們,當(dāng)存在隱變量I的時候, 直接的最大似然估計無法直接搞定。什么是隱變量?為什么要引入隱變量? 對隱變量的理解是理解EM算法的第一要義!Chuong B Do & Serafim Batzoglou的Tutorial論文“What is the expectation maximization algorithm?”對此有詳細(xì)的例子進行分析。

通過隱變量,我們第一次解讀了EM算法的偉大!突破了直接MLE的限制(不詳細(xì)解釋了)。

至此, 你理解了EM算法的第一層境界,看山是山。

第二層境界, EM算法就一種局部下限構(gòu)造

如果你再深入到基于隱變量的EM算法的收斂性證明, 基于log(x)函數(shù)的Jensen不等式構(gòu)造, 我們很容易證明,EM算法是在反復(fù)的構(gòu)造新的下限,然后進一步求解。

所以,先固定當(dāng)前參數(shù), 計算得到當(dāng)前隱變量分布的一個下屆函數(shù), 然后優(yōu)化這個函數(shù), 得到新的參數(shù), 然后循環(huán)繼續(xù)。

也正是這個不停的構(gòu)造下限的思想未來和VB方法聯(lián)系起來了。 如果你理解了這個, 恭喜你, 進入理解EM算法的第二層境界,看山看石。

第三層境界,K-均值方法是一種Hard EM算法

在第二層境界的基礎(chǔ)上, 你就能隨意傲游EM算法用到GMM和HMM模型中去了。 尤其是對GMM的深入理解之后, 對于有隱變量的聯(lián)合概率,如果利用高斯分布代入之后:

很容易就和均方距離建立聯(lián)系:

但是,能不能說K-均值就是高斯分布的EM算法呢?不是, 這里雖然拓展到了相同的距離公式, 但是背后邏輯還是不一樣, 不一樣在哪里呢?K-均值在討論隱變量的決定時候,用的是dirac delta 分布, 這個分布是高斯分布的一種極限。

如果你覺得這個擴展不太好理解, 那么更為簡單直觀的就是, k-均值用的hard EM算法, 而我們說的EM算法是soft EM算法。 所謂hard 就是要么是,要么不是0-1抉擇。 而Soft是0.7比例是c1,0.3比例是c2的情況。

那么充分理解了k-均值和EM算法本身的演化和差異有什么幫助呢?讓你進一步理解到隱變量是存在一種分布的。

如果你理解了這個, 恭喜你, 進入理解EM算法的第三層境界,看山看峰。

第四層境界,EM 是 廣義EM的特例

通過前3層境界, 你對EM算法的理解要跨過隱變量, 進入隱分布的境界。 如果我們把前面的EM收斂證明稍微重復(fù)一下,但是引入隱分布。

這樣我們把Jensen不等收右邊的部分定義為自由能(如果你對自由能有興趣,請參考“給能量以自由吧!”,如果沒有興趣, 你就視為一種命名)。 那么E步驟是固定參數(shù)優(yōu)化隱分布, M步驟是固定隱分布優(yōu)化參數(shù),這就是廣義EM算法了。

有了廣義EM算法之后, 我們對自由能深入挖掘, 發(fā)現(xiàn)自由能和似然度和KL距離之間的關(guān)系:

所以固定參數(shù)的情況下, 那么只能最優(yōu)化KL距離了, 那么隱分布只能取如下分布:

而這個在EM算法里面是直接給出的。 所以EM算法是廣義EM算法的天然最優(yōu)的隱分布情況。但是很多時候隱分布不是那么容易計算的!

前面的推理雖然很簡單, 但是要理解到位真心不容易, 首先要深入理解KL距離是如何被引入的?

其次要理解, 為什么傳統(tǒng)的EM算法,不存在第一個最優(yōu)化?因為在沒有限制的隱分布(天然情況下)情況下, 第一個最優(yōu)就是要求:

而這個隱分布, EM算法里面是直接給出的,而不是讓你證明得到的。

這樣, 在廣義EM算法中,你看到兩個優(yōu)化步驟,我們進入了兩個優(yōu)化步驟理解EM算法的境界了。

如果你理解了這個, 恭喜你, 進入理解EM算法的第四層境界,有水有山。

第五層境界,廣義EM的一個特例是VBEM

在隱分布沒有限制的時候, 廣義EM算法就是EM算法, 但是如果隱分布本身是有限制的呢?譬如有個先驗分布的限制, 譬如有計算的限制呢?

例如先驗分布的限制:從pLSA到LDA就是增加了參數(shù)的先驗分布!

例如計算上的限制:mean-field計算簡化的要求,分量獨立。

諸如此類限制, 都使得廣義EM里面的第一步E優(yōu)化不可能達到無限制最優(yōu), 所以KL距離無法為0。

基于有限制的理解, 再引入模型變分的思想, 根據(jù)模型m的變化, 對應(yīng)參數(shù)和隱變量都有相應(yīng)的分布:

并且滿足分布獨立性簡化計算的假設(shè):

在變分思想下, 自由能被改寫了:

這樣我們就得到了VBEM算法了:

如果你理解了這個, 恭喜你, 進入理解EM算法的第五層境界,水轉(zhuǎn)山回。

第六層境界,廣義EM的另一個特例是WS算法

Hinton老爺子搞定VBEM算法后, 并沒有停滯, 他在研究DBN和DBM的Fine-Tuning的時候, 提出了Wake-Sleep算法。 我們知道在有監(jiān)督的Fine-Tuning可以使用BP算法, 但是無監(jiān)督的Fine-Tuning,使用的是Wake-Sleep算法。

就是這個WS算法,也是廣義EM算法的一種特例。WS算法分為認(rèn)知階段和生成階段。

在前面自由能里面,我們將KL距離引入了, 這里剛好這兩個階段分別優(yōu)化了KL距離的兩種形態(tài)。 固定P優(yōu)化Q,和固定Q優(yōu)化P。

所以當(dāng)我們?nèi)〈杂赡芾斫猓?全部切換到KL距離的理解, 廣義EM算法的E步驟和M步驟就分別是E投影和M投影。 因為要求KL距離最優(yōu), 可以等價于垂直。 而這個投影, 可以衍生到數(shù)據(jù)D的流形空間, 和模型M的流形空間。

所以你認(rèn)同WS算法是一種廣義EM算法(GEM)之后, 基于KL距離再認(rèn)識GEM算法。 引入了數(shù)據(jù)流形和模型流形。引入了E投影和M投影。

不過要注意的wake識別階段對應(yīng)的是M步驟, 而sleep生成階段對應(yīng)的E步驟。 所以WS算法對應(yīng)的是廣義ME算法。

如果你理解了這個, 恭喜你, 進入理解EM算法的第六層境界,山高水深。

第七層境界,廣義EM的再一個特例是Gibbs Sampling

其實,前面基于KL距離的認(rèn)知, 嚴(yán)格放到信息理論的領(lǐng)域, 對于前面E投影和M投影都有嚴(yán)格的定義。M投影的名稱是類似的,但是具體是moment projection,但是E投影應(yīng)該叫I投影,具體是information projection。

上面這種可能不太容易體會到M投影和I投影的差異, 如果再回到最小KL距離,有一個經(jīng)典的比較。 可以體會M投影和I投影的差異。上面是I投影,只覆蓋一個峰。 下面是M投影, 覆蓋了兩個峰。

當(dāng)我們不是直接計算KL距離, 而是基于蒙特卡洛抽樣方法來估算KL距離。

有興趣對此深入的,可以閱讀論文“On Monte Carlo methods for estimating ratios of normalizing constants”

這時候, 廣義EM算法,就是Gibbs Sampling了。 所以Gibbs Sampling,本質(zhì)上就是采用了蒙特卡洛方法計算的廣義EM算法。

所以, 如果把M投影和I投影看成是一個變量上的最小距離點,那么Gibbs Sampling和廣義EM算法的收斂過程是一致的。

VAE的發(fā)明者,Hinton的博士后, Max Welling在論文“Bayesian K-Means as a “Maximization-Expectation” Algorithm”中, 對這種關(guān)系有如下很好的總結(jié)!

另外,Zoubin Ghahramani, Jordan的博士, 在“Factorial Learning and the EM Algorithm”等相關(guān)論文也反復(fù)提到他們之間的關(guān)系。

這樣, 通過廣義EM算法把Gibbs Sampling和EM, VB, K-Means和WS算法全部聯(lián)系起來了。有了Gibbs Sampling的背書, 你是不是能更好的理解, 為什么WS算法可以是ME步驟,而不是EM的步驟呢?另外,我們知道坐標(biāo)下降Coordinate Descent也可以看成一種Gibbs Sampling過程, 如果有人把Coordinate Descent和EM算法聯(lián)系起來, 你還會覺得奇怪么?

現(xiàn)在我們發(fā)現(xiàn)VB和Gibbs Sampling都可以放到廣義EM的大框架下, 只是求解過程一個采用近似逼近, 一個采用蒙特卡洛采樣。 有了EM算法和Gibbs Sampling的關(guān)系, 現(xiàn)在你理解, 為什么Hinton能夠發(fā)明CD算法了么? 細(xì)節(jié)就不展開了。

如果你理解了這個, 恭喜你, 進入理解EM算法的第七層境界,山水輪回。

第八層境界,WS算法是VAE和GAN組合的簡化版

Jordan的弟子邢波老師,他的學(xué)生胡志挺,發(fā)表了一篇文章, On Unifying Deep Generative Models,試圖通過WS算法,統(tǒng)一對VAE和GAN的理解。

對VAE的理解, 變了加了正則化的KL距離, 而對于GAN的理解變成了加Jensen–Shannon 散度。 所以, 當(dāng)我們把廣義EM算法的自由能, 在WS算法中看成KL散度, 現(xiàn)在看成擴展的KL散度。 對于正則化擴展, 有很多類似論文, “Mode Regularized Generative Adversarial Networks”, “Stabilizing Training of Generative Adversarial Networks through Regularization” 有興趣可以讀讀。

所以對于VAE,類比WS算法的Wake認(rèn)知階段,不同的是在ELBO這個VBEM目標(biāo)的基礎(chǔ)上加了KL散度作為正則化限制。 再應(yīng)用再參數(shù)化技巧實現(xiàn)了VAE。

而對應(yīng)到GAN,類比Sleep階段,正則化限制換了JSD距離, 然后目標(biāo)KL距離也隨著不同GAN的變體也可以變化。

所以,VAE和GAN都可以理解為有特殊正則化限制的Wake-Sleep步驟, 那么組合起來也并不奇怪。

這就是為什么那么多論文研究如何組合VAE/GAN到同一個框架下面去。目前對這方面的理解還在廣泛探討中。

如果你理解了這個, 恭喜你, 進入理解EM算法的第八層境界,水中有水、山外有山。

第九層境界,KL距離的統(tǒng)一

Jordan 大佬的一片論文, 開啟了KL距離的統(tǒng)一, “On surrogate loss functions and f-divergences”。 里面對于所謂的正反KL距離全部統(tǒng)一到 f 散度的框架下面。 Jordan 首先論述了對于損失函數(shù)統(tǒng)一的Margin理論的意義。

然后把這些損失函數(shù)也映射到 f 散度:

然后微軟的 Sebastian Nowozin, 把 f-散度擴展到GAN “f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization”。

然后對正反KL散度也做了一次統(tǒng)一。

對于 f-散度的理解離不開對Fenchel對偶的理解(參考“走近中神通Fenchel”)。

除了f-散度, 還有人基于bregman散度去統(tǒng)一正反KL散度的認(rèn)知。 KL散度就是香農(nóng)熵的bregman散度。

而Bregman散度本身是基于一階泰勒展開的一種偏離度的度量。

然后再基于Bregman距離去研究最小KL投影, 函數(shù)空間采用香農(nóng)熵(參考“信息熵的由來”)。

無論f-散度還是bregman散度對正反KL距離的統(tǒng)一, 之后的廣義EM算法, 都會變得空間的最優(yōu)投影的交替出現(xiàn)。 或許廣義EM算法也成了不同流形空間上的坐標(biāo)梯度下降算法而已coodinate descent。

如果你理解了這個, 恭喜你, 進入理解EM算法的第九層境界,山水合一。

小結(jié)

這里淺薄的介紹了理解EM算法的9層境界,托名Hinton和Jordan,著實是因為佩服他們倆和各自的弟子們對EM算法,甚至到無監(jiān)督深度學(xué)習(xí)的理解和巨大貢獻。想來Hinton和Jordan對此必定會有更為深刻的理解, 很好奇會到何種程度 。。。 最后依然好奇, 為啥只有他們兩家的子弟能夠不停的突破無監(jiān)督深度學(xué)習(xí)?Hinton 老仙說, 機器學(xué)習(xí)的未來在于無監(jiān)督學(xué)習(xí)!


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • JORDAN
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    8317
  • EM算法
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    7836
  • hinton
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1769

原文標(biāo)題:EM算法的九層境界:?Hinton和Jordan理解的EM算法

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    EM8620L主控芯片DVD原理圖

    EM8620L主控芯片DVD原理圖
    發(fā)表于 09-30 11:09 ?0次下載

    EM430F6137RF900參考設(shè)計指南

    電子發(fā)燒友網(wǎng)站提供《EM430F6137RF900參考設(shè)計指南.pdf》資料免費下載
    發(fā)表于 09-19 10:41 ?0次下載
    <b class='flag-5'>EM</b>430F6137RF900參考設(shè)計指南

    深度識別算法包括哪些內(nèi)容

    深度識別算法是深度學(xué)習(xí)領(lǐng)域的一個重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對輸入數(shù)據(jù)進行高層次的理解和識別。深度識別算法涵蓋了多個方面的內(nèi)容,主要包括以下幾種類型: 1. 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 概述
    的頭像 發(fā)表于 09-10 15:28 ?272次閱讀

    知用EM5020B與EM5020A放大器的對比優(yōu)勢?

    EM5020前置射頻放大器配合本公司EM5030近場探頭使用,主要對所要測試的微弱信號進行放大, 頻率范圍9kHz-3GHz;EM5020A增益約為20dB,EM5020B增益約30d
    的頭像 發(fā)表于 08-16 10:22 ?311次閱讀
    知用<b class='flag-5'>EM</b>5020B與<b class='flag-5'>EM</b>5020A放大器的對比優(yōu)勢?

    BP神經(jīng)網(wǎng)絡(luò)算法的基本流程包括

    、自然語言處理等。本文將詳細(xì)介紹BP神經(jīng)網(wǎng)絡(luò)算法的基本流程,包括網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)、前向傳播、反向傳播、權(quán)重更新和訓(xùn)練過程等。 網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)由輸入、隱藏和輸出
    的頭像 發(fā)表于 07-03 09:52 ?384次閱讀

    德力西變頻器EM6O怎么設(shè)定壓力

    德力西變頻器EM60是一款廣泛應(yīng)用于工業(yè)自動化領(lǐng)域的高性能變頻器。它具有多種功能和特點,可以滿足不同行業(yè)和應(yīng)用場景的需求。在本文中,我們將詳細(xì)介紹如何使用德力西變頻器EM60設(shè)定壓力,以實現(xiàn)精確控制
    的頭像 發(fā)表于 06-18 09:32 ?1187次閱讀

    沃爾沃EM90寶華韋健音響系統(tǒng)斬獲2024 IF設(shè)計獎

    沃爾沃EM90寶華韋健音響系統(tǒng)榮膺IF設(shè)計獎
    的頭像 發(fā)表于 04-10 11:00 ?383次閱讀
    沃爾沃<b class='flag-5'>EM</b>90寶華韋健音響系統(tǒng)斬獲2024 IF設(shè)計獎

    第二代設(shè)計語言首款轎車,領(lǐng)克07 EM-P全球首秀

    3月8日,領(lǐng)克EM-P家族新成員領(lǐng)克07 EM-P全球首秀,并計劃于5月份正式上市。作為全新都市對立美學(xué)——The Next Day設(shè)計語言的首款轎車,領(lǐng)克07 EM-P定位新能源中型轎車,將日出
    的頭像 發(fā)表于 03-12 14:16 ?548次閱讀

    EM300高性能顯示模組產(chǎn)品介紹

    EM300模組優(yōu)勢 1、該模組是在XBurst CPU—高性能和低功耗的創(chuàng)新CPU體系結(jié)構(gòu)基礎(chǔ)上開發(fā)設(shè)計一款高性能模組,內(nèi)部集成DDR及Flash,高性能的解碼能力及豐富的外設(shè)配置,充分滿足各類
    的頭像 發(fā)表于 03-08 15:34 ?395次閱讀
    <b class='flag-5'>EM</b>300高性能顯示模組產(chǎn)品<b class='flag-5'>介紹</b>

    知用CYBERTEK近場探頭EM5030E的特征及其應(yīng)用

    EM5030/EM5030LF 系列探頭組包含了 7 個專門用來測試磁場(H)探頭,它有效地屏蔽了電場干擾(E),主要用于電磁兼容整改時定位干擾源的近場探頭。EM5030 的頻率范圍
    的頭像 發(fā)表于 02-29 11:02 ?529次閱讀
    知用CYBERTEK近場探頭<b class='flag-5'>EM</b>5030E的特征及其應(yīng)用

    億道信息新三防平板EM-I10J,性能和價格成最大亮點

    億道信息近期推出了一款新三防平板電腦名為EM-I10J,這款設(shè)備上市的初衷是為了在滿足客戶作業(yè)需求的同時為其提供更合適的價格選擇,但這并不意味著EM-I10J的實力可以被小覷。
    的頭像 發(fā)表于 02-28 10:54 ?324次閱讀

    HC6800EM3電路圖(原理圖)

    HC6800EM3電路圖(原理圖)
    發(fā)表于 01-25 09:39 ?13次下載

    維修D(zhuǎn)CS20安規(guī)測試儀150EM9C不開機案例

    近日山東某企業(yè)送修D(zhuǎn)CS20安規(guī)測試儀150EM9C,客戶反饋不開機,對儀器進行初步檢測,確定與客戶描述故障基本一致。本期將為大家分享本維修案例。 下面就是DCS20-150EM9C維修情況
    的頭像 發(fā)表于 01-11 16:22 ?383次閱讀
    維修D(zhuǎn)CS20安規(guī)測試儀150<b class='flag-5'>EM</b>9C不開機案例

    什么是EM電遷移?它帶來的影響有哪些?

    電遷移簡寫為EM,electromigration,這是一種很基本的電學(xué)現(xiàn)象,可能在電路課上講的少,反而物理課上會聽過。
    的頭像 發(fā)表于 12-06 15:29 ?1776次閱讀

    幾種優(yōu)化EM的有效措施

    由于電遷移效應(yīng),金屬線可能會斷裂并短路。EM會增加導(dǎo)線電阻,這會導(dǎo)致電壓下降,從而導(dǎo)致設(shè)備降速。由于短路或開路,它還可能導(dǎo)致電路永久性故障。
    的頭像 發(fā)表于 11-30 14:27 ?1464次閱讀
    幾種優(yōu)化<b class='flag-5'>EM</b>的有效措施