0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

汽車玩家 ? 來源:達(dá)爾文文 ? 作者:達(dá)爾文文 ? 2020-04-21 17:25 ? 次閱讀

開宗明義,三句話認(rèn)識(shí)深度學(xué)習(xí)。

深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)

深度學(xué)習(xí)首先是一種機(jī)器學(xué)習(xí)。深度學(xué)習(xí)的基礎(chǔ),叫做神經(jīng)網(wǎng)絡(luò),這本身就是一種機(jī)器學(xué)習(xí)算法。近年來,隨著深度學(xué)習(xí)的火熱和深入人心,人們漸漸將這一概念獨(dú)立出來,由此有了深度學(xué)習(xí)和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)分。

如今神經(jīng)網(wǎng)絡(luò)快速發(fā)展,傳統(tǒng)的機(jī)器學(xué)習(xí)何去何從?

其實(shí),都只是算法,一種解決問題的辦法,而已。

關(guān)于算法,關(guān)于機(jī)器學(xué)習(xí),我們引用卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)Tom Michael Mitchell教授在其1997年出版的書籍Machine Learning中的定義, —— “如果一個(gè)程序可以在任務(wù)T上,隨著經(jīng)驗(yàn)E的增加,效果P也可以隨之增加,則稱這個(gè)程序可以從經(jīng)驗(yàn)中學(xué)習(xí)”[1]

怎么理解這句話呢?以推薦系統(tǒng)為例,我們使用某一類機(jī)器學(xué)習(xí)算法(“一個(gè)程序”),根據(jù)用戶的過往記錄做推薦(“任務(wù)T”),那么隨著用戶的過往記錄不斷積累(“經(jīng)驗(yàn)E”),能夠做的推薦就更準(zhǔn)確(“效果P”)。

簡(jiǎn)而言之,機(jī)器的“學(xué)習(xí)”,是通過以往的經(jīng)驗(yàn),即數(shù)據(jù),學(xué)習(xí)數(shù)據(jù)內(nèi)部的邏輯,并將學(xué)到的邏輯應(yīng)用在新數(shù)據(jù)上,進(jìn)行預(yù)測(cè)。

深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí),要真的追究起來,人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí),三者大概是下面這個(gè)關(guān)系。

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)三者的關(guān)系

深度學(xué)習(xí)是一個(gè)數(shù)學(xué)問題

機(jī)器學(xué)習(xí)和數(shù)學(xué),是深度學(xué)習(xí)的一體兩面。

機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的方法論,數(shù)學(xué)是其背后的理論支撐。

其實(shí)每一種算法,究其根本,都是一種數(shù)學(xué)表達(dá)。無論是機(jī)器學(xué)習(xí),還是深度學(xué)習(xí),都是試圖找到一個(gè)函數(shù),這個(gè)函數(shù)可以簡(jiǎn)單,可以復(fù)雜,函數(shù)的表達(dá)并不重要,只是一個(gè)工具,重要的是這個(gè)函數(shù)能夠盡可能準(zhǔn)確的擬合出輸入數(shù)據(jù)和輸出結(jié)果間的關(guān)系。就像我們?cè)诟鱾€(gè)任務(wù)中做的那樣,比如語音識(shí)別、圖像識(shí)別、下圍棋,人機(jī)問答系統(tǒng):

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

機(jī)器學(xué)習(xí)在找輸入和輸出之間的關(guān)系

這就是機(jī)器學(xué)習(xí)要做到的事,找到一個(gè)數(shù)學(xué)表達(dá),即上述例子中的函數(shù)f。

而深度學(xué)習(xí)的魅力在于,它的數(shù)學(xué)表達(dá)特別的強(qiáng)!

深度學(xué)習(xí)的強(qiáng)大是有數(shù)學(xué)原理支撐的,這個(gè)原理叫做“萬能近似定理”(Universal approximation theorem)。這個(gè)定理的道理很簡(jiǎn)單 —— 神經(jīng)網(wǎng)絡(luò)可以擬合任何函數(shù),不管這個(gè)函數(shù)的表達(dá)是多么的復(fù)雜。

因?yàn)檫@個(gè)定理,深度學(xué)習(xí)在擬合函數(shù)這一方面的能力十分強(qiáng)大、暴力和神秘。

但是,哪有免費(fèi)的午餐,深度學(xué)習(xí)的強(qiáng)大也帶來了對(duì)應(yīng)的問題 —— 黑箱化

深度學(xué)習(xí)是一個(gè)黑箱

黑箱的意思是,深度學(xué)習(xí)的中間過程不可知,深度學(xué)習(xí)產(chǎn)生的結(jié)果不可控。

一方面,我們比較難知道網(wǎng)絡(luò)具體在做些什么;另一方面,我們很難解釋神經(jīng)網(wǎng)絡(luò)在解決問題的時(shí)候,為什么要這么做,為什么有效果。

在傳統(tǒng)的機(jī)器學(xué)習(xí)中,算法的結(jié)構(gòu)大多充滿了邏輯,這種結(jié)構(gòu)可以被人分析,最終抽象為某種流程圖或者一個(gè)代數(shù)上的公式,最典型的比如決策樹,具有非常高的可解釋性。

三句話讓你認(rèn)識(shí)深度學(xué)習(xí)

一個(gè)決策樹的例子

到了深度學(xué)習(xí),這樣子的直觀就不見了。簡(jiǎn)單來說,深度學(xué)習(xí)的工作原理,是通過一層層神經(jīng)網(wǎng)絡(luò),使得輸入的信息在經(jīng)過每一層時(shí),都做一個(gè)數(shù)學(xué)擬合,這樣每一層都提供了一個(gè)函數(shù)。因?yàn)樯疃葘W(xué)習(xí)有好多層,通過這每一層的函數(shù)的疊加,深度學(xué)習(xí)網(wǎng)絡(luò)的輸出就無限逼近目標(biāo)輸出了。這樣一種“萬能近似”,很多時(shí)候是輸入和輸出在數(shù)值上的一種耦合,而不是真的找到了一種代數(shù)上的表達(dá)式。當(dāng)我們?cè)谡f”擬合“、”函數(shù)“這一類詞的時(shí)候,你或許認(rèn)為我們會(huì)像寫公式一樣把輸入和輸出之間的關(guān)系列在黑板上。但事實(shí)并不是這樣,深度學(xué)習(xí)擬合出來的函數(shù),一般人還真寫不出來……

所以,很多時(shí)候,你的深度學(xué)習(xí)網(wǎng)絡(luò)能很好的完成你的任務(wù),可是你并不知道網(wǎng)絡(luò)學(xué)習(xí)到了什么,也不知道網(wǎng)絡(luò)為什么做出了特定的選擇。知其然而不知其所以然,這可以看作是深度學(xué)習(xí)的常態(tài),也是深度學(xué)習(xí)工作中的一大挑戰(zhàn)。

盡管如此,深度學(xué)習(xí)還是好用的……

誰用誰知道!

所以 ——

擁抱不確定性,愛上深度學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當(dāng)“導(dǎo)演”

    幾乎不需要任何門檻,用戶只需要輸入一句話,就可以生成想要的各種風(fēng)格的視頻,并通過簡(jiǎn)單的描述,更改視頻中的形象和風(fēng)格。 ? Pika labs官方宣傳視頻效果圖相當(dāng)驚艷 ? 一句話生成視頻,顛覆傳統(tǒng)視頻制作 ? Pika成立于今年4月,創(chuàng)始人郭文景和聯(lián)合創(chuàng)始人兼CTO Ch
    的頭像 發(fā)表于 12-01 01:08 ?3668次閱讀
    文生視頻Pika 1.0爆火!一<b class='flag-5'>句話</b>生成視頻,普通人也能當(dāng)“導(dǎo)演”

    開關(guān)電源布線 一句話:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    開關(guān)電源在布線上最大的特點(diǎn)是拓?fù)湟鸬母哳l(高壓)強(qiáng)電流與控制級(jí)的弱電信號(hào)交織在一起,首先要保證強(qiáng)電流的存在不干擾電源內(nèi)部的控制信號(hào),其次要盡量減少對(duì)外部的干擾(EMC)。一句話:要運(yùn)行最穩(wěn)定、波形
    的頭像 發(fā)表于 10-28 14:06 ?1119次閱讀
    開關(guān)電源布線 一<b class='flag-5'>句話</b>:要運(yùn)行最穩(wěn)定、波形最漂亮、電磁兼容性最好

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?119次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?285次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?304次閱讀

    求助,關(guān)于AIC3254寄存器的問題求解

    不是說AIC3254的寄存器每頁都只有128個(gè)寄存器的嗎,那么寄存器的最大地址應(yīng)該是127啊,下圖是PPS生成的base_main_Rate44_pps_driver.h文件,里面對(duì)寄存器的配置怎么出現(xiàn)了地址為254和 255的配置啊,這三句話的作用是什么?在哪里能看到相關(guān)的資料?求大神解答
    發(fā)表于 10-23 06:48

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢(shì)就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會(huì)怎樣發(fā)展,能走多遠(yuǎn),怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    認(rèn)識(shí)貼片電阻嗎,對(duì)他了解多少?

    認(rèn)識(shí)貼片電阻嗎,對(duì)他了解多少?
    的頭像 發(fā)表于 08-27 15:49 ?333次閱讀
    <b class='flag-5'>你</b><b class='flag-5'>認(rèn)識(shí)</b>貼片電阻嗎,<b class='flag-5'>你</b>對(duì)他了解多少?

    簡(jiǎn)單認(rèn)識(shí)深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機(jī)器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),特別是在深度學(xué)習(xí)領(lǐng)域,已經(jīng)取得了顯著的成就。它們通過模擬人類大腦的處理方式,利用多
    的頭像 發(fā)表于 07-10 18:23 ?894次閱讀

    句話理解線程和進(jìn)程

    今天給大家分享一下線程與進(jìn)程,主要包含以下幾部分內(nèi)容:一句話說明線程和進(jìn)程操作系統(tǒng)為什么需要進(jìn)程為什么要引入線程一圖說明線程和進(jìn)程的關(guān)系一句話理解進(jìn)程和線程進(jìn)程:是指?個(gè)內(nèi)存中運(yùn)?
    的頭像 發(fā)表于 06-04 08:04 ?1023次閱讀
    一<b class='flag-5'>句話</b><b class='flag-5'>讓</b><b class='flag-5'>你</b>理解線程和進(jìn)程

    層交換機(jī)的工作原理 層交換機(jī)不能完全取代路由器的原因

    層交換機(jī)的工作原理可以用一句話概括為:”一次路由,多次交換“。
    的頭像 發(fā)表于 03-29 09:29 ?667次閱讀

    NPN型極管發(fā)射結(jié)電勢(shì)和基極電流有關(guān)問題

    教材有一句話:發(fā)射結(jié)電勢(shì)減小,導(dǎo)致基極電流減小 這句話如果單看極管的輸入特性曲線確實(shí)沒問題,但是極管實(shí)際工作的靜態(tài)工作點(diǎn)Q是輸入特性曲線和輸入回路負(fù)載線的交點(diǎn),這個(gè)時(shí)候減小,???
    發(fā)表于 03-23 09:36

    百度文心一言支持一鍵生成專屬數(shù)字分身

    百度文心一言APP正式上線了一項(xiàng)令人矚目的新功能:用戶只需一張照片、錄制三句話,就能輕松擁有一個(gè)屬于自己的數(shù)字分身。這一功能不僅提供了高度個(gè)性化的體驗(yàn),還允許用戶根據(jù)需求自定義名稱、聲音以及MBTI性格等。更值得一提的是,這一新功能對(duì)iOS和Android用戶完全免費(fèi)。
    的頭像 發(fā)表于 02-03 09:33 ?721次閱讀

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線,通過深度
    的頭像 發(fā)表于 01-11 10:51 ?1840次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    深度學(xué)習(xí)在人工智能中的 8 種常見應(yīng)用

    ,徹底改變了人工智能。人腦的結(jié)構(gòu)和操作啟發(fā)了這些算法。覺得怎么樣?人工智能(AI)中有哪些典型的深度學(xué)習(xí)應(yīng)用?深度學(xué)習(xí)經(jīng)常用于各種人工智能
    的頭像 發(fā)表于 12-01 08:27 ?3193次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在人工智能中的 8 種常見應(yīng)用