0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)和函數(shù)

新機(jī)器視覺(jué) ? 來(lái)源:人工智能與算法學(xué)習(xí) ? 作者:人工智能與算法學(xué) ? 2022-04-07 10:17 ? 次閱讀

據(jù)報(bào)道稱,由于采用基于云的技術(shù)和在大數(shù)據(jù)中使用深度學(xué)習(xí)系統(tǒng),深度學(xué)習(xí)的使用在過(guò)去十年中迅速增長(zhǎng),預(yù)計(jì)到 2028 年,深度學(xué)習(xí)的市場(chǎng)規(guī)模將達(dá)到 930 億美元。但究竟什么是深度學(xué)習(xí),它是如何工作的?深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,它使用神經(jīng)網(wǎng)絡(luò)來(lái)執(zhí)行學(xué)習(xí)和預(yù)測(cè)。深度學(xué)習(xí)在各種任務(wù)中都表現(xiàn)出了驚人的表現(xiàn),無(wú)論是文本、時(shí)間序列還是計(jì)算機(jī)視覺(jué)。深度學(xué)習(xí)的成功主要來(lái)自大數(shù)據(jù)的可用性和計(jì)算能力。然而,不僅如此,這使得深度學(xué)習(xí)遠(yuǎn)遠(yuǎn)優(yōu)于任何經(jīng)典的機(jī)器學(xué)習(xí)算法

深度學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)和函數(shù)

神經(jīng)網(wǎng)絡(luò)是一個(gè)相互連接的神經(jīng)元網(wǎng)絡(luò),每個(gè)神經(jīng)元都是一個(gè)有限函數(shù)逼近器。這樣,神經(jīng)網(wǎng)絡(luò)被視為通用函數(shù)逼近器。如果你還記得高中的數(shù)學(xué),函數(shù)就是從輸入空間到輸出空間的映射。一個(gè)簡(jiǎn)單的 sin(x) 函數(shù)是從角空間(-180° 到 180° 或 0° 到 360°)映射到實(shí)數(shù)空間(-1 到 1)。 讓我們看看為什么神經(jīng)網(wǎng)絡(luò)被認(rèn)為是通用函數(shù)逼近器。每個(gè)神經(jīng)元學(xué)習(xí)一個(gè)有限的函數(shù):f(.) = g(W*X) 其中 W 是要學(xué)習(xí)的權(quán)重向量,X 是輸入向量,g(.) 是非線性變換。W*X 可以可視化為高維空間(超平面)中的一條線(正在學(xué)習(xí)),而 g(.) 可以是任何非線性可微函數(shù),如 sigmoid、tanh、ReLU 等(常用于深度學(xué)習(xí)領(lǐng)域)。在神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)無(wú)非就是找到最佳權(quán)重向量 W。例如,在 y = mx+c 中,我們有 2 個(gè)權(quán)重:m 和 c?,F(xiàn)在,根據(jù) 2D 空間中點(diǎn)的分布,我們找到滿足某些標(biāo)準(zhǔn)的 m & c 的最佳值:對(duì)于所有數(shù)據(jù)點(diǎn),預(yù)測(cè) y 和實(shí)際點(diǎn)之間的差異最小。

層的效果

現(xiàn)在每個(gè)神經(jīng)元都是一個(gè)非線性函數(shù),我們將幾個(gè)這樣的神經(jīng)元堆疊在一個(gè)「層」中,每個(gè)神經(jīng)元接收相同的一組輸入但學(xué)習(xí)不同的權(quán)重 W。因此,每一層都有一組學(xué)習(xí)函數(shù):[f1, f2, …, fn],稱為隱藏層值。這些值再次組合,在下一層:h(f1, f2, ..., fn) 等等。這樣,每一層都由前一層的函數(shù)組成(類似于 h(f(g(x))))。已經(jīng)表明,通過(guò)這種組合,我們可以學(xué)習(xí)任何非線性復(fù)函數(shù)。 深度學(xué)習(xí)是具有許多隱藏層(通常 > 2 個(gè)隱藏層)的神經(jīng)網(wǎng)絡(luò)。但實(shí)際上,深度學(xué)習(xí)是從層到層的函數(shù)的復(fù)雜組合,從而找到定義從輸入到輸出的映射的函數(shù)。例如,如果輸入是獅子的圖像,輸出是圖像屬于獅子類的圖像分類,那么深度學(xué)習(xí)就是學(xué)習(xí)將圖像向量映射到類的函數(shù)。類似地,輸入是單詞序列,輸出是輸入句子是否具有正面/中性/負(fù)面情緒。因此,深度學(xué)習(xí)是學(xué)習(xí)從輸入文本到輸出類的映射:中性或正面或負(fù)面。

深度學(xué)習(xí)作為插值

從生物學(xué)的解釋來(lái)看,人類通過(guò)逐層解釋圖像來(lái)處理世界的圖像,從邊緣和輪廓等低級(jí)特征到對(duì)象和場(chǎng)景等高級(jí)特征。神經(jīng)網(wǎng)絡(luò)中的函數(shù)組合與此一致,其中每個(gè)函數(shù)組合都在學(xué)習(xí)關(guān)于圖像的復(fù)雜特征。用于圖像的最常見的神經(jīng)網(wǎng)絡(luò)架構(gòu)是卷積神經(jīng)網(wǎng)絡(luò) (CNN),它以分層方式學(xué)習(xí)這些特征,然后一個(gè)完全連接的神經(jīng)網(wǎng)絡(luò)將圖像特征分類為不同的類別。 通過(guò)再次使用高中數(shù)學(xué),給定一組 2D 數(shù)據(jù)點(diǎn),我們嘗試通過(guò)插值擬合曲線,該曲線在某種程度上代表了定義這些數(shù)據(jù)點(diǎn)的函數(shù)。我們擬合的函數(shù)越復(fù)雜(例如在插值中,通過(guò)多項(xiàng)式次數(shù)確定),它就越適合數(shù)據(jù);但是,它對(duì)新數(shù)據(jù)點(diǎn)的泛化程度越低。這就是深度學(xué)習(xí)面臨挑戰(zhàn)的地方,也就是通常所說(shuō)的過(guò)度擬合問(wèn)題:盡可能地?cái)M合數(shù)據(jù),但在泛化方面有所妥協(xié)。幾乎所有深度學(xué)習(xí)架構(gòu)都必須處理這個(gè)重要因素,才能學(xué)習(xí)在看不見的數(shù)據(jù)上表現(xiàn)同樣出色的通用功能。 深度學(xué)習(xí)先驅(qū) Yann LeCun(卷積神經(jīng)網(wǎng)絡(luò)的創(chuàng)造者和 ACM 圖靈獎(jiǎng)獲得者)在他的推特上發(fā)帖(基于一篇論文):「深度學(xué)習(xí)并沒(méi)有你想象的那么令人印象深刻,因?yàn)樗鼉H僅是美化曲線擬合的插值。但是在高維中,沒(méi)有插值之類的東西。在高維空間,一切都是外推?!挂虼?,作為函數(shù)學(xué)習(xí)的一部分,深度學(xué)習(xí)除了插值,或在某些情況下,外推。就這樣!

894f7054-b604-11ec-aa7f-dac502259ad0.png

Twitter 地址:https://twitter.com/ylecun/status/1409940043951742981?lang=en

學(xué)習(xí)方面

那么,我們?nèi)绾螌W(xué)習(xí)這個(gè)復(fù)雜的函數(shù)呢?這完全取決于手頭的問(wèn)題,而這決定了神經(jīng)網(wǎng)絡(luò)架構(gòu)。如果我們對(duì)圖像分類感興趣,那么我們使用 CNN。如果我們對(duì)時(shí)間相關(guān)的預(yù)測(cè)或文本感興趣,那么我們使用 RNN 或 Transformer,如果我們有動(dòng)態(tài)環(huán)境(如汽車駕駛),那么我們使用強(qiáng)化學(xué)習(xí)。除此之外,學(xué)習(xí)還涉及處理不同的挑戰(zhàn):

確保模型學(xué)習(xí)通用函數(shù),而不僅僅適合訓(xùn)練數(shù)據(jù);這是通過(guò)使用正則化處理的;

根據(jù)手頭的問(wèn)題,選擇損失函數(shù);松散地說(shuō),損失函數(shù)是我們想要的(真實(shí)值)和我們當(dāng)前擁有的(當(dāng)前預(yù)測(cè))之間的誤差函數(shù);

梯度下降是用于收斂到最優(yōu)函數(shù)的算法;決定學(xué)習(xí)率變得具有挑戰(zhàn)性,因?yàn)楫?dāng)我們遠(yuǎn)離最優(yōu)時(shí),我們想要更快地走向最優(yōu),而當(dāng)我們接近最優(yōu)時(shí),我們想要慢一些,以確保我們收斂到最優(yōu)和全局最小值;

大量隱藏層需要處理梯度消失問(wèn)題;跳過(guò)連接和適當(dāng)?shù)姆蔷€性激活函數(shù)等架構(gòu)變化,有助于解決這個(gè)問(wèn)題。

計(jì)算挑戰(zhàn)

現(xiàn)在我們知道深度學(xué)習(xí)只是一個(gè)學(xué)習(xí)復(fù)雜的函數(shù),它帶來(lái)了其他計(jì)算挑戰(zhàn):

要學(xué)習(xí)一個(gè)復(fù)雜的函數(shù),我們需要大量的數(shù)據(jù);

為了處理大數(shù)據(jù),我們需要快速的計(jì)算環(huán)境;

我們需要一個(gè)支持這種環(huán)境的基礎(chǔ)設(shè)施。

使用 CPU 進(jìn)行并行處理不足以計(jì)算數(shù)百萬(wàn)或數(shù)十億的權(quán)重(也稱為 DL 的參數(shù))。神經(jīng)網(wǎng)絡(luò)需要學(xué)習(xí)需要向量(或張量)乘法的權(quán)重。這就是 GPU 派上用場(chǎng)的地方,因?yàn)樗鼈兛梢苑浅?焖俚剡M(jìn)行并行向量乘法。根據(jù)深度學(xué)習(xí)架構(gòu)、數(shù)據(jù)大小和手頭的任務(wù),我們有時(shí)需要 1 個(gè) GPU,有時(shí),數(shù)據(jù)科學(xué)家需要根據(jù)已知文獻(xiàn)或通過(guò)測(cè)量 1 個(gè) GPU 的性能來(lái)做出決策。 通過(guò)使用適當(dāng)?shù)纳窠?jīng)網(wǎng)絡(luò)架構(gòu)(層數(shù)、神經(jīng)元數(shù)量、非線性函數(shù)等)以及足夠大的數(shù)據(jù),深度學(xué)習(xí)網(wǎng)絡(luò)可以學(xué)習(xí)從一個(gè)向量空間到另一個(gè)向量空間的任何映射。這就是讓深度學(xué)習(xí)成為任何機(jī)器學(xué)習(xí)任務(wù)的強(qiáng)大工具的原因。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:這就是深度學(xué)習(xí)如此強(qiáng)大的原因

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    簡(jiǎn)單認(rèn)識(shí)深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機(jī)器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),特別是在深度學(xué)習(xí)領(lǐng)域,已經(jīng)取得了顯著的
    的頭像 發(fā)表于 07-10 18:23 ?894次閱讀

    前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)

    前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN)是人工神經(jīng)網(wǎng)絡(luò)中最基本且廣泛應(yīng)用的一種結(jié)構(gòu),其結(jié)構(gòu)簡(jiǎn)單、易于理解,是深度學(xué)習(xí)領(lǐng)域中的基石。FNN通過(guò)多層節(jié)
    的頭像 發(fā)表于 07-09 10:31 ?489次閱讀

    深度神經(jīng)網(wǎng)絡(luò)概述及其應(yīng)用

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機(jī)器學(xué)習(xí)的一種復(fù)雜形式,是廣義人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)的
    的頭像 發(fā)表于 07-04 16:08 ?639次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需
    的頭像 發(fā)表于 07-04 13:20 ?572次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)方法

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為人工智能領(lǐng)域的重要技術(shù)之一,通過(guò)模擬人腦神經(jīng)元之間的連接,實(shí)現(xiàn)了對(duì)復(fù)雜數(shù)據(jù)的自主學(xué)習(xí)和智能判斷。其設(shè)計(jì)方法不僅涉
    的頭像 發(fā)表于 07-04 13:13 ?370次閱讀

    BP神經(jīng)網(wǎng)絡(luò)屬于DNN嗎

    屬于。BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種基于誤差反向傳播算法的多層前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)(Deep Learning)領(lǐng)域中非常重要的
    的頭像 發(fā)表于 07-03 10:18 ?615次閱讀

    bp神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來(lái)訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與
    的頭像 發(fā)表于 07-03 10:14 ?596次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    中,激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出方式,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。 一、激活函數(shù)的作用 激活函數(shù)是BP
    的頭像 發(fā)表于 07-03 10:02 ?531次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是深度學(xué)習(xí)中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。在卷積
    的頭像 發(fā)表于 07-03 09:18 ?676次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個(gè)領(lǐng)域取得了顯著的應(yīng)用成果。從圖像識(shí)別、語(yǔ)音識(shí)別
    的頭像 發(fā)表于 07-02 18:19 ?747次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的原
    的頭像 發(fā)表于 07-02 14:44 ?520次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?2336次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)網(wǎng)絡(luò)模型,由多個(gè)全連接層組成。每個(gè)隱藏層的神經(jīng)元數(shù)量可以不同,通常使用激活函數(shù)
    的頭像 發(fā)表于 07-02 10:00 ?1043次閱讀

    神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)有哪些

    神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)是一個(gè)至關(guān)重要的組成部分,它決定了神經(jīng)元對(duì)于輸入信號(hào)的反應(yīng)方式,為神經(jīng)網(wǎng)絡(luò)引入了非線性因素,使得網(wǎng)絡(luò)能夠
    的頭像 發(fā)表于 07-01 11:52 ?471次閱讀

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?1840次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用