0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI入門之深度學(xué)習(xí):基本概念篇

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2024-08-08 11:24 ? 次閱讀

1、什么是深度學(xué)習(xí)

1.1、機(jī)器學(xué)習(xí)

wKgZoma0OmmAEiKuAAD-wQWEZKU414.png

??

圖1:計(jì)算機(jī)有效工作的常用方法:程序員編寫規(guī)則(程序),計(jì)算機(jī)遵循這些規(guī)則將輸入數(shù)據(jù)轉(zhuǎn)換為適當(dāng)?shù)拇鸢浮_@一方法被稱為符號(hào)主義人工智能,適合用來解決定義明確的邏輯問題,比如早期的PC小游戲:五子棋等,但是像圖像分類、語音識(shí)別或自然語言翻譯等更復(fù)雜、更模糊的任務(wù),難以給出明確的規(guī)則。

圖2:機(jī)器學(xué)習(xí)把這個(gè)過程反了過來:機(jī)器讀取輸入數(shù)據(jù)和相應(yīng)的答案,然后找出應(yīng)有的規(guī)則。機(jī)器學(xué)習(xí)系統(tǒng)是訓(xùn)練出來的,而不是明確的用程序編寫出來。舉個(gè)例子,如果你想為度假照片添加標(biāo)簽,并希望將這項(xiàng)任務(wù)自動(dòng)化,那么你可以將許多人工打好標(biāo)簽的照片輸人機(jī)器學(xué)習(xí)系統(tǒng),系統(tǒng)將學(xué)會(huì)把特定照片與特定標(biāo)簽聯(lián)系在一起的統(tǒng)計(jì)規(guī)則。

定義:機(jī)器學(xué)習(xí)就是在預(yù)定義的可能性空間中,利用反饋信號(hào)的指引,在輸入數(shù)據(jù)中尋找有用的表示和規(guī)則。

wKgaoma0OmqAeVVRAAPQGg1QZIo504.png

??

1.2、深度學(xué)習(xí)

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支領(lǐng)域,強(qiáng)調(diào)從一系列連續(xù)的表示層中學(xué)習(xí)?,F(xiàn)代的深度學(xué)習(xí)模型通常包含數(shù)十個(gè)甚至上百個(gè)連續(xù)的表示層,它們都是從訓(xùn)練數(shù)據(jù)中自動(dòng)學(xué)習(xí)而來。與之對(duì)應(yīng),機(jī)器學(xué)習(xí)有時(shí)也被稱為淺層學(xué)習(xí)。

在深度學(xué)習(xí)中,這些分層表示是通過叫作神經(jīng)網(wǎng)絡(luò)的模型學(xué)習(xí)得到的。深度神經(jīng)網(wǎng)絡(luò)可以看作多級(jí)信息蒸餾過程:信息穿過連續(xù)的過濾器,其純度越來越高。

技術(shù)定義:一種多層的學(xué)習(xí)數(shù)據(jù)表示的方法。

wKgZoma0Om6AbxRTAAjI7X4sBmA082.png

??

1.3、深度學(xué)習(xí)工作原理

a. 對(duì)神經(jīng)網(wǎng)絡(luò)的權(quán)重(有時(shí)也被稱為該層的參數(shù))進(jìn)行隨機(jī)賦值

b. 經(jīng)過一系列隨機(jī)變換,得到預(yù)測(cè)值Y'

c. 通過損失函數(shù)(有時(shí)也被稱為目標(biāo)函數(shù)或代價(jià)函數(shù)),得到預(yù)測(cè)值Y'與真實(shí)值Y之間的損失值

d. 將損失值作為反饋信號(hào),通過優(yōu)化器來對(duì)權(quán)重值進(jìn)行微調(diào),以降低當(dāng)前示例對(duì)應(yīng)的損失值

e. 循環(huán)重復(fù)足夠做的次數(shù)(b-d),得到具有最小損失值的神經(jīng)網(wǎng)絡(luò),就是一個(gè)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)

wKgaoma0Om-AeIyPAALtCb7vGJ8191.png

??

2、神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)基礎(chǔ)

2.1、神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)表示

目前所有機(jī)器學(xué)習(xí)系統(tǒng)都使用張量(tensor)作為基本數(shù)據(jù)結(jié)構(gòu),張量對(duì)這個(gè)領(lǐng)域非常重要,TensorFlow就是以它來命名。

張量這一概念的核心在于,它是一個(gè)數(shù)據(jù)容器。它包含的數(shù)據(jù)通常是數(shù)值數(shù)據(jù),因此它是一個(gè)數(shù)字容器。你可能對(duì)矩陣很熟悉,它是2階張量。張量是矩陣向任意維度的推廣,張量的維度通常叫做軸。

張量是由以下3個(gè)關(guān)鍵屬性來定義的。

?:軸的個(gè)數(shù)

?形狀:表示張量沿每個(gè)軸的維度大小(元素個(gè)數(shù))

?數(shù)據(jù)類型(dtype):數(shù)據(jù)的類型,可以是float16、float32、float64、unit8、string等

2.1.1、標(biāo)量(0階張量)

僅包含一個(gè)數(shù)字的張量叫做標(biāo)量(SCALAR),也叫0階張量或0維張量。

下面是一個(gè)NumPy標(biāo)量

import numpy as np
x = np.array(3)
x.ndim // 軸:0, 形狀:()

2.1.2、向量(1階張量)

數(shù)字組成的數(shù)組叫做向量(VECTOR),也叫1階張量或1維張量。

下面是一個(gè)NumPy向量

x = np.array([4, 1, 5])
x.ndim // 軸:1, 形狀:(3,)

這個(gè)向量包含3個(gè)元素,所以也叫3維向量。不要把3維向量和3維張量混為一談,3維向量只有一個(gè)軸,沿著這個(gè)軸有3個(gè)維度。

2.1.3、矩陣(2階張量)

向量組成的數(shù)組叫做矩陣(MATRIX),也2階張量或2維張量。矩陣有2個(gè)軸:行和列。

下面是一個(gè)NumPy矩陣

x = np.array([
    [4, 6, 7],
    [7, 3, 9],
    [1, 2, 5]
])
x.ndim // 軸:2, 形狀:(3, 3)

現(xiàn)實(shí)世界中的向量實(shí)例:

向量數(shù)據(jù):形狀為(samples, features)的2階張量,每個(gè)樣本都是一個(gè)數(shù)值(特征)向量,向量數(shù)據(jù)庫存儲(chǔ)的基本單位。

2.1.4、3階張量與更高階的張量

將多個(gè)矩陣打包成一個(gè)新的數(shù)組,就可以得到一個(gè)3階張量(或3維張量)

下面是一個(gè)3階NumPy張量

x = np.array([
    [[4, 6, 7],
    [7, 3, 9],
    [1, 2, 5]],
    [[5, 7, 1],
    [9, 4, 3],
    [3, 5, 2]]
])
x.ndim // 軸:3, 形狀:(2, 3, 3)

將多個(gè)3階張量打包成一個(gè)數(shù)組,就可以創(chuàng)建一個(gè)4階張量。

現(xiàn)實(shí)世界中的實(shí)例:

時(shí)間序列數(shù)據(jù)或序列數(shù)據(jù):形狀為(samples, timesteps, features)的3階張量,每個(gè)樣本都是特征向量組成的序列(序列長度為timesteps)

圖像數(shù)據(jù):形狀為(samples, height, width, channels)的4階張量,每個(gè)樣本都是一個(gè)二維像素網(wǎng)格,每個(gè)像素則由一個(gè)“通道”(channel)向量表示。

視頻數(shù)據(jù):形狀為(samples, frames, height, width, channels)的5階張量,每個(gè)樣本都是由圖像組成的序列(序列長度為frames)。

wKgZoma0OnOAE0OvAARO4YyoHPo990.png

??

2.2、神經(jīng)網(wǎng)絡(luò)的“齒輪”:張量運(yùn)算

所有計(jì)算機(jī)程序最終都可以簡(jiǎn)化為對(duì)二進(jìn)制輸入的一些二進(jìn)制運(yùn)算,與此類似,深度神經(jīng)網(wǎng)絡(luò)學(xué)到的所有變換也都可以簡(jiǎn)化為對(duì)數(shù)值數(shù)據(jù)張量的一些張量運(yùn)算或張量函數(shù)。

2.2.1、逐元素運(yùn)算

逐元素運(yùn)算,即該運(yùn)算分別應(yīng)用于張量的每個(gè)元素。參與運(yùn)算的張量的形狀必須相同。

import numpy as np
z = x + y // 逐元素加法
z = x - y // 逐元素加法
z = x * y // 逐元素乘積
z = x / y // 逐元素除法
z = np.maximum(z, 0.) //逐元素relu,大于0輸出等于輸入,小于0則輸出為0

rule運(yùn)算是一種常用的激活函數(shù),rule(x)就是max(x, 0):如果輸入x大于0,則輸出等于輸入值;如果輸入x小于等于0,則輸出為0。

2.2.2、張量積

張量積或點(diǎn)積是最常見且最有用的張量運(yùn)算之一。注意,不要將其與逐元素乘積弄混。

在NumPy中使用np.dot函數(shù)來實(shí)現(xiàn)張量積:z = np.dot(x, y)

數(shù)學(xué)符號(hào)中的(·)表示點(diǎn)積運(yùn)算:z = x · y

?兩個(gè)向量的點(diǎn)積是一個(gè)標(biāo)量,而且只有元素個(gè)數(shù)相同的向量才能進(jìn)行點(diǎn)積運(yùn)算。

?一個(gè)矩陣x和一個(gè)向量y做點(diǎn)積運(yùn)算,其返回值是一個(gè)向量,其中每個(gè)元素是y和x每一行的點(diǎn)積。

?對(duì)于矩陣x和y,當(dāng)且僅當(dāng)x.shape[1] == y.shape[0]時(shí),才可以計(jì)算點(diǎn)積,其結(jié)果是一個(gè)形狀為(x.shape[0], y.shape[1])的矩陣,其元素是x的行與y的列之間的向量點(diǎn)積。

wKgaoma0OnSAERAFAAHBzn__Yo0694.png

??

2.2.3、張量變形

張量變形是指重新排列張量的行和列,以得到想要的形狀。變形后,張量的元素個(gè)數(shù)與初始張量相同。

import numpy as np
x = np.array([[0, 1],
              [2, 3]
              [4, 5]])
x.shape //(3, 2)
x = x.reshape((6, 1))
>>> x 
array([[0],
       [1],
       [2],
       [3],
       [4],
       [5]])
x = x.reshape(2, 3)
>>> x
array([[0, 1, 2],
       [3, 4, 5]])

常見的一種特殊的張量變形是轉(zhuǎn)置。矩陣轉(zhuǎn)置是指將矩陣的行和列互換,即x[i, :]變?yōu)閤[:, i]

x = np.zeros((300, 20)) //創(chuàng)建一個(gè)形狀為(300, 20)的零矩陣
x = np.transpose(x)
>>> x.shape
(20, 300)

2.2.4、張量運(yùn)算的幾何解釋

平移、旋轉(zhuǎn)、縮放、傾斜等基本的幾何操作都可以表示為張量運(yùn)算。

wKgZoma0OnaAXsgGAALkaQLusEI254.png

??

?線性變換:與任意矩陣做點(diǎn)積運(yùn)算,都可以實(shí)現(xiàn)一次線性變換??s放和旋轉(zhuǎn),都屬于線性變換。

?仿射變換:一次線性變換與一次平移的組合。

?帶有rule激活函數(shù)的仿射變換:多次仿射變換相當(dāng)于一次仿射變換,因此一個(gè)完全沒有激活函數(shù)的多層神經(jīng)網(wǎng)絡(luò)等同于一層,這種“深度”神經(jīng)網(wǎng)絡(luò)其實(shí)就是一個(gè)線性模型。

wKgaoma0OneAFXljAAI3EXKxJgc765.png

??

2.2.5、深度學(xué)習(xí)的幾何解釋

神經(jīng)網(wǎng)絡(luò)完全由一系列張量運(yùn)算組成,而這些張量運(yùn)算只是輸入數(shù)據(jù)的簡(jiǎn)單幾何變換。因此,你可以將神經(jīng)網(wǎng)絡(luò)解釋為高維空間中非常復(fù)雜的幾何變換,這種變換通過一系列簡(jiǎn)單步驟來實(shí)現(xiàn)。

機(jī)器學(xué)習(xí)的目的:為高維空間中復(fù)雜、高度折疊的數(shù)據(jù)流行(一個(gè)連續(xù)的表面)找到簡(jiǎn)潔的表示。深度學(xué)習(xí)可以將復(fù)雜的幾何變換逐步分解為一系列基本變換。

2.3、神經(jīng)網(wǎng)絡(luò)的“引擎”:基于梯度的優(yōu)化

回顧1.3章節(jié)【深度學(xué)習(xí)工作原理】,步驟a看起來很簡(jiǎn)單,只是輸入/輸出(I/O)的代碼。步驟b、c僅僅是應(yīng)用了一些張量運(yùn)算。難點(diǎn)在于步驟d:更新模型權(quán)重。對(duì)于模型的某個(gè)權(quán)重系數(shù),你怎么知道這個(gè)系數(shù)應(yīng)該增大還是減小,以及變化多少?

一種簡(jiǎn)單的解決方案是,保持模型的其他權(quán)重不變,只考慮一個(gè)標(biāo)量系數(shù),讓其嘗試不同的取值。對(duì)于模型的所有系數(shù)都要重復(fù)這一過程。但這種方法非常低效,因?yàn)橄禂?shù)有很多(通常有上千個(gè),甚至多達(dá)百萬個(gè))。幸運(yùn)的是,有一種更好的方法:梯度下降法。

2.3.1、導(dǎo)數(shù)

假設(shè)有一個(gè)光滑連續(xù)的函數(shù)f(x) = y,由于函數(shù)是連續(xù)的,因此x的微小變化只會(huì)導(dǎo)致y的微小變化。因此在某個(gè)點(diǎn)p附近,如果x變化足夠小,就可以將f近似看作斜率為a的線性函數(shù)。

斜率a被稱為f在p點(diǎn)的導(dǎo)數(shù)。如果a < 0,說明x在p點(diǎn)附近的微增將導(dǎo)致f(x)減小;如果a > 0,那么x在p點(diǎn)附近的微增將導(dǎo)致f(x)增大;

?

wKgZoma0OnqAe805AAGzaSohyJM808.png

??

2.3.2、梯度

導(dǎo)數(shù)這一概念可以應(yīng)用于任何函數(shù),只要函數(shù)所對(duì)應(yīng)的表面是連續(xù)且光滑的。張量運(yùn)算的導(dǎo)數(shù)叫做梯度。對(duì)于一個(gè)標(biāo)量函數(shù)來說,導(dǎo)數(shù)是表示函數(shù)曲線的局部斜率,張量函數(shù)的梯度表示該函數(shù)所對(duì)應(yīng)多維表面的曲率。

舉例來說,物體位置相對(duì)于時(shí)間的梯度是這個(gè)物體的速度,二階梯度則是它的加速度。

2.3.3、隨機(jī)梯度下降

步驟d中更新模型權(quán)重,假設(shè)我們要處理的是一個(gè)可微函數(shù),可以計(jì)算出它的梯度,沿著梯度的反方向更新權(quán)重,每次損失都會(huì)減小一點(diǎn)。

(1)抽取訓(xùn)練樣本x和對(duì)應(yīng)目標(biāo)y_true組成的一個(gè)數(shù)據(jù)批量

(2)在x上運(yùn)行模型,得到預(yù)測(cè)值y_pred(前向傳播)

(3)計(jì)算模型在這批數(shù)據(jù)上的損失值

(4)計(jì)算損失相對(duì)于模型參數(shù)的梯度(反向傳播)

(5)將參數(shù)沿著梯度的反方向移動(dòng)一小步,從而減小損失值

這個(gè)方法叫做小批量隨機(jī)梯度下降(SGD),隨機(jī)是指每批數(shù)據(jù)都是隨機(jī)抽取的;如果每次迭代都在所有數(shù)據(jù)上運(yùn)行,這叫做批量梯度下降,但是計(jì)算成本高得多,折中辦法是選擇合理的小批量大小。

神經(jīng)網(wǎng)絡(luò)的每一個(gè)權(quán)重系數(shù)都是空間中的一個(gè)自由維度,為了對(duì)損失表面有更直觀的認(rèn)識(shí),可以將沿著二維損失表面的梯度下降可視化,但你不可能將神經(jīng)網(wǎng)絡(luò)的真實(shí)訓(xùn)練過程可視化,因?yàn)闊o法用人類可以理解的方式來可視化1 000 000維空間。這些低維表示中建立的直覺,實(shí)踐中不一定總是準(zhǔn)確的。

wKgaoma0OnuASU7pAAWFz8ZXUTA889.png

??

2.3.4、鏈?zhǔn)角髮?dǎo):反向傳播

在前面的算法中,我們假設(shè)函數(shù)是可微(可以被求導(dǎo))的,所以很容易計(jì)算其梯度。但是在實(shí)踐中如何計(jì)算復(fù)雜表達(dá)式的梯度?這時(shí)就需要用到反向傳播算法。

(1)鏈?zhǔn)椒▌t

利用簡(jiǎn)單運(yùn)算(如加法、rule或張量積)的導(dǎo)數(shù),可以輕松計(jì)算出這些基本運(yùn)算的任意復(fù)雜組合的梯度。鏈?zhǔn)椒▌t規(guī)定:grad(y, x) == grad(y, x1) * grad(x1, x),因此只要知道f和g的導(dǎo)數(shù),就可以求出fg的導(dǎo)數(shù)。如果添加更多的中間函數(shù),看起來就像是一條鏈。將鏈?zhǔn)椒▌t應(yīng)用于神經(jīng)網(wǎng)絡(luò)梯度值的計(jì)算,就得到了一種叫做反向傳播的算法。

(2)用計(jì)算圖進(jìn)行自動(dòng)微分

思考反向傳播的一種有用方法是利用計(jì)算圖。計(jì)算圖是TensorFlow和深度學(xué)習(xí)革命的核心數(shù)據(jù)結(jié)構(gòu)。它是一種由運(yùn)算構(gòu)成的有向無環(huán)圖。如今,現(xiàn)代框架比如TensorFlow,支持基于計(jì)算圖的自動(dòng)微分,可以計(jì)算任意可維張量運(yùn)算組合的梯度,只需寫出前向傳播,而無需做任何額外工作。

GradientTape是一個(gè)API,讓你可以充分利用TensorFlow強(qiáng)大的自動(dòng)微分能力。它是一個(gè)Python作用域,能夠以計(jì)算圖(tape)的形式記錄在其中運(yùn)行的張量運(yùn)算。

3、實(shí)踐:使用Python的Kears庫識(shí)別手寫數(shù)字

在這個(gè)例子中,我們要解決的問題是,將手寫數(shù)字的灰度圖像(28像素 * 28像素)劃分到10個(gè)類別(從0到9)中,我們將使用MNIST數(shù)據(jù)集,它是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)經(jīng)典數(shù)據(jù)集。你可以將解決MNIST問題看作深度學(xué)習(xí)的“Hello World”。

3.1 加載Kears中的MNIST數(shù)據(jù)集

from tensorflow.keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

train_images, train_labels組成了訓(xùn)練集,模型將從這些數(shù)據(jù)中進(jìn)行學(xué)習(xí)。我們會(huì)在測(cè)試集test_images, test_labels上對(duì)模型進(jìn)行測(cè)試。

查看數(shù)據(jù)集形狀:

>>> train_images.shape
(60000, 28, 28) //訓(xùn)練集為60000張圖片,每張圖片中28*28像素點(diǎn)數(shù)據(jù)
>>> test_images.shape
(10000, 28, 28) //測(cè)試集為10000張圖片,每張圖片中28*28像素點(diǎn)數(shù)據(jù)

3.2 神經(jīng)網(wǎng)絡(luò)架構(gòu)模型

from tensorflow import keras
from tensorflow.keras import layers
model = keras.Sequential([
    layers.Dense(512, activation="relu"),
    layers.Dense(10, activation="softmax")
])

神經(jīng)網(wǎng)絡(luò)的核心組件是層(layer),大多數(shù)深度學(xué)習(xí)工作設(shè)計(jì)將簡(jiǎn)單的層鏈接起來,從而實(shí)現(xiàn)漸進(jìn)式的數(shù)據(jù)蒸餾,從輸入數(shù)據(jù)中提取表示。

本例中的模型包含2個(gè)Dense層,每層都對(duì)輸入數(shù)據(jù)做一些簡(jiǎn)單的張量運(yùn)算(relu、softmax),這些運(yùn)算都涉及權(quán)重張量,權(quán)重張量是該層的屬性或參數(shù),里面保存了模型所學(xué)到的知識(shí)。

3.3 模型編譯

model.compile(
    optimizer="rmsprop",
    loss="sparse_categorical_crossentropy",
    metrics=["accuracy"]
)

這里指定了編譯的3個(gè)步驟:優(yōu)化器、損失函數(shù)以及監(jiān)控的指標(biāo)。其中sparse_categorical_crossentropy是損失函數(shù),用于學(xué)習(xí)權(quán)重張量的反饋信號(hào);使用rmsprop優(yōu)化器,通過小批量隨機(jī)梯度下降(SGD)降低損失值。

3.4 準(zhǔn)備圖像數(shù)據(jù)

train_images = train_images.reshape((60000, 28*28))
train_images = train_images.astype("float32") / 255
test_images = test_images.reshape((10000, 28*28))
test_images = test_images.astype("float32") / 255

在開始訓(xùn)練之前,我們先對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,將其變化為模型要求的形狀,并縮放到所有值都在[0, 1]區(qū)間。

3.5 擬合模型

model.fit(train_images, train_labels, epochs=5, batch_size=128)

在Keras中通過調(diào)用模型的fit方法來完成訓(xùn)練數(shù)據(jù)上的擬合模型:模型開始在訓(xùn)練數(shù)據(jù)上進(jìn)行迭代(每個(gè)小批量包含128個(gè)樣本),共迭代5輪。對(duì)于每批數(shù)據(jù),模型會(huì)計(jì)算損失相對(duì)于權(quán)重的梯度,并將權(quán)重沿著減小該批量對(duì)應(yīng)損失值的方向移動(dòng),5輪迭代后訓(xùn)練精度到達(dá)了98.9%。

3.6 利用模型預(yù)測(cè)

>>> test_digits = test_images[0:10]
>>> predictions = model.predict(test_digits)
>>> predictions[0]
//為了方面閱讀,以下數(shù)據(jù)均為示例
array([1.07, 1.69, 6.13, 8.41, 2.99, 3.03, 8.36, 9.99, 2.66, 3.81], dtype=float32)

這個(gè)數(shù)組中的每個(gè)值,為對(duì)應(yīng)數(shù)字圖像test_digits[0]屬于0-9類別的概率,可以看到第7個(gè)概率最大,因此這個(gè)數(shù)字一定是7。檢查測(cè)試標(biāo)簽是否與之一致:

>>> test_lables[0]
7

3.7 在新數(shù)據(jù)上評(píng)估模型

>>> test_loss, test_acc = model.evaluate(test_images, test_lables)
>>> print(f"test_acc: {test_acc}")
test_acc: 0.9785

測(cè)試精度約為97.8%,比訓(xùn)練精度98.9%低不少。訓(xùn)練精度和測(cè)試精度之間的這種差距是過擬合造成的。

4、參考資料

圖書:Python深度學(xué)習(xí)(第2版)

作者:[美]弗朗索瓦·肖萊 著 張亮 譯

鏈接:https://item.jd.com/13378515.html?

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266239
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131846
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120593
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    探討機(jī)器學(xué)習(xí)深度學(xué)習(xí)基本概念與運(yùn)算過程

    人工智慧隸屬于大範(fàn)疇,包含了機(jī)器學(xué)習(xí)(Machine Learning) 與深度學(xué)習(xí)(Deep Learning)。如下圖所示,我們最興趣的深度學(xué)習(xí)
    的頭像 發(fā)表于 12-18 15:45 ?4171次閱讀
    探討機(jī)器<b class='flag-5'>學(xué)習(xí)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>基本概念</b>與運(yùn)算過程

    《單片機(jī)入門知識(shí)與基本概念

    本帖最后由 eehome 于 2013-1-5 10:04 編輯 《單片機(jī)入門知識(shí)與基本概念
    發(fā)表于 08-13 15:38

    Java新手入門的30個(gè)基本概念

    Java新手入門的30個(gè)基本概念
    發(fā)表于 08-16 20:02

    【轉(zhuǎn)】STM32學(xué)習(xí)之路入門篇指令集

    STM32學(xué)習(xí)之路入門篇指令集
    發(fā)表于 12-26 22:45

    史上最全AI人工智能入門+進(jìn)階學(xué)習(xí)視頻全集(200G)【免費(fèi)領(lǐng)取】

    語言使用,數(shù)學(xué)庫、數(shù)據(jù)結(jié)構(gòu)及相關(guān)算法,深入學(xué)習(xí)AI算法模型訓(xùn)練、分析,神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等因此,為了幫助大家更好的
    發(fā)表于 11-27 12:10

    數(shù)據(jù)結(jié)構(gòu)的基本概念是什么

    數(shù)據(jù)結(jié)構(gòu)基本概念
    發(fā)表于 05-27 08:29

    深度學(xué)習(xí)中的IoU概念

    深度學(xué)習(xí)中的IoU概念理解
    發(fā)表于 05-29 09:24

    深度學(xué)習(xí)入門基于python的理論與實(shí)現(xiàn)

    深度學(xué)習(xí)入門-基于python的理論與實(shí)現(xiàn)(2)
    發(fā)表于 06-19 11:22

    人工智能基本概念機(jī)器學(xué)習(xí)算法

    目錄人工智能基本概念機(jī)器學(xué)習(xí)算法1. 決策樹2. KNN3. KMEANS4. SVM5. 線性回歸深度學(xué)習(xí)算法1. BP2. GANs3. CNN4. LSTM應(yīng)用人工智能
    發(fā)表于 09-06 08:21

    主板維修入門教程:電路的基本概念

    主板維修入門教程:電路的基本概念 電流:電荷的定向移動(dòng)叫做電流,電流常用I表示。電流分直流和交流兩種。電流的大小和方向不
    發(fā)表于 05-19 21:56 ?1596次閱讀

    從語言學(xué)到深度學(xué)習(xí)NLP,一文概述自然語言處理

    本文從兩論文出發(fā)先簡(jiǎn)要介紹了自然語言處理的基本分類和基本概念,再向讀者展示了深度學(xué)習(xí)中的 NLP。這兩論文都是很好的綜述性
    的頭像 發(fā)表于 08-22 14:56 ?6272次閱讀

    深度學(xué)習(xí)算法背后的數(shù)學(xué)

    簡(jiǎn)要介紹了用于深度學(xué)習(xí)的線性代數(shù)基本概念,以及在Python中如何表達(dá)這些概念和相應(yīng)的運(yùn)算。
    的頭像 發(fā)表于 06-01 11:38 ?8314次閱讀

    深度學(xué)習(xí)的主要概念介紹

      這篇文章是我將為 Parallel Forall 撰寫的系列文章中的第一,該系列文章旨在為 深度學(xué)習(xí) 提供一個(gè)直觀而溫和的介紹。它涵蓋了最重要的深度
    的頭像 發(fā)表于 04-28 16:59 ?3514次閱讀

    深度學(xué)習(xí)基本概念

    深度學(xué)習(xí)基本概念? 深度學(xué)習(xí)是人工智能(AI)領(lǐng)域的一個(gè)重要分支,它模仿人類神經(jīng)系統(tǒng)的工作方式,
    的頭像 發(fā)表于 08-17 16:02 ?1644次閱讀

    深度學(xué)習(xí)框架pytorch入門與實(shí)踐

    深度學(xué)習(xí)框架pytorch入門與實(shí)踐 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中的一個(gè)分支,它使用多層神經(jīng)網(wǎng)絡(luò)對(duì)大量數(shù)
    的頭像 發(fā)表于 08-17 16:03 ?1463次閱讀