??智能算法包括?個部分: x是模型的輸?,y是模型的輸出,模型就是對輸?轉(zhuǎn)化為輸出的計(jì)算。?如輸?x可以是?張圖?(如 貓的照?),模型對圖?進(jìn)?計(jì)算處理,然后輸出這張圖?上對應(yīng)的物品的類別(貓)。 我們可以把算法理解成?個函數(shù):y = f(x),這??輸?是x,輸出是y,模型對應(yīng)的是映射規(guī)則f。 對于?個具體的問題,我們可以獲取到?量的(x,y),??智能算法就是從這些數(shù)據(jù)中學(xué)習(xí)規(guī)律,找 到映射規(guī)則f。所以,??智能算法學(xué)習(xí)規(guī)律就是確定x到y(tǒng)的映射規(guī)則f 為了讓?家能理解??智能算法的學(xué)習(xí)過程,我們?起來看?個簡單的例?: 下?是某個?區(qū)的房價和房屋?積的數(shù)據(jù)。
現(xiàn)在要利???智能的算法去學(xué)習(xí)房屋?積和房屋價格的規(guī)律,也就是根據(jù)房屋的?積如何計(jì)算得到房 屋的價格。 模型的輸?是房屋?積,模型的輸出是房屋價格。 我們可以建?這樣的模型:y = wx + b 其中,w和b是未知的,調(diào)整w和b的值可以得到不同的映射規(guī)則。 我們知道,y = wx + b 表示的是?維平?內(nèi)的?根直線,調(diào)整w和b的值可以得到不同的的直線。 接下來我們?起看?下如何去確定w和b的值。 ?先,我們先不管w和b取什么值,我們直接把輸?代?模型,可以得到模型的輸出值,我們稱模型的 輸出為預(yù)測值。數(shù)據(jù)如下表:
接著,我們只要調(diào)整w和b的值,讓預(yù)測房價盡量接近真實(shí)房價。 那我們怎么調(diào)整w和b呢??個個嘗試不同的取值嗎? 我們知道,不管是w還是b,都是有?限種可能取值的,遍歷它們的所有可能取值顯然是不現(xiàn)實(shí)的。 那么有沒有?法可以指引我們?nèi)フ业阶顑?yōu)的w和b呢?答案是有的。 回憶?下,?中數(shù)學(xué)課程??我們是不是做過這樣?件事情:給定?個函數(shù),求函數(shù)值的最?值以及此 時?變量的值。 基于這樣的思路,我們做下?這樣的操作:
這?我們就得到了?個函數(shù),函數(shù)的?變量是w和b。?家觀察這個函數(shù), J的值越?, ypredict是不是越接近ytrue ?
這時候我們求J 這個函數(shù)的值最?的時候?qū)?yīng)的w和b的取值,是不是就得到了我們需要找的最優(yōu)的w和 b的值? 答案是肯定的,??智能算法就是這樣做的。
上?我們構(gòu)造的函數(shù),在??智能算法??叫損失函數(shù),求損失函數(shù)的值最?時,可訓(xùn)練參數(shù)(w和b)的 值的?法是梯度下降。關(guān)于損失函數(shù)和梯度下降的內(nèi)容,我們后?再深?去講解。這??節(jié)我們要理解 的是??智能算法學(xué)習(xí)的過程。
尋找最優(yōu)未知參數(shù)的值的?法: 構(gòu)建?個損失函數(shù),損失函數(shù)滿??下條件: 1、損失函數(shù)是關(guān)于所有可訓(xùn)練參數(shù)的函數(shù); 2、損失函數(shù)的函數(shù)值越?, ypredict越接近ytrue 。
有了損失函數(shù)之后,尋找最優(yōu)可訓(xùn)練參數(shù)的問題就轉(zhuǎn)化成: 求損失函數(shù)最?值(極?值)時,可訓(xùn)練參數(shù)的取值 --> 通過梯度下降法可以實(shí)現(xiàn)
-
算法
+關(guān)注
關(guān)注
23文章
4587瀏覽量
92505 -
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237090
發(fā)布評論請先 登錄
相關(guān)推薦
評論