0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

支持向量機(原問題和對偶問題)

RG15206629988 ? 來源:行業(yè)學(xué)習(xí)與研究 ? 2023-05-25 09:31 ? 次閱讀

本文主要介紹原問題(PRIME PROBLEM)和對偶問題(DUAL PROBLEM),支持向量機優(yōu)化問題可通過原問題向?qū)ε紗栴}的轉(zhuǎn)化求解。

一、原問題的定義

原問題的定義為:

最小化:f(ω);

限制條件:gi(ω)≤0,i=1~K;hi(ω)=0,i=1~M。

其中,ω為多維向量,限制條件中具有K個不等式(gi(ω)≤0),M個等式(hi(ω)=0)。

二、對偶問題的定義

首先定義函數(shù):L(ω,α,β)=f(ω)+∑αigi(ω)+∑βihi(ω);

該函數(shù)向量形式的定義:L(ω,α,β)=f(ω)+αTg(ω)+βTh(ω);

該函數(shù)向量形式的定義中,α=[α1,α2,…,αK]T,β=[β1,β2,…,βM]T,g(ω)=[g1(ω),g2(ω),…,gK(ω)]T,h(ω)=[h1(ω),h2(ω),…,hM(ω)]T。

基于函數(shù)L(ω,α,β)的定義,原問題的對偶問題定義如下:

最大化:θ(α,β)=infL(ω,α,β);

限制條件:αi≥0,i=1~K。

其中,infL(ω,α,β)為遍歷所有ω后,取值最小的L(ω,α,β)。

三、定理一

根據(jù)以上定義,可得出定理一:

如果ω*是原問題的解,(α*,β*)是對偶問題的解,則有: f(ω*)≥θ(α*,β*)

該定理的證明如下: θ(α*,β*)=infL(ω,α*,β*)(將α*、β*代入對偶函數(shù)的定義)

≤L(ω*,α*,β*)(此步推導(dǎo)由于infL(ω,α*,β*)的取值最小)

=f(ω*)+α*Tg(ω*)+β*Th(ω*)(此步推導(dǎo)根據(jù)L(ω,α,β)的定義)

≤f(ω*)(此步推導(dǎo)由于原問題的限制條件gi(ω)≤0,hi(ω)=0,對偶問題的限制條件αi≥0)

四、強對偶定理

將f(ω*)-θ(α*,β*)定義為對偶差距(DUALITY GAP),根據(jù)上述定理,對偶差距是大于等于零的函數(shù)。

如果g(ω)=Aω+b,h(ω)=Cω+d,f(ω)為凸函數(shù),則有f(ω*)=θ(α*,β*),此時對偶差距等于零。該定理為強對偶定理(STRONG DUALITY THEOREM)。

強對偶定理可更通俗地表述為:原問題的目標(biāo)函數(shù)(f(ω))是凸函數(shù),原問題的限制條件是線性函數(shù),則原問題的解與對偶函數(shù)的解相等。

五、KKT條件

若f(ω*)=θ(α*,β*),則有: f(ω*)+α*Tg(ω*)+β*Th(ω*)=f(ω*); 即對于所有的i=1~K,要么αi=0,要么gi(ω*)=0(因為hi(ω)=0)。

該結(jié)論被稱為KKT條件,KKT分別代表先后獨立發(fā)現(xiàn)該結(jié)論的研究人員Karush、Kuhn、Tucker,該結(jié)論在Kuhn、Tucker發(fā)現(xiàn)后逐步被推廣。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 向量機
    +關(guān)注

    關(guān)注

    0

    文章

    166

    瀏覽量

    20833
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8349

    瀏覽量

    132315
  • GAP
    GAP
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    8291

原文標(biāo)題:機器學(xué)習(xí)相關(guān)介紹(12)——支持向量機(原問題和對偶問題)

文章出處:【微信號:行業(yè)學(xué)習(xí)與研究,微信公眾號:行業(yè)學(xué)習(xí)與研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    #硬聲創(chuàng)作季 人工智能入門課程:12. [2.7.1]--支持向量(原問題和對偶問題)

    向量人工智能機器學(xué)習(xí)
    Mr_haohao
    發(fā)布于 :2022年09月21日 11:11:05

    12. 2 7 支持向量(原問題和對偶問題) #硬聲創(chuàng)作季

    機器學(xué)習(xí)
    充八萬
    發(fā)布于 :2023年07月07日 01:27:18

    支持向量的SVM

    支持向量SVM
    發(fā)表于 05-20 10:21

    特征加權(quán)支持向量

    該文針對現(xiàn)有的加權(quán)支持向量(WSVM)和模糊支持向量(FSVM)只考慮樣本重要性而沒有考慮特
    發(fā)表于 11-21 11:15 ?15次下載

    基于改進支持向量的貨幣識別研究

    首先,預(yù)抽取支持向量以減少訓(xùn)練樣本數(shù)量,大大縮減訓(xùn)練時間;然后,用縮減后的樣本對改進后的分類支持向量進行貨幣識別,改進后的
    發(fā)表于 12-14 14:57 ?14次下載

    基于支持向量(SVM)的工業(yè)過程辨識

    支持向量應(yīng)用到典型的時變、非線性工業(yè)過程 連續(xù)攪拌反應(yīng)釜的辨識中, 并與BP 神經(jīng)網(wǎng)絡(luò)建模相比較, 仿真結(jié)果表明了支持向量
    發(fā)表于 03-30 16:12 ?42次下載
    基于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(SVM)的工業(yè)過程辨識

    基于標(biāo)準(zhǔn)支持向量的陣列波束優(yōu)化及實現(xiàn)

    為了考察基于支持向量算法的波束形成器在實際水聲環(huán)境中的主瓣寬度、旁瓣級以及陣增益等性能,將標(biāo)準(zhǔn)支持向量
    發(fā)表于 11-10 11:03 ?13次下載
    基于標(biāo)準(zhǔn)<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>的陣列波束優(yōu)化及實現(xiàn)

    模糊支持向量的改進方法

    了基于同類中心和異類中心雙參照點的噪聲判別方法;分析了模糊支持向量求解對偶問題中參數(shù)與支持向量
    發(fā)表于 11-29 16:19 ?0次下載
    模糊<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>的改進方法

    基于向量隨機投影特征降維分類下降解決方案

    針對大型支持向量(SVM)經(jīng)隨機投影特征降維后分類精度下降的問題,結(jié)合對偶恢復(fù)理論,提出了面向大規(guī)模分類問題的基于對偶隨機投影的線性核
    發(fā)表于 12-01 10:30 ?1次下載
    基于<b class='flag-5'>向量</b><b class='flag-5'>機</b>隨機投影特征降維分類下降解決方案

    多分類孿生支持向量研究進展

    孿生支持向量因其簡單的模型、快速的訓(xùn)練速度和優(yōu)秀的性能而受到廣泛關(guān)注.該算法最初是為解決二分類問題而提出的。不能直接用于解決現(xiàn)實生活中普遍存在的多分類問題.近來,學(xué)者們致力于將二分類孿生支持
    發(fā)表于 12-19 11:32 ?0次下載

    基于支持向量的測深激光信號處理

    針對淺海探測中激光回波噪聲源多、信噪比低,傳統(tǒng)非加權(quán)最小二乘支持向量和加權(quán)最小二乘支持向量
    發(fā)表于 12-21 13:46 ?0次下載

    支持向量的故障預(yù)測模型

    針對現(xiàn)有的故障預(yù)測技術(shù)無法從整體上反映系統(tǒng)性能下降趨勢等問題,提出一種基于健康度分析的故障預(yù)測方法。首先,在支持向量回歸算法基礎(chǔ)上構(gòu)造多輸出支持
    發(fā)表于 12-29 11:24 ?0次下載

    關(guān)于支持向量(SVMs)

    支持向量(Support Vector Machine: SVM)是一種非常有用的監(jiān)督式機器學(xué)習(xí)算法
    的頭像 發(fā)表于 04-02 08:52 ?4157次閱讀
    關(guān)于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(SVMs)

    什么是支持向量 什么是支持向量

    支持向量,英文為Support Vector Machine,簡稱SV(論文中一般簡稱SVM)。它是一 種監(jiān)督式學(xué)習(xí)的方法,它廣泛的應(yīng)用于統(tǒng)計分類以及回歸分析中。
    發(fā)表于 01-28 16:01 ?2.2w次閱讀
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b> 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    支持向量(核函數(shù)的定義)

    根據(jù)機器學(xué)習(xí)相關(guān)介紹(10)——支持向量(低維到高維的映射),支持向量可通過引入φ(x)函數(shù)
    的頭像 發(fā)表于 05-20 10:41 ?767次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(核函數(shù)的定義)