0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對偶支持向量機DSVM

冬至子 ? 來源:AI有道 ? 作者:紅色石頭 ? 2023-06-01 15:38 ? 次閱讀

1

Motivation of Dual SVM

首先,我們回顧一下,對于非線性SVM,我們通??梢允褂梅蔷€性變換將變量從x域轉(zhuǎn)換到z域中。然后,在z域中,根據(jù)上一節(jié)課的內(nèi)容,使用線性SVM解決問題即可。上一節(jié)課我們說過,使用SVM得到large-margin,減少了有效的VC Dimension,限制了模型復(fù)雜度;另一方面,使用特征轉(zhuǎn)換,目的是讓模型更復(fù)雜,減小Ein。

所以說,非線性SVM是把這兩者目的結(jié)合起來,平衡這兩者的關(guān)系。那么,特征轉(zhuǎn)換下,求解QP問題在z域中的維度設(shè)為d^+1,如果模型越復(fù)雜,則d^+1越大,相應(yīng)求解這個QP問題也變得很困難。當(dāng)d^無限大的時候,問題將會變得難以求解,那么有沒有什么辦法可以解決這個問題呢?一種方法就是使SVM的求解過程不依賴d^,這就是我們本節(jié)課所要討論的主要內(nèi)容。

圖片

比較一下,我們上一節(jié)課所講的Original SVM二次規(guī)劃問題的變量個數(shù)是d^+1,有N個限制條件;而本節(jié)課,我們把問題轉(zhuǎn)化為對偶問題(’Equivalent’ SVM),同樣是二次規(guī)劃,只不過變量個數(shù)變成N個,有N+1個限制條件。這種對偶SVM的好處就是問題只跟N有關(guān),與d^無關(guān),這樣就不存在上文提到的當(dāng)d^無限大時難以求解的情況。

圖片

如何把問題轉(zhuǎn)化為對偶問題(’Equivalent’ SVM),其中的數(shù)學(xué)推導(dǎo)非常復(fù)雜,本文不做詳細數(shù)學(xué)論證,但是會從概念和原理上進行簡單的推導(dǎo)。

圖片

圖片

所以,在regularization問題中,λ是已知常量,求解過程變得容易。那么,對于dual SVM問題,同樣可以引入λ,將條件問題轉(zhuǎn)換為非條件問題,只不過λ是未知參數(shù),且個數(shù)是N,需要對其進行求解。

圖片

圖片

圖片

這個函數(shù)右邊第一項是SVM的目標(biāo),第二項是SVM的條件和拉格朗日因子αn的乘積。我們把這個函數(shù)稱為拉格朗日函數(shù),其中包含三個參數(shù):b,w,αn。

圖片

下面,我們利用拉格朗日函數(shù),把SVM構(gòu)造成一個非條件問題:

圖片

圖片

2

Lagrange Dual SVM

現(xiàn)在,我們已經(jīng)將SVM問題轉(zhuǎn)化為與拉格朗日因子αn有關(guān)的最大最小值形式。已知αn≥0,那么對于任何固定的α′,且αn′≥0,一定有如下不等式成立:

圖片

對上述不等式右邊取最大值,不等式同樣成立:

圖片

上述不等式表明,我們對SVM的min和max做了對調(diào),滿足這樣的關(guān)系,這叫做Lagrange dual problem。不等式右邊是SVM問題的下界,我們接下來的目的就是求出這個下界。

已知≥是一種弱對偶關(guān)系,在二次規(guī)劃QP問題中,如果滿足以下三個條件:

  • 函數(shù)是凸的(convex primal)
  • 函數(shù)有解(feasible primal)
  • 條件是線性的(linear constraints)

那么,上述不等式關(guān)系就變成強對偶關(guān)系,≥變成=,即一定存在滿足條件的解(b,w,α),使等式左邊和右邊都成立,SVM的解就轉(zhuǎn)化為右邊的形式。

經(jīng)過推導(dǎo),SVM對偶問題的解已經(jīng)轉(zhuǎn)化為無條件形式:

圖片

其中,上式括號里面的是對拉格朗日函數(shù)L(b,w,α)計算最小值。那么根據(jù)梯度下降算法思想:最小值位置滿足梯度為零。首先,令L(b,w,α)對參數(shù)b的梯度為零:

圖片

圖片

圖片

這樣,SVM表達式消去了b,問題化簡了一些。然后,再根據(jù)最小值思想,令L(b,w,α)對參數(shù)w的梯度為零:

圖片

即得到:

圖片

圖片

圖片

這樣,SVM表達式消去了w,問題更加簡化了。這時候的條件有3個:

圖片

圖片

總結(jié)一下,SVM最佳化形式轉(zhuǎn)化為只與αn有關(guān):

圖片

其中,滿足最佳化的條件稱之為Karush-Kuhn-Tucker(KKT):

圖片

在下一部分中,我們將利用KKT條件來計算最優(yōu)化問題中的α,進而得到b和w。

3

Solving Dual SVM

上面我們已經(jīng)得到了dual SVM的簡化版了,接下來,我們繼續(xù)對它進行一些優(yōu)化。首先,將max問題轉(zhuǎn)化為min問題,再做一些條件整理和推導(dǎo),得到:

圖片

顯然,這是一個convex的QP問題,且有N個變量αn,限制條件有N+1個。則根據(jù)上一節(jié)課講的QP解法,找到Q,p,A,c對應(yīng)的值,用軟件工具包進行求解即可。

圖片

圖片

圖片

圖片

圖片

圖片

4

Messages behind Dual SVM

回憶一下,上一節(jié)課中,我們把位于分類線邊界上的點稱為support vector(candidates)。本節(jié)課前面介紹了αn>0的點一定落在分類線邊界上,這些點稱之為support vector(注意沒有candidates)。也就是說分類線上的點不一定都是支持向量,但是滿足αn>0的點,一定是支持向量。

圖片

SV只由αn>0的點決定,根據(jù)上一部分推導(dǎo)的w和b的計算公式,我們發(fā)現(xiàn),w和b僅由SV即αn>0的點決定,簡化了計算量。這跟我們上一節(jié)課介紹的分類線只由“胖”邊界上的點所決定是一個道理。也就是說,樣本點可以分成兩類:一類是support vectors,通過support vectors可以求得fattest hyperplane;另一類不是support vectors,對我們求得fattest hyperplane沒有影響。

圖片

回過頭來,我們來比較一下SVM和PLA的w公式:

圖片

圖片

圖片

總結(jié)一下,本節(jié)課和上節(jié)課主要介紹了兩種形式的SVM,一種是Primal Hard-Margin SVM,另一種是Dual Hard_Margin SVM。Primal Hard-Margin SVM有d^+1個參數(shù),有N個限制條件。當(dāng)d^+1很大時,求解困難。而Dual Hard_Margin SVM有N個參數(shù),有N+1個限制條件。當(dāng)數(shù)據(jù)量N很大時,也同樣會增大計算難度。兩種形式都能得到w和b,求得fattest hyperplane。通常情況下,如果N不是很大,一般使用Dual SVM來解決問題。

圖片

圖片

圖片

5

Summary

本節(jié)課主要介紹了SVM的另一種形式:Dual SVM。我們這樣做的出發(fā)點是為了移除計算過程對d^的依賴。Dual SVM的推導(dǎo)過程是通過引入拉格朗日因子α,將SVM轉(zhuǎn)化為新的非條件形式。然后,利用QP,得到最佳解的拉格朗日因子α。再通過KKT條件,計算得到對應(yīng)的w和b。最終求得fattest hyperplane。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Dual
    +關(guān)注

    關(guān)注

    0

    文章

    49

    瀏覽量

    23215
  • 向量機
    +關(guān)注

    關(guān)注

    0

    文章

    166

    瀏覽量

    20887
  • SVM
    SVM
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    32496
  • kkt
    kkt
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    4009
收藏 人收藏

    評論

    相關(guān)推薦

    基于支持向量的預(yù)測函數(shù)控制

    基于支持向量的預(yù)測函數(shù)控制 Predictive Functional Control Based on Support Vector Machine
    發(fā)表于 03-17 09:24 ?21次下載

    特征加權(quán)支持向量

    該文針對現(xiàn)有的加權(quán)支持向量(WSVM)和模糊支持向量(FSVM)只考慮樣本重要性而沒有考慮特
    發(fā)表于 11-21 11:15 ?15次下載

    基于改進支持向量的貨幣識別研究

    首先,預(yù)抽取支持向量以減少訓(xùn)練樣本數(shù)量,大大縮減訓(xùn)練時間;然后,用縮減后的樣本對改進后的分類支持向量進行貨幣識別,改進后的
    發(fā)表于 12-14 14:57 ?14次下載

    基于支持向量(SVM)的工業(yè)過程辨識

    支持向量應(yīng)用到典型的時變、非線性工業(yè)過程 連續(xù)攪拌反應(yīng)釜的辨識中, 并與BP 神經(jīng)網(wǎng)絡(luò)建模相比較, 仿真結(jié)果表明了支持向量
    發(fā)表于 03-30 16:12 ?42次下載
    基于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(SVM)的工業(yè)過程辨識

    基于標(biāo)準(zhǔn)支持向量的陣列波束優(yōu)化及實現(xiàn)

    為了考察基于支持向量算法的波束形成器在實際水聲環(huán)境中的主瓣寬度、旁瓣級以及陣增益等性能,將標(biāo)準(zhǔn)支持向量
    發(fā)表于 11-10 11:03 ?13次下載
    基于標(biāo)準(zhǔn)<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>的陣列波束優(yōu)化及實現(xiàn)

    模糊支持向量的改進方法

    了基于同類中心和異類中心雙參照點的噪聲判別方法;分析了模糊支持向量求解對偶問題中參數(shù)與支持向量
    發(fā)表于 11-29 16:19 ?0次下載
    模糊<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>的改進方法

    基于向量隨機投影特征降維分類下降解決方案

    針對大型支持向量(SVM)經(jīng)隨機投影特征降維后分類精度下降的問題,結(jié)合對偶恢復(fù)理論,提出了面向大規(guī)模分類問題的基于對偶隨機投影的線性核
    發(fā)表于 12-01 10:30 ?1次下載
    基于<b class='flag-5'>向量</b><b class='flag-5'>機</b>隨機投影特征降維分類下降解決方案

    多分類孿生支持向量研究進展

    孿生支持向量因其簡單的模型、快速的訓(xùn)練速度和優(yōu)秀的性能而受到廣泛關(guān)注.該算法最初是為解決二分類問題而提出的。不能直接用于解決現(xiàn)實生活中普遍存在的多分類問題.近來,學(xué)者們致力于將二分類孿生支持
    發(fā)表于 12-19 11:32 ?0次下載

    基于支持向量的測深激光信號處理

    針對淺海探測中激光回波噪聲源多、信噪比低,傳統(tǒng)非加權(quán)最小二乘支持向量和加權(quán)最小二乘支持向量
    發(fā)表于 12-21 13:46 ?0次下載

    支持向量的故障預(yù)測模型

    針對現(xiàn)有的故障預(yù)測技術(shù)無法從整體上反映系統(tǒng)性能下降趨勢等問題,提出一種基于健康度分析的故障預(yù)測方法。首先,在支持向量回歸算法基礎(chǔ)上構(gòu)造多輸出支持
    發(fā)表于 12-29 11:24 ?0次下載

    關(guān)于支持向量(SVMs)

    支持向量(Support Vector Machine: SVM)是一種非常有用的監(jiān)督式機器學(xué)習(xí)算法
    的頭像 發(fā)表于 04-02 08:52 ?4207次閱讀
    關(guān)于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(SVMs)

    什么是支持向量 什么是支持向量

    支持向量,英文為Support Vector Machine,簡稱SV(論文中一般簡稱SVM)。它是一 種監(jiān)督式學(xué)習(xí)的方法,它廣泛的應(yīng)用于統(tǒng)計分類以及回歸分析中。
    發(fā)表于 01-28 16:01 ?2.2w次閱讀
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b> 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    支持向量(核函數(shù)的定義)

    根據(jù)機器學(xué)習(xí)相關(guān)介紹(10)——支持向量(低維到高維的映射),支持向量可通過引入φ(x)函數(shù)
    的頭像 發(fā)表于 05-20 10:41 ?842次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(核函數(shù)的定義)

    支持向量(原問題和對偶問題)

    本文主要介紹原問題(PRIME PROBLEM)和對偶問題(DUAL PROBLEM),支持向量優(yōu)化問題可通過原問題向對偶問題的轉(zhuǎn)化求解。
    的頭像 發(fā)表于 05-25 09:31 ?1437次閱讀

    支持向量(兵王問題描述)

    本文主要內(nèi)容為采用支持向量(SVM)解決國際象棋兵王問題。
    的頭像 發(fā)表于 06-09 17:52 ?1384次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>(兵王問題描述)