0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多核學(xué)習(xí)方法的三大類別介紹

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:Walker ? 2020-05-04 18:14 ? 次閱讀

通過上篇文章的學(xué)習(xí),我們知道,相比于單個核函數(shù),多核模型可以具有更高的靈活性。經(jīng)過多個核函數(shù)映射后的高維空間是由多個特征空間組合而成的組合空間,而顯然組合空間可以組合各個子空間不同的特征映射能力,能夠?qū)悩?gòu)數(shù)據(jù)中的不同特征分量分別通過最合適的單個核函數(shù)進(jìn)行映射,最終使得數(shù)據(jù)在新的組合空間中能夠得到更加準(zhǔn)確、合理的表達(dá),進(jìn)而提高樣本數(shù)據(jù)的分類正確率或預(yù)測精度。

多核學(xué)習(xí)方法根據(jù)不同的分類標(biāo)準(zhǔn)有不同的分類方式,按照多核函數(shù)的構(gòu)造方法和特點的不同,可以將多核學(xué)習(xí)方法大致分成三大類別:合成核方法、多尺度核方法、無限核方法。

一、合成核方法

把具有不同特性的多個核函數(shù)進(jìn)行組合,就會得到包含各個單核函數(shù)的總體特性的多核函數(shù)。多核函數(shù)形成的方式本身就使得多核函數(shù)具有更加準(zhǔn)確、更加強(qiáng)大的映射能力或者分類能力,特別是對于實際應(yīng)用中樣本數(shù)據(jù)具有比較復(fù)雜分布結(jié)構(gòu)的分類、回歸等學(xué)習(xí)問題,多核學(xué)習(xí)的優(yōu)點非常明顯。

(1)多核線性組合合成方法

多核線性組合方法是將基本核函數(shù)進(jìn)行線性組合,用表達(dá)式可以如下所示描述:

假設(shè)變量 x,z ∈X,其中 X 屬于 R(n)空間,非線性函數(shù)Φ能夠?qū)崿F(xiàn)輸入空間 X到特征空間 F 的映射,其中 F ∈R(m),m>>n。假設(shè)已知的基本核函數(shù)為k (x,z) ,再將其進(jìn)行歸一化為?k(x,z),則可以通過以下方式進(jìn)行線性組合得到多核函數(shù):

直接求和核其中, 其中 ?k(x,z) 為第 i 個基本核函數(shù)。

多核學(xué)習(xí)方法的三大類別介紹

加權(quán)求和核,其中βi為第 i 個核函數(shù)的權(quán)值。

多核學(xué)習(xí)方法的三大類別介紹

多項式加權(quán)擴(kuò)展核,其中kp(x,z)是k (x,z) 的多項式擴(kuò)展。

多核學(xué)習(xí)方法的三大類別介紹

(2)多核擴(kuò)展合成方法

上述描述的多核組合方法主要是基于將基本核函數(shù)直接求和或者加權(quán)求和的思想實現(xiàn)多個核函數(shù)的結(jié)合,但這樣的方法最大的問題是可能丟失原始數(shù)據(jù)的某些特征信息,比如數(shù)據(jù)分布的某塊區(qū)域包含很多信息并且是多變的,當(dāng)使用平均或者加權(quán)平均的方式將該部分?jǐn)?shù)據(jù)“平滑”之后,能夠表示多變信息的數(shù)據(jù)很有可能被不用的核函數(shù)給平滑掉,有可能導(dǎo)致最終的特征信息不完整,降低分類器的分類能力和準(zhǔn)確性,基于上述考慮,產(chǎn)生了將原有多核矩陣進(jìn)行擴(kuò)展合成的方法,也就是最終能夠使用的多核矩陣是由原先的單個核矩陣和其核矩陣共同構(gòu)成的。因此, 原始核函數(shù)的性質(zhì)得以保留。該合成核矩陣的形式為:

多核學(xué)習(xí)方法的三大類別介紹

可以看出, 原始核矩陣位于新矩陣的對角線上. 其他所有元素是定義為 (Kp,p0)i,j= Kp,p0(xi , xj ) 的兩個不同核矩陣的混合, 可由如下公式求得 (以兩個 高斯核為例):

多核學(xué)習(xí)方法的三大類別介紹

很明顯,當(dāng)p = p 0 時, Kp,p ≡ Kp.實驗結(jié)果顯示,當(dāng)數(shù)據(jù)集具有變化的局部數(shù)據(jù)分布時,這種合成核方法將是更好的選擇.此外, 通常核組合方法在很大程度上依靠訓(xùn)練數(shù)據(jù),并且必須通過學(xué)習(xí)獲取一些權(quán)系數(shù),以標(biāo)識每個核的重要性.

(3)非平穩(wěn)多核學(xué)習(xí)

前邊的多核線性組合方法都是對核函數(shù)的平穩(wěn)組合, 即對所有輸入樣本, 不同的核對應(yīng)的權(quán)值是不變的, 無形中對樣本進(jìn)行了一種平均處理.Lewis 提出了一種多核的非平穩(wěn)組合方法, 對每個輸入樣本配以不同的權(quán)值系數(shù).如常規(guī) SVM判別函數(shù)為:

多核學(xué)習(xí)方法的三大類別介紹

引入不同的加權(quán)系數(shù), 典型的合成核 SVM 的判別函數(shù)可以改寫為:

多核學(xué)習(xí)方法的三大類別介紹

在最大熵判別框架下, 通過使用一種大間隔隱變量生成模型, 使得隱參數(shù)估計問題可以通過變化邊界和一個內(nèi)點優(yōu)化過程來表示, 并且相應(yīng)的參數(shù)估計可以通過快速的序列最小優(yōu)化算法實現(xiàn)。

(4)局部多核學(xué)習(xí)

針對多核學(xué)習(xí)在整個輸入空間中對某個核都是分配相同權(quán)值的問題, 利用一種選通模型 (Gating model) 局部地選擇合適核函數(shù), 提出了一種局部多核學(xué)習(xí)算法. 在SVM 框架下, 其判別函數(shù)形如:

多核學(xué)習(xí)方法的三大類別介紹

這里的vm 和vm0 是選通模型參數(shù), 可以在多核學(xué)習(xí)過程中通過梯度下降法獲得.將局部選通模型和基于核的分類器相結(jié)合,優(yōu)化問題可以用一種聯(lián)合的方式加以解決。

二、多個尺度的多核學(xué)習(xí): 多尺度核方法

合成核方法雖然有了一些成功應(yīng)用,但都是根據(jù)簡單核函數(shù)的線性組合, 生成滿足Merce條件的新核函數(shù);核函數(shù)參數(shù)的選擇與組合沒有依據(jù)可循,對樣本的不平坦分布仍無法圓滿解決,限制了決策函數(shù)的表示能力。在此情況下,出現(xiàn)了多核學(xué)習(xí)的一種特殊化情形,即將多個尺度的核進(jìn)行融合。這種方法更具靈活性, 并且能比合成核方法提供更完備的尺度選擇.此外,隨著小波理論、多尺度分析理論的不斷成熟與完善,多尺度核方法通過引入尺度空間,使其具有了很好的理論背景。

多尺度核方法的基礎(chǔ)就是要找到一組具有多尺度表示能力的核函數(shù). 在被廣泛使用的核函數(shù)中, 高斯徑向基核是最受歡迎的, 因為它們具有通用普遍的近似能力,同時它也是一種典型的可多尺度化核. 以此核為例,將其多尺度化 (假設(shè)其具有平移不變性):

多核學(xué)習(xí)方法的三大類別介紹

多核學(xué)習(xí)方法的三大類別介紹

其中, σ1 < · · · < σm. 可以看出, 當(dāng)σ較小時, SVC可以對那些劇烈變化的樣本進(jìn)行分類; 而當(dāng)σ較大 時, 可以用來對那些平緩變化的樣本進(jìn)行分類, 能得到更優(yōu)的泛化能力. 具體實現(xiàn)時,σ的取值可以借鑒 小波變換中尺度變化的規(guī)律, σ可由下式定義:

多核學(xué)習(xí)方法的三大類別介紹

對多尺度核的學(xué)習(xí)方法:

很直觀的思路就是進(jìn)行多尺度核的序列學(xué)習(xí). 多尺度核序列合成方法。簡單理解就是先用大尺度核擬合對應(yīng)決策函數(shù)平滑區(qū)域的樣本, 然后用小尺度核擬合決策函數(shù)變化相對劇烈區(qū)域的樣本, 后面的步驟利用前面步驟的結(jié)果,進(jìn)行逐級優(yōu)化,最終得到更優(yōu)的分類結(jié)果??紤]一個兩尺度核 k1 和 k2 合成的分類問題. 我們要得到合成的決策函數(shù):

多核學(xué)習(xí)方法的三大類別介紹

設(shè)想k1是一個大尺度的核函數(shù)(如σ較大的徑 向基函數(shù)),相關(guān)的核項系數(shù) αi 選擇那些決策函數(shù)f(x)光滑區(qū)域?qū)?yīng)的支持向量而k2是小尺度核函數(shù),核項系數(shù)βi選擇那些決策函數(shù)f(x)劇烈變化區(qū)域?qū)?yīng)的支持向量.具體方法是: 首先通過大尺度的單核 k1 構(gòu)造函數(shù)f1(x),這樣,該函數(shù)可以很好地擬合光滑區(qū)域,但在其他地方存在顯著誤差,可以使用相對較小的松弛因子來求取αi;然后,在 f1(x)基礎(chǔ)上使用小尺度的核 k2 構(gòu)造 f2(x), 使得聯(lián)合函數(shù) f1(x) + f2(x)比f1(x) 具有更好的擬合性能.這種方法實際上是多次使用二次規(guī)劃以實現(xiàn)參數(shù)的獲取,運算復(fù)雜度較高, 同時支持向量的數(shù)量大量增加。

三、從有限向無限核的擴(kuò)展 : 無限核方法

合成核與多尺度核方法都是在有限個核函數(shù)線性組合前提下加以討論的。但對一些大規(guī)模問題,基于有限個核的多核處理方法不一定有效,多核融合的決策函數(shù)的表示能力也不能達(dá)到處處最優(yōu)。 此外,在一個多尺度核函數(shù)族中, 有限個核函數(shù)的選 擇并不唯一,并且其不能完備地表征這個核函數(shù)族.因此,將有限核向無限核的擴(kuò)展也是一個重要的方向。

無限核是從由多個基本核函數(shù)的合法集合所構(gòu)成的一個凸殼中找到某個核,使其能最小化凸正則化函數(shù).與其他方法相比,這個方法有一個獨有的特征,即上述基本核的個數(shù)可以是無限多個, 僅僅需要這些核是連續(xù)參數(shù)化的.此外,用半無限規(guī)劃解決來自通用核類型的核函數(shù)學(xué)習(xí)問題。

IKL 可以比SVM/MKL 大大提高分類正確率, 在這些情況下,IKL 能保持它的實用性, 而交叉驗證和 MKL 都是不實用的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 多核
    +關(guān)注

    關(guān)注

    0

    文章

    43

    瀏覽量

    12377
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4340

    瀏覽量

    62793
收藏 人收藏

    評論

    相關(guān)推薦

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問題上的開發(fā)和測試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?293次閱讀
    傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    《DNESP32S3使用指南-IDF版_V1.6》第一章 本書學(xué)習(xí)方法

    第一章 本書學(xué)習(xí)方法 為了讓大家更好的學(xué)習(xí)和使用本書,本章將給大家介紹一下本書的學(xué)習(xí)方法,包括:本書的學(xué)習(xí)順序、編寫規(guī)范、代碼規(guī)范、資料查找
    發(fā)表于 11-20 09:54

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是讓計算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的機(jī)器學(xué)習(xí)的定義是“利用經(jīng)
    的頭像 發(fā)表于 11-16 01:07 ?460次閱讀
    什么是機(jī)器<b class='flag-5'>學(xué)習(xí)</b>?通過機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問題?

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機(jī)器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?340次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?234次閱讀
    Pytorch深度<b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的<b class='flag-5'>方法</b>

    谷歌AlphaChip強(qiáng)化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計領(lǐng)域取得了重要突破,詳細(xì)介紹了其用于芯片設(shè)計布局的強(qiáng)化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計流程,并幫助芯片在性能、功耗和面積方面實現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?444次閱讀

    定向天線的關(guān)鍵技術(shù)和大類

    定向天線,這一大類在天線領(lǐng)域的關(guān)注度比全向天線低了不少。但是定向天線同樣有著很多全向天線沒有的優(yōu)勢。本期我們將單獨介紹定向天線,了解其特質(zhì)和實際使用。
    的頭像 發(fā)表于 09-09 14:54 ?727次閱讀

    《DNK210使用指南 -CanMV版 V1.0》第一章本書學(xué)習(xí)方法

    第一章 本書學(xué)習(xí)方法 為了讓讀者更好地學(xué)習(xí)和使用本書,本章將為讀者介紹本書的學(xué)習(xí)方法,包括:本書的學(xué)習(xí)順序、編寫規(guī)范、代碼規(guī)范、資料查找和
    發(fā)表于 08-28 17:57

    【《時間序列與機(jī)器學(xué)習(xí)》閱讀體驗】+ 了解時間序列

    。 可以探索現(xiàn)象發(fā)展變化的規(guī)律,對某些社會經(jīng)濟(jì)現(xiàn)象進(jìn)行預(yù)測。 利用時間序列可以在不同地區(qū)或國家之間進(jìn)行對比分析,這也是統(tǒng)計分析的重要方法之一。 而《時間序列與機(jī)器學(xué)習(xí)》一書的后幾章分別介紹了時間序列在廣告
    發(fā)表于 08-11 17:55

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?846次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計算機(jī)科學(xué)領(lǐng)域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度學(xué)習(xí)簡介 深度
    的頭像 發(fā)表于 07-05 09:47 ?992次閱讀

    深度學(xué)習(xí)的模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)模型進(jìn)行優(yōu)化與調(diào)試是確保其性能優(yōu)越的關(guān)鍵步驟。本文將從數(shù)據(jù)預(yù)處理、模型設(shè)計、超參數(shù)調(diào)整、正則化、模型集成以及調(diào)試與驗證等方面,詳細(xì)
    的頭像 發(fā)表于 07-01 11:41 ?895次閱讀

    risc-v多核芯片在AI方面的應(yīng)用

    得RISC-V多核芯片能夠更好地適應(yīng)AI算法的不同需求,包括深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等,從而提高芯片的性能和效率,降低成本,使AI邊緣計算晶片更具競爭力。 再者,RISC-V的多核設(shè)計可以進(jìn)一步提高
    發(fā)表于 04-28 09:20

    Si晶體管的類別介紹

    硅(Si)晶體管是現(xiàn)代電子學(xué)的基本構(gòu)建模塊,它們在計算機(jī)、通信系統(tǒng)、消費電子產(chǎn)品以及電力管理中扮演著至關(guān)重要的角色。硅作為半導(dǎo)體材料的優(yōu)勢在于其豐富的資源、成熟的加工技術(shù)以及相對低廉的成本。根據(jù)不同的標(biāo)準(zhǔn),硅晶體管可以被分為多種類型。 小信號晶體管:主要用于信號放大,處理的電壓和電流較低。 功率晶體管:設(shè)計用來處理較高的電流和/或電壓,常用于電源供應(yīng)、電機(jī)驅(qū)動等。 金屬氧化物半導(dǎo)體場效應(yīng)晶體管(MOSFET):使用
    的頭像 發(fā)表于 02-23 14:13 ?734次閱讀
    Si晶體管的<b class='flag-5'>類別介紹</b>

    深入淺出理解極管

    記憶(比如在介紹相對論中引力扭曲時空的概念時,國外科學(xué)家們就用生活中的漩渦,或者在彈性膜中間的重球,來類比星體引力對時空的影響,這樣會大大簡化我們學(xué)習(xí)、理解和記憶的過程,這種學(xué)習(xí)方法被稱為類比
    的頭像 發(fā)表于 02-23 08:41 ?725次閱讀
    深入淺出理解<b class='flag-5'>三</b>極管