0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于下界函數(shù)的最優(yōu)化這樣一種優(yōu)化思路

WpOh_rgznai100 ? 來源:lq ? 2019-07-13 08:09 ? 次閱讀

導讀:生活中我們處處面臨最優(yōu)化的問題,比如,怎么樣一個月減掉的體重最高?怎么樣學習效率最高?怎么樣可以最大化實現(xiàn)個人價值?

顯然,每一個目標都受很多因素的影響,我們稱之為目標函數(shù)的最優(yōu)化。

優(yōu)化的思路有很多種,比如基于梯度的梯度下降,基于二階梯度的牛頓法,基于近似的二階梯度的擬牛頓法,基于下界函數(shù)的最優(yōu)化,貪婪算法,坐標下降法,將約束條件轉移到目標函數(shù)的拉格朗日乘子法等等。

本文我們討論一下基于下界函數(shù)的最優(yōu)化,且將討論的范圍限定為無約束條件的凸優(yōu)化。

基于下界函數(shù)的優(yōu)化

在有些情況下,我們知道目標函數(shù)的表達形式,但因為目標函數(shù)形式復雜不方便對變量直接求導。這個時候可以嘗試找到目標函數(shù)的一個下界函數(shù),通過對下界函數(shù)的優(yōu)化,來逐步的優(yōu)化目標函數(shù)。

上面的描述性推導很是抽象,下面我們來看兩個具體的例子,EM算法和改進的迭代尺度法。限于篇幅,我們重點推導EM算法,改進的迭代尺度法只是提及一下。

EM算法

改進迭代算法

概率模型中最大熵模型的訓練,最早用的是通用迭代法GIS(Generalized Iterative Scaling)。GIS的原理很簡單,大致包括以下步驟:

假定初始模型(第0次迭代)為等概率的均勻分布。

用第k次迭代的模型來估算每種信息特征在訓練數(shù)據(jù)中的分布,如果超過了實際的,就把相應的模型參數(shù)變小;反之,將參數(shù)變大。

重復步驟2,直到收斂。

GIS算法,本質上就是一種EM算法,原理簡單步驟清晰,但問題是收斂太慢了。Della Pietra兄弟在1996年對GIS進行了改進,提出了IIS(Improved Iterative Scaling)算法。IIS利用log函數(shù)的性質,以及指數(shù)函數(shù)的凸性,對目標函數(shù)進行了兩次縮放,來求解下界函數(shù)。詳情可參閱李航的《統(tǒng)計學習方法》一書。

小結

本文討論了一下基于下界函數(shù)的最優(yōu)化這樣一種優(yōu)化思路,希望對大家有所幫助。同時也一如既往地歡迎批評指正,以及大神拍磚。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4644

    瀏覽量

    93670
  • 函數(shù)
    +關注

    關注

    3

    文章

    4352

    瀏覽量

    63250

原文標題:優(yōu)化思路千萬種,基于下界函數(shù)的最優(yōu)化效率如何?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    一種基于經(jīng)優(yōu)化算法優(yōu)化過的神經(jīng)網(wǎng)絡設計FIR濾波器的方法介紹

    最小,其次再使用模擬退火算法,以最小阻帶衰減為評價函數(shù)優(yōu)化網(wǎng)絡權值,使最后的結果朝著最優(yōu)值靠近。由該方法設計的濾波器,通帶和阻帶范圍無過沖、無波動,且阻帶的衰減高,初始條件隨機給定,算法速度快,因而是
    發(fā)表于 07-08 07:16

    labview數(shù)據(jù)的組合排序最優(yōu)化

    寫了個labview數(shù)據(jù)的組合排序最優(yōu)化程序我們假設有不同數(shù)據(jù)的尺寸1000個,現(xiàn)在給出假設1000mm長度,怎樣用這1000個數(shù)據(jù)尺寸去排列組合得到組數(shù)據(jù)是最化的,那么1000組數(shù)據(jù)1000*999*998....*2*1
    發(fā)表于 08-13 20:25

    粒子群算法城鎮(zhèn)能源優(yōu)化調度問題

    粒子群算法城鎮(zhèn)能源優(yōu)化調度問題,、簡介1 粒子群算法的概念粒子群優(yōu)化算法(PSO:Particle swarm optimization) 是一種進化計算技術(evolutionar
    發(fā)表于 07-07 06:04

    一種求解非線性約束優(yōu)化全局最優(yōu)的新方法

    本文提出了一種求解非線性約束優(yōu)化的全局最優(yōu)的新方法—它是基于利用非線性互補函數(shù)和不斷增加新的約束來重復解庫恩-塔克條件的非線性方程組的新方法。因為庫恩-塔克條
    發(fā)表于 08-11 10:53 ?16次下載

    一種解決函數(shù)優(yōu)化問題的免疫算法

    一種解決函數(shù)優(yōu)化問題的免疫算法:介紹了免疫算法的基本概念,以及人工免疫系統(tǒng)中的克隆選擇原理,基于該原理,結合遺傳策略中的高斯變異算子,提出一種免疫算法來解決
    發(fā)表于 11-08 16:47 ?14次下載

    Matlab最優(yōu)化方法

    介紹最優(yōu)化方法,其中包括網(wǎng)絡最大流,指派問題,運輸問題,最短路,關鍵路線法,以及二部圖的匹配問題。其使用方法有別于傳統(tǒng)方法,而是利用MATLAB構造多個自編函數(shù),使所述問
    發(fā)表于 11-30 16:41 ?0次下載
    Matlab<b class='flag-5'>最優(yōu)化</b>方法

    一種具有全局快速尋優(yōu)的多學科協(xié)同優(yōu)化方法

    針對協(xié)同優(yōu)化算法迭代次數(shù)多、易收斂于局部極值點問題,提出一種全局快速尋優(yōu)的協(xié)同優(yōu)化算法。在系統(tǒng)級致性等式約束中采用改進后松弛因子,改進動態(tài)松弛因子使
    發(fā)表于 11-17 15:01 ?3次下載
    <b class='flag-5'>一種</b>具有全局快速尋優(yōu)的多學科協(xié)同<b class='flag-5'>優(yōu)化</b>方法

    一種改進的協(xié)同優(yōu)化算法

    針對協(xié)同優(yōu)化過程對初始點敏感以及容易陷入局部最優(yōu)點的問題,提出了一種改進的協(xié)同優(yōu)化算法。改進后的協(xié)同優(yōu)化算法綜合考慮學科級
    發(fā)表于 11-24 14:46 ?1次下載

    一種小生境灰狼優(yōu)化算法

    灰狼優(yōu)化算法 (Grey Wolf Optimizer,GWO)是一種模擬灰狼捕食行為的群體智能算法,該算法最先由澳大利亞學者Mirjalili于2014年提出,根據(jù)灰狼的社會等級將包圍、追捕、攻擊
    發(fā)表于 11-28 10:32 ?2次下載
    <b class='flag-5'>一種</b>小生境灰狼<b class='flag-5'>優(yōu)化</b>算法

    一種語義規(guī)則為指導的增量優(yōu)化方法

    為核心思路的增量分析技術。存在用戶透明性不佳、對歷史結果存儲位置的選擇不夠智能化等問題,對周期性增量查詢的優(yōu)化效果有限,從兼顧用戶透明性和優(yōu)化收益的角度出發(fā)。設計了一種以語義規(guī)則為指導
    發(fā)表于 12-27 11:24 ?0次下載
    <b class='flag-5'>一種</b>語義規(guī)則為指導的增量<b class='flag-5'>優(yōu)化</b>方法

    一種改進灰狼優(yōu)化算法的用于求解約束優(yōu)化問題

    針對基本灰狼優(yōu)化( GWO)算法存在求解精度低、收斂速度慢、局部搜索能力差的問題,提出一種改進灰狼優(yōu)化(IGWO)算法用于求解約束優(yōu)化問題。該算法采用非固定多段映射罰
    發(fā)表于 01-04 15:59 ?0次下載
    <b class='flag-5'>一種</b>改進灰狼<b class='flag-5'>優(yōu)化</b>算法的用于求解約束<b class='flag-5'>優(yōu)化</b>問題

    探析常見的幾種最優(yōu)化方法

    最優(yōu)化方法是一種數(shù)學方法,它是研究在給定約束之下如何尋求某些因素(的量),以使某(或某些)指標達到最優(yōu)些學科的總稱。
    的頭像 發(fā)表于 01-17 09:25 ?2788次閱讀
    探析常見的幾種<b class='flag-5'>最優(yōu)化</b>方法

    一種線性插值隨機對偶平均優(yōu)化方法

    樣本不滿足獨立同分布會使梯度估計在迭代過程中存在偏差,且最優(yōu)的個體收斂界在噪聲的干擾下無法確定。為此,提出一種線性插值隨機對偶平均(DA)優(yōu)化方法。給出DA方法收斂性的證明,在梯度估計有偏的基礎上
    發(fā)表于 05-25 16:20 ?4次下載

    一種微電網(wǎng)分布式神經(jīng)動力學優(yōu)化算法

    針對微電網(wǎng)多目標優(yōu)化計算量較大的問題,提出了一種考慮需求響應的微電網(wǎng)分布式神經(jīng)動力學優(yōu)化算法。首先考慮平均效率函數(shù)、微電網(wǎng)的排放、需求響應引起的不滿意度以及總利潤
    發(fā)表于 05-31 14:21 ?4次下載

    FPGA設計如何最優(yōu)化

    ? 這是筆者去年某個時間節(jié)點的感悟,由于工作繁忙,寫完后擱置邊了。而對于“設計最優(yōu)化”這個議題,筆者也直深感功力不夠,不敢多做闡釋。但是,不管怎樣,若能每隔幾年都好好做些反思回顧,讓自己
    的頭像 發(fā)表于 06-25 15:46 ?793次閱讀