0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于下界函數(shù)的最優(yōu)化這樣一種優(yōu)化思路

WpOh_rgznai100 ? 來源:lq ? 2019-07-13 08:09 ? 次閱讀

導(dǎo)讀:生活中我們處處面臨最優(yōu)化的問題,比如,怎么樣一個(gè)月減掉的體重最高?怎么樣學(xué)習(xí)效率最高?怎么樣可以最大化實(shí)現(xiàn)個(gè)人價(jià)值?

顯然,每一個(gè)目標(biāo)都受很多因素的影響,我們稱之為目標(biāo)函數(shù)的最優(yōu)化。

優(yōu)化的思路有很多種,比如基于梯度的梯度下降,基于二階梯度的牛頓法,基于近似的二階梯度的擬牛頓法,基于下界函數(shù)的最優(yōu)化,貪婪算法,坐標(biāo)下降法,將約束條件轉(zhuǎn)移到目標(biāo)函數(shù)的拉格朗日乘子法等等。

本文我們討論一下基于下界函數(shù)的最優(yōu)化,且將討論的范圍限定為無約束條件的凸優(yōu)化。

基于下界函數(shù)的優(yōu)化

在有些情況下,我們知道目標(biāo)函數(shù)的表達(dá)形式,但因?yàn)槟繕?biāo)函數(shù)形式復(fù)雜不方便對(duì)變量直接求導(dǎo)。這個(gè)時(shí)候可以嘗試找到目標(biāo)函數(shù)的一個(gè)下界函數(shù),通過對(duì)下界函數(shù)的優(yōu)化,來逐步的優(yōu)化目標(biāo)函數(shù)。

上面的描述性推導(dǎo)很是抽象,下面我們來看兩個(gè)具體的例子,EM算法和改進(jìn)的迭代尺度法。限于篇幅,我們重點(diǎn)推導(dǎo)EM算法,改進(jìn)的迭代尺度法只是提及一下。

EM算法

改進(jìn)迭代算法

概率模型中最大熵模型的訓(xùn)練,最早用的是通用迭代法GIS(Generalized Iterative Scaling)。GIS的原理很簡單,大致包括以下步驟:

假定初始模型(第0次迭代)為等概率的均勻分布。

用第k次迭代的模型來估算每種信息特征在訓(xùn)練數(shù)據(jù)中的分布,如果超過了實(shí)際的,就把相應(yīng)的模型參數(shù)變??;反之,將參數(shù)變大。

重復(fù)步驟2,直到收斂。

GIS算法,本質(zhì)上就是一種EM算法,原理簡單步驟清晰,但問題是收斂太慢了。Della Pietra兄弟在1996年對(duì)GIS進(jìn)行了改進(jìn),提出了IIS(Improved Iterative Scaling)算法。IIS利用log函數(shù)的性質(zhì),以及指數(shù)函數(shù)的凸性,對(duì)目標(biāo)函數(shù)進(jìn)行了兩次縮放,來求解下界函數(shù)。詳情可參閱李航的《統(tǒng)計(jì)學(xué)習(xí)方法》一書。

小結(jié)

本文討論了一下基于下界函數(shù)的最優(yōu)化這樣一種優(yōu)化思路,希望對(duì)大家有所幫助。同時(shí)也一如既往地歡迎批評(píng)指正,以及大神拍磚。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4612

    瀏覽量

    92891
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4331

    瀏覽量

    62618

原文標(biāo)題:優(yōu)化思路千萬種,基于下界函數(shù)的最優(yōu)化效率如何?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種基于經(jīng)優(yōu)化算法優(yōu)化過的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)FIR濾波器的方法介紹

    最小,其次再使用模擬退火算法,以最小阻帶衰減為評(píng)價(jià)函數(shù)優(yōu)化網(wǎng)絡(luò)權(quán)值,使最后的結(jié)果朝著最優(yōu)值靠近。由該方法設(shè)計(jì)的濾波器,通帶和阻帶范圍無過沖、無波動(dòng),且阻帶的衰減高,初始條件隨機(jī)給定,算法速度快,因而是
    發(fā)表于 07-08 07:16

    labview數(shù)據(jù)的組合排序最優(yōu)化

    寫了個(gè)labview數(shù)據(jù)的組合排序最優(yōu)化程序我們假設(shè)有不同數(shù)據(jù)的尺寸1000個(gè),現(xiàn)在給出假設(shè)1000mm長度,怎樣用這1000個(gè)數(shù)據(jù)尺寸去排列組合得到組數(shù)據(jù)是最化的,那么1000組數(shù)據(jù)1000*999*998....*2*1
    發(fā)表于 08-13 20:25

    粒子群算法城鎮(zhèn)能源優(yōu)化調(diào)度問題

    粒子群算法城鎮(zhèn)能源優(yōu)化調(diào)度問題,、簡介1 粒子群算法的概念粒子群優(yōu)化算法(PSO:Particle swarm optimization) 是一種進(jìn)化計(jì)算技術(shù)(evolutionar
    發(fā)表于 07-07 06:04

    一種求解非線性約束優(yōu)化全局最優(yōu)的新方法

    本文提出了一種求解非線性約束優(yōu)化的全局最優(yōu)的新方法—它是基于利用非線性互補(bǔ)函數(shù)和不斷增加新的約束來重復(fù)解庫恩-塔克條件的非線性方程組的新方法。因?yàn)閹於?塔克條
    發(fā)表于 08-11 10:53 ?16次下載

    一種解決函數(shù)優(yōu)化問題的免疫算法

    一種解決函數(shù)優(yōu)化問題的免疫算法:介紹了免疫算法的基本概念,以及人工免疫系統(tǒng)中的克隆選擇原理,基于該原理,結(jié)合遺傳策略中的高斯變異算子,提出一種免疫算法來解決
    發(fā)表于 11-08 16:47 ?14次下載

    Matlab最優(yōu)化方法

    介紹最優(yōu)化方法,其中包括網(wǎng)絡(luò)最大流,指派問題,運(yùn)輸問題,最短路,關(guān)鍵路線法,以及二部圖的匹配問題。其使用方法有別于傳統(tǒng)方法,而是利用MATLAB構(gòu)造多個(gè)自編函數(shù),使所述問
    發(fā)表于 11-30 16:41 ?0次下載
    Matlab<b class='flag-5'>最優(yōu)化</b>方法

    一種具有全局快速尋優(yōu)的多學(xué)科協(xié)同優(yōu)化方法

    針對(duì)協(xié)同優(yōu)化算法迭代次數(shù)多、易收斂于局部極值點(diǎn)問題,提出一種全局快速尋優(yōu)的協(xié)同優(yōu)化算法。在系統(tǒng)級(jí)致性等式約束中采用改進(jìn)后松弛因子,改進(jìn)動(dòng)態(tài)松弛因子使
    發(fā)表于 11-17 15:01 ?3次下載
    <b class='flag-5'>一種</b>具有全局快速尋優(yōu)的多學(xué)科協(xié)同<b class='flag-5'>優(yōu)化</b>方法

    一種改進(jìn)的協(xié)同優(yōu)化算法

    針對(duì)協(xié)同優(yōu)化過程對(duì)初始點(diǎn)敏感以及容易陷入局部最優(yōu)點(diǎn)的問題,提出了一種改進(jìn)的協(xié)同優(yōu)化算法。改進(jìn)后的協(xié)同優(yōu)化算法綜合考慮學(xué)科級(jí)
    發(fā)表于 11-24 14:46 ?1次下載

    一種小生境灰狼優(yōu)化算法

    灰狼優(yōu)化算法 (Grey Wolf Optimizer,GWO)是一種模擬灰狼捕食行為的群體智能算法,該算法最先由澳大利亞學(xué)者M(jìn)irjalili于2014年提出,根據(jù)灰狼的社會(huì)等級(jí)將包圍、追捕、攻擊
    發(fā)表于 11-28 10:32 ?2次下載
    <b class='flag-5'>一種</b>小生境灰狼<b class='flag-5'>優(yōu)化</b>算法

    一種語義規(guī)則為指導(dǎo)的增量優(yōu)化方法

    為核心思路的增量分析技術(shù)。存在用戶透明性不佳、對(duì)歷史結(jié)果存儲(chǔ)位置的選擇不夠智能化等問題,對(duì)周期性增量查詢的優(yōu)化效果有限,從兼顧用戶透明性和優(yōu)化收益的角度出發(fā)。設(shè)計(jì)了一種以語義規(guī)則為指導(dǎo)
    發(fā)表于 12-27 11:24 ?0次下載
    <b class='flag-5'>一種</b>語義規(guī)則為指導(dǎo)的增量<b class='flag-5'>優(yōu)化</b>方法

    一種改進(jìn)灰狼優(yōu)化算法的用于求解約束優(yōu)化問題

    針對(duì)基本灰狼優(yōu)化( GWO)算法存在求解精度低、收斂速度慢、局部搜索能力差的問題,提出一種改進(jìn)灰狼優(yōu)化(IGWO)算法用于求解約束優(yōu)化問題。該算法采用非固定多段映射罰
    發(fā)表于 01-04 15:59 ?0次下載
    <b class='flag-5'>一種</b>改進(jìn)灰狼<b class='flag-5'>優(yōu)化</b>算法的用于求解約束<b class='flag-5'>優(yōu)化</b>問題

    探析常見的幾種最優(yōu)化方法

    最優(yōu)化方法是一種數(shù)學(xué)方法,它是研究在給定約束之下如何尋求某些因素(的量),以使某(或某些)指標(biāo)達(dá)到最優(yōu)些學(xué)科的總稱。
    的頭像 發(fā)表于 01-17 09:25 ?2705次閱讀
    探析常見的幾種<b class='flag-5'>最優(yōu)化</b>方法

    一種線性插值隨機(jī)對(duì)偶平均優(yōu)化方法

    樣本不滿足獨(dú)立同分布會(huì)使梯度估計(jì)在迭代過程中存在偏差,且最優(yōu)的個(gè)體收斂界在噪聲的干擾下無法確定。為此,提出一種線性插值隨機(jī)對(duì)偶平均(DA)優(yōu)化方法。給出DA方法收斂性的證明,在梯度估計(jì)有偏的基礎(chǔ)上
    發(fā)表于 05-25 16:20 ?4次下載

    一種微電網(wǎng)分布式神經(jīng)動(dòng)力學(xué)優(yōu)化算法

    針對(duì)微電網(wǎng)多目標(biāo)優(yōu)化計(jì)算量較大的問題,提出了一種考慮需求響應(yīng)的微電網(wǎng)分布式神經(jīng)動(dòng)力學(xué)優(yōu)化算法。首先考慮平均效率函數(shù)、微電網(wǎng)的排放、需求響應(yīng)引起的不滿意度以及總利潤
    發(fā)表于 05-31 14:21 ?4次下載

    FPGA設(shè)計(jì)如何最優(yōu)化

    ? 這是筆者去年某個(gè)時(shí)間節(jié)點(diǎn)的感悟,由于工作繁忙,寫完后擱置邊了。而對(duì)于“設(shè)計(jì)最優(yōu)化”這個(gè)議題,筆者也直深感功力不夠,不敢多做闡釋。但是,不管怎樣,若能每隔幾年都好好做些反思回顧,讓自己
    的頭像 發(fā)表于 06-25 15:46 ?708次閱讀