0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)從數(shù)據(jù)中估計(jì)參數(shù)的基礎(chǔ)機(jī)器學(xué)習(xí)問(wèn)題

5RJg_mcuworld ? 來(lái)源:未知 ? 作者:李倩 ? 2018-04-27 11:30 ? 次閱讀

假如你有一個(gè)硬幣。你把它投擲 3 次,出現(xiàn)了 3 次正面。下一次投擲硬幣正面朝上的概率是多少? 這是一個(gè)從數(shù)據(jù)中估計(jì)參數(shù)的基礎(chǔ)機(jī)器學(xué)習(xí)問(wèn)題。在這種情況下,我們要從數(shù)據(jù) D 中估算出正面朝上 h 的概率。

最大似然估計(jì)

一種方法是找到能最大化觀測(cè)數(shù)據(jù)的似然函數(shù)(即 P(D;h))的參數(shù) h 的值。在這里,我們用「;」來(lái)表示 h 是一個(gè)關(guān)于概率分布 P 的參數(shù),意味著參數(shù) h 定義了分布 P,但是分布 P 只是說(shuō)明了觀測(cè)數(shù)據(jù) D 成立的可能性有多大。

這是被稱為「最大似然估計(jì)」的最常用的參數(shù)估計(jì)方法。通過(guò)該方法,我們估計(jì)出 h=1.0。

但是直覺(jué)告訴我們,這是不可能的。對(duì)于大多數(shù)的硬幣來(lái)說(shuō),還是存在反面朝上的結(jié)果的可能性,因此我們通常希望得到像 h=0.5 這樣的結(jié)果。

先驗(yàn)和后驗(yàn)

如何將這種直覺(jué)數(shù)學(xué)化地表述出來(lái)呢?我們可以定義一個(gè)觀測(cè)數(shù)據(jù)和參數(shù)的聯(lián)合概率:p(D, h) = p(D|h)p(h)。我們定義一個(gè)先驗(yàn)分布 p(h) 來(lái)表示在觀測(cè)前關(guān)于 h 應(yīng)該是什么值的直覺(jué),以及在給定參數(shù) h 的情況下的條件概率 p(D|h)。

如何利用現(xiàn)有的數(shù)據(jù) D 估計(jì)參數(shù) h 呢?我們需要得到后驗(yàn)分布 p(h|D),但是目前只有分布 P(D|h) 和 p(h)。這時(shí)候,你需要貝葉斯公式來(lái)幫忙!

貝葉斯公式:P(h|D)=P(D|h)*P(h)/P(D)

但是,這里的分母是一個(gè)問(wèn)題:

一般來(lái)說(shuō),計(jì)算這個(gè)積分是不可能的。對(duì)于這個(gè)投硬幣的例子來(lái)說(shuō),如果使用非常特殊的共軛先驗(yàn)分布,就可以繞過(guò)這個(gè)問(wèn)題。

最大后驗(yàn)估計(jì)

但實(shí)際上,我們可以拋開(kāi)歸一化常數(shù) P(D) 以更巧妙的方式討論 p(h|D)。也就是說(shuō)歸一化常數(shù)不改變分布的相對(duì)大小,我們可以在不做積分的情況下找到模式:

這就是人們所熟知的最大后驗(yàn)估計(jì)(MAP)。有很多種方法可以算出變量 h 的確切值,例如:使用共軛梯度下降法。

貝葉斯參數(shù)估計(jì)

有了最大后驗(yàn)估計(jì),可以通過(guò)先驗(yàn)分布來(lái)引入我們的直覺(jué),并且忽略歸一化積分,從而得到后驗(yàn)分布模式下的關(guān)于 h 的點(diǎn)估計(jì)。

但是如果我們?cè)囍媒品椒ㄇ蠓e分呢?如果按通常的獨(dú)立同分布假設(shè),我們可以利用這個(gè)事實(shí):未來(lái)可能出現(xiàn)的數(shù)據(jù)樣本值 x 條件獨(dú)立于給定參數(shù) h 時(shí)的觀測(cè)值 D。

這并非使用與后驗(yàn)概率 p(h|D) 模式相應(yīng)的參數(shù) h 的單一值來(lái)計(jì)算 P(x|h),而是一個(gè)更加「嚴(yán)格」的方法,它讓我們考慮到所有可能的 h 的后驗(yàn)值。這種方法被稱為貝葉斯參數(shù)估計(jì)。

注意,存在兩個(gè)關(guān)于概率分布的重要任務(wù):

推斷:給定已知參數(shù)的聯(lián)合分布,通過(guò)其它變量的邊緣概率和條件概率估計(jì)一個(gè)變量子集上的概率分布。

參數(shù)估計(jì):從數(shù)據(jù)中估計(jì)某個(gè)概率分布的未知參數(shù)

貝葉斯參數(shù)估計(jì)將這兩項(xiàng)任務(wù)構(gòu)造成了「同一枚硬幣的兩面」:

估計(jì)在一組變量上定義的概率分布的參數(shù),就是推斷一個(gè)由原始變量和參數(shù)構(gòu)成的元分布。

當(dāng)然,實(shí)際上要做到這一點(diǎn),需要計(jì)算困難的積分,我們將不得不用類似于「馬爾可夫鏈蒙特卡洛算法」或者變分推斷等方法取近似。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:什么是最大似然估計(jì)、最大后驗(yàn)估計(jì)以及貝葉斯參數(shù)估計(jì)?

文章出處:【微信號(hào):mcuworld,微信公眾號(hào):嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)在具身人工智能的價(jià)值

    數(shù)據(jù)捕獲和生成 此管道的第一個(gè)組件涉及捕獲真實(shí)世界的數(shù)據(jù),它包括人類與物理環(huán)境的交互收集數(shù)據(jù)
    發(fā)表于 12-24 00:33

    25個(gè)機(jī)器學(xué)習(xí)面試題,你都會(huì)嗎?

    問(wèn)題都沒(méi)有給出明確的答案,但都有定的提示。讀者也可以在留言中嘗試。許多數(shù)據(jù)科學(xué)家主要是從個(gè)數(shù)據(jù)從業(yè)者的角度來(lái)研究機(jī)器
    發(fā)表于 09-29 09:39

    什么是機(jī)器學(xué)習(xí)? 機(jī)器學(xué)習(xí)基礎(chǔ)入門(mén)

    的指導(dǎo)下,這個(gè)過(guò)程數(shù)據(jù)開(kāi)始。也就是說(shuō),我們嵌入式系統(tǒng)產(chǎn)生的大量數(shù)據(jù)。機(jī)器學(xué)習(xí)開(kāi)發(fā)過(guò)程的第步是
    發(fā)表于 06-21 11:06

    文讀懂人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)三者的不同點(diǎn)

    機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)是人工智能的種途徑或子集,它強(qiáng)調(diào)“學(xué)習(xí)”而不是計(jì)算機(jī)程序。一臺(tái)機(jī)器使用復(fù)雜的算
    發(fā)表于 09-25 15:08 ?827次閱讀

    零到python機(jī)器學(xué)習(xí)大神的7個(gè)步驟

    有許多python機(jī)器學(xué)習(xí)資源在線免費(fèi)提供,哪開(kāi)始?如何進(jìn)行?零到python機(jī)器學(xué)習(xí)大神只
    發(fā)表于 11-15 12:29 ?1.3w次閱讀

    機(jī)器學(xué)習(xí)幾種常見(jiàn)回歸函數(shù)的概念學(xué)習(xí)

    回歸問(wèn)題的條件/前提: 1) 收集的數(shù)據(jù) 2) 假設(shè)的模型,即個(gè)函數(shù),這個(gè)函數(shù)里含有未知的參數(shù),通過(guò)學(xué)習(xí),可以
    發(fā)表于 12-15 11:20 ?4737次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>幾種常見(jiàn)回歸函數(shù)的概念<b class='flag-5'>學(xué)習(xí)</b>

    談?wù)勊?b class='flag-5'>個(gè)無(wú)法學(xué)校或各種線上平臺(tái)學(xué)習(xí)到的機(jī)器學(xué)習(xí)技巧

    機(jī)器學(xué)習(xí)教育過(guò)程通常傾向于深入學(xué)習(xí)機(jī)器學(xué)習(xí)算法,教導(dǎo)我們技術(shù)層面上理解他們的運(yùn)作方式。
    的頭像 發(fā)表于 06-27 11:04 ?4041次閱讀

    機(jī)器學(xué)習(xí)的幾種數(shù)據(jù)偏差

    機(jī)器學(xué)習(xí)數(shù)據(jù)偏差是種錯(cuò)誤,其中數(shù)據(jù)集的某些元素比其他元素具有更大的權(quán)重和或表示。有偏見(jiàn)的
    的頭像 發(fā)表于 01-05 17:54 ?2987次閱讀

    機(jī)器學(xué)習(xí)個(gè)好用的函數(shù)的原因是什么

    (1)機(jī)器學(xué)習(xí)中經(jīng)典的“支持向量機(jī)(SVM)”的主要提出者弗拉基米爾·萬(wàn)普尼克(Vladimir Vapnik),在其著作《統(tǒng)計(jì)學(xué)習(xí)理論的本質(zhì)》這樣定義
    的頭像 發(fā)表于 11-02 16:15 ?841次閱讀

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么 機(jī)器學(xué)習(xí)算法優(yōu)缺點(diǎn)

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么?機(jī)器學(xué)習(xí)算法優(yōu)缺點(diǎn)?
    的頭像 發(fā)表于 08-17 16:11 ?2014次閱讀

    python數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)

    用的數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)工具。 、數(shù)據(jù)挖掘 數(shù)據(jù)挖掘是指
    的頭像 發(fā)表于 08-17 16:29 ?1345次閱讀

    數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)有什么關(guān)系

    數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)有什么關(guān)系 數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)是兩個(gè)
    的頭像 發(fā)表于 08-17 16:29 ?2494次閱讀

    機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘的區(qū)別 機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘的關(guān)系

    視為同概念。在這篇文章,我們將討論機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘之間的區(qū)別以及它們之間的關(guān)系。 機(jī)器
    的頭像 發(fā)表于 08-17 16:30 ?2115次閱讀

    機(jī)器學(xué)習(xí)theta是什么?機(jī)器學(xué)習(xí)tpe是什么?

    下theta。在機(jī)器學(xué)習(xí),theta通常表示模型的參數(shù)。在回歸問(wèn)題中,theta可能表示線性回歸的斜率和截距;在分類問(wèn)題中,theta
    的頭像 發(fā)表于 08-17 16:30 ?2025次閱讀

    機(jī)器學(xué)習(xí)數(shù)據(jù)分析的應(yīng)用

    隨著大數(shù)據(jù)時(shí)代的到來(lái),數(shù)據(jù)量的爆炸性增長(zhǎng)對(duì)數(shù)據(jù)分析提出了更高的要求。機(jī)器學(xué)習(xí)作為種強(qiáng)大的工具,
    的頭像 發(fā)表于 07-02 11:22 ?727次閱讀