0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一個從數(shù)據(jù)中估計參數(shù)的基礎機器學習問題

5RJg_mcuworld ? 來源:未知 ? 作者:李倩 ? 2018-04-27 11:30 ? 次閱讀

假如你有一個硬幣。你把它投擲 3 次,出現(xiàn)了 3 次正面。下一次投擲硬幣正面朝上的概率是多少? 這是一個從數(shù)據(jù)中估計參數(shù)的基礎機器學習問題。在這種情況下,我們要從數(shù)據(jù) D 中估算出正面朝上 h 的概率。

最大似然估計

一種方法是找到能最大化觀測數(shù)據(jù)的似然函數(shù)(即 P(D;h))的參數(shù) h 的值。在這里,我們用「;」來表示 h 是一個關(guān)于概率分布 P 的參數(shù),意味著參數(shù) h 定義了分布 P,但是分布 P 只是說明了觀測數(shù)據(jù) D 成立的可能性有多大。

這是被稱為「最大似然估計」的最常用的參數(shù)估計方法。通過該方法,我們估計出 h=1.0。

但是直覺告訴我們,這是不可能的。對于大多數(shù)的硬幣來說,還是存在反面朝上的結(jié)果的可能性,因此我們通常希望得到像 h=0.5 這樣的結(jié)果。

先驗和后驗

如何將這種直覺數(shù)學化地表述出來呢?我們可以定義一個觀測數(shù)據(jù)和參數(shù)的聯(lián)合概率:p(D, h) = p(D|h)p(h)。我們定義一個先驗分布 p(h) 來表示在觀測前關(guān)于 h 應該是什么值的直覺,以及在給定參數(shù) h 的情況下的條件概率 p(D|h)。

如何利用現(xiàn)有的數(shù)據(jù) D 估計參數(shù) h 呢?我們需要得到后驗分布 p(h|D),但是目前只有分布 P(D|h) 和 p(h)。這時候,你需要貝葉斯公式來幫忙!

貝葉斯公式:P(h|D)=P(D|h)*P(h)/P(D)

但是,這里的分母是一個問題:

一般來說,計算這個積分是不可能的。對于這個投硬幣的例子來說,如果使用非常特殊的共軛先驗分布,就可以繞過這個問題。

最大后驗估計

但實際上,我們可以拋開歸一化常數(shù) P(D) 以更巧妙的方式討論 p(h|D)。也就是說歸一化常數(shù)不改變分布的相對大小,我們可以在不做積分的情況下找到模式:

這就是人們所熟知的最大后驗估計(MAP)。有很多種方法可以算出變量 h 的確切值,例如:使用共軛梯度下降法。

貝葉斯參數(shù)估計

有了最大后驗估計,可以通過先驗分布來引入我們的直覺,并且忽略歸一化積分,從而得到后驗分布模式下的關(guān)于 h 的點估計。

但是如果我們試著用近似方法求積分呢?如果按通常的獨立同分布假設,我們可以利用這個事實:未來可能出現(xiàn)的數(shù)據(jù)樣本值 x 條件獨立于給定參數(shù) h 時的觀測值 D。

這并非使用與后驗概率 p(h|D) 模式相應的參數(shù) h 的單一值來計算 P(x|h),而是一個更加「嚴格」的方法,它讓我們考慮到所有可能的 h 的后驗值。這種方法被稱為貝葉斯參數(shù)估計。

注意,存在兩個關(guān)于概率分布的重要任務:

推斷:給定已知參數(shù)的聯(lián)合分布,通過其它變量的邊緣概率和條件概率估計一個變量子集上的概率分布。

參數(shù)估計:從數(shù)據(jù)中估計某個概率分布的未知參數(shù)

貝葉斯參數(shù)估計將這兩項任務構(gòu)造成了「同一枚硬幣的兩面」:

估計在一組變量上定義的概率分布的參數(shù),就是推斷一個由原始變量和參數(shù)構(gòu)成的元分布。

當然,實際上要做到這一點,需要計算困難的積分,我們將不得不用類似于「馬爾可夫鏈蒙特卡洛算法」或者變分推斷等方法取近似。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131844
  • 貝葉斯公式
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1703

原文標題:什么是最大似然估計、最大后驗估計以及貝葉斯參數(shù)估計?

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    25機器學習面試題,你都會嗎?

    問題都沒有給出明確的答案,但都有定的提示。讀者也可以在留言中嘗試。許多數(shù)據(jù)科學家主要是從個數(shù)據(jù)從業(yè)者的角度來研究機器
    發(fā)表于 09-29 09:39

    什么是機器學習? 機器學習基礎入門

    的指導下,這個過程數(shù)據(jù)開始。也就是說,我們嵌入式系統(tǒng)產(chǎn)生的大量數(shù)據(jù)。機器學習開發(fā)過程的第步是
    發(fā)表于 06-21 11:06

    文讀懂人工智能、機器學習和深度學習三者的不同點

    機器學習機器學習是人工智能的種途徑或子集,它強調(diào)“學習”而不是計算機程序。一臺機器使用復雜的算
    發(fā)表于 09-25 15:08 ?804次閱讀

    零到python機器學習大神的7步驟

    有許多python機器學習資源在線免費提供,哪開始?如何進行?零到python機器學習大神只
    發(fā)表于 11-15 12:29 ?1.3w次閱讀

    機器學習幾種常見回歸函數(shù)的概念學習

    回歸問題的條件/前提: 1) 收集的數(shù)據(jù) 2) 假設的模型,即函數(shù),這個函數(shù)里含有未知的參數(shù),通過學習,可以
    發(fā)表于 12-15 11:20 ?4696次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>中</b>幾種常見回歸函數(shù)的概念<b class='flag-5'>學習</b>

    談談四無法學?;蚋鞣N線上平臺學習到的機器學習技巧

    機器學習教育過程通常傾向于深入學習機器學習算法,教導我們技術(shù)層面上理解他們的運作方式。
    的頭像 發(fā)表于 06-27 11:04 ?3917次閱讀

    機器學習的幾種數(shù)據(jù)偏差

    機器學習數(shù)據(jù)偏差是種錯誤,其中數(shù)據(jù)集的某些元素比其他元素具有更大的權(quán)重和或表示。有偏見的
    的頭像 發(fā)表于 01-05 17:54 ?2771次閱讀

    機器學習好用的函數(shù)的原因是什么

    (1)機器學習中經(jīng)典的“支持向量機(SVM)”的主要提出者弗拉基米爾·萬普尼克(Vladimir Vapnik),在其著作《統(tǒng)計學習理論的本質(zhì)》這樣定義
    的頭像 發(fā)表于 11-02 16:15 ?686次閱讀

    機器學習算法總結(jié) 機器學習算法是什么 機器學習算法優(yōu)缺點

    機器學習算法總結(jié) 機器學習算法是什么?機器學習算法優(yōu)缺點?
    的頭像 發(fā)表于 08-17 16:11 ?1591次閱讀

    python數(shù)據(jù)挖掘與機器學習

    用的數(shù)據(jù)挖掘和機器學習工具。 、數(shù)據(jù)挖掘 數(shù)據(jù)挖掘是指
    的頭像 發(fā)表于 08-17 16:29 ?1192次閱讀

    數(shù)據(jù)挖掘和機器學習有什么關(guān)系

    數(shù)據(jù)挖掘和機器學習有什么關(guān)系 數(shù)據(jù)挖掘和機器學習是兩
    的頭像 發(fā)表于 08-17 16:29 ?2319次閱讀

    機器學習數(shù)據(jù)挖掘的區(qū)別 機器學習數(shù)據(jù)挖掘的關(guān)系

    視為同概念。在這篇文章,我們將討論機器學習數(shù)據(jù)挖掘之間的區(qū)別以及它們之間的關(guān)系。 機器
    的頭像 發(fā)表于 08-17 16:30 ?1883次閱讀

    機器學習theta是什么?機器學習tpe是什么?

    下theta。在機器學習,theta通常表示模型的參數(shù)。在回歸問題中,theta可能表示線性回歸的斜率和截距;在分類問題中,theta
    的頭像 發(fā)表于 08-17 16:30 ?1686次閱讀

    機器學習數(shù)據(jù)分析的應用

    隨著大數(shù)據(jù)時代的到來,數(shù)據(jù)量的爆炸性增長對數(shù)據(jù)分析提出了更高的要求。機器學習作為種強大的工具,
    的頭像 發(fā)表于 07-02 11:22 ?303次閱讀

    機器學習數(shù)據(jù)分割方法

    機器學習,數(shù)據(jù)分割是項至關(guān)重要的任務,它直接影響到模型的訓練效果、泛化能力以及最終的性能評估。本文將從多個方面詳細探討
    的頭像 發(fā)表于 07-10 16:10 ?613次閱讀