0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)算法常用指標(biāo)匯總

lviY_AI_shequ ? 來(lái)源:cc ? 2019-02-13 15:09 ? 次閱讀

機(jī)器學(xué)習(xí)性能評(píng)價(jià)標(biāo)準(zhǔn)是模型優(yōu)化的前提,在設(shè)計(jì)機(jī)器學(xué)習(xí)算法過(guò)程中,不同的問(wèn)題需要用到不同的評(píng)價(jià)標(biāo)準(zhǔn),本文對(duì)機(jī)器學(xué)習(xí)算法常用指標(biāo)進(jìn)行了總結(jié)。

考慮一個(gè)二分問(wèn)題,即將實(shí)例分成正類(lèi)(positive)或負(fù)類(lèi)(negative)。對(duì)一個(gè)二分問(wèn)題來(lái)說(shuō),會(huì)出現(xiàn)四種情況。如果一個(gè)實(shí)例是正類(lèi)并且也被 預(yù)測(cè)成正類(lèi),即為真正類(lèi)(True positive),如果實(shí)例是負(fù)類(lèi)被預(yù)測(cè)成正類(lèi),稱(chēng)之為假正類(lèi)(False positive)。相應(yīng)地,如果實(shí)例是負(fù)類(lèi)被預(yù)測(cè)成負(fù)類(lèi),稱(chēng)之為真負(fù)類(lèi)(True negative),正類(lèi)被預(yù)測(cè)成負(fù)類(lèi)則為假負(fù)類(lèi)(false negative)。

TP:正確肯定的數(shù)目;

FN:漏報(bào),沒(méi)有正確找到的匹配的數(shù)目;

FP:誤報(bào),給出的匹配是不正確的;

TN:正確拒絕的非匹配對(duì)數(shù);

列聯(lián)表如下表所示,1代表正類(lèi),0代表負(fù)類(lèi):

1. TPR、FPR&TNR

從列聯(lián)表引入兩個(gè)新名詞。其一是真正類(lèi)率(true positive rate ,TPR), 計(jì)算公式為

TPR = TP / (TP +FN)

刻畫(huà)的是分類(lèi)器所識(shí)別出的 正實(shí)例占所有正實(shí)例的比例。

另外一個(gè)是負(fù)正類(lèi)率(false positive rate,FPR),計(jì)算公式為

FPR = FP / (FP + TN)

計(jì)算的是分類(lèi)器錯(cuò)認(rèn)為正類(lèi)的負(fù)實(shí)例占所有負(fù)實(shí)例的比例。

還有一個(gè)真負(fù)類(lèi)率(True Negative Rate,TNR),也稱(chēng)為specificity,計(jì)算公式為

TNR = TN /(FP +TN) = 1 - FPR

2. 精確率Precision、召回率Recall和F1值

精確率(正確率)和召回率是廣泛用于信息檢索和統(tǒng)計(jì)學(xué)分類(lèi)領(lǐng)域的兩個(gè)度量值,用來(lái)評(píng)價(jià)結(jié)果的質(zhì)量。其中精度是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率;召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫(kù)中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率。

一般來(lái)說(shuō),Precision就是檢索出來(lái)的條目(比如:文檔、網(wǎng)頁(yè)等)有多少是準(zhǔn)確的,Recall就是所有準(zhǔn)確的條目有多少被檢索出來(lái)了,兩者的定義分別如下:

Precision = 提取出的正確信息條數(shù) / 提取出的信息條數(shù)

Recall = 提取出的正確信息條數(shù) / 樣本中的信息條數(shù)

為了能夠評(píng)價(jià)不同算法的優(yōu)劣,在Precision和Recall的基礎(chǔ)上提出了F1值的概念,來(lái)對(duì)Precision和Recall進(jìn)行整體評(píng)價(jià)。F1的定義如下:

F1值 = 正確率 * 召回率 * 2 / (正確率 + 召回率)

不妨舉這樣一個(gè)例子:

某池塘有1400條鯉魚(yú),300只蝦,300只鱉。現(xiàn)在以捕鯉魚(yú)為目的。撒一大網(wǎng),逮著了700條鯉魚(yú),200只蝦,100只鱉。那么,這些指標(biāo)分別如下:

正確率 = 700 / (700 + 200 + 100) = 70%

召回率 = 700 / 1400 = 50%

F1值 = 70% * 50% * 2 / (70% + 50%) = 58.3%

不妨看看如果把池子里的所有的鯉魚(yú)、蝦和鱉都一網(wǎng)打盡,這些指標(biāo)又有何變化:

正確率 =1400 / (1400 +300 + 300) = 70%

召回率 =1400 / 1400 = 100%

F1值 = 70% * 100% * 2 / (70% + 100%) = 82.35%

由此可見(jiàn),正確率是評(píng)估捕獲的成果中目標(biāo)成果所占得比例;召回率,顧名思義,就是從關(guān)注領(lǐng)域中,召回目標(biāo)類(lèi)別的比例;而F值,則是綜合這二者指標(biāo)的評(píng)估指標(biāo),用于綜合反映整體的指標(biāo)。

當(dāng)然希望檢索結(jié)果Precision越高越好,同時(shí)Recall也越高越好,但事實(shí)上這兩者在某些情況下有矛盾的。比如極端情況下,我們只搜索出了一個(gè)結(jié)果,且是準(zhǔn)確的,那么Precision就是100%,但是Recall就很低;而如果我們把所有結(jié)果都返回,那么比如Recall是100%,但是Precision就會(huì)很低。因此在不同的場(chǎng)合中需要自己判斷希望Precision比較高或是Recall比較高。如果是做實(shí)驗(yàn)研究,可以繪制Precision-Recall曲線來(lái)幫助分析。

3. 綜合評(píng)價(jià)指標(biāo)F-measure

Precision和Recall指標(biāo)有時(shí)候會(huì)出現(xiàn)的矛盾的情況,這樣就需要綜合考慮他們,最常見(jiàn)的方法就是F-Measure(又稱(chēng)為F-Score)。

F-Measure是Precision和Recall加權(quán)調(diào)和平均:

當(dāng)參數(shù)α=1時(shí),就是最常見(jiàn)的F1。因此,F(xiàn)1綜合了P和R的結(jié)果,當(dāng)F1較高時(shí)則能說(shuō)明試驗(yàn)方法比較有效。

4. ROC曲線和AUC

4.1 為什么引入ROC曲線?

Motivation1:在一個(gè)二分類(lèi)模型中,對(duì)于所得到的連續(xù)結(jié)果,假設(shè)已確定一個(gè)閥值,比如說(shuō) 0.6,大于這個(gè)值的實(shí)例劃歸為正類(lèi),小于這個(gè)值則劃到負(fù)類(lèi)中。如果減小閥值,減到0.5,固然能識(shí)別出更多的正類(lèi),也就是提高了識(shí)別出的正例占所有正例 的比類(lèi),即TPR,但同時(shí)也將更多的負(fù)實(shí)例當(dāng)作了正實(shí)例,即提高了FPR。為了形象化這一變化,引入ROC,ROC曲線可以用于評(píng)價(jià)一個(gè)分類(lèi)器。

Motivation2:在類(lèi)不平衡的情況下,如正樣本90個(gè),負(fù)樣本10個(gè),直接把所有樣本分類(lèi)為正樣本,得到識(shí)別率為90%。但這顯然是沒(méi)有意義的。單純根據(jù)Precision和Recall來(lái)衡量算法的優(yōu)劣已經(jīng)不能表征這種病態(tài)問(wèn)題。

4.2 什么是ROC曲線?

ROC(Receiver Operating Characteristic)翻譯為"接受者操作特性曲線"。曲線由兩個(gè)變量1-specificity 和 Sensitivity繪制. 1-specificity=FPR,即負(fù)正類(lèi)率。Sensitivity即是真正類(lèi)率,TPR(True positive rate),反映了正類(lèi)覆蓋程度。這個(gè)組合以1-specificity對(duì)sensitivity,即是以代價(jià)(costs)對(duì)收益(benefits)。

此外,ROC曲線還可以用來(lái)計(jì)算“均值平均精度”(mean average precision),這是當(dāng)你通過(guò)改變閾值來(lái)選擇最好的結(jié)果時(shí)所得到的平均精度(PPV)。

為了更好地理解ROC曲線,我們使用具體的實(shí)例來(lái)說(shuō)明:

如在醫(yī)學(xué)診斷中,判斷有病的樣本。那么盡量把有病的揪出來(lái)是主要任務(wù),也就是第一個(gè)指標(biāo)TPR,要越高越好。而把沒(méi)病的樣本誤診為有病的,也就是第二個(gè)指標(biāo)FPR,要越低越好。

不難發(fā)現(xiàn),這兩個(gè)指標(biāo)之間是相互制約的。如果某個(gè)醫(yī)生對(duì)于有病的癥狀比較敏感,稍微的小癥狀都判斷為有病,那么他的第一個(gè)指標(biāo)應(yīng)該會(huì)很高,但是第二個(gè)指標(biāo)也就相應(yīng)地變高。最極端的情況下,他把所有的樣本都看做有病,那么第一個(gè)指標(biāo)達(dá)到1,第二個(gè)指標(biāo)也為1。

我們以FPR為橫軸,TPR為縱軸,得到如下ROC空間。

我們可以看出,左上角的點(diǎn)(TPR=1,FPR=0),為完美分類(lèi),也就是這個(gè)醫(yī)生醫(yī)術(shù)高明,診斷全對(duì)。點(diǎn)A(TPR>FPR),醫(yī)生A的判斷大體是正確的。中線上的點(diǎn)B(TPR=FPR),也就是醫(yī)生B全都是蒙的,蒙對(duì)一半,蒙錯(cuò)一半;下半平面的點(diǎn)C(TPR

還是一開(kāi)始的那幅圖,假設(shè)如下就是某個(gè)醫(yī)生的診斷統(tǒng)計(jì)圖,直線代表閾值。我們遍歷所有的閾值,能夠在ROC平面上得到如下的ROC曲線。

曲線距離左上角越近,證明分類(lèi)器效果越好。

如上,是三條ROC曲線,在0.23處取一條直線。那么,在同樣的低FPR=0.23的情況下,紅色分類(lèi)器得到更高的PTR。也就表明,ROC越往上,分類(lèi)器效果越好。我們用一個(gè)標(biāo)量值A(chǔ)UC來(lái)量化它。

4.3 什么是AUC?

AUC值為ROC曲線所覆蓋的區(qū)域面積,顯然,AUC越大,分類(lèi)器分類(lèi)效果越好。

AUC = 1,是完美分類(lèi)器,采用這個(gè)預(yù)測(cè)模型時(shí),不管設(shè)定什么閾值都能得出完美預(yù)測(cè)。絕大多數(shù)預(yù)測(cè)的場(chǎng)合,不存在完美分類(lèi)器。

0.5 < AUC < 1,優(yōu)于隨機(jī)猜測(cè)。這個(gè)分類(lèi)器(模型)妥善設(shè)定閾值的話,能有預(yù)測(cè)價(jià)值。

AUC = 0.5,跟隨機(jī)猜測(cè)一樣(例:丟銅板),模型沒(méi)有預(yù)測(cè)價(jià)值。

AUC < 0.5,比隨機(jī)猜測(cè)還差;但只要總是反預(yù)測(cè)而行,就優(yōu)于隨機(jī)猜測(cè)。

AUC的物理意義:假設(shè)分類(lèi)器的輸出是樣本屬于正類(lèi)的socre(置信度),則AUC的物理意義為,任取一對(duì)(正、負(fù))樣本,正樣本的score大于負(fù)樣本的score的概率。

4.4 怎樣計(jì)算AUC?

第一種方法:AUC為ROC曲線下的面積,那我們直接計(jì)算面積可得。面積為一個(gè)個(gè)小的梯形面積之和。計(jì)算的精度與閾值的精度有關(guān)。

第二種方法:根據(jù)AUC的物理意義,我們計(jì)算正樣本score大于負(fù)樣本的score的概率。取N*M(N為正樣本數(shù),M為負(fù)樣本數(shù))個(gè)二元組,比較score,最后得到AUC。時(shí)間復(fù)雜度為O(N*M)。

第三種方法:與第二種方法相似,直接計(jì)算正樣本score大于負(fù)樣本的概率。我們首先把所有樣本按照score排序,依次用rank表示他們,如最大score的樣本,rank=n(n=N+M),其次為n-1。那么對(duì)于正樣本中rank最大的樣本,rank_max,有M-1個(gè)其他正樣本比他score小,那么就有(rank_max-1)-(M-1)個(gè)負(fù)樣本比他score小。其次為(rank_second-1)-(M-2)。最后我們得到正樣本大于負(fù)樣本的概率為

時(shí)間復(fù)雜度為O(N+M)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)算法常用指標(biāo)總結(jié)

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛(ài)好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 1人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)模型評(píng)估指標(biāo)

    機(jī)器學(xué)習(xí)模型指標(biāo)機(jī)器學(xué)習(xí)建模過(guò)程中,針對(duì)不同的問(wèn)題,需采用不同的模型評(píng)估指標(biāo)。
    發(fā)表于 09-06 12:51 ?1471次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>模型評(píng)估<b class='flag-5'>指標(biāo)</b>

    【阿里云大學(xué)免費(fèi)精品課】機(jī)器學(xué)習(xí)入門(mén):概念原理及常用算法

    摘要: 阿里云大學(xué)聯(lián)合螞蟻金服高級(jí)算法專(zhuān)家推出了免費(fèi)的機(jī)器學(xué)習(xí)入門(mén)課程:機(jī)器學(xué)習(xí)入門(mén):概念原理及常用
    發(fā)表于 06-23 13:51

    常用python機(jī)器學(xué)習(xí)庫(kù)盤(pán)點(diǎn)

    現(xiàn)在人工智能非?;鸨?b class='flag-5'>機(jī)器學(xué)習(xí)應(yīng)該算是人工智能里面的一個(gè)子領(lǐng)域,而其中有一塊是對(duì)文本進(jìn)行分析,對(duì)數(shù)據(jù)進(jìn)行深入的挖掘提取一些特征值,然后用一些算法學(xué)習(xí),訓(xùn)練,分析,甚至還能預(yù)測(cè),那么P
    發(fā)表于 05-10 15:20

    單片機(jī)常用PID濾波算法資料匯總

    單片機(jī)常用PID濾波算法資料匯總
    發(fā)表于 05-21 11:45 ?26次下載

    經(jīng)典的機(jī)器學(xué)習(xí)算法匯總

    本文將用一句話來(lái)總結(jié)每種典型的機(jī)器學(xué)習(xí)算法,幫你抓住問(wèn)題的本質(zhì),強(qiáng)化理解和記憶。
    的頭像 發(fā)表于 08-11 10:24 ?6101次閱讀

    10大常用機(jī)器學(xué)習(xí)算法匯總

    本文介紹了10大常用機(jī)器學(xué)習(xí)算法,包括線性回歸、Logistic回歸、線性判別分析、樸素貝葉斯、KNN、隨機(jī)森林等。
    發(fā)表于 11-20 11:10 ?2920次閱讀

    流形學(xué)習(xí)LLE算法的配套Matlab源碼匯總

    流形學(xué)習(xí)LLE算法的配套Matlab源碼匯總
    發(fā)表于 08-25 09:30 ?1次下載

    17個(gè)機(jī)器學(xué)習(xí)常用算法

    根據(jù)數(shù)據(jù)類(lèi)型的不同,對(duì)一個(gè)問(wèn)題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法學(xué)習(xí)方式。在機(jī)器
    的頭像 發(fā)表于 08-11 11:20 ?1993次閱讀

    17個(gè)機(jī)器學(xué)習(xí)常用算法!

    源自:AI知識(shí)干貨 根據(jù)數(shù)據(jù)類(lèi)型的不同,對(duì)一個(gè)問(wèn)題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法學(xué)習(xí)方式。在機(jī)器
    的頭像 發(fā)表于 08-22 09:57 ?2467次閱讀
    17個(gè)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>常用</b><b class='flag-5'>算法</b>!

    常用機(jī)器學(xué)習(xí)算法的基本概念和特點(diǎn)

    。因此對(duì)于數(shù)據(jù)科學(xué)家來(lái)說(shuō),理解算法顯得格外重要,理解不同算法的思想可以幫助數(shù)據(jù)科學(xué)家更從容地面對(duì)不同的應(yīng)用場(chǎng)景。 本文列出了常用機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 01-17 15:43 ?3993次閱讀

    機(jī)器學(xué)習(xí)算法的5種基本算子

    自主決策的方法和插件,其中包含了一系列常用的基本算子。在本文中,我們將會(huì)介紹機(jī)器學(xué)習(xí)算法的五種基本算子。 一、 求值算子 求值算子是常用
    的頭像 發(fā)表于 08-17 16:11 ?2143次閱讀

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類(lèi) 機(jī)器學(xué)習(xí)算法模型

    是解決具體問(wèn)題的一系列步驟,機(jī)器學(xué)習(xí)算法被設(shè)計(jì)用于從大量的數(shù)據(jù)中自動(dòng)學(xué)習(xí)并不斷改進(jìn)自身的性能。本文將為大家介紹機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?1427次閱讀

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么 機(jī)器學(xué)習(xí)算法優(yōu)缺點(diǎn)

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么?機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?2346次閱讀

    機(jī)器學(xué)習(xí)算法入門(mén) 機(jī)器學(xué)習(xí)算法介紹 機(jī)器學(xué)習(xí)算法對(duì)比

    機(jī)器學(xué)習(xí)算法入門(mén) 機(jī)器學(xué)習(xí)算法介紹 機(jī)器
    的頭像 發(fā)表于 08-17 16:27 ?1167次閱讀

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類(lèi)算法有哪些?機(jī)器學(xué)習(xí)預(yù)判有哪些算法?

    機(jī)器學(xué)習(xí)有哪些算法機(jī)器學(xué)習(xí)分類(lèi)算法有哪些?機(jī)器
    的頭像 發(fā)表于 08-17 16:30 ?2315次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品