0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

斯坦福CSS 229系統(tǒng)的整理,學(xué)習(xí)ML的“掌上備忘錄

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-08-27 09:13 ? 次閱讀

提及機器學(xué)習(xí),很多人會推薦斯坦福CSS 229。本文便對該課程做了系統(tǒng)的整理。包括監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)以及深度學(xué)習(xí)??芍^是是學(xué)習(xí)ML的“掌上備忘錄”。

斯坦福CS229—機器學(xué)習(xí):

監(jiān)督學(xué)習(xí)

非監(jiān)督學(xué)習(xí)

深度學(xué)習(xí)

機器學(xué)習(xí)備忘錄——監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)簡介

給定一組與輸出{y(1),...,y(m)}相關(guān)聯(lián)的數(shù)據(jù)點{x(1),...,x(m)},我們希望構(gòu)建一個能夠根據(jù)x值預(yù)測y值的分類器。

預(yù)測類型—下表歸納了不同類型的預(yù)測模型

模型類型—下表歸納了不同的模型

符號和概念

假設(shè)—記一個假設(shè)為hθ,且是我們選擇的一個模型。給定一組輸入數(shù)據(jù)x(i),則模型預(yù)測輸出為hθ(x(i))。

損失函數(shù)—一個損失函數(shù)可表示為L:(z,y)∈R×Y?L(z,y)∈R,它將與實際數(shù)據(jù)值y對應(yīng)的預(yù)測值z作為輸入,并輸出它們之間的差異。常見的損失函數(shù)歸納如下:

成本函數(shù)—成本函數(shù)J通常用于評估模型的性能。用損失函數(shù)L定義如下:

梯度下降—若學(xué)習(xí)率表示為α∈R,則用學(xué)習(xí)率和成本函數(shù)J來定義梯度下降的更新規(guī)則,可表示為如下公式:

隨機梯度下降法(SGD)是根據(jù)每個訓(xùn)練樣本對參數(shù)進行更新,批量梯度下降法是對一批訓(xùn)練樣本進行更新

似然—一個模型的似然(給定參數(shù)L(θ)),是通過將其最大化來尋找最優(yōu)參數(shù)θ。在實際過程中,我們一般采用對數(shù)似然?(θ)=log(L(θ)),因其優(yōu)化操作較為容易。可表示如下:

牛頓迭代法—是一種數(shù)值方法,用于找到一個θ,使?′(θ)=0成立。其更新規(guī)則如下:

線性模型

線性回歸

我們假設(shè)y|x;θ~N(μ,σ2)。

正規(guī)方程(Normal Equation)—記X為矩陣,能使成本函數(shù)最小化的θ的值是一個封閉的解:

最小均方算法(LMS)—記α為學(xué)習(xí)率,對一個包含m個數(shù)據(jù)點的訓(xùn)練集的LMS算法的更新規(guī)則(也叫Widrow-Hoff學(xué)習(xí)規(guī)則),如下所示:

局部加權(quán)回歸(LWR)—是線性回歸的一種變體,它將每個訓(xùn)練樣本的成本函數(shù)加權(quán)為w(i)(x),用參數(shù)τ∈R可定義為:

分類和邏輯回歸

Sigmoid函數(shù)—即S型函數(shù),可定義為:

邏輯回歸—一般用于處理二分類問題。假設(shè)y|x;θ~Bernoulli(?),可有如下形式:

Softmax回歸—是邏輯回歸的推廣,一般用于處理多分類問題,可表示為:

廣義線性模型

指數(shù)族(Exponential family)—若一類分布可以用一個自然參數(shù)來表示,那么這類分布可以叫做指數(shù)族,也稱作正則參數(shù)或連結(jié)函數(shù),如下所示:

下表是常見的一些指數(shù)分布:

廣義線性模型的假設(shè)—廣義線性模型旨在預(yù)測一個隨機變量y,作為x∈Rn+1的函數(shù),并且以來于以下3個假設(shè):

支持向量機

通俗來講,支持向量機就是要找到一個超平面,對樣本進行分割。

最優(yōu)邊緣分類器—以h表示,可定義為:

其中,(w,b)∈Rn×R是如下最優(yōu)問題的解:

Hinge損失—用于SVM的設(shè)置,定義如下:

核(Kernel)—給定一個特征映射?,核可以表示為:

在實際問題當(dāng)中,高斯核是較為常用的。

我們一般不需要知道XX的顯式映射,只需要知道K(x,z)的值即可

拉格朗日—我們定義拉格朗日L(w,b)為:

生成學(xué)習(xí)

生成模型首先嘗試通過估計P(x|y)來了解數(shù)據(jù)是如何生成的,而后我們可以用貝葉斯規(guī)則來估計P(y|x)。

高斯判別分析

Setting—高斯判別分析假設(shè)存在y、x|y=0和x|y=1,滿足:

估計—下表總結(jié)了最大化似然時的估計:

樸素貝葉斯

假設(shè)—樸素貝葉斯模型假設(shè)每個數(shù)據(jù)點的特征都是獨立的:

解決方案—當(dāng)k∈{0,1},l∈[[1,L]]時,最大化對數(shù)似然給出了如下解決方案:

基于樹方法和集成方法

即可用于回歸,又可用于分類的方法。

決策樹—分類和回歸樹(CART),非常具有可解釋性特征。

Boosting—其思想就是結(jié)合多個弱學(xué)習(xí)器,形成一個較強的學(xué)習(xí)器。

隨機森林—在樣本和所使用的特征上采用Bootstrap,與決策樹不同的是,其可解釋性較弱。

其它非參數(shù)方法

KNN—即k近鄰,數(shù)據(jù)點的響應(yīng)由其k個“鄰居”的性質(zhì)決定。

學(xué)習(xí)理論(Learning Theory)

Union Bound—令A(yù)1,...,Ak為k個事件,則有:

Hoeffding inequality—刻畫的是某個事件的真實概率與m各不同的Bernoulli試驗中觀察到的頻率之間的差異。

訓(xùn)練誤差—給定一個分類器h,我們將訓(xùn)練誤差定義為error??(h),也被稱作經(jīng)驗風(fēng)險或經(jīng)驗誤差,如下所示:

Probably Approximately Correct—即PAC,是一個框架,在此框架下,許多關(guān)于學(xué)習(xí)理論的結(jié)果都得到了證明,并且有以下一組假設(shè):

訓(xùn)練和測試集遵循相同的分布

訓(xùn)練樣本是獨立繪制的

除上述學(xué)習(xí)理論之外,還有Shattering、上限定理、VC維、Theorem (Vapnik)等概念,讀者若感興趣,可由文末鏈接進入原文做進一步了解。

機器學(xué)習(xí)備忘錄——非監(jiān)督學(xué)習(xí)

非監(jiān)督學(xué)習(xí)簡介

無監(jiān)督學(xué)習(xí)旨在無標(biāo)記數(shù)據(jù)中發(fā)現(xiàn)規(guī)律。

詹森不等式—令f為凸函數(shù)、X為一個隨機變量。將會有如下不等式:

聚類

最大期望算法(EM)

隱變量—是指使估計問題難以解決的隱藏/未觀察到的變量,通常表示為z。下表是涉及到隱變量的常用設(shè)置:

算法—EM算法通過重復(fù)構(gòu)建似然下界(E-step)并優(yōu)化該下界(M-step)來給出通過MLE估計參數(shù)θ的有效方法,如下:

k-means聚類

令c(i)表示為數(shù)據(jù)點i的類,μj為類j的中心。

算法—在隨機初始化聚類質(zhì)心μ1,μ2,...,μk∈Rn之后,k均值算法重復(fù)以下步驟直到收斂:

失真函數(shù)(distortion function)—為了查看算法是否收斂,定義如下的失真函數(shù):

分層聚類

算法—它是一種聚類算法,采用聚合分層方法,以連續(xù)方式構(gòu)建嵌套的聚類。

類型—為了優(yōu)化不同的目標(biāo)函數(shù),有不同種類的層次聚類算法,如下表所示:

聚類評估指標(biāo)

在無監(jiān)督的學(xué)習(xí)環(huán)境中,通常很難評估模型的性能,因為沒有像監(jiān)督學(xué)習(xí)環(huán)境中那樣的ground-truth標(biāo)簽。

輪廓系數(shù)—記a為一個樣本和同一個類中其它點距離的平均,b為一個樣本與它最近的類中所有點的距離的平均。一個樣本的輪廓系數(shù)可定義為:

Calinski-Harabaz指數(shù)—記k為類的數(shù)量,XX和XX是類間、類內(nèi)矩陣的dispersion矩陣分別表示為:

Calinski-Harabaz指數(shù)s(k)表明了聚類模型對聚類的定義的好壞,得分越高,聚類就越密集,分離得也越好。定義如下:

降維

主成分分析

主成分分析是一種統(tǒng)計方法。通過正交變換將一組可能存在相關(guān)性的變量轉(zhuǎn)換為一組線性不相關(guān)的變量,轉(zhuǎn)換后的這組變量叫主成分。

特征值、特征向量—給定一個矩陣A∈Rn×n,如果存在一個向量z∈Rn?{0},那么λ就叫做A的特征值,而z稱為特征向量:

普定理(Spectral theorem)—令A(yù)∈Rn×n。若A是對稱的,那么A可以通過實際正交矩陣U∈Rn×n對角化。記Λ=diag(λ1,...,λn),我們有:

算法—主成分分析(PCA)過程是一種降維技術(shù),通過使數(shù)據(jù)的方差最大化,在k維上投影數(shù)據(jù),方法如下:

第一步:將數(shù)據(jù)標(biāo)準(zhǔn)化,使其均值為0,標(biāo)準(zhǔn)差為1。

第二步:計算

第三步:計算Σ的k個正交主特征向量,即k個最大特征值的正交特征向量。

第四步:在spanR(u1,...,uk)上投射數(shù)據(jù)。

這個過程使所有k維空間的方差最大化。

獨立分量分析

這是一種尋找潛在生成源的技術(shù)。

假設(shè)—我們假設(shè)數(shù)據(jù)x是通過混合和非奇異矩陣A,由n維源向量s=(s1,...,sn)生成的(其中,si是獨立的隨機變量),那么:

目標(biāo)是找到混合矩陣W=A?1

Bell和Sejnowski的ICA算法—該算法通過以下步驟找到解混矩陣W:

將x=As=W?1sx=As=W?1s的概率表示為:

記g為sigmoid函數(shù),給定我們的訓(xùn)練數(shù)據(jù){x(i),i∈[[1,m]]},則對數(shù)似然可表示為:

因此,隨機梯度上升學(xué)習(xí)規(guī)則是對于每個訓(xùn)練樣本x(i),我們更新W如下:

機器學(xué)習(xí)備忘錄——深度學(xué)習(xí)

神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)是一類用層構(gòu)建的模型。常用的神經(jīng)網(wǎng)絡(luò)類型包括卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)。

結(jié)構(gòu)—關(guān)于神經(jīng)網(wǎng)絡(luò)架構(gòu)的描述如下圖所示:

記i為網(wǎng)絡(luò)中的第i層,j為一個層中第j個隱含單元,這有:

激活函數(shù)—在隱含單元的末端使用激活函數(shù)向模型引入非線性復(fù)雜性。以下是最常見的幾種:

交叉熵?fù)p失-在神經(jīng)網(wǎng)絡(luò)中,交叉熵?fù)p失L(z,y)是常用的,定義如下:

學(xué)習(xí)率—通常被記作α或η,可表明在哪一步權(quán)重得到了更新。這可以被修正或自適應(yīng)的改變。目前最流行的方法是Adam,這是一種適應(yīng)學(xué)習(xí)率的方法。

反向傳播—是一種通過考慮實際輸出和期望輸出來更新神經(jīng)網(wǎng)絡(luò)權(quán)重的方法。關(guān)于權(quán)重w的導(dǎo)數(shù)是用鏈?zhǔn)椒▌t計算的,它的形式如下:

因此,權(quán)重更新如下:

更新權(quán)重—在神經(jīng)網(wǎng)絡(luò)中,權(quán)重的更新方式如下:

第一步:對訓(xùn)練數(shù)據(jù)取一個batch;

第二步:進行正向傳播以獲得相應(yīng)的損失;

第三步:反向傳播損失,得到梯度;

第四步:使用梯度更新網(wǎng)絡(luò)的權(quán)重。

Dropout—是一種通過在神經(jīng)網(wǎng)絡(luò)中刪除單元來防止過度擬合訓(xùn)練數(shù)據(jù)的技術(shù)。

卷積神經(jīng)網(wǎng)絡(luò)

超參數(shù)—在卷積神經(jīng)網(wǎng)絡(luò)中,修正了以下超參數(shù):

層的類型—在卷積神經(jīng)網(wǎng)絡(luò)中,我們可能遇到以下類型的層:

卷積層要求—記W為輸入量大小,F(xiàn)為卷積層神經(jīng)元大小,P是zero padding的數(shù)量,那么在給定體積(volumn)內(nèi)的神經(jīng)元數(shù)量N是這樣的:

Batch歸一化—記γ,β為我們想要更正的batch的均值和方差,則:

它通常是在完全連接/卷積層和非線性層之前完成的,目的是提高學(xué)習(xí)率并減少對初始化的強烈依賴。

遞歸神經(jīng)網(wǎng)絡(luò)

gate的類型—以下是在典型遞歸神經(jīng)網(wǎng)絡(luò)中存在的不同類型的gate:

LSTM—該網(wǎng)絡(luò)是一種RNN模型,它通過添加“forget” gates來避免梯度消失問題。

強化學(xué)習(xí)與控制

強化學(xué)習(xí)的目標(biāo)是讓智能體學(xué)會如何在環(huán)境中進化。

馬爾科夫決策過程—即MDP,是一個五元組(S,A,{Psa},γ,R),其中:

S是一組狀態(tài);

A是一組行為;

{Psa}是s∈S和a∈A的狀態(tài)轉(zhuǎn)換率;

γ∈[0,1]是discount系數(shù);

R:S×A?R或R:S?R是算法要最大化的獎勵函數(shù)

加粗:策略—是一個函數(shù)π:S?A,是將狀態(tài)映射到行為中。

加粗:Value Function—給定一個策略π和狀態(tài)s,可定義value functionVπ

為:

貝爾曼方程—最優(yōu)貝爾曼方程刻畫了最優(yōu)策略π的value function

Value迭代算法—主要分為兩個步驟:

初始化value:

基于之前的value進行迭代:

最大似然估計—狀態(tài)轉(zhuǎn)移概率的最大似然估計如下:

Q-Learning—是Q一種無模型估計,公式如下:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13206
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8429

    瀏覽量

    132854
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121355

原文標(biāo)題:【斯坦福CS229】一文橫掃機器學(xué)習(xí)要點:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、深度學(xué)習(xí)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    HarmonyOS開發(fā)實例:【手機備忘錄

    基于用戶首選項,實現(xiàn)了備忘錄新增、更新、刪除以及查找等功能。
    的頭像 發(fā)表于 04-18 21:40 ?850次閱讀
    HarmonyOS開發(fā)實例:【手機<b class='flag-5'>備忘錄</b>】

    斯坦福開發(fā)過熱自動斷電電池

    導(dǎo)致起火。開發(fā)電池的斯坦福教授  在斯坦福開發(fā)的新電池中,研究人員采用聚乙烯薄膜材料,薄膜上嵌入了鎳磁粉,它會形成納米級的突起。研究人員在突起部分覆蓋石墨烯導(dǎo)電材料,讓電流可以從表面通過。當(dāng)溫度
    發(fā)表于 01-12 11:57

    關(guān)于斯坦福的CNTFET的問題

    之前下載了斯坦福2015年的CNTFET VS model,是.va的文件,不知道怎么用啊,該怎么通過cadence的pspice進行仿真啊,求指點
    發(fā)表于 01-26 13:47

    PostgreSQL操作備忘錄

    PostgreSQL 操作備忘錄
    發(fā)表于 05-23 08:48

    斯坦福cs231n編程作業(yè)之k近鄰算法

    深度學(xué)習(xí)斯坦福cs231n編程作業(yè)#1 --- k近鄰算法(k-NN)
    發(fā)表于 05-07 12:03

    UDS診斷命令備忘錄

    UDS實踐性強,邏輯復(fù)雜,很多服務(wù)非要體驗過一次才能理解,導(dǎo)致包括我在內(nèi)的初學(xué)者感覺晦澀難懂,不明覺厲,因此將自己的理解寫下來、整理下來,與君共勉。零、UDS診斷命令備忘錄一、簡介UDS
    發(fā)表于 08-26 16:09

    怎樣去搭建一種基于XR806的開源桌面備忘錄

    本人計劃懟一個開源桌面備忘錄/天氣預(yù)報/相冊的項目基于XR806,同時學(xué)習(xí)鴻蒙操作系統(tǒng)獲得暈哥贈送的開發(fā)板和芯片,目前處于環(huán)境搭建階段看起來這個芯片玩的人比較少,目前遇到了問題,不知道如何解決,希望
    發(fā)表于 12-28 06:52

    DG645 斯坦福 SRS DG645 延遲發(fā)生器 現(xiàn)金回收

    DG645 斯坦福 SRS DG645 延遲發(fā)生器 現(xiàn)金回收 歐陽R:*** QQ:1226365851溫馨提示:如果您找不到聯(lián)系方式,請在瀏覽器上搜索一下,旺貿(mào)通儀器儀回收工廠或個人、庫存閑置
    發(fā)表于 01-11 10:08

    斯坦福提出基于目標(biāo)的策略強化學(xué)習(xí)方法——SOORL

    為了達到人類學(xué)習(xí)的速率,斯坦福的研究人員們提出了一種基于目標(biāo)的策略強化學(xué)習(xí)方法——SOORL,把重點放在對策略的探索和模型選擇上。
    的頭像 發(fā)表于 06-06 11:18 ?5435次閱讀
    <b class='flag-5'>斯坦福</b>提出基于目標(biāo)的策略強化<b class='flag-5'>學(xué)習(xí)</b>方法——SOORL

    北京大興機場與伊斯坦布爾機場正式達成了友好合作關(guān)系備忘錄

    北京大興國際機場與土耳其伊斯坦布爾國際機場共同簽署了《北京大興國際機場與土耳其伊斯坦布爾國際機場締結(jié)友好機場伙伴關(guān)系備忘錄
    發(fā)表于 11-13 14:59 ?1047次閱讀

    設(shè)計模式:備忘錄設(shè)計模式

    備忘錄設(shè)計模式(Memento Design Pattern)是一種行為型設(shè)計模式,它的主要目的是在不破壞對象封裝性的前提下,捕捉和保存一個對象的內(nèi)部狀態(tài)
    的頭像 發(fā)表于 06-06 11:19 ?820次閱讀

    設(shè)計模式行為型:備忘錄模式

    備忘錄模式(Memento Pattern)保存一個對象的某個狀態(tài),以便在適當(dāng)?shù)臅r候恢復(fù)對象。備忘錄模式屬于行為型模式。
    的頭像 發(fā)表于 06-07 11:16 ?874次閱讀
    設(shè)計模式行為型:<b class='flag-5'>備忘錄</b>模式

    新思科技同越南政府簽署諒解備忘錄

    在越南總理范明政訪美期間,新思科技與越南國家創(chuàng)新中心(nic)簽署了關(guān)于培養(yǎng)越南集成電路設(shè)計人才的諒解備忘錄,支持nic成立芯片設(shè)計孵化中心。另外,新思科技與越南信息通訊部下屬的信息通信技術(shù)產(chǎn)業(yè)公司簽訂了支援越南半導(dǎo)體產(chǎn)業(yè)發(fā)展的諒解備忘錄。
    的頭像 發(fā)表于 09-20 10:56 ?1576次閱讀

    實踐GoF的23種設(shè)計模式:備忘錄模式

    相對于代理模式、工廠模式等設(shè)計模式,備忘錄模式(Memento)在我們?nèi)粘i_發(fā)中出鏡率并不高,除了應(yīng)用場景的限制之外,另一個原因,可能是備忘錄模式
    的頭像 發(fā)表于 11-25 09:05 ?574次閱讀
    實踐GoF的23種設(shè)計模式:<b class='flag-5'>備忘錄</b>模式

    蘋果iOS 18將支持語音備忘錄及數(shù)學(xué)符號顯示

    首先是語音備忘錄功能。據(jù)悉,蘋果有意在iOS 18系統(tǒng)中加入此項功能,使iPhone用戶能夠便捷地錄制音頻文件,并將其直接嵌入至備忘錄之中。
    的頭像 發(fā)表于 04-18 11:14 ?555次閱讀