0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

探析從貝葉斯到深度學習及各自優(yōu)缺點

mK5P_AItists ? 來源:cc ? 2019-02-17 09:56 ? 次閱讀

目錄

正則化算法(Regularization Algorithms)

集成算法(Ensemble Algorithms)

決策樹算法(Decision Tree Algorithm)

回歸(Regression)

人工神經網絡(Artificial Neural Network)

深度學習(Deep Learning)

支持向量機(Support Vector Machine)

降維算法(Dimensionality Reduction Algorithms)

聚類算法(Clustering Algorithms)

基于實例的算法(Instance-based Algorithms)

貝葉斯算法(Bayesian Algorithms)

關聯(lián)規(guī)則學習算法(Association Rule Learning Algorithms)

圖模型(Graphical Models)

正則化算法(Regularization Algorithms)

它是另一種方法(通常是回歸方法)的拓展,這種方法會基于模型復雜性對其進行懲罰,它喜歡相對簡單能夠更好的泛化的模型。

例子:

嶺回歸(Ridge Regression)

最小絕對收縮與選擇算子(LASSO)

GLASSO

彈性網絡(Elastic Net)

最小角回歸(Least-Angle Regression)

優(yōu)點:

其懲罰會減少過擬合

總會有解決方法

缺點:

懲罰會造成欠擬合

很難校準

集成算法(Ensemble algorithms)

集成方法是由多個較弱的模型集成模型組,其中的模型可以單獨進行訓練,并且它們的預測能以某種方式結合起來去做出一個總體預測。

該算法主要的問題是要找出哪些較弱的模型可以結合起來,以及結合的方法。這是一個非常強大的技術集,因此廣受歡迎。

Boosting

Bootstrapped Aggregation(Bagging)

AdaBoost

層疊泛化(Stacked Generalization)(blending)

梯度推進機(Gradient Boosting Machines,GBM)

梯度提升回歸樹(Gradient Boosted Regression Trees,GBRT)

隨機森林(Random Forest)

優(yōu)點:

當先最先進的預測幾乎都使用了算法集成。它比使用單個模型預測出來的結果要精確的多

缺點:

需要大量的維護工作

決策樹算法(Decision Tree Algorithm)

決策樹學習使用一個決策樹作為一個預測模型,它將對一個 item(表征在分支上)觀察所得映射成關于該 item 的目標值的結論(表征在葉子中)。

樹模型中的目標是可變的,可以采一組有限值,被稱為分類樹;在這些樹結構中,葉子表示類標簽,分支表示表征這些類標簽的連接的特征。

例子:

分類和回歸樹(Classification and Regression Tree,CART)

Iterative Dichotomiser 3(ID3)

C4.5 和 C5.0(一種強大方法的兩個不同版本)

優(yōu)點:

容易解釋

參數

缺點:

趨向過擬合

可能或陷于局部最小值中

沒有在線學習

回歸(Regression)算法

回歸是用于估計兩種變量之間關系的統(tǒng)計過程。當用于分析因變量和一個 多個自變量之間的關系時,該算法能提供很多建模和分析多個變量的技巧。具體一點說,回歸分析可以幫助我們理解當任意一個自變量變化,另一個自變量不變時,因變量變化的典型值。最常見的是,回歸分析能在給定自變量的條件下估計出因變量的條件期望。

回歸算法是統(tǒng)計學中的主要算法,它已被納入統(tǒng)計機器學習

例子:

普通最小二乘回歸(Ordinary Least Squares Regression,OLSR)

線性回歸(Linear Regression)

邏輯回歸(Logistic Regression)

逐步回歸(Stepwise Regression)

多元自適應回歸樣條(Multivariate Adaptive Regression Splines,MARS

本地散點平滑估計(Locally Estimated Scatterplot Smoothing,LOESS)

優(yōu)點:

直接、快速

知名度高

缺點:

要求嚴格的假設

需要處理異常值

人工神經網絡

人工神經網絡是受生物神經網絡啟發(fā)而構建的算法模型。

它是一種模式匹配,常被用于回歸和分類問題,但擁有龐大的子域,由數百種算法和各類問題的變體組成。

例子:

感知器

反向傳播

Hopfield 網絡

徑向基函數網絡(Radial Basis Function Network,RBFN)

優(yōu)點:

在語音、語義、視覺、各類游戲(如圍棋)的任務中表現(xiàn)極好。

算法可以快速調整,適應新的問題。

缺點:

需要大量數據進行訓練

訓練要求很高的硬件配置

模型處于「黑箱狀態(tài)」,難以理解內部機制

元參數(Metaparameter)與網絡拓撲選擇困難。

深度學習(Deep Learning)

深度學習是人工神經網絡的最新分支,它受益于當代硬件的快速發(fā)展。

眾多研究者目前的方向主要集中于構建更大、更復雜的神經網絡,目前有許多方法正在聚焦半監(jiān)督學習問題,其中用于訓練的大數據集只包含很少的標記。

例子:

深玻耳茲曼機(Deep Boltzmann Machine,DBM)

Deep Belief Networks(DBN)

卷積神經網絡(CNN)

Stacked Auto-Encoders

優(yōu)點/缺點:見神經網絡

支持向量機(Support Vector Machines)

給定一組訓練事例,其中每個事例都屬于兩個類別中的一個,支持向量機(SVM)訓練算法可以在被輸入新的事例后將其分類到兩個類別中的一個,使自身成為非概率二進制線性分類器。

SVM 模型將訓練事例表示為空間中的點,它們被映射到一幅圖中,由一條明確的、盡可能寬的間隔分開以區(qū)分兩個類別。

隨后,新的示例會被映射到同一空間中,并基于它們落在間隔的哪一側來預測它屬于的類別。

優(yōu)點:

在非線性可分問題上表現(xiàn)優(yōu)秀

缺點:

非常難以訓練

很難解釋

降維算法(Dimensionality Reduction Algorithms)

和集簇方法類似,降維追求并利用數據的內在結構,目的在于使用較少的信息總結或描述數據。

這一算法可用于可視化高維數據或簡化接下來可用于監(jiān)督學習中的數據。許多這樣的方法可針對分類和回歸的使用進行調整。

例子:

主成分分析(Principal Component Analysis (PCA))

主成分回歸(Principal Component Regression (PCR))

偏最小二乘回歸(Partial Least Squares Regression (PLSR))

Sammon 映射(Sammon Mapping)

多維尺度變換(Multidimensional Scaling (MDS))

投影尋蹤(Projection Pursuit)

線性判別分析(Linear Discriminant Analysis (LDA))

混合判別分析(Mixture Discriminant Analysis (MDA))

二次判別分析(Quadratic Discriminant Analysis (QDA))

靈活判別分析(Flexible Discriminant Analysis (FDA))

優(yōu)點:

可處理大規(guī)模數據集

無需在數據上進行假設

缺點:

難以搞定非線性數據

難以理解結果的意義

聚類算法(Clustering Algorithms)

聚類算法是指對一組目標進行分類,屬于同一組(亦即一個類,cluster)的目標被劃分在一組中,與其他組目標相比,同一組目標更加彼此相似(在某種意義上)。

例子:

K-均值(k-Means)

k-Medians 算法

Expectation Maximi 封層 ation (EM)

最大期望算法(EM)

分層集群(Hierarchical Clstering)

優(yōu)點:

讓數據變得有意義

缺點:

結果難以解讀,針對不尋常的數據組,結果可能無用。

基于實例的算法(Instance-based Algorithms)

基于實例的算法(有時也稱為基于記憶的學習)是這樣學 習算法,不是明確歸納,而是將新的問題例子與訓練過程中見過的例子進行對比,這些見過的例子就在存儲器中。

之所以叫基于實例的算法是因為它直接從訓練實例中建構出假設。這意味這,假設的復雜度能隨著數據的增長而變化:最糟的情況是,假設是一個訓練項目列表,分類一個單獨新實例計算復雜度為 O(n)

例子:

K 最近鄰(k-Nearest Neighbor (kNN))

學習向量量化(Learning Vector Quantization (LVQ))

自組織映射(Self-Organizing Map (SOM))

局部加權學習(Locally Weighted Learning (LWL))

優(yōu)點:

算法簡單、結果易于解讀

缺點:

內存使用非常高

計算成本高

不可能用于高維特征空間

貝葉斯算法(Bayesian Algorithms)

貝葉斯方法是指明確應用了貝葉斯定理來解決如分類和回歸等問題的方法。

例子:

樸素貝葉斯(Naive Bayes)

高斯樸素貝葉斯(Gaussian Naive Bayes)

多項式樸素貝葉斯(Multinomial Naive Bayes)

平均一致依賴估計器(Averaged One-Dependence Estimators (AODE))

貝葉斯信念網絡(Bayesian Belief Network (BBN))

貝葉斯網絡(Bayesian Network (BN))

優(yōu)點:

快速、易于訓練、給出了它們所需的資源能帶來良好的表現(xiàn)

缺點:

如果輸入變量是相關的,則會出現(xiàn)問題

關聯(lián)規(guī)則學習算法(Association Rule Learning Algorithms)

關聯(lián)規(guī)則學習方法能夠提取出對數據中的變量之間的關系的最佳解釋。比如說一家超市的銷售數據中存在規(guī)則 {洋蔥,土豆}=> {漢堡},那說明當一位客戶同時購買了洋蔥和土豆的時候,他很有可能還會購買漢堡肉。

例子:

Apriori 算法(Apriori algorithm)

Eclat 算法(Eclat algorithm)

FP-growth

圖模型(Graphical Models)

圖模型或概率圖模型(PGM/probabilistic graphical model)是一種概率模型,一個圖(graph)可以通過其表示隨機變量之間的條件依賴結構(conditional dependence structure)。

例子:

貝葉斯網絡(Bayesian network)

馬爾可夫隨機域(Markov random field)

鏈圖(Chain Graphs)

祖先圖(Ancestral graph)

優(yōu)點:

模型清晰,能被直觀地理解

缺點:

確定其依賴的拓撲很困難,有時候也很模糊

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8430

    瀏覽量

    132859
  • 深度學習
    +關注

    關注

    73

    文章

    5511

    瀏覽量

    121362

原文標題:機器學習算法集錦:從貝葉斯到深度學習及各自優(yōu)缺點

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    zeta在機器學習中的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習中的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領域可能有不同的含義和應用。以下是根據不同領域的ZETA進行的分析: 一、ZETA在機器學習
    的頭像 發(fā)表于 12-20 09:11 ?318次閱讀

    FPGA與ASIC的優(yōu)缺點比較

    FPGA(現(xiàn)場可編程門陣列)與ASIC(專用集成電路)是兩種不同的硬件實現(xiàn)方式,各自具有獨特的優(yōu)缺點。以下是對兩者優(yōu)缺點的比較: FPGA的優(yōu)點 可編程性強 :FPGA具有高度的可編程性,可以靈活
    的頭像 發(fā)表于 10-25 09:24 ?568次閱讀

    opa2134與opa1632d的區(qū)別和各自優(yōu)缺點是什么?

    老師您好 請問opa2134與opa1632d的區(qū)別和各自優(yōu)缺點是什么謝謝
    發(fā)表于 09-20 12:55

    風扇燈的優(yōu)缺點有哪些

    風扇燈是一種結合了風扇和照明功能的家用電器,它通過創(chuàng)新的設計消除了傳統(tǒng)風扇的葉片,從而提高了安全性和美觀性。 無風扇燈的優(yōu)點: 安全性 :無設計消除了傳統(tǒng)風扇的葉片,減少了兒童或寵物受傷
    的頭像 發(fā)表于 09-07 11:44 ?4200次閱讀

    濾波和卡爾曼濾波的區(qū)別

    濾波和卡爾曼濾波是兩種常用的濾波方法,它們在信號處理、導航、機器人定位等領域有著廣泛的應用。
    的頭像 發(fā)表于 08-01 15:25 ?754次閱讀

    武漢凱迪正大分享電纜電力檢測方法及其優(yōu)缺點

    隨著技術的發(fā)展和進步電纜電力檢測方法也日益多樣化,涵蓋了傳統(tǒng)的電橋法現(xiàn)代的局部放電法、紅外熱像法等多種技術手段。本文將依照凱迪正大的經驗圍繞電纜電力檢測的主要方法展開討論,并分析其各自優(yōu)
    的頭像 發(fā)表于 07-24 17:28 ?367次閱讀

    AI大模型與小模型的優(yōu)缺點

    在人工智能(AI)的廣闊領域中,模型作為算法與數據之間的橋梁,扮演著至關重要的角色。根據模型的大小和復雜度,我們可以將其大致分為AI大模型和小模型。這兩種模型在定義、優(yōu)缺點及應用場景上存在著顯著的差異。本文將從多個維度深入探討AI大模型與小模型的特點,并分析其各自
    的頭像 發(fā)表于 07-10 10:39 ?3128次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    應用中往往難以實現(xiàn)。因此,無監(jiān)督學習深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的無監(jiān)督
    的頭像 發(fā)表于 07-09 10:50 ?855次閱讀

    神經網絡算法的優(yōu)缺點有哪些

    神經網絡算法是一種模擬人腦神經元結構的計算模型,廣泛應用于機器學習深度學習、圖像識別、語音識別等領域。然而,神經網絡算法也存在一些優(yōu)缺點。本文將詳細分析神經網絡算法的
    的頭像 發(fā)表于 07-03 09:47 ?1561次閱讀

    TensorFlow與PyTorch深度學習框架的比較與選擇

    學習框架,它們各自擁有獨特的特點和優(yōu)勢。本文將從背景介紹、核心特性、操作步驟、性能對比以及選擇指南等方面對TensorFlow和PyTorch進行詳細比較,以幫助讀者了解這兩個框架的優(yōu)缺點,并選擇最適合自己需求的框架。
    的頭像 發(fā)表于 07-02 14:04 ?1021次閱讀

    再次問鼎全球首富

    今日,亞馬遜創(chuàng)始人杰夫·再次榮登全球首富寶座,成功超越了法國奢侈品巨頭LVMH老板伯納德·阿爾諾。在全球富豪500強排名中,以驚人的2090億美元凈資產位列榜首。
    的頭像 發(fā)表于 06-12 17:36 ?685次閱讀

    nbiot和lora的優(yōu)缺點是什么?

    nbiot和lora的優(yōu)缺點
    發(fā)表于 06-04 06:37

    電感儲能和電容儲能各有什么優(yōu)缺點?

    電感儲能和電容儲能是兩種在電子電路中常見的能量存儲方式,它們各自具有獨特的優(yōu)缺點,適用于不同的應用場景。
    的頭像 發(fā)表于 05-06 15:47 ?5952次閱讀

    Systick到底是用作延時好還是用作定時好?都有什么優(yōu)缺點?

    功能,作基礎定時用,而不建議用作延時功能,方便后面程序移植. 最好有個定論,方便后面程序的移植,不能各自各自的,一個公司里面寫程序的風格和標準需要統(tǒng)一。 想問下各位,Systick到底是用作延時好?還是用作定時好,都有什么優(yōu)缺點
    發(fā)表于 04-08 07:37

    SD-WAN網絡與傳統(tǒng)網絡的區(qū)別及各自優(yōu)缺點

    SD-WAN網絡與傳統(tǒng)網絡的區(qū)別及各自優(yōu)缺點? SD-WAN是一種新興的網絡技術,它與傳統(tǒng)網絡相比有許多區(qū)別與優(yōu)點。在本文中,我們將詳盡、詳實、細致地探討SD-WAN網絡與傳統(tǒng)網絡之間的區(qū)別以及
    的頭像 發(fā)表于 03-27 16:23 ?1192次閱讀