關于數(shù)據(jù)
機器學習就是喂入算法和數(shù)據(jù),讓算法從數(shù)據(jù)中尋找一種相應的關系。Iris 鳶尾花數(shù)據(jù)集是一個經(jīng)典數(shù)據(jù)集,在統(tǒng)計學習和機器學習領域都經(jīng)常被用作示例。數(shù)據(jù)集內包含 3 類共 150 條記錄,每類各 50 個數(shù)據(jù),每條記錄都有 4 項特征:花萼長度、花萼寬度、花瓣長度、花瓣寬度,可以通過這4個特征預測鳶尾花卉屬于(iris-setosa, iris-versicolour, iris-virginica)中的哪一品種。
數(shù)據(jù)的整體成為數(shù)據(jù)集(dataset),數(shù)據(jù)中的每一行為1個樣本(sample),除最后一行,每一列表達樣本的一個特征(feature),最后一列,通常稱為標記(label)。在鳶尾花的數(shù)據(jù)集中,每個樣本有4個特征:萼片長度、萼片寬度、花瓣長度、花瓣寬度,下面每一行數(shù)據(jù)稱為一個樣本的特征向量。所有的特征向量組成的空間稱為特征空間(feature space),而分類任務的本質就是對特征空間的一種切分方式。
特征可以很具體也可以很抽象,在圖像中,每一個像素點都是一個特征,一個28*28的圖像有784個特征。所以,特征將很大程度上決定了算法結果的準確性和可靠性。這就是特征工程。
機器學習的基本任務1. 分類
- 二分類,在實際生活中其實大多數(shù)都可以用二分類解決,比如垃圾郵件分類,腫瘤辨別等。
- 多分類,比如手寫數(shù)字識別,比如更加復雜的圖像識別。在實際的生活中,很多復雜問題都可 以被轉換為是一種多分類問題,但并不是說使用多分類是最佳的一種解決方式。
2. 回歸
回歸任務的特點:結果是一個數(shù)字的值,而非一個類別。比如預測房子價格,比如預測一個學生成績,股票價格等等。在一些情況下,回歸任務可以簡化成分類任務,比如預測一個學生的成績,可以將成績分為幾個不同的等級,這樣就能將一個連續(xù)的回歸問題轉換為分類問題。
什么是機器學習
機器學習算法的目的就是幫助我們建立一個模型f(x),而不是我們人為建模得到的。其實分類和回歸問題大多都是在監(jiān)督學習中完成的。
二、機器學習的分類
1、監(jiān)督學習
所謂監(jiān)督學習其實就是給機器的訓練數(shù)據(jù)擁有"標記"或者"答案"。比如圖像擁有一定的標定信息,可能是類別,也可能是定位框等。機器學習的算法中大多都是監(jiān)督學習,比如k近鄰、線性回歸和多項式回歸、邏輯回歸、SVM、決策樹和隨機森林等。
2、非監(jiān)督學習
相對于監(jiān)督學習,非監(jiān)督學習就是給機器訓練的數(shù)據(jù)沒有"標記"或者"答案",通常情況下,非監(jiān)督學習用來輔助監(jiān)督學習。非監(jiān)督學習一般對沒有“標記”的數(shù)據(jù)進行分類,這就是聚類。比如電商網(wǎng)站使用非監(jiān)督學習,根據(jù)顧客的瀏覽記錄,對顧客進行分類,從而完成一些類似推薦的任務。非監(jiān)督學習的意義、聚類、異常檢測
降維
- 特征提取
- 特征壓縮,比如剛剛提到的28*28的圖像有784個特征,那么就可以考慮進行一下特征壓縮。
- 特征壓縮就是在盡可能損失少的信息,將高維向量壓縮成低維向量,這樣可以大大提高機器學習的運算效率。
- 降維處理的另外一個目的就是對數(shù)據(jù)進行可視化,對自己數(shù)據(jù)有一個大致了解。
3、半監(jiān)督學習
所謂的半監(jiān)督學習就是我們面對的任務一部分是有"標記"或者"答案",另一部分沒有。因為在現(xiàn)實生活中很多任務都因為各種不同原因造成標記的缺失。比如我們手機中的相冊中照片一些可能是在上海拍的,一些是在北京拍的,但是也會存在一些照片根本沒有標記,那么手機相冊中所有的照片就滿足半監(jiān)督學習的這個形態(tài)。通常都是先使用無監(jiān)督學習手段對數(shù)據(jù)做處理,之后使用監(jiān)督學習手段做模型的訓練與預測。其實就是這兩種學習模式的結合。
4、強化學習
強化學習是根據(jù)周圍環(huán)境的情況,采取行動,根據(jù)采取行動的結果,學習行動的方式。
比如AlphaGo,無人駕駛都會用到增強學習
三、機器學習的其他分類1、批量學習(離線學習)和在線學習
- 批量學習(batch learning)、又叫離線學習
優(yōu)點:簡單問題:如何適應環(huán)境的變換。比如垃圾郵件的樣式。解決方案:定時重新批量學習,來適應環(huán)境的整體變換。缺點:每次重新批量學習,運算量巨大。在某些環(huán)境變換非??斓那闆r下,甚至是不可能的。比如股市的變化。
- 在線學習(online learning)
優(yōu)點:及時反映新的環(huán)境變換問題:新的數(shù)據(jù)帶來不好的變化?解決方案:需要加強對數(shù)據(jù)的監(jiān)控,比如異常檢測。其他適用范圍:數(shù)據(jù)量巨大,無法批量學習的環(huán)境。2、參數(shù)學習與非參數(shù)學習
- 參數(shù)學習(Parameteric learning)
比如一個線性擬合問題y=wx+b,我們需要學習的參數(shù)就是w和b,參數(shù)學習的一個特點就是一旦學習到了參數(shù),就不再需要原來的數(shù)據(jù)集。
- 非參數(shù)學習(Noneparameteric learning)
相對的非參數(shù)學習,不需要對模型進行過多的假設,通常在預測的過程中,喂給機器學習算法的那些數(shù)據(jù)集也要參數(shù)預測的過程,此外,需要特別注意的一點就是,非參數(shù)學習不等于沒參數(shù)!
四、機器學習的“哲學”思考
數(shù)據(jù)越多越好?
2001年,微軟的一篇論文,對比了四個不同的機器學習算法,給予足夠多的數(shù)據(jù)時,四種算法的表現(xiàn)都是隨著數(shù)據(jù)集的不斷增大,準確率越高,當數(shù)據(jù)量大到一定程度的時候,算法結果準確度基本差不多。
這就帶來一個問題,就是如果數(shù)據(jù)足夠多,那么數(shù)據(jù)即算法?由此,就拉開了大數(shù)據(jù)的帷幕,人們對數(shù)據(jù)也越來月重視。首先,由此可以得出結論,數(shù)據(jù)確實非常重要,而且現(xiàn)階段使用到的機器學習算法大多都是以數(shù)據(jù)為驅動的,高度地依賴數(shù)據(jù)的質量,那么由此就需要收集更多的數(shù)據(jù),提高數(shù)據(jù)的質量。也就有了數(shù)據(jù)清理、數(shù)據(jù) 預處理之說。那么從數(shù)據(jù)層面,我們需要考慮,如何提高數(shù)據(jù)的代表性,研究更重要的特征。算法為王?Alpha Zero的出現(xiàn),之所以非常的突破,其原因在于我們并沒有給Alpha Zero任何數(shù)據(jù),所有的數(shù)據(jù)都是由算法產生的,這樣的一個突破似乎打破了之前的數(shù)據(jù)越多越好,數(shù)據(jù)集算法的這么一個說法。也是由于圍棋這個環(huán)境的特殊性導致算法能夠自己產生數(shù)據(jù),于是就有算法為王這么一種狀況,可能在其他領域并不適用,但是它給予了我們一個啟示:算法依然很重要。再好的數(shù)據(jù)都需要有高效、優(yōu)秀的算法作為輔助,才能最大成都發(fā)揮數(shù)據(jù)本身的作用。如何選擇機器學習算法?在機器學習算法中,遠不止下面幾種,那么如何選擇合適的機器學習算法完成自己既定的任務呢?
那么和選擇相關的問題,最簡單也就是最深刻的就是奧卡姆的剃刀,簡單的就是好的?那么在機器學習的領域中,什么叫簡單?第二個就是沒有免費午餐的定理??梢試栏竦財?shù)學推導出:任意兩個算法他們的期望性能是相同的!??!這也就是說其實沒有那種算法從嚴格意義上比另外一種算法好,只是都在各自的領域中表現(xiàn)突出。相當于是說所有的算法是等價的,但這有一個前提,就是任意兩個算法,把他們作用于所有的問題中,那么對于有些問題A算法比B算法好,但對于有些問題B算法比A算法好,但平均來說,這兩個算法是一樣的。這就是說需要具體到某個特定問題的時候,有些算法可能更好。整體而言,沒有一種算法絕對的比另外一種算法好。也就說脫離具體問題去談哪個算法好是沒有意義的。最終的結論就是,我們在面對一個具體問題的時候,嘗試使用多種算法進行對比實驗是必要的!面對不確定的世界,怎樣看待機器學習算法進行預測的結果?最典型的問題就是比如預測股市,預測世界經(jīng)濟趨勢扥等等等。我們到底應該怎樣看待這個結果?到底是機器學習算法本身起到了決定性作用,使得我們得到了一個準確的預測結果,還是其實只是一個巧合,機器學習本身并沒有起到太大的作用。在使用機器學習的過程中存在的機器倫理問題?比如無人駕駛決策的過程中存在的一個無法避免的問題是車的道路左邊是小孩,右邊是老人,此時車輛無法避免,必須要做出決策,是老人還是孩子?如果選擇自毀,那么車里坐的是一個孕婦,此時就牽涉到倫理問題。甚至還會有人說人工智能威脅論等等。
來源:小白學視覺
-
人工智能
+關注
關注
1804文章
48820瀏覽量
247258 -
機器學習
+關注
關注
66文章
8496瀏覽量
134207 -
數(shù)據(jù)集
+關注
關注
4文章
1223瀏覽量
25311
發(fā)布評論請先 登錄

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:00_00_人工智能課程簡介

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:01_01_聚類算法_內容設置

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:01_05_聚類算法_算法原理_總結

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:01_04_聚類算法_算法原理_算法流程

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:01_03_聚類算法_算法原理_算法解析

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:04_02_聚類算法_算法進階_層次聚類_上

#硬聲創(chuàng)作季 機器學習經(jīng)典算法:04_01_聚類算法_算法進階_DBSCAN




#硬聲創(chuàng)作季 機器學習經(jīng)典算法:10.項目框架搭建(struts)

評論