0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)比較火熱的情景下需要避免的三個(gè)坑

MqC7_CAAI_1981 ? 來源:未知 ? 作者:李倩 ? 2018-08-15 14:18 ? 次閱讀

本文是人工智能專家George Seif撰寫的博文,介紹了在當(dāng)前深度學(xué)習(xí)比較火熱的情景下需要避免的三個(gè)坑。

Tweaking Neural Net Parameters

Three reasons that you should NOT use deep learning

深度學(xué)習(xí)在過去幾年一直是人工智能領(lǐng)域最熱門的話題。事實(shí)上,正是它激發(fā)了科學(xué)家、政府、大公司以及其他所有人對(duì)人工智能的極大新興趣!這是一門很酷的科學(xué),具有潛在的巨大的實(shí)用性和積極的應(yīng)用。它正被用于金融、工程、娛樂、消費(fèi)產(chǎn)品和服務(wù)等領(lǐng)域。

但是,所有應(yīng)用都需要使用到深度學(xué)習(xí)嗎?當(dāng)我們開展一個(gè)新的項(xiàng)目時(shí),我們需要不自覺地一開始就使用深度學(xué)習(xí)嗎?

在有些情況下,使用深度學(xué)習(xí)是不合適的,我們需要選擇一些別的方案。讓我們來探討一下這些情況吧。

(1)深度學(xué)習(xí)不適用于小數(shù)據(jù)集

為了獲得高性能,深度網(wǎng)絡(luò)需要非常大的數(shù)據(jù)集。標(biāo)注的數(shù)據(jù)越多,模型的性能就越好。獲得標(biāo)注良好的數(shù)據(jù)既昂貴又耗時(shí)。雇傭人工手動(dòng)收集圖片并標(biāo)記它們根本沒有效率可言。在深度學(xué)習(xí)時(shí)代,數(shù)據(jù)無疑是最有價(jià)值的資源。

最新的研究表明,實(shí)現(xiàn)高性能的網(wǎng)絡(luò)通常需要經(jīng)過數(shù)十萬甚至數(shù)百萬樣本的訓(xùn)練。對(duì)于許多應(yīng)用來說,這樣大的數(shù)據(jù)集并不容易獲得,并且獲取成本高且耗時(shí)。對(duì)于較小的數(shù)據(jù)集,傳統(tǒng)的ML算法(如回歸、隨機(jī)森林和支持向量機(jī))通常優(yōu)于深度網(wǎng)絡(luò)。

(2)深度學(xué)習(xí)運(yùn)用于實(shí)踐是困難且昂貴的

深度學(xué)習(xí)仍然是一項(xiàng)非常尖端的技術(shù)。您可以像許多人一樣獲得快速簡(jiǎn)便的解決方案,特別是使用廣泛使用的API,例如Clarifai和Google的AutoML。但如果你想做一些定制化的事情,這樣的一些服務(wù)是不夠的。除非你愿意把錢花在研究上,否則你就會(huì)局限于做一些和其他人稍微相似的事情。

這也是很昂貴,不僅是因?yàn)樾枰@取數(shù)據(jù)和計(jì)算能力所需的資源,還因?yàn)樾枰蛡蜓芯咳藛T。深度學(xué)習(xí)研究現(xiàn)在非常熱門,所以這三項(xiàng)費(fèi)用都非常昂貴。當(dāng)你做一些定制化的事情時(shí),你會(huì)花費(fèi)大量的時(shí)間去嘗試和打破常規(guī)。

(3)深層網(wǎng)絡(luò)不易解釋

深層網(wǎng)絡(luò)就像是一個(gè)“黑盒子”,即使到現(xiàn)在,研究人員也不能完全理解深層網(wǎng)絡(luò)的“內(nèi)部”。深層網(wǎng)絡(luò)具有很高的預(yù)測(cè)能力,但可解釋性較低。由于缺乏理論基礎(chǔ),超參數(shù)和網(wǎng)絡(luò)設(shè)計(jì)也是一個(gè)很大的挑戰(zhàn)。

雖然最近有許多工具,如顯著性映射(saliencymaps)和激活差異(activation differences),它們?cè)谀承╊I(lǐng)域非常有效,但它們并不能完全適用于所有應(yīng)用程序。這些工具的設(shè)計(jì)主要用于確保您的網(wǎng)絡(luò)不會(huì)過度擬合數(shù)據(jù),或者將重點(diǎn)放在虛假的特定特性上。仍然很難將每個(gè)特征的重要性解釋為深層網(wǎng)絡(luò)的整體決策。

另一方面,經(jīng)典的ML算法,如回歸或隨機(jī)森林,由于涉及到直接的特征工程,就很容易解釋和理解。此外,調(diào)優(yōu)超參數(shù)和修改模型設(shè)計(jì)的過程也更加簡(jiǎn)單,因?yàn)槲覀儗?duì)數(shù)據(jù)和底層算法有了更深入的了解。當(dāng)必須將網(wǎng)絡(luò)的結(jié)果翻譯并交付給公眾或非技術(shù)受眾時(shí),這些內(nèi)容尤其重要。我們不能僅僅說“我們賣了那只股票”或“我們?cè)谀莻€(gè)病人身上用了這藥”是因?yàn)槲覀兊纳顚泳W(wǎng)絡(luò)是這么說的,我們需要知道為什么。不幸的是,到目前為止,我們所掌握的關(guān)于深度學(xué)習(xí)的所有證據(jù)或者解釋都是經(jīng)驗(yàn)主義的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1793

    文章

    47535

    瀏覽量

    239316
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121355

原文標(biāo)題:深度學(xué)習(xí)并非萬能:你需要避免這三個(gè)坑

文章出處:【微信號(hào):CAAI-1981,微信公眾號(hào):中國人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)崛起帶熱人工智能 聚焦大領(lǐng)域

    當(dāng)下人工智能領(lǐng)域的火熱得益于過去幾年深度學(xué)習(xí)的崛起。最主要聚焦在三個(gè)領(lǐng)域:圖像識(shí)別、語音識(shí)別以及自然語言處理。
    發(fā)表于 01-22 11:21 ?1705次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>崛起帶熱人工智能 聚焦<b class='flag-5'>三</b>大領(lǐng)域

    學(xué)習(xí)hadoop需要什么基礎(chǔ)

    可能就是“會(huì)不難”哦! 當(dāng)你看了很多介紹“學(xué)習(xí)hadoop需要什么基礎(chǔ)”的文章后,你一定會(huì)得出一個(gè)結(jié)論,那就是學(xué)習(xí)hadoop所必須的三個(gè)
    發(fā)表于 09-13 13:37

    主流深度學(xué)習(xí)框架比較

    DL:主流深度學(xué)習(xí)框架多個(gè)方向PK比較
    發(fā)表于 12-26 11:10

    嵌入式學(xué)習(xí)步驟的三個(gè)階段

    [嵌入式系統(tǒng)無疑是當(dāng)前國內(nèi)最熱門的技術(shù)之一,但是該如何來學(xué)好嵌入式系統(tǒng)?好的學(xué)習(xí)方法是前提,但正確的學(xué)習(xí)步驟依然不可缺少,分享一比較主流的嵌入式學(xué)
    發(fā)表于 01-14 07:25

    如何區(qū)分深度學(xué)習(xí)與機(jī)器學(xué)習(xí)

    深度學(xué)習(xí)與傳統(tǒng)的機(jī)器學(xué)習(xí)最主要的區(qū)別在于隨著數(shù)據(jù)規(guī)模的增加其性能也不斷增長。當(dāng)數(shù)據(jù)很少時(shí),深度學(xué)習(xí)算法的性能并不好。這是因?yàn)?/div>
    發(fā)表于 10-27 16:50 ?1965次閱讀
    如何區(qū)分<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與機(jī)器<b class='flag-5'>學(xué)習(xí)</b>

    開源深度學(xué)習(xí)庫排名三個(gè)重要指標(biāo):Github上的活動(dòng)、Stack Overflow上的活動(dòng)以及谷歌搜索結(jié)果

    我們對(duì)23種用于數(shù)據(jù)科學(xué)的開源深度學(xué)習(xí)庫作了排名。這番排名基于權(quán)重一樣大小的三個(gè)指標(biāo):Github上的活動(dòng)、Stack Overflow上的活動(dòng)以及谷歌搜索結(jié)果。下面是23種用于數(shù)據(jù)科學(xué)的開源
    發(fā)表于 11-15 11:35 ?943次閱讀

    開源深度學(xué)習(xí)框架對(duì)比研究的三個(gè)主要維度學(xué)習(xí)

    本節(jié)對(duì)5個(gè)開源深度學(xué)習(xí)框架進(jìn)行對(duì)比研究,主要側(cè)重于3個(gè)維度研究:硬件支持率、速度和準(zhǔn)確率、社區(qū)活躍性。他們分別是:TensorFlow、Caffe、Keras、Torch、DL4j 。
    發(fā)表于 11-15 12:04 ?4215次閱讀
    開源<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>框架對(duì)比研究的<b class='flag-5'>三個(gè)</b>主要維度<b class='flag-5'>學(xué)習(xí)</b>

    如何避免三個(gè)常見的機(jī)器學(xué)習(xí)錯(cuò)誤?

    基于云的機(jī)器學(xué)習(xí)深度學(xué)習(xí)一再被誤用。這多半都可以輕松解決,當(dāng)然,基于云的機(jī)器學(xué)已得到了廣泛的使用。但你要用得巧妙,用得恰當(dāng)。
    的頭像 發(fā)表于 07-11 10:46 ?2527次閱讀

    在當(dāng)前深度學(xué)習(xí)比較火熱情景需要避免三個(gè)

    深度學(xué)習(xí)在過去幾年一直是人工智能領(lǐng)域最熱門的話題。事實(shí)上,正是它激發(fā)了科學(xué)家、政府、大公司以及其他所有人對(duì)人工智能的極大新興趣!這是一門很酷的科學(xué),具有潛在的巨大的實(shí)用性和積極的應(yīng)用。它正被用于金融、工程、娛樂、消費(fèi)產(chǎn)品和服務(wù)等領(lǐng)域。
    的頭像 發(fā)表于 08-17 17:16 ?3142次閱讀

    如何理解深度學(xué)習(xí)?深度學(xué)習(xí)的理論探索分析

    普林斯頓大學(xué)計(jì)算機(jī)科學(xué)系教授Sanjeev Arora做了深度學(xué)習(xí)理論理解探索的報(bào)告,包括三個(gè)部分:
    的頭像 發(fā)表于 10-03 12:41 ?3706次閱讀

    實(shí)施智能制造需要考慮的三個(gè)支點(diǎn)

    國家信息化專家咨詢委員會(huì)常務(wù)副主任周宏仁在《論智能制造》系列中的“論智能制造的三個(gè)階段”中,談到了對(duì)三個(gè)階段的基本認(rèn)識(shí)。而如何實(shí)施智能制造,則需要考慮智能制造的三個(gè)支點(diǎn):產(chǎn)品、裝備和過
    的頭像 發(fā)表于 11-01 08:48 ?3110次閱讀

    實(shí)施智能制造需要考慮三個(gè)支點(diǎn)

    筆者在《論智能制造》系列中的“論智能制造的三個(gè)階段”中,談到了對(duì)三個(gè)階段的基本認(rèn)識(shí)。而如何實(shí)施智能制造,則需要考慮智能制造的三個(gè)支點(diǎn):產(chǎn)品、裝備和過程。
    發(fā)表于 11-06 15:31 ?924次閱讀

    醫(yī)療人工智能系統(tǒng)的三個(gè)關(guān)鍵要素和挑戰(zhàn)

    醫(yī)療人工智能系統(tǒng)的建立和應(yīng)用中需要處理好如下三個(gè)關(guān)鍵要素,克服處理三個(gè)要素中面臨的挑戰(zhàn),才能取得成功。三個(gè)要素如下:數(shù)據(jù)、平臺(tái)計(jì)算能力、深度
    發(fā)表于 11-08 11:29 ?3688次閱讀

    關(guān)于人工智能發(fā)展的三個(gè)必要條件深度學(xué)習(xí)模型,大數(shù)據(jù),算力

    人工智能也是同樣的在一定的歷史契機(jī),幾個(gè)獨(dú)立發(fā)展的領(lǐng)域碰巧合并在一起就產(chǎn)生了巨大的推動(dòng)力。這一波人工智能發(fā)展的三個(gè)必要條件是:深度學(xué)習(xí)模型,大數(shù)據(jù),算力(并行計(jì)算)。
    的頭像 發(fā)表于 04-16 15:38 ?5496次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過程中,
    的頭像 發(fā)表于 07-02 14:04 ?1018次閱讀