0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

學(xué)習(xí)怎樣用深度神經(jīng)網(wǎng)絡(luò)替換線性模型

Tensorflowers ? 來源:未知 ? 作者:李倩 ? 2018-06-06 10:42 ? 次閱讀

AIA (AI Adventures)系列現(xiàn)在已經(jīng)進(jìn)入第六期了。前幾期分享當(dāng)中,Yufeng 介紹了機(jī)器學(xué)習(xí)的核心概念、基本邏輯,也介紹了要進(jìn)行機(jī)器學(xué)習(xí)需要經(jīng)過哪些步驟,并根據(jù)這些基本知識(shí)嘗試使用線性評(píng)估器 API 打造了鳶尾花分類模型,還介紹了如何用 TensorBoard 將模型可視化分析。今天的分享中,他會(huì)帶領(lǐng)我們一起把線性鳶尾花分類模型轉(zhuǎn)換為深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

在這一期的Cloud AI Adventures里,我們將會(huì)學(xué)習(xí)怎樣用深度神經(jīng)網(wǎng)絡(luò)替換線性模型,從而適應(yīng)日益復(fù)雜的數(shù)據(jù)集訓(xùn)練任務(wù)。

隨著線性模型中特征列數(shù)量的增加,進(jìn)而特征列之間的關(guān)系變得越來越復(fù)雜,在訓(xùn)練中提高精確度也越來越困難。這是一個(gè)眾人皆知的問題,而數(shù)據(jù)科學(xué)家們解決它的一個(gè)有效辦法就是轉(zhuǎn)為使用深度神經(jīng)網(wǎng)絡(luò)。

為什么叫深度?

深度神經(jīng)網(wǎng)絡(luò)可以應(yīng)對(duì)更復(fù)雜的數(shù)據(jù)集,并充分利用其多層結(jié)構(gòu)來更好地概括出未知的數(shù)據(jù),故而稱其為「深度」。多層次的結(jié)構(gòu)使其相比線性模型能夠容納更多的數(shù)據(jù)。不過代價(jià)就是要花費(fèi)更長(zhǎng)的訓(xùn)練時(shí)間,并且模型體積也更龐大,可解釋性也更差。那么人們?yōu)槭裁催€這么中意它呢?因?yàn)樗軌蛱嵘礁叩木取?/p>

深度學(xué)習(xí),有如山林漫步,難尋蹊徑

關(guān)于深度學(xué)習(xí),有那么一件頗具技巧的事,那就是把所有參數(shù)都調(diào)校得「恰到好處」。超大的數(shù)據(jù)集規(guī)模決定了調(diào)優(yōu)過程差不多是無窮無盡的。不過,TensorFlow 內(nèi)置的 DeepClassifier 和 Regresser 類提供了一些你能隨時(shí)使用的默認(rèn)值,他們能讓你的訓(xùn)練準(zhǔn)備工作又快又輕松。

從線性訓(xùn)練到深度學(xué)習(xí)

下面舉個(gè)例子來展示如何將早前我們的線性鳶尾花辨識(shí)模型轉(zhuǎn)為深度神經(jīng)網(wǎng)絡(luò)(也就是人們常說的 DNN)。

當(dāng)然, 我們不是要展示 DNN 能處理的 2000 列特征值模型,而是僅僅使用本系列貫穿始終的 4 列特征值。(要么火力全開,要么幾乎用不到,哈哈哈)其實(shí)它們背后的原理都是一樣的。

最主要的變化就是把 LinearClassifier 類換成 DNNClassifier 類。 這一更改會(huì)為我們創(chuàng)建一個(gè)深度神經(jīng)網(wǎng)絡(luò)。

用 DNNClassifier 類替換 LinearClassifier 類

其他變化

其實(shí)其他部分幾乎沒有變動(dòng)!只是 DNN 多了個(gè)之前我們沒有用到的參數(shù)。由于 DNN 的多層結(jié)構(gòu),而每一層可能有各不相同的結(jié)點(diǎn)數(shù)目,所以還需要在實(shí)例化時(shí)加上 hidden_units 參數(shù)。

加上 hidden_units 參數(shù)把所有東西都整合起來

這個(gè) hidden_units 參數(shù)讓你為模型的每一層指定具體的結(jié)點(diǎn)數(shù)目。也就是讓你決定模型的大小和形狀,而不需要從頭開始手動(dòng)把所有東西都連接起來。

改變模型的參數(shù)配置也就是一行變更的事兒

更多選項(xiàng)

對(duì)于任何預(yù)知的體系,自定義性和便利性往往不可兼得, DNNClassifier 嘗試給開發(fā)者提供額外的參數(shù)以繞過這個(gè)局限。如果留空了,就會(huì)由一些合理的默認(rèn)值來填補(bǔ)空缺。比如優(yōu)化器、激活函數(shù)、淘汰率等等都是可以自定義的。

沒錯(cuò),有這么個(gè)激活函數(shù)就叫「ELU」

再?zèng)]有什么其他變化了

還有其他要改變的嗎?沒了!這就是使用Estimators 框架的優(yōu)勢(shì):用通用的方法來組織數(shù)據(jù)、訓(xùn)練、評(píng)價(jià)、導(dǎo)出模型,同時(shí)還能讓你用不同的模型和參數(shù)來訓(xùn)練。

了解 Estimators 框架:

https://tensorflow.google.cn/api_docs/python/tf/estimator

輕松切入深度學(xué)習(xí)

又是,深度神經(jīng)網(wǎng)絡(luò)比線性模型要更加高效。在這些情況下,TensorFlow 用「只替換一處函數(shù)調(diào)用」這種少量編碼即可切換模型種類的方式,讓一切更加簡(jiǎn)單。此后,你會(huì)有更多的時(shí)間精力來處理數(shù)據(jù)、模型和參數(shù),而不是費(fèi)時(shí)管理訓(xùn)練的循環(huán)迭代。用TensorFlow Estimators來獲得更輕松的 DNN 訓(xùn)練體驗(yàn)吧!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4776

    瀏覽量

    100938
  • 線性
    +關(guān)注

    關(guān)注

    0

    文章

    199

    瀏覽量

    25175
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5510

    瀏覽量

    121329

原文標(biāo)題:AIA 第六期 | 通過深度神經(jīng)網(wǎng)絡(luò)再識(shí) Estimator

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?2222次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.
    發(fā)表于 03-20 11:32

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    俊楠分享了典型模式-深度神經(jīng)網(wǎng)絡(luò)入門。本文詳細(xì)介紹了關(guān)于深度神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,并詳細(xì)介紹了各個(gè)階段模型的結(jié)構(gòu)及特點(diǎn)。直播回顧請(qǐng)點(diǎn)擊以下是精
    發(fā)表于 05-08 15:57

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
    發(fā)表于 06-14 22:21

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用轉(zhuǎn)載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學(xué)習(xí)是機(jī)器
    發(fā)表于 08-02 10:39

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義
    發(fā)表于 07-20 08:58 ?0次下載

    BP神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)算法

    BP神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)算法
    發(fā)表于 09-08 09:42 ?10次下載
    BP<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>模型</b>與<b class='flag-5'>學(xué)習(xí)</b>算法

    深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)是什么樣的?

    怎樣理解非線性變換和多層網(wǎng)絡(luò)后的線性可分,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)就是
    的頭像 發(fā)表于 10-23 14:44 ?3995次閱讀

    快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載

    本文檔的詳細(xì)介紹的是快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載主要內(nèi)容包括了:機(jī)器學(xué)習(xí)概述,線性模型
    發(fā)表于 02-11 08:00 ?33次下載
    快速了解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的教程資料免費(fèi)下載

    綜述深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)模型應(yīng)用及發(fā)展

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)和人工智能研究的最新趨勢(shì),作為一個(gè)十余年來快速發(fā)展的嶄新領(lǐng)域,越來越受到研究者的關(guān)注。卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型
    發(fā)表于 04-02 15:29 ?20次下載
    綜述<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>模型</b>應(yīng)用及發(fā)展

    深度神經(jīng)網(wǎng)絡(luò)模型的壓縮和優(yōu)化綜述

    近年來,隨著深度學(xué)習(xí)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)受到了越來越多的關(guān)注,在許多應(yīng)用領(lǐng)域取得了顯著效果。通常,在較高的計(jì)算量下,深度
    發(fā)表于 04-12 10:26 ?20次下載
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>模型</b>的壓縮和優(yōu)化綜述

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動(dòng)調(diào)整神經(jīng)
    發(fā)表于 08-21 17:07 ?4194次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型? 卷積
    的頭像 發(fā)表于 08-21 17:11 ?1267次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)網(wǎng)絡(luò)模型,由多個(gè)全連接層組成。每個(gè)隱藏層的
    的頭像 發(fā)表于 07-02 10:00 ?1559次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是一種廣泛應(yīng)用于圖像識(shí)別、視頻分析和自然語言處理等領(lǐng)域的深度學(xué)習(xí)
    的頭像 發(fā)表于 07-02 10:11 ?9828次閱讀