0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

結(jié)合深度學(xué)習(xí)與最新Pytorch1.0來(lái)為你細(xì)致講解

DPVg_AI_era ? 來(lái)源:lq ? 2018-12-17 09:02 ? 次閱讀

近日,在 NeurIPS 2018 大會(huì)上,F(xiàn)acebook 官方宣布 PyTorch 1.0 正式版發(fā)布了。如何用Pytorch1.0搞深度學(xué)習(xí)?對(duì)很多小白學(xué)生是個(gè)問(wèn)題。瑞士非盈利研究機(jī)構(gòu) Idiap Research Institute的研究員FRAN?OIS FLEURET開(kāi)設(shè)了一門(mén)深度學(xué)習(xí)課程(2019年秋季),詳細(xì)結(jié)合深度學(xué)習(xí)與最新Pytorch1.0來(lái)為你細(xì)致講解,是學(xué)習(xí)Pytorch1.0深度學(xué)習(xí)不可多得的材料。

課程網(wǎng)址:

https://fleuret.org/ee559/

Francois Fleuret于2000年獲得巴黎第六大學(xué)數(shù)學(xué)博士學(xué)位,2006年獲得巴黎第十三大學(xué)數(shù)學(xué)博士學(xué)位。他是瑞士Idiap研究所計(jì)算機(jī)視覺(jué)和學(xué)習(xí)小組的負(fù)責(zé)人。在此之前,他曾在美國(guó)芝加哥大學(xué)、法國(guó)信息與自動(dòng)化研究所(INRIA)和瑞士洛桑聯(lián)邦理工學(xué)院(EPFL)任職。他是IEEE模式分析和機(jī)器智能交易的副主編,也是幾個(gè)歐洲資助機(jī)構(gòu)的專(zhuān)家。

深度學(xué)習(xí)課程概述

本課程的目標(biāo)是提供深度機(jī)器學(xué)習(xí)的完整講解。如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò),如何訓(xùn)練它,以及有哪些現(xiàn)有技術(shù)專(zhuān)門(mén)處理非常大的網(wǎng)絡(luò)結(jié)構(gòu)。本課程旨在教授應(yīng)用問(wèn)題的深度學(xué)習(xí)方法所需的技能。

課程計(jì)劃內(nèi)容:

1. 什么是深度學(xué)習(xí),張量介紹。

2. 基本機(jī)器學(xué)習(xí),經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化,簡(jiǎn)單嵌入。

3. 線(xiàn)性可分性,多層感知器,反向傳播。

4. 通用網(wǎng)絡(luò),autograd,批處理,卷積網(wǎng)絡(luò)。

5. 初始化、優(yōu)化和正則化。Dropout,激活歸一化,跳過(guò)連接。

6. 計(jì)算機(jī)視覺(jué)的深層模型。

7. 深入模型分析。

8. 自編碼器,嵌入式和生成模型。

9. 循環(huán)模型和自然語(yǔ)言處理。

10. pytorch張量,深度學(xué)習(xí)模塊,和內(nèi)部構(gòu)件。

深度學(xué)習(xí)課程導(dǎo)讀

緒論

1.1 從神經(jīng)網(wǎng)絡(luò)到深度學(xué)習(xí),21頁(yè)slides

1.2 當(dāng)前成功應(yīng)用的實(shí)例 22頁(yè)slides

1.3 正在發(fā)生什么? (13頁(yè)slides)

1.4 張量基礎(chǔ)和線(xiàn)性回歸 12 頁(yè)slides

1.5 高維張量. 15頁(yè)slides

1.6 張量?jī)?nèi)部 5頁(yè)slides

2. 機(jī)器學(xué)習(xí)基礎(chǔ)

2.1 損失函數(shù)與風(fēng)險(xiǎn). 15頁(yè)slides

2.2 過(guò)擬合與欠擬合. 24頁(yè)slides

2.3 方差-偏差困境 10頁(yè)slides

2.4 合適評(píng)價(jià)方法 6頁(yè)slides

2.5 基本聚類(lèi)與嵌入方法19頁(yè)slides

3. 多層感知器和反向傳播

3.1 感知器。(幻燈片,講義- 16張)

3.2 線(xiàn)性分類(lèi)器的概率視圖。(幻燈片,講義- 8張)

3.3 線(xiàn)性可分性與特征設(shè)計(jì)。(幻燈片,講義- 10張)

3.4 多層感知器。(幻燈片,講義- 10張)

3.5 梯度下降法。(幻燈片,講義- 13張)

3.6 反向傳播。(幻燈片,講義- 11張)

4. 操作符、autograd和卷積層的圖操作

4.1 DAG網(wǎng)絡(luò)。(幻燈片,講義- 11張)

4.2 Autograd。(幻燈片,講義- 19張)

4.3 PyTorch模塊和批處理。(幻燈片,講義- 14張)

4.4 卷積。(幻燈片,講義- 23張)

4.5 池化(幻燈片,講義- 7張)

4.6 編寫(xiě)一個(gè)PyTorch模塊。(幻燈片,講義- 10張)

5.1 交叉熵?fù)p失。(幻燈片,講義- 9張)

5.3 PyTorch優(yōu)化。(幻燈片,講義- 8張)

5.3 L1和L2 懲罰項(xiàng)。(幻燈片,講義- 10張)

5.4 參數(shù)初始化。(幻燈片,講義- 22張)

5.5 網(wǎng)絡(luò)架構(gòu)選擇和訓(xùn)練協(xié)議。(幻燈片,講義- 9張)

5.6 寫(xiě)一個(gè)autograd函數(shù)。(幻燈片,講義- 7張)

6.1 深度的好處。(幻燈片,講義- 9張)

6.2 修正器。(幻燈片,講義- 7張)

6.3 Dropout (幻燈片,講義- 12張)

7.1計(jì)算機(jī)視覺(jué)任務(wù)。(幻燈片,講義- 15張)

7.2 用于圖像分類(lèi)的網(wǎng)絡(luò)。(幻燈片,講義- 36張)

7.3用于目標(biāo)檢測(cè)的網(wǎng)絡(luò)。(幻燈片,講義- 15張)

7.4 用于語(yǔ)義分割的網(wǎng)絡(luò)。(幻燈片,講義- 8張)

7.5 DataLoader和神經(jīng)。(幻燈片,講義- 13張)

8. 關(guān)鍵技巧方法處理

8.1 看參數(shù)。(幻燈片,講義- 11張)

8.2 激活。(幻燈片,講義- 21張)

8.3 可視化輸入中的處理。(幻燈片,講義- 26張)

8.4 優(yōu)化輸入。(幻燈片,講義- 25張)

9. 自編碼器和生成模型。

9.1 轉(zhuǎn)置運(yùn)算。(幻燈片,講義- 14張)

9.2 Autoencoders。(幻燈片,講義- 20張)

9.3 去噪和變分自編碼器。(幻燈片,講義- 24張)

9.4Non-volume保存網(wǎng)絡(luò)。(幻燈片,講義- 24張)

10. 生成對(duì)抗模型。

10.1 生成對(duì)抗的網(wǎng)絡(luò)。(幻燈片,講義- 29張)

10.2 Wasserstein GAN。(幻燈片,講義- 16張)

10.3 條件GAN和圖像轉(zhuǎn)換。(幻燈片,講義- 27張)

10.4 模型持久性和檢查點(diǎn)。(幻燈片,講義- 9張)

11循環(huán)模型與NLP

11.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(slides,handout– 23 slides)

11.2 LSTM 和 GRU. (slides,handout– 17 slides)

11.3 Word embeddings 與translation. (slides,handout– 31 slides)

更多閱讀:

5. 初始化和優(yōu)化。

5.2 隨機(jī)梯度下降法。(幻燈片,講義- 17張)

6. 搞更深

6.4 批處理歸一化。(幻燈片,講義- 15張)

6.5 殘差網(wǎng)絡(luò)。(幻燈片,講義- 21張)

6.6 使用gpu。(幻燈片,講義- 17張)

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:Pytoch1.0深度學(xué)習(xí)如何玩?送你含900頁(yè)ppt和代碼實(shí)例

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    [基于GD32F350RB的音頻識(shí)別器] 4.使用Caffe2構(gòu)建訓(xùn)練平臺(tái)

    ,caffe2又要被整合到pytorch1.0中去,那么,最好就從pytorch的使用開(kāi)始。具體哪個(gè)深度學(xué)習(xí)的框架更好就是一個(gè)有些太深的知識(shí)坑,搞硬件的最好直接跳過(guò)。2.
    發(fā)表于 09-28 17:50

    通過(guò)Cortex來(lái)非常方便的部署PyTorch模型

    的機(jī)器學(xué)習(xí)框架是建立在 PyTorch 上的。在 ML 的幾乎任何領(lǐng)域,從計(jì)算機(jī)視覺(jué)到 NLP 再到計(jì)算生物學(xué),都會(huì)發(fā)現(xiàn) PyTorch 在前沿
    發(fā)表于 11-01 15:25

    Facebook致力AI 開(kāi)源PyTorch1.0 AI框架

    導(dǎo)讀: Facebook近日宣布,將于近期開(kāi)源PyTorch 1.0 AI框架,據(jù)悉,該框架是PyTorch與Caffe 2的結(jié)合,可以讓開(kāi)發(fā)者無(wú)需遷移就從研究轉(zhuǎn)為生產(chǎn)。 Facebo
    的頭像 發(fā)表于 06-18 10:30 ?3191次閱讀

    深度學(xué)習(xí)是什么?了解深度學(xué)習(xí)難嗎?讓快速了解深度學(xué)習(xí)的視頻講解

    深度學(xué)習(xí)是什么?了解深度學(xué)習(xí)難嗎?讓快速了解深度學(xué)習(xí)
    發(fā)表于 08-23 14:36 ?16次下載

    Facebook宣布發(fā)布深度學(xué)習(xí)框架 PyTorch 1.0開(kāi)發(fā)者預(yù)覽版

    用戶(hù)共同制作張量處理單元(TPU)。用于預(yù)配置 AI 的 Google Cloud Platform 深度學(xué)習(xí) VM,還將包含 PyTorch 1.0 的 VM 映像。亞馬遜的 Sa
    的頭像 發(fā)表于 10-08 14:36 ?3220次閱讀

    PyTorch官網(wǎng)教程PyTorch深度學(xué)習(xí):60分鐘快速入門(mén)中文翻譯版

    PyTorch 深度學(xué)習(xí):60分鐘快速入門(mén)” PyTorch 官網(wǎng)教程,網(wǎng)上已經(jīng)有部分翻譯作品,隨著
    的頭像 發(fā)表于 01-13 11:53 ?1w次閱讀

    為什么學(xué)習(xí)深度學(xué)習(xí)需要使用PyTorch和TensorFlow框架

    如果需要深度學(xué)習(xí)模型,那么 PyTorch 和 TensorFlow 都是不錯(cuò)的選擇。 并非每個(gè)回歸或分類(lèi)問(wèn)題都需要通過(guò)深度
    的頭像 發(fā)表于 09-14 10:57 ?3462次閱讀

    基于PyTorch深度學(xué)習(xí)入門(mén)教程之PyTorch的安裝和配置

    神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并且運(yùn)用各種深度學(xué)習(xí)算法訓(xùn)練網(wǎng)絡(luò)參數(shù),進(jìn)而解決各種任務(wù)。 本文從PyTorch環(huán)境配置開(kāi)始。PyTorch是一種Python接口的深度
    的頭像 發(fā)表于 02-16 15:15 ?2612次閱讀

    基于PyTorch深度學(xué)習(xí)入門(mén)教程之PyTorch簡(jiǎn)單知識(shí)

    本文參考PyTorch官網(wǎng)的教程,分為五個(gè)基本模塊來(lái)介紹PyTorch。為了避免文章過(guò)長(zhǎng),這五個(gè)模塊分別在五篇博文中介紹。 Part1:PyTorch簡(jiǎn)單知識(shí) Part2:
    的頭像 發(fā)表于 02-16 15:20 ?2275次閱讀

    PyTorch教程12.1之優(yōu)化和深度學(xué)習(xí)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程12.1之優(yōu)化和深度學(xué)習(xí).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:08 ?0次下載
    <b class='flag-5'>PyTorch</b>教程12.1之優(yōu)化和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)框架pytorch入門(mén)與實(shí)踐

    深度學(xué)習(xí)框架pytorch入門(mén)與實(shí)踐 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中的一個(gè)分支,它使用多層神經(jīng)網(wǎng)絡(luò)對(duì)大量數(shù)
    的頭像 發(fā)表于 08-17 16:03 ?1614次閱讀

    深度學(xué)習(xí)框架pytorch介紹

    深度學(xué)習(xí)框架pytorch介紹 PyTorch是由Facebook創(chuàng)建的開(kāi)源機(jī)器學(xué)習(xí)框架,其中TensorFlow是完全基于數(shù)據(jù)流圖的。它是
    的頭像 發(fā)表于 08-17 16:10 ?1821次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過(guò)程中,深度
    的頭像 發(fā)表于 07-02 14:04 ?982次閱讀

    PyTorch深度學(xué)習(xí)開(kāi)發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開(kāi)發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開(kāi)發(fā)者來(lái)說(shuō)至關(guān)重要。在Windows操作系統(tǒng)上搭建
    的頭像 發(fā)表于 07-16 18:29 ?1099次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?225次閱讀
    <b class='flag-5'>Pytorch</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法