0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一本書來(lái)幫助你入門深度學(xué)習(xí)生成模型

DPVg_AI_era ? 來(lái)源:lq ? 2019-08-02 08:57 ? 次閱讀

如果你想要一本書來(lái)幫助你入門深度學(xué)習(xí)生成模型,那么最新出版的“Generative Deep Learning”一定是不二之選。本書囊括了包括BERT/GPT-2, StyleGAN等近五年來(lái)最先進(jìn)的GAN,帶你走進(jìn)生成模型的奇妙世界。

現(xiàn)在是2019年7月20日UTC時(shí)間20:17。

50年前的今天,尼爾·阿姆斯特朗和巴茲·奧爾德林駕駛駕駛的登月艙“鷹”號(hào)降落在月球上。這是一項(xiàng)偉大的工程壯舉,充滿著勇氣和堅(jiān)定的決心。

快進(jìn)50年,將這些宇航員帶到月球表面去的阿波羅制導(dǎo)計(jì)算機(jī)(AGC)的處理能力就在你的口袋里——事實(shí)上,iPhone 6的計(jì)算能力就足以引導(dǎo)1.2億個(gè)阿波羅11號(hào)飛船登月,而且是在同一時(shí)間。

這一事實(shí)并沒(méi)有真正公正地反映AGC的輝煌。由于摩爾定律,你可以選擇任何計(jì)算機(jī)器,也可以說(shuō)50年后,將會(huì)有一臺(tái)機(jī)器能夠比它的運(yùn)行速度快22?倍。

編寫AGC代碼的軟件團(tuán)隊(duì)的負(fù)責(zé)人是瑪格麗特·漢密爾頓(Margaret Hamilton),她沒(méi)有把那時(shí)的硬件限制看作是一種障礙,而是一種挑戰(zhàn)。她利用當(dāng)時(shí)可用的資源完成了不可想象的目標(biāo)。

Margaret Hamilton

這讓我想到…

《生成式深度學(xué)習(xí)》新書

459天前,我收到來(lái)自O(shè)'Reilly Media的消息,詢問(wèn)我是否有興趣寫一本書。當(dāng)時(shí)我覺(jué)得這似乎是個(gè)好主意,所以答應(yīng)了,并決定寫一本關(guān)于生成模型的最新指南——特別是如何構(gòu)建最先進(jìn)的深度學(xué)習(xí)模型,這樣的模型可以繪畫、寫作、作曲和玩游戲。

更重要的是,我希望這本書能讓讀者深入了解生成式深度學(xué)習(xí),并構(gòu)建能夠做出各種令人驚嘆的事情的模型,而不需要大量昂貴且耗時(shí)的計(jì)算資源。

我很高興地宣布,這本書現(xiàn)在可以可以通過(guò)亞馬遜購(gòu)買,也可以在O’Reilly網(wǎng)站上購(gòu)買電子版。(注:作者David Foster是Applied Data Science的聯(lián)合創(chuàng)始人)

我堅(jiān)信,掌握任何技術(shù)的秘訣都是首先解決小問(wèn)題,但是要了解每一行代碼背后的原理。

如果你一開(kāi)始就搞龐大的數(shù)據(jù)集和模型,那么會(huì)需要一天而不是一個(gè)小時(shí)的時(shí)間來(lái)運(yùn)行,你不會(huì)學(xué)到更多的東西——只是將學(xué)習(xí)的速度放慢了24倍。

如果說(shuō)登月教會(huì)了我們什么的話,那就是真正令人驚奇的事情是可以在非常少的計(jì)算資源下實(shí)現(xiàn)的,我的目標(biāo)是讓你在讀完這本書后,對(duì)生成模型有同樣的感受。

封面的鸚鵡是怎么回事?

為O’Reilly寫書最棒的一點(diǎn)是,他們會(huì)在你的書的封面上畫一只動(dòng)物——我得到了一只畫好的長(zhǎng)尾小鸚鵡,我親切地給它取名為Neil Wingstrong。

長(zhǎng)尾小鸚鵡Neil Wingstrong

那么現(xiàn)在鸚鵡已經(jīng)著陸,你還能從這本書中期待什么呢?

這本書是關(guān)于什么的?

這是一本關(guān)于生成模型的動(dòng)手指南。

它將帶你了解基本生成模型的基礎(chǔ)知識(shí),然后逐步構(gòu)建更復(fù)雜的模型——始終使用實(shí)際示例、架構(gòu)圖和代碼。

這本書適合任何想要深入了解當(dāng)前熱門的生成模型的人。你不需要深度學(xué)習(xí)的先驗(yàn)知識(shí),所有代碼示例都是用Python編寫的。

這本書涵蓋哪些內(nèi)容?

我試圖涵蓋過(guò)去5年來(lái)所有的重要生成模型。

如下面的時(shí)間軸所示。

全書分為兩部分,章節(jié)提綱如下:

第一部分:生成式深度學(xué)習(xí)簡(jiǎn)介

本書的前四章旨在介紹開(kāi)始構(gòu)建生成式深度學(xué)習(xí)模型所需的核心技術(shù)。

1. 生成模型

我們對(duì)生成建模領(lǐng)域進(jìn)行了廣泛的研究,并考慮了我們?cè)噲D從概率角度解決的問(wèn)題的類型。然后,我們探索了基本概率生成模型的第一個(gè)例子,并分析為什么隨著生成任務(wù)的復(fù)雜性增加,可能需要部署深度學(xué)習(xí)技術(shù)。

2. 深度學(xué)習(xí)

本章將指導(dǎo)你開(kāi)始構(gòu)建更復(fù)雜的生成模型所需的深度學(xué)習(xí)工具和技術(shù)。我們將介紹Keras,一個(gè)用于構(gòu)建神經(jīng)網(wǎng)絡(luò)的框架,可用于構(gòu)建和訓(xùn)練一些在文獻(xiàn)中發(fā)表的最先進(jìn)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)。

3.變分自動(dòng)編碼器

在本章中,我們將介紹第一個(gè)生成深度學(xué)習(xí)模型——變分自動(dòng)編碼器。這一強(qiáng)大的技術(shù)將允許我們從頭開(kāi)始生成逼真的面孔,并改變現(xiàn)有的圖像——例如,添加微笑,或改變某人頭發(fā)的顏色。

4. 生成對(duì)抗網(wǎng)絡(luò)(GANs)

本章探討了近年來(lái)最成功的生成模型技術(shù)之一——生成對(duì)抗性網(wǎng)絡(luò)。這個(gè)用于構(gòu)建生成模型問(wèn)題的優(yōu)雅框架是大多數(shù)最先進(jìn)的生成模型背后的基礎(chǔ)引擎。我們將學(xué)習(xí)它的微調(diào)的方式,從而不斷推進(jìn)生成模型能夠?qū)崿F(xiàn)的邊界。

第二部分:教機(jī)器繪畫、寫作、作曲和玩游戲

第二部分提供了一組案例研究,展示了如何將生成建模技術(shù)應(yīng)用于特定的任務(wù)。

5. 繪畫

在本章中,我們將研究?jī)煞N與機(jī)器繪畫有關(guān)的技術(shù)。首先我們來(lái)看看CycleGAN,顧名思義,它是GAN架構(gòu)的一個(gè)改編,允許模型學(xué)習(xí)如何將照片轉(zhuǎn)換成特定風(fēng)格的繪畫(反之亦然)。我們還探索了包含在許多照片編輯應(yīng)用程序中的神經(jīng)風(fēng)格遷移技術(shù),這種技術(shù)允許你將一幅畫的風(fēng)格轉(zhuǎn)移到一張照片上,給人一種這是同一位藝術(shù)家的畫的印象。

6. 寫作

在本章中,我們將注意力轉(zhuǎn)向機(jī)器寫作,這是一項(xiàng)對(duì)圖像生成提出不同挑戰(zhàn)的任務(wù)。本章介紹了遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的結(jié)構(gòu),它允許我們處理涉及序列數(shù)據(jù)的問(wèn)題。我們還將了解encoder–decoder 架構(gòu)是如何工作的,并構(gòu)建一個(gè)問(wèn)答生成器。

7. 作曲

本章著眼于音樂(lè)生成,這也是一個(gè)序列生成問(wèn)題,但提出了額外的挑戰(zhàn),如建模音樂(lè)的音高和節(jié)奏。我們將了解許多用于文本生成的技術(shù)如何可以應(yīng)用于音樂(lè)生成任務(wù),但我們還將探索一個(gè)稱為MuseGAN的深度學(xué)習(xí)架構(gòu),它將第4章(關(guān)于GAN)中的思想應(yīng)用于音樂(lè)數(shù)據(jù)。

8. 玩游戲

本章展示了生成模型如何應(yīng)用于其他機(jī)器學(xué)習(xí)領(lǐng)域,如強(qiáng)化學(xué)習(xí)。最近幾年最激動(dòng)人心的一篇論文是“世界模型”,作者展示了一個(gè)生成模型可以用作智能體訓(xùn)練的環(huán)境,因此本質(zhì)上允許智能體對(duì)未來(lái)可能的場(chǎng)景“做夢(mèng)”,想象如果采取某些行動(dòng)會(huì)發(fā)生什么,完全在其環(huán)境的概念模型中。

9. 生成模型的未來(lái)

本章是對(duì)當(dāng)前生成模型的概述,并回顧了在本書中介紹的技術(shù)。我們還將放眼未來(lái),探索今天可用的最先進(jìn)技術(shù)如GPT-2和BigGAN可能如何改變我們創(chuàng)造的方式,我們是否能創(chuàng)造一個(gè)人造實(shí)體,它可以生產(chǎn)內(nèi)容,創(chuàng)造性地生成藝術(shù)作品、文學(xué)和音樂(lè)。

10. 結(jié)論

本章關(guān)于為什么生成式深度學(xué)習(xí)在未來(lái)5-10年可能成為機(jī)器學(xué)習(xí)最重要、最有影響力的領(lǐng)域。

總結(jié)

在一個(gè)事實(shí)和虛構(gòu)不那么容易分離的世界里,至關(guān)重要的是有一些工程師能夠詳細(xì)地理解生成模型的工作原理,并且不會(huì)因?yàn)榧夹g(shù)限制而卻步。

希望這本書能幫助你了解當(dāng)前最先進(jìn)的技術(shù),同時(shí)也能讓你享受閱讀的樂(lè)趣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1947

    瀏覽量

    73685
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5507

    瀏覽量

    121286

原文標(biāo)題:O'Reilly新書:《生成式深度學(xué)習(xí)》,近5年最先進(jìn)GAN一網(wǎng)打全!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+兩互為支持的

    如何使用PyTorch進(jìn)行數(shù)字圖像處理,它借助攝像頭來(lái)獲取視頻的圖像信息,然后通過(guò)已有的圖像識(shí)別框架模型經(jīng)深度學(xué)習(xí)和優(yōu)化以達(dá)到更精準(zhǔn)的識(shí)別結(jié)果,從而為進(jìn)
    發(fā)表于 01-01 15:50

    【「大模型啟示錄」閱讀體驗(yàn)】對(duì)本書的初印象

    很高興能夠申請(qǐng)到《大模型啟示錄》一書,作為名在讀大學(xué)生,我深感榮幸。在日常生活中,人工智能(AI)的應(yīng)用已經(jīng)變得無(wú)處不在,它不僅幫助我們完成
    發(fā)表于 12-16 14:05

    請(qǐng)問(wèn)ADC的電源產(chǎn)生的噪聲為何會(huì)反應(yīng)在ADC輸出數(shù)據(jù)的頻譜上?

    請(qǐng)問(wèn)ADC的電源產(chǎn)生的噪聲為何會(huì)反應(yīng)在ADC輸出數(shù)據(jù)的頻譜上,有沒(méi)有講這類原理的? 因?yàn)榭戳撕芏嗾撐?,只是給出了結(jié)論,沒(méi)有說(shuō)為什么。 求大家推薦一本書,謝謝。
    發(fā)表于 12-05 08:09

    【書籍評(píng)測(cè)活動(dòng)NO.52】基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化

    首先需要了解大模型著名的“幻覺(jué)”問(wèn)題。 “幻覺(jué)”指的是大模型在試圖生成內(nèi)容或回答問(wèn)題時(shí),輸出的結(jié)果不完全正確甚至錯(cuò)誤,即通常所說(shuō)的“一本正經(jīng)地胡說(shuō)八道”。 這種“幻覺(jué)”可以體現(xiàn)為對(duì)事實(shí)
    發(fā)表于 12-04 10:50

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.49】大模型啟示錄:一本AI應(yīng)用百科全書

    大家了解全球最領(lǐng)先的大模型場(chǎng)景。 本書一本AI應(yīng)用百科全書 ,給予讀者落地大模型時(shí)的啟發(fā)。 本書的作者來(lái)自大
    發(fā)表于 10-28 15:34

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的個(gè)熱門研究方向。以下是些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?260次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 、深度
    的頭像 發(fā)表于 10-23 15:25 ?918次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    些局限性。例如,模型可能無(wú)法完全理解文本中的深層含義和語(yǔ)境信息;同時(shí),由于訓(xùn)練數(shù)據(jù)可能存在偏差和噪聲,生成的答案也可能存在不準(zhǔn)確或誤導(dǎo)性的情況。 總結(jié)以下,大語(yǔ)言模型通過(guò)
    發(fā)表于 08-02 11:03

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是種重要的模型輕量化技術(shù),旨在通過(guò)減少網(wǎng)絡(luò)參數(shù)的比特寬度來(lái)減小
    的頭像 發(fā)表于 07-15 11:01 ?505次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>量化方法

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)充滿無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型
    的頭像 發(fā)表于 07-04 11:49 ?1476次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練個(gè)深度
    的頭像 發(fā)表于 07-01 16:13 ?1356次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過(guò)程中,往往會(huì)遇到各種問(wèn)題和挑戰(zhàn),如過(guò)擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?868次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】探索《大語(yǔ)言模型原理與工程實(shí)踐》

    《大語(yǔ)言模型》是一本深入探討人工智能領(lǐng)域中語(yǔ)言模型的著作。作者通過(guò)對(duì)語(yǔ)言模型的基本概念、基礎(chǔ)技術(shù)、應(yīng)用場(chǎng)景分析,為讀者揭開(kāi)了這領(lǐng)域的神秘面
    發(fā)表于 04-30 15:35

    【RTC程序設(shè)計(jì):實(shí)時(shí)音視頻權(quán)威指南】本書概覽

    本書內(nèi)容看一本書的內(nèi)容從其目錄即可看出內(nèi)容與結(jié)構(gòu),從本書目錄看其內(nèi)容非常豐富充實(shí)。書中第章介紹了些計(jì)算機(jī)的基本知識(shí)。然后第二章介紹了視
    發(fā)表于 04-21 17:09

    《Linux常用命令自學(xué)手冊(cè)》工具永遠(yuǎn)是常備的秘籍

    幫助。非常適合作為種你要學(xué)習(xí)開(kāi)發(fā)的Linux系統(tǒng)的基礎(chǔ)工具使用。 《Linux常用命令自學(xué)手冊(cè)》是一本非常值得
    發(fā)表于 01-29 19:42