0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

專(zhuān)訪(fǎng)Keras之父:從何開(kāi)始對(duì)深度學(xué)習(xí)感興趣、Keras的創(chuàng)建背后的動(dòng)機(jī)

jmiy_worldofai ? 來(lái)源:未知 ? 2018-11-28 17:30 ? 次閱讀

本文是對(duì)Keras的創(chuàng)造者、谷歌AI研究員Francois Chollet的專(zhuān)訪(fǎng),內(nèi)容包括Fran?ois從何開(kāi)始對(duì)深度學(xué)習(xí)感興趣、Keras的創(chuàng)建背后的動(dòng)機(jī),F(xiàn)ran?ois對(duì)TensorFlow等其他框架的看法、給初學(xué)者的建議等。

本文作者Sanyam Bhutani專(zhuān)訪(fǎng)了一系列他心目中的“AI英雄”,包括GAN的創(chuàng)造者Ian Goodfellow、最年輕的Kaggle Grandmasters等等。

這次,他的采訪(fǎng)對(duì)象是機(jī)器學(xué)習(xí)社區(qū)最偉大的貢獻(xiàn)者之一、Keras的創(chuàng)造者,也是最好的深度學(xué)習(xí)書(shū)籍的作者之一:Francois Chollet。

Francois Chollet目前是Google AI的研究員,也是Keras開(kāi)發(fā)的核心人物。

Francois Chollet

Sanyam Bhutani:你好,F(xiàn)ran?ois,非常感謝你抽出時(shí)間參加這次采訪(fǎng)。能和你談話(huà)真是我的榮幸。

Francois Chollet:謝謝你邀請(qǐng)我,我很樂(lè)意回答你的問(wèn)題。

問(wèn):你現(xiàn)在在 Google AI Research工作,并且你創(chuàng)建了最受歡迎的深度學(xué)習(xí)庫(kù)之一。你能告訴我們你是怎么開(kāi)始的嗎?是什么讓你對(duì)深度學(xué)習(xí)開(kāi)始感興趣?

Francois Chollet:我研究人工智能已經(jīng)有很長(zhǎng)一段時(shí)間了,但在我還是學(xué)生時(shí),我對(duì)學(xué)習(xí)視覺(jué)感知的層疊、模塊化、層次化表示的這些具體問(wèn)題很感興趣。當(dāng)時(shí),Jeff Hawkins寫(xiě)了一本相當(dāng)發(fā)人深省的書(shū)(書(shū)名是:On Intelligence),內(nèi)容包括大腦中的分層信息處理,MIT的一些人一直在研究受人類(lèi)視覺(jué)皮層啟發(fā)的視覺(jué)感知層級(jí)模型,就是HMAX模型家族。

這些觀點(diǎn)給我的印象非常深刻,并且我認(rèn)為是正確的,所以我開(kāi)始研究自己的算法。那時(shí)我沒(méi)有使用神經(jīng)網(wǎng)絡(luò),我開(kāi)始使用基于矩陣分解的堆疊特征學(xué)習(xí)器。我想要學(xué)習(xí)的不僅僅是視覺(jué)特征的層次結(jié)構(gòu),而是視覺(jué)-時(shí)間特征的層次結(jié)構(gòu),我想找到視覺(jué)特征與時(shí)間的相關(guān)性,而不僅僅是與空間的相關(guān)性。2012年年中,當(dāng)我在東京大學(xué)做研究時(shí),我獲得了一些初步的成功——我將我的設(shè)置應(yīng)用到無(wú)監(jiān)督的few-shot手勢(shì)識(shí)別中,并取得了一些非常好的結(jié)果。幾個(gè)月后,Hinton的實(shí)驗(yàn)室贏得了ImageNet競(jìng)賽冠軍(我在東京大學(xué)的實(shí)驗(yàn)室也參加了這個(gè)競(jìng)賽),他們?cè)?a href="http://wenjunhu.com/tags/gpu/" target="_blank">GPU上訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)(deep convnet),因此我對(duì)這種方法很感興趣。

這是人們現(xiàn)在已經(jīng)忽略的東西,但是用反向傳播訓(xùn)練的端到端可微模型只是學(xué)習(xí)感知的模塊化層次表示問(wèn)題的一種解決方案,還有其他途徑尚未得到探索。這個(gè)問(wèn)題本身只是AI領(lǐng)域的眾多問(wèn)題之一。

問(wèn):你能分享一下創(chuàng)建Keras的最初動(dòng)機(jī)嗎?你有沒(méi)有想到它會(huì)變得如此受歡迎?

Fran?ois Chollet:沒(méi)有,我絕對(duì)沒(méi)想到它會(huì)變得如此之大。我最初是希望它能在當(dāng)時(shí)使用深度學(xué)習(xí)的一小群人中引起一些轟動(dòng),那是在2015年3月(做深度學(xué)習(xí)的可能有幾千人),但當(dāng)時(shí)沒(méi)有人知道深度學(xué)習(xí)能在接下來(lái)的幾年里變得如此熱門(mén)。

我開(kāi)始創(chuàng)建Keras是為了我自己。我當(dāng)時(shí)在業(yè)余進(jìn)行自然語(yǔ)言處理的研究,希望找到一個(gè)好的工具來(lái)使用RNNs。LSTM算法在當(dāng)時(shí)基本上還不為人所知,但隨著神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)領(lǐng)域日益突出,一些人開(kāi)始研究LSTM在自然語(yǔ)言處理中的應(yīng)用。據(jù)我所知,當(dāng)時(shí)LSTM還沒(méi)有可重用的開(kāi)源實(shí)現(xiàn),所以我用Theano做了一個(gè)。后來(lái)我做了更多的層。它就變成了一個(gè)框架。我把它命名為Keras,并且開(kāi)源了它,一切是從那里發(fā)展起來(lái)的。

使它與眾不同的原因是:與其他框架相比,它非常易于得到,也易于使用;它支持RNNs和convnets(我想它是第一個(gè)支持convnets的框架),并且它允許你通過(guò)Python代碼而不是通過(guò)配置文件來(lái)定義模型(在這之前,通過(guò)配置文件來(lái)定義模型是最流行的方法,特別是對(duì)于Caffe和PyLearn2)。

問(wèn):你對(duì)Keras成為TensorFlow 2.0的默認(rèn)API有何看法?你為什么覺(jué)得這是有必要的?

Francois Chollet:TensorFlow是一個(gè)非常強(qiáng)大的框架,但是它長(zhǎng)期以來(lái)一直受到可用性問(wèn)題的困擾,特別是它是一個(gè)龐大的、有時(shí)令人困惑的API。TensorFlow 2在很大程度上解決了這些問(wèn)題。TensorFlow 2改進(jìn)的核心是兩件事:eager execution和Keras API。 Eager execution為T(mén)ensorFlow帶來(lái)了一種命令式的編碼風(fēng)格,使其更直觀、更易于調(diào)試。Keras API將使用模式整合到一個(gè)連貫的、真正高效且令人愉快的workflows中,適合于從研究到應(yīng)用程序開(kāi)發(fā)到部署的各種用戶(hù)配置文件。我對(duì)即將發(fā)布的內(nèi)容感到非常興奮。你應(yīng)該很快就會(huì)看到了!

問(wèn):除了TF和Keras之外,你認(rèn)為還有哪些框架看起來(lái)很有前景?

Francois Chollet:我認(rèn)為MXNet和它的高級(jí)APIGluon很有前景,它們都受到Keras和Chainer的啟發(fā)。MXNet利用了許多與TensorFlow 2一致的想法—— eager execution和symbolic execution的混合。與TensorFlow一樣,它是為數(shù)不多的具有實(shí)際生產(chǎn)級(jí)和可擴(kuò)展性的框架。MXNet背后有很多工程力量——亞馬遜有一個(gè)龐大的團(tuán)隊(duì)在做這件事。這是一個(gè)嚴(yán)肅的項(xiàng)目,有一些非常好的想法和可靠的執(zhí)行力。

問(wèn):對(duì)于那些懷著有朝一日在谷歌工作的夢(mèng)想而對(duì)深度學(xué)習(xí)感興趣的讀者和初學(xué)者,你有什么建議?

Fran?ois Chollet:我認(rèn)為你不應(yīng)該把你的夢(mèng)想和外在的身份標(biāo)志聯(lián)系在一起,比如為一家知名公司工作,或者賺一筆錢(qián),或者獲得某個(gè)特別的title。要弄清楚你生命的價(jià)值是什么,然后堅(jiān)持你的價(jià)值觀。永遠(yuǎn)不必為某一個(gè)決定后悔。

問(wèn):你能告訴我們你生命里的一天是什么樣的嗎?

Francois Chollet:不是很吸引人,主要是review代碼,與人交談,寫(xiě)設(shè)計(jì)文檔,等等。我仍然編寫(xiě)大量的代碼。

問(wèn):人們普遍認(rèn)為,要在深度學(xué)習(xí)中取得重大成果,需要有大量資源。你認(rèn)為一個(gè)人如果沒(méi)有谷歌研究員可能擁有的資源,能夠?qū)@個(gè)領(lǐng)域做出重大貢獻(xiàn)嗎?

Francois Chollet:當(dāng)然,有一些類(lèi)型的問(wèn)題需要行業(yè)規(guī)模的訓(xùn)練資源。但是,有很多問(wèn)題只需要有一個(gè)GPU,就能取得重大進(jìn)展。目前阻礙AI研究的主要原因不是缺乏硬件,而是缺乏多樣化的思維。如果你的資源有限,那么不要把時(shí)間花在擔(dān)心GPU上,而是擔(dān)心你是否在處理正確的問(wèn)題,是否在提出正確的問(wèn)題。

問(wèn):你一直是“AI倫理”的倡導(dǎo)者。你能分享一些在構(gòu)建“AI產(chǎn)品”時(shí)必須注意的方面嗎?

Francois Chollet:其他人對(duì)機(jī)器學(xué)習(xí)的倫理問(wèn)題的討論比我好得多。比如Kate Crawford,還有Meredith Whittaker。我想對(duì)此感興趣的人都應(yīng)該看看他們的作品。

問(wèn):你覺(jué)得機(jī)器學(xué)習(xí)被過(guò)度炒作了嗎?

Fran?ois Chollet:在某種程度上,的確是。我認(rèn)為機(jī)器學(xué)習(xí)在某種程度上既被高估了,也被低估了。一方面,人們往往過(guò)度高估了當(dāng)前機(jī)器學(xué)習(xí)系統(tǒng)的智能和泛化能力,將機(jī)器學(xué)習(xí)視為一根魔杖,遇到任意問(wèn)題只要揮揮魔杖,問(wèn)題就能消失。當(dāng)然,這在很大程度上是錯(cuò)誤的,我們的算法中很少有真正的智能,它們的應(yīng)用范圍非常狹窄。

但與此同時(shí),大多數(shù)人仍然低估了今天的相對(duì)粗糙的系統(tǒng)所能取得的成就,如果我們系統(tǒng)地將它們應(yīng)用于它們可能解決的每一個(gè)問(wèn)題的話(huà)。在某種程度上,機(jī)器學(xué)習(xí)是我們這個(gè)時(shí)代的蒸汽動(dòng)力:這是一種非常基本的機(jī)制,但如果大規(guī)模使用,它仍有可能深刻地改變世界。

問(wèn):你認(rèn)為博士或碩士學(xué)位的專(zhuān)業(yè)水平是必要的嗎,還是一個(gè)人可以在不成為“專(zhuān)家”的情況下對(duì)深度學(xué)習(xí)領(lǐng)域做出貢獻(xiàn)?

Francois Chollet:當(dāng)今在深度學(xué)習(xí)領(lǐng)域很多重要貢獻(xiàn)的人都沒(méi)有博士學(xué)位。要想對(duì)一個(gè)領(lǐng)域做出有意義的貢獻(xiàn),無(wú)論是系統(tǒng)開(kāi)發(fā)還是新研究,你必須要有一定水平的專(zhuān)業(yè)知識(shí)。但很明顯,你不需要通過(guò)博士課程就能獲得專(zhuān)業(yè)知識(shí),而擁有博士學(xué)位并不能保證你在任何領(lǐng)域都能做出有意義的貢獻(xiàn)——理論上應(yīng)該是這樣,但就我所知,現(xiàn)實(shí)與這個(gè)理論不太相符。

事實(shí)上,除非你的目標(biāo)是成為一名學(xué)者,否則我認(rèn)為獲得博士學(xué)位并不是獲得專(zhuān)業(yè)知識(shí)的最佳途徑。最好的道路是能讓你快速、開(kāi)放地成長(zhǎng)的道路。在團(tuán)隊(duì)合作和專(zhuān)家密切指導(dǎo)下開(kāi)展各種項(xiàng)目,你能最快地學(xué)到知識(shí)。在實(shí)踐中,典型的博士項(xiàng)目不是那樣的。

問(wèn):在我們結(jié)束之前,對(duì)于那些對(duì)如何開(kāi)啟深度學(xué)習(xí)感到不知所措的初學(xué)者,你有什么建議嗎?

Fran?ois Chollet:10年后,你能買(mǎi)到一本教科書(shū),上面會(huì)可以很好地總結(jié)2010年到2020年期間AI的進(jìn)展。今天發(fā)布的大量?jī)?nèi)容可能看起來(lái)很重要,但其中大部分都是噪音。要專(zhuān)注于大問(wèn)題。

Sanyam Bhutani:非常感謝你接受這個(gè)采訪(fǎng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121207
  • keras
    +關(guān)注

    關(guān)注

    2

    文章

    20

    瀏覽量

    6087

原文標(biāo)題:專(zhuān)訪(fǎng)Keras之父:關(guān)于深度學(xué)習(xí)、Keras的誕生和給初學(xué)者的建議

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型庫(kù)

    深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類(lèi)型的任務(wù)中,預(yù)訓(xùn)練模型變得越來(lái)越重要。Keras 以其用戶(hù)友好型 API 和對(duì)易用性的重視而聞名,始終處于這一動(dòng)向的前沿。Keras 擁有專(zhuān)用的內(nèi)
    的頭像 發(fā)表于 12-20 10:32 ?108次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專(zhuān)門(mén)為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?607次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    : NumPy:用于數(shù)學(xué)運(yùn)算。 TensorFlow:一個(gè)開(kāi)源機(jī)器學(xué)習(xí)庫(kù),Keras是其高級(jí)API。 Keras:用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型
    的頭像 發(fā)表于 11-13 10:10 ?378次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?399次閱讀

    keras模型轉(zhuǎn)tensorflow session

    和訓(xùn)練深度學(xué)習(xí)模型。Keras是基于TensorFlow、Theano或CNTK等底層計(jì)算框架構(gòu)建的。TensorFlow是一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)框架,由Google Brain團(tuán)隊(duì)開(kāi)發(fā)。
    的頭像 發(fā)表于 07-05 09:36 ?551次閱讀

    keras的模塊結(jié)構(gòu)介紹

    : 簡(jiǎn)介 Keras是一個(gè)開(kāi)源的深度學(xué)習(xí)庫(kù),由Fran?ois Chollet于2015年創(chuàng)建。Keras的目標(biāo)是提供一個(gè)簡(jiǎn)單、靈活且易于使
    的頭像 發(fā)表于 07-05 09:35 ?379次閱讀

    如何使用Tensorflow保存或加載模型

    TensorFlow是一個(gè)廣泛使用的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),它提供了豐富的API來(lái)構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在模型訓(xùn)練完成后,保存模型以便將來(lái)使用或部署是一項(xiàng)常見(jiàn)的需求。同樣,加載已保存的模型進(jìn)行預(yù)測(cè)或
    的頭像 發(fā)表于 07-04 13:07 ?1558次閱讀

    導(dǎo)入keras或者onnx模型到cubeai進(jìn)行分析,為什么會(huì)報(bào)錯(cuò)?

    請(qǐng)問(wèn)我導(dǎo)入keras或者onnx模型到cubeai進(jìn)行分析,為什么會(huì)報(bào)錯(cuò),而且沒(méi)有報(bào)錯(cuò)內(nèi)容,cubeai版本9.0.0。換成8.1.0版本后報(bào)錯(cuò)內(nèi)容是invalid network。該怎么入手解決。
    發(fā)表于 07-03 07:55

    基于stm32h743IIK在cubeai上部署keras模型,模型輸出結(jié)果都是同一組概率數(shù)組,為什么?

    基于stm32h743IIK,在cubeai上部署keras模型,模型輸出結(jié)果都是同一組概率數(shù)組,一點(diǎn)也搞不明白,看社區(qū)也有相同的問(wèn)題,但沒(méi)有解決方案
    發(fā)表于 05-20 08:18

    深度解析深度學(xué)習(xí)下的語(yǔ)義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺(jué)的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測(cè)、識(shí)別和分類(lèi)等領(lǐng)域。近年來(lái),研究人員開(kāi)始在視覺(jué)SLAM算法中引入深度
    發(fā)表于 04-23 17:18 ?1299次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語(yǔ)義SLAM

    cube AI導(dǎo)入Keras模型出錯(cuò)怎么解決?

    我嘗試過(guò)cube AI的version7.1.0、6.0.0、5.1.2、4.1.0,導(dǎo)入Keras都是這個(gè)報(bào)錯(cuò),求解答 E010(InvalidModelError): Couldn&
    發(fā)表于 03-18 06:39

    為什么深度學(xué)習(xí)的效果更好?

    ,這些原則和進(jìn)步協(xié)同作用使這些模型異常強(qiáng)大。本文探討了深度學(xué)習(xí)成功背后的核心原因,包括其學(xué)習(xí)層次表示的能力、大型數(shù)據(jù)集的影響、計(jì)算能力的進(jìn)步、算法創(chuàng)新、遷移
    的頭像 發(fā)表于 03-09 08:26 ?630次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    谷歌模型怎么用手機(jī)打開(kāi)文件

    )、.onnx(Open Neural Network Exchange)等。這些文件通常是為機(jī)器學(xué)習(xí)深度學(xué)習(xí)模型設(shè)計(jì)的。
    的頭像 發(fā)表于 02-29 18:17 ?1468次閱讀

    基于TensorFlow和Keras的圖像識(shí)別

    TensorFlow和Keras最常見(jiàn)的用途之一是圖像識(shí)別/分類(lèi)。通過(guò)本文,您將了解如何使用Keras達(dá)到這一目的。定義如果您不了解圖像識(shí)別的基本概念,將很難完全理解本文的內(nèi)容。因此在正文開(kāi)始之前
    的頭像 發(fā)表于 01-13 08:27 ?836次閱讀
    基于TensorFlow和<b class='flag-5'>Keras</b>的圖像識(shí)別

    如何從零開(kāi)始構(gòu)建深度學(xué)習(xí)項(xiàng)目?(如何啟動(dòng)一個(gè)深度學(xué)習(xí)項(xiàng)目)

    性能重大提升的背后往往是模型設(shè)計(jì)的改變。不過(guò)有些時(shí)候?qū)δP瓦M(jìn)行微調(diào)也可以提升機(jī)器學(xué)習(xí)的性能。最終的判斷可能會(huì)取決于你對(duì)相應(yīng)任務(wù)的基準(zhǔn)測(cè)試結(jié)果。
    發(fā)表于 01-11 10:49 ?306次閱讀
    如何從零<b class='flag-5'>開(kāi)始</b>構(gòu)建<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>項(xiàng)目?(如何啟動(dòng)一個(gè)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>項(xiàng)目)