0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Waymo用AutoML自動(dòng)生成機(jī)器學(xué)習(xí)模型

ml8z_IV_Technol ? 來(lái)源:cc ? 2019-01-19 09:05 ? 次閱讀

Waymo十周年之際,發(fā)布了自動(dòng)駕駛機(jī)器學(xué)習(xí)模型的構(gòu)建思路,原來(lái)很多內(nèi)部機(jī)器學(xué)習(xí)架構(gòu)是由 AutoML 完成的。這種自動(dòng)機(jī)器學(xué)習(xí)算法在激光雷達(dá)分割任務(wù)中,比人工創(chuàng)建的網(wǎng)絡(luò)質(zhì)量更高。在代理端到端搜索中,甚至發(fā)現(xiàn)了卷積、池化和反卷積操作的創(chuàng)造性組合,不禁讓人感嘆算法工程師要失業(yè)?

AutoML 全稱是 Automated Machine Learning,是2014年以來(lái),機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域最炙手可熱的領(lǐng)域之一。2017年5月,谷歌在I/O大會(huì)上推出基于TensorFlow 框架下的AutoML,它可以通過(guò)神經(jīng)網(wǎng)絡(luò)來(lái)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),節(jié)省人工設(shè)計(jì)的時(shí)間,其對(duì)專業(yè)知識(shí)的較低,讓非機(jī)器學(xué)習(xí)專家也能輕松上手。而在近日waymo十周年上曝光,其AutoML 已經(jīng)用來(lái)設(shè)計(jì)應(yīng)用于自動(dòng)駕駛上的機(jī)器學(xué)習(xí)算法。

在Waymo,機(jī)器學(xué)習(xí)幾乎應(yīng)用在自動(dòng)駕駛系統(tǒng)的每個(gè)角落。它可以幫助無(wú)人車感知周圍環(huán)境,了解世界,預(yù)測(cè)其他人的行為方式,并預(yù)測(cè)他們的下一步行動(dòng)。

以感知為例,Waymo的系統(tǒng)采用了神經(jīng)網(wǎng)絡(luò)的組合,使無(wú)人車能夠解讀傳感器數(shù)據(jù)、識(shí)別物體,并隨著時(shí)間的推移跟蹤它們,從而對(duì)周圍的世界有一個(gè)深入的了解。這些神經(jīng)網(wǎng)絡(luò)的創(chuàng)建通常是一項(xiàng)耗時(shí)的任務(wù),優(yōu)化神經(jīng)網(wǎng)絡(luò)架構(gòu)以實(shí)現(xiàn)在自動(dòng)駕駛汽車上運(yùn)行所需的質(zhì)量和速度是一個(gè)復(fù)雜的微調(diào)過(guò)程,需要花費(fèi)工程師數(shù)月時(shí)間完成任務(wù)。

通過(guò)與谷歌AI大腦團(tuán)隊(duì)研究人員合作,應(yīng)用AutoML將前沿研究付諸實(shí)踐,以自動(dòng)生成神經(jīng)網(wǎng)絡(luò)。更重要的是,這些最先進(jìn)的神經(jīng)網(wǎng)絡(luò)比工程師手動(dòng)微調(diào)質(zhì)量更高和速度更快。

Waymo 為了將自動(dòng)駕駛技術(shù)應(yīng)用到不同的城市和環(huán)境中,需要以極快的速度優(yōu)化現(xiàn)有模型以適應(yīng)不同的場(chǎng)景。恰好 AutoML 能夠做到這一點(diǎn),并高效,持續(xù)地提供大量的ML解決方案。

應(yīng)用現(xiàn)有的AutoML框架進(jìn)行遷移學(xué)習(xí)

Auto ML能否為汽車生成高質(zhì)量、低延遲的神經(jīng)網(wǎng)絡(luò)?

質(zhì)量往往是衡量一個(gè)神經(jīng)網(wǎng)絡(luò)產(chǎn)生的答案的準(zhǔn)確性的標(biāo)準(zhǔn),延遲數(shù)據(jù)決定了神經(jīng)網(wǎng)絡(luò)提供答案的速度,也稱為推理時(shí)間。由于自動(dòng)駕駛是一項(xiàng)需要無(wú)人車快速做出決定以保證安全的系統(tǒng),因此神經(jīng)網(wǎng)絡(luò)需要保證在低延遲下進(jìn)行。運(yùn)行在Waymo無(wú)人車上的大多數(shù)網(wǎng)絡(luò),延遲都少于10毫秒,這比部署在數(shù)千臺(tái)服務(wù)器上的數(shù)據(jù)中心中的許多網(wǎng)絡(luò)都要快。

Google AI團(tuán)隊(duì)在2018年4月發(fā)表的論文(Learning Transferable Architectures for Scalable ImageRecognition)中,能夠自動(dòng)探索超過(guò)12,000種架構(gòu)來(lái)完成 CIFAR-10 數(shù)據(jù)集的經(jīng)典圖像識(shí)別任務(wù),其中發(fā)現(xiàn)的自我創(chuàng)建的NAS單元比手工創(chuàng)建神經(jīng)網(wǎng)絡(luò)更好。將在CIFAR-10上學(xué)到的知識(shí)轉(zhuǎn)移到自動(dòng)駕駛?cè)蝿?wù)中,它可以很好的完成語(yǔ)義分割的任務(wù),比如將LiDAR點(diǎn)云中的每個(gè)點(diǎn)標(biāo)識(shí)為汽車,行人,樹(shù)等。

NAS單元處理神經(jīng)網(wǎng)絡(luò)中前兩個(gè)層的輸入

通過(guò)構(gòu)建一種自動(dòng)搜索算法,在卷積網(wǎng)絡(luò)架構(gòu)(CNN)中探索數(shù)百種不同的NAS單元組合,進(jìn)行 LiDAR 分割任務(wù)訓(xùn)練和評(píng)估模型。如果采用人工微調(diào),只能探索有限數(shù)量的架構(gòu),但通過(guò)這種方法,自動(dòng)探索了數(shù)百個(gè)。

相比人工微調(diào)優(yōu)化神經(jīng)網(wǎng)絡(luò),AutoML輸出的神經(jīng)網(wǎng)絡(luò)做到了低延遲、高質(zhì)量效果。

初步成功后,Waymo將相同的搜索算法應(yīng)用于另外兩個(gè)與交通車道檢測(cè)和定位相關(guān)的任務(wù),遷移學(xué)習(xí)技術(shù)也適用于這些任務(wù),最后能夠在無(wú)人車上部署三個(gè)新訓(xùn)練和改進(jìn)的神經(jīng)網(wǎng)絡(luò)。

端到端搜索:從頭開(kāi)始搜索新的架構(gòu)

發(fā)現(xiàn)AutoML巨大潛力后,Waymo開(kāi)始思考是否可以更進(jìn)一步、更廣泛地尋找能夠提供更好結(jié)果的全新架構(gòu)。不局限于NAS單元,可以更直接地找到延遲在限定范圍內(nèi)的架構(gòu)。

進(jìn)行端到端搜索往往需要手動(dòng)探索數(shù)千個(gè)架構(gòu),需要大量的計(jì)算成本。找到單一架構(gòu)需要在多個(gè)GPU的計(jì)算機(jī)上訓(xùn)練好幾天,這意味著搜索單個(gè)任務(wù)需要數(shù)千天的計(jì)算時(shí)間。相反,通過(guò)設(shè)計(jì)一個(gè)代理任務(wù):一個(gè)縮小的激光雷達(dá)分割任務(wù),可以在幾個(gè)小時(shí)內(nèi)解決。

這就意味著需要找到一個(gè)與最初的細(xì)分任務(wù)足夠相似的代理任務(wù)。在確定代理任務(wù)上的架構(gòu)質(zhì)量與原始任務(wù)上的架構(gòu)質(zhì)量之間的良好相關(guān)性之前,對(duì)幾個(gè)代理任務(wù)設(shè)計(jì)進(jìn)行試驗(yàn)。然后,啟動(dòng)一個(gè)類似于AutoML論文的搜索,完成一個(gè)端到端代理搜索。這是這個(gè)概念第一次應(yīng)用在激光雷達(dá)數(shù)據(jù)上。

代理端到端搜索:在按比例縮小的代理任務(wù)中探索數(shù)千個(gè)架構(gòu),將100個(gè)最佳應(yīng)用程序應(yīng)用于原始任務(wù),驗(yàn)證并部署最佳的最佳體系結(jié)構(gòu)。

通過(guò)使用幾種搜索算法,優(yōu)化質(zhì)量和延遲。查看不同類型的CNN架構(gòu)并使用不同的搜索策略,如隨機(jī)搜索和強(qiáng)化學(xué)習(xí),能夠?yàn)榇砣蝿?wù)探索10,000多種不同的架構(gòu)。通過(guò)使用代理任務(wù),在Google TPU集群上花費(fèi)一年多的計(jì)算時(shí)間現(xiàn)在只需要兩周時(shí)間。在NAS單元之外,我們發(fā)現(xiàn)了比以前更好的神經(jīng)網(wǎng)路,它在相同的質(zhì)量下,神經(jīng)網(wǎng)絡(luò)的延遲降低20-30%;具有更高質(zhì)量的神經(jīng)網(wǎng)絡(luò),錯(cuò)誤率降低8-10%,與以前的架構(gòu)具有相同的延遲。

左圖展示了在一組簡(jiǎn)單的架構(gòu)上隨機(jī)搜索發(fā)現(xiàn)的大約4000個(gè)架構(gòu)。每個(gè)點(diǎn)都是一個(gè)經(jīng)過(guò)訓(xùn)練和評(píng)估的架構(gòu)。實(shí)線表示不同推理時(shí)間約束下的最佳架構(gòu),紅點(diǎn)表示用遷移學(xué)習(xí)構(gòu)建的網(wǎng)絡(luò)的延遲和性能。在這種隨機(jī)搜索中,網(wǎng)絡(luò)學(xué)習(xí)效果不如遷移學(xué)習(xí)。右圖中,黃色和藍(lán)色的點(diǎn)表示另外兩種搜索算法的結(jié)果。黃色的是對(duì)一組精致架構(gòu)的隨機(jī)搜索。藍(lán)色的那個(gè)使用了強(qiáng)化學(xué)習(xí),探索了6000多個(gè)架構(gòu)。它產(chǎn)生了最好的結(jié)果。這兩個(gè)額外的搜索發(fā)現(xiàn),該網(wǎng)絡(luò)明顯優(yōu)于遷移學(xué)習(xí)的網(wǎng)絡(luò)。

在搜索中發(fā)現(xiàn)的一些架構(gòu)采用了卷積、池化和反卷積操作的創(chuàng)造性組合,如下圖所示。這些架構(gòu)最終非常適合最初的激光雷達(dá)分割任務(wù),并將部署在Waymo的自動(dòng)駕駛汽車上。

由代理端到端搜索發(fā)現(xiàn)的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

Waymo與Google AI合作,應(yīng)用 AutoML 在無(wú)人駕駛上的實(shí)踐僅僅是個(gè)開(kāi)始。對(duì)于激光雷達(dá)分割任務(wù),傳輸學(xué)習(xí)和代理端到端搜索都提供了比人工創(chuàng)建更好的網(wǎng)絡(luò),這些機(jī)制應(yīng)用到新的任務(wù)類型上,可以改善許多其他的神經(jīng)網(wǎng)絡(luò)。這一發(fā)展為未來(lái)的ML工作開(kāi)辟了新的道路,并提高了Waymo的自動(dòng)駕駛技術(shù)的性能和能力。

看到這里是不是覺(jué)得很興奮,自己費(fèi)盡心思搭的神經(jīng)網(wǎng)路,AutoML 只需很短的時(shí)間就能得出高質(zhì)量的網(wǎng)絡(luò)結(jié)構(gòu)。當(dāng)然,目前谷歌只開(kāi)源了輕量級(jí) AutoML 框架——AdaNet。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8418

    瀏覽量

    132646
  • waymo
    +關(guān)注

    關(guān)注

    2

    文章

    312

    瀏覽量

    24673

原文標(biāo)題:算法工程師要失業(yè)?Waymo嘗試用AutoML自動(dòng)生成機(jī)器學(xué)習(xí)模型

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機(jī)器人需要毫米級(jí)的精確控制,書(shū)中有介紹基于視覺(jué)伺服的實(shí)時(shí)控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場(chǎng)景中,協(xié)作機(jī)器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過(guò)在線
    發(fā)表于 12-24 15:03

    Waymo利用谷歌Gemini大模型,研發(fā)端到端自動(dòng)駕駛系統(tǒng)

    邁新步,為其機(jī)器人出租車業(yè)務(wù)引入了一種基于谷歌多模態(tài)大語(yǔ)言模型(MLLM)“Gemini”的全新訓(xùn)練模型——“端到端多模態(tài)自動(dòng)駕駛模型”(E
    的頭像 發(fā)表于 10-31 16:55 ?1066次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?743次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?628次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    、機(jī)器翻譯、文本生成等領(lǐng)域具有廣泛應(yīng)用。它們能夠基于用戶的提問(wèn)或描述生成相關(guān)的答案或執(zhí)行指令,極大地提升了信息檢索和利用的效率。 2. 局限性 盡管大語(yǔ)言模型在自然語(yǔ)言理解方面取得了顯
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    這個(gè)程序不需要程序員編寫,而是由計(jì)算機(jī)自動(dòng)生成。因此,人工編程方法依賴程序員思考的規(guī)則,而自動(dòng)編程是計(jì)算機(jī)算法通過(guò)分析數(shù)據(jù)自行創(chuàng)建規(guī)則。 作者通過(guò)類比學(xué)生準(zhǔn)備高考的過(guò)程來(lái)說(shuō)明機(jī)器
    發(fā)表于 07-25 14:33

    SensiML開(kāi)源AutoML解決方案-Piccolo AI發(fā)布

    :支持AutoML模型構(gòu)建、傳感器數(shù)據(jù)管理、模型跟蹤和嵌入式固件生成。 嵌入式ML SDK:SensiML的推理和DSP SDK設(shè)計(jì)用于在邊緣設(shè)備上構(gòu)建和運(yùn)行DSP和
    的頭像 發(fā)表于 07-22 16:53 ?776次閱讀

    如何用C++創(chuàng)建簡(jiǎn)單的生成式AI模型

    生成式AI(Generative AI)是一種人工智能技術(shù),它通過(guò)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)技術(shù),從大量歷史數(shù)據(jù)中
    的頭像 發(fā)表于 07-05 17:53 ?866次閱讀

    Al大模型機(jī)器

    理解能力強(qiáng)大: AI大模型機(jī)器人可以理解和生成自然語(yǔ)言,能夠進(jìn)行復(fù)雜的對(duì)話和語(yǔ)言任務(wù)。它們能夠識(shí)別語(yǔ)言中的語(yǔ)義、語(yǔ)境和情感,并據(jù)此作出適當(dāng)?shù)幕貞?yīng)。廣泛的知識(shí)儲(chǔ)備: 這些模型基于大規(guī)模的
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)是兩個(gè)核心概念,它們各自擁有獨(dú)特的特性和應(yīng)用場(chǎng)景。雖然它們都旨在使計(jì)算機(jī)系統(tǒng)能夠自動(dòng)從數(shù)據(jù)中學(xué)習(xí)和提升,但它們?cè)诙鄠€(gè)方面存在顯著的區(qū)別。本文將從多個(gè)維
    的頭像 發(fā)表于 07-04 14:08 ?1291次閱讀

    AD8275 spice模型“AD8275.cir”自動(dòng)生成了一個(gè)LTspice模型用來(lái)仿真,仿真時(shí)彈出圖片所示窗口如何處理?

    官網(wǎng)的AD8275 spice模型“AD8275.cir”自動(dòng)生成了一個(gè)LTspice模型用來(lái)仿真,仿真時(shí)彈出圖片所示窗口,如何處理?
    發(fā)表于 06-04 12:27

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    。這一過(guò)程的不斷迭代使大語(yǔ)言模型的語(yǔ)言理解和生成能力逐步提升。大語(yǔ)言模型在自然語(yǔ)言處理領(lǐng)域應(yīng)用廣泛,尤其在問(wèn)答系統(tǒng)和機(jī)器翻譯方面。它能理解用戶意圖并
    發(fā)表于 05-04 23:55

    谷歌模型框架是什么軟件?谷歌模型框架怎么?

    谷歌模型框架通常指的是谷歌開(kāi)發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 03-01 16:25 ?884次閱讀

    谷歌模型怎么PS打開(kāi)文件和圖片

    谷歌模型本身并不是Adobe Photoshop(簡(jiǎn)稱PS)打開(kāi)的文件和圖片格式。谷歌模型通常是用于機(jī)器學(xué)習(xí)和深度
    的頭像 發(fā)表于 02-29 18:25 ?1459次閱讀

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?990次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>