0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

曠視斬獲6冠 彰顯深度學(xué)習(xí)算法引擎優(yōu)勢

曠視MEGVII ? 來源:YXQ ? 2019-06-22 10:58 ? 次閱讀

當(dāng)?shù)貢r間6月16日,全球計算機(jī)視覺頂會 CVPR 2019 在美國長灘拉開帷幕,超過9200位相關(guān)人士共赴盛會,推進(jìn)計算機(jī)視覺技術(shù)的交流與落地。曠視通過 Oral、Poster、Workshop、Demo、Booth 等形式,同世界分享在計算機(jī)視覺理論與應(yīng)用領(lǐng)域的最新進(jìn)展。值得一提的是,在 CVPR 2019 的3項挑戰(zhàn)賽中,曠視最終擊敗 Facebook、通用動力、戴姆勒等國內(nèi)外一線科技巨頭/知名高校,共計斬獲6項世界冠軍!

持續(xù)創(chuàng)新

Brain++拓展AI認(rèn)知邊界

人工智能不能閉門造車。作為以算法為基因的公司,曠視自誕生之日起便一直積極參與計算機(jī)視覺在全球范圍內(nèi)的學(xué)術(shù)交流,一方面是為了與世界分享自己的研究成果,另一方面也是為了吸取全球的智慧,研發(fā)最好的技術(shù)來助力世界發(fā)展,創(chuàng)造社會價值。

展會現(xiàn)場

此行,曠視共參加 CVPR 2019 WAD(Workshop on Autonomous Driving

)、CVPR 2019 FGVC(Workshop on Fine-Grained Visual Categorization

)、CVPR 2019 NTIRE(New Trends in Image Restoration and Enhancement workshop)3項挑戰(zhàn)賽,拿下6項冠軍,涵蓋自動駕駛、新零售、智能手機(jī)、3D 等眾多領(lǐng)域,其背后起支撐作用的是曠視深度學(xué)習(xí)框架 Brain++。這是一套由曠視研究院自主原創(chuàng)的算法引擎,致力于從云、端、芯三個方面全面賦能物理世界,以實現(xiàn)對世界的感知、控制、優(yōu)化。Brain++ 不僅助力曠視拿下世界冠軍,還將推動智能汽車、商品識別、手機(jī)影像處理、智慧農(nóng)業(yè)等應(yīng)用領(lǐng)域的進(jìn)步發(fā)展。

曠視斬獲 CVPR 2019 挑戰(zhàn)賽6項世界冠軍

大會現(xiàn)場,挑戰(zhàn)賽主辦方宣布比賽成績,并向冠軍隊伍頒發(fā)獲獎證書;隨后,曠視相關(guān)的參賽人員通過一張張 Slides、一場場 Talks、一張張 Posters 向與會人員分享了奪冠背后的技術(shù)方法,以及冠軍之路上滿滿的收獲。

今年是曠視自成立以來連續(xù)第5年參加 CVPR,在談到參加這種頂級學(xué)術(shù)會議對公司戰(zhàn)略意義的時候,曠視首席科學(xué)家、曠視研究院院長孫劍表示:

“一流的人才往往希望在一個開放的環(huán)境中成長。發(fā)表論文、參加學(xué)術(shù)會議,其實是有人對你的工作鼓掌,激勵你繼續(xù)前行。

曠視研究院最寶貴的財產(chǎn)是人才。如何吸引、培養(yǎng)、保留人才是一個組織健康和高速發(fā)展最關(guān)鍵的。

我的工作第一優(yōu)先級是打造一個好的研發(fā)環(huán)境,讓公司贏,讓我們贏,讓每個人贏。因為我始終相信兩點:中國不缺乏聰明人,中國有世界上最好的發(fā)展機(jī)會。我們就是要把一幫聰明人聚起來,齊心協(xié)力,貫徹‘發(fā)展就是硬道理’?!?/p>

冠軍之路,滿是收獲

CVPR 2019 WAD nuScenes 3D Detection Challenge

nuScenes 3D Detection Challenge冠軍獎牌

CVPR 2019 WAD 是自動駕駛領(lǐng)域的權(quán)威比賽,其中 nuScenes 比賽方向是 3D detection,旨在通過模型分析 3D 激光雷達(dá)/相機(jī)數(shù)據(jù),賦予自動駕駛汽車偵測物體的能力,保障行駛安全。

nuScenes 不僅需要同時識別10類物體(相比 KITTI 只需預(yù)測單個類別),還加入了速度和屬性的預(yù)測,而且需要解決嚴(yán)重的類別不均衡問題,因此任務(wù)難度大幅提高,因而也更具有實際意義。

比賽中,曠視設(shè)計了一個多尺度、多任務(wù)的模型,借助新型檢測網(wǎng)絡(luò),結(jié)合均衡采樣等策略,極大提高了模型的檢測精度,尤其是在小物體上。由最終結(jié)果可知,相較于官方 Baseline 45.3%, 曠視的模型高出18個點,達(dá)到63.3%,比第二名也高出8.8個點, 擊敗一系列頂尖團(tuán)隊,一舉奪魁。

CVPR 2019 WAD Detection/Tracking Domain Adaptation Challenge

Detection Domain Adaptation Challenge冠軍獎牌

Detection Domain Adaptation Challenge 是 CVPR 2019 WAD 的另一項挑戰(zhàn)賽,旨在對自動駕駛場景下的環(huán)境(二維圖像信息)進(jìn)行感知,今年的比賽主要解決領(lǐng)域自適應(yīng)問題,即美國道路場景和中國道路場景的相互適應(yīng)。

具體而言,即利用7萬張美國道路場景數(shù)據(jù)進(jìn)行訓(xùn)練,對近15萬張中國道路場景進(jìn)行測試,不允許使用任何標(biāo)注測試數(shù)據(jù),只允許使用 ImageNet 進(jìn)行預(yù)訓(xùn)練。圖像本身的不一致之外,不同天氣、不同道路以及復(fù)雜的交通狀況都給任務(wù)增加了額外挑戰(zhàn),同時也為實際使用提供了可能性。

曠視基于自身積累的檢測算法之外,加之復(fù)現(xiàn)/使用的最前沿的檢測算法(比如 NAS-FPN、Cascade RCNN),進(jìn)而對 Cascade RCNN 做出一系列改進(jìn),使得網(wǎng)絡(luò)在不同 IOU 閾值下的檢測結(jié)果都有一定漲幅;同時,為了解決兩個數(shù)據(jù)集之間數(shù)據(jù)分布不一致的問題,曠視還利用合并訓(xùn)練、AdaBN、Data Distillation 等技術(shù)手段,最終在測試集上高出第二名深蘭科技1.7個點,同時在所有單類別上取得最高結(jié)果。

另外,在 Tracking Domain Adaptation Challenge 上,曠視使用 Online 方法進(jìn)行多目標(biāo)跟蹤,即在高精度檢測結(jié)果的基礎(chǔ)上,使用 IOU Tracker 進(jìn)行跟蹤;跟蹤過程中,改進(jìn)和調(diào)試影響結(jié)果的多種因素,最終也在 Tracking 任務(wù)上取得第一。

CVPR 2019 FGVC iNaturalistHerbarium Challenge

FGVC 頒獎現(xiàn)場

CVPR 2019 FGVC 是細(xì)粒度識別領(lǐng)域最權(quán)威的賽事,iNaturalist Challenge 是此項領(lǐng)域的旗艦比賽,旨在讓計算機(jī)自動識別物體的精細(xì)類別,它不僅要求識別1000多個品種的動、植物,還要識別其在不同發(fā)育期的狀態(tài);Herbarium Challenge 則要解決開花植物野牡丹科的物種分類問題,所采用的圖像集僅包括保存于臘葉標(biāo)本上的干標(biāo)本圖像。

除了大模型/大分辨率圖圖像進(jìn)行訓(xùn)練、測試等常規(guī)操作外,曠視還集成最前沿細(xì)粒度技術(shù)成果(比如 Coarse-to-fine hierarchical classification、iSQRT、Class-Balanced Focal Loss 等),同時創(chuàng)造性提出“后驗概率重校準(zhǔn)”技術(shù),即通過先驗知識對模型輸出的后驗概率進(jìn)行校準(zhǔn),極大提高擁有較少訓(xùn)練圖像的長尾類別的識別準(zhǔn)確率,兩項比賽結(jié)果均高出第2名近1個點,一舉奪魁。

在業(yè)務(wù)方面,商品識別、菜品識別、缺陷檢測、生產(chǎn)線零件識別、車型/車輛識別等均是細(xì)粒度圖像分析技術(shù)的應(yīng)用,目前已應(yīng)用于產(chǎn)品研發(fā)中。

在 iNaturalist 上,曠視擊敗了通用動力等頂尖團(tuán)隊;在 Herbarium 上,曠視擊敗了大連理工(上年冠軍)、瑞典自然歷史博物館、Facebook。

CVPR 2019 NTIRE Real Image Denosing Challenge

Real Image Denosing Challenge 冠軍獎牌

CVPR 2019 NTIRE Real Image Denosing Challenge 基于新近的智能手機(jī)圖像降噪數(shù)據(jù)集 SIDD,它由很多真實的噪聲圖像及其相應(yīng)的 ground truth 組成,且每幅圖像都有以原始傳感器數(shù)據(jù)(raw)和標(biāo)準(zhǔn) RBG(sRGB)格式存儲的兩個版本。

圖像降噪一直是曠視研究院“手機(jī)攝影超畫質(zhì)”的技術(shù)儲備項目,自第一版原型誕生以后不斷迭代;其中,針對原始傳感器數(shù)據(jù)(raw)的圖像降噪更是整個項目的基礎(chǔ)技術(shù)。

這次比賽中,曠視研究院提出針對 raw 圖像的基于 U-Net 框架的“拜爾陣列歸一化與保列增廣”方法。盡管不同輸入圖像間的數(shù)據(jù)格式存在差異,但是,為保持網(wǎng)絡(luò)輸入一致性,曠視精心設(shè)計了一種數(shù)據(jù)預(yù)處理方法,使得相同的網(wǎng)絡(luò)工作應(yīng)用到具有不同拜耳模式的輸入上,從而在保證性能的前提下用更大的圖像集合訓(xùn)練網(wǎng)絡(luò)。

本次冠軍算法已成功落地于 OPPO Reno 10 倍變焦版。OPPO Reno 10 倍變焦版搭載了基于曠視超畫質(zhì)技術(shù)研發(fā)的“超清夜景2.0”功能,能夠為用戶提供非同凡響的夜拍體驗。這也是曠視超畫質(zhì)技術(shù)首次運(yùn)用在大規(guī)模量產(chǎn)機(jī)型上。

價值創(chuàng)造驅(qū)動技術(shù)創(chuàng)新

做真正WORK的科研

人工智能自誕生之日起便已宣稱了其改變世界的雄心。當(dāng)圖靈于1950年在論文《Computing Machinery and Intelligence》尾頁畫上句號的剎那,一個前所未有的屬于人類的智能時代就此拉開序幕。

從 Marvin Minsky 于1966年對機(jī)器人模仿人類抓取物品的研究,到神經(jīng)心理學(xué)家 David Marr 于80年代初創(chuàng)建的關(guān)于計算機(jī)視覺研究的理論框架;從手工特征設(shè)計到受生物視覺神經(jīng)網(wǎng)絡(luò)為啟發(fā)而誕生的卷積網(wǎng)絡(luò)(CNN),人類將機(jī)器智能從小說幻想帶進(jìn)了現(xiàn)實,為世界裝上了明眸。

人工智能,其本質(zhì)是造福人類,便利生活,所以能否為世界帶來足夠的價值是曠視關(guān)注的核心。通過深挖社會痛點,找出致病原因,曠視一直在尋找著讓世界更美好的方法。

曠視成立早期便上線了自主原創(chuàng)的深度學(xué)習(xí)框架——Brain++。作為企業(yè)級的人工智能算法制造工廠,Brain++ 從底層有力支撐著曠視研究院整體的研究生產(chǎn)工作與曠視核心產(chǎn)品的工程化建設(shè)。這次6冠的勝利,即是上述算法和底層系統(tǒng)優(yōu)越性的再次證明。

憑借強(qiáng)大的軟硬件結(jié)合能力,曠視目前已在「個人設(shè)備大腦」、「城市大腦」和「供應(yīng)鏈大腦」三個核心 AIoT 場景深度布局。在與行業(yè)龍頭力量的聯(lián)合下,曠視正在推進(jìn)尖端技術(shù)方案的強(qiáng)垂直落地,為整個產(chǎn)業(yè)結(jié)構(gòu)調(diào)整及商業(yè)變革激活引擎,積聚力量;與生態(tài)伙伴一起服務(wù)于數(shù)字化建設(shè),用軟硬結(jié)合的解決方案為客戶提供閉環(huán)的商業(yè)價值,成為行業(yè)智能物聯(lián)方案專家。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121362
  • 曠視科技
    +關(guān)注

    關(guān)注

    1

    文章

    153

    瀏覽量

    11204

原文標(biāo)題:CVPR 2019 | 曠視斬獲6冠,彰顯深度學(xué)習(xí)算法引擎優(yōu)勢

文章出處:【微信號:megvii,微信公眾號:曠視MEGVII】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    中標(biāo)北京市大數(shù)據(jù)中心感知管理服務(wù)平臺二期建設(shè)項目

    近日,成功中標(biāo)北京市大數(shù)據(jù)中心感知管理服務(wù)平臺(二期)建設(shè)項目,此次中標(biāo)不僅是對技術(shù)實力和服務(wù)能力的認(rèn)可,更標(biāo)志著
    的頭像 發(fā)表于 12-31 09:20 ?249次閱讀

    亮相2024數(shù)字科技生態(tài)大會

    2024數(shù)字科技生態(tài)大會上,展示了多項聯(lián)網(wǎng)領(lǐng)域的前沿技術(shù)及應(yīng)用成果,包括大模型、行業(yè)場景方案以及創(chuàng)新智能終端。
    的頭像 發(fā)表于 12-06 10:34 ?289次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?750次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個熱門,深鑒科技,商湯,
    發(fā)表于 09-27 20:53

    深度識別算法包括哪些內(nèi)容

    深度識別算法深度學(xué)習(xí)領(lǐng)域的一個重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對輸入數(shù)據(jù)進(jìn)行高層次的理解和識別。
    的頭像 發(fā)表于 09-10 15:28 ?432次閱讀

    重慶兩江新區(qū)與吉利汽車集團(tuán)、科技簽署合作協(xié)議

    日前,重慶兩江新區(qū)與吉利汽車集團(tuán)、科技簽署戰(zhàn)略合作協(xié)議。市委書記袁家軍,市委副書記、市長胡衡華會見了吉利控股集團(tuán)董事長李書福、科技董事長兼CEO印奇一行并見證簽約。
    的頭像 發(fā)表于 09-02 14:13 ?528次閱讀

    聚焦物聯(lián)網(wǎng)場景,科技核心技術(shù)能力持續(xù)升級

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)最近,上交所顯示,科技有限公司已更新提交相關(guān)財務(wù)資料。該公司早在2021年3月12日上市申請就獲受理,同年9月9日通過上市委會議,2021年9月30日提交注冊。作為
    的頭像 發(fā)表于 07-25 00:09 ?4248次閱讀

    深度學(xué)習(xí)編譯器和推理引擎的區(qū)別

    深度學(xué)習(xí)編譯器和推理引擎在人工智能領(lǐng)域中都扮演著至關(guān)重要的角色,但它們各自的功能、應(yīng)用場景以及優(yōu)化目標(biāo)等方面存在顯著的差異。以下是對兩者區(qū)別的詳細(xì)探討。
    的頭像 發(fā)表于 07-17 18:12 ?1309次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源
    的頭像 發(fā)表于 07-15 10:03 ?1594次閱讀

    深度學(xué)習(xí)算法在集成電路測試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對測試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強(qiáng)大的數(shù)據(jù)處理和模式識別工具,在集成電路測試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。本文將從
    的頭像 發(fā)表于 07-15 09:48 ?1112次閱讀

    利用Matlab函數(shù)實現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實現(xiàn)深度學(xué)習(xí)算法是一個復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時間序列預(yù)測等。這里,我將概述一個基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計、訓(xùn)練過程、以及測試和評估,并提供一個基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?2397次閱讀

    深度學(xué)習(xí)的基本原理與核心算法

    處理、語音識別等領(lǐng)域取得了革命性的突破。本文將詳細(xì)闡述深度學(xué)習(xí)的原理、核心算法以及實現(xiàn)方式,并通過一個具體的代碼實例進(jìn)行說明。
    的頭像 發(fā)表于 07-04 11:44 ?2341次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化
    的頭像 發(fā)表于 07-01 16:13 ?1418次閱讀

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度
    發(fā)表于 04-23 17:18 ?1345次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    與樂天國際物流在北京正式簽署戰(zhàn)略合作協(xié)議

    4月17日,與韓國樂天國際物流(LOTTE GLOBAL LOGISTICS)在北京正式簽署戰(zhàn)略合作協(xié)議。
    的頭像 發(fā)表于 04-23 11:52 ?577次閱讀
    <b class='flag-5'>曠</b><b class='flag-5'>視</b>與樂天國際物流在北京正式簽署戰(zhàn)略合作協(xié)議