0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

適用于任意數(shù)據(jù)模態(tài)的自監(jiān)督學(xué)習(xí)數(shù)據(jù)增強技術(shù)

OpenCV學(xué)堂 ? 來源:機器之心 ? 2023-09-04 10:07 ? 次閱讀

本文提出了一種適用于任意數(shù)據(jù)模態(tài)的自監(jiān)督學(xué)習(xí)數(shù)據(jù)增強技術(shù)。

自監(jiān)督學(xué)習(xí)算法在自然語言處理、計算機視覺等領(lǐng)域取得了重大進展。這些自監(jiān)督學(xué)習(xí)算法盡管在概念上是通用的,但是在具體操作上是基于特定的數(shù)據(jù)模態(tài)的。這意味著需要為不同的數(shù)據(jù)模態(tài)開發(fā)不同的自監(jiān)督學(xué)習(xí)算法。為此,本文提出了一種通用的數(shù)據(jù)增強技術(shù),可以應(yīng)用于任意數(shù)據(jù)模態(tài)。相較于已有的通用的自監(jiān)督學(xué)習(xí),該方法能夠取得明顯的性能提升,同時能夠代替一系列為特定模態(tài)設(shè)計的復(fù)雜的數(shù)據(jù)增強方式并取得與之類似的性能。

簡介 當前 Siamese 表征學(xué)習(xí) / 對比學(xué)習(xí)需要利用數(shù)據(jù)增強技術(shù)來構(gòu)建同一個數(shù)據(jù)的不同樣本,并將其輸入兩個并行的網(wǎng)絡(luò)結(jié)構(gòu),從而產(chǎn)生足夠強的監(jiān)督信號。然而這些數(shù)據(jù)增強技術(shù)往往非常依賴于模態(tài)特定的先驗知識,通常需要手動設(shè)計或者搜索適用于當前模態(tài)的最佳組合。除了耗時耗力外,找到的最優(yōu)數(shù)據(jù)增強方式也極難遷移到別的領(lǐng)域。例如,常見的針對于自然 RGB 圖像的顏色抖動(color jittering)無法應(yīng)用于除了自然圖像以外的其他數(shù)據(jù)模態(tài)。 一般性地,輸入數(shù)據(jù)可以被表征為由序列維度(sequential)和通道維度(channel)組成的二維向量。其中序列維度通常是模態(tài)相關(guān)的,例如圖像上的空間維度、語音的時間維度以及語言的句法維度。而通道維度是模態(tài)無關(guān)的。在自監(jiān)督學(xué)習(xí)中,masked modeling [1] 或者以 masking 作為數(shù)據(jù)增強 [2] 已經(jīng)成為一種有效的學(xué)習(xí)方式。然而這些操作都作用于序列維度。為了能夠廣泛應(yīng)用于不同數(shù)據(jù)模態(tài),本文提出一種作用于通道維度的數(shù)據(jù)增強手段:隨機量化(randomized quantization)。每個通道中的數(shù)據(jù)通過非均勻量化器進行動態(tài)量化,量化值是從隨機劃分的區(qū)間中隨機采樣的。通過這種方式,落在同一個區(qū)間內(nèi)原始輸入的信息差被刪除,同時不同區(qū)間數(shù)據(jù)的相對大小被保留,從而達到 masking 的效果。

18f147e4-4a3f-11ee-97a6-92fbcf53809c.png

該方法在各種不同數(shù)據(jù)模態(tài)上超過了已有任意模態(tài)自監(jiān)督學(xué)習(xí)方法,包括自然圖像、3D 點云、語音、文本、傳感器數(shù)據(jù)、醫(yī)療圖像等。在多種預(yù)訓(xùn)練學(xué)習(xí)任務(wù)中,例如對比學(xué)習(xí)(例如 MoCo-v3)和自蒸餾自監(jiān)督學(xué)習(xí)(例如 BYOL)都學(xué)到了比已有方法更優(yōu)的特征。該方法還經(jīng)過驗證,適用于不同的骨干網(wǎng)絡(luò)結(jié)構(gòu),例如 CNN 和 Transformer。 方法 量化(Quantization)指的是利用一組離散的數(shù)值表征連續(xù)數(shù)據(jù),以便于數(shù)據(jù)的高效存儲、運算以及傳輸。然而,一般的量化操作的目標是在不損失精確度的前提下壓縮數(shù)據(jù),因而該過程是確定性的,而且是設(shè)計為與原數(shù)據(jù)盡量接近的。這就限制了其作為增強手段的強度和輸出的數(shù)據(jù)豐富程度。 本文提出一種隨機量化操作(randomized quantization),將輸入的每個 channel 數(shù)據(jù)獨立劃分為多個互不重疊的隨機區(qū)間(1901cea2-4a3f-11ee-97a6-92fbcf53809c.png),并將落在各個區(qū)間內(nèi)的原始輸入映射到從該區(qū)間內(nèi)隨機采樣的一個常數(shù)190b8244-4a3f-11ee-97a6-92fbcf53809c.png。 ?

19153942-4a3f-11ee-97a6-92fbcf53809c.png

隨機量化作為自監(jiān)督學(xué)習(xí)任務(wù)中 masking 通道維度數(shù)據(jù)的能力取決于以下三個方面的設(shè)計:1) 隨機劃分數(shù)值區(qū)間;2) 隨機采樣輸出值以及 3)劃分的數(shù)值區(qū)間個數(shù)。 具體而言,隨機的過程帶來了更加豐富的樣本,同一個數(shù)據(jù)每次執(zhí)行隨機量化操作都可以生成不同的數(shù)據(jù)樣本。同時,隨機的過程也帶來對原始數(shù)據(jù)更大的增強力度,例如隨機劃分出大的數(shù)據(jù)區(qū)間,或者當映射點偏離區(qū)間中值點時,都可以導(dǎo)致落在該區(qū)間的原始輸入和輸出之間的更大差異。 除此之外,也可以非常容易地通過適當減少劃分區(qū)間的個數(shù),提高增強力度。這樣,當應(yīng)用于 Siamese 表征學(xué)習(xí)的時候,兩個網(wǎng)絡(luò)分支就可以見到有足夠信息差異的輸入數(shù)據(jù),從而構(gòu)建足夠強的學(xué)習(xí)信號,幫助到特征學(xué)習(xí)。 下圖可視化了不同數(shù)據(jù)模態(tài)在使用了該數(shù)據(jù)增強方式之后的效果:

192515d8-4a3f-11ee-97a6-92fbcf53809c.png

實驗結(jié)果模態(tài) 1:圖像 本文在 ImageNet-1K 數(shù)據(jù)集上評估了 randomized quantization 應(yīng)用于 MoCo-v3 和 BYOL 的效果,評測指標為 linear evaluation。當作為唯一的數(shù)據(jù)增強方式單獨使用的時候,即將本文的 augmentation 應(yīng)用于原始圖像的 center crop,以及和常見的 random resized crop(RRC)配合使用的時候,該方法都取得了比已有通用自監(jiān)督學(xué)習(xí)方法更好的效果。

19cc314c-4a3f-11ee-97a6-92fbcf53809c.png

相比于已有的針對圖像數(shù)據(jù)開發(fā)的數(shù)據(jù)增強方式,例如 color jittering (CJ),本文的方法有著明顯的性能優(yōu)勢。同時,該方法也可以取代 MoCo-v3/BYOL 中一系列復(fù)雜的數(shù)據(jù)增強方式(Full),包括顏色抖動(color jittering)、隨機灰度化(gray scale)、隨機高斯模糊(Gaussian blur)、隨機曝光(solarization),并達到與復(fù)雜數(shù)據(jù)增強方式類似的效果。

1a0d2bd4-4a3f-11ee-97a6-92fbcf53809c.png

模態(tài) 2:3D 點云 本文還在 ModelNet40 數(shù)據(jù)集的分類任務(wù)和 ShapeNet Part 數(shù)據(jù)集的分割任務(wù)上驗證了 randomized quantization 相對于已有自監(jiān)督工作的優(yōu)越性。尤其在下游訓(xùn)練集數(shù)據(jù)量較少的情況下,本文的方法顯著超過已有點云自監(jiān)督算法。

1a27a96e-4a3f-11ee-97a6-92fbcf53809c.png

模態(tài) 3:語音 在語音數(shù)據(jù)集上本文的方法也取得了比已有自監(jiān)督學(xué)習(xí)方法更優(yōu)的性能。本文在六個下游數(shù)據(jù)集上驗證了該方法的優(yōu)越性,其中在最難的數(shù)據(jù)集 VoxCeleb1 上(包含最多且遠超其他數(shù)據(jù)集的類別個數(shù)),本文方法取得了顯著的性能提升(5.6 個點)。

1a3fdfac-4a3f-11ee-97a6-92fbcf53809c.png

模態(tài) 4:DABS DABS 是一個模態(tài)通用自監(jiān)督學(xué)習(xí)的基準,涵蓋了多種模態(tài)數(shù)據(jù),包括自然圖像、文本、語音、傳感器數(shù)據(jù)、醫(yī)學(xué)圖像、圖文等。在 DABS 涵蓋的多種不同模態(tài)數(shù)據(jù)上,我們的方法也優(yōu)于已有的任意模態(tài)自監(jiān)督學(xué)習(xí)方式。

1a68cf48-4a3f-11ee-97a6-92fbcf53809c.png

審核編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2560

    文章

    52121

    瀏覽量

    761247
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7232

    瀏覽量

    90695
  • 模態(tài)
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    6329
  • 計算機視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1704

    瀏覽量

    46445

原文標題:ICCV 2023?|?通用數(shù)據(jù)增強技術(shù),隨機量化適用于任意數(shù)據(jù)模態(tài)

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦

    基于transformer和監(jiān)督學(xué)習(xí)的路面異常檢測方法分享

    鋪設(shè)異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標記和處理的壓力。本論文描述了一種基于Transformer和監(jiān)督學(xué)習(xí)的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?2057次閱讀
    基于transformer和<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>的路面異常檢測方法分享

    你想要的機器學(xué)習(xí)課程筆記在這:主要討論監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)

    with experience E(一個程序從經(jīng)驗E中學(xué)習(xí)解決任務(wù)T進行某一任務(wù)量度P,通過P測量在T的表現(xiàn)而提高經(jīng)驗E(另一種定義:機器學(xué)習(xí)是用數(shù)據(jù)或以往的經(jīng)驗,以此優(yōu)化計算機程序的性能標準。) 不同類型的機器
    發(fā)表于 12-03 17:12 ?653次閱讀

    如何用Python進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種用于數(shù)據(jù)中查找模式的機器學(xué)習(xí)技術(shù)。無監(jiān)督算法給出的
    的頭像 發(fā)表于 01-21 17:23 ?4456次閱讀

    機器學(xué)習(xí)算法中有監(jiān)督和無監(jiān)督學(xué)習(xí)的區(qū)別

    監(jiān)督學(xué)習(xí)的好處之一是,它不需要監(jiān)督學(xué)習(xí)必須經(jīng)歷的費力的數(shù)據(jù)標記過程。但是,要權(quán)衡的是,評估其性能的有效性也非常困難。相反,通過將監(jiān)督學(xué)習(xí)算法的輸出與測試
    的頭像 發(fā)表于 07-07 10:18 ?5943次閱讀

    監(jiān)督學(xué)習(xí)與Transformer相關(guān)論文

    將在明年5月4日舉行,目前,本次大會投稿已經(jīng)結(jié)束,最后共有3013篇論文提交。ICLR 采用公開評審機制,任何人都可以提前看到這些論文。 為了分析最新研究動向,我們精選了涵蓋監(jiān)督學(xué)習(xí)
    的頭像 發(fā)表于 11-02 15:50 ?2823次閱讀
    <b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>與Transformer相關(guān)論文

    最基礎(chǔ)的半監(jiān)督學(xué)習(xí)

    標記數(shù)據(jù)訓(xùn)練的監(jiān)督學(xué)習(xí)技術(shù)得到更好的結(jié)果。這是半監(jiān)督學(xué)習(xí)系列文章的第1部分,對這個機器學(xué)習(xí)的重要子領(lǐng)域進行了簡要的介紹。 區(qū)分半
    的頭像 發(fā)表于 11-02 16:08 ?2796次閱讀

    監(jiān)督學(xué)習(xí)最基礎(chǔ)的3個概念

    有趣的方法,用來解決機器學(xué)習(xí)中缺少標簽數(shù)據(jù)的問題。SSL利用未標記的數(shù)據(jù)和標記的數(shù)據(jù)集來學(xué)習(xí)任務(wù)。SSL的目標是得到比單獨使用標記
    的頭像 發(fā)表于 11-02 16:14 ?3134次閱讀
    半<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>最基礎(chǔ)的3個概念

    為什么半監(jiān)督學(xué)習(xí)是機器學(xué)習(xí)的未來?

    揭示了添加無監(jiān)督數(shù)據(jù)可以提高模型泛化和性能。事實上,在非常多的場景中,帶有標簽的數(shù)據(jù)并不容易獲得。半監(jiān)督學(xué)習(xí)可以在標準的任務(wù)中實現(xiàn)SOTA的效果,只需要一小部分的有標記
    的頭像 發(fā)表于 11-27 10:42 ?4038次閱讀

    監(jiān)督學(xué)習(xí):比監(jiān)督學(xué)習(xí)做的更好

    監(jiān)督學(xué)習(xí)是人工智能領(lǐng)域的第一種學(xué)習(xí)類型。從它的概念開始,無數(shù)的算法,從簡單的邏輯回歸到大規(guī)模的神經(jīng)網(wǎng)絡(luò),都已經(jīng)被研究用來提高精...
    的頭像 發(fā)表于 12-08 23:32 ?1574次閱讀

    基于人工智能的監(jiān)督學(xué)習(xí)詳解

    監(jiān)督學(xué)習(xí)讓 AI 系統(tǒng)能夠從很少的數(shù)據(jù)學(xué)習(xí)知識,這樣才能識別和理解世界上更微妙、更不常見的表示形式。
    的頭像 發(fā)表于 03-30 17:09 ?6210次閱讀
    基于人工智能的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>詳解

    機器學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)應(yīng)用在哪些領(lǐng)域

    監(jiān)督學(xué)習(xí)|機器學(xué)習(xí)| 集成學(xué)習(xí)|進化計算| 非監(jiān)督學(xué)習(xí)| 半監(jiān)督學(xué)習(xí)|
    發(fā)表于 01-20 10:52 ?5106次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>中的無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>應(yīng)用在哪些領(lǐng)域

    監(jiān)督學(xué)習(xí)的一些思考

    監(jiān)督學(xué)習(xí)的流行是勢在必然的。在各種主流有監(jiān)督學(xué)習(xí)任務(wù)都做到很成熟之后,數(shù)據(jù)成了最重要的瓶頸。從無標注數(shù)據(jù)
    發(fā)表于 01-26 18:50 ?1次下載
    <b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>的一些思考

    監(jiān)督學(xué)習(xí)解鎖醫(yī)學(xué)影像洞察力

    數(shù)據(jù),以及機器可以從中學(xué)習(xí)的復(fù)雜數(shù)據(jù)集標簽。 今天,被稱為弱監(jiān)督學(xué)習(xí)的深度學(xué)習(xí) (DL) 的一個分支正在幫助醫(yī)生通過減少對完整、準確和準確
    的頭像 發(fā)表于 09-30 18:04 ?1660次閱讀
    弱<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>解鎖醫(yī)學(xué)影像洞察力

    監(jiān)督學(xué)習(xí)代碼庫存在的問題與挑戰(zhàn)

    當使用監(jiān)督學(xué)習(xí)(Supervised Learning)對大量高質(zhì)量的標記數(shù)據(jù)(Labeled Data)進行訓(xùn)練時,神經(jīng)網(wǎng)絡(luò)模型會產(chǎn)生有競爭力的結(jié)果。例如,根據(jù)Paperswithcode網(wǎng)站統(tǒng)計
    的頭像 發(fā)表于 10-18 16:28 ?1478次閱讀

    通用數(shù)據(jù)增強技術(shù)!適用于任意數(shù)據(jù)模態(tài)的隨機量化

    一般性地,輸入數(shù)據(jù)可以被表征為由序列維度(sequential)和通道維度(channel)組成的二維向量。其中序列維度通常是模態(tài)相關(guān)的,例如圖像上的空間維度、語音的時間維度以及語言的句法維度。而通道維度是模態(tài)無關(guān)的。
    的頭像 發(fā)表于 09-12 16:40 ?493次閱讀
    通用<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>增強</b><b class='flag-5'>技術(shù)</b>!<b class='flag-5'>適用于</b><b class='flag-5'>任意</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>模態(tài)</b>的隨機量化

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品