0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

語言模型的弱監(jiān)督視頻異常檢測方法

CVer ? 來源:另半夏@知乎 ? 2024-01-02 15:20 ? 次閱讀

引言

近年來,弱監(jiān)督視頻異常檢測(WSVAD,VAD)因其廣闊的應用前景而受到越來越多的關注,在WSVAD任務中,期望異常檢測器在僅提供視頻級注釋的情況下生成的精細化幀級異常置信度。然而當前該領域的大多數(shù)研究遵循一個系統(tǒng)性的框架,即,首先是使用預先訓練的視覺模型來提取幀級特征,例如C3D、I3D和ViT等,然后將這些特征輸入到基于多實例學習(MIL)的二分類器中進行訓練,最后一步是用預測的異常置信度檢測異常事件。盡管這類方案很簡單,分類效果也很有效,但這種基于分類的范式未能充分利用跨模態(tài)關系,例如視覺語言關聯(lián)。

wKgaomWTuaaAGHKaAAYHej3eaXQ260.png

在過去的兩年里,我們見證了視覺語言預訓練(VLP)模型取得了巨大進展,例如CLIP,用于學習具有語義概念的廣義視覺表示。CLIP的主要思想是通過對比學習來對齊圖像和文本,即將圖像和匹配的文本描述在聯(lián)合特征空間拉近,同時分離不匹配的圖文對。鑒于CLIP的突破性的潛力,在CLIP之上構(gòu)建任務專用模型正成為新興的研究課題,并應用于廣泛的視覺任務,這些模型取得了前所未有的性能。最近,越來越多的視頻理解領域的工作利用CLIP構(gòu)建專用模型并解決各種視頻理解任務?;诖?,我們認為CLIP對于WSVAD任務同樣有巨大的潛力。

為了有效利用廣義知識,使CLIP在WSVAD任務中充分發(fā)揮其潛力,基于WSVAD的特點,有幾個關鍵的挑戰(zhàn)需要解決。(1)首先,如何進行時序關系建模,捕獲上下文的依賴關系;(2)其次,如何利用視覺信息和文本信息聯(lián)系;(3)第三,如何在弱監(jiān)督下優(yōu)化基于CLIP的模型。

針對上述的問題,我們提出了一種基于CLIP的WSVAD新范式,稱為VadCLIP。VadCLIP由幾個組件組成,包括一個局部-全局時序關系適配器(LGT Adapter),一個由視覺分類器和視覺語言對齊模塊組成的雙分支異常檢測器(Dual Branch)。我們的方法既可以利用傳統(tǒng)WSVAD的分類范式,又可以利用CLIP提供的視覺語言對齊功能,從而基于CLIP語義信息和兩個分支共同優(yōu)化以獲得更高的異常檢測性能。

總的來說,我們工作的主要貢獻是:

(1)我們提出了一個新的WSVAD檢測方法,即VadCLIP,它涉及雙分支網(wǎng)絡,分別以視覺分類和語言-視覺對齊的方式檢測視頻異常。借助雙分支的優(yōu)勢,VadCLIP實現(xiàn)了粗粒度(二分類)和細粒度(異常類別多分類)的WSVAD。據(jù)我們所知,VadCLIP是第一個將預先訓練的語言視覺知識有效地轉(zhuǎn)移到WSVAD的工作。

(2) 我們提出的方法包括三個重要的組成部分,以應對新范式帶來的新挑戰(zhàn)。LGT適配器用于從不同的角度捕獲時間依賴關系;設計了兩種提示機制來有效地使凍結(jié)的預訓練模型適應WSVAD任務;MIL對齊實現(xiàn)了在弱監(jiān)督下對視覺文本對齊范式的優(yōu)化,從而盡可能地保留預先訓練好的知識。

(3) 我們在兩個大規(guī)模公共基準上展示了VadCLIP的性能和有效性,VadCLIP均實現(xiàn)了最先進的性能。例如,它在XD Violence和UCFCrime上分別獲得了84.51%的AP和88.02%的AUC分數(shù),大大超過了當前基于分類的方法。

方法

wKgZomWTucWAWkleAAcn7jhXWXM973.png

VadCLIP的模型結(jié)構(gòu)如圖所示,主要包括了三個部分,分別為局部全局時序關系適配器(LGT Adapter)、視覺二分類分支和視覺文本對齊細粒度分類分支。

LGT Adapter

LGT Adapter由局部關系Transformer和全局關系圖卷積串聯(lián)組成??紤]到常規(guī)的Transformer在長時視頻時序關系建模時冗余信息較多、計算復雜度較高,我們改進了局部Transformer的mask,從時序上將輸入視頻幀特征分割為多個等長塊,令自注意力計算局限于塊內(nèi),減少了冗余信息建模,降低計算復雜度。

為了進一步捕獲全局時間依賴性,我們在局部模塊之后引入了一個輕量級的圖卷積模塊,由于其在WSVAD任務中得到廣泛采用,性能已經(jīng)被證明,我們采用GCN來捕獲全局時間依賴關系。根據(jù)之前的工作,我們使用GCN從特征相似性和相對距離的角度對全局時間依賴性進行建模,可以總結(jié)如下:

特征相似性分支通過計算兩幀之間的特征的余弦相似度生成GCN鄰接矩陣:

96545dcc-a08c-11ee-8b88-92fbcf53809c.png

雙分支結(jié)構(gòu)

與之前的其他WSVAD工作不同,我們的VadCLIP包含雙分支,除了傳統(tǒng)的異常二分類分支之外,我們還引入了一種新穎的視覺-文本對齊分支。二分類分支和傳統(tǒng)的WSVAD工作類似,使用一個帶有殘差連接的FFN和二分類器,直接計算經(jīng)過時序關系建模的視覺特征的幀級別異常置信度。

965e72ee-a08c-11ee-8b88-92fbcf53809c.png

而在視覺文本對齊分支中,文本標簽,例如虐待、暴亂、打架等,不再被編碼為一個one-hot向量,相反,它們被凍結(jié)參數(shù)的CLIP文本編碼器編碼為一個類嵌入向量,因為文本編碼器可以為視頻異常檢測提供語言知識。然后,我們計算類嵌入和幀級視覺特征之間的匹配余弦相似度,這類似于CLIP。在視覺文本對齊分支中,每個輸入文本標簽代表一類異常事件,從而自然地實現(xiàn)了細粒度的WSVAD。

9666f37e-a08c-11ee-8b88-92fbcf53809c.png

損失函數(shù)

966aabf4-a08c-11ee-8b88-92fbcf53809c.png

實驗結(jié)果

對比結(jié)果

表1和表2展示了在兩個常用的WSVAD數(shù)據(jù)集UCF-Crime和XD-Violence中,我們的方法和之前的工作的對比結(jié)果,為了保證公平,上述列出結(jié)果的工作均使用CLIP特征進行重新訓練,可以看出我們的方法在兩個數(shù)據(jù)集中相較之前的工作有較大的提升。

96882436-a08c-11ee-8b88-92fbcf53809c.png

表3和表4展示了使用了細粒度多類別標簽進行異常檢測,且計算幀mAP@IOU結(jié)果的情況,可以看出我們的方法在進行細粒度多分類異常檢測時也有明顯的提升。

96a4cf0a-a08c-11ee-8b88-92fbcf53809c.jpg

上圖分別展示了幀級別粗粒度異常檢測可視化結(jié)果和細粒度多分類異常檢測結(jié)果。

總結(jié)

在這項工作中,我們提出了一種新的范式VadCLIP,用于弱監(jiān)督視頻異常檢測。為了有效地將預訓練的知識和視覺語言關聯(lián)從凍結(jié)的CLIP遷移到WSVAD任務,我們首先設計了一個LGT適配器來增強時間建模的能力,然后設計了一系列提示機制來提高通用知識對特定任務的適應能力。最后,我們設計了MIL對齊操作,以便于在弱監(jiān)督下優(yōu)化視覺語言對齊。我們通過和最先進的工作對比和在兩個WSVAD基準數(shù)據(jù)集上的充分消融,驗證了VadCLIP的有效性。未來,我們將繼續(xù)探索視覺語言預訓練知識,并進一步致力于開放集VAD任務。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 適配器
    +關注

    關注

    9

    文章

    2036

    瀏覽量

    69333
  • 語言模型
    +關注

    關注

    0

    文章

    558

    瀏覽量

    10686
  • Clip
    +關注

    關注

    0

    文章

    32

    瀏覽量

    6978

原文標題:AAAI 2024 | VadCLIP: 首個基于視覺-語言模型的弱監(jiān)督視頻異常檢測方法

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關推薦
    熱點推薦

    基于transformer和自監(jiān)督學習的路面異常檢測方法分享

    鋪設異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學習的新方法,有助于定位異常區(qū)域
    的頭像 發(fā)表于 12-06 14:57 ?2261次閱讀
    基于transformer和自<b class='flag-5'>監(jiān)督</b>學習的路面<b class='flag-5'>異常</b><b class='flag-5'>檢測</b><b class='flag-5'>方法</b>分享

    基于隱馬爾可夫模型視頻異常檢測模型

    視頻技術的廣泛應用帶來海量的視頻數(shù)據(jù),僅依靠人力對監(jiān)控視頻中的異常進行檢測是不太可能的。異常行為
    發(fā)表于 11-20 09:37 ?8次下載
    基于隱馬爾可夫<b class='flag-5'>模型</b>的<b class='flag-5'>視頻</b><b class='flag-5'>異常</b><b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    基于稀疏隨機森林模型的用電側(cè)異常行為檢測

    異常行為模式檢測方法。該方法首先利用時間窗函數(shù)與Bootstrap重采樣,建立用電側(cè)行為模式信息簇。其次,利用基于隨機權網(wǎng)絡的有監(jiān)督學習得到
    發(fā)表于 12-26 10:19 ?5次下載
    基于稀疏隨機森林<b class='flag-5'>模型</b>的用電側(cè)<b class='flag-5'>異常</b>行為<b class='flag-5'>檢測</b>

    基于健壯多元概率校準模型的全網(wǎng)絡異常檢測

    的。同時,由于網(wǎng)絡異常種類繁多、變化快速,且常常隱藏在復雜龐大的背景流量中,給網(wǎng)絡異常檢測帶來極大的困難。 提出了一種基于健壯多元概率校準模型
    發(fā)表于 03-06 10:02 ?0次下載

    模型的網(wǎng)絡異常流量檢測

    網(wǎng)絡流量的復雜性、難以預測性以及人們主觀評測的差異性等不確定因素,使得網(wǎng)絡流量的異常檢測成為網(wǎng)絡安全防護領域研究的難點問題。通過對流量安全特征的分析提取和范圍限定,引入云模型理論,提出一種基于云
    發(fā)表于 03-06 16:44 ?1次下載
    云<b class='flag-5'>模型</b>的網(wǎng)絡<b class='flag-5'>異常</b>流量<b class='flag-5'>檢測</b>

    智能監(jiān)控視頻異常事件檢測

    的形狀、顏色和幀間變化度等特征編碼,生成特征向量。訓練時將特征向量送入HMM訓練得到隱馬爾可夫模型需要的參數(shù)A和B,檢測時將特征向量送入HMM檢測系統(tǒng)檢測是否有
    發(fā)表于 03-07 13:35 ?2次下載
    智能監(jiān)控<b class='flag-5'>視頻</b><b class='flag-5'>異常</b>事件<b class='flag-5'>檢測</b>

    實現(xiàn)強監(jiān)督監(jiān)督學習網(wǎng)絡的協(xié)同增強學習

    同時,我們可以從互聯(lián)網(wǎng)輕松獲取海量粗標注的圖片,如利用Flickr的標簽。因此,研究如何在監(jiān)督條件下,即僅提供粗略圖片類別標注,訓練目標檢測模型,具有重要的意義。已有學者探索了基于多
    的頭像 發(fā)表于 05-15 16:51 ?1.2w次閱讀
    實現(xiàn)強<b class='flag-5'>監(jiān)督</b>和<b class='flag-5'>弱</b><b class='flag-5'>監(jiān)督</b>學習網(wǎng)絡的協(xié)同增強學習

    如何使用獨立子空間分析實現(xiàn)不良視頻檢測方法

    為了檢測網(wǎng)絡中含有不良內(nèi)容的視頻,提出一種基于非監(jiān)督學習特征的不良視頻檢測方法。該
    發(fā)表于 01-13 11:20 ?5次下載
    如何使用獨立子空間分析實現(xiàn)不良<b class='flag-5'>視頻</b>的<b class='flag-5'>檢測</b><b class='flag-5'>方法</b>

    集成流挖掘和圖挖掘的內(nèi)網(wǎng)異常檢測方法

    發(fā)揮圖挖掘的無監(jiān)督優(yōu)勢的冋時,融入了流挖掘的良好自適應能力。采用集成的方法,通過集成分類和更新,當出現(xiàn)概念漂移時,保證集成適應當前概念,使之可以檢測到內(nèi)網(wǎng)惡意行為。實驗證明基于集成的方法
    發(fā)表于 04-12 11:29 ?7次下載
    集成流挖掘和圖挖掘的內(nèi)網(wǎng)<b class='flag-5'>異常</b><b class='flag-5'>檢測</b><b class='flag-5'>方法</b>

    融合零樣本學習和小樣本學習的監(jiān)督學習方法綜述

    融合零樣本學習和小樣本學習的監(jiān)督學習方法綜述 來源:《系統(tǒng)工程與電子技術》,作者潘崇煜等 摘 要:?深度學習模型嚴重依賴于大量人工標注的數(shù)據(jù),使得其在數(shù)據(jù)缺乏的特殊領域內(nèi)應用嚴重受限。面對數(shù)據(jù)缺乏
    發(fā)表于 02-09 11:22 ?2633次閱讀
    融合零樣本學習和小樣本學習的<b class='flag-5'>弱</b><b class='flag-5'>監(jiān)督學習方法</b>綜述

    如何縮小監(jiān)督信號與密集預測之間的差距

    導讀本文圍繞非完全監(jiān)督下的圖像分割方法最新綜述,講述用于解決“如何縮小監(jiān)督信號與密集預測之間的差距”的四種通用的啟發(fā)式先驗。
    的頭像 發(fā)表于 07-13 10:51 ?1363次閱讀

    基于視覺Transformer的監(jiān)督視頻異常檢測架構(gòu)進行腸息肉檢測的研究

    本文提出一種有效的基于視覺Transformer的監(jiān)督視頻異常檢測架構(gòu)來實現(xiàn)精準檢測結(jié)直腸息肉
    的頭像 發(fā)表于 09-27 11:15 ?2000次閱讀

    監(jiān)督學習解鎖醫(yī)學影像洞察力

    人工智能 (AI) 通過比人類專家更快、更準確地檢測和測量異常情況,從圖像中進行先進的醫(yī)學診斷。構(gòu)建適用于人群的高質(zhì)量 AI 模型對于改善患者預后和個性化治療至關重要。然而,人工智能模型
    的頭像 發(fā)表于 09-30 18:04 ?1762次閱讀
    <b class='flag-5'>弱</b><b class='flag-5'>監(jiān)督</b>學習解鎖醫(yī)學影像洞察力

    使用MATLAB進行異常檢測(下)

    在使用 MATLAB 進行異常檢測(上)中,我們探討了什么是異常值,簡單的一維數(shù)據(jù)異常檢測問題,針對高維數(shù)據(jù)的有
    的頭像 發(fā)表于 11-24 10:46 ?2680次閱讀

    基于視頻語言模型LiteVL的無參的特征池化方法

    我們提出了LiteVL,這是一種視頻語言模型,它無需大量的視頻語言預訓練或目標檢測器。LiteV
    的頭像 發(fā)表于 12-05 10:54 ?869次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品