0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

膠囊網(wǎng)絡(luò)在小樣本做文本分類中的應(yīng)用(下)

智能生物識(shí)別說(shuō) ? 來(lái)源:KuAI_KST ? 作者:KuAI_KST ? 2021-09-27 17:46 ? 次閱讀

論文提出Dynamic Memory Induction Networks (DMIN) 網(wǎng)絡(luò)處理小樣本文本分類。

pIYBAGCnY4mABa0KAACqrnD7xg418.jpeg

兩階段的(two-stage)few-shot模型:

在監(jiān)督學(xué)習(xí)階段(綠色的部分),訓(xùn)練數(shù)據(jù)中的部分類別被選為base set,用于finetune預(yù)訓(xùn)練Encoder和分類器也就是Pretrained Encoder和Classfiier圖中的部分。

在元學(xué)習(xí)階段(紅色的部分),數(shù)據(jù)被構(gòu)造成一個(gè)個(gè)episode的形式用于計(jì)算梯度和更新模型參數(shù)。對(duì)于C-way K-shot,一個(gè)訓(xùn)練episode中的Support Set是從訓(xùn)練數(shù)據(jù)中隨機(jī)選擇C個(gè)類別,每個(gè)類別選擇K個(gè)實(shí)例構(gòu)成的。每個(gè)類別剩下的樣本就構(gòu)成Query Set。也就是在Support Set上訓(xùn)練模型,在Query Set上計(jì)算損失更新參數(shù)。

Pretrained Encoder

用[CLS]預(yù)訓(xùn)練的句子的Bert-base Embedding來(lái)做fine-tune。$W_{base}$ 就作為元學(xué)習(xí)的base特征記憶矩陣,監(jiān)督學(xué)習(xí)得到的。

Dynamic Memory Module

在元學(xué)習(xí)階段,為了從給定的Support Set中歸納出類級(jí)別的向量表示,根據(jù)記憶矩陣 $W_{base}$ 學(xué)習(xí)Dynamic Memory Module(動(dòng)態(tài)記憶模塊)。

pIYBAGCnY6mATu11AACt6b83rQg92.jpeg

給定一個(gè) $M$ ( $W_{base}$ )和樣本向量 q , q 就是一個(gè)特征膠囊,所以動(dòng)態(tài)記憶路由算法就是為了得到適應(yīng)監(jiān)督信息 $ W_{base} $ 的向量 $q^{'}$ ,

pIYBAGCnZCuAfxHgAAANyMjahgg865.jpg

$$ q^{'} \leftarrow DMR(M, q) $$ 學(xué)習(xí)記憶矩陣 $M$ 中的每個(gè)類別向量 $M^{'} $ 進(jìn)行更新,

pIYBAGCnY9SAUs5YAAAY8n18FQ8274.jpg

其中

o4YBAGCnZFSAXoF4AAAQ5xcaJKE275.jpg

這里的 $W_j$ 就是一個(gè)權(quán)重。因此變換權(quán)重 $W_j$ 和偏差 $b_j$ 在輸入時(shí)候是可以共享的, 因此計(jì)算 $\hat{m}{ij}$ 和 $\hat{q}_j$ 之間的皮爾遜相關(guān)系數(shù)

pIYBAGCnZVGAW4_CAAAUK-tFvfw171.jpg

其中

o4YBAGCnZZSAc4R5AABHPGmry5I894.png

接下來(lái)就是進(jìn)行動(dòng)態(tài)路由算法學(xué)習(xí)最佳的特征映射(這里添加了$p_{ij}$到路由協(xié)議中),到第11行為止。從第12行開(kāi)始也會(huì)根據(jù)監(jiān)督學(xué)習(xí)的記憶矩陣和膠囊的皮爾遜相關(guān)系數(shù)來(lái)更新$p_{ij}$,最后把部分膠囊

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7077

    瀏覽量

    89161
  • Query
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    9371
  • 小樣本
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6831
  • 動(dòng)態(tài)路由
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    23131
  • 網(wǎng)絡(luò)處理
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6368
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AFE4960如何正確的從FIFO讀取樣本呢?

    我有一些問(wèn)題想請(qǐng)教。 雙芯片串行模式,MCU 收到 AFE4960 發(fā)送的 FIFO_RDY 中斷信號(hào)后,開(kāi)始通過(guò) SPI 通信從 AFE4960 的 FIFO 讀取樣本。 具
    發(fā)表于 11-14 06:41

    圖紙模板文本變量

    “ ?文本變量和系統(tǒng)自帶的內(nèi)置變量,可以幫助工程師靈活、高效地配置標(biāo)題欄的信息,而不用擔(dān)心模板的文字對(duì)象被意外修改。 ? ” 文本變量的語(yǔ)法
    的頭像 發(fā)表于 11-13 18:21 ?189次閱讀
    圖紙模板<b class='flag-5'>中</b>的<b class='flag-5'>文本</b>變量

    RK3588 技術(shù)分享 | Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)

    : NPU幫助機(jī)器完成更高效的翻譯、文本分類和情感分析,推動(dòng)了自然語(yǔ)言處理技術(shù)的發(fā)展。 實(shí)例分享:Yolov5分類檢測(cè) RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也可以
    發(fā)表于 10-24 10:13

    雷達(dá)的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達(dá)的基本分類方法.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:09 ?6次下載

    RK3588 技術(shù)分享 | Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)

    : NPU幫助機(jī)器完成更高效的翻譯、文本分類和情感分析,推動(dòng)了自然語(yǔ)言處理技術(shù)的發(fā)展。 實(shí)例分享:Yolov5分類檢測(cè) RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也可以
    發(fā)表于 08-20 11:13

    利用TensorFlow實(shí)現(xiàn)基于深度神經(jīng)網(wǎng)絡(luò)文本分類模型

    要利用TensorFlow實(shí)現(xiàn)一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的文本分類模型,我們首先需要明確幾個(gè)關(guān)鍵步驟:數(shù)據(jù)預(yù)處理、模型構(gòu)建、模型訓(xùn)練、模型評(píng)估與調(diào)優(yōu),以及最終的模型部署(盡管本文中,我們將重點(diǎn)放在前四個(gè)步驟上)。下面,我將
    的頭像 發(fā)表于 07-12 16:39 ?893次閱讀

    BP神經(jīng)網(wǎng)絡(luò)樣本的獲取方法

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種基于誤差反向傳播算法的多層前饋神經(jīng)網(wǎng)絡(luò),廣泛應(yīng)用于模式識(shí)別、分類、預(yù)測(cè)等領(lǐng)域。構(gòu)建BP神經(jīng)
    的頭像 發(fā)表于 07-11 10:50 ?625次閱讀

    BP神經(jīng)網(wǎng)絡(luò)最少要多少份樣本

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)許多領(lǐng)域都有廣泛的應(yīng)用,如圖像識(shí)別、語(yǔ)音識(shí)別
    的頭像 發(fā)表于 07-11 10:31 ?640次閱讀

    BP神經(jīng)網(wǎng)絡(luò)語(yǔ)言特征信號(hào)分類的應(yīng)用

    Network),即反向傳播神經(jīng)網(wǎng)絡(luò),作為一種強(qiáng)大的多層前饋神經(jīng)網(wǎng)絡(luò),憑借其優(yōu)異的非線性映射能力和高效的學(xué)習(xí)機(jī)制,語(yǔ)言特征信號(hào)分類展現(xiàn)
    的頭像 發(fā)表于 07-10 15:44 ?421次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割等領(lǐng)域。本文將詳細(xì)介紹CNN分類任務(wù)的應(yīng)用,包括基本結(jié)構(gòu)
    的頭像 發(fā)表于 07-03 09:28 ?644次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)文本分類領(lǐng)域的應(yīng)用

    顯著成就后,也逐漸被引入到文本分類任務(wù)。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)模擬人類視覺(jué)系統(tǒng)的信息處理方式,能夠有效地提取文本的局部特征,進(jìn)而實(shí)現(xiàn)高精度的
    的頭像 發(fā)表于 07-01 16:25 ?748次閱讀

    神經(jīng)網(wǎng)絡(luò)圖像識(shí)別的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)圖像識(shí)別領(lǐng)域的應(yīng)用日益廣泛。神經(jīng)網(wǎng)絡(luò)以其強(qiáng)大的特征提取和分類能力,為圖像識(shí)別帶來(lái)了革命性的進(jìn)步。本文將詳細(xì)介紹神經(jīng)
    的頭像 發(fā)表于 07-01 14:19 ?695次閱讀

    交換機(jī)的基本分類

      交換機(jī)作為網(wǎng)絡(luò)通訊的核心設(shè)備之一,其在網(wǎng)絡(luò)架構(gòu)起著至關(guān)重要的作用。隨著信息技術(shù)的飛速發(fā)展,交換機(jī)也不斷演進(jìn)和革新,以滿足日益復(fù)雜的
    的頭像 發(fā)表于 06-06 11:06 ?2116次閱讀

    基于神經(jīng)網(wǎng)絡(luò)的呼吸音分類算法

    分類器、呼吸(或異常)分類器和某種稱為MASK的注意力。該模型的示意圖如圖1所示。 首先,模型訓(xùn)練之前,將每個(gè)聲音樣本分割在長(zhǎng)度相等的幀上。對(duì)于聲音
    發(fā)表于 05-31 12:05

    了解如何使用PyTorch構(gòu)建圖神經(jīng)網(wǎng)絡(luò)

    圖神經(jīng)網(wǎng)絡(luò)直接應(yīng)用于圖數(shù)據(jù)集,您可以訓(xùn)練它們以預(yù)測(cè)節(jié)點(diǎn)、邊緣和與圖相關(guān)的任務(wù)。它用于圖和節(jié)點(diǎn)分類、鏈路預(yù)測(cè)、圖聚類和生成,以及圖像和文本分類。
    發(fā)表于 02-21 12:19 ?788次閱讀
    了解如何使用PyTorch構(gòu)建圖神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>