0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向自然語言處理的神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的答辯PPT

DPVg_AI_era ? 來源:lp ? 2019-03-02 09:16 ? 次閱讀

現(xiàn)實(shí)中的自然語言處理面臨著多領(lǐng)域、多語種上的多種類型的任務(wù),為每個(gè)任務(wù)都單獨(dú)進(jìn)行數(shù)據(jù)標(biāo)注是不大可行的。遷移學(xué)習(xí)可以將學(xué)習(xí)的知識(shí)遷移到相關(guān)的場景下。本文介紹 Sebastian Ruder 博士的面向自然語言處理的神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的答辯 PPT。

NLP 領(lǐng)域活躍的技術(shù)博主Sebastian Ruder 最近順利 PhD 畢業(yè),下周即將進(jìn)入 DeepMind 開啟 AI 研究員生涯。

Sebastian Ruder 博士的答辯 PPT《Neural Transfer Learning for Natural Language Processing》介紹了面向自然語言的遷移學(xué)習(xí)的動(dòng)機(jī)、研究現(xiàn)狀、缺陷以及自己的工作。

Sebastian Ruder 博士在 PPT 中闡述了使用遷移學(xué)習(xí)的動(dòng)機(jī):

state-of-the-art 的有監(jiān)督學(xué)習(xí)算法比較脆弱:

易受到對抗樣本的影響

易受到噪音數(shù)據(jù)的影響

易受到釋義的影響

現(xiàn)實(shí)中的自然語言處理面臨著多領(lǐng)域、多語種上的多種類型的任務(wù),為每個(gè)任務(wù)都單獨(dú)進(jìn)行數(shù)據(jù)標(biāo)注是不大可行的,而遷移學(xué)習(xí)可以將學(xué)習(xí)的知識(shí)遷移到相關(guān)的場景下

許多基礎(chǔ)的前沿的 NLP 技術(shù)都可以被看成是遷移學(xué)習(xí):

潛在語義分析 (Latent semantic analysis)

Brown clusters

預(yù)訓(xùn)練詞向量(Pretrained word embeddings)

已有的遷移學(xué)習(xí)方法往往有著下面的局限性:

過度約束:預(yù)定義的相似度指標(biāo),硬參數(shù)共享

設(shè)置定制化:在一個(gè)任務(wù)上進(jìn)行評價(jià),任務(wù)級別的共享策略

弱 baseline:缺少和傳統(tǒng)方法的對比

脆弱:在領(lǐng)域外表現(xiàn)很差,依賴語種、任務(wù)的相似性

低效:需要更多的參數(shù)、時(shí)間和樣本

因此,作者認(rèn)為研究遷移學(xué)習(xí)需要解決下面的這些問題:

克服源和目標(biāo)之間的差距

引起歸納偏置

結(jié)合傳統(tǒng)和現(xiàn)有的方法

在 NLP 任務(wù)中跨層次遷移

泛化設(shè)置

作者圍繞遷移學(xué)習(xí)做了 4 個(gè)方面的工作:

領(lǐng)域適應(yīng)(Domain Adaption)

跨語種學(xué)習(xí)(Cross-lingual learning)

多任務(wù)學(xué)習(xí)(Multi-task learning)

序列遷移學(xué)習(xí)(Sequential transfer learning)

具體內(nèi)容可在 Sebastian Ruder 博士的完整答辯 PPT 中查看。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100778
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    618

    瀏覽量

    13561
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    488

    瀏覽量

    22038

原文標(biāo)題:NLP博士答辯41頁P(yáng)PT,面向自然語言處理的神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    什么是自然語言處理

    什么是自然語言處理自然語言處理任務(wù)有哪些?自然語言處理的方法是什么?
    發(fā)表于 09-08 06:51

    RNN在自然語言處理中的應(yīng)用

    。深度學(xué)習(xí)的興起又讓人們重新開始研究循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),并在序列問題和自然語言處理等領(lǐng)域取得很大的成功。本文將從循環(huán)
    發(fā)表于 11-28 11:41 ?5698次閱讀
    RNN在<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>中的應(yīng)用

    自然語言處理中的卷積神經(jīng)網(wǎng)絡(luò)的詳細(xì)資料介紹和應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)最開始是用于計(jì)算機(jī)視覺中,然而現(xiàn)在也被廣泛用于自然語言處理中,而且有著不亞于RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的性能。
    的頭像 發(fā)表于 08-04 11:26 ?3078次閱讀

    博士論文《面向自然語言處理神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)》公開

    在過去五年中,深度神經(jīng)網(wǎng)絡(luò) [Krizhevsky 等人,2012 a, Goodfellow 等人,2016] 作為機(jī)器學(xué)習(xí)模型的一個(gè)特殊類別,已經(jīng)成為從數(shù)據(jù)中學(xué)習(xí)的首選模型。這些模型通過對一個(gè)
    的頭像 發(fā)表于 03-29 09:32 ?2416次閱讀

    淺談圖神經(jīng)網(wǎng)絡(luò)自然語言處理中的應(yīng)用簡述

    近幾年,神經(jīng)網(wǎng)絡(luò)因其強(qiáng)大的表征能力逐漸取代傳統(tǒng)的機(jī)器學(xué)習(xí)成為自然語言處理任務(wù)的基本模型。然而經(jīng)典的神經(jīng)網(wǎng)絡(luò)模型只能
    的頭像 發(fā)表于 04-26 14:57 ?3312次閱讀
    淺談圖<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>中的應(yīng)用簡述

    基于脈沖神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)算法

    使用脈沖序列進(jìn)行數(shù)據(jù)處理的脈沖神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的低功耗特性,但由于學(xué)習(xí)算法不成熟,多層網(wǎng)絡(luò)練存在收斂困難的問題。利用反向傳播網(wǎng)絡(luò)具有
    發(fā)表于 05-24 16:03 ?15次下載

    NLP中的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)與學(xué)習(xí)

    近些年來,人工神經(jīng)網(wǎng)絡(luò)方法已經(jīng)成為了自然語言處理中最重要的范式之一。但是,大量依賴人工設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致自然語言
    的頭像 發(fā)表于 09-22 14:49 ?1328次閱讀

    神經(jīng)網(wǎng)絡(luò)自然語言處理中的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它研究的是如何使計(jì)算機(jī)能夠理解和生成人類自然語言。隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)自然語
    的頭像 發(fā)表于 07-01 14:09 ?516次閱讀

    用于自然語言處理神經(jīng)網(wǎng)絡(luò)有哪些

    自然語言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域的一個(gè)重要分支,旨在讓計(jì)算機(jī)能夠理解和處理人類語言。隨著深度
    的頭像 發(fā)表于 07-03 16:17 ?1202次閱讀

    前饋神經(jīng)網(wǎng)絡(luò)自然語言處理中的應(yīng)用

    自然語言處理(Natural Language Processing, NLP)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在讓計(jì)算機(jī)能夠理解和處理人類語言。隨著深度
    的頭像 發(fā)表于 07-08 17:00 ?384次閱讀

    基于神經(jīng)網(wǎng)絡(luò)語言模型有哪些

    基于神經(jīng)網(wǎng)絡(luò)語言模型(Neural Language Models, NLMs)是現(xiàn)代自然語言處理(NLP)領(lǐng)域的一個(gè)重要組成部分,它們通過神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-10 11:15 ?755次閱讀

    自然語言處理前饋網(wǎng)絡(luò)綜述

    自然語言處理(NLP)前饋網(wǎng)絡(luò)是人工智能和語言學(xué)領(lǐng)域的一個(gè)重要交叉學(xué)科,旨在通過計(jì)算機(jī)模型理解和處理人類
    的頭像 發(fā)表于 07-12 10:10 ?319次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 09:56 ?387次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)自然語言處理中的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(luò)(RN
    的頭像 發(fā)表于 11-15 09:41 ?255次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為
    的頭像 發(fā)表于 11-15 14:58 ?272次閱讀