0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

針對電商場景調(diào)優(yōu)BERT的論文

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2020-09-25 16:40 ? 次閱讀

最近跟幾個做電商NLP的朋友們聊天,有不少收獲。我之前從來沒想過【搜索】在電商里的地位是如此重要,可能GMV的50%以上都是從搜索來的。巨大的經(jīng)濟價值也極大地推動了技術的發(fā)展,他們的工作做得很細致,畢竟一個百分點的點擊率后購買率提升也許對應的就是幾百億的成交額。

其實之前做的汽車領域NLP工作跟電商有很多相似的地方,場景先驗都非常重要。直接使用開放域語料預訓練的語言模型效果并不好。我們也嘗試過一些方法,例如用本領域語料訓練語言模型,結(jié)合一些詞庫詞典等等。今天介紹最近看到的一篇針對電商場景調(diào)優(yōu)BERT的論文《E-BERT: Adapting BERT to E-commerce with Adaptive Hybrid Masking and Neighbor Product Reconstruction》[1],其中的一些方法應該對細分領域NLP有一些啟發(fā)。

方法

論文的創(chuàng)新方法主要有兩個:Adaptive Hybrid Masking(AHM,自適應混合掩碼)和Neighbor Product Reconstruction(NPR,相似商品重構(gòu))。

E-BERT總覽

AHM

第一個方法AHM其實是對已有掩碼方式的改進。原始版本的BERT采用的是隨機mask,這個大家應該都比較清楚。這種mask方式針對的是token,而眾所周知token是由單詞通過wordpiece tokenizer分割而來。所以這種方式遮蓋住的可能是單詞的一個部分,學習這種類似看三個字母猜剩下四個字母的任務不是很符合大家的直覺。隨后就誕生了更加符合人類認知的Whole Word Masking,這個方法就是說要遮就遮整個詞。這里用一個網(wǎng)上的例子幫大家理解

InputText:themanjumpedup,puthisbasketonphil##am##mon'shead OriginalMaskedInput:[MASK]man[MASK]up,puthis[MASK]onphil[MASK]##mon'shead WholeWordMaskedInput:theman[MASK]up,puthisbasketon[MASK][MASK][MASK]'shead

philammon是一個詞,他會被tokenizer分解成三個token,這時就體現(xiàn)了普通mask和WWM的區(qū)別。

怎么繼續(xù)改進遮蓋方法呢,一個比較直觀的方向是繼續(xù)提高遮蓋的整體性。前面是從token走到了word,可以繼續(xù)往前走一步到phrase。這個方向其實之前有人做了,比如SpanBert[2]隨機mask一小段,ERNIE[3]mask實體等等。這篇論文做了兩個工作,一個是進一步提升遮蓋phrase的質(zhì)量,用了一種叫AutoPhrase[4]的方法來構(gòu)建高質(zhì)量的電商短語集合;第二個是設計了一套自適應機制,讓模型訓練在詞語遮蓋和短語遮蓋間切換,兩個方面合在一起就叫做AHM。

AHM總體的流程如下圖所示。對于一句輸入,首先用兩種方式進行mask,左邊是常規(guī)word mask,右邊是phrase mask,然后輸入到BERT,分別得到MLM的loss,Lw和Lp。然后用一個函數(shù)f,根據(jù)兩個loss計算變量,跟預設的超參數(shù)進行比較,如果就用word masking,反之就用phrase masking。的計算其實可以有很多方法,論文也沒有在這塊做對比實驗,我也就不展開,大家有興趣可以去看原文。

AHM總體流程

NPR

NPR是個比較有意思的部分,直觀的解釋是希望能通過一個商品重建出另一個相似商品的隱空間表示。具體的做法是把兩個商品a和b的文本內(nèi)容送進Bert,得到各自的embedding矩陣;然后對這兩個句子做交叉注意力,得到注意力矩陣,然后用注意力矩陣加權a的embedding得到重構(gòu)后的b的embedding,反過來也從b重構(gòu)a。得到重構(gòu)后的embedding后再和原embedding計算距離作為loss,論文采用的是歐氏距離。只做相似商品重構(gòu)還不夠,論文還引入了不相似商品(隨機采樣)作為負樣本,采用triplet loss來計算最終的重構(gòu)損失。

NPR示意圖

效果

論文的實驗和結(jié)果比較部分做的比較全面。

先介紹一下對照實驗涉及的模型。baseline是裸BERT(BERT Raw),用電商數(shù)據(jù)finetune過的Bert外加SpanBERT作為對照組,finetune有兩種方法,分別是word masking的Bert和phrase masking的Bert-NP。實驗組是各種配置的E-Bert,包括只使用phrase masking的E-Bert-DP,使用AHM的E-Bert-AHM和AHM+NPR的E-Bert。

評估效果使用了4個電商場景場景的下游任務,Review-based Question Answering(基于評論的問答),Review Aspect Extraction(評論方面抽???),Review Aspect Sentiment Classification(評論情感分類)和Product Classification(商品類別分類)。

不同模型在不同任務上的結(jié)果如下圖

模型結(jié)果比較

從結(jié)果可以看出E-BERT在各種任務上都大幅領先裸BERT,甚至也大幅領先基于領域語料預訓練過的BERT。文章的方法其實可以在任何的垂直領域中使用,可以說相當?shù)膶嵱谩?/p>

最近一個討論比較多的問題是在BERT時代,NLP算法工程師的價值是什么?我想這個結(jié)果可以從一個側(cè)面給答案,知道如何在模型中引入行業(yè)先驗知識是可以大大提高模型在特定場景的表現(xiàn)的,即使如BERT這樣自身很強的超級模型也不例外。

參考資料

[1]

E-BERT: Adapting BERT to E-commerce with Adaptive Hybrid Masking and Neighbor Product Reconstruction: https://arxiv.org/pdf/2009.02835

[2]

SpanBERT: Improving Pre-training by Representing and Predicting Spans: http://arxiv.org/abs/1907.10529

[3]

ERNIE: Enhanced Language Representation with Informative Entities: http://arxiv.org/abs/1905.07129

[4]

AutoPhrase: https://github.com/shangjingbo1226/AutoPhrase

責任編輯:xj

原文標題:E-BERT: 電商領域語言模型優(yōu)化實踐

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    527

    瀏覽量

    10289
  • AHM
    AHM
    +關注

    關注

    0

    文章

    2

    瀏覽量

    7499
  • nlp
    nlp
    +關注

    關注

    1

    文章

    489

    瀏覽量

    22052

原文標題:E-BERT: 電商領域語言模型優(yōu)化實踐

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    用VESC調(diào)代替STLink給VESC調(diào)刷固件 可刷所有的基于VESC的調(diào)固件

    一、設備準備1.1、VESC調(diào)準備一個能夠正常運行的VESC,另外準備一個需要用用SWD的方式刷固件的調(diào)(可以是更換了新的MCU芯片的調(diào)
    發(fā)表于 12-01 21:31

    MCF8316A調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《MCF8316A調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 11-20 17:21 ?0次下載
    MCF8316A<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    MCT8316A調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《MCT8316A調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 11-13 13:49 ?0次下載
    MCT8316A<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    MCT8315A調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《MCT8315A調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 11-12 14:14 ?0次下載
    MCT8315A<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    MMC DLL調(diào)優(yōu)

    電子發(fā)燒友網(wǎng)站提供《MMC DLL調(diào)優(yōu).pdf》資料免費下載
    發(fā)表于 10-11 11:48 ?0次下載
    MMC DLL<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>

    TDA3xx ISS調(diào)優(yōu)和調(diào)試基礎設施

    電子發(fā)燒友網(wǎng)站提供《TDA3xx ISS調(diào)優(yōu)和調(diào)試基礎設施.pdf》資料免費下載
    發(fā)表于 10-11 10:16 ?0次下載
    TDA3xx ISS<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>和調(diào)試基礎設施

    大數(shù)據(jù)從業(yè)者必知必會的Hive SQL調(diào)優(yōu)技巧

    不盡人意。本文針對Hive SQL的性能優(yōu)化進行深入研究,提出了一系列可行的調(diào)優(yōu)方案,并給出了相應的優(yōu)化案例和優(yōu)化前后的SQL代碼。通過合理的優(yōu)化策略和技巧,能夠顯著提升Hive SQL的執(zhí)行效率和響應速度。 關鍵詞: Hive
    的頭像 發(fā)表于 09-24 13:30 ?278次閱讀

    智能調(diào)優(yōu),使步進電機安靜而高效地運行

    電子發(fā)燒友網(wǎng)站提供《智能調(diào)優(yōu),使步進電機安靜而高效地運行.pdf》資料免費下載
    發(fā)表于 09-24 11:08 ?1次下載
    智能<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>,使步進電機安靜而高效地運行

    MMC SW調(diào)優(yōu)算法

    電子發(fā)燒友網(wǎng)站提供《MMC SW調(diào)優(yōu)算法.pdf》資料免費下載
    發(fā)表于 09-20 11:14 ?0次下載
    MMC SW<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>算法

    如何調(diào)優(yōu)DS160PR410實現(xiàn)出色的信號完整性

    電子發(fā)燒友網(wǎng)站提供《如何調(diào)優(yōu)DS160PR410實現(xiàn)出色的信號完整性.pdf》資料免費下載
    發(fā)表于 09-20 09:39 ?6次下載
    如何<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>DS160PR410實現(xiàn)出色的信號完整性

    TAS58xx系列通用調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《TAS58xx系列通用調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 09-14 10:49 ?0次下載
    TAS58xx系列通用<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    AM6xA ISP調(diào)優(yōu)指南

    電子發(fā)燒友網(wǎng)站提供《AM6xA ISP調(diào)優(yōu)指南.pdf》資料免費下載
    發(fā)表于 09-07 09:52 ?0次下載
    AM6xA ISP<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>指南

    OSPI控制器PHY調(diào)優(yōu)算法

    電子發(fā)燒友網(wǎng)站提供《OSPI控制器PHY調(diào)優(yōu)算法.pdf》資料免費下載
    發(fā)表于 08-30 11:12 ?0次下載
    OSPI控制器PHY<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>算法

    深度解析JVM調(diào)優(yōu)實踐應用

    Tomcat自身的調(diào)優(yōu)針對conf/server.xml中的幾個參數(shù)的調(diào)優(yōu)設置。首先是對這幾個參數(shù)的含義要有深刻而清楚的理解。
    的頭像 發(fā)表于 04-01 10:24 ?486次閱讀
    深度解析JVM<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>實踐應用

    鴻蒙開發(fā)實戰(zhàn):【性能調(diào)優(yōu)組件】

    性能調(diào)優(yōu)組件包含系統(tǒng)和應用調(diào)優(yōu)框架,旨在為開發(fā)者提供一套性能調(diào)優(yōu)平臺,可以用來分析內(nèi)存、性能等問
    的頭像 發(fā)表于 03-13 15:12 ?456次閱讀
    鴻蒙開發(fā)實戰(zhàn):【性能<b class='flag-5'>調(diào)</b><b class='flag-5'>優(yōu)</b>組件】