0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

回顧3年來(lái)的所有主流深度學(xué)習(xí)CTR模型

WpOh_rgznai100 ? 來(lái)源:lq ? 2019-07-18 14:33 ? 次閱讀

今天我們一起回顧一下近3年來(lái)的所有主流深度學(xué)習(xí)CTR模型,也是我工作之余的知識(shí)總結(jié),希望能幫大家梳理推薦系統(tǒng)、計(jì)算廣告領(lǐng)域在深度學(xué)習(xí)方面的前沿進(jìn)展。

隨著微軟的Deep Crossing,Google的Wide&Deep,以及FNN,PNN等一大批優(yōu)秀的深度學(xué)習(xí)CTR預(yù)估模型在2016年被提出,計(jì)算廣告和推薦系統(tǒng)領(lǐng)域全面進(jìn)入了深度學(xué)習(xí)時(shí)代,時(shí)至今日,深度學(xué)習(xí)CTR模型已經(jīng)成為廣告和推薦領(lǐng)域毫無(wú)疑問(wèn)的主流。在進(jìn)入深度學(xué)習(xí)時(shí)代之后,CTR模型不僅在表達(dá)能力、模型效果上有了質(zhì)的提升,而且大量借鑒并融合了深度學(xué)習(xí)在圖像、語(yǔ)音以及自然語(yǔ)言處理方向的成果,在模型結(jié)構(gòu)上進(jìn)行了快速的演化。

本文總結(jié)了廣告、推薦領(lǐng)域最為流行的10個(gè)深度學(xué)習(xí)CTR模型的結(jié)構(gòu)特點(diǎn),構(gòu)建了它們之間的演化圖譜。選擇模型的標(biāo)準(zhǔn)盡量遵循下面三個(gè)原則:

模型的在業(yè)界影響力較大的;

已經(jīng)被Google,微軟,阿里等知名互聯(lián)網(wǎng)公司成功應(yīng)用的;

工程導(dǎo)向的,而不是僅用實(shí)驗(yàn)數(shù)據(jù)驗(yàn)證或?qū)W術(shù)創(chuàng)新用的。

下面首先列出這張深度學(xué)習(xí)CTR模型的演化圖譜,再對(duì)其進(jìn)行逐一介紹:

圖1 深度學(xué)習(xí)CTR模型演化圖譜

一、微軟Deep Crossing(2016年)——深度學(xué)習(xí)CTR模型的base model

圖2 微軟Deep Crossing模型架構(gòu)圖

微軟于2016年提出的Deep Crossing可以說(shuō)是深度學(xué)習(xí)CTR模型的最典型和基礎(chǔ)性的模型。如圖2的模型結(jié)構(gòu)圖所示,它涵蓋了深度CTR模型最典型的要素,即通過(guò)加入embedding層將稀疏特征轉(zhuǎn)化為低維稠密特征,用stacking layer,或者叫做concat layer將分段的特征向量連接起來(lái),再通過(guò)多層神經(jīng)網(wǎng)絡(luò)完成特征的組合、轉(zhuǎn)換,最終用scoring layer完成CTR的計(jì)算。跟經(jīng)典DNN有所不同的是,Deep crossing采用的multilayer perceptron是由殘差網(wǎng)絡(luò)組成的,這無(wú)疑得益于MSRA著名研究員何愷明提出的著名的152層ResNet。

論文:[Deep Crossing] Deep Crossing - Web-Scale Modeling without Manually Crafted Combinatorial Features (Microsoft 2016)

二、FNN(2016年)——用FM的隱向量完成Embedding初始化

圖3 FNN模型架構(gòu)圖

FNN相比Deep Crossing的創(chuàng)新在于使用FM的隱層向量作為user和item的Embedding,從而避免了完全從隨機(jī)狀態(tài)訓(xùn)練Embedding。由于id類特征大量采用one-hot的編碼方式,導(dǎo)致其維度極大,向量極稀疏,所以Embedding層與輸入層的連接極多,梯度下降的效率很低,這大大增加了模型的訓(xùn)練時(shí)間和Embedding的不穩(wěn)定性,使用pre train的方法完成Embedding層的訓(xùn)練,無(wú)疑是降低深度學(xué)習(xí)模型復(fù)雜度和訓(xùn)練不穩(wěn)定性的有效工程經(jīng)驗(yàn)。

論文:[FNN] Deep Learning over Multi-field Categorical Data (UCL 2016)

三、PNN (2016年)——豐富特征交叉的方式

圖4 PNN模型架構(gòu)圖

PNN的全稱是Product-based Neural Network,PNN的關(guān)鍵在于在embedding層和全連接層之間加入了Product layer。傳統(tǒng)的DNN是直接通過(guò)多層全連接層完成特征的交叉和組合的,但這樣的方式缺乏一定的“針對(duì)性”。首先全連接層并沒(méi)有針對(duì)不同特征域之間進(jìn)行交叉;其次,全連接層的操作也并不是直接針對(duì)特征交叉設(shè)計(jì)的。但在實(shí)際問(wèn)題中,特征交叉的重要性不言而喻,比如年齡與性別的交叉是非常重要的分組特征,包含了大量高價(jià)值的信息,我們急需深度學(xué)習(xí)網(wǎng)絡(luò)能夠有針對(duì)性的結(jié)構(gòu)能夠表征這些信息。因此PNN通過(guò)加入Product layer完成了針對(duì)性的特征交叉,其product操作在不同特征域之間進(jìn)行特征組合。并定義了inner product,outer product等多種product的操作捕捉不同的交叉信息,增強(qiáng)模型表征不同數(shù)據(jù)模式的能力 。

論文:[PNN] Product-based Neural Networks for User Response Prediction (SJTU 2016)

四、Google Wide&Deep(2016年)——記憶能力和泛化能力的綜合權(quán)衡

圖5 Google Wide&Deep模型架構(gòu)圖

Google Wide&Deep模型的主要思路正如其名,把單輸入層的Wide部分和經(jīng)過(guò)多層感知機(jī)的Deep部分連接起來(lái),一起輸入最終的輸出層。其中Wide部分的主要作用是讓模型具有記憶性(Memorization),單層的Wide部分善于處理大量稀疏的id類特征,便于讓模型直接“記住”用戶的大量歷史信息;Deep部分的主要作用是讓模型具有“泛化性”(Generalization),利用DNN表達(dá)能力強(qiáng)的特點(diǎn),挖掘藏在特征后面的數(shù)據(jù)模式。最終利用LR輸出層將Wide部分和Deep部分組合起來(lái),形成統(tǒng)一的模型。Wide&Deep對(duì)之后模型的影響在于——大量深度學(xué)習(xí)模型采用了兩部分甚至多部分組合的形式,利用不同網(wǎng)絡(luò)結(jié)構(gòu)挖掘不同的信息后進(jìn)行組合,充分利用和結(jié)合了不同網(wǎng)絡(luò)結(jié)構(gòu)的特點(diǎn)。

論文:[Wide&Deep] Wide & Deep Learning for Recommender Systems (Google 2016)

五、華為 DeepFM (2017年)——用FM代替Wide部分

圖6 華為DeepFM模型架構(gòu)圖

在Wide&Deep之后,諸多模型延續(xù)了雙網(wǎng)絡(luò)組合的結(jié)構(gòu),DeepFM就是其中之一。DeepFM對(duì)Wide&Deep的改進(jìn)之處在于,它用FM替換掉了原來(lái)的Wide部分,加強(qiáng)了淺層網(wǎng)絡(luò)部分特征組合的能力。事實(shí)上,由于FM本身就是由一階部分和二階部分組成的,DeepFM相當(dāng)于同時(shí)組合了原Wide部分+二階特征交叉部分+Deep部分三種結(jié)構(gòu),無(wú)疑進(jìn)一步增強(qiáng)了模型的表達(dá)能力。

論文:[DeepFM] A Factorization-Machine based Neural Network for CTR Prediction (HIT-Huawei 2017)

六、Google Deep&Cross(2017年)——使用Cross網(wǎng)絡(luò)代替Wide部分

圖7 Google Deep Cross Network模型架構(gòu)圖

Google 2017年發(fā)表的Deep&Cross Network(DCN)同樣是對(duì)Wide&Deep的進(jìn)一步改進(jìn),主要的思路使用Cross網(wǎng)絡(luò)替代了原來(lái)的Wide部分。其中設(shè)計(jì)Cross網(wǎng)絡(luò)的基本動(dòng)機(jī)是為了增加特征之間的交互力度,使用多層cross layer對(duì)輸入向量進(jìn)行特征交叉。單層cross layer的基本操作是將cross layer的輸入向量xl與原始的輸入向量x0進(jìn)行交叉,并加入bias向量和原始xl輸入向量。DCN本質(zhì)上還是對(duì)Wide&Deep Wide部分表達(dá)能力不足的問(wèn)題進(jìn)行改進(jìn),與DeepFM的思路非常類似。

論文:[DCN] Deep & Cross Network for Ad Click Predictions (Stanford 2017)

七、NFM(2017年)——對(duì)Deep部分的改進(jìn)

圖8 NFM的深度網(wǎng)絡(luò)部分模型架構(gòu)圖

相對(duì)于DeepFM和DCN對(duì)于Wide&Deep Wide部分的改進(jìn),NFM可以看作是對(duì)Deep部分的改進(jìn)。NFM的全稱是Neural Factorization Machines,如果我們從深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu)的角度看待FM,F(xiàn)M也可以看作是由單層LR與二階特征交叉組成的Wide&Deep的架構(gòu),與經(jīng)典W&D的不同之處僅在于Deep部分變成了二階隱向量相乘的形式。再進(jìn)一步,NFM從修改FM二階部分的角度出發(fā),用一個(gè)帶Bi-interaction Pooling層的DNN替換了FM的特征交叉部分,形成了獨(dú)特的Wide&Deep架構(gòu)。其中Bi-interaction Pooling可以看作是不同特征embedding的element-wise product的形式。這也是NFM相比Google Wide&Deep的創(chuàng)新之處。

論文:[NFM] Neural Factorization Machines for Sparse Predictive Analytics (NUS 2017)

八、AFM(2017年)——引入Attention機(jī)制的FM

圖9 AFM模型架構(gòu)圖

AFM的全稱是Attentional Factorization Machines,通過(guò)前面的介紹我們很清楚的知道,F(xiàn)M其實(shí)就是經(jīng)典的Wide&Deep結(jié)構(gòu),其中Wide部分是FM的一階部分,Deep部分是FM的二階部分,而AFM顧名思義,就是引入Attention機(jī)制的FM,具體到模型結(jié)構(gòu)上,AFM其實(shí)是對(duì)FM的二階部分的每個(gè)交叉特征賦予了權(quán)重,這個(gè)權(quán)重控制了交叉特征對(duì)最后結(jié)果的影響,也就非常類似于NLP領(lǐng)域的注意力機(jī)制(Attention Mechanism)。為了訓(xùn)練Attention權(quán)重,AFM加入了Attention Net,利用Attention Net訓(xùn)練好Attention權(quán)重后,再反向作用于FM二階交叉特征之上,使FM獲得根據(jù)樣本特點(diǎn)調(diào)整特征權(quán)重的能力。

論文:[AFM] Attentional Factorization Machines - Learning the Weight of Feature Interactions via Attention Networks (ZJU 2017)

九、阿里DIN(2018年)——阿里加入Attention機(jī)制的深度學(xué)習(xí)網(wǎng)絡(luò)

圖10 阿里DIN模型與Base模型的架構(gòu)圖

AFM在FM中加入了Attention機(jī)制,2018年,阿里巴巴正式提出了融合了Attention機(jī)制的深度學(xué)習(xí)模型——Deep Interest Network。與AFM將Attention與FM結(jié)合不同的是,DIN將Attention機(jī)制作用于深度神經(jīng)網(wǎng)絡(luò),在模型的embedding layer和concatenate layer之間加入了attention unit,使模型能夠根據(jù)候選商品的不同,調(diào)整不同特征的權(quán)重。

論文:[DIN] Deep Interest Network for Click-Through Rate Prediction (Alibaba 2018)

十、阿里DIEN(2018年)——DIN的“進(jìn)化”

阿里DIEN模型架構(gòu)圖

DIEN的全稱為Deep Interest Evolution Network,它不僅是對(duì)DIN的進(jìn)一步“進(jìn)化”,更重要的是DIEN通過(guò)引入序列模型 AUGRU模擬了用戶興趣進(jìn)化的過(guò)程。具體來(lái)講模型的主要特點(diǎn)是在Embedding layer和Concatenate layer之間加入了生成興趣的Interest Extractor Layer和模擬興趣演化的Interest Evolving layer。其中Interest Extractor Layer使用了DIN的結(jié)構(gòu)抽取了每一個(gè)時(shí)間片內(nèi)用戶的興趣,Interest Evolving layer則利用序列模型AUGRU的結(jié)構(gòu)將不同時(shí)間的用戶興趣串聯(lián)起來(lái),形成興趣進(jìn)化的鏈條。最終再把當(dāng)前時(shí)刻的“興趣向量”輸入上層的多層全連接網(wǎng)絡(luò),與其他特征一起進(jìn)行最終的CTR預(yù)估。

論文:[DIEN] Deep Interest Evolution Network for Click-Through Rate Prediction (Alibaba 2019)

總結(jié)—— CTR模型的深度學(xué)習(xí)時(shí)代

文章的最后,我再次強(qiáng)調(diào)這張深度學(xué)習(xí)CTR模型演化圖,可以毫不夸張的說(shuō),這張演化圖包括了近年來(lái)所有主流的深度學(xué)習(xí)CTR模型的結(jié)構(gòu)特點(diǎn)以及它們之間的演化關(guān)系。希望能夠幫助推薦、廣告、搜索領(lǐng)域的算法工程師們建立起完整的知識(shí)體系,能夠駕輕就熟的針對(duì)業(yè)務(wù)特點(diǎn)應(yīng)用并比較不同模型的效果,從而用最適合當(dāng)前數(shù)據(jù)模式的模型驅(qū)動(dòng)公司業(yè)務(wù)。

結(jié)合自己的工作經(jīng)驗(yàn),關(guān)于深度學(xué)習(xí)模型我想再分享兩點(diǎn)內(nèi)容:

沒(méi)有銀彈。從來(lái)沒(méi)有一個(gè)深度學(xué)習(xí)模型能夠在所有數(shù)據(jù)集上都表現(xiàn)最優(yōu),特別是推薦、廣告領(lǐng)域,各家的數(shù)據(jù)集,數(shù)據(jù)pattern、業(yè)務(wù)領(lǐng)域差異巨大,不存在能夠解決一切問(wèn)題的“銀彈”模型。比如,阿里的DIEN對(duì)于數(shù)據(jù)質(zhì)量、用戶整個(gè)life cycle行為完整性的要求很高,如果在某些DSP場(chǎng)景下運(yùn)用這個(gè)模型,預(yù)計(jì)不會(huì)收到良好的效果。再比如Google 的Deep&Cross,我們也要考慮自己的數(shù)據(jù)集需不需要如此復(fù)雜的特征交叉方式,在一些百萬(wàn)量級(jí)的數(shù)據(jù)集上,也許淺層神經(jīng)網(wǎng)絡(luò)的表現(xiàn)更好。

算法工程師永遠(yuǎn)要在理想和現(xiàn)實(shí)間做trade off。有一種思想要避免,就是我為了要上某個(gè)模型就要強(qiáng)轉(zhuǎn)團(tuán)隊(duì)的技術(shù)棧,強(qiáng)買某些硬件設(shè)備。模型的更新過(guò)程一定是迭代的,一定是從簡(jiǎn)單到復(fù)雜的,一定是你證明了某個(gè)模型是work的,然后在此基礎(chǔ)上做改進(jìn)的。這也是我們要熟悉所有模型演化關(guān)系的原因。

就在我們熟悉這些已有模型的時(shí)候,深度學(xué)習(xí)CTR模型的發(fā)展從沒(méi)有停下它的腳步。從阿里的多模態(tài)、多目標(biāo)的深度學(xué)習(xí)模型,到Y(jié)ouTube基于RNN等序列模型的推薦系統(tǒng),再到Airbnb使用Embedding技術(shù)構(gòu)建的搜索推薦模型,深度學(xué)習(xí)的應(yīng)用不僅越來(lái)越廣泛,而且得到了越來(lái)越快的進(jìn)化。在今后的專欄文章中,我們不僅會(huì)更深入的介紹深度學(xué)習(xí)CTR模型的知識(shí),而且會(huì)更加關(guān)注深度學(xué)習(xí)CTR模型的應(yīng)用與落地,期待與大家一同學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6657

    瀏覽量

    105293
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11219

    瀏覽量

    105293
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5550

    瀏覽量

    122377

原文標(biāo)題:谷歌、阿里們的殺手锏:三大領(lǐng)域,十大深度學(xué)習(xí)CTR模型演化圖譜

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    目前主流深度學(xué)習(xí)算法模型和應(yīng)用案例

    深度學(xué)習(xí)在科學(xué)計(jì)算中獲得了廣泛的普及,其算法被廣泛用于解決復(fù)雜問(wèn)題的行業(yè)。所有深度學(xué)習(xí)算法都使用不同類型的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 01-03 10:28 ?2666次閱讀
    目前<b class='flag-5'>主流</b>的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>算法<b class='flag-5'>模型</b>和應(yīng)用案例

    2017全國(guó)深度學(xué)習(xí)技術(shù)應(yīng)用大會(huì)

    科研人員對(duì)該技術(shù)的深入了解,中國(guó)電子學(xué)會(huì)擬于20173月25-26日在北京舉辦“2017全國(guó)深度學(xué)習(xí)技術(shù)應(yīng)用大會(huì)”,會(huì)議將邀請(qǐng)國(guó)內(nèi)知名專家就相關(guān)內(nèi)容做特邀專家報(bào)告,活動(dòng)家提供2017
    發(fā)表于 03-22 17:16

    Nanopi深度學(xué)習(xí)之路(1)深度學(xué)習(xí)框架分析

    著手,使用Nanopi2部署已訓(xùn)練好的檢測(cè)模型,例如硅谷電視劇的 Not Hotdog 檢測(cè)器應(yīng)用,會(huì)在復(fù)雜的深度學(xué)習(xí)歷程中有些成就感。 目前已有幾十種流行的深度
    發(fā)表于 06-04 22:32

    主流深度學(xué)習(xí)框架比較

    DL:主流深度學(xué)習(xí)框架多個(gè)方向PK比較
    發(fā)表于 12-26 11:10

    深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域圖像應(yīng)用總結(jié) 精選資料下載

    簡(jiǎn)單的回顧的話,2006Geoffrey Hinton的論文點(diǎn)燃了“這把火”,現(xiàn)在已經(jīng)有不少人開始潑“冷水”了,主要是AI泡沫太大,而且深度學(xué)習(xí)不是包治百病的藥方。計(jì)算機(jī)視覺(jué)不是
    發(fā)表于 07-28 08:22

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來(lái)了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    的 DNN,例如單精度浮點(diǎn)數(shù),往往會(huì)出現(xiàn)性能下降需要高級(jí)專業(yè)知識(shí)來(lái)創(chuàng)建具有高推理準(zhǔn)確性和低數(shù)據(jù)準(zhǔn)確性的模型有很多情況學(xué)習(xí)成為處理時(shí)間的瓶頸而不是推理,但用FPGA很難解決(幾乎連研究水平都沒(méi)有)近
    發(fā)表于 02-17 16:56

    實(shí)例分析深度學(xué)習(xí)在廣告搜索中的應(yīng)用

    。重點(diǎn)講解了如何實(shí)現(xiàn)基于多模型融合的CTR預(yù)估,以及模型效果如何評(píng)估。 搜索引擎廣告是用戶獲取網(wǎng)絡(luò)信息的渠道之一,同時(shí)也是互聯(lián)網(wǎng)收入的來(lái)源之一,通過(guò)傳統(tǒng)的淺層模型對(duì)搜索廣告進(jìn)行預(yù)估排序
    發(fā)表于 10-09 17:59 ?0次下載
    實(shí)例分析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在廣告搜索中的應(yīng)用

    模型驅(qū)動(dòng)深度學(xué)習(xí)的標(biāo)準(zhǔn)流程與學(xué)習(xí)方法解析

    模型驅(qū)動(dòng)的深度學(xué)習(xí)方法近年來(lái),深度學(xué)習(xí)在人工智能領(lǐng)域一系列困難問(wèn)題上取得了突破性成功應(yīng)用。
    的頭像 發(fā)表于 01-24 11:30 ?5076次閱讀
    <b class='flag-5'>模型</b>驅(qū)動(dòng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的標(biāo)準(zhǔn)流程與<b class='flag-5'>學(xué)習(xí)</b>方法解析

    Scale API支持所有主流傳感器的高級(jí)3D感知

    Scale API最近推出傳感器融合標(biāo)注API(Sensor Fusion Annotation API),能夠支持所有主流傳感器的高級(jí)3D感知,包括激光雷達(dá)(30米內(nèi)稠密3D場(chǎng)景理解)、相機(jī)(70
    發(fā)表于 03-11 01:37 ?1580次閱讀

    阿里深度學(xué)習(xí):在深度學(xué)習(xí)CTR預(yù)估核心問(wèn)題上的應(yīng)用進(jìn)展

    前面介紹了經(jīng)典的比較標(biāo)準(zhǔn)化的深度學(xué)習(xí)在廣告里面的應(yīng)用,接下來(lái)我們的方向在互聯(lián)網(wǎng)數(shù)據(jù)中,怎么樣能夠通過(guò)對(duì)用戶行為的洞察做更好的深度學(xué)習(xí)模型。
    的頭像 發(fā)表于 04-10 14:19 ?6380次閱讀
    阿里<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>:在<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>CTR</b>預(yù)估核心問(wèn)題上的應(yīng)用進(jìn)展

    模型為什么是深度學(xué)習(xí)的未來(lái)?

    與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型則是通過(guò)使用大量的模型
    的頭像 發(fā)表于 02-16 11:32 ?2292次閱讀

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來(lái)得到了廣泛的應(yīng)用,從圖像識(shí)別、語(yǔ)音識(shí)別到自然語(yǔ)言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個(gè)高效準(zhǔn)確的深度學(xué)
    的頭像 發(fā)表于 12-07 12:38 ?1384次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>如何訓(xùn)練出好的<b class='flag-5'>模型</b>

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?3560次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?2496次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品