0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解多任務(wù)學(xué)習(xí)的方法與現(xiàn)實(shí)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:煉丹筆記 ? 作者:十方 ? 2021-04-09 10:03 ? 次閱讀

大家在做模型的時(shí)候,往往關(guān)注一個(gè)特定指標(biāo)的優(yōu)化,如做點(diǎn)擊率模型,就優(yōu)化AUC,做二分類(lèi)模型,就優(yōu)化f-score。然而,這樣忽視了模型通過(guò)學(xué)習(xí)其他任務(wù)所能帶來(lái)的信息增益和效果上的提升。通過(guò)在不同的任務(wù)中共享向量表達(dá),我們能夠讓模型在各個(gè)任務(wù)上的泛化效果大大提升。這個(gè)方法就是我們今天要談?wù)摰闹黝}-多任務(wù)學(xué)習(xí)(MTL)。

所以如何判定是不是多任務(wù)學(xué)習(xí)呢?不需要看模型結(jié)構(gòu)全貌,只需要看下loss函數(shù)即可,如果loss包含很多項(xiàng),每一項(xiàng)都是不同目標(biāo),這個(gè)模型就是在多任務(wù)學(xué)習(xí)了。有時(shí),雖然你的模型僅僅是優(yōu)化一個(gè)目標(biāo),同樣可以通過(guò)多任務(wù)學(xué)習(xí),提升該模型的泛化效果。比如點(diǎn)擊率模型,我們可以通過(guò)添加轉(zhuǎn)化樣本,構(gòu)建輔助loss(預(yù)估轉(zhuǎn)化率),從而提升點(diǎn)擊率模型的泛化性。

為什么多任務(wù)學(xué)習(xí)會(huì)有效?舉個(gè)例子,一個(gè)模型已經(jīng)學(xué)會(huì)了區(qū)分顏色,如果直接把這個(gè)模型用于蔬菜和肉類(lèi)的分類(lèi)任務(wù)呢?模型很容易學(xué)到綠色的是蔬菜,其他更大概率是肉。正則化算不算多任務(wù)?正則化的優(yōu)化的loss不僅有本身的回歸/分類(lèi)產(chǎn)生的loss,還有l(wèi)1/l2產(chǎn)生的loss,因?yàn)槲覀冋J(rèn)為“正確且不過(guò)擬合”的模型的參數(shù)應(yīng)該稀疏,且不易過(guò)大,要把這種假設(shè)注入到模型中去學(xué)習(xí),就產(chǎn)生了正則化項(xiàng),本質(zhì)也是一個(gè)額外的任務(wù)。

MTL兩個(gè)方法

第一種是hard parameter sharing,如下圖所示:

f855993c-98d3-11eb-8b86-12bb97331649.png

比較簡(jiǎn)單,前幾層dnn為各個(gè)任務(wù)共享,后面分離出不同任務(wù)的layers。這種方法有效降低了過(guò)擬合的風(fēng)險(xiǎn): 模型同時(shí)學(xué)習(xí)的任務(wù)數(shù)越多,模型在共享層就要學(xué)到一個(gè)通用的嵌入式表達(dá)使得每個(gè)任務(wù)都表現(xiàn)較好,從而降低過(guò)擬合的風(fēng)險(xiǎn)。

第二種是soft parameter sharing,如下圖所示:

f86393b6-98d3-11eb-8b86-12bb97331649.png

在這種方法下,每個(gè)任務(wù)都有自己的模型,有自己的參數(shù),但是對(duì)不同模型之間的參數(shù)是有限制的,不同模型的參數(shù)之間必須相似,由此會(huì)有個(gè)distance描述參數(shù)之間的相似度,會(huì)作為額外的任務(wù)加入到模型的學(xué)習(xí)中,類(lèi)似正則化項(xiàng)。

多任務(wù)學(xué)習(xí)能提效,主要是由于以下幾點(diǎn)原因:

隱式數(shù)據(jù)增強(qiáng):每個(gè)任務(wù)都有自己的樣本,使用多任務(wù)學(xué)習(xí)的話(huà),模型的樣本量會(huì)提升很多。而且數(shù)據(jù)都會(huì)有噪聲,如果單學(xué)A任務(wù),模型會(huì)把A數(shù)據(jù)的噪聲也學(xué)進(jìn)去,如果是多任務(wù)學(xué)習(xí),模型因?yàn)橐驜任務(wù)也要學(xué)習(xí)好,就會(huì)忽視掉A任務(wù)的噪聲,同理,模型學(xué)A的時(shí)候也會(huì)忽視掉B任務(wù)的噪聲,因此多任務(wù)學(xué)習(xí)可以學(xué)到一個(gè)更精確的嵌入表達(dá)。

注意力聚焦:如果任務(wù)的數(shù)據(jù)噪聲非常多,數(shù)據(jù)很少且非常高維,模型對(duì)相關(guān)特征和非相關(guān)特征就無(wú)法區(qū)分。多任務(wù)學(xué)習(xí)可以幫助模型聚焦到有用的特征上,因?yàn)椴煌蝿?wù)都會(huì)反應(yīng)特征與任務(wù)的相關(guān)性。

特征信息竊?。河行┨卣髟谌蝿?wù)B中容易學(xué)習(xí),在任務(wù)A中較難學(xué)習(xí),主要原因是任務(wù)A與這些特征的交互更為復(fù)雜,且對(duì)于任務(wù)A來(lái)說(shuō)其他特征可能會(huì)阻礙部分特征的學(xué)習(xí),因此通過(guò)多任務(wù)學(xué)習(xí),模型可以高效的學(xué)習(xí)每一個(gè)重要的特征。

表達(dá)偏差:MTL使模型學(xué)到所有任務(wù)都偏好的向量表示。這也將有助于該模型推廣到未來(lái)的新任務(wù),因?yàn)榧僭O(shè)空間對(duì)于足夠多的訓(xùn)練任務(wù)表現(xiàn)良好,對(duì)于學(xué)習(xí)新任務(wù)也表現(xiàn)良好。

正則化:對(duì)于一個(gè)任務(wù)而言,其他任務(wù)的學(xué)習(xí)都會(huì)對(duì)該任務(wù)有正則化效果。

多任務(wù)深度學(xué)習(xí)模型

Deep Relationship Networks:從下圖,我們可以看到卷積層前幾層是預(yù)訓(xùn)練好的,后幾層是共享參數(shù)的,用于學(xué)習(xí)不同任務(wù)之間的聯(lián)系,最后獨(dú)立的dnn模塊用于學(xué)習(xí)各個(gè)任務(wù)。

f88c2d4e-98d3-11eb-8b86-12bb97331649.png

Fully-Adaptive Feature Sharing:從另一個(gè)極端開(kāi)始,下圖是一種自底向上的方法,從一個(gè)簡(jiǎn)單的網(wǎng)絡(luò)開(kāi)始,并在訓(xùn)練過(guò)程中利用相似任務(wù)的分組準(zhǔn)則貪婪地動(dòng)態(tài)擴(kuò)展網(wǎng)絡(luò)。貪婪方法可能無(wú)法發(fā)現(xiàn)一個(gè)全局最優(yōu)的模型,而且只將每個(gè)分支分配給一個(gè)任務(wù)使得模型無(wú)法學(xué)習(xí)任務(wù)之間復(fù)雜的交互。

f89bdcf8-98d3-11eb-8b86-12bb97331649.png

cross-stitch Networks: 如上文中所談到的soft parameter sharing,該模型是兩個(gè)完全分離的模型結(jié)構(gòu),該結(jié)構(gòu)用了cross-stitch單元去讓分離的模型學(xué)到不同任務(wù)之間的關(guān)系,如下圖所示,通過(guò)在pooling層和全連接層后分別增加cross-stitch對(duì)前面學(xué)到的特征表達(dá)進(jìn)行線性融合,再輸出到后面的卷積/全連接模塊。

f8b228dc-98d3-11eb-8b86-12bb97331649.png

A Joint Many-Task Model:如下圖所示,預(yù)定義的層級(jí)結(jié)構(gòu)由各個(gè)NLP任務(wù)組成,低層級(jí)的結(jié)構(gòu)通過(guò)詞級(jí)別的任務(wù)學(xué)習(xí),如此行分析,組塊標(biāo)注等。中間層級(jí)的結(jié)構(gòu)通過(guò)句法分析級(jí)別的任務(wù)學(xué)習(xí),如句法依存。高層級(jí)的結(jié)構(gòu)通過(guò)語(yǔ)義級(jí)別的任務(wù)學(xué)習(xí)。

f8cabf14-98d3-11eb-8b86-12bb97331649.png

weighting losses with uncertainty:考慮到不同任務(wù)之間相關(guān)度的不確定性,基于高斯似然最大化的多任務(wù)損失函數(shù),調(diào)整每個(gè)任務(wù)在成本函數(shù)中的相對(duì)權(quán)重。結(jié)構(gòu)如下圖所示,對(duì)像素深度回歸、語(yǔ)義和實(shí)例分割。

f8f02e34-98d3-11eb-8b86-12bb97331649.png

sluice networks: 下圖模型概括了基于深度學(xué)習(xí)的MTL方法,如硬參數(shù)共享和cross-stitch網(wǎng)絡(luò)、塊稀疏正則化方法,以及最近創(chuàng)建任務(wù)層次結(jié)構(gòu)的NLP方法。該模型能夠?qū)W習(xí)到哪些層和子空間應(yīng)該被共享,以及網(wǎng)絡(luò)在哪些層學(xué)習(xí)了輸入序列的最佳表示。

f90a94e0-98d3-11eb-8b86-12bb97331649.png

ESSM: 在電商場(chǎng)景下,轉(zhuǎn)化是指從點(diǎn)擊到購(gòu)買(mǎi)。在CVR預(yù)估時(shí)候,我們往往會(huì)遇到兩個(gè)問(wèn)題:樣本偏差和數(shù)據(jù)系數(shù)問(wèn)題。樣本偏差是指訓(xùn)練和測(cè)試集樣本不同,拿電商舉例,模型用點(diǎn)擊的數(shù)據(jù)來(lái)訓(xùn)練,而預(yù)估的卻是整個(gè)樣本空間。數(shù)據(jù)稀疏問(wèn)題就更嚴(yán)重了,本身點(diǎn)擊樣本就很少,轉(zhuǎn)化就更少了,所以可以借鑒多任務(wù)學(xué)習(xí)的思路,引入輔助學(xué)習(xí)任務(wù),擬合pCTR和pCTCVR(pCTCVR = pCTR * pCVR),如下圖所示:

f9222772-98d3-11eb-8b86-12bb97331649.png

對(duì)于pCTR來(lái)說(shuō),可將有點(diǎn)擊行為的曝光事件作為正樣本,沒(méi)有點(diǎn)擊行為的曝光事件作為負(fù)樣本

對(duì)于pCTCVR來(lái)說(shuō),可將同時(shí)有點(diǎn)擊行為和購(gòu)買(mǎi)行為的曝光事件作為正樣本,其他作為負(fù)樣本

對(duì)于pCVR來(lái)說(shuō),只有曝光沒(méi)有點(diǎn)擊的樣本中的梯度也能回傳到main task的網(wǎng)絡(luò)中

另外這兩個(gè)子網(wǎng)絡(luò)的embedding層是共享的,由于CTR任務(wù)的訓(xùn)練樣本量要遠(yuǎn)超過(guò)CVR任務(wù)的訓(xùn)練樣本量,從而能夠緩解訓(xùn)練數(shù)據(jù)稀疏性問(wèn)題。

DUPN:模型分為行為序列層、Embedding層、LSTM層、Attention層、下游多任務(wù)層(CTR、LTR、時(shí)尚達(dá)人關(guān)注預(yù)估、用戶(hù)購(gòu)買(mǎi)力度量)。如下圖所示

f988fc86-98d3-11eb-8b86-12bb97331649.png

f9c070b2-98d3-11eb-8b86-12bb97331649.png

f9cefc54-98d3-11eb-8b86-12bb97331649.png

MMOE: 如下圖所示,模型(a)最常見(jiàn),共享了底層網(wǎng)絡(luò),上面分別接不同任務(wù)的全連接層。模型(b)認(rèn)為不同的專(zhuān)家可以從相同的輸入中提取出不同的特征,由一個(gè)Gate(類(lèi)似) attention結(jié)構(gòu),把專(zhuān)家提取出的特征篩選出各個(gè)task最相關(guān)的特征,最后分別接不同任務(wù)的全連接層。MMOE的思想就是對(duì)于不同任務(wù),需要不同專(zhuān)家提取出的信息,因此每個(gè)任務(wù)都需要一個(gè)獨(dú)立的gate。

fa157c56-98d3-11eb-8b86-12bb97331649.png

PLE:即使通過(guò)MMoE這種方式減輕負(fù)遷移現(xiàn)象,蹺蹺板現(xiàn)象仍然是廣泛存在的(蹺蹺板現(xiàn)象指多任務(wù)之間相關(guān)性不強(qiáng)時(shí),信息共享就會(huì)影響模型效果,會(huì)出現(xiàn)一個(gè)任務(wù)泛化性變強(qiáng),另一個(gè)變?nèi)醯默F(xiàn)象)。PLE的本質(zhì)是MMOE的改進(jìn)版本,有些expert是任務(wù)專(zhuān)屬,有些expert是共享的,如下圖CGC架構(gòu),對(duì)于任務(wù)A而言,通過(guò)A的gate把A的expert和共享的expert進(jìn)行融合,去學(xué)習(xí)A。

fa58e4dc-98d3-11eb-8b86-12bb97331649.png

最終PLE結(jié)構(gòu)如下,融合了定制的expert和MMOE,堆疊多層CGC架構(gòu),如下所示:

fa8c8c92-98d3-11eb-8b86-12bb97331649.png

參考文獻(xiàn)

1. An overview of multi-task learning in deep neural networks. Retireved from https://arxiv.org/pdf/1706.05098.pdf

2. Long, M., & Wang, J. (2015)。 Learning Multiple Tasks with Deep Relationship Networks. arXiv Preprint arXiv:1506.02117. Retrieved from http://arxiv.org/abs/1506.02117

3. Lu, Y., Kumar, A., Zhai, S., Cheng, Y., Javidi, T., & Feris, R. (2016)。 Fully-adaptive Feature Sharing in Multi-Task Networks with Applications in Person Attribute Classification. Retrieved from http://arxiv.org/abs/1611.05377

4. Misra, I., Shrivastava, A., Gupta, A., & Hebert, M. (2016)。 Cross-stitch Networks for Multi-task Learning. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. https://doi.org/10.1109/CVPR.2016.433

5. Hashimoto, K., Xiong, C., Tsuruoka, Y., & Socher, R. (2016)。 A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks. arXiv Preprint arXiv:1611.01587. Retrieved from http://arxiv.org/abs/1611.01587

6. Yang, Y., & Hospedales, T. (2017)。 Deep Multi-task Representation Learning: A Tensor Factorisation Approach. In ICLR 2017. https://doi.org/10.1002/joe.20070

7. Ruder, S., Bingel, J., Augenstein, I., & S?gaard, A. (2017)。 Sluice networks: Learning what to share between loosely related tasks. Retrieved from http://arxiv.org/abs/1705.08142

8. Entire Space Multi-Task Model: An Effective Approach forEstimating Post-Click Conversion Rate. Retrieved from: https://arxiv.org/pdf/1804.07931.pdf

9. Perceive Your Users in Depth: Learning Universal User Representations from Multiple E-commerce Tasks. Retrieved from: https://arxiv.org/pdf/1805.10727.pdf
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 多任務(wù)
    +關(guān)注

    關(guān)注

    0

    文章

    18

    瀏覽量

    9081
  • AUC
    AUC
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    6663
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121372

原文標(biāo)題:一文"看透"多任務(wù)學(xué)習(xí)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    Tuning)和Prompt-Tuning:通過(guò)在輸入序列中添加特定提示來(lái)引導(dǎo)模型生成期望的輸出,簡(jiǎn)單有效,適用于多種任務(wù)。P-Tuning v1和P-Tuning v2:基于多任務(wù)學(xué)習(xí)的微調(diào)
    發(fā)表于 01-14 16:51

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開(kāi)發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問(wèn)題上的開(kāi)發(fā)和測(cè)試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?313次閱讀
    傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?240次閱讀
    Pytorch深度<b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的<b class='flag-5'>方法</b>

    機(jī)器學(xué)習(xí)中的數(shù)據(jù)分割方法

    在機(jī)器學(xué)習(xí)中,數(shù)據(jù)分割是一項(xiàng)至關(guān)重要的任務(wù),它直接影響到模型的訓(xùn)練效果、泛化能力以及最終的性能評(píng)估。本文將從多個(gè)方面詳細(xì)探討機(jī)器學(xué)習(xí)中數(shù)據(jù)分割的方法,包括常見(jiàn)的分割
    的頭像 發(fā)表于 07-10 16:10 ?2037次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類(lèi)方法

    時(shí)間序列分類(lèi)(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動(dòng)識(shí)別、系統(tǒng)監(jiān)測(cè)、金融預(yù)測(cè)、醫(yī)療診斷等多個(gè)領(lǐng)域。隨著深度學(xué)
    的頭像 發(fā)表于 07-09 15:54 ?1086次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、聚類(lèi)算法等,并分析它們的原理、應(yīng)用場(chǎng)景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?857次閱讀

    遷移學(xué)習(xí)的基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,其核心思想是利用在一個(gè)任務(wù)或領(lǐng)域中學(xué)到的知識(shí)來(lái)加速或改進(jìn)另一個(gè)相關(guān)任務(wù)或領(lǐng)域的
    的頭像 發(fā)表于 07-04 17:30 ?1866次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個(gè)重要分支,其目標(biāo)是通過(guò)讓計(jì)算機(jī)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無(wú)需進(jìn)行明確的編程。本文將深入解讀幾種常見(jiàn)的機(jī)器學(xué)習(xí)算法原理,包括線性回歸、邏輯回歸、支持向量機(jī)(SVM)、決策樹(shù)和K近鄰(KNN)算法,探
    的頭像 發(fā)表于 07-02 11:25 ?1251次閱讀

    esp32-c3工程中怎么創(chuàng)建多個(gè)freertos任務(wù)?

    ESP-IDF中給出的ESP32-C3的例程都只有一個(gè)任務(wù)。即void app_main() 而且沒(méi)看見(jiàn)這個(gè)app_main任務(wù)是在哪里被創(chuàng)建的??? 如果我想建一個(gè)ESP32-C3的多任務(wù)的工程該
    發(fā)表于 06-27 06:37

    鋰電池充放電測(cè)試方法詳解

    為了確保鋰電池在實(shí)際使用中的性能和安全性,一個(gè)重要的環(huán)節(jié)就是對(duì)電池進(jìn)行充放電測(cè)試。這些測(cè)試能夠評(píng)估電池的容量、功率、穩(wěn)定性及其長(zhǎng)期的可靠性。本文將詳解不同的鋰電池充放電測(cè)試方法,以及如何正確執(zhí)行這些測(cè)試程序。
    的頭像 發(fā)表于 06-13 09:21 ?3475次閱讀
    鋰電池充放電測(cè)試<b class='flag-5'>方法</b><b class='flag-5'>詳解</b>

    【大語(yǔ)言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    的具體需求,這通常需要較少量的標(biāo)注數(shù)據(jù)。 多任務(wù)學(xué)習(xí)和遷移學(xué)習(xí): LLMs利用在預(yù)訓(xùn)練中積累的知識(shí),可以通過(guò)遷移學(xué)習(xí)在相關(guān)任務(wù)上快速適應(yīng)
    發(fā)表于 05-05 10:56

    學(xué)習(xí)平板電腦主板定制_基于展銳T610/T618平臺(tái)解決方案

    學(xué)習(xí)平板電腦主板方案基于紫光展銳T610強(qiáng)芯真八核處理器,并采用先進(jìn)的12納米工藝,為用戶(hù)提供了高速運(yùn)轉(zhuǎn)、流暢無(wú)卡頓、秒開(kāi)秒反應(yīng)的學(xué)習(xí)體驗(yàn)。不論是應(yīng)對(duì)日常學(xué)習(xí)任務(wù),
    的頭像 發(fā)表于 04-18 19:58 ?529次閱讀
    <b class='flag-5'>學(xué)習(xí)</b>平板電腦主板定制_基于展銳T610/T618平臺(tái)解決方案

    手機(jī)信號(hào)屏蔽器:功能、原理及使用方法詳解

    深圳特信電子|手機(jī)信號(hào)屏蔽器:功能、原理及使用方法詳解
    的頭像 發(fā)表于 04-01 09:09 ?3348次閱讀

    EMI電磁干擾:原理、影響及解決方法詳解?

    EMI電磁干擾:原理、影響及解決方法詳解?|深圳比創(chuàng)達(dá)電子
    的頭像 發(fā)表于 03-21 10:02 ?921次閱讀
    EMI電磁干擾:原理、影響及解決<b class='flag-5'>方法</b><b class='flag-5'>詳解</b>?

    verilog中函數(shù)和任務(wù)對(duì)比

    對(duì)比,方便學(xué)習(xí)理解。 比較 函數(shù) 任務(wù) 輸入 函數(shù)至少需要包含一個(gè)輸入,端口類(lèi)型不能包含inout類(lèi)型 任務(wù)可以沒(méi)有或者有多個(gè)輸入,且端口聲明可以為inout類(lèi)型 輸出 函數(shù)無(wú)輸出 任務(wù)
    的頭像 發(fā)表于 02-12 18:43 ?906次閱讀