0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

自步對比學習框架及混合記憶模型

新機器視覺 ? 來源:新機器視覺 ? 作者:新機器視覺 ? 2020-11-03 09:33 ? 次閱讀

本文介紹一篇我們發(fā)表于NeurIPS-2020的論文《Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID》,該工作提出自步對比學習框架及混合記憶模型,旨在解決無監(jiān)督及領域自適應表征學習中數(shù)據(jù)無法被充分挖掘的問題。

這項工作在無監(jiān)督的目標重識別任務上顯著地超越最先進技術高達16.7%;領域自適應的目標重識別任務中,在無監(jiān)督的目標域上超越最先進技術高達5.0%,同時可以提升有監(jiān)督的源域性能高達6.6%。實驗結果充分證明其廣泛的應用場景及有效性:可被應用于解決無監(jiān)督學習任務,也可被應用于利用額外無監(jiān)督數(shù)據(jù)提升有監(jiān)督學習的任務。代碼和模型均已公開,方法也被收錄于OpenUnReID代碼庫。

背景簡介

近年來,在無監(jiān)督學習的浪潮下,無監(jiān)督及領域自適應的目標重識別任務也逐漸受到大家的關注,在剛剛過去的ECCV2020中這個方向所發(fā)表的論文就有十余篇。

目標重識別(Object Re-ID),包括行人重識別、車輛重識別等,旨在跨攝像機檢索和追蹤目標人物或車輛。重識別任務的關鍵之一是學習具有辨識性的特征,并在多樣的條件變化下保持魯棒性。在如今深度學習盛行的時代,大規(guī)模數(shù)據(jù)集推動了目標重識別任務的快速發(fā)展,然而,領域差異及標注數(shù)據(jù)的高消耗等都成為了部署重識別算法中無法忽視的問題。

領域自適應的目標重識別(Domain Adaptive Object Re-ID)旨在通過源域有標注的數(shù)據(jù)和目標域無標注的數(shù)據(jù)進行訓練,從而在目標域上取得較好的性能。這里區(qū)分一下一般分類任務上的領域自適應,分類任務上的兩個領域的類別往往有部分或者全部的重疊,而重識別任務上的兩個領域,我們一般認為類別完全沒有重復。

這是由于領域自適應的重識別任務一般應用在:將城市A訓練的重識別模型應用于城市B、將虛擬合成數(shù)據(jù)訓練的重識別模型應用于真實世界的場景等。在這些場景中,兩個領域間的類別一般很難存在重復。

無監(jiān)督的目標重識別(Unsupervised Object Re-ID)與上述領域自適應重識別非常相似,問題設置上的唯一區(qū)別在于沒有有標簽的源域數(shù)據(jù)。這里著重區(qū)分一下目前很受關注的無監(jiān)督預訓練(Unsupervised Pre-training)任務,存在兩點主要區(qū)別: 1)無監(jiān)督預訓練任務從網(wǎng)絡隨機初始化開始,無監(jiān)督重識別任務從預訓練好的網(wǎng)絡開始; 2)無監(jiān)督預訓練的網(wǎng)絡需要經(jīng)過fine-tune才可以應用在下游任務上,而無監(jiān)督重識別任務本身可以看作一個無監(jiān)督的下游任務,經(jīng)過訓練的網(wǎng)絡可直接部署。 領域自適應重識別任務的研究歷史較無監(jiān)督重識別任務而言較長一些,但本質(zhì)上這兩項任務是非常相似的。正如上文所述,領域自適應重識別任務相較于無監(jiān)督重識別任務而言,只是在問題設置上多出了有標簽的源域數(shù)據(jù)。 所以,大部分的算法也都可以通用,因為很多領域自適應重識別算法只需要去除源域預訓練的步驟,即可應用于無監(jiān)督重識別任務上。該論文所介紹的方法在這兩項任務上也都取得了很不錯的結果。 下面,將先以領域自適應重識別任務為例介紹方法,再講解如何應用于無監(jiān)督重識別任務。

問題與動機

解決領域自適應重識別任務的算法可以分為兩類,偽標簽類和域轉(zhuǎn)換類,目前偽標簽類可以獲得更好的性能,而偽標簽類中的基于聚類的偽標簽法較為有效,所以本文所基于的baseline是基于聚類的偽標簽算法。

目前大部分基于聚類的偽標簽算法(如SSG、MMT等)在訓練上分為兩步:

第一步,在源域上利用有標簽的源域數(shù)據(jù)進行有監(jiān)督的預訓練;

第二步,在預訓練的模型基礎上,利用目標域無標簽的數(shù)據(jù)及其聚類產(chǎn)生的偽標簽進行fine-tune。

這樣的算法流程目前已經(jīng)可以獲得相對令人滿意的結果,但他們?nèi)匀淮嬖趦牲c缺陷:

1)在第二步的目標域訓練中忽略了源域數(shù)據(jù)(僅用于預訓練),但我們認為源域的數(shù)據(jù)由于具有真實準確的標簽,所以應當被充分利用;

2)在基于聚類的偽標簽法中,往往沒有用到全部的目標域無標簽數(shù)據(jù),因為基于密度的聚類(如DBSCAN等)本身會產(chǎn)生聚類離群值(outlier),這些聚類離群值由于無法分配偽標簽,所以被丟棄,不用于訓練。

但我們認為,這樣的聚類離群值往往正是那些值得挖掘的困難訓練樣本。尤其在訓練的早期,往往存在大量的聚類離群值,若簡單丟棄它們,訓練樣本將大幅減少。

所以如何合理地挖掘所有可用的信息是提升性能的關鍵。如上圖所示,我們提出在訓練中使用全部的源域數(shù)據(jù)和目標域數(shù)據(jù),并利用一個混合記憶模型(Hybrid Memory)來提供監(jiān)督: 對于源域數(shù)據(jù)而言,監(jiān)督是他們真實的標簽; 對于目標域聚類內(nèi)的數(shù)據(jù)而言,監(jiān)督是他們的聚類標簽; 對于目標域的聚類離群值而言,他們每張圖本身被看作一個單獨的類,所以監(jiān)督是實例級的標簽。 我們將所有的源域類、目標域聚類、目標域每個聚類離群值實例看成平等的類別。

自步對比學習框架

以下是我們所提出自步對比學習(Self-paced Contrastive Learning)框架,包括一個圖像特征編碼器(Encoder)和一個混合記憶模型(Hybrid Memory)。 核心是混合記憶模型在動態(tài)變化的類別下所提供的連續(xù)有效的監(jiān)督,以統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)的形式監(jiān)督網(wǎng)絡更新,實現(xiàn)起來非常容易,且即插即用。下文將具體介紹。

統(tǒng)一對比損失函數(shù)

類別原型(Class Prototype)可以理解為該類別中較為有標志的特征,例如無偏分類器中的權重(Weights)。在這里,我們 使用源域真實類別的類質(zhì)心(Class Centroids)作為源域數(shù)據(jù)的類別原型{w}, 使用目標域聚類的質(zhì)心(Cluster Centroids)作為聚類內(nèi)的目標域數(shù)據(jù)的類別原型{c}, 使用目標域聚類離群值的實例特征(Outlier Instance Features)作為無聚類的目標域數(shù)據(jù)的類別原型{v}。 我們所提出的混合記憶模型可以實時提供這三種類別原型以作訓練監(jiān)督,后文將具體介紹這三種類別原型的更新過程。

對于每一組輸入的mini-batch,同時包含源域數(shù)據(jù)和目標域數(shù)據(jù)(我們在編碼器中使用Domain-specific BNs來消除不同領域數(shù)據(jù)間的域差異),他們需要與上述三種類別原型進行比較。所以我們提出統(tǒng)一對比損失函數(shù)(Unified Contrastive Learning):

該損失函數(shù)可以使得每個訓練樣本靠近它所屬于的類別(包含源域真實類、目標域聚類、目標域無聚類實例),而遠離其他類別。

舉例來說,對于一個來自源域的樣本,其對應的正面原型(Positive Prototype)則是它真實類別所對應的質(zhì)心(Class Centroids);對于一個來自目標域的樣本,若其在聚類內(nèi),則正面原型為其所對應的聚類質(zhì)心(Cluster Centroids)。

反之,若其不在聚類內(nèi),為聚類離群值,則正面原型為該離群值所對應的實例特征(Outlier Instance Features)。

其實,我們所設計的“混合記憶模型(Hybrid Memory)+統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)”與大家常用的“分類器(Classifier)+交叉熵損失函數(shù)(Cross-entropy Loss)”在工作機理上非常相似,可以簡單的認為混合記憶模型是非參數(shù)化(Non-parametric)的分類器。

那么,為什么我們不用普通分類器來完成這一任務呢?

這是由于目標域的聚類及聚類離群值在訓練過程中動態(tài)變化(一般每個epoch前更新),無法使用固定的聚類ID及離群值實例ID訓練分類器。如若在每次更新完ID后需要重置分類器,分類器由于無法連續(xù)更新,會導致性能較差。

有同學會問,以前的算法(如MMT),每個epoch重置分類器依然訓練效果很好,這是為什么?

這是因為這些算法不使用聚類離群值進行訓練。試想,將每個聚類離群值也看做單獨的類加入分類器,而每個epoch只能遍歷到該類對應的樣本一次(因為一個離群值是一個類),那么,在類樣本數(shù)如此不平均的情況下,分類器幾乎得不到有效的訓練,便會被重置。

我們所提出的統(tǒng)一對比損失函數(shù)與自監(jiān)督任務(如MoCo、SimCLR等)中常用的對比損失函數(shù)最主要的區(qū)別在于,我們同時考慮了三種不同的類別原型,而以前的對比損失函數(shù)只考慮實例級的類別原型。他們將所有樣本看作獨立的類,進行實例區(qū)分(Instance Discrimination)訓練,這樣的算法很大程度上忽略了類內(nèi)(Intra-class)關系,也就是同一ID的不同圖像間的聯(lián)系,故以前的對比損失函數(shù)不適用于重識別任務。

混合記憶模型

上文中,我們提到混合記憶模型(Hybrid Memory)實時提供三種不同的類別原型,那么,這三種類別原型是如何動態(tài)地在混合記憶模型中連續(xù)更新變化的呢? 我們提出使用動量更新(Momentum Update),想必這個詞對大家來說并不陌生,在MoCo、Mean-teacher等模型中常有見到,簡單來說,就是以“參數(shù)= (1-動量)x新參數(shù)+動量x參數(shù)”的形式更新。在這里,我們針對源域和目標域采取不同的動量更新算法,以適應其不同的特性。

對于源域的數(shù)據(jù)而言,由于具有真實的類別,我們提出以類為單位進行存儲。這樣的操作一方面節(jié)省空間,一方面在實驗中也取得了較好的結果。我們將當前mini-batch內(nèi)的源域特征根據(jù)類別算均值,然后以動量的方式累計到混合記憶模型中對應的類質(zhì)心上去,詳見下圖。

對于目標域的數(shù)據(jù)而言,我們提出全部以實例為單位進行特征存儲,這是為了讓目標域樣本即使在聚類和非聚類離群值不斷變化的情況下,仍然能夠在混合記憶模型中持續(xù)更新(Continuously Update)。

具體而言,我們將當前mini-batch內(nèi)的目標域特征根據(jù)實例的index累計到混合記憶模型對應的實例特征上去。

那么,如何獲得目標域的聚類質(zhì)心及離群值實例特征呢?

我們在混合記憶模型中,將同一聚類ID的特征做平均,即可獲得聚類質(zhì)心;而離群值的實例特征則直接從混合記憶模型中提取剩下的實例特征即可,如下圖。

由簡入難的自步學習

我們發(fā)現(xiàn),由于聚類和聚類離群值都被看作平等且獨立的類,所以聚類的可靠性對訓練的影響至關重要。由于網(wǎng)絡在訓練的一開始對于圖像的辨別性較差,聚類的噪聲也較大。 所以我們借鑒自步學習(Self-paced Learning)的思想,先從最可靠的聚類開始,再逐步增加聚類,由簡入難。我們提出了一個聚類可靠性評價標準(Cluster Reliability Criterion),保留可靠的聚類,而將不可靠的聚類拆解回無聚類的離群值實例。我們所提出的聚類可靠性評價標準分為聚類獨立性(Cluster Independence)和聚類緊湊型(Cluster Compactness)。

聚類獨立性(Cluster Independence)體現(xiàn)為一個可靠的聚類應當具有良好的類間距離,通俗點來說,不能和附近的聚類“如膠似漆”。

我們提出,放寬聚類的標準,例如DBSCAN中的最小類內(nèi)距離,此時,如果該聚類與周圍的聚類融合成了一個大聚類、或者吸收了附近的離群值,那么我們認為,該聚類的獨立性不太好。

我們使用一個IoU(Intersection over Union)公式來計算聚類的獨立性。

聚類緊湊型(Cluster Compactness)體現(xiàn)為一個可靠的聚類內(nèi)的樣本應該相互靠近,具有良好的類內(nèi)距離。

類似的,我們提出,縮緊聚類的標準,此時,如果該聚類被拆解成了多個小聚類、或者拆出了一些聚類離群值,那么我們認為,該聚類的緊湊型不太好。

我們使用另一個IoU公式來計算聚類的緊湊型,如上圖所示。

直觀地說,該聚類可靠性評價標準的出發(fā)點在于,一個可靠的聚類應當在多尺度的聚類環(huán)境下保持穩(wěn)定。從下圖訓練的統(tǒng)計中可以看出,使用了聚類可靠性評價標準的模型(紅色線)相比較于未使用的模型(藍色線),無論是在聚類的數(shù)量還是質(zhì)量上,都離真實類別更近。

算法流程

以上,我們介紹了核心的模塊,我們梳理一下具體訓練流程:

初始化(Initialization):圖像編碼器(Encoder)的初始化一般使用ImageNet Pre-trained Weights,混合記憶模型(Hybrid Memory)的初始化使用初始的編碼器對所有的樣本進行一次前向計算。

聚類和聚類離群值:在每個epoch前進行聚類,并根據(jù)聚類可靠性評價標準(Cluster Reliability Criterion)進行聚類的篩選,僅保留可靠的聚類,其余樣本均視作聚類離群值。

網(wǎng)絡和混合記憶模型的更新:在每個iteration中,首先利用編碼器對mini-batch的樣本進行特征編碼,然后利用統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)進行網(wǎng)絡的反向傳播更新,最后利用編碼的特征以動量更新(Momentum Update)的方式更新混合記憶模型(Hybrid Memory)。

無監(jiān)督重識別上的應用

在一開始曾提到,該方法也可以被有效利用在無監(jiān)督重識別任務上,只需要將混合記憶模型和統(tǒng)一對比損失函數(shù)中有關源域的部分去掉即可。

無監(jiān)督重識別任務上的自步對比學習框架如下:

對應的統(tǒng)一對比損失函數(shù)如下:

實驗

由于自步對比學習框架中可以同時訓練源域和目標域的數(shù)據(jù),所以訓練是one-stage的,無需單獨的源域預訓練步驟。實驗中,我們針對多個真實及虛擬合成數(shù)據(jù)集進行了實驗,在行人重識別和車輛重識別任務上都測試了該方法的有效性。

領域自適應任務中,我們在無監(jiān)督的目標域上均超越先前算法,在PersonX->MSMT17的任務上領先高達5.0%的mAP,這是由于在“虛擬合成->真實”的遷移任務中,由于聚類噪聲較大,產(chǎn)生的聚類離群值較多,所以我們所提出的充分挖掘所有樣本的方案所帶來的優(yōu)勢將更為突出。

除此之外,一項有趣的發(fā)現(xiàn),VehicleID->VeRi-776與VehicleX->VeRi-776在目標域上獲得幾乎相似的性能,這說明,在未來,隨著領域自適應算法的不斷升級,可能我們再也不需要人為標注的源域數(shù)據(jù)來作為輔助了,可以使用虛擬合成的數(shù)據(jù)予以代替。

以前的算法由于在目標域的訓練中忽視了源域數(shù)據(jù),所以會無法避免地忘記源域的信息,而我們提出的方法對源域和目標域數(shù)據(jù)進行了聯(lián)合訓練,在目標域性能提升的同時,也提升了有監(jiān)督的源域性能。

可以看到,在MSMT17-Market-1501的遷移訓練中,我們利用Market-1501的無標簽數(shù)據(jù)大幅提升了MSMT17上的有監(jiān)督訓練性能(+6.6%mAP)。這意味著,我們所提出的算法可以被用于利用無標簽數(shù)據(jù)提升有監(jiān)督訓練的任務。

同樣,在無監(jiān)督重識別任務上,我們大幅領先已有的算法,在Market-1501的benchmark上領先高達16.7%的mAP。

我們也將MoCo在無監(jiān)督重識別任務上進行了復現(xiàn),正如我們之前所介紹了,這類無監(jiān)督預訓練任務的算法并不適用于無監(jiān)督的重識別任務,因為他們將所有的樣本視作獨立的類,忽視了重識別任務中最重要的類內(nèi)類間關系。

再強調(diào)一下,MoCo這類算法適用于無監(jiān)督預訓練任務,在應用于下游任務上時需要fine-tune,而無監(jiān)督重識別任務本身是一個下游任務。

有細心的同學可能會發(fā)現(xiàn),剛剛展示的結果中沒有涉及DukeMTMC-reID數(shù)據(jù)集的實驗,這是因為DukeMTMC-reID已經(jīng)官方下架,在AC的要求下,我們需要在論文的最終版本中刪去所有有關DukeMTMC-reID的實驗結果。

但是DukeMTMC-reID是行人重識別相關任務中常用的數(shù)據(jù)集,所以為了方便大家未來進行算法的調(diào)試和比較,我在這里也簡單展示一下DukeMTMC-reID相關的結果,更多的結果大家可以在我們arXiv的第一個版本(arxiv.org/abs/2006.0271)中找到。

總結

該文提出了一個簡單有效的自步對比學習框架,核心思想是利用多種不同形式的類別原型提供混合監(jiān)督,以實現(xiàn)對所有訓練數(shù)據(jù)的充分挖掘。雖然本文只在目標重識別任務上進行了實驗,但是提出的混合記憶模型及統(tǒng)一對比損失函數(shù)是即插即用的,有很大潛力在其他任務上取得較好的結果,歡迎大家嘗試。

這次NeurIPS的評審過程相當刺激,從初審的7663到終審的5553,reviewers的降分起源對DukeMTMC-reID數(shù)據(jù)集的討論,最終這份工作也經(jīng)歷了NeurIPS今年特有的Ethics Review,起起落落,最終被AC撈起,感恩??梢?,目前學術界對于數(shù)據(jù)集的隱私保護規(guī)范要求也越來越嚴格。

推薦大家在以后領域自適應重識別工作中考慮采用合成數(shù)據(jù)集,如PersonX、VehicleX等,不僅可以避免不必要的麻煩,并且由于合成數(shù)據(jù)和真實數(shù)據(jù)的域差異較大,算法上可以提shua升fen的空間也會較大。分類任務及分割任務上的領域自適應往往采用合成數(shù)據(jù)作為源域,且這次VisDA-2020的比賽中,源域采用的也是合成數(shù)據(jù)集PersonX,可見合成數(shù)據(jù)到真實數(shù)據(jù)的自適應任務備受關注。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)

    關注

    8

    文章

    7103

    瀏覽量

    89287
  • 算法
    +關注

    關注

    23

    文章

    4624

    瀏覽量

    93110
  • 識別
    +關注

    關注

    3

    文章

    173

    瀏覽量

    31983

原文標題:?自步對比學習: 充分挖掘無監(jiān)督學習樣本

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    模型訓練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個用于簡化和加速深度學習模型訓練的庫,它支持在多種硬件配置上進行分布式訓練,包括 CPU、GPU、TPU 等。Accelerate 允許用戶
    的頭像 發(fā)表于 01-14 14:24 ?64次閱讀

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言模型開發(fā)框架。
    的頭像 發(fā)表于 12-06 10:28 ?159次閱讀

    Arm成功將Arm KleidiAI軟件庫集成到騰訊研的Angel 機器學習框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫集成到騰訊研的 Angel 機器學習框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型
    的頭像 發(fā)表于 11-24 15:33 ?733次閱讀

    時空引導下的時間序列監(jiān)督學習框架

    考慮各個序列之間的關系。因此,本文提出的方法更適合作為時空預測領域的預訓練模型。下面為大家詳細介紹一下這篇文章。 摘要 相關時間序列分析在許多現(xiàn)實行業(yè)中扮演著重要的角色。為進一的下游任務學習這個大規(guī)模數(shù)據(jù)的有效表示是必要
    的頭像 發(fā)表于 11-15 11:41 ?296次閱讀
    時空引導下的時間序列<b class='flag-5'>自</b>監(jiān)督<b class='flag-5'>學習</b><b class='flag-5'>框架</b>

    【「大模型時代的基礎架構」閱讀體驗】+ 第一、二章學習感受

    程分為下圖中的四: 此后引入機器學習開發(fā)框架TensorFlow,該框架下集成了多種“輪子”,但要避免“重復造輪子”。下一小節(jié)是分布式AI訓練,從中知道了訓練測略分為
    發(fā)表于 10-10 10:36

    【「時間序列與機器學習」閱讀體驗】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機器學習融合應用的宏偉藍圖。作者不僅扎實地構建了時間序列分析的基礎知識,更巧妙地展示了機器學習如何在這一領域發(fā)揮巨大潛力,使得
    發(fā)表于 08-12 11:21

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監(jiān)督學習模型采用
    發(fā)表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    上周收到《大語言模型應用指南》一書,非常高興,但工作項目繁忙,今天才品鑒體驗,感謝作者編寫了一部內(nèi)容豐富、理論應用相結合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個讓我了解大語言模型和機器學習
    發(fā)表于 07-21 13:35

    ai大模型和ai框架的關系是什么

    AI大模型和AI框架是人工智能領域中兩個重要的概念,它們之間的關系密切且復雜。 AI大模型的定義和特點 AI大模型是指具有大量參數(shù)的深度學習
    的頭像 發(fā)表于 07-16 10:07 ?4.2w次閱讀

    TensorFlow與PyTorch深度學習框架的比較與選擇

    深度學習作為人工智能領域的一個重要分支,在過去十年中取得了顯著的進展。在構建和訓練深度學習模型的過程中,深度學習框架扮演著至關重要的角色。T
    的頭像 發(fā)表于 07-02 14:04 ?1013次閱讀

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領域的尖端技術,憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關注。它基于深度學習,利用神經(jīng)網(wǎng)絡框架來理解和生成自然語言文本。這些模型通過訓練海量的文本數(shù)
    發(fā)表于 05-04 23:55

    谷歌推出AI框架,實現(xiàn)AI模型的自然語言學習

    據(jù)了解,在此款“社交學習框架中,“學生模型”可向多位已處理指定任務的“教師模型”請教各類應對方案,研究團隊主要通過開展“垃圾短信檢測”、“解決小學數(shù)學題”及“根據(jù)文本回答問題”等多項
    的頭像 發(fā)表于 03-11 11:36 ?958次閱讀

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發(fā)的用于機器學習和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個開源的機器學習
    的頭像 發(fā)表于 03-01 16:25 ?925次閱讀

    谷歌模型框架是什么?有哪些功能和應用?

    谷歌模型框架(Google Model Framework)并不是一個特定的框架,而是指谷歌開發(fā)的一系列軟件框架,用于支持機器學習和人工智能
    的頭像 發(fā)表于 02-29 18:11 ?1545次閱讀

    模型Reward Model的trick應用技巧

    借助對比學習和元學習的方法。增加對比學習的loss,對比學習
    發(fā)表于 01-25 09:31 ?1081次閱讀
    大<b class='flag-5'>模型</b>Reward Model的trick應用技巧