0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GNN教程:GraghSAGE算法細(xì)節(jié)詳解!

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-11-24 09:32 ? 次閱讀

引言

本文為GNN教程的第三篇文章 【GraghSAGE算法】,在GCN的博文中我們重點(diǎn)討論了圖神經(jīng)網(wǎng)絡(luò)的逐層傳播公式是如何推導(dǎo)的,然而,GCN的訓(xùn)練方式需要將鄰接矩陣和特征矩陣一起放到內(nèi)存或者顯存里,在大規(guī)模圖數(shù)據(jù)上是不可取的。 其次,GCN在訓(xùn)練時需要知道整個圖的結(jié)構(gòu)信息(包括待預(yù)測的節(jié)點(diǎn)), 這在現(xiàn)實(shí)某些任務(wù)中也不能實(shí)現(xiàn)(比如用今天訓(xùn)練的圖模型預(yù)測明天的數(shù)據(jù),那么明天的節(jié)點(diǎn)是拿不到的)。GraphSAGE的出現(xiàn)就是為了解決這樣的問題,這篇博文中我們將會詳細(xì)得討論它。

一、Inductive learning v.s. Transductive learning

首先我們介紹一下什么是inductive learning。與其他類型的數(shù)據(jù)不同,圖數(shù)據(jù)中的每一個節(jié)點(diǎn)可以通過邊的關(guān)系利用其他節(jié)點(diǎn)的信息,這樣就產(chǎn)生了一個問題,如果訓(xùn)練集上的節(jié)點(diǎn)通過邊關(guān)聯(lián)到了預(yù)測集或者驗(yàn)證集的節(jié)點(diǎn),那么在訓(xùn)練的時候能否用它們的信息呢? 如果訓(xùn)練時用到了測試集或驗(yàn)證集樣本的信息(或者說,測試集和驗(yàn)證集在訓(xùn)練的時候是可見的), 我們把這種學(xué)習(xí)方式叫做transductive learning, 反之,稱為inductive learning。

顯然,我們所處理的大多數(shù)機(jī)器學(xué)習(xí)問題都是inductive learning, 因?yàn)槲覀兛桃獾膶颖炯譃橛?xùn)練/驗(yàn)證/測試,并且訓(xùn)練的時候只用訓(xùn)練樣本。然而,在GCN中,訓(xùn)練節(jié)點(diǎn)收集鄰居信息的時候,用到了測試或者驗(yàn)證樣本,所以它是transductive的。

二、概述

GraphSAGE是一個inductive框架,在具體實(shí)現(xiàn)中,訓(xùn)練時它僅僅保留訓(xùn)練樣本到訓(xùn)練樣本的邊。inductive learning 的優(yōu)點(diǎn)是可以利用已知節(jié)點(diǎn)的信息為未知節(jié)點(diǎn)生成Embedding. GraphSAGE 取自 Graph SAmple and aggreGatE, SAmple指如何對鄰居個數(shù)進(jìn)行采樣。aggreGatE指拿到鄰居的embedding之后如何匯聚這些embedding以更新自己的embedding信息。下圖展示了GraphSAGE學(xué)習(xí)的一個過程:

對鄰居采樣

采樣后的鄰居embedding傳到節(jié)點(diǎn)上來,并使用一個聚合函數(shù)聚合這些鄰居信息以更新節(jié)點(diǎn)的embedding

根據(jù)更新后的embedding預(yù)測節(jié)點(diǎn)的標(biāo)簽

三、算法細(xì)節(jié)

3.1 節(jié)點(diǎn) Embedding 生成(即:前向傳播)算法

這一節(jié)討論的是如何給圖中的節(jié)點(diǎn)生成(或者說更新)embedding, 假設(shè)我們已經(jīng)完成了GraphSAGE的訓(xùn)練,因此模型所有的參數(shù)(parameters)都已知了。具體來說,這些參數(shù)包括個聚合器(見下圖算法第4行)中的參數(shù), 這些聚合器被用來將鄰居embedding信息聚合到節(jié)點(diǎn)上,以及一系列的權(quán)重矩陣(下圖算法第5行), 這些權(quán)值矩陣被用作在模型層與層之間傳播embedding的時候做非線性變換。

下面的算法描述了我們是怎么做前向傳播的:

算法的主要部分為:

(line 1)初始化每個節(jié)點(diǎn)embedding為節(jié)點(diǎn)的特征向量

(line 3)對于每一個節(jié)點(diǎn)

(line 4)拿到它采樣后的鄰居的embedding并將其聚合,這里表示對鄰居采樣

(line 5)根據(jù)聚合后的鄰居embedding()和自身embedding()通過一個非線性變換()更新自身embedding.

算法里的這個比較難理解,下面單獨(dú)來說他,之前提到過,它既是聚合器的數(shù)量,也是權(quán)重矩陣的數(shù)量,還是網(wǎng)絡(luò)的層數(shù),這是因?yàn)槊恳粚泳W(wǎng)絡(luò)中聚合器和權(quán)重矩陣是共享的。

網(wǎng)絡(luò)的層數(shù)可以理解為需要最大訪問到的鄰居的跳數(shù)(hops),比如在figure 1中,紅色節(jié)點(diǎn)的更新拿到了它一、二跳鄰居的信息,那么網(wǎng)絡(luò)層數(shù)就是2。

為了更新紅色節(jié)點(diǎn),首先在第一層()我們會將藍(lán)色節(jié)點(diǎn)的信息聚合到紅色節(jié)點(diǎn)上,將綠色節(jié)點(diǎn)的信息聚合到藍(lán)色節(jié)點(diǎn)上。在第二層()紅色節(jié)點(diǎn)的embedding被再次更新,不過這次用的是更新后的藍(lán)色節(jié)點(diǎn)embedding,這樣就保證了紅色節(jié)點(diǎn)更新后的embedding包括藍(lán)色和綠色節(jié)點(diǎn)的信息。

3.2 采樣 (SAmple) 算法

GraphSAGE采用了定長抽樣的方法,具體來說,定義需要的鄰居個數(shù), 然后采用有放回的重采樣/負(fù)采樣方法達(dá)到,。保證每個節(jié)點(diǎn)(采樣后的)鄰居個數(shù)一致是為了把多個節(jié)點(diǎn)以及他們的鄰居拼成Tensor送到GPU中進(jìn)行批訓(xùn)練。

3.3 聚合器 (Aggregator) 架構(gòu)

GraphSAGE 提供了多種聚合器,實(shí)驗(yàn)中效果最好的平均聚合器(mean aggregator),平均聚合器的思慮很簡單,每個維度取對鄰居embedding相應(yīng)維度的均值,這個和GCN的做法基本一致(GCN實(shí)際上用的是求和):

舉個簡單例子,比如一個節(jié)點(diǎn)的3個鄰居的embedding分別為 ,按照每一維分別求均值就得到了聚合后的鄰居embedding為.

論文中還闡述了另外兩種aggregator:LSTM aggregator和Pooling aggregator, 有興趣的可以去論文中看下。

3.4 參數(shù)學(xué)習(xí)

到此為止,整個模型的架構(gòu)就講完了,那么GraphSAGE是如何學(xué)習(xí)聚合器的參數(shù)以及權(quán)重變量的呢? 在有監(jiān)督的情況下,可以使用每個節(jié)點(diǎn)的預(yù)測label和真實(shí)label的交叉熵作為損失函數(shù)。在無監(jiān)督的情況下,可以假設(shè)相鄰的節(jié)點(diǎn)的輸出embeding應(yīng)當(dāng)盡可能相近,因此可以設(shè)計(jì)出如下的損失函數(shù):

其中是節(jié)點(diǎn)的輸出embedding,是節(jié)點(diǎn)的鄰居(這里鄰居是廣義的,比如說如果和在一個定長的隨機(jī)游走中可達(dá),那么我們也認(rèn)為他們相鄰),是負(fù)采樣分布,是負(fù)采樣的樣本數(shù)量,所謂負(fù)采樣指我們還需要一批不是鄰居的節(jié)點(diǎn)作為負(fù)樣本,那么上面這個式子的意思是相鄰節(jié)點(diǎn)的embedding的相似度盡量大的情況下保證不相鄰節(jié)點(diǎn)的embedding的期望相似度盡可能小。

四、后話

GraphSAGE采用了采樣的機(jī)制,克服了GCN訓(xùn)練時內(nèi)存和顯存上的限制,使得圖模型可以應(yīng)用到大規(guī)模的圖結(jié)構(gòu)數(shù)據(jù)中,是目前幾乎所有工業(yè)上圖模型的雛形。然而,每個節(jié)點(diǎn)這么多鄰居,采樣能否考慮到鄰居的相對重要性呢,或者我們在聚合計(jì)算中能否考慮到鄰居的相對重要性? 這個問題在我們的下一篇博文Graph Attentioin Networks中做了詳細(xì)的討論。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4777

    瀏覽量

    100956
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4624

    瀏覽量

    93114
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3279

    瀏覽量

    48974

原文標(biāo)題:GNN教程:GraghSAGE算法細(xì)節(jié)詳解!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    詳解MySQL多實(shí)例部署

    詳解MySQL多實(shí)例部署
    的頭像 發(fā)表于 11-11 11:10 ?301次閱讀

    詳解kubectl常用命令

    詳解kubectl常用命令
    的頭像 發(fā)表于 11-05 15:39 ?295次閱讀
    <b class='flag-5'>詳解</b>kubectl常用命令

    常用的ADC濾波算法有哪些

    ADC(模數(shù)轉(zhuǎn)換器)濾波算法在信號處理中起著至關(guān)重要的作用,它們能夠幫助我們提取出有用的信號,同時濾除噪聲和干擾。以下是常用的ADC濾波算法詳解,這些算法各具特色,適用于不同的應(yīng)用場景
    的頭像 發(fā)表于 10-08 14:35 ?454次閱讀

    PRU開發(fā)詳解

    電子發(fā)燒友網(wǎng)站提供《PRU開發(fā)詳解.pdf》資料免費(fèi)下載
    發(fā)表于 09-05 11:27 ?0次下載
    PRU開發(fā)<b class='flag-5'>詳解</b>

    中偉視界:智能監(jiān)控和預(yù)警,靜止超時AI算法如何提升非煤礦山安全?

    本文詳細(xì)介紹了靜止超時AI算法在非煤礦山的工作原理、技術(shù)實(shí)現(xiàn)細(xì)節(jié)和應(yīng)用場景,并分析了其在安全管理中的實(shí)際效果。通過智能監(jiān)控和預(yù)警,靜止超時AI算法能夠提高礦山的安全防控水平,提升管理效率,降低運(yùn)營
    的頭像 發(fā)表于 07-14 11:29 ?1156次閱讀
    中偉視界:智能監(jiān)控和預(yù)警,靜止超時AI<b class='flag-5'>算法</b>如何提升非煤礦山安全?

    中偉視界:提升礦山安全生產(chǎn)水平,人員入井智能分析算法技術(shù)細(xì)節(jié)解析

    本文詳細(xì)介紹了人員入井智能分析算法在智慧礦山建設(shè)中的工作原理、功能特點(diǎn)及應(yīng)用。通過實(shí)時監(jiān)控和數(shù)據(jù)上報,該算法提高了礦山的安全管理水平和生產(chǎn)效率,增強(qiáng)了監(jiān)管能力。未來,算法的發(fā)展方向包括優(yōu)化算法
    的頭像 發(fā)表于 07-11 13:16 ?280次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個重要分支,其目標(biāo)是通過讓計(jì)算機(jī)自動從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無需進(jìn)行明確的編程。本文將深入解讀幾種常見的機(jī)器學(xué)習(xí)算法原理,包括線性回歸、邏輯回歸、支持向量機(jī)(SVM)、決策樹和K近鄰(KNN)算法,探討它們的理論基礎(chǔ)、
    的頭像 發(fā)表于 07-02 11:25 ?1220次閱讀

    RA MCU CANFD在FSP中的配置詳解

    RA MCU CANFD在FSP中的配置詳解
    的頭像 發(fā)表于 06-19 08:06 ?580次閱讀
    RA MCU CANFD在FSP中的配置<b class='flag-5'>詳解</b>

    BLDC電機(jī)控制算法詳解

    算法。本文將詳細(xì)介紹BLDC電機(jī)的控制算法,包括電速算法、電流環(huán)控制算法、磁場導(dǎo)向控制算法等,并探討其原理、特點(diǎn)和應(yīng)用。
    的頭像 發(fā)表于 06-14 10:49 ?1152次閱讀

    細(xì)節(jié)控必備!東芝“顯微屏”電視Z700NF,打造專精細(xì)節(jié)的“顯微屏”電視

    對音畫細(xì)節(jié)的打磨,旨在解決用戶的觀影痛點(diǎn),提供極致還原的細(xì)節(jié)視聽享受。 1300nits Mini LED?亮度突破,細(xì)節(jié)盡現(xiàn) 用戶在觀看電視時,常因亮度不足而錯失畫面的細(xì)微之處。東芝電視Z700NF采用1300nits Min
    的頭像 發(fā)表于 04-19 13:31 ?358次閱讀

    VC++串口通信詳解

    電子發(fā)燒友網(wǎng)站提供《VC++串口通信詳解.doc》資料免費(fèi)下載
    發(fā)表于 03-24 09:36 ?0次下載

    EMI電磁干擾:原理、影響及解決方法詳解?

    EMI電磁干擾:原理、影響及解決方法詳解?|深圳比創(chuàng)達(dá)電子
    的頭像 發(fā)表于 03-21 10:02 ?915次閱讀
    EMI電磁干擾:原理、影響及解決方法<b class='flag-5'>詳解</b>?

    靜電ESD整改:原因、影響與解決方案詳解

    靜電ESD整改:原因、影響與解決方案詳解?|深圳比創(chuàng)達(dá)電子
    的頭像 發(fā)表于 03-13 10:26 ?964次閱讀
    靜電ESD整改:原因、影響與解決方案<b class='flag-5'>詳解</b>?

    詳解pcb粗糙度測量,分享測量技巧

    詳解pcb粗糙度測量,分享測量技巧
    的頭像 發(fā)表于 03-12 11:28 ?1336次閱讀

    DCDC原理詳解

    電子發(fā)燒友網(wǎng)站提供《DCDC原理詳解.pptx》資料免費(fèi)下載
    發(fā)表于 03-05 17:18 ?97次下載