女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡單圖神經(jīng)網(wǎng)絡(luò)(GNN)的基礎(chǔ)知識

倩倩 ? 來源:機(jī)器之心 ? 2020-04-17 09:20 ? 次閱讀

在社交網(wǎng)絡(luò)分析等一些應(yīng)用中,圖神經(jīng)網(wǎng)絡(luò)已經(jīng)得到了廣泛的應(yīng)用。新加坡科技研究局(A*STAR)的研究者 Rishabh Anand 近日通過圖解的方式介紹了圖與圖神經(jīng)網(wǎng)絡(luò)的基本概念,或許能幫助初學(xué)者更直觀地理解圖神經(jīng)網(wǎng)絡(luò)的內(nèi)涵和價值。

深度學(xué)習(xí)(Graph Deep Learning,GDL)是一個很有發(fā)展前景的研究領(lǐng)域,基于圖數(shù)據(jù)來學(xué)習(xí)和分析非常有用。本文將介紹簡單圖神經(jīng)網(wǎng)絡(luò)(GNN)的基礎(chǔ)知識及其內(nèi)在工作原理背后的直觀知識。不過,大家不用擔(dān)心,為了能夠更直觀地看懂究竟發(fā)生了什么,作者在文中使用了大量彩圖給出圖解信息。

圖(Graph)是什么?

圖是一種由連接在一起的節(jié)點(diǎn)(頂點(diǎn))和邊構(gòu)成的數(shù)據(jù)結(jié)構(gòu),可用于表示沒有明確起點(diǎn)或終點(diǎn)的信息。所有節(jié)點(diǎn)都可占據(jù)空間中的任意位置,當(dāng)用二維或多維空間繪制圖的結(jié)構(gòu)時,具有相似特征的節(jié)點(diǎn)通常會聚集到一起。

這就是一個圖,由一群分別表示實(shí)體的互連節(jié)點(diǎn)構(gòu)成。

邊上面的黑色尖頭表示節(jié)點(diǎn)之間的關(guān)系類型,其可表明一個關(guān)系是雙向的還是單向的。圖有兩種主要類型:有向圖和無向圖。在有向圖中,節(jié)點(diǎn)之間的連接存在方向;而無向圖的連接順序并不重要。有向圖既可以是單向的,也可以是雙向的。

圖可以表示很多事物——社交網(wǎng)絡(luò)、分子等等。節(jié)點(diǎn)可以表示用戶/產(chǎn)品/原子,而邊表示它們之間的連接,比如關(guān)注/通常與相連接的產(chǎn)品同時購買/鍵。社交網(wǎng)絡(luò)圖可能看起來像是這樣,其中節(jié)點(diǎn)是用戶,邊則是連接:

節(jié)點(diǎn)表示用戶,邊則表示兩個實(shí)體之間的連接/關(guān)系。真實(shí)的社交網(wǎng)絡(luò)圖往往更加龐大和復(fù)雜!

接下來作者會介紹一些概念,如循環(huán)單元、嵌入向量表征和前饋神經(jīng)網(wǎng)絡(luò)。知道一些有關(guān)圖論的知識(比如什么是圖以及圖的形態(tài))也很不錯。

有些術(shù)語你可能并不熟悉。不用擔(dān)心!對于那些讓人疑惑的術(shù)語,作者都盡力鏈接了他可以找到的最靠譜的解釋,能讓你理解所涉概念的基本含義。基于此,你還能進(jìn)一步了解這些概念,同時還能理解它們在圖神經(jīng)網(wǎng)絡(luò)中所發(fā)揮的作用。

了解圖神經(jīng)網(wǎng)絡(luò)

每個節(jié)點(diǎn)都有一組定義它的特征。在社交網(wǎng)絡(luò)圖的案例中,這些特征可以是年齡、性別、居住國家、政治傾向等。每條邊連接的節(jié)點(diǎn)都可能具有相似的特征。這體現(xiàn)了這些節(jié)點(diǎn)之間的某種相關(guān)性或關(guān)系。

假設(shè)我們有一個圖 G,其具有以下頂點(diǎn)和邊:

這個圖與上圖是一樣的。

為了簡單起見,我們假設(shè)其特征向量是當(dāng)前節(jié)點(diǎn)的索引的 one-hot 編碼。類似地,其標(biāo)簽(或類別)可設(shè)為節(jié)點(diǎn)的顏色(綠、紅、黃)。那么這個圖看起來會是這樣:

節(jié)點(diǎn)的順序其實(shí)并不重要。

注:在實(shí)際運(yùn)用中,盡量不要使用 one-hot 編碼,因?yàn)楣?jié)點(diǎn)的順序可能會非常混亂。相反,應(yīng)該使用可明顯區(qū)分節(jié)點(diǎn)的特征,比如對社交網(wǎng)絡(luò)而言,可選擇年齡、性別、政治傾向等特征;對分子研究而言可選擇可量化的化學(xué)性質(zhì)。

現(xiàn)在,我們有節(jié)點(diǎn)的 one-hot 編碼(或嵌入)了,接下來我們將神經(jīng)網(wǎng)絡(luò)引入這一混合信息中來實(shí)現(xiàn)對圖的修改。所有的節(jié)點(diǎn)都可轉(zhuǎn)化為循環(huán)單元(或其它任何神經(jīng)網(wǎng)絡(luò)架構(gòu),只是我這里使用的是循環(huán)單元);所有的邊都包含簡單的前饋神經(jīng)網(wǎng)絡(luò)。那么看起來會是這樣:

其中的信封符號只是每個節(jié)點(diǎn)的 one-hot 編碼的向量(嵌入)。

消息傳遞

一旦節(jié)點(diǎn)和邊的轉(zhuǎn)化完成,圖就可在節(jié)點(diǎn)之間執(zhí)行消息傳遞。這個過程也被稱為「近鄰聚合(Neighbourhood Aggregation)」,因?yàn)槠渖婕暗絿@給定節(jié)點(diǎn),通過有向邊從周圍節(jié)點(diǎn)推送消息(即嵌入)。

注:有時候你可為不同類型的邊使用不同的神經(jīng)網(wǎng)絡(luò),比如為單向邊使用一種神經(jīng)網(wǎng)絡(luò),為雙向邊使用另一種神經(jīng)網(wǎng)絡(luò)。這樣你仍然可以獲取節(jié)點(diǎn)之間的空間關(guān)系。

就 GNN 而言,對于單個參考節(jié)點(diǎn),近鄰節(jié)點(diǎn)會通過邊神經(jīng)網(wǎng)絡(luò)向參考節(jié)點(diǎn)上的循環(huán)單元傳遞它們的消息(嵌入)。參考循環(huán)單位的新嵌入更新,基于在循環(huán)嵌入和近鄰節(jié)點(diǎn)嵌入的邊神經(jīng)網(wǎng)絡(luò)輸出的和上使用循環(huán)函數(shù)。我們把上面的紅色節(jié)點(diǎn)放大看看,并對這一過程進(jìn)行可視化:

紫色方塊是一個應(yīng)用于來自近鄰節(jié)點(diǎn)的嵌入(白色信封)上的簡單前饋神經(jīng)網(wǎng)絡(luò);紅色三角形是應(yīng)用于當(dāng)前嵌入(白色信封)和邊神經(jīng)網(wǎng)絡(luò)輸出(黑色信封)之和上的循環(huán)函數(shù),以得到新的嵌入(最上面的白色信封)。

這個過程是在網(wǎng)絡(luò)中的所有節(jié)點(diǎn)上并行執(zhí)行的,因?yàn)?L+1 層的嵌入取決于 L 層的嵌入。因此,在實(shí)踐中,我們并不需要從一個節(jié)點(diǎn)「移動」到另一節(jié)點(diǎn)就能執(zhí)行消息傳遞。

注:邊神經(jīng)網(wǎng)絡(luò)輸出(黑色信封)之和與輸出的順序無關(guān)。

最后的向量表征有什么用?

執(zhí)行了幾次近鄰聚合/消息傳遞流程之后,每個節(jié)點(diǎn)的循環(huán)單元都會獲得一組全新的嵌入。此外,經(jīng)過多個時間步驟/多輪消息傳遞之后,節(jié)點(diǎn)對自己和近鄰節(jié)點(diǎn)的信息(特征)也會有更好的了解。這會為整個圖創(chuàng)建出更加準(zhǔn)確的表征。

要進(jìn)一步在該流程的更高層面上進(jìn)行處理或者只是簡單地表征該圖,你可以將所有嵌入加到一起得到向量 H 來表示整個圖。

使用 H 比使用鄰接矩陣更好,因?yàn)椴还茉鯓訉D進(jìn)行扭轉(zhuǎn)變形,這些矩陣都并不表征圖的特征或獨(dú)特性質(zhì)——只是節(jié)點(diǎn)之間的邊連接(這在某些情形下并不是很重要)。

總結(jié)一下,我們將所有節(jié)點(diǎn)循環(huán)單元的最終向量表征加到一起(當(dāng)然,與順序無關(guān)),然后使用所得到的向量作為其它工作過程的輸入或簡單地將其用于表征該圖。這個步驟看起來如下圖所示:

這是經(jīng)過 n 次重復(fù)消息傳遞之后帶有已完全更新的嵌入向量的最終圖。你可以將所有節(jié)點(diǎn)的表。征加到一起得到 H。

四步驟助你實(shí)現(xiàn)圖神經(jīng)網(wǎng)絡(luò)

GNN 用起來相當(dāng)簡單。事實(shí)上,實(shí)現(xiàn)它們涉及到以下四個步驟:

給定一個圖,首先將節(jié)點(diǎn)轉(zhuǎn)換為循環(huán)單元,將邊轉(zhuǎn)換為前饋神經(jīng)網(wǎng)絡(luò);

接著為所有節(jié)點(diǎn)執(zhí)行 n 次近鄰聚合(也就是消息傳遞);

然后再在所有節(jié)點(diǎn)的嵌入向量上求和以得到圖表征 H;

最后可以完全跳過 H 直接向更高層級進(jìn)發(fā)或者也可使用 H 來表征該圖的獨(dú)有性質(zhì)。

小結(jié)

現(xiàn)在我們清楚地了解圖神經(jīng)網(wǎng)絡(luò)的運(yùn)行方式了。得益于 GNN 在圖節(jié)點(diǎn)之間依賴關(guān)系進(jìn)行建模的強(qiáng)大性能,它在社交網(wǎng)絡(luò)、知識圖譜和推薦系統(tǒng)方面都有廣泛的應(yīng)用。以社交網(wǎng)絡(luò)圖為例,GNN 在內(nèi)容推薦方面表現(xiàn)很好。舉個例子,當(dāng)一個用戶關(guān)注另一個政治傾向相似的用戶時,GNN 可用于節(jié)點(diǎn)分類,以預(yù)測是否可將網(wǎng)站上的特定內(nèi)容發(fā)送到上述用戶的新聞流;當(dāng) GNN 用于「推薦關(guān)注」時,系統(tǒng)可以考慮用戶所在的行業(yè),再提供潛在的連接——邊分類。

圖深度學(xué)習(xí)其實(shí)非常有趣。本文的亮點(diǎn)在于使用一些可視化圖介紹了圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)概念,但如果想要透徹地了解 GNN,大家最好自己寫代碼實(shí)現(xiàn)看看。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)由多個神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?432次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?960次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:53 ?1542次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識,或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?569次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    Transformer能代替神經(jīng)網(wǎng)絡(luò)

    Transformer作為一種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學(xué)習(xí)模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替神經(jīng)網(wǎng)絡(luò)GNN)的問題,需
    的頭像 發(fā)表于 07-12 14:07 ?796次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?2224次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?2038次閱讀

    全連接前饋神經(jīng)網(wǎng)絡(luò)與前饋神經(jīng)網(wǎng)絡(luò)的比較

    Neural Network, FCNN)和前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network, FNN)因其結(jié)構(gòu)簡單、易于理解和實(shí)現(xiàn),成為了研究者們關(guān)注的熱點(diǎn)。本文將從概念、模型結(jié)構(gòu)、優(yōu)缺點(diǎn)以及應(yīng)用場景等方面,對全連接前饋
    的頭像 發(fā)表于 07-09 10:31 ?1.7w次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?923次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實(shí)際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?1371次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1894次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需要從多個維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?1627次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?1123次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
    的頭像 發(fā)表于 07-03 10:12 ?2405次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?5835次閱讀