免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
AI綜述專欄 | 圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)綜述
本篇文章是對論文“Wu Z , Pan S , Chen F , et al. A Comprehensive Survey on Graph Neural Networks[J]. 2019.“”的翻譯與筆記
論文地址:https://arxiv.org/abs/1901.00596

目錄
一、什么是圖神經(jīng)網(wǎng)絡(luò)
二、有哪些圖神經(jīng)網(wǎng)絡(luò)
三、圖神經(jīng)網(wǎng)絡(luò)的應(yīng)用


什么是圖神經(jīng)網(wǎng)絡(luò)?

在過去的幾年中,神經(jīng)網(wǎng)絡(luò)的成功推動了模式識別和數(shù)據(jù)挖掘的研究。許多機器學(xué)習(xí)任務(wù),如目標(biāo)檢測、機器翻譯和語音識別,曾經(jīng)嚴重依賴手工的特征工程來提取信息特征集,最近被各種端到端的深度學(xué)習(xí)范式(例如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、長短期記憶(LSTM)和自動編碼器)徹底改變了。在許多領(lǐng)域中,深度學(xué)習(xí)的成功部分歸因于快速發(fā)展的計算資源(如GPU)和大量訓(xùn)練數(shù)據(jù)的可用性,部分歸因于深度學(xué)習(xí)從歐氏空間數(shù)據(jù)中提取潛在表示的有效性。
盡管深度學(xué)習(xí)在歐氏空間中的數(shù)據(jù)方面取得了巨大的成功,但在許多實際的應(yīng)用場景中的數(shù)據(jù)是從非歐式空間生成的,同樣需要進行有效的分析。例如,在電子商務(wù)中,一個基于圖的學(xué)習(xí)系統(tǒng)能夠利用用戶和產(chǎn)品之間的交互來做出非常準(zhǔn)確的推薦。圖數(shù)據(jù)的復(fù)雜性對現(xiàn)有的機器學(xué)習(xí)算法提出了重大挑戰(zhàn),這是因為圖數(shù)據(jù)是不規(guī)則的。每個圖都有一個大小可變的無序節(jié)點,圖中的每個節(jié)點都有不同數(shù)量的相鄰節(jié)點,導(dǎo)致一些重要的操作(例如卷積)在圖像上很容易計算,但不再適合直接用于圖域。此外,現(xiàn)有機器學(xué)習(xí)算法的一個核心假設(shè)是實例彼此獨立。然而,對于圖數(shù)據(jù)來說,情況并非如此,圖中的每個實例(節(jié)點)通過一些復(fù)雜的鏈接信息與其他實例(鄰居)相關(guān),這些信息可用于捕獲實例之間的相互依賴關(guān)系。
近年來,人們對深度學(xué)習(xí)方法在圖數(shù)據(jù)上的擴展越來越感興趣。在深度學(xué)習(xí)的成功推動下,研究人員借鑒了卷積網(wǎng)絡(luò)、循環(huán)網(wǎng)絡(luò)和深度自動編碼器的思想,定義和設(shè)計了用于處理圖數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由此一個新的研究熱點——“圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)”應(yīng)運而生,本篇文章主要對圖神經(jīng)網(wǎng)絡(luò)的研究現(xiàn)狀進行簡單的概述。
需要注意的是,圖神經(jīng)網(wǎng)絡(luò)的研究與圖嵌入(對圖嵌入不了解的讀者可以參考我的這篇文章《圖嵌入綜述》)或網(wǎng)絡(luò)嵌入密切相關(guān),圖嵌入或網(wǎng)絡(luò)嵌入是數(shù)據(jù)挖掘和機器學(xué)習(xí)界日益關(guān)注的另一個課題。圖嵌入旨在通過保留圖的網(wǎng)絡(luò)拓撲結(jié)構(gòu)和節(jié)點內(nèi)容信息,將圖中頂點表示為低維向量空間,以便使用簡單的機器學(xué)習(xí)算法(例如,支持向量機分類)進行處理。許多圖嵌入算法通常是無監(jiān)督的算法,它們可以大致可以劃分為三個類別,即矩陣分解、隨機游走和深度學(xué)習(xí)方法。同時圖嵌入的深度學(xué)習(xí)方法也屬于圖神經(jīng)網(wǎng)絡(luò),包括基于圖自動編碼器的算法(如DNGR和SDNE)和無監(jiān)督訓(xùn)練的圖卷積神經(jīng)網(wǎng)絡(luò)(如GraphSage)。下圖描述了圖嵌入和圖神經(jīng)網(wǎng)絡(luò)在本文中的區(qū)別。

有哪些圖神經(jīng)網(wǎng)絡(luò)?

在本文中,我們將圖神經(jīng)網(wǎng)絡(luò)劃分為五大類別,分別是:圖卷積網(wǎng)絡(luò)(Graph Convolution Networks,GCN)、 圖注意力網(wǎng)絡(luò)(Graph Attention Networks)、圖自編碼器( Graph Autoencoders)、圖生成網(wǎng)絡(luò)( Graph Generative Networks) 和圖時空網(wǎng)絡(luò)(Graph Spatial-temporal Networks)。
符號定義
1、圖卷積網(wǎng)絡(luò)(Graph Convolution Networks,GCN)
圖卷積網(wǎng)絡(luò)將卷積運算從傳統(tǒng)數(shù)據(jù)(例如圖像)推廣到圖數(shù)據(jù)。其核心思想是學(xué)習(xí)一個函數(shù)映射 
 ,通過該映射圖中的節(jié)點 
 可以聚合它自己的特征 
 與它的鄰居特征 
)來生成節(jié)點 
 的新表示。圖卷積網(wǎng)絡(luò)是許多復(fù)雜圖神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ),包括基于自動編碼器的模型、生成模型和時空網(wǎng)絡(luò)等。下圖直觀地展示了圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)節(jié)點表示的步驟。

GCN方法又可以分為兩大類,基于頻譜(spectral-based)和基于空間(spatial-based)?;陬l譜的方法從圖信號處理的角度引入濾波器來定義圖卷積,其中圖卷積操作被解釋為從圖信號中去除噪聲?;诳臻g的方法將圖卷積表示為從鄰域聚合特征信息,當(dāng)圖卷積網(wǎng)絡(luò)的算法在節(jié)點層次運行時,圖池化模塊可以與圖卷積層交錯,將圖粗化為高級子結(jié)構(gòu)。如下圖所示,這種架構(gòu)設(shè)計可用于提取圖的各級表示和執(zhí)行圖分類任務(wù)。
在下面,我們分別簡單介紹了基于頻譜的GCN和基于空間的GCN。
1.1 Spectral-based Graph Convolutional Networks
在大學(xué)里學(xué)過《數(shù)字信號處理》這門課程的朋友應(yīng)該會記得,在這門課上我們通過引入傅里葉變換將時域信號轉(zhuǎn)換到頻域進行分析,進而我們完成一些我們在時域上無法完成的操作,基于頻譜的圖卷積網(wǎng)絡(luò)的核心思想正是來源于此。
在基于頻譜的圖神經(jīng)網(wǎng)絡(luò)中,圖被假定為無向圖,無向圖的一種魯棒數(shù)學(xué)表示是正則化圖拉普拉斯矩陣,即
其中,A為圖的鄰接矩陣,D為對角矩陣且
正則化圖拉普拉斯矩陣具有實對稱半正定的性質(zhì)。利用這個性質(zhì),正則化拉普拉斯矩陣可以分解為
,其中
U是由L的特征向量構(gòu)成的矩陣,
是對角矩陣,對角線上的值為L的特征值。正則化拉普拉斯矩陣的特征向量構(gòu)成了一組正交基。
在圖信號處理過程中,一個圖的信號
是一個由圖的各個節(jié)點組成的特征向量,
代表第i個節(jié)點。
對圖X的傅里葉變換由此被定義為
傅里葉反變換則為
中 
 為傅里葉變換后的結(jié)果。
為了更好地理解圖的傅里葉變換,從它的定義我們可以看出,它確實將輸入圖信號投影到正交空間,在正交空間中,基由正則化圖拉普拉斯的特征向量構(gòu)成。
轉(zhuǎn)換后得到的信號 
 的元素是新空間中圖信號的坐標(biāo),因此原來的輸入信號可以表示為
正是傅里葉反變換的結(jié)果。
現(xiàn)在我們可以來定義對輸入信號X的圖卷積操作了
其中, 
 是我們定義的濾波器; 
 表示Hadamard product。
假如我們定義這樣一個濾波器
那么我們的圖卷積操作可以簡化表示為
基于頻譜的圖卷積網(wǎng)絡(luò)都遵循這樣的模式,它們之間關(guān)鍵的不同點在于選擇的濾波器不同。
現(xiàn)有的基于頻譜的圖卷積網(wǎng)絡(luò)模型有以下這些:Spectral CNN、Chebyshev Spectral CNN (ChebNet)、Adaptive Graph Convolution Network (AGCN)
基于頻譜的圖卷積神經(jīng)網(wǎng)絡(luò)方法的一個常見缺點是,它們需要將整個圖加載到內(nèi)存中以執(zhí)行圖卷積,這在處理大型圖時是不高效的。
1.2 Spatial-based Graph Convolutional Networks
模擬傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)對圖像的卷積運算,基于空間的方法基于節(jié)點的空間關(guān)系定義圖卷積。為了將圖像與圖關(guān)聯(lián)起來,可以將圖像視為圖的特殊形式,每個像素代表一個節(jié)點,如下圖a所示,每個像素直接連接到其附近的像素。通過一個3×3的窗口,每個節(jié)點的鄰域是其周圍的8個像素。這八個像素的位置表示一個節(jié)點的鄰居的順序。然后,通過對每個通道上的中心節(jié)點及其相鄰節(jié)點的像素值進行加權(quán)平均,對該3×3窗口應(yīng)用一個濾波器。由于相鄰節(jié)點的特定順序,可以在不同的位置共享可訓(xùn)練權(quán)重。同樣,對于一般的圖,基于空間的圖卷積將中心節(jié)點表示和相鄰節(jié)點表示進行聚合,以獲得該節(jié)點的新表示,如圖b所示。
一種共同的實踐是將多個圖卷積層疊加在一起。根據(jù)卷積層疊的不同方法,基于空間的GCN可以進一步分為兩類:recurrent-based和composition-based的空間GCN。recurrent-based的方法使用相同的圖卷積層來更新隱藏表示,composition-based的方法使用不同的圖卷積層來更新隱藏表示。下圖說明了這種差異。
1.3 Comparison Between Spectral and Spatial Models
作為最早的圖卷積網(wǎng)絡(luò),基于頻譜的模型在許多與圖相關(guān)的分析任務(wù)中取得了令人印象深刻的結(jié)果。這些模型在圖信號處理方面有一定的理論基礎(chǔ)。通過設(shè)計新的圖信號濾波器,我們可以從理論上設(shè)計新的圖卷積網(wǎng)絡(luò)。然而,基于頻譜的模型有幾個缺點。我們從效率、通用性和靈活性三個方面來說明這一點。
在效率方面,基于頻譜的模型的計算成本隨著圖的大小而急劇增加,因為它們要么需要執(zhí)行特征向量計算,要么同時處理整個圖,這使得它們很難適用于大型圖?;诳臻g的模型有潛力處理大型圖,因為它們通過聚集相鄰節(jié)點直接在圖域中執(zhí)行卷積。計算可以在一批節(jié)點中執(zhí)行,而不是在整個圖中執(zhí)行。當(dāng)相鄰節(jié)點數(shù)量增加時,可以引入采樣技術(shù)來提高效率。
在一般性方面,基于頻譜的模型假定一個固定的圖,使得它們很難在圖中添加新的節(jié)點。另一方面,基于空間的模型在每個節(jié)點本地執(zhí)行圖卷積,可以輕松地在不同的位置和結(jié)構(gòu)之間共享權(quán)重。
在靈活性方面,基于頻譜的模型僅限于在無向圖上工作,有向圖上的拉普拉斯矩陣沒有明確的定義,因此將基于頻譜的模型應(yīng)用于有向圖的唯一方法是將有向圖轉(zhuǎn)換為無向圖?;诳臻g的模型更靈活地處理多源輸入,這些輸入可以合并到聚合函數(shù)中。因此,近年來空間模型越來越受到關(guān)注。
2、圖注意力網(wǎng)絡(luò)(Graph Attention Networks)
注意力機制如今已經(jīng)被廣泛地應(yīng)用到了基于序列的任務(wù)中,它的優(yōu)點是能夠放大數(shù)據(jù)中最重要的部分的影響。這個特性已經(jīng)被證明對許多任務(wù)有用,例如機器翻譯和自然語言理解。如今融入注意力機制的模型數(shù)量正在持續(xù)增加,圖神經(jīng)網(wǎng)絡(luò)也受益于此,它在聚合過程中使用注意力,整合多個模型的輸出,并生成面向重要目標(biāo)的隨機行走。在本節(jié)中,我們將討論注意力機制如何在圖結(jié)構(gòu)數(shù)據(jù)中使用。
2.1 Graph Attention Network (GAT)
圖注意力網(wǎng)絡(luò)(GAT)是一種基于空間的圖卷積網(wǎng)絡(luò),它的注意機制是在聚合特征信息時,將注意機制用于確定節(jié)點鄰域的權(quán)重。GAT的圖卷積運算定義為:
其中α(·)是一個注意力函數(shù),它自適應(yīng)地控制相鄰節(jié)點j對節(jié)點i的貢獻。為了學(xué)習(xí)不同子空間中的注意力權(quán)重,GAT還可以使用多注意力:
2.2 Gated Attention Network (GAAN)
門控注意力網(wǎng)絡(luò)(GAAN)還采用了多頭注意力機制來更新節(jié)點的隱藏狀態(tài)。然而,GAAN并沒有給每個head部分配相等的權(quán)重,而是引入了一種自注意機制,該機制為每個head計算不同的權(quán)重。更新規(guī)則定義為,
其中 
是反饋神經(jīng)網(wǎng)絡(luò),而 
 是第k個注意力head的注意力權(quán)重
2.3 Graph Attention Model (GAM)
圖形注意力模型(GAM)提供了一個循環(huán)神經(jīng)網(wǎng)絡(luò)模型,以解決圖形分類問題,通過自適應(yīng)地訪問一個重要節(jié)點的序列來處理圖的信息。GAM模型被定義為
其中 
 是一個LSTM網(wǎng)絡(luò),fs是一個step network,它會優(yōu)先訪問當(dāng)前節(jié)點 
 優(yōu)先級高的鄰居并將它們的信息進行聚合。
除了在聚集特征信息時將注意力權(quán)重分配給不同的鄰居節(jié)點,還可以根據(jù)注意力權(quán)重將多個模型集合起來,以及使用注意力權(quán)重引導(dǎo)隨機行走。盡管GAT和GAAN在圖注意網(wǎng)絡(luò)的框架下進行了分類,但它們也可以同時被視為基于空間的圖形卷積網(wǎng)絡(luò)。GAT和GAAN的優(yōu)勢在于,它們能夠自適應(yīng)地學(xué)習(xí)鄰居的重要性權(quán)重。然而,計算成本和內(nèi)存消耗隨著每對鄰居之間的注意權(quán)重的計算而迅速增加。
3、Graph Autoencoders
圖自動編碼器是一類圖嵌入方法,其目的是利用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)將圖的頂點表示為低維向量。典型的解決方案是利用多層感知機作為編碼器來獲取節(jié)點嵌入,其中解碼器重建節(jié)點的鄰域統(tǒng)計信息,如positive pointwise mutual information (PPMI)或一階和二階近似值。最近,研究人員已經(jīng)探索了將GCN作為編碼器的用途,將GCN與GAN結(jié)合起來,或?qū)STM與GAN結(jié)合起來設(shè)計圖自動編碼器。我們將首先回顧基于GCN的AutoEncoder,然后總結(jié)這一類別中的其他變體。
目前基于GCN的自編碼器的方法主要有:Graph Autoencoder (GAE)和Adversarially Regularized Graph Autoencoder (ARGA)
圖自編碼器的其它變體有:
Network Representations with Adversarially Regularized Autoencoders (NetRA)
Deep Neural Networks for Graph Representations (DNGR)
Structural Deep Network Embedding (SDNE)
Deep Recursive Network Embedding (DRNE)
DNGR和SDNE學(xué)習(xí)僅給出拓撲結(jié)構(gòu)的節(jié)點嵌入,而GAE、ARGA、NetRA、DRNE用于學(xué)習(xí)當(dāng)拓撲信息和節(jié)點內(nèi)容特征都存在時的節(jié)點嵌入。圖自動編碼器的一個挑戰(zhàn)是鄰接矩陣A的稀疏性,這使得解碼器的正條目數(shù)遠遠小于負條目數(shù)。為了解決這個問題,DNGR重構(gòu)了一個更密集的矩陣,即PPMI矩陣,SDNE對鄰接矩陣的零項進行懲罰,GAE對鄰接矩陣中的項進行重加權(quán),NetRA將圖線性化為序列。
4、Graph Generative Networks
圖生成網(wǎng)絡(luò)的目標(biāo)是在給定一組觀察到的圖的情況下生成新的圖。圖生成網(wǎng)絡(luò)的許多方法都是特定于領(lǐng)域的。例如,在分子圖生成中,一些工作模擬了稱為SMILES的分子圖的字符串表示。在自然語言處理中,生成語義圖或知識圖通常以給定的句子為條件。最近,人們提出了幾種通用的方法。一些工作將生成過程作為節(jié)點和邊的交替形成因素,而另一些則采用生成對抗訓(xùn)練。這類方法要么使用GCN作為構(gòu)建基塊,要么使用不同的架構(gòu)。
基于GCN的圖生成網(wǎng)絡(luò)主要有
Molecular Generative Adversarial Networks (MolGAN):將relational GCN、改進的GAN和強化學(xué)習(xí)(RL)目標(biāo)集成在一起,以生成具有所需屬性的圖。GAN由一個生成器和一個鑒別器組成,它們相互競爭以提高生成器的真實性。在MolGAN中,生成器試圖提出一個偽圖及其特征矩陣,而鑒別器的目標(biāo)是區(qū)分偽樣本和經(jīng)驗數(shù)據(jù)。此外,還引入了一個與鑒別器并行的獎勵網(wǎng)絡(luò),以鼓勵生成的圖根據(jù)外部評價器具有某些屬性。
Deep Generative Models of Graphs (DGMG):利用基于空間的圖卷積網(wǎng)絡(luò)來獲得現(xiàn)有圖的隱藏表示。生成節(jié)點和邊的決策過程是以整個圖的表示為基礎(chǔ)的。簡而言之,DGMG遞歸地在一個圖中產(chǎn)生一個節(jié)點,直到達到某個停止條件。在添加新節(jié)點后的每一步,DGMG都會反復(fù)決定是否向添加的節(jié)點添加邊,直到?jīng)Q策的判定結(jié)果變?yōu)榧?。如果決策為真,則評估將新添加節(jié)點連接到所有現(xiàn)有節(jié)點的概率分布,并從概率分布中抽取一個節(jié)點。將新節(jié)點及其邊添加到現(xiàn)有圖形后,DGMG將更新圖的表示。
其它架構(gòu)的圖生成網(wǎng)絡(luò)主要有
GraphRNN:通過兩個層次的循環(huán)神經(jīng)網(wǎng)絡(luò)的深度圖生成模型。圖層次的RNN每次向節(jié)點序列添加一個新節(jié)點,而邊層次RNN生成一個二進制序列,指示新添加的節(jié)點與序列中以前生成的節(jié)點之間的連接。為了將一個圖線性化為一系列節(jié)點來訓(xùn)練圖層次的RNN,GraphRNN采用了廣度優(yōu)先搜索(BFS)策略。為了建立訓(xùn)練邊層次的RNN的二元序列模型,GraphRNN假定序列服從多元伯努利分布或條件伯努利分布。
NetGAN:Netgan將LSTM與Wasserstein-GAN結(jié)合在一起,使用基于隨機行走的方法生成圖形。GAN框架由兩個模塊組成,一個生成器和一個鑒別器。生成器盡最大努力在LSTM網(wǎng)絡(luò)中生成合理的隨機行走序列,而鑒別器則試圖區(qū)分偽造的隨機行走序列和真實的隨機行走序列。訓(xùn)練完成后,對一組隨機行走中節(jié)點的共現(xiàn)矩陣進行正則化,我們可以得到一個新的圖。
5、Graph Spatial-Temporal Networks
圖時空網(wǎng)絡(luò)同時捕捉時空圖的時空相關(guān)性。時空圖具有全局圖結(jié)構(gòu),每個節(jié)點的輸入隨時間變化。例如,在交通網(wǎng)絡(luò)中,每個傳感器作為一個節(jié)點連續(xù)記錄某條道路的交通速度,其中交通網(wǎng)絡(luò)的邊由傳感器對之間的距離決定。圖形時空網(wǎng)絡(luò)的目標(biāo)可以是預(yù)測未來的節(jié)點值或標(biāo)簽,或者預(yù)測時空圖標(biāo)簽。最近的研究僅僅探討了GCNs的使用,GCNs與RNN或CNN的結(jié)合,以及根據(jù)圖結(jié)構(gòu)定制的循環(huán)體系結(jié)構(gòu)。
目前圖時空網(wǎng)絡(luò)的模型主要有
Diffusion Convolutional Recurrent Neural Network (DCRNN)
CNN-GCN
Spatial Temporal GCN (ST-GCN)
Structural-RNN


圖神經(jīng)網(wǎng)絡(luò)的應(yīng)用

1、Computer Vision
圖形神經(jīng)網(wǎng)絡(luò)的最大應(yīng)用領(lǐng)域之一是計算機視覺。研究人員在場景圖生成、點云分類與分割、動作識別等多個方面探索了利用圖結(jié)構(gòu)的方法。
在場景圖生成中,對象之間的語義關(guān)系有助于理解視覺場景背后的語義含義。給定一幅圖像,場景圖生成模型檢測和識別對象,并預(yù)測對象對之間的語義關(guān)系。另一個應(yīng)用程序通過生成給定場景圖的真實圖像來反轉(zhuǎn)該過程。自然語言可以被解析為語義圖,其中每個詞代表一個對象,這是一個有希望的解決方案,以合成給定的文本描述圖像。
在點云分類和分割中,點云是激光雷達掃描記錄的一組三維點。此任務(wù)的解決方案使激光雷達設(shè)備能夠看到周圍的環(huán)境,這通常有利于無人駕駛車輛。為了識別點云所描繪的物體,將點云轉(zhuǎn)換為k-最近鄰圖或疊加圖,并利用圖論進化網(wǎng)絡(luò)來探索拓撲結(jié)構(gòu)。
在動作識別中,識別視頻中包含的人類動作有助于從機器方面更好地理解視頻內(nèi)容。一組解決方案檢測視頻剪輯中人體關(guān)節(jié)的位置。由骨骼連接的人體關(guān)節(jié)自然形成圖表。給定人類關(guān)節(jié)位置的時間序列,應(yīng)用時空神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)人類行為模式。
此外,圖形神經(jīng)網(wǎng)絡(luò)在計算機視覺中應(yīng)用的可能方向也在不斷增加。這包括人-物交互、少鏡頭圖像分類、語義分割、視覺推理和問答等。
2、Recommender Systems
基于圖的推薦系統(tǒng)以項目和用戶為節(jié)點。通過利用項目與項目、用戶與用戶、用戶與項目之間的關(guān)系以及內(nèi)容信息,基于圖的推薦系統(tǒng)能夠生成高質(zhì)量的推薦。推薦系統(tǒng)的關(guān)鍵是評價一個項目對用戶的重要性。因此,可以將其轉(zhuǎn)換為一個鏈路預(yù)測問題。目標(biāo)是預(yù)測用戶和項目之間丟失的鏈接。為了解決這個問題,有學(xué)者提出了一種基于GCN的圖形自動編碼器。還有學(xué)者結(jié)合GCN和RNN,來學(xué)習(xí)用戶對項目評分的隱藏步驟。
3、Traffic
交通擁堵已成為現(xiàn)代城市的一個熱點社會問題。準(zhǔn)確預(yù)測交通網(wǎng)絡(luò)中的交通速度、交通量或道路密度,在路線規(guī)劃和流量控制中至關(guān)重要。有學(xué)者采用基于圖的時空神經(jīng)網(wǎng)絡(luò)方法來解決這些問題。他們模型的輸入是一個時空圖。在這個時空圖中,節(jié)點由放置在道路上的傳感器表示,邊由閾值以上成對節(jié)點的距離表示,每個節(jié)點都包含一個時間序列作為特征。目標(biāo)是預(yù)測一條道路在時間間隔內(nèi)的平均速度。另一個有趣的應(yīng)用是出租車需求預(yù)測。這有助于智能交通系統(tǒng)有效利用資源,節(jié)約能源。
4、Chemistry
在化學(xué)中,研究人員應(yīng)用圖神經(jīng)網(wǎng)絡(luò)研究分子的圖結(jié)構(gòu)。在分子圖中,原子為圖中的節(jié)點,化學(xué)鍵為圖中的邊。節(jié)點分類、圖形分類和圖形生成是分子圖的三個主要任務(wù),它們可以用來學(xué)習(xí)分子指紋、預(yù)測分子性質(zhì)、推斷蛋白質(zhì)結(jié)構(gòu)、合成化合物。
5、Others
除了以上四個領(lǐng)域外,圖神經(jīng)網(wǎng)絡(luò)還已被探索可以應(yīng)用于其他問題,如程序驗證、程序推理、社會影響預(yù)測、對抗性攻擊預(yù)防、電子健康記錄建模、腦網(wǎng)絡(luò)、事件檢測和組合優(yōu)化。

作者 | 知乎:蘇一

https://www.zhihu.com/people/su-yi-28-30/activities

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
騰訊AI Lab聯(lián)合清華、港中文,萬字解讀圖深度學(xué)習(xí)歷史、最新進展與應(yīng)用
圖神經(jīng)網(wǎng)絡(luò)性能提升方法綜述
什么是Graph Convolutional Network?它有哪些最新進展?
Graph Neural Network(GNN)綜述
深度學(xué)習(xí)時代的圖模型,清華發(fā)文綜述圖網(wǎng)絡(luò)
CV的未來是圖神經(jīng)網(wǎng)絡(luò)?中科院軟件所發(fā)布全新CV模型ViG,性能超越ViT
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服