Submit Search
【論文紹介】How Powerful are Graph Neural Networks?
Download as PPTX, PDF
4 likes
4,843 views
Masanao Ochi
最近のGNNの隣接ノード情報の集約方法や一層パーセプトロンによる積層の限界を指摘した論文.
Engineering
Related topics:
Deep Learning
Read more
1 of 23
Download now
Downloaded 38 times
1
2
Most read
3
4
5
6
7
8
9
10
11
12
13
14
Most read
15
16
17
18
19
20
21
22
Most read
23
More Related Content
PDF
グラフデータ分析 入門編
順也 山口
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
PPTX
Graph convolution (スペクトルアプローチ)
yukihiro domae
PDF
グラフニューラルネットワークとグラフ組合せ問題
joisino
PDF
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
ssuser3e398d
PPTX
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
PPTX
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
PDF
数式からみるWord2Vec
Okamoto Laboratory, The University of Electro-Communications
グラフデータ分析 入門編
順也 山口
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
Graph convolution (スペクトルアプローチ)
yukihiro domae
グラフニューラルネットワークとグラフ組合せ問題
joisino
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
ssuser3e398d
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
数式からみるWord2Vec
Okamoto Laboratory, The University of Electro-Communications
What's hot
(20)
PDF
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
PDF
グラフニューラルネットワーク入門
ryosuke-kojima
PDF
Attentionの基礎からTransformerの入門まで
AGIRobots
PDF
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
PPTX
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
PDF
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
PDF
PRML学習者から入る深層生成モデル入門
tmtm otm
PPTX
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
PDF
三次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
PDF
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
PDF
変分推論と Normalizing Flow
Akihiro Nitta
PDF
ELBO型VAEのダメなところ
KCS Keio Computer Society
PPTX
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
PPTX
深層学習の数理
Taiji Suzuki
PDF
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
PPTX
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
グラフニューラルネットワーク入門
ryosuke-kojima
Attentionの基礎からTransformerの入門まで
AGIRobots
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
PRML学習者から入る深層生成モデル入門
tmtm otm
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
三次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
変分推論と Normalizing Flow
Akihiro Nitta
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
深層学習の数理
Taiji Suzuki
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
Ad
Similar to 【論文紹介】How Powerful are Graph Neural Networks?
(20)
PPTX
SakataMoriLab GNN勉強会第一回資料
ttt_miura
PDF
Graph nuralnetwork@2021
embedded samurai
PDF
Graph-Neural-Recommendation-for-Social-Recommendation
ShumpeiKikuta
PDF
20220125_neurips_sharing_vqgnn
ssuser9156f1
PDF
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
PPTX
Graph Neural Networks
tm1966
PPTX
[DL輪読会]Learning convolutional neural networks for graphs
Deep Learning JP
PPTX
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
yukihiro domae
PPTX
20190509 gnn public
Jiro Nishitoba
PDF
Graph Attention Network
Takahiro Kubo
PDF
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
Deep Learning JP
PPTX
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
PPTX
Graph conv
TakuyaKobayashi12
PDF
論文紹介 Star-Transformer (NAACL 2019)
広樹 本間
PPTX
Combinatorial optimization with graph convolutional networks and guided
Shuntaro Ohno
PPTX
Combinatorial optimization with graph convolutional networks and guided ver20...
Shuntaro Ohno
PDF
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Masayoshi Kondo
PDF
第64回情報科学談話会(岡﨑 直観 准教授)
gsis gsis
PDF
Graph Convolutional Networks for Classification with a Structured LebalSpace
Kazusa Taketoshi
PDF
ICLR2020InfoGraph
embedded samurai
SakataMoriLab GNN勉強会第一回資料
ttt_miura
Graph nuralnetwork@2021
embedded samurai
Graph-Neural-Recommendation-for-Social-Recommendation
ShumpeiKikuta
20220125_neurips_sharing_vqgnn
ssuser9156f1
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
Graph Neural Networks
tm1966
[DL輪読会]Learning convolutional neural networks for graphs
Deep Learning JP
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
yukihiro domae
20190509 gnn public
Jiro Nishitoba
Graph Attention Network
Takahiro Kubo
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
Deep Learning JP
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
Graph conv
TakuyaKobayashi12
論文紹介 Star-Transformer (NAACL 2019)
広樹 本間
Combinatorial optimization with graph convolutional networks and guided
Shuntaro Ohno
Combinatorial optimization with graph convolutional networks and guided ver20...
Shuntaro Ohno
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Masayoshi Kondo
第64回情報科学談話会(岡﨑 直観 准教授)
gsis gsis
Graph Convolutional Networks for Classification with a Structured LebalSpace
Kazusa Taketoshi
ICLR2020InfoGraph
embedded samurai
Ad
【論文紹介】How Powerful are Graph Neural Networks?
1.
How Powerful are
Graph Neural Networks? 2019-07-05 @ ダイキンアレス青谷 紹介 大知 正直(東京大学) Keyulu Xu, Weihua Hu, Jure Leskovec, Stefanie Jegelka
2.
とても重要な論文だと思いました ● ICLR(International Conference
on Learning Representations:表現学習に関 するトップ会議) 2019のオーラルペーパー ○ Open Review のため,丸見え.投稿してボコボコにされて不採択になると業界内でちょっと 有名になってしまったりする恥ずかしいシステム ● 投稿数1449 papers, 採択率36%, 口頭発表はうち24件 ● 本論文は口頭発表 0.論文の諸元 ● スタンフォード大CS学部准教授 ● 大規模ネットワークに関する研究が専門 ● 主観 ○ 機械学習手法とそれを用いた分析に関する論文をバランスよく出している ○ 先進的な論文が他から出る→即数学的な整理をして若干スマートな論文を出版 しフォロー,その分野の第一人者になる傾向 ○ SNAPというネットワーク分析ライブラリに取り込み業界標準化を行うJure Leskovec ※ 第3著者は有名人
3.
GNN, GCN全般の表現力が足りない件について分析した ● 問題意識 ○
GNN,GCNの手法群の精度が頭打ちなのはなぜなのか ● 分析方法&結果 ○ GNN, GCNの表現力をWeisfeiler-Lehman Testというグラフの同型性の判別方法 との類似性を元に分析 ○ GNN, GCNのアーキテクチャを集約(Aggregate),結合(Combine),読み出し (Readout)の3つの部分に分け,特にAggregationの部分での差を多重集合 (Multiset)という概念でこれまでのGNN系のAggregation手法を分類,分析を行っ た ○ 分析の結果,最も表現力の高いSummationによるAggregationを行うGIN(Graph Isomorphism Network)という手法を提案し,SOTAを達成 ● 結論 ○ 隣接ノードの集約を行うアーキテクチャの決着をつけ,その先の手法の開拓の必 要性を示した 1. 概要
4.
Graph Convolutional Network的な手法,多すぎ・・・ 2.
背景 Zhang, Ziwei & Cui, Peng & Zhu, Wenwu. (2018). Deep Learning on Graphs: A Survey.
5.
GNN, GCNの手法がたくさん提案されている状況だが精度が頭打ち感 ● RNN系:Yujia
Li, Daniel Tarlow, Gated graph sequence neural networks: ICLR2016 ● CNN系: ○ William L Hamilton, Rex Ying, and Jure Leskovec., Inductive representation learning on large graphs: NIPS2017 ○ Thomas N Kipf and Max Welling. Semi- supervised classification with graph convolutional networks: ICLR2017 ● Attention系:Petar Velickovic, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Lio, and Yoshua Bengio. Graph attention networks: ICLR2018 ● 無理やりDeepにしてみたよ系:Keyulu Xu, Chengtao Li, Yonglong Tian, Tomohiro Sonobe, Ken-ichi Kawarabayashi, and Stefanie Jegelka. Representation learning on graphs with jumping knowledge networks. ICML2018 2. 背景 Keyulu Xu, Chengtao Li, Yonglong Tian, Tomohiro Sonobe, Ken-ichi Kawarabayashi, and Stefanie Jegelka. Representation learning on graphs with jumping knowledge networks. ICML2018 R-GCN GAT JK-Net
6.
Graph Neural NetworkはDeepにしても全然精度があがらない 2.
背景 Kipf, Thomas N., and Max Welling. "Semi-supervised classification with graph convolutional networks." arXiv preprint arXiv:1609.02907 (2016).
7.
理論解析をして次のブレイクスルーの可能性を示そう ● それぞれの手法の問題点 ○ それぞれが適当なタスクでSOTAを主張している ○
ほとんどのGNNが経験からの直感,ヒューリスティクス,試行錯誤であみだされ たもの ○ GNNの持つ特性,制限に対する理論的な理解,表現能力に対する数理的な解析が ほとんどされていない ● 本論文では ○ GNNの表現力分析に関する理論的フレームワークを提案 ■ Weisfeiler-Lehman Testというグラフ同型判別に関する方法を元にしている ○ グラフの構造と各GNNの表現力の限界について明らかにする 2. 背景
8.
● 対象とするタスク ○ ノード分類 ■
ノードにつけられたラベルを予測するタスク ○ グラフ分類 ■ グラフが複数ある状態でグラフにつけられたラベルを予測するタスク ● Graph Neural Networkの定式化 ○ 集約 ○ 結合 ○ 読み出し 3. 準備 ※読み出しは複数グラフの識別の場合に用いる
9.
● Aggregate, Combineによる各手法の分類 ○
GraphSAGE ○ GCN 3. 準備
10.
● Weisfeiler-Lehman test ○
グラフ同型問題を判定する手法の1つ 3. 準備 グラフ同型判別問題の例 そこそこの精度多重集合(multiset): 重複有りの集合
11.
WLtestはGCNに似てる ● Weisfeiler-Lehman test a.
ラベル付きのノードを想定 (なければ数字をふる) b. 隣接ノードのラベルを集め ,ソート c. ラベル群を並べる d. 新しいラベルをふる e. ラベルごとに各グラフのノ ード数を特徴ベクトル化, 内積で比較 3. 準備
12.
● 左のグラフに対し ● WLtestに用いるサブツリーを構築(真ん中) ●
GNNのaggregationがWLtestと同等の性能を示す場合,すべてのノードに対 し異なる分散表現を獲得できるはず ● この考え方を元に最も表現力のあるAggregationのしくみを考えていく 4. 提案するフレームワーク
13.
5. 強いGNNの構築 ● 最強のGNNとは ○
異なるグラフ構造を持つ全てのグラフを空間上の異なる点に写像するもの ● 単純化すると,どの構造の異なる2つのG1,G2においても異なるベクトル空間への写 像を行うことができる,ということ ● GNNの各層において,集約f,結合Φにおいて,それぞれ単射されていれば良い ● 最終的なグラフの読み出し層においても単射されていなければならない
14.
5. Graph Isomorphism
Network(GIN)の提案 ● 最強のGNNとは ○ 異なるグラフ構造を持つ全てのグラフを空間上の異なる点に写像するもの ● 単純化すると,どの構造の異なる2つのG1,G2においても異なるベクトル空間への写 像を行うことができる,ということ ● GNNの各層において,集約f,結合Φにおいて,それぞれ単射されていれば良い ● 最終的なグラフの読み出し層においても単射されていなければならない ● Aggregation&Combination ● Readout GIN
15.
● GINでMLPを用いる理由 ○ 1layerのPerceptronだとΣX1=ΣX2の ような場合,同一座標へ写像してし まうため ○
他の多くのGCN系の手法(GCN, GraphSAGE)では1layerの Perceptronを用いている 5. 強く無いGNNの分析 ● 1layer Perceptronの例(GraphSage)
16.
総和によるaggregationが最も表現力が高い ● Aggregationの分析 5. 強く無いGNNの分析 ただしMean
Aggregatorはノードラベルが非常に多様な場合は強い
17.
総和によるaggregationが最も表現力が高い ● まとめ ○ 表現力はSumが最高 ○
Mean Aggregationはノードが多様なほど表現力がSumと同等になる ○ Max Pooling Aggregationは外れ値に強くグラフの概形(Skelton)を掴むのに有効という報告 がされている 5. 強く無いGNNの分析
18.
● Datasets: ○ 9
graph classification benchmarks: ■ 4 bioinformatics datasets (MUTAG, PTC, NCI1, PROTEINS) ● Node ラベル:元素やアミノ酸などの分類 ■ 5 social network datasets (COLLAB, IMDB-BINARY, IMDB-MULTI, REDDIT- BINARY and REDDIT-MULTI5K) ● Nodeラベル:REDDIT:すべて同じラベル,その他:ノードの次数をワンホット ベクトルとしてラベリング ● Models & Configuration ○ GINのパラメータを振ったもの(5GNN layer, 2 MLP layer for each GNN layer) ■ εを学習するか0で固定するか ■ MLPをSLPにするか ■ Aggregationをsum,mean,max-poolingにするか ○ BaseLine ■ 最近報告されている手法の結果を論文で報告されている値から取ってきたもの 6. 実験
19.
訓練データではGIN-e, GIN-0がWLtestレベルの精度を示した 6. 結果
20.
テストデータでもかなり良い結果を示している 6. 結果
21.
● GIN:ソーシャル・ネットワークで強い ○ ノード数が多い→Sum
aggregationが有効に働きやすい ○ GIN-eよりもGIN-0が良い結果な場合が多いのはモデルの単純さが学習効率をよくしているの ではないか 6. 結果
22.
● GNNはせいぜいWLtestと同程度のグラフ判別能力しか持たない ● 設定した条件のもとではWLtestと同等の能力を発揮することができる ●
GCNやGraphSAGEでは区別できないようなグラフ構造を特定し,そうした 構造も特定できるようなGNNベースのモデルを提案した ● GINモデルを開発し,それがWLtestと同等の表現力を有することを示した 今後 ● 単なる隣接ノードの情報を集めていく方法は限界で,より抽象的なレベルで の改善が求められる まとめ
Download