SlideShare a Scribd company logo
Graph LSTM
GraphLSTMについて解説
1
2枚の論部について解説
• Semantic Segmentation
• Interpretable Structure-Evolving LSTM [55]
• Semantic object Parsing with Graph LSTM [56]
2
Semantic Object Parsing with Graph LSTM
• Graph LSTM
• 主な特徴
• 画像全体にわたるグローバルな推論を行う
• 強い特徴を持つノードから計算を行う
• 隣接ノードのごとに異なる忘却ゲート適用
• Adobe Research
• ECCV2016
3
広範囲な依存関係はオブジェクトとシーンの理解に不可欠
• 信頼度マップをもとにノードの情報を効果的に伝播する
➡ 広範囲な依存関係を学習
適応忘却ゲート
• 従来の忘却ゲートは隣接するすべてのノードから均等に影響を受ける
➡ 有効とは限らない(隣接ノードすべてが重要とは限らない)
• 隣接ノードに対して異なる忘却ゲートを適応的に学習
➡ 意味的な相互作用を伝播させる
隣接ノードの記憶セル
前層の注目ノードの記憶セル
入力
特徴
適応忘却ゲート
隣接ノードの記憶セル
Semantic Object Parsing with Graph LSTM
6
Superpixel + Graph LSTM
グローバルコンテキスト情報を活用
➡ より詳細に予測する
画像→CNN→特徴マップ→1*1Conv
すべてのラベルに対する信頼度マップを作成
LSTM層で信頼度が高いノードから見ていく
ノード情報
CNNにより抽出された特徴マップに対する
スーパーピクセルの該当領域の特徴の平均
Graphの構成
ノード :スーパーピクセルの領域
エッジ :スーパーピクセルの隣接領域
1*1Conv→confidence map
1*1Convで最終的なセグメンテーション結果を予測
Interpretable Structure-Evolving LSTM
• 構造進化型LSTM(structure-evolving LSTM)を提案
• 積み重ねられたLSTMによりノードを確率的に統合(マージ)する
➡ マルチレベルのグラフからセグメンテーションを予測
• 以下3つのデータセットでSOTA(当時)
• PASCAL-Person-Part dataset
• Horse-Cow object parsing dataset
• ATR dataset
• Semantic Object Parsing with Graph LSTMと同じ著者
• CVPR 2017
7
マルチレベルGraph
• マルチレベルのGraphからセグメンテーションを行う
• 低レベルのGraph(SuperPixel)
➡ 細かいオブジェクトの境界情報を持つ
• 高レベルのGraph
➡ 意味的な相互作用をとらえる
• Graph LSTMを使って学習
• マルチレベルのGraphをうまく抽象化・表現するため
8
Interpretable Structure-Evolving LSTM
• Architecture
9
Graphの構成
ノード :スーパーピクセルの領域
エッジ :スーパーピクセルの隣接領域
ノード情報
CNNにより抽出された特徴マップに対する
スーパーピクセルの該当領域の特徴の平均
LSTMによるノードのマージ
ノード情報更新
(それぞれの注目・隣接ノード情報を
集める)
マルチスケールによる予測の要素ごとの和1*1Conv
クラス予測
Interpretable Structure-Evolving LSTM
• 実験①:PASCAL-Person-Part dataset
• Structure-evolving LSTMがSOTA
10
Interpretable Structure-Evolving LSTM
• 実験②:Horse-Cow object parsing dataset
• Structure-evolving LSTMがSOTA
11
Interpretable Structure-Evolving LSTM
• 実験③:ATR dataset
• Structure-evolving LSTMがSOTA
12
Interpretable Structure-Evolving LSTM
13
Interpretable Structure-Evolving LSTM
14
• 上表:層数を変えたときの精度比較
➡ 5層にしたほうが一番良い
• 下表:それぞれの層ごとの精度
➡ それぞれの層からの予測から予測するほうが良い
Graph LSTMの詳細
Semantic Object Parsing with Graph LSTM
LSTMへの入力
16
1層目のLSTMの入力
• CNNの特徴マップ
➡ upsampling
➡ 領域ごとに平均
2層目のLSTMの入力
• 1層目の入力+隠れ状態
Graph LSTMの全体像
17
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
𝛿 = 𝑠𝑖𝑔𝑚𝑜𝑖𝑑
Confidence-driven Scheme
18
CNN
1×1Conv
Confidence Map
Confidence-driven Scheme
• 1つのLSTM層で計算するノードの順番を決定
19
CNN
1×1Conv
Confidence Map
領域ごとに値を平均(=信頼度)
信頼度が大きいノードから計算を行う
信頼度が高い
→領域の中の値が大きい
→ノードに強い意味的特徴を持つ
Confidence-driven Scheme
• 信頼度が大きいノードから順に計算を行う
• 計算するノードを確率的に決定
• 既に計算したノードを使用することで、
先に計算したノード(強い意味的特徴を持つ)特徴をより他のノードに伝播
• 畳み込みに近い
通常のLSTMと異なる点
21
memory cell of adj node
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
忘却ゲートについて
22
忘却ゲート
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
忘却ゲート
• 𝒉𝑖
𝑡
と 𝒇𝑖
𝑡
から前の層からの記憶セルを保持するかを決定
• 𝒉𝑖
𝑡
: 前の層の隠れ状態
• 𝒇𝑖
𝑡
: 入力(グラフのノード特徴)
23
入力・記憶ゲートについて
24
入力・記憶ゲート
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
入力・記憶ゲート
• 𝒉𝑖
𝑡
に注目
25
𝒉𝑖
𝑡
について
• 𝒉𝑖
𝑡
について
• 注目ノード 𝑖 に隣接しているノードの隠れ状態を平均
(隣接ノードの特徴を集めたのが 𝒉𝑖
𝑡
)
• 𝒉𝑖
𝑡
を計算しているのに𝒉𝑖
𝑡+1
がある
• 既に計算したノードは計算後の隠れ状態を使用するため
• フラグ 𝑞𝑖
• 既に計算したノード : 𝑞𝑖 = 1
• まだに計算していないノード: 𝑞𝑖 = 0
• 𝒩𝒢 𝑖 : ノード 𝑖 の隣接ノードの集合 26
入力・記憶ゲート
• 入力 : 𝒈𝑖
𝑐
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
を入力
• 入力ゲート :𝒈𝑖
𝑢
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
から入力情報の取捨選択を決定
• 入力グラフの特徴 : 𝒇𝑖
𝑡
• 前の層の隠れ状態 : 𝒉𝑖
𝑡
• ノード 𝑖 の隣接ノードの隠れ状態の平均 : 𝒉𝑖
𝑡
27
memory cell of adj node について
28
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
適応忘却ゲート
• 適応忘却ゲート : 𝒈𝑖𝑗
𝑓
• 注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 2つのノードの関係度合いのようなものを算出
• 入力グラフのノード 𝑖 の特徴 : 𝒇𝑖
𝑡
• 前の層のノード 𝑗 の隠れ状態 : 𝒉𝑗
𝑡
29
について
• 注目ノードの特徴と隣接ノードの隠れ状態の関係から
隣接ノードの記憶セルが必要な情報かどうかを決定
• 𝒎𝑖
𝑡+1
は先に計算されたノードのメモリセルを表す
• 𝒈𝑖𝑗
𝑓
: 適応忘却ゲート
• 𝒎𝑖
𝑡
: 𝑡 層目のノード 𝑖 の記憶セル
• 𝑞𝑖 : フラグ(既に計算したノード : 𝑞𝑖 = 1)
• 𝒩𝒢 𝑖 : ノード 𝑖 の隣接ノードの集合
30
memory cell of adj node
記憶セルについて
31
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
記憶セルの計算
• 以下の3つの和を記憶セルとして記憶しておく
• 隣接ノードの記憶セル
• 前層の注目ノードの記憶セル
• 入力特徴(注目ノードの特徴、前層の注目ノードの隠れ状態、隣接ノードの隠れ状態)
32
隣接ノードの記憶セル
前層の注目ノードの記憶セル
入力
特徴
出力ゲートについて
33
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
出力ゲート
• 出力ゲート : 𝒈𝒊
𝑜
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
次の隠れ層としての情報の取捨選択を決定
• 入力グラフの特徴 : 𝒇𝑖
𝑡
• 前の層の隠れ状態 : 𝒉𝑖
𝑡
• ノード 𝑖 の隣接ノードの隠れ状態の平均 : 𝒉𝑖
𝑡
34
具体的なLSTMの構造
Interpretable Structure-Evolving LSTM
Structure-Evolving LSTMの流れ
• CNN
• 画像の特徴抽出
• 信頼度マップ作成
• CNNの特徴マップ →upsampling→ 1×1Conv → スーパーピクセル領域で平均をとる
• 信頼度が大きいノードから先に計算する
36
Structure-Evolving LSTMの流れ
• Graphを構成
• ノード :スーパーピクセルの領域
• ノード情報 :CNNの特徴マップをupsampling → 領域内の特徴を平均
• エッジ :スーパーピクセルの隣接領域
37
Structure-Evolving LSTMの全体像
38
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node• 基本的にGraphLSTMと同じ
Graph LSTMと違う部分
39
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
適応忘却ゲート
• 適応忘却ゲート : 𝒈𝑖𝑗
𝑓
• 注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 2つのノードの関係のようなものを算出
• 入力グラフのノード 𝑖 の特徴 : 𝒇𝑖
𝑡
• 前の層のノード 𝑗 の隠れ状態 : 𝒉𝑗
𝑡
40
マージ確率
• マージ確率
• 適応忘却ゲート 𝒈𝑖𝑗
𝑓
に重み 𝑾 𝒆 をかけたもの
• 適応忘却ゲートは注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 注目・隣接ノードの関係から2つのノードをマージすべき度合いを計算
41
ノードのマージ
• ノードのマージ方法
• マージ確率が一定以上の場合マージを行う
• マージ後の記憶セル、隠れ状態、入力グラフのノードの特徴
• マージしたノード同士の平均をとる
42
マージ後のグラフの評価
• マージしたグラフは以下の2点を指標に評価
• i)状態遷移確率(マージ確率の積)
• ii)セグメンテーションの予測結果
43
マージしたグラフの評価
• i)状態遷移確率(マージ確率の積)
• 𝑞(𝐺 𝑡+1 → 𝐺 𝑡 )
• マージ後のグラフのすべてのマージ確率の積
• 𝑞(𝐺 𝑡 → 𝐺 𝑡+1 )
• マージ前のグラフのすべてのマージ確率の積
44
マージしたグラフの評価
• ii)セグメンテーションの予測結果
• 𝑃 𝐺 𝑡+1
𝐼; 𝑾𝑼
• 𝐺 𝑡+1
(マージ後)のグラフにおけるセグテーション結果のLoss
• 𝑃 𝐺 𝑡
𝐼; 𝑾𝑼
• 𝐺 𝑡 (マージ前)のグラフにおけるセグテーション結果のLoss
• この指標は学習のみ使用(テスト時は青枠のみ使用)
45
𝑃(𝐺 𝑡
|𝐼; 𝑾𝑼) = −
1
𝑍
exp(−ℒ 𝐹 𝐼, 𝐺(𝑡)
, 𝑾, 𝑼 , 𝑌 )
マージしたグラフの評価
• マージ後のグラフがセグメンテーション結果がよくければならない
➡ マージ後のLoss < マージ前のLoss
➡ マージ後の遷移確率 < マージ前の遷移確率
➡𝛼 𝐺 𝑡
→ 𝐺 𝑡+1
が小さくなるほうが良い
• どんなグラフがいいのか
• マージ後の遷移確率が小さい
➡ 似た特徴を持つノードが少ないGraph
• マージ後の𝐿𝑜𝑠𝑠が小さい
➡ セグメンテーション結果が良くなるGraph
➡𝜶 𝑮 𝒕 → 𝑮 𝒕+𝟏 が小さくなるほうが良い
46
𝛼(𝐺(𝑡)
→ 𝐺(𝑡+1)
) =
マージ後の遷移確率
マージ前の遷移確率
マージ後の𝐿𝑜𝑠𝑠
マージ前の𝐿𝑜𝑠𝑠
マージしたグラフの評価
• 上限を50回とする
• どのようにAcceptするのかは不明
• 評価が終了したら次のLSTM層へ
47
メモ
• 広範囲な依存関係はオブジェクトとシーンの理解に不可欠
• 連続的に並ぶLSTMは広範囲な依存関係を記憶する
• しかし各LSTM内での情報伝播経路は固定されたまま
• 信頼度マップをもとにノードの情報を効果的に伝播
➡広範囲な依存関係を学習
• 従来の忘却ゲートは隣接するすべてのノードから均等に影響を受ける
➡ 有効とは限らない(隣接ノードすべてが重要とは限らない)
• 隣接ノードに対して異なる忘却ゲートを適応的に学習
➡ 意味的な相互作用を伝播させる
メモ
• オブジェクトの境界や外観の類似性などの画像内の視覚パターンと
より自然に一致し、より効率的な情報伝達ルートを提供
• Confidence-driven Scheme
• すべてのノードが更新されるまで
ノードの隠れ状態とメモリ状態を段階的かつ最適に更新
• 適応的忘却ゲート
• 隣接ノードとの異なる程度の意味的相関関係を記憶するように適応的に学習

More Related Content

PDF
グラフィカルモデル入門
PDF
PCAの最終形態GPLVMの解説
PDF
計算社会科学とは
PDF
ICML 2020 最適輸送まとめ
PDF
ベルヌーイ分布からベータ分布までを関係づける
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
PPTX
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
PDF
3分でわかる多項分布とディリクレ分布
グラフィカルモデル入門
PCAの最終形態GPLVMの解説
計算社会科学とは
ICML 2020 最適輸送まとめ
ベルヌーイ分布からベータ分布までを関係づける
【論文紹介】How Powerful are Graph Neural Networks?
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
3分でわかる多項分布とディリクレ分布

What's hot (20)

PPTX
変分ベイズ法の説明
PDF
平面グラフと交通ネットワークのアルゴリズム
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
PDF
スパースモデリング
PDF
線形計画法入門
PDF
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
PDF
バンディットアルゴリズム入門と実践
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
PDF
SSII2019企画: 点群深層学習の研究動向
PDF
Domain Adaptation 発展と動向まとめ(サーベイ資料)
PDF
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
PDF
グラフニューラルネットワーク入門
PDF
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
PDF
AutoEncoderで特徴抽出
PDF
グラフ構造データに対する深層学習〜創薬・材料科学への応用とその問題点〜 (第26回ステアラボ人工知能セミナー)
PDF
SSII2018TS: 大規模深層学習
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
PPTX
2014 3 13(テンソル分解の基礎)
PDF
Stochastic Gradient MCMC
PPTX
深層学習の非常に簡単な説明
変分ベイズ法の説明
平面グラフと交通ネットワークのアルゴリズム
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
スパースモデリング
線形計画法入門
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
バンディットアルゴリズム入門と実践
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
SSII2019企画: 点群深層学習の研究動向
Domain Adaptation 発展と動向まとめ(サーベイ資料)
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
グラフニューラルネットワーク入門
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
AutoEncoderで特徴抽出
グラフ構造データに対する深層学習〜創薬・材料科学への応用とその問題点〜 (第26回ステアラボ人工知能セミナー)
SSII2018TS: 大規模深層学習
最近のDeep Learning (NLP) 界隈におけるAttention事情
2014 3 13(テンソル分解の基礎)
Stochastic Gradient MCMC
深層学習の非常に簡単な説明
Ad

Similar to Graph LSTM解説 (20)

PPTX
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
PDF
Nested RNSを用いたディープニューラルネットワークのFPGA実装
PDF
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
PDF
第5回 配信講義 計算科学技術特論B(2022)
PDF
Wssit slide
PPTX
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
PPTX
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
PDF
2012/11/14 softlab_study 発表資料「SSDの基礎」
PPTX
Superpixel Sampling Networks
PDF
attention_is_all_you_need_nips17_論文紹介
PDF
CUDA1日(?)体験会 (再アップロード)
PDF
SpectreとMeltdown:最近のCPUの深い話
PPTX
キャッシュコヒーレントに囚われない並列カウンタ達
PPTX
Ordered neurons integrating tree structures into recurrent neural networks
PPTX
Elasticsearch as a Distributed System
PPTX
Hybrid computing using a neural network with dynamic external memory
PDF
Attentionの基礎からTransformerの入門まで
PDF
MemoryPlus Workshop
PDF
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
PDF
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Nested RNSを用いたディープニューラルネットワークのFPGA実装
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
第5回 配信講義 計算科学技術特論B(2022)
Wssit slide
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
2012/11/14 softlab_study 発表資料「SSDの基礎」
Superpixel Sampling Networks
attention_is_all_you_need_nips17_論文紹介
CUDA1日(?)体験会 (再アップロード)
SpectreとMeltdown:最近のCPUの深い話
キャッシュコヒーレントに囚われない並列カウンタ達
Ordered neurons integrating tree structures into recurrent neural networks
Elasticsearch as a Distributed System
Hybrid computing using a neural network with dynamic external memory
Attentionの基礎からTransformerの入門まで
MemoryPlus Workshop
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
Ad

More from yukihiro domae (7)

PPTX
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
PPTX
Graph U-Net
PPTX
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
PPTX
Learning Depthwise Separable Graph Convolution from Data Manifold
PPTX
Texture-Aware Superpixel Segmentation
PPTX
Graph convolution (スペクトルアプローチ)
PDF
Dynamic Routing Between Capsules
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Graph U-Net
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Learning Depthwise Separable Graph Convolution from Data Manifold
Texture-Aware Superpixel Segmentation
Graph convolution (スペクトルアプローチ)
Dynamic Routing Between Capsules

Graph LSTM解説

Editor's Notes

  • #3: どちらも位置関係を考慮したようなことをやっていて近い感じがした
  • #5: GraphLSTMでは1つの層で すべてのノードを探索して隣接ノードとの関係を学習する そしてその時に更新後のノードの情報を使用する まずノードを見ていく順番が特徴マップの値が大きいノードから見ていく この論文では特徴マップの値が大きいものは重要な意味的部分の特徴と考えている よって先にその重要な特徴を計算していくことで 更新後のノードを使用することでその強い特徴との関係を少ない層で学習するということ ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー 注目ノート隣接ノードを使用して計算する すべてのノードを探索する その時に、隣接ノードがすでに計算さているものは更新されたノードを使用する よってどのノードをはじめに見るかというのが重要になってくる 信頼度マップというのを作成し、信頼度が高いノードが意味的に強い情報を持つ考えのもと先に計算を行う 計算された情報をすぐに使用することで少ない層で広範囲のノードの関係を学習することができる 信頼度マップはCNNから得た特徴➡アップサンプリング➡スーパーピクセルの領域内で平均したもの ------------------------------------------------ ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー 更新されたシーケンス内のより早いノードはおそらくより強い意味的証拠(例えばより高い信頼性を有する任意の重要な意味的部分に属する)を有し、それらの視覚的特徴はメッセージパッシングに対してより信頼性が高いから
  • #17: LSTMの入力はCNNから抽出した特徴マップをアップサンプリングしたものを使用 1層目はスーパーピクセルの領域で平均をとったものをノード情報としたグラフ 2層目は1層目の入力+隠れ状態
  • #18: 全体像はこのようになってます
  • #19: オレンジの部分をこの図で説明
  • #20: CNNから抽出した特徴マップをアップサンプリグ 1*1Convして 領域ごとに平均 そのノードごとの値が信頼度になる その値が大きいということは特徴があり 強い意味的特徴を持つとかんがえらる
  • #22: 通常のLSTMと違う部分は赤枠の部分
  • #23: まず忘却ゲートから
  • #24: 忘却ゲートは通常のLSTMと同じ 前の層の隠れ状態と入力としたGraphによって計算される
  • #25: 次は入力記憶ゲート
  • #26: 計算は上式のようになっている ここで 𝒉 𝑖 𝑡 をまず説明する
  • #28: 入力グラフの特徴 前の層の隠れ状態 ノードiの隣接ノードの隠れ状態の平均によって2つのゲートが計算される
  • #29: 次はこの部分を説明する
  • #30: その前に適応忘却ゲートについて説明する 入力グラフの特徴と隣接ノードの前の層の隠れ状態からノードの関係度合いのようなものを算出する
  • #31: ここでは注目のノードiの 隣接ノードjの記憶セルを忘却ノードによって取捨選択をしながら注目ノードのセルに加える 適応忘却ゲートが注目・隣接ノードの関係のようなものを計算したのはこのため
  • #32: 記憶セルの計算をまとめる
  • #33: 記憶セルは3つの要素の和を記憶 隣接ノードの記憶セル 注目ノードの記憶セル 入力特徴
  • #34: 隠れ状態について説明する
  • #35: 出力ゲートについて説明 入力グラフの特徴 前の層の隠れ状態 隣接ノードの隠れ状態の平均
  • #37: まず画像に対してCNNにより特徴抽出を行う 信頼度マップ作成する ここは前と同じ
  • #38: Graphを構成
  • #40: 前と違う部分はここ
  • #41: 適応忘却ゲートは 注目ノードの特徴と 隣接ノードの隠れ状態から 2つのノードの関係を計算した
  • #42: そのノードの関係に対して重みをかけてマージ確率というものを追加で計算する 注目・隣接ノードの関係から2つのノードをマージすべき度合いを計算
  • #43: ノードをマージする方法を説明する
  • #44: マージ後のグラフは前より良いグラフである必要がある よって評価しなければならない 評価方法は以下2点
  • #47: [構造進化型LSTMを訓練するための最終的な損失] ・最終的なタスク関連の予測的な損失 ・すべての層についての予測されたマージ確率に関する損失