SlideShare a Scribd company logo
Tree-Structured
Variational Autoencoder
16/12/16
野中 尚輝
Richard Shin, Alexander A. Alemi, Geoffrey Irving, Oriol
Vinyals
目次
• 書誌情報
• イントロダクション
• モデル
• 実験
• 過去のモデルとの比較
• 結論・まとめ
2016/12/16 1
書誌情報
• ICLR 2017 (Submitted)
– UC Berkeley
– Google Research, Google Brain,
Google DeepMind
2016/12/16 2
背景
• 深層生成モデルが大きな成果を出している
– VAEやGANなど
– 解析的に求めることのできない複雑な同時分布
をニューラルネットワークにより近似
– 画像、文章、音声などの生成において成果を
出している
↓
• 木構造のデータに適用したい
– Computer grammarや自然言語は木構造で
表現できる
2016/12/16 3
背景
• 木構造データは系列データとして扱い、
系列モデルを用いることも可能
• 木構造を考慮したモデルの方が、長い
依存関係を捉えることができる可能性が
ある
– 系列データでは距離があっても木構造では
近い場合もある
2016/12/16 4
背景
• 木構造に含まれる各ノードのidentityを
決定する分散表現を親ノードに対する
相対位置と分散表現の関数として計算
↓
• 木構造の様々な特徴を潜在空間で学習し、
top-down Recursive NNに入力として
与え、生成を行う
2016/12/16 5
関連研究
• 木構造のニューラルネットワーク
– Bottom upとTop downの二種類が存在
• Variational Autoencoder
2016/12/16 6
Recursive Neural Network
2016/12/16 7
http://www.iro.umontreal.ca/~bengioy/talks/gss2012-YB6-NLP-recursive.pdf
Recursive Neural Network
2016/12/16 8
Context free grammar
• 文脈自由文法
2016/12/16 9
Context free grammar
2016/12/16 10
Context free grammar
2016/12/16 11
P9~11 (https://www.jaist.ac.jp/~uehara/course/2009/ti118/11cfg-n.pdf)
提案モデル(木の構造)
• 各ノードにはタイプと、子ノードまたは
terminal valueが存在
– terminal: 何らかの値を持つ
– non-terminal: 0以上の子ノードを持つ
NT: タイプTのノード
2016/12/16 12
Type: terminal
Terminal value
Type: non-terminal
...child child
提案モデル(木の構造)
• T = terminal
– 取りうる値のリストを持ち、その中から値を
返す
• T = non-terminal
– NTは子ノードを持つことが可能
• Singular child
– SINGULARCHILD(T, i)に含まれるタイプの子ノード
– SINGULARCHILDCOUNT(T)個の子ノード
– (タイプTごとに取りうる子ノードの数が固定)
• Repeated children
– 任意の数のREPEATEDCHILDRENに属するタイプの
子ノードを持つ
2016/12/16 13
提案モデル(Decoder)
• GENERATENODE(T, h)
– 入力としてノードのタイプTおよび
隠れ状態hを与える
– T = terminal
• WHICHTERMINALVALUET(h)
• 取りうる値に対する確率分布からサンプリング
された値を返す
– T = non-terminal
• タイプTにしたがってノードとそのノードにおける
隠れ状態h’を出力
2016/12/16 14
提案モデル(Encode)
• ENCODE(n)
– ノードnが与えられたとき、それ以下の
木構造を表現するベクトルを返す
– T = terminal
• 入力として与えられた値vについてのk次元
ベクトル表現を返す
– T = non-terminal
• Tの子ノードについてENCODE(ni)を出力
• 子ノードについて得られたENCODE(ni)を統合
ENCODE(nroot) = hrootは木構造全体の情報を表
すk次元のベクトルを返す
2016/12/16 15
提案モデル
• ニューラルネットワークにより、
ENCODE(n)およびGENERATENODE(T, h)
におけるベクトルを変換
– SPLIT, MERGE, WHICHの3つの関数が存在
– SPLIT, MERGEを合わせたCOMBINEを置く
• SPLIT:
• MERGE:
• COMBINE:
– WHICH
• K次元の入力からd次元の出力を得る
2016/12/16 16
提案モデル(用いる関数)
• 用いる関数
– SPLIT
• SPLITとSPLITREPEATEDを統合
– MERGE
• MERGEとMERGEREPEATEDを統合
– WHICH
• WHICHTERMINALVALUET(h)
• WHICHCHILDTYPET,i(gi)
• WHICHCHILDTYPET,repeated(gcur)
• その他
– GatingとLayer Normalizationを使用
2016/12/16 17
実験
• Type-aware sequential model
• Synthetic arithmetic data
• First-order logic proof of clause
2016/12/16 18
Synthetic Arithmetic Data
• Grammar
– 2種のnon-terminal type
• PLUSとMINUSが存在
• それぞれ2つの子ノードが存在
• 子ノードはPLUS, MINUS, NUMBERのいずれか
– 1種のterminal type
• NUMBERが存在
• 0から9までの値を取る
2016/12/16 19
Synthetic Arithmetic Data
• Data generation
– Rootノードからterminalノードまでの最大の
距離により深さを定義
– 和を定めた上で学習
– 深くなるとTreeVAEの尤度がSequential
modelを上回る
2016/12/16 20
First-order Logic Proof
• Grammar
– 各literalには、下記のいずれかが含まれる
• 一つのpredicate
– 決められた数のargumentを決定するname
• 二つのexpressionsが等しいことを示すassert
– Expressionは、function, number, variableのいずれか
2016/12/16 21
First-order Logic Proof
• 結果
– Sequential modelにおける対数尤度が
提案手法をわずかに上回った
– Tree no VAEと比較して精度が向上した
2016/12/16 22
結論・まとめ
• 木構造のデータに対するVAEを提案
• 精度は系列データとして扱った場合の
LSTMと同程度
• 今後の課題
– 規模の大きなデータに適用するためには改善
が必要
– 対数尤度の値を改善する必要がある
2016/12/16 23

More Related Content

PPTX
[DL輪読会]Unsupervised Cross-Domain Image Generation
PDF
[DL輪読会]Combining Fully Convolutional and Recurrent Neural Networks for 3D Bio...
PDF
[DL輪読会]Unsupervised Learning of 3D Structure from Images
PPTX
[DL輪読会]Understanding deep learning requires rethinking generalization
PDF
[DL輪読会]Learning What and Where to Draw (NIPS’16)
PPTX
[DL輪読会]Learning convolutional neural networks for graphs
PDF
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
PDF
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...
[DL輪読会]Unsupervised Cross-Domain Image Generation
[DL輪読会]Combining Fully Convolutional and Recurrent Neural Networks for 3D Bio...
[DL輪読会]Unsupervised Learning of 3D Structure from Images
[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Learning What and Where to Draw (NIPS’16)
[DL輪読会]Learning convolutional neural networks for graphs
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generat...

Viewers also liked (15)

PDF
[Dl輪読会]dl hacks輪読
PPTX
[DL輪読会]Image-to-Image Translation with Conditional Adversarial Networks
PPTX
[DL輪読会]Semi supervised qa with generative domain-adaptive nets
PDF
[DL輪読会]Regularization with stochastic transformations and perturbations for d...
PPTX
[DL輪読会]Exploiting Cyclic Symmetry in Convolutional Neural Networks
PDF
[DL輪読会]最新の深層強化学習
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
PDF
Iclr2016 vaeまとめ
PDF
[Dl輪読会]bridging the gaps between residual learning, recurrent neural networks...
PDF
[輪読会]Multilingual Image Description with Neural Sequence Models
PDF
[Dl輪読会]Censoring Representation with Adversary
PPTX
Variational autoencoder talk
PPTX
[DL輪読会]Let there be color
PDF
[Dl輪読会]bayesian dark knowledge
PDF
Variational AutoEncoder
[Dl輪読会]dl hacks輪読
[DL輪読会]Image-to-Image Translation with Conditional Adversarial Networks
[DL輪読会]Semi supervised qa with generative domain-adaptive nets
[DL輪読会]Regularization with stochastic transformations and perturbations for d...
[DL輪読会]Exploiting Cyclic Symmetry in Convolutional Neural Networks
[DL輪読会]最新の深層強化学習
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Iclr2016 vaeまとめ
[Dl輪読会]bridging the gaps between residual learning, recurrent neural networks...
[輪読会]Multilingual Image Description with Neural Sequence Models
[Dl輪読会]Censoring Representation with Adversary
Variational autoencoder talk
[DL輪読会]Let there be color
[Dl輪読会]bayesian dark knowledge
Variational AutoEncoder
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
PPTX
【DL輪読会】事前学習用データセットについて
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
PPTX
【DL輪読会】マルチモーダル LLM
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
PPTX
【DL輪読会】Hopfield network 関連研究について
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Ad

[DL輪読会]TREE-STRUCTURED VARIATIONAL AUTOENCODER