SlideShare a Scribd company logo
7
Most read
8
Most read
16
Most read
Wasserstein Auto-Encoders
2018.10.04
Ridge-i 論文よみかい
Masanari Kimura
mkimura@ridge-i.com
2
©2018 Ridge-i All Rights Reserved.
● ICLR2018採択論文 [1]
● 生成モデルの学習手法の提案.
Abstract
3
©2018 Ridge-i All Rights Reserved.
● Optimal transport costを最小化するように学習するWAEの提案
● GANベースとMMDベースの二つのregularizersを提案
● VAEの安定性と良好な潜在空間を保ったまま,より綺麗な画像の生成が可能
Contributions
4
©2018 Ridge-i All Rights Reserved.
● 潜在変数zがPz = N( 0, Id )からサンプリングされると仮定して学習
Variational AutoEncoder (VAE)
z
μ
Σ
Reconstruction Loss
Input Reconstructed
5
©2018 Ridge-i All Rights Reserved.
● VAE: 全てのデータ点が潜在空間上でPzに従うように学習
○ 異なるデータ点のマージンが交差するため,デコード時に問題が起きる
● WAE: 異なるデータ点は潜在空間上で互いに離れるように学習
VAE vs WAE
6
©2018 Ridge-i All Rights Reserved.
● 多くの確率分布間のダイバージェンスは,最適輸送問題によって導出される [2]
Optimal Transport Problem
最小の労力で
変形したい
7
©2018 Ridge-i All Rights Reserved.
● 多くの確率分布間のダイバージェンスは,最適輸送問題によって導出される [2]
Optimal Transport Problem
最小の労力で
変形したい
Orangeと間違えたものは,
Dogに運ぶよりAppleに運ぶほうが楽
8
©2018 Ridge-i All Rights Reserved.
● 以下の問題を考える
○ は任意のコスト関数
○ はrealとgeneratedの結合分布から得られる の集合
Optimal Transport Problem
9
©2018 Ridge-i All Rights Reserved.
● 特に の時, のp乗根 をp-Wasserstein distanceという
Optimal Transport Problem
10
©2018 Ridge-i All Rights Reserved.
● ここで, ,つまりp=1の時,次の双対問題が成り立つ:
○ Kantorovich-Rubinstein duality
Dual Formulations
1-Lipschitz関数
11
©2018 Ridge-i All Rights Reserved.
● 潜在表現zがある分布からサンプリングされているとする
● zに何らかの変形を施すことで画像空間にマッピングする時,生成モデルの確率密度は
● Auto-Encodersの枠組みでは,zはエンコーダの出力
Latent Variable Model
12
©2018 Ridge-i All Rights Reserved.
● 以下の結合分布について考える
● xについて積分し,周辺化する
● 上式の,xに絡む項のみに注目すると,
● 間の最適輸送問題を考える.前スライドの期待値の部分を積分に変形して,
● ここで,デコーダが決定的であると仮定すると, , から
(制約として )
WAE objective
13
©2018 Ridge-i All Rights Reserved.
● GAN-based
or
MMD-based
Penalized objective
14
©2018 Ridge-i All Rights Reserved.
● MNISTデータセット
Experimental Results
15
©2018 Ridge-i All Rights Reserved.
● CelebAデータセット
Experimental Results
16
©2018 Ridge-i All Rights Reserved.
● Optimal transport costを用いた新しい生成モデルの学習手法を提案
● 既存のVAEと比べて,より綺麗な画像の生成が可能になった
Conclusions
17
©2018 Ridge-i All Rights Reserved.
● [1] Ilya Tolstikhin, Olivier Bousquet, Sylvain Gelly, Bernhard Schoelkopf. "Wasserstein Auto-Encoders", International Conference on Learning
Representations (ICLR). 2018.
● [2] C. Villani. Topics in Optimal Transportation. AMS Graduate Studies in Mathematics, 2003.
References

More Related Content

PDF
【メタサーベイ】基盤モデル / Foundation Models
PDF
【メタサーベイ】数式ドリブン教師あり学習
PDF
多様な強化学習の概念と課題認識
PDF
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
PPTX
Curriculum Learning (関東CV勉強会)
PDF
Deeplearning輪読会
PDF
【論文読み会】Self-Attention Generative Adversarial Networks
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】数式ドリブン教師あり学習
多様な強化学習の概念と課題認識
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Curriculum Learning (関東CV勉強会)
Deeplearning輪読会
【論文読み会】Self-Attention Generative Adversarial Networks

What's hot (20)

PDF
ELBO型VAEのダメなところ
PDF
PRML学習者から入る深層生成モデル入門
PDF
深層生成モデルと世界モデル
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
PPTX
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
PPTX
猫でも分かるVariational AutoEncoder
PPTX
深層学習の数理:カーネル法, スパース推定との接点
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
PPTX
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
PDF
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
PDF
Domain Adaptation 発展と動向まとめ(サーベイ資料)
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
PDF
GAN(と強化学習との関係)
PDF
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
PDF
深層生成モデルを用いたマルチモーダル学習
PDF
[DL輪読会]ICLR2020の分布外検知速報
PPTX
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
PPTX
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
ELBO型VAEのダメなところ
PRML学習者から入る深層生成モデル入門
深層生成モデルと世界モデル
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
猫でも分かるVariational AutoEncoder
深層学習の数理:カーネル法, スパース推定との接点
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Domain Adaptation 発展と動向まとめ(サーベイ資料)
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
GAN(と強化学習との関係)
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
深層生成モデルを用いたマルチモーダル学習
[DL輪読会]ICLR2020の分布外検知速報
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Ad

More from Masanari Kimura (6)

PDF
曲線から多様体まで駆け抜ける微分幾何学入門
PPTX
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
PPTX
NeurIPS2019参加報告
PDF
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
PDF
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
PDF
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
曲線から多様体まで駆け抜ける微分幾何学入門
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
NeurIPS2019参加報告
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
Ad

[Ridge-i 論文よみかい] Wasserstein auto encoder

  • 2. 2 ©2018 Ridge-i All Rights Reserved. ● ICLR2018採択論文 [1] ● 生成モデルの学習手法の提案. Abstract
  • 3. 3 ©2018 Ridge-i All Rights Reserved. ● Optimal transport costを最小化するように学習するWAEの提案 ● GANベースとMMDベースの二つのregularizersを提案 ● VAEの安定性と良好な潜在空間を保ったまま,より綺麗な画像の生成が可能 Contributions
  • 4. 4 ©2018 Ridge-i All Rights Reserved. ● 潜在変数zがPz = N( 0, Id )からサンプリングされると仮定して学習 Variational AutoEncoder (VAE) z μ Σ Reconstruction Loss Input Reconstructed
  • 5. 5 ©2018 Ridge-i All Rights Reserved. ● VAE: 全てのデータ点が潜在空間上でPzに従うように学習 ○ 異なるデータ点のマージンが交差するため,デコード時に問題が起きる ● WAE: 異なるデータ点は潜在空間上で互いに離れるように学習 VAE vs WAE
  • 6. 6 ©2018 Ridge-i All Rights Reserved. ● 多くの確率分布間のダイバージェンスは,最適輸送問題によって導出される [2] Optimal Transport Problem 最小の労力で 変形したい
  • 7. 7 ©2018 Ridge-i All Rights Reserved. ● 多くの確率分布間のダイバージェンスは,最適輸送問題によって導出される [2] Optimal Transport Problem 最小の労力で 変形したい Orangeと間違えたものは, Dogに運ぶよりAppleに運ぶほうが楽
  • 8. 8 ©2018 Ridge-i All Rights Reserved. ● 以下の問題を考える ○ は任意のコスト関数 ○ はrealとgeneratedの結合分布から得られる の集合 Optimal Transport Problem
  • 9. 9 ©2018 Ridge-i All Rights Reserved. ● 特に の時, のp乗根 をp-Wasserstein distanceという Optimal Transport Problem
  • 10. 10 ©2018 Ridge-i All Rights Reserved. ● ここで, ,つまりp=1の時,次の双対問題が成り立つ: ○ Kantorovich-Rubinstein duality Dual Formulations 1-Lipschitz関数
  • 11. 11 ©2018 Ridge-i All Rights Reserved. ● 潜在表現zがある分布からサンプリングされているとする ● zに何らかの変形を施すことで画像空間にマッピングする時,生成モデルの確率密度は ● Auto-Encodersの枠組みでは,zはエンコーダの出力 Latent Variable Model
  • 12. 12 ©2018 Ridge-i All Rights Reserved. ● 以下の結合分布について考える ● xについて積分し,周辺化する ● 上式の,xに絡む項のみに注目すると, ● 間の最適輸送問題を考える.前スライドの期待値の部分を積分に変形して, ● ここで,デコーダが決定的であると仮定すると, , から (制約として ) WAE objective
  • 13. 13 ©2018 Ridge-i All Rights Reserved. ● GAN-based or MMD-based Penalized objective
  • 14. 14 ©2018 Ridge-i All Rights Reserved. ● MNISTデータセット Experimental Results
  • 15. 15 ©2018 Ridge-i All Rights Reserved. ● CelebAデータセット Experimental Results
  • 16. 16 ©2018 Ridge-i All Rights Reserved. ● Optimal transport costを用いた新しい生成モデルの学習手法を提案 ● 既存のVAEと比べて,より綺麗な画像の生成が可能になった Conclusions
  • 17. 17 ©2018 Ridge-i All Rights Reserved. ● [1] Ilya Tolstikhin, Olivier Bousquet, Sylvain Gelly, Bernhard Schoelkopf. "Wasserstein Auto-Encoders", International Conference on Learning Representations (ICLR). 2018. ● [2] C. Villani. Topics in Optimal Transportation. AMS Graduate Studies in Mathematics, 2003. References