Latent ODEs
for Irregularly-Sampled Time Series
s.matoba
NeurIPS2019読み会@京都
[まとめ]
• 問題
不均一な間隔の時系列を標準のRNNでモデル化は困難
• 提案
ODEを使ったダイナミクスの補完 + Enc./Dec.モデル
• 結論
周期的な時不変ダイナミクスと相性が良い
Fig.1 ある1人の患者の48時間の複数観測データ
[復習] Neural ODEs @ NeurIPS2018
• 隠れ状態 ℎ(𝑡) のダイナミクスを求める。
• ODEソルバーを入力する損失関数を最適化。
• Training時のODEソルバーを通したreverse-mode differentiationの問題は
adjoint sensitivity method (Pontryagin)を用いて勾配計算。
• 随伴感度 𝑎(𝑡) =
𝜕𝐿
𝜕𝑧(𝑡)
を使用した、メモリ効率が良い𝜃に関する勾配計算。
,
vector-Jacobian積
ResNetだとBackpropagation
ODE-RNN
• 観測時間の間の(隠れ状態)補完方法
• Standard RNN
• RNN-Decay and GRU-D
固定点に単調収束するダイナミクスに強制している
• ODE-RNN
• 観測時間の間:
• 観測時間:
ODEソルバーでフレキシブルなダイナミクスを可能に。
𝜏: decay rate
(観測した時間)
ただし、自己回帰モデルは観測値が疎らな場合パフォーマンス低下
Latent ODEs (Enc./Dec.モデル)
• 不規則な時間データ𝑥𝑖から近似事後分布𝑞(𝑧0|𝑥0, … , 𝑥 𝑁)を求める
• 初期潜在状態𝑧0から時系列モデルを生成
• ELBOを最大化することで、Enc./Dec.共同でTraining
ODE-RNN
Latent ODEs using Poisson processes
• 不規則な観測率をモデル化
• Poissonポイント過程の対数尤度:
• Latent ODE に 観測時間に対応するPoisson過程を追加することで拡張
• 𝜆(𝑡)を𝑧(𝑡)の関数としてパラメータ化
• 条件付き周辺尤度 を最大化する代わりに
同時周辺尤度 を最大化
(正直、あまり興味ない…)
[結果] Toy dataset で時不変周期の復元性を確認
• [Training]: 赤い領域の点を調整、青い領域の点を再構築。
• [Test] :赤い領域の20点モデルを調整、より大きな時間で生成ODE解く。
Latent ODE with ODE-RNNは、データから周期的Dynamicsを復元!
Train
Test
Train
Test
[結果] (Physionet) ICU患者の死亡率の予測
片側t検定のトレーニング結果
・[Training]: (Ours)が平均誤差・誤差分散ともに良い
・[Test]:AUCは思ったほど差が出なかった…
(死亡するんだったら単調収束に向かう?)
歩く・座る・寝るなどのアクティビティ分類
では、Latent ODE(ODE enc)がもっとも良い

More Related Content

PPTX
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
PPTX
これからの Vision & Language ~ Acadexit した4つの理由
PPTX
How Much Position Information Do Convolutional Neural Networks Encode?
PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
PDF
Skip Connection まとめ(Neural Network)
PDF
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
PDF
深層生成モデルと世界モデル
PDF
ドメイン適応の原理と応用
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
これからの Vision & Language ~ Acadexit した4つの理由
How Much Position Information Do Convolutional Neural Networks Encode?
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
Skip Connection まとめ(Neural Network)
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
深層生成モデルと世界モデル
ドメイン適応の原理と応用

What's hot (20)

PDF
深層生成モデルと世界モデル(2020/11/20版)
PPTX
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
PPTX
[DL輪読会]Neural Ordinary Differential Equations
PPTX
[DL輪読会]When Does Label Smoothing Help?
PDF
Transformer メタサーベイ
PDF
[DL輪読会]Generative Models of Visually Grounded Imagination
PDF
実装レベルで学ぶVQVAE
PDF
研究効率化Tips Ver.2
PDF
生成モデルの Deep Learning
PDF
【メタサーベイ】Neural Fields
PDF
Domain Adaptation 発展と動向まとめ(サーベイ資料)
PDF
Transformerを多層にする際の勾配消失問題と解決法について
PDF
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
PDF
【論文読み会】Self-Attention Generative Adversarial Networks
PDF
【メタサーベイ】Video Transformer
PPTX
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
PDF
画像生成・生成モデル メタサーベイ
PDF
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
PDF
分散学習のあれこれ~データパラレルからモデルパラレルまで~
深層生成モデルと世界モデル(2020/11/20版)
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]When Does Label Smoothing Help?
Transformer メタサーベイ
[DL輪読会]Generative Models of Visually Grounded Imagination
実装レベルで学ぶVQVAE
研究効率化Tips Ver.2
生成モデルの Deep Learning
【メタサーベイ】Neural Fields
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Transformerを多層にする際の勾配消失問題と解決法について
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
【論文読み会】Self-Attention Generative Adversarial Networks
【メタサーベイ】Video Transformer
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
画像生成・生成モデル メタサーベイ
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
分散学習のあれこれ~データパラレルからモデルパラレルまで~
Ad

Similar to Latent ODEs for Irregularly-Sampled Time Series (20)

PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
PPTX
ディープラーニングによる時系列データの異常検知
PDF
LSTM (Long short-term memory) 概要
PDF
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
PPTX
RNN.pptx
PDF
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
PDF
Multivariate Time series analysis via interpretable RNNs
PDF
TensorflowとKerasによる深層学習のプログラム実装実践講座
PDF
ICASSP2017読み会 (Deep Learning III) [電通大 中鹿先生]
PDF
HiPPO/S4解説
PDF
NeurIPS'21参加報告 tanimoto_public
PDF
[DL輪読会]Z-Forcing: Training Stochastic Recurrent Networks (NIPS2017)
PDF
Deep and confident prediction for time series at uber
PDF
現在のDNNにおける未解決問題
PDF
Dst_prediction_202203_TECH_in_Kyoto.pdf
PDF
Sigfin Neural Fractional SDE NET
PDF
[第2版]Python機械学習プログラミング 第16章
PDF
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
PDF
深層学習レポートDay3(小川成)
PPTX
深層学習とTensorFlow入門
【DL輪読会】時系列予測 Transfomers の精度向上手法
ディープラーニングによる時系列データの異常検知
LSTM (Long short-term memory) 概要
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
RNN.pptx
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
Multivariate Time series analysis via interpretable RNNs
TensorflowとKerasによる深層学習のプログラム実装実践講座
ICASSP2017読み会 (Deep Learning III) [電通大 中鹿先生]
HiPPO/S4解説
NeurIPS'21参加報告 tanimoto_public
[DL輪読会]Z-Forcing: Training Stochastic Recurrent Networks (NIPS2017)
Deep and confident prediction for time series at uber
現在のDNNにおける未解決問題
Dst_prediction_202203_TECH_in_Kyoto.pdf
Sigfin Neural Fractional SDE NET
[第2版]Python機械学習プログラミング 第16章
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
深層学習レポートDay3(小川成)
深層学習とTensorFlow入門
Ad

Latent ODEs for Irregularly-Sampled Time Series

  • 1. Latent ODEs for Irregularly-Sampled Time Series s.matoba NeurIPS2019読み会@京都
  • 2. [まとめ] • 問題 不均一な間隔の時系列を標準のRNNでモデル化は困難 • 提案 ODEを使ったダイナミクスの補完 + Enc./Dec.モデル • 結論 周期的な時不変ダイナミクスと相性が良い Fig.1 ある1人の患者の48時間の複数観測データ
  • 3. [復習] Neural ODEs @ NeurIPS2018 • 隠れ状態 ℎ(𝑡) のダイナミクスを求める。 • ODEソルバーを入力する損失関数を最適化。 • Training時のODEソルバーを通したreverse-mode differentiationの問題は adjoint sensitivity method (Pontryagin)を用いて勾配計算。 • 随伴感度 𝑎(𝑡) = 𝜕𝐿 𝜕𝑧(𝑡) を使用した、メモリ効率が良い𝜃に関する勾配計算。 , vector-Jacobian積 ResNetだとBackpropagation
  • 4. ODE-RNN • 観測時間の間の(隠れ状態)補完方法 • Standard RNN • RNN-Decay and GRU-D 固定点に単調収束するダイナミクスに強制している • ODE-RNN • 観測時間の間: • 観測時間: ODEソルバーでフレキシブルなダイナミクスを可能に。 𝜏: decay rate (観測した時間) ただし、自己回帰モデルは観測値が疎らな場合パフォーマンス低下
  • 5. Latent ODEs (Enc./Dec.モデル) • 不規則な時間データ𝑥𝑖から近似事後分布𝑞(𝑧0|𝑥0, … , 𝑥 𝑁)を求める • 初期潜在状態𝑧0から時系列モデルを生成 • ELBOを最大化することで、Enc./Dec.共同でTraining ODE-RNN
  • 6. Latent ODEs using Poisson processes • 不規則な観測率をモデル化 • Poissonポイント過程の対数尤度: • Latent ODE に 観測時間に対応するPoisson過程を追加することで拡張 • 𝜆(𝑡)を𝑧(𝑡)の関数としてパラメータ化 • 条件付き周辺尤度 を最大化する代わりに 同時周辺尤度 を最大化 (正直、あまり興味ない…)
  • 7. [結果] Toy dataset で時不変周期の復元性を確認 • [Training]: 赤い領域の点を調整、青い領域の点を再構築。 • [Test] :赤い領域の20点モデルを調整、より大きな時間で生成ODE解く。 Latent ODE with ODE-RNNは、データから周期的Dynamicsを復元! Train Test Train Test
  • 8. [結果] (Physionet) ICU患者の死亡率の予測 片側t検定のトレーニング結果 ・[Training]: (Ours)が平均誤差・誤差分散ともに良い ・[Test]:AUCは思ったほど差が出なかった… (死亡するんだったら単調収束に向かう?) 歩く・座る・寝るなどのアクティビティ分類 では、Latent ODE(ODE enc)がもっとも良い