SlideShare a Scribd company logo
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Deep Dynamics Models for Learning Dexterous
Manipulation(PDDM)
Keno Harada, UT, B3
書誌情報
● 著者情報:
○ Anusha Nagabandi, Kurt Konoglie, Sergey Levine, Vikash Kumar
○ Google Brain
● 論文リンク: https://arxiv.org/pdf/1909.11652.pdf(CoRL 2019?)
● Blog:
○ Google: https://sites.google.com/view/pddm/
○ BAIR: https://bair.berkeley.edu/blog/2019/09/30/deep-dynamics/
● CS285(http://rail.eecs.berkeley.edu/deeprlcourse/)のLecture10, 11で
PDDMに関係する技術の詳しい解説がなされています
2
デモ
gif from
https://sites.google.co
m/view/pddm/
3
研究概要
● 複数本の指でのdexterous manipulation task 難しい
○ 複数の方向から同時に対象物体に力を及ぼすことが可能でないと達成が難
しい
○ 多数の関節を制御し複雑な力を与える必要性
○ 接触が生じたり, 消えたりが繰り返されるため, 正確な物理モデルが必要と
される解析的な手法では難しい -> 学習ベースに成功の可能性が
● モデルベース強化学習
○ 環境のダイナミクスを学習する
○ 必要となるデータ数はmodel-freeより少ないため実用的
○ dexterous manipulation taskのような難しいタスクへの適用はまだあまり
なされていない
4
研究概要
● Online planning with deep dynamics models(PDDM)
○ Model Predictive Control
■ Neural network dynamics for modelbased deep reinforcement learning
with model-free fine-tuning(https://arxiv.org/pdf/1708.02596.pdf)
○ Ensembles for model uncertainty estimation
■ Deep Reinforcement Learning in a Handful of Trials using Probabilistic
Dynamics Models(https://papers.nips.cc/paper/7725-deep-
reinforcement-learning-in-a-handful-of-trials-using-probabilistic-
dynamics-models.pdf)
● 一言で言うと: 不確実性を考慮に入れたダイナミクスの予測をブートストラッ
プアンサンブルで行い,行動の選択をMPCによって行う
● 個々の手法は既存のものだが,組み合わせは新しく, 肝だとしている 5
アウトライン
● Learning the Dynamics
○ モデルベース強化学習の課題
○ 不確実性の考慮
○ ブートストラップアンサンブル
● Model Predictive Control
○ Random Shooting
○ Iterative Random-Shooting with Refinement
○ Filtering and Reward-Weighted Refinement
● PDDM
● 実験結果
6
Learning the Dynamics
モデルベース強化学習の課題
● モデルフリーの手法に比べてパフォーマンス劣る
○ モデルベースは学習されたモデルを基にPlanningする
■ ダイナミクスモデルが誤っていても,そのモデルにおいて報酬が高く得られるような行動を選択する
■ 高次元になるほどモデルが誤った予測をする可能性が高くなる(らしい)
■ モデルが予測に自信がないところを把握したい-> 不確実性の考慮
image from CS285 Lecture 11
slide
7
● aleatoric or stochastic uncertainty
○ 環境自身の持つ不確実性
○ データに対する不確実性
■ データ自体にノイズがある
● epistemic or model uncertainty
○ 十分に環境の遷移データが得られず, NNの学習が十分でない不確実性
Learning the Dynamics
不確実性の考慮
image from CS285 Lecture 11
slide
8
Learning the Dynamics
不確実性の考慮
● 環境自身の持つ不確実性の対処
○ -> 確率分布のパラメータをNNで出力し,サンプリングすることで対処
● 十分に環境の遷移データが得られず, NNの学習が十分でない不確実性への対処
○ -> ダイナミクスモデルを複数用意することで対処(ブートストラップアン
サンブル)
image from CS285 Lecture 11
slide
9
Learning the Dynamics
ブートストラップアンサンブル
● 複数のダイナミクスモデルを用いて遷移を予測し,一連の行動を行った際の報
酬の平均から,対象となる行動系列の評価を行う
image from CS285 Lecture 11
slide
10
Learning the Dynamics
ブートストラップアンサンブル
11
Model Predictive Control
Slide from CS285 Lecture 11
12
Model Predictive Control
Random shooting
● ある系列長のactionの系列をいくつか候補として挙げる
● その中で最も報酬が高く得られたaction系列を採用する
○ どれくらい報酬が得られるかは学習したモデルを使用し評価
○ Model Predictive Controlでは最初のactionだけ採用し, また次のstepで
Random shootingを行う
Slide from CS285 Lecture 10,
11
13
Model Predictive Control
Iterative Random-Shooting with Refinement
● 候補に挙げるアクション系列を,報酬が高く得られた範囲からとるようにし,
確度を高めていく
○ 何度かサンプリングを行い,最終的にアクション系列を定める
image from CS285 Lecture 10
slide
14
Model Predictive Control
Filtering and Reward-Weighted Refinement
● time step間の相関を考慮に入れ,アクション系列のサンプリングを行う時絞り
込む分布の更新をよりサンプル全体を考慮して有効的に行う
報酬による重み付けを行い
分布を更新
Time step間の相関の考慮(?)
filtering
15
PDDM
ブートストラップアンサンブル
Model Predictive Control
16
実験結果(モデルデザイン)
17
実験結果
● Valve Turning: 9-DoFのハンドでvalve
を回す
● In-hand Reorientation: キューブをある
指定の方向へ移動させる
● Handwriting: 正確な操作が求められる
● Boading Balls: 落とさずに二つのボー
ルを回転させる
18
Valve Turning
19
In-hand reorientation
20
Handwriting
21
Baoding Balls
22
Baoding Balls(real)
23
まとめ
● Dexterous manipulation taskを実用的に解けるような,ブートストラップアン
サンブルで不確実性を考慮し,Filtering and Reward-Weighted Refinementによ
って行動系列を選択してMPCを行う,既存手法をうまく組み合わせたモデルベ
ース強化学習手法PDDMを提案
24
実験設定詳細
25

More Related Content

PDF
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
PPTX
深層学習の数理:カーネル法, スパース推定との接点
PPTX
モデル高速化百選
PPTX
報酬設計と逆強化学習
PDF
[DL輪読会]画像を使ったSim2Realの現況
PPTX
深層学習の数理
PDF
【メタサーベイ】Neural Fields
PPTX
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
深層学習の数理:カーネル法, スパース推定との接点
モデル高速化百選
報酬設計と逆強化学習
[DL輪読会]画像を使ったSim2Realの現況
深層学習の数理
【メタサーベイ】Neural Fields
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing

What's hot (20)

PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
PDF
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
PDF
【メタサーベイ】基盤モデル / Foundation Models
PPTX
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
PDF
[DL輪読会]Hindsight Experience Replay
PPTX
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
PDF
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
PDF
ELBO型VAEのダメなところ
PDF
深層生成モデルと世界モデル
PDF
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
PDF
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
PPTX
【DL輪読会】Hopfield network 関連研究について
PDF
GAN(と強化学習との関係)
PDF
強化学習の分散アーキテクチャ変遷
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
PPTX
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
PDF
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
PDF
【メタサーベイ】Video Transformer
PPTX
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
【メタサーベイ】基盤モデル / Foundation Models
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
[DL輪読会]Hindsight Experience Replay
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
ELBO型VAEのダメなところ
深層生成モデルと世界モデル
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
【DL輪読会】Hopfield network 関連研究について
GAN(と強化学習との関係)
強化学習の分散アーキテクチャ変遷
【DL輪読会】Scaling Laws for Neural Language Models
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
【メタサーベイ】Video Transformer
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Ad

Similar to [DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation (20)

PPTX
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
PPTX
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
PPTX
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
PDF
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
PDF
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
PPTX
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
PDF
実社会・実環境におけるロボットの機械学習
PDF
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
PDF
[DL輪読会]Learning to Act by Predicting the Future
PPTX
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
PPTX
[DL輪読会]モデルベース強化学習とEnergy Based Model
PPTX
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
PDF
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
PDF
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
PDF
Ibis2016okanohara
PDF
【DL輪読会】Motion Policy Networks
PDF
Deep Learning技術の最近の動向とPreferred Networksの取り組み
PPTX
Decision Transformer: Reinforcement Learning via Sequence Modeling
PDF
Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
ヒューマノイドロボット頂上決戦と人工知能:実践と理論のギャップを探る
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
実社会・実環境におけるロボットの機械学習
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
[DL輪読会]Learning to Act by Predicting the Future
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
[DL輪読会]モデルベース強化学習とEnergy Based Model
[DL輪読会]“Spatial Attention Point Network for Deep-learning-based Robust Autono...
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Ibis2016okanohara
【DL輪読会】Motion Policy Networks
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】事前学習用データセットについて
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
PPTX
【DL輪読会】マルチモーダル LLM
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
PPTX
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
PDF
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
PPTX
【DL輪読会】マルチモーダル 基盤モデル
PPTX
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...

[DL輪読会]Deep Dynamics Models for Learning Dexterous Manipulation

  • 1. 1 DEEP LEARNING JP [DL Papers] http://deeplearning.jp/ Deep Dynamics Models for Learning Dexterous Manipulation(PDDM) Keno Harada, UT, B3
  • 2. 書誌情報 ● 著者情報: ○ Anusha Nagabandi, Kurt Konoglie, Sergey Levine, Vikash Kumar ○ Google Brain ● 論文リンク: https://arxiv.org/pdf/1909.11652.pdf(CoRL 2019?) ● Blog: ○ Google: https://sites.google.com/view/pddm/ ○ BAIR: https://bair.berkeley.edu/blog/2019/09/30/deep-dynamics/ ● CS285(http://rail.eecs.berkeley.edu/deeprlcourse/)のLecture10, 11で PDDMに関係する技術の詳しい解説がなされています 2
  • 4. 研究概要 ● 複数本の指でのdexterous manipulation task 難しい ○ 複数の方向から同時に対象物体に力を及ぼすことが可能でないと達成が難 しい ○ 多数の関節を制御し複雑な力を与える必要性 ○ 接触が生じたり, 消えたりが繰り返されるため, 正確な物理モデルが必要と される解析的な手法では難しい -> 学習ベースに成功の可能性が ● モデルベース強化学習 ○ 環境のダイナミクスを学習する ○ 必要となるデータ数はmodel-freeより少ないため実用的 ○ dexterous manipulation taskのような難しいタスクへの適用はまだあまり なされていない 4
  • 5. 研究概要 ● Online planning with deep dynamics models(PDDM) ○ Model Predictive Control ■ Neural network dynamics for modelbased deep reinforcement learning with model-free fine-tuning(https://arxiv.org/pdf/1708.02596.pdf) ○ Ensembles for model uncertainty estimation ■ Deep Reinforcement Learning in a Handful of Trials using Probabilistic Dynamics Models(https://papers.nips.cc/paper/7725-deep- reinforcement-learning-in-a-handful-of-trials-using-probabilistic- dynamics-models.pdf) ● 一言で言うと: 不確実性を考慮に入れたダイナミクスの予測をブートストラッ プアンサンブルで行い,行動の選択をMPCによって行う ● 個々の手法は既存のものだが,組み合わせは新しく, 肝だとしている 5
  • 6. アウトライン ● Learning the Dynamics ○ モデルベース強化学習の課題 ○ 不確実性の考慮 ○ ブートストラップアンサンブル ● Model Predictive Control ○ Random Shooting ○ Iterative Random-Shooting with Refinement ○ Filtering and Reward-Weighted Refinement ● PDDM ● 実験結果 6
  • 7. Learning the Dynamics モデルベース強化学習の課題 ● モデルフリーの手法に比べてパフォーマンス劣る ○ モデルベースは学習されたモデルを基にPlanningする ■ ダイナミクスモデルが誤っていても,そのモデルにおいて報酬が高く得られるような行動を選択する ■ 高次元になるほどモデルが誤った予測をする可能性が高くなる(らしい) ■ モデルが予測に自信がないところを把握したい-> 不確実性の考慮 image from CS285 Lecture 11 slide 7
  • 8. ● aleatoric or stochastic uncertainty ○ 環境自身の持つ不確実性 ○ データに対する不確実性 ■ データ自体にノイズがある ● epistemic or model uncertainty ○ 十分に環境の遷移データが得られず, NNの学習が十分でない不確実性 Learning the Dynamics 不確実性の考慮 image from CS285 Lecture 11 slide 8
  • 9. Learning the Dynamics 不確実性の考慮 ● 環境自身の持つ不確実性の対処 ○ -> 確率分布のパラメータをNNで出力し,サンプリングすることで対処 ● 十分に環境の遷移データが得られず, NNの学習が十分でない不確実性への対処 ○ -> ダイナミクスモデルを複数用意することで対処(ブートストラップアン サンブル) image from CS285 Lecture 11 slide 9
  • 10. Learning the Dynamics ブートストラップアンサンブル ● 複数のダイナミクスモデルを用いて遷移を予測し,一連の行動を行った際の報 酬の平均から,対象となる行動系列の評価を行う image from CS285 Lecture 11 slide 10
  • 12. Model Predictive Control Slide from CS285 Lecture 11 12
  • 13. Model Predictive Control Random shooting ● ある系列長のactionの系列をいくつか候補として挙げる ● その中で最も報酬が高く得られたaction系列を採用する ○ どれくらい報酬が得られるかは学習したモデルを使用し評価 ○ Model Predictive Controlでは最初のactionだけ採用し, また次のstepで Random shootingを行う Slide from CS285 Lecture 10, 11 13
  • 14. Model Predictive Control Iterative Random-Shooting with Refinement ● 候補に挙げるアクション系列を,報酬が高く得られた範囲からとるようにし, 確度を高めていく ○ 何度かサンプリングを行い,最終的にアクション系列を定める image from CS285 Lecture 10 slide 14
  • 15. Model Predictive Control Filtering and Reward-Weighted Refinement ● time step間の相関を考慮に入れ,アクション系列のサンプリングを行う時絞り 込む分布の更新をよりサンプル全体を考慮して有効的に行う 報酬による重み付けを行い 分布を更新 Time step間の相関の考慮(?) filtering 15
  • 18. 実験結果 ● Valve Turning: 9-DoFのハンドでvalve を回す ● In-hand Reorientation: キューブをある 指定の方向へ移動させる ● Handwriting: 正確な操作が求められる ● Boading Balls: 落とさずに二つのボー ルを回転させる 18
  • 24. まとめ ● Dexterous manipulation taskを実用的に解けるような,ブートストラップアン サンブルで不確実性を考慮し,Filtering and Reward-Weighted Refinementによ って行動系列を選択してMPCを行う,既存手法をうまく組み合わせたモデルベ ース強化学習手法PDDMを提案 24

Editor's Notes

  • #18: the model must have enough capacity to represent the complex dynamical system the use of ensembles is helpful, especially earlier in training when non-ensembled models can overfit badly and thus exhibit overconfident and harmful behavior there is not much difference between resetting model weights randomly at each training iteration versus warmstarting them from their previous values using a planning horizon that is either too long or too short can be detrimental: Short horizons lead to greedy planning, while long horizons suffer from compounding errors in the predictions PDDM, with action smoothing and soft updates, greatly outperforms the others medium values provide the best balance of dimensionality reduction and smooth integration of action samples versus loss of control authority. Here, too soft of a weighting leads to minimal movement of the hand, and too hard of a weighting leads to aggressive behaviors that frequently drop the objects
  • #20: we confirm that most of the prior methods do in fact succeed, and we also see that even on this simpler task, policy gradient approaches such as NPG require prohibitively large amounts of data
  • #21: when we increase the number of possible goals to 8 different options (90◦ and 45◦ rotations in the left, right, up, and down directions), we see that our method still succeeds, but the model-free approaches get stuck in local optima and are unable to fully achieve even the previously attainable goals. This inability to effectively address a “multi-task” or “multi-goal” setup is indeed a known drawback for model-free approaches, and it is particularly pronounced in such goal-conditioned tasks that require flexibility These additional goals do not make the task harder for PDDM, because even in learning 90◦ rotations, it is building a model of its interactions rather than specifically learning to get to those angles.
  • #22: prior model-based approaches don’t actually solve this task (values below the grey line correspond to holding the pencil still near the middle of the paper)
  • #23: This task is particularly challenging due to the inter-object interactions, which can lead to drastically discontinuous dynamics and frequent failures from dropping the objects. We were unable to get the other model-based or model-free methods to succeed at this task (Figure 8), but PDDM solves it using just 100,000 data points, or 2.7 hours worth of data moving a single ball to a goal location in the hand, posing the hand, and performing clockwise rotations instead of the learned counter-clockwise ones