SlideShare a Scribd company logo
マルチモーダルへの展開
ソニーグループ株式会社
髙栁 臣克
2
Contents
• マルチモーダル情報を扱う Transformer
• Transformer のロボティクスへの応用
• Transformer の強化学習への応用
Transformerの基礎と応用
3
Contents
• マルチモーダル情報を扱う Transformer
• Transformer のロボティクスへの応用
• Transformer の強化学習への応用
Transformerの基礎と応用
4
マルチモーダルモデルとは?
*1 “Unified-IO 2: Scaling Autoregressive Multimodal Models with Vision, Language, Audio, and Action”, in CVPR 2024 https://arxiv.org/pdf/2312.17172
マルチモーダル情報を必要とするタスクの例 ([J. Lu et al 2024]*1 より)
言語を用いた画像編集 (Vision + Language)
画像中の音源位置推定 (Vision + Audio)
画像に対する質問への回答 (Vision + Language)
画像と言語を用いたロボットへのタスク指示 (Vision + Language + Robot)
• 画像や言語など複数のモーダル情報を統合して、タスクを実行するモデル
• 実世界では、視覚 (画像) や聴覚 (音) など、様々な知覚情報が存在
• 実世界のタスクの多くは、複数のモーダル間の関係性を考慮する必要
Transformerの基礎と応用
5
A Generalist Agent (Gato) [DeepMind 2022]*1
• 画像や言語などのマルチモーダル情報を使った様々なタスクを実行可能な
Transformer ベースのニューラルネットワークモデル
• 画像や言語に関するタスクに加えて、ロボットやゲームなど行動決定に関
するタスクなども行うことが可能
*1 “A Generalist Agent”, in Transactions on Machine Learning Research 2022. https://arxiv.org/pdf/2205.06175
Image Captioning
Robot Manipulation
Chitchat
Transformerの基礎と応用
6
Transformer ベースのマルチモーダルモデルの主な構成
Transformer
① マルチモーダル情報の
トークン化
② マルチモーダルトークン
の融合
Image
Text
Audio
Robot State
(e.g. joint angle)
Image
Text
Audio
Robot
Action
③ タスクに応じた出力の生成
Transformerの基礎と応用
7
Transformer ベースのマルチモーダルモデルの主な構成
Transformer
① マルチモーダル情報の
トークン化
② マルチモーダルトークン
の融合
Image
Text
Audio
Robot
Action
③ タスクに応じた出力の生成
本日はここについて
簡単に紹介します
Image
Text
Audio
Robot State
(e.g. joint angle)
Transformerの基礎と応用
8
マルチモーダル情報のトークン化
主に二つの操作によって、トークン化が行われている
1. 各モーダルの入力データの分割
2. 分割されたデータを特徴量ベクトルへと変換
Gato [DeepMind 2022]*1 でのトークン化の例
*1 “A Generalist Agent”, in Transactions on Machine Learning Research 2022. https://arxiv.org/pdf/2205.06175
画像
1. パッチに分割
2. 各パッチを特徴ベクトル
に変換
3. パッチ内での Position
Encoding を加える
ゲームアクション (離散値)
1. 各整数に対応する特徴ベクトル
を参照
Transformerの基礎と応用
9
マルチモーダルトークンの融合 (1/2)
• 各モーダルのトークンを集約し、より表現力の高い特徴量へと変換する
• Self-Attention をベースとして様々な方法が提案されている
Gato [DeepMind 2022]*1 でのトークンの融合の例
*1 “A Generalist Agent”, in Transactions on Machine Learning Research 2022. https://arxiv.org/pdf/2205.06175
• 画像のトークンと離散アクション
のトークンを連結
• シーケンス内のどの位置にあるトークン
なのかを表す Position Encodings を加える
• シーケンス全体に対して、
Self-Attention で処理を行う
Transformerの基礎と応用
10
マルチモーダルトークンの融合 (2/2)
• 各モーダルのトークンを集約し、より表現力の高い特徴量へと変換する
• Self-Attention をベースとして様々な方法が提案されている
Flamingo [DeepMind 2022]*1
• 画像特徴と言語特徴の融合に Cross-Attention を使用
• その後、言語特徴に対して Self-Attention を行う
*1 “Flamingo: a Visual Language Model for Few-Shot Learning”, in NeurIPS 2022. https://arxiv.org/pdf/2204.14198
*2 “NExT-GPT: Any-to-Any Multimodal LLM,” in ICML, 2024. https://arxiv.org/pdf/2309.05519
NExT-GPT [S. Wu et al., 2024]*2
• 各モーダルの特徴を学習済みの LLM で扱えるような特徴
に変換するような Projector を学習
• モーダル特徴の融合には学習済みの LLM をそのまま使用
Transformerの基礎と応用
11
基盤モデルへの発展
• 使用できるモーダル数も増加し、1つのモデルでより多くのタスクが解ける
ように ⇒ 基盤モデル の発展?
*1 “Unified-IO 2: Scaling Autoregressive Multimodal Models with Vision, Language, Audio, and Action”, in CVPR 2024 https://arxiv.org/pdf/2312.17172
*2 “MUTEX: Learning Unified Policies from Multimodal Task Specifications”, in CoRL 2023. https://arxiv.org/pdf/2309.14320
*3 “On the Opportunities and Risks of Foundation Models”, in arXiv 2021. https://arxiv.org/pdf/2108.07258
MUTEX [R. Shah et al., 2023]*2
Unified-IO [J. Lu et al 2024]*1
基盤モデル ([R. Bommasani et al., 2021]*3 より)
Transformerの基礎と応用
12
Contents
• マルチモーダル情報を扱う Transformer
• 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている
• マルチモーダル情報のトークン化 + マルチモーダルトークンの融合
• 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される
• Transformer のロボティクスへの応用
• Transformer の強化学習への応用
Transformerの基礎と応用
13
Contents
• マルチモーダル情報を扱う Transformer
• 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている
• マルチモーダル情報のトークン化 + マルチモーダルトークンの融合
• 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される
• Transformer のロボティクスへの応用
• Transformer の強化学習への応用
Transformerの基礎と応用
14
ロボティクスへの応用
• 言語や画像での発展に伴い、ロボティクス分野にも Transformer が普及
• ロボットの行動計画には、様々なモーダルの観測データ (画像、LIDAR、触覚、…) を扱う必要
• タスクによって、時系列情報も考慮する必要
⇒ Transformer を使うことで、両方の要素に対処可能
Manipulation
言語によるタスク指示に従って物体を操作
RT-1 [Google 2023]*1
*1 “RT-1: ROBOTICS TRANSFORMER FOR REAL-WORLD CONTROL AT SCALE”, in RSS 2023. https://arxiv.org/pdf/2205.06175
*2 “ViNT: A Foundation Model for Visual Navigation”, in CoRL 2023. https://arxiv.org/pdf/2306.14846
Navigation
画像や座標で指定された場所へ移動する
ViNT [D. Shar et al., 2023]*2
Transformerの基礎と応用
15
RT-1 (Robotics Transformer) [Google 2023]*1
• ロボット13台で17ヶ月かけて大量の収
集したデータを用いた学習によって、
様々なタスクに対応可能なモデルを獲
得
• データ数: 13万エピソード, 700以上のタスク
• 700以上のタスクに対して、タスク成功
率97%を実現
*1 “RT-1: ROBOTICS TRANSFORMER FOR REAL-WORLD CONTROL AT SCALE”, in RSS 2023. https://arxiv.org/pdf/2205.06175
タスクの内訳
Transformerの基礎と応用
16
RT-1のモデル構造 (1/3)
画像とタスク指示のトークン化
• 入力:過去の 6 step 分のRGB画像 + タスク指示
• タスク指示は、Universal Sentence Encoder [D. Cer et al., 2018]*1 によっ
て、512次元のベクトルにエンコードされる
• 各RGB画像の特徴抽出には、 ImageNet を用いて事前学習した
EfficientNet-B3 [M. Tan and Q. Le, 2019]*2 を使用
• その際、 FiLM [E. Perez et al., 2018]*3 を用いて、画像特徴とテキスト特徴を融合
• 最終的に、各画像当たり 9 x 9 x 512 の特徴マップが抽出される
*1 “Universal sentence encoder”, in arXiv 2018. https://arxiv.org/pdf/1803.11175
*2 “EfficientNet: Rethinking model scaling for convolutional neural networks”, in ICML 2019. https://arxiv.org/pdf/1905.11946
*3 “Film: Visual reasoning with a general conditioning layer”, in AAAI 2018. https://arxiv.org/pdf/1709.07871
Transformerの基礎と応用
17
RT-1のモデル構造 (2/3)
TokenLearner [M. S. Ryoo et al., 2021]*1 による情報の圧縮
• ロボットで動作させるためには、なるべくモデル容量を小さくしておき
たい
• 計算量の削減、推論速度の高速化
• Attention ベースの機構を用いることで、重要な特徴のみを抽出
• 81個 ⇒ 8個のトークンへと圧縮
*1 “TokenLearner: Adaptive Space-Time Tokenization for Videos”, in NeurIPS 2021. https://openreview.net/pdf?id=z-l1kpDXs88
TokenLearner の処理の詳細
Transformerの基礎と応用
18
RT-1のモデル構造 (3/3)
Transformer による行動生成
• 各画像当たり 8個 のトークン x 6 step 分 ⇒ 48個のトークンから適切
な行動を生成する
• モデルには8層の Self-Attention Layer から構成されている Transformer
Decoder を使用
• 行動の次元は11次元
• アームの姿勢 (x, y, z, roll, pitch, yaw, gripper)
• ベースの姿勢 (x, y, yaw)
• 制御モード
• 各出力は、256個の bin に離散化される
Transformerの基礎と応用
19
RT-1 のタスク実行性能
• 他のモデルと比べて高いタスク成功率を達成
• 既知タスク (700以上) であれば、97%の成功率
• 学習データに含まれないタスク・環境に対しても高い汎化性
L1: 新しいテーブルと照明環境
L2: 未知のディストラクタ
L3: 新規のタスク、物体
Transformerの基礎と応用
20
RT-1 と SayCan [Google 2022]*1 の統合
• SayCan と組み合わせることで、Long-Horizon な
タスクも実行可能
※ SayCan: LLM による Long-Horizon なタスクの分割と、観測情報に基づ
く各サブタスクの価値の推定を行うことで、適切なサブタスクの選択
を行う手法
Instruction: "Bring me the rice chips from the drawer.”
Instruction: "Roses are red, violets are blue, bring me
the rice chips from the drawer, and a napkin too.”
Instruction: "Bring me all the graspable objects from the
counter.”
*1 “Do As I Can and Not As I Say: Grounding Language in Robotic Affordances”, in CoRL 2022 https://arxiv.org/pdf/2204.01691
SayCan [Google 2022]*1
Transformerの基礎と応用
21
RT-2 [DeepMind 2023]*1
• 学習済みの Vision-Language Model (VLM) を直接行動推定に利用
⇒ Vision-Language-Action Model (VLA)
• アクションは各軸ごとに離散化する (= 整数値でアクションを表現) ことで、
VLM でも生成を行うことができるように
• 学習済みの VLM には、PaLI-X [X. Chen et al., 2024]*2 や PaLM-E [D. Driess et al., 2023]*3 を使用
VLM によって生成
された整数列
*1 “RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control”, in CoRL 2023. https://arxiv.org/pdf/2307.15818
*2 “PaLI-X: On Scaling up a Multilingual Vision and Language Model”, in CVPR 2024. https://arxiv.org/pdf/2305.18565
*3 “PaLM-E: An Embodied Multimodal Language Model”, in ICML 2023. https://arxiv.org/pdf/2303.03378
学習時には、Vision-
Language 用のデータも
使用 (もともと持ってい
る表現力が落ちないよ
うに)
Transformerの基礎と応用
22
RT-2 [DeepMind 2023]*1
• 大量のデータで学習された VLM を利用
⇒ ロボットコントロール用のデータに含まれない知識も活用したマニピュ
レーションが可能に!
※ 国旗や人の顔写真に関するデータは
ロボットコントロール用のデータには含まれていない
*1: “RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control”, in CoRL 2023 https://arxiv.org/pdf/2307.15818
出典: https://robotics-transformer2.github.io/
Transformerの基礎と応用
23
今後の課題: データ収集のコスト
• Transformer を学習するには、大量のデータセットが必要
• ロボットを動かして大量のデータを収集するにはかなりのコストがかかる
• RT-1: ロボット13台で17ヶ月かけても、13万エピソード
• 自然言語処理や画像認識と比べて、入出力 (観測データ、アクション)の形
式のバリエーションが大きい
Transformerの基礎と応用
24
ALOHA [T. Z. Zhao et al., 2023]*1
目的: データ収集をより簡単に
• 安価 (約20kドル) で構築できる双腕ロボットシステム
• 人間による遠隔教示が簡単に行うことができる
• 教示したデータを用いて学習するモデルに Transformer
を利用
人間が教示をしている様子 学習した方策によるタスク実行
*1 “Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware”, in RSS 2023. https://arxiv.org/pdf/2304.13705
ACT (Action Chunking with Transformer)
Transformerの基礎と応用
25
RT-X [Open X-Embodiment Collaboration 2024]*1
目的: ロボットタスク向けの事前学習用データセットの構築
• 様々な環境で収集された様々なタスクのデータを集約したデータセット
• このデータセットで事前学習 + 解きたいタスクの少量のデータでファインチューン
⇒ 少量のデータのみで学習するよりも性能が向上
*1 “Open X-Embodiment: Robotic Learning Datasets and RT-X Models”, in ICRA 2024. https://arxiv.org/pdf/2310.08864
• 34 robotic research labs (21 institutions)
• 22 robot embodiments
• 1M+ robot trajectories
• 300+ scenes
Transformerの基礎と応用
26
Contents
• マルチモーダル情報を扱う Transformer
• 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている
• マルチモーダル情報のトークン化 + マルチモーダルトークンの融合
• 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される
• Transformer のロボティクスへの応用
• マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも
Transformer が応用され始めている
• データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展
が期待される
• Transformer の強化学習への応用
Transformerの基礎と応用
27
Contents
• マルチモーダル情報を扱う Transformer
• 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている
• マルチモーダル情報のトークン化 + マルチモーダルトークンの融合
• 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される
• Transformer のロボティクスへの応用
• マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも
Transformer が応用され始めている
• データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展が
期待される
• Transformer の強化学習への応用
Transformerの基礎と応用
28
強化学習とは?
• 得られる報酬の合計を最大化するように学習を行うアルゴリズム
• 報酬: ゲームのスコア、タスクの達成度、…
学習データセット
ラベル: 犬
ラベル: 猫
学習
行動
報酬
強化学習
教師あり学習
…
…
試行錯誤
参考: 【AI技術研修】nnabla-rlによる深層強化学習入門 第1回「深層強化学習とは?」
https://youtu.be/KZ0pwIIBKYU?si=AabrkXkCvNjJjR0R
Transformerの基礎と応用
29
強化学習の応用例
(出典: https://www.bbc.com/news/technology-35785875) (出典: https://www.gran-turismo.com/jp/gran-turismo-sophy/technology/)
AlphaGo [DeepMind 2016]*1 GTSophy [Sony AI 2022]*2
*1: “Mastering the game of Go with deep neural networks and tree search”, in Nature 529, 484–489 (2016). https://doi.org/10.1038/nature16961
*2: “Outracing champion Gran Turismo drivers with deep reinforcement learning”, in Nature 602, 223–228 (2022). https://doi.org/10.1038/s41586-021-04357-7
Transformerの基礎と応用
30
強化学習における Transformer の役割
観測データのエンコード
• 各時刻の観測データに関す
る特徴を抽出
• 時刻間のデータの関係性も
抽出可能
世界モデル
• 行動によって状
態がどう変化す
るかを予測する
行動推定
• 現在の観測や過去の履歴をもとに、
目標達成に適した行動を推定
*1: “A Survey on Transformers in Reinforcement Learning”, in Transactions on Machine Learning Research 2023. https://arxiv.org/pdf/2301.03044
[W. Li et al., 2023]*1 より
Transformerの基礎と応用
31
Decision Transformer [L. Chen et al., 2021]*1
• 与えられた報酬和を実現するような行動を推定するように方策を学習
• GPT 構造のモデルを使用し、過去の観測や行動から、自己回帰的に行動を推定
• 学習には事前に収集したデータセットを使用する (オフライン強化学習)
return-to-go
• 現在の時刻以降に取るべき報酬和
過去の観測や行動から今の時刻で取
るべき行動を推定
*1: “Decision Transformer: Reinforcement Learning via Sequence Modeling”, in NeurIPS 2021 https://arxiv.org/pdf/2106.01345
行動推定
Transformerの基礎と応用
32
Transformer-based World Model (TWM) [V. Micheli et al., 2023]*1
• Model-based RL における状態予測モデルに Transformer を使用
※ Model-based RL
• 自分がとった行動によって状態がどう変わるかを予測する状態予測モデル (世界モデル) を、
収集したデータを用いて学習する。
• 方策の学習時には状態予測モデルでサンプルしたデータを用いて学習を行う。
*1: “TRANSFORMER-BASED WORLD MODELS ARE HAPPY WITH 100K INTERACTIONS”, in ICLR 2023 https://arxiv.org/pdf/2303.07109
• 𝑜𝑡: 時刻𝑡で得られる観測データ
• 𝑧𝑡, ℎ𝑡: 時刻𝑡での潜在特徴
• 𝑎𝑡: 時刻𝑡取った行動
• 𝑟𝑡: 時刻𝑡で得られる報酬
• 𝛾𝑡: 時刻𝑡での割引率
世界モデル
Transformerの基礎と応用
33
強化学習における Transformer の今後の課題
• 学習の安定性の向上
• データを収集しながら学習を行うオンライン強化学習では、データの分布が変化していくため、学習が安定
しないことがある
• 現在、Transformer が応用されているのは、事前に収集したデータを用いて学習を行うオフライン強化学習が
多い
• 強化学習用の Transformer Model の検討
• 現在は、言語などで用いられていた Transformer の構造をそのまま用いることが多い
• 強化学習に特化した Transformer Model は出来るのか?
Transformerの基礎と応用
34
Contents
• マルチモーダル情報を扱う Transformer
• 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている
• マルチモーダル情報のトークン化 + マルチモーダルトークンの融合
• 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される
• Transformer のロボティクスへの応用
• マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも
Transformer が応用され始めている
• データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展が
期待される
• Transformer の強化学習への応用
• 行動学習手法の一つである強化学習にも Transformer は応用されている
• しかし、学習の安定性など、まだ課題も多く、さらなる改善が必要か
Transformerの基礎と応用
35
Contents
• マルチモーダル情報を扱う Transformer
• 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている
• マルチモーダル情報のトークン化 + マルチモーダルトークンの融合
• 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される
• Transformer のロボティクスへの応用
• マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも
Transformer が応用され始めている
• データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展が
期待される
• Transformer の強化学習への応用
• 行動学習手法の一つである強化学習にも Transformer は応用されている
• しかし、学習の安定性など、まだ課題も多く、さらなる改善が必要か
Transformerの基礎と応用

More Related Content

PDF
東京工業大学「ロボット技術・ロボットミドルウェア」
PDF
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
PDF
箱庭祭#3 発表資料 公開用(複数のソフトウェアプラットフォームを連携させる技術について)
PDF
130522 00
PDF
160705-03 RTミドルウエア講習会・名城大
PPTX
オープンソースを利用したモデル駆動トライアル
PDF
OpenEL for Robot(Japanese)
PPTX
先駆者に学ぶ MLOpsの実際
東京工業大学「ロボット技術・ロボットミドルウェア」
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
箱庭祭#3 発表資料 公開用(複数のソフトウェアプラットフォームを連携させる技術について)
130522 00
160705-03 RTミドルウエア講習会・名城大
オープンソースを利用したモデル駆動トライアル
OpenEL for Robot(Japanese)
先駆者に学ぶ MLOpsの実際

Similar to 【DeepLearning研修】Transfomerの基礎と応用 --第4回 マルチモーダルへの展開 (20)

PDF
201111 04
PDF
VisualSFMとMeshLabとCloudCompareによるドローン撮影画像を用いたデジタル地図作成
PDF
GTFSオープンデータで公共交通をアップデート
PDF
Portable RT-Middleware environment on a USB memory for the robot programing ...
PDF
160705-w01 RTミドルウエア講習会・早稲田大
PPTX
NAO/Pepper 開発環境 について
PDF
ROBOMECH2017 RTM講習会 第1部・その1
PDF
160705-01 RTミドルウエア講習会・名城大
PDF
TOPPERSプロジェクト紹介 OSC2016京都
PPTX
.NET micro FrameWork for TOPPERS (.NET基礎)@基礎勉強会
PPTX
組込みSW開発技術研究会キックオフミーティング
PDF
EclipseCon NA 2015 report
PDF
短距離ハイブリッド並列分子動力学コードの設計思想と説明のようなもの 〜並列編〜
PDF
Rtミドルウェア講習会 第2部資料
PPTX
タクシードライブレコーダーの動画処理MLパイプラインにkubernetesを使ってみた
PDF
RACCOON 活用シーン Vol.5(2021/03/04)
PDF
131111 東工大授業「ロボット技術」資料
PPTX
渕田研究室全体ゼミ論文紹介 - 第1回
PDF
16th_ACRi_Webinar_Kumamoto-Univ_Okawa_20240308.pdf
PDF
ROBOMECH2023 RTミドルウェア講習会 第1部
201111 04
VisualSFMとMeshLabとCloudCompareによるドローン撮影画像を用いたデジタル地図作成
GTFSオープンデータで公共交通をアップデート
Portable RT-Middleware environment on a USB memory for the robot programing ...
160705-w01 RTミドルウエア講習会・早稲田大
NAO/Pepper 開発環境 について
ROBOMECH2017 RTM講習会 第1部・その1
160705-01 RTミドルウエア講習会・名城大
TOPPERSプロジェクト紹介 OSC2016京都
.NET micro FrameWork for TOPPERS (.NET基礎)@基礎勉強会
組込みSW開発技術研究会キックオフミーティング
EclipseCon NA 2015 report
短距離ハイブリッド並列分子動力学コードの設計思想と説明のようなもの 〜並列編〜
Rtミドルウェア講習会 第2部資料
タクシードライブレコーダーの動画処理MLパイプラインにkubernetesを使ってみた
RACCOON 活用シーン Vol.5(2021/03/04)
131111 東工大授業「ロボット技術」資料
渕田研究室全体ゼミ論文紹介 - 第1回
16th_ACRi_Webinar_Kumamoto-Univ_Okawa_20240308.pdf
ROBOMECH2023 RTミドルウェア講習会 第1部
Ad

More from Sony - Neural Network Libraries (11)

PDF
【学会聴講報告】CVPR2025からみるVision最先端トレンド / CVPR2025 report
PDF
【AI論文解説】 RLHF不要なLLMの強化学習手法: Direct Preference Optimization(+α)
PDF
【DeepLearning研修】Transformerの基礎と応用 --第3回 Transformerの画像での応用
PDF
【DeepLearning研修】Transformerの基礎と応用 -- 第2回 Transformerの言語での応用
PDF
【DeepLearning研修】Transformerの基礎と応用 -- 第1回 Transformerの基本
PDF
【AI論文解説】拡散モデルと自己回帰型モデルの融合 ~ 同時に使う手法と使い分ける手法
PDF
20240819_NM_LivePortrait_Nnabla_youtube_final.pdf
PDF
【学会聴講報告】CVPR2024からみるVision最先端トレンド / CVPR2024 report
PPTX
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
PPTX
【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
PDF
【AI論文解説】Consistency ModelとRectified Flow
【学会聴講報告】CVPR2025からみるVision最先端トレンド / CVPR2025 report
【AI論文解説】 RLHF不要なLLMの強化学習手法: Direct Preference Optimization(+α)
【DeepLearning研修】Transformerの基礎と応用 --第3回 Transformerの画像での応用
【DeepLearning研修】Transformerの基礎と応用 -- 第2回 Transformerの言語での応用
【DeepLearning研修】Transformerの基礎と応用 -- 第1回 Transformerの基本
【AI論文解説】拡散モデルと自己回帰型モデルの融合 ~ 同時に使う手法と使い分ける手法
20240819_NM_LivePortrait_Nnabla_youtube_final.pdf
【学会聴講報告】CVPR2024からみるVision最先端トレンド / CVPR2024 report
【AI論文解説】クラスタリングベースアプローチによる大規模データセット自動キュレーション
【AI論文解説】LLMの事前学習をvisionに適用する手法Autoregressive Image Models
【AI論文解説】Consistency ModelとRectified Flow
Ad

【DeepLearning研修】Transfomerの基礎と応用 --第4回 マルチモーダルへの展開

  • 2. 2 Contents • マルチモーダル情報を扱う Transformer • Transformer のロボティクスへの応用 • Transformer の強化学習への応用 Transformerの基礎と応用
  • 3. 3 Contents • マルチモーダル情報を扱う Transformer • Transformer のロボティクスへの応用 • Transformer の強化学習への応用 Transformerの基礎と応用
  • 4. 4 マルチモーダルモデルとは? *1 “Unified-IO 2: Scaling Autoregressive Multimodal Models with Vision, Language, Audio, and Action”, in CVPR 2024 https://arxiv.org/pdf/2312.17172 マルチモーダル情報を必要とするタスクの例 ([J. Lu et al 2024]*1 より) 言語を用いた画像編集 (Vision + Language) 画像中の音源位置推定 (Vision + Audio) 画像に対する質問への回答 (Vision + Language) 画像と言語を用いたロボットへのタスク指示 (Vision + Language + Robot) • 画像や言語など複数のモーダル情報を統合して、タスクを実行するモデル • 実世界では、視覚 (画像) や聴覚 (音) など、様々な知覚情報が存在 • 実世界のタスクの多くは、複数のモーダル間の関係性を考慮する必要 Transformerの基礎と応用
  • 5. 5 A Generalist Agent (Gato) [DeepMind 2022]*1 • 画像や言語などのマルチモーダル情報を使った様々なタスクを実行可能な Transformer ベースのニューラルネットワークモデル • 画像や言語に関するタスクに加えて、ロボットやゲームなど行動決定に関 するタスクなども行うことが可能 *1 “A Generalist Agent”, in Transactions on Machine Learning Research 2022. https://arxiv.org/pdf/2205.06175 Image Captioning Robot Manipulation Chitchat Transformerの基礎と応用
  • 6. 6 Transformer ベースのマルチモーダルモデルの主な構成 Transformer ① マルチモーダル情報の トークン化 ② マルチモーダルトークン の融合 Image Text Audio Robot State (e.g. joint angle) Image Text Audio Robot Action ③ タスクに応じた出力の生成 Transformerの基礎と応用
  • 7. 7 Transformer ベースのマルチモーダルモデルの主な構成 Transformer ① マルチモーダル情報の トークン化 ② マルチモーダルトークン の融合 Image Text Audio Robot Action ③ タスクに応じた出力の生成 本日はここについて 簡単に紹介します Image Text Audio Robot State (e.g. joint angle) Transformerの基礎と応用
  • 8. 8 マルチモーダル情報のトークン化 主に二つの操作によって、トークン化が行われている 1. 各モーダルの入力データの分割 2. 分割されたデータを特徴量ベクトルへと変換 Gato [DeepMind 2022]*1 でのトークン化の例 *1 “A Generalist Agent”, in Transactions on Machine Learning Research 2022. https://arxiv.org/pdf/2205.06175 画像 1. パッチに分割 2. 各パッチを特徴ベクトル に変換 3. パッチ内での Position Encoding を加える ゲームアクション (離散値) 1. 各整数に対応する特徴ベクトル を参照 Transformerの基礎と応用
  • 9. 9 マルチモーダルトークンの融合 (1/2) • 各モーダルのトークンを集約し、より表現力の高い特徴量へと変換する • Self-Attention をベースとして様々な方法が提案されている Gato [DeepMind 2022]*1 でのトークンの融合の例 *1 “A Generalist Agent”, in Transactions on Machine Learning Research 2022. https://arxiv.org/pdf/2205.06175 • 画像のトークンと離散アクション のトークンを連結 • シーケンス内のどの位置にあるトークン なのかを表す Position Encodings を加える • シーケンス全体に対して、 Self-Attention で処理を行う Transformerの基礎と応用
  • 10. 10 マルチモーダルトークンの融合 (2/2) • 各モーダルのトークンを集約し、より表現力の高い特徴量へと変換する • Self-Attention をベースとして様々な方法が提案されている Flamingo [DeepMind 2022]*1 • 画像特徴と言語特徴の融合に Cross-Attention を使用 • その後、言語特徴に対して Self-Attention を行う *1 “Flamingo: a Visual Language Model for Few-Shot Learning”, in NeurIPS 2022. https://arxiv.org/pdf/2204.14198 *2 “NExT-GPT: Any-to-Any Multimodal LLM,” in ICML, 2024. https://arxiv.org/pdf/2309.05519 NExT-GPT [S. Wu et al., 2024]*2 • 各モーダルの特徴を学習済みの LLM で扱えるような特徴 に変換するような Projector を学習 • モーダル特徴の融合には学習済みの LLM をそのまま使用 Transformerの基礎と応用
  • 11. 11 基盤モデルへの発展 • 使用できるモーダル数も増加し、1つのモデルでより多くのタスクが解ける ように ⇒ 基盤モデル の発展? *1 “Unified-IO 2: Scaling Autoregressive Multimodal Models with Vision, Language, Audio, and Action”, in CVPR 2024 https://arxiv.org/pdf/2312.17172 *2 “MUTEX: Learning Unified Policies from Multimodal Task Specifications”, in CoRL 2023. https://arxiv.org/pdf/2309.14320 *3 “On the Opportunities and Risks of Foundation Models”, in arXiv 2021. https://arxiv.org/pdf/2108.07258 MUTEX [R. Shah et al., 2023]*2 Unified-IO [J. Lu et al 2024]*1 基盤モデル ([R. Bommasani et al., 2021]*3 より) Transformerの基礎と応用
  • 12. 12 Contents • マルチモーダル情報を扱う Transformer • 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている • マルチモーダル情報のトークン化 + マルチモーダルトークンの融合 • 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される • Transformer のロボティクスへの応用 • Transformer の強化学習への応用 Transformerの基礎と応用
  • 13. 13 Contents • マルチモーダル情報を扱う Transformer • 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている • マルチモーダル情報のトークン化 + マルチモーダルトークンの融合 • 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される • Transformer のロボティクスへの応用 • Transformer の強化学習への応用 Transformerの基礎と応用
  • 14. 14 ロボティクスへの応用 • 言語や画像での発展に伴い、ロボティクス分野にも Transformer が普及 • ロボットの行動計画には、様々なモーダルの観測データ (画像、LIDAR、触覚、…) を扱う必要 • タスクによって、時系列情報も考慮する必要 ⇒ Transformer を使うことで、両方の要素に対処可能 Manipulation 言語によるタスク指示に従って物体を操作 RT-1 [Google 2023]*1 *1 “RT-1: ROBOTICS TRANSFORMER FOR REAL-WORLD CONTROL AT SCALE”, in RSS 2023. https://arxiv.org/pdf/2205.06175 *2 “ViNT: A Foundation Model for Visual Navigation”, in CoRL 2023. https://arxiv.org/pdf/2306.14846 Navigation 画像や座標で指定された場所へ移動する ViNT [D. Shar et al., 2023]*2 Transformerの基礎と応用
  • 15. 15 RT-1 (Robotics Transformer) [Google 2023]*1 • ロボット13台で17ヶ月かけて大量の収 集したデータを用いた学習によって、 様々なタスクに対応可能なモデルを獲 得 • データ数: 13万エピソード, 700以上のタスク • 700以上のタスクに対して、タスク成功 率97%を実現 *1 “RT-1: ROBOTICS TRANSFORMER FOR REAL-WORLD CONTROL AT SCALE”, in RSS 2023. https://arxiv.org/pdf/2205.06175 タスクの内訳 Transformerの基礎と応用
  • 16. 16 RT-1のモデル構造 (1/3) 画像とタスク指示のトークン化 • 入力:過去の 6 step 分のRGB画像 + タスク指示 • タスク指示は、Universal Sentence Encoder [D. Cer et al., 2018]*1 によっ て、512次元のベクトルにエンコードされる • 各RGB画像の特徴抽出には、 ImageNet を用いて事前学習した EfficientNet-B3 [M. Tan and Q. Le, 2019]*2 を使用 • その際、 FiLM [E. Perez et al., 2018]*3 を用いて、画像特徴とテキスト特徴を融合 • 最終的に、各画像当たり 9 x 9 x 512 の特徴マップが抽出される *1 “Universal sentence encoder”, in arXiv 2018. https://arxiv.org/pdf/1803.11175 *2 “EfficientNet: Rethinking model scaling for convolutional neural networks”, in ICML 2019. https://arxiv.org/pdf/1905.11946 *3 “Film: Visual reasoning with a general conditioning layer”, in AAAI 2018. https://arxiv.org/pdf/1709.07871 Transformerの基礎と応用
  • 17. 17 RT-1のモデル構造 (2/3) TokenLearner [M. S. Ryoo et al., 2021]*1 による情報の圧縮 • ロボットで動作させるためには、なるべくモデル容量を小さくしておき たい • 計算量の削減、推論速度の高速化 • Attention ベースの機構を用いることで、重要な特徴のみを抽出 • 81個 ⇒ 8個のトークンへと圧縮 *1 “TokenLearner: Adaptive Space-Time Tokenization for Videos”, in NeurIPS 2021. https://openreview.net/pdf?id=z-l1kpDXs88 TokenLearner の処理の詳細 Transformerの基礎と応用
  • 18. 18 RT-1のモデル構造 (3/3) Transformer による行動生成 • 各画像当たり 8個 のトークン x 6 step 分 ⇒ 48個のトークンから適切 な行動を生成する • モデルには8層の Self-Attention Layer から構成されている Transformer Decoder を使用 • 行動の次元は11次元 • アームの姿勢 (x, y, z, roll, pitch, yaw, gripper) • ベースの姿勢 (x, y, yaw) • 制御モード • 各出力は、256個の bin に離散化される Transformerの基礎と応用
  • 19. 19 RT-1 のタスク実行性能 • 他のモデルと比べて高いタスク成功率を達成 • 既知タスク (700以上) であれば、97%の成功率 • 学習データに含まれないタスク・環境に対しても高い汎化性 L1: 新しいテーブルと照明環境 L2: 未知のディストラクタ L3: 新規のタスク、物体 Transformerの基礎と応用
  • 20. 20 RT-1 と SayCan [Google 2022]*1 の統合 • SayCan と組み合わせることで、Long-Horizon な タスクも実行可能 ※ SayCan: LLM による Long-Horizon なタスクの分割と、観測情報に基づ く各サブタスクの価値の推定を行うことで、適切なサブタスクの選択 を行う手法 Instruction: "Bring me the rice chips from the drawer.” Instruction: "Roses are red, violets are blue, bring me the rice chips from the drawer, and a napkin too.” Instruction: "Bring me all the graspable objects from the counter.” *1 “Do As I Can and Not As I Say: Grounding Language in Robotic Affordances”, in CoRL 2022 https://arxiv.org/pdf/2204.01691 SayCan [Google 2022]*1 Transformerの基礎と応用
  • 21. 21 RT-2 [DeepMind 2023]*1 • 学習済みの Vision-Language Model (VLM) を直接行動推定に利用 ⇒ Vision-Language-Action Model (VLA) • アクションは各軸ごとに離散化する (= 整数値でアクションを表現) ことで、 VLM でも生成を行うことができるように • 学習済みの VLM には、PaLI-X [X. Chen et al., 2024]*2 や PaLM-E [D. Driess et al., 2023]*3 を使用 VLM によって生成 された整数列 *1 “RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control”, in CoRL 2023. https://arxiv.org/pdf/2307.15818 *2 “PaLI-X: On Scaling up a Multilingual Vision and Language Model”, in CVPR 2024. https://arxiv.org/pdf/2305.18565 *3 “PaLM-E: An Embodied Multimodal Language Model”, in ICML 2023. https://arxiv.org/pdf/2303.03378 学習時には、Vision- Language 用のデータも 使用 (もともと持ってい る表現力が落ちないよ うに) Transformerの基礎と応用
  • 22. 22 RT-2 [DeepMind 2023]*1 • 大量のデータで学習された VLM を利用 ⇒ ロボットコントロール用のデータに含まれない知識も活用したマニピュ レーションが可能に! ※ 国旗や人の顔写真に関するデータは ロボットコントロール用のデータには含まれていない *1: “RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control”, in CoRL 2023 https://arxiv.org/pdf/2307.15818 出典: https://robotics-transformer2.github.io/ Transformerの基礎と応用
  • 23. 23 今後の課題: データ収集のコスト • Transformer を学習するには、大量のデータセットが必要 • ロボットを動かして大量のデータを収集するにはかなりのコストがかかる • RT-1: ロボット13台で17ヶ月かけても、13万エピソード • 自然言語処理や画像認識と比べて、入出力 (観測データ、アクション)の形 式のバリエーションが大きい Transformerの基礎と応用
  • 24. 24 ALOHA [T. Z. Zhao et al., 2023]*1 目的: データ収集をより簡単に • 安価 (約20kドル) で構築できる双腕ロボットシステム • 人間による遠隔教示が簡単に行うことができる • 教示したデータを用いて学習するモデルに Transformer を利用 人間が教示をしている様子 学習した方策によるタスク実行 *1 “Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware”, in RSS 2023. https://arxiv.org/pdf/2304.13705 ACT (Action Chunking with Transformer) Transformerの基礎と応用
  • 25. 25 RT-X [Open X-Embodiment Collaboration 2024]*1 目的: ロボットタスク向けの事前学習用データセットの構築 • 様々な環境で収集された様々なタスクのデータを集約したデータセット • このデータセットで事前学習 + 解きたいタスクの少量のデータでファインチューン ⇒ 少量のデータのみで学習するよりも性能が向上 *1 “Open X-Embodiment: Robotic Learning Datasets and RT-X Models”, in ICRA 2024. https://arxiv.org/pdf/2310.08864 • 34 robotic research labs (21 institutions) • 22 robot embodiments • 1M+ robot trajectories • 300+ scenes Transformerの基礎と応用
  • 26. 26 Contents • マルチモーダル情報を扱う Transformer • 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている • マルチモーダル情報のトークン化 + マルチモーダルトークンの融合 • 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される • Transformer のロボティクスへの応用 • マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも Transformer が応用され始めている • データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展 が期待される • Transformer の強化学習への応用 Transformerの基礎と応用
  • 27. 27 Contents • マルチモーダル情報を扱う Transformer • 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている • マルチモーダル情報のトークン化 + マルチモーダルトークンの融合 • 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される • Transformer のロボティクスへの応用 • マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも Transformer が応用され始めている • データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展が 期待される • Transformer の強化学習への応用 Transformerの基礎と応用
  • 28. 28 強化学習とは? • 得られる報酬の合計を最大化するように学習を行うアルゴリズム • 報酬: ゲームのスコア、タスクの達成度、… 学習データセット ラベル: 犬 ラベル: 猫 学習 行動 報酬 強化学習 教師あり学習 … … 試行錯誤 参考: 【AI技術研修】nnabla-rlによる深層強化学習入門 第1回「深層強化学習とは?」 https://youtu.be/KZ0pwIIBKYU?si=AabrkXkCvNjJjR0R Transformerの基礎と応用
  • 29. 29 強化学習の応用例 (出典: https://www.bbc.com/news/technology-35785875) (出典: https://www.gran-turismo.com/jp/gran-turismo-sophy/technology/) AlphaGo [DeepMind 2016]*1 GTSophy [Sony AI 2022]*2 *1: “Mastering the game of Go with deep neural networks and tree search”, in Nature 529, 484–489 (2016). https://doi.org/10.1038/nature16961 *2: “Outracing champion Gran Turismo drivers with deep reinforcement learning”, in Nature 602, 223–228 (2022). https://doi.org/10.1038/s41586-021-04357-7 Transformerの基礎と応用
  • 30. 30 強化学習における Transformer の役割 観測データのエンコード • 各時刻の観測データに関す る特徴を抽出 • 時刻間のデータの関係性も 抽出可能 世界モデル • 行動によって状 態がどう変化す るかを予測する 行動推定 • 現在の観測や過去の履歴をもとに、 目標達成に適した行動を推定 *1: “A Survey on Transformers in Reinforcement Learning”, in Transactions on Machine Learning Research 2023. https://arxiv.org/pdf/2301.03044 [W. Li et al., 2023]*1 より Transformerの基礎と応用
  • 31. 31 Decision Transformer [L. Chen et al., 2021]*1 • 与えられた報酬和を実現するような行動を推定するように方策を学習 • GPT 構造のモデルを使用し、過去の観測や行動から、自己回帰的に行動を推定 • 学習には事前に収集したデータセットを使用する (オフライン強化学習) return-to-go • 現在の時刻以降に取るべき報酬和 過去の観測や行動から今の時刻で取 るべき行動を推定 *1: “Decision Transformer: Reinforcement Learning via Sequence Modeling”, in NeurIPS 2021 https://arxiv.org/pdf/2106.01345 行動推定 Transformerの基礎と応用
  • 32. 32 Transformer-based World Model (TWM) [V. Micheli et al., 2023]*1 • Model-based RL における状態予測モデルに Transformer を使用 ※ Model-based RL • 自分がとった行動によって状態がどう変わるかを予測する状態予測モデル (世界モデル) を、 収集したデータを用いて学習する。 • 方策の学習時には状態予測モデルでサンプルしたデータを用いて学習を行う。 *1: “TRANSFORMER-BASED WORLD MODELS ARE HAPPY WITH 100K INTERACTIONS”, in ICLR 2023 https://arxiv.org/pdf/2303.07109 • 𝑜𝑡: 時刻𝑡で得られる観測データ • 𝑧𝑡, ℎ𝑡: 時刻𝑡での潜在特徴 • 𝑎𝑡: 時刻𝑡取った行動 • 𝑟𝑡: 時刻𝑡で得られる報酬 • 𝛾𝑡: 時刻𝑡での割引率 世界モデル Transformerの基礎と応用
  • 33. 33 強化学習における Transformer の今後の課題 • 学習の安定性の向上 • データを収集しながら学習を行うオンライン強化学習では、データの分布が変化していくため、学習が安定 しないことがある • 現在、Transformer が応用されているのは、事前に収集したデータを用いて学習を行うオフライン強化学習が 多い • 強化学習用の Transformer Model の検討 • 現在は、言語などで用いられていた Transformer の構造をそのまま用いることが多い • 強化学習に特化した Transformer Model は出来るのか? Transformerの基礎と応用
  • 34. 34 Contents • マルチモーダル情報を扱う Transformer • 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている • マルチモーダル情報のトークン化 + マルチモーダルトークンの融合 • 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される • Transformer のロボティクスへの応用 • マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも Transformer が応用され始めている • データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展が 期待される • Transformer の強化学習への応用 • 行動学習手法の一つである強化学習にも Transformer は応用されている • しかし、学習の安定性など、まだ課題も多く、さらなる改善が必要か Transformerの基礎と応用
  • 35. 35 Contents • マルチモーダル情報を扱う Transformer • 複数のモーダル情報を扱うマルチモーダルモデルに Transformer が応用されている • マルチモーダル情報のトークン化 + マルチモーダルトークンの融合 • 様々なモーダルの入出力を1つのモデルで扱える基盤モデルへの発展も期待される • Transformer のロボティクスへの応用 • マルチモーダルな観測データや、時系列的な情報を扱った行動計画が必要なロボティクス分野にも Transformer が応用され始めている • データ収集コストなどの課題もあるが、RT-X のような大規模データセットも登場しており、さらなる発展が 期待される • Transformer の強化学習への応用 • 行動学習手法の一つである強化学習にも Transformer は応用されている • しかし、学習の安定性など、まだ課題も多く、さらなる改善が必要か Transformerの基礎と応用