SlideShare a Scribd company logo
DEEP LEARNING JP
[DL Papers]
Naoki	Nonaka,	Matsuo	Lab
http://deeplearning.jp/
“BEYOND	SHARED	HIERARCHIES:	DEEP	MULTITASK
LEARNING	THROUGH	SOFT	LAYER	ORDERING	(ICLR2018)”
2018/3/1 1
2018/3/2 2
書誌情報
著者:Elliot Meyerson & Risto Miikkulainen
(The University of Texas at Austin and Sentient Technologies, Inc.)
学会:ICLR 2018 Accepted paper (Poster) (7, 7, 6)
2018/3/2 3
背景
Improving Machined Surface Variation Prediction by Integrating Multi-Task Gaussian Process Learning with Cutting Force Induced Surface Variation Modelingより
Single	
task
Multi	
task
マルチタスク学習
関連する複数のタスクを同時に学習
させることで,これらのタスクに共通
の要因を獲得させ,タスクの予測精度
を向上させる(朱鷺の杜Wikiより)
深層学習によるマルチタスク学習
(Deep MTL)
2018/3/2 4
背景
(これまでの)Deep MTL
⇒ 少数のタスク and/or 類似するタスクでしか解かれていない
(これまでの)Deep MTLの前提
• 学習された変換はタスク間で共有可能
【+ 暗黙的な前提】
• タスク間での共有は,モデル構造により決まる
特徴量の階層において,平⾏する層間でのみ⾏われる
L1
L3
L2
L2
L4
L3
L4
Task1 Task2
層の順序が不変層の順序が変わることを許可すれば,より柔軟なモデルが可能
2018/3/1 5
本研究で検証すること
Deep MTLにおいて,
üタスク間で層の順番が同⼀である必要性を検証
üタスクごとに共有される層の順番を変更することにより,
精度が向上するかを検証
2018/3/2 6
先⾏研究
これまでのDeep MTL
a. 関連するタスクを解く出⼒層を追加する⼿法
b. タスクごとに層を重ね,並⾏する層の間を結合する⼿法
c. ネットワークの中間層に出⼒層を追加する⼿法
d. 全てのタスクで核となるパラメータを共有し,少数のタスク特異的なパラメータを置く⼿法
2018/3/2 7
検証
üタスク間で層の順番が同⼀である必要性を検証
L1
L3
L2
L2
L4
L3
L4
Task1 Task2
層の順序が不変
”Parallel ordering”
L1
L3
L2
L3
L2
L4
L4
Task1 Task2
層の順序を変更
”Permutated ordering”
2018/3/2 8
検証
タスク間で層の順番を固定しない”Permutated ordering”でも同程度の精度
2018/3/1 9
提案⼿法
üタスクごとに共有される層の順番を変更することにより,
精度が向上するかを検証
ここまでのモデル
“Parallel	ordering”									⇒ タスク間で層の順番を固定
“Permutated	ordering”	⇒ 学習時に層の順番をあらかじめ固定
層の順番をタスクごとに学習する⼿法
(”Soft	ordering”)
2018/3/2 10
提案⼿法
2018/3/1 11
実験
1.提案⼿法によるDeep MTLの分類精度
1.関連あるタスク
2.(表⾯的に)関係のないタスク
3.CNNへの拡張
4.⼤規模データへの適⽤
2.“Soft ordering”を⾏なった層の可視化
2018/3/2 12
実験
L1
L3
L2
L2
L4
L3
L4
Task1 Task2
層の順序が不変
L1
L3
L2
L2
L4
L3
L4
Task1 Task2
独⽴で学習
”Parallel ordering”Single task “Soft ordering”
2018/3/2 13
実験
2018/3/2 14
実験
Iterationが増えると提案⼿法のErrorが減少
表⾯的には関係のなさそうなUCIのデータセットを同時に学習
2018/3/2 15
実験
CNNへの拡張
Omniglot(50種類の⽂字群のそれぞれを個別のタスクとしてマルチタスク学習)
提案⼿法により精度が向上
2018/3/2 16
実験
⼤規模データへの適⽤
CelebA(40種類の属性値がそれぞれ付与されるかを個別タスクとしてMTL)
提案⼿法により精度が向上
2018/3/2 17
実験
2018/3/2 18
今後の課題と結論
今後の課題
• Recurrent構造との関連の分析
• 共有している層の⼀般化
• ⼀般化できる層の学習
結論
• これまでのDeep MTLでは,層の順番が固定されていたが,
その制約を軽減する”Soft ordering”を提案
• 複数のタスクにおいて,提案⼿法が既存⼿法を上回った

More Related Content

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
PPTX
【DL輪読会】事前学習用データセットについて
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
PPTX
【DL輪読会】マルチモーダル LLM
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition

More from Deep Learning JP (20)

PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
PPTX
【DL輪読会】Hopfield network 関連研究について
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
PPTX
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
PDF
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
PPTX
【DL輪読会】マルチモーダル 基盤モデル
PPTX
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
PDF
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
PPTX
【DL輪読会】大量API・ツールの扱いに特化したLLM
PDF
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
PDF
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】大量API・ツールの扱いに特化したLLM
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
Ad

[DL輪読会]Beyond Shared Hierarchies: Deep Multitask Learning through Soft Layer Ordering