SlideShare a Scribd company logo
DEEP LEARNING JP
[DL Papers]
論文紹介:
Invariance Principle Meets Information Bottleneck for
Out-of-Distribution Generalization
Ryosuke Ohashi, bestat inc.
http://deeplearning.jp/
書誌情報
2
 NeurIPS 2021 (2021年12月) spotlight 論文
 https://openreview.net/forum?id=jlchsFOLfeF
 概要
 IRMで訓練した線形分類器がOOD汎化に失敗することがある理由を考察
 成功するための必要条件と,その条件下での解法IB-IRMを提案
論文の主結果
3
 線形分類の場合「サポートオーバーラップ条件」が満たされないとOOD汎化は保障されない
 著者らの提案した「IB-IRM」を使うと,上記条件の下で線形分類のOOD汎化が保障される
 「IB-IRM」ではIRM同様,線形回帰のOOD汎化も保障される
 注:実際にはさらにいくつかテクニカルな条件を仮定しているので,表を鵜呑みにしないほうがよいか
も
定式化:OOD汎化問題
4
 OOD汎化問題
 複数の環境から得られた訓練データセットを用いて,それ以外の環境から得
られるテストデータセット上でも上手く働く推定モデルを作りたい
定式化:データセットに対する仮定
5
 訓練・テストデータセットが,ある環境不変な線形SEM(構造方程式モデル)に
従うことを仮定する
 全く仮定なしだとOOD汎化に最大限失敗するテスト
環境を(人為的にだが)作れてしまう
 まずは線形回帰・線形分類から,ということで線形
性を仮定している
定式化:線形不変推定器
6
 入力データXの線形埋め込みΦと線形推定係数wからなる推定器w・Φを考える
 S=idとは限らないので線形埋め込みΦも考えている
 損失関数として,回帰のときは二乗誤差,二項分類のときは0-1ロスを使い,
OOD汎化問題を解きたい
モチベーション:「特定環境固有の特徴」を無視した
い
7
 ERM(経験的リスク最小化)だと,Z_spuがZ_invやYと高い相関を持つとき,
Z_spuの回帰係数が0になってくれない
 (そのほうが訓練環境上でのリスクを下げやすいため)
定式化:IRM
8
 IRM (Arjovsky et al., 2019)では以下の目的関数を最小化する
定理:線形回帰の場合の汎化定理
9
 定理(informal)[Arjovsky et al., 2019]
 線形回帰の場合,|E_tr|>2dかつE_trに属する環境達が「一般の位置関係」にある
とき,Rank(Φ)>0を満たすIRMの最適解があれば,それはE_allにOOD汎化する
モチベーション:線形二項分類の場合
10
 線形回帰では「データを平面に乗せ」ることを目指すが,線形二項分類では
「データを平面で上手く分離」するので,事情がやや異なってくる
 不変な特徴にしか依存しない分離器をちょっとだけ特定環境固有の特徴に依
存するようにしてもIRMの拘束条件を満たし続ける(⇒追加の拘束条件?)
 分類境界付近に未知のテスト環境の不変特徴が分布しているようだと困るは
ず(⇒追加の必要条件?)
追加の拘束条件:IB
11
 情報ボトルネック(IB)
 Xをなるべく圧縮しつつ,Yについての情報はなるべく残す(というトレード
オフをコントロールする方法)
 IB-IRMのアイデア
 IRMだけだとZ_invだけでなく,Z_spuを「ちょっと使ってもよい」が,Z_inv
だけ使ったほうがYについての情報量そのままで圧縮率が上がる
 実装上は,Φ(X)のエントロピー最小化の代理としてVariance(Φ(X))を最小
化することを提案
定理:線形二項分類の場合の必要条件,汎化定理
12
 不変特徴のサポートオーバーラップ条件:
 (特定環境固有の特徴についても同様)
実験結果
13
 定理と整合性のある実験結果も得られている
14
まとめ,感想
 まとめ
 線形分類タスクでのOOD汎化保障の必要条件を示した
 上記条件の下でOOD汎化問題を解くことができる手法「IB-IRM」を提案
 いくつかの小規模なデータセットで効果を実証した
 感想
 理論を厳密には追えてないが,直観的にも納得感のある主結果で,線形推定
の場合のIRMの理論的見通しがついた感じがする
 とは言え,応用上はまだまだこれからだと思うので,トイサンプルや実務
データなどで試しながら関連研究をフォローしていきたい
15
雑記
 応用上気になる点
 トイ環境ですらIRMの拘束条件の最適化が難しい(Φの初期値次第でlocal minimaに詰まってしまうし,ハ
イパラ調整もシビアな感じ)
 入力の次元が高くて(画像とか)Φを非線形にせざるを得ないとき,Φが訓練環境達をある不変な線形
SEMにマップできていても,テスト環境でもそこにマップしてくれるとは限らない気がする
 自己教師ありで表現学習してからIRMをくっつける,みたいなことをやるとどうか?
 続けて読みたい論文
 [Rosenfield et al., ICLR 2021] The risks of invariant risk minimization.

More Related Content

PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
PPTX
【DL輪読会】"A Generalist Agent"
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
PPTX
モデル高速化百選
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
PDF
強化学習の基礎的な考え方と問題の分類
PDF
【メタサーベイ】Neural Fields
PPTX
Curriculum Learning (関東CV勉強会)
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
【DL輪読会】"A Generalist Agent"
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
モデル高速化百選
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
強化学習の基礎的な考え方と問題の分類
【メタサーベイ】Neural Fields
Curriculum Learning (関東CV勉強会)

What's hot (20)

PDF
Layer Normalization@NIPS+読み会・関西
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
PDF
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
PPTX
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
PDF
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
PDF
自己教師学習(Self-Supervised Learning)
PDF
全力解説!Transformer
PDF
Transformer メタサーベイ
PDF
効率的学習 / Efficient Training(メタサーベイ)
PPTX
近年のHierarchical Vision Transformer
PDF
初めてのグラフカット
PDF
Anomaly detection 系の論文を一言でまとめた
PPTX
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
PPTX
[DL輪読会]Focal Loss for Dense Object Detection
PPTX
[DL輪読会]Pay Attention to MLPs (gMLP)
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
PPTX
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
PDF
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
PDF
Deeplearning輪読会
PDF
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
Layer Normalization@NIPS+読み会・関西
【DL輪読会】Scaling Laws for Neural Language Models
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
自己教師学習(Self-Supervised Learning)
全力解説!Transformer
Transformer メタサーベイ
効率的学習 / Efficient Training(メタサーベイ)
近年のHierarchical Vision Transformer
初めてのグラフカット
Anomaly detection 系の論文を一言でまとめた
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]GQNと関連研究,世界モデルとの関係について
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
Deeplearning輪読会
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
PPTX
【DL輪読会】事前学習用データセットについて
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
PPTX
【DL輪読会】マルチモーダル LLM
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
PPTX
【DL輪読会】Hopfield network 関連研究について
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Ad

[DL輪読会]Invariance Principle Meets Information Bottleneck for Out-of-Distribution Generalization

Editor's Notes

  • #2: Beyond Reward Based End-to-End RL: Representation Learning and Dataset Optimization Perspective