SlideShare a Scribd company logo
+
Regularization With Stochastic Transformations and
Perturbations for Deep Semi-Supervised Learning	
工学系研究科	システム創成学専攻	加藤・中村研
M1? 岡本 弘野		
17/02/09
+
Introduction	
n  ラベルなしデータの適用
n  convnetは大量のパラメタがあり、大量の学習データがないと過学
習する
n  しかし、大量のデータセットをつくるのはコストがかかる
n  一方で、ラベルなしデータは集めやすく、convnetの性能をあげる
ために利用したい
n  ランダム化
n  確率的勾配降下法、ドロップアウト、データのランダムな変形
n  同じデータから、ランダム化によって、違う出力を生み出すことを
利用する
17/02/09	
1
+
Related Work	
n  古典的なアプローチ
n  データとラベルの結合分布のモデル化
n  GMM
n  HMM
n  ラベルありデータとなしデータのマージン最大化
n  TSVM
n  S3VM
n  これらの半教師学習はサンプル間の類似度を利用
n  あるラベルなしデータがAのラベルデータに似ていれば、そのデー
タはAとみなす
17/02/09	
2
+
Related Work	
n  半教師deep learning
n  ConvNetの性能をあげるためにラベルなしデータをつかう
n  convnetのフィルターをpretrainするなど
n  ほかの論文でのアプローチ
n  predictive sparse decomposition
n  resion embedding
n  ladder networks	
17/02/09	
3
+
Method	
n  教師なしloss関数を定義
n  Transformation/stability loss function
n  変化/安定損失関数
n  同じデータによる違う出力のペアの差の二乗和を最小化する
n  勾配降下法で最適化
17/02/09	
4
+
Method	
n  idea
n  どんなランダムなデータ変形(線形、非線形変換)にたいしても、モ
デルの予測は同じであるべき
17/02/09	
5
+
Method	
n  idea
n  どんなネットワークでも(dropoutやランダムなpooling)、モデルの
予測は同じであるべき	
17/02/09	
6
+
Method	
n  もう一つ、教師なし学習のloss関数を定義
n  Mutual Exclusivity loss function
n  相互排他的損失関数
n  決定境界をどんなサンプルからもできるだけ遠い所に置こうとす
る。結果的に、密度の低いところに決定境界が置かれる		
17/02/09	
7
+
Method	
n  最終的に、教師なし損失関数と教師あり損失関数の和を最小化
すればよい	
17/02/09	
8
+
Experiments and Results	
n  MNIST
n  100サンプルでstate of the art
n  SVHN and NORB
n  CIFAR10
n  state of the art
n  CIFAR100
n  state of the art
n  ImageNet
17/02/09	
9
+
Experiments and Results	
n  MNIST
n  100サンプルではstate of the art
n  全ラベルでは、誤差0.24が最高精度[40]
17/02/09	
10
+
Experiments and Results	
n  SVHN and NORB
17/02/09	
11
+
実際に実装してみた(ができなかっ
た)	
n  MNISTでやってみた
n  データオーグメンテーションによるlossTS関数の最小化
n  lossME関数の最小化
n  クロスエントロピーによるラベルあり損失関数の最小化
n  tensorflowをつかった
n  一部kerasを使っている
n  できなかったが、誰かアドバイスをくれることを願ってgithub
にあげた
n  https://github.com/HironoOkamoto/hoge/blob/master/semi
%20supervised%20mnist%20tensorflow-12.ipynb
17/02/09	
12
+
ConvNet	
n  簡単のため、Lenetをつかった
n  batch normalizationも	
17/02/09	
13
+
17/02/09	
14
n  データ増やすのはkerasが楽
だった
n  Tの部分
変形/安定損失関数
+
Fractional Max-Pooling	
n  ランダムにプーリングする部分
n  tf.nn.fractional_max_pool
n  ここは時間の関係上実装していなかったが、おそらく一番重要
n  jの部分
n  https://arxiv.org/abs/1412.6071
n  ドロップアウト	
17/02/09	
15
+
相互排他的損失関数	
n  愚直に実装した
17/02/09	
16
+
損失関数	
n  ラベルありデータに関しては、クロスエントロピー	
n  loss_label =
tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=outp
ut, labels=y))
	
n  loss = loss_label + lam1 * loss_unlabel_TS + lam2 * loss_unlabel_ME	
17/02/09	
17

More Related Content

PDF
「今日から使い切る」 ための GNU Parallel による並列処理入門
PPTX
Vanishing Component Analysis
PDF
Rで時系列をスマートに捌く方法のご相談(Tokyo.R#09)
PPTX
分枝限定法でモデル選択の計算量を低減する
PPTX
[DL輪読会]Understanding deep learning requires rethinking generalization
PPTX
Semi supervised, weakly-supervised, unsupervised, and active learning
PDF
論文紹介 Semi-supervised Learning with Deep Generative Models
PDF
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
「今日から使い切る」 ための GNU Parallel による並列処理入門
Vanishing Component Analysis
Rで時系列をスマートに捌く方法のご相談(Tokyo.R#09)
分枝限定法でモデル選択の計算量を低減する
[DL輪読会]Understanding deep learning requires rethinking generalization
Semi supervised, weakly-supervised, unsupervised, and active learning
論文紹介 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models

Similar to [DL輪読会]Regularization with stochastic transformations and perturbations for deep semi supervised learning (20)

PDF
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
PPTX
NIPS2015読み会: Ladder Networks
PPTX
Not all unlabeled data are equal
PDF
【メタサーベイ】数式ドリブン教師あり学習
PPTX
MIRU2014 tutorial deeplearning
PDF
Deep learning入門
PDF
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
PDF
[DL輪読会]High-Quality Self-Supervised Deep Image Denoising
PPTX
Noisy Labels と戦う深層学習
PPTX
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
PPTX
DNNの曖昧性に関する研究動向
PPTX
The review of 'Explaining nonlinear classification decisions with deep Taylor...
PDF
[DL輪読会]Deep Learning 第15章 表現学習
PPTX
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
PPTX
深層学習の数理
PDF
第2回nips+読み会: Learning to learn by gradient decent by gradient decent
PPTX
20170618論文読み会 伊藤
PPTX
Self training with noisy student
PDF
Mean Teacher
PDF
深層学習入門
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
NIPS2015読み会: Ladder Networks
Not all unlabeled data are equal
【メタサーベイ】数式ドリブン教師あり学習
MIRU2014 tutorial deeplearning
Deep learning入門
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
[DL輪読会]High-Quality Self-Supervised Deep Image Denoising
Noisy Labels と戦う深層学習
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
DNNの曖昧性に関する研究動向
The review of 'Explaining nonlinear classification decisions with deep Taylor...
[DL輪読会]Deep Learning 第15章 表現学習
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
深層学習の数理
第2回nips+読み会: Learning to learn by gradient decent by gradient decent
20170618論文読み会 伊藤
Self training with noisy student
Mean Teacher
深層学習入門
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
PPTX
【DL輪読会】事前学習用データセットについて
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
PPTX
【DL輪読会】マルチモーダル LLM
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
PPTX
【DL輪読会】Hopfield network 関連研究について
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Ad

[DL輪読会]Regularization with stochastic transformations and perturbations for deep semi supervised learning