Recommended Convolutional Neural Network @ CV勉強会関東
Cvim saisentan-6-4-tomoaki
MIRU2014 tutorial deeplearning
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
PythonによるDeep Learningの実装
Introduction to Deep Compression
Deep Learningと画像認識 ~歴史・理論・実践~
[論文紹介] Convolutional Neural Network(CNN)による超解像
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
Tutorial-DeepLearning-PCSJ-IMPS2016
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
最近のSingle Shot系の物体検出のアーキテクチャまとめ
検索可能暗号の概観と今後の展望(第2回次世代セキュア情報基盤ワークショップ)
Can increasing input dimensionality improve deep reinforcement learning?
More Related Content Convolutional Neural Network @ CV勉強会関東
Cvim saisentan-6-4-tomoaki
MIRU2014 tutorial deeplearning
What's hot (20)
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
PythonによるDeep Learningの実装
Introduction to Deep Compression
Deep Learningと画像認識 ~歴史・理論・実践~
[論文紹介] Convolutional Neural Network(CNN)による超解像
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
Tutorial-DeepLearning-PCSJ-IMPS2016
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
最近のSingle Shot系の物体検出のアーキテクチャまとめ
Similar to 多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26 (20) 検索可能暗号の概観と今後の展望(第2回次世代セキュア情報基盤ワークショップ)
Can increasing input dimensionality improve deep reinforcement learning?
【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
SWEST poster-2015-computer-system
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
【DL輪読会】DreamFusion: Text-to-3D using 2D Diffusion
オトナのプログラミング勉強会 オトナのDeep Learning 2016-11
Feature Generationg Networks for Zero-Shot Learning 論文紹介
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Rethinking Knowledge Graph Propagation for Zero-Shot Learinig 論文紹介
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
深層学習を用いた音源定位、音源分離、クラス分類の統合~環境音セグメンテーション手法の紹介~
AV 画像認識とその周辺 - UT Startup Gym 講演資料
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/262. 参考文献
• [1] 岡谷貴之, 斉藤真樹. ディープラーニング チュートリアル.
http://www.vision.is.tohoku.ac.jp/index.php/download_file/view/15/137/
• [2] Andrew Ng. CS294A Lecture notes: Sparse autoencoder.
http://www.stanford.edu/class/cs294a/sparseAutoencoder.pdf
• [3] 得居誠也. Deep Learning 技術の今.
https://www.slideshare.net/beam2d/deep-learning20140130
7. オートエンコーダ
• 中間層のサイズ > 入力サイズだと自明な解
(恒等関数)を得てしまう (右図)
• 恒等関数を学習しないようにする工夫:
– 中間層を入力層より小さくする
(bottleneck)
– hがスパースになるように正則化 (3.3節)
– Denoising Auto Encoder*
• と制約してしまうことが多い
– f(x) = xを考えるとわかりやすい (PCAみ
たいなかんじ)
* P. Vincent, H. Larochelle, Y. Bengio and P.-A. Manzagol. Extracting and Composing Robust Features with Denoising Autoencoders. ICML 2008.
10. オートエンコーダの微調整 (fine tuning)
• 微調整 (fine tuning): プレトレーニング後に、ネットワー
ク全体を学習し直して最終的なモデルを得る
• 教師無し、有りともによい初期値が与えられているので
うまく学習できる (よい局所解にたどり着ける)
教師有り
各ノードがクラス
ラベルに対応する
出力層を乗せて、
(BPで)学習
教師無し
全体をひとつのオー
トエンコーダとみな
して学習
[1]より
13. スパースコーディング*
• 与えられたサンプルを少数の基底の線形結合で表現でき
るように、基底の集合(dictionary)を学習
• 学習時にはD, hを最適化、Dがきまればxに対してhを計
算
• 基底の数 > 特徴次元: overcomplete
* Olshausen, B. A. and Field, D. J.: Emeregnce of simple- cell receptive field properties by learning a sparse code for natural images, Nature, Vol. 381, pp. 607–
609 (1996).
スパースコ ーディ ング
, Sparse Coding w ith an Overcom plete Basis Set: a Strategy Em ployed by V1?, Vis. R
min
,
1
2
+
過
(
{ } = , … ,
dictionary
code スパース項: 理想的にはL0
14. スパースコーディング
スパースコ ード = [0, 0, …, 0, 0.8, 0, …, 0, 0.3, 0, …, 0, 0.5, …]
Figs from [Yu and Ng, Feature learning for im age classification, Tutorial, ECCV10]
Olshausen, Field, Sparse Coding w ith an Overcom plete Basis Set: a Strategy Em ployed by V1?, Vis. Research96
0.8 * + 0.3 * + 0.5 *
Natural im age patches
min
,
1
2
+
過完備性
( overcom plete)
{ } = , … ,
20. Topographic ICA
• プーリング層の発火 を抑えるには、
同じプーリングユニットにつながっているフィルタ層の
ノードは似たパターンに反応するべき
– 常に少数のユニットが反応をするより、たまに多数
のユニットが反応する方が上の値は小さくなる
• 結果同じプーリングユニットには似た特徴がつながる
– → プーリングユニットが微笑な変形に不変性を持つ