Recommended
Mroonga Meetup 2014/06/29
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
A100 GPU 搭載! P4d インスタンス使いこなしのコツ
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
データ圧縮アルゴリズムを用いたマルウェア感染通信ログの判定
Prometheus at Preferred Networks
Ncnn a universal and efficient neural network inference with vulkan
Automatic Mixed Precision の紹介
Challengers 2013 winter ハッカソンに参加してみて
モバイル(エッジ)向け ニューラルネットワーク推論エンジンの紹介
Chainer で Tensor コア (fp16) を使いこなす
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
Arduinoでプログラミングに触れてみよう 続編
Chainer でのプロファイリングをちょっと楽にする話
落合 Wba hackathon2_成果報告_最終版
More Related Content
Mroonga Meetup 2014/06/29
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
A100 GPU 搭載! P4d インスタンス使いこなしのコツ
What's hot (20)
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
データ圧縮アルゴリズムを用いたマルウェア感染通信ログの判定
Prometheus at Preferred Networks
Ncnn a universal and efficient neural network inference with vulkan
Automatic Mixed Precision の紹介
Challengers 2013 winter ハッカソンに参加してみて
モバイル(エッジ)向け ニューラルネットワーク推論エンジンの紹介
Chainer で Tensor コア (fp16) を使いこなす
2015年度GPGPU実践基礎工学 第1回 学際的分野における先端シミュレーション技術の歴史
Arduinoでプログラミングに触れてみよう 続編
Chainer でのプロファイリングをちょっと楽にする話
Similar to PRMU201902 Presentation document (9)
落合 Wba hackathon2_成果報告_最終版
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
機械学習 / Deep Learning 大全 (6) Library編
Iceberg 2018 (Japanese translation)
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
More from Masayuki Tanaka (20) Slideshare breaking inter layer co-adaptation
Gradient-Based Low-Light Image Enhancement
遠赤外線カメラと可視カメラを利用した悪条件下における画像取得
Learnable Image Encryption
Chain rule of deep neural network layer for back propagation
One-point for presentation
ADMM algorithm in ProxImaL
Intensity Constraint Gradient-Based Image Reconstruction
Least Square with L0, L1, and L2 Constraint
PRMU201902 Presentation document2. 概要
1
1.mgq (Minimal Gram task Queue)
2.train1000 (Train with small samples)
3.WiG (Weighted Sigmoid Gate Unit)
(便利な)シンプルタスクキュー
(練習用)小サンプル学習
新しい活性化関数
https://github.com/likesilkto/mgqueue
http://www.ok.sc.e.titech.ac.jp/~mtanaka/proj/train1000/
http://www.ok.sc.e.titech.ac.jp/~mtanaka/proj/WiG/
4. mgq (Minimal Gram task Queue)
3
https://github.com/likesilkto/mgqueue
% pip install git+https://github.com/likesilkto/mgqueue
インストール:
python application
タスク追加:
% mgq queue_name ad ‘python train1.py’
% mgq queue_name ad ‘python train2.py’
スタート:
% mgq queue_name start
% mgq queue_name start –gmail [@マークより前のgmail アカウント]
タスク追加:
% mgq queue_name ad ‘python train3.py’
7. 概要
6
1.mgq (Minimal Gram task Queue)
2.train1000 (Train with small samples)
3.WiG (Weighted Sigmoid Gate Unit)
(便利な)シンプルタスクキュー
(練習用)小サンプル学習
新しい活性化関数
https://github.com/likesilkto/mgqueue
http://www.ok.sc.e.titech.ac.jp/~mtanaka/proj/train1000/
http://www.ok.sc.e.titech.ac.jp/~mtanaka/proj/WiG/
8. Activation Functions for DNNs
Input
x
Activation
function
Weight
Output
y
Conv.
Activation
function
Input
x
Output
y
Activation functions
Sigmoid tanh ReLU
𝜎𝜎 𝑥𝑥 =
1
1 + 𝑒𝑒−𝑥𝑥
max(𝑥𝑥, 0)
9. Advanced Activation Functions
ReLU
max(𝑥𝑥, 0)
�
𝑥𝑥 (𝑥𝑥 ≥ 0)
𝛼𝛼𝛼𝛼 (𝑥𝑥 < 0)
Leaky ReLU
Parametric ReLU
swish, SiL
𝑥𝑥 𝜎𝜎 𝑤𝑤𝑤𝑤 + 𝑏𝑏
Existing activation functions are
element-wise function.
Dying ReLU:
Dead ReLU units always
return zero.
10. WiG: Weighted Sigmoid Gate (Proposed)
Existing activation functions are
element-wise function.
Sigmoid Gated Network can be
used as activation function.
Weight
Activation
function
Weight
Activation
networkunit
Proposed WiG (Weighted sigmoid gate unit)
W ×
Wg
WiG activation unit
It is compatible to existing activation functions.
It includes the ReLU.
Sigmoid
W
Wg
×
My recommendation is:
You can improve the network performance just by
replacing the ReLU by the proposed WiG.
11. WiG: Three-state
10
𝒚𝒚 = 𝜎𝜎 𝑾𝑾𝒈𝒈 𝒙𝒙 + 𝒃𝒃𝒈𝒈 ⊗ (𝑾𝑾𝑾𝑾 + 𝒃𝒃)
人の網膜細胞
オン中心型受容野
オフ中心型受容野
中心が明るいほど
大きな出力
中心が暗いほど
大きな出力
反応なし
⊗
反応の大きさ閾値制御
(符号付の)
反応の大きさ制御
閾値制御
独立に制御できる
(かもしれない)
Uchida, Coupled convolution layer for convolutional neural network, 2018
13. WiG with sparseness constraint
12
𝒚𝒚 = 𝜎𝜎 𝑾𝑾𝒈𝒈 𝒙𝒙 + 𝒃𝒃𝒈𝒈 ⊗ (𝑾𝑾𝑾𝑾 + 𝒃𝒃)
スパースネス: yの非ゼロ要素が少ない
スパースネス拘束: 𝜎𝜎 𝑾𝑾𝒈𝒈 𝒙𝒙 + 𝒃𝒃𝒈𝒈 1
14. WiG ReLU
13
𝒚𝒚 = 𝜎𝜎 𝑾𝑾𝒈𝒈 𝒙𝒙 + 𝒃𝒃𝒈𝒈 ⊗ (𝑾𝑾𝑾𝑾 + 𝒃𝒃)
𝑦𝑦 = 𝜎𝜎(𝛼𝛼𝛼𝛼) × 𝑥𝑥
𝑦𝑦 = 𝜎𝜎(𝛼𝛼𝛼𝛼)
𝛼𝛼 → ∞
𝑦𝑦 = �
0 (𝑥𝑥 < 0)
1 (𝑥𝑥 ≥ 0)
𝑦𝑦 = 𝜎𝜎(𝛼𝛼𝛼𝛼) × 𝑥𝑥
𝛼𝛼 → ∞
𝑦𝑦 = max(0, 𝑥𝑥)
WiGはReLUを再現できる!
既存ネットワークのReLUをWiGに置き換えて,
高性能化できる!(かも)
16. まとめ
15
1.mgq (Minimal Gram task Queue)
2.train1000 (Train with small samples)
3.WiG (Weighted Sigmoid Gate Unit)
(便利な)シンプルタスクキュー
(練習用)小サンプル学習
新しい活性化関数
https://github.com/likesilkto/mgqueue
http://www.ok.sc.e.titech.ac.jp/~mtanaka/proj/train1000/
http://www.ok.sc.e.titech.ac.jp/~mtanaka/proj/WiG/