Recommended
【最新ではありません。再度URL送付しています→https://www.slideshare.net/ssuserf4860b/day-250965207...
transformer解説~Chat-GPTの源流~
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
強化学習とは (MIJS 分科会資料 2016/10/11)
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
20150310 第1回 ディープラーニング勉強会
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
「機械学習とは?」から始める Deep learning実践入門
Contrastive learning 20200607
【DeepLearning研修】Transformerの基礎と応用 -- 第1回 Transformerの基本
More Related Content
【最新ではありません。再度URL送付しています→https://www.slideshare.net/ssuserf4860b/day-250965207...
transformer解説~Chat-GPTの源流~
Similar to ラビットチャレンジレポート 深層学習Day4 (20) DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
強化学習とは (MIJS 分科会資料 2016/10/11)
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
20150310 第1回 ディープラーニング勉強会
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
「機械学習とは?」から始める Deep learning実践入門
Contrastive learning 20200607
【DeepLearning研修】Transformerの基礎と応用 -- 第1回 Transformerの基本
ラビットチャレンジレポート 深層学習Day44. 01 強化学習
価値Q(s, a)の最適化
・モンテカルロ法:1連の行動(エピソード)後、Qテーブルを更新
・Qラーニング:行動毎にQテーブルを更新
A B
C D
Qラーニング:
Q(s, a) = r(s, a) + γMax( Q( s´, a ))
γ:割引率(γは0~1, 0に近いほど目先重視)
r(s, a) : 報酬
初期のQテーブル
ご褒美Get!
Q(B, D) = 100
5. 01 強化学習
Qラーニング(例)
Q(s, a) = r(s, a) + γMax( Q( s´, a )) γは0.8とする
Q(A, B) = 0 + 0.8 × Max(Q(B, A), Q(B, B), Q(B, D))
= 0 + 0.8 × Max(0, 0, 100)
= 80
これを繰り返す。
初期のQテーブル
状態や行動が多かったり離散的ではなく連続的であったりするので、これを発展させてNNを使用するDQNがある。(Deep Q-Network)
その際にはε-greedy法(たまにはランダムな行動をさせてもっとよい価値を見つける)、Experience Replay(従来のQ学習のように
1ステップごとにそのステップの内容(experience)を学習するのではなく、メモリ(replay buffer)に各ステップの内容を保存しておき、
メモリから内容をランダムに取り出して(replay)、ニューラルネットワークに学習させる方法)を使う。
8. 02 AlphaGo
AlphaGo Zero
※PlicyValueNetにはResidual Networkが使われている。ネットワークにショートカット構造を追加して、勾配の爆発、消失を抑える
効果を狙ったもの
なお、人間の教師データは用いず、すべて自前(石の配置のみの強化学習)。
11. 04 応用モデル
Dense Net
Alpha GOにも出てきたResidualNet(ResNet)の1種。
前方の各層からの出力全てが後方
の層への入力として用いられる
xl = H[x0, x1, x2, ・・・, xl-1]
初期k0とするといずれの層も出力はkなので、
k0+k, k0+2k, k0+3k, k0+4kとなっていく。kはgrouth rateとよ
び、小さい整数のほうがNetworkが小さくなってよい。
12. 04 応用モデル
バッチ正規化(Batch Norm)
学習時間の短縮や初期値への依存低減、過学習の抑制など効果があるが、Batch Sizeが小さ
い条件下では、学習が収束しないことがあり、代わりにLayer Normalizationなどの正規化手法
が使われることが多い。
それぞれのチャンネル
の平均と分散を求め正
規化を実施
全てのチャネルの平均
と分散を求め正規化を
実施。したがってミニバ
ッチの数に依存しない
Bach Normのバッチサイズが
1と等価。コントラストの正規化、
画像スタイルの転送やテクス
チャ合成タスクに利用
14. 05 Transformer
Transformer
・Seq2seq(RNNベースEncoder-Decoderモデル)よりも早くて精度が高い
・RNNもCNNも使わずに Attentionのみを使用 したEncoder-Decoderモデルで計算量も精度
も改善。しかも並列計算可能
・大枠が① Encoder-Decoderとなっており、②Self-Attentionと③Position-wise Feed-
Forward Networkが組み込まれている。
・Self Attention
Self-Attention層はSeq2Seqなどで付随される形で利用されていたAttention層(異なるデー
タ間の照応関係を獲得する)とは異なり、入力データ内の単語同士の照応関係情報(類似度
や重要度)を獲得する。Itが何を指しているかなどわかるようにもなった。
例)
従来のAttention I have a dog. ⇔ 私は犬を飼っています
⇒このとき、例えば「I」は、特に「私」や「飼っています」との照応関係を獲得する
Self-Attention I have a dog. ⇔ I have a dog.
⇒このとき、例えば「I」は、特に「I」、「have」との照応関係を獲得する
15. 05 Transformer
Transformer
Encoder
・Positional Encoding
単語ベクトルに単語の位置を追加
・Multi-Head Attention
8つのScaled dot product attentionの出力をConcatしたもの
※Scaled dot product attention
全単語に関するAttentionをまとめて計算したもの(dkはKの次元)
Qは入力値(単語x1)×重み(Wq)。Kは入力値×重み(Wk)。Vは入力値×重み(Wv)
単語1つ1つにQVKを予め定めておく。
・Add & Norm
Add (Residual Connectioon)
入出力の差分の学習。だが、実装上は出力に入力を加算しているだけ。
→学習・テストエラーの低減
Norm(Layer Norm)
各層においてバイアスを除く活性化関数への入力を平均0、分散1に正則化
→学習の高速化
・Feed Forward Network
入力xにW1重みをかけて線形変換→ReLu→重みW2で線形変換
17. 05 GAN
GAN(Generative Adversarial Nets)
敵対的生成ネットワーク。「教師なし学習」による画像生成。
お札の偽造者(Generator<G>)が頑張って偽造紙幣を作成(G(z))、一方で警察官がそれを
見抜こう(Discriminator<D(x)>)としてくる。
警察官は自分が勝利する確率を最大に、偽造者は警察が勝利する確率を最小にするよう頑
張る。(ミニマックスゲーム)
どんどん偽造精度があがってくるイメージ。
18. 05 GAN
GAN(Generative Adversarial Nets)
敵対的生成ネットワーク。「教師なし学習」による画像生成。
お札の偽造者(Generator<G>)が頑張って偽造紙幣を作成(G(z))、一方で警察官がそれを
見抜こう(Discriminator<D(x)>)としてくる。
警察官は自分が勝利する確率を最大に、偽造者は警察が勝利する確率を最小にするよう頑
張る(ミニマックスゲーム)。価値関数Vとすると
どんどん偽造精度があがってくるイメージ。
19. 05 GAN
GAN(Generative Adversarial Nets)
お互いが競い合う価値関数は以下。
以下のステップにより算出。
ステップ1により、Gを固定としたときの価値関数が最大となるD(x)は
ステップ2により、価値関数Vは
20. 05 GAN
DCGAN(Deep Convolutional GAN)
GANに畳み込み層を利用したもの。
・Generator
中間層はReLU、最後はtanh。中間層は全結合なし、Bach Normあり。
・Discriminator
畳み込み層により画像から特徴量を抽出し、最終層をsigmoid関数で活性化。
中間層は全結合なし、Bach Normあり。
乱数が
画像に。
G(z)
33. 06 物体検知・セグメンテーション
1段階検出器SSD
Default Boxを用意しておくことで生ずる問題として以下があり、それぞれ対応も記載する。
・Non-Maximum Suppression
Boxが重なってしまっている場合、confの1番大きなものだけにする
・Hard Negative Mining
右図のように背景が多すぎの場合に比率として6以下とする
などで無駄なBoxを削減する。
34. 06 物体検知・セグメンテーション
Semantic Segmentation
畳込みとpoolingで右図のように犬・猫が分かれる。Poolingで輪郭が失われてしまうので、低レイ
ヤーPooling層の出力をelement-wise addition することでローカルな情報を補完してからUp-
samplingする。Skip-Connectionを入れたU-Netというものもある。
43. 参考
強化学習
https://dajiro.com/entry/2020/05/18/091134
Alpha GO
https://www.slideshare.net/suckgeunlee/aialphago
Transformer
https://deepsquare.jp/2020/07/transformer/#outline__1_2
https://qiita.com/omiita/items/07e69aef6c156d23c538
GAN
https://www.imagazine.co.jp/gan:敵対的生成ネットワークとは何か%E3%80%80~「教師/