SlideShare a Scribd company logo
Curriculum Learning
牛久 祥孝
losnuevetoros
お前は誰だ?
~2014.3 博士(情報理工学)、東京大学
• 画像説明文の自動生成
• 大規模画像分類
2014.4~ NTT コミュニケーション科学基礎研究所
大規模な画像の分類といえば
Deepで深イイ深層学習の独壇場
[Krizhevsky+, NIPS 2013]
[Mahendran+Vedaldi, CVPR 2015]
2012年~:猫も杓子も Deep Learning 祭り
2012年の画像
認識タスクで
ディープ勢が
2位以下に圧勝!
2012年の画像
認識タスクで
ディープ勢が
2位以下に圧勝!
2012年の画像
認識タスクで
ディープ勢が
2位以下に圧勝!
2012年~:猫も杓子も Deep Learning 祭り
[Tomohiro Mito, Deep learning, slideshare, 2013]
2012年~:猫も杓子も Deep Learning 祭り
[Tomohiro Mito, Deep learning, slideshare, 2013]
ISIってなんだよどこのチームだよ
同webサイトをみると・・・
ぼくら
Deep勢
ISIここだよ!
(この勉強会の建物)
8Fあたり
Deep Learning 勢
Geoffrey Hinton, Yann LeCun, Yoshua Bengio
今日紹介する論文
Geoffrey Hinton, Yann LeCun, Yoshua Bengio
以下の疑問にお応えします。
• Curriculum Learning って?
• どうやって学習するの?
• どんな応用例があるの?
• どうせ Deep Learning 用の研究なんでしょ?
家庭教師
ツルとカメが合わせて10匹います。
足の数は合計24本でした。
ツルとカメはそれぞれ何匹ずついるでしょうか?
こんな家庭教師は嫌だ
ツルとカメが合わせて10匹います。
足の数は合計24本でした。
ツルとカメはそれぞれ何匹ずついるでしょうか?
ツルを𝑥1匹、カメを𝑥2匹とすれば、
1 1
2 4
𝑥1
𝑥2
=
10
24
だから、逆行列を左からかけて
𝑥1
𝑥2
=
1 1
2 4
−1
10
24
=
8
2
と解けるよね。
Curriculum Learning とは
10-☐=5
△÷3=4
Curriculum Learning とは
3𝑥 + 2𝑦 = 21
−4𝑥 + 𝑦 = 5
2 −1 3
4 1 9
2 3 1
𝑥1
𝑥2
𝑥3
=
2
3
1
人間の学習では
• 最初は簡単な問題を解く。
• 時の経過とともに難しい問題も学ぶ。
計算機も見習うべきでは?!
Curriculum Learning
[Bengio+, ICML 2009]
ケース1:図形分類
• 自動生成された三角形、楕円、長方形の分類
• カリキュラム:簡単なデータも自動生成
– 正三角形、円、正方形
– グレーの濃さの種類も減らす
• 5層ニューラルネットで学習
– 最初は簡単なデータで学習
– ある周 (switch epoch) から難しいデータで学習
ケース1:図形分類の実験結果
最初は簡単な図形を学ぶというカリキュラムの効果を確認した。
• 最初から難しいのも簡単なのも両方学習したらいいのでは?
→ そうした場合、switch epochが16のときと同程度の性能
(つまり、そこまで識別性能が高くならない)
• 簡単なやつだけ学習すればいい性能が出るというオチ?
→ 簡単なやつだけだと poor な結果でした。(論文より)
ケース2:言語モデル
• ある単語列から次の
単語を推定する
• カリキュラム:語彙
を増やしていく
– 最頻5000単語から 。
– 5000単語ずつ増やし、
20000単語のモデルを
学習。
• 右のニューラルネッ
トで学習
次の単語をtheと仮定したときのスコア
word2vecの
様なもの
ケース2:言語モデルの実験結果
Wikipedia から6億文節を抽出して学習
→ curriculumなしに比べて有意に優れた性能
Curriculum Learning
• 最初は簡単なサンプルのみを学習し、次第に難
しいものを学習する枠組み。
– 最適解への収束が早くなる!
– 非凸でもより良い局所最適解に到達できる!
かもしれない。
• ICMLでの発表(実験重視と言われること多し)
にしてはconceptualな論文。
– Boosting と関連してそう。
– Active Learning と関連してそう。
– Transfer Learning と関連してそう。
以下の疑問にお応えします。
• Curriculum Learning って?
• どうやって学習するの?
• どんな応用例があるの?
• どうせ Deep Learning 用の研究なんでしょ?
最初は簡単なサンプルのみを学習し、
次第に難しいものを学習する枠組み
カリキュラムってどうやって定義するの?
先程の例はやたらハンドメイドだったけど・・・?
→実際、お手製のカリキュラムも多い
• [Basu+Christensen, AAAI 2013]
– 機械の識別面を人に教示する手法
– カリキュラム=識別面からの距離
• [Spitkovsky+, NIPS 2009]
– 構文解析(自然言語処理)
– カリキュラム=短文ほど簡単
• [Lapedriza+, arXiv 2013]
– 物体検出やシーン認識
– カリキュラム=Exemplar-SVM
問題ごとに適切なカリキュラム考えるのが面倒だ・・・
Self-Paced Learning [Kumar+, NIPS 2010]
カリキュラム𝒗:ある年齢𝜆で𝑖番目のサンプル(𝒙𝑖, 𝑦𝑖)を
学習するかどうかを示す0/1の値
𝒗 ∈ 0,1 𝑛
カリキュラム𝒗の下での学習:
𝒗によって選択されたサンプルのみで、モデルのパラ
メータ𝒘を学習する
min
𝒘
ℒ 𝒘 =
𝑖=1
𝑛
𝑣𝑖 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘
サンプル数
損失関数
SPL によるカリキュラム
なら、 𝒘 だけじゃなくて 𝒗 も最適化すればいいじゃない。
min
𝒘,𝒗
ℒ 𝒘, 𝒗; 𝜆 =
𝑖=1
𝑛
𝑣𝑖 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘 − 𝜆
𝑖=1
𝑛
𝑣𝑖
SPL によるカリキュラム
なら、 𝒘 だけじゃなくて 𝒗 も最適化すればいいじゃない。
min
𝒘,𝒗
ℒ 𝒘, 𝒗; 𝜆 =
𝑖=1
𝑛
𝑣𝑖 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘 − 𝜆
𝑖=1
𝑛
𝑣𝑖
負のℓ1正則化項:𝒗の各要素を次々と1にしようとする
SPL によるカリキュラム
なら、 𝒘 だけじゃなくて 𝒗 も最適化すればいいじゃない。
min
𝒘,𝒗
ℒ 𝒘, 𝒗; 𝜆 =
𝑖=1
𝑛
𝑣𝑖 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘 − 𝜆
𝑖=1
𝑛
𝑣𝑖
でも𝒗の各要素が1になるほどこっちが大きくなる
→𝐿の値が少ない(=簡単な)サンプル(𝒙𝑖, 𝑦𝑖)が選ばれる!
負のℓ1正則化項:𝒗の各要素を次々と1にしようとする
SPL による学習アルゴリズム
1. 初期化。なお𝒗はランダムに0/1で初期化。
2. 次の3ステップを収束するまで繰り返す。
1. カリキュラム𝒗を固定してパラメータ𝒘を更新。
min
𝒘
ℒ 𝒘; 𝜆 =
𝑖=1
𝑛
𝑣𝑖 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘
2. パラメータ𝒘を固定してカリキュラム𝒗を更新。
𝑣𝑖 =
1, 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘 < 𝜆
0, otherwise
3. 年齢𝜆を定数𝜇倍して大人の階段のぼる。
SPL with Diversity [Jiang+, NIPS 2014]
簡単かどうかだけじゃなくて、
Diverseな(色々な)タイプのサンプルを学習すべき。
動画認識コンペTRECVID内の「ロッククライミング」データによる例
SPLDでのdiversityの定義
特徴量𝑋 = (𝑥1, … , 𝑥 𝑛)は𝑏個のグループに分割可能とする。
• クラスタリング(本論文)
• 階層型分類ならサブクラスもあり?
Diversity: ブロック毎の𝒗(𝑗)による負のℓ2,1ノルム
− 𝒗 2,1 = −
𝑗=1
𝑏
𝒗 𝑗
2
𝒗で値が1をとる要素の数が一定のとき:
多くのグループにバラけるほど値が小さくなる!
SPLDの定式化
min
𝒘,𝒗
ℒ 𝒘, 𝒗; 𝜆, 𝛾 =
𝑖=1
𝑛
𝑣𝑖 𝐿 𝑦𝑖, 𝑓 𝒙𝑖, 𝒘 − 𝜆
𝑖=1
𝑛
𝑣𝑖 − 𝛾
𝑗=1
𝑏
𝒗 𝑗
2
実際に選ばれた動画の例
3パターン
元のSPLSPLDDiversityのみ
SPLDのアルゴリズム
• ほとんどSPLと同じ!
– カリキュラム𝒗とパラメータ𝒘を交互に更新。
– パラメータ𝒘の更新は全く変化なし。
• カリキュラム𝒗の更新はちょっと変わる。
SPLDのカリキュラム選択
ココ(だけ)が新規!
以下の疑問にお応えします。
• Curriculum Learning って?
• どうやって学習するの?
• どんな応用例があるの?
• どうせ Deep Learning 用の研究なんでしょ?
最初は簡単なサンプルのみを学習し、
次第に難しいものを学習する枠組み
問題ごとにお手製のカリキュラムを用意するか、
Self-Paced Learningやその亜種を適用する。
Curriculum Learning 適用例:SPL原著
• 各種機械学習問題に適用
– 名詞句同一指示解析
– DNAの特定配列パターンの検索
– 手書き文字認識
– 物体検出
比較
CCCPSPL
1周目 3周目 4周目
最初は簡単な左側のゾウのみ学習している
どちらも学習するようになり、
どちらもうまく検出できている。
最初から両方の画像を学習しているが、
最後まで右側の物体をうまく検出できていない
2周目
Curriculum Learning 適用例:SPLD原著
• 動画認識問題に適用
– TRECVID Multimedia Event Detection (MED) タスク
Curriculum Learning 適用例:SPLD原著
• 動画認識問題に適用
– Hollywood2、Olympic Sports データセット
[Wang+, ICCV 2013]と特徴量は同じ。
機械学習手法のSVMも同じ。
SPLDによるサンプル選択の有無だけが違い。
Curriculum Learning 適用例:再掲
先程のスライドの再掲。
• [Basu+Christensen, AAAI 2013]
– 機械の識別面を人に教示する手法
– カリキュラム=識別面からの距離
• [Spitkovsky+, NIPS 2009]
– 構文解析(自然言語処理)
– カリキュラム=短文ほど簡単
• [Lapedriza+, arXiv 2013]
– 物体検出やシーン認識
– カリキュラム=Exemplar-SVM
Curriculum Learning 適用例:マルチメディア
• [Xiao+, ACM MM 2014]
– Deep Learning による画
像認識
– データが増えた際の新
規クラス学習に着目
• [Jiang+, ACM MM 2014]
– SPLDと同じ研究室、同
じ主著者がSPLDより
1ヶ月ほど前に発表
– SPLとrank SVMによる
マルチメディア検索の
リランキング
各種機械学習手法への適用例
• 識別面の教示 [Basu+Christensen, AAAI 2013]
線形分類
• 構文解析 [Spitkovsky+, NIPS 2009]
EMアルゴリズム
• 物体検出やシーン認識 [Lapedriza+, arXiv 2013]
LDA、線形/非線形SVM
• 新規クラスを含む物体認識 [Xiao+, ACM MM 2014]
Deep Convolutional Neural Network
• マルチメディア検索 [Jiang+, ACM MM 2014]
SVM
• SPL原著 [Kumar+, NIPS 2010]
Latent SSVM
• SPLD原著 [Jiang+, NIPS 2014]
SVM
以下の疑問にお応えしたハズ。
• Curriculum Learning って?
• どうやって学習するの?
• どんな応用例があるの?
• どうせ Deep Learning 用の研究なんでしょ?
最初は簡単なサンプルのみを学習し、
次第に難しいものを学習する枠組み
問題ごとにお手製のカリキュラムを用意するか、
Self-Paced Learningやその亜種を適用する。
最近でも動画認識などの応用例が報告されている。
Deep Learning に限らない、一般的なフレームワーク!
付録:SPLDのグルーピング方法による影響
• クラスタリング方法
• クラスタ数
によらず、SPLを上回る性能を得ている。

More Related Content

PDF
【メタサーベイ】数式ドリブン教師あり学習
PDF
Transformer メタサーベイ
PDF
自己教師学習(Self-Supervised Learning)
PDF
GAN(と強化学習との関係)
PDF
【メタサーベイ】基盤モデル / Foundation Models
PDF
統計的因果推論への招待 -因果構造探索を中心に-
PDF
最新の異常検知手法(NIPS 2018)
PDF
2011講演note.pdf
【メタサーベイ】数式ドリブン教師あり学習
Transformer メタサーベイ
自己教師学習(Self-Supervised Learning)
GAN(と強化学習との関係)
【メタサーベイ】基盤モデル / Foundation Models
統計的因果推論への招待 -因果構造探索を中心に-
最新の異常検知手法(NIPS 2018)
2011講演note.pdf

What's hot (20)

PPTX
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
PDF
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
PPTX
深層学習の数理
PDF
三次元表現まとめ(深層学習を中心に)
PDF
Transformerを多層にする際の勾配消失問題と解決法について
PPTX
Transformerを雰囲気で理解する
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
PDF
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
PDF
ドメイン適応の原理と応用
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
PDF
最近のディープラーニングのトレンド紹介_20200925
PPTX
[DL輪読会]Objects as Points
PDF
実装レベルで学ぶVQVAE
PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
PDF
POMDP下での強化学習の基礎と応用
PPTX
[DL輪読会]Pay Attention to MLPs (gMLP)
PDF
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
PDF
三次元点群を取り扱うニューラルネットワークのサーベイ
PPTX
[DL輪読会]When Does Label Smoothing Help?
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
深層学習の数理
三次元表現まとめ(深層学習を中心に)
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを雰囲気で理解する
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
ドメイン適応の原理と応用
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
最近のディープラーニングのトレンド紹介_20200925
[DL輪読会]Objects as Points
実装レベルで学ぶVQVAE
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
POMDP下での強化学習の基礎と応用
[DL輪読会]Pay Attention to MLPs (gMLP)
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
三次元点群を取り扱うニューラルネットワークのサーベイ
[DL輪読会]When Does Label Smoothing Help?
Ad

Viewers also liked (6)

PDF
Deep Learning Framework Comparison on CPU
PPTX
概念モデリング再入門 + DDD
PPTX
Deep Learning による視覚×言語融合の最前線
PDF
交渉力について
PPTX
画像キャプションの自動生成
PDF
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Deep Learning Framework Comparison on CPU
概念モデリング再入門 + DDD
Deep Learning による視覚×言語融合の最前線
交渉力について
画像キャプションの自動生成
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Ad

More from Yoshitaka Ushiku (19)

PPTX
機械学習を民主化する取り組み
PPTX
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
PPTX
これからの Vision & Language ~ Acadexit した4つの理由
PPTX
視覚と対話の融合研究
PPTX
Women Also Snowboard: Overcoming Bias in Captioning Models(関東CV勉強会 ECCV 2018 ...
PPTX
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
PPTX
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
PPTX
Learning Cooperative Visual Dialog with Deep Reinforcement Learning(関東CV勉強会 I...
PPTX
Frontiers of Vision and Language: Bridging Images and Texts by Deep Learning
PPTX
今後のPRMU研究会を考える
PPTX
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
PPTX
Asymmetric Tri-training for Unsupervised Domain Adaptation
PPTX
Recognize, Describe, and Generate: Introduction of Recent Work at MIL
PPTX
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
PPTX
We Are Humor Beings: Understanding and Predicting Visual Humor (関東CV勉強会 CVPR ...
PPTX
ごあいさつ 或いはMATLAB教徒がPythonistaに改宗した話 (関東CV勉強会)
PPTX
Generating Notifications for Missing Actions: Don’t forget to turn the lights...
PPTX
Unsupervised Object Discovery and Localization in the Wild: Part-Based Match...
PPTX
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)
機械学習を民主化する取り組み
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
これからの Vision & Language ~ Acadexit した4つの理由
視覚と対話の融合研究
Women Also Snowboard: Overcoming Bias in Captioning Models(関東CV勉強会 ECCV 2018 ...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Learning Cooperative Visual Dialog with Deep Reinforcement Learning(関東CV勉強会 I...
Frontiers of Vision and Language: Bridging Images and Texts by Deep Learning
今後のPRMU研究会を考える
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Asymmetric Tri-training for Unsupervised Domain Adaptation
Recognize, Describe, and Generate: Introduction of Recent Work at MIL
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
We Are Humor Beings: Understanding and Predicting Visual Humor (関東CV勉強会 CVPR ...
ごあいさつ 或いはMATLAB教徒がPythonistaに改宗した話 (関東CV勉強会)
Generating Notifications for Missing Actions: Don’t forget to turn the lights...
Unsupervised Object Discovery and Localization in the Wild: Part-Based Match...
CVPR 2015 論文紹介(NTT研究所内勉強会用資料)

Curriculum Learning (関東CV勉強会)