SlideShare a Scribd company logo
Komachi Lab
M1 宮崎亮輔
2015/06/24
Representation Learning Using Multi-Task Deep Neural Networks

for Semantic Classification and Information Retrieval
!
Xiaodong Liu, Jianfeng Gao, Xiaodong He, Li Deng, Kevin Duh, Ye-Yi Wang
NAACL読み会2015
※このスライド中の図はこの論文中のものです
Komachi Lab
Abstract
✤ 最近のDNNって目的のタスクに対して直接最適化してなかったり!
✤ 任意のタスクへの教師ありもトレーニングデータの不足とかあるし!
✤ ということでMulti-Task DNN for Representation を提案!
- C&Wとの違い?→今回は処理の違うタスク同士!
- query classification(今回は4ドメイン)とranking for web search!
✤ データ量が増えるだけでなく、

正則化の効果も(ドメインアダプテーション)
2
Komachi Lab
Architecture
3
Komachi Lab
Input
✤ 入力はクエリ or ドキュメント (Bag-of-Words 500k次元)!
- つまり語彙数500kのOne hot vector
4
Komachi Lab
Word Hash Layer
✤ 次の層で文字trigramの空間にmapする(50k次元)!
- 未知語の問題が解消!
- 同単語の複数のspelingが近くにmapされる
5
※単語境界は”#”で表現
Komachi Lab
Semantic Representation Layer
✤ 意味表現(300次元)!
- l2 = f(W1・l1), f() = tanh
6
Komachi Lab
Task-Specific Layer
7
✤ タスク固有中間表現(128次元)!
- l3 = f(Wt
2・l2) , t = task!
- 入力がクエリ: l3 = Q, ドキュメント: l3 = D
クエリ分類タスク:
Komachi Lab
Task-Specific Layer
8
,クエリ分類クエリ分類
✤ タスク固有中間表現(128次元)!
- l3 = f(Wt
2・l2) , t = task!
- 入力がクエリ: l3 = Q, ドキュメント: l3 = D
タスク:
Komachi Lab
Task-Specific Layer
9
,web searchクエリ分類 ,クエリ分類
✤ タスク固有中間表現(128次元)!
- l3 = f(Wt
2・l2) , t = task!
- 入力がクエリ: l3 = Q, ドキュメント: l3 = D
タスク:
Komachi Lab
Task-Specific Layer
10
,web search,web searchクエリ分類 ,クエリ分類
✤ タスク固有中間表現(128次元)!
- l3 = f(Wt
2・l2) , t = task!
- 入力がクエリ: l3 = Q, ドキュメント: l3 = D
タスク:
Komachi Lab
Task-Specific Layer
11
,web search,web searchクエリ分類 ,クエリ分類 ,web search
✤ タスク固有中間表現(128次元)!
- l3 = f(Wt
2・l2) , t = task!
- 入力がクエリ: l3 = Q, ドキュメント: l3 = D
タスク:
Komachi Lab
Task-Specific Layer
12
✤ クエリ分類(ロジスティック回帰)!
- 二値分類(対応するドメインに属すか否か)!
- 一つのクエリは複数のドメインに属すことができる!
- ドメインの数だけ分類器,拡張性がある
g()はシグモイド関数
Komachi Lab
Task-Specific Layer
13
✤ クエリ分類(ロジスティック回帰)!
- 二値分類(対応するドメインに属すか否か)!
- 一つのクエリは複数のドメインに属すことができる!
- ドメインの数だけ分類器,拡張性がある
Komachi Lab
Task-Specific Layer
14
✤ Web検索!
- クエリとのコサイン類似度→softmax!
- P(D|Q)の降順でランキング γはハイパーパラメーター
Komachi Lab
Architecture
15
Komachi Lab
Training
✤ ミニバッチSGD!
✤ クエリ分類: 式(5)!
- クロスエントロピーロス最小化!
❖ Web検索: 式(6)!
- 負の対数尤度最小化!
❖ 初期化には以下の範囲から一様分布
16
※800k iterations, 13hours
Komachi Lab
Experimental Data Sets
✤ クエリ分類には商用検索エンジンのログ1年分

(人手のラベル付き)!
✤ Web検索は12,071のクエリを含み

クエリとドキュメントの組み合わせに5段階の関連度
17
Komachi Lab
Query Classification
✤ クエリ分類のベースライン!
- SVM-word

unigram, bigram, trigram, surface!
- SVM-letter

文字trigram!
- DNN

マルチタスクではないDNN
18
Komachi Lab
Query Classification Results
✤ SVM < DNN :意味表現が重要!
✤ DNN < MT-DNN :マルチタスクは有用
19
※評価はAUC
Komachi Lab
Web Search
✤ Web検索のベースライン!
- 一般的なベースライン

TF-IDF, LDA, etc.!
- DSSM

マルチタスクではないDNN
20
Komachi Lab
Web Search Results
✤ State-of-the-art(DSSM)を超えた

やはりマルチタスクは有用
21
※NDCGはrankingを評価する指標
Komachi Lab
Domain Adaptation
✤ クエリ分類のひとつのドメインを除いてMT-DNNで学習!
- 学習したSemantic Representationを素性にSVMで分類!
- ベースラインはSVM-Word, SVM-letter
22
✤ 一般的なFeed Forward DNNでも比較!
- Semantic RepresentationをW1にしてW2, Wt
3を学習!
- W1をランダムに初期化, W1, W2, Wt
3を学習!
- SVM-Word
Komachi Lab 23
Komachi Lab
Domain Adaptation
✤ クエリ分類のひとつのドメインを除いてMT-DNNで学習!
- 学習したSemantic Representationを素性にSVMで分類!
- ベースラインはSVM-Word, SVM-letter
24
✤ 一般的なFeed Forward DNNでも比較!
- Semantic RepresentationをW1にしてW2, Wt
3を学習!
- W1をランダムに初期化, W1, W2, Wt
3を学習!
- SVM-Word
Komachi Lab 25
Komachi Lab
Conclusion
✤ 分類とランキングという異なるタスクを合わせて

DNNでのマルチタスク学習を提案!
✤ ベースラインを上回り、Web検索ではState-of-the-art!
✤ マルチタスク学習により

ドメインアダプテーションされた表現を学習できた
26

More Related Content

PPTX
若気の至りを精算する
PPTX
LINQ の概要とかもろもろ
PPTX
LINQ概要
ODP
括弧への異常な愛情 または私は如何にして心配するのを止めてCommon Lispを愛するようになったか
PDF
Shibuya.lisp #28: 仮題: R について
PDF
はてなブックマーク in Scala
PPTX
Identifying Users’ Topical Tasks in Web Search
PDF
Pycon2016- Applying Deep Learning in Information Retrieval System
若気の至りを精算する
LINQ の概要とかもろもろ
LINQ概要
括弧への異常な愛情 または私は如何にして心配するのを止めてCommon Lispを愛するようになったか
Shibuya.lisp #28: 仮題: R について
はてなブックマーク in Scala
Identifying Users’ Topical Tasks in Web Search
Pycon2016- Applying Deep Learning in Information Retrieval System

Viewers also liked (10)

PDF
Deep Learning for Information Retrieval: Models, Progress, & Opportunities
PDF
Information Retrieval with Deep Learning
PDF
Instant Question Answering System
PDF
Deep Neural Networks 
that talk (Back)… with style
PPTX
Neural Text Embeddings for Information Retrieval (WSDM 2017)
PDF
Intro to Deep Learning for Question Answering
PDF
Deep Learning for Information Retrieval
PDF
NVIDIA – Inventor of the GPU
PDF
Deep Learning with GPUs in Production - AI By the Bay
PPTX
Artificial Intelligence: Predictions for 2017
Deep Learning for Information Retrieval: Models, Progress, & Opportunities
Information Retrieval with Deep Learning
Instant Question Answering System
Deep Neural Networks 
that talk (Back)… with style
Neural Text Embeddings for Information Retrieval (WSDM 2017)
Intro to Deep Learning for Question Answering
Deep Learning for Information Retrieval
NVIDIA – Inventor of the GPU
Deep Learning with GPUs in Production - AI By the Bay
Artificial Intelligence: Predictions for 2017
Ad

Similar to Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Classification and Information Retrieval (20)

PDF
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
PDF
2015 08 survey
PDF
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
PDF
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
PDF
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
PDF
[DL輪読会]Learning Task Informed Abstractions
PDF
[DL輪読会]One Model To Learn Them All
PDF
Deep nlp 4.2-4.3_0309
PDF
WWW2018 論文読み会 Web Search and Mining
PPTX
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
PDF
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
PDF
Deep learning for_extreme_multi-label_text_classification
PPTX
令和元年度 実践セミナー - Deep Learning 概論 -
PPTX
最近の自然言語処理
PPTX
「機械学習とは?」から始める Deep learning実践入門
PDF
Deep Learningと自然言語処理
PPT
Deep Learningの技術と未来
PDF
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
PDF
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
PPTX
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
2015 08 survey
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
[DL輪読会]Learning Task Informed Abstractions
[DL輪読会]One Model To Learn Them All
Deep nlp 4.2-4.3_0309
WWW2018 論文読み会 Web Search and Mining
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
Deep learning for_extreme_multi-label_text_classification
令和元年度 実践セミナー - Deep Learning 概論 -
最近の自然言語処理
「機械学習とは?」から始める Deep learning実践入門
Deep Learningと自然言語処理
Deep Learningの技術と未来
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
Ad

Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Classification and Information Retrieval

  • 1. Komachi Lab M1 宮崎亮輔 2015/06/24 Representation Learning Using Multi-Task Deep Neural Networks
 for Semantic Classification and Information Retrieval ! Xiaodong Liu, Jianfeng Gao, Xiaodong He, Li Deng, Kevin Duh, Ye-Yi Wang NAACL読み会2015 ※このスライド中の図はこの論文中のものです
  • 2. Komachi Lab Abstract ✤ 最近のDNNって目的のタスクに対して直接最適化してなかったり! ✤ 任意のタスクへの教師ありもトレーニングデータの不足とかあるし! ✤ ということでMulti-Task DNN for Representation を提案! - C&Wとの違い?→今回は処理の違うタスク同士! - query classification(今回は4ドメイン)とranking for web search! ✤ データ量が増えるだけでなく、
 正則化の効果も(ドメインアダプテーション) 2
  • 4. Komachi Lab Input ✤ 入力はクエリ or ドキュメント (Bag-of-Words 500k次元)! - つまり語彙数500kのOne hot vector 4
  • 5. Komachi Lab Word Hash Layer ✤ 次の層で文字trigramの空間にmapする(50k次元)! - 未知語の問題が解消! - 同単語の複数のspelingが近くにmapされる 5 ※単語境界は”#”で表現
  • 6. Komachi Lab Semantic Representation Layer ✤ 意味表現(300次元)! - l2 = f(W1・l1), f() = tanh 6
  • 7. Komachi Lab Task-Specific Layer 7 ✤ タスク固有中間表現(128次元)! - l3 = f(Wt 2・l2) , t = task! - 入力がクエリ: l3 = Q, ドキュメント: l3 = D クエリ分類タスク:
  • 8. Komachi Lab Task-Specific Layer 8 ,クエリ分類クエリ分類 ✤ タスク固有中間表現(128次元)! - l3 = f(Wt 2・l2) , t = task! - 入力がクエリ: l3 = Q, ドキュメント: l3 = D タスク:
  • 9. Komachi Lab Task-Specific Layer 9 ,web searchクエリ分類 ,クエリ分類 ✤ タスク固有中間表現(128次元)! - l3 = f(Wt 2・l2) , t = task! - 入力がクエリ: l3 = Q, ドキュメント: l3 = D タスク:
  • 10. Komachi Lab Task-Specific Layer 10 ,web search,web searchクエリ分類 ,クエリ分類 ✤ タスク固有中間表現(128次元)! - l3 = f(Wt 2・l2) , t = task! - 入力がクエリ: l3 = Q, ドキュメント: l3 = D タスク:
  • 11. Komachi Lab Task-Specific Layer 11 ,web search,web searchクエリ分類 ,クエリ分類 ,web search ✤ タスク固有中間表現(128次元)! - l3 = f(Wt 2・l2) , t = task! - 入力がクエリ: l3 = Q, ドキュメント: l3 = D タスク:
  • 12. Komachi Lab Task-Specific Layer 12 ✤ クエリ分類(ロジスティック回帰)! - 二値分類(対応するドメインに属すか否か)! - 一つのクエリは複数のドメインに属すことができる! - ドメインの数だけ分類器,拡張性がある g()はシグモイド関数
  • 13. Komachi Lab Task-Specific Layer 13 ✤ クエリ分類(ロジスティック回帰)! - 二値分類(対応するドメインに属すか否か)! - 一つのクエリは複数のドメインに属すことができる! - ドメインの数だけ分類器,拡張性がある
  • 14. Komachi Lab Task-Specific Layer 14 ✤ Web検索! - クエリとのコサイン類似度→softmax! - P(D|Q)の降順でランキング γはハイパーパラメーター
  • 16. Komachi Lab Training ✤ ミニバッチSGD! ✤ クエリ分類: 式(5)! - クロスエントロピーロス最小化! ❖ Web検索: 式(6)! - 負の対数尤度最小化! ❖ 初期化には以下の範囲から一様分布 16 ※800k iterations, 13hours
  • 17. Komachi Lab Experimental Data Sets ✤ クエリ分類には商用検索エンジンのログ1年分
 (人手のラベル付き)! ✤ Web検索は12,071のクエリを含み
 クエリとドキュメントの組み合わせに5段階の関連度 17
  • 18. Komachi Lab Query Classification ✤ クエリ分類のベースライン! - SVM-word
 unigram, bigram, trigram, surface! - SVM-letter
 文字trigram! - DNN
 マルチタスクではないDNN 18
  • 19. Komachi Lab Query Classification Results ✤ SVM < DNN :意味表現が重要! ✤ DNN < MT-DNN :マルチタスクは有用 19 ※評価はAUC
  • 20. Komachi Lab Web Search ✤ Web検索のベースライン! - 一般的なベースライン
 TF-IDF, LDA, etc.! - DSSM
 マルチタスクではないDNN 20
  • 21. Komachi Lab Web Search Results ✤ State-of-the-art(DSSM)を超えた
 やはりマルチタスクは有用 21 ※NDCGはrankingを評価する指標
  • 22. Komachi Lab Domain Adaptation ✤ クエリ分類のひとつのドメインを除いてMT-DNNで学習! - 学習したSemantic Representationを素性にSVMで分類! - ベースラインはSVM-Word, SVM-letter 22 ✤ 一般的なFeed Forward DNNでも比較! - Semantic RepresentationをW1にしてW2, Wt 3を学習! - W1をランダムに初期化, W1, W2, Wt 3を学習! - SVM-Word
  • 24. Komachi Lab Domain Adaptation ✤ クエリ分類のひとつのドメインを除いてMT-DNNで学習! - 学習したSemantic Representationを素性にSVMで分類! - ベースラインはSVM-Word, SVM-letter 24 ✤ 一般的なFeed Forward DNNでも比較! - Semantic RepresentationをW1にしてW2, Wt 3を学習! - W1をランダムに初期化, W1, W2, Wt 3を学習! - SVM-Word
  • 26. Komachi Lab Conclusion ✤ 分類とランキングという異なるタスクを合わせて
 DNNでのマルチタスク学習を提案! ✤ ベースラインを上回り、Web検索ではState-of-the-art! ✤ マルチタスク学習により
 ドメインアダプテーションされた表現を学習できた 26