SlideShare a Scribd company logo
Copyright © 2016 TIS Inc. All rights reserved.
文章を読み、理解する機能の獲得に向けて
戦略技術センター
久保隆宏
Machine Comprehensionの研究動向
Copyright © 2016 TIS Inc. All rights reserved. 2
 自己紹介
 文章を読み、理解するということ: Machine Comprehensionとは
 Machine Comprehensionの抱える課題
 Deep Mindの提案した手法
 Teaching Machines to Read and Comprehend
 Stanfordによる追試
 A Thorough Examination of the CNN/Daily Mail Reading
Comprehension Task
 機械が文章を読み、理解する日に向けて
 データセットの拡充
 「文章を理解している」の定義
 現状と展望
 新しいチャレンジ
目次
Copyright © 2016 TIS Inc. All rights reserved. 3
久保隆宏
TIS株式会社 戦略技術センター
 化学系メーカーの業務コンサルタント出身
 既存の技術では業務改善を行える範囲に限界があるとの実感から、戦
略技術センターへと異動
 現在は機械学習や自然言語処理の研究・それらを用いたシステムのプ
ロトタイピングを行う
自己紹介
人とロボットを連携させた接客シ
ステムmaicoの発表
(@対話システムシンポジウム)
OpenAI Gymを利用した、
強化学習に関する講演
(@PyConJP 2016)
kintoneアプリ内にたまった
データを簡単に学習・活用
(@Cybozu Days 2016)
Copyright © 2016 TIS Inc. All rights reserved. 4
所属するチームのミッション
chakki
すべての人が、ティータイムに帰れるようにする
すべての人が、ティータイム(15:00)に帰れる(茶帰)
社会を実現します。
この実現には、既存の仕事を効率化するのでなく、
根本的に「仕事の仕方」を変える必要があります。
しかし、慣れた仕事の仕方というのは簡単には変わ
りません。だからこそ、実際に「体験」をし、効果
を「実感」してもらうことが重要になります。
そのため、私たちは先進的技術を用い、仕事の仕方が変
わる体験を提供していきます。
Copyright © 2016 TIS Inc. All rights reserved.
文章を読み、理解するということ
Machine Comprehensionとは
攻殻機動隊 STAND ALONE COMPLEX 第15話
機械たちの時間 MACHINES DESIRANTES
Copyright © 2016 TIS Inc. All rights reserved. 6
システムに文章を読んで理解させるタスクを、Machine Comprehension
と呼びます。
このタスクは、一般的に以下の要素で構成されます。
 Context Document
 情報源・前提となる文章が与えられる
 Query
 文章に関する質問を行う
 Answer
 質問にどれだけ回答できるかを検査する
つまり、ある文書を与え、質問に回答できるかで理解度を測っている、と
いうことです。
※「質問に回答できる」ことをもって理解度と呼んでいいのか?について
は後述します
文章を読み、理解する
Copyright © 2016 TIS Inc. All rights reserved. 7
この領域は、ルールベースなモデルが主流でした。
というのも、データを基にした統計的なアプローチには弱点があったため
です。具体的には、以下の2点です。
 自然言語の文書といった、構造が複雑でしかもノイズを多く含むデー
タを、うまく表現できるモデルがなかった
 それを学習するためのデータがなかった
機械的に生成したデータを基にした検証で、前者についてはNeural
Networkがいい仕事をすることが分かってきました。が、(機械的でない)
実際のデータが、十分な量ないという課題は残ったままでした。
Machine Comprehensionの抱える課題
データがない
Copyright © 2016 TIS Inc. All rights reserved. 8
Teaching Machines to Read and Comprehend
ニュース記事から大量のデータを生成して、学習したぜ!!
Deep Mindの提案した手法 [K. M. Hermann+ 2015]
荒川 弘: 鋼の錬金術師
ニュース記事の以下の要素からデー
タセットを作成した。
 ニュースの本文
 箇条書きの要約
本文を読んだら、要約の中に抜けて
いる個所があっても、答えられるは
ずである。そう考えると、本文は
Context、穴あきの要約はQuery、
穴埋めの回答はAnswerと見なせる。
ニュース記事
Copyright © 2016 TIS Inc. All rights reserved. 9
 上記のような形で、人名や地名などの固有表現をEntityのタグで置き換
え、共通の表現にはすべて同じEntityを割り振る。Queryの穴
(placeholder)に当てはまるEntityを回答するという形式。
 学習用データで、CNNは約9万、Daily Mailは約20万と、それまでとは
2ケタぐらい違うサイズのデータの作成を行った(こちらから利用可能)。
 Attentionを使ったRNNで60~70%の回答率。
Deep Mindの提案した手法 [K. M. Hermann+ 2015]
Teaching Machines to Read and Comprehend
Copyright © 2016 TIS Inc. All rights reserved. 10
問題は解決したのか?
Copyright © 2016 TIS Inc. All rights reserved. 11
A Thorough Examination of the CNN/Daily Mail Reading
Comprehension Task
ボリュームはすごいが、タスクとしては簡単。その証拠に、NNで出して
いる精度は簡単なモデルで圧倒できる。
Stanfordによる追試 [D. Chen+ 2016]
荒川 弘: 鋼の錬金術師
Deep Mindの提供したデータセットについ
て、より詳細な調査を行う。
 このデータセットにおけるベースとなる
精度 (ベースライン)、また上限を確認
 タスクの遂行に、どのような「文書に対
する理解」が必要なのかを明らかにする
特徴量ベースの基本的なモデルも含め幾つ
かのモデルで精度を検証し、どのような
「理解」が重要なのかを検証。また、デー
タセットそのものの調査も実施。
Deep Mindの論文
Copyright © 2016 TIS Inc. All rights reserved. 12
Stanfordによる追試 [D. Chen+ 2016]
A Thorough Examination of the CNN/Daily Mail Reading
Comprehension Task
ベースラインとして使う予定だった、
特徴量ベースのモデルですでにDeep
Mind側の最高精度のAttentionモデル
の精度を上回る(63.8 vs 67.1)
回答候補entityの登場頻度、質問との一致、といった
基本的な特徴量が強く効いている
データをサンプリングして、回答の
難易度を検証。54%は単純な質問文
とのマッチで回答可能で、25%は人
でも回答不能(=75%がほぼ上限)
逆に、質問文からの推測が必要(Partial clue)、複数
分にまたがる内容の把握が必要(Multiple sentences)
は21%しかない
Copyright © 2016 TIS Inc. All rights reserved. 13
Stanfordによる追試 [D. Chen+ 2016]
A Thorough Examination of the CNN/Daily Mail Reading
Comprehension Task
Neural Networkモデルでは72.4%の精度を記録し、これは理論上の上限値(75%)
に迫る。その意味では、このデータセットはすでに攻略されたともいえる。
質問文のベクトル x Weight x 本文中の各単語ベクト
ルでAttentionを作成。これと単語ベクトルを掛け合
わせることで、出力 (=質問文との関連度)を導く
質問文/本文双方について、①単語分割、②各単語を分
散表現(事前学習済みGloveを使用)に変換、③ Bi-
directionalなLSTMで順方向/逆方向にそれぞれencode
し、結合(質問文のLSTMと本文のものは別々)。
本文中にあるエンティティ(=回答候補)につい
て出力の最大値をしらべ、Answerとする。 ※encodeの範囲を絞るWindowを使ったのMemory
Networkも検証しているが精度はよろしくなかった
Copyright © 2016 TIS Inc. All rights reserved. 14
荒川 弘: 鋼の錬金術師
データを注意深く検証すること、基礎的なモデルでの検証を怠ってはならない
Copyright © 2016 TIS Inc. All rights reserved. 15
機械が文章を読み、理解する日に向けて
攻殻機動隊 STAND ALONE COMPLEX 第15話
機械たちの時間 MACHINES DESIRANTES
Copyright © 2016 TIS Inc. All rights reserved. 16
データセットを拡充させる取り組み(1/2)
MCTest Children Book Test bAbI
概要 物語と、それについて
の選択式の質問のデー
タセット。
物語については、7歳の
子供が読める程度のも
の。
児童書から21文を抽出
し、20文を本文、最後
の一文を質問とする。
質問は文の一部を空白
にする形で作られ、そ
の穴埋め問題となる。
推論による回答(AがBで
BがCならA=C的な)を
目指し、複数種類の
データセットを提供し
ている(←のCBTもそこ
から作成されている)。
データ量 660 67万(質問数) 公式サイト参照
データ元 クラウドソーシング 本(Project Gutenberg) 同上
質問の内容 50%ほどは、複数文に
またがる理解が問われ
る
CNN/Daily Mailと同様
の作りなので、同程度
と思われる
文章から得られる情報
を基に推論が必要な、
高度な質問。
最高精度の
モデル
(ハンドメイドの)特徴量
ベースのモデル。学習
済み分散表現などの外
部知識も活用されてい
る。
Window-based
Memory Network
ただ、n-gram/RNNの
言語モデルでも十分
Memory Network
ただ、100~200の語彙
という極めて小さな、
箱庭的な環境での実験
にとどまる
Copyright © 2016 TIS Inc. All rights reserved. 17
データセットを拡充させる取り組み(2/2)
Stanfordが公開した質問回答の
データセット
Wikipediaの文書に対する質問を
クラウドソーシングで作成(回答は
文書中の文かその一部になる)。
文書500、質問数10万という大規
模データセット。最高精度
(@2016/11)は、文書->質問、質
問->文書の双方向のAttentionを
利用したモデル。
Toyota Technological Institute
at Cicagaが公開したデータセット
Deep Mindのデータセットから派
生したもので、本文と質問を別の
記事からとり、エンティティは人
名に限定(=回答は人名となり、誰
が何をしたかを推測する)。なお、
回答は選択式となっている。
質問数20万で、現在最高精度のも
のはGated-Attentionを使用した
もので6割程度。
Copyright © 2016 TIS Inc. All rights reserved. 18
「文章を理解している」の定義
The Story Close Test
4文からなる短いストーリを与え、その正しい結末(=5文目)を予測させる
というタスク。(5文の)学習用ストーリーが約5万、実際のStory Close
Test問題が約4000問提供されている。
上記サイトから申し込むことで、データセットの入手が可能
Copyright © 2016 TIS Inc. All rights reserved. 19
単純な質問回答は、特徴量ベースのモデルでも機能する。これに加え複数
文のコンテキストを読むのにNNはうまく機能し、「十分なデータがあれ
ば」良好な精度(7~8割)を出すことができる。
そして、大規模なデータセットは拡充の兆しがある。
今後は、より高度な質問(推論が必要な質問や、複数文の情報を統合する
必要があるような質問)への回答を目指していくようになると思われるが、
その際はやはりデータセットの問題がついてまわる。
 少ないデータからの学習
 大規模なデータセットがある分野からの転移学習、事前学習
 シミュレーターの作成
これらの点が、今後(というかこれからも)重要になってくると思われる。
現状と展望
Copyright © 2016 TIS Inc. All rights reserved. 20
新しいチャレンジ
現在Kaggleで行われている、
Stack Exchangeのタグを予測す
るコンペ(~2017/3まで)。
変わっているのは、別のタグで学
習させた分類機で他のタグの分類
を予測させる、つまり学習結果の
転移性能が問われているな点。
小~中学生向けの理科の問題を解
くタスク。質問は図があるものと
ないものがあり、回答は選択式。
事前の知識ベースの構築、論理推
論といった力が問われる。データ
数は5141。
Stanfordでのアプローチの方法に
ついては、こちらの資料の21pか
らに詳しい。
事前知識の面では、MSが概念関
係についての大規模なデータ
セットを公開している
Copyright © 2016 TIS Inc. All rights reserved. 21
機械が文章を読み、理解する日に向けて世界は進んでいる
攻殻機動隊 STAND ALONE COMPLEX
2nd GIG タチコマな日々 第01話
Copyright © 2016 TIS Inc. All rights reserved. 22
論文輪講を行っています。
論文のまとめ情報は、以下リポジトリで公開しています。
https://github.com/arXivTimes/arXivTimes
もちろん、まとめの投稿
もお待ちしています。
<免責事項>
本資料は、作成時点の法規制等に基づき、細心の注意を払い作成しておりますが、
その正確性、適用性、完全性、網羅性、有用性、最新性、知的財産権の非侵害などに
対して弊社は一切保証いたしません。また当該情報に起因するいかなる損害についても
弊社は責任を負いません。本資料より得られるいかなる情報も利用者ご自身の判断と
責任において利用していただくものとします。なお、本資料は特定の事項に関する
一般的な情報提供を目的としています。提供されている情報は、専門的アドバイザリー、
コンサルティング等のサービス提供を意図したものではありません。
<本資料の取り扱いに関して>
本資料は、著作権法及び不正競争防止法上の保護を受けております。資料の一部或いは
全てについて、TIS株式会社から許諾を得ずに、いかなる方法においても無断で複写、
複製、転記、転載、ノウハウの使用、企業秘密の開示等を行うことは禁じられて
おります。本文記載の社名・製品名・ロゴは各社の商標または登録商標です。

More Related Content

PDF
MLOps に基づく AI/ML 実運用最前線 ~画像、動画データにおける MLOps 事例のご紹介~(映像情報メディア学会2021年冬季大会企画セッショ...
PDF
入門 Kubeflow ~Kubernetesで機械学習をはじめるために~ (NTT Tech Conference #4 講演資料)
PDF
ナレッジグラフ入門
PDF
Transformer メタサーベイ
PDF
JDLA主催「CVPR2023技術報告会」発表資料
PDF
グラフニューラルネットワーク入門
PDF
PythonによるCVアルゴリズム実装
PDF
ナレッジグラフ/LOD利用技術の入門(後編)
MLOps に基づく AI/ML 実運用最前線 ~画像、動画データにおける MLOps 事例のご紹介~(映像情報メディア学会2021年冬季大会企画セッショ...
入門 Kubeflow ~Kubernetesで機械学習をはじめるために~ (NTT Tech Conference #4 講演資料)
ナレッジグラフ入門
Transformer メタサーベイ
JDLA主催「CVPR2023技術報告会」発表資料
グラフニューラルネットワーク入門
PythonによるCVアルゴリズム実装
ナレッジグラフ/LOD利用技術の入門(後編)

What's hot (20)

PDF
ナレッジグラフとオントロジー
PDF
ナレッジグラフ/LOD利用技術の入門(前編)
PDF
Prophet入門【Python編】Facebookの時系列予測ツール
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
PDF
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
PDF
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
PDF
Deeplearning輪読会
PDF
継続的なモデルモニタリングを実現するKubernetes Operator
PDF
画像認識のための深層学習
PDF
時系列問題に対するCNNの有用性検証
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
PDF
Anomaly detection 系の論文を一言でまとめた
PPTX
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
PPTX
[DL輪読会]医用画像解析におけるセグメンテーション
PDF
研究分野をサーベイする
PDF
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
PDF
Automatic Mixed Precision の紹介
PDF
(文献紹介)Depth Completionの最新動向
PDF
モデルアーキテクチャ観点からのDeep Neural Network高速化
ナレッジグラフとオントロジー
ナレッジグラフ/LOD利用技術の入門(前編)
Prophet入門【Python編】Facebookの時系列予測ツール
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Deeplearning輪読会
継続的なモデルモニタリングを実現するKubernetes Operator
画像認識のための深層学習
時系列問題に対するCNNの有用性検証
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
Anomaly detection 系の論文を一言でまとめた
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
[DL輪読会]医用画像解析におけるセグメンテーション
研究分野をサーベイする
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
Automatic Mixed Precision の紹介
(文献紹介)Depth Completionの最新動向
モデルアーキテクチャ観点からのDeep Neural Network高速化
Ad

Similar to 文章を読み、理解する機能の獲得に向けて-Machine Comprehensionの研究動向- (20)

PDF
感情の出どころを探る、一歩進んだ感情解析
PDF
TISにおける、研究開発のメソッド
PDF
Cvpr2017事前読み会
PDF
20170525 jsug バッチは地味だが役に立つ
PPTX
バッチは地味だが役に立つ
PDF
【技術情報協会】人工知能を使ったR&D業務効率化・生産性向上のシステム作り
PDF
文章生成の高速化とチーム開発でのTensor board活用事例
PPTX
Interop2017
PPT
20050809
PDF
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
PDF
Repair at cassandra 4.0
PPTX
Deep learningの世界に飛び込む前の命綱
PDF
SASによるテキスト・アナリティクス入門
PDF
良い原稿を作る3つの要素、読み易い文章を作る5つのコツ、SQiPシンポジウムアブストラクト作成のポイント
PDF
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
PPTX
2023-03-23_SpiralAI
PDF
アジャイルマネジメントとは?
PPTX
データ分析を武器にしたエンジニアの道の拓き方
PDF
2021 10-07 kdd2021読み会 uc phrase
PDF
カタログDTPのデータを活用しよう!
感情の出どころを探る、一歩進んだ感情解析
TISにおける、研究開発のメソッド
Cvpr2017事前読み会
20170525 jsug バッチは地味だが役に立つ
バッチは地味だが役に立つ
【技術情報協会】人工知能を使ったR&D業務効率化・生産性向上のシステム作り
文章生成の高速化とチーム開発でのTensor board活用事例
Interop2017
20050809
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
Repair at cassandra 4.0
Deep learningの世界に飛び込む前の命綱
SASによるテキスト・アナリティクス入門
良い原稿を作る3つの要素、読み易い文章を作る5つのコツ、SQiPシンポジウムアブストラクト作成のポイント
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
2023-03-23_SpiralAI
アジャイルマネジメントとは?
データ分析を武器にしたエンジニアの道の拓き方
2021 10-07 kdd2021読み会 uc phrase
カタログDTPのデータを活用しよう!
Ad

More from Takahiro Kubo (20)

PDF
自然言語処理による企業の気候変動対策分析
PDF
国際会計基準(IFRS)適用企業の財務評価方法
PDF
自然言語処理で新型コロナウィルスに立ち向かう
PDF
財務・非財務一体型の企業分析に向けて
PDF
自然言語処理で読み解く金融文書
PDF
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
PPTX
ESG評価を支える自然言語処理基盤の構築
PDF
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
PDF
Reinforcement Learning Inside Business
PDF
あるべきESG投資の評価に向けた、自然言語処理の活用
PDF
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
PDF
Curiosity may drives your output routine.
PDF
モデルではなく、データセットを蒸留する
PDF
EMNLP2018 Overview
PPTX
2018年12月4日までに『呪術廻戦』を読む理由
PDF
Graph Attention Network
PDF
ACL2018の歩き方
PDF
機械学習で泣かないためのコード設計 2018
PDF
TISにおける、研究開発の方針とメソッド 2018
PDF
機械学習の力を引き出すための依存性管理
自然言語処理による企業の気候変動対策分析
国際会計基準(IFRS)適用企業の財務評価方法
自然言語処理で新型コロナウィルスに立ち向かう
財務・非財務一体型の企業分析に向けて
自然言語処理で読み解く金融文書
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
ESG評価を支える自然言語処理基盤の構築
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
Reinforcement Learning Inside Business
あるべきESG投資の評価に向けた、自然言語処理の活用
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
Curiosity may drives your output routine.
モデルではなく、データセットを蒸留する
EMNLP2018 Overview
2018年12月4日までに『呪術廻戦』を読む理由
Graph Attention Network
ACL2018の歩き方
機械学習で泣かないためのコード設計 2018
TISにおける、研究開発の方針とメソッド 2018
機械学習の力を引き出すための依存性管理

Recently uploaded (9)

PDF
グローバルロープウェイ用スチールワイヤーロープ市場2025:主要企業のシェア、売上動向、競争戦略
PDF
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
PDF
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
PDF
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
PDF
商用ウェブカメラ市場:世界の産業現状、競合分析、シェア、規模、動向2025-2031年の予測
PDF
【QYResearch】グローバル磁性材料産業チェーンの構造分析と市場動向の詳細解説
PDF
限外ろ過膜調査レポート:市場規模、シェア、産業分析データ、最新動向2025-2031 YH Research
PDF
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
PDF
世界半導体用酸化ハフニウム市場のサプライチェーン解析:上流、下流、収益モデル分析2025-2031
グローバルロープウェイ用スチールワイヤーロープ市場2025:主要企業のシェア、売上動向、競争戦略
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
商用ウェブカメラ市場:世界の産業現状、競合分析、シェア、規模、動向2025-2031年の予測
【QYResearch】グローバル磁性材料産業チェーンの構造分析と市場動向の詳細解説
限外ろ過膜調査レポート:市場規模、シェア、産業分析データ、最新動向2025-2031 YH Research
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
世界半導体用酸化ハフニウム市場のサプライチェーン解析:上流、下流、収益モデル分析2025-2031

文章を読み、理解する機能の獲得に向けて-Machine Comprehensionの研究動向-

  • 1. Copyright © 2016 TIS Inc. All rights reserved. 文章を読み、理解する機能の獲得に向けて 戦略技術センター 久保隆宏 Machine Comprehensionの研究動向
  • 2. Copyright © 2016 TIS Inc. All rights reserved. 2  自己紹介  文章を読み、理解するということ: Machine Comprehensionとは  Machine Comprehensionの抱える課題  Deep Mindの提案した手法  Teaching Machines to Read and Comprehend  Stanfordによる追試  A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task  機械が文章を読み、理解する日に向けて  データセットの拡充  「文章を理解している」の定義  現状と展望  新しいチャレンジ 目次
  • 3. Copyright © 2016 TIS Inc. All rights reserved. 3 久保隆宏 TIS株式会社 戦略技術センター  化学系メーカーの業務コンサルタント出身  既存の技術では業務改善を行える範囲に限界があるとの実感から、戦 略技術センターへと異動  現在は機械学習や自然言語処理の研究・それらを用いたシステムのプ ロトタイピングを行う 自己紹介 人とロボットを連携させた接客シ ステムmaicoの発表 (@対話システムシンポジウム) OpenAI Gymを利用した、 強化学習に関する講演 (@PyConJP 2016) kintoneアプリ内にたまった データを簡単に学習・活用 (@Cybozu Days 2016)
  • 4. Copyright © 2016 TIS Inc. All rights reserved. 4 所属するチームのミッション chakki すべての人が、ティータイムに帰れるようにする すべての人が、ティータイム(15:00)に帰れる(茶帰) 社会を実現します。 この実現には、既存の仕事を効率化するのでなく、 根本的に「仕事の仕方」を変える必要があります。 しかし、慣れた仕事の仕方というのは簡単には変わ りません。だからこそ、実際に「体験」をし、効果 を「実感」してもらうことが重要になります。 そのため、私たちは先進的技術を用い、仕事の仕方が変 わる体験を提供していきます。
  • 5. Copyright © 2016 TIS Inc. All rights reserved. 文章を読み、理解するということ Machine Comprehensionとは 攻殻機動隊 STAND ALONE COMPLEX 第15話 機械たちの時間 MACHINES DESIRANTES
  • 6. Copyright © 2016 TIS Inc. All rights reserved. 6 システムに文章を読んで理解させるタスクを、Machine Comprehension と呼びます。 このタスクは、一般的に以下の要素で構成されます。  Context Document  情報源・前提となる文章が与えられる  Query  文章に関する質問を行う  Answer  質問にどれだけ回答できるかを検査する つまり、ある文書を与え、質問に回答できるかで理解度を測っている、と いうことです。 ※「質問に回答できる」ことをもって理解度と呼んでいいのか?について は後述します 文章を読み、理解する
  • 7. Copyright © 2016 TIS Inc. All rights reserved. 7 この領域は、ルールベースなモデルが主流でした。 というのも、データを基にした統計的なアプローチには弱点があったため です。具体的には、以下の2点です。  自然言語の文書といった、構造が複雑でしかもノイズを多く含むデー タを、うまく表現できるモデルがなかった  それを学習するためのデータがなかった 機械的に生成したデータを基にした検証で、前者についてはNeural Networkがいい仕事をすることが分かってきました。が、(機械的でない) 実際のデータが、十分な量ないという課題は残ったままでした。 Machine Comprehensionの抱える課題 データがない
  • 8. Copyright © 2016 TIS Inc. All rights reserved. 8 Teaching Machines to Read and Comprehend ニュース記事から大量のデータを生成して、学習したぜ!! Deep Mindの提案した手法 [K. M. Hermann+ 2015] 荒川 弘: 鋼の錬金術師 ニュース記事の以下の要素からデー タセットを作成した。  ニュースの本文  箇条書きの要約 本文を読んだら、要約の中に抜けて いる個所があっても、答えられるは ずである。そう考えると、本文は Context、穴あきの要約はQuery、 穴埋めの回答はAnswerと見なせる。 ニュース記事
  • 9. Copyright © 2016 TIS Inc. All rights reserved. 9  上記のような形で、人名や地名などの固有表現をEntityのタグで置き換 え、共通の表現にはすべて同じEntityを割り振る。Queryの穴 (placeholder)に当てはまるEntityを回答するという形式。  学習用データで、CNNは約9万、Daily Mailは約20万と、それまでとは 2ケタぐらい違うサイズのデータの作成を行った(こちらから利用可能)。  Attentionを使ったRNNで60~70%の回答率。 Deep Mindの提案した手法 [K. M. Hermann+ 2015] Teaching Machines to Read and Comprehend
  • 10. Copyright © 2016 TIS Inc. All rights reserved. 10 問題は解決したのか?
  • 11. Copyright © 2016 TIS Inc. All rights reserved. 11 A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task ボリュームはすごいが、タスクとしては簡単。その証拠に、NNで出して いる精度は簡単なモデルで圧倒できる。 Stanfordによる追試 [D. Chen+ 2016] 荒川 弘: 鋼の錬金術師 Deep Mindの提供したデータセットについ て、より詳細な調査を行う。  このデータセットにおけるベースとなる 精度 (ベースライン)、また上限を確認  タスクの遂行に、どのような「文書に対 する理解」が必要なのかを明らかにする 特徴量ベースの基本的なモデルも含め幾つ かのモデルで精度を検証し、どのような 「理解」が重要なのかを検証。また、デー タセットそのものの調査も実施。 Deep Mindの論文
  • 12. Copyright © 2016 TIS Inc. All rights reserved. 12 Stanfordによる追試 [D. Chen+ 2016] A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task ベースラインとして使う予定だった、 特徴量ベースのモデルですでにDeep Mind側の最高精度のAttentionモデル の精度を上回る(63.8 vs 67.1) 回答候補entityの登場頻度、質問との一致、といった 基本的な特徴量が強く効いている データをサンプリングして、回答の 難易度を検証。54%は単純な質問文 とのマッチで回答可能で、25%は人 でも回答不能(=75%がほぼ上限) 逆に、質問文からの推測が必要(Partial clue)、複数 分にまたがる内容の把握が必要(Multiple sentences) は21%しかない
  • 13. Copyright © 2016 TIS Inc. All rights reserved. 13 Stanfordによる追試 [D. Chen+ 2016] A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task Neural Networkモデルでは72.4%の精度を記録し、これは理論上の上限値(75%) に迫る。その意味では、このデータセットはすでに攻略されたともいえる。 質問文のベクトル x Weight x 本文中の各単語ベクト ルでAttentionを作成。これと単語ベクトルを掛け合 わせることで、出力 (=質問文との関連度)を導く 質問文/本文双方について、①単語分割、②各単語を分 散表現(事前学習済みGloveを使用)に変換、③ Bi- directionalなLSTMで順方向/逆方向にそれぞれencode し、結合(質問文のLSTMと本文のものは別々)。 本文中にあるエンティティ(=回答候補)につい て出力の最大値をしらべ、Answerとする。 ※encodeの範囲を絞るWindowを使ったのMemory Networkも検証しているが精度はよろしくなかった
  • 14. Copyright © 2016 TIS Inc. All rights reserved. 14 荒川 弘: 鋼の錬金術師 データを注意深く検証すること、基礎的なモデルでの検証を怠ってはならない
  • 15. Copyright © 2016 TIS Inc. All rights reserved. 15 機械が文章を読み、理解する日に向けて 攻殻機動隊 STAND ALONE COMPLEX 第15話 機械たちの時間 MACHINES DESIRANTES
  • 16. Copyright © 2016 TIS Inc. All rights reserved. 16 データセットを拡充させる取り組み(1/2) MCTest Children Book Test bAbI 概要 物語と、それについて の選択式の質問のデー タセット。 物語については、7歳の 子供が読める程度のも の。 児童書から21文を抽出 し、20文を本文、最後 の一文を質問とする。 質問は文の一部を空白 にする形で作られ、そ の穴埋め問題となる。 推論による回答(AがBで BがCならA=C的な)を 目指し、複数種類の データセットを提供し ている(←のCBTもそこ から作成されている)。 データ量 660 67万(質問数) 公式サイト参照 データ元 クラウドソーシング 本(Project Gutenberg) 同上 質問の内容 50%ほどは、複数文に またがる理解が問われ る CNN/Daily Mailと同様 の作りなので、同程度 と思われる 文章から得られる情報 を基に推論が必要な、 高度な質問。 最高精度の モデル (ハンドメイドの)特徴量 ベースのモデル。学習 済み分散表現などの外 部知識も活用されてい る。 Window-based Memory Network ただ、n-gram/RNNの 言語モデルでも十分 Memory Network ただ、100~200の語彙 という極めて小さな、 箱庭的な環境での実験 にとどまる
  • 17. Copyright © 2016 TIS Inc. All rights reserved. 17 データセットを拡充させる取り組み(2/2) Stanfordが公開した質問回答の データセット Wikipediaの文書に対する質問を クラウドソーシングで作成(回答は 文書中の文かその一部になる)。 文書500、質問数10万という大規 模データセット。最高精度 (@2016/11)は、文書->質問、質 問->文書の双方向のAttentionを 利用したモデル。 Toyota Technological Institute at Cicagaが公開したデータセット Deep Mindのデータセットから派 生したもので、本文と質問を別の 記事からとり、エンティティは人 名に限定(=回答は人名となり、誰 が何をしたかを推測する)。なお、 回答は選択式となっている。 質問数20万で、現在最高精度のも のはGated-Attentionを使用した もので6割程度。
  • 18. Copyright © 2016 TIS Inc. All rights reserved. 18 「文章を理解している」の定義 The Story Close Test 4文からなる短いストーリを与え、その正しい結末(=5文目)を予測させる というタスク。(5文の)学習用ストーリーが約5万、実際のStory Close Test問題が約4000問提供されている。 上記サイトから申し込むことで、データセットの入手が可能
  • 19. Copyright © 2016 TIS Inc. All rights reserved. 19 単純な質問回答は、特徴量ベースのモデルでも機能する。これに加え複数 文のコンテキストを読むのにNNはうまく機能し、「十分なデータがあれ ば」良好な精度(7~8割)を出すことができる。 そして、大規模なデータセットは拡充の兆しがある。 今後は、より高度な質問(推論が必要な質問や、複数文の情報を統合する 必要があるような質問)への回答を目指していくようになると思われるが、 その際はやはりデータセットの問題がついてまわる。  少ないデータからの学習  大規模なデータセットがある分野からの転移学習、事前学習  シミュレーターの作成 これらの点が、今後(というかこれからも)重要になってくると思われる。 現状と展望
  • 20. Copyright © 2016 TIS Inc. All rights reserved. 20 新しいチャレンジ 現在Kaggleで行われている、 Stack Exchangeのタグを予測す るコンペ(~2017/3まで)。 変わっているのは、別のタグで学 習させた分類機で他のタグの分類 を予測させる、つまり学習結果の 転移性能が問われているな点。 小~中学生向けの理科の問題を解 くタスク。質問は図があるものと ないものがあり、回答は選択式。 事前の知識ベースの構築、論理推 論といった力が問われる。データ 数は5141。 Stanfordでのアプローチの方法に ついては、こちらの資料の21pか らに詳しい。 事前知識の面では、MSが概念関 係についての大規模なデータ セットを公開している
  • 21. Copyright © 2016 TIS Inc. All rights reserved. 21 機械が文章を読み、理解する日に向けて世界は進んでいる 攻殻機動隊 STAND ALONE COMPLEX 2nd GIG タチコマな日々 第01話
  • 22. Copyright © 2016 TIS Inc. All rights reserved. 22 論文輪講を行っています。 論文のまとめ情報は、以下リポジトリで公開しています。 https://github.com/arXivTimes/arXivTimes もちろん、まとめの投稿 もお待ちしています。
  • 23. <免責事項> 本資料は、作成時点の法規制等に基づき、細心の注意を払い作成しておりますが、 その正確性、適用性、完全性、網羅性、有用性、最新性、知的財産権の非侵害などに 対して弊社は一切保証いたしません。また当該情報に起因するいかなる損害についても 弊社は責任を負いません。本資料より得られるいかなる情報も利用者ご自身の判断と 責任において利用していただくものとします。なお、本資料は特定の事項に関する 一般的な情報提供を目的としています。提供されている情報は、専門的アドバイザリー、 コンサルティング等のサービス提供を意図したものではありません。 <本資料の取り扱いに関して> 本資料は、著作権法及び不正競争防止法上の保護を受けております。資料の一部或いは 全てについて、TIS株式会社から許諾を得ずに、いかなる方法においても無断で複写、 複製、転記、転載、ノウハウの使用、企業秘密の開示等を行うことは禁じられて おります。本文記載の社名・製品名・ロゴは各社の商標または登録商標です。