SlideShare a Scribd company logo
Combining Long Short Term Memory
and
Convolutional Neural Network
for Cross-Sentence
n-ary Relation Extraction
c817c475891868c7c1a3d36e53623f42300a
5785.pdf (openreview.net)
Combining Long Short Term Memory
and Convolutional Neural Network for
Cross-Sentence n-ary Relation
Extraction
AngroshMandya,DanushkaBollegala,FransCoenen,KatieAtkinson
AKBC 2019 Conference
まとめ・貢献
1. 複数Entityにまたがる関係抽出
2. LSTMとCNNの組み合わせモデル
3. 文間・文内のn項関係抽出タスクで
SOTA
既存研究との違い
• Gloveの単語ベクトル(WF)とポジション
Embedding(PF)を使い,構造木等は使わない
• n項関係抽出というタスク設定では
LSTM_CNNの組み合わせは初めて
提案の利点 (ウリ)・問題点
利点
1. 入力の素性として依存構造木等の構文情報は
使わない
2. [e1, …, en]のEntityにおけるポジション
Embeddingの設定
問題点
1. n項にまたがる関係がそもそもあるかどうか
2. 提案モデル内でのチューニングの頑張りの違い説
実験仮説と検証結果
1. 文のシーケンス情報はLSTMが確保し,ま
とめる役割としてCNNが効いてくるはず
2. LSTM_CNNモデルとCNN_LSTMモデル
で比較して先にLSTM使った方が良いこと
が分かった
評価方法と結果の利点と問題点
1. Entityの出現位置を平均と分散で分類し,
Entity間距離を元にした結果
2. WFとPFのアブレーション
3. CNNのフィルタ数10~128で事前実験
4. 3つのデータセットで比較
読むべき関連研究
1. Nguyen and Verspoor. (2018)
2. Peng et al. (2017)
主要な絵
Introduction
The deletion mutation on exon-19 of EGFR gene was present in 16 patients,
while the L858E point mutation on exon-21 was noted in 10.
All patients were treated with gefitnib and showed a partial response.
 項が2つ以上ある関係
 項が2つの関係
The cancer led to her father’s death.
因果関係
癌が彼女の父親の死をもたらした.
EGFR遺伝子のエクソン19の欠失変異は16人の患者に存在したが、
エクソン21のL858E点変異は10人に認められた。
全ての患者はゲフィチニブで治療され、部分的な反応を示した。
関係を定義する際の項の数について
Introduction
①The deletion mutation on exon-19 of EGFR gene was present in 16 patients,
while the L858E point mutation on exon-21 was noted in 10.
⓶All patients were treated with gefitnib and showed a partial response.
 項が2つ以上ある関係
• 2文にまたがる関係抽出
• 3つのEntityをまたぐ関係
遺伝子
L858E
突然変異
EGFR
薬物
geftinib
RESPONSE=3項関係
• 長距離シーケンスの扱い
• Entityの文脈モデリング
• 可変長テキストの表現
問題点
task
Cross-Sentence n-ary Relation Extraction
𝑥6 𝑒1 𝑥7 𝑥16 𝑒2 𝑥17 𝑥31
𝑥1 𝑥32
𝑒3 𝑥𝑚
… … … …
単語トークン 𝑥𝑚
エンティティ 𝑒𝑛
テキストスパン 𝑆𝑡
𝑆1 𝑆2
𝑥 = {𝑥1, … … , 𝑥𝑚}
𝑒 = {𝑒1, … … , 𝑒𝑛} 組み合わせからn項関係を抽出するタスク
RESPONSE
Model
単語トークン 𝑥𝑚
エンティティ 𝑒𝑛
テキストスパン 𝑆𝑡
Model
単語トークン 𝑥𝑚
エンティティ 𝑒𝑛
テキストスパン 𝑆𝑡
入力
入力
単語ベクトル300次元
ポジションEmbedding 100次元
ポジションEmbedding
n個のEntityの内
最初と最後を基に決定
The
of
EGFR
gene
the
L858E
point
with
gefitnib
and
EGFR gefitnib を基準
Model
一般的なLSTM
LSTMユニット
𝑓𝑡
𝑐𝑡−1
𝑖𝑡
𝑔𝑡
𝑜𝑡
𝑐𝑡
ℎ𝑡−1
Model
一般的なCNN
Model
一般的なCNN
Model
一般的なCNN
Model
テキストスパン毎に関係を出力(s:テキストスパン総数)
テキストスパンSiを1つのインスタンス
目的関数
テキストスパン内のEntity全てに関係するようなn項関係を出力する
Datasets
Quirk and Poon (QP) Dataset
• クロスセンテンスn項関係抽出用にPengらが拡張したデータ
• テキストスパンを3までに制限
• 59の「薬物-遺伝子-突然変異」の組み合わせで作成
• 関係ラベル
• RESISTANCE
• RESISTANCE or NON-RESPONSE
• RESPONSE
• SENSITIVITY
正例 負例
三項 3,462 ←同数
二項 3,192 ←同数
Chemical Induced Disease (CID) Dataset
• 化学物質と関連疾患の二項関係のインスタンス
• 文内と文間で
• 「CDR(化学物質疾病関係)」
• 「分子メカニズム関係」
• 「バイオマーカー関係」
SemEval-2010 Task 8 (SE) Dataset
• 8000の学習データと2717のテスト文
分子 バイオ CDR
文内 1,206 1,999 1,330
文間 702 788 786
Results Ablation
提案モデル:LSTM_CNN+WF+PF
LSTMとCNNの組み合わせが有効
三項関係 二項関係
単語ベクトルを入れたモデルが既に他のベースラインモデルを上回る
ただし,大きく精度を向上させるのはPF
文内の関係抽出でも有用
nf=128でポジションEmbeddingをn項全てに適用した場合80.5と77.9
Results
データセット内に出現するe1とen間の単語数の平均をμ,標準偏差σを計算
Entityの距離に基づいてaccuracyを解析
三項関係
二項関係
←文間→
←文内→
Entity間が中距離,遠距離のaccuracyは高い
二項関係の方では著しいaccuracy向上
提案モデルはEntityが離れている場合に有効
平均は文の境界関係無し
↔ PFはより有効では無くなる
良
良
良
良
Results Ablation
Results
三項関係
二項関係
←文間→
←文内→
 LSTM_CNN vs CNN_LSTM
先にLSTMを入れた方が高いaccuracyを記録 シーケンス情報を先に獲得するため
n項関係抽出タスクではLSTM_CNNが有効
良
良
良
Results Ablation
Results
三項関係 二項関係
三項関係抽出においては,PFを追加で入れた方がaccuracyが低下する
WF+PFを足したモデルは,フィルタ数が多くなるとaccuracyが低下する
多数のフィルタとともに位置を埋め込むことは有用ではない
悪
良
Results Ablation
Results Comparison
依存構造木や談話構造解析などの
洗練された特徴を用いない
文間n項関係抽出では
提案モデルが一番適切
良
良
Results
Results Comparison
高いrecallを示すがprecisionは低いモデル
高いprecisionを示すがrecallは低いモデル
LSTMとCNNを組み合わせた
提案モデルが一番適切
良
Conclusion
 文間のn項関係抽出
 LSTMとCNNを組み合わせた複合モデル
 先にLSTMでシーケンス情報を獲得するのが適切
 Entityは間のe1とenのみにポジションEmbedding
 提案モデルはEntity間の距離が長いと有効

More Related Content

PPTX
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
PPTX
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
PPTX
Paper: seq2seq 20190320
PDF
拡がるディープラーニングの活用
PDF
Reasoning with neural tensor networks for knowledge base completion
PDF
[ML論文読み会資料] Teaching Machines to Read and Comprehend
PDF
ChainerによるRNN翻訳モデルの実装+@
PDF
[DL輪読会]Training RNNs as Fast as CNNs
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Paper: seq2seq 20190320
拡がるディープラーニングの活用
Reasoning with neural tensor networks for knowledge base completion
[ML論文読み会資料] Teaching Machines to Read and Comprehend
ChainerによるRNN翻訳モデルの実装+@
[DL輪読会]Training RNNs as Fast as CNNs

Similar to Combining long short term memory and convolutional neural network for cross sentence n-ary relation extraction (17)

PDF
Deep Learningと自然言語処理
PDF
RNN-based Translation Models (Japanese)
PPTX
Entity relation extraction as multi-turn question answering
 
PPTX
A simple neural network mnodule for relation reasoning
PDF
Semantic_Matching_AAAI16_論文紹介
PDF
論文紹介 Star-Transformer (NAACL 2019)
PDF
Disconnected Recurrent Neural Networks for Text Categorization
PPTX
Deep Learning による視覚×言語融合の最前線
PPTX
Cs中間報告
PDF
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
PDF
Memory Networks (End-to-End Memory Networks の Chainer 実装)
PDF
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
PDF
ニューラルネットワークを用いた自然言語処理
PDF
LSTM (Long short-term memory) 概要
PPTX
[DL輪読会]Abstractive Summarization of Reddit Posts with Multi-level Memory Netw...
PPTX
Knowledge_graph_alignment_with_entity-pair_embedding
PDF
Convolutional Neural Netwoks で自然言語処理をする
Deep Learningと自然言語処理
RNN-based Translation Models (Japanese)
Entity relation extraction as multi-turn question answering
 
A simple neural network mnodule for relation reasoning
Semantic_Matching_AAAI16_論文紹介
論文紹介 Star-Transformer (NAACL 2019)
Disconnected Recurrent Neural Networks for Text Categorization
Deep Learning による視覚×言語融合の最前線
Cs中間報告
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
Memory Networks (End-to-End Memory Networks の Chainer 実装)
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
ニューラルネットワークを用いた自然言語処理
LSTM (Long short-term memory) 概要
[DL輪読会]Abstractive Summarization of Reddit Posts with Multi-level Memory Netw...
Knowledge_graph_alignment_with_entity-pair_embedding
Convolutional Neural Netwoks で自然言語処理をする
Ad

Recently uploaded (8)

PDF
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
PDF
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
PDF
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
PDF
【初心者向け】生成AI SimonW/LLMとOllama・llamafile無料APIでコマンドラインをAI革命するセミナー。CPUでもGPUでも。Ne...
PDF
【QYResearch】急拡大する医療機器市場における主要企業の動向と競争環境分析
PDF
【QYResearch】グローバル磁性材料産業チェーンの構造分析と市場動向の詳細解説
PDF
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
PDF
データモデラー視点で語るデータマネジメント入門~組織のデータ活用を成功に導くために~
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
【初心者向け】生成AI SimonW/LLMとOllama・llamafile無料APIでコマンドラインをAI革命するセミナー。CPUでもGPUでも。Ne...
【QYResearch】急拡大する医療機器市場における主要企業の動向と競争環境分析
【QYResearch】グローバル磁性材料産業チェーンの構造分析と市場動向の詳細解説
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
データモデラー視点で語るデータマネジメント入門~組織のデータ活用を成功に導くために~
Ad

Combining long short term memory and convolutional neural network for cross sentence n-ary relation extraction