SlideShare a Scribd company logo
A Semantics-aware Transformer
Model of Relation Linking for
Knowledge Base Question
Answering
Tahira Naseem, Srinivas Ravishankar, Nandana Mihindukulasooriya, Ibrahim Abdelaziz, Young-Suk Lee,
Pavan Kapanipathi, Salim Roukos, Alfio Gliozzo, Alexander Gray
ACL 2021 , @論文読み会, 紹介者: Yoshiaki Kitagawa
※スライド中の資料は論文から引用しています
Summary
 Task
 Relation Linking
 sentence (question)中の entity 間の
relation が KB のどの relation に該当する
かを当てる
 先行研究と比べてどこがすごいか?
 KB を問わない (not 特定の KB)
 question text だけでなく、AMR (Abstract
Meaning Representation)の情報を利用
 技術や手法のキモ
 シンプルな Neural Relation Linking Model
 AMR の活用
 どうやって有効だと検証したか?
 Wikidata, DBpedia から作成された4つのQAデータ
セットで、Precision, Recall, F 値を測定
 このデータセットでは entity と entity の relation がア
ノテートされている(はず)
 議論はあるか?
 TBD
 次に読むべき論文
 AMR [Lim et al., 2020]
 Slot Prediction [Kapa- nipathi et al., 2021]
Introduction
 Knowledge base question answering (KBQA) は様々なアプリケーションから注目されているタスクであ
る
 そのサブタスクとして以下がある
 question を構造化された query に変換する
 Entity Linking
 Relation Linking
 例文: Who founded the city where Pat Vincent died?
 founded (founder) や died (death place) は relation
 Pat Vincent は entity
 に map する必要がある
Contribution
 KBに依存しないRelation linking のシンプルなニューラルモデルを提案
 AMR を使えるようにした
 4つのデータセットで state-of-the-art
Semantics-aware Relation Linking のための AMR
 例文: Who founded the city where Pat Vincent
died? の AMR
 AMR は DAG で “who is doing what to whom“
を捉える ことができる
 query の target である node は amr-unknown と
lable 付けされる
Overall system flow
 白: 入出力
 グレー: システム
 黒: 後述の提案モデル
Slot Prediction
 slot の定義: AMR graph の node のペア
 AMR の parse 結果の node と KB の entity はリンクする (BLINK entity linker)
 [Kapanipathi et al., 2021] の rule base の手法を採用(詳しくはここを見る)
 amr-unknown と その他の entity node の間の slot を抽出
overall architecture of our model
 FF 部分は重みは共有していないことに注意
 出力の nx1 のベクトルは question から抽出された relation と n個の KB の
relation 類似度が入った状態になっている
Training
 minimize cross-entropy loss で学習
 負例は gold 以外の relation から選択
Experiments results
Summary
 Task
 Relation Linking
 sentence (question)中の entity 間の
relation が KB のどの relation に該当する
かを当てる
 先行研究と比べてどこがすごいか?
 KB を問わない (not 特定の KB)
 question text だけでなく、AMR (Abstract
Meaning Representation)の情報を利用
 技術や手法のキモ
 シンプルな Neural Relation Linking Model
 AMR の活用
 どうやって有効だと検証したか?
 Wikidata, DBpedia から作成された4つのQAデータ
セットで、Precision, Recall, F 値を測定
 このデータセットでは entity と entity の relation がア
ノテートされている(はず)
 議論はあるか?
 TBD
 次に読むべき論文
 AMR [Lim et al., 2020]
 Slot Prediction [Kapa- nipathi et al., 2021]
参考資料
 論文: https://aclanthology.org/2021.acl-short.34.pdf

More Related Content

PPTX
Sentence-State LSTM for Text Representation
PDF
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
PPTX
論文輪読(Effective LSTMs for Target-Dependent Sentiment Classification, Duyu Tang...
PPTX
Distributed Representations of Sentences and Documents
PPTX
Minimally Supervised Classification to Semantic Categories using Automaticall...
PDF
NIPS2017読み会@PFN Lundberg and Lee, 2017: SHAP
PDF
Semantic Projection Network for Zero- and Few-Label Semantic Segmentation 紹介
PPTX
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
Sentence-State LSTM for Text Representation
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
論文輪読(Effective LSTMs for Target-Dependent Sentiment Classification, Duyu Tang...
Distributed Representations of Sentences and Documents
Minimally Supervised Classification to Semantic Categories using Automaticall...
NIPS2017読み会@PFN Lundberg and Lee, 2017: SHAP
Semantic Projection Network for Zero- and Few-Label Semantic Segmentation 紹介
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...

What's hot (7)

PDF
Acl reading 2nd
PDF
オブジェクト指向っぽい話
PDF
トピックモデルの評価指標 Perplexity とは何なのか?
PDF
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
PDF
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
PPTX
I know what you asked graph path learning using amr for commonsense reasoning
PDF
ICASSP2017読み会 (Deep Learning III) [電通大 中鹿先生]
Acl reading 2nd
オブジェクト指向っぽい話
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
I know what you asked graph path learning using amr for commonsense reasoning
ICASSP2017読み会 (Deep Learning III) [電通大 中鹿先生]
Ad

Similar to A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_question_answering (11)

PPTX
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
PPTX
Knowledge_graph_alignment_with_entity-pair_embedding
PDF
ICDE2014 Session 22 Similarity Joins
PDF
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
PDF
oop-in-javaee
PDF
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
PDF
EMNLP 2011 reading
PPTX
[Dl輪読会]A simple neural network module for relational reasoning
PDF
Pgunconf ゆるいテキスト検索ふたたび - n-gram応用編
PPTX
Combining long short term memory and convolutional neural network for cross s...
 
PDF
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Knowledge_graph_alignment_with_entity-pair_embedding
ICDE2014 Session 22 Similarity Joins
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
oop-in-javaee
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
EMNLP 2011 reading
[Dl輪読会]A simple neural network module for relational reasoning
Pgunconf ゆるいテキスト検索ふたたび - n-gram応用編
Combining long short term memory and convolutional neural network for cross s...
 
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
Ad

More from Ace12358 (14)

PPTX
Can language models be biomedical knowledge bases
PPTX
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
PPTX
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
PPTX
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
PPTX
Low-dimensional hyperbolic knowledge graph embeddings
PPTX
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
PDF
Emnl preading2016
PDF
Chainer meetup lt
PDF
Emnlp2015 reading festival_lstm_cws
PDF
Naacl2015unsupervised morph
PDF
DeepLearning論文紹介@Ace12358
PDF
DeepLearning3@Ace12358
PDF
EMNLPreading@Ace12358
PPT
ACLreading2014@Ace12358
Can language models be biomedical knowledge bases
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Low-dimensional hyperbolic knowledge graph embeddings
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Emnl preading2016
Chainer meetup lt
Emnlp2015 reading festival_lstm_cws
Naacl2015unsupervised morph
DeepLearning論文紹介@Ace12358
DeepLearning3@Ace12358
EMNLPreading@Ace12358
ACLreading2014@Ace12358

A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_question_answering

  • 1. A Semantics-aware Transformer Model of Relation Linking for Knowledge Base Question Answering Tahira Naseem, Srinivas Ravishankar, Nandana Mihindukulasooriya, Ibrahim Abdelaziz, Young-Suk Lee, Pavan Kapanipathi, Salim Roukos, Alfio Gliozzo, Alexander Gray ACL 2021 , @論文読み会, 紹介者: Yoshiaki Kitagawa ※スライド中の資料は論文から引用しています
  • 2. Summary  Task  Relation Linking  sentence (question)中の entity 間の relation が KB のどの relation に該当する かを当てる  先行研究と比べてどこがすごいか?  KB を問わない (not 特定の KB)  question text だけでなく、AMR (Abstract Meaning Representation)の情報を利用  技術や手法のキモ  シンプルな Neural Relation Linking Model  AMR の活用  どうやって有効だと検証したか?  Wikidata, DBpedia から作成された4つのQAデータ セットで、Precision, Recall, F 値を測定  このデータセットでは entity と entity の relation がア ノテートされている(はず)  議論はあるか?  TBD  次に読むべき論文  AMR [Lim et al., 2020]  Slot Prediction [Kapa- nipathi et al., 2021]
  • 3. Introduction  Knowledge base question answering (KBQA) は様々なアプリケーションから注目されているタスクであ る  そのサブタスクとして以下がある  question を構造化された query に変換する  Entity Linking  Relation Linking  例文: Who founded the city where Pat Vincent died?  founded (founder) や died (death place) は relation  Pat Vincent は entity  に map する必要がある
  • 4. Contribution  KBに依存しないRelation linking のシンプルなニューラルモデルを提案  AMR を使えるようにした  4つのデータセットで state-of-the-art
  • 5. Semantics-aware Relation Linking のための AMR  例文: Who founded the city where Pat Vincent died? の AMR  AMR は DAG で “who is doing what to whom“ を捉える ことができる  query の target である node は amr-unknown と lable 付けされる
  • 6. Overall system flow  白: 入出力  グレー: システム  黒: 後述の提案モデル
  • 7. Slot Prediction  slot の定義: AMR graph の node のペア  AMR の parse 結果の node と KB の entity はリンクする (BLINK entity linker)  [Kapanipathi et al., 2021] の rule base の手法を採用(詳しくはここを見る)  amr-unknown と その他の entity node の間の slot を抽出
  • 8. overall architecture of our model  FF 部分は重みは共有していないことに注意  出力の nx1 のベクトルは question から抽出された relation と n個の KB の relation 類似度が入った状態になっている
  • 9. Training  minimize cross-entropy loss で学習  負例は gold 以外の relation から選択
  • 11. Summary  Task  Relation Linking  sentence (question)中の entity 間の relation が KB のどの relation に該当する かを当てる  先行研究と比べてどこがすごいか?  KB を問わない (not 特定の KB)  question text だけでなく、AMR (Abstract Meaning Representation)の情報を利用  技術や手法のキモ  シンプルな Neural Relation Linking Model  AMR の活用  どうやって有効だと検証したか?  Wikidata, DBpedia から作成された4つのQAデータ セットで、Precision, Recall, F 値を測定  このデータセットでは entity と entity の relation がア ノテートされている(はず)  議論はあるか?  TBD  次に読むべき論文  AMR [Lim et al., 2020]  Slot Prediction [Kapa- nipathi et al., 2021]