Recommended Sentence-State LSTM for Text Representation
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
論文輪読(Effective LSTMs for Target-Dependent Sentiment Classification, Duyu Tang...
Distributed Representations of Sentences and Documents
Minimally Supervised Classification to Semantic Categories using Automaticall...
NIPS2017読み会@PFN Lundberg and Lee, 2017: SHAP
Semantic Projection Network for Zero- and Few-Label Semantic Segmentation 紹介
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
I know what you asked graph path learning using amr for commonsense reasoning
ICASSP2017読み会 (Deep Learning III) [電通大 中鹿先生]
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Knowledge_graph_alignment_with_entity-pair_embedding
ICDE2014 Session 22 Similarity Joins
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
[Dl輪読会]A simple neural network module for relational reasoning
Pgunconf ゆるいテキスト検索ふたたび - n-gram応用編
Combining long short term memory and convolutional neural network for cross s...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
Can language models be biomedical knowledge bases
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
More Related Content Sentence-State LSTM for Text Representation
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
論文輪読(Effective LSTMs for Target-Dependent Sentiment Classification, Duyu Tang...
Distributed Representations of Sentences and Documents
Minimally Supervised Classification to Semantic Categories using Automaticall...
NIPS2017読み会@PFN Lundberg and Lee, 2017: SHAP
Semantic Projection Network for Zero- and Few-Label Semantic Segmentation 紹介
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
What's hot (7)
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
I know what you asked graph path learning using amr for commonsense reasoning
ICASSP2017読み会 (Deep Learning III) [電通大 中鹿先生]
Similar to A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_question_answering (11) A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Knowledge_graph_alignment_with_entity-pair_embedding
ICDE2014 Session 22 Similarity Joins
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
[Dl輪読会]A simple neural network module for relational reasoning
Pgunconf ゆるいテキスト検索ふたたび - n-gram応用編
Combining long short term memory and convolutional neural network for cross s...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
More from Ace12358 (14) Can language models be biomedical knowledge bases
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Low-dimensional hyperbolic knowledge graph embeddings
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Emnlp2015 reading festival_lstm_cws
Naacl2015unsupervised morph
DeepLearning論文紹介@Ace12358
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_question_answering1. A Semantics-aware Transformer
Model of Relation Linking for
Knowledge Base Question
Answering
Tahira Naseem, Srinivas Ravishankar, Nandana Mihindukulasooriya, Ibrahim Abdelaziz, Young-Suk Lee,
Pavan Kapanipathi, Salim Roukos, Alfio Gliozzo, Alexander Gray
ACL 2021 , @論文読み会, 紹介者: Yoshiaki Kitagawa
※スライド中の資料は論文から引用しています
2. Summary
Task
Relation Linking
sentence (question)中の entity 間の
relation が KB のどの relation に該当する
かを当てる
先行研究と比べてどこがすごいか?
KB を問わない (not 特定の KB)
question text だけでなく、AMR (Abstract
Meaning Representation)の情報を利用
技術や手法のキモ
シンプルな Neural Relation Linking Model
AMR の活用
どうやって有効だと検証したか?
Wikidata, DBpedia から作成された4つのQAデータ
セットで、Precision, Recall, F 値を測定
このデータセットでは entity と entity の relation がア
ノテートされている(はず)
議論はあるか?
TBD
次に読むべき論文
AMR [Lim et al., 2020]
Slot Prediction [Kapa- nipathi et al., 2021]
3. Introduction
Knowledge base question answering (KBQA) は様々なアプリケーションから注目されているタスクであ
る
そのサブタスクとして以下がある
question を構造化された query に変換する
Entity Linking
Relation Linking
例文: Who founded the city where Pat Vincent died?
founded (founder) や died (death place) は relation
Pat Vincent は entity
に map する必要がある
5. Semantics-aware Relation Linking のための AMR
例文: Who founded the city where Pat Vincent
died? の AMR
AMR は DAG で “who is doing what to whom“
を捉える ことができる
query の target である node は amr-unknown と
lable 付けされる
7. Slot Prediction
slot の定義: AMR graph の node のペア
AMR の parse 結果の node と KB の entity はリンクする (BLINK entity linker)
[Kapanipathi et al., 2021] の rule base の手法を採用(詳しくはここを見る)
amr-unknown と その他の entity node の間の slot を抽出
8. overall architecture of our model
FF 部分は重みは共有していないことに注意
出力の nx1 のベクトルは question から抽出された relation と n個の KB の
relation 類似度が入った状態になっている
11. Summary
Task
Relation Linking
sentence (question)中の entity 間の
relation が KB のどの relation に該当する
かを当てる
先行研究と比べてどこがすごいか?
KB を問わない (not 特定の KB)
question text だけでなく、AMR (Abstract
Meaning Representation)の情報を利用
技術や手法のキモ
シンプルな Neural Relation Linking Model
AMR の活用
どうやって有効だと検証したか?
Wikidata, DBpedia から作成された4つのQAデータ
セットで、Precision, Recall, F 値を測定
このデータセットでは entity と entity の relation がア
ノテートされている(はず)
議論はあるか?
TBD
次に読むべき論文
AMR [Lim et al., 2020]
Slot Prediction [Kapa- nipathi et al., 2021]