SlideShare a Scribd company logo
Effective LSTMs for Target-Dependent
Sentiment Classification
Duyu Tang, Bing Qin,
Xiaocheng Feng, and Ting Liu
@COLING2016
読み手:栗原理聡
1
この論文の概要
・Target-dependent sentiment classificationに取り組んだ.
・target wordとcontext wordとの意味的関係を捉えられる
モデルとしてtarget dependentなLSTMモデルを構築した.
・このモデルで(ほぼ)SoTAを達成した.
(主張:syntactic parserとかsentiment lexiconを使わずに!)
abstract
2
Target-dependent sentiment classification
Intro
“I bought a new camera.
The picture quality is amazing but the battery life is too short”
Input:a sentence, target mention
Output: the sentiment polarity (e.g. positive, negative, neutral)
of the sentence towards the target
target = picture quality Output = positive
target = battery life Output = negative
target wordとそのcontext wordsとの意味的関係をうまくモデル化したい
target-dependentなLSTMモデルの提案
(ただfeature engineeringはlabor intensiveだからしたくない)
3
basic LSTM
Approach
このモデルでは同一文内に複数の
targetが存在したとしても,
どのtargetに対しても同じ極性でしか
推定できない.
4
target-dependent LSTM
Approach
target wordsの前後でそれぞれ別のLSTMを構築し、
それぞれの最終隠れ層の出力をconcatしてsoftmaxをかけて極性を推定
こうすることでtarget依存の文脈情報を捉えられるようになり,
精度向上が期待出来る
5
target-connection LSTM
Approach
𝑣𝑡𝑎𝑟𝑔𝑒𝑡:target wordsの各wordのベクトルの(相加)平均
𝑣𝑡𝑎𝑟𝑔𝑒𝑡をそれぞれの入力単語ベクトルに連結したベクトルを入力として
target-dependent LSTMと同様の流れで学習
こうすることでさらにtarget依存の文脈情報を捉えられるようになり,
精度向上が期待出来る
6
実験設定
Experiment
データセット[Dong et al., 2014]
・製品や有名人などを含むツイートを抽出
・人手で (negative, neutral, positive) を分類
・アノテーター2人(一致率: 82.5%)
・negative : neutral : positive = 25% : 50% : 25%
・train : 6248 tweet, test : 692 tweet
比較手法
・SVM-indep, SVM-dep[Jiang et al., 2011]
・Recursive NN, AdaRNN[Dong et al., 2014]
・Target-dep[Vo and Zhang, 2015]
LSTM
・100次元のベクトルをTwitterからGloveで学習
・一様分布 U(-0.003, 0.003) でパラメータをランダムに初期化
・softmax層のclipping閾値:200
・learning rate:0.01 7
比較手法概要
Experiment
[Jiang et al., 2011]
・SVM-indep:unigram, bigram, 記号, 顔文字, ハッシュタグ,
ポジネガ単語数(辞書を使用)
・SVM-dep:SVM-indepの素性
+ target-dependentな素性(targetを項に持つ述語など)
8
比較手法概要
Experiment
[Dong et al., 2014]
・AdaRNN-w/oE:合成関数の選択に係り受け関係を使わない
・AdaRNN-w/E:合成関数の選択に係り受け関係を使う
・AdaRNN-comb:AdaRNN-w/Eの合成ベクトル + uni/bigram を素性としてSVM
9
比較手法概要
Experiment
[Vo and Zhang, 2015]
・Target-dep:T_twとF_twの素性のみでSVM
・Target-dep+:T_twとF_twに加えてS_twの素性も含めてSVM
10
実験結果(既存手法との比較)
Experiment
11
実験結果(既存手法との比較)
Experiment
targetの情報を加味することで
精度UP
Sentiment lexiconのfeatureを
加えなくてもSoTAと同等の性能
12
実験結果(word embeddingsの効果)
Experiment
13
実験結果(word embeddingsの効果)
Experiment
This shows the importance of context information for word embedding
learning as both SSWEh and SSWEr do not encode any word contexts.
14
実験結果(word embeddingsの効果)
Experiment
Glove and SSWEu perform comparably, which indicates the importance
of global context for estimating a good word representation.
15
実験結果(Glove間での次元による比較)
Experiment
LSTM-TCの方がLSTM-TDより
精度がわずかに向上するが,
計算コストが大きくかかる.
16
Attention-based LSTMモデル
Discussion
we also tried an attention-based LSTM model, which is inspired by
the recent success of attention-based neural network in machine
translation (Bahdanau et al., 2015) and document encoding (Li et
al., 2015b). We implement the soft-attention mechanism (Bah-
danau et al., 2015) to enhance TD-LSTM. We incorporate two
attention layers for preceding LSTM and following LSTM,
respectively. The output vector for each attention layer is the
weighted average among hidden vectors of LSTM, where the
weight of each hidden vector is calculated with a feedforward
neural network. The outputs of preceding and following attention
models are concatenated and fed to sof tmax for sentiment
classification. However, we cannot obtain better result with such an
attention model. The accuracy of this attention model is slightly
lower than the standard LSTM model (around 65%), which means
that the attention component has a negative impact on the model.
A potential reason might be that the attention based LSTM has
larger number of parameters, which cannot be easily optimized
with the small number of corpus. 17
References
18
Li Dong, Furu Wei, Chuanqi Tan, Duyu Tang, Ming Zhou, and Ke Xu. 2014.
Adaptive recursive neural network for target-dependent twitter sentiment classification.
In ACL, pages 49–54.
Long Jiang, Mo Yu, Ming Zhou, Xiaohua Liu, and Tiejun Zhao. 2011.
Target-dependent twitter sentiment classi- fication.
ACL, 1:151–160.
Duy-Tin Vo and Yue Zhang. 2015.
Target-dependent twitter sentiment classification with rich automatic features.
IJCAI.

More Related Content

PPTX
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
PPTX
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
PPTX
Sentence-State LSTM for Text Representation
PDF
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
PDF
EMNLP 2011 reading
PDF
【DL輪読会】Towards Transparent and Explainable Attention Models (ACL2020)
PDF
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
PDF
多変量解析の一般化
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Sentence-State LSTM for Text Representation
WSDM2018 読み会 Latent cross making use of context in recurrent recommender syst...
EMNLP 2011 reading
【DL輪読会】Towards Transparent and Explainable Attention Models (ACL2020)
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
多変量解析の一般化

Similar to 論文輪読(Effective LSTMs for Target-Dependent Sentiment Classification, Duyu Tang et al., COLONG 2016) (6)

PPTX
Paper: seq2seq 20190320
PDF
TensorFlow math ja 05 word2vec
PDF
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
PDF
Twitterユーザに対するゼロショットタグ付け
PDF
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
PDF
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Paper: seq2seq 20190320
TensorFlow math ja 05 word2vec
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
Twitterユーザに対するゼロショットタグ付け
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Ad

Recently uploaded (8)

PDF
【QYResearch】グローバル磁性材料産業チェーンの構造分析と市場動向の詳細解説
PDF
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
PDF
データモデラー視点で語るデータマネジメント入門~組織のデータ活用を成功に導くために~
PDF
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
PDF
【QYResearch】急拡大する医療機器市場における主要企業の動向と競争環境分析
PDF
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
PDF
【初心者向け】生成AI SimonW/LLMとOllama・llamafile無料APIでコマンドラインをAI革命するセミナー。CPUでもGPUでも。Ne...
PDF
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
【QYResearch】グローバル磁性材料産業チェーンの構造分析と市場動向の詳細解説
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
データモデラー視点で語るデータマネジメント入門~組織のデータ活用を成功に導くために~
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
【QYResearch】急拡大する医療機器市場における主要企業の動向と競争環境分析
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
【初心者向け】生成AI SimonW/LLMとOllama・llamafile無料APIでコマンドラインをAI革命するセミナー。CPUでもGPUでも。Ne...
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
Ad

論文輪読(Effective LSTMs for Target-Dependent Sentiment Classification, Duyu Tang et al., COLONG 2016)