Submit Search
[EMNLP2016読み会] Memory-enhanced Decoder for Neural Machine Translation
Download as PPTX, PDF
0 likes
384 views
H
Hayahide Yamagishi
首都大学東京・小町研内のEMNLP2016読み会で使用する資料です
Data & Analytics
Read more
1 of 17
Download now
Download to read offline
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
More Related Content
PDF
OSとWindowsとMicrosoft
Masato Hanayama
PPTX
WebGLで浮動小数点テクスチャを扱う話
翔 石井
PDF
JubaQLご紹介
JubatusOfficial
PPTX
"アレ"からJubatusを使う
JubatusOfficial
PPTX
FPGAでmrubyを動かす
Shuta Kimura
PDF
Jubatus 新機能ハイライト
JubatusOfficial
PDF
蛇を埋葬する(PythonをEmbedする)
Shintarou Okada
PPTX
EC2クラスタインスタンス使ってみました!
Eiji Sato
OSとWindowsとMicrosoft
Masato Hanayama
WebGLで浮動小数点テクスチャを扱う話
翔 石井
JubaQLご紹介
JubatusOfficial
"アレ"からJubatusを使う
JubatusOfficial
FPGAでmrubyを動かす
Shuta Kimura
Jubatus 新機能ハイライト
JubatusOfficial
蛇を埋葬する(PythonをEmbedする)
Shintarou Okada
EC2クラスタインスタンス使ってみました!
Eiji Sato
What's hot
(7)
PDF
データ圧縮アルゴリズムを用いたマルウェア感染通信ログの判定
JubatusOfficial
PPTX
CPUをちょっと
Tksenda
PPTX
脱! 俺たちは雰囲気でBPをいじっている
Naoaki Yamaji
PPTX
無印Pentium debian install memo
Yukiyoshi Yoshimoto
ODP
札幌シムトラ学会 発表資料
myagami
PDF
ML Studio / CNTK ハンズオン資料の紹介と開発環境の構築手順
Yoshitaka Seo
PDF
Introducing mroonga 20111129
Kentoku
データ圧縮アルゴリズムを用いたマルウェア感染通信ログの判定
JubatusOfficial
CPUをちょっと
Tksenda
脱! 俺たちは雰囲気でBPをいじっている
Naoaki Yamaji
無印Pentium debian install memo
Yukiyoshi Yoshimoto
札幌シムトラ学会 発表資料
myagami
ML Studio / CNTK ハンズオン資料の紹介と開発環境の構築手順
Yoshitaka Seo
Introducing mroonga 20111129
Kentoku
Ad
Viewers also liked
(14)
PPTX
[ACL2016] Achieving Open Vocabulary Neural Machine Translation with Hybrid Wo...
Hayahide Yamagishi
PDF
Chainerの使い方と自然言語処理への応用
Yuya Unno
PDF
EDI Certificates for Diploma
Dave Lee
PPT
John williams
María José Martín Martínez
PDF
AL SARABI CV
Ahmad M. Sarabi
PPTX
BIOCOMBUSTIBLES - biología general 16 (letras- san marcos)
scarlett torres
DOCX
RESUME
Scott Marshall
PDF
CV_WeifnegLi_2016
Weifeng Li
DOC
Nicolette Ure_Curriculum Vitae (2)
Nicolette Ure
PDF
Seo проектирование сайта
Михаил Харченко
PPTX
Serm управление репутацией в поисковых системах
Михаил Харченко
PPT
Peritonitis Linda Fajardo
Linda Fajardo Moreno
PPT
Peritonitis linda fajardo
Linda Fajardo Moreno
PPTX
Projet Presentation
Uttam Sahu
[ACL2016] Achieving Open Vocabulary Neural Machine Translation with Hybrid Wo...
Hayahide Yamagishi
Chainerの使い方と自然言語処理への応用
Yuya Unno
EDI Certificates for Diploma
Dave Lee
John williams
María José Martín Martínez
AL SARABI CV
Ahmad M. Sarabi
BIOCOMBUSTIBLES - biología general 16 (letras- san marcos)
scarlett torres
RESUME
Scott Marshall
CV_WeifnegLi_2016
Weifeng Li
Nicolette Ure_Curriculum Vitae (2)
Nicolette Ure
Seo проектирование сайта
Михаил Харченко
Serm управление репутацией в поисковых системах
Михаил Харченко
Peritonitis Linda Fajardo
Linda Fajardo Moreno
Peritonitis linda fajardo
Linda Fajardo Moreno
Projet Presentation
Uttam Sahu
Ad
Similar to [EMNLP2016読み会] Memory-enhanced Decoder for Neural Machine Translation
(20)
PDF
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Yuta Kikuchi
PDF
Memory-augmented Neural Machine Translation
Satoru Katsumata
PPTX
Attention-based NMT description
Toshiaki Nakazawa
PPTX
ニューラル機械翻訳の動向@IBIS2017
Toshiaki Nakazawa
PDF
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
PPTX
Variational Template Machine for Data-to-Text Generation
harmonylab
PDF
transformer解説~Chat-GPTの源流~
MasayoshiTsutsui
PPTX
A convolutional encoder model for neural machine translation
Satoru Katsumata
PPTX
[DL輪読会]Unsupervised Neural Machine Translation
Deep Learning JP
PDF
RNN-based Translation Models (Japanese)
NAIST Machine Translation Study Group
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
PDF
Deep Learningの基礎と応用
Seiya Tokui
PDF
Recurrent Neural Networks
Seiya Tokui
PDF
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
Hitomi Yanaka
PDF
Extract and edit
禎晃 山崎
PDF
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
Deep Learning JP
PDF
東京大学2021年度深層学習(Deep learning基礎講座2021) 第8回「深層学習と自然言語処理」
Hitomi Yanaka
PDF
Deep nlp 4.2-4.3_0309
cfiken
PDF
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
Takashi YAMAMURA
DOCX
レポート深層学習Day3
ssuser9d95b3
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Yuta Kikuchi
Memory-augmented Neural Machine Translation
Satoru Katsumata
Attention-based NMT description
Toshiaki Nakazawa
ニューラル機械翻訳の動向@IBIS2017
Toshiaki Nakazawa
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
Variational Template Machine for Data-to-Text Generation
harmonylab
transformer解説~Chat-GPTの源流~
MasayoshiTsutsui
A convolutional encoder model for neural machine translation
Satoru Katsumata
[DL輪読会]Unsupervised Neural Machine Translation
Deep Learning JP
RNN-based Translation Models (Japanese)
NAIST Machine Translation Study Group
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Deep Learningの基礎と応用
Seiya Tokui
Recurrent Neural Networks
Seiya Tokui
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
Hitomi Yanaka
Extract and edit
禎晃 山崎
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
Deep Learning JP
東京大学2021年度深層学習(Deep learning基礎講座2021) 第8回「深層学習と自然言語処理」
Hitomi Yanaka
Deep nlp 4.2-4.3_0309
cfiken
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
Takashi YAMAMURA
レポート深層学習Day3
ssuser9d95b3
More from Hayahide Yamagishi
(15)
PPTX
[PACLING2019] Improving Context-aware Neural Machine Translation with Target-...
Hayahide Yamagishi
PDF
[修論発表会資料] 目的言語の文書文脈を用いたニューラル機械翻訳
Hayahide Yamagishi
PDF
[論文読み会資料] Beyond Error Propagation in Neural Machine Translation: Characteris...
Hayahide Yamagishi
PDF
[ACL2018読み会資料] Sharp Nearby, Fuzzy Far Away: How Neural Language Models Use C...
Hayahide Yamagishi
PDF
[NAACL2018読み会] Deep Communicating Agents for Abstractive Summarization
Hayahide Yamagishi
PDF
[論文読み会資料] Asynchronous Bidirectional Decoding for Neural Machine Translation
Hayahide Yamagishi
PDF
[ML論文読み会資料] Teaching Machines to Read and Comprehend
Hayahide Yamagishi
PDF
[EMNLP2017読み会] Efficient Attention using a Fixed-Size Memory Representation
Hayahide Yamagishi
PDF
[ML論文読み会資料] Training RNNs as Fast as CNNs
Hayahide Yamagishi
PDF
入力文への情報の付加によるNMTの出力文の変化についてのエラー分析
Hayahide Yamagishi
PDF
[ACL2017読み会] What do Neural Machine Translation Models Learn about Morphology?
Hayahide Yamagishi
PDF
Why neural translations are the right length
Hayahide Yamagishi
PDF
A hierarchical neural autoencoder for paragraphs and documents
Hayahide Yamagishi
PDF
ニューラル論文を読む前に
Hayahide Yamagishi
PPTX
ニューラル日英翻訳における出力文の態制御
Hayahide Yamagishi
[PACLING2019] Improving Context-aware Neural Machine Translation with Target-...
Hayahide Yamagishi
[修論発表会資料] 目的言語の文書文脈を用いたニューラル機械翻訳
Hayahide Yamagishi
[論文読み会資料] Beyond Error Propagation in Neural Machine Translation: Characteris...
Hayahide Yamagishi
[ACL2018読み会資料] Sharp Nearby, Fuzzy Far Away: How Neural Language Models Use C...
Hayahide Yamagishi
[NAACL2018読み会] Deep Communicating Agents for Abstractive Summarization
Hayahide Yamagishi
[論文読み会資料] Asynchronous Bidirectional Decoding for Neural Machine Translation
Hayahide Yamagishi
[ML論文読み会資料] Teaching Machines to Read and Comprehend
Hayahide Yamagishi
[EMNLP2017読み会] Efficient Attention using a Fixed-Size Memory Representation
Hayahide Yamagishi
[ML論文読み会資料] Training RNNs as Fast as CNNs
Hayahide Yamagishi
入力文への情報の付加によるNMTの出力文の変化についてのエラー分析
Hayahide Yamagishi
[ACL2017読み会] What do Neural Machine Translation Models Learn about Morphology?
Hayahide Yamagishi
Why neural translations are the right length
Hayahide Yamagishi
A hierarchical neural autoencoder for paragraphs and documents
Hayahide Yamagishi
ニューラル論文を読む前に
Hayahide Yamagishi
ニューラル日英翻訳における出力文の態制御
Hayahide Yamagishi
Recently uploaded
(10)
PDF
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
QY Research株式会社
PDF
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
QY Research株式会社
PDF
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
QY Research株式会社
PDF
商用ウェブカメラ市場:世界の産業現状、競合分析、シェア、規模、動向2025-2031年の予測
snow326214
PDF
限外ろ過膜調査レポート:市場規模、シェア、産業分析データ、最新動向2025-2031 YH Research
2418867459
PDF
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
h_yama2396
PDF
細胞培養用バイオリアクターおよび発酵槽市場規模の成長見通し:2031年には2823百万米ドルに到達へ
yhresearch
PDF
世界半導体用酸化ハフニウム市場のサプライチェーン解析:上流、下流、収益モデル分析2025-2031
2418867459
PDF
Qlik TECH TALK セミナー:What's New In Qlik ~ 2025年7月リリース最新機能のご紹介
QlikPresalesJapan
PDF
グローバルロープウェイ用スチールワイヤーロープ市場2025:主要企業のシェア、売上動向、競争戦略
yhresearch
【QYResearch】人形ロボット産業の市場構造と今後の発展方向に関する分析レポート
QY Research株式会社
【QYResearch】グローバルコネクタ市場の動向と将来展望に関する詳細な分析報告
QY Research株式会社
【QYResearch】グローバル農業機械市場の動向分析と成長戦略に関する総合調査報告
QY Research株式会社
商用ウェブカメラ市場:世界の産業現状、競合分析、シェア、規模、動向2025-2031年の予測
snow326214
限外ろ過膜調査レポート:市場規模、シェア、産業分析データ、最新動向2025-2031 YH Research
2418867459
XCMSを用いた質量分析データ処理_BioCAsia2021_yamamoto.pdf
h_yama2396
細胞培養用バイオリアクターおよび発酵槽市場規模の成長見通し:2031年には2823百万米ドルに到達へ
yhresearch
世界半導体用酸化ハフニウム市場のサプライチェーン解析:上流、下流、収益モデル分析2025-2031
2418867459
Qlik TECH TALK セミナー:What's New In Qlik ~ 2025年7月リリース最新機能のご紹介
QlikPresalesJapan
グローバルロープウェイ用スチールワイヤーロープ市場2025:主要企業のシェア、売上動向、競争戦略
yhresearch
[EMNLP2016読み会] Memory-enhanced Decoder for Neural Machine Translation
1.
Memory-enhanced Decoder for Neural
Machine Translation Mingxuan Wang, Zhengdong Lu, Hang Li and Qun Liu 2/22 EMNLP読み会 紹介: B4 山岸駿秀
2.
Introduction • Attention-based NMT
(RNNsearch) の成功 [Bahdanau+ 2015, ICLR] • 入力文全体を保存し、部分的に用いて出力することは有用である • Neural Turing Machine (NTM) [Graves+ 2014, arXivにのみ投稿] • ベクトルを格納する数個のメモリと、重みベクトルによるヘッドを持つ • 入力時にメモリの状態を読み込み、出力 • 出力と同時にメモリを書き換える • どのメモリをどれだけ読む/書くのかをヘッドの重みを用いて決定 • ヘッドの重みを学習する • これらを組み合わせ、外部メモリを持つRNNsearchを提案 • MEMDECと呼ぶ • 生成の後半で使うような情報を保存できる可能性がある 1
3.
※ デコーダ側のみ 2
4.
NMT with improved
attention • 入力x (xの文長はTx) がある • Encoderの単語jの隠れ層hjは、メ モリMsとして格納 • (1)を導出したい • (2): Decoderの時刻tでの隠れ層 • g()にはGRUを使用 • (3): Attentionベクトル • Wa、Uaは重み行列 3
5.
NMT with improved
attention • Groundhog (BahdanauらによるRNNsearchの実装) では、αt,jの計算 に前の出力yt-1が用いられていない • 前の出力を用いることは有用なのではないだろうか • 今回は、以下の計算式で計算した • H() = tanh() (GRUの方が性能がよいが、簡略化のためtanhを使用) • eはyt-1のembedding 4
6.
5
7.
Updating • MBは今回新たに追加する外部メモリ • Wはそれぞれ重み行列 •
メモリも更新 6
8.
Prediction • Bahdanauらの提案した手法によって単語を予測する • “ωy
is the parameters associated with the word y.” 7
9.
Reading Memory-state • MBはn
(メモリセルの数) * m (セルの次元数)の行列 • wR tはn次元、rtはm次元のベクトル • wR tは以下のようにして更新 • 、 • wR gはm次元のベクトル • vはm次元のベクトル、W、Uはm*m次元の行列 8
10.
Writing to Memory-states •
ERASEとADDの操作をすることでMBを更新 • 初めにERASE処理 • wW t、μERS tはm次元のベクトル、WERSはm*mの行列 • 次にADD処理 • μADD tはm次元のベクトル、WADDはm*mの行列 • wRとwWに同じ重みを用いると性能が良かった 9
11.
Setting • 中英翻訳 • 学習データ:
LDC corpus • 1.25M 文対 (中国語の単語数: 27.9M、英語の単語数: 34.5M) • 50単語以上の文はNMTでは不使用 (Mosesでは使用) • NMTでは、語彙数を30,000語に制限 • テストデータ: NIST2002 〜 2006 (MT02 〜 06と記述) • embedding: 512、hidden size: 512 • メモリセルの数n = 8、メモリセルの次元m = 1024 • Adadelta (ε = 10-6、ρ = 0.95)で最適化、batch size = 80 • 確率0.5でDropout 10
12.
Pre-training • パラメータ数がとても多いので、pre-trainingを行う 1. 外部メモリなしのRNNsearchを学習させる 2.
1を元に、EncoderとMEMDECのパラメータを学習させる • 以下の、メモリ状態に関係あるパラメータは学習させない 3. 全てのパラメータを用いてfine-tuningを行う 11
13.
Comparison system • Moses
(state-of-the-art SMT) • Groundhog (Baseline) • BahdanauらのAttention-based NMT (RNNsearch) の実装 • RNNsearch* (strong Baseline) • 一つ前の出力をAttentionベクトルCtの計算に用いるシステムを追加 • dropoutも追加 • coverage (state-of-the-art NMT, Tu+, ACL2016) • 入力の表現のカバレッジを用いる • MEMDEC (提案手法) 12
14.
Result 1 • 前の出力を用いてAttentionを計算するだけでもBLEUが上がる •
Mosesと比較して最大で5.28、Groundhogと比較して最大で4.78の改善 13
15.
Result 2 • Pre-trainingするだけで+1.11 •
しなくとも、RNNSearch*に比べて+1.04 • メモリセルの数にrobustである 14
16.
Result 3 15
17.
Conclusion • RNN Decoderを外部メモリを用いて拡張した •
メモリの数は大きく影響しない • 結果、中英翻訳のスコアを大きく改善できた • アテンションの計算に前の出力を用いることも有用である 16
Editor's Notes
#8:
Stの計算時には、それらをcombineする?
Download