SlideShare a Scribd company logo
Embedding Watermarks into Deep Neural Networks
(深層ニューラルネットワークへの電⼦透かしの埋め込み)
ICMRʼ17 Best Paper Award
MIRU 2017
内⽥祐介*
株式会社ディー・エヌ・エー
永井有希
KDDI総合研究所
酒澤茂之*
⼤阪⼯業⼤学
佐藤真⼀
国⽴情報学研究所
* 本発表は著者らがKDDI総合研究所所属中に
⾏った研究 (ICMR’17) をもとにしています
Deep Learning
Deep Learning
→   データが命
データは当然重要な資産。その資産を
時間をかけて学習したモデルパラメータも重要な資産
モデルパラメータ
! モデルパラメータは効率的な研究開発において重要
" 研究成果の再現
" ⼤規模データで学習されたモデルパラメータのFine-tuneにより
⼩数データ・短時間で⾼精度なモデルが構築可能
研究開発的な観点
Trained models
(e.g. Model Zoo)
Researchers Developers
Researchers Developers
Share
Sharing trained models helps rapid progress
for research and development.
! 独⾃に学習したモデルパラメータは重要な資産
! 権利保護によりモデルパラメータの不正利⽤を防ぎたい
ビジネス的な視点
Researchers Developers
Customers
(Business)
license
product /
service
💰
•  前向きな考え⽅をすると、適切な権利保護により
将来的にはモデルパラメータを売買できるような
プラットフォームビジネスができるかも(e.g. Alexa Skills Store)
! モデルパラメータを画像や⾳楽のように技術で権利保護できないか?
New Challenge
! モデルパラメータを画像や⾳楽のように技術で権利保護できないか?
New Challenge
→ 電⼦透かしによる
  不正利⽤検出
1.  Deep Neural Networks (DNN) への電⼦透かしの埋め込みという
新たな問題を提起
"  DNNへの電⼦透かしへの要求項⽬、埋め込みパターン、攻撃パターンを定義
2.  DNNへの電⼦透かしの埋め込み⽅法として汎⽤的な⼿法を提案
"  電⼦透かしを埋め込む損失関数を定義することで学習時に埋め込み
3.  広範な実験によりDNNへの電⼦透かしの埋め込みの実現性を検証
"  パラメータの65%をPruningしても消えない電⼦透かし
本研究の貢献
DNNへの電⼦透かしの埋め込み:問題定義
画像ドメイン DNNドメイン
忠実性
Fidelity
透かしの埋め込みによって可
能な限り元画像が(視覚的
に)劣化しないこと
透かしの埋め込みによってホスト
ネットワークのタスクの精度が低
下しないこと
ロバスト性
Robustness
画像圧縮や切り抜き、リサイ
ズ等の画像処理によって埋め
込んだ透かしが消えないこと
Fine-tuningやモデル圧縮といった
モデル変更によって埋め込んだ透
かしが消えないこと
DNNへの電⼦透かしの埋め込みへの要求項⽬
※ホストネットワーク=埋め込み対象のDNN
※埋め込み容量、埋め込み・検出速度、セキュリティ等の要件は画像と同じ
! どのように電⼦透かしを埋め込むか
" 学習済みのモデルに後から埋め込む(画像では普通)
•  ホストネットワークの精度が⼤きく劣化
" 学習しながら電⼦透かしを埋め込む
•  精度を維持しながら埋め込みが可能、以降はこのケースのみを考える
•  学習しながらの埋め込みも下記の3パターンが考えられる
DNNへの電⼦透かし埋め込みパターン
埋め込みパターン Train-to-embed Fine-tune-to-embed Distill-to-embed
ホストネットワークを
最初から学習する際に
埋め込み
ホストネットワークを
fine-tuneする際に埋め
込み
ホストネットワークを
distillationで学習する際
に埋め込み
Fine-tune?
Use label?
! Fine-tuning
" 訓練時間の短縮、転移学習、⼩数データでの学習のために利⽤
" 追加学習によりモデルパラメータが変化
" (意図的・⾮意図的にせよ)⼀番多い攻撃パターン
! モデル圧縮
" モデルのメモリサイズ圧縮、処理時間の短縮のために利⽤
" ⾮可逆圧縮によりモデルパラメータが変化
" 実応⽤においてホットな技術
想定される電⼦透かしへの攻撃
PROPOSED FRAMEWORK
! ホストネットワークの (flatten) 重みをw、埋め込みキーをXとすると
X w ≧ 0 により透かしを定義
! 学習過程でオリジナルのタスクのロスに加えて
所望の透かしになるように埋め込みロス(embedding loss)を定義
! オリジナルのタスクの精度を担保しつつ、透かしを埋め込む
アプローチ
Weightw
Secret Key X
(fixed)
1 if ≧0
0 otherwise= → Watermark
より⼀般的には、wを⼊⼒とし2値出⼒の
DNNと定義しても良い
(その固定パラメータがsecret key)
Embedding lossによるDNNへの電⼦透かしの埋め込み
出⼒ ラベル
タスクのロス
ホストネットワーク
E0
Embedding lossによるDNNへの電⼦透かしの埋め込み
出⼒ ラベル
タスクのロス
ホストネットワーク
E0
Weightw
パラメータ
(e.g. 3x3x64x64)
出⼒フィルタ⽅向
に平均化+flatten
Embedding lossによるDNNへの電⼦透かしの埋め込み
出⼒ ラベル
タスクのロス
ホストネットワーク
E0
パラメータ
(e.g. 3x3x64x64)
出⼒フィルタ⽅向
に平均化+flatten
Secret
Key X
(fixed)
Weightw
Sigmoid
出⼒
Embedding lossによるDNNへの電⼦透かしの埋め込み
出⼒ ラベル
タスクのロス
ホストネットワーク
E0
パラメータ
(e.g. 3x3x64x64)
出⼒フィルタ⽅向
に平均化+flatten
Secret
Key X
(fixed)
Weightw
Sigmoid
出⼒ 透かし
埋め込みロス
1
0
1
1
ER
Embedding lossによるDNNへの電⼦透かしの埋め込み
出⼒ ラベル
タスクのロス
ホストネットワーク
パラメータ
(e.g. 3x3x64x64)
出⼒フィルタ⽅向
に平均化+flatten
Secret
Key X
(fixed)
Weightw
Sigmoid
出⼒ 透かし
埋め込みロス
1
0
1
1
E0
ER
E = E0 + λER
タスクのロスおよび
埋め込みロスを同時に最⼩化
Embedding lossによるDNNへの電⼦透かしの埋め込み
出⼒ ラベル
タスクのロス
ホストネットワーク
パラメータ
(e.g. 3x3x64x64)
出⼒フィルタ⽅向
に平均化+flatten
Secret
Key X
(fixed)
Weightw
Sigmoid
出⼒ 透かし
埋め込みロス
1
0
1
1
E0
ER
E = E0 + λER
Parameter regularizer
として実装可能
(cf. weight decay)
タスクのロスおよび
埋め込みロスを同時に最⼩化
EXPERIMENTS
実験設定
データセット
CIFAR-10 (60,000 32 x 32 color images, 10 classes)
- 50,000 images for training
- 10,000 images for test
ネットワークアー
キテクチャおよび
パラメータ
-  WideResNet [4]
(N = 1, k = 4)
-  SGD with Nesterov
momentum
-  cross-entropy loss
-  the initial learning rate = 0.1
-  weight decay = 5.0 x10-4
-  momentum = 0.9
-  minibatch size = 64
-  λ = 0.01
電⼦透かし 256 bit (T = 256)
埋め込み対象 conv2 group
[4] S. Zagoruyko and N. Komodakis. Wide residual networks. In Proc. of ECCV, 2016.
conv1
conv2
group
conv3
group
conv4
group
arg-pool
fc
M= 36864(3 x 3 x 64 x 64 )
! Secret Key X は任意の⾏列
! 本発表では単純な下記の3通りを検証
" Xdirect
wの1つの次元に埋め込む⾏列
" Xdiff
wの2つの次元の差に埋め込む⾏列
" Xrandom
wの全ての次元に分散して埋め込む⾏列
X ~ N(0, 1)
Fidelity: Train-to-embed(スクラッチからの学習時に埋め込み)
Secret Key X
(fixed)
Weightw
sign
透かし
1
1
1 1
1
1
1-1
-11
1
-1-1
-1
Fidelity: Train-to-Embed(スクラッチからの学習時に埋め込み)
Training curves for the host network on CIFAR-10
! 3種類の X 全て埋め込みは可能
! randomがテストエラーおよび埋め込みロスともに最良
(埋め込みなしと同等のテストエラー)
The best test errors and embedding losses
Testerror
Trainingloss
! 再学習を⾏う場合でも、埋めなしと同等のテストエラー
Fidelity: Fine-tune-to-embed and Distill-to-embed
CIFAR-10で学習したネットワークを
CIFAR-10で再学習
Caltech-10で学習したネットワークを
CIFAR-10で再学習
CIFAR-10で学習したネットワークの
出⼒を利⽤してCIFAR-10で再学習
Robustness: fine-tuning
! 透かしを埋め込んだモデルをfine-tuningして透かしが消えるか?
" 同⼀ドメインでのfine-tuning (CIFAR-10 → CIFAR-10)
" 異なるドメインでのfine-tuning (Caltech-101 → CIFAR-10)
! どちらのケースでもfine-tuningで透かしは消えない
テストエラーも埋め込みなし (8.04%) と同等
Note: Caltech-101 dataset were resized to 32 x 32 for compatibility with the CIFAR-10
dataset though their original sizes is roughly 300 x 200.
埋め込みロス
before after
! モデル圧縮で透かしが消えるか?
" lossless : Huffman cording [5]
" lossy : weight quantization[5, 6], parameter pruning [5, 6]
Robustness: model compression
[5] S. Han, H. Mao, and W. J. Dally. Deep compression: Compressing deep neural networks with pruning, trained
quantization and huffman coding. In Proc. of ICLR, 2016.
[6] S. Han, J. Pool, J. Tran, and W. J. Dally. Learning both weights and connections for efficient neural networks.
In Proc. of NIPS, 2015.
! 重みパラメータのうち、⼩さいもの (Ascending) N %を0とした際の
埋め込みロスと透かしのビットエラー率
! パラメータの65%を削除してもビットエラー率は0
Robustness: compression (parameter pruning)
Embeddingloss
Pruning rate
0.0 0.2 0.4 0.6 0.8 1.0
Biterrorrate
0.5
0.4
0.3
0.2
01
0.0
Pruning rate
0.2 0.4 0.6 0.8 1.00.0
DISCUSSION
! It is well-known that deep neural networks have many local
minima, and all local minima are almost optimal [8, 9].
Why Did Our Approach Work So Well?
[7] A. Choromanska et al. The loss surfaces of multilayer networks. In Proc. of AISTATS, 2015.
[8] Y. Dauphin et al. Identifying and attacking the saddle point problem in high-dimensional non-convex
optimization. In Proc. of NIPS, 2014.
Loss
Parameter space
Standard SGD
! It is well-known that deep neural networks have many local
minima, and all local minima are almost optimal [8, 9].
! Our embedding regularizer guides model parameters toward
a local minima, which has the desired watermark.
! Let us assume that we want to
embed the watermark “11”…
Why Did Our Approach Work So Well?
[7] A. Choromanska et al. The loss surfaces of multilayer networks. In Proc. of AISTATS, 2015.
[8] Y. Dauphin et al. Identifying and attacking the saddle point problem in high-dimensional non-convex
optimization. In Proc. of NIPS, 2014.
Loss
Parameter space
00 01 10 11
Detected
watermark
Standard SGD
SGD with
Embedding Loss
! Limitations
" Watermark overwriting
" Robustness against distilling, model transformations
! Alternatives to the watermarking approach
" Digital fingerprinting
Future Work
…and many other things remain as future work. (see paper!)
1.  Deep Neural Networks (DNN) への電⼦透かしの埋め込みという
新たな問題を提起
"  DNNへの電⼦透かしへの要求項⽬、埋め込みパターン、攻撃パターンを定義
2.  DNNへの電⼦透かしの埋め込み⽅法として汎⽤的な⼿法を提案
"  電⼦透かしを埋め込む損失関数を定義することで学習時に埋め込み
3.  広範な実験によりDNNへの電⼦透かしの埋め込みの実現性を検証
"  様々な埋め込みパターンでホストネットワークの性能を低下させずに
埋め込み可能であることを⽰した
"  Fine-tuningやパラメータpruningにロバストであることを⽰した
Conclusions
Our code is available at https://github.com/yu4u/dnn-watermark .
Thank you!
For more details, please refer to…
Y. Uchida, Y. Nagai, S. Sakazawa, and S. Satoh,
“Embedding Watermarks into Deep Neural Networks,”
in Proc. of International Conference on Multimedia Retrieval 2017.

More Related Content

PDF
先端技術とメディア表現1 #FTMA15
PDF
[DL輪読会]Deep Learning 第15章 表現学習
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
PDF
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
PDF
機械学習モデルの判断根拠の説明
PPTX
報酬設計と逆強化学習
PDF
研究効率化Tips Ver.2
PDF
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
先端技術とメディア表現1 #FTMA15
[DL輪読会]Deep Learning 第15章 表現学習
SSII2022 [OS3-02] Federated Learningの基礎と応用
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
機械学習モデルの判断根拠の説明
報酬設計と逆強化学習
研究効率化Tips Ver.2
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...

What's hot (20)

PDF
研究室における研究・実装ノウハウの共有
PPTX
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
PPTX
学習時に使ってはいないデータの混入「リーケージを避ける」
PPTX
【DL輪読会】大量API・ツールの扱いに特化したLLM
PDF
機械学習モデルの判断根拠の説明(Ver.2)
PDF
【メタサーベイ】Neural Fields
PDF
Active Learning 入門
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
PDF
学位論文の書き方メモ (Tips for writing thesis)
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
PDF
新分野に飛び入って半年で業績を作るには
PDF
工学系大学4年生のための論文の読み方
PDF
Graph Attention Network
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
PDF
機械学習のためのベイズ最適化入門
PDF
多様な強化学習の概念と課題認識
PDF
相関と因果について考える:統計的因果推論、その(不)可能性の中心
PDF
Transformerを多層にする際の勾配消失問題と解決法について
PDF
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
研究室における研究・実装ノウハウの共有
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
学習時に使ってはいないデータの混入「リーケージを避ける」
【DL輪読会】大量API・ツールの扱いに特化したLLM
機械学習モデルの判断根拠の説明(Ver.2)
【メタサーベイ】Neural Fields
Active Learning 入門
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
学位論文の書き方メモ (Tips for writing thesis)
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
新分野に飛び入って半年で業績を作るには
工学系大学4年生のための論文の読み方
Graph Attention Network
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
機械学習のためのベイズ最適化入門
多様な強化学習の概念と課題認識
相関と因果について考える:統計的因果推論、その(不)可能性の中心
Transformerを多層にする際の勾配消失問題と解決法について
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Ad

Viewers also liked (7)

PDF
Deep Networks with Neuromorphic VLSI devices
PDF
「人工知能で作る楽しい未来」
PDF
PDF
Network flow problems
PPTX
Ford Fulkerson Algorithm
PDF
Low power vlsi design ppt
PDF
機械学習によるデータ分析まわりのお話
Deep Networks with Neuromorphic VLSI devices
「人工知能で作る楽しい未来」
Network flow problems
Ford Fulkerson Algorithm
Low power vlsi design ppt
機械学習によるデータ分析まわりのお話
Ad

Similar to Embedding Watermarks into Deep Neural Networks (20)

PDF
Deep Learningの基礎と応用
PDF
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
PPTX
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
PDF
文献紹介:R-MNet: A Perceptual Adversarial Network for Image Inpainting
PDF
Learning to forget continual prediction with lstm
PDF
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
PDF
Deep Learning
PDF
[IBIS2017 講演] ディープラーニングによる画像変換
PPTX
「機械学習とは?」から始める Deep learning実践入門
PDF
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
PDF
[論文紹介] Convolutional Neural Network(CNN)による超解像
PDF
効率的学習 / Efficient Training(メタサーベイ)
PPTX
Deep Learningについて(改訂版)
PDF
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
PPTX
深層学習の数理
PPTX
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
PDF
20150930
PDF
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
PDF
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
PDF
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
Deep Learningの基礎と応用
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
文献紹介:R-MNet: A Perceptual Adversarial Network for Image Inpainting
Learning to forget continual prediction with lstm
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
Deep Learning
[IBIS2017 講演] ディープラーニングによる画像変換
「機械学習とは?」から始める Deep learning実践入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
[論文紹介] Convolutional Neural Network(CNN)による超解像
効率的学習 / Efficient Training(メタサーベイ)
Deep Learningについて(改訂版)
サルでもわかるディープラーニング入門 (2017年) (In Japanese)
深層学習の数理
[DL輪読会] Learning Finite State Representations of Recurrent Policy Networks (I...
20150930
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks

More from Yusuke Uchida (20)

PPTX
近年のHierarchical Vision Transformer
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
PPTX
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
PPTX
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
PPTX
SIGNATE 鰹節コンペ2nd Place Solution
PPTX
DRIVE CHARTを支えるAI技術
PPTX
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
PPTX
画像認識と深層学習
PPTX
Semi supervised, weakly-supervised, unsupervised, and active learning
PPTX
Deep Fakes Detection
PPTX
モデルアーキテクチャ観点からの高速化2019
PPTX
モデル高速化百選
PPTX
畳み込みニューラルネットワークの高精度化と高速化
PPTX
Humpback whale identification challenge反省会
PPTX
DeNAにおける先端AI技術活用のチャレンジ
PPTX
コンピュータビジョン技術の実応用とビジネス
PPTX
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
PPTX
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
PPTX
畳み込みニューラルネットワークの研究動向
PDF
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
近年のHierarchical Vision Transformer
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE 鰹節コンペ2nd Place Solution
DRIVE CHARTを支えるAI技術
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
画像認識と深層学習
Semi supervised, weakly-supervised, unsupervised, and active learning
Deep Fakes Detection
モデルアーキテクチャ観点からの高速化2019
モデル高速化百選
畳み込みニューラルネットワークの高精度化と高速化
Humpback whale identification challenge反省会
DeNAにおける先端AI技術活用のチャレンジ
コンピュータビジョン技術の実応用とビジネス
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
畳み込みニューラルネットワークの研究動向
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)

Embedding Watermarks into Deep Neural Networks