9. Algorithm 1 GAN training algorithm
for number of training iterations do
Sample minibatch of m noise samples[z(1)
,...,z(m)
]from noise prior pg(z).
Sample minibath of m examples[x(1)
,...,x(m)
]from data generating distribution pdata(x).
Update the discriminator by ascending its stochastic gradient:
∇θd
1
m
m∑
i=1
[log D(x(i)
) + log(1 − D(G(z(i)
)))].
Sample minibatch of m noise sample[z(1)
,...,z(m)
]from noise prior pg(z)].
Update the generator by descending its stochastic gradient:
∇θd
1
m
m∑
i=1
log(1 − D(G(z(i)
)))
end for
2.2 深層畳み込み敵対的生成ネットワーク
DCGAN と呼ばれ,GAN に畳み込みニューラルネットワークを用いて多層化することにより,
それよりもさらにリアルな画像生成を可能にしている [1].
2.3 条件付き敵対的生成ネットワーク
conditionalGAN と呼ばれ(以下 cGAN と呼ぶ),画像から画像への翻訳問題に対する一般的な
解決策として発表されたものである [9].学習方法は GAN の Generator に入力である Z に正解ラ
ベルを同付し学習を行い,Discriminator に入力する G(Z) と X にも正解ラベルを同付し学習を
行う.つまり Generator には,この画像を生成してほしいという答えを教えながら生成を行わせ,
Discriminator には,入力された画像が生成された G(Z) なのか本物画像 X なのかを教えながら
判別させる手法である.
構成を図 2.1 に示す.
図 2.1 conditionalGAN
損失関数を以下に示す.
LG = log(1 − D(x, G(x, z)))
LD = log(D(x, y)) − log(1 − D(x, G(x, z)))
5
40. 参考文献
[1] AlecRadford, LukaMetz, S.: UNSUPERVISED REPRESENTATION LEARNING WITH
DEEP CONVOLUTIONAL GENERATIVE AVDERSARIAL NETWORKS, arXiv,
Vol. 1511.06434v2[cs.LG] (2016).
[2] BoZhao, J. et al.: Memory-Augmented Attribute Manipulation Networks for Interactive
Fashion Search, CVPR, Vol. 10.1109/CVPR.2017.652 (2017).
[3] DevashishShanker et al.: Deep Learning based Large Scale Visual Recommendation and
Search for E-Commerce, arXvi, Vol. 1703.02344v1[cs.CV] (2017).
[4] Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S.,
Courville, A. and Bengio, Y.: Generative Adversarial Nets, Advances in Neural Infor-
mation Processing Systems 27 (Ghahramani, Z., Welling, M., Cortes, C., Lawrence,
N. D. and Weinberger, K. Q., eds.), Curran Associates, Inc., pp. 2672–2680 (online),
http://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf (2014).
[5] Jaiswal, A. et al.: Bidirectional Conditional Generative Adversarial Networks, arXiv,
Vol. 1711.07461v4[cs.LG] (2018).
[6] Jun-YanZhu, TaesungPark, P. A.: Unpaired Image-to-Image Translation using Cycle-
Consistent Adversarial Networks, arXiv, Vol. 1703.10593v6[cs.CV] (2018).
[7] JunshiHuang et al.: Cross-domain Image Retrieval with a Dual Attribute-aware Ranking
Network, arXvi, Vol. 1505.07922v1[cs.CV] (2015).
[8] Lorbert, A., Ben-Zvi, N., Ciptadi, A. and Oks, E.: Toward better reconstruction of style
images with GANs (2017).
[9] PhillipIsola, Jun-YanZhu, T. A.: Image-to-Image Translation with Conditional Adversar-
ial Networks, arXiv, Vol. 1611.07004v1[cs.CV] (2016).
[10] RuiningHe et al.: Sherlock:Sparse Hierarchical Embeddings for Visually-aware One-class
Collaborative Filtering, arXvi, Vol. 1604.05813v1[cs.IR] (2016).
[11] ShizhanZhu, SanjaFidler, R. et al.: Be Your Own Prada:Fashion Synthesis with Structural
Coherence, arXiv, Vol. 1710.07346v1[cs.CV] (2017).
[12] Technologies, S. T.: VAE と GAN を活用したファッションアイテム検索システム,
https://tech.starttoday-tech.com/entry/retrieval using vae gan.
[13] Technologies, S. T.: コ ー デ ィ ネ ー ト の 自 動 生 成 ,https://tech.starttoday-
tech.com/entry/outfit generator.
[14] YunchengLi, LiangLiangCao, J. J. F. I.: Mining Fashion Outfit Composition Using
An End-to-End Deep Learning Approach on Set Data, arXiv, Vol. 1608.03016v2[cs.CV]
(2017).
[15] ZaidAI-Halah et al.: Fashion Forward:Forecasting Visual Style in Fashion, arXvi,
Vol. 1705.06394v2[cs.CV] (2017).
36
41. [16] ZiweiLiu, PingLuo, S. et al.: DeepFashion:Powering Robust Clothes Recognition and
Retrieval with Rich Annotations, CVPR, Vol. 10.1109/CVPR.2016.124 (2016).
37