No. カテゴリー 5% · 105 長崎県 長崎市 bistrobar avanti サービス 飲食業 5% 106 長崎県 長崎市 BLESS長崎店 小売業 貴金属・服飾品 5% 107 長崎県
第1回NIPS読み会・関西発表資料 篠崎
-
Upload
shinozakitakashi -
Category
Engineering
-
view
89 -
download
0
Transcript of 第1回NIPS読み会・関西発表資料 篠崎
Synthesizing the preferred inputs for neurons in neural networks via deep generator networks
Takashi ShinozakiCiNet, NICTNov 12, [email protected]
紹介論文
• A. Nguyen, A. Dosovitskiy, J. Yosinski, T. Brox, J. Clune• “Synthesizing the preferred inputs for neurons in
neural networks via deep generator networks”
• メインはワイオミング大学
• フライブルク大学の可視化技術がベース
• Dosovitskiy & Brox 2016 arXiv• “Generating images with
perceptual similarity metrics based on deep networks”
はじめに
• Deep Neural Network (DNN)の可視化は重要
• 基礎科学として
• DNNの改良のため
• 可視化の基本
• Activation Maximization (AM) [Erhan+2009]• 反応を最大化する入力を探す
• 可視化する先を制限するpriorが必要
• 自然画像なら自然画像のprior
様々なprior
• Hand-designed priors• Gaussian blur [Yosinski+2015]• α-norm [Simonyan+2014]• Total variation [Mahendran+2016]• Jitter [Mordvintsev+2015]• Data-driven patch [Wei+2015]• Center-bias regularization [Nguyen+2016]• Mean images [Nguyen+2016]
• 本研究ではImageNetを学習したCNNをpriorに!!
可視化の為の生成モデル
• これまでの生成モデル
• Probabilistic model [Lee+2009]• Auto-encoder [Alain+2014]• Stochastic model [Kingma+2014]• Recurrent networks [Theis+2015]
• Generative Adversarial Network (GAN)• [Goodefellow+2014]• 最近の流行、特にDCGAN
• Deep Convolutional GAN [Radford+2015]
Ex. Arithmetics over semantic space
• Radford et al., 2016• “Unsupervised Representation Learning with Deep
Convolutional Generative Adversarial Networks”
DCGANとは、、、
•Autoencoderの新しい形• 逆向き結合のAutoencoder
Realor
Fake
Randominput
DCGAN
Image output
Autoencoder
Imageoutput
Imageinput
本研究の目的
• ImageNetで学習したCNNをpriorとして
• GANのような生成モデルである
Deep Generative Network (DGN)を使って
• Activation Maximization (AM)な画像を生成する
• DGN-AMを開発して、その性能を検証
ネットワーク詳細 (1/2)
• 前段階でGenerator Gを学習
• VAEGAN的学習?
Realor
Fake
圧縮表現
yi=E(xi)生成画像
G(yi)元画像
xi
DiscriminatorD
ComparatorC
EncoderE
GeneratorG
生成画像
C(G(yi))C(xi)
判別結果
D(G(yi))D(xi)
比較
比較
比較
ネットワーク詳細 (2/2)
• ネットワークは固定して最適な圧縮表現を探索
• yiは [0,3σ]でクリッピング
• あらかじめEncoder Eの出力分布を取っておく
圧縮表現
yi=E(xi)生成画像
G(yi)
target DNNΦ
=可視化するCNNGenerator
G
featureh
ここを最適化
Fig.3: Priorの汎用性 (1/3)
• MIT Places datasetで学習したDNN[Zhou+2014]• Priorは普通のCaffeNet• いずれもいい感じに可視化できた
• ネットの基本構造が同じなため?
Fig.5: Priorの汎用性 (3/3)
• もっと根本から異なるネットワークでも検証
• 学習データは同一(ImageNet)• GoogLeNet [Szegedy+2015], ResNet [Zhang+2016]• 構造が違うほど性能は低下