NVIDIA Deep Learning SDK を...
Transcript of NVIDIA Deep Learning SDK を...
森野慎也, シニア CUDA エンジニア,プラットフォームビジネス本部, エヌビディア合同会社
「NVIDIA Deep Learning SDK を利用した画像認識」
2
GPU INFERENCE ENGINE
高性能なフレームワークで、GPU上の推論エンジンを、容易に開発する。
ディープラーニングによる推論を用いた、製品展開のためのソリューション
トレーニング済みネットワーク、ターゲットGPUに対して、推論エンジンの性能を最適化
32-bit、16-bit 演算を用いた推論エンジン
Hyperscale, ADAS, Embedded 向け
HTTP (~10ms)
developer.nvidia.com/gpu-inference-engine
データセンターにおける GPU Inference Engine
画像分類 オブジェクト検知
音声認識 ---
ディープラーニングにおける最高の推論パフォーマンス
3
GPU INFERENCE ENGINEディープラーニングにおける最高の推論パフォーマンス
developer.nvidia.com/gpu-inference-engine
自動運転におけるGPU Inference Engine
歩行者検知 レーントラッキング
交通標識の認識
---
NVIDIA DRIVE PX 2
高性能なフレームワークで、GPU上の推論エンジンを、容易に開発する。
ディープラーニングによる推論を用いた、製品展開のためのソリューション
トレーニング済みネットワーク、ターゲットGPUに対して、推論エンジンの性能を最適化
32-bit、16-bit 演算を用いた推論エンジン
Hyperscale, ADAS, Embedded 向け
4
トレーニング と 推論(inference)
トレーニング 推論
モデル 種々のモデルを試す必要がある
モデルは決定済み
演算処理Back propagationによる
係数の最適化演算はForwardのみ係数も決定済み
バッチサイズ学習データが大量であり、バッチサイズは大きい
バッチサイズは、認識対象数。一般にトレーニングより小さい
プラットフォームマルチGPU、マルチノードを活用。
ストロングスケーリング
単一の端末で実行。メモリバンド幅の制約が強い混合精度演算が有効
要件の比較
5
ニューラルネットワークの実行性能最適化
参考:
S6136 - NVIDIA™ GIE: High-Performance GPU Inference EngineMichael Andersch GPU Architect, NVIDIA
6
最適なコンボリューションアルゴリズムは、コンボリューションレイヤの次元に依存する。
0.73
1.84 1.832.03 2.07
2.26
1.92 1.98
1.25
conv 1.1 conv 1.2 conv 2.1 conv 2.2 conv 3.1 conv 3.2 conv 4.1 conv 4.2 conv 5.0
Winogradによる実行性能向上 (GEMMを用いたコンボリューションと比較 VGG-E layers, N=1)
推論ソフトウエアの最適化課題 : 小さいバッチで、コンボリューションを高効率で演算する
7
推論ソフトウエアの最適化課題 : グラフ最適化
tensor
concat
1x1 conv.3x3 conv. 5x5 conv. 1x1 conv.
1x1 conv. 1x1 conv. max pool
input
8
推論ソフトウエアの最適化課題 : グラフ最適化
concat
max pool
input
next input
3x3 conv.
relu
bias
1x1 conv.
relu
bias
3x3 conv.
relu
bias
3x3 conv.
relu
bias
concat
1x1 conv.
relu
bias3x3 conv.
relu
bias
9
推論ソフトウエアの最適化グラフ最適化 : 縦方向に処理を融合
concat
max pool
input
next input
concat
1x1 CBR 3x3 CBR 5x5 CBR 1x1 CBR
1x1 CBR 1x1 CBR
10
推論ソフトウエアの最適化グラフ最適化: 横方向に処理を融合
concat
max pool
input
next input
concat
3x3 CBR 5x5 CBR 1x1 CBR
1x1 CBR
11
推論ソフトウエアの最適化グラフ最適化: Concatenationを除去
max pool
input
next input
3x3 CBR 5x5 CBR 1x1 CBR
1x1 CBR
12
推論ソフトウエアの最適化グラフ最適化: 並行実行(コンカレンシ)
max pool
input
next input
3x3 CBR 5x5 CBR 1x1 CBR
1x1 CBR
13
データレイアウト・テクスチャ
- GEMMによる行列演算で、事前に係数行列を転置
- NN/NT GEMMの利用( NT > NN > TN )
- テンソルレイアウト
- 例) NHalf2
- テクスチャメモリをコンボリューションに使用
- 13% 推論性能向上 (GoogLeNet, バッチサイズ 1)
メタパラメータ
4/26/2
016
14
テンソルフォーマット
• テンソルの内部表現では、隣り合ったイメージの値を交互に配置するレイアウトを用いる。
• 推論を16 bit演算で行った場合、NCHW レイアウトより、 非常に高速。
NHalf2
15
推論ソフトウエアの最適化課題: cuBLAS関数をより効率的に活用
GEMVをGEMMの代わりに使う
バッチサイズが小さいと、B行列が狭くなる
代わりにGEMVをバッチ実行する
16
PASCAL世代での推論の高速化高速な混合精度演算のサポート
推論向けのGPU製品では、新しいベクタ演算命令をサポートしていく。
複数要素の内積演算 : 8-bit 整数入力、32-bit 加算
等価なFP32演算と比べ、4倍のスループット
高い精度が必要なレイヤでは、フルスピードのFP32演算処理を利用
17
だけど、誰が実装してくれるの?
4/26/2016
18
GPU INFERENCE ENGINEニューラルネットワークの最適化
• ネットワークレイヤの融合
• Concatenationレイヤの除去
• カーネル特殊化
• ターゲットプラットフォームに対する
オートチューニング
• 最適なテンソルレイアウトの選択
• バッチサイズのチューニング
トレーニング済みのニューラルネットワーク
最適化された推論エンジン
developer.nvidia.com/gpu-inference-engine
19
GPU Inference Engine ワークフロー
DIGITS TRAINING TOOLS
OPTIMIZATION ENGINE
EXECUTION ENGINE
STRATEGY
20
GPU INFERENCE ENGINEパフォーマンス
バッチサイズ パフォーマンス 電力効率
Tesla M4 128 1153 images/s 20 images/s/W
Jetson TX1 2 133 images/s 24 images/s/W
developer.nvidia.com/gpu-inference-engine