画像のフィルタリング処理 講義内容haneishi/class/digitalgazo/8SpatialFiltering.pdf · 画像のフィルタリング処理 講義内容 実空間フィルタリング
画像処理技術による ダブルハイパー核の研究
-
Upload
ishmael-hopkins -
Category
Documents
-
view
58 -
download
0
description
Transcript of 画像処理技術による ダブルハイパー核の研究
画像処理技術によるダブルハイパー核の研究
京都大学大学院理学研究科物理第 2 教室原子核ハドロン研究室常見俊直(つねみとしなお)
1.導入: 元素と原子核2.人の脳の画像処理3.ダブルハイパー核用の 人工ニューラルネットワーク(一時期利用してたので、紹介)4. 7 段階の画像処理(最新)5.まとめ
周期表
Wikipedia より
元素の存在比率(太陽系)
原子番号
原子番号 14 の Si を 106 としたとき
Geochimica et Cosmochimica Acta Vol.53 pp.197-214 EDWARD ANDERS NICOLAS GREVESSE より
H
He
Li
Be
B
C
N
O
F
Ne
人に必須な元素
「人類の住む宇宙」より
人に必須な元素
「人類の住む宇宙」より
ビタミン B12
シアノコバラミン の CN を OH におきかえるとヒドロキソコバラミン
サンコバ点眼液
ビタミン B12 は、体重 70kg の人に 1.5mg しか存在しない。けれど、ゼロになると人は生きられない。
複雑なシステム(この場合はヒト)の場合には、少量の特殊な物質が意味をもつことがある。
Wikipedia より
周期表
Wikipedia より
陽子と中性子
1)原子番号:陽子の数
2)原子核には中性子も存在する。 クォークでいうと、アップクォークとダウンクォーク
3)陽子も中性子もバリオン(クォーク3つ)の仲間
動機
クォーク
核子とハイペロン 原子核とダブルハイパー核
より多くのダブルハイパー核を見つける
S=-2 の新しい原子核をみつける(ストレンジネス)
バリオン
ダブルハイパー核を調べたいわけ
• 原子核は、陽子と中性子からなる。• 陽子と中性子の間に働く力(核力)を調べ
たい。• けれども、陽子や中性子を使うと難しい。 なぜなら、「パウリの排他律」が効いてし
まい、 核力よりも排他律の効果をみてしまう。
新しい量ストレンジネスを導入する。
陽子と中性子の塊に、ハイペロンをいれると、大きな変化があるかも
KEK-E373
There are more eventsNAGARA event
1) Online trigger efficiency2) Other decay channel (neutral particle)
A couple of dozendouble hypernuclear eventsin the emulsions of KEK-E373
If we can establish a general scan, we canfind a couple of dozen double hypernuclear events.
元素イメージ: 一家に一枚周期表より
25cm×25cm
原子核乾板
New microscope
CCD 0.5M pixelsShutter 100 HzLED light
Depth of field 5m
目指すところ
赤い線は常見が引いたもの
画像処理(パターン認識)の産業利用
• デジタルカメラの顔認識(笑顔認識も)• クルマの自動駐車機能• スキーヤー同士の衝突検知• 手書き文字認識• 指紋認識• バーコード、ケータイの QR コード
エマルジョン自動処理もいまの技術力ならできる
近くをみるとき遠くをみるとき
眼球の仕組み
Picture is cited from
Picture is cited from
Human brain
Picture is cited from
Human brain
Picture is cited from
■is related to the first stage of visual sense
茂木健一郎 著「ひらめき脳」より
パターンマッチこの形はなに?
1 番目の性質
地中海の形
1 番目の性質色の濃度にとらわれる
茂木健一郎 著「ひらめき脳」より
人が直列処理をするパターンマッチ2番目の性質同時に2つを認識できない
Mind hack より
http://www.ritsumei.ac.jp/~akitaoka/
• 1 枚の大きな写真を脳に送っているのではなく小領域の情報を脳で統合している。
3番目の性質
ヘビの孔器
パリティー 2007年 3月号
ヘビの孔器をシミュレート
元の画像 孔器で捉えているであろう理想的な画像
パリティー 2007年 3月号
ニューラルネットによるバーチャルレンズ
元画像
0.25% 1 %
2 % 5 %
パリティー 2007年 3月号
Neural network Hough 変換テンプレートマッチ
General scan
Hough 変換 文字認識など
画像全体を一度にみる小領域での画像処)
小領域での画像認識
直線でなくて線分を認識したい
1 )テンプレートマッチ2)ニューラルネット
小領域(いままでの例だと 32px*32px )の領域。全体は、 512* 440 。
Recognize a line
• There is a vertex in a double hyper or single hypernuclear event
Recognize a line
Reconstruct a vertex
Identify a double hypernuclei NAGARA イベント
人工ニューラルネット( ANN )の種類
福岡大学 鶴田直之千葉大学 井宮 淳による分類
ニューロン( ANN構成要素)
Picture is cited from
単層パーセプトロンy=f( net )ニューラルネットの出力
重みつき総和 net= w1x1+w2x2-θ
f(net)
net( 入力の重みつき総和 )00
1 (発火、興奮)
入力 x1 入力 x2
重み w1 重み w2
出力y=f( net )
ニューラルネットによる記憶
入力A B 出力
1 1
1 0
0 1
0 0
1
0
0
0
AND の真理表
「入力 A 」と「入力 B 」から「出力」を得る
ニューラルネットによる記憶
入力A B 出力
1 1
1 0
0 1
0 0
1
1
1
0
OR の真理表
「入力 A 」と「入力 B 」から「出力」を得る
AND の場合入力
A B 出力
1 1
1 0
0 1
0 0
1
0
0
0
入力 x1 入力 x2
重み w1 重み w2
出力y=f( net )
重み w1=0.8重み w2=1.2
入力 x1 入力 x2
重み 0.8 重み 1.2
出力y=f( net )
y=f( net )net= w1x1+w2x2-θ
θ=1.3 とする
net=0.8x1+1.2x2-1.3
入力x1 x2 net
1 1
1 0
0 1
0 0
0.7
-0.5
-0.1
-1.3
出力
1
0
0
0
f(net)
net( 入力の重みつき総和 )00
1 (発火、興奮)
OR の場合 入力A B 出力
1 1
1 0
0 1
0 0
1
1
1
0
入力 x1 入力 x2
重み w1 重み w2
出力y=f( net )
重み w1=1.8重み w2=1.5
入力 x1 入力 x2
重み 1.8 重み 1.5
出力y=f( net )
y=f( net )net= w1x1+w2x2-θ
θ=1.3 とする
net= 1 .8x1+1.5x2-1.3
入力x1 x2 net
1 1
1 0
0 1
0 0
2.0
1.8
1.5
-1.3
出力
1
1
1
0
f(net)
net( 入力の重みつき総和 )00
1 (発火、興奮)
図で考える AND の場合
x1
x2
0 1
1
沈静: 0
興奮:1
図で考える AND の場合
沈静: 0
興奮:1
x1
x2
0 1
1
直線(赤色で示す)によって、黒丸の領域と白丸の領域を分離可能
図で考える OR の場合
沈静: 0
興奮:1
x1
x2
0 1
1
直線(赤色で示す)によって、黒丸の領域と白丸の領域を分離可能
ニューラルネットによる記憶
入力A B 出力
1 1
1 0
0 1
0 0
0
1
1
0
XOR を覚える
「入力 A 」と「入力 B 」から「出力」を得る
図で考える XOR の場合
黒丸の領域と白丸の領域を直線で分離することができない。2層によるニューラルネットでは、 XOR を表現できないという問題がある。
沈静: 0
興奮:1
x1
x2
0 1
1
入力A B 出力
1 1
1 0
0 1
0 0
0
1
1
0
XOR 真理表
XOR は次元を増やすことが必要
次元増加に伴い、直線でなくて平面で区別
ニューラルネットの XOR問題人工ニューラルネットの歴史XOR を表現することができないという問題があった。3層の階層モデルと back propagation により学習可能ということがわかった。
入力層 隠れ層 出力層
1 1 01 0 10 1 10 0 0
入力1 入力2 出力
目標とする出力
ニューラルネット
シグモイド関数
シナプスの「興奮」と「沈静」を表す
0.5
a
あと出てくるので X について微分すると
学習方法( back propagation )
入力層 隠れ層 出力層
I1
I2
H1
H2
Out
Outi = f(b1f(H1)+b2f(H2)) = f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2)))
教師信号を Ti で表すと、教師信号と Out の差 L は、
最急降下法 ここまできたらあとはお決まりの方法
下記の関数を最小化する ai と bi をもとめるという問題
X
α は学習率。正の定数
Outi = f(b1f(H1)+b2f(H2)) = f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2)))
微分もすでにわかっている
としているので、
Outi = f(b1f(H1)+b2f(H2)) = f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2)))
も同様に計算できる。
Photo from CCD of the microscope
How our brain works?
440
pixe
l
512 pixel
line recognition with a neural networkon a computer
512 pixel
440
pixe
l
32 pixel
Neural network
14 line types
Scan a picture by32pixel * 32pixel region
1024
16
140 1 2 3 4
5 6 7 8 9
10 11
input
Neural network ( perceptron )
Input layer 32*32 pixel=1024Hidden layer 16Output layer 14
Supervised learning ( Back Propagation method )
12 13
Learning stage
1024
16
14
output
Neural network ( perceptron )
Input layer 32*32 pixel=1024Hidden layer 16Output layer 14
Supervised learning ( Back Propagation method )
0 1 2 3 4
5 6 7 8 9
10 11 12 13
image
32px
32px
output stage
x160 y360out: 0 1.4795e-005out: 1 2.75203e-007out: 2 0.000210363out: 3 0.00443625out: 4 0.0644443out: 5 0.267729out: 6 1.06818e-005out: 7 4.04745e-006out: 8 5.06837e-005out: 9 0.00151709out: 10 0.00128184out: 11 0.101609out: 12 0.000494124out: 13 0.00069409
x240 y120out: 0 8.49013e-005out: 1 8.02295e-008out: 2 0.000253557out: 3 0.00104015out: 4 0.00361907out: 5 0.00362555out: 6 0.00954602out: 7 8.22062e-005out: 8 2.11628e-005out: 9 0.325218out: 10 0.0111719out: 11 4.35869e-006out: 12 0.00043366out: 13 0.000240392
x376 y248out: 0 0.0592193out: 1 0.00778189out: 2 0.000285482out: 3 1.36718e-006out: 4 4.66565e-005out: 5 3.8341e-006out: 6 7.36192e-006out: 7 0.0271225out: 8 0.00216796out: 9 2.48886e-005out: 10 0.000181834out: 11 0.00517701out: 12 0.000111058out: 13 0.0130495
input
Pattern 5
Pattern 9
Pattern 0
1
23
45
6
7
89
10
11
1213
14
Result of pattern match
ANN による結果
simplify
Successive lines with same decline are to be a line.
Simplify the lines
Accumulated imageSimplified lines
Two lines in sequential photo
a simplified line
FPGA上でのニューラルネットを検討中
デジタル出力( camera link )搭載のカメラとFPGA上にニューラルネットを構築することも目指す。
現在、 cameralink搭載カメラの代わりに、パソコンと FPGA を USB でつないでテスト中。
FPGAブレッドボードALTERA Cyclone II
EZ-USB FX2
LED
画像処理アルゴリズム1)人工ニューラルネットワーク( ANN )2) Hough 変換3)二値化4)テンプレートマッチ5)オープニング・クロージング6)境界認識7)凹凸認識8) convexity9)細線化10)ガウスぼかし11)ラベル・・・
我々が試した一部アルゴリズムを掲載。まだまだあります。「組み合わせ」や「順序」も大切
直線認識• 見つけたいイベントには、 Vertex が3つ存在す
る。
線分認識
Vertex の再構築
ダブルハイパー核の発見
NAGARA イベントVertex が3つある
General scan アルゴリズムの流れ
2値化
厚さ方向の各画面でのテンプレートマッ
チ
同一テンプレート一致の場所をラベル化
同一ラベルに属するpixel群を膨張後、収
縮
各ラベルグループで線分認識
頂点認識
同一ラベルに属するpixel群を細線化
7つの段階
小領域を scan
四角が縦 32px横 32px
scan した画像
しきい値により2値化。白か黒。
テンプレートマッチ
0 1 2 3 4
5 6 7 8 9
10 11 12 13
14種類のテンプレート
もっとも一致度の大きいテンプレートを選択
テンプレートマッチたとえば、 2値化したあとの画像同士を比べて、どれだけ一致しているのかということで、比較。テンプレート中に重要な部分があれば、重みをつける。
例(重みなし)テンプレート 入力画像
全ピクセルは5*5 =25ピクセル。
23ピクセルで一致。
2値化したあとの画像同士を比べて、一致度を比較。テンプレート中に重要な部分があれば、重みをつける。
例 : テンプレート 入力画像 A
縦5 ×横5 =25ピクセル。(使用している大きさは 16×16=256 や 32×32=1024など)
一致度23
テンプレートマッチ
重みなし
入力画像 B
一致度24 一致度23
入力画像 C
重みテンプレート青に2 一致度28 一致度29 一致度27
テンプレートマッチの出力例ビームインターラクション
NAGARA イベント
議論・ NAGARA イベントを用いながら、パラメータを調整すると バイアスがかかる可能性がある。・早くアルゴリズムを確立したい。
NAGARA イベントを用いて、 3次元用パラメータ調整
写真を重ねている
NAGARA イベント3 D 表示
x座標y座標
pixel から voxel 表示へ「 x座標・y座標」と「z座標」のスケールは異なる
ちなみに、 pixel は、 pictures cell の略。voxel は volume pixel の略。
NAGARA イベントの voxel 表示
各色(2次元での傾き)をグループにまとめる。細線化後に、大きく重なる線分を整理
例:青色のみ取り出す。拡張・収縮後、細線化※
隣接するピクセルをグループ化。端をつないで線分化
線分検出
※ 例:細線化
注:ニアレストネイバー法で拡大112px
102p
x
線分検出の結果
赤色は、線分の端点
注:ニアレストネイバー法で拡大112px
102p
x
頂点検出の結果 成功!! 同一ラベルグループに3頂点 を認識
3頂点認識に成功
注:結果は数値で得られる。画像表示は手書き
同じラベルグループ(隣接する pixcel )に3頂点あることを認識。
最初の general scan アルゴリズムを確立成功
( NAGARA イベント認識可能)
efficiency1) Beam Interaction を利用する2)頂点は 1個3)3つの Beam Interaction ( 最終的には 100個取得) Beam interaction
結果1) 1頂点を2つ以上として認識する。 2) efficiency という意味では十分。ただし、 rejection を得るため、調整が必要。
3頂点 4頂点 5頂点
3頂点
どうしてもノイズになる例100beam interaction の中の 1例
Z軸方向に 25 枚重ね合わせ厚さ 125μm に相当。
どうしてもノイズになる例100beam interaction の 中の 1例
目標:ダブルハイパー核の発見
プロセスの検証
1)人によるサンプル取得必要: Windows パソコンの簡単な操作。忍耐。将来の能力:簡単なパソコン操作能力。忍耐。
ハードウェア1)カメラ読み出し高速化 20Hz必要:画像処理ハードウェアの理解、 C++ 、 C言語将来の能力:組み込み機器の制御。
2)カメラ読み出し超高速化。 1000Hz必要: FPGA運用。光学系設計。将来の能力:世界トップクラスの研究機器の独自開発。
3)カメラの改善。広視野化。必要:カメラ性能の把握。目的に応じたカタログからの機器の選択。将来の能力:市販品を組み合わせての機器能力向上。
4)画像輝度の安定化必要: C++ 、 OpenCV 、写真取得フローの理解。将来の能力:高度研究用機器の保守運用能力。
研究用ソフトウェア1)線分認識必要: C++ 、 OpenCV 、画像処理アルゴリズム将来の能力:ミッションに沿った独自の単体ソフトウェア制作能力。
2)図形の凹凸認識必要: C++ 、 OpenCV 、画像処理アルゴリズム構築将来の能力:ミッションに沿った独自の単体ソフトウェア制作能力。
3)隣接写真の接合必要: C++ 、 OpenCV 、画像処理アルゴリズム構築将来の能力:単体ソフトウェアの一部を制作する能力。
目標:ダブルハイパー核研究アウトリーチ
アウトリーチ用ソフトウェア
1) WEB 用画像生成必要: C++ 、 OpenCV 、簡単な画像処理アルゴリズム将来の能力:画像処理の基礎的運用
2) WEB上でのスクリプト必要: Web2.0 、 Javascript 、 Ajax 、 HTML 、 CSS将来の能力:高度な WEB サイト制作。動的WEB サイト。
3) HTML による解説必要: HTML の基礎、 CSS将来の能力:静的な WEB サイト制作
その他1)小冊子の改訂必要:ちょっとしたアートデザイン能力、 Adobe Illustrator 。将来の能力: DTP デザイン。
2)出前授業(講師、 TA 、教材づくり)必要:ハイパー核物理の基本理解。口頭および文章でのコミュニケーション能力。将来の能力:学校教員。サイエンスコミュニケーター。
3)ハイパー核紹介ビデオ作成必要:デジタルカメラやビデオカメラ運用。映像処理。After Effects や Adobe Premiere など。ストーリー制作。将来の能力:映像作家。シナリオライター。 VFX 。デザイナー。
京都大学理学研究科の取り組み
大学院生のための教育実践講座( Advanced )の修了証ももらいました。昨日。
Summary
1)ハイパー核はおもしろい。2)画像処理もおもしろい。3)パラメータの詳細な調整が必要。※アウトリーチもやってます。