画像処理技術による
ダブルハイパー核の研究
京都大学大学院理学研究科
物理第2教室原子核ハドロン研究室
常見俊直(つねみとしなお)
1.導入: 元素と原子核
2.人の脳の画像処理
3.ダブルハイパー核用の
人工ニューラルネットワーク(一時期利用してたので、紹介)
4.7段階の画像処理(最新)
5.まとめ
周期表
Wikipediaより
元素の存在比率(太陽系)
Geochimica et Cosmochimica Acta Vol.53 pp.197-214 EDWARD ANDERS NICOLAS GREVESSEより
1E+11
H
1E+10
He
1E+09
100000000
O
C
10000000
Ne
N
1000000
100000
10000
1000
100
10
1
F
Li
B
Be
原子番号
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91
0.1
0.01
0.001
原子番号14のSiを106としたとき
人に必須な元素
「人類の住む宇宙」より
人に必須な元素
「人類の住む宇宙」より
ビタミンB12
Wikipediaより
サンコバ点眼液
シアノコバラミン のCNをOHにおきかえるとヒドロキソコバラミン
ビタミンB12は、体重70kgの人に1.5mgしか存在しない。
けれど、ゼロになると人は生きられない。
複雑なシステム(この場合はヒト)の場合には、
少量の特殊な物質が意味をもつことがある。
周期表
Wikipediaより
陽子と中性子
1)原子番号:陽子の数
2)原子核には中性子も存在する。
クォークでいうと、アップクォークとダウンクォーク
3)陽子も中性子もバリオン(クォーク3つ)の仲間
動機
より多くのダブルハイパー核を見つける
クォーク
バリオン
核子とハイペロン
原子核とダブルハイパー核
S=-2の新しい原子核をみつける
(ストレンジネス)
ダブルハイパー核を調べたいわけ
• 原子核は、陽子と中性子からなる。
• 陽子と中性子の間に働く力(核力)を調べたい。
• けれども、陽子や中性子を使うと難しい。
なぜなら、「パウリの排他律」が効いてしまい、
核力よりも排他律の効果をみてしまう。
新しい量ストレンジネスを導入する。
陽子と中性子の塊に、ハイペロンをいれると、大きな変化があるかも
KEK-E373
There are more events
NAGARA event
1) Online trigger efficiency
2) Other decay channel
(neutral particle)
A couple of dozen
double hypernuclear events
in the emulsions of KEK-E373
If we can establish a general scan, we can
find a couple of dozen double hypernuclear events.
原子核乾板
25cm×25cm
元素イメージ: 一家に一枚周期表より
New microscope
CCD 0.5M pixels
Shutter 100 Hz
LED light
Depth of field 5mm
目指すところ
赤い線は常見が引いたもの
画像処理(パターン認識)の産業利用
•
•
•
•
•
•
デジタルカメラの顔認識(笑顔認識も)
クルマの自動駐車機能
スキーヤー同士の衝突検知
手書き文字認識
指紋認識
バーコード、ケータイのQRコード
エマルジョン自動処理も
いまの技術力ならできる
眼球の仕組み
遠くをみるとき
近くをみるとき
Picture is cited from
Picture is cited from
Human brain
Picture is cited from
Human brain
■is related to the
first stage of visual sense
Picture is cited from
1番目の性質
パターンマッチ
この形はなに?
茂木健一郎 著
「ひらめき脳」より
地中海の形
1番目の性質
色の濃度にとらわれる
茂木健一郎 著
「ひらめき脳」より
人が直列処理をするパターンマッチ
2番目の性質
同時に2つを認識できない
Mind hackより
http://www.ritsumei.ac.jp/~akitaoka/
3番目の性質
• 1枚の大きな写真を脳に送っているのではなく
小領域の情報を脳で統合している。
ヘビの孔器
パリティー2007年3月号
ヘビの孔器をシミュレート
元の画像
孔器で捉えているであろう理想的な画像
パリティー2007年3月号
ニューラルネットによる
バーチャルレンズ
0.25%
1%
2%
5%
元画像
パリティー2007年3月号
General scan
小領域での画像処)
テンプレートマッチ
Neural network
画像全体を一度にみる
Hough 変換
Hough 変換
文字認識など
小領域での画像認識
直線でなくて線分を認識したい
小領域(いままでの例だと32px*32px)の領域。
全体は、512*440。
1)テンプレートマッチ
2)ニューラルネット
Recognize a line
• There is a vertex in a double hyper or single
hypernuclear event
Recognize a line
Reconstruct a vertex
Identify a double hypernuclei
NAGARAイベント
人工ニューラルネット(ANN)の種類
福岡大学 鶴田直之
による分類
千葉大学 井宮 淳
ニューロン(ANN構成要素)
Picture is cited from
単層パーセプトロン
ニューラルネットの出力
重みつき総和
y=f(net)
net=w1x1+w2x2-θ
出力y=f(net)
f(net)
1
(発火、興奮)
重みw1
0
0
重みw2
net(入力の重みつき総和)
入力x1
入力x2
ニューラルネットによる記憶
ANDの真理表
入力
A
B
出力
1
1
1
1
0
0
0
1
0
0
0
0
「入力A」と「入力B」から「出力」を得る
ニューラルネットによる記憶
ORの真理表
入力
A
B
出力
1
1
1
1
0
1
0
1
1
0
0
0
「入力A」と「入力B」から「出力」を得る
入力
A B
1 1
ANDの場合
出力y=f(net)
出力y=f(net)
重みw1=0.8
重みw2=1.2
重みw1
重みw2
重み0.8
出力
1
1
0
0
0
1
0
0
0
0
y=f(net)
重み1.2
net=w1x1+w2x2-θ
θ=1.3とする
入力x1 入力x2
入力x1 入力x2
入力
x1 x2
f(net)
1
0
net=0.8x1+1.2x2-1.3
(発火、興奮)
0
net(入力の重みつき総和)
net
出力
1
1
0.7
1
1
0
-0.5
0
0
1
-0.1
0
0
0
-1.3
0
入力
A B
1 1
ORの場合
出力y=f(net)
出力y=f(net)
重みw1=1.8
重みw2=1.5
重みw1
重みw2
重み1.8
出力
1
1
0
1
0
1
1
0
0
0
y=f(net)
重み1.5
net=w1x1+w2x2-θ
θ=1.3とする
入力x1 入力x2
入力x1 入力x2
入力
x1 x2
f(net)
1
0
net=1.8x1+1.5x2-1.3
(発火、興奮)
0
net(入力の重みつき総和)
net
出力
1
1
2.0
1
1
0
1.8
1
0
1
1.5
1
0
0
-1.3
0
図で考える ANDの場合
興奮:1
x2
沈静:0
1
0
1
x1
図で考える ANDの場合
x2
興奮:1
沈静:0
1
0
1
x1
直線(赤色で示す)によって、黒丸の領域と白丸の領域を分離可能
図で考える ORの場合
x2
興奮:1
沈静:0
1
0
1
x1
直線(赤色で示す)によって、黒丸の領域と白丸の領域を分離可能
ニューラルネットによる記憶
XORを覚える
入力
A
B
出力
1
1
0
1
0
1
0
1
1
0
0
0
「入力A」と「入力B」から「出力」を得る
図で考える XORの場合
x2
興奮:1
沈静:0
XOR真理表
入力
A
1
0
1
B
出力
1
1
0
1
0
1
0
1
1
0
0
0
x1
黒丸の領域と白丸の領域を直線で分離することができない。
2層によるニューラルネットでは、XORを表現できないという問題がある。
XORは次元を増やすことが必要
次元増加に伴い、直線でなくて平面で区別
ニューラルネットのXOR問題
人工ニューラルネットの歴史
XORを表現することができないという問題があった。
3層の階層モデルとback propagationにより学習可能ということがわかった。
目標とする出力
入力1 入力2 出力
1
1
0
0
入力層
隠れ層
出力層
1
0
1
0
0
1
1
0
ニューラルネット
シナプスの「興奮」と「沈静」を表す
シグモイド関数
あと出てくるのでXについて微分すると
0.5
a
学習方法(back propagation)
I1
H1
Out
I2
入力層
H2
隠れ層
Outi = f(b1f(H1)+b2f(H2))
= f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2)))
教師信号をTiで表すと、教師信号とOutの差Lは、
出力層
最急降下法
ここまできたらあとはお決まりの方法
下記の関数を最小化するaiとbiをもとめるという問題
Outi = f(b1f(H1)+b2f(H2))
= f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2)))
X
αは学習率。正の定数
微分もすでにわかっている
Outi = f(b1f(H1)+b2f(H2))
= f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2)))
としているので、
も同様に計算できる。
440 pixel
Photo from CCD of the microscope
512 pixel
How our brain works?
line recognition with a neural network
on a computer
Scan a picture by
32pixel * 32pixel region
32 pixel
440 pixel
Neural network
14 line types
512 pixel
Neural network (perceptron)
Supervised learning (Back Propagation method)
Input layer 32*32 pixel=1024
Hidden layer 16
Output layer 14
16
0
1
2
3
4
5
6
7
8
9
14
input
1024
10
11
12
13
Learning stage
Neural network (perceptron)
Supervised learning (Back Propagation method)
Input layer 32*32 pixel=1024
Hidden layer 16
Output layer 14
16
14
0
1
2
3
4
5
6
7
8
9
10
11
12
13
32px
output
image
1024
32px
output stage
input
1
2
3
4
5
6
7
8
9
10
11
12
13
x160 y360
out: 0 1.4795e-005
out: 1 2.75203e-007
out: 2 0.000210363
out: 3 0.00443625
out: 4 0.0644443
out: 5 0.267729
out: 6 1.06818e-005
out: 7 4.04745e-006
out: 8 5.06837e-005
out: 9 0.00151709
out: 10 0.00128184
out: 11 0.101609
out: 12 0.000494124
out: 13 0.00069409
x240 y120
out: 0 8.49013e-005
out: 1 8.02295e-008
out: 2 0.000253557
out: 3 0.00104015
out: 4 0.00361907
out: 5 0.00362555
out: 6 0.00954602
out: 7 8.22062e-005
out: 8 2.11628e-005
out: 9 0.325218
out: 10 0.0111719
out: 11 4.35869e-006
out: 12 0.00043366
out: 13 0.000240392
x376 y248
out: 0 0.0592193
out: 1 0.00778189
out: 2 0.000285482
out: 3 1.36718e-006
out: 4 4.66565e-005
out: 5 3.8341e-006
out: 6 7.36192e-006
out: 7 0.0271225
out: 8 0.00216796
out: 9 2.48886e-005
out: 10 0.000181834
out: 11 0.00517701
out: 12 0.000111058
out: 13 0.0130495
14
Pattern
5
Pattern
9
Pattern
0
Result of pattern match
ANNによる結果
simplify
Successive lines with same decline are to be a line.
Simplify the lines
Two lines in sequential photo
a simplified line
Accumulated image
Simplified lines
FPGA上でのニューラルネットを検討中
デジタル出力(camera link)搭載のカメラと
FPGA上にニューラルネットを
構築することも目指す。
現在、cameralink搭載カメラの代わりに、
パソコンとFPGAをUSBでつないでテスト中。
LED
FPGA
ブレッドボード
ALTERA
Cyclone II
EZ-USB FX2
画像処理アルゴリズム
1)人工ニューラルネットワーク(ANN)
2)Hough変換
3)二値化
4)テンプレートマッチ
5)オープニング・クロージング
6)境界認識
7)凹凸認識
8)convexity
9)細線化
10)ガウスぼかし
11)ラベル
・・・
我々が試した一部アルゴリズムを掲載。まだまだあります。
「組み合わせ」や「順序」も大切
直線認識
• 見つけたいイベントには、Vertexが3つ存在する。
線分認識
Vertexの再構築
NAGARAイベント
Vertexが3つある
ダブルハイパー核の発見
General scanアルゴリズムの流れ
2値化
厚さ方向の各画面での
テンプレートマッチ
7つの段階
同一テンプレート一致
の場所をラベル化
同一ラベルに属する
pixel群を膨張後、収縮
同一ラベルに属する
pixel群を細線化
各ラベルグループで
線分認識
頂点認識
小領域をscan
14種類のテンプレート
scanした画像
しきい値により
2値化。白か黒。
テンプレートマッチ
四角が縦32px横32px
もっとも一致度の大きい
テンプレートを選択
0
1
2
3
4
5
6
7
8
9
10
11
12
13
テンプレートマッチ
たとえば、2値化したあとの画像同士を比べて、
どれだけ一致しているのかということで、比較。
テンプレート中に重要な部分があれば、重みをつける。
例(重みなし)
テンプレート
入力画像
全ピクセルは5*5=25ピクセル。
23ピクセルで一致。
テンプレートマッチ
2値化したあとの画像同士を比べて、一致度を比較。
テンプレート中に重要な部分があれば、重みをつける。
例: 縦5×横5=25ピクセル。(使用している大きさは16×16=256や32×32=1024など)
テンプレート
重みなし
重みテンプレート青に2
入力画像B
入力画像C
一致度23
一致度24
一致度23
一致度28
一致度29
一致度27
入力画像A
テンプレートマッチの出力例
ビームインターラクション
NAGARAイベント
写真を重ねている
議論
・NAGARAイベントを用いながら、パラメータを調整すると
バイアスがかかる可能性がある。
・早くアルゴリズムを確立したい。
NAGARAイベントを用いて、3次元用パラメータ調整
NAGARAイベント
y座標
3D表示
pixel からvoxel表示へ
「x座標・y座標」と「z座標」のスケールは異なる
ちなみに、pixelは、pictures cellの略。
voxelは volume pixelの略。
x座標
NAGARAイベントのvoxel表示
各色(2次元での傾き)をグループにまとめる。
細線化後に、大きく重なる線分を整理
例:青色のみ
取り出す。
拡張・収縮後、
細線化※
※ 例:細線化
隣接するピクセルを
グループ化。
端をつないで線分化
線分検出
線分検出の結果
102px
赤色は、
線分の端点
112px
注:ニアレストネイバー法で拡大
頂点検出の結果 成功!!
を認識
102px
同一ラベルグループに3頂点
112px
注:ニアレストネイバー法で拡大
3頂点認識に成功
同じラベルグループ(隣接するpixcel)に
3頂点あることを認識。
最初のgeneral scanアルゴリズムを
確立成功
(NAGARAイベント認識可能)
注:結果は数値で得られる。
画像表示は手書き
efficiency
1)Beam Interaction を利用する
2)頂点は1個
3)3つのBeam Interaction
Beam interaction
(最終的には100個取得)
3頂点
4頂点
5頂点
結果1)1頂点を2つ以上として認識する。
2)efficiencyという意味では十分。ただし、rejectionを得るため、調整が必要。
3頂点
どうしてもノイズになる例
100beam interactionの中の1例
Z軸方向に25枚重ね合わせ
厚さ125μmに相当。
どうしてもノイズになる例
100beam interactionの 中の1例
目標:ダブルハイパー核の発見
研究用ソフトウェア
ハードウェア
1)線分認識
必要:C++、OpenCV、画像処理アルゴリズム
将来の能力:ミッションに沿った独自の単体ソフト
ウェア制作能力。
1)カメラ読み出し高速化 20Hz
必要:画像処理ハードウェアの理解、C++、C言語
将来の能力:組み込み機器の制御。
2)カメラ読み出し超高速化。1000Hz
必要:FPGA運用。光学系設計。
将来の能力:世界トップクラスの研究機器の独自開
発。
2)図形の凹凸認識
必要:C++、OpenCV、画像処理アルゴリズム構築
将来の能力:ミッションに沿った独自の単体ソフト
ウェア制作能力。
3)隣接写真の接合
必要:C++、OpenCV、画像処理アルゴリズム構築
将来の能力:単体ソフトウェアの一部を制作する能
力。
3)カメラの改善。広視野化。
必要:カメラ性能の把握。目的に応じたカタログから
の機器の選択。
将来の能力:市販品を組み合わせての機器能力向
上。
4)画像輝度の安定化
必要:C++、OpenCV、写真取得フローの理解。
将来の能力:高度研究用機器の保守運用能力。
その他
アウトリーチ用ソフトウェア
1)WEB用画像生成
必要:C++、OpenCV、簡単な画像処理アルゴリズム
将来の能力:画像処理の基礎的運用
1)小冊子の改訂
必要:ちょっとしたアートデザイン能力、Adobe Illustrator。
将来の能力:DTPデザイン。
2)WEB上でのスクリプト
必要:Web2.0、Javascript、Ajax、HTML、CSS
将来の能力:高度なWEBサイト制作。動的WEBサイト。
2)出前授業(講師、TA、教材づくり)
必要:ハイパー核物理の基本理解。口頭および文章でのコ
ミュニケーション能力。
将来の能力:学校教員。サイエンスコミュニケーター。
3)HTMLによる解説
必要:HTMLの基礎、CSS
将来の能力:静的なWEBサイト制作
3)ハイパー核紹介ビデオ作成
必要:デジタルカメラやビデオカメラ運用。映像処理。After
Effects やAdobe Premiereなど。ストーリー制作。
将来の能力:映像作家。シナリオライター。VFX。デザイナー。
目標:ダブルハイパー核研究
アウトリーチ
プロセスの検証
1)人によるサンプル取得
必要:Windowsパソコンの簡単な操作。忍耐。
将来の能力:簡単なパソコン操作能力。忍耐。
京都大学理学研究科の取り組み
大学院生のための教育実践講座(Advanced)
の修了証ももらいました。昨日。
Summary
1)ハイパー核はおもしろい。
2)画像処理もおもしろい。
3)パラメータの詳細な調整が必要。
※アウトリーチもやってます。
ダウンロード

スライド - KEK 測定器開発室