パターン認識特論
VC dimension
Support Vector Machines
Kernel Method
汎化と分化の制御
中間(隠れ層)素子数の設定
中間層の素子数を増やせ
ば分化が進み、減らせば
汎化が進む
VC dimension
• ある空間で、ある関数形で表現可能な識別面を
設定し,特徴ベクトルを2クラスに分類する問題
を考える。
• h個の特徴ベクトルに対して任意のラベリングを
しても、識別面のパラメータをうまく選べば、これ
らの特徴点が分離可能になるとする。このような
特徴点の最大個数hを、この空間中でのこの識
別関数のVC(Vapnik-Chervonenkis) dimensionと
呼ぶ。
• 注意すべきことは、上述のようなh個の特徴ベク
トルが存在するということであり、任意の特徴ベ
クトルの配置に対して上記が成立する必要は無
いということである。
VC dimension の例
2次元平面上での線形識別面(h=3)
VC dimension の性質
• 期待リスク
• 実リスク
• 期待リスクの上限
VC Confidence
y:教師信号、f():識別関数、h:VC次元、l: サンプル数、
1-η:上限が正しい確率
VC Confidence の性質
η=0.05: 上限が正しい確率=0.95の場合
SRM:Structural Risk Management
Remp(α)が小さく,且つ,VC confidence が小さいとき、
リスクの上限が低く押さえられる。
• ある識別関数の集合を、VC dimension の値に応じ
て部分集合に分けておく。そして、各集合の中でそ
れぞれRemp(α)の最小化を行う。そして、
Remp(α)+VC confidence が一番小さいものを選べ
ば、その識別関数の集合の中で最適な識別機械
が構成できる。
Linear Support Vector Machine:
Separable Case
• どんな識別面が「良い」識別面か?
A
B
B
A
B
B
A
A
A
A
A
A
線形識別面から、最近傍の
サンプル点までの距離が最
大になるように識別面を設
定すればよい。
B
B
A
B
Margin
Linear Support Vector Machine:
Separable Case(問題)
識別面の方程式
x・w+b=0
とし、教師信号t を±1とする。 また、Bの点が x・w+b≧1、
Aの点が x・w+b≦-1 を満足するとする。
条件1
このとき、各サンプル(xi ,ti)は、
ti(xi・w+b)-1 ≧0
を満足する。
A
B
B
A
B
B
A
A
A
A
A
A
B
A
B
B
Linear Support Vector Machine:
Separable Case(何をすべきか)
このとき、識別面に最も近いB、Aの点はそれぞれ
x・w+b=1, x・w+b= -1 上に存在する。原点からこれ
らの超平面までの距離は、
それぞれ
B
| 1-b | / ||w||, |-1-b | / ||w|| なの
A
B
A
B B
で2平面間の距離(Margin)は、
A
2/||w||となる。すなわち、 ||w||
B
A
B
A
が小さくなるほど、Marginが
A A
大きくなる。
A A
B
したがって、前述の条件1の下
で||w||を最小化すれば良い。
Margin
Linear Support Vector Machine:
Separable Case(定式化と解法)
この問題は、Lagrange の未定係数法により、以下の関数を最小化
する問題に帰着する(後述のKuhn-Tucker条件を使うことが前提)。
Lp =1/2 ||w||2 –Σαi( ti(xi・w+b) –1)
i
右辺第1項はMarginを最大化する項、第2項はすべてのデータが正
しく識別されるための項である。このとき、∂Lp/∂w, ∂Lp/∂b とも
に0になるという条件から式の簡単化が行え,結果的に上の式は
Σαi–1/2Σαiαj ti tj xi・xj
i
i,j
となる。これを∂Lp/∂ w =0、 ∂Lp/∂b =0、 ti(xi・w+b) –1≧0、
αi≧0、αi( ti(xi・w+b) –1)=0 という条件(Kuhn-Tucker条件)
のもとで最小化すれば良い。(これらの等式不等式制約は、ある正
則化条件の下で全て線形化することができ、結果的に2次計画問
題になる。この問題は、内点法などを用いて解くことができる。)
Linear Support Vector Machine:
Separable Case(何が得られるか)
明らかにαi ≠0となるxiが識別面に最も近い点となり、この点では、
ti(xi・w+b) –1=0 となる。このような点をサポートベクターと呼ぶ.
最適化後には、
Σαi( ti(xi・w+b) –1)=0
i
となり、Support Vector以外ではαi =0 。
B
B
A
また、最適なbは、A,BのSupport Vector
A
B
B
のうち任意の2つxA , xB および最適化
A
されたwから、
B
A
b= -½ w ・ ( xA + xB )
B
A
と計算される。 Support Vectorの標識
A
集合をSvtとすると、最適識別面は次式
A
A
B
で表される。
A
Σ tiαi(xi・ (x -½( xA + xB ) )=0
i∈Sv
また、
w =Σ tiαixi となる。
i∈Sv
Margin
実例
http://svm.cs.rhul.ac.uk/pagesnew/GPat.shtml
Linear Support Vector Machine:
Non-Separable Case(どうすれば良いか)
• 線形識別可能でないとき、前述の方法で
は安定な解が得られない。
A
A
B
A
A
A
A
A
A
B
B
B
A
B
?
B
B
学習サンプルを用いたとき
のエラーを許容する定式化
を行う。Soft Marginの導入
Linear Support Vector Machine:
Non-Separable Case(何を最適化するか)
識別面の方程式 x・w+b=0、教師信号tを±1とする。 また、Bの点が
xi・w+b≧1-ξi 、Aの点がx・w+b≦-1+ξi を満足するとする。ξiは、
スラック変数と呼ばれる0以上の変数。
このとき、各サンプル(xi ,ti)は、
ti(xi・w+b)-1+ξi ≧0
を満足する。また、Σξiは、
i
トレーニング時のエラーの総和
を表している。したがって、最小
化の対象を
1/2 ||w||2 +CΣξiとすれば
i
線形分離不可能な場合にも対
処でき、トレーニング時のエラー
も最小化できる。
A
A
B
A
A
A
A
A
A
B
B
B
A
B
?
B
B
Linear Support Vector Machine: NonSeparable Case(定式化と解法)
この問題 は、
Lp =1/2 ||w||2 +CΣ ξi – Σαi( ti(xi・w+b) –1+ξi)-Σμi ξi
i
i
i
となり、式変形により先の問題と同様に、
Σαi–1/2Σαiαj ti tj xi・xj
i
i,j
を最大化する問題となる。 この場合,Kuhn-Tucker条件は異なるが、
同様に内点法などで解くことができる。
この場合のサポートベクターはαi ≠0
かつξi =0となるxiであり、
ti(xi・w+b) –1=0 を満足する。
ξi ≠0となる点では、誤識別が起きて
いる。
実例
http://svm.cs.rhul.ac.uk/pagesnew/GPat.shtml
Non-Linear Support Vector
Machine: Kernel Method(アイデア)
識別面が線形であっても入力xを非線形変換φ(x)で次元を拡張す
れば、元の空間で非線形識別面を構成したのと同じことになる。
例:
入力xを(x, x2)に変換して、その空間で線形識別面を構成するこ
とはもとの空間で2次式で表される識別面を構成したことと等価
である.
疑問点:計算が複雑になるのではないか?次元が上がると、膨大
なメモリが必要ではないか?
答え:次元拡張しても、内積の形でしかφ(x)を使わないのであれ
ば、ほとんど同様の方法で、SVMが構成できる。このときに使う
φ(x)の内積のことをkernelと呼ぶ。
K(x, y)= φ(x)・ φ(y)
Non-Linear Support Vector Machine:
Kernel Method を用いたSVM
Σαi–1/2Σαiαj ti tj xi・xj
i
i,j
を最大化する問題が、
Σαi–1/2Σαiαj ti tj K(xi , xj )
i
i,j
を最大化する問題になるだけで、本質的な問題の構造に影響を与
えない。このときの最適識別面は、
Σ tiαi(K(xi , x) -½( K(xi , xA ) + K(xi , xB ) ) =0
i∈Sv
となる 。
Non-Linear Support Vector
Machine: Kernel の拡張
Kernel は、明示的な内積形式でなくてもよい。
Hij = ti tj K(xi , xj )とすれば、
Σαi–1/2Σαiαj ti tj K(xi , xj )=Σαi–1/2Σαi Hijαj
i
i,j
i
i,j
となる。この式の最大化が行える条件は、行列[Hij]の固有値が全
て正であることである。
このためにK(x , y )はMercerの条件と呼ばれる次式を満足するよう
に選ばれることが多い。
∞
K(x , y ) =ΣCp(xi・xj)pかつ、Cpが一様収束。
p=0
この条件を満足するものとしては、次のようなものがある。
および、(x・y)p 多項式カーネル
Radial Basis Function(RBF)
κとδの選び方によっては、条件を満足しない
実例
http://svm.cs.rhul.ac.uk/pagesnew/GPat.shtml
SVMの性質(準備)
Gap Tolerant Classifiers
• 球内の点を shutter する問題。Gapの中と円の外の
点は無視する。以下は2次元平面上の直径2の場
合、M≦3/2, h=3, 3/2<M<2, h=2,
2≦M, h=2
SVMの性質(準備)
Gap Tolerant Classifiers
• n次元空間内の超球を用いた場合の結果。
h≦min{「D2/M2 ,n}+1
Gap Tolerant Classifier (GTC) を用いた Structural
Risk Minimization.: トレーニングを行い、直径を変え
て複数のGTCを得る。そして、そのVC dimension
とトレーニングエラーからリスクの上限を計算し、
最適なGTCを決定する。
得られたGTCは、超球の外部を見ないという点だけ
がSVMと異なる。
• SVMの場合、 VC dimension は、データに依存し
て変化するため、一概には決められないが、上述
の上限以下であることは示されている。(実際の実
験例では、理論上界の約1/100以下のリスク値が
得られている。)
SVMの性質(1)
• マージンとリスクの関係:GTCの議論から,マージンが大
きいほどVC次元が下がると言える。特殊な例として、以
下の定理が示されている。「サンプル数l-1でトレーニング
された原点を通過する最適識別面のエラーの期待値は、
次式で与えられる。」
また、期待リスクRは、Remp+λ/2 ||w||2 とも表される。
• サポートベクターの個数とリスクの関係(線形分離可能な
場合)
サポートベクターを除去して学習した識別面に、サポートベ
クターをテストデータとして与えたとき、誤りが生じ得るため。
SVMのTutorial
• C. J. C. Burges. A Tutorial on Support Vector Machines for Pattern Recognition.
Knowledge Discovery and Data Mining, 2(2), 1998. A detailed tutorial on Support
Vector machines for the classification task, from background material (e.g. VC
dimension, structural risk minimization) through notes on training algorithms. Many
examples are given.
• A. J. Smola and B. Schölkopf. A Tutorial on Support Vector Regression.
NeuroCOLT Technical Report NC-TR-98-030, Royal Holloway College, University
of London, UK, 1998. This tutorial gives an overview of the basic ideas underlying
Support Vector (SV) machines for regression and function estimation. Furthermore,
it includes a summary of currently used algorithms for training SV machines,
covering both the quadratic (or convex) programming part and advanced methods
for dealing with large datasets. Finally, some modifications and extensions that have
been applied to the standard SV algorithm are mentioned, and it discusses the aspect
of regularization and capacity control from a SV point of view.
• B. Schölkopf. Support vector learning, 1999. Tutorial given at DAGM'99.
SVMのプログラム
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Nearest Point Algorithm. by Sathiya Keerthi (in FORTRAN).
SVM Java Applet. by Chris Burges et al.
BSVM. A decomposition method for bound-constrained SVM formulations.
QP SVM Classification and Regression. Fortran Implementation.
Chunking Code. by C. Saunders, M. O. Stitson, J. Weston, L. Bottou, B. Schölkopf, and A. Smola at Royal Holloway, AT&T, and GMD
FIRST (Documentation).
Interior Point Optimizer for SVM Pattern Recognition. by Alex Smola.
LEARNSC. SVM, NN and FL MATLAB based user-friendly routines.
LIBSVM. An SVM library with a graphic interface.
looms. a leave-one-out model selection software based on BSVM.
mySVM. SVM implementation for pattern recognition and regression.
mySVM and SVMlight for Windows. SVM implementation for Windows, uses Microsoft Visual C++ 6.0.
Sequential Minimal Optimization. by Xianping Ge.
SMOBR. SMOBR is an implementation of the original Sequential Minimal Optimisation proposed by Platt written in C++.
SvmFu. by Ryan Rifkin.
SVMLight. by Thorsten Joachims.
SVM/LOO. Matlab code for SVM incremental learning and decremental unlearning (LOO validation).
SVM/optima. SVM QP routines in Fortran for classification/regression.
SVMTorch. Support Vector Machine for Large-Scale Regression and Classification Problems.
Matlab SVM Toolbox. by Steve Gunn.
Matlab SVM Toolbox. Matlab implementation in the style of SVMlight, can train 1-norm and 2-norm SVMs.
OSU SVM Classifier Matlab Toolbox. A matlab toolbox with a C++ mex core to fast implement the SVM classifiers.
SVM Toolbox. Object Oriented MATLAB Support Vector Machine Toolbox, including C++ MEX implementation of the sequential
minimal optimisation algorithm.
ダウンロード

Document