机器学习技法 之 支持向量回归(SVR)

本文探讨了SVM与正则化的关系,包括核逻辑回归、两阶段学习模型、核岭回归、支持向量回归等内容,揭示了SVM与其他学习模型的联系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

核逻辑回归(Kernel Logistic Regression)

SVM 和 Regularization 之间的联系

软间隔支持向量机的原最优化问题为:
min ⁡ b , w , ξ 1 2 w T w + C ⋅ ∑ n = 1 N ξ n  s.t.  y n ( w T z n + b ) ≥ 1 − ξ n  and  ξ n ≥ 0  for all  n \begin{aligned} \min _ { b , \mathbf { w } , \xi } & \frac { 1 } { 2 } \mathbf { w } ^ { T } \mathbf { w } + C \cdot \sum _ { n = 1 } ^ { N } \xi _ { n } \\ \text { s.t. } & y _ { n } \left( \mathbf { w } ^ { T } \mathbf { z } _ { n } + b \right) \geq 1 - \xi _ { n } \text { and } \xi _ { n } \geq 0 \text { for all } n \end{aligned} b,w,ξmin s.t. 21wTw+Cn=1Nξnyn(wTzn+b)1ξn and ξn0 for all n
转换为无约束问题如下:
min ⁡ b , w 1 2 w T w + C ∑ n = 1 N max ⁡ ( 1 − y n ( w T z n + b ) , 0 ) ⏟ e r r ^ \min _ { b , \mathbf { w } } \quad \frac { 1 } { 2 } \mathbf { w } ^ { T } \mathbf { w } + C \underbrace{\sum _ { n = 1 } ^ { N } \max \left( 1 - y _ { n } \left( \mathbf { w } ^ { T } \mathbf { z } _ { n } + b \right) , 0 \right)}_{\widehat { \mathrm { err } }} b,wmin21wTw+Cerr n=1Nmax(1yn(wTzn+b),0)
可简化为:
min ⁡ 1 2 w ⊤ w + C ∑ e r r ^ \min \quad \frac { 1 } { 2 } \mathbf { w } ^ { \top } \mathbf { w } + C \sum \widehat { \mathrm { err } } min21ww+Cerr

与 L2 范数正则化相比:
min ⁡ λ N w T w + 1 N ∑ e r r \min \quad \frac { \lambda } { N } \mathbf { w } ^ { T } \mathbf { w } + \frac { 1 } { N } \sum \mathrm { err } minNλwTw+N1err

可见两者十分相似。但是为什么不用该无约束问题求解呢:这是因为:

  1. 这不是一个 QP 问题,不能使用核技巧
  2. 取最大函数不是可微的,很难求解。

下面列出 SVM 与其他模型的简单对比:
 minimize   constraint   regularization by constraint  E in  w T w ≤ C  hard-margin SVM  w T w E in  = 0  [and more]   L2 regularization  λ N w T w + E in   soft-margin SVM  1 2 w T w + C N E in  ^ \begin{array} { c | c | c } & \text { minimize } & \text { constraint } \\ \hline \text { regularization by constraint } & E _ { \text {in } } & \mathbf { w } ^ { T } \mathbf { w } \leq C \\ \hline \text { hard-margin SVM } & \mathbf { w } ^ { T } \mathbf { w } & E _ { \text {in } } = 0 \text { [and more] } \\ \hline \hline \text { L2 regularization } & \frac { \lambda } { N } \mathbf { w } ^ { T } \mathbf { w } + E _ { \text {in } } & \\ \hline \text { soft-margin SVM } & \frac { 1 } { 2 } \mathbf { w } ^ { T } \mathbf { w } + C N \widehat {E _ { \text {in } }} & \\ \end{array}  regularization by constraint  hard-margin SVM  L2 regularization  soft-margin SVM  minimize Ein wTwNλwTw+Ein 21wTw+CNEin   constraint wTwCEin =0 [and more] 

可以观察出以下特性:

 large margin  ⟺  fewer hyperplanes  ⟺ L 2  regularization of short w   soft margin  ⟺  special   err  ^  larger  C ⟺  smaller  λ ⟺  less regularization  \begin{array} { c } \text { large margin } \Longleftrightarrow \text { fewer hyperplanes } \Longleftrightarrow L 2 \text { regularization of short w } \\ \text { soft margin } \Longleftrightarrow \text { special } \widehat { \text { err } } \\ \text { larger } C \Longleftrightarrow \text { smaller } \lambda \Longleftrightarrow \text { less regularization } \end{array}  large margin  fewer hyperplanes L2 regularization of short w  soft margin  special  err   larger C smaller λ less regularization 
即间隔越大意味着更少的超平面,类似于L2正则化中系数的衰减。 C C C 越大意味着更小的 λ \lambda λ,更弱的正则化。

将SVM看作一种正则化方法的话,可以跟简单理解如何扩展和连接到其他学习模型。

SVM 和 Logistic Regression 之间的联系

现在令  linear score  s = w T z n + b \text { linear score } s = \mathbf { w } ^ { T } \mathbf { z } _ { n } + b  linear score s=wTzn+b,那么不同的误差测量(Error Measure)表达式可以写为:

err ⁡ 0 / 1 ( s , y ) = [ y s ≤ 0 ] err ⁡ svm  ( s , y ) = max ⁡ ( 1 − y s , 0 ) err ⁡ sce  ( s , y ) = log ⁡ 2 ( 1 + exp ⁡ ( − y s ) )  :  \begin{array} { l } \operatorname { err } _ { 0 / 1 } ( s , y ) = [ y s \leq 0 ] \\ \operatorname { err } _ { \text {svm } } ( s , y ) = \max ( 1 - y s , 0 ) \\\operatorname { err } _ { \text {sce } }( s , y ) = \log _ { 2 } ( 1 + \exp ( - y s ) ) \text { : } \end{array} err0/1(s,y)=[ys0]errsvm (s,y)=max(1ys,0)errsce (s,y)=log2(1+exp(ys)) : 
其中 err ⁡ svm \operatorname { err } _ { \text {svm} } errsvm err ⁡ sce \operatorname { err } _ { \text {sce} } errsce 均是 err ⁡ 0 / 1 \operatorname{ err } _ { 0 / 1 } err0/1 的凸上限, err ⁡ sce \operatorname { err } _ { \text {sce} } errsce 用在 Logistic Regression 中做误差测量。

具体如下图所示:
在这里插入图片描述

− ∞ ⟵ y s ⟶ + ∞ ≈ − y s e r r ^ s v m ( S , y ) = 0 ≈ − y s ( ln ⁡ 2 ) ⋅ err ⁡ sce ( s , y ) ≈ 0 \begin{array} { ccccc } - \infty & \longleftarrow & y s & \longrightarrow & & + \infty \\ \approx - y s & & \widehat { \mathrm { err } } _ { \mathrm { svm } } ( S , y ) & && = 0 \\ \approx - y s & & ( \ln 2 ) \cdot \operatorname { err }_{\text{sce}} ( s , y ) & & & \approx 0 \end{array} ysysyserr svm(S,y)(ln2)errsce(s,y)+=00

所以可以看出 regularized LogReg 与 SVM 十分相似。

两阶段学习模型(Two-Level-Learning)

如何实现呢?概括来说为使用逻辑回归在经过SVM映射的空间上学习。所以叫两阶段学习模型(Two-Level-Learning)。具体步骤为:

  1. 使用 SVM 找出分割超平面
  2. 在超平面周围,根据距离,使用 Logistic Regression 学习出真实分数。具体操作为通过缩放(A 和 θ \theta θ)和 偏移(B)建立距离和分数之间的联系。

数学表达如下:
g ( x ) = θ ( A ⋅ ( w s v m T Φ ( x ) + b S V M ) + B ) g ( \mathbf { x } ) = \theta \left( A \cdot \left( \mathbf { w} _ { \mathrm { svm } } ^ { T } \mathbf { \Phi } ( \mathbf { x } ) + b _ { \mathrm { SVM } } \right) + B \right) g(x)=θ(A(wsvmTΦ(x)+bSVM)+B)

通常 A > 0 , B ≈ 0 A > 0, B \approx 0 A>0,B0 更合理一些。 A > 0 A > 0 A>0 代表了SVM的分类结果大体是对的, B ≈ 0 B \approx 0 B0 代表了分割超平面与实际值偏差很小。

可以写出其显示数学表达:
min ⁡ A , B 1 N ∑ n = 1 N log ⁡ ( 1 + exp ⁡ ( − y n ( A ⋅ ( w S V M T Φ ( x n ) + b S V M ⏟ Φ S V M ( x n ) ) + B ) ) ) \min _ { A , B } \frac { 1 } { N } \sum _ { n = 1 } ^ { N } \log \left( 1 + \exp \left( - y _ { n } ( A \cdot ( \underbrace { \mathbf { w } _ { \mathrm { SVM } } ^ { T } \mathbf { \Phi } \left( \mathbf { x } _ { n } \right) + b _ { \mathrm { SVM } } } _ { \Phi _ { \mathrm { SVM } } \left( \mathbf { x } _ { n } \right) } ) + B ) \right) \right) A,BminN1n=1Nlog1+expyn(A(ΦSVM(xn) wSVMTΦ(xn)+bSVM)+B)

那么该两阶段学习模型的具体步骤为:
1.  run SVM on  D  to get  ( b s v m , w s v m ) [ o r  the equivalent  α ] ,  and  transform  D  to  z n ′ = w S V M T Φ ( X n ) + b S V M  -actulal model performs this step in a more complicated manner  2.  run LogReg on  { ( z n ′ , y n ) } n = 1 N  to get  ( A , B )  -actual model adds some special regularization here  3.  return  g ( x ) = θ ( A ⋅ ( w s v m T Φ ( x ) + b s v m ) + B ) \begin{array} { l } 1. \text { run SVM on } \mathcal { D } \text { to get } \left( b _ { \mathrm { svm} } , \mathbf { w } _ { \mathrm { svm} } \right) [ \mathrm { or } \text { the equivalent } \alpha ] , \text { and } \text { transform } \mathcal { D } \text { to } \mathbf { z } _ { n } ^ { \prime } = \mathbf { w } _ { \mathrm { SVM } } ^ { T } \mathbf { \Phi } \left( \mathbf { X } _ { n } \right) + b _ { \mathrm { SVM } } \\ \text { -actulal model performs this step in a more complicated manner } \\ 2. \text { run LogReg on } \left\{ \left( \mathbf { z } _ { n } ^ { \prime } , y _ { n } \right) \right\} _ { n = 1 } ^ { N } \text { to get } ( A , B ) \\ \text { -actual model adds some special regularization here } \\ 3. \text { return } g ( \mathbf { x } ) = \theta \left( A \cdot \left( \mathbf { w } _ { \mathrm { svm} } ^ { T } \mathbf { \Phi } ( \mathbf { x } ) + b _ { \mathrm { svm} } \right) + B \right) \end{array} 1. run SVM on D to get (bsvm,wsvm)[or the equivalent α], and  transform D to zn=wSVMTΦ(Xn)+bSVM -actulal model performs this step in a more complicated manner 2. run LogReg on {(zn,yn)}n=1N to get (A,B) -actual model adds some special regularization here 3. return g(x)=θ(A(wsvmTΦ(x)+bsvm)+B)

核逻辑回归(Kernel Logistic Regression)

前面提到的二阶段学习模型是一种核逻辑回归的近似解法,那么如何实现真正的核逻辑回归呢?

关键是最优解 w ∗ \mathbf { w } _ { * } w 满足一下条件:
w ∗ = ∑ n = 1 N β n z n \mathbf { w } _ { * } = \sum _ { n = 1 } ^ { N } \beta _ { n } \mathbf { z } _ { n } w=n=1Nβnzn
因为 w ∗ T z = ∑ n = 1 N β n z n T z = ∑ n = 1 N β n K ( x n , x ) \mathbf { w } _ { * } ^ { T } \mathbf { z } = \sum _ { n = 1 } ^ { N } \beta _ { n } \mathbf { z } _ { n } ^ { T } \mathbf { z } = \sum _ { n = 1 } ^ { N } \beta _ { n } K \left( \mathbf { x } _ { n } , \mathbf { x } \right) wTz=n=1NβnznTz=n=1NβnK(xn,x),这样的话便可以使用核技巧了。

那么对于任何一个L2正则化线性模型(L2-regularized linear model)即:
min ⁡ w λ N w T w + 1 N ∑ n = 1 N err ⁡ ( y n , w T z n ) \min _ { \mathbf { w } } \frac { \lambda } { N } \mathbf { w } ^ { T } \mathbf { w } + \frac { 1 } { N } \sum _ { n = 1 } ^ { N } \operatorname { err } \left( y _ { n } , \mathbf { w } ^ { T } \mathbf { z } _ { n } \right) wminNλwTw+N1n=1Nerr(yn,wTzn)
现在假设其最优解由两个部分组成, w ∥ ∈ span ⁡ ( z n ) \mathbf { w } _ { \| } \in \operatorname { span } \left( \mathbf { z } _ { n } \right) wspan(zn) w ⊥ ⊥ span ⁡ ( z n ) \mathbf { w } _ { \perp } \perp \operatorname { span } \left( \mathbf { z } _ { n } \right) wspan(zn) 即:
w ∗ = w ∥ + w ⊥ \mathbf { w } _ { * } = \mathbf { w } _ { \| } + \mathbf { w } _ { \perp } w=w+w

那么有:
w ∗ T w ∗ = w ∥ T w ∥ + 2 w ∥ T w ⊥ + w ⊥ T w ⊥ > w ∥ T w ∥ \mathbf { w } _ { * } ^ { T } \mathbf { w } _ { * } = \mathbf { w } _ { \| } ^ { T } \mathbf { w } _ { \| } + 2 \mathbf { w } _ { \| } ^ { T } \mathbf { w } _ { \perp } + \mathbf { w } _ { \perp } ^ { T } \mathbf { w } _ { \perp } \quad > \mathbf { w } _ { \| } ^ { T } \mathbf { w } _ { \| } wTw=wTw+2wTw+wTw>wTw

也就是说 w ∥ \mathbf { w } _ { \| } w 优于 w ∗ \mathbf { w } _ { * } w,与 w ∗ \mathbf { w } _ { * } w 是最优解的假设相悖,所以 w ∗ = w ∥ \mathbf { w } _ { * } = \mathbf { w } _ { \| } w=w,不存在 w ⊥ \mathbf { w } _ { \perp } w。也就是说 w ∗ \mathbf { w } _ { * } w 可以由 z n \mathbf{z}_n zn 组成, w ∗ \mathbf { w } _ { * } w 位于 Z \mathcal{Z} Z 空间。

所以说任何一个L2正则化线性模型都可以被kernel,所以可以改写为:

min ⁡ β λ N ∑ n = 1 N ∑ m = 1 N β n β m K ( x n , x m ) + 1 N ∑ n = 1 N log ⁡ ( 1 + exp ⁡ ( − y n ∑ m = 1 N β m K ( x m , x n ) ) ) \min _ { \beta } \frac { \lambda } { N } \sum _ { n = 1 } ^ { N } \sum _ { m = 1 } ^ { N } \beta _ { n } \beta _ { m } K \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right) + \frac { 1 } { N } \sum _ { n = 1 } ^ { N } \log \left( 1 + \exp \left( - y _ { n } \sum _ { m = 1 } ^ { N } \beta _ { m } K \left( \mathbf { x } _ { m } , \mathbf { x } _ { n } \right) \right) \right) βminNλn=1Nm=1NβnβmK(xn,xm)+N1n=1Nlog(1+exp(ynm=1NβmK(xm,xn)))

至此便可以使用 GD/SGD 等优化算法进行寻优了。值得注意的是虽然与SVM相似,但是与SVM不同的是其系数 β n \beta_n βn 常常是非零的。

核岭回归(Kernel Ridge Regression)

岭回归的原问题模型如下:
min ⁡ w λ N w T w + 1 N ∑ n = 1 N ( y n − w T z n ) 2 \min _ { \mathbf { w } } \frac { \lambda } { N } \mathbf { w } ^ { T } \mathbf { w } + \frac { 1 } { N } \sum _ { n = 1 } ^ { N } \left( y _ { n } - \mathbf { w } ^ { T } \mathbf { z } _ { n } \right) ^ { 2 } wminNλwTw+N1n=1N(ynwTzn)2

前文已经证得任何L2正则化线性模型都可以被 kernel,所以这里写出核岭回归的数学表达为:

min ⁡ β λ N ∑ n = 1 N ∑ m = 1 N β n β m K ( x n , x m ) ⏟ regularization of  β  K-based features  + 1 N ∑ n = 1 N ( y n − ∑ m = 1 N β m K ( x n , x m ) ) 2 ⏟ linear regression of  β  K-based features  β = λ N β T K β + 1 N ( β T K T K β − 2 β T K T y + y T y ) \begin{aligned} \min _ { \boldsymbol { \beta } } & \underbrace{\frac { \lambda } { N } \sum _ { n = 1 } ^ { N } \sum _ { m = 1 } ^ { N } \beta _ { n } \beta _ { m } K \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right)}_{ \text {regularization of } \beta \text{ K-based features } } + \frac { 1 } { N } \underbrace { \sum _ { n = 1 } ^ { N } \left( y _ { n } - \sum _ { m = 1 } ^ { N } \beta _ { m } K \left( \mathbf { x } _ { n } , \mathbf { x } _ { m } \right) \right) ^ { 2 } } _ { \text {linear regression of } \beta \text{ K-based features } \boldsymbol { \beta } }\\ & = \frac { \lambda } { N } \boldsymbol { \beta } ^ { T } \mathbf { K } \boldsymbol { \beta } + \frac { 1 } { N } \left( \boldsymbol { \beta } ^ { T } \mathbf { K } ^ { T } \mathbf { K } \boldsymbol { \beta } - 2 \boldsymbol { \beta } ^ { T } \mathbf { K } ^ { T } \mathbf { y } + \mathbf { y } ^ { T } \mathbf { y } \right) \end{aligned} βminregularization of β K-based features  Nλn=1Nm=1NβnβmK(xn,xm)+N1linear regression of β K-based features β n=1N(ynm=1NβmK(xn,xm))2=NλβTKβ+N1(βTKTKβ2βTKTy+yTy)

也就是说之前得所有核技巧都可以用到这里。

那么可以根据目标函数导数为零,求出系数 β \beta β 的解析解,其目标函数的导数求得如下:

∇ E a u g ( β ) = 2 N ( λ K T I β + K T K β − K T y ) = 2 N K T ( ( λ I + K ) β − y ) \nabla E _ { \mathrm { aug } } ( \beta ) = \frac { 2 } { N } \left( \lambda \mathrm { K } ^ { T } \mathrm { I } \beta + \mathrm { K } ^ { T } \mathrm { K } \beta - \mathrm { K } ^ { T } \mathbf { y } \right) = \frac { 2 } { N } \mathrm { K } ^ { T } ( ( \lambda \mathrm { I } + \mathrm { K } ) \beta - \mathrm { y } ) Eaug(β)=N2(λKTIβ+KTKβKTy)=N2KT((λI+K)βy)

令其为零有:

β = ( λ I + K ) − 1 y \beta = ( \lambda I + K ) ^ { - 1 } y β=(λI+K)1y

由于 K K K 必然是半正定的(根据 Mercer’s condition),那么当 λ > 0 \lambda > 0 λ>0 时, ( λ I + K ) − 1 ( \lambda I + K ) ^ { - 1 } (λI+K)1 必然存在。这里的稠密矩阵求逆操作的时间复杂度为: O ( N 3 ) O(N^3) O(N3)。值得注意的是虽然与SVM相似,但是与SVM不同的是其系数 β n \beta_n βn 常常是非零的。

支持向量回归(Support Vector Regression)

管回归(Tube Regression)

管回归说的是在回归线周围一定范围内,不算错误,即实际值和预测值的差在一定范围内认为其无错:
∣ s − y ∣ ≤ ϵ : 0 ∣ s − y ∣ > ϵ : ∣ s − y ∣ − ϵ \begin{array} { l } | s - y | \leq \epsilon : 0 \\ | s - y | > \epsilon : | s - y | - \epsilon \end{array} syϵ:0sy>ϵ:syϵ

err ⁡ ( y , s ) = max ⁡ ( 0 , ∣ s − y ∣ − ϵ ) \operatorname { err } ( y , s ) = \max ( 0 , | s - y | - \epsilon ) \\ err(y,s)=max(0,syϵ)

该误差叫做 ϵ \epsilon ϵ-insensitive error(不敏感误差)。

与平方(squared)误差 err ⁡ ( y , s ) = ( s − y ) 2 \operatorname { err } ( y , s ) = ( s - y ) ^ { 2 } err(y,s)=(sy)2 相比,当 ∣ s − y ∣ | s - y | sy 较小时,两者相似。但是当 ∣ s − y ∣ | s - y | sy 较大时,增长较缓,也就是杂讯(nosie)的影响相较小。

在这里插入图片描述
那么 L2 管回归 的优化目标为:
min ⁡ w λ N w T w + 1 N ∑ n = 1 N max ⁡ ( 0 , ∣ w T z n − y ∣ − ϵ ) \min _ { \mathbf { w } } \frac { \lambda } { N } \mathbf { w } ^ { T } \mathbf { w } + \frac { 1 } { N } \sum _ { n = 1 } ^ { N } \max \left( 0 , \left| \mathbf { w } ^ { T } \mathbf { z } _ { n } - y \right| - \epsilon \right) wminNλwTw+N1n=1Nmax(0,wTznyϵ)

标准支持向量回归(Standard Support Vector Regression)

为了使用 SVM 的优点(稀疏系数矩阵),现在将 L2 管回归的系数改变一下:

min ⁡ b , w 1 2 w T w + C ∑ n = 1 N max ⁡ ( 0 , ∣ w T z n + b − y n ∣ − ϵ ) \min _ { b , \mathbf { w } } \quad \frac { 1 } { 2 } \mathbf { w } ^ { T } \mathbf { w } + C \sum _ { n = 1 } ^ { N } \max \left( 0 , \left| \mathbf { w } ^ { T } \mathbf { z } _ { n } + b - y _ { n } \right| - \epsilon \right) b,wmin21wTw+Cn=1Nmax(0,wTzn+bynϵ)

同时由于这里的max操作不可微,所以需要转换一下:

min ⁡ b , w , ξ ∨ , ξ ∧ 1 2 w T w + C ∑ n = 1 N ( ξ n ∨ + ξ n ∧ )  s.t.  − ϵ − ξ n ∨ ≤ y n − w T z n − b ≤ ϵ + ξ n ∧ ξ n ∨ ≥ 0 , ξ n ∧ ≥ 0 \begin{aligned} \min _ { b , \mathbf { w } , \xi ^ { \vee } , \xi ^ { \wedge } } & \frac { 1 } { 2 } \mathbf { w } ^ { T } \mathbf { w } + C \sum _ { n = 1 } ^ { N } \left( \xi _ { n } ^ { \vee } + \xi _ { n } ^ { \wedge } \right) \\ \text { s.t. } & - \epsilon - \xi _ { n } ^ { \vee } \leq y _ { n } - \mathbf { w } ^ { T } \mathbf { z } _ { n } - b \leq \epsilon + \xi _ { n } ^ { \wedge } \\ & \xi _ { n } ^ { \vee } \geq 0 , \xi _ { n } ^ { \wedge } \geq 0 \end{aligned} b,w,ξ,ξmin s.t. 21wTw+Cn=1N(ξn+ξn)ϵξnynwTznbϵ+ξnξn0,ξn0

由于这里有上下两个边界,所以相比SVM多了一个辅助系数,需要 ξ n ∨ , ξ n ∧ \xi _ { n } ^ { \vee } , \xi _ { n } ^ { \wedge } ξn,ξn 两个辅助系数。至此便可以使用二次规划求解最优值了。

对偶支持向量回归(Dual Support Vector Regression)

为了使用核技巧,仍需求解对偶问题。这里引入两个拉格朗日乘数 α n ∨ , α n ∧ \alpha_ { n } ^ { \vee } , \alpha_ { n } ^ { \wedge } αn,αn

 objective function  1 2 w T w + C ∑ n = 1 N ( ξ n ∨ + ξ n ∧ )  Lagrange multiplier  α n ∧  for  y n − w T z n − b ≤ ϵ + ξ n ∧  Lagrange multiplier  α n ∨  for  − ϵ − ξ n ∨ ≤ y n − w T z n − b \begin{array} { l l l } \text { objective function } & &\frac { 1 } { 2 } \mathbf { w } ^ { T } \mathbf { w } + C \sum _ { n = 1 } ^ { N } \left( \xi _ { n } ^ { \vee } + \xi _ { n } ^ { \wedge } \right) \\ \text { Lagrange multiplier } \alpha _ { n } ^ { \wedge } & \text { for } & y _ { n } - \mathbf { w } ^ { T } \mathbf { z } _ { n } - b \leq \epsilon + \xi _ { n } ^ { \wedge } \\ \text { Lagrange multiplier } \alpha _ { n } ^ { \vee } & \text { for } & - \epsilon - \xi _ { n } ^ { \vee } \leq y _ { n } - \mathbf { w } ^ { T } \mathbf { z } _ { n } - b \end{array}  objective function  Lagrange multiplier αn Lagrange multiplier αn for  for 21wTw+Cn=1N(ξn+ξn)ynwTznbϵ+ξnϵξnynwTznb

某些 KKT 条件如下:

∂ L ∂ w i = 0 : w = ∑ n = 1 N ( α n ∧ − α n ∨ ) ⏟ β n z n ∂ L ∂ b = 0 : ∑ n = 1 N ( α n ∧ − α n ∨ ) = 0 α n ∧ ( ϵ + ξ n ∧ − y n + w T z n + b ) = 0 α n ∨ ( ϵ + ξ n ∨ + y n − w T z n − b ) = 0 \begin{array} { l } \frac { \partial \mathcal { L } } { \partial w _ { i } } = 0 : \mathbf { w } = \sum _ { n = 1 } ^ { N } \underbrace { \left( \alpha _ { n } ^ { \wedge } - \alpha _ { n } ^ { \vee } \right) } _ { \beta_n } \mathbf { z } _ { n } \\ \frac { \partial \mathcal { L } } { \partial b } = 0 : \sum _ { n = 1 } ^ { N } \left( \alpha _ { n } ^ { \wedge } - \alpha _ { n } ^ { \vee } \right) = 0 \\ \alpha _ { n } ^ { \wedge } \left( \epsilon + \xi _ { n } ^ { \wedge } - y _ { n } + \mathbf { w } ^ { T } \mathbf { z } _ { n } + b \right) = 0 \\ \alpha _ { n } ^ { \vee } \left( \epsilon + \xi _ { n } ^ { \vee } + y _ { n } - \mathbf { w } ^ { T } \mathbf { z } _ { n } - b \right) = 0 \end{array} wiL=0:w=n=1Nβn (αnαn)znbL=0:n=1N(αnαn)=0αn(ϵ+ξnyn+wTzn+b)=0αn(ϵ+ξn+ynwTznb)=0

与SVM求解过程类似,可以写出其对偶问题如下:

min ⁡ 1 2 ∑ n = 1 N ∑ m = 1 N ( α n ∧ − α n ∨ ) ( α m ∧ − α m ∨ ) k n , m + ∑ n = 1 N ( ( ϵ − y n ) ⋅ α n ∧ + ( ϵ + y n ) ⋅ α n ∨ )  s.t.  ∑ n = 1 N ( α n ∧ − α n ∨ ) = 0 0 ≤ α n ∧ ≤ C , 0 ≤ α n ∨ ≤ C \begin{aligned} \min & \frac { 1 } { 2 } \sum _ { n = 1 } ^ { N } \sum _ { m = 1 } ^ { N } \left( \alpha _ { n } ^ { \wedge } - \alpha _ { n } ^ { \vee } \right) \left( \alpha _ { m } ^ { \wedge } - \alpha _ { m } ^ { \vee } \right) k _ { n , m } \\ & + \sum _ { n = 1 } ^ { N } \left( \left( \epsilon - y _ { n } \right) \cdot \alpha _ { n } ^ { \wedge } + \left( \epsilon + y _ { n } \right) \cdot \alpha _ { n } ^ { \vee } \right) \\ \text { s.t. } & \sum _ { n = 1 } ^ { N } \left( \alpha _ { n } ^ { \wedge } - \alpha _ { n } ^ { \vee } \right) = 0 \\ & 0 \leq \alpha _ { n } ^ { \wedge } \leq C , 0 \leq \alpha _ { n } ^ { \vee } \leq C \end{aligned} min s.t. 21n=1Nm=1N(αnαn)(αmαm)kn,m+n=1N((ϵyn)αn+(ϵ+yn)αn)n=1N(αnαn)=00αnC,0αnC

系数的稀疏性分析:
∣ w T z n + b − y n ∣ < ϵ \left| \mathbf { w } ^ { T } \mathbf { z } _ { n } + b - y _ { n } \right| < \epsilon wTzn+byn<ϵ ,也就是说样本严格位于管内,那么会有:
⟹ ξ n ∧ = 0  and  ξ n ∨ = 0 ⟹ ( ϵ + ξ n ∧ − y n + w T z n + b ) ≠ 0  and  ( ϵ + ξ n ∨ + y n − w T z n − b ) ≠ 0 ⟹ α n ∧ = 0  and  α n ∨ = 0 ⟹ β n = 0 \begin{array} { l } \Longrightarrow \xi _ { n } ^ { \wedge } = 0 \text { and } \xi _ { n } ^ { \vee } = 0 \\ \Longrightarrow \left( \epsilon + \xi _ { n } ^ { \wedge } - y _ { n } + \mathbf { w } ^ { T } \mathbf { z } _ { n } + b \right) \neq 0 \text { and } \left( \epsilon + \xi _ { n } ^ { \vee } + y _ { n } - \mathbf { w } ^ { T } \mathbf { z } _ { n } - b \right) \neq 0 \\ \Longrightarrow \alpha _ { n } ^ { \wedge } = 0 \text { and } \alpha _ { n } ^ { \vee } = 0 \\ \Longrightarrow \beta _ { n } = 0 \end{array} ξn=0 and ξn=0(ϵ+ξnyn+wTzn+b)=0 and (ϵ+ξn+ynwTznb)=0αn=0 and αn=0βn=0

所以说 β \beta β 是稀疏的,同时在 SVR 中,哪些在管上或外的样本( β n ≠ 0 \beta_n \neq 0 βn=0)叫做支持向量。

线性或核模型总结

在这里插入图片描述

  • 第一行由于效果不好,所以不太常用。
  • 第二行比较常用的工具箱是LIBLINEAR
  • 第三行由于其稠密的 β \beta β 所以也不太常用
  • 第四行比较常用的工具箱是LIBSVM
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FlameAlpha

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值