Loading [MathJax]/jax/output/HTML-CSS/jax.js

这篇笔记主要记载感知机,逻辑回归以及SVM的概念和推导

感知机

二类分类线性模型:

f(x)=sign(wTx+b)sign(x)={1, if x>=01, if x<0

损失函数选择:

首先想到误分类点个数,但这样的损失函数不是参数w和b的可导函数,不易优化

另一个选择是误分类点到超平面的几何距离总和: 1wxiMyi(wTxi+b) 其中M是误分类点集合(ps 该函数是支持向量机损失函数的原始形式)

感知机简化了2中的模型,去掉了1w,使用误分类点到超平面的函数距离之和,其形式为:

L(w,b)=xiMyi(wTxi+b)

对于误分类点,yiwxi+b的符号刚好相反,所以前面加一个负号,使用梯度下降或牛顿法求最小值

感知机的对偶算法,思想就是用拉格朗日乘子线性组合来表示w,具体优势在SVM算法中会提到

逻辑回归

逻辑回归是在线性回归模型上加了Logistic函数映射,或者说把感知机模型中的符号函数改成Logistic函数:

Logistic(x)=11+exp(x)

Logistic函数值域为(0,1),因此,类别用0,1表示,即yi=0,1

Logistic函数映射的作用

考虑用线性回归模型做分类的不足:y=wx+b,对于二分类问题,y的取值只有两个,而右边的wx+b却是负无穷到正无穷,这种模型本身就存在问题;还有就是假设预测变量y和自变量x之间是线性关系,这往往不符合实际情况,通常情况下,自变量多大或过小时,其变化不会对因变量造成太大变化,而是当自变量接近某一阈值时,自变量的变化会引起因变量的巨大变化,这种关系更适合使用指数描述

可以看出,逻辑回归的函数刚好满足上面两点,这也许就是逻辑回归更适合二分类问题的真正原因

模型参数估计

由于Logistisc函数非线性,如果使用最小二乘去求解,计算复杂;同时,考虑Logistisc函数的指数形式,逻辑回归使用归,根据最大熵原理,使用极大似然做参数估计

TODO 最小二乘和指数形式的极大似然具有一致性 逻辑回归使用极大似然问题作为优化目标,而不是回归问题中常用的最小均方根误差(LMS),一方面和Logist函数的指数形式有关,还有可能最根本的原因是,二者问题不同。回归问题,是一个拟合数据的问题,最根本的是要求拟合数据的误差尽可能小,所以很适合LMS;但对于逻辑回归要解决的分类问题,最根本的是要求分类尽可能正确,所以使用极大似然最大化分类正确的概率,后面可能讲到SVM,其在分类正确的基础上又提出了最大间隔条件,从另一个角度优化分类问题~

对于每个观测点(xi,yi),其概率可以表示为:

p(xi,yi)={P(Y=1xi)if yi=1,P(Y=0xi)if yi=0

因为yi=0,1所以,可以改写上式为:

p(xi,yi)=P(Y=1xi)yiP(Y=0xi)1yi

对所有观测点进行极大似然估计,即:

max Ni=1[P(Y=1xi)]yi[P(Y=0xi)]1yi

其中P(Y=1x)=Logistic(wTx) ,相应的 P(Y=0x)=1P(Y=1x)

可以看出,似然函数的设计巧妙的实现了所有数据出现的概率的乘积(之所以是乘积而不是累加是为了使用对数做简化)

取对数化简后得:

maxw=L(w)L(w)=Ni=1[yi(wTxi)log(1+exp(wTxi))]

对w求偏导得:

L(w)w=Ni=1(yixixiexp(wxi)1+exp(wxi))=Ni=1(yi11+exp(wxi))xi=Ni=1(yilogistic(wxi))xi

可见偏导数结构简单,容易计算,之后使用梯度下降或牛顿法求最优值

支持向量机

感知机模型中使用的是误分类点到超平面的函数间隔

在超平面wTx+b=0确定时,函数间隔yi(wTxi+b)只能相对地表示点到超平面的远近

在选择超平面的时候,只有函数间隔是不够的,只要成倍的改变w,b,超平面不变,但函数距离就成倍变化

由于我们关注的是超平面,所以可以把函数间隔或w,b固定下来,一般选择固定函数间隔,容易优化

支持向量机是求解能够正确划分数据集并且几何间隔最大的超平面,推导过程:

最大间隔超平面,即最大化超平面(w,b)关于数据集合的几何间隔γ

maxw,b γs.t. yi(ωTωxi+bω)>=γ,i=1,2,...,N

考虑几何间隔和函数间隔的关系: γ=˜γω,改写最优化问题为:

maxw,b ˜γωs.t. yi(wTxi+b)>=˜γ , i=1,2,...,N

由于函数间隔˜γ的值不影响最优化问题的解,因此可以固定˜γ=1,改写最优化问题为:

minw,b ω2s.t. yi(wTxi+b)>=1 , i=1,2,...,N

对偶问题的推导

首先构建拉格朗日函数,对每个不等式约束引进拉格朗日乘子αi>=0并放到目标函数中:

L(w,b,α)=12w2Ni=1αi(yi(wTxi+b)1)

令: θ(w)=maxαi0L(w,b,α)

容易验证,但有约束不满足的时候,θ(w)=+,比如当yi(wTxi+b)<1时,只要令αi=+即可

而当所有条件都满足时,θ(w)=12w2,即我们最初的优化问题

因此,原始问题,等价与minθ(w),即:

minw,bθ(w)=minw,bmaxαL(w,b,α)=p

这里,p表示该问题的最优解,也即原始问题的最优解

如果把极大,极小的位置转换一下,得:

maxαminw,bL(w,b,α)=d

交换后的问题不再等价与原问题,称为原始问题的对偶问题,其最优值记为d

直观上,可以看出dp,称为弱对偶,其实对于SVM,d=p,称为强对偶

如果原始问题是 Convex 的并且满足 Slater 条件的话,那么 strong duality 成立(充分条件)

Slater条件是指存在严格满足约束条件的点

还有KKT条件。。。

对偶问题的计算

首先L关于w和b最小化,令其偏导数为0得:

Lw=0w=Ni=1αiyixiLb=0Ni=1αiyi=0

带回L得:

L(w,b,α)=12ni,j=1αiαjyiyjxTixjni,j=1αiαjyiyjxTixjbni=1αiyi+ni=1αi=ni=1αi12ni,j=1αiαjyiyjxTixj

此时,我们得到关于对偶变量α的优化问题:

maxαni=1αi12ni,j=1αiαjyiyjxi,xjs.t.,αi0,i=1,,nni=1αiyi=0

该问题可以使用高效的SMO算法求解

该问题求解后得到α,可以根据前面求导得到的w=Ni=1αiyixi关系计算w,之后选取一个支持向量(αj0对应的向量)计算b,b=yjNi=1yiαi(xixj)

将w带回原来的超平面方程得:

f(x)=(ni=1αiyixi)Tx+b=ni=1αiyixi,x+b

这里,我们注意到,优化问题和分离超平面中x都是以点积的形式出现的,这样对于后面的核函数技巧非常重要;同时,现在优化问题的中的变量是αifor i=1 to n,数量是样本点个数,而和feature无关,这对于高维问题(文本处理中常见)很高效,其实,对于SVM,变量的个数其实更少,只是少数的‘支持向量’因为,对于所有非’Support Vector’,对应的α都为0,因此,对于新点的内积,只需要少量的’支持向量’,而不是所有的数据

核kernel

对于线性不可分的数据,我们通常需要将原始数据映射到高维空间,使其线性可分

最简单的做法,我们可以设定一个将数据从映射到高维的函数ϕ(x),这样分类函数表示为:

f(x)=ni=1αiyiϕ(xi),ϕ(x)+b

其中,α是通过求解如下对偶问题得到的:

maxαni=1αi12ni,j=1αiαjyiyjϕ(xi),ϕ(xj)s.t.,αi0,i=1,,nni=1αiyi=0

这个方法说白了就是,拿到非线性数据,找到一个映射函数(不一定映射到高维空间,只要能使数据线性可分),然后将数据通过映射函数映射到新空间,再做线性SVM

假设当前数据2个特征(a,b),映射到三维空间的话,做多有如下多种维度:

上面貌似不对…反正特征随着维度的增加,呈爆炸式增长

设两个变量x1=(η1,ξ1)Tx2=(η2,ξ2)T

设映射函数为: ϕ(x1)=[2η1,η21,2ξ1,ξ21,2η1ξ1,1]T

ϕ(x1),ϕ(x2)=2η1η2+η21η22+2ξ1ξ2+ξ21ξ22+2η1η2ξ1ξ2+1

同时:

(x1,x2+1)2=(η1η2+ξ1ξ2+1)2=2η1η2+η21η22+2ξ1ξ2+ξ21ξ22+2η1η2ξ1ξ2+1

我们发现:

(x1,x2+1)2=ϕ(x1),ϕ(x2)

二者相等,不同在于:一个是映射到高维空间中,然后再根据内积的公式进行计算;而另一个则直接在原来的低维空间中进行计算,而不需要显式地写出映射后的结果。

我们把这里的计算两个向量在映射过后的空间中的内积的函数叫做核函数 (Kernel Function),上面例子中的核函数为:

k(x1,x2)=(x1,x2+1)2

核函数能简化映射空间中的内积运算——刚好“碰巧”的是,SVM里需要计算的地方,数据向量总是以内积的形式出现的。

因此SVM中的优化问题和决策平面改写为核函数的形式分别为:

决策面函数:

f(x)=ni=1αiyik(xi,x)+b

优化问题:

maxαni=1αi12ni,j=1αiαjyiyjk(x1,x2)s.t.,0αiC,i=1,,nni=1αiyi=0

常见的核函数有:

  1. 多项式核: κ(x1,x2)=(x1,x2+R)d
  2. 高斯核: κ(x1,x2)=exp(x1x222σ2)
  3. 线性核: κ(x1,x2)=x1,x2

异常点Outliers

如果数据线性不可分,可以通过尝试使用核函数将数据映射到高维空间,寻找可能的分隔超平面

但数据常常含有噪音,这些异常点会严重影响超平面的位置,有时,仅仅是因为异常点就导致找不到超平面,如下图中的黄色点:

svm-with-noise

为了处理这种情况,SVM 允许数据点在一定程度上偏离一下超平面,改写优化问题为:

min12w2+Cni=1ξis.t.,yi(wTxi+b)1ξi,i=1,,nξi0,i=1,,n

其中,ξi0称为松弛变量(slack variable),对应数据点xi允许偏小的函数间隔的大小

如果我们允许ξi任意大的话,那任意超平面都满足要求了

所以需要在目标函数中加上一个正则项Cni=1ξi,其中C是常数,用来权衡分割面间隔和数据点偏移量

这样,使用拉格朗日求解对偶问题过程如下:

L(w,b,ξ,α,r)=12w2+Cni=1ξini=1αi(yi(wTxi+b)1+ξi)ni=1riξi

其中α,r (0)是对偶变量,也即拉格朗日乘子

首先L关于w,b,r最小化,分别令其偏导数为0得:

Lw=0w=ni=1αiyixiLb=0ni=1αiyi=0Lξi=0Cαiri=0,i=1,,n

将w带回L化简得到和以前相同的目标函数:

maxαni=1αi12ni,j=1αiαjyiyjxi,xj

这样,最终对偶问题为:

maxαni=1αi12ni,j=1αiαjyiyjxi,xjs.t.,0αiC,i=1,,nni=1αiyi=0

对比没有添加松弛变量前的对偶问题,发现只有对偶变量α多了一个上限C

数值优化–SMO算法

求解上面的对偶问题,SVM使用了高效的Sequential Minimal Optimization (SMO) 算法,其基本思路是:

如果所有变量的解都满足优化问题的KKT条件,那么这个优化问题的最优解得到了(KKT条件是优化问题的充要条件);

否则,选取两个变量,固定其他的,针对这两个变量构建一个二次规划问题

该算法是对坐标下降算法( Coordinate Descend )的扩展

坐标下降法的原理是每次选取一个维度进行优化,比如求梯度,不断向梯度的反方向移动,即不断靠近最优值

考虑这里对偶变量的限制:ni=1αiyi=0,如果每次选取一个维度αi进行优化,其他变量αj(ji)视为变量,这样优化是没效果的,因为αi是确定的

所以,SMO每次每次选择两个坐标维度进行优化,(其中一个是违反KKT条件最严重的),每个迭代步骤实际上是一个可以直接求解的一元二次函数极值问题,因此迭代高效

下面以选取α1和α2为变量,其余为常量为例,详细描述求解过程:

待解决的对偶问题描述为:

maxαni=1αi12ni,j=1αiαjyiyjk(x1,x2)s.t.,0αiC,i=1,,nni=1αiyi=0

选取α1,α2为变量,固定其他αi (i>2)后得:

maxα1,α2W(α1,α2)W(α1,α2)=α1+α2K11α21K22α22y1y2K12α1α2y1α1Ni=3yiαiKi1y2α2Ni=3yiαiKi2s.t.  α1y1+α2y2=Ni=3yiαi=ζ  0α1,α2C

其中,Kij=k(xi,xj)

因为α2=1y2(ζα1y1)y2=1,1==y2(ζα1y1),将其带入目标函数可以消去α2,从而变成关于α1的一元函数,直接根据导数求极值

求导化简过程复杂,结果是:

αnew1=αold1+y1(E2E1)K11+K222K12

其中 Ei=f(xi)yi=(nj=1αjyjk(xj,xi)+b)yi

svm-smo-alpha

上图中红色线段为解范围

SMO使用一些启发式策略来选取最优的两个坐标维度,可以参见 John C. Platt 的那篇论文 Fast Training of Support Vector Machines Using Sequential Minimal Optimization

TODO

  1. 区分一下:分离超平面方程,分类决策函数,对偶问题
  2. 线性支持向量机的最优解w是唯一的,但b却不唯一

参考

  1. 统计机器学习-李航博士
  2. 支持向量机: Support Vector
  3. 支持向量机: Kernel
TOP