在上一篇文章中,我们推导出了 SVM 的目标函数:
\[
\underset{(\mathbf{w},b)}{\operatorname{min}} ||\mathbf{w}|| \\ \operatorname{s.t.} \ y_i(\mathbf{w}^T\mathbf{x_i}+b) \ge \delta, \ \ i=1,...,m
\]
由于求解过程中,限制条件中的 \(\delta\) 对结果不产生影响,所以简单起见我们把 \(\delta\) 替换成 1。另外,为了之后求解的方便,我们会把原函数中的 \(||\mathbf{w}||\) 换成 \(\frac{1}{2}||\mathbf{w}||^2\),优化前者跟优化后者,最终的结果是一致的。这样,我们就得到 SVM 最常见的目标函数:
\[
\begin{align}
&\underset{(\mathbf{w},b)}{\operatorname{min}} \frac{1}{2}\mathbf{w}^2 \tag{1} \\ \operatorname{s.t.} \ y_i (\mathbf{w}^T & \mathbf{x_i}+b) \ge 1, \ i=1,...,m \notag
\end{align}
\]
现在,我们要开始着手来解这个函数。
拉格朗日乘子法
对于(1)式中的问题,如果限制条件是等号的话,我们是可以直接用拉格朗日乘子法求解的。而为了应对不等号的情况,研究人员提出了 KKT 条件下的拉格朗日乘子法。所谓 KKT 条件,我们可以简单地把它当作拉格朗日乘子法的进阶版,只要原优化问题满足几个特定的条件,就可以仿照拉格朗日乘子法来求解问题。(关于 KKT 条件的具体内容,博主没有仔细研究过)。
而 SVM 原问题,刚好满足这些条件。因此可以直接套用拉格朗日乘子法的流程,首先列出拉格朗日函数:
\[
L(\mathbf w, b, \mathbf \alpha)=\frac{1}{2}||\mathbf w||^2-\sum_{i=1}^n\alpha_i(y_i(\mathbf w^T \mathbf x_i + b)-1) \\
s.t. \alpha_i \ge 0 \tag{2}
\]
(注意,在 KKT 条件下,需要满足 \(\alpha_i \ge 0\))
然后,令 \(\frac{\partial L}{\partial \mathbf w}=0\),\(\frac{\partial L}{\partial b}=0\),可以得到方程组:
\[
\frac{\partial L}{\partial \mathbf w}=\mathbf w-\sum_{i=1}^n\alpha_i y_i \mathbf x_i=0 \tag{3}
\]
\[
\frac{\partial L}{\partial b}=\sum_{i=1}^n \alpha_i y_i=0 \tag{4}
\]
在约束条件是等式的情况中,我们还会根据 \(\frac{\partial L}{\partial \mathbf \alpha}=0\) 得到另外几组方程,然后可以解出 \(\mathbf w\) 和 \(b\)。
不过,由于现在约束条件是不等式,所以 \(\frac{\partial L}{\partial \mathbf \alpha}\) 得到的是一堆不等式:
\[
y_i (\mathbf w \mathbf x_i+b)-1 \ge 0 \ \ i=1,2,\dots,N
\]
这样是没法直接解出 \(\mathbf w\) 和 \(b\) 的。
为了让方程组的形式更加简单,我们可以联立 (2)(3)(4) 把 \(\mathbf w\) 和 \(b\) 消掉(后文有详细的推导过程):
\[
L(\mathbf w,b, \mathbf \alpha)=\sum_{i=1}^n \alpha_i - \frac{1}{2}\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j y_i y_j \mathbf x_j^T \mathbf x_i \tag{5}
\]
到这一步,熟悉优化的同学应该发现,我们已经把原问题转化为拉格朗日对偶问题。换句话说,我们接下来要优化的问题就变为:
\[
\underset{\alpha}{\operatorname{max}} \sum_{i=1}^n \alpha_i - \frac{1}{2}\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j y_i y_j \mathbf x_j^T \mathbf x_i \tag{6} \\
s.t. \ a_i \ge 0, i=1,\dots,m \\
\sum_{i=1}^m\alpha_i y_i=0
\]
拉格朗日对偶问题
博主刚开始接触拉格朗日对偶的时候,一直搞不懂为什么一个最小化的问题可以转换为一个最大化问题。直到看了这篇博文后,才对它有了形象的理解。所以,下面我就根据这篇博文,谈谈我对拉格朗日对偶的理解。
对偶问题
先看一个简单的线性规划问题:
\[
\underset{x,y}{\operatorname{min}} x+3y \\
s.t. \ x+y \ge 2 \\
x,y \ge 0
\]
要求 \(x+3y\) 的最小值,可以通过变换目标函数来获得:
\[
x+y+2y \ge 2 + 2 \times 0 = 2
\]
所以 \(x+3y\) 的最小值是 2。
如果将问题泛化:
\[
\underset{x,y}{\operatorname{min}} px+qy \tag{7} \\
s.t. \ x+y \ge 2 \\
x,y \ge 0
\]
同样地,通过这种拼凑的方法,我们可以将问题变换为:
\[
\begin{align}
a(x+y) &\ge 2a \notag \\
bx &\ge 0 \notag\\
cy &\ge 0 \notag\\
a(x+y)+bx+cy&=(a+b)x+(a+c)y \ge 2a \tag{8}
\end{align}
\]
其中,\(a,b,c > 0\)。
(8)式对 \(\forall a,b,c > 0\) 均成立。不管 \(a+b\)、\(a+c\) 的值是多少,\((a+b)x+(a+c)y\) 的最小值都是 \(2a\)。因此,我们可以加上约束:\(a+b=p\)、\(a+c=q\),这样就得到 \(px+qy\) 的最小值为 \(2a\)。需要注意的是,\(2a\) 是 \(px+qy\) 的下界,即这个最小值对 \(\forall a\) 都要成立,所以,需要在约束条件内求出 \(a\) 的最大值,才能得出 \(px+qy\) 的最小值。
这样一来,问题就转换为:
\[
\begin{eqnarray}
\underset{a,b,c} {\operatorname {max}}\ {2a} \tag{9} \\
s.t. \ p=a+b \notag\\
q = a+c \notag\\
a,b,c \ge 0 \notag
\end{eqnarray}
\]
(9)式就是(7)式的对偶形式。
对偶和对称有异曲同工之妙。所谓对偶,就是把原来的最小化问题(7)转变为最大化问题(9)。这种转化对最终结果没有影响,但却使问题更加简单(问题(9)中的限制条件都是等号,而不等号只是针对单个变量 \(a,b,c\),因此可以直接套用拉格朗日乘子法)。
另外,对偶分强对偶和弱对偶两种。借用上面的例子,强对偶指的是 \(px+qy\) 的最小值就等于 \(2a\) 的最大值,而弱对偶则说明,\(px+qy\) 的最小值大于 \(2a\) 的最大值。SVM 属于强对偶问题。
线性规划问题的对偶问题
现在,我们把问题再上升到一般的线性规划问题:
\[
\begin{eqnarray}
\underset{x \in \mathbb{R}^n} {\operatorname{min}} c^Tx \tag{10} \\
s.t. \ Ax=b \notag \\
Gx \le h \notag
\end{eqnarray}
\]
用同样的方法进行转换:
\[
\begin{align}
-u^TAx & =-b^Tu \notag \\
-v^TGx & \ge -h^Tv \notag \\
(-u^TA-v^TG)x & \ge -b^Tu-h^Tu \notag
\end{align}
\]
这样,可以得到该线性问题的对偶形式:
\[
\underset{u \in \mathbb{R}^m,v \in \mathbb{R}^r} {\operatorname{max}} -b^Tu-h^Tu \tag{11} \\
s.t. \ c= -A^Tu-G^Tv \\
v > \ 0
\]
这种「拼凑」的转换方法可以用拉格朗日函数作为通用的方法解决。定义原函数如下:
\[
f(x)=c^Tx
\]
引入拉格朗日函数:
\[
L(x,u,v)=f(x)+u^T(Ax-b)+v^T(Gx-h)
\]
其中,\(v>0\)。
由于 \(Ax-b = 0\),\(Gx-h \le 0\),所以必有 \(f(x) \ge L(x,u,v)\),换句话说,\(\underset{x}{\operatorname{min}}{f(x)} \ge \underset{x}{\operatorname{min}}{L(x,u,v)}\)。因此,求 \(f(x)\) 的最小值就转换为求 \(L(x,u,v)\) 的最小值。
\[
\begin{align}
L(x,u,v)&=(c^T+u^TA+v^TG)x-u^Tb-v^Th \notag
\end{align}
\]
\(\underset{x}{\operatorname{min}}{L(x,u,v)}\) 在 \(x\) 没有任何限制的前提下,是不存在最小值。因此,我们要加上约束条件:\(c^T+u^TA+v^TG=0\),这样,\(\underset{x}{\operatorname{min}}{L(x,u,v)}=-u^Tb-v^Th\)。如此一来,我们又把原问题转换到(11)中的对偶问题上了。
二次规划问题的对偶问题
由于 SVM 的目标函数是一个二次规划问题(带有平方项),因此我们最后再来看一个二次规划的优化问题。
假设有如下二次规划问题:
\[
\begin{equation}
\underset{x}{\operatorname{min}}\ {\frac{1}{2}x^TQx+c^Tx} \notag \\
s.t. \ Ax=b \notag \\
x \ge 0
\end{equation}
\]
其中,\(Q>0\)(保证有最小值)。
按照线性规划问题的思路,构造拉格朗日函数(注意,构造出来的 \(L(x,u,v)\) 必须小于等于原函数 \(\frac{1}{2}x^TQx+c^Tx\)):
\[
\begin{equation}
L(x,u,v)=\frac{1}{2}x^TQx+c^Tx-u^Tx+v^T(Ax-b) \notag \\
=\frac{1}{2}x^TQx+(c+v^TA-u)^Tx+v^Tb \notag
\end{equation}
\]
由于二次函数 \(ax^2+bx+c\) 的最小值在 \(x=-\frac{b}{2a}\) 处取得,因此可以求得函数 \(L\) 的最小值:
\[
\begin{equation}
\underset{x}{\operatorname{min}} L(x,u,v)=-\frac{1}{2}(c-u+A^Tv)^TQ^{-1}(c-u+A^Tv)-b^Tv
\end{equation}
\]
这样一来,我们就求得原问题的拉格朗日对偶问题:
\[
\begin{equation}
\underset{u,v}{\operatorname{max}}-\frac{1}{2}(c-u+A^Tv)^TQ^{-1}(c-u+A^Tv)-b^Tv \notag \\
s.t. \ u>0
\end{equation}
\]
拉格朗日对偶问题
现在总结一下拉格朗日对偶问题的基本「套路」。
假设原问题为:
\[
\begin{equation}
\underset{x}{\operatorname{min}}f(x) \notag \\
s.t. \ h_i(x) \le 0, i=1,\dots,m \notag \\
l_i(x)=0, j=1,\dots,r \notag
\end{equation}
\]
则拉格朗日原始问题为:
\[
L(x,u,v)=f(x)+\sum_{i=1}^m {u_i h_i(x)}+\sum_{j=1}^r v_j l_j(x)
\]
其中,\(u_i>0\)。
之后,我们求出 \(\underset{x}{\operatorname{min}}L(x,u,v)=g(u,v)\),将问题转换为对偶问题:
\[
\begin{equation}
\underset{u,v}{\operatorname{max}} \ g(u,v) \notag \\
s.t. \ u \ge 0 \notag
\end{equation}
\]
教材上通常把拉格朗日原始问题表示为 \(\underset{x}{\operatorname{min}}\underset{u,v}{\operatorname{max}}L(x,u,v)\),而对偶问题表示成 \(\underset{u,v}{\operatorname{max}}\underset{x}{\operatorname{min}}L(x,u,v)\)。它们之间存在如下关系:
\[
\underset{x}{\operatorname{min}}\underset{u,v}{\operatorname{max}}L(x,u,v) \ge \underset{u,v}{\operatorname{max}}\underset{x}{\operatorname{min}}L(x,u,v)
\]
SVM的对偶问题
现在看回 SVM。我们将约束条件表述成 \(y_i (\mathbf{w}^T\mathbf{x_i}+b) -1 \ge 0, \ i=1, \dots ,m\),然后,按照上面的「套路」,表示出拉格朗日原始问题:
\[
\begin{align}
L(\mathbf{w},b,\alpha)= & \frac{1}{2}\mathbf{w}^2-\sum_{i=1}^m{\alpha_i}[y_i(\mathbf{w}^T\mathbf{x_i}+b)-1] \tag{12} \\
s.t. \ \alpha_i \ge &\ 0, \ i=1, \dots, m \notag
\end{align}
\]
下面要求出 \(L(\mathbf{w},b,\alpha)\) 关于 \(\mathbf{w}\) 和 \(b\) 的最小值,这里可以直接通过偏导求得:
\[
\nabla_\mathbf{w} L=\mathbf{w}-\sum_{i=1}^m \alpha_iy_i \mathbf{x}_i=0 \tag{13}
\]
\[
\frac{\partial L}{\partial b}=-\sum_{i=1}^m\alpha_i y_i=0 \tag{14}
\]
由(13)式解得:
\[
\begin{align}
\mathbf{w}=\sum_{i=1}^m \alpha_i y_i \mathbf{x}_i \tag{15}
\end{align}
\]
(15)式代入(12)式得到:
\[
W(\alpha,b)=\sum_{i=1}^m\alpha_i-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i \alpha_j y_i y_j \mathbf{x}_i \mathbf{x}_j-b\sum_{i=1}^m \alpha_i y_i \tag{16}
\]
而(14)式已经表明:\(\sum_{i=1}^m\alpha_i y_i=0\),所以(16)式化简为:
\[
W(\alpha)=\sum_{i=1}^m\alpha_i-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i \alpha_j y_i y_j \mathbf{x}_i \mathbf{x}_j \tag{17}
\]
(17)式就是最终版本的对偶形式了(上文的 (6) 式其实也是这样推出来的)。自此,我们得出 SVM 的拉格朗日对偶问题:
\[
\underset{\alpha}{\operatorname{max}} W(\alpha) \\
s.t. \ a_i \ge 0, i=1,\dots,m \\
\sum_{i=1}^m\alpha_i y_i=0
\]
解出 \(\mathbf \alpha\) 后,就可以根据 (15) 式解出 \(\mathbf w\),然后根据超平面的间隔求出 \(b\)。
当然,这个对偶形式的优化问题依然不是那么容易解的,研究人员提出了一种 SMO 算法,可以快速地求解 \(\mathbf \alpha\)。不过算法的具体内容,本文就不继续展开了。