拉格朗日乘子法 - KKT条件 - 对偶问题
支持向量机 (一): 线性可分类 svm
支持向量机 (二): 软间隔 svm 与 核函数
支持向量机 (三): 优化方法与支持向量回归
接下来准备写支持向量机,然而支持向量机和其他算法相比牵涉较多的数学知识,其中首当其冲的就是标题中的拉格朗日乘子法、KKT条件和对偶问题,所以本篇先作个铺垫。
大部分机器学习算法最后都可归结为最优化问题。对于无约束优化问题: (minlimits_oldsymbol{x} f(oldsymbol{x})) (本篇为形式统一,只考虑极小化问题),一般可直接求导并用梯度下降或牛顿法迭代求得最优值。
对于含有等式约束的优化问题,即:
由于等式约束 (h_i(oldsymbol{x}) = 0) 的存在,无法直接求导迭代求解。拉格朗日乘子法是解决此类问题的常用方法,其核心思想是将约束优化转化为无约束优化问题,即将有 (d) 个变量和 (m) 个等式约束条件的最优化问题转换为一个有 ((d + m)) 个变量的函数求平稳点的问题。
拉格朗日乘子法
下面画图来直观理解拉格朗日乘子法,先看下左图: 黑色虚线为函数 (f(x)) 的等值线,红色实线为约束条件 (h(x) = 0) ,这里的关键是 (f(x)) 在极小点处必然与 (h(x) = 0) 相切,如下左图相切于黄色点 (x_1) 。为什么这么说?来看下右图: 如果 (f(x)) 与 (h(x) = 0) 不相切,则相交于两个黄色点,而由于 (x) 是连续的,则必然能找到一个新的 (x_2) 使得 (f(x_2)) 更小,图中表示为蓝色虚线,使得在 (x_2) 处 (f(x)) 与 (h(x) = 0) 相切。
由于相交的两个黄色点不是极小点,梯度 (
abla f(x_1)) 仍然会沿着 (h(x) = 0) 变化,因而在这两个点 (
abla f(x_1)) 不与 (h(x) = 0) 的切线方向垂直,只有在极小点才会正交。
由此可以得出两个推论 (见下图):
(1). 对于 (f(oldsymbol{x})) 的极小点 (oldsymbol{x}^*) ,(f(oldsymbol{x})) 在 (oldsymbol{x}^*) 处的梯度 ( abla f(oldsymbol{x}^*)) 与 (h(oldsymbol{x}) = 0) 的切线方向垂直
(2). 对于 (f(oldsymbol{x})) 的极小点 (oldsymbol{x}^*) ,(h(oldsymbol{x})) 在 (oldsymbol{x}^*) 处的梯度 (
abla h(oldsymbol{x}^*)) 与 (h(oldsymbol{x}) = 0) 的切线方向垂直
对于第 (2) 点,可作如下证明: 设 (oldsymbol{x}(t)) 为连续可微的函数,则有 (h(oldsymbol{x}(t)) = 0) ,利用链式法则:
(frac{ ext{d}{oldsymbol{x}(t)}}{ ext{d}t}) 即为切线方向,所以本质上 (h(oldsymbol{x}) = 0) 上任意一点的梯度 (
abla h(oldsymbol{x})) 都与其正交,(oldsymbol{x}^*) 自然也不例外。
于是可以得出在极小点处 (
abla h(oldsymbol{x}^*)) 与 (
abla f(oldsymbol{x}^*)) 平行,即存在 (lambda
eq 0) ,使得:
(lambda) 被称为拉格朗日乘子,下面定义拉格朗日函数:
将上式分别对 (oldsymbol{x}) 和 (lambda) 求导置零,就分别得到 ((1.1)) 式和等式约束 (h(oldsymbol{x}) = 0) ,这样就将原约束优化问题转化为对 (mathcal{L}(oldsymbol{x}, lambda)) 的无约束优化问题。 然而这个方法找出来的平稳点不一定都是原问题的极值点,如下左图是一个极值点,而下右图却不是极值点。
KKT 条件
上面拉格朗日乘子法解决的是等式约束优化问题,而对于不等式约束优化问题也可解,只不过要加一些附加条件:
先下一个定义:
对于一个不等式约束 (g_j(oldsymbol{x}) leqslant 0) ,若在 (oldsymbol{x}^*) 处 (g_j(oldsymbol{x}^*) < 0) ,那么称该不等式约束是 (oldsymbol{x}^*) 处的不起作用约束;若在 (oldsymbol{x}^*) 处 (g_j(oldsymbol{x}^*) = 0) ,那么称该约束是 (oldsymbol{x}^*) 处的起作用约束。
对于该定义的直观解释见下图: 灰色部分为约束 (g(oldsymbol{x}) leqslant 0) 的可行域,若最优点 (oldsymbol{x}^*) 在区域内 (下左图,(g(oldsymbol{x}) < 0) ) ,则约束并没有起到”约束的作用“,这样可直接通过 ( abla f(oldsymbol{x}) = 0) 来获得最优点,这等价于让 ((1.1)) 式中 (lambda = 0) 。
若最优点 (oldsymbol{x}^*) 在区域边界上 (下右图,(g(oldsymbol{x}) = 0) ) ,那么对于 (f(oldsymbol{x})) 来说,在 (oldsymbol{x}^*) 处是外部较大,内部较小,因为越靠近等值线中心 (f(oldsymbol{x})) 越小; 而对于 (g(oldsymbol{x})) 来说,在 (oldsymbol{x}) 处的变化趋势是内部较小,外部较大,因为在内部 (g(oldsymbol{x}) leqslant 0) ,外部 (g(oldsymbol{x}) > 0) 。这样 ( abla f(oldsymbol{x}^*)) 和 ( abla g(oldsymbol{x}^*)) 的方向必相反,此时 (g(oldsymbol{x}) = 0), 那么套用 ((1.1)) 式可得 (lambda > 0) 。
综合这两种情况:
这被称为互补松弛条件 (( ext{complementary slackness})) 。
由此推广到多个约束,定义广义拉格朗日函数:
(oldsymbol{alpha} geqslant 0) 为 KKT 乘子,(oldsymbol{eta}) 为拉格朗日乘子,其最优解满足:
((1) sim (2)) 式为原问题的约束条件,((3) sim (4)) 式上文定义中已证明。这就是不等式约束优化问题的 KKT 条件 (( ext{Karush-Kuhn-Tucker Condition})),KKT 条件是拉格朗日乘子法在不等式约束优化问题上的泛化。KKT 条件是极小点的必要条件,即满足 KKT 条件不一定是极小点,但极小点必满足 KKT 条件。
对偶问题
将原始问题转化为对偶问题是求解带约束优化问题的一种方法,当然这不是唯一的方法,只不过转化为对偶问题后往往更容易求解,因而被广为应用。
设原始优化问题为:
其拉格朗日函数为 (mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta}) =f(oldsymbol{x})+sum_{i=1}^{m} alpha_{i} g_{i}(oldsymbol{x})+sum_{j=1}^{n} eta_{j} h_{j}(oldsymbol{x}), ;;alpha geqslant 0) 。若 (oldsymbol{x}) 违反了一些约束 (即存在 (i,j) 使得 ({g_{i}(oldsymbol{x}) geqslant 0}) 或 (h_j(oldsymbol{x}) eq 0) ) ,那么 (maxlimits_{oldsymbol{alpha}, oldsymbol{eta}} mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta}) = infty) ,则:
这样原始优化问题 ((3.1)) 就等价于:
接下来定义 ((3.1)) 式的对偶问题 (dual problem) 为:
对偶问题是原始问题的下界,即:
上式为什么成立?因为任意值小于等于最大值,所以对于任意 (oldsymbol{alpha}, \,oldsymbol{eta}) ,(min _{oldsymbol{x}} mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta}) ; leq ; min _{oldsymbol{x}} max _{oldsymbol{alpha}, oldsymbol{eta}} mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta})) ,如果上式恒成立,则不等式左边的 (min _{oldsymbol{x}} mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta})) 的极大值 (max _{oldsymbol{alpha}, oldsymbol{eta}}min _{oldsymbol{x}} mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta})) 一定小于等于 不等式右边的 (min _{oldsymbol{x}} max _{oldsymbol{alpha}, oldsymbol{eta}} mathcal{L}(oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta})) ,这就是所谓的 ”极小的极大 (leqslant) 极大的极小“ 。
((3.2)) 式是不等式,所以该性质被称为弱对偶性 (weak duality)。若要等式成立,则为强对偶性 (strong duality),需要满足 slater 条件:
( ext{slater}) 条件: 原始问题为凸优化问题,即 (f(oldsymbol{x})),(g(oldsymbol{x})) 为凸函数,(h(oldsymbol{x})) 为仿射函数,且可行域中至少有一点使不等式约束严格成立时,强对偶性成立,对偶问题等价于原始问题。
最后,利用强对偶性求出的 (oldsymbol{x}, oldsymbol{alpha}, oldsymbol{eta}) 同时也是原始问题的最优解,所以依然满足 KKT 条件:
/