非线性优化问题处理技术(一) 拉格朗日乘子

拉格朗日乘子、KKT条件等相关理论现在由于机器学习的热度经常可以看到介绍它们的文章,因为它们是一些机器学习模型例如支持向量机的底层原理;更一般的来说,它们属于处理非线性优化问题的典型技术。这篇文章先用一个具体的例子来演示非线性优化问题的处理过程,然后用二维平面的例子来辅助理解拉格朗日定理,最后列出该定理严格的数学描述

最简单的方法: 替换法

只要优化问题中存在非线性关系,无论是目标函数还是约束条件,那么这个问题就成了一个非线性优化问题,像单纯形法等适用于线性优化问题的算法是无法处理的。对于一个无约束的优化问题,即求一个函数的最值问题,相对来说是比较容易的;所以处理带约束的非线性优化问题,最经典的一种思想就是想办法把约束信息移除掉,把原始问题转换成一个没有约束的函数最值问题。

对于一些非常简单的非线性优化问题,替换法是最容易想到的方法。例如这个问题:
m a x i m i z e Z = x y − c 1 − x c 2 s u b j e c t   t o x = 1500 − 24.6 y \begin{aligned} maximize\quad& Z=xy-c_1-xc_2\\ subject\ to\quad& x=1500-24.6y \end{aligned} maximizesubject to​Z=xy−c1​−xc2​x=1500−24.6y​
显然我们可以利用约束等式,把目标函数中的 x x x用 y y y来替代:
Z = ( 1500 − 24.6 y ) y − c 1 − ( 1500 − 24.6 y ) c 2 = − 24.6 y 2 + ( 24.6 c 2 + 1500 ) y − c 1 − 1500 c 2 Z=(1500-24.6y)y-c_1-(1500-24.6y)c_2\\ = -24.6y^2+(24.6c_2+1500)y-c_1-1500c_2 Z=(1500−24.6y)y−c1​−(1500−24.6y)c2​=−24.6y2+(24.6c2​+1500)y−c1​−1500c2​
现在原问题就变成了一个关于 y y y的二次函数,二次函数求最大最小值就很容易了。
当然替换法只能适用于这种非常简单的情况,约束稍微复杂一点就不适用了

更通用的方法:拉格朗日乘子法

拉格朗日乘子方法是更为一般和通用的处理非线性优化问题的技术,一句话描述它,通过引入拉格朗日乘子 λ \lambda λ把约束附加到目标函数上,构成拉格朗日函数,从而将原来的有约束问题转化成无约束问题。

例如我们要计算下面这个例子:
m a x i m i z e Z = 4 x 1 − 0.1 x 1 2 + 5 x 2 − 0.2 x 2 2 s u b j e c t   t o x 1 + 2 x 2 = 40 \begin{aligned} maximize\quad& Z=4x_1-0.1x_1^2+5x_2-0.2x_2^2\\ subject\ to\quad& x_1+2x_2=40 \end{aligned} maximizesubject to​Z=4x1​−0.1x12​+5x2​−0.2x22​x1​+2x2​=40​
我们先把约束等式写成下面的格式:
x 1 + 2 x 2 − 40 = 0 x_1+2x_2-40=0 x1​+2x2​−40=0
接着我们引入用 λ \lambda λ表示的拉格朗日乘子,将它乘上约束等式的左边,然后用目标函数减去这个分量:
L = Z − λ ( x 1 + 2 x 2 − 40 ) = 4 x 1 − 0.1 x 1 2 + 5 x 2 − 0.2 x 2 2 − λ ( x 1 + 2 x 2 − 40 ) \begin{aligned} L&=Z-\lambda(x_1+2x_2-40)\\ &=4x_1-0.1x_1^2+5x_2-0.2x_2^2-\lambda(x_1+2x_2-40) \end{aligned} L​=Z−λ(x1​+2x2​−40)=4x1​−0.1x12​+5x2​−0.2x22​−λ(x1​+2x2​−40)​
这个 L L L就叫做拉格朗日函数,按照拉格朗日定理,拉格朗日函数的最优解就是原始的带约束的优化问题的解;怎么求解拉格朗日函数的最优解呢? 那我们只需要利用可微函数极值点梯度为零的性质求解就行了,也就是分别对 L L L中的变量 x 1 x_1 x1​, x 2 x_2 x2​和 λ \lambda λ求偏导并另其等于零:
∂ L ∂ x 1 = 4 − 0.2 x 1 − λ = 0 ∂ L ∂ x 2 = 5 − 0.4 x 2 − 2 λ = 0 ∂ L ∂ λ = − x 1 − 2 x 2 + 40 = 0 ( 这 就 是 原 问 题 的 约 束 等 式 ) \begin{aligned} &\frac{\partial L}{\partial x_1}=4-0.2x_1-\lambda=0\\ &\frac{\partial L}{\partial x_2}=5-0.4x_2-2\lambda=0\\ &\frac{\partial L}{\partial \lambda}=-x_1-2x_2+40=0(这就是原问题的约束等式)\\ \end{aligned} ​∂x1​∂L​=4−0.2x1​−λ=0∂x2​∂L​=5−0.4x2​−2λ=0∂λ∂L​=−x1​−2x2​+40=0(这就是原问题的约束等式)​
求解这个方程组,可以得到最优解:
x 1 = 18.3 x 2 = 10.8 λ = 0.33 \begin{aligned} &x_1=18.3\\ &x_2=10.8\\ &\lambda=0.33\\ \end{aligned} ​x1​=18.3x2​=10.8λ=0.33​
拉格朗日乘子法局限性也很大,首先它只适用于约束只有等式的情况,当存在不等式时,需要引入KKT条件定理进行扩展;另一方面当目标或约束复杂度很高时,通过简单的求偏导等于零来直接计算最优解也变得不现实

图示

为了辅助理解拉格朗日定理,一般都会借助二维图例来说明,这当然不是该定理严格的数学证明,不过比较直观,便于理解它的过程。

我们用一个简单的二元单约束优化问题来举例:
m a x i m i z e f ( x 1 , x 2 ) = x 1 x 2 s u b j e c t   t o h ( x 1 , x 2 ) = x 1 2 + x 2 2 = 1 x 1 , x 2 ≥ 0 \begin{aligned} maximize\quad& f(x_1,x_2)=x_1x_2\\ subject\ to\quad& h(x_1,x_2)=x_1^2+x_2^2=1\\ &x_1,x_2\geq 0 \end{aligned} maximizesubject to​f(x1​,x2​)=x1​x2​h(x1​,x2​)=x12​+x22​=1x1​,x2​≥0​
对于目标函数,它的实际图像应该是个三维曲面,因为有着三个变量 ( x 1 , x 2 , f ( x 1 , x 2 ) ) (x_1,x_2,f(x_1,x_2)) (x1​,x2​,f(x1​,x2​)),那么在二维平面上反映的其实三维曲面的投影,我们称之为等值线,对于任何一个目标值,所有满足 f ( x 1 , x 2 ) f(x_1,x_2) f(x1​,x2​)等于该目标值的两个变量构成了二维面上的一条曲线;例如 f ( x 1 , x 2 ) = x 1 x 2 f(x_1,x_2)=x_1x_2 f(x1​,x2​)=x1​x2​,它在二维平面上的等值线大致就是这个样子
非线性优化问题处理技术(一) 拉格朗日乘子

对于二元约束等式,我们可以在二维平面上划出它的曲线,例如如果约束是 x 1 2 + x 2 2 = 1 x_1^2+x_2^2=1 x12​+x22​=1,那么这个约束就是平面上的圆曲线:
非线性优化问题处理技术(一) 拉格朗日乘子
另一方面,约束曲线也可以看成是约束函数 g ( x 1 , x 2 ) = x 1 2 + x 2 2 − 1 g(x_1,x_2)=x_1^2+x_2^2-1 g(x1​,x2​)=x12​+x22​−1等于零时的等值线;结合约束曲线和目标函数等高线,这个约束问题就是要在约束曲线的所有点中找到目标函数值最大的点
非线性优化问题处理技术(一) 拉格朗日乘子
按照拉格朗日定理,我们定义拉格朗日函数为:
L ( x 1 , x 2 , λ ) = f ( x 1 , x 2 ) − λ [ h ( x 1 , x 2 ) − a ] L(x_1,x_2,\lambda)=f(x_1,x_2)-\lambda[h(x_1,x_2)-a] L(x1​,x2​,λ)=f(x1​,x2​)−λ[h(x1​,x2​)−a]
如果设这个最优解的点为 ( x 1 ∗ , x 2 ∗ ) (x_1^*,x_2^*) (x1∗​,x2∗​),那么该点一定满足:
D L = D f ( x 1 ∗ , x 2 ∗ ) − λ D h ( x 1 ∗ , x 2 ∗ ) = ( 0 , 0 ) DL=Df(x_1^*,x_2^*)-\lambda Dh(x_1^*,x_2^*)=(0,0) DL=Df(x1∗​,x2∗​)−λDh(x1∗​,x2∗​)=(0,0)
我们对照平面曲线图来理解这个公式: D f ( x 1 ∗ , x 2 ∗ ) Df(x_1^*,x_2^*) Df(x1∗​,x2∗​)表示的是目标函数 f ( x 1 , x 2 ) f(x_1,x_2) f(x1​,x2​)在点 ( x 1 ∗ , x 2 ∗ ) (x_1^*,x_2^*) (x1∗​,x2∗​)的梯度,即目标函数对各个分量的偏导数构成的向量:
D f ( x 1 ∗ , x 2 ∗ ) = [ ∂ f ∂ x 1 ∗ ∂ f ∂ x 2 ∗ ] Df(x_1^*,x_2^*)=\begin{bmatrix} {\frac{\partial f}{\partial x_1^*}}\\ \\ {\frac{\partial f}{\partial x_2^*}}\\ \end{bmatrix} Df(x1∗​,x2∗​)=⎣⎢⎡​∂x1∗​∂f​∂x2∗​∂f​​⎦⎥⎤​
回顾一下梯度的概念,梯度的方向是函数在该点处变化最快的方向,它的模则是这个最大的变化率,对于二元的目标函数,梯度在二维等值线上画出来就是该点的法向量:
非线性优化问题处理技术(一) 拉格朗日乘子
同样的, D h ( x 1 ∗ , x 2 ∗ ) Dh(x_1^*,x_2^*) Dh(x1∗​,x2∗​)表示的是约束函数 g ( x 1 , x 2 ) = h ( x 1 ∗ , x 2 ∗ ) − a g(x_1,x_2)=h(x_1^*,x_2^*)-a g(x1​,x2​)=h(x1∗​,x2∗​)−a在点 ( x 1 ∗ , x 2 ∗ ) (x_1^*,x_2^*) (x1∗​,x2∗​)的梯度,表示在二维平面上也是约束曲线上的法向量
非线性优化问题处理技术(一) 拉格朗日乘子
我们可以想象一下,对于两个空间曲面,如果它们在某一点相切,那么在该点两个曲面的法向量是平行的(在一条直线上),对应的等值线上的法向量也是平行的,其实也就是梯度是平行的;梯度 D h ( x 1 ∗ , x 2 ∗ ) Dh(x_1^*,x_2^*) Dh(x1∗​,x2∗​)和梯度 D h ( x 1 ∗ , x 2 ∗ ) Dh(x_1^*,x_2^*) Dh(x1∗​,x2∗​)平行,用线性代数的语言描述就是
D f ( x 1 ∗ , x 2 ∗ ) = λ D h ( x 1 ∗ , x 2 ∗ ) Df(x_1^*,x_2^*)=\lambda Dh(x_1^*,x_2^*) Df(x1∗​,x2∗​)=λDh(x1∗​,x2∗​)
这其实就是拉格朗日定理的方程式,所以对于上面这个二元优化问题,拉格朗日定理的意思就是这个最优解代表的点就是约束曲线与目标函数等值线的相切点:
非线性优化问题处理技术(一) 拉格朗日乘子
抛开拉格朗日定理,在这个简单的例子里,我们只凭直觉也可以发现,只有当选择那个相切点的时候能够达到最大的目标值,如果目标函数等高线向左下移一点,它与约束曲线的交点是满足约束的,但是此时的目标值更小了;如果目标函数等高线向右上移一点,他与约束曲线没有交点,也就是没有可以达到这个目标值的解。

拉格朗日定理

最后我从相关资料中摘录了一下拉格朗日定理相关的严格数学定义,严格定义我觉得还是有必要读一下的,不过证明过程就可以忽略了。拉格朗日定理本身是描述最优解的必要条件,而充分条件其实还有更加严格的定义,我就放在最后一节了。

在表述拉格朗日定理前,先明确一些定义:

  • 将优化问题表述为:
    m a x i m i z e x { f ( x ) : x ∈ U } s u b j e c t   t o U = { x ∈ R n : h 1 ( x ) = a 1 , . . . , h m ( x ) = a m } \begin{aligned} maximize_{\mathtt {x}}\quad& \{f(\mathtt{x}):\mathtt{x}\in U\}\\ subject\ to\quad& U=\{\mathtt{x}\in \mathbb{R}^n:h_1(\mathtt{x})=a_1,...,h_m(\mathtt{x})=a_m\} \end{aligned} maximizex​subject to​{f(x):x∈U}U={x∈Rn:h1​(x)=a1​,...,hm​(x)=am​}​
    f f f是目标函数,而 h 1 h_1 h1​到 h m h_m hm​的等式约束将变量向量 x \mathtt{x} x规定在有限轨迹 U U U中;
  • 通过引入拉格朗日乘子 λ 1 , λ 2 , . . . , λ m \lambda_1,\lambda_2,...,\lambda_m λ1​,λ2​,...,λm​,可以构造拉格朗日函数:
    L ( x , λ ) = f ( x ) − λ 1 [ h 1 ( x ) − a 1 ] − . . . − λ m [ h m ( x ) − a m ] L(\mathtt{x},\lambda)=f(\mathtt{x})-\lambda_1[h_1(\mathtt{x})-a_1]-...-\lambda_m[h_m(\mathtt{x})-a_m] L(x,λ)=f(x)−λ1​[h1​(x)−a1​]−...−λm​[hm​(x)−am​]
  • 用 D f ( x ) Df(\mathtt{x}) Df(x)表示 f f f在 x \mathtt{x} x上的梯度,即 f f f对 x \mathtt{x} x的一阶偏导,即:
    D f ( x ) = [ ∂ f ∂ x 1 ∂ f ∂ x 2 ⋮ ∂ f ∂ x n ] Df(\mathtt{x})= \begin{bmatrix} {\frac{\partial f}{\partial x_1}}\\ {\frac{\partial f}{\partial x_2}}\\ {\vdots}\\ {\frac{\partial f}{\partial x_n}}\\ \end{bmatrix} Df(x)=⎣⎢⎢⎢⎢⎡​∂x1​∂f​∂x2​∂f​⋮∂xn​∂f​​⎦⎥⎥⎥⎥⎤​
    同样的, D h i ( x ) Dh_i(\mathtt{x}) Dhi​(x)表示 h i h_i hi​在 x \mathtt{x} x的梯度
    D h i ( x ) = [ ∂ h i ∂ x 1 ∂ h i ∂ x 2 ⋮ ∂ h i ∂ x n ] Dh_i(\mathtt{x})= \begin{bmatrix} {\frac{\partial h_i}{\partial x_1}}\\ {\frac{\partial h_i}{\partial x_2}}\\ {\vdots}\\ {\frac{\partial h_i}{\partial x_n}}\\ \end{bmatrix} Dhi​(x)=⎣⎢⎢⎢⎡​∂x1​∂hi​​∂x2​∂hi​​⋮∂xn​∂hi​​​⎦⎥⎥⎥⎤​
  • 定义 h ( x ) = [ h 1 ( x ) , . . . , h m ( x ) ] T \mathtt{h}(\mathtt{x})=[h_1(\mathtt{x}),...,h_m(\mathtt{x})]^T h(x)=[h1​(x),...,hm​(x)]T代表所有约束函数的向量,那么各个 h i ( x ) h_i(\mathtt{x}) hi​(x)对 x \mathtt{x} x的偏导构成了一个雅可比(Jacobian)矩阵:
    D h ( x ) = [ ∂ h 1 ∂ x 1 ⋯ ∂ h 1 ∂ x n ⋮ ⋱ ⋮ ∂ h m ∂ x 1 ⋯ ∂ h m ∂ x n ] D\mathtt{h}(\mathtt{x})= \begin{bmatrix} \frac{\partial h_1}{\partial x_1}&\cdots&\frac{\partial h_1}{\partial x_n}\\ \vdots&\ddots&\vdots\\ \frac{\partial h_m}{\partial x_1}&\cdots&\frac{\partial h_m}{\partial x_n}\\ \end{bmatrix} Dh(x)=⎣⎢⎡​∂x1​∂h1​​⋮∂x1​∂hm​​​⋯⋱⋯​∂xn​∂h1​​⋮∂xn​∂hm​​​⎦⎥⎤​
    我们称对于某个点 x ∗ \mathtt{x}^* x∗在 ( h 1 , . . . , h m ) (h_1,...,h_m) (h1​,...,hm​)上满足非退化约束条件(nondegenerate constraint qualification, 简写为NDCQ),当雅可比矩阵 D h ( x ) D\mathtt{h}(\mathtt{x}) Dh(x)在 x = x ∗ \mathtt{x}=\mathtt{x^*} x=x∗时的秩等于 m m m,即它是满秩矩阵的

那么有拉格朗日条件定理(Lagrange Conditions):

  • 假定 f , h 1 , . . . , h m f,h_1,...,h_m f,h1​,...,hm​都是 C 1 C^1 C1函数(一阶可导), x ∗ \mathtt{x}^* x∗是 f f f在限定空间 U U U上的局部极值点,并且 x ∗ \mathtt{x}^* x∗满足 N D C Q NDCQ NDCQ条件,那么一定存在 λ 1 ∗ , . . . , λ m ∗ \lambda_1^*,...,\lambda_m^* λ1∗​,...,λm∗​使得 x ∗ \mathtt{x}^* x∗是拉格朗日函数
    L ( x , λ ) = f ( x ) − λ 1 ∗ [ h 1 ( x ) − a 1 ] − . . . − λ m ∗ [ h m ( x ) − a m ] L(\mathtt{x},\lambda)=f(\mathtt{x})-\lambda_1^*[h_1(\mathtt{x})-a_1]-...-\lambda_m^*[h_m(\mathtt{x})-a_m] L(x,λ)=f(x)−λ1∗​[h1​(x)−a1​]−...−λm∗​[hm​(x)−am​]
    的驻点,即:
    D f ( x ∗ ) − ∑ i = 1 m λ i ∗ D h i ( x ∗ ) = 0 ⃗ Df(\mathtt{x}^*)-\sum_{i=1}^m \lambda_i^*Dh_i(\mathtt{x}^*)=\vec0 Df(x∗)−i=1∑m​λi∗​Dhi​(x∗)=0

对于定理中强调的 x ∗ x^* x∗需要满足 N D C Q NDCQ NDCQ条件,我们用一个简单的例子来理解下为什么要加上一点. 假设一个二元优化问题,且只有一个约束条件:
m a x i m i z e x { f ( x 1 , x 2 ) : ( x 1 , x 2 ) ∈ U } s u b j e c t   t o U = { ( x 1 , x 2 ) ∈ R n : h ( x 1 , x 2 ) = a } \begin{aligned} maximize_{\mathtt {x}}\quad& \{f(x_1,x_2):(x_1,x_2)\in U\}\\ subject\ to\quad& U=\{(x_1,x_2)\in \mathbb{R}^n:h(x_1,x_2)=a\} \end{aligned} maximizex​subject to​{f(x1​,x2​):(x1​,x2​)∈U}U={(x1​,x2​)∈Rn:h(x1​,x2​)=a}​
它的拉格朗日函数为:
L ( x 1 , x 2 , λ ) = f ( x 1 , x 2 ) − λ [ h ( x 1 , x 2 ) − a ] L(x_1,x_2,\lambda)=f(x_1,x_2)-\lambda[h(x_1,x_2)-a] L(x1​,x2​,λ)=f(x1​,x2​)−λ[h(x1​,x2​)−a]
根据拉格朗日定理, f ( x 1 , x 2 ) f(x_1,x_2) f(x1​,x2​)的驻点满足:
∂ L ∂ x 1 = ∂ f ∂ x 1 − λ ∂ h ∂ x 1 = 0   ∂ L ∂ x 2 = ∂ f ∂ x 2 − λ ∂ h ∂ x 2 = 0 \frac{\partial L}{\partial x_1}=\frac{\partial f}{\partial x_1}-\lambda\frac{\partial h}{\partial x_1}=0\\ \ \\ \frac{\partial L}{\partial x_2}=\frac{\partial f}{\partial x_2}-\lambda\frac{\partial h}{\partial x_2}=0\\ ∂x1​∂L​=∂x1​∂f​−λ∂x1​∂h​=0 ∂x2​∂L​=∂x2​∂f​−λ∂x2​∂h​=0
再加上:
∂ L ∂ λ = a − h ( x 1 , x 2 ) = 0 \frac{\partial L}{\partial \lambda}=a-h(x_1,x_2)=0 ∂λ∂L​=a−h(x1​,x2​)=0
三个方程式应该可以求解得到 ( x 1 , x 2 , λ ) (x_1,x_2,\lambda) (x1​,x2​,λ)三个变量的值,但是如果不满足 N D C Q NDCQ NDCQ条件,即 ∂ h ∂ x 1 \frac{\partial h}{\partial x_1} ∂x1​∂h​和 ∂ h ∂ x 2 \frac{\partial h}{\partial x_2} ∂x2​∂h​都等于零,拉格朗日函数一阶偏导的两个等式就可以规约为一个等式,这也就意味着无法求解,所以 N D C Q NDCQ NDCQ条件是拉格朗日定理的严格定义中必须要明确的

极大(极小)值的充分条件

极值点必然是 f ( x ) f(\mathtt{x}) f(x)的驻点,也必然满足拉格朗日定理,但是拉格朗日定理只是最值的必要条件,也就是说当我们求得一个驻点后,我们其实不能直接判断它是极大值还是极小值,可能我们计算出的驻点是个局部最小值,但我们的问题是求最大值问题,那么这个驻点其实也不是可选的解;因此我们还要另一个定理来作为极大值(极小值)的判定准则

还是先明确一些定义:

  • 我们用 D x 2 L ( x ) D_{\mathtt{x}}^2L(\mathtt{x}) Dx2​L(x)来表示拉格朗日函数 L L L的二阶偏微分矩阵,即:
    D x 2 L ( x ) = [ ∂ 2 L ∂ x 1 2 ⋯ ∂ 2 L ∂ x 1 ∂ x n ⋮ ⋱ ⋮ ∂ 2 L ∂ x n ∂ x 1 ⋯ ∂ 2 L ∂ x n 2 ] D_{\mathtt{x}}^2L(\mathtt{x})= \begin{bmatrix} \frac{\partial^2 L}{\partial x_1^2}&\cdots&\frac{\partial^2 L}{\partial x_1\partial x_n}\\ \vdots&\ddots&\vdots\\ \frac{\partial^2 L}{\partial x_n\partial x_1}&\cdots&\frac{\partial^2 L}{\partial x_n^2}\\ \end{bmatrix} Dx2​L(x)=⎣⎢⎢⎡​∂x12​∂2L​⋮∂xn​∂x1​∂2L​​⋯⋱⋯​∂x1​∂xn​∂2L​⋮∂xn2​∂2L​​⎦⎥⎥⎤​
    它一般被称为Hessian矩阵
  • 对于一个 n × n n\times n n×n的实对称矩阵 A A A,如果对于任意的长度为 n n n的非零向量 x \mathtt{x} x,都有 x T A x > 0 \mathtt{x}^T A \mathtt{x}>0 xTAx>0成立,则称 A A A是一个正定矩阵;如果 x T A x < 0 \mathtt{x}^T A \mathtt{x}<0 xTAx<0,则称 A A A为负定矩阵

那么有严格极大值的充分条件定理:

  • 假设 f , h 1 , . . . , h m f,h_1,...,h_m f,h1​,...,hm​是 C 2 C^2 C2函数(二阶可导), x ∗ \mathtt{x}^* x∗是满足拉格朗日条件的驻点,其对应的拉格朗日乘子为 λ ∗ \mathtt{\lambda}^* λ∗;对应于 ( x ∗ , λ ∗ ) (\mathtt{x}^*,\mathtt{\lambda}^*) (x∗,λ∗)有Hessian矩阵 D x 2 L ( x ∗ , λ ∗ ) D_{\mathtt{x}}^2L(\mathtt{x}^*,\mathtt{\lambda}^*) Dx2​L(x∗,λ∗),那么驻点 x ∗ \mathtt{x}^* x∗是严格极大值,当对于任意满足限制条件 { v : D h ( x ∗ ) v = 0 ⃗ } \{\mathtt{v}:D\mathtt{h}(\mathtt{x}^*)\mathtt{v}=\vec0\} {v:Dh(x∗)v=0 }的 v \mathtt{v} v, D x 2 L ( x ∗ , λ ∗ ) D_{\mathtt{x}}^2L(\mathtt{x}^*,\mathtt{\lambda}^*) Dx2​L(x∗,λ∗)是负定的,即
    v ≠ 0 ⃗   a n d   D h ( x ∗ ) v = 0 ⃗ ⇒   v T D x 2 L ( x ∗ , λ ∗ ) v < 0 \mathtt{v}\neq \vec0\ and\ D\mathtt{h}(\mathtt{x}^*)\mathtt{v}=\vec0\\ \Rightarrow\ \mathtt{v}^TD_{\mathtt{x}}^2L(\mathtt{x}^*,\mathtt{\lambda}^*)\mathtt{v}<0 v​=0  and Dh(x∗)v=0 ⇒ vTDx2​L(x∗,λ∗)v<0
上一篇:梯度、散度与拉普拉斯算子


下一篇:相机模型和非线性优化