Projected Gradient Descent

Projected Gradient Descent

受限优化问题

  • $C \subseteq R^d$:受限凸集

投影梯度下降:采用后处理的方式,将迭代位置拉回到约束条件内

  • 使用一般下降算法进行位置更新,新位置$x_{t+1}^{‘}$可能 不再满足约束条件

  • 为使新位置$x{t+1}^{‘}$符合受限集合,可以选择在$L_2$范数 下距离受限集合$C$最近的的点 $x{t+1}=\arg\min{x \in C} |x - x{t+1}^{‘}|$作为下步 真正迭代位置

线性约束

Projection Matrix

  • 投影矩阵:矩阵$P \in R^{n*n}$,若满足$P^T = P, P^2 = P$
  • 若$A \in R^{m*n}$为行满秩矩阵,则$A$的零空间为 $L_A = {x \in R^{n} | Ax = 0}$,对应正交空间为 $L_A^{\perp} = {A^T y | y \in R^m}$

对$\forall x \in R^n$进行正交分解

  • $P_A = I - A^T (A A^T)^{-1} A$:$A$的投影矩阵
  • 投影矩阵$P_A$可由点对线性约束的投影定义,利用拉格朗日 求解

证明

  • 投影矩阵$P$对值应用多次线性变换和只应用一次结果相同, 保持像不变

Projection Operator

  • 设$x^{k}$为当前迭代点,记$A{11}$、$A{12}$分别为紧、松 约束,即

  • 记$M = [A_{1,1}^T, A_2^T]^T$,则$s \in L_M$时是可行方向

  • 对负梯度$\nabla f(x^k)$,通过$M$的投影矩阵$P_M$将其投影 至$L_M$上即得可行下降方向$s^k = -P_M \nabla f(x^k)$

    • $s^k \neq 0$:为$x^k$处可行下降方向
    • $s^k = 0$:作如下讨论

投影方向为0

  • 记$w = [u, v]^T = -(M M^T)^{-1}M \nabla f(x^k)$,则有

  • 若$u \geq 0$,则$x^{k}$是KKT点

  • 否则若$u$中有负分量,可设$u0 < 0$,记$\bar M$为$M$中 去除对应列矩阵,则$\bar s^k = -P{\bar M}\nabla f(x^k)$ 为$x^k$可行下降方向

    • 先反证法证明$\bar s^k \neq 0$,若$\bar s^k = 0$

      考虑到

      • $\alpha_0$:$M$中$u_0$对应行

      则有

      与$M$行满秩条件矛盾,故$\bar s^k \neq 0$

    • 证明$\bar s^k$为下降方向

    • 证明$\bar s^k$方向可行(满足约束)

      • 由$P{\bar M}$定义:$\bar M P{\bar M} = 0$,则

      • 则只需证明$\alpha_0^T \bar s^k < 0$

        考虑到$u_0 < 0$,则$\alpha_0^T \bar s^k < 0$

    • 即此时有紧约束变为松约束

算法

  • 初始化:初始点$x^0$、$k=0$、精度参数$\epsilon > 0$
  • 构造$M = [A_{1,1}^T, A_2^T]^T$

    • 若$M=0$(在可行域内),令$s^k = -\nabla f(x^k)$为 迭代方向
    • 否则令$s^k = -P_M \nabla f(x^k)$为迭代方向
  • 若$|s^k|_2^2 \geq \epsilon$

    • 若$M$为空(无可下降方向),停止
    • 若$M$非空、$u > 0$,停止
    • 否则,构建$M = \bar M$继续
  • 若$|s^k|_2^2 > \epsilon$,确定步长$\lambda_k$

    • 显然只需保证$A_2 x_k + \lambda_k A_2 d_k \leq b_2$ 即可

    • 若$A_2 d_k < 0$,则$\lambda_k$无约束,否则

    • 即单纯型法中确定步长方法
  • 得到新迭代点$x^{k+1} = x^k + \lambda_k s^k$、$k=k+1$

约束问题

约束问题局部解

  • 对于一般约束优化问题,记其可行域为

  • 若 $\forall x^{} \in D, \exists \epsilon$,使得当 $x \in D, |x - x^{}| \leq \epsilon$ 时,总有

    则称$x^{*}$为约束问题的局部解,简称为最优解

  • 若 $x \in D, 0 < |x - x^{*}| \leq \epsilon$ 时,总有

    则称$x^{*}$是约束问题的严格局部最优解

约束问题局部解一阶必要条件

定理1

  • 设 $a_1,a_2,\cdots,a_m$ 和 $w \in R^n$,$C$ 定义如下 $$
      C = \{v |\sum_{i=1}^m \lambda_i a_i, \lambda_i \geq 0,
      i=1,2,\cdots,m \}
    
    \begin{align*}
      d^T w & \leq 0 \\
      d^T w & > 0
    
    \end{align*}$$
  • 显然C是闭凸集,则$\exists d \in R^n, d \neq 0$, $\alpha \in R$,使得

  • 又C是锥,有$0 \in C$,所以$\alpha \geq 0$,即$d^T w > 0$

  • 若$\exists \bar x \in C, d^T \bar x > 0$,则 $\forall \lambda \geq 0, \lambda \bar x \in C$,则有

    而$\lambda \rightarrow \infty$,左端趋于无穷,矛盾

Farkas引理

  • 设$a_1,a_2,\cdots,a_m$和$w \in R^n$,则以下两个系统有且 仅有一个有解
    • 系统I:存在$d$满足
    • 系统II:存在非负常数$\lambda_1,\cdots,\lambda_m$使得
  • 若系统II有解,则系统I无解

    • 若系统II有解,即存在$\lambda_1,…,\lambda_m$且 $\lambda_i \geq 0,i=1,2,\cdot,m$,使得

    • 若系统I有解,则有

      矛盾,因此系统I无解

  • 若系统II无解,则系统I有解

    • 系统II误解,构造闭凸锥

      显然$w \notin C$

    • 定理1,存在d满足

  • 此定理就是点要么在凸锥C内、边缘(系统II),要么在凸锥 外(系统I)

推论1

  • 设$a_1,a_2,\cdots,a_m$和$w \in R^n$,则以下系统有且仅有 一个有解
    • 系统I:存在d满足
    • 系统II:存在非负常数$\lambda_1,…,\lambda_m$使得
  • 若系统II有解,则系统I无解

    • 若系统I有解,取d带入矛盾
  • 若系统II无解,则系统I有解

    • 若系统I无解

      todo

推论2

  • 设$a1,a_2,\cdots,a{l+m}$和$w \in R^n$,则以下两个系统 有且进一有一个存在解
    • 存在d满足
    • 存在常数$\lambda1,\lambda_2,\cdots,\lambda{l+m}$ 且$\lambda_i \geq 0, i=l+1, l+2, \cdots, l+m$使得

迭代求解

参数部分更新

参数部分更新:每次更新一个或一组待估参数

  • 应用场合

    • 适合待估参数较少、同时估计较慢,待估参数较多可能更新 速度慢,往往需要多次迭代更新参数
    • 一般用在机器学习算法中比较多
  • 特点(某些算法)

    • 良好的并行特性:能够同时更新多个参数

      • Alternating Direction Method of Multipliers
    • 采用贪心策略的算法:可能无法得到最优解

      • 前向回归
      • 深度学习:网络层次太深,有些算法采用固化部分 网络结构,估计剩余部分
    • 能够平衡全局、局部:得到较好的解

      • LARS

Norm

Norm

$\mathcal{L_p}$ 范数

  • $\mathcal{L_p}$ 范数

    • $x \in R^n$
  • $\mathcal{L_p}$ Dual Norm 对偶范数

    • $x \in R^N$
    • $|x|$:$x$的某个范数

无约束优化

无约束局部解

  • 若存在$x^{ } \in R^n, \epsilon > 0, \forall x \in R^n$ 使得$|x - x^{ }| < \epsilon$时,恒有
  • $f(x) \geq f(x^{ })$:则称$x^{ }$为f(x)的 local minimum point/solution(局部极小点/局部解)
  • $f(x) > f(x^{ })$:则称$x^{ }$为f(x)的 严格局部极小点/局部解

最优性条件

First-Order Necessary Condtion

  • 无约束问题局部解的一阶必要条件:设f(x)有连续的一阶偏导, 弱$x^{ * }$是无约束问题的局部解,则

Second-Order Necessary Condition

  • 无约束问题局部解的二阶必要条件:设f(x)有连续二阶偏导, 若$x^{ * }$是无约束问题的局部解,则

Second-Order Sufficient Condition

  • 无约束问题局部解的二阶充分条件:设f(x)有连续二阶偏导, 若在$x^{ }$处满足以下,则x^{ }是无约束问题的 严格局部解

下降算法

迭代算法:将当前迭代点向正确方向移动一定步长,然后 检验目标值是否满足一定要求

  • 方向步长就是不同优化算法主要关心的两个方面
  • 还关心算法的rate of convergence(收敛速率)

一般下降算法框架

  1. 取初始点$x^{(1)}$,置精度要求$\epsilon$,置k=1

  2. 若在点$x^{(k)}$处满足某个终止准则,则停止计算,得无约束 优化问题最优解$x^{(k)}$,否则适当地选择$x^{(k)}$处 搜索方向

  3. 进行适当的一维搜索,求解一维问题

  4. 置k=k+1,转2

要使下降算法可行,需要确定

  • 某点出搜索方向
    • 负梯度方向
    • Newton方向:求方向的时候已确定步长,也可用做步长搜索
    • 拟Newton方向
  • 求步长地一维搜索方式
    • 试探法
      • 0.618法
      • Fibonacci方法(分数法)
      • 二分法
    • 插值法
      • 三点二次插值法
      • 二点二次插值法
      • 两点三次插值法
    • 非精确一维搜索方法
      • Glodstein方法
      • Armijo方法
      • Wolfe-Powell方法
  • 算法终止准则

    • $|\triangledown f(x^{(k)})| < \epsilon$
    • $|x^{(k+1)} - x^{(k)}| < \epsilon$
    • $|f(x^{(k+1)}) - f(x^{(k)})| < \epsilon$
    • 实际计算中最优解可能永远无法迭代达到,应该采用较弱 终止准则

算法收敛性

  • 收敛:序列${x^{(k)}}$或其一个子列(仍记${x^{(k)}}$) 满足
    • $x^{ * }$:无约束问题局部解

但是这样强的结果难以证明

  • 往往只能证明${x^{(k)}}$的任一聚点的稳定点
  • 或是更弱的
  • 局部收敛算法:只有初始点充分靠近极小点时,才能保证产生 序列收敛
  • 全局收敛算法:对任意初始点,产生序列均能收敛

收敛速率

设序列${x^{(k)}}$收敛到$x^{ * }$,若以下极限存在

  • $0 < \beta < 1$:线性收敛
  • $\beta = 0$:超线性收敛
  • $\beta = 1$:次线性收敛(收敛速率太慢,一般不考虑)

算法的二次终止性

  • 二次终止性:若某算法对任意正定二次函数,从任意初始点出发 ,都能经过有限步迭代达到其极小点,则称该算法有二次终止性

具有二次终止性的算法被认为时好算法,否则计算效果较差,原因

  • 正定二次目标函数有某些好的性质,好的算法应该能在有限步内 达到其极小点

  • 对于一个一般的目标函数,若其在极小点处的Hesse矩阵 $\triangledown f(x^{( * )})$,则由泰勒展开式得到

    即目标函数f(x)在极小点附近与一个正定二次函数近似,所以对 正定二次函数好的算法,对一般目标函数也应该具有较好的性质

凸优化问题

Linear Programming

数学模型

一般数学模型

线性规划问题(LP)可以抽象为一般的数学模型

  • $S = c_1 x_1 + c_2 x_2 + \cdots + c_n x_n$:目标函数
  • $x_1, x_2, …, x_n$:待求解变量
  • $bi、c_i、a{ij}$:实常数
  • $(\geq = \leq)$:在三种符号中取一种

标准形式

  • $\max_x$:目标函数取翻转换为$\min_x$
  • $\geq$:不等式左右取反转换为$\leq$

  • 线性规划一般模式都可以等价转换为标准形式

Simplex Method

单纯型法:利用线性规划极值点必然在单纯型顶点取得,不断迭代顶点求出极值

算法

  • 初始化:标准化线性规划问题,建立初始表格
    • 最小化目标函数:目标函数系数取反,求极大
    • 不等式约束:加入松弛变量(代表不等式两端差值)
    • 变量非负:定义为两个非负变量之差
  • 最优测试
    • 若目标行系数都为非负,得到最优解,迭代停止
    • 基变量解在右端列中,非基变量解为 0
  • 确定主元列
    • 从目标行的前 $n$ 个单元格中选择一个非负单元格,确定主元列
    • 选择首个非负:解稳定,若存在最优解总是能取到
    • 选择绝对值最大:目标函数下降快,但有可能陷入死循环,无法得到最优解(不满足最优条件)
  • 确定主元(分离变量)(行)

    • 对主元列所有正系数,计算右端项和其比值 $\Theta$ 比率
    • 最小 $\Theta$ 比率确定主元(行)(类似的为避免死循环,总是选择首个最小者)
  • 转轴变换(建立新单纯形表)

    • 主元变 1:主元行所有变量除以主元
    • 主元列变 0:其余行减去其主元列倍主元行
    • 交换基变量:主元行变量标记为主元列对应变量

特点

  • 算法时间效率
    • 极点规模随着问题规模指数增长,所以最差效率是指数级
    • 实际应用表明,对 $m$ 个约束、$n$ 个变量的问题,算法迭代次数在 $m$ 到 $3m$ 之间,每次迭代次数正比于 $nm$
  • 迭代改进

Two-Phase Simplex Method

两阶段单纯形法:单纯型表中没有单元矩阵,无法方便找到基本可行解时使用

  • 在给定问题的约束等式中加入人工变量,使得新问题具有明显可行解
  • 利用单纯形法求解最小化新的线性规划问题

其他一些算法

  • 大 M 算法
  • Ellipsoid Method 椭球算法
    • 算法时间效率
      • 可以在多项式时间内对任意线性规划问题求解
      • 实际应用效果较单纯形法差,但是最差效率更好
  • Karmarkar 算法
    • 内点法(迭代改进)

凸优化

  • $f(x), g(x)$:$R^n$ 上连续可微的凸函数
  • $h_i(x)$:$R^n$ 上仿射函数
  • 仿射函数:满足 $f(x)=ax+b, a \in R^n, b \in R, x \in R^n$

二次规划

  • $G \in R^{n * n}$:$n$ 阶实对称矩阵
  • $A \in R^{m n}$:$m n$ 实矩阵
  • $b \in R^m$
  • $c \in R^n$
  • $G$ 正定

    • 此时目标函数 $f(x)$ 为凸函数
    • 凸二次规划
    • 问题有唯一全局最小值
    • 问题可可由椭球法在多项式时间内求解
  • $G$ 半正定

    • 此时目标函数 $f(x)$ 为凸函数
    • 半定规划
    • 若约束条件可行域不空,且目标函数在此可行域有下界,则问题有全局最小值
  • $G$非正定

    • 目标函数有多个平稳点(局部极小),NP-hard 问题

求解

  • 椭球法
  • 内点法
  • 增广拉格朗日法
  • 投影梯度法

二阶锥规划

  • $f \in R^n$
  • $A_i \in R^{n_i * n}$,$b_i \in R^{n_i}$,$c_i \in R^{n_i}$,$d_i \in R$
  • $B \in R^{p * n}$,$g \in R^n$
  • $A_i=0,i=1,\cdots,m$:退化为线性规划

  • 一般的二阶规划可以转换为二阶锥规划

  • 二阶锥规划可以使用内点法很快求解(多项式时间)

非线性最小二乘

  • $r_i(x)$:通常为非线性函数
  • $r(x) = (r_1(x), \cdots, r_n(x))^T$
  • $x \in R^n, m \geq n$
  • 考虑目标函数梯度、Hesse 矩阵

  • 为$r(x)$的 Jacobi 矩阵

Gauss-Newton

  • 为简化计算,略去 Newton 法中 Hesse 矩阵中 $\sum_{i=1}^m r_i(x) \nabla^2 r_i(x)$ 项,即直接求解方程组

  • 求解同一般 Newton

特点

  • 实际问题中

    • 局部解 $x^{ }$ 对应的目标函数值 $f(x^{ })$ 接近 0 时,采用 Gauss-Newton 法效果较好,此时
      • $|r(x^{(k)})|$ 较小
      • 曲线$r_i(x)$接近直线
      • $\nabla^2 r_i(x) \approx 0$
    • 否则效果一般
  • 矩阵 $J(x^{(k)})^T J(x^{(k)})$ 是半正定矩阵

    • Jacobi 矩阵列满秩时为正定矩阵,此时虽然 $d^{(k)}$ 是下降方向,但仍需类似修正牛顿法增加一维搜索策略保证目标函数值不上升

Levenberg-Marquardt 方法

  • 考虑到 $J(x^{(k)})$ 中各列线性相关、接近线性相关,求解 Newton-Gauss 方法中的方程组会出现困难,可以改为求解

  • $v$:迭代过程中需要调整的参数,LM 方法的关键即如何调整

定理1

  • 若 $d(v)$ 是以上方程组的解,则 $|d(v)|^2$ 是 $v$ 的连续下降函数,且 $v \rightarrow +\infty, |d(v)| \rightarrow 0$
  • $J(x^{(k)})^T J(x^{(k)})$ 是对称半正定矩阵,则存在正交阵

  • 则可以解出 $|d(v)|^2$

  • 增大 $v$ 可以限制 $|d^{(k)}|$,所以 LM 方法也被称为阻尼最小二乘法

定理2

  • 若 $d(v)$ 是以上方程的解,则 $d(v)$ 是 $f(x)$ 在 $x^{(k)}$ 处的下降方向,且 $v \rightarrow + \infty$ 时,$d(v)$ 的方向与 $-J(x^{(k)})^T r(x^{(k)})$ 方向一致
  • 下降方向:$\nabla f(x^{(k)}) d(v) < 0$ 即可
  • 方向一致:夹角余弦
  • $v$充分大时,LM 方法产生的搜索方向 $d^{(k)}$ 和负梯度方向一致

参数调整方法

  • 使用梯度、近似 Hesse 矩阵定义二次函数
  • 其增量为

  • 目标函数增量

  • 定义$\gamma_k = \frac {\Delta f^{(k)}} {\Delta q^{(k)}}$

    • $\gamma_k$接近1说明$\Delta f^{(k)}$接近$\Delta q^{(k)}$

      • 即$f(x^{(k)} + d^{(k+1)})$接近$q(d^{(k)})$
      • 即$f(x)$在$x^{(k)}$附近接近二次函数
      • 即使用Gauss-Newton方法求解最小二乘问题效果较好
      • 即LM方法求解时$v$参数应该较小
    • $\gamma_k$接近0说明$\Delta f^{(k)}$与$\Delta q^{(k)}$ 近似程度不好

      • $d^{(k)}$不应取得过大,应减少$d^{(k)}$得模长
      • 应该增加参数$v$进行限制
      • 迭代方向趋近于负梯度方向
    • $\gamma_k$适中时,认为参数$v$选取合适,不做调整

      • 临界值通常为0.25、0.75

算法

  1. 初始点 $x^{(1)}$、初始参数 $v$(小值)、精度要求 $\epsilon$,置 $k=k+1$

  2. 若 $|J(x^{(k)})^T r(x^{(k)})| < \epsilon$,则停止计算,得到问题解 $x^{(k)}$,否则求解线性方程组

    得到 $d^{(k)}$

  3. 置 $x^{(k+1)} = x^{(k)} + d^{(k)}$,计算 $\gamma_k$

  4. 考虑 $\gamma$

    • $\gamma < 0.25$,置$v_{k+1} = 4 v_k$
    • $\gamma > 0.75$,置$v_{k+1} = v_k / 2$
    • 否则置$v_{k+1} = v_k$
  5. 置k=k+1,转2

其他问题

整形规划

整形规划:求线性函数的最值,函数包含若干整数变量,并且满足线性等式、不等式的有限约束

Unregularized Least Squares Learning Problem

  • $\gamma$:被引入保证 $|I - \frac \gamma n {\hat X}^T \hat X| < 1$

策略

  • 考虑

  • 将$w_{t+1}$带入$I_s(w)$即可证明每次迭代$I_s(w)$减小

无约束优化特殊问题

正定二次目标函数

非线性最小二乘

  • $r_i(x)$:通常为非线性函数
  • $r(x) = (r_1(x), \cdots, r_n(x))^T$
  • $x \in R^n, m \geq n$

  • 为$r(x)$的Jacobi矩阵

Gauss-Newton法

Newton法中为简化计算,略去其Hesse矩阵中 $\sum_{i=1}^m r_i(x) \nabla^2 r_i(x)$项,即直接求解 方程组

算法

同Newton法,仅求解Newton方程改为求解以上方程组

特点

  • 实际问题中

    • 局部解$x^{ }$对应的目标函数值$f(x^{ })$接近0 时,$|r(x^{(k)})|$较小
    • 曲线$r_i(x)$接近直线, $\nabla^2 r_i(x) \approx 0$

    采用Gauss-Newton法效果较好,否则效果一般

  • 矩阵$J(x^{(k)})^T J(x^{(k)})$是半正定矩阵,当Jacobi矩阵 列满秩时为正定矩阵,此时虽然$d^{(k)}$是下降方向,但仍需 类似修正牛顿法增加一维搜索策略保证目标函数值不上升

Levenberg-Marquardt方法

但$J(x^{(k)})$中各列线性相关、接近线性相关,则求解 Newton-Gauss方法中的方程组会出现困难,可以改为求解

  • $v$:迭代过程中需要调整的参数,LM方法的关键即如何调整

定理1

  • 若$d(v)$是以上方程组的解,则$|d(v)|^2$是$v$的连续下降 函数,且$v \rightarrow +\infty, |d(v)| \rightarrow 0$
  • $J(x^{(k)})^T J(x^{(k)})$是对称半正定矩阵,则存在正交阵

  • 则可以解出$|d(v)|^2$

  • 增大$v$可以限制$|d^{(k)}|$,所以LM方法也被称为阻尼最小 二乘法

定理2

  • 若$d(v)$是以上方程的解,则$d(v)$是$f(x)$在$x^{(k)}$处的 下降方向,且$v \rightarrow + \infty$时,$d(v)$的方向与 $-J(x^{(k)})^T r(x^{(k)})$方向一致
  • 下降方向:$\nabla f(x^{(k)}) d(v) < 0$即可
  • 方向一致:夹角余弦
  • $v$充分大时,LM方法产生的搜索方向$d^{(k)}$和负梯度方向 一致

参数调整方法

使用梯度、近似Hesse矩阵定义二次函数

  • 其增量为

  • 目标函数增量

  • 定义$\gamma_k = \frac {\Delta f^{(k)}} {\Delta q^{(k)}}$

  • $\gamma_k$接近1说明$\Delta f^{(k)}$接近$\Delta q^{(k)}$

    • 即$f(x^{(k)} + d^{(k+1)})$接近$q(d^{(k)})$
    • 即$f(x)$在$x^{(k)}$附近接近二次函数
    • 即使用Gauss-Newton方法求解最小二乘问题效果较好
    • 即LM方法求解时$v$参数应该较小
  • $\gamma_k$接近0说明$\Delta f^{(k)}$与$\Delta q^{(k)}$ 近似程度不好

    • $d^{(k)}$不应取得过大,应减少$d^{(k)}$得模长
    • 应该增加参数$v$进行限制
    • 迭代方向趋近于负梯度方向
  • $\gamma_k$适中时,认为参数$v$选取合适,不做调整

    • 临界值通常为0.25、0.75

算法

  1. 初始点$x^{(1)}$、初始参数$v$(小值)、精度要求$\epsilon$ ,置k=k+1

  2. 若$|J(x^{(k)})^T r(x^{(k)})| < \epsilon$,则停止计算, 得到问题解$x^{(k)}$,否则求解线性方程组

    得到$d^{(k)}$

  3. 置$x^{(k+1)} = x^{(k)} + d^{(k)}$,计算$\gamma_k$

    • $\gamma < 0.25$,置$v_{k+1} = 4 v_k$
    • $\gamma > 0.75$,置$v_{k+1} = v_k / 2$
    • 否则置$v_{k+1} = v_k$
  4. 置k=k+1,转2

Cone

Cone

  • 锥:$C \subset V, \forall x \in C, a>0 \Rightarrow ax \in C$

    • 锥总是无界的
    • $V$:向量空间
  • Convex Cone 凸锥:$\forall x,y \in C, \forall a,b > 0 \Rightarrow ax + by \in C$

    • 凸锥必然是凸集
    • 非凸锥:凸锥的补集
  • Norm Cone $n$ 维标准锥:$C = { (x,t)| |x|_2 \leq t, x \in R^{n-1}, t \in R }$

  • Second Order Cone 二阶锥:$C = { (x,t)|Ax+b|_2 \leq c^Tx + d }$

    • 二阶锥相对于对标准锥做了仿射变换(平移变换)

凸分析

Notations and Terminology

Strong Convexity

  • 凸函数 $f$ 满足

  • 强凸函数:不等式严格不等的凸函数

    • 为保证强凸性,常添加二次项保证,如:增广拉格朗日

凸集相关标记

  • $C \subseteq R^N$:非空凸集
  • $x \in R^N$
  • 点 $x \in R^N$ 到 $C$ 的距离为

  • 点 $x \in R^N$ 在 $C$ 上投影为

    • $C \subseteq R^N$:闭凸集
  • Indicator Function 凸集 $C$ 的示性函数为

函数

齐次函数

齐次函数:有倍数性质的函数,若变量乘以系数 $\alpha$,则新函数为原函数乘上 $\alpha^k$ 倍

  • $\alpha \neq 0 \in F, x \in X$
  • $f: X \rightarrow W$:域 $F$ 内两个向量空间之间的 $k$ 次齐次函数
  • 线性函数 $f: X \rightarrow W$ 是一次齐次函数
  • 多线性函数 $f: x_1 x_2 \cdots * x_n \rightarrow W$ 是 $n$ 次齐次函数

基本定理

  • 欧拉定理:函数 $f: R^n \rightarrow R$ 可导、$k$ 次齐次函数,则有 $x \nabla f(x) = kf(x)$