优化算法:最速下降法、梯度下降法、共轭梯度法---理论分析与实践

2024-01-08 14:46:24

优化算法:最速下降法、梯度下降法、共轭梯度法—理论分析与实践

最近被TRPO算法搞得头大,对于其中用到的共轭梯度法等优化算法也不了解,在此详细分析一下最速下降法、梯度下降法、共轭梯度法三者的异同。

参考:
数值分析6(3共轭梯度法)
共轭梯度法简介

0、优化目标

考虑最小化二次函数:
? ( x ) = 1 2 x T A x ? x T b \phi(x)=\frac{1}{2}x^{T}Ax-x^{T}b ?(x)=21?xTAx?xTb
其中 b , x ∈ R n , A ∈ R n × n b,x\in\mathbb{R}^n,A\in\mathbb{R}^{n\times n} b,xRn,ARn×n且假设矩阵 A A A是对称正定的(SPD)。该函数的最小值 x ? x^{*} x?可以根据一阶最优条件得到,即导数为零
? ? ( x ? ) = A x ? ? b = 0 \nabla\phi(x^*)=Ax^*-b=0 ??(x?)=Ax??b=0
这也意味着最小化 ? ( x ) \phi(x) ?(x)等价于求解线性方程 A x = b Ax=b Ax=b。此外,在TRPO算法中,由于二次函数的Hessian矩阵是半正定的,该解具有唯一性。

1、最速下降法

最速下降法的策略是:在任何给定点 x x x中,函数 ? ( x ) \phi(x) ?(x)的负梯度给出的搜索方向是最速下降的方向。换句话说,负梯度方向是局部最优的搜索方向,如下图A点所标注的就是负梯度方向。注意对于二次函数而言它的梯度为 A x ? b Ax-b Ax?b,我们也将它称为系统的残差 r r r
在这里插入图片描述
有了方向,那么该如何知道要沿着这个方向走多远呢,最速下降法给出的结论是走到函数值不再下降为止,也就是如果继续走下去函数值会增加。上面的概念容易使人混淆,给出下面的一个优化案例进行解释。

下面是使用最速下降法得到的优化过程图像,其中心位置为最小值点,大致的搜索方向是由右上到中心,每一次转折点就代表已经走到函数值不再下降为止,需要重新进行方向搜索。至于为什么已经走到函数值不再下降为止呢,图中有直观的解释,可以看到每个转折点的原来的曲线都是和等高线圆相切,并且重新进行了方向搜索之后的方向都是和等高线切线垂直(也就是当前局部下降最快的方向)。
在这里插入图片描述
由此可见,最速下降法是个蛮牛一样的角色,每次迭代是不撞南墙不回头的类型(走到函数值不再下降为止),这种策略有助于减少总的迭代次数,但是走出的路线可能比较曲折。

回到正题,如何确定每次要走多远呢?也就是要走多远才能达到南墙(走到函数值不再下降为止)。回顾所有的已知条件:

  1. 迭代式子为: x k + 1 = x k ? α k ? ? ( x k ) x_{k+1}=x_{k}-\alpha_{k}\nabla\phi(x_{k}) xk+1?=xk??αk???(xk?),其中 α k \alpha_{k} αk?为步长。
  2. 下降方向为: ? f ( x k ) = A k x ? b = r k \nabla f({x_k})=A_{k}x-b=r_{k} ?f(xk?)=Ak?x?b=rk?,这个式子是对优化函数 ? ( x ) = 1 2 x T A x ? x T b \phi(x)=\frac{1}{2}x^{T}Ax-x^{T}b ?(x)=21?xTAx?xTb求导得到的。

我们的目标就是计算出走到函数值不再下降为止 α k \alpha_{k} αk?,也就是找到函数 ? ( x ) \phi(x) ?(x)关于变量 α k \alpha_{k} αk?的极值点。首先对于 α k \alpha_{k} αk?,我们有:
α k = arg ? min ? α k ? ( x k + 1 ) = arg ? min ? α k ? ( x k ? α k ? ? ( x k ) ) = arg ? min ? α k ? ( x k ? α k r k ) = arg ? min ? α k [ 1 2 x k + 1 T A x k + 1 ? x k + 1 T b ] \begin{array}{l} {\alpha _k} = \arg {\min _{{\alpha _k}}}\phi({x_{k + 1}})\\ = \arg {\min _{{\alpha _k}}}\phi({x_k} - {\alpha _k}\nabla \phi({x_k}))\\ = \arg {\min _{{\alpha _k}}}\phi({x_k} - {\alpha _k}{r_k})\\ = \arg {\min _{{\alpha _k}}}\left[ {\frac{1}{2}x_{k + 1}^TA{x_{k + 1}} - x_{k + 1}^Tb} \right] \end{array} αk?=argminαk???(xk+1?)=argminαk???(xk??αk???(xk?))=argminαk???(xk??αk?rk?)=argminαk??[21?xk+1T?Axk+1??xk+1T?b]?

? ( x k + 1 ) \phi(x_{k+1}) ?(xk+1?)关于变量 α k \alpha_{k} αk?求导并使得其导数为0(此处使用复合函数求导公式,因为 x k + 1 x_{k+1} xk+1?中含有 α k \alpha_{k} αk?,得:

? ? ( x k + 1 ) ? α k = ? [ 1 2 x k + 1 T A x k + 1 ? x k + 1 T b ] ? α k = ? r k T A x k + 1 + r k T b = ? r k T A ( x k ? α k r k ) + r k T b = ? r k T A x k + r k T A α k r k + r k T b = ? r k T ( A x k ? b ) + r k T A α k r k = ? r k T r k + r k T A α k r k = 0 \begin{array}{l} \frac{{\partial \phi ({x_{k + 1}})}}{{\partial {\alpha _k}}} = \frac{{\partial \left[ {\frac{1}{2}x_{k + 1}^TA{x_{k + 1}} - x_{k + 1}^Tb} \right]}}{{\partial {\alpha _k}}}\\ = - r_k^TA{x_{k + 1}} + r_k^Tb\\ = - r_k^TA\left( {{x_k} - {\alpha _k}{r_k}} \right) + r_k^Tb\\ = - r_k^TA{x_k} + r_k^TA{\alpha _k}{r_k} + r_k^Tb\\ = - r_k^T\left( {A{x_k} - b} \right) + r_k^TA{\alpha _k}{r_k}\\ = - r_k^T{r_k} + r_k^TA{\alpha _k}{r_k}\\ = 0 \end{array} ?αk???(xk+1?)?=?αk??[21?xk+1T?Axk+1??xk+1T?b]?=?rkT?Axk+1?+rkT?b=?rkT?A(xk??αk?rk?)+rkT?b=?rkT?Axk?+rkT?Aαk?rk?+rkT?b=?rkT?(Axk??b)+rkT?Aαk?rk?=?rkT?rk?+rkT?Aαk?rk?=0?
由此可得最佳步长的计算结果为:
α k = r k T r k r k T A r k {\alpha _k} = \frac{{r_k^T{r_k}}}{{r_k^TA{r_k}}} αk?=rkT?Ark?rkT?rk??

方便理解,给出了Matlab编程代码的实现:

%% linear equation Ax=b; Ax-b=0
% min(phi(x)=0.5*x'Ax-x'*b)
clear
clc
A = [3,-2;-2,4];
b = [0;-2];

%% 最速下降法
x0 = [10;10];
x_buffer(1,:) = x0;

iter_max = 1000;
phi = zeros(1,iter_max+1);
phi(1) = 0.5*x0'*A*x0 - x0'*b;

r = [0;0];
for i = 1:iter_max
    r_old = r;
    % 计算残差,梯度下降方向
    r = A*x0 - b;
    % 计算最佳步长
    alpha = (r'*r)/(r'*A*r);
    % alpha = 0.1;
    % 执行最速下降
    x = x0 - alpha*r;
    % disp(r'*r_old)
    if norm(x-x0)<=10^(-8)
        break
    end
    x0 = x;
    x_buffer(i+1,:) = x0;
    phi(i+1) = 0.5*x'*A*x - x'*b;
end
phi = phi(1:i);
iter = i-1;

close all



figure
t=-10:.02:10;
[x,y]=meshgrid(t,t);%形成格点矩阵

for i= 1:1:length(t)
    for j= 1:1:length(t)
        x_tmp=[x(i,j);y(i,j)];
        phi_mesh(i, j) = 0.5*x_tmp'*A*x_tmp-x_tmp'*b;
    end
end
mesh(x,y,phi_mesh);
hold on
plot3(x_buffer(:,1),x_buffer(:,2),phi,'LineWidth',2,'Color','r');
% axis([-0.5 0.5 -0.5 0.5 -2 2]);
title('mesh')
colormap summer%cool是一种配色方案,还有其他方案如winter,summer····见help colormap
colorbar

figure
contour(x,y,phi_mesh,phi,'ShowText','on');
hold on
plot(x_buffer(:,1),x_buffer(:,2),'LineWidth',2,'MarkerSize', 32,'Color','r');
disp(['iter: ',num2str(iter),'       error:',num2str(sum(r))])

运行结果如下所示,迭代了31次得到了小于10^(-8)的误差:
在这里插入图片描述
在这里插入图片描述

2、梯度下降法

之前也提到了,最速下降法是个蛮牛一样的角色,每次迭代是不撞南墙不回头的类型(采用走到函数值不再下降为止的步长 α k \alpha_{k} αk?),这种策略有助于减少总的迭代次数,但是走出的路线可能比较曲折。

在机器学习算法中,我们经常使用梯度下降法进行训练,此时,我们不再依赖每部迭代去获得步长 α k \alpha_{k} αk?,而是往往直接指定一个超参数的学习率Lr,修改上述的Matlab代码,不再使用最速下降法的步长计算式(也就是强制alpha = 0.1):

for i = 1:iter_max
    r_old = r;
    % 计算残差,梯度下降方向
    r = A*x0 - b;
    % 计算最佳步长
    % alpha = (r'*r)/(r'*A*r);
    alpha = 0.1;
    % 执行最速下降
    x = x0 - alpha*r;
    % disp(r'*r_old)
    if norm(x-x0)<=10^(-8)
        break
    end
    x0 = x;
    x_buffer(i+1,:) = x0;
    phi(i+1) = 0.5*x'*A*x - x'*b;
end

得到的结果如下所示(可以看到迭代次数显著变多,从31次变为124次,但是曲线变得平滑):
在这里插入图片描述
在这里插入图片描述

3、共轭梯度法

3.1、最速下降法劣势

共轭梯度法主要是用于解决最速下降法的收敛慢的问题,那么首先,这个问题从何而来呢?事实上,最速下降法的迭代方向存在限制,相邻两次迭代的方向必然垂直(正交),由此其方向的选择收到约束,必须走字形,也就是如下的形状:
在这里插入图片描述
相邻两次迭代的方向必然垂直的证明也非常简单,过程如下:

设相邻两次的迭代方向为:
r k = A x k ? b r k + 1 = A x k + 1 ? b \begin{array}{l} {r_k} = A{x_k} - b\\ {r_{k + 1}} = A{x_{k + 1}} - b \end{array} rk?=Axk??brk+1?=Axk+1??b?
根据更新关系可得:
r k = A x k ? b r k + 1 = A x k + 1 ? b x k + 1 = x k ? α k r k = x k ? α k ( A x k ? b ) \begin{array}{l} {r_k} = A{x_k} - b\\ {r_{k + 1}} = A{x_{k + 1}} - b\\ {x_{k + 1}} = {x_k} - {\alpha _k}{r_k} = {x_k} - {\alpha _k}\left( {A{x_k} - b} \right) \end{array} rk?=Axk??brk+1?=Axk+1??bxk+1?=xk??αk?rk?=xk??αk?(Axk??b)?

由此:
r k + 1 = A x k + 1 ? b = A [ x k ? α k r k ] ? b = A x k ? b ? A α k r k = r k ? A α k r k \begin{array}{l} {r_{k + 1}} = A{x_{k + 1}} - b = A\left[ {{x_k} - {\alpha _k}{r_k}} \right] - b\\ = A{x_k} - b - A{\alpha _k}{r_k} = {r_k} - A{\alpha _k}{r_k} \end{array} rk+1?=Axk+1??b=A[xk??αk?rk?]?b=Axk??b?Aαk?rk?=rk??Aαk?rk??
结合 α k = r k T r k r k T A r k {\alpha _k} = \frac{{r_k^T{r_k}}}{{r_k^TA{r_k}}} αk?=rkT?Ark?rkT?rk??计算两次相邻梯度的积:
r k T r k + 1 = r k T r k ? α k r k T A r k = r k T r k ? r k T r k r k T A r k r k T A r k = 0 r_k^T{r_{k + 1}} = r_k^T{r_k} - {\alpha _k}r_k^TA{r_k} = r_k^T{r_k} - \frac{{r_k^T{r_k}}}{{r_k^TA{r_k}}}r_k^TA{r_k} = 0 rkT?rk+1?=rkT?rk??αk?rkT?Ark?=rkT?rk??rkT?Ark?rkT?rk??rkT?Ark?=0
积为0,则代表相邻两次迭代的方向必然垂直,这样搜索必然是歪歪扭扭的形状。

3.2、共轭的含义

要理解共轭梯度法,首先要知道共轭的含义,和负数中那种虚部相反的概念不同,此处的共轭的定义更加偏向于A正交,其定义如下:
在这里插入图片描述
回到优化目标上,函数 ? ( x ) \phi(x) ?(x)的最小值 x ? x^{*} x?可以根据一阶最优条件得到。
即导数为零 ? ? ( x ? ) = A x ? ? b = 0 \nabla\phi(x^*)=Ax^*-b=0 ??(x?)=Ax??b=0。我们求解的本质就是 A x ? ? b = 0 Ax^*-b=0 Ax??b=0这个线性方程组,也就是如下的形式:
[ ∣ ∣ ? ∣ a 1 a 2 ? a n ∣ ∣ ? ∣ ] [ x 1 ? x n ] = [ ∣ b ∣ ] \begin{bmatrix}|&|&\cdots&|\\a_1&a_2&\cdots&a_n\\|&|&\cdots&|\end{bmatrix}\begin{bmatrix}x_1\\\vdots\\x_n\end{bmatrix}=\begin{bmatrix}|\\b\\|\end{bmatrix} ?a1??a2??????an?? ? ?x1??xn?? ?= ?b? ?

3.3、A共轭向量构成变量x

假设给定空间 R n R^{n} Rn中一组彼此A共轭的向量组 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?,那我们可以用这个向量组来表示整个 R n R^{n} Rn空间的数值吗?只需要证明 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?线性无关即可。给定一组非零向量: p 1 , p 2 , . . . , p k , p j ∈ R n , & k ≤ n p_1,p_2,...,p_k,\quad p_j\in R^n,\&k\leq n p1?,p2?,...,pk?,pj?Rn,&kn
若:
( p i , p j ) A = 0 , i ≠ j (p_i,p_j)_A=0,i\neq j (pi?,pj?)A?=0,i=j
线性无关等价于仅当 α l = 0 \alpha_{l}=0 αl?=0 ∑ l = 1 k α l p l = 0 \sum_{l=1}^{k}\alpha_{l}p_{l}=0 l=1k?αl?pl?=0成立。那么下面我们看看能否从 ∑ l = 1 k α l p l = 0 \sum_{l=1}^{k}\alpha_{l}p_{l}=0 l=1k?αl?pl?=0推导出 α l = 0 \alpha_{l}=0 αl?=0,推导过程非常简单,在两边乘以 p n A p_n A pn?A,再使用A共轭的性质进行化简约去求和的无关项即可( ( p i , p j ) A = 0 , i ≠ j (p_i,p_j)_A=0,i\neq j (pi?,pj?)A?=0,i=j

p 1 A ∑ l = 1 k α l p l = 0 ? α 1 p 1 A p 1 = 0 ? α 1 = 0 . . . p n A ∑ l = 1 k α l p l = 0 ? α n p n A p n = 0 ? α n = 0 \begin{array}{l} {p_1}A\sum\limits_{l = 1}^k {{\alpha _l}} {p_l} = 0 \Rightarrow {\alpha _1}{p_1}A{p_1} = 0 \Rightarrow {\alpha _1} = 0\\ ...\\ {p_n}A\sum\limits_{l = 1}^k {{\alpha _l}} {p_l} = 0 \Rightarrow {\alpha _n}{p_n}A{p_n} = 0 \Rightarrow {\alpha _n} = 0 \end{array} p1?Al=1k?αl?pl?=0?α1?p1?Ap1?=0?α1?=0...pn?Al=1k?αl?pl?=0?αn?pn?Apn?=0?αn?=0?

由此可得空间 R n R^{n} Rn中一组彼此A共轭的向量组 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?是线性无关的,那么 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?可以用于表示空间中的所有内容,使用 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?来表示变量要求解的变量 x x x,可得: x = ∑ j = 1 n α j P j ? A x = b = ∑ j = 1 n α j A P j x=\sum_{j=1}^n\alpha_jP_j\Rightarrow Ax=b=\sum_{j=1}^n\alpha_jAP_j x=j=1n?αj?Pj??Ax=b=j=1n?αj?APj?
同样的,利用性质 ( p i , p j ) A = 0 , i ≠ j (p_i,p_j)_A=0,i\neq j (pi?,pj?)A?=0,i=j,我们在方差左右两边乘以 P k T P_k^T PkT?,即可约去求和的无关项,得到:
P k T b = α k P k T A P k P_{k}^{T}b=\alpha_{k}P_{k}^{T}AP_{k} PkT?b=αk?PkT?APk?
由此可计算:
α k = ( P k , b ) ( P k , P k ) A = P k T b P k T A P k \alpha_{k}=\frac{(P_{k},b)}{\left(P_{k},P_{k}\right)_{A}}=\frac{P_{k}^{T}b}{P_{k}^{T}AP_{k}} αk?=(Pk?,Pk?)A?(Pk?,b)?=PkT?APk?PkT?b?
那么,如果每个 α k \alpha_{k} αk?可以通过计算得出,那么变量 x x x的求解岂不是也是易如反掌了嘛。

由此可见,如果能够给定空间 R n R^{n} Rn中一组彼此A共轭的向量组 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?,对于方程的求解可以无需迭代,直接进行。

3.4、A共轭向量 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?的构建

之前也说到了,A共轭也叫A正交,是一种特殊的正交形式。要获得维度为n的正交向量,我们可以使用Smith方法,当然此处是A正交,因此其Smith正交化公式有些许不同:
{ P 0 = y 0 P j = y j ? ∑ l = 0 j ? 1 ( A P l , y j ) ( A P l , P l ) P l , j ≥ 1 \begin{cases}P_0=y_0\\P_j=y_j-\sum_{l=0}^{j-1}\dfrac{(AP_l,y_j)}{(AP_l,P_l)}P_l,\quad j\ge1\end{cases} ? ? ??P0?=y0?Pj?=yj??l=0j?1?(APl?,Pl?)(APl?,yj?)?Pl?,j1?
通过将原本的残差 r r r转化为A正交的向量组 P n P_n Pn?,原有的方程可以被轻松解决。

但是之前也提到了,如果能够给定空间 R n R^{n} Rn中一组彼此A共轭的向量组 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?,对于方程的求解可以无需迭代,直接进行。那么为什么在实际运用中共轭梯度法是一种迭代求解的算法呢?

简单来说,每次迭代我们都会获得一个残差 r t r_{t} rt?,对这个残差 r t r_{t} rt?进行Smith方法的A正交化,由此才可以得到一个所对应的A共轭的向量 P t P_t Pt?也就是说,如果迭代了n步,我们一定能找到空间 R n R^{n} Rn中完整的A共轭的向量组 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?,由此可以得到 x x x的精确解。

但是,如果迭代少于n步时,倘若我们的误差已经满足了要求,我们可以不继续进行迭代。因此,共轭梯度法可以使用不超过n的迭代次数对方程进行精确的求解。共轭梯度法也是个蛮牛一样的角色,每次迭代是不撞南墙不回头的类型(采用走到函数值不再下降为止的步长 α k \alpha_{k} αk?)。算法流程如下所示:
在这里插入图片描述

这实际上是一个子空间的问题,对于要求解的目标 x x x,其处于空间 R n R^{n} Rn中,我们需要A共轭的向量组 P 1 , P 2 , ? ? , P n P_1,P_2,\cdots,P_n P1?,P2?,?,Pn?对其进行精确的求解。但是,我们也可以使用少于n个向量构建的子空间对其最终结果进行逼近。

打个比方,我要造一个房子,需要钢筋、水泥、石灰、地板、地砖、洗衣机、电饭煲、床,但是一开始我两手空空,需要去采购一番(相当于迭代),我采购了5个材料并进行了施工(相当于迭代了五次),分别是钢筋、水泥、石灰、地板、地砖。虽然没有其他更好的东西,但是我的房子已经基本符合我的预期了,那我为了省钱可能就不去买洗衣机、电饭煲、床等等了。当然,我也可以再买一个洗衣机,这样房子会更加符合我的预期。

3.5、最速下降法实现

下面是结果,争对n=2的空间进行求解,迭代2次实现了10^-15的误差,实际上是精确求解的范畴,符合共轭梯度法可以使用不超过n的迭代次数对方程进行精确的求解
在这里插入图片描述

%% linear equation Ax=b; Ax-b=0
% min(phi(x)=0.5*x'Ax-x'*b)
clear
clc
A = [3,-2;-2,4];
b = [0;-2];


%% 共轭梯度法
x0 = [10;10];
x_buffer(1,:) = x0;
iter_max = 1000;
phi = zeros(1,iter_max);
phi(1) = 0.5*x0'*A*x0 - x0'*b;

r0 = A*x0 - b;
p0 = -r0;
for i = 1:iter_max
    alpha = (r0'*r0)/(p0'*A*p0);
    x = x0 + alpha*p0;
    r = r0 + alpha*A*p0;
    beta = (r'*r)/(r0'*r0);
    p = -r + beta*p0;
    if norm(x-x0)<=10^(-8)
        break
    end
    x0 = x;
    r0 = r;
    p0 = p;

    x_buffer(i+1,:) = x0;
    phi(i+1) = 0.5*x'*A*x - x'*b;
end
iter = i-1;

phi = phi(1:i);

close all
figure
t=-10:.1:10;
[x,y]=meshgrid(t,t);%形成格点矩阵

for i= 1:1:length(t)
    for j= 1:1:length(t)
        x_tmp=[x(i,j);y(i,j)];
        phi_mesh(i, j) = 0.5*x_tmp'*A*x_tmp-x_tmp'*b;

    end
end
mesh(x,y,phi_mesh);
hold on
plot3(x_buffer(:,1),x_buffer(:,2),phi,'LineWidth',2,'Color','r');
% axis([-0.5 0.5 -0.5 0.5 -2 2]);
title('mesh')
colormap summer%cool是一种配色方案,还有其他方案如winter,summer····见help colormap
colorbar

figure
contour(x,y,phi_mesh,phi);
hold on
plot(x_buffer(:,1),x_buffer(:,2),'LineWidth',2,'Color','r');

disp(['iter: ',num2str(iter),'       error:',num2str(sum(r0))])

文章来源:https://blog.csdn.net/weixin_44584198/article/details/135443661
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。