• 机器学习: 共轭梯度算法(PCG)


    今天介绍数值计算和优化方法中非常有效的一种数值解法,共轭梯度法。我们知道,在解大型线性方程组的时候,很少会有一步到位的精确解析解,一般都需要通过迭代来进行逼近,而 PCG 就是这样一种迭代逼近算法。

    我们先从一种特殊的线性方程组的定义开始,比如我们需要解如下的线性方程组:

    Ax=b

    这里的 A(n×n) 是对称,正定矩阵, b(n×1) 同样也是已知的列向量,我们需要通过 Ab 来求解 x(n×1), 这其实是我们熟知的一些线性系统的表达式。

    直接求解

    首先,我们来看一种直观的解法,我们定义满足如下关系的向量为关于 矩阵 A 的共轭向量,

    uTAv=0

    因为矩阵 A 是对称正定矩阵,所以矩阵 A 定义了一个内积空间:

    u,vA:=Au,v=u,ATv=u,Av=uTAv

    基于此,我们可以定义一组向量 P

    P={p1,,pn}

    其中的向量 p1 , p2, … , pn 都是互为共轭的,那么 P 构成了 Rn 空间的一个基,上述方程的解 x 可以表示成 P 中向量的线性组合:

    x=i=1nαipi

    根据上面的表达式,我们可以得到:

    Ax=i=1nαiApipkTAx=i=1nαipkTApi(Multiply left by pkT)pkTb=i=1nαipk,piA(Ax=b and u,vA=uTAv)pk,b=αkpk,pkA(uTv=u,v and ik:pk,piA=0)

    这意味着:

    αk=pk,bpk,pkA

    所以,如果我们要直接求解的,可以先对矩阵 A 进行特征值分解,求出一系列的共轭向量,然后求出系数,最后可以得到方程的解 x

    迭代求解

    上面的方法已经说明,x 是一系列共轭向量 p 的线性组合,学过 PCA 的都知道,可以用前面占比高的向量组合进行逼近,而不需要把所有的向量都组合到一起,PCG 也是用到了这种思想,通过仔细的挑选共轭向量 p 来重建方程的解 x

    我们先来看下面的一个方程:

    f(x)=12xTAxxTb,xRn

    对上面的方程求导,我们可以得到:

    D2f(x)=A

    Df(x)=Axb

    可以看到,方程的一阶导数就是我们需要解的线性方程组,令一阶导数为 0,那么我们需要解的就是这样一个线性方程组了。

    假设我们随机定义 x 的一个初始向量为 x0,那么我们可以定义第一个共轭向量为 p0=bAx0, 后续的基向量都是和梯度共轭的,所以称为共轭梯度法。

    下面给出详细的算法流程:

    这里写图片描述

    而 preconditioned conjugate gradient method 与共轭梯度法的不同之处在于预先定义了一个特殊矩阵 M

    这里写图片描述

    参考来源:wiki 百科

    https://en.wikipedia.org/wiki/Conjugate_gradient_method#The_preconditioned_conjugate_gradient_method

  • 相关阅读:
    Java——enum与int的转换——转载
    Java——JScrollPane设置透明——转载
    Java——JFrame与JButton添加背景
    Java——模态对话框
    u-boot_2010.6 nandflash驱动彻底分析
    linux 常用命令整理----权限管理
    linux 常用命令整理----链接文件
    linux 常用命令整理----文件操作
    linux 常用命令整理----目录操作
    linux 进程运行状态
  • 原文地址:https://www.cnblogs.com/mtcnn/p/9412105.html
Copyright © 2020-2023  润新知