• 从马尔科夫过程到主方程


    本文转自:https://spaces.ac.cn/archives/4598

    翻阅一篇博士论文中,从未学习到的点,故本篇转载作为学习理解马尔科夫过程、主方程相关内容

    先百度百科简要了解:

    马尔可夫过程_百度百科 (baidu.com)

    搜索主方程只有一份PDF(第二章 主方程(Master equation) (ustc.edu.cn))、知乎和本篇内容,本篇在SEO中最前,其余可见:如何理解马尔科夫过程的主方程的推导过程? - 知乎 (zhihu.com)


    主方程(master equation)是对随机过程进行建模的重要方法,它代表着马尔科夫过程的微分形式,我们的专业主要工具之一就是主方程,说宏大一点,量子力学和统计力学等也不外乎是主方程的一个特例。

    然而,笔者阅读了几个著作,比如《统计物理现代教程》,还有我导师的《生物系统的随机动力学》,我发现这些著作对于主方程的推导都很模糊,他们在着力解释结果的意义,但并不说明结果的思想来源,因此其过程难以让人信服。而知乎上有人提问《如何理解马尔科夫过程的主方程的推导过程?》但没有得到很好的答案,也表明了这个事实。

    1、马尔科夫过程

    主方程是用来描述马尔科夫过程的,而马尔科夫过程可以理解为运动的无记忆性,说通俗点,就是下一刻的概率分布,只跟当前时刻有关,跟历史状态无关。用概率公式写出来就是(这里只考虑连续型概率,因此这里的p是概率密度):

    image.png

    这里的积分区域是全空间。这里的p(x,τ|y,t)称为跃迁概率,即已经确定了t时刻来到了y位置后、在τ时刻达到x的概率密度,这个式子的物理意义是很明显的,就不多做解释了。

    尽管(1)式很直观,但用它来建模实际上存在两个比较困难的问题:

    1、为了建模就得写出p(x,τ|y,t),而事实上我们很难直接写出一个合理的跃迁概率出来;

    2、即使写出来p(x,τ|y,t),方程是一个积分方程,而我们对积分方程的研究远不如微分方程。

    因此,有必要写出它的微分方程形式。

    2、主方程

    我们设τ=t+ϵ

    image.png

    并且考虑ϵ→0的极限,保留到ϵ的一阶项,我们有

    image.png

    其中用到了p(x,t|y,t)=δ(x−y)这个事实,而

    image.png

    我们对(2)式两边都展开ϵ到一阶项,得到

    image.png

    image.png

    3、更便于建模

    读者可以发现,(6)式并非我们常见的主方程的形式,这是因为它不方便建模。我们再来看(3)式,注意我们有

    image.png

    因此结合(3)式,则必须要求

    image.png

    科研中的建模过程是反过来的:需要先写出主方程的形式,然后去求解主方程。也就是说,为了用(6)式建模,则需要写出W~(x,y,t),而W~(x,y,t))要满足(8)式的约束条件,但我们很难凭空写出一个W~(x,y,t)同时又满足这个约束。

    幸运的是,我们可以用一个技巧来去掉这个约束。首先我们写出一个任意的函数W~(x,y,t),然后考虑

    image.png

    从而我们可以让

    image.png

    那么它自动地满足(8)式,最终主方程的形式变为

    image.png

    这就是我们在教科书上能看到的主方程的形式,这时候对W~(x,y,t)则没有特别的约束了,因此可以方便地用它来建模。至于对W~(y,x,t)的物理意义的诠释,则是后话了。类似的推导过程可以平移到离散型的主方程,也不再赘述。

    4、一点评价

    从上面的过程可以看到,主方程之所以是我们经常看到的形式,是因为那种形式更方便我们进行建模,至于对结果的诠释,本质上来说都是强加的,不能算作推导过程。而多数著作对主方程的推导,侧重于对结果的物理诠释,对方程的形式的来源不加详述,是引起我们理解上的困难的重要原因之一,希望这里的文字可以对此做些补充。

  • 相关阅读:
    Non-local Neural Networks
    BERT-related Papers
    BERT在多模态领域中的应用
    Learning When and Where to Zoom with Deep Reinforcement Learning
    Physical Adversarial Textures That Fool Visual Object Tracking
    Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images
    Tutorial on Adversarial Example Generation
    NeurIPS 2019: Computer Vision Recap
    Deep Learning for Time Series Classification (InceptionTime)
    Contrastive Self-Supervised Learning
  • 原文地址:https://www.cnblogs.com/wangzheming35/p/15465832.html
Copyright © 2020-2023  润新知