• pgm16


    前面结束了关于 learning 部分一些粗浅的讨论,我们大概明白了一些 learning 中 common sense/techniques。剩下的部分我们分为 causality 和 utility 两部分。Koller 的课程上面稍微涉及了一些后者的东西,不过觉得前者也挺有意思的,顺便了解一些初步的概念和知识吧。

    和前面的一些 probabilistic query 不同的是 causality 存在下面两种 query:

    • intervention query:看起来和 conditioning 类似,但是存在 agent 主动的干预某些变量的值,因此可能完全改变整个后果,应用于诊断、治疗、市场、政策的制定和科学发现
    • counterfactual query:what-if 的概念,即如果改变过去某个事实,会有什么情况随之变化,应用于 legal liability cass、治疗和诊断

    这些场景下我们往往会观察到 r.v.s 的 correlation,但是如果要判断两者是否因为 causality 导致的却很困难:

    • 存在一个共同的原因导致两个现象的出现,这两个现象就会呈现 correlation
    • 存在某个隐变量导致的 correlation
    • 由于采样的 bias 导致的 correlation

    正是由于这种错综复杂的可能性,要判断以上两种作用导致的变化正是后文处理的重点。为了表述 intervention,我们常使用 mutilated network:即去掉 parent 到 intervene 节点的关系然后 condition 在这个节点的给定值上。这样做的理由很明显,我们设定这个变量的值并不是自然的,而是人为的,因此此时进行推断的并不是在一个 marginalize 之后网络上!可以参看 Simpson’s paradox 体会一下这个微妙的差异。

    intervention query

    处理 intervention query 的一种策略是在以上 causal model 上进行扩展,如果某些变量可能被人为指定,我们可以对其进行扩展,用 widehat{Z} 替代原有的 Z,这时或者取给定值(不受 parent 影响),或者取不定值(受到 parent 影响)。我们在这个网络上使用下面三条规则可以简化 intervention query,

    • 如果 WZ, XY d-sep,则 Pr(Y mid mathrm{do}(Z = z), X = x, W = w) = Pr(Y mid mathrm{do}(Z = z), X = x),即 d-sep 仍保持 r.v.s 的独立性
    • 如果 YZ, X, Wwidehat{X} d-sep,则 Pr(Y mid mathrm{do}(Z = z), mathrm{do}(X = x), W = w) = Pr(Y mid mathrm{do}(Z = z), X = x, W = w),即 d-sep 一个 augmented r.v. 的赋值且该 r.v. 在 sep 里则等价于 condition 在这个赋值上
    • 如果 YZ, Wwidehat{X} d-sep,则 Pr(Y mid mathrm{do}(Z = z), mathrm{do}(X = x), W = w) = Pr(Y mid mathrm{do}(Z = z), W = w),即 d-sep 一个 augmented r.v. 的赋值且该 r.v. 不在 sep 里则等价于与此 r.v. 无关

    利用这三条规则可以将一些复杂的 query 简化。如当一个 r.v. 满足 back-door criterion 时(对 Pr(Y mid mathrm{do}(x)) 此 r.v. 阻挡了所有 X	o Y 的 back-door trail),我们可以 sum out 这个 r.v.,结合这些方式就能求解。比如前面 Simpson’s paradox 如果求 Pr(C mid mathrm{do} (D = 1)),我们就可以简单的利用 sum_gPr(C mid mathrm{do} (D = 1), G = g) Pr(G = g)

    counterfactual query

    这部分其实没看懂,似乎为了解决这类 query 引入了所谓 response variable 和 functional causal model,这类 model 仅仅关心所谓 endogenous variables 而不关心 exogenous variables。利用这些概念定义了 counterfactual twinned network,在上面求解 query。

    causal model 的学习

    但是其实这是对 BN 做 learning,参数学习几乎一样,结构学习比较麻烦,因为 BN 的 structure learning 只能得到 I-equivalent 的结构,并不能分清楚 causal relationship,即便我们拥有任意多的数据。实际操作中,我们常用 Bayesian model averaging 选择后验概率高的模型。

    另外能做的可能只是 interventional data,存在隐变量的时候就会非常麻烦,而 functional causal model 由于函数形式不定也会变得难以处理。

    感觉这部分书上完全以例子为主,理论实在写得太简略,看完之后不知重点,也可能是对此花费时间太少的缘故吧,看来只能等以后有空再看这个相关的材料了。

    ——————
    And God was with the lad; and he grew, and dwelled in the wilderness, and became an archer.

  • 相关阅读:
    微信小程序设置web-view的业务域名
    第61节:Java中的DOM和Javascript技术
    第61节:Java中的DOM和Javascript技术
    小程序获取时间格式
    小程序获取时间格式
    小程序弹出框详解
    小程序弹出框详解
    Python自定义包引入【新手必学】
    Go语言底层知识总结【新手必学】
    Python代码编写规范,你真的会吗?
  • 原文地址:https://www.cnblogs.com/focus-ml/p/3775469.html
Copyright © 2020-2023  润新知