• Observational Overfitting in Reinforcement Learning



    发表时间:2019(ICLR 2019)
    文章要点:这篇文章提到了RL里面overfitting的问题,提出了一个Observational Overfitting的问题,然后用修正观测空间的方式来检测observational overfitting,并得出结论像MLP,CNN这些Overparametrization可能会作为潜在的正则项(implicit regularization),从而缓解这个问题。具体的,Observational Overfitting就是说agent在训练的时候把一些不重要的特征和reward建立了相关性(mistakenly correlate reward with certain spurious features from the observation),比如游戏背景,游戏的计分和计时显示等等,这些特征其实和环境的dynamics没有任何关系,agent的策略也不应该和这些特征产生错误归因(false attributions),但是saliency map却显示agent把这些特征当成了决策的重要信息,导致agent在这些特征上overfitting以至于泛化性变差(the agent can use any features that are correlated with progress, even those which may not generalize across levels)。作者就提出,把观测分为两部分拼在一起作为输入,来检测observational overfitting

    其中f映射重要的,有关系的部分,g映射不重要的,无关的部分,h就把这两部分拼起来作为最终的状态。然后就做实验来测试有没有overfitting出现。结论就是网络结构的Overparametrization可能会作为潜在的正则项(implicit regularization),从而缓解Observational Overfitting。
    总结:问题是个好问题,就是这个结论感觉有点虎头蛇尾不知所云。
    疑问:saliency map好像很有用,需要看看咋做的。Rademacher Complexity要看看。

  • 相关阅读:
    只能输入正整数 以及常用的正则表达式 (转载)
    SVN cleanup操作反复失败解决办法 (转载)
    关于${pageContext.request.contextPath}的理解 (转载)
    Server Tomcat v7.0 Server at localhost was unable to start within 45 seconds
    一则Oracle EXP导出报错的解决办法(转载)
    js数组的sort排序详解(转载)
    JavaScript arguments对象(转载)
    转 :meta name的含义
    一些小问题
    005.JMS可靠性机制
  • 原文地址:https://www.cnblogs.com/initial-h/p/15371122.html
Copyright © 2020-2023  润新知