• 增强学习概念


    http://www.cnblogs.com/jinxulin/p/3511298.html

    机器学习算法大致可以分为三种:

        1. 监督学习(如回归,分类)

        2. 非监督学习(如聚类,降维)

        3. 增强学习

    什么是增强学习呢?

    增强学习(reinforcementlearning, RL)又叫做强化学习,是近年来机器学习和智能控制领域的主要方法之一。增强学习在很多领域已经获得成功应用,比如自动直升机,国际象棋比赛,机器人控制,市场决策,工业控制,高效网页索引等。

    定义: Reinforcement learning is learning what to do ----how to map situations to actions ---- so as to maximize a numerical reward signal.[1]  也就是说增强学习关注的是智能体(agent)如何在环境中采取一系列行为从而获得最大的累积回报。它是从环境状态到动作的映射的学习。

    那么增强学习具体解决哪些问题呢,我们来举一些例子:

    例1. 假设要训练室内机器人(有一些传感器),使它能自己找到电源并且充电,在这个过程中人类不提供指导,而是让机器人自身不断的尝试。只有在它在电源附近并执行接上电源这个动作的时候,我们才给予它正回报。通过这样的训练,我们希望机器人能够在任意初始状态下,通过选择一系列恰当的动作,很快的接上电源。

    例2. 假设我们要构建一个下国际象棋的机器,这种情况不能使用监督学习,首先,我们本身不是优秀的棋手,而请象棋老师来遍历每个状态下的最佳棋步则代价过于昂贵。其次,每个棋步好坏判断不是孤立的,要依赖于对手的选择和局势的变化。是一系列的棋步组成的策略决定了是否能赢得比赛。下棋过程的唯一的反馈是在最后赢得或是输掉棋局时才产生的。

    可以看到,增强学习和监督学习的区别主要有以下两点:

    1.  增强学习是试错学习(Trail-and-error),由于没有直接的指导信息,智能体要以不断与环境进行交互,通过试错的方式来获得最佳策略。

    2.  延迟回报,增强学习的指导信息很少,而且往往是在事后(最后一个状态)才给出的,这就导致了一个问题,就是获得正回报或者负回报以后,如何将回报分配给前面的状态。

    增强学习是机器学习中一个非常活跃且有趣的领域,个人认为相比于模仿学习(imitation learning),增强学习更接近生物学习的本质,因此有望获得更高的智能,这一点在棋类游戏中已经得到体现。Tesauro(1995)描述的TD-Gammon程序,使用增强学习成为了世界级的西洋双陆棋选手。这个程序经过150万个自生成的对弈训练后,已经近似达到了人类最佳选手的水平,并在和人类顶级高手的较量中取得40 盘仅输1盘的好成绩。

    下篇我们正式开始学习增强学习,首先介绍一下马尔可夫决策过程。

    参考资料:

    [1] R.Sutton et al. Reinforcement learning: An introduction , 1998

    [2] T.Mitchell. 《机器学习》,2003

    [3] Andrew Ng.CS229: Machine learning  Lecture notes

  • 相关阅读:
    [解题报告]HDU 1094 A+B for InputOutput Practice (VI)
    [解题报告]HDU 1089 A+B for InputOutput Practice (I)
    [解题报告]HDU 1279 验证角谷猜想
    [解题报告]HDU 1091 A+B for InputOutput Practice (III)
    [解题报告]HDU 2019 数列有序!
    [解题报告]HDU 1201 18岁生日
    [解题报告]HDU 1170 Balloon Comes!
    11使用TensorFlow自定义模型和训练
    12使用TensorFlow加载和预处理数据
    10训练深度神经网络
  • 原文地址:https://www.cnblogs.com/cheng07045406/p/3518070.html
Copyright © 2020-2023  润新知