ϵ epsilon ϵ-greedy Policies
非常简单的平衡探索(Explotation)和利用(Exploitation)的思想是通过确保整个过程随机来实现的。实际上就是随机和贪心相结合。
这个策略在论文里一般一句话就可以概括: ϵ epsilon ϵ-greedy policy that selects a random action with probability ϵ epsilon ϵ or otherwise follows the greedy policy a = a r g m a x a Q π ( s , a ) a = mathop{argmax}limits_{a}Q^pi(s,a) a=aargmaxQπ(s,a)
- 简单的去平衡探索和利用的思想
- 记 ∣ A ∣ |A| ∣A∣是所有可能的动作的数量
- 那么针对state-action的价值
Q
π
(
s
,
a
)
Q^pi(s,a)
Qπ(s,a)的
ϵ
epsilon
ϵ-greedy策略是:
π ( a ∣ s ) = { a r g m a x a Q π ( s , a ) w i t h p r o b a b i l i t y 1 − ϵ a w i t h p r o b a b i l i t y ϵ ∣ A ∣ pi(a|s) = egin{cases} mathop{argmax}limits_{a}Q^pi(s,a) quad with probability 1-epsilon \ a qquad qquad qquad qquad with probability frac{epsilon}{|A|} end{cases} π(a∣s)=⎩⎨⎧aargmaxQπ(s,a)with probability 1−ϵawith probability ∣A∣ϵ
下面是它有效的证明。
证明 ϵ epsilon ϵ-greedy策略能单调提升
Greedy in the Limit of Infinite Exploration(GLIE)
GLIE的定义
-
所有的state-action对都是无限次的被访问即
l i m i → ∞ N i ( s , a ) → ∞ mathop{lim}limits_{i ightarrow infty}N_i(s,a) ightarrow infty i→∞limNi(s,a)→∞ -
那么行为策略会收敛到贪心策略
l i m i → ∞ π ( a ∣ s ) → a r g m a x Q ( s , a ) w i t h p r o b a b l i t y 1 mathop{lim}limits_{i ightarrow infty} pi(a|s) ightarrow mathop{argmax} Q(s,a) quad with probablity 1 i→∞limπ(a∣s)→argmax Q(s,a)withprobablity 1
即百分之百收敛到贪心策略 -
一个简单的GLIE策略是 ϵ epsilon ϵ-greedy,其中 ϵ epsilon ϵ以 ϵ i = 1 i epsilon_i = frac{1}{i} ϵi=i1的比率逐渐减小到0