学习日志-2021.09.27
论文阅读:
复杂网络上的合作行为演化研究 ——基于 Q-learning 算法
引言
研究背景
-
演化博弈论:理解合作行为如何在自私个体当中涌现和维持。
- 博弈个体是有限理性的。不能通过一次选择就可以实现策略均衡,而是需要不断地进行策略学习及调整。
- 在符合条件的困境模型背景下,将参与者作为研究对象,并为其赋予固定的策略集。
- 指定初始化条件以后,每轮博弈中所有参与者将与敌手进行策略交互来获取相应的收益,再根据学习规则完成策略的更新。
- 重复上述过程,最终系统中所有博弈个体将会达到某种动态的演化稳定均衡点(非确定的纳什均衡)。
- 博弈个体是有限理性的。不能通过一次选择就可以实现策略均衡,而是需要不断地进行策略学习及调整。
-
强化学习的基本思想是指智能体在与环境进行交互过程中,通过不断“试错”,逐步优化自己的学习策略,以使目标奖励最大化。
研究意义
- 理论意义
- 加强强化学习算法与演化博弈理论的研究深度,并且,还能够为合作行为的演化带来新的认识。除此之外,亦能够为控制论、生态生物学、心理学以及认知学等其他学科的发展带来相应的启发与思考。
- 现实意义
- 为解决生态、经济和人类社会中合作行为的存在以及维持提供了清晰的理论框架,有助于我们从新的角度去认识和理解生态、经济以及人类社会中的一些合作行为
国内外研究综述
- 复杂网络的发展
- 1992年,Martin A. Nowak 提出在囚徒困境问题的探究中将网络的空间结构引入在内。每个参与者会把自己当轮的收益与零剧中的最高收益作为对比,进而决定是否学习该邻居的策略,可以视为合作或背叛策略从一个结点到另外一个结点的传播。研究发现,空间结构的引入给合作者的幸存提供了条件,合作者可以通过在网络上形成互助的团簇来提高自身的适应度,从而低于背叛者的入侵。
- 1998年,Duncan J. Watts及其导师Steven H. Strogat将高集聚系数和低平均路径长度作为特征,提出瓦茨-斯特罗加茨模型(最经典的小世界网络模型,WS模型)
- 1999年,Albert-Laszlo Barabasi以及Eric Bonabeau发现许多复杂网络的度分布都近似服从幂律分布,在这一基础上引入了无标度网络的概念。
- 除了Well-mixed和网络结构人群中均衡理论的研究外,学者们同样关注于在任何情况下可以消除社会困境带来的不理解过。共演化机制(个人策略和网络拓扑结构的共同进化)亦成为合作问题研究的一个新的突破方向。
- 强化学习方法
- Q-learning算法,是Markov决策过程的一种变化形式,通过利用智能体所经历的动作序列来选择下一步的最优动作。这一算法具有环境无关性,不需要建立环境模型。
-
Minimax Q-learning算法,可应用于两人零和博弈;
-
初始化 (Q_i (s_i,a_i,a_{-i}) , V_i (s),pi _i)
-
For iteration do:
-
第(i)个智能体根据当前状态(s)采用探索-利用策略的到动作(a_i)并执行
-
得到下一个状态 (s') ,以及智能体 (i) 获得的奖励 (r_i) ,并且观测智能体 (-i) 在状态s执行的策略(a_{-i})
-
更新 (Q_i(s,a_i,a_{-i})) :
$$Q_i(s,a_i,a_{-i}) ← (1 - alpha) Q_i(s,a_i,a_{-i})+alpha [r_i+ gamma V_i (s')]$$
-
利用线性规划求解 (V_i^* (s) = max_{pi (s')} min sum_{a_{-i} ∈A_{-i}} Q_i^* (s,a_i,a_{-i}) pi (s_i,a_i),i=1,2)并更新 (V_i(s)) 与 (pi_i (s'))
-
-
End for
在利用线性规划求解中需要不断求解一个线性规划,这将造成学习速度的降低,增加计算时间。
为了求解 (V_i^*(s)) ,智能体 (i) 需要知道所有智能体的动作空间,这个在分布式系统中将无法满足。
只满足收敛性,不满足合理性。Minimax-Q算法能够找到多智能体强化学习的纳什均衡策略,但是假设对手使用的不是纳什均衡策略,而是一个较差的策略,则当前智能体并不能根据对手的策略学习到一个更优的策略。该算法无法让智能体根据对手的策略来调节优化自己的策略,而只能找到随机博弈的纳什均衡策略。
-
-
Nash Q-learning算法,适用于多人一般和博弈;
-
初始化 (Q_i(s,a_1,...,a_n)=0,∀a_i∈A_i)
-
For iteration do:
-
第(i)个智能体根据当前状态(s)采用探索-利用策略的到动作(a_i)并执行
-
得到下一个状态 (s') ,以及智能体 (i) 观测所有智能体的奖励 (r_1,...,r_n) ,并且观测所有智能体在状态s执行的策略(a_1,...,a_n)
-
更新 (Q_i(s,a_1,...,a_n)) :
[Q_i(s,a_1,...,a_n) ← (1 - alpha) Q_i(s,a_1,...,a_n)+alpha [r_i+ gamma NashQ_i (s')] ] -
利用二次规划求解状态 (s) 处的纳什均衡策略并更新 (NashQ_i(s)) 与 (pi_i (s'))
-
-
End for.
该算法需要观测其他所有智能体的动作 (a_i) 与奖励值 (r_i) 。并且与Minimax-Q算法一样,只满足收敛性,不满足合理性。只能收敛到纳什均衡策略,不能根据其他智能体的策略来优化调剂自身的策略。
-
-
Friend-or-Foe Q-learning算法,可巧妙地求解多智能体一般和博弈中的纳什均衡解。
-
初始化 (V_i (s) = 0,Q_i (s,a_1,...,a_n,o_1,...o_{n_2})=0), ((a_1,...,a_n)) 表示 (i) 所有 (friend) 的动作, ((o_1,...,o_{n_2})) 表示 (i) 所有 (foe) 的动作
-
For iteration do:
-
第(i)个智能体根据当前状态(s)采用探索-利用策略的到动作(a_i)并执行
-
得到下一个状态 (s') ,以及智能体 (i) 观测自身的奖励 (r_i) ,并且观测所有 (friend) 的动作 ((a_1,...,a_{n_1})) 与所有 (foe) 的动作 ((o_1,...,o_{n_2}))
-
更新 (Q_i (s,a_1,...,a_n,o_1,...,o_{n_2}) = 0) :
[Q_i (s,a_1,...,a_n,o_1,...,o_{n_2}) ← (1 - alpha) Q_i (s,a_1,...,a_n,o_1,...,o_{n_2}) + alpha [r_i + gamma V_i (s') ] ]- 利用线性规划求解状态 (s') 处的纳什均衡策略并更新 (V_i (s)) 与 (pi_i (s')) ,更新公式如下:
[V_i (s) = max _{pi_1 (s'),...pi_{n_1} (s')} min_{o_1,...,o_{n_2}∈O_1×...×O_{n_2}} sum _{a_1,...,a_{n_1}∈A_1×...×A_{n_1}} Q_i (s,a_1,...,a_{n_1},o_1,...o_{n_2}) pi_1 (s,a_1),..., pi_{n_1} (s,a_{n_1}) ] -
-
End for.
有一种利用Minimax-Q算法进行多人博弈方法为,两队零和博弈,将所有智能体分成两个小组进行零和博弈。两队零和博弈中每一组有一个leader才控制这一队智能体的所有策略,获取的奖励值也是这一个小组的整体奖励值。
FFQ算法没有team learder,每个人选择自己动作学习自己的策略获得自己的奖励值,但是为了更新 (Q) 值,每个智能体需要在每一步观测其他所有friend与foe的执行动作。
FFQ与Minimax-Q算法一样都需要利用线性规划,因此算法整体学习速度会变慢。
-
-
- Q-learning算法,是Markov决策过程的一种变化形式,通过利用智能体所经历的动作序列来选择下一步的最优动作。这一算法具有环境无关性,不需要建立环境模型。
预备知识
困境模型
经典博弈论包含三个基本要素:参与者、策略集、收益。
在经典博弈论的研究中,参与者将遵循“理性人”假设,他们将以个人利益最大化为目标,根据计算与判断理智地做出决策。这样一来,往往会导致个人最佳选择与集体最佳选择恰好相反。
-
囚徒困境模型
-
公共物品博弈模型
(以上模型已经了解过,故不再详细记录)
演化博弈论
经典博弈论:个体是完全理性的(所有个体都知道其他人是理性的,每个人都选择采取纳什均衡状态下个人的最优策略)
演化博弈论:博弈参与者是有限理性的
-
重要概念:进化稳定策略——指的是当一个种群中的绝大多数个图都选择了该策略时,即使有一小部分群体突发选择了其他策略,它们依然无法入侵到该种群之中去。
-
复制动力学方程的核心思想:适应度越大的个体,其繁殖能力越强。
-
形式: (acute{x} = x (f_c (x)-ar{f} (x)))
-
(x) 表示的是选择合作策略的个体所占的人口比例
-
(f_c (x)) 表示的是这部分个体对应的适应度。
-
(ar{f} (x)) 表示该种群所有个体的平均适应度
[ar{f} (x) = x f_c (x) + (1-x) f_d (x) ] -
当 (f_c(x) > ar{f} (x)) 时,选择合作策略的个体所占比重将增大;
当 (f_c(x) < ar{f} (x)) 时,选择合作策略的个体所占比重将减小。
-
-
基于复杂网络的博弈演化
-
研究基本思路
-
确定博弈模型(囚徒困境、公共物品博弈等)
-
确定网络结构(规则格子网络、随机网络、小世界网络等)
-
确定参与个体的策略更新方式。产检规则一般有如下:
-
学习最优者:将自己与邻居前一回合的收益对比。直接学习收益最高的个体(包括自身)对应的策略。
-
模仿优胜者:每轮博弈中,当中心个体 (x) 被选中更新策略时,它将找到比自己收益高的邻居 (y) ,以正比于 (y) 适应度的概率学习其策略。如果 (x) 的收益就是最高的,就保持不变。
-
概率更新。最常见的时费米更新规则,即根据更加符合有限理性假设的学习方式更新器策略,学习概率如下:
[W_{S_x←S_y} = frac {1} {1 + exp[ (P_x-P_y) / K ]} ]其中, (x) 和 (y) 分别表示中心个体及其邻居, (S_x) 和 (S_y) 分别对应 (x) 及 (y) 的策略。 (P_x) 和 (P_y) 分别为 (x) 及 (y) 的利益。 (K) 代表噪声因素,当 $ K→0 $ 时,表示个体完全理性,只要 $ P_x > P_y $ ,就会直接学习 (y) 的策略;而当 $ K → ∞$ 时,个体会随机(以0.5的概率)学习 (y) 策略。
-
-
进行复杂网络上的演化博弈
-
强化学习算法
-
机器学习按照学习方式进行分类,可以分为:监督学习、非监督学习和强化学习三种。
与监督学习和非监督学习相比,强化学习无需依赖大规模的已有数据集(智能体在与环境进行交互的过程中,通过不断接收到的反馈信息来逐步调整自己的动作,以达到最优的状态)。
-
马尔可夫决策(MDP)
-
MDP可用元组来表示 (<S,A,R,P>) ( (<S,A,R,P, gamma >) )
- (S) :状态空间
- (A) :动作空间
- (R_s^a) :s状态下a动作的奖励值
- (P_{ss'}^a) :状态转移概率
- (gamma) :折扣函数
-
相关数学表达式:
-
期望奖励函数 $R_s^a = E [R_{t+1} | S_t = s, A_t = a] $
-
转移概率函数 (P_{ss'}^a = P[S_{t+1} = s' | S_t = s,A_t = a])
-
行为策略 (pi) :从状态空间 (S) 到动作空间 (A) 的映射
[pi (a|s)=P[A_t = a | S_t = s] ]则状态转移概率函数和奖励函数可以重新定义为:
[P_{ss'}^{pi} = sum_{a∈A} pi (a|s) P_{ss'}^a ][R_s^{pi} = sum_{a∈A} pi (a|s) R_s^a ]当一个策略 (pi) 的语气收益均大于其他策略的预期收益时,我们将策略 (pi) 称之为最优策略(可能存在多个),表示为:
(Q^* (s,a) = max E_{pi} [R_t | S_t = s,A_t = a]) (最优价值函数)
它遵循Bellman最有方程:
[Q^* (s,a) = E_{s→s'} [r + gamma max_{a'} Q_i (s',a') | s,a] ]
-
-
Q-learning算法
算法描述参考上一篇博客
- Q-learning算法的几个特点
- 一种探索加利用的学习方式,对先验知识不做要求或有较少的要求;
- 采用增量的方法,是在线的学习方式;
- 适用于在不确定的环境中学习;
- 算法的体系结构可扩展;
- 是收敛的算法。