• 学习日志-2021.10.24


    学习日志-2021.10.24

    硕士论文第二部分复现

    复杂网络上的合作行为演化研究 ——基于 Q-learning 算法

    源码地址:RL_for_Gaming_to_choose_action(Q-Learning)

    在相同智能体比例,不同困境强度下的演化:

    • 合作率演化图:
    DDS
    • 从左至右困境强度 ((DS))分别为0、0.02、0.04演化后的最终结果:

      图中方块边缘为红色代表为智能体(占比约为0.2)

      智能体使用Q-Learning决定策略,非智能体使用费米更新规则决定策略(阈值为 ([0,1]) 上的随机数,模拟均匀分布)

    rho=0.2, DS=0演化图rho=0.2,DS=0.02演化图rho=0.2,DS=0.04演化图

    在不同智能体比例,相同困境强度下的演化:

    • 根据仿真结果智能体占比的提高在一定范围内会使合作率提高,根据论文内容的描述在智能体比例达到0.7时,合作率会达到最高水平。
    Drho

    结果分析

    • 本次仿真使用的网络规模为 (100×100) ,进行的轮次为1000轮,论文中的规模为 (200×200) ,进行的轮次为1000000次。可能由于本次仿真设置的轮次较少,并没有观察到后续合作率曲线上升的过程,分析原因可能是使用Q-Learning算法的智能体可能还处在“学习阶段”,智能体的Q表还未收敛。
    nx
    • 虽然并没有完美地复现出论文内容,但也可以得出:在一定范围内,随着使用Q-Learning算法智能体占比的提升,网络的合作率也会随之提升。

    补充

  • 相关阅读:
    站立会议第1天
    博客园用户体验
    风险评估
    寻找正整数中1的个数
    每个小组对本组的意见
    对每个小组的评论和建议
    每日scrum(六)
    每日scrum(五)
    分析电脑控制的丹佛机场行李系统
    每日scrum(四)
  • 原文地址:https://www.cnblogs.com/SilentSamsara/p/15455679.html
Copyright © 2020-2023  润新知