zoukankan      html  css  js  c++  java
  • 学习日志-2021.10.24

    学习日志-2021.10.24

    硕士论文第二部分复现

    复杂网络上的合作行为演化研究 ——基于 Q-learning 算法

    源码地址:RL_for_Gaming_to_choose_action(Q-Learning)

    在相同智能体比例,不同困境强度下的演化:

    • 合作率演化图:
    DDS
    • 从左至右困境强度 ((DS))分别为0、0.02、0.04演化后的最终结果:

      图中方块边缘为红色代表为智能体(占比约为0.2)

      智能体使用Q-Learning决定策略,非智能体使用费米更新规则决定策略(阈值为 ([0,1]) 上的随机数,模拟均匀分布)

    rho=0.2, DS=0演化图rho=0.2,DS=0.02演化图rho=0.2,DS=0.04演化图

    在不同智能体比例,相同困境强度下的演化:

    • 根据仿真结果智能体占比的提高在一定范围内会使合作率提高,根据论文内容的描述在智能体比例达到0.7时,合作率会达到最高水平。
    Drho

    结果分析

    • 本次仿真使用的网络规模为 (100×100) ,进行的轮次为1000轮,论文中的规模为 (200×200) ,进行的轮次为1000000次。可能由于本次仿真设置的轮次较少,并没有观察到后续合作率曲线上升的过程,分析原因可能是使用Q-Learning算法的智能体可能还处在“学习阶段”,智能体的Q表还未收敛。
    nx
    • 虽然并没有完美地复现出论文内容,但也可以得出:在一定范围内,随着使用Q-Learning算法智能体占比的提升,网络的合作率也会随之提升。

    补充

  • 相关阅读:
    Wireshark——工具
    Wireshark——网络协议
    Wireshark——过滤器
    Wireshark——数据包、着色规则和提示
    Floyd最小环
    有向环覆盖问题
    KM算法
    归并排序
    树状数组
    构造强连通图
  • 原文地址:https://www.cnblogs.com/SilentSamsara/p/15455679.html
Copyright © 2011-2022 走看看