• 博弈论---11、博弈论总结


    博弈论---11、博弈论总结

    一、总结

    一句话总结:

    生活中遇到问题,可以往博弈论的这些理论上面靠,从而获取解决问题的策略。
    具体生活中的问题一般会比博弈论中的问题复杂的多,考虑的因素更多,所以这些方法要根据自己情况灵活运用。

    二、博弈论总结

    博客对应课程的视频位置:11、博弈论总结-范仁义-读书编程笔记
    https://fanrenyi.com/video/36/334

    2、纳什均衡(制度)

    a、纳什均衡,就是一种博弈的稳定结果,谁单方改变策略,谁就会损失。
    b、自私,可能会导致“好的纳什均衡”,也可能会导致“坏的纳什均衡”,关键是“制度设计”。
    c、所以无论是管理国家、开公司、管理家庭、是培育小孩、学习等生活的各个方面,制度的设计都至关重要,一个好的制度,可以将“坏的纳什均衡”变成“好的纳什均衡”。

    3、囚徒困境(合作与背叛)

    1、“囚徒困境”就是满足“背叛诱惑 > 合作报酬” 和 “受骗支付 > 背叛惩罚” 条件的博弈。
    2、解决“囚徒困境”就是让“囚徒困境”的两个条件不成立:也就是让“背叛诱惑<合作报酬”和“受骗支付<背叛惩罚”
    3、生活中的各种合作与背叛的事情,我们也可以提高合作报酬,提高背叛惩罚来降低被背叛的几率

    4、智猪博弈(借势)

    A、智猪博弈是一种特殊的“纳什均衡”,搭便车的小猪,拥有不管大猪怎么办,我都不动的“占优策略”。
    B、生活中,弱势方要学会合理(借势)搭便车,强势方要制约弱势方的搭便车,以便让自己获得更多利益。

    5、公地悲剧(公共资源)

    a、公地悲剧:虽然善用公共资源,可以为集体,和每个个体带来长远的收益,但是个体总会受到“为啥不捞一把”的诱惑,采取自私的短期策略,导致公共资源走向耗尽。
    b、解决公地悲剧方式:私有化或者强管制
    c、具体在我们的生活中的公共资源也可以采用私有化和强管制来避免公地悲剧的问题,比如一个家庭有两个孩子,妈妈又买了很多零食回来,如果想零食吃的久一点,就可以私有化和强管制来约束。

    6、重复博弈(一次博弈被宰的问题)

    A、当博弈双方是“一锤子买卖”时,大多会选择“损人未必利己”的“坏的纳什均衡”。如果博弈双方都知道,同样的博弈,会无限次重复下去,他们就会把重复博弈的总体利益作为更重要的衡量标准。
    B、解决一次博弈商家不诚信的问题:可以把一次博弈变成重复博弈。
    C、生活中,也可以尽量多把一次博弈变成重复博弈,这样可以降低被宰的几率。比如网上买东西可以根据实际使用情况评论一下。

    7、一报还一报(合作与背叛)(和世界博弈的方式)

    1、“一报还一报”就是:第一回合采取合作策略,然后每一回合都采取上一回合对手的策略。
    2、“一报还一报”是解决“重复囚徒困境”的最佳策略,也许也是我们“与这个世界重复博弈”的最佳策略。

    8、不完全信息博弈(利用信息获利)

    a、不完全信息博弈 是在不充分了解其他参与人的特征,策略空间,以及收益函数的情况下的博弈。
    b、在“不完全信息博弈”下,维护和打破信息不对称,成为双方最重要的策略。
    c、《36计》中的瞒天过海、围魏救赵、声东击西、暗渡陈仓、混水摸鱼、空城计等等,本质上都是:通过制造信息不对称,获得策略优势。

    9、拍卖博弈(卖东西的方式)

    1、拍卖博弈,也就是拍卖的几种策略,是在“不完全信息博弈”中非常重要的策略。
    2、常见的拍卖形式有英国式拍卖(底价开始,不断加价)、荷兰式拍卖(降价拍卖)、日本式拍卖(出价者才能参与下一次竞价)、密封式拍卖(密封式的荷兰式拍卖)、维克瑞拍卖(第二价格密封式拍卖)
    3、卖东西的时候,可以选择合理的卖(拍卖)的策略,这样可以最大获利。

    10、零和博弈、正和博弈(内部竞争)

    零和博弈:简单来说,你赢1元,我就会输1元,输赢之和为零的博弈,叫零和博弈,零和博弈只存在于封闭系统内部,且会导致你死我活的内部竞争。
    正和博弈:在零和博弈中加入增量,输赢之和大于零,就会变成正和博弈。

  • 相关阅读:
    CentOS忘记密码修改方案以及centos卡在开机登录界面,命令失效的解决方法
    音乐制作模块
    CentOS7安装RabbitMQ,并设置远程访问
    设计模式
    排序
    经典排序算法及python实现
    scrapy初步解析源码即深度使用
    JAVA----线程初级
    Python随笔--魔法方法(析构与构造)
    Python随笔--对象
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13331350.html
Copyright © 2020-2023  润新知