普林斯顿大学博弈论讲义10
博弈论本科讲义

在中观经济研究中,劳动力经济学和金融理 论都有关于企业要素投入品市场的博弈模型, 即使在一个企业内部也存在博弈问题:工人之 间会为同一个升迁机会勾心斗角,不同部门之 间为争取公司的资金投入相互竞争;从宏观角 度看,国际经济学中有关于国家间的相互竞争 或相互串谋、选择关税或其他贸易政策的模型; 至于产业组织理论更是大量应用博弈论的方法 (见Jean Tirole的《产业组织理论》)。
如果n个参与人每人从自己的Si中选择一个策略 siategy profile),参与人i之外的其他参 与人的策略组合可记为s-i=( s1,s2,﹍,si-1 , si+1 ,﹍, sn)。
例如田忌的某个策略s田忌=上中下,或中下上, 等等;S田忌={上中下,上下中,中上下,中下 上 ,下上中,下中上}
贷市场的过高利息。此外,阿克尔洛夫还把信 息不对称运用于解释各种社会问题,比如因为信 息不对称,医疗保险市场上,老年人、个体劳动 者的医疗保险利益得不到保障。
三、基本概念
1、参与人Players:一个博弈中的决策主体, 他们各自的目的是通过选择行动(策略)以最 大化自己的目标函数/效用水平/支付函数。他们 可以是自然人或团体或法人,如企业、国家、 地区、社团、欧盟、北约等。 那些不作决策或虽做决策但不直接承担决 策后果的被动主体不是参与人,而只能当做环 境参数来处理。如指手划脚的看牌人、看棋人, 企业的顾问等。 对参与人的决策来说,最重要的是必须有
教材——P5 博弈论就是系统研究各种各 样博弈中参与人的合理选择及其 均衡的理论。
关于“经济博弈论”:
博弈论是研究人们在利益相互影响的格局 中的策略选择问题、是研究多人决策问题的理 论。而策略选择是人们经济行为的核心内容, 此外,经济学和博弈论的研究模式是一样的: 即强调个人理性,也就是在给定的约束条件下 追求效用最大化。可见,经济学和博弈论具 有内在的联系。在经济学和博弈论具有的这 种天然联系的基础上产生了经济博弈论。
博弈论概要

博弈论概要1.研究背景及意义在现实生活中,人们的利益冲突与一致具有普遍性,因此,几乎所有的决策问题都可以认为是博弈。
博弈论在政治学、经济学等许多领域都有着广泛的应用。
在经济学中博弈论作为一种重要的分析方法已渗透到几乎所有的领域,每一领域的最新进展都应用了博弈论,博弈论已经成为主流经济学的一部分,对经济学理论与方法正产生越来越重要的影响。
虽然博弈论是数学的一个分支,但其应用范围十分广泛,在经济学、管理学、社会学、政治学、法律学、军事学等领域都有许多成功运用博弈论的案例。
早在1994年,提出博弈均衡理论的纳什博士与他的伙伴哈尔萨尼教授、泽尔滕教授就共同分享了当年的诺贝尔经济学奖和93万美元的奖金。
2005年,瑞典皇家科学院再次把诺贝尔经济学奖颁给了有着以色列、美国双重国籍的罗伯特·奥曼和美国人托马斯·谢林,以表彰他们在博弈论领域作出的贡献。
纳什的贡献是在1944年与奥斯卡·摩根斯特恩合著了《博弈论与经济行为》一书,标志着现代系统博弈理论的的初步形成。
而谢林和奥曼两位博弈论先驱在政治理论、社会学甚至生物学等方面成功运用到了博弈学理论。
奥曼用数学分析为博弈论列出了精确的公式,谢林则是想通过实践来展示博弈论在社会各个领域的实际意义。
他们两位利用博弈论对商业谈判、种族隔离、武器控制等领域进行了实际分析,谢林教授认为博弈论运用的重要领域应该包括核威慑和武器控制,同时还可以研究种族关系、有组织犯罪、雇员关系乃至自我管理等方面。
2.博弈论相关概念与发展史综述2.1博弈论的概念2.1.1博弈论的定义博弈论(Game Theory,又称对策论)研究决策主体的行为在发生直接的相互作用时,人们如何进行决策以及这种决策的均衡问题。
博弈论是研究理性的决策者之间冲突与合作的理论。
在博弈论分析中,一定场合中的每个对弈者在决定采取何种行动时都策略地、有目的地行事,他考虑到他的决策行为对其他人的可能影响,以及其他人的行为对他的可能影响,通过选择最佳行动计划,来寻求收益或效用的最大化。
十章博弈论ppt课件

34
重复博弈
在现实经济运行中,寡头之间的价格默契并 不容易,主要原因有:
如果博弈重复是有限的,则最后一次博弈会采取低价策 略,理性的结果是抢先低价,一直到第一次博弈;但是, 只要以牙还牙的理性行为有一定折扣或(怀疑),合作 以避免价格战的结果仍然会出现。
厂商较多,使以牙还牙(对欺骗者进行报复和惩罚)难 以实现,合作就十分困难。
参与者Players (玩家): 即参加博弈过程的行为和决策 主体,也是利益主体。在一个博弈中,最少要有两个参 与者。
策略Strategies (战略或策略行为):即参与者在某个博 弈时点,根据其掌握的有关博弈信息而选择的决策变量 和行动计划,一个参与者的全部可行策略称为他的策略 空间。
收益Payoff(支付、得益)和收益函数: 收益是指在既定 策略组合条件下参与者的得失情况。每个参与者的收益 取决于全部参与者所采取的策略,称为收益函数。
11
博弈的分类
(二)静态博弈与动态博弈
(根据参与者选择策略的关系划分) • 参与者同时或独立选择策略的博弈是静态博弈。 • 参与者按照一定的次序选择策略,后选择者了解
先选择者的行动,这种博弈是动态博弈。
12
博弈的分类
(三)完全信息博弈与不完全信息博
(根据参与者对其他参与者的特征、策略空间、 收益函数等信息的了解程度划分)
做广告 10, 5
不做广告 15, 0
不做广告
6, 8
20, 2
19
不存在优势策略的夫妻之争
王先生W 张女士Z
看球赛(T)
看球赛 (T)
1,2
看电影 (F)
0,0
看电影(F) 0,0
3,1
20
2、纳什均衡
博弈论讲义完整PPT课件

如果两个企业联合起来形成卡特尔,选择垄断利润最大化的产量,每 个企业都可以得到更多的利润。给定对方遵守协议的情况下,每个企业都 想增加产量,结果是,每个企业都只得到纳什均衡产量的利润,它严格小 于卡特而产量下的利润。
• 请举几个囚徒困境的例子
第18页/共293页
第一章 导论-囚徒困境
知识:完全信息博弈和不完全信息博弈。 ❖完全信息:每一个参与人对所有其他参与人的(对手)的特征、
战略空间及支付函数有准确的 知识,否则为不完全信息。
第33页/共293页
第一章 导论-基本概念
• 博弈的划分:
行动顺序 信息
完全信息
静态
完全信息静态博弈 纳什均衡
纳什(1950,1951)
不完全信息
不完全信息静态博弈 贝叶斯纳什均衡
0,300 0,300
纳什均衡:进入,默许;不进入,斗争
第29页/共293页
第一章 导论
• 人生是永不停歇的博弈过程,博弈意略达到合意的结果。 • 作为博弈者,最佳策略是最大限度地利用游戏规则,最
大化自己的利益; • 作为社会最佳策略,是通过规则使社会整体福利增加。
第30页/共293页
第一章 导论-基本概念
一只河蚌正张开壳晒太阳,不料,飞 来了一只鸟,张嘴去啄他的肉,河蚌连忙合 起两张壳,紧紧钳住鸟的嘴巴,鸟说:“今 天不下雨,明天不下雨,就会有死蚌肉。” 河蚌说:“今天不放你,明天不放你,就会 有死鸟。”谁也不肯松口,有一个渔夫看见 了,便过来把他们一起捉走了。
第17页/共293页
第一章 导论-囚徒困境
✓“要害”是否在于“利己主义”即“个人理
性”?
第20页/共293页
第十章博弈论初步-PPT精品

▪ 1、纳什均衡的定义:
▪ 设 s(s1, .., .sn)是n人博弈G={ ; S1, .., . Sn u1,.., . un } 的一个策略组合。如果对于每个局中人 i , ui(s1 , ., .s .i 1 , si , si 1 , ., .s .n )≥ ui(s1 , ., .s .i 1 , si, si 1 , ., .s .n )
第十章 博弈论初步 Game Theory
博弈论概述 纳什均衡 序贯博弈与重复博弈 进入威慑
第一节 博弈论概述
▪ 什么是博弈? ▪ 拍卖金钱 ▪ 海盗博弈 ▪ 田忌赛马 ▪ 围棋和象棋
齐王
田忌
上
中
下
上 赢,输 赢,输 赢,输
中 输,赢 赢,输 赢,输
下 输,赢 输,赢 赢,输
一、博弈的基本要素
ui(si,si) ≥ ui(si,si) 对于所有si Si 都成立,则我们称策略组合
s(s1, .., .sn)
是该博弈的一个纳什均衡。
▪ 纳什简介: ▪ 约翰·纳什生于1928年6月13日。父亲是电子工程师
与教师,第一次世界大战的老兵。纳什小时孤独内 向。纳什的数学天分大约在14岁开始展现。他在普 林斯顿大学读博士时刚刚二十出头,但他的一篇关 于非合作博弈的博士论文和其他相关文章,确立了 他博弈论大师的地位。在20世纪50年代末,他已是 闻名世界的科学家了。 ▪ 然而,30岁的时候,纳什和他惟一儿子都罹患精神 分裂症。半个世纪之后,在他妻子(艾利西亚—— —麻省理工学院物理系毕业生)的精心照料下,和 她的儿子一样,纳什教授渐渐康复,并在1994年获 得诺贝尔经济学奖。 ▪ 影片《美丽心灵》是一部以纳什的生平经历为基础 而创作的人物传记片。该片荣获2019年奥斯卡金像 奖。
10章博弈论

寡头厂商之间的博弈: 博弈论初步 •博弈论的基本概念及其分类; •完全信息静态博弈 •完全信息的动态博弈;
•不完全信息的静态博弈
思考:子博弈精练纳什均衡的特点是什么?
•参与人在前一个阶段的选择将决 定随后的子博弈的结构。
•子博弈精练纳什均衡:若A开发,B
不开发;若A不开发,B开发;若A 先开发,B的子博弈已就被排除了, B只能选择不开发。
思考:为什么序列博弈中,厂商 成功的关键是先行者优势? •在房地产开发的案例中纳什均衡是: 若A开发,B不开发;若A不开发,B 开发;
博弈的分类1 ——合作博弈与非合作博弈
如果各博弈方能达成某种有约束力的契约或默契, 以选择共同的策略,此种博弈就是合作博弈。 反之,就属于非合作博弈。 企业之间的联合定价就属于合作博弈,而经常挑起 价格战的企业采用的便主要是非合作博弈。 在合作博弈中往往包含着非合作博弈,如石油输出 国组织是合作博弈的产物,但其中为了各自利益的 超产和争吵又属于非合作博弈。
在智猪博弈中,先剔除小猪的严格 劣战略“按按纽”,在这一选择后的新 博弈中,小猪只有“等待”一个战略, 而大猪有两个战略可供选择。再剔除新 博弈中大猪的严格劣战略“等待”,从 而达到重复剔除的占优战略均衡: 小猪等待,大猪按按纽。
严格劣战略是指无论其他参与者采取什么 战略,该战略是对自己严格不利的战略。
实行承诺后的阻止市场进入博弈
垄断者
商战 默许 900,300
潜 在 进入 进 不进入 入 者
国外博弈论课件lecture(10)

针对复杂系统的博弈研究将进一步深化,探索如 何利用博弈论分析复杂系统中的相互作用和演化 规律。
人工智能与博弈论的结合
随着人工智能技术的发展,博弈论将进一步应用 于机器学习、数据挖掘等领域,为人工智能提供 更好的决策支持。
博弈论对人类社会的影响
促进社会公平和合作
博弈论的研究有助于揭示社会现象背后的利益关系和互动机制, 推动社会公平和合作,减少冲突和矛盾。
纳什均衡的求解方法
迭代法
01
通过不断迭代计算每个参与者的最优策略,最终收敛到一个稳
定的策略组合。
线性规划法
02
将博弈问题转化为线性规划问题,通过求解线性规划来找到纳
什均衡。
代数法
03
通过代数方法求解博弈问题,找到纳什均衡。
纳什均衡的应用
经济学
纳什均衡可以用来解释市场中的竞争行为和价格形成机制,以及 企业之间的竞争策略。
立法博弈
在立法过程中,博弈论可以帮助分析各方利 益集团的博弈行为,预测法案的通过与否以 及最终的立法结果。这有助于利益集团制定
最佳的游说策略和立法策略。
社会问题
环境保护博弈
在环境保护方面,博弈论可以用于分析政府、企业和个人之间的环保博弈行为。通过建 立博弈模型,可以预测各方的行为反应,从而为政府制定有效的环保政策提供依据。
国外博弈论课件 Lecture(10)
目 录
• 博弈论简介 • 博弈论的基本概念 • 博弈的类型 • 纳什均衡 • 博弈论的实际应用 • 结论与展望
01
CATALOGUE
博弈论简介
博弈论的定义
博弈论:研究决策主体在给定 信息结构下如何决策以最大化 自己的效用,以及不同决策主
博弈论最全完整-讲解课件

• 如果一个博弈在所有各种对局下全体参与人之 得益总和总是保持为零,这个博弈就叫零和博 弈;
• 相反,如果一个博弈在所有各种对局下全体参 与人之得益总和不总是保持为零,这个博弈就 叫非零和博弈。
• 零和博弈是利益对抗程度最高的博弈。
• 即使决策或行动有先后,但只要局中人在决策 时都还不知道对手的决策或者行动是什么,也 算是静态博弈
学习交流PPT
28
完全信息博弈与不完全信息博弈
(games of complete information and games of incomplete information)
• 按照大家是否清楚对局情况下每个局中人 的得益。
供万无一失的应对办法。
学习交流PPT
5
例1:无谓竞争(The GPA Rat Race)
• 你所注册的一门课程按照比例来给分:无论卷 面分数是多少,只有40%的人能够得优秀,40 %的人能得良好。
• 所有学生达成一个协议,大家都不要太用功, 如何?想法不错,但无法实施!稍加努力即可 胜过他人,诱惑大矣。
• 某些博弈中,由于偶然的外因可以对策略贴标 签,或者参与者之间拥有某些共同的知识体验, 导致了焦点的存在。
• 没有某个这样的暗示,默契的合作就完全不可 能。
学习交流PPT
9
例3:为什么教授如此苛刻?
• 许多教授强硬地规定,不进行补考,不允许迟 交作业或论文。
• 教授们为何如此苛刻?
• 如果允许某种迟交,而且教授又不能辨别真伪, 那么学生就总是会迟交。
• 王则柯、李杰编著,《博弈论教程》,中国人民大学 出版社,2004年版。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Eco514—Game TheoryLecture10:Extensive Games with(Almost)PerfectInformationMarciano SiniscalchiOctober19,1999IntroductionBeginning with this lecture,we focus our attention on dynamic games.The majority of games of economic interest feature some dynamic component,and most often payoffuncertainty as well.The analysis of extensive games is challenging in several ways.At the most basic level, describing the possible sequences of events(choices)which define a particular game form is not problematic per se;yet,different formal definitions have been proposed,each with its pros and cons.Representing the players’information as the play unfolds is nontrivial:to some extent, research on this topic may still be said to be in progress.The focus of this course will be on solution concepts;in this area,subtle and unexpected difficulties arise,even in simple games.The very representation of players’beliefs as the play unfolds is problematic,at least in games with three or more players.There has been afierce debate on the“right”notion of rationality for extensive games,but no consensus seems to have emerged among theorists.We shall investigate these issues in due course.Today we begin by analyzing a particu-larly simple class of games,characterized by a natural multistage structure.I should point out that,perhaps partly due to its simplicity,this class encompasses the vast majority of extensive games of economic interest,especially if one allows for payoffuncertainty.We shall return to this point in the next lecture.Games with Perfect InformationFollowing OR,we begin with the simplest possible extensive-form game.The basic idea is as follows:play proceeds in stages,and at each stage one(and only one)player chooses an1action.Sequences of actions are called histories;some histories are terminal,i.e.no furtheractions are taken,and players receive their payoffs.Moreover,at each stage every playergets to observe all previous actions.Definition1An extensive-form game with perfect information is a tupleΓ=(N,A,H,P,Z,U)where:N is a set of players;A is a set of actions;H is a collection offinite and countable sequences of elements from A,such that:(i)∅∈H;(ii)(a1,...,a k)∈H implies(a1,...,a )∈H for all <k;(iii)If h=(a1,...,a k,...)and(a1,...,a k)∈H for all k≥1,then h∈H.Z is the set of terminal histories:that is,(a1,...,a k)∈Z iff(a1,...,a k)∈H and(a1,...,a k,a)∈H for all a∈A.Also let X=H\Z.All infinite histories are terminal.P:X→N is the player function,associating with each non-terminal history h∈X theplayer P(h)on the move after history h.U=(U i)i∈N:Z→R is the payofffunction,associating a vector of payoffs to everyterminal history.I differ from OR in two respects:first,Ifind it useful to specify the set of actions inthe definition of an extensive-form game.Second,at the expense of some(but not much!) generality,I represent preferences among terminal nodes by means of a vN-M utility function.Interpreting Definition1A few comments on formal aspects are in order.First,actions are best thought of as movelabels;what really defines the game is the set H of sequences.If one wishes,one can think ofA as a product set(i.e.every player gets her own set of move labels),but this is inessential.Histories encode all possible partial and complete plays of the gameΓ.Indeed,it isprecisely by spelling out what the possible plays are that we fully describe the game under consideration!Thus,consider the following game:N={1,2};A={a1,d1,a2,d2,A,D};H={∅,(d1),(a1),(a1,D),(a1, thus,Z={(d1),(a1,D),(a1,A,d2),(a1,A,a2)}and X={∅,(a1),(a1,A),};finally,P(∅)=P((a1,A))=1,P(a1)=2,and U((d1))=(2,2),U((a1,D))=(1,1),U((a1,A,d1))=(0,0),U((a1,A,a2))=(3,3).ThenΓ=(N,A,H,Z,P,U)is the game in Figure1.The empty history is always an element of H,and denotes the initial point of the game.Part(ii)in the definition of H says that every sub-history of a history h is itself a history inits own right.Part(iii)is a“limit”definition of infinite histories.Note that infinite historiesare logically required to be terminal.A key assumption is that,whenever a history h occurs,all players(in particular,PlayerP(h))get to observe it.23,3r 12,2d 1a 1r 2D A 1,1r 1d 2a 20,0Figure 1:A perfect-information gameStrategies and normal form(s)Definition 1is arguably a “natural”way of describing a dynamic game—and one that is at least implicit in most applications of the theory.According to our formulations,actions are the primitive objects of choice.However,the notion of a strategy ,i.e.a history-contingent plan,is also relevant:Definition 2Fix an extensive-form game with perfect information Γ.For every history h ∈X ,let A (h )={a ∈A :(h,a )∈H }be the set of actions available at h .Then,for every player i ∈N ,a strategy is a function s i :P −1(i )→A such that,for every h such that P (h )=i ,s i (h )∈A (h ).Denote by S i and S the set of strategies of Player i and the set of all strategy profiles.Armed with this definition (to which we shall need to return momentarily)we are ready to extend the notion of Nash equilibrium to extensive games.Definition 3Fix an extensive-form game Γwith perfect information.The outcome function O is a map O :S →Z defined by∀h =(a 1,...,a k )∈Z, <k :a +1=s P ((a 1,...,a ))((a 1,...,a ))The normal form of the game Γis G Γ=(N,(S i ,u i )i ∈N ),where u i (s )=U i (O (s )).The outcome function simply traces out the history generated by a strategy profile.The normal-form payofffunction u i is then derived from U i and O in the natural way.Finally:Definition 4Fix an extensive-form game Γwith perfect information.A pure-strategy Nash equilibrium of Γis a profile of strategies s ∈S which constitutes a Nash equilibrium of its normal form G Γ;a mixed-strategy Nash equilibrium of Γis a Nash equilibrium of the mixed extension of G Γ.3Thus,in the game of Figure1,both(a1a2,A)and(d1d2,D)are Nash equilibria.Observe that a strategy indicates choices even at histories which previous choices dictated by the same strategy prevent from obtaining.In the game of Figure1,for instance,d1a1is a strategy of Player1,although the history(a1,A)cannot obtain if Player1chooses d1at∅.It stands to reason that d2in the strategy d1d2cannot really be a description of Player 1’s action—she will never really play d2!We shall return to this point in the next lecture.For the time being,let us provisionally say that d2in the context of the equilibrium(d1d2,D)represents only Player2’s beliefs about Player1’s action in the counterfactual event that she chooses a1at∅,and Player2follows it with A.The key observation here is that this belief is crucial in sustaining(d1d2,D)as a Nash equilibrium.Games with observable actions and chance movesThe beauty of the OR notation becomes manifest once one adds the possibility that more than one player might choose an action simultaneously at a given history.The resulting game is no longer one of perfect information,because there is some degree of strategic uncertainty. Yet,we maintain the assumption that histories are observable:that is,every player on the move at a history h observes all previous actions and action profiles which comprise h.The OR definition is a bit vague,so let me provide a rigorous,inductive one.I also add the possibility of chance moves,i.e.exogenous uncertainty.Definition5An extensive-form game with observable actions and chance moves is a tuple Γ=(N,A,H,P,Z,U,f c)where:N is a set of players;Chance,denoted by c,is regarded as an additional player,so c∈N.A is a set of actionsH is a set of sequences whose elements are points in i∈J A for some A⊂N∪{c};Z and X are as in Definition1;P is the player correspondence P:X⇒N∪{c}U:Z→R N as in Definition1;H satisfies the conditions in Definition1.Moreover,for every k≥1,(a1,...,a k)∈H implies that(a1,...,a k−1)∈H and a k∈ i∈P((a1,...,a k−1))A.For every i∈N∪{c},let A i(h)={a i∈A:∃a−i∈ j∈P(h)\{i}A s.t.(h,(a i,a−i))∈H}. Then f c:{h:c∈P(h)}→∆(A)indicates the probability of each chance move,and f c(h)(A i(h))=1for all h such that c∈P(h).The definition is apparently complicated,but the underlying construction is rather nat-ural:at each stage,we allow more than one player(including Chance)to pick an action;the4chosen profile then becomes publicly observable.We quite simply replace individual actions with action profiles in the definition of a history,and adapt the notation accordingly. Remark0.1Let A(h)={a∈ i∈P(h)A:(h,a)∈H}.Then A(h)= i∈P(h)A i(h).The definition of a strategy needs minimal modifications:Definition6Fix an extensive-form gameΓwith observable actions and chance moves. Then,for every player i∈N∪{c},a strategy is a function s i:{h:i∈P(h)}→A such that,for every h such that i∈P(h),s i(h)∈A i(h).Denote by S i and S the set of strategies of Player i and the set of all strategy profiles.In the absence of chance moves,Definition4applies verbatim to the new setting.You can think about how to generalize it with chance moves(we do not really wish to treat Chance as an additional player in a normal-form game,so we need to redefine the payofffunctions in the natural way).Finally,the definition of Nash equilibrium requires no change.For those of you who are used to the traditional,tree-based definition of an extensive game,note that you need to use information sets in order to describe games without perfect information,but with observable actions.That is,you need to use the full expressive power of the tree-based notation in order to describe what is a slight and rather natural extension of perfect-information games.1Most games of economic interest are games with observable actions,albeit possibly with payoffuncertainty;hence,the OR notation is sufficient to deal with most applied problems (payoffuncertainty is easily added to the basic framework,as we shall see).1On the other hand,the OR notation is equivalent to the standard one for games with perfect information: just call histories“nodes”,actions“arcs”,terminal histories“leaves”and∅“root”.5。