0% encontró este documento útil (0 votos)
56 vistas36 páginas

Teoría de Juegos Estáticos

Este documento trata sobre teoría de juegos. Explica conceptos como juegos en forma normal, teoría de decisión, conocimiento común e información. También presenta algunos ejemplos ilustrativos de diferentes tipos de juegos.

Cargado por

Inna
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
56 vistas36 páginas

Teoría de Juegos Estáticos

Este documento trata sobre teoría de juegos. Explica conceptos como juegos en forma normal, teoría de decisión, conocimiento común e información. También presenta algunos ejemplos ilustrativos de diferentes tipos de juegos.

Cargado por

Inna
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Juegos estáticos de información completa*

Alvaro J. Riascos Villegas


Universidad de los Andes
Enero de 2016

Índice
1. Introducción 2

2. Juegos en forma normal 2

3. Teorı́a de la decisión 3
3.1. Conocimiento común, inconsciencia . . . . . . . . . . . . . . . . . 4

4. Soluciones de un juego 5
4.1. Dominancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.2. Estrategias racionalizables . . . . . . . . . . . . . . . . . . . . . . 9
4.3. Equilibrio de Nash - Cournot . . . . . . . . . . . . . . . . . . . . 10
4.4. Seguridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5. Extensión mixta de un juego 14


5.1. Dominancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.2. Estrategias racionalizables . . . . . . . . . . . . . . . . . . . . . . 16
5.3. Equilibrio de Nash - Cournot . . . . . . . . . . . . . . . . . . . . 18
5.4. Seguridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6. Aspectos normativos 22

7. Otros conceptos de solución 23


7.1. Equilibrio perfecto . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.2. Equilibrio fuerte y equilibrio inmune a coaliciones . . . . . . . . . 25
7.3. Equilibrio correlacionado . . . . . . . . . . . . . . . . . . . . . . . 27

8. Juegos bilaterales de suma cero 31

9. Juegos generalizados y juegos con un continuo de jugadores 34


* Notas de clase basadas en Mas-Colell et.al [1995], Myerson , R. [1990] y Vega - Redondo,F

[2003], Maschler, M., Solan, E. y S. Zamir [2013].

1
1. Introducción
La teorı́a de juegos es el estudio de las interacciones estratégicas entre
agentes racionales (individuos, firmas, etc.) con diferentes objetivos. La
principal caracterı́stica es que reconoce que las decisiones de un agente
pueden afectar de forma directa los objetivos de los demás agentes. Ésta
se puede dividir en dos grandes ramas. La teorı́a de juegos estratégicos
(o juegos no cooperativos) y la teorı́a de juegos coalicionales (o juegos
cooperativos). La principal diferencia de los últimos comparados frente a
los primeros es que en los juegos coalicionales se supone que los jugadores
pueden hacer coaliciones o arreglos que se sostienen mediante algún meca-
nismo que no se especifica explı́citamente. En esta parte nos concentramos
en la teorı́a de juegos estratégicos.

Los juegos estratégicos se pueden representar de dos formas.

1. Forma normal, para juegos estáticos.1


2. Forma extensiva, para juegos dinámicos.

Los juegos en forma normal se pueden clasificar en juegos de información


completa e incompleta y los juegos en forma extensiva se pueden clasificar
en juegos de información perfecta y juegos de información imperfecta.
La representación de un juego en forma extensiva es la forma más general
de representar un juego. En estas notas vamos a comenzar estudiando los
juegos estratégicos en su representación normal.

2. Juegos en forma normal


Definición 1 (Juego
D en forma normal) Un E juego en forma normal es una
estructura G = N , {Si }i=1,...,N , {πi }i=1,...,N donde

1. N es un conjunto de jugadores, N = {1, ...N } .


2. Si es un conjunto de acciones o estrategias puras para cada jugador.
N
3. πi : Π Si → R es la utilidad (pago neto) de cada jugador.
i=1

Ejemplo 1 (Dilema de los prisioneros) Sea N = 2, S1 = S2 = {A, C} .


El pago neto de cada agente lo representamos mediante la siguiente tabla. La
convención que vamos a utilizar es que la estrategia del jugador 1 la representan
las filas y las del jugador 2 las columnas. El pago neto del primer jugador es el
primer número de cada celda. Del segundo jugador, el segundo.
1 También se donominan juegos en forma estratégica. Sin embargo, reservamos este nombre
para toda la clase de juegos estratégicos (en forma normal y extensiva).

2
1\2 A C
A -10,-10 0,-12
C -12,0 -1,-1

Ejemplo 2 (Batalla de los sexos) Supongamos que hay dos agentes N = 2,


S1 = S2 = {B, S} , π1 , π2 : S1 × S2 → R

M\H B S
B 3,2 1,1
S 0,0 2,3

Ejemplo 3 (Juego de conducción) Supongamos que hay dos conductores que


en ausencia de normas de transito deben decidir todos los dı́as por cuál carril
conducir su carro. Entonces N = 2, S1 = S2 = {D, I} , π1 , π2 : S1 × S2 → R

M\H D I
D 1,1 0,0
I 0,0 1,1

Obsérvese que la batalla de los sexos y el juego de conducción son juegos


en lo que los agentes quisieran coordinar en sus acciones.

Ejemplo 4 (Juego de revelación) Los dos jugadores son un ser superior (SB)
y una persona (P ).2 Las estrategias para SB son SSB = {RE, N RE},SP =
{CE, N CE} donde RE y N RE significan respectivamente que SB revela su
existencia y que no revela su existencia y CE, N CE significan respectivamente
que P cree o no cree en su existencia.

SB\P CE NCE
RE 3,4 1,1
NRE 4,2 2,3

N N
Notación 1 Sea S = Π Si y para cualquier jugador i sea S−i = Π Sj . Dada
i=0 j6=i
una estrategia conjunta s = (s1 , ..., sN ) ∈ S y cualquier jugador i también deno-
tamos la estrategia conjunta s como s = (si , s−i ) donde si ∈ Si es la estrategia
del jugador i y s−i es la estrategia conjunta de todos los jugadores con excepción
del jugador i.

3. Teorı́a de la decisión
Todo juego plantea un problema de decisión.
Un problema de decisión consiste en la especificación de:
2 Basado en S. Brams [2007]. Superior Beings: If they exist, how should we know?

3
1. Un conjunto de acciones.
2. Un conjunto de estados de la naturaleza (conjeturas, expectativas o
creencias sobre los estados de la naturaleza).
3. Un conjunto de consecuencias sobre las cuales el agente tienen prefe-
rencias.
4. Unas preferencias del agente sobre el conjunto de consecuencias.
5. Hipótesis de comportamiento.

Un problema de decisión está bien puesto cuando el conjunto de accio-


nes, expectativas, consecuencias y preferencias sobre las consecuencias
son todos completamente independientes el uno del otro (i.e., preferen-
cias intrı́nsecas).
El concepto de estados encierra muchas posibilidades: crencias sobre el
conjunto de acciones de los demás, sobre las creencias de los demás (inclui-
do las creencias de los demás sobre el agente), creencias sobre la hipótesis
de comportamiento de los demás, estados exógenos al problema de decisión
que lo afectan (incetidumbre), etc.
La relevancia del conjunto de creencias o expectativas se explora infor-
malmente en la siguiente sección y será una constante a lo largo de estas
notas. Más adelante introduciremos un modelo formal de las expectativas
de los agentes.

3.1. Conocimiento común, inconsciencia


El siguiente ejemplo pone de manifiesto la importancia que tiene el cono-
cimiento que suponemos tiene un agente sobre el conocimiento que tienen
los demás y viceversa.

Ejemplo 5 (Paradoja de los sombreros) Supongamos que hay tres perso-


nas sentadas en un salón. Cada una de ellos tiene un sombrero que saben que
puede ser blanco o rojo. Cada una de ellos puede observar el sombrero que los
demás tienen en su cabeza pero no el que él tiene en su cabeza. Supongamos
que los tres son rojos. Lo único que saben las personas es que el sombrero puede
ser blanco o rojo y lo único que pueden hacer es ver el color del sombrero de
los demás. Si preguntaramos uno a uno, cual es el color del sombrero que ellos
tienen en su cabeza, todos responderı́an no sé. Ahora, supongamos que les ha-
cemos el siguiente anuncio. Existe por lo menos un sombrero rojo en la cabeza
de ustedes y volvemos y les preguntamos uno a uno si saben con certeza cuál es
el sombrero que tienen en la cabeza. Cada uno de ellos puede oir lo que respon-
den los anteriores. En esta ocasión los dos primeros a quienes se les pregunta
responden no sé, pero el último deberı́a de responder que su sombrero es con
seguridad rojo.
Para ver esto obsérvese que antes del anuncio, las tres personas saben que
hay por lo menos un sombrero rojo entre los tres. Más aún, el tercero sabe que

4
el segundo sabe que hay por lo menos un sombrero rojo. Sin embargo, antes del
anuncio, el tercero no sabe que el segundo sabe que el primero sabe que hay
por lo menos un sombrero rojo entre los tres. Ahora, una vez hecho el anuncio,
saber que hay por lo menos un sombrero rojo entre los tres se convierte en
conocimiento común: todos saben que los demás saben y todos saben que los
demás saben que los otros saben, etc. En particular, el tercero sabe que el segundo
sabe que el primero sabe que hay por lo menos un sombrero rojo entre los tres.
Por lo tanto, dado que el primero y el segundo afirmaron no saber de qué color
era el sombrero, el tercero puede deducir que su sombrero es rojo. Para ver
esto suponga que una vez hecho el anuncio, los dos primeros responden no sé.
Ahora el tercero puede argumentar ası́. Si mi sombrero no fuera rojo, como
el segundo jugador sabe que el primero respondió no sé, entonces es porque el
segundo sabe que el primero está viendo un sobrero rojo. Si el mı́o no es rojo,
entonce el segundo jugador deberı́a deducir que el sombrero rojo que está viendo
el primer jugador es el del jugador dos, luego el jugador dos debió responder
que su sombrero era rojo. Como no lo hizo, eso quiere decir que mi sombrero
es rojo. Obsérvese que la clave de este argumento es que después de hecho el
anuncio, el jugador tres sabe que el jugador dos sabe que el jugador uno sabe
que hay por lo menos un sombrero rojo entre los tres.
Existen muchas formas de relajar el supuesto de conocimiento común.
Puede ser en el sentido de que el juego no es conocimiento común (un
jugador desconoce que existe un tercero, desconoce todas las estrategias
de sus oponentes, etc.) o puede tener una inteligencia limitada (sabe algo
sobre su oponente pero no sabe que su oponente sabe que él sabe), etc.
Las consecuencias formales de este tipo de limitaciones serán discutidas
más adelante. En la literatura se conoce como games with unawareness.

4. Soluciones de un juego
Una solución de un juego es una descripción sistemática del resultado que
podrı́amos esperar de la interacción de los jugadores en el juego.
Tres conceptos sirven para unificar las ideas principlaes relacionadas con
la solución de un juego. Estos son el concepto de dominancia, estabilidad y
seguridad. El primero está relacionado con la identificación de estrategias
que un agente racional no jugarı́a. La segunda representa un concepto de
equilibrio y busca identificar estrategias en las cuales no existen incentivos
a desviarse y la tercera, identifica estrategias que garantizan cierta utilidad
para los jugadores en el peor de los casos.
Supongamos que todos los jugadores son racionales. Es decir buscan maxi-
mizar su pago neto (más adelante consideraremos otras formas de raciona-
lidad como por ejemplo que un jugador no juega una estrategia dominada).
Utilizaremos el concepto de inteligencia para hablar de el conocimiento
que tienen los jugadores del juego, de las conjeturas de los demás, etc.

5
Los jugadores escogen su estrategia de forma independiente de los demás.
Además supongamos todos los jugadores conocen todos los elementos del
juego G y que saben que los demás jugadores saben que los demás son
racionales e inteligentes. Más precisamente, en el juego la racionalidad de
los jugadores y la inteligencia de los mismos es conocimiento común.
A lo largo de las notas vamos a estudiar diferentes niveles de inteligencia
de los jugadores. Es decir, qué tipo de racionalidad e inteligencia se supone
sobre los demás y si es conocimiento común o no.
La pregunta más fundamental de la teorı́a de juegos es, ¿Cuál es nuestra
mejor predicción de la interación de los agentes en el juego? Es decir, da-
das las hipótesis mencionadas anteriormente, qué estrategias consideramos
razonables para cada jugador. Esto es lo que denominamos una solución
de un juego.
Todo concepto de solución de un juego está basado en un supuesto sobre
la racionalidad, el nivel de inteligencia de los agentes y las restricciones
sobre las estrategias.

4.1. Dominancia
Definición 2 (Dominancia) Una estrategia sbi ∈ Si domina débilmente una
estrategia si ∈ Si , o si es una estrategia débilmente dominada por sbi , si para
todo s−i ∈ S−i :
si , s−i ) ≥ πi (si , s−i )
πi (b
con desigualdad estricta por lo menos para un s−i . Cuando en la definición ante-
rior podemos sustituir la desigualdad débil por una estricta para todo s−i ∈ S−i
decimos que sbi ∈ Si domina (estricatmente) la estrategia si , o equivalentemente
que si es una estrategia dominada (estrictamente) por sbi .
Nota técnica 1 Mientras no se diga lo contrario, el término domina o domi-
nada se utiliza en un sentido estricto.
Ejemplo 6 En el siguiente juego, para el agente 1, Y domina a Z.
1\2 A B C
X 2,7 2,0 2,2
Y 7,0 1,1 3,2
Z 4,1 0,4 1,3

Definición 3 (Estrategias dominantes) Una estrategia sbi ∈ Si es una es-


trategia dominante débilmente si domina débilmente a toda estrategia. Decimos
que es dominante (estrictamente) si domonina (estrictamente) a toda estrategia.
Definición 4 (Equilibrio en estrategias dominantes) Cuando cada juga-
dor tiene una estrategia dominante estrictamente (débilmente) decimos que el
juego tiene un equilibrio en estrategias dominantes estrictamente (débilmente).

6
Ejemplo 7 (Dilema de los prisioneros) En el dilema de los prisioneros ca-
da uno de los agentes tiene una estrategia dominante.

Ejemplo 8 (Batalla de los sexos) En la batalla de los sexos ningún jugador


tiene una estrategia dominante.

Ejercicio 1 Demostrar que si existe un equilibrio en estrategias dominantes


(estrictamente o débilmente) entonces es único.

El equilibrio en estrategias dominantes es un concepto de equilibrio muy


fuerte desde el punto de vista estratégico (requiere de la existencia de es-
trategias dominantes para cada jugador). Sin embargo, es muy débil desde
el punto de vista de la racionalidad e inteligencia que se supone de los ju-
gadores. El equilibrio en estrategias dominantes estrictamente se basa en
una hipótesis de comportamiento débil: los individuos no juegan estrate-
gias dominadas estrictamente. Luego, al existir una estrategia dominante
estrictamente, ésta es la única a considerar como racional (la hipótesis
en el caso de estrategias dominates débilmente es más discutible como
veremos más adelante).
Estas caracterı́sticas hacen que este concepto de solución sea muy fuerte
y que no exista en muchos ejemplos.
Esta tensión entre los diferentes conceptos de solución, entre las exigencias
desde el punto de vista estratégico de un juego y la raionalidad o inteli-
gencia que se supone de los jugadores, será una constante a lo largo de las
notas.

Para estudiar un poco esta idea de condiciones mı́nimas que debe satisfa-
cer un concepto de solución introduciremos el concepto de estrategias no
dominadas iterativamente.
El concepto de estrategias dominadas sugiere una forma de identificar
un conjunto de estrategias de las cuales se podrı́a afirmar que cualquier
resultado de un juego deberı́a de estar.

Definición 5 (Estrategias no dominadas estrictamente de forma iterativa)


Sea Si0 = Si y definamos Sik , k > 0 de la siguiente forma:

si ∈ Sik : No existe sbi ∈ Sik tal que


 
k+1
Si = k
πi (bsi , s−i ) > πi (si , s−i ), ∀s−i ∈ S−i

y Si∞ = ∩ Sik . El conjunto Si∞ se denomina el conjunto de estrategias no domi-
k=1
N
nadas estrictamente de forma iterativa del agente i y el conjunto S ∞ = Π Si∞
i=1
el conjunto de estrategias conjuntas no dominadas estrictamente de forma ite-
rativa del juego G.

7
Definición 6 (Juegos solucionables en estrategias no dominadas iterativamente)
Si S ∞ consiste de un sólo elemento, decimos que el juego es solucionable en es-
trategias no dominadas estrictamente de forma iterativamente.

Ejemplo 9 Consideremos el juego:

1\2 A B C
X 2,7 2,0 2,2
Y 7,0 1,1 3,2
Z 4,1 0,4 1,3

El proceso de eliminación arroja: S10 = {x, y, z}, S11 = {x, y}, S12 = {x, y},
S13= {y}, S14 = {y}, S20 = {A, B, C}, S21 = {A, B, C}, S22 = {A, C}, S23 =
{A, C} y S24 = {C}.

Mientras no se diga lo contrario una estrategia no dominada quiere decir


no dominada en un sentido estricto.
Obsérvese que el concepto de estrategias no dominadas iterativamente de
un juego lo hemos definido únicamente como un proceso de eliminación se-
cuencial de estrategias dominadas estrı́ctamente. Las razones y un ejemplo
que ilustra los problemas de utilizar estrategias no dominadas débilmente
las discutiremos más adelante.
Obsérvese que la definición supone que en cada iteración se eliminan todas
las estrategias dominadas estrı́ctamente. Esto no es esencial en la defini-
ción. En efecto, se puede demostrar que el resultado final es independiente
de si se eliminan algunas o todas y el orden en el que se eliminan (véase
Osborne y Rubinstein página 60, para una definición que sólo supone que
se eliminan algunas estrategias en cada iteración).
De forma análoga a la definición anterior, podemos definir Wik , Wi∞ y
W ∞ utilizando el concepto de estrategias dominadas débilmente. En es-
ta definición, queda implı́cito que en cada iteración todas las estrategı́as
dominadas débilmente se deberı́an de eliminar. Ahora, a diferencia con el
caso de dominancia estricta, el concepto de sobrevivencia de estrategı́as
dominadas iterativamente de forma débil sı́ depende de si se eliminan todas
las estratégias o no y el orden en el que se eliminan. El siguiente ejemplo
pone en evidencia esta caracterı́stica.

Ejemplo 10 (Eliminación de estrategias dominadas débilmente) Considere


el siguiente ejemplo:
L R
U 5,1 4,0
M 6,0 3,1
D 6,4 4,4

8
Ejercicio 2 Demostrar que W ∞ ⊆ S ∞ . Dar un ejemplo que muestre que en
general la contenencia es estricta. Sea EW y ES el conjunto de equilibrios en
estrategias dominantes débilmente y estrı́ctamente respectivamente. Demostrar
que:
ES ⊆ EW ⊆ W ∞ ⊆ S ∞

El concepto de estrategias no dominadas iterativamente enmarca los re-


querimientos mı́nimos que debe tener cualquier candidato a solución de un
juego. Obsérvese que estrictamente no es un concepto de equilibrio en el
sentido de que no existen incentivos unilaterales a desviarse, sino un con-
junto de estrategias tales que cualquier concepto de solución de un juego
deberı́a satisfacer.
Ahora, el concepto de estrategias no dominadas iterativamente es un con-
cepto muy débil y en ocasiones no provee de ninguna información adicional
sobre cómo se comportarı́an los jugadores en un juego. Por ejemplo, en la
batalla de los sexos, ningún jugador tiene una estrategia dominada y, por
lo tanto, S ∞ es el mismo conjunto de estrategias del juego original.
En este orden de ideas, obsérvese que la idea de eliminación de estrategias
dominadas iterativamente es un concepto muy débil desde el punto de
vista estratégico, pero supone algo más de inteligencia por parte de los
jugadores relacionado con qué conoce uno sobre lo que los demás hacen.
Especı́ficamente, la hipótesis de comportamiento es que ningún jugador
juega una estrategia dominada y se supone una forma débil de inteligencia,
la idea de que todo jugador sabe que el otro no jugará una estrategia
dominda y a su vez, cada uno de ellos sabe que el otro sabe, etc.
Obsérvese que las hipótesis de racionalidad y conocimiento común sobre
la inteligencia de los jugadores permiten, en principio, considerar como
irracionales algunas otras estrategias que no son eliminadas por el proceso
de eliminación de estrategias dominadas estrictamente. Esto nos conduce
al siguiente concepto.

4.2. Estrategias racionalizables


Definición 7 (Mejor respuesta) Una estrategia sbi es mejor respuesta para
el jugador i cuando las estrategias de los demás son s−i si:

si , s−i ) ≥ πi (si , s−i )


πi (b

para todo si . Una estrategia si nunca es una mejor respuesta si no existe s−i
tal que si sea mejor respuesta cuando las estrategias de los demás son s−i .

Obsérvese que la hipótesis de racionalidad sugiere que un jugador sólo ju-


gará una estrategia que sea mejor respuesta a algún perfil de estrategias de
los demás jugadores (esta es una hipótesis de racionalidad más fuerte que
suponer que los jugadores no jugarán estrategias dominadas). No es difı́cil

9
de imaginarse, en la misma lı́nea que la definición de eliminación de estra-
tegias dominadas estrictamente, una definición de eliminación iterativa de
estrategias que nunca son mejor respuesta.
Definición 8 (Estrategias racionalizables) Las estrategias que sobreviven
el proceso de eliminación iterativo de estrategias que nunca son mejor respuesta,
lo denominamos el conjunto de estrategias racionalizables R∞ .
Se puede demostrar que el proceso de eliminación es independiente del
orden.
Ejercicio 3 Mostrar que una estrategia estrı́ctamente dominada nunca es una
mejor respuesta y demostrar que R∞ ⊆ S ∞ .
Ejercicio 4 Demostrar o dar un contraejemplo de la afirmación S ∞ ⊆ R∞ .
Obsérvese que una estrategia dominada débilmente si puede ser en prin-
cipio una mejor respuesta. Este es el caso con las estrategias que son
dominadas débilmente pero no estrı́ctamente. Esta observación muestra
que el concepto de eliminación iterativa de estrategias débilmente domi-
nadas no tiene bases racionales tan sólidas cuanto el concepto basado en
eliminación estricta. Sin embargo, como veremos más adelante, este tipo
de eliminación puede eventualmente eliminar equilibrios de Nash lo que
cuál resulta atractivo en presencia de múltiples equilibrios.

4.3. Equilibrio de Nash - Cournot


Definición 9 (Equilibrio de Nash - Cournot) Una estrategia conjunta sb ∈
S es un equilibrio de Nash - Cournot si para todo jugador i y para toda estrategia
si ∈ Si :
si , sb−i ) ≥ πi (si , sb−i )
πi (b
Obsérvese que este concepto de solución tiene como eje central una idea
de estabilidad.
Ejercicio 5 Demostrar que todo equilibrio en estrategias dominantes débilmen-
te es un equilibrio de Nash.
En el dilema de los prisioneros, el equilibrio en estrategias dominantes es
un equilibrio de Nash.
En la batalla de los sexos existen dos equilibrios de Nash ninguno de los
cuales es un equilibrio en estrategias dominantes.
Ejemplo 11 (Tragedia de los comúnes) N jugadores desean compartir una
banda de transmisión de información. La capacidad máxima es uno y cada agen-
te debe escoger qué cantidad xi ∈ [0, 1] desea transmitir. El beneficio para cada
agente es: !
P
xi 1 − xj
j

10
Un equilibrio de Nash de este ejemplo es:
1
xi =
N +1
El problema es que el valor individual y social de esta solución es muy bajo:
1 n 1
(1+n)2 y (1+n)2 ∼ n respectivamente.
Ahora, si maximizamos el valor social suponiendo que cada agente usa la
misma proporción x de la banda entonces:
!
P P
xi 1 − xj = nx (1 − nx)
i j

1
y obtenemos la solución socilamente eficiente x = 2n que implica un benefi-
1
cio social igual a 4 , el cual es muy superior al beneficio social en la solución
descentralizada.

El dilema de los prisioneros y el problema de los comúnes llaman la aten-


ción sobre el costo social la descentralización (i.e., el costo de la competen-
cia o racionalidad individual). Esto se conoce como el precio de la anarquı́a
(price of anarchy).

Ejemplo 12 (Paradoja de Braess) Este ejemplo se le atribuye a Dietrich


Braess, ingeniero civil quien llamó la atención sobre sus caracterı́sticas paradóji-
cas a comienzos de los años 50. Considere la figura 1 en la cual se representa
esquemáticamente las posibles formas de ir en carro de la ciudad A a la ciudad
B utilizando las dos carreteras que se muestran en la figura.
Debido a las caracterı́sticas de las mismas, el tiempo que dura el trayecto de
A hasta la ciudad intermedia 1 depende del tráfico mientras que, de la ciudad
intermedia 1 hasta la ciudad B, es independiente del tráfico y siempre toma
la misma cantidad de minutos. De forma similar, el trayecto de A a la ciudad
intermedia 2 es independiente del tráfico mientras que de la ciudad intermedia 2
hasta la ciudad B depende del tráfico de la misma forma que de A hasta la ciudad
intermedia 1. No es difı́cil convencerse que, dado un cierto número de carros que
debe viajar desde el A hasta B, si cada uno de ellos tiene conocimiento sobre los
detalles mencionados anteriormente y cada uno evalúa de forma independiente
e individualista cuál carretera va utilizar, el flujo esperado es que la mitad de los
carros utilizarán un trayecto y la otra mitad el otro. Concretamente supongamos
que el número de carros es 4000. En el trayecto sujeto a congestión, el tiempo es
igual al número de carros dividido por 100, los trayectos que no están sujetos a
congestión el tiempo es 45. En el equilibrio de Nash el tiempo de traslado es 65
minutos. Ahora, supongamos que las autoridades competentes deciden construir
una carretera entre las ciudades intermedias 1 y 2 con el fin de mitigar los
problemas de congestión de viajar de A a B (véase figura 2).
Más aún, supongamos que el tiempo de desplazamiento entre 1 y 2 es prácti-
camente cero. Ahora, la pregunta sobre el flujo vehicular esperado dado que

11
cada individuo actúa de forma individual, conocen las caracterı́sticas del proble-
ma mencionadas y suponen que los demás actúan de la misma forma, requiere
un poco más de esfuerzo. Es fácil de ver que todos los carros tomaran la ruta A
- 1 pues si todos hacen esto el tiempo de desplazamiento hasta 1 es 40 minutos.
Estando en 1, lo óptimo es hacer 1 - 2 - B, pues el tiempo de esta última parte
serı́a 40 minutos y la alternativa serı́a 45. En conclusión el nuevo equilibriuo
implica un tiempo de desplazamiento de 80 minutos. El resultado es sorpren-
dente dado que el número de carros que viaja de A hacia B es exactamente el
mismo, y que las mismas rutas que estaban a disposición anteriormente siguen
estándolo una vez construida la variante que comunica 1 y 2. En conclusión, el
comportamiento individualista en el segundo caso tiene como consecuencia un
resultado ineficiente para la sociedad.
Proposición 1 Todo equilibrio de Nash sobrevive el proceso de eliminación de
estrategias dominadas estrictamente.
Prueba. Suponga que tenemos una estrategia conjunta que es Nash pero no
está en S ∞ . Eso quiere decir que para algún i, la estrategia que le corresponde
en Nash no está en Si∞ , luego fue eliminada en alguna iteración k. Sea k el
menor k para el cual existe un i tal que estrategia que le corresponde a i en
el equilibrio de Nash es eliminada en la iteración k. Entonces esto implica que
existe una estrategia en Sik−1 que domina estrictamente en S−i k−1
la estrategia
de Nash que le corresponde a i. Sin embargo, todas las estrategias de los demás
k−1
jugadores pertenecen a S−i (por la definición de k, además k 6= 0) luego esto
implicarı́a que la estrategia que le corresponde a i en el equilibrio de Nash no
serı́a una mejor respuesta.
Proposición 2 Si un juego tiene un equilibrio en estrategias no dominadas ite-
rativamente (es resoluble en estrategias no dominadas iterativamente) entonces
esa estrategia conjunta es un equilibrio de Nash y además es el único equilibrio
de Nash.
Prueba. Para ver esto supongamos que no es Nash. Entonces algún agente no
está optimizando dadas las estrategias de los demás. Escojamos una estrategia
que sı́ sea mejor respuesta en S−i . Como esta estrategia no sobrevivió el pro-
ceso de eliminación, ya que sólo una lo hizo, entonces tuvo que ser eliminada
en algun momento. Como fue eliminada quiere decir que fue dominada estric-
tamente en algún momento en Sik−1 . Ahora, Sik−1 ⊇ S ∞ luego en particular,
existirı́a una estrategia que domina estrictamente a la mejor respuesta cuando
los demás juegan lo que les corresponde en el equilibrio en estrategias no domi-
nadas iterativamente. Una contradicción. La unicidad se sigue de que el proceso
de eliminación de estrategias dominadas no elimina ningún equilibrio de Nash.

El converso no es cierto como lo muestra el siguiente ejemplo.


Ejemplo 13 En este ejemplo Si∞ = {A, B, C}, i = 1, 2; pero tiene un único
equilibrio de Nash (A, A) .

12
1\2 A B C
A 1,1 1,0 1,0
B 0,1 2,-2 -2,2
C 0,1 -2,2 2,-2
El concepto de equilibrio de Nash es estrictamente más débil que el concep-
to de equilibrio en estrategias dominates (ejemplo: Batalla de los sexos).
Ejemplo 14 Nash no sobrevive eliminacion débil de estrategias dominadas de-
bilmente. Considere el siguiente ejemplo
1\2 A B
A 1,1 0,-3
B -3,0 0,0
El equilibrio de Nash no siempre existe como lo demuestra el siguiente
ejemplo.
Ejemplo 15 (Cara y Sello) Considere el siguiente juego.
1\2 C S
C 1,-1 -1,1
S -1,1 1,-1
En este caso no existe un equilibrio de Nash - Cournot en estrategias puras.
El equilibrio de Nash - Cournot es un concepto más débil en términos
estratégicos que el equilibrio en estrategias dominantes pero más fuerte en
términos de la inteligencia que se supone tienen los jugadores. En éste es
necesario que los agentes tengan una expectativa correcta sobre lo que los
demás van a jugar y viceversa.
Es también una condición muy natural y por lo tanto, una condición mı́ni-
ma que debe satsifacer cualquier concepto de equilibrio.

4.4. Seguridad
Ejemplo 16 La idea de este ejemplo es resaltar el concepto de seguridad en un
juego

1\2 A B
X 2,1 2,-20
Y 3,0 -10,1
Z -100,2 3,3
El único equilibrio de Nash de este juego es un poco peligroso para el jugador
1. Obsérvese que si el jugador 2 comete un error y no juega Nash entonces 1
se ve muy perjudicado. Alternativamente él podrı́a jugar una estrategia que le
garantizara el mejor pago posible en el peor de los casos. Esto serı́a jugar X.
Esto es lo que se conoce como la estrategia maxmin del jugador 1.

13
Formalmente el valor maxmin o valor de seguridad de un jugador, en estra-
tegias puras, se define como la utilidad para el jugador i cuando el jugador i
resuelve:

máx mı́n πi (si , s−i )


si ∈Si s−i ∈S−i

Obsérvese que este valor supone que todos los adversarios de i actuan con-
certadamente para minimizar el pago de i.

Ejercicio 6 Demostrar las siguientes afirmaciones.

1. La estrategia maxmin de un jugador no es única.


2. Una estrategia dominante (estricta o débilmente) es maxmin.
3. La eliminación de estrategias dominates (estricta o débilmente) no cambia
el valor de seguridad de un juego para ningun jugador.

5. Extensión mixta de un juego


Una forma de enriquecer considerablemente la teorı́a es generalizando el
concepto de estrategia. Existen por lo menos dos formas de motivar el con-
cepto de estrategias mixtas. A lo largo de los ejemplos que estudiaremos,
una u otra forma de justificar éste concepto tendrá más relevancia.
El concepto de estrategias mixtas surge de forma natural cuando es del
interés de los diferentes jugadores seguir estrategias impredecibles para los
demás jugadores y viceversa. Ahora, la mejor forma de generar estrate-
gias impredecibles es justamente hacerlo de tal forma que aún para cada
jugador su propia estrategia sea impredecible. Esta situación es tı́pica de
juegos en el que los jugadores tienen intereses opuestos.
Por otro lado, cuando los jugadores tienen implı́citamente el interés de
colaborar, ya que resulta mejor desde el punto de vista individual, la im-
posibilidad de forzar una coordinación entre las partes hace que éstos
formen expectativas sobre lo que los demás jugadores van a escoger. Estas
expectativas se pueden modelar como distribuciones de probabilidad so-
bre el conjunto de estrategias puras de cada jugador (véase sección 3.2.4,
página 41 de [OR] para la formalización de esta intepretación).
Una interpretación posible es que cada jugador recibe una señal privada
independiente y sus estrategias no son más que funciones de la señal en el
espacio de estrategias puras (véase Mas Colell et. al. página 232).
Borel [1921] es el precursor de la idea de estrategias mixtas.

14
Definición 10 (Estrategias mixtas) Para el jugador i, una estratgeia mixta
σi sobre el espacio de estrategias puras es un distribución de probabilidad sobre
Si . Denotamos esto por σi ∈ Σi donde Σi es el conjunto de distribuciones de
probabilidad sobre Si y σi (si ) es la probabilidad que la estrategia σi le asigna a
N
la acción si ∈ Si . Una estrategia mixta conjunta es un vector de σ ∈ Σ = Π Σi ,
i=1
σ = (σ1 , ..., σN ) donde σi ∈ Σi . Adicionalmente, suponemos que los jugadores
escogen las estrategias mixtas de forma estadı́sticamente independiente.

Notación 2 En ocasiones haremos explı́cito el conjunto de estrategias puras


sobre el cual se define la estrategias mixtas Σi y utilizaremos la notación, Σ(Si ).

Definición
n 11 (Extensión Emixta de un juego en forma normal) Sea G =
(N , Si )i=1,...,N , {πi }i=1,...,N un juego en forma normal. La extensión mixta
del juego es el juego en forma estratégica:

G = (N , {Σi }i=1,...,N , {π i }i=1,...,N )


donde el pago neto de cada jugador es una extensión del pago neto πi definido
por π i : Σ → R donde:

π i (σ1 , ..., σN ) = Σ σ1 (s1 )...σN (sN )πi (s1 , ..., sN )


s1 ∈S1 ,...sN ∈SN

Obsérvese que hemos utilizado el hecho de que los jugadores escogen las
estrategias de forma independiente.

Notación 3 Por simplicidad en la notación escribiremos π i simplemente como


πi .

Con algunas consideraciones adicionales las definiciones que hemos hecho


anteriormente pueden extenderse a la extensión mixta del juego.

5.1. Dominancia
Definición 12 (Dominancia de estrategias puras por mixtas) Decimos que
para el agente i ∈ N una estrategia si ∈ Si es dominada (estrictamente) por
bi ∈ Σi si para todo σ−i ∈ Σ−i :
una estrategia σ

πi (b
σi , σ−i ) > πi (si , σ−i )

El concepto de dominancia débil es completamente análogo. Decimos que si es


dominada (débilmente) si es dominada (débilmente) por alguna estrategia mixta.

La definición anterior es una definición más débil que la definición que di-
mos anteriormente. Es decir, si una estrategia es dominada (débilmente)
por una estrategia pura, entonces es dominada (débilmente) por una estra-
tegia mixta. El converso claramente no es cierto como muestra el siguiente
ejemplo.

15
Ejemplo 17 Considere el siguiente juego en forma estratégica (los pagos del
jugador dos son irrelevantes para el ejemplo).

1\2 A B
X 1,* 1,*
Y 3,* 0,*
Z 0,* 3,*

En este juego, ninguna estrategia pura del jugador 1 es dominada en estrate-


gias puras. Sin embargo, la estrategia X es dominada por la estrategia mixta
0, 12 , 12 .


Obsérvese que implı́citamente en esta definición suponemos que las estra-


tegias mixtas de los demás jugadores se escogen de forma independiente
(para un caso más general véase Osborne y Rubinstein página 54).

Utiizando esta nueva definición de dominancia es natural definir un nuevo


concepto de eliminación iterativa de estrategias puras dominadas (estric-
tamente o débilmente) por estrategias mixtas.
Más aún, podemos definir un concepto de eliminación iterativa de estra-
tegias (mixtas) dominadas (estrictamente o débilmente) por estrategias
mixtas. Denotamos este concepto por Σ∞

Ejercicio 7 Una definición equivalente es la siguiente. Para el agente i ∈ N


una estrategia si ∈ Si es dominada (estrictamente) por una estrategia σbi ∈ Σi
si para todo s−i ∈ Σ−i :
πi (b
σi , s−i ) > πi (si , s−i )
Esta equivalencia depende de la forma explı́cita como se ha definido la ex-
tensión mixta del juego.

5.2. Estrategias racionalizables


Cuando introdujimos el concepto de estrategias mixtas llamamos la aten-
ción sobre la posibilidad de extender el concepto de estrategias no domin-
das (S ∞ ) al concepto de estrategias mixtas no dominadas iterativamente
(Σ∞ ). Vamos a explorar un poco más esta extensión usando el concepto
de estrategias racionalizables.

La idea básica es que los jugadores basan su análisis exclusivamente sobre


la hipótesis de racionalidad (en el sentido del equilibrio de Nash - Cournot
de que juegan estrategias que son mejores respuesta a las estrategias de
los demás) pero supone menos inteligencia que en el equilibrio de Nash -
Cournot (en el sentido de que no se supone que las expectativas que los
agentes tienen sobre las estrategias de los demás se realizan). Además,
esta hipótesis de racionalidad es conocimiento común.

16
Definición 13 (Niveles de inteligencia) Supongamos que cada jugador es
racional en el sentido de jugar mejores respuestas. Decimos que las creencias
de un jugador son de grado 1 si este cree que los demás jugadores son raciona-
les. Son de grado 2 si el cree que los demás creen que los demás jugadores son
racionales (i.e., si el cree que los demás tienen creencias de grado 1), etc.

Definición 14 (Estrategias racionalizables) Sea G un juego en forma es-


tratégica. Para cada jugador i ∈ N definamos la siguiente secuencia de estrate-
gias mixtas (Σqi )i=0,...,∞ . Intuitivamente q denota el grado de racionalidad que
se asume de cada jugador en la definición de cada conjunto de estrategias mixtas
Σqi .

1. Sea Σ0i = Σi .
2. Σq+1
i = {σi ∈ Σqi : ∃σ−i ∈ Σq−i tal que ∀e
σi ∈ Σqi , πi (σi , σ−i ) ≥ πi (e
σi , σ−i )}.
Esto es, Σq+1
i son las estrategias que pueden ser racionalizadas como mejor
respuesta a alguna creencia de orden q (i.e., σ−i ∈ Σq−i ) que el agente i
tenga sobre los demás jugadores.

Ri = ∩ Σqi se llama el conjunto de estrategias racionalizables del jugador i.
q=1
Un estrategia conjunta σ se llama racionalizable si la estrategia que le corres-
N
ponde a cada jugador es racionalizable: σ ∈ R = Π Ri
i=1

Obsérvese que implı́cito en la definición de racionalizable está el hecho de que


los agentes escogen sus estrategias de forma independiente y esto restringe las
expectativas que los agentes se forman de las estrategias de los demás.

Teorema 1 (Bernheim, 1984 y Pearce, 1984) El conjunto de estrategias con-


juntas racionalizables es no vacio. Más aún para cada jugador, el proceso de
eliminación de estrategias no racionalizables termina en un número finito de
iteraciones.

No es difı́cil convencerse que cualquier estrategia que forma parte de un


equilibrio de Nash - Cournot es racionalizable. Luego ser racionalizable es
más débil que ser un equilibrio de Nash - Cournot.
En la Batalla de los Sexos, el conjunto de estrategias racionalizables es
la totalidad del conjunto de estrategias, luego el concepto de estrategia
racionalizable es estrictamente más débil que el de Nash - Cournot. Este
ejemplo pone en evidencia que el concepto de estrategia racionalizables
puede ser un concepto muy débil y con poco poder predictivo en muchos
casos.
Mencionamos anteriormente que ı́bamos a profundizar sobre la idea de
eliminación de estrategias mixtas dominadas iterativamente. En efecto, si
una estrategia mixta es dominada, ciertamente no puede ser la respuesta

17
óptima a ninguna estrategia conjunta que los demás jugadadores jueguen.
Luego el conjunto de estrategias mixtas no dominadas iterativamente con-
tiene al conjunto de estrategias racionalizables.
En el caso de juegos bilaterales, estos dos conjuntos coinciden (Perace,
1984) pero, en general, la contenencia es estricta. Si permitieramos que
los agentes se formaran expectativas correlacionadas sobre las estrategias
de los demás ambos conceptos coincidirı́an (esto explica por qué en juegos
bilaterales no es necesario hacer esta extensión).
Ahora, parece intutivo que una estrategia racionalizable le asigne proba-
bilidad positiva solo a aquellas estrategias que se juegan con probabilidad
positiva en algun equilibrio de Nash. Sin embargo esto no es cierto como
lo demuestra un ejemplo de Bernheim (véase Vega - Redondo, tabla 2.10).
Luego el concepto de estrategia racionalizable, ası́ como el concepto de
estrategias no dominadas iterativamente, no es propiamente un concepto
de equilibrio en el sentido de que no existan incentivos a desviaciones
unilaterales.

5.3. Equilibrio de Nash - Cournot


Definición 15 (Equilibrio de Nash - Cournot) Una estrategia mixta con-
b ∈ Σ es un equilibrio de Nash - Cournot si para todo jugador i y para
junta σ
toda estrategia σi ∈ Σi :

π i (b b−i ) ≥ π i (σi , σ
σi , σ b−i )

Teorema 2 (Nash 1950) Todo juego finito (i.e., el número de jugadores y


conjunto de estrategias de cada jugador es finito) tiene un equilibrio de Nash en
estrategias mixtas.

Prueba. Defina la correspondencia de mejor respuesta Bi : Σ−i → Σi como:

B(σ−i ) = argmaxσ∈Σi (πi (σ, σ−i ))


Q
y sea B : Σ → Σ definida como B = Bi . Por el teorema del punto fijo de
Kakutani, B tiene im punto fijo σ ∗ (es decir, σ ∗ ∈ Σ tal que σ ∗ ∈ B(σ ∗ ). Por
definición éste es un equilibrio de Nash.

Nota técnica 2 Es elemental extender el anterior teorema al siguiente caso.


Suponga que el espacio de estrategias son conjuntos no vacios, compactos, con-
vexos, las funciones de utilidad de cada agente son continuas y cuasicóncavas
como función de su propia estrategia. Entonces existe un equilibrio de Nash. La
prueba es idéntica a la anterior.

Ejercicio 8 Dar algunos ejemplos para demostrar que ninguna de las hipótesis
de este teorema puede ser eliminada.

18
Nota técnica 3 El concepto de equilibrio Nash se remonta a Cournot [1838].
La formalización y primera demostración se debe a Nash [1950] en la que utiliza
el teorema del punto fijo de Kakutani. En Nash [1951] muestra como sustituir
el teorema de Kakutani por el de Brower.

Ejercicio 9 Si se supone que las funciones de utilidad son estrictamente cuasi-


cóncavas en la propia estrategia, se puede aplicar Brower y obtener una demos-
tración muy sencilla.

Ejercicio 10 La siguiente es una representación muy útil de la utilidad π i en


la versión extendida de un juego. Demostrar que para todo jugador y para toda
estrategia conjunta:
X
π i (σi , σ−i ) = σi (si )π i (si , σ−i )
si ∈Si

Proposición 3 Las siguinetes afirmaciones son equivalentes:

1. σ
b es un equilibrio de Nash.

2. Para todo i, π i (b b−i ) ≥ π i (si , σ


σi , σ b−i ) para todo si .
3. Para todo jugador, π i (b σi , σb−i ) = π i (si , σ
b−i ) para todo si en el soporte de
σ
bi y π i (b b−i ) ≥ π i (si , σ
σi , σ b−i ) para todo si por fuera del soporte de σ bi .3

Nota técnica 4 Esta proposición es útil para calcular equilibrios de Nash en


estrategias mixtas. En particular el numeral tres afirma que en un equilibrio de
Nash en estrategias mixtas todas las estrategias puras con probabilidad positiva
arrojan la misma utilidad que la utilidad en equilibrio.

Ejemplo 18 (Cara y sello) En el ejemplo de cara y sello donde no existe un


equilibrio de Nash - Cournot en estrategias puras es fácil ver que la estrate-
gia mixta σi = ( 12 , 12 ) para cada jugador es un equilibrio Nash - Cournot en
estrategias mixtas.

Ejemplo 19 (Encuentro en NY) Considere el siguiente juego:

1\2 E G
E 100,100 0,0
G 0,0 1000,1000

Este juego tiene dos equilibrio de Nash en estrategias puras y un equilibrio


de Nash en estrategias mixtas. Es fácil ver que la estrategia mixta para cada
jugador (10/11, 1/11) satisface las condiciones del numeral tres de la proposición
anterior.
3 Una estrategia pura esta en el soporte de una estrategia mixta si tiene probabilidad

positiva.

19
Ejemplo 20 (Batallla de los sexos) En este  ejemplo hay, adicionalmente,
un equilibrio en estrategias mixtas: σ = ( 34 , 14 , 14 , 34 )


Ejemplo 21 (Entrada de una firma) Considere el siguiente juego:

1\2 F C
N 0,2 0,2
E -1,-1 1,1

Este juego tiene un equilibrio de Nash en estrategias puras (E, C) y un con-


tinuo de equilibrios en estrategias mixtas. Todas las estrategias mixtas de la
forma σ = ((σ1N , σ1E ) , (σ2F , σ2C )), σ1N = 1 y σ2F ≥ 12 son equilibrio de Nash
en estrategias mixtas. Obsérvese que este equilibrio puede interpretarse como
sustentado por la amenaza de que la firma incumbente peleará (estrategia F ) en
caso de que la firma 1 decida entrar. Esta amenaza es, sin embargo, poco creible
pues, dado que la firma 1 decide entrar, ciertamente no es la mejor estrategia
para la firma 2 pelear. Este ejemplo sirve como motivación para el concepto de
equilibrio perfecto en subjuegos que estudiaremos más adelante.

Ejercicio 11 (Equilibrios simétricos) Hacer ejercicio 20.4, página 20 de [OR]

Teorema 3 (Glicksberg 1952) Dado un juego G en forma estratégica donde


el espacio de estrategias de cada jugador es un subconjunto compacto de Rm y
las funciones de utilidad son continuas, entonces G tiene un equilibrio de Nash
en estrategias mixtas.4

La extensión es importante pues introduce juegos en el que el espacio de


acciones es un continuo. Sin embargo, la hipótesis de continuidad es fuerte.
Por ejemplo, no se cumple en el modelo de competencia oligopolı́stica de
Bertrand.

Teorema 4 (Debreu 1952, Fan 1952 y Glicksberg 1952) Bajo las condi-
ciones del teorema anterior, si el espacio de estratgeias es convexo y las funcio-
nes de utilidad son cuasi-cóncavas en la estrategia de cada jugador entonces el
juego tiene un equilibrio Nash en estrategias puras.

Nota técnica 5 La demostración de este teorema es una aplicación inmediata


del teorema de punto fijo de Kakutani (véase la proposición 20.3 de [OR].

Nota técnica 6 El teorema de Nash es un corolario inmediato: un equilibrio


de estrategias mixtas es un equilibrio en estrategias puras de la extensión mixta
del juego. Es fácil ver que la extensión mixta satisface todas las propiedades del
teorema anterior.
4 Este teorema requiere introducir el concepto de estrategia mixta sobre un espacio de

estrategias continuo y además extender el juego y definir una noción de continuidad en el


espacio de estrategias mixtas.

20
Ejemplo 22 (No existencia del equilibrio de Nash) Supongamos que dos
jugadores pueden venderle un producto a tres posibles compradores. Los com-
pradores A y C tienen acceso a sólo un vendedor. B tiene acceso a los dos
vendedores. Los tres compradores tienen una restricción presupuestal de una
unidad. Los vendedores escogen el precio de venta de su producto pero no pue-
den discriminar entre los compradores. Ellos escogen de forma simultánea un
precio pi ∈ [0, 1]. Supongamos que en caso de que los precios sean idénticos el
comprador B compra del vendedor 1.
Este juego no tiene un equilibrio, aún en estrategias mixtas. Suponga que
existe un equilibrio en estrategias puras tal que p1 > 21 . El jugador 2 va escoger
un precio ligeramente inferior p1 > p2 > 12 . En este caso el jugador 1 va querer
disminuir su precio y ası́ sucesivamente. Luego no existe un equilibrio con p1 >
1 1
2 . Si p1 ≤ 2 , la única mejor respuesta del jugador 1 es p2 = 1. Pero en este caso
1 tiene un incentivo a aumentar su precio. La no existencia de un equilibrio en
estrategias mixtas se deja como ejercicio para el lector.

Notación 4 En lo que sigue siempre que hablemos de estrategia nos referiremos


a una estrategia mixta.

Ejercicio 12 Dilema de los viajeros. Sean S1 = S2 = {2, 3, ..., 99, 100}. Si


s1 < s2 , π1 (s1 , s2 ) = s1 + 2, π2 (s1 , s2 ) = s1 − 2. Si s1 > s2 , π1 (s1 , s2 ) = s2 −
22, π2 (s1 , s2 ) = s2 + 2. Mostrar que el único equilibrio de Nash es (2, 2)

Ejercicio 13 (Seven Puzzles You Think You Must Not Have Heard Correctly
with solutions: Peter Winkler). The names of 100 prisoners are placed in 100
wooden boxes, one name to a box, and the boxes are lined up on a table in a
room. One by one, the prisoners are led into the room; each may look in at
most 50 boxes, but must leave the room exactly as he found it and is permitted
no further communication with the others. The prisoners have a chance to plot
their strategy in advance, and they are going to need it, because unless every
single prisoner finds his own name all will subsequently be executed. Find a
strategy for them which has probability of success exceeding 30 %.

5.4. Seguridad
Ejemplo 23 Considere el siguiente juego:

A
B
a 2,1
0,0
b 0,0
1,2

Mostrar que el valor maxmin para cada jugador es 23 .

21
6. Aspectos normativos
Definición 16 En un juego en forma normal, una estrategia conjunta τ domina
débilmente a σ en el sentido de Pareto si, para todo i :

πi (τ ) ≥ πi (σ)

con desigualdad estricta para por lo menos un agente. Domina estrictamente si


la desigualdad anterior la podemos cambiar por una desigualdad estricta.

Definición 17 (Eficiencia de Pareto) En un juego en forma normal, una


estrategia conjunta σ es eficiente en un sentido fuerte (o débil) si no existe una
estrategia que la domine en un sentido débil (fuerte).

Definición 18 Un juego es un dilema del prisionero generalizado si existen dos


estrategias conjuntas σ = (σ1 , ..., σN ) y τ = (τ1 , ..., τN ) tal que:

1. σ es un equilibrio en estrategias dominantes débilmente.


2. τ domina débilmente a σ en el sentido Pareto.

Considere un juego en que cada jugador tiene una valoración privada de


un mismo objeto. Suponga que cada jugador conoce la valoración privada
del objeto de cada jugador. Los agentes hacen una oferta por el objeto,
gana el objeto el que más oferta y paga el segundo valor más alto de todas
las ofertas. La utilidad para el ganador es su valoración menos lo que
paga. Para los demás jugadores es cero. Por simplicidad supongamos que
no existen un par de jugadores con la misma valoración. Este juego es un
caso especial de una subasta al segundo precio de un único bien en el que
hemos hecho el supuesto de que hay información completa. El subastador
es quién recibe el pago y asigna el objeto. En este caso suponemos que el
subastador no hace parte del conjunto de jugadores.
Es fácil ver que esta subasta tiene un equilibrio en estrategias dominantes
(débilmente) que consiste en ofertar la verdadera valoración.

Proposición 4 Una subasta al segundo precio es un dilema del prisionero ge-


neralizado (obsérvese que excluimos al subastador del conjunto de jugadores).

Prueba. Considere una estrategia para cada jugador que sea ofertar la mitad
de su valoración.

Nota técnica 7 En teorı́a de subastas se muestra que la subasta al segundo


precio es eficiente en el sentido de que el objeto se le asigna al jugador con la
mayor valoración (incluso cuando el conjunto de juagadores incluye al subasta-
dor y éste tiene un precio de reserva del objeto mayor o igual a cero). Estas dos
formas de estudiar la eficiencia de la subasta al segundo precio no son contradic-
torias pues la subasta al segundo precio es un dilema del prisionero generalizado
solo en la medida en que se excluya al subastador del conjunto de jugadores.

22
7. Otros conceptos de solución
7.1. Equilibrio perfecto
Esta sección está basada en Mas-Colell et.al [1995].
La eliminación de estrategias dominadas débilmente es dificil de justificar
sobre la base del comportamiento puramente racional: una estrategia do-
minada débilmente puede ser un mejor respuesta a alguna estrategia de
otro jugador. Luego, sólo si estamos seguros de que el otro jugador no va
utilizar esa estrategia se justifica eliminarla.
El concepto de equilibrio de Nash tampoco elimina estrategias domina-
das débilmente: Puede existir un equilibrio de Nash tal que un jugador
está utilizando un estrategia dominada débilmente. Para mayor ilustra-
ción consideremos el siguiente juego.

Ejemplo 24 (Equilibrio de Nash dominado)

1\2 A B
a 1,1 0,-3
b -3,0 0,0

La estrategia bB es un equilibrio de Nash en el cual ambas estrategias son débil-


mente dominadas.

Vamos a ver que si suponemos cierta cuatela por parte de los jugadores, en
la medida que estos reconozcan que con cierta probabilidad sus adversarios
pueden no jugar Nash, entonces es posible racionalizar la eliminación de
estrategias dominadas débilmente.
El objetivo es definir un concepto de equilibrio que sea robusto a cierto
tipo de perturbaciones del juego que reflejan la posibilidad de que los
jugadores puedan cometer errores.
La definición que captura esta idea es la siguiente. La proposición que le
sigue caracteriza y hace más operacional este nuevo concepto de equilibrio.

P 19 (Equilibrio perfecto en forma normal) Sea i : Si → (0, 1)


Definición
tal que s∈Si i (s) < 1 y ∆i = {σi ∈ Σ(Si ) : σi (s) ≥ i (s)∀s ∈ Si }. Es decir,
∆i es el conjunto de todas las estrategias
 mixtas con soporte
 completo y deter-
minado por i . Denotamos por G = N, (∆i )i=1,...,N , (πi ) el juego perturbado
por (i )i=1,...,N
Decimos que σ es un equilibrio perfecto en forma normal si es un equilibrio
de Nash y si existen sucesiones ki k=1,..., y equilibrios de Nash σ k de los juegos

perturbados Gk σik k=1,..., tal que:

1. lı́mk→∞ ki (s) = 0 ∀i, s ∈ Si

23
2. lı́mk→∞ σik = σi

Obsérvese que la definición solo requiere que exista una sucesión de juegos
perturbados.
Intuitivamente la definición captura la idea de que los agentes pueden
cometer errores (trembling hand ) y por lo tanto evaluan juegos ligeramente
perturbados donde los agentes le asignan probabilidad positiva a todas la
estrategias puras.

Proposición 5 Sea G = (N, (Si )i=1,...,N , (πi )i=1,..,N ) un juego en forma nor-

mal. Una estrategia conjunta de σ 1 , ..., σ n es un equilibrio perfecto (en forma
normal) del juego G si y solamente si para cada jugador i existe σki k=1,.....
sucesión de estrategias mixtas de soporte completo tal que:

1. σki → σ i
2. Para todo i y k, σ i es la mejor respuesta ante σk−i .

Ejemplo 25 Considere el juego:

1\2 X Y
Aa 0,1 0,1
Ab 0,1 0,1
Ba -1,2 1,0
Bb -1,2 2,3

(A,X) es un equilibrio perfecto en forma normal. Considere las siguientes es-


trategias de comportamiento (soporte completo). Para el jugador 1 : (1 − 2/k, 1/k, 1/k)k=3,4,5,...
donde la primera componente es la probabilidad de jugar A, la segunda compo-
nente es la probabilidad de jugar Ba, y la tercera es la probabilidad de jugar Bb.
Para el jugador 2 considere la estrategia de comportamiento que es jugar X con
probabilidad cerca a 1.

Ejercicio 14 Considere el juego:

1\2 X Y
Aa 0,2 0,2
Ab 0,2 0,2
Ba -1,0 3,0
Bb -1,-1 -1,-1

Calcular los equilibrios perfectos en formal normal.

Ejercicio 15 Mostrar que en todo equilibrio perfecto en forma normal ninguna


estrategia débilmente dominada es jugada con probabilidad positiva.

24
Ejercicio 16 Mostrar que en un juego con únicamente dos jugadores todo equi-
librio de Nash en el no se juegan estrategias débilmente dominadas con proba-
bilidad positiva es un equilibrio perfecto en forma normal (véase Kreps, página
439).

Ejercicio 17 Considere el juego:

1\2 X Y
A 2,2 2,2
BC 4,1 1,0
BD 0,0 0,1

Este juego tiene un equilibrio perfecto en formal normal pero no extensiva (véase
capı́tulo sobre juegos dinámicos).

Selten [1975] demostró que todo juego finito tiene un equilibrio perfec-
to en forma normal. En particular, todo juego finito tiene un equilibrio
de Nash en el que ninguna estrategia débilmente dominada se juega con
probabilidad positiva.

7.2. Equilibrio fuerte y equilibrio inmune a coaliciones


Definición 20 (Equilibrio fuerte) Una estrategia conjunta σ b es un equilibrio
fuerte si para todo C ⊂ N no existe una estrategia conjunta (σi )i∈C tal que:

πi ((σi )i∈C , σ σ ), ∀i ∈ C
bN \C ) > πi (b

Es inmediato de la definición que un equilibrio fuerte es eficiente débil-


mente en el sentido de Pareto.

Ejemplo 26 Este juego tiene un único equlibrio fuerte pero dos equilibrios de
Nash.

1\2 A B
A 1,1 0,0
B 0,0 4,4

Sin embargo es un concepto de equilibrio muy fuerte (no existe en el caso


del Dilema de los Prisioneros) y pueden darse otro tipo de dificultades
como lo ilustra el siguiente ejemplo.

Ejemplo 27 (Bernheim, Peleg y Whinston 1987) Considere el siguiente


juego entre tres individuos.

1\2 A B 1\2 A B
X 0,0,10∗ -5,-5,0 X -2,-2,0 -5,-5,0
Y -5,-5,0 1,1,4 Y -5,-5,0 -1,-1,5∗
3 M 3 N

25
En este juego existen dos equilibrios de Nash - Cournot y uno de ellos domi-
na al otro. Ninguno de los dos equilibrios de Nash - Cournot son un equilibrio
fuerte pero el equilibrio dominado tiene algunas caracterı́sticas que motivan el
próximo concepto de equilibrio que introduciremos. Para ver que el primer equili-
brio (X, A, M ) no es un equilibrio fuerte obsérvese que 1 y 2 tienen un incentivo
a desviarce. El segundo equilibrio claramente no es un equilibrio fuerte. Ahora,
considere los incentivos a desviarse del segundo equilibrio (dominado) al prime-
ro. Si los jugadores 1 y 2 creen que el jugador 3 va jugar M , la misma idea
del equilibrio fuerte nos suigiere que 1 y 2 no deberián de tener incentivos para
desviarse juntos de sus estrategias X y A respectivamente. Sin embargo, este no
es el caso, ellos tendrı́an el incentivo a desviarse juntos y jugar Y , B respec-
tivamente. Pero si el jugador 3 internaliza ese argumento entonces preferirı́a
jugar N y volvemos al equilibrio ineficiente.

El problema de tipo conceptual identificado en el anterior ejemplo motiva


la introducción de un concepto más débil.

Definición 21 (Equilibrio inmune a coaliciones informalmente) Una es-


trategia conjunta es un equilibrio inmune a coaliciones si:

1. Es un equilibrio de Nash - Cournot.

2. No existen incentivos a desviaciones bilaterales admisibles. Una desvia-


ción bilateral es admisible si es un equilibrio de Nash - Cournot del juego
reducido de dos jugadores donde todos los demás jugadores tienen sus es-
trategias fijas.

3. No existen desviaciones trilaterales admisibles. Una desviación trilateral


es admisible si no existen incentivos a desviaciones bilaterales admisibles
ni a desviaciones unilaterales admisibles.
4. Etc.

Ciertamente es un concepto de equilibrio más débil que el concepto de


equilibrio fuerte (menos desviaciones estratégicas del candidato a equili-
brio son admisibles).

En el dilema de los prisioneros, no existe un equilibrio fuerte pero el equi-


librio en estrategias dominadas sı́ es un equilibrio inmune a coaliciones.
En el último ejemplo de las anteriores notas el equilibrio (Y, B, N ) es un
equilibrio inmune a coaliciones. Para ver esto verifiquemos las condiciones
de la definición anterior. (Y, B, N ) es un equilibrio de Nash y no existen
incentivos bilaterales a desviarse (menos aún a desviaciones bilaterales ad-
misibles). Ahora, considere los incetivos a una desviación de la coalición
de todos los jugadores. Claramente existe un incentivo a moverse al equili-
brio de Nash - Cournot (X, A, M ). Ahora la pregunta es si esta desviación
es admisible. Para ser admisible no deberı́a de haber ningún incentivo a

26
desviaciones bilaterales admisibles. Sin embargo, los jugadors 1 y 2 si tie-
ne un incentivo a desviarse y esta desviación sı́ es admisible pues es un
equilibrio de Nash - Cournot del subjuego que definen ellos dos.
De todas formas este es un concepto muy fuerte de equilibrio y deja de
existir en muchas circunstancias.
Un resultado interesante de Moreno y Wooders (1996) afirma que si en el
conjunto de estrategias no dominadas iterativamente existe una que domi-
na débilmente a todas las demás, entonces esta estrategia es un equilibrio
inmune a coaliciones.

7.3. Equilibrio correlacionado


Considere el siguiente juego.

1\2 A B
X 5,1 0,0
Y 4,4 1,5

Este juego tiene dos equilibrios de Nash en estrategias puras: (X, A) y


(Y, B) . Además existe un equilibrio simétrico en estrategias mixtas 21 , 12
cuyo pago esperado es 52 para cada jugador. Este último es ineficiente pues
la estrategia (Y, A) tiene un mayor pago para ambos jugadores. Obsérvese
que este equilibrio en estrategias mixtas le asigna una probabilidad positi-
va a (X, B) . Vamos a ver que esta ineficiencia en parte se le puede atribuir
a la selección aleatoria independiente que hacen los dos jugadores en sus
estrategia mixtas.
Obsérvese que si los agentes pudieran coordinar sus acciones con base en
un mecanismo del tipo: al tirar una moneda al aire si cae cara jugamos
(X, A) si cae sello (Y, B), el valor esperado de cada jugador serı́a 3 mejor
que la estrategia mixta pero aún ineficiente pues (Y, A) sigue teniendo un
mayor pago para ambos jugadores. Obsérvese que si ambos acuerdan la
utilización de este mecanismo éste es un equilibrio en el sentido de que no
existen incentivos a desviarse.
¿Es posible acordar un mecanismo que sea un equilibrio y el pago esperado
sea aún mejor? Si el mecanismo permite dar señales privadas a cada juga-
dor la respuesta es sı́. Vamos a demostrar que si se utiliza un mecanismo
de coordinación con señales privadas, existe un equilibrio (que definimos
más adelante) en el cual la utilidad de cada individuo es 3,3.
La diferencia entre un mecanismo con señales privado o públicas que-
dará claro más adelante una vez definamos formalmente el concepto de
recomendaciones. Por el momento obsérvese que en el mecanisimo descrito
los agentes podrian intentar desviaciones de la recomendacion condiciona-
les a las recomendaciones que el mecanismo le hace a los demás jugadores.

27
En un mecanismo privado las posibles desviaciones son condicionales a la
recomendación privada que el jugadaor recibe.

Definición 22 (Mecanismo de coordinación estocástico) Un mecanismo


de coordinación estocástico M para un juego en forma estratégica G es un es-
pacio de probabilidad (Ω, {Pi }i=1,...N , p) donde Ω es un universo de eventos,
{Pi }i=1,...N es una partición de Ω y p es una probabilidad sobre la σ− álgebra
generada por la partición {Pi }i=1,...N .

El mecanismo de coordinación estocástica tiene como objeto permitir la


coordinación de las estrategias con base en recomendaciónes a cada juga-
dor γi : Ω → Σi y donde cada jugador conoce la distribución conjunta de
las funciones de recomendación. Más precisamente, los jugadores conocen
el mecanismo de coordinación estocástico y por lo tanto pueden deducir
la distribución conjunta de las funciones de recomendación.

Definición 23 (Equilibrio correlacionado) Dado un mecanismo de coordi-


nación estocástico M, un equilibrio correlacionado es un recomendación para
cada jugador γi : Ω → Σi , medible con respecto Pi tal que para todo γ
ei : Ω → Σi
medible con respecto a Pi :
X X
p(ω)π i (γ(ω)) ≥ p(ω)π i (e
γi (ω) , γ−i (ω))
ω∈Ω ω∈Ω

Sin pérdida de generalidad se puede suponer que las recomendaciones tiene


como dominio el conjunto de las estrategias mixtas.

Ejemplo 28 Considere el juego anterior y el siguiente mecanismo de coordina-


ción estocástico, M = ({ω1 , ω2 , ω3 }, {P1 , P2 }, p) donde P1 = {{ω1 } , {ω2 , ω3 }},
P2 = {{ω3 } , {ω1 , ω2 }} y p es la distribución de probabilidad uniforme sobre
Ω = {ω1 , ω2 , ω3 } (obsérvese que la σ− álgebra generada por la partición es
partes de Ω). Ahora considere las siguientes recomendaciones: γ1 (ω1 ) = X y
γ1 (ω2 ) = γ1 (ω3 ) = Y ; y γ2 (ω3 ) = B y γ2 (ω1 ) = γ2 (ω2 ) = A. Entonces la reco-
mendación conjunta (γ1 , γ2 ) es un equilibrio correlacionado para el mecanismo
de coordinación estocástico M. Para ver esto mostremos que ningun jugador
tiene incentivos a desviarse. Para el jugador 1, sea γ e una recomendación me-
dible con respecto a P1 . Es fácil verificar para las diferentes alternativas de γ e
que no existen incentivos a desviarse. Para el jugador 2 se hace una verificación
similar.

Obérvese que la condición que define el concepto de equilibrio correlacio-


nado se puede escribir de la siguiente forma:

EP [π i (γ)] ≥ EP [π i (e
γi , γ−i )] ,

donde el valor esperado se calcula con respecto a la distribución P .


Obsérvese que la siguiente definición es equivalente a la definición anterior
lo que sugiere que el espacio de eventos Ω no es esencial.

28
Definición 24 (Mecanismo de coordinación estocástico en forma reducida)
Un mecanismo de coordinación estocástico (en forma reducida) para un juego
en forma normal es una distribución de probabilidad p : Σ1 × ... × ΣN → [0, 1].
Por simplicidad vamos a considerar únicamente el caso en el que la distribución
es de soporte finito.

Definición 25 (Equilibrio correlacionado en forma reducida) Un equili-


brio correlacionado es un mecanismo de coordinación estocástico p : Σ1 × ... ×
Σn → [0, 1] tal que para toda función de recomendaciones para cada jugador
γ i : Σi → Σi se tiene:
X X
p(σ)π i (σ) ≥ p(σ)π i (γ i (σi ) , σ−i )
σ∈Σ σ∈Σ

Ejercicio 18 Demostrar la equivalencia de las dos definiciones de equilibrio


correlacionado.

Obsérvese que para verificar que no hay incentivos a desviarse en un equi-


librio correlacionado, basta con verificar que no existen incentivos a des-
viarse con recomendaciones con valores en estrategias puras.
Podemos interpretar este concepto de equilibrio de la siguiente forma.
Cada jugador recibe de forma privada una recomendación para jugar σi
y todos saben que la probabilidad con la que el mecanismo recomienda
cualquier estrategia conjunta es p : Σ1 × ... × Σn → [0, 1]. Luego un
equilibrio correlacionado es uno en el que ningun jugador tiene un incentivo
a utilizar una función de recomendación distinta a la función identidad.
Todo equilibrio de Nash es un equilibrio correlacionado. Sea σ ∗ = (σ1∗ , ..., σN∗
)
∗ ∗
Q
un equilibrio de Nash. Entonces si definimos Ω = i Si y p = σ1 × ... × σN
este es un mecanismo de coordinación que soporta el equilibrio correla-
cionado donde la recomendación es la función constante γ i = σi∗ . Es fácil
ver que hay otra forma de representar un equilibrio de Nash como un
equilibrio correlacionado (considere el espacio de estados como las estra-
tegias mixtas conjuntas y suponga que el mecanismo de coordinación se
concentra en el equilibrio de Nash).

Cuando existen varios equilibrios de Nash, cualquier distribución sobre es-


tos es un equilibrio correlacionado. Cuando el mecanismo de coordinación
es público estos son los únicos equilibrios correlacionados que existen.
La idea de un equilibrio correlacionado con señales privadas es idéntica a
la definición anterior excepto que a los jugadores se les permite utilizar
recomendaciones de la forma γ i : Σ → Σi

Ejemplo 29 Es fácil reescribir el ejemplo anterior como un equilibrio correla-


cionado en forma reducida. Para esto, basta con deducir la distribución conjunta
de las dos recomedaciones (variable aleatorias) sobre el conjunto de estrategias

29
mixtas. Esa distribución conjunta es el equilibrio correlacionado en forma redu-
cida. En este caso le asigna probabilidad 31 a ((1, 0), (1, 0)), ((0, 1), (1, 0)), ((0, 1), (0, 1))
y probabilidad cero a ((1, 0), (0, 1)).

Ejercicio 19 (Equilibrios correlacionados batalla de los sexos) Considere


la siguiente versión de la batalla de los sexos.

H\M B S
B 3,2 0,0
S 0,0 2,3

Este juego tiene tres equilibrios de Nash, 2 en estrategias puras y uno en


estrategias mixtas.

1. Considere las siguientes distribuciones de probabilidad: p((1, 0), (1, 0)) =


2 3 2
7 , p((1, 0), (0, 1)) = 7 y p((0, 1), (0, 1)) = 7 (todo lo demás cero) y p((1, 0), (1, 0)) =
3 1 3
8 , p((0, 1), (1, 0)) = 4 y p((0, 1), (0, 1)) = 8 (todo lo demás cero). Demos-
trar que ambos son equilibrios correlacionados.

2. Demostrar que el conjunto de equilibrios correlacionados es conjunto con-


vexo.
3. Mostrar que la intersección de este conjunto con el conjunto de las distri-
buciones de probabilidad correlacionadas es igual al conjunto de equilibrios
de Nash.
Este ejercicio pone en evidencia dos propiedades geométricas genéricas de
los equilibrios correlacionados.

Un caracterı́stica sobresaliente de la definición de equilibrio correlacionado


es que le da un papel importante a las asimetrı́as de información. Especı́fi-
camente, en un equilibrio correlacionado todos los jugadores usan una
recomendación distinta. El siguiente ejemplo resalta el papel que juegan
las asimetrı́as de información en situaciones estratégicas. En particular,
vamos a ver que perder información expost puede tener como consecuen-
cia una ganancia en eficiencia.

Ejemplo 30 (Valor de la información) Considere el juego de la siguiente


60 figura.
Strategic-form analysis: theory

Table 2.9: A three-player strategic-form game with a correlated equilibrium


Pareto dominating Nash equilibria
2 A B 2 A B 2 A B
1 1 1
X 0, 0, 3 0, 0, 0 X 2, 2, 2 0, 0, 0 X 0, 0, 0 1, 1, 1
Y 1, 1, 1 0, 0, 0 Y 0, 0, 0 2, 2, 2 Y 0, 0, 0 0, 0, 3
3 M N Q

mechanism that might allow them to obtain the higher payoff of 2 available in
30
the middle box. As explained, if such a mechanism exists, its details need not be
given explicitly. That is, its performance may be compactly summarized through
a (stochastic) pattern of incentive-compatible recommendations as formalized by
Definition 2.7.
Consider therefore the probability density p : 1 × 2 × 3 → [0, 1], which
distributes all positive probability equally over the following two (pure) strategy
profiles: (X, A, N ) and (Y, B, N ). That is,
Este juego tiene dos equilibrios de Nash en estrategias puras: (Y, A, M ) y
(X, B, Q) . Ambos equilibrios tiene un pago neto de 1 para cada jugador. Existen
sin embargo estrategias conjuntas que domina a ambos equilibrios: (X, A, N ) ,
(Y, B, N ) . Consideremos ahora el siguiente mecanismo de coordinación estocásti-
co (en forma reducida): p (X, A, N ) = p (Y, B, N ) = 12 . Entonces p soporta un
equilibrio correlacionado con pago esperado 2 para cada jugador.
Ahora supongamos que 3 se le da la opción de pagar por conocer la recomen-
dación puntual que el mecanismo le hace a los otros dos jugadores. En este caso
3 responderı́a de la siguiente forma: Si los otros dos juegan (X, A) el juega M
y si juegan (Y, B) el juega Q. Luego si los otros dos jugadores son informados
de que 1 ha comprado esta opción ciertamente no jugaran las estrategias reco-
mendadas y no habrá coordinación impidiendo que los jugadores obtuvieran un
pago de 2. Luego la opción de obtener más información para 3 no tiene ningun
valor.

8. Juegos bilaterales de suma cero


Un juego de bilateral de suma cero es un juego con dos jugadores en el
cual todo resultado del juego representa pagos opuestos para los jugadores.
Esto es, los jugadores tienen intereses opuestos.
Un ejemplo de juego de suma cero es el juego de cara y sello. Ejemplos
importantes son el juego del ajedrez sin embargo, como veremos más ade-
lante se pueden obtener resultados bastante más fuertes para este caso que
los que se obtienen del teorema de von Neumann que exponemos en esta
sección.

Definición 26 Un juego bilateral de suma cero es un juego G = h{1, 2} , {Si }i=1,2 , {πi }i=1,2 i
tal que para todo s ∈ S, π1 (s) + π2 (s) = 0.

El requerimiento de sumar cero no es fundamental, basta con que la suma


sea constante. Por eso en ocasiones se llaman juegos bilaterales de suma
constante.
Es fácil ver que si la suma de los pagos es cero para las estrategias puras,
también lo es para las estrategias mixtas (y vice versa).5

Obsérvese que en la definión de un juego de suma cero no es necesario


suponer que el espacio de estrategias es finito.

Teorema 5 (von Neumann, 1928) Sea G una juego bilateral de suma cero.
Entonces:
5 Algunos autores consideran una generalización de juegos de suma cero que denominan

juegos estrictamente competitivos. Estos son juegos en los que los dos jugadore tiene preferen-
cias opuestas por las alternativas (en estrategias puras). Estos juegos comparten muchas de
la propiedades de los juegos de suma cero pero en general, la caracterı́stica de ser competitivo
no se extiende a estrategias mixtas.

31
1. máx mı́n π1 (σ1 , σ2 ) = mı́n máx π1 (σ1 , σ2 ) . El primer valor lo denomi-
σ1 ∈Σ1 σ2 ∈Σ2 σ2 ∈Σ2 σ1 ∈Σ1
namos el valor maxmin del jugador 1 y lo denotamos por v1 , el segundo
lo denominamos el valor minmax del jugador 1 y lo denotamos por v2 .
Luego el teorema afirma que en un juego de suma cero estos dos valores
son iguales y denotamos el valor común por v1∗ denominado el valor del
juego para el jugador 1.
2. Para todo equilibrio de Nash - Cournot (σ1∗ , σ2∗ ) tenemos v1∗ = π1 (σ1∗ , σ2∗ )
y viceversa, si σ1∗ , σ2∗ son estrategias maxmin para cada jugador enton-
ces (σ1∗ , σ2∗ ) es un equilibrio de Nash - Cournot. En particular, todos los
equilibrios de Nash - Cournot generan la misma utilidad.

Nota técnica 8 Este teorema es equivalente al teorema Minmax de von Neu-


mann que estudiaremos más adelante. Sin embargo, la demostración que se pre-
senta en esta sección se basa en el teorema de existencia del equilibrio de Nash.
El teorema Minmax y el teorema anterior son bastante anteriores al teorema de
Nash.

Nota técnica 9 De la demostración del teorema es fácil darse cuenta que el


teorema se puede enunciar para cualquier juego en forma normal para el cual
exista un equilibrio de Nash, sin apelar a estrategias mixtas.

Nota técnica 10 La estrategia maxmin para el jugador i refleja la estrategia


de maximizar el pago para el jugador i bajo el supuesto de que el otro siempre va
tratar de minimizar el pago de i. Intuitivamente, es lo máximo que el jugador i
puede garantizar de utilidad para el mismo (en el peor caso).

Nota técnica 11 El segundo resultado establece una relación muy particular


en los juegos de suma cero. La estrategia maxmin, el resultado de una estrategia
individualista, la máxima utilidad en el peor caso, coincide coincide con el equi-
librio de Nash. Esto le da solidez al concepto de equilibrio de Nash en juegos de
suma cero.

Prueba. Primero demostramos que:

v1 = máx mı́n π1 (σ1 , σ2 ) ≤ v2 = mı́n máx π1 (σ1 , σ2 ) .


σ1 ∈Σ1 σ2 ∈Σ2 σ2 ∈Σ2 σ1 ∈Σ1

mı́n π1 (σ1 , σ20 ) ≤ π1 (σ1 , σ2 ) , luego


σ20 ∈Σ2

v1 ≤ máx π1 (σ1 , σ2 ) ⇒ v1 ≤ v2
σ1 ∈Σ1

Para demostar que v1 ≥ v2 , sea (σ1∗ , σ2∗ ) un equilibrio de Nash - Cournot.


Por definición:

∀σ1 ∈ Σ1 , π1 (σ1∗ , σ2∗ ) ≥ π1 (σ1 , σ2∗ )


∀σ2 ∈ Σ2 , π1 (σ1∗ , σ2∗ ) ≤ π1 (σ1∗ , σ2 )

32
Ahora, v1 = máx mı́n π1 (σ1 , σ2 ) ≥ mı́n π1 (σ1∗ , σ2 ) = π1 (σ1∗ , σ2∗ ) (porque
σ1 ∈Σ1 σ2 ∈Σ2 σ2 ∈Σ2
σ2∗ es una mejor respuesta para el segundo jugador dado que el primero juega
σ1∗ ) luego v1 ≥ π1 (σ1∗ , σ2∗ ) .
Por otro lado, como σ1∗ es una mejor respuesta para el primer jugador dado
que el primero juega σ2∗ ,

π1 (σ1∗ , σ2∗ ) = máx π1 (σ1 , σ2∗ ) ⇒


σ1 ∈Σ1

v1 ≥ máx π1 (σ1 , σ2∗ ) ⇒


σ1 ∈Σ1

v1 ≥ mı́n máx π1 (σ1 , σ2 ) = v2


σ2 ∈Σ2 σ1 ∈Σ1

La segunda parte se sigue de la demostación anterior.

El teorema anterior implica que el valor del juego para cada jugador es el
mismo para cada jugador independientemente de qué equilibrio de Nash
jueguen. En efecto, no es necesario que los jugadores jueguen un equilibrio
de Nash para que que se realice ese valor. Basta con que cada jugador
utilize como estrategia alguna que sea perteneciente a una estrategia con-
junta que sea un equilibrio y que él espere que los demás hagan lo mismo
y viceversa. Esta propiedad se conoce como intercambiabilidad del equili-
brio en juegos bilaterales de suma cero. Formalmente la intercambiabilidad
implica que el conjunto de estrategias conjuntas que son equilibrios tie-
ne la estructura de un producto cartesiano entre conjuntos de estrategias
mixtas.
El teorema de von Neumann puede verse como un caso particular del
teorema de dualidad en la teorı́a de optimización (véase Myerson, pági-
na 125). En efecto, existe una equivalencia entre juegos de suma cero y
problemas de programación lineal.

Ejercicio 20 Demostrar la propiedad de intercambiabildad del equilibrio para


juegos de suma cero.

33
9. Juegos generalizados y juegos con un conti-
nuo de jugadores
Esta parte es avanzada en comparación con el resto de las notas y supo-
ne conocimientos básicos de teorı́a de la medida. El modelo está basado
en Riascos, A. y Torres Martinez, J.P (2012): On the existence of pure
strategy equilibria in large generalized games with atomic players.
En esta sección consideramos dos generalizaciones importantes de la teorı́a
de juegos estratégicos en forma normal. De una parte permitimos que
el espacio de acciones de cada jugador dependa de las acciones de los
demás (juego generalizado) y de otra parte permitimos que además de
un número finito de jugadores (llamados atómicos) exista un continuo de
jugadores (jugadores no-atómicos). Sin embargo, las acciones del continuo
de jugadores solo tiene influencia sobre los pagos de los demás (atómicos
y no-atómicos) a través de un mensaje que agrega las acciones de los
jugadores no-atómicos.

Cada una de las generalizaciones se podrı́a presentar de forma indepen-


diente y adaptar la misma prueba para cada caso.

Sea G(T, (Kt , Γt , ut )t∈T , h) un juego generalizado con un número infinito de


jugadores T = T1 ∪ T2 , donde T1 ⊂ R es un conjunto compacto de medida finita
de jugadores no atómicos con respecto a la medida de Lebesgue λ, y T2 es un
conjunto finito de jugadores.6 Cada jugador t ∈ T1 tiene un conjunto compacto
no vacio de acciones Kt ⊂ K, b donde K b ⊂ Rn es un conjunto compacto y
T
t∈T1 Kt 6= ∅. De otra parte cada jugador t ∈ T2 tiene un conjunto compacto,
no vacio de acciones Kt ⊂ Rnt , con nt ∈ N.
Un estrategia conjunta para los jugadores en T1 está dada por una función
f : T1 → K b tal que f (t) ∈ Kt , para todo t ∈ T1 . Como T2 es finito, una estrategia
conjunta para los jugadores en T2 es un vector a := (ai ; i ∈ T2 ) ∈ Πt∈T2 Rnt tal
que at ∈ Kt , para todo t ∈ T2 . Sea F(Ti ) el espacio de todas las estrategias
conjuntas de los jugadores Ti , con i ∈ {0, 1}. Dado t ∈ T2 , sea F−t (T2 ) el
conjunto de acciones a−t := (aj ; j ∈ T2 \ {t}) que toman los demás jugadores
j ∈ T2 \ {t}.
En el juego G(T, (Kt , Γt , ut )t∈T , h) los jugadores no necesariamente incorpo-
ran las acciones de los otros jugadores en T1 , en otras palabras, los jugadores no
necesariamente toman en cuenta las acciones de los otros jugadores no-atómi-
cos para determinar su estrategia óptima. Sin embargo, cuando los jugadores
toman su decisión, estos consideran información agregada de las acciones de los
jugadores. Formalmente, dado un perfil de acciones de jugadores no-atómicos
f ∈ F(T1 ), el agente t ∈ T1 toma en cuenta las acciones de los jugadores no-
atómicos solo por medio del mensaje dado por la función h : T1 × K b → Rl . En
otras palabras, cada jugador T va a tener en cuenta la información agregada
6 En otras palabras, (T , B(T ), λ) es un espacio de medida, donde B(T ) es la σ− algebra
1 1 1
de conjuntos de Borel de T1 .

34
R
mediante el mensaje dado por la función m(f ) = h(t, f (t))dλ para incorporar
T1
a sus estrategias.
Ahora, nos vamos a concentrar en los perfiles de acciones para los cuales
los mensajes están bien definidos, decimos que f es un perfil de estrategias de
los jugadores en T1 si tanto f ∈ F(T1 ) como h(·, f (·)) es una función medible
desde T1 hasta Rl .7 Sobre el comportamiento de los jugadores atómicos no son
necesarias restricciones de medibilidad. Por está razón, el conjunto de estrategias
de los jugadores en T2 es idéntico al espacio de perfiles de acciones F(T2 ).
El conjunto de mensajes asociados con el perfil de estrategias de jugadores
no-atómicos está dado por
 
Z 
M= h(t, f (t))dλ : f ∈ F(T1 ) ∧ h(·, f (·)) es medible ⊂ Rl , (1)
 
T1
T
que es no vacı́o dado que t∈T1 Kt es un conjunto no-vacı́o y h es una función
continua. También, dado que los conjuntos Kb y T1 son compactos, para cualquier
perfil de acciones f : T1 → K, la función h(·, f (·)) : T1 → Rl es acotada. Por
b
lo que, si esta es medible entonces también es integrable. Por estas razones, en
la definición del conjunto de mensajes M solo se requerı́a que h(·, f (·)) fuera
medible.
En nuestro juego, los mensajes acerca de los perfiles de estrategias de los
jugadores en T1 junto con los perfiles de estrategias de los jugadores en T2 pue-
den restringir el conjunto de estrategias admisibles disponibles para un jugador
t ∈ T . Esto es, dado un vector (m, a) ∈ M × F(T2 ) las estrategias dispo-
nibles para un jugador t ∈ T1 están dadas por un conjunto Γt (m, a) ⊂ Kt ,
donde Γt : M × F(T2 )  Kt es una correspondencia continua con valores
no vacı́os y compactos. De forma análoga, dado (m, a−t ) ∈ M × F−t (T2 ), el
conjunto de estrategias para el jugador t ∈ T2 es Γt (m, a−t ) ⊂ Kt , donde
Γt : M × F−t (T2 )  Kt es un correspondencia continua con valores no-vacı́os,
compactos y convexos. Nos referimos a las correspondencias (Γt ; t ∈ T ) como
correspondencias de estrategias admisibles.
Dado un conjunto A ⊂ Rk , definimos U(A) como una colección de funciones
continuas u : A → R. Supongamos que U(A) esta dotada con la topologı́a de
la norma del supremo. Suponemos que cada jugador t ∈ T1 tiene una función
objetivo ut ∈ U(K b × M × F(T2 )) y que cada jugador t ∈ T2 tiene una función
objetivo ut ∈ U(M ×F(T2 )) que se supone son cuasi-concavas en las estrategias.
Finalmente, suponemos que la correspondencia U : T1 → U(K b × M × F(T2 ))
8
definida por U (t) = ut es medible.
7 En Schmeidler (1973) and Rath (1992), los jugadores son no-atómicos y toman en cuenta

solamente el promedio de las acciones escogidas por los otros jugadores. Entonces, siguiendo
nuestra notación, l = n y h(t, x) = x. Por lo tanto, ellos definen los perfiles de estrategias
como funciones medibles desde el conjunto de jugadores hasta el conjunto de acciones.
8 Supongamos que hay un número finito de tipos en el conjunto de agentes no-atómicos,

T1 . Esto es, hay una partición finita de T1 en conjuntos Lebesgue-Medibles {I1 , . . . , Ir } tal
que, dos jugadores t y t0 pertenecientes al mismo elemento de la partición son idénticos. En
este caso, la restricción acerca de la medibilidad de U se satisface de forma trivial.

35
Definición. Un equilibrio de estrategias puras de Nash de un juego generalizado
G(T, (Kt , Γt , ut )t∈T , h) esta dado por los perfiles de estrategias (f ∗ , (a∗t ; t ∈ T2 ))
tales que, para cualquier jugador no-atómico t ∈ T1 ,

ut (f ∗ (t), m(f ∗ ), a∗ ) ≥ ut (f (t), m(f ∗ ), a∗ ), ∀f (t) ∈ Γt (m∗ , a∗ ), (2)

y para cualquier jugador atómico t ∈ T2 , uRt (m(f ∗ ), a∗ ) ≥ ut (m(f ∗ ), at , a∗−t ), ∀at ∈


Γt (m∗ , a∗−t ), donde el mensaje m(f ∗ ) := T1 h(t, f ∗ (t))dλ pertenece al conjunto
M.

En nuestra definición de equilibrio de Nash, cada agente maximiza su fun-


ción objetivo, mientras que en Balder (1999) y Rath (1992), en el equilibrio, casi
todos maximizan su función objetivo. Sin embargo, teniendo en cuenta que las
funciones objetivo son continuas y los espacios de acciones compactos, dado un
equilibrio para cualquiera de los juegos estudiados en estos artı́culos, siempre
es posible cambiar las asignaciones asociadas con el conjunto de los jugadores
no-atómicos que no maximizan, dándoles a cada uno de ellos una estrategia
óptima, sin cambiar la integrabilidad de los perfiles de acciones o el valor de
los mensajes. De este modo, el Teorema 2 en Rath (1992) y el Teorema 2.1
de Balder (1999) aseguran la existencia del equilibrio de Nash donde todos los
jugadores maximizan su función objetivo.

Teorema. Considere un juego generalizado G(T, (Kt , Γt , ut )t∈T , h) donde,

1. El conjunto de los jugadores es T1 ∪T2 , donde T1 es un conjunto compacto


de medida finita de jugadores no-atómicos, y T2 es un conjunto finito de
jugadores atómicos.
2. Para cualquier t ∈ T, los espacios de acciones Kt son no-vacı́os y com-
pactos, las correspondencias de estrategias admisibles Γt son continuas
y tienen valores no-vacı́os y compactos, y las funciones objetivo ut son
continuas.
3. Cada jugador atómico tiene un conjunto convexo de acciones, una corres-
pondencia con valores convexos de estrategias admisibles, y una función
objetivo cuasi-concava en su propia estrategia.
b tal que, para cualquier t ∈ T1 , Kt ⊂ K
4. Existe un conjunto compacto K b y
∩ Kt este es no vacio.
t∈T1

b → Rl es continua.
5. La función h : T1 × K
6. La correspondencia U : T1 → U (K b ×M × F (T2 )), que asocia con cualquier
t ∈ T1 la función objetivo ut , es medible.

Entonces, existe un equilibrio de estrategias puras de Nash.

36

También podría gustarte