Rationalité et Théories Économiques
Rationalité et Théories Économiques
Max Weber détermine quatre types d'actions, dont la moitié est rationnelle. C'est la première
ouverture de la notion de rationalité. Max Weber ne s'intéresse qu'au comportement
socialement significatif : c’est-à-dire que s'il pleut et que les gens ouvrent un parapluie, on ne
prend pas en compte la dame japonaise qui ouvre un parapluie en plein soleil pour préserver son
teint, par exemple. Deuxième précision, ces comportements ne peuvent s'examiner qu'à travers
des types idéaux, ou des idéaux-types (figure abstraite qui résume un type pur d'activité). Sur
cette base, Max Weber distingue quatre idéaux-types :
- La « zweckrationalität » (activité rationnelle en tant que finalité, donc cela revient à la définition
de Lionel Robbins ; c'est ce qu'on appelle une action instrumentale)
- La « wertrationalität » (c'est une rationalité en valeur ; l'action sociale est déterminée par la
croyance en une valeur intrinsèque, inconditionnelle, liée à un comportement déterminé : on peut
avoir des valeurs à condition que ce soit rationnel (religion par exemple, ou morale) ; le
comportement est délibéré, comme par exemple si on porte le voile dans un pays non musulman
par choix délibéré)
Je peux être en rationalité en valeur ou en finalité. Par ex, les gens qui sont rationnelle en valeur
sont près à payer plus pour un café qui le même gout, il paie plus pour une valeur, car il choisit le
café qui a été effectué de manière avec conditions de travail plus sympas.
- L'action affective (« Affektuell ») : c'est un comportement impulsif. Ex : un enfant pleure bcp
dans un bus, et que sa mère le gifle car exténué, son geste est affectif pas réfléchi, ce n’est pas
délibéré. La prof s’est embrouille car selon elle ce n’était pas moral. Elle a aussi eu un
comportement affectif.
- Le comportement traditionnel (« traditional ») : on prend une décision en se basant sur une
tradition, sans réellement comprendre pourquoi. C'est un comportement non délibéré, comme par
exemple c’est le cas pour les femmes voilées dans les sociétés musulmanes traditionnelles. Ou
par ex, lorsque chargé de TD très jeune et étudiants hommes venant de milieu traditionnelle ne
voulaient pas se faire corriger par cette dernière car dans leur milieu n’ont pas l’habitude d’avoir
une « supérieur » femme qui est jeune et qui les corrige. Ce n’est pas un comportement
rationnel, affectif.
Il écrit : « Chaque individu ne pense qu'à son propre gain en cela que dans beaucoup de cas il
est conduit par une main invisible à remplir une fin qui n'entre nullement dans ses intentions.
Tout en ne cherchant que son intérêt personnel, il travaille souvent d'une manière bien plus
efficace pour l'intérêt de la société que s'il avait vraiment eu l'intention d'y travailler » . Cela rentre
dans toute une optique de développement des libertés caractéristique de l’époque, comme le
montrent les mémoires de Casanova. Pour Smith, la liberté dans le domaine économique est
directement liée à la richesse des sociétés.
On trouve ça chez Richard Cantillon (1680 - 1734), qui est un personnage romanesque, qui
rédige en 1730 un essai sur la nature du commerce, dans lequel il fait la différence entre 3
catégories d'agents selon leur aptitude à affronter l’incertain : les rentiers (Internet : fermiers,
propriétaires), les salariés, qui ont des gages certains, et l'entrepreneur qui a des gages
incertains. (Internet : Les coûts de l’entrepreneur sont présents, et ces recettes sont futures et
incertaines. L’origine de cette incertitude, Cantillon la voit dans la confrontation perpétuelle de
l’offre et de la demande.)
Retour sur le cours : Pour résumer, pour Mandeville, il faut considérer les individus comme des
fripons, thèse qui sera reprise par Keynes. Smith dit qu'en suivant leur intérêt, les gens sont mus
par une main invisible à concourir au bien de la société qui est la conséquence non intentionnelle
d'une action intentionnelle. Bentham dit qu'il n'y a pas de main invisible mais une harmonie
artificielle : le « felicific calculus » et Cantillon associe la rationalité à la prise de risque.
Bentham a une philosophie utilitariste : il explique le comportement des gens non pas par la
religion, la morale ou quoi que ce soit de ce genre, mais par les peines et les plaisirs. Elie Halévy
a théorisé la distinction entre les concepts d'harmonie naturelle des intérêts (mise en évidence
par Adam Smith), et d'harmonie artificielle (conceptualisées par Bentham). (Internet : Pour
Halèévy, cela signifie qu’une harmonie artificielle nécessite une législation rationnelle.) Cantillon
introduit dans la rationalité d'une catégorie d'agents la gestion des risques.
Marshall théorise lui l'équilibre partiel. La tradition Walras-Pareto décrit elle un équilibre
général sur tous les marchés en interaction. Pareto démontre que cet équilibre existe,
qu'il est unique et stable. Concernant l'optimum de Pareto, on n'est
pas dans une logique partielle. Là c'est un équilibre généralisé qui maximise le bien-être. Vilfredo
Pareto (1848 - 1923), ingénieur italien, succède à Walras. Il écrit un cours d'économie politique,
un manuel d'économie générale, et un traité de sociologie générale. Dans le traité de sociologie,
il s'intéresse à l'idée de plaisir. Il va passer de la notion d'utilité cardinale à une notion d'utilité
ordinale : la seule chose qui intéresse c'est de comparer les biens. A partir de ça, il va construire
des courbes d'indifférence. A l'optimum de Pareto, on ne peut pas augmenter l'utilité d'un agent
sans diminuer celle des autres. C'est le point auquel on ne peut pas accroître l'utilité ou le bien
être d'un individu sans pour autant en retirer à un autre
individu et on serait alors dans une situation de sous-optimalité. On a là une définition de la
rationalité qui est différente, car c'est une définition du bien-être en termes de bien-être collectif.
On est là dans une optique microéconomique. (Drive : C’est un point d’efficience et non d’équité.)
On arrive là à la notion d'institutions. L'institutionnalisme c'est une école qui se met en place aux
Etats-Unis à la fin du XIXème siècle qui suggère que la rationalité des individus est déterminée par
des institutions. Les institutions, ce sont d'abord des habitudes de pensées pour ces auteurs
institutionnalistes, parmi lesquels on compte notamment Thorstein Veblen, John R. Commons,
Wesley C. Mitchell. La rationalité serait ainsi liée à des facteurs institutionnels. ( Internet :
Habitudes mentales et institutions ne relèvent d’aucune forme de rationalité. Les institutions sont
le résultat de l’agrégation des comportements individuels, déterminés par les habitudes
mentales, et ne résultent pas de l’hypothèse de rationalité individuelle. )
Commons dit qu'une transaction est une action entre deux individus, qui ne sont pas forcément
dans la même position de l'un vis-à-vis de l'autre (Internet : La transaction représente le lien
social et les relations entre individus. Elle englobe le conflit, la dépendance et l’ordre. C’est le
point stratégique où se négocient les règles des activités futures. Selon Commons, ces
transactions couvrent l’ensemble des activités analysées par la sphère économique ). Il distingue
les « bargening transaction » (transaction au sens classique du terme : on a un contrat
synallagmatique par lequel deux individus mènent leur transaction échange basique (baguette de
pain moi et boulanger) ; les individus sont sur un pied d’égalité au niveau juridique), les «
managerial transactions » (Là c'est une relation hiérarchique, : relation entre un supérieur
hiérarchique et un inférieur hiérarchique au sein d’une firme, il y a un donneur d’ordre), et les «
rationing transaction » (C'est une transaction dominée par une règlementation Trans-action est
encadrée par la loi (convention collective par ex) ex :Sup hiérarchique d’un chef et d’un ouvrier le
paie très mal et syndicat l’accuse de le payer que très peu.)
1.4) Risque et incertitude
La physique révolutionne le monde. On travaille beaucoup dessus. C’est n’est plus dieu au centre
du monde. On ne pense plus comme quand on pensait au 3 ème siècle en Europe.
Au début du XIXème siècle, Einstein révolutionne la physique avec la théorie de la relativité. Cela
amène des interrogations dans tous les domaines au sujet de l'incertitude. 2 auteurs très
importants qui vont la même année en 1921 écrire un livre sur cette question de risque et
incertitude (Knight et Keynes).
Au début du 20ième siècle, les idées de Cantillon sont reprises par Frank Knight qui en 1921 publie
Risks, Uncertainty and Profit, dans lequel il introduit une différence entre le risque et l'incertitude.
Quelle différence entre les deux termes ? L'incertitude, au sens propre, n'est pas probabilisable,
alors que le risque est probabilisable. Cela veut dire que si on arrive à un examen, on a un risque
de 2% de chance d'avoir 0 par exemple. Je peux attribuer une proba, une attente à un risque. Si
on ne se présente pas notre cours, on ne le prépare pas, on a un max de chance de se planter
c’est probabilisable.
L'incertain, c'est le « Bataclan ». On ne peut pas attribuer des nombres d’aléa à un certain
nombre de possibilité. Ex attentats 11/9, on ne peut pas vraiment planifier.
Enfin, Knight définit le profit comme la capacité à gérer le risque. ( Internet : L’entrepreneur résout
les problèmes par son jugement dans les trois situations possibles : grâce aux probabilités
objectives, aux probabilités subjectives si on ne connaît pas à l’avance les probabilités, ou
aléatoirement face à de l’incertitude.)
Depuis la fin du 17ème siècle on a 2 conceptions des probabilités que Keynes va venir
critiquer. Keynes publie en 1921 un Traité sur les probabilités. Dans ce traité, il va se
démarquer des probabilités dites objectives, des probabilités dites subjectives . Les probabilités
subjectives, contrairement aux probabilités objectives sont celles qui sont imaginées ou
envisagées ( Par exemple, les prévisions sur l’issue d’un match de foot relèvent des probabilités
subjectives. Ou Si on prépare un exam, on a priori d’avoir plus de la moyenne. On répète
quelque chose, je prépare l’exam et on a 17. Donc si on s’entraine/répète bon résultats ).
Proba subjective ou épistémique : ex :prendre quelque chose pour porte bonheur pendant des
exams. Au bac, j’ai pris nounours pendant l’exam mais 3 ème année de licence, on le prend plus
car on se rend compte que ce n’est pas le nounours mais le travail qui nous fait réussir.
Or Keynes dit que dans les deux cas de probas on ne sait pas ce que le futur nous réserve . He
said « We simply don’t know ». Ce n'est pas parce qu'une chose s'est produite depuis des
années qu'elle va se passer demain, après-demain. Keynes est contre l'utilisation des
mathématiques en économie. La seule manière de résoudre ça (c’est-à-dire de pallier
l’incertitude), c'est de raisonner sous forme de conventions : c'est une manière collective de
pensée qui va diriger les anticipations des agents vers un certain résultat.
Pour Keynes, au sujet du concours des beautés on n'exprime pas sa préférence, mais la
préférence dont on pense qu'elle sera commune. La rationalité dans la théorie des jeux consiste
à anticiper ce que la majorité des acteurs va faire. Voir ex
Joseph Aloys Schumpeter est un grand économiste de l'innovation. Il propose une définition de
l'innovation : pour lui c’est ce qui permet de passer d'une analyse statique à une analyse
dynamique, donc économique. L'innovation, c'est le produit du risque mis en œuvre par
l'entrepreneur pour mettre en œuvre une invention et la traduire dans le processus
économique. Elle ne répond pas à une demande du consommateur, mais elle l'éduque en
révélant une demande virtuelle. Il faut que l'entrepreneur qui innove soit dans une position dans
laquelle il éduque le consommateur. Si elle fonctionne, alors il y a deux conséquences : il y a un
profit d'innovation, qui est un profit de monopole, qui sera ensuite érodé par la concurrence, et
l'innovation est reprise en grappes d'innovation, et entraîne un phénomène de « destruction
créatrice » (à chaque innovation dans une branche, il y a des firmes entières ou des branches
d'activités qui seront détruites). Pour Schumpeter, la rationalité de l'entrepreneur consiste à
prendre un risque, innover, et assumer les conséquences de son innovation par un profit de
monopole.
Simon propose une deuxième forme de rationalité limitée. Elle porte sur la notion de rationalité
procédurale. C'est une conséquence de la rationalité limitée qui met l'accent sur le fait que les
choix peuvent changer au cours de la procédure de choix. Si on veut acheter une voiture rouge,
on va voir les diff modèle et on trouve voiture bleu qui est trop belle, donc au cours de la
procédure on a changé de choix car coup de cœur pour le bleu et qui n’avait rien avoir avec le
choix de base. Ainsi, cela veut dire que selon le délai de choix dont on dispose, les préférences
changent au cours de la procédure de choix. Cette procédure, Simon l'appelle du
« satisficing ». Le choix n'est pas optimal, mais il est satisfaisant car le temps de la procédure de
choix est limité. Enfin, Simon travaille avec James March
Williamson est un auteur contemporain, spécialiste de la théorie des contrats, des transactions. Il
va partir du fait que les individus ont une rationalité limitée pour explorer les conséquences
pragmatiques de cette dernière. Une rationalité limitée est liée au fait que l'information dont
dispose un individu, ainsi que sa capacité à traiter l'information, sont limitées (il y a donc
asymétrie imparfaite de l’info) ce qui ouvre la possibilité de manipuler cette information. Cette
manipulation délibérée de l'information s'appelle de l'opportunisme. En d’autre terme, c’est
la contrepartie de la rationalité limitée. Williamson distingue deux types d'opportunismes : un
opportunisme ex-ante (avant la passation du contrat), et un opportunisme ex-post (après la
passation du contrat). Cela correspond, respectivement, à une situation de sélection adverse et
d'aléa moral (vérifier en monnaie). Cette information peut porter sur n'importe quelle situation où
un individu a une information que l'autre n'a pas.
Il y a 2 conséquences de l’opportunisme :
- Ouverture d’un espace pour une manipulation(pour son propre intérêt) stratégique des
signaux d’infos. Si un agent n’a pas de savoir de l’info su un chose donné, on peut
manipuler l’info. Quand un agent n’a pas toute l’info, il y a possibilité d’opportunisme, cad
de manipulation. Si je dois embaucher un traducteur espagnol qui prétend bien parler et
que je ne parle pas, il me manipule. Cela a donc des conséquences.
- Dans un moment donné, les agents ont intérêt à se limiter à leurs savoir, à leur infos et
que de dire tout et n’importe quoi . Ex : copie , ou on commence à dire des choses
incohérentes
La culture d'entreprise (ou culture d'organisation) est un système qui a pour but de lutter contre la
rationalité limitée des agents et d’accroître la performance de l’organisation. Ou encore, la CE est
l’ensemble des techniques au sein d’une organisation vont permette de lutter contre la R limitée
des agents en la suppléant par des routines au niveau de l’organisation. Une routine est une
procédure codifiée souvent liée à une division du travail.
Edgar Schein, en 1985, dans Organisations, Culture, and Leadership, dit que la culture
d'organisation est la structure des valeurs de base qu'un groupe a inventé ou découvert en
apprenant à surmonter ses problèmes d'adaptation externe ou d'intégration interne. (ex : les
banques vs les banques en ligne). Cela veut dire qu'il y a des valeurs dans un groupe qui vont
permettre de parler le même langage, de connaître l'organigramme de la structure. Quand il y a
des nouveaux entrants dans un groupes, on va leur inculquer les valeurs de ce dernier ‘(avec
les WEI par ex). Deux objectifs assignés par Schein : assurer une meilleure coordination à un
moindre coût en situation de rationalité, et accroître la performance de l'organisation par un
système d'information et de communication entre les membres du groupe qui permet d'accroitre
l'efficacité de la prise de décision et la convergence des décisions. Il y a 3 éléments de cette
culture d’entreprise :
- Les symboles : C’est un ensemble d'événements qui donne un sens commun à l'action des
membres d'un groupe (Ex : avoir mention dans une université, couleur bordeaux à Harvard,
porter la légion d’honneur)
- Les rites : Ce sont des événements chargés de mettre en relief les valeurs et les
comportements considérés comme fondamentaux comme les nominations, la reconnaissance
des primes, la rétrogradation, l'apaisement des conflits, le renouvellement des formations. Ce
sont des événements de cohésion (remise des diplômes à Harvard, rites de passage et de
nomination (ex : bizutage), mettre une mention = signaux pour dire qu’on est fort.
- Les histoires : Ce sont des séquences d'événements réels ou imaginaires, destinés à construire
des schémas de cohérence et d'autorité (Ex : les débuts d'Apple ou de Facebook). Ici, il ne s'agit
pas de la question de la véracité de ces histoires.
Cette culture d'entreprise contribue à créer un vocabulaire commun, une manière de penser
commune, qui vont aider à gagner en efficacité.
2.2) Contrats et conventions
La notion de convention est une représentation de la coordination des agents, qui est non
contractuelle. Les conventions se sont un contrat implicite, non écrit, mais qui ferait l'objet d'un
concept particulier, celui de savoir commun (« common knowledge »). La convention, c'est ce qui
permet aux agents de se coordonner et d'anticiper que les autres vont se conformer à cette
coordination. Cette notion de convention a deux origines théoriques :
- David Hume, philosophe britannique, qui prend pour exemple les avirons, en disant que si
des bons rameurs se retrouvent ensemble, ils vont adopter un rythme semblable, sans
contrat écrit ni indication criée. Ils vont se coordonner pour aller plus vite. Donc
« convention » c ce qui conduit les individus à se coordonner selon des modes dont ils savent
que les autres vont effectuer.
- Keynes s'interroge sur la manière dont les marchés financiers fonctionnent. Quels que soient les
fondamentaux d'une action, ce qui compte ce ne sont pas les fondamentaux, ce qui compte ce
sont les intentions des agents. (Parallèle avec le chapitre sur le concours de beauté de Keynes
où les lecteurs votent pour ce qu'il pense être le choix des autres agents ; l’obj est de ne pas
choisir la plus belle des figures mais de se coordonner pour trouver la plus jolies et qui va mettre
d’accord le public)
David K. Lewis donne quant à lui une définition stricte du mot « convention ». Lewis, qui est un
des élèves de Thomas Schelling, théorise la notion de convention autour de la connaissance
commune. Pour lui, la convention est un système de règles qui a un caractère contraignant, sans
genèse intentionnelle, càd lorsqu’on s’y pli on ne réfléchis pas (entrée et sortie d’amphi) et qui
assure la coordination entre les agents. Sa définition précise est la suivante :
Une régularité R dans l'action ou dans l'action et dans la croyance est une convention au sein
d'une population P placée dans une situation récurrente S si et seulement si à l'intérieure de P
les conditions suivantes sont vérifiées ou presque vérifiées :
1) Tout le monde ou presque se conforme à R (Ex : Par exemple le placement sur l'escalator
dans le métro à Paris, contrairement à Lille selon l’anecdote de la prof )
2) Tout le monde anticipe que tout le monde ou presque se conforme à R (ex : S’arrêter au
rouge et passer au vert alors qu’au Venezuela ce n’est pas le cas, les gens ne s’arrêtent pas de
peur qu’on les agresse ou vol des choses).
3) Cette croyance selon laquelle les autres se conforment à R donne une raison bonne et
décisive de se conformer à R
4) Il y a une préférence générale pour une conformité générale à R plutôt que pour une
conformité moindre à R
5) R n'est pas la seule régularité possible qui satisfasse les deux dernières conditions : il existe
une autre régularité R' qui satisfasse ces conditions
6) Ce qui est énuméré dans les conditions 1 à 5 fait l'objet d'un « common knowledge »
2.2.2) Deux domaines d'application de la notion de convention : les systèmes financiers, les
relations de travail (ne pas faire)
Il y a des procédures conventionnelles qui se traduisent par les indices type Dow Jones ou
CAC40. Sur les marchés financiers, la notion de convention aide à adopter des procédures
administratives pour réguler le marché. Deuxième grande application de la notion de convention
dans le champ de l'économie, la relation de travail dans l'entreprise : on a là deux grands types
de conventions : conventions de chômage (solidarités entre salariés et entrepreneurs : on a une
convention avec les salariés consistant à dire qu’on a intérêt à garder les salariés car ils sont
efficaces ; en cas de choc exogène, l’employeur conserve son employé, celui-acceptant d’être
payé moins), et des conventions de productivité (si on embauche quelqu'un, ce quelqu'un fera le
job même s'il n'est pas surveillé : il n'y a pas d'opportunisme ex-post ; l’employeur s’engage à
payer l’employé selon sa productivité ). Concernant les conventions de chômage, l'idée porte sur
des conventions implicites entre un employeur et un employé consistant à dire que dans les deux
cas il n'y aura pas d'opportunisme ex-post (soit dès qu'il y a un choc exogène l'employeur ne
renvoie pas ses employés, et de même, les employés s'engagent à travailler bien voire à
accepter une diminution de salaire pour ne pas être au chômage).
Laurent Thévenot et Luc Boltanski ont écrit Les économies de la grandeur (1991). Ils vont
distinguer six cités dans lesquelles les conventions ne sont pas les mêmes. Ces cités sont :
- La cité domestique : Elle est gérée par des valeurs de référence telle que la famille, la tradition,
la hiérarchie, l'antériorité, l'autorité ; la dévalorisation porte sur l'impolitesse, la traîtrise, la
nouveauté ; les figures centrales sont le père, le roi, l'ancien du village ; les épreuves
archétypales sont les cérémonies familiales). La cité domestique se traduit par le côté traditionnel
de la famille. Le texte de référence est le Discours sur la servitude volontaire de Bossuet.
- La cité marchande : Pour la cité commerçante le texte de référence est le texte d'Adam Smith
Recherches sur la nature et les causes de la richesse des nations ; la valeur de référence est la
concurrence ; la valorisation porte sur l'intérêt, la valeur (?) ; la dévalorisation porte sur la
gratuité, les épreuves modèles ce sont le marché, la construction d'un contrat.
- La cité industrielle : La valeur de référence est la science, le progrès, l'efficacité ; ce qui est
dévalorisé c'est l'inefficacité, l'improductivité ; les figures ce sont l'expert, l'ingénieur, le
professionnel ; les épreuves modèles ce sont le test, la réalisation ; le texte de référence est celui
de Saint-Simon De la physiologie sociale.
- La cité inspirée : Les valeurs de référence sont l'imagination, la création, l'inspiration, l'insolite ;
les figures sont l'artiste, le génie, la fée ; les épreuves-modèles sont la création ex nihilo ; le texte
de référence est La cité de Dieu de Saint-Augustin
Il y a des comportements différents selon les cités dans lesquelles les agents évoluent. Le
professeur Chiapello rajoute à ces six cités une prophétie des projets (Internet : Cela semble être
plutôt « cité par projets » ). Les cités de Boltanski-Thévenot peuvent être pensées en
synchronisme. Ces cités signifient qu'il y a un regroupement d'individus.
Ici, l'idée c'est que l'individu ne maitrise pas toute l'information dont il pourrait disposer. Il y a
donc un problème d’asymétrie des infos.
Von Hayek publie en 1945 un article sur le lien entre l'information et la formation des prix.
Jusque-là on a opposé l'école anglaise (équilibre partiel) à celle de Lausanne (équilibre général)
(Moi : Jusque-là, la loi du marché explique la formation des prix. ). Une troisième école, dont Von
Hayek fait partie, met l'accent sur la dimension subjective de la valeur. Pour eux, la valeur d'un
objet est liée à la demande de cet objet et non à l'offre alors que les autres mettaient l'accent sur
le coût de production. Ce que disent les Autrichiens, c'est que le prix est subjectif. Cela a pour
corollaire que l'Etat et l'intérêt général n' ont pas d'existence dans ce système. Les individus se
coordonnent. Ce que fait Hayek c'est de mettre l'information à la place du jeu de l'offre et de la
demande. L'idée est qu'avant Hayek, on avait deux manières de penser la fixation des prix :
- Sur un marché concurrentiel, les individus sont « price taker » et sur un marché de concurrence
imparfaite, les consommateurs sont « price maker » (se forment des monopsones, oligopsones).
- La tradition keynésienne, dite du « mark-up », selon laquelle l'entrepreneur fixe le prix en
ajoutant une marge au coût de production.
A partir de ce duo tradition standard/tradition keynésienne, on explique la fixation des prix. Pour Von
Hayek, l'information renseigne sur la qualité ou la quantité. Comment a-t-on ces informations ? Dans
les magasins, on fait les stocks et on a donc des informations sur la quantité. Par exemple il y avait
un parfum dont la pub disait que c'était le parfum le plus cher du monde.
Là, on passe à quelque chose de différent, à savoir les modèles qui ont été faits après la
Seconde Guerre Mondiale, pour analyser le phénomène de la communication de masse.
Lasswell était psychologue et psychiatre. Après la 1 ère guerre mondiale, il écrit Propaganda Tech
niques in the World War. Il est à l’origine d’une théorie qu'il appelle la théorie des cinq « W » :
C'est originellement une technique de propagande durant la Première Guerre
Mondiale et il démontre que dans un contexte de guerre, la propagande et opinion public
joue rôle important. Le raisonnement c'est « Who says what to whom in which
channel with what effect ».
Le modèle va être repris après la seconde guerre mondiale par deux auteurs, Shannon et
Weaver, qui vont proposer un modèle mathématique très simple où ils vont intégrer l’idée de
brouillage.
Ils reprennent la même chose et ajoutent « le bruit ». Shannon et Weaver disent qu'à la source
d'information, qui délivre un message à un transmetteur (Ex : le micro), qui envoie un signal à
une source, qui envoie le message à un récepteur pour arriver à destination. On a un encodeur,
un message, un canal, un récepteur, un décodeur, une source. Durant la guerre, l'enjeu est
fondamental. Le bruit est appelé « brouillage ». Si on ne veut pas qu'un message arrive, on
brouille les messages.
Une asymétrie d'information, c'est une situation dans laquelle un agent dispose d'une information
que l'autre n'a pas. C'est lié à l'opportunisme. C'est la capacité à jouir d'une information que
l'autre n'a pas.
La relation principale agent= théorie dvp dans les année 70 par Ross Jensen Fama Arrow
(vérifier demander). Il y a relation d’agence lorsqu’un agent qu’on appelle principal ou mandant
délègue par contrat tout ou une partie de son pouvoir de décision à un autre agent qu’on appelle
agent ou mandataire. Si ma voiture se casse, et qu’un mécanicien escroc vienne, je délègue mes
pouvoirs et je me fait manipuler (car il dit que ca va couter chère alors que non)
Ainsi, un mandant délègue une partie de son pouvoir de décision à un autre agent, appelé
mandataire. (Internet : Là, on est dans le cadre de la théorie de l’agence : elle vise l’ensemble
des problèmes rencontrés lorsque l’action d’un acteur économique, le principal, dépend de
l’action ou de la nature d’un autre acteur, l’agent, sur lequel le principal est imparfaitement
informé. Il s’agit donc d’étudier les conséquences d’une asymétrie d’information. )
Cette théorie s’organise autour de 2 instants.
C'est quand les mauvais agents sont plus actifs que les bons. (Internet : L'aléa moral consiste
dans le fait qu'une personne ou une entreprise assurée contre un risque peut se comporter de
manière plus risquée que si elle était totalement exposée au risque. Exemple : si le propriétaire
d’un vélo qui s’assure contre le vol se contente d’un petit antivol au prétexte que si son vélo est
volé il sera remboursé, il fait jouer l’aléa moral. L’agent, non exposé au risque, ne se comporte
pas comme s’il était totalement exposé au risque. )
Les mécanismes incitatifs ce sont les comportements qui amènent les gens à ne pas suivre les
comportements souhaités par eux. L'effort est l'objet de la théorie de l'incitation. Une série de
modèle intègre la variable « e » (pour effort) dans une fonction de production. Comment
améliore-t-on l'effort ? Dans ces modèles, l'effort, c'est la capacité d'accroître le profit. Un modèle
qui explique le résultat d'une équipe sportive par exemple, ou d'un déménagement, c'est qu'il y a
une prime pour la réussite.
Trois exemples de mécanismes incitatifs. Cela a à voir avec la théorie des équipes de Marschak
et Radner. Selon cette théorie, une équipe a besoin de travail pour se payer. (Moi : On considère
les agents économiques comme faisant partie d’une équipe, donc d’un collectif de production mu
par un consensus absolu dans lequel il est impossible d’imputer à chacun des membres une
partie précise de l’input. On ne peut pas distinguer les productivités marginales respectives. Etant
donné les signaux reçus par les membres de l’organisation, l’objectif est de déterminer la
répartition optimale des règles de décisions . L’équipe est un collectif d’individus ayant les mêmes
intérêts mais pas le même degré d’information : il s’agit pour l’équipe d’accroître ses bénéfices,
ce qui implique d’avoir une communication interne efficace, d’où la nécessité de déterminer la
répartition optimale des règles de décisions.)
Pour Groves, le mécanisme consiste à lier l'allocation des ressources, l'efficacité. Par exemple,
une bonne équipe de déménageurs aura plusieurs contrats, alors qu'une mauvaise en aura peu.
Si on est efficient et efficace les jours précédents, on nous donne plus d’inputs, donc on pourra
produire plus et gagner plus. Là, on est avant le contrat : on propose plus de travail pour gagner
plus. Ce second mécanisme concerne la rémunération après la passation du contrat : une règle
de partage des bénéfices permet d'accroitre l’adaptation de chaque personne de l'équipe en
fonction de sa part de travail. Voici la différence avec le modèle précédent : soit on donne à
l'équipe plus de travail pour améliorer la circulation de l’information (incitation ex-ante à l’effort) ,
soit on donne aux agents une meilleure rémunération si le travail est bien fait après le contrat, si
l’information a bien circulé.
Il propose une typologie de 2 types de firmes : entre des firmes « A » pour américaines et
« J » pour japonaises. Cette typologie joue sur une relation inverse entre la circulation de
l'information, donc la coordination, et l'attachement à la firme et le salaire. Aoki montre qu'il y a
deux firmes qui ont une logique radicalement différente sur deux points . Dans la firme A, l'accès
au marché est totalement libre : on peut rentrer à n'importe quel moment à n'importe quel poste,
mais la circulation de l'information est extrêmement hiérarchisée. Donc, s'il y a un problème à la
base, l'information va circuler entre les différentes strates de la hiérarchie.
Concernant la firme japonaise, elle repose sur une centralisation de l'accès au marché de travail .
On rentre sur le marché du travail à la sortie des études généralement. Il y a des « ports of entry
» au niveau des cadres supérieurs, mais entre l'étudiant à peine diplômé et ces points d'entrée il
y a au moins dix ans de carrière. Le salaire est principalement fixé à l'ancienneté. Un
informaticien très qualifié sera au début payé comme un balayeur : c'est une forme incitation pour
ne pas quitter la firme. Deuxième conséquence, les jeunes font « tous les postes » (ouvrier,
balayeur). La circulation de l'information et la prise de décision sont complètement
décentralisées. Puisque tout le monde a travaillé dans tous les ateliers, on communique plus
facilement. On appelle ça le toyotisme.
La question du choix collectif n'est pas simple. Elle s'est posée pour la première fois dans
l'Histoire à un moment où des mathématiciens, des philosophes, s'intéressaient à la question de
savoir comment était prise une décision collective.
Premier problème, la majorité simple qui se dégage de cette décision ne représente pas une
majorité simple dans le cas où A serait opposé au seul C. Deuxième problème, on a une situation
illogique : le classement le plus fréquent est A > B > C, duquel on en déduit que A > C alors que
dans le cas où A affronte C, on a pourtant C > A.
Arrow s'offre le luxe d'enchaîner la démonstration d'un équilibre économique général et deux
théories de l'économie du bien-être. Il publie en même temps un livre où il reprend le paradoxe de
Condorcet : l'équilibre général c'est très bien mais il n'y a pas de prise de décision possible . Dans
ce livre il montre que si les participants à un choix collectif n'ont pas la même fonction de
préférence alors il n'existe pas de procédure de choix satisfaisante. Avoir la même fonction
objectif (ou de préférence), c'est soit une situation dans laquelle on fait tous le même choix, soit
une situation dictatoriale (un dictateur impose sa fonction objectif à l'ensemble des décideurs).
Arrow dit que si on est dans une situation où il y a plus que deux options, on ne peut pas
respecter les conditions suivantes : il faut que le choix se porte sur la totalité des votes, il faut qu'il
n'y ait pas de dictature, et il fait que le résultat soit un optimum de Pareto. C'est la théorie de
l'impossibilité d'Arrow (Internet : Il n'existe pas de fonction de choix social (un système de vote)
qui puisse convertir des préférences individuelles en une décision agrégée cohérente, hormis
dans le cas où la fonction de choix social coïncide avec les choix d'un seul individu (« dictateur
»), indépendamment du reste de la population ).
Quatre conditions d'Arrow : (dont la réunion est démontrée impossible par Arrow )
- Le classement doit être total (il prend en compte toutes les possibilités de classement)
- Ce classement est Pareto-compatible
- Il doit être indépendant de tout autre facteur que les préférences des agents
- Ce choix doit pouvoir être exprimé sans qu'un dictateur impose son classement à l'ensemble
des autres agents
Plusieurs mécanismes de décision collective. Le premier est la dictature. Là, un agent impose
ses choix aux autres participants, ce qui impose une situation parfaitement hiérarchisée et
transparente (donc il faut un système de surveillance et de hiérarchie). Il peut y avoir un système
où il y a des divergences de choix et dans lequel on pallie cela par des mécanismes incitatifs.
Ces systèmes sont autoritaires, et aux yeux d’Arrow, ce n'est pas un système démocratique.
Il y a un troisième cas, qui est la décision par vote majoritaire, qui est appliquée dans la plupart
des Parlements. Dans les années 1970/1980 cette situation est critiquée par l'Ecole du
« public choice » de Buchanan et Tullock, qui écrivent un livre dans lequel il montre qu'il y a un
coût associé à la règle majoritaire, ce coût étant lié à ce qu'ils appellent l'électeur médian (qui
incite à fore des alliances). Ils prennent une situation illustrée à l'époque par le Parlement
israélien.
Il y a une collision entre les modèles de bureaucratie (les choix résultent de procédures, de
filtrages des préférences du rang inférieur vers le rang supérieur) et les modèles (?).
Il n'y a pas de conflits car le marché est supposé régler les conflits. Le seul risque de conflit qui
apparaît est lié au comportement opportuniste, au comportement de tricheur. Ce qu'on appelle
l'opportunisme de Williamson consiste à invalider la procédure de règlement des
conflits par le marché. Cette possibilité d'opportunisme, de tricherie, de tire-au-flanc, ouvre un
espace de recherche concernant l’existence de conflits sur le fondement théorique des conflits,
fondement qui va être intégré dans un mécanisme de bruit dont on a déjà parlé.
Libenstein part en Afrique et revient avec un modèle intéressant où il inverse la relation entre
productivité marginale du travail et le salaire. Il écrit Economic backwarness, and economic
growth. Il dit que si quelqu'un n'a pas un salaire suffisant, qu'il ne peut pas vivre correctement, il
ne pourra pas fournir une productivité efficace. Il va même plus loin en disant que ça fonctionne
de même dans les pays développés. Il introduit notamment la notion de salaire d'efficience : la
question qui se pose est celle de la gestion du personnel de manière à accroître la productivité.
Ainsi il faut bien traiter la main d'œuvre en lui donnant un salaire efficient de sorte qu'en retour le
différentiel de productivité est important. Libenstein invente l'efficience X. X est là une inconnue. Il
développe l'idée selon laquelle il y a une efficience non économique qui accroît la productivité et
qui comprend des choses comme le bonheur et les sourires.
Troisième texte, en 1982, Libenstein publie un article sur le dilemme du prisonnier dans la théorie
de la main invisible. La relation salariale comprend une double incertitude : sur la productivité du
salarié et sur l'évolution du salaire fixé par l'employeur. On peut mettre ça en parallèle avec les
conventions de chômage qu'on a étudiées. Libenstein modélise un dilemme.
Le dilemme du prisonnier : Soit deux criminels arrêtés par la police. On leur dit qu'ils ont le choix
entre dénoncer et ne pas dénoncer l'autre. S'ils se dénoncent l'un et l'autre, ils prennent chacun
deux ans de prison. Si l'un dénonce l'autre, mais que l'autre se tait, alors celui qui est dénoncé
prend 4 ans de prison, et l'autre ne fait rien. Si chacun garde le silence, alors ils prennent chacun
six mois de prison. Ici, la situation dans laquelle tout le monde se dénonce est l'équilibre de
Nash : l'idée est que lorsqu'on découvre le choix de l'autre, on ne regrette pas le sien.
L'équilibre de Pareto est la situation dans laquelle personne ne se dénonce. Libenstein
applique ce dilemme à la relation entre l'employeur et le salarié :
Employeur
Salarié Stratégie pacifique Stratégie agressive
Effort maximum S = 15 ; P = 15 S = 3 ; P = 20
Effort minimum S = 20 ; P = 3 S=5;P=5
Elinor Ostrom travaille sur un problème qui apparaît dans l'article d'un biologiste nommé Garrett
Hardin. Cette tragédie suggère que la loi du marché conduit à une surexploitation des biens
communs. Le partage du bien commun est un jeu à somme nulle. Il faut d'abord définir le bien
commun : on ne peut pas lui attribuer de droit de propriété (Ex : océan, champ collectif). Un bien
rival (les biens communs ne sont pas des biens exclusifs : on ne peut pas empêcher leur
consommation si l’agent ne paye pas a priori ), c’est un bien qui, s'il est consommé par un
individu, n'est plus consommable par l'autre. ( Internet : Lorsqu'un bien est partagé entre plusieurs
exploitants, plus les exploitant augmentent leurs propres exploitations, plus la capacité de
production du bien de base diminue.) Trois possibilités pour pallier cela :
- Une possibilité posée par Pigou, qui est la nationalisation : on règlemente les droits d'accès à la
ressource.
- La privatisation : On attribue des droits individuels de propriété
- On peut gérer par les communautés : Des règles pesant l'intérêt public et l'intérêt général
organisent la gestion marchande des biens communs. Ostrom montre qu'il y a des
arrangements institutionnels qui ne sont pas marchands. Ostrom définit 8 principes pour une
gestion réussie des biens communs : (arrangements institutionnels)
On a des « nested institutions ». (?) Ostrom écrit sur l'évolution des institutions qui permettent de
gérer la gouvernance collective. Elle lance un programme de recherche sur trois éléments :
3) Michael Heller écrit la tragédie des biens anti-communs. Il parle non pas des biens collectifs
de savoir, pas non plus de la gouvernance économique, mais de phénomènes dans lesquels des
agents rationnels gaspillent des biens collectifs. Là c'est l'idée qu'on utilise mal des biens qui ne
sont pas communs mais qui devraient l'être.
John Rawls écrit une théorie de la justice visant à répartir les biens communs selon des règles.
Comment répartir la richesse ? Il propose une délibération sous « un voile d'ignorance ». Il dit
qu'on allait faire comme si chacun de nous ne savait pas où il allait atterrir. Il pose le principe du
« maximin » (on maximise la situation de ceux qui sont en bas de l'échelle), et du « minimax » (on
réfléchit à un seuil pour contrôler ceux qui sont en haut de l'échelle). Il dit qu'il y a des règles, qui
sont les maximes, qui servent à résumer des données passées sous formes de considérations
très générales permettant de faire un choix, et d'autres règles, qui sont des pratiques d'usages,
jouant un rôle de contraintes sur les choix.
Dans les Etats modernes, la rationalité est justifiée par la compétence. Cette dernière forme, que
Weber appelle la « rationalisation de la société », c'est le fait qu'au début du XIX ème siècle, les
sociétés se sont détachées de la religion notamment, et d'un certain nombre de hiérarchies
sociales. Mr. Pinkus invente la pillule et contribue à diminuer la barrière hommes/femmes. Cette
rationalisation suppose cinq conditions pour Weber :
Ken Arrow montre que l'autorité se caractérise toujours en dernière instance par la possibilité de
faire un choix à la place d'un autre individu. La notion de hiérarchie est intéressante car elle induit
une notion de symétrie. Si I est subordonné hiérarchiquement à J, c'est que I se réfère aux
objectifs définis par J plutôt qu'aux siens propres, lorsqu'on doit choisir A, qui appartient à
l'ensemble des actions, et si les décisions de J prévalent sur celle de I en cas de conflits.
En 1984, Brass fait une étude empirique sur les principaux attributs d'un supérieur hiérarchique
sur ses subordonnées hiérarchiques. Il dégage un principe d'assignation (capacités d'assigner les
tâches de manière discrétionnaire), un principe de nomination, et un principe de contraintes
(capacité de faire prévaloir systématiquement ce qui a été décidé), ainsi qu'un principe de
supervision (capacité de contrôler ses subordonnés).
La structure simple est que le sommet stratégique domine les autres, et pousse à la
centralisation. Ensuite, ce que Mintzberg appelle « machine bureaucracy » c'est une
configuration dominée par la bureaucratie mécanique. Ce qui pousse à la standardisation des
tâches, c'est la technostructure (bureau des méthodes dans l'OST). Le centre opérationnel ce
sont les « prolos » : ils cherchent à réduire l'influence des autres catégories et encouragent à une
décentralisation. La ligne hiérarchique, c'est le personnel médian. L'adhocratie c'est l'influence du
personnel fonctionnel, notamment du service financier, des RH. ( Moi : Mintzberg distingue cinq
configurations selon l’élément principal : structure simple, bureaucratie mécaniste,
bureaucratie professionnelle, forme divisionnelle, adhocratie. )
Retour sur le cours : L'autonomisation des fonctions sociales, c'est que l'économie par exemple,
ou la gestion, deviennent une discipline à part, et il n'y a pas une théorie qui règle tout le
fonctionnement de la société. On est dans un système mathématisé, comptabilisé. La
formalisation des relations, c'est le fait que la fonction l'emporte sur la personnalisation.
C'est d'abord une mise en forme des relations entre les individus, qui apparaît comme
formalisation mathématique dans les années 1920. John Von Neumann, Emile Borel, Ermst
Zermelo, sont les mathématiciens qui inventent un formalisme nouveau qui consiste à
mathématiser les problèmes. Au moment de jouer, on se pose la question de savoir ce que l'autre
va jouer. Cette mise en forme mathématique va prendre son essor en 1944 lorsque Von
Neumann et Oskar Morgenstern publient un ouvrage : Theory of Games. L'idée de départ, c'est
que tous les problèmes mathématiques peuvent se ramener à un jeu de stratégie entre les
acteurs rationnels. Auparavant, les problèmes économiques n'étaient pas formalisés : pour les
duopoles par exemple, on disait que la stratégie c'était d'anticiper les comportements de l'autre.
Ces travaux sont prolongés par Richard Selten, John Harsanyi.
Qu'est-ce qu'un jeu ? Un jeu, c'est au départ un ensemble de règles qui vont spécifier les joueurs
(éventuellement leur nom), le nombre de joueurs, les stratégies envisageables, la séquence des
décisions (il y a des jeux « one shot »), les gains (ce que les joueurs gagnent dans telle
configuration), la disposition des joueurs. Il y a des typologies des grands jeux, dont les jeux
coopératifs/non coopératifs. Les jeux coopératifs, ce sont des jeux de concurrence, dans lesquels
on peut faire des alliances. On a des jeux avec des décisions simultanées et des jeux avec
décisions séquentielles. Il y a des jeux statiques (Ex : dilemme du prisonnier), et des jeux répétés
(On prend les mêmes joueurs et on les refait jouer). Enfin, on distingue également les jeux à
information parfaite des jeux à information imparfaite.
Qu'est-ce qu'une stratégie ? C'est un plan d'action complet qui va définir ce que le joueur va faire
à chaque étape de décision et lorsqu’il est confronté à chacune des situations qui peut survenir
(En théorie des jeux, l'intervention du hasard est évoquée comme « la Nature »), ainsi que les
gains associés. Les joueurs sont dotés d'une rationalité parfaite. Ils sont capables de raisonner
en « backward induction » (Internet : « Raisonnement rétrograde » : on déduit les effets d’une
action en analysant ses conséquences éventuelles. ) : ils anticipent, et pensent avec
des coups d'avance. Il faut prendre en compte l'hypothèse de « common knowledge ».
Le jeu de miroir (je joue ça parce que je sais que mon adversaire joue ça) est un
système de diffusion de l'information que l'on appelle connaissance commune. On peut
se remémorer le concours de beauté de Keynes. Il y a des stratégies dominantes et
des stratégies dominées.
Albert A B
Bérénice
A (1000, 40) (30, 60)
B (200, 80) (20, 110)
Si on est Albert, qu'est-ce que Bérénice peut faire ? Tout est question de « common knowledge »,
Albert sait que Bérénice sait qu'il ne va pas jouer A ( Si Albert joue A, il perd dans tous les cas les
deux joueurs ayant une rationalité parfaite. Donc, la solution de ce jeu est (30 60), puisque
sachant qu'Albert va jouer B, Bérénice maximise ses gains.
Les jeux à information complète sont des jeux dans lesquels on a des informations sur les règles
du jeu, sur les gains qui leur sont associés, sur la stratégie des autres agents et sur leurs
motivations. La conséquence de ça, c'est le « common knowledge ». Il n'y a pas seulement une
transparence parfaite de l'information, mais un monde où on peut se mettre à la place de l'autre.
Un jeu sous forme normale répond à trois questions : Qui joue ? Quelles sont les stratégies
disponibles pour chaque joueur ? Quels sont les gains associés à chaque stratégie en fonction de
ce que joue l'autre ? Le tableau suivant est un tableau dit sous forme normale (Moi : surtout pour
les jeux simultanés).
Pour les jeux sous forme extensive, c'est la même chose exprimée de manière différente (sous
forme d'arbre et non de tableau).
Dénonce
Clyde ne dénonce pas (0 ; -10)
Bonnie
Clyde dénonce (-10 ; 0)
Ne dénonce pas
Clyde ne dénonce pas (-1 ; -1)
Clyde dénonce aussi (-8 ; -8)
Dénonce
Clyde ne dénonce pas (0 ; -10)
Clyde
Clyde dénonce (-10 ; 0)
Ne dénonce pas Clyde ne dénonce pas (-1 ; -1)
Ex : La règle du jeu est qu'un joueur reçoit la somme du jeu en faisant le produit par quatre du
plus petit des nombre qui désigne les stratégies choisies par les joueurs, somme à laquelle on
soustrait le nombre qui désigne la stratégie choisie par le joueur. Comment modélise-t-on cela
quand il y a trois joueurs ? Si C choisit la stratégie 1. On fait le tableau suivant :
B
A 1 2 3
Le plus petit nombre est là toujours 1. Or, 4 x 1= 4. Et enfin, 4 - 1 = 3. Disons maintenant que C
joue 2 :
B
A 1 2 3
B
A 1 2 3
Jeux sous forme extensive : C'est une formalisation qui permet de mettre l'accent sur l'ordre
dans lequel les joueurs interviennent et sur l'information dont ils disposent à chaque coup du jeu .
Ils comportent des nœuds, des flèches extensives (d'un nœud à un autre), et des vecteurs qui
caractérisent les nœuds et les flèches.
Ex : On a une origine A. Du nœud A partent trois flèches, qui correspondent à des stratégies X
(3;0;0), z (qui mène à un nœud B) et z (qui mène à un nœud C). Du nœud B partent deux
branches : x (4;2;4) et y (2;3;1). Du point C part la branche u (1;0;3) et une autre branche qui
mène à un nœud A, duquel part une branche x' (3;2;2), et une autre qui mène à un point B. De ce
deuxième point B part une branche y' (2;3;1), et une autre qui mène à un deuxième point C. De
ce deuxième point C part une branche u' (5;5;5), et une autre branche w qui mène à un gain
(3;2;9). Si on est C (premier point), on sait qu'on peut obtenir 4n si on joue z, que A joue y et que
B joue x mais on sait que B ne vas pas jouer x. Si c'est A qui commence, la solution du jeu est
(3;0;0). Dans ce jeu il y a deux règles qui ne sont jamais violées : il y a au moins une action (donc
une flèche) qui part de chaque nœud, et au plus une flèche qui y aboutit. Conséquence de cette
règle, il n'y a, à partir d'un point, qu'une seule manière de revenir à l'origine, ce qui permet les
anticipations. Donc il y a une seule manière de construire la « backward induction » (= induction
à rebours). Lorsqu’on se déplace à contre-courant (= dans le sens contraire des flèches), on ne
peut pas revenir à l'origine. Une arborescence mathématique, c'est une figure dont les
ramifications ne se coupent jamais et ne se comportement pas en boucle.
7.2.1) Définition
Voir Un homme d'exception (film sur Nash). Un équilibre de Nash c'est, selon la définition écrite
par John Nash en 1950 dans sa thèse, « l'ensemble des stratégies, une par joueur, telles
qu'aucun joueur ne peut obtenir de gains supplémentaires en changeant unilatéralement de
stratégie, de sorte qu'aucun des joueurs n'a de regrets en découvrant ce que les autres ont joué
». Dans un équilibre de Nash, personne n'a de regrets.
7.2.2) Stratégies dominantes et stratégies dominées
B
A B1 B2 B3
A1 (12 ; 6) (8 ; 4) (16 ; 3)
A2 (10 ; 4) (8 ; 9) (13 ; 7)
(A1 ; B1) est un équilibre de Nash : B n'a pas de regrets en jouant B1. On sait que A a intérêt à
jouer A1 car à tous les coups, il gagne. Pour maximiser ses gains quand A joue A1 B joue B1.
(B2 ; A2) est aussi un équilibre de Nash (au sens faible cette fois). B a un intérêt à jouer B2, car il
peut gagner. A a alors la possibilité de jouer indifféremment A1 et A2 dans cette hypothèse. Il y a
deux équilibres de Nash formellement, mais si on réfléchit, A2 est faiblement dominé (A1 est
faiblement dominant), de même que B3 est faiblement dominé, et donc, dans ce cade pluriel
d'équilibres, la solution optimale c'est (12 ; 6). Melvin Dresher et Merrill Flood formulent le
dilemme du prisonnier. Tucker en donne la forme originale suivante :
B
A Dénonce Ne dénonce pas
L'intérêt de cet exemple est le suivant. L'équilibre de Nash est (Dénonce ; Dénonce) : les deux
joueurs n'ont pas de regrets lorsqu'ils découvrent la stratégie de l'autre. L'optimum de Pareto est
(Ne dénonce pas ; Ne dénonce pas).
Femme
Homme Foot Ballet
Foot (5 ; 4) (2 ; 2)
Ballet (-1 ; -1) (4 ; 5)
Les deux équilibres de Nash, c'est (Foot ; Foot) et (Ballet ; Ballet). La première solution, c'est de
faire intervenir un autre élément, qui est la « Nature » (le hasard par exemple, ou on se fonde sur
la météo pour faire son choix). Deuxième manière de se coordonner, c'est la tradition (convention
sociale). Le point focal est un élément que les deux joueurs connaissent et dont ils vont se servir
pour se coordonner. Ce n'est pas la Nature, ce n'est pas du hasard, c'est une référence que les
deux joueurs ont. (Le hasard comme la tradition sont des points focaux. )
Exemple des « matching pennies » : On lance une pièce. Si on joue pile, et que l'autre joue face,
l'autre prend les deux pièces. Si on joue face, on garde les deux pièces. C'est un jeu à somme
nulle.
Joueur 1
Joueur 2 Pile (β) Face (1 - β)
Là il n'y a pas d'équilibre de Nash (en stratégie pure). Que fait-on alors ? On va donc introduire
des probabilités : cela veut dire qu'on recherche la probabilité α pour que le joueur 1 joue pile et
la probabilité β pour que le joueur 2 joue pile. Si le joueur 2 joue pile, le joueur 1 a une probabilité
β de gagner 1, et une probabilité (1 - β) de perdre la pièce. Son espérance de gain est de β x 1 +
(-1) x (1 - β) = 2 x β - 1. Si le joueur 2 joue face, l’espérance de gain du joueur 1 est de (-1) β + (1
- β) x 1 = 1 - 2β. On résout 1 - 2β = 2β - 1, ce qui implique que β= 1/2, et donc α
= ½ (Moi : Il y a donc un équilibre de Nash tel que β = α = ½.).
Lorsqu'il n'y a pas d'équilibre de Nash, on utilise des stratégies mixtes (par opposition aux
stratégies pures). Mixte, cela veut dire qu'aucun des joueurs ne peut améliorer ses gains en
choisissant une autre stratégie car l'autre joueur a aussi choisi une stratégie mixte. Sur la base de
cet équilibre de Nash, on tire le théorème de Nash : tout jeu admet au moins un équilibre de
Nash, éventuellement en stratégie mixte .
1
2 A1 (P = 0,5) B1 (P= 0,5)
Pour le joueur 2 : S'il joue A2, son espérance de gain est 0,5 x 3 + 0,5 x 1 = 2. S'il joue B2, son
espérance de gain est 0,5 x 0 + 0,5 x 4 = 2. Le joueur 2 est indifférent. Mais comme il a
connaissance de tous ses calculs, il sait que le joueur va jouer B1. Donc, la solution, en stratégie
mixte est que l'équilibre est (B2, B1).
7.3) Rationalité et coordination en théorie des jeux : quelques exemples de jeux paradigmatiques
Jeux de mille-pattes :
Ce jeu est construit de manière à ce qu'un joueur sache que s'il continue, son gain sera inférieur,
au coup suivant de 1 à son coup présent, et que le gain de l'autre augmentera de 2. On est là
dans le cadre d'une « backward induction » (induction à rebours). (Voir photo d’Etienne en-
dessous)
On observe que le gain augmente avec le nombre de coups. La logique est la même que pour le
dilemme des prisonniers : on est en jeu non coopératif (on ne fait pas confiance à l'autre). La
seule solution sûre pour A est de s'arrêter à 1. Le seul équilibre de Nash est donc (1 ; 1). En
effet, à la fin, A a 999 et B aussi, et A sait que B va préférer avoir 1001 que 1000 : donc A a
intérêt à s'arrêter à (1;1). Cela démontre l'absurdité du système : alors qu'ils pourraient atteindre
un équilibre Pareto-Optimal à (1000;1000), alors qu'ils préfèrent (1;1). Ce jeu a été formalisé par
Rubinstein, en 1999.
Le jeu des cerfs : C'est un exemple emprunté à Jean-Jacques Rousseau. C'est un jeu sur la
question de la coopération. On a deux chasseurs. Soit ils coopèrent et attrapent un gros cerf, ou
bien ils partent de leur côté et rapportent chacun un lapin. A-t-on intérêt à coopérer pour ramener
un gros gibier ? Voici la matrice des gains :
Chasseur 1 Cerf Lièvre
Chasseur 2
Cerf (1 ; 1) (0 ; 1/3)
Lièvre (1/3 ; 0) (1/3 ; 1/3)
(1 ; 1) est un équilibre de Nash. (1/3 ; 1/3) en est un deuxième . On voit, et cela s'applique au
paradoxe de Libenstein (Internet : Le producteur est profondément mû par la maximisation, c’est-
à-dire faire des profits intéressants tout en réduisant les coûts. Ainsi, maximisation et
minimisation sont étroitement liées.), que la coopération donne le meilleur équilibre de Nash, et la
sortie simultanée des deux joueurs donne un deuxième équilibre de Nash, évidemment moins
intéressant que le premier.
Le jeu du bien public : Il y a là quatre joueurs qui ne communiquent pas entre eux. Chacun reçoit
au début 10 jetons de deux euros. Il a le choix entre garder les dix jetons, ou les mettre dans une
cagnotte commune, et à ce moment les gains sont alors de 1 euro par jeton pour chaque joueur.
On a deux cas extrêmes : soit tout le monde est altruiste (gain de 40 euros pour tout le monde),
soit tout le monde est égoïste (gain de 20 euros pour tout le monde). Toutefois, pour celui qui a
une stratégie égoïste en espérant que les autres seront tous altruistes, a un gain espéré de 50.
Depuis les années 1970, les modèles sont utilisés pour étudier la compétition entre les firmes
(duopole ou oligopole). La théorie des jeux permet d'explorer la question des barrières à
l'entrée, qui peuvent être constituée par de obstacles stratégiques : une firme sait que si elle
entre, les insiders vont prendre des mesures de rétorsion de sorte que l'entrant ne pourra pas
survivre. Deuxième grand domaine d'application, la question de la crédibilité d'une menace. Si on
a un choix entre coopérer entre deux firmes, on a dans la coopération. Ces questions sont
centrales en finances et en économie industrielle.
Exercice : Trois firmes produisent trois biens, mais de qualité différente. Si la concurrence se fait
sur le même secteur de qualité, elle est plus forte que si elle se fait sur des secteurs de qualité
différente.
1) La case (Moyen ; Bon) est un équilibre de Nash. Il n'y a qu'un seul équilibre de Nash.
2) (60 ; 70)
3) C'est l'entreprise 2
4) Au moins 10 de manière à ce que l'autre gagne 70. L'optimum de Pareto est ici (60 ; 70).
Ce tournant empirique qu'a pris la théorie économique depuis la Seconde Guerre Mondiale
est extrêmement important aujourd'hui. Il a débloqué l'idée selon laquelle on ne peut pas
expérimenter en sciences humaines. L'idée est que si l'on prend un dilemme du prisonnier, il est
par exemple impossible de l'expérimenter en vrai. Toutefois commencent certaines
expérimentations : cela commence avec une théorie importante, extraite de la Theory of Games
and Economics Behvior de 1944, qui est la théorie d'espérance d'utilité. Il y a deux théories du
choix : une théorie du choix en environnement certain, et une théorie du choix en environnement
incertain, soit dans une situation de risque. Cette situation de risque peut être représentée sous
la forme d'une loterie (intervention du hasard). Une loterie, c'est une distribution de probabilité sur
un ensemble de résultats. Qu'est-ce que l'espérance de gain de cette loterie ?
Exemple : Soit une urne qui a une boule blanche et une boule noire. Si on tire la boule blanche,
on gagne 100 euros et si on tire la boule noire on ne gagne rien. L'espérance de gain est donc de
50 euros. Un individu qui aime le risque sera prêt à mettre plus de 50 euros pour participer
à la loterie. 50 est l'espérance de gain objective. C'est ensuite, selon son amour ou son aversion
au risque, que les joueurs seront prêts à jouer ou à ne pas jouer. Introduisons maintenant
l'espérance d'utilité de la loterie. Cette espérance d'utilité de la loterie est pour ce cas-là 1/2 x
Utilité (100 euros) + 1/2 x Utilité (0 euros). On retombe toujours sur 50 donc. Toutefois, cela peut
être plus compliqué. Imaginons maintenant que la fonction d'utilité de l'agent soit égale à
racine(X). Donc l'espérance d'utilité du gain de la loterie est maintenant égale à 1/2 x 10 + 1/2 x 0
= 5. Cela veut dire que dans ce cas, le gain certain est de 25 (100/5 ?) . Ce raisonnement est la
base de la théorie de Von Neumann et de Morgenstern. Combien on accepte de payer pour
participer à la loterie ? Un agent « normal » acceptera de payer jusqu'à 25 pour participer à la
loterie. Si l'agent paye 10 euros par exemple, il a un gain ex-ante (c'est-à-dire qu'il a déjà gagné
15 euros d'une certaine manière). Cette théorie de l'espérance d'utilité
repose sur deux axiomes notamment (elle va plus loin que la simple utilisation des probabilités
en introduisant une fonction d’utilité, et se distingue donc de l’espérance de gain.) :
- Un axiome d'indépendance : Si une loterie X est préférée à une loterie Y alors la loterie pX + (1-
p)Z est préférée à la loterie p(Y) + (1-p)Z (Si on préfère de la vanille à la de la fraise, on préfère
de la vanille avec un peu de chocolat à de la fraise avec un peu de chocolat).
- Un axiome de transitivité : Si une loterie X est préférée à une loterie Y et que une loterie Y est
préférée à une loterie Z, alors la loterie X est préférée à la loterie Z.
La « pospect theory » consiste à introduire d'une part les émotions dans l'analyse économique, et
à prendre en compte les effets de cadrage d'autre part. Les effets de cadrage c'est l'influence de
la manière dont on présente un problème à un individu, et qui fait que certains sont plus
réticents/enclins à perdre/gagner de l'argent. En 2002, on remet un prix Nobel à Kahneman et
Tversky (à titre posthume). Ils disent que les individus utilisent des raccourcis cognitifs, qu'ils
appellent des heuristiques. Le programme de la prospect theory est parfois appelé heuristiques et
biais (« heuristics and biases »).
Les causes centrales de ces heuristiques et de ces biais sont doubles : effets de cadrage et
capacités cognitives. Les heuristiques ce sont des règles qui conduisent à des approximations
efficaces pour simplifier les problèmes. Les biais désignent la distorsion entre la façon dont nous
devons raisonner pour assurer la validité du raisonnement et la réalité. Les heuristiques
statistiques, ce serait un peu comme les probabilités statistiques puisqu'on tire des règles
d'expériences passées. Il y a aussi les heuristiques non statistiques. Les heuristiques non
statistiques reflètent l'incapacité des individus (phrase prise sur une meuf pas attentive devant, à
vérifier !). L'heuristique non statistique traduit le fait que dans la vraie vie les gens sont plutôt
réticents à se baser sur des statistiques pour choisir leurs comportements : ils peuvent se baser
sur leur envie de boire du coca, plutôt que de suivre des statistiques qui pointent la mauvaise
influence du coca sur la santé. Quelques exemples d'heuristiques pour illustrer cette définition :
une heuristique de représentativité (c'est une règle qui consiste à estimer la probabilité
d'appartenance d'un objet à une classe d'objet à partir de sa ressemblance avec un cas-type ; si
on a toujours eu des profs très ennuyeux, quand on voit arriver un prof, on se dit qu'il est
ennuyeux), une heuristique de disponibilité (on juge la fréquence ou la probabilité d'un
événement en fonction de la capacité qu'ont les individus à se remémorer l'événement ; on se
base ici sur les informations immédiatement disponibles ), un heuristique d'ancrage et
d'ajustement (l'ancre, c'est l'information pertinente à travers laquelle se fait le choix et donc le
jugement), heuristique de simulation (utilisée dans le raisonnement contre-factuel : c'est le fait de
considérer le dénouement probable d'une situation comme celui qui aura réellement lieu),
l'heuristique d'effort (lorsque l'obtention nécessite un effort, cet objet aura plus de valeur une
fois obtenu), l'heuristique de rareté (la valeur d'un bien augmente avec sa rareté), l'heuristique de
négativité (une information positive a plus de poids qu'une information négative : voir « framing
live, framing death »).
Exemple d'heuristique d'ancrage et d'ajustement : On fait tourner une roue de la fortune avec
deux ancres possibles : 10% et 65%. Puis on demande si ce pourcentage est inférieur ou
supérieur aux nations africaines représentées aux USA. Puis on demande d'estimer le
pourcentage de nations africaines effectivement représentées aux USA. Si l'ancre est de 10%,
l'estimation finale est de 25%. Si l'ancre est de 65%, l'estimation finale est de 45%. Les réactions
expérimentales des individus partent de cet ancrage truqué.
Exemple d'heuristique de simulation : On est plus frustré si on rate un avion à cinq minutes près,
que si on le rate à deux heures près. Dans cette heuristique, on se fait le film de ce qu'il se serait
passé si le dénouement avait eu lieu.
Nous avons tous des représentations sur le monde, qui sont médiées par les heuristiques. Thaler
et Sunstein vont s'appuyer sur le programme de Kahneman et Tversky pour essayer d'inventer
des politiques publiques qui orientent les comportements des agents tout en restant libéral au
sens anglo-saxon du terme (sans tomber dans le paternalisme). Obama a une commission sur
les « nudges ». La question est simple : peut-on établir un comportement de paternalisme libéral
? Le paternalisme c'est la doctrine qui justifie qu'il est moralement légitime pour un agent privé ou
public de décider à la place d'un autre agent pour son propre bien. Le problème du paternalisme
c'est que ce n'est pas libéral. Dans nos pays, on peut considérer qu'il est normal qu'on interdise
aux gens de boire trop, de se droguer, etc. Dans la logique paternaliste, il est justifié que la
puissance publique oriente les choix. La question du paternalisme libéral introduit l'idée qu'il faut
analyser les individus tels qu'ils sont, c'est-à-dire non rationnels, mais soumis à des émotions. La
rationalité est limitée, mais la volonté des individus aussi (on parle de « bounded power »). L'idée
des heuristiques c'est de renforcer les biais cognitifs pour amener des agents à se comporter
différemment. La limitation de la volonté individuelle est un problème central dans les théories du
« nudge ». Les choix intertemporels sont un autre problème. Dans l'ouvrage Nudge de Sunstein
et Thaler, l'exemple est le suivant : un gestionnaire de cafétéria scolaire se rend compte que la
manière dont sont agencés les repas amène les élèves à consommer de manière très différente
leur plat. Si on présente joliment les salades, et dans des boîtes pas stylées la junk food, ça aura
un impact. Plusieurs possibilités de nudges :
- Débiaising : Il s'agit de rendre les choix individuels plus rationnels en fournissant aux
individus le moyen d'être conscient des heuristiques et des biais.
- L'architecture de choix : C'est la construction du contexte dans lequel se fait la décision.
- Les contraintes inter-temporelles : On cherche à limiter les incohérences temporelles ( les
femmes battues préfèrent au bout d’un certain moment rentrer au domicile conjugal que
porter plaine : c’est une préférence incohérente qui existe car au gré du temps les
préférences changent) et donc à limiter les options disponibles dans le futur.
Retour sur le cours : L'heuristique c'est un peu comme le « framing », c'est la manière dont le
choix est encadré. Le cadre de ces heuristiques, c'est la rationalité limitée. Dans la vie
quotidienne, on raisonne beaucoup avec des heuristiques. Une heuristique statistique, c'est que
statistiquement, une cause alpha donne un effet bêta : l'idée est que si statistiquement on a une
meilleure note quand on prépare un examen, que quand on ne le prépare pas, on va donc
préparer son examen. Ce qui est intéressant dans les heuristiques et qui conduit aux nudges,
c'est l'idée que la manière de présenter les choix peut influencer les décisions des agents, sans
les obliger. L'utilisation d'heuristiques veut dire qu'on reste dans un système libéral. Les nudges,
c'est la modulation de l'impact des heuristiques. La question du paternalisme libéral est centrale.
Dans les pays anglo-saxons, l'idée d'interdiction de fumer par exemple, semble impossible. Ce
paternalisme doit être faible, et non intrusif (ne pas entrer de manière décisif dans la prise de
décision des agents). Jamais la puissance publique ne doit se substituer au choix des agents.
Par ailleurs, l'action de la puissance publique doit pouvoir être efficace, doit pouvoir accroître ce
qui est bon pour les agents, en développant l'architecture de choix, pour permettre aux agents
d'avoir des performances conformes à leur bien-être objectif. Le troisième caractère, c'est que le
paternalisme libéral est inévitable. Sur ce qui est nudging, il y a eu tout un débat dans le monde
anglo-saxon de savoir s'il s'agissait e libéralisme ou de paternalisme.
C'est une procédure rationnelle de choix lorsqu’on a une information privée qui n'est pas
certaine et une information publique qui n'est pas non plus certaine. Disons qu'on est dans une
ville de vacances que l'on ne connaît pas. Avant de partir, on regarde le trajet sur une carte. En
partant, on a oublié la carte. On se souvient qu'on avait vu que la route A était plus rapide pour
aller à la plage, mais on voit les gens prendre la route B. Du fait de l'incertitude sur la lecture de la
carte et du comportement des gens, il est rationnel pour les gens de prendre la route B.
Supposons que l'information privée ait une probabilité d'être vraie de 51%. La première voiture va
prendre la route B, tout le monde va le suivre, et don l'erreur va être de 49%. Lorsque
l'information privée n'est pas si certaine, choisir une informatique publique, encore moins
certaine, mais conforté par le comportement des gens, est un choix rationnel . La cascade, c'est le
choix rationnel entre une information privée (le jugement personnel), et une information publique
(ce qu'on observe). C'est un choix objectif. Ce principe des cascades informationnelles est le
même principe que les nudges, les framing, etc. Comment, dans une situation d'information
limitée, d'incertitude, on a des solutions liées à des heuristiques, ou encore des nudges, voire à
un mimétisme informationnel, qui suppose que puisqu'on ne sait pas, on suppose que les autres
individus savent. Keynes dit qu'il vaut mieux avoir tort avec tout le monde, que raison tout seul
(sur un marché financier). L'étude des cascades informationnelles permet d'analyser les
mouvements spéculatifs. Sunstein a analysé la bulle américaine liée au prix de l'immobilier. Il a
dit que c'est un système de cascade informationnelle : on veut vendre une maison, on pense
qu'elle vaut tant, et que le prix de l'immobilier augmente, donc on vend plus cher que sa valeur, et
on contribue à faire augmenter le prix de l'immobilier, jusqu'à ce que la bulle explose. Cet écart
entre l'information privée et l'information collective créé une cascade informationnelle qui
provoque des bulles spéculatives. C'est une littérature relativement récente. Le premier grand
papier, nous le devons à Ho Lee, qui publie dans la revue Economics and Statistics un article sur
les avalanches informationnelles. Une cascade informationnelle apparaît lorsqu'il est optimal pour
un individu ayant observé les actions de ceux qui l'ont précédé de copier le comportement de ses
prédécesseurs, quelle que soit sa propre information. C'est comme ça que se construit une
cascade.
Retour sur le cours : Les heuristiques créent les biais. Le biais, c'est la différence entre un
comportement rationnel, tel que le décrit la théorie, et le comportement effectif, en partie façonné
par d'autres formes de rationalité). Comme il y a toujours des biais, l'une des manières de
modifier le comportement est de « débiaiser » les comportements. Le « debiaising » consiste à
expliquer cet écart. Le « framing », c'est la manière de présenter un problème : selon cette
manière, le choix en sera influencé. Les heuristiques c'est ce qu'on pratique soi-même tout le
temps, elles ne sont pas fabriquées par les autres. Le paternalisme pose les limites au biais.
« Framing live/framing death » : c'est l'histoire du choix où on demande aux gens de choisir entre
sauver 200 personnes sur 600, ou de ne pas pouvoir en sauver 400. Le paternalisme a plusieurs
formes : débiaisement, architecture de choix. Le paternalisme, ce n'est pas du marketing. La loi
Evain est un exemple : on interdit la publicité sur le tabac. Par contre l'interdiction de fumer sur
les lieux publics, en revanche, ce n'est pas du paternalisme.)
Questions d'ordre général sur le cours : (Pour le partiel, les questions possibles correspondent
aux sous-titres. En fait, la prof attend de mettre en lien les notions, comme par exemple la
typologie de Weber et la typologie des comportements affectifs, etc.).
La neuro-économie :
La neuro-économie et les identités multiples (« multiple selves ») sont deux domaines qui
bougent beaucoup en ce moment. La neuro-économie s’est principalement développée aux USA,
et un peu en Suisse. C'est une sorte de 2 ème étape de l'économie comportementale, en reprenant
le modèle de Kahneman et Tvsersky qui intégrait des émotions au modèle, dont la conscience
permet de revenir à un modèle rationnel. L'enjeu c'est comment modifier la prise de décision des
agents (neuro-marketing), soit apprendre aux agents à ne pas se faire avoir par tout ce qui est «
framing ». Il y a une sorte de deuxième étape qui consiste
à aller regarder à partir d'instruments techniques des neurosciences d'aller regarder quels sont
les morceaux du cerveau qui vont s'activer dans un contexte de prise de décision. On se fonde
sur l'IRM fonctionnelle. C'est un instrument d'imagerie médicale. On observe le lien entre les
zones neurologiques et la prise de décision. L'idée d'utiliser des expérimentations
neurophysiologiques va être appliquée à partir des années 2000, surtout depuis 2010, par un
certain nombre d'auteurs comme Colin Camerer, Gigerenzer. Le professeur renvoie notamment
à un livre de Damasio L'erreur de Descartes (Internet : Descartes disait qu’être rationnel, c’était
se couper de ses émotions). Il y a aussi les travaux de Fehr en Suisse.
Les domaines d'application se situent surtout dans la théorie pure, mais aussi un peu en gestion
(choix inter temporels, comportements altruistes, marketing : exemple du « parfum le plus cher du
monde »).
Il y a deux théories ici. La première vient de Georges Akerlof. C'est celui qui a essayé la théorie
de l'altruisme dans la relation professionnelle. Avec Edith Kanton, il publie un livre sur les
identités multiples. Les identités multiples renvoie à l'idée que l'agent rationnel n'est pas un, mais
qu'il est multiple. L'idée est que l'individu rationnel qui fait des choix n'aura pas les mêmes
préférences et la même fonction d'utilité dans le temps : on est donc dans le cadre d'une
diachronie (et non d'une synchronie). Il y a une théorie plus institutionnelle, qui est celle de John
Dario, qui dit que l'identité n'est pas la même partout sur terre.
Dans l'article, Hardin développe l'idée selon laquelle la tragédie des biens communs
conduirait les agents à surexploiter les biens que les agents partageraient. Cette question a
été reprise par Ostrom, qui définit ce qu'est un bien commun, et réfléchit à cette tragédie. La
question est d'opposer l'intérêt individuel à l'intérêt collectif lorsqu'il y a un bien commun.
Le résultat est qu'on aboutit à une surexploitation des biens. La question du bien commun porte
sur un bien dont on ne peut pas attribuer de droit de propriété. Par exemple, il y a l'océan : il y a
des bateaux qui déversent du pétrole, mais il n'y a pas de droit de propriété. Un bien rival est un
bien dont les droits de propriété ne sont pas définis. Ostrom distingue 3 solutions :
- Elle reprend l'idée de Pigou, qui propose de nationaliser les biens communs pour les
règlementer. Il y aurait alors des taxes pigouviennes pour définir l'accès à la ressource.
- La privatisation des biens : Par exemple, le champ commun serait géré par le maire du village,
qui distribuerait les droits de propriété entre les habitants qui recevraient chacun une part.
- Un arrangement institutionnel : Cela conduirait à gérer collectivement les écosystèmes.
Les mécanismes d'incitation : Le principal sait que dans certains cas, l'agent a intérêt à mentir. Il
lui propose donc la rémunération qu'il obtiendrait à ne pas mentir. Pour remédier à cela, le
principal préfère que l'agent lui révèle son mensonge, et lui dire qu'il le paye pareil que s'il avait
menti, pour détecter le mensonge. Le contrat incitatif utilise des instruments économiques.
La typologie des trans-actions : Les « rationing transactions » c'est lorsque qu'une autorité
hiérarchique (institution plutôt ?) donne des informations : on n'pas le droit de faire travailler un
enfant de onze ans.
Théorie des jeux : Le résultat vient de son choix, mais aussi du choix du partenaire. C'est ça le
principe des interactions stratégiques. L'équilibre de Nash c'est un ou plusieurs points où les
joueurs. Il y a deux cas de figure. En stratégie pure, il n'y a pas d'équilibre de Nash : il faut donc
passer par les stratégies mixtes.
Le paradoxe d'Allais : C'est lui qui monte que dans un colloque une expérience va remettre en
question l'un des deux axiomes de l'utilité espérée forgée par Savage et Von Neumann. Le choix
s'expliquerait par des émotions, des heuristiques, donc des manières de poser le problème. Les
agents peuvent avoir des émotions qui font qu'ils choisissent autre chose que ce que la théorie
de l'utilité espérée impliquait. Cela conduit à la théorie des heuristiques de Kahneman et Tversky,
et celle du « nudge » (en français, le coup de pouce).
Exemple de « nudge » : A l'aéroport d'Amsterdam, il y avait des frais de nettoyage pour les
urinoirs. La solution a consisté à mettre une mouche dans l'urinoir. Une stratégie dominée est une
stratégie toujours perdante (ce sont des stratégies strictement dominantes et dominées). Une
stratégie faiblement dominante, c'est que la stratégie puisse être dominante comme perdante.