0% ont trouvé ce document utile (0 vote)
274 vues43 pages

Rationalité et Théories Économiques

Ce document traite de la rationalité et de l'organisation. Il présente les concepts clés de rationalité limitée, de la théorie des jeux et de l'économie comportementale. Il décrit également les types purs de rationalité selon Max Weber.

Transféré par

Nolwenn Bijoura
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
274 vues43 pages

Rationalité et Théories Économiques

Ce document traite de la rationalité et de l'organisation. Il présente les concepts clés de rationalité limitée, de la théorie des jeux et de l'économie comportementale. Il décrit également les types purs de rationalité selon Max Weber.

Transféré par

Nolwenn Bijoura
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Rationalité et organisation

La matière que nous étudierons correspond à l'ancienne matière « psychosociologie ». Depuis


les années 1950, le concept de rationalité est central en économie, comme on l'a vu en
microéconomie. Par exemple, il y des modèles comme celui de la rationalité limitée. On a
formalisé la théorie des jeux, qui est souvent étudiée en L1. De même, on a le domaine de
l'économie expérimentale, qui est apparue après-guerre. Plus récent est apparue l'économie
comportementale. Tous ces dépassements de la figure de l'individu rationnel qui fait ses choix
sont utilisés par les gestionnaires. Il n'y a pas de manuel pour cette matière car nous allons parler
de théories relativement récentes. La théorie des jeux modélise ce que la microéconomie ne peut
pas formaliser, à savoir les stratégies, les anticipations. Pour une même décision, ce qu'on
appelle l'effet de cadrage a un impact important. On peut lire le manuel de Robert Ménard,
Théorie des organisations, 1ère édition. Il y a aussi un livre intitulé Economie expérimentale des
jeux de Nicolas Herbert, éditions Repères. ( Internet : En économie, la rationalité caractérise une
conduite cohérente, voire optimale, par rapports aux objectifs de l’individu. )

Introduction générale : rationalité et comportement économique

1) La place et le statut de l’hypothèse de rationalité individuelle dans la théorie économique :

Fondamentalement, c'est un statut ancien qui date d'un théoricien


nommé Thomas Hobbes, auteur du Léviathan. Il suggère qu'il est
évident qu'on n’agit pas toujours de manière rationnelle, mais que si on
ne fait pas le postulat selon lequel les individus agissent de manière
rationnelle, on ne peut pas faire une théorie de la société.
C'est par rapport à cette évidence, qui a été une évidence pendant
quatre siècles, que toutes les théories essayent de se démarquer.
Prenons la définition de la théorie économique de Lionel Robbins qui écrit en 1932 Un essai sur
la nature et la science économique : « L'économie est la science qui étudie le comportement
humain en tant que relation entre des fins et des moyens rares à usages alternatifs » . La
rationalité est un cadre théorique, abstrait, dans lequel on raisonne, à l'instar de la concurrence
pure et parfaite.

2) Wertrationalität et Zweckrationalität : les types purs de rationalité selon Max Weber

Max Weber détermine quatre types d'actions, dont la moitié est rationnelle. C'est la première
ouverture de la notion de rationalité. Max Weber ne s'intéresse qu'au comportement
socialement significatif : c’est-à-dire que s'il pleut et que les gens ouvrent un parapluie, on ne
prend pas en compte la dame japonaise qui ouvre un parapluie en plein soleil pour préserver son
teint, par exemple. Deuxième précision, ces comportements ne peuvent s'examiner qu'à travers
des types idéaux, ou des idéaux-types (figure abstraite qui résume un type pur d'activité). Sur
cette base, Max Weber distingue quatre idéaux-types :
- La « zweckrationalität » (activité rationnelle en tant que finalité, donc cela revient à la définition
de Lionel Robbins ; c'est ce qu'on appelle une action instrumentale)
- La « wertrationalität » (c'est une rationalité en valeur ; l'action sociale est déterminée par la
croyance en une valeur intrinsèque, inconditionnelle, liée à un comportement déterminé : on peut
avoir des valeurs à condition que ce soit rationnel (religion par exemple, ou morale) ; le
comportement est délibéré, comme par exemple si on porte le voile dans un pays non musulman
par choix délibéré)
Je peux être en rationalité en valeur ou en finalité. Par ex, les gens qui sont rationnelle en valeur
sont près à payer plus pour un café qui le même gout, il paie plus pour une valeur, car il choisit le
café qui a été effectué de manière avec conditions de travail plus sympas.
- L'action affective (« Affektuell ») : c'est un comportement impulsif. Ex : un enfant pleure bcp
dans un bus, et que sa mère le gifle car exténué, son geste est affectif pas réfléchi, ce n’est pas
délibéré. La prof s’est embrouille car selon elle ce n’était pas moral. Elle a aussi eu un
comportement affectif.
- Le comportement traditionnel (« traditional ») : on prend une décision en se basant sur une
tradition, sans réellement comprendre pourquoi. C'est un comportement non délibéré, comme par
exemple c’est le cas pour les femmes voilées dans les sociétés musulmanes traditionnelles. Ou
par ex, lorsque chargé de TD très jeune et étudiants hommes venant de milieu traditionnelle ne
voulaient pas se faire corriger par cette dernière car dans leur milieu n’ont pas l’habitude d’avoir
une « supérieur » femme qui est jeune et qui les corrige. Ce n’est pas un comportement
rationnel, affectif.

CHAPITRE 1 : Le statut de la théorie de la rationalité

1.1) Les définitions des « classiques »

1.1.1) Rationalité et coordination 1 : la Fable des abeilles de Bernard Mandeville

Bernard (de) Mandeville, né en 1670 à Rotterdam, et mort en 1733 en


Grande-Bretagne, écrit une fable intitulée The Grumbling hive, or knaves
turned honest. Dans cette fable, il écrit l'histoire d'une ruche d'abeilles qui
ressemble étrangement à la société humaine. Une abeille de la ruche va
dénoncer à Jupiter ce qui se passe dans la ruche, et Jupiter donne
l'honnêteté à la ruche. Le prix des denrées diminue, et la ruche est désertée par les abeilles. La
fable est republiée en 1714 sous le titre The Fable of the Bees, or Private Vices, Publick Benefits.
Le message est que dans une ruche où l'honnêteté sévit, la société est pauvre et
malheureuse, alors que dans une ruche où les individus poursuivent leurs intérêts propres, la
société est plus heureuse. On peut y voir un lien avec la théorie de la main invisible d'Adam
Smith ; c'est la première fois que l'on revendique que la recherche de l'intérêt individuel conduit à
une richesse qui dépasse la richesse religieuse, morale. Cette idée que l'intérêt individuel (qui
n'est autre que la « zweckrationalität » de tout à l'heure) conduit à la richesse de la société, est
saisie par les libéraux. Dans la fable des abeilles, c'est la première fois que l'hypothèse d'intérêt
individuel est posée dans le cadre de l'analyse du bien-être de la société.

1.1.2) Rationalité et coordination 2 : Adam Smith et la main invisible


Adam Smith théorise cela sous la forme de la théorie de la main invisible, en évoquant les
conséquences non attendues d'une action, qui maximisent le bien-être. La rationalité reste
centrale chez Smith : l'idée c’est que les individus poursuivent leur intérêt propre. Smith est le
premier à avoir cette idée qu'il développe dans ses trois principaux ouvrages : Une histoire de
l'astronomie (où il parle de la main invisible de Jupiter), une théorie des sentiments moraux, et
ses Recherches sur l'origine et les causes de l'enrichissement des nations, dans lequel
contrairement aux mercantilistes il pense que l'origine de cette richesse ce sont les biens produits
et manufacturés, et que ses causes sont le travail divisé et manufacturé. Ses idées sont que les
individus poursuivent leurs intérêts propres, et que les marchés peuvent s'autoréguler si on n'y
intervient pas, ce qui sera par la suite formulé sous la forme de la loi de l'offre et de la demande.

Il écrit : « Chaque individu ne pense qu'à son propre gain en cela que dans beaucoup de cas il
est conduit par une main invisible à remplir une fin qui n'entre nullement dans ses intentions.
Tout en ne cherchant que son intérêt personnel, il travaille souvent d'une manière bien plus
efficace pour l'intérêt de la société que s'il avait vraiment eu l'intention d'y travailler » . Cela rentre
dans toute une optique de développement des libertés caractéristique de l’époque, comme le
montrent les mémoires de Casanova. Pour Smith, la liberté dans le domaine économique est
directement liée à la richesse des sociétés.

1.1.3) Rationalité et calcul : le felicific calculus de Jeremy Bentham

Un contemporain de Smith, Jeremy Bentham (1748 - 1832) est le


fondateur de la théorie utilitariste. L'utilitarisme, c'est l'idée selon laquelle
pour expliquer les comportements des individus, il faut partir du fait qu'ils
vont chercher à maximiser leurs plaisirs, et à minimiser leurs peines.
Bentham couple le calcul des peines et des plaisirs qui est la base de sa
définition de la rationalité basée sur le principe de l'utilité individuelle au
principe du « plus grand bonheur
pour le plus grand nombre » (Internet : L’utilitarisme est fondé sur le seul critère de
l’optimisation « du plus grand bonheur pour le plus grand nombre de personnes », postulant que
le bien-être de tous est un bien pour l’ensemble des hommes. ). Pour Bentham, il y a une
harmonie artificielle des intérêts (Moi : distinction entre les harmonies faite par Elie Halévy
postérieurement) alors que pour Smith cette harmonie est naturelle. Ce qu'il y a de commun entre
Mandeville, Smith, et Bentham, c'est que dans un monde dominé par les normes religieuses, on
n'a pas à obéir à la morale, mais à être égoïste pour assurer son intérêt, et que ce comportement
garantit l'harmonie sur le marché et dans la société. Ce principe de rationalité est donc au départ
présenté comme fondateur du libéralisme. Pour Bentham, il y a quand même une limite : il y a les
activités où l'Etat ne doit pas intervenir (« non agenda »), et les activités pour lesquelles l'Etat doit
intervenir (« agenda »). Les activités « non agenda » ce sont des activités où des personnes
commercent de manière libre en discutant des prix, des quantités, et qui se mettent d'accord «
sans que ça n'embête personne ». Les autres activités sont celles où l'intervention de l'Etat est
nécessaire : Bentham a été l'un des premiers auteurs à défendre de liberté « affective » pour les
individus, et il a écrit sur l'homosexualité. En revanche, il faut protéger les gens des choses qu'ils
ne souhaitent pas. Bentham creuse une question très compliquée, encore aujourd'hui discutée
qui est celle de ce qu'est l'utilité. On distingue l'utilité ordinale de l'utilité cardinale (on exprime une
quantité à l'aide d'un étalon de mesure et le résultat est absolu). Comment Bentham procède-t-
il ? Dans le cadre d’une optique cardinale, il donne une liste extravagante de variables desquelles
les plaisirs et les peines dépendent : la durée, le caractère certain ou incertain, rapproché ou
éloigné, la fécondité (probabilité qu'une action soit suivie d'un plaisir de même nature), la pureté
(probabilité qu'une action soit suivie d'une peine opposée), extension à d'autres individus.
Bentham donne une liste des plaisirs simples et des peines simples : les plaisirs des sens,
plaisirs de la richesse, les plaisirs de la compétence, les plaisirs de la bonne entente, les plaisirs
de la renommée, les plaisirs du pouvoir, les plaisirs de la piété, les plaisirs de la bienveillance, les
plaisirs de la mémoire, les plaisirs de l'imagination, les plaisirs dépendant de l'association des
plaisirs, les plaisirs de la bonne entente, les plaisirs de la malveillance, les plaisirs de l'attente, les
plaisirs du soulagement, etc. Du côté des peines, on a les peines de la privation, les peines des
sens, les peines de la maladresse, les peines de la mauvaise réputation, les peines de
l'association des douleurs, de l'attente, etc., symétriques des plaisirs. En microéconomie, on a un
débat qui est celui de la possibilité de mesure de l'utilité. Cette liste de Bentham montre
l’impossibilité de mesurer l’utilité de manière absolue.

1.1.4) Rationalité et incertitude : Richard Cantillon

On trouve ça chez Richard Cantillon (1680 - 1734), qui est un personnage romanesque, qui
rédige en 1730 un essai sur la nature du commerce, dans lequel il fait la différence entre 3
catégories d'agents selon leur aptitude à affronter l’incertain : les rentiers (Internet : fermiers,
propriétaires), les salariés, qui ont des gages certains, et l'entrepreneur qui a des gages
incertains. (Internet : Les coûts de l’entrepreneur sont présents, et ces recettes sont futures et
incertaines. L’origine de cette incertitude, Cantillon la voit dans la confrontation perpétuelle de
l’offre et de la demande.)

Retour sur le cours : Pour résumer, pour Mandeville, il faut considérer les individus comme des
fripons, thèse qui sera reprise par Keynes. Smith dit qu'en suivant leur intérêt, les gens sont mus
par une main invisible à concourir au bien de la société qui est la conséquence non intentionnelle
d'une action intentionnelle. Bentham dit qu'il n'y a pas de main invisible mais une harmonie
artificielle : le « felicific calculus » et Cantillon associe la rationalité à la prise de risque.

1.2) Psychologie et économie à la fin du XIX ème siècle

1.2.1) Rationalité et utilité marginale décroissante : la loi de Weber-Fechner


La rationalité prend relativement un autre sens. Pour la première fois, les
économistes justifient une forme particulière de rationalité, qui est la notion
d'utilité marginale décroissante : la quantité d'utilité ajoutée par la
consommation d'une unité élémentaire est décroissante. Pour
les utilités marginales, on utilise les dérivées. La condition pour que la courbe d'offre et celle de
demande aient une trajectoire classique, c'est que l'utilité marginale soit décroissante . Deux
médecins, Weber et Fechner proposent une loi psychologique considérant à dire que l'intensité
d'une sensation (donc l'utilité en économie) est une fonction logarithmique du stimulus : plus on
mange par exemple, plus la sensation de satiété augmente, mais l'utilité décroît. On prend cette
loi pour justifier la décroissance de l'utilité marginale.

Bentham a une philosophie utilitariste : il explique le comportement des gens non pas par la
religion, la morale ou quoi que ce soit de ce genre, mais par les peines et les plaisirs. Elie Halévy
a théorisé la distinction entre les concepts d'harmonie naturelle des intérêts (mise en évidence
par Adam Smith), et d'harmonie artificielle (conceptualisées par Bentham). (Internet : Pour
Halèévy, cela signifie qu’une harmonie artificielle nécessite une législation rationnelle.) Cantillon
introduit dans la rationalité d'une catégorie d'agents la gestion des risques.

1.2.2) Vilfredo Pareto : ophélimité, préférence révélées et optimum

Marshall théorise lui l'équilibre partiel. La tradition Walras-Pareto décrit elle un équilibre
général sur tous les marchés en interaction. Pareto démontre que cet équilibre existe,
qu'il est unique et stable. Concernant l'optimum de Pareto, on n'est
pas dans une logique partielle. Là c'est un équilibre généralisé qui maximise le bien-être. Vilfredo
Pareto (1848 - 1923), ingénieur italien, succède à Walras. Il écrit un cours d'économie politique,
un manuel d'économie générale, et un traité de sociologie générale. Dans le traité de sociologie,
il s'intéresse à l'idée de plaisir. Il va passer de la notion d'utilité cardinale à une notion d'utilité
ordinale : la seule chose qui intéresse c'est de comparer les biens. A partir de ça, il va construire
des courbes d'indifférence. A l'optimum de Pareto, on ne peut pas augmenter l'utilité d'un agent
sans diminuer celle des autres. C'est le point auquel on ne peut pas accroître l'utilité ou le bien
être d'un individu sans pour autant en retirer à un autre
individu et on serait alors dans une situation de sous-optimalité. On a là une définition de la
rationalité qui est différente, car c'est une définition du bien-être en termes de bien-être collectif.
On est là dans une optique microéconomique. (Drive : C’est un point d’efficience et non d’équité.)

Démonstration analytique de l’équilibre de Pareto : (boîte d’Edgeworth, cf. drive)

On trace comme ci-contre les courbes d’iso-utilité


d’un agent, ainsi que celles d’un deuxième agent
(en retournant le graphique pour le deuxième
individu). On superpose les deux graphiques, et
les points de tangence correspondent à l’optimum
de Pareto.

1.3) Rationalité individuelle et comportements collectifs : les leçons de l'institutionnalisme

1.3.1) Thorstein Veblen et la critique de l'hypothèse de rationalité individuelle

On arrive là à la notion d'institutions. L'institutionnalisme c'est une école qui se met en place aux
Etats-Unis à la fin du XIXème siècle qui suggère que la rationalité des individus est déterminée par
des institutions. Les institutions, ce sont d'abord des habitudes de pensées pour ces auteurs
institutionnalistes, parmi lesquels on compte notamment Thorstein Veblen, John R. Commons,
Wesley C. Mitchell. La rationalité serait ainsi liée à des facteurs institutionnels. ( Internet :
Habitudes mentales et institutions ne relèvent d’aucune forme de rationalité. Les institutions sont
le résultat de l’agrégation des comportements individuels, déterminés par les habitudes
mentales, et ne résultent pas de l’hypothèse de rationalité individuelle. )

1.3.2) John R. Commons et la typologie des « trans-actions »

Commons dit qu'une transaction est une action entre deux individus, qui ne sont pas forcément
dans la même position de l'un vis-à-vis de l'autre (Internet : La transaction représente le lien
social et les relations entre individus. Elle englobe le conflit, la dépendance et l’ordre. C’est le
point stratégique où se négocient les règles des activités futures. Selon Commons, ces
transactions couvrent l’ensemble des activités analysées par la sphère économique ). Il distingue
les « bargening transaction » (transaction au sens classique du terme : on a un contrat
synallagmatique par lequel deux individus mènent leur transaction échange basique (baguette de
pain moi et boulanger) ; les individus sont sur un pied d’égalité au niveau juridique), les «
managerial transactions » (Là c'est une relation hiérarchique, : relation entre un supérieur
hiérarchique et un inférieur hiérarchique au sein d’une firme, il y a un donneur d’ordre), et les «
rationing transaction » (C'est une transaction dominée par une règlementation Trans-action est
encadrée par la loi (convention collective par ex) ex :Sup hiérarchique d’un chef et d’un ouvrier le
paie très mal et syndicat l’accuse de le payer que très peu.)
1.4) Risque et incertitude

1.4.1) Risque, incertitude et profit : les distinctions de Frank-Knight

La physique révolutionne le monde. On travaille beaucoup dessus. C’est n’est plus dieu au centre
du monde. On ne pense plus comme quand on pensait au 3 ème siècle en Europe.
Au début du XIXème siècle, Einstein révolutionne la physique avec la théorie de la relativité. Cela
amène des interrogations dans tous les domaines au sujet de l'incertitude. 2 auteurs très
importants qui vont la même année en 1921 écrire un livre sur cette question de risque et
incertitude (Knight et Keynes).
Au début du 20ième siècle, les idées de Cantillon sont reprises par Frank Knight qui en 1921 publie
Risks, Uncertainty and Profit, dans lequel il introduit une différence entre le risque et l'incertitude.
Quelle différence entre les deux termes ? L'incertitude, au sens propre, n'est pas probabilisable,
alors que le risque est probabilisable. Cela veut dire que si on arrive à un examen, on a un risque
de 2% de chance d'avoir 0 par exemple. Je peux attribuer une proba, une attente à un risque. Si
on ne se présente pas notre cours, on ne le prépare pas, on a un max de chance de se planter
c’est probabilisable.
L'incertain, c'est le « Bataclan ». On ne peut pas attribuer des nombres d’aléa à un certain
nombre de possibilité. Ex attentats 11/9, on ne peut pas vraiment planifier.
Enfin, Knight définit le profit comme la capacité à gérer le risque. ( Internet : L’entrepreneur résout
les problèmes par son jugement dans les trois situations possibles : grâce aux probabilités
objectives, aux probabilités subjectives si on ne connaît pas à l’avance les probabilités, ou
aléatoirement face à de l’incertitude.)

1.4.2) Comportement rationnel, incertitude, conventions : les définitions de Keynes

Depuis la fin du 17ème siècle on a 2 conceptions des probabilités que Keynes va venir
critiquer. Keynes publie en 1921 un Traité sur les probabilités. Dans ce traité, il va se
démarquer des probabilités dites objectives, des probabilités dites subjectives . Les probabilités
subjectives, contrairement aux probabilités objectives sont celles qui sont imaginées ou
envisagées ( Par exemple, les prévisions sur l’issue d’un match de foot relèvent des probabilités
subjectives. Ou Si on prépare un exam, on a priori d’avoir plus de la moyenne. On répète
quelque chose, je prépare l’exam et on a 17. Donc si on s’entraine/répète bon résultats ).
Proba subjective ou épistémique : ex :prendre quelque chose pour porte bonheur pendant des
exams. Au bac, j’ai pris nounours pendant l’exam mais 3 ème année de licence, on le prend plus
car on se rend compte que ce n’est pas le nounours mais le travail qui nous fait réussir.
Or Keynes dit que dans les deux cas de probas on ne sait pas ce que le futur nous réserve . He
said « We simply don’t know ». Ce n'est pas parce qu'une chose s'est produite depuis des
années qu'elle va se passer demain, après-demain. Keynes est contre l'utilisation des
mathématiques en économie. La seule manière de résoudre ça (c’est-à-dire de pallier
l’incertitude), c'est de raisonner sous forme de conventions : c'est une manière collective de
pensée qui va diriger les anticipations des agents vers un certain résultat.
Pour Keynes, au sujet du concours des beautés on n'exprime pas sa préférence, mais la
préférence dont on pense qu'elle sera commune. La rationalité dans la théorie des jeux consiste
à anticiper ce que la majorité des acteurs va faire. Voir ex

1.4.3) Incertitude et innovation : le cadre de Joseph A. Schumpeter ( pas apprendre)

Joseph Aloys Schumpeter est un grand économiste de l'innovation. Il propose une définition de
l'innovation : pour lui c’est ce qui permet de passer d'une analyse statique à une analyse
dynamique, donc économique. L'innovation, c'est le produit du risque mis en œuvre par
l'entrepreneur pour mettre en œuvre une invention et la traduire dans le processus
économique. Elle ne répond pas à une demande du consommateur, mais elle l'éduque en
révélant une demande virtuelle. Il faut que l'entrepreneur qui innove soit dans une position dans
laquelle il éduque le consommateur. Si elle fonctionne, alors il y a deux conséquences : il y a un
profit d'innovation, qui est un profit de monopole, qui sera ensuite érodé par la concurrence, et
l'innovation est reprise en grappes d'innovation, et entraîne un phénomène de « destruction
créatrice » (à chaque innovation dans une branche, il y a des firmes entières ou des branches
d'activités qui seront détruites). Pour Schumpeter, la rationalité de l'entrepreneur consiste à
prendre un risque, innover, et assumer les conséquences de son innovation par un profit de
monopole.

CHAPITRE 2 : Rationalité limitée et incertitude

On a différentes définitions de la rationalité dont la principale est celle de la microéconomie, qui


est la définition standard.

2.1) La rationalité limitée


2.1.1) La critique du modèle microéconomique de rationalité et les définitions de Herbert A.
Simon
Compléter avec ce que j’ai écrit
A partir du milieu du XX ème siècle, au lendemain de la 2 nd guerre
mondiale, cette notion de rationalité commence à être interrogée.
Simon (scientifique des ordinateur) a travaillé sur les sciences
cognitives, et se penche sur les fondements de la théorie de la
décision notamment dans son ouvrage qu’il publie sous le nom
Administrative Behaviour . Il dit que l'idée de choix rationnel est une
ineptie (absurde). Ce qu'il met en avant dans un premier temps
c'est qu'il existe des contraintes qui empêchent les individus d'être rationnels au sens de la
rationalité standard. Ces contraintes sont de plusieurs natures. Elles dépendent soit de
l'environnement (par exemple, l'information n'est jamais parfaite, il y a une asymétrie d’info et a
un coût) et elle peuvent provenir des capacités cognitives (du point de vue du fonctionnement du
cerveau), pouvant porter sur l'incertitude relative aux conséquences futures sur les choix
présents, soit de la comparaison entre les choix présents et futurs (nos choix évoluent dans le
temps) Dès 1954, il indique donc qu'il faut considérer la rationalité comme étant limitée («
bounded rationality ») : cela exprime l'idée que les capacités cognitives des agents sont limitées.
Cette hypothèse de rationalité limitée sera essentielle dans ce cours. Selon les domaines, notre
rationalité est plus ou moins large.

Simon propose une deuxième forme de rationalité limitée. Elle porte sur la notion de rationalité
procédurale. C'est une conséquence de la rationalité limitée qui met l'accent sur le fait que les
choix peuvent changer au cours de la procédure de choix. Si on veut acheter une voiture rouge,
on va voir les diff modèle et on trouve voiture bleu qui est trop belle, donc au cours de la
procédure on a changé de choix car coup de cœur pour le bleu et qui n’avait rien avoir avec le
choix de base. Ainsi, cela veut dire que selon le délai de choix dont on dispose, les préférences
changent au cours de la procédure de choix. Cette procédure, Simon l'appelle du
« satisficing ». Le choix n'est pas optimal, mais il est satisfaisant car le temps de la procédure de
choix est limité. Enfin, Simon travaille avec James March

2.1.2) La typologie de James March

Le co-auteur de Simon s'appelle James March. Il prolonge la réflexion de Simon en proposant


une typologie des modèles de rationalité. Il fait une synthèse des types de rationalité de Simon
dans un article. Cette typologie des modèles de rationalité est intéressante car elle permet de voir
la complexité de la notion de rationalité. Il distingue quatre types de rationalité délibérée,
consciente, qui concernent les choix conscients des individus, et trois types de rationalité, qu'il
qualifie de systémiques, ou de non intentionnelles.

Les types de rationalité contrôlée : Tout d’abord, il y a la rationalité substantive : la substance du


comportement éco est d’être rationnel. En outre, on trouve la rationalité limitée au sens de Simon
(limitée par les compétences cognitives des humains. On ne pas tout savoir/ faire. Ensuite, il y a
la rationalité contextuelle (chaque choix d'un agent économique est fait dans un contexte de
quantité d'autres activités : le choix d'un ordinateur n'est pas le même lorsqu'on fait plusieurs
activités à la fois, Ex : si on tombe amoureux de quelqu’un et qu’on passe le diner avec
les beaux-parents et que dans la vie courante on est assez vulgaire genre on parle mal, on va
éviter de parler comme ca avec la belle famille. Il y a donc une rationalité contextuelle. On adapte
son comportement. Est la rationalité que le contexte nous impose Il y a plein de choses
que l’on fait avec ses potes mais pas devant belle-famille par ex.), puis la rationalité procédurale
(au cours de la procédure de choix, les préférences varient), la rationalité des jeux (elle suppose
un système d'interactions stratégiques : dans une partie de chi fu mi, aucune règle rationnelle ne
nous dit de jouer pierre, plutôt que feuille ou ciseau).
Les types de rationalité systémiques : Expliquées du point de vue du contexte d'ensemble dans
laquelle la décision est prise, et non du point de vue de l'individu, on a la rationalité d'adaptation
collective (prise de décision selon l'expérience collective de la bonne manière de faire ; il y a un
apprentissage collectif), rationalité sélectionnée (une institution sélectionne un type de
comportement qui est efficace, et les individus vont se plier à ce type de comportement),
rationalité a posteriori (on découvre après-coup que tel comportement est rationnel : on a pu faire
un choix qui semblait étrange et après se féliciter de son choix). R aposteori= après l’evt : des evt
a poestri , le fait que je ne sais pas au moment ou je fais le choix si ct le bon choix et après je me
dis si que ct rationnel.

2.1.3) E.O. Williamson : rationalité limitée et comportement « opportuniste »

Williamson est un auteur contemporain, spécialiste de la théorie des contrats, des transactions. Il
va partir du fait que les individus ont une rationalité limitée pour explorer les conséquences
pragmatiques de cette dernière. Une rationalité limitée est liée au fait que l'information dont
dispose un individu, ainsi que sa capacité à traiter l'information, sont limitées (il y a donc
asymétrie imparfaite de l’info) ce qui ouvre la possibilité de manipuler cette information. Cette
manipulation délibérée de l'information s'appelle de l'opportunisme. En d’autre terme, c’est
la contrepartie de la rationalité limitée. Williamson distingue deux types d'opportunismes : un
opportunisme ex-ante (avant la passation du contrat), et un opportunisme ex-post (après la
passation du contrat). Cela correspond, respectivement, à une situation de sélection adverse et
d'aléa moral (vérifier en monnaie). Cette information peut porter sur n'importe quelle situation où
un individu a une information que l'autre n'a pas.
Il y a 2 conséquences de l’opportunisme :
- Ouverture d’un espace pour une manipulation(pour son propre intérêt) stratégique des
signaux d’infos. Si un agent n’a pas de savoir de l’info su un chose donné, on peut
manipuler l’info. Quand un agent n’a pas toute l’info, il y a possibilité d’opportunisme, cad
de manipulation. Si je dois embaucher un traducteur espagnol qui prétend bien parler et
que je ne parle pas, il me manipule. Cela a donc des conséquences.
- Dans un moment donné, les agents ont intérêt à se limiter à leurs savoir, à leur infos et
que de dire tout et n’importe quoi . Ex : copie , ou on commence à dire des choses
incohérentes

(En plus mais pas fait en cours)


George Akerlof a écrit un article sur les imperfections sur le marché des « lemons » qui ne sont
pas des citrons mais en fait des voitures d'occasion : le phénomène d'anti-sélection (on préfère
racheter moins cher une voiture accidentée repeinte qu'une voiture d'occasion en bon état chez
un concessionnaire). En cas d'asymétrie de l'information, le marché va sélectionner le contraire
(ou l'adverse) de ce qu'il aurait dû sélectionner. Ce n'est donc pas seulement sur le fait de tricher
sur la qualité de ce qu'on vend, mais que si c'est un tel comportement qui est généralisé, les lois
du marché sélectionnent les plus mauvais. Le coût de négociation est plus cher sur un marché
normal que sur un marché de sélection adverse. Pour l'opportunisme
ex-post, ce sont des histoires de coût de supervision. ( Moi : Williamson dit que puisque
l’information est imparfaite, l’agent saisit les opportunités selon ses intérêts. ). Bentham distingue
entre deux types de libéralismes, au moyen de la distinction entre les domaines « agenda » et les
domaines « non agenda » (lorsque les individus parviennent à s'organiser).

2.1.4) Rationalité limitée et coordination des décisions : la notion de « culture d'entreprise »

La culture d'entreprise (ou culture d'organisation) est un système qui a pour but de lutter contre la
rationalité limitée des agents et d’accroître la performance de l’organisation. Ou encore, la CE est
l’ensemble des techniques au sein d’une organisation vont permette de lutter contre la R limitée
des agents en la suppléant par des routines au niveau de l’organisation. Une routine est une
procédure codifiée souvent liée à une division du travail.

Edgar Schein, en 1985, dans Organisations, Culture, and Leadership, dit que la culture
d'organisation est la structure des valeurs de base qu'un groupe a inventé ou découvert en
apprenant à surmonter ses problèmes d'adaptation externe ou d'intégration interne. (ex : les
banques vs les banques en ligne). Cela veut dire qu'il y a des valeurs dans un groupe qui vont
permettre de parler le même langage, de connaître l'organigramme de la structure. Quand il y a
des nouveaux entrants dans un groupes, on va leur inculquer les valeurs de ce dernier ‘(avec
les WEI par ex). Deux objectifs assignés par Schein : assurer une meilleure coordination à un
moindre coût en situation de rationalité, et accroître la performance de l'organisation par un
système d'information et de communication entre les membres du groupe qui permet d'accroitre
l'efficacité de la prise de décision et la convergence des décisions. Il y a 3 éléments de cette
culture d’entreprise :

- Les symboles : C’est un ensemble d'événements qui donne un sens commun à l'action des
membres d'un groupe (Ex : avoir mention dans une université, couleur bordeaux à Harvard,
porter la légion d’honneur)
- Les rites : Ce sont des événements chargés de mettre en relief les valeurs et les
comportements considérés comme fondamentaux comme les nominations, la reconnaissance
des primes, la rétrogradation, l'apaisement des conflits, le renouvellement des formations. Ce
sont des événements de cohésion (remise des diplômes à Harvard, rites de passage et de
nomination (ex : bizutage), mettre une mention = signaux pour dire qu’on est fort.

- Les histoires : Ce sont des séquences d'événements réels ou imaginaires, destinés à construire
des schémas de cohérence et d'autorité (Ex : les débuts d'Apple ou de Facebook). Ici, il ne s'agit
pas de la question de la véracité de ces histoires.

Cette culture d'entreprise contribue à créer un vocabulaire commun, une manière de penser
commune, qui vont aider à gagner en efficacité.
2.2) Contrats et conventions

2.2.1) La définition des conventions : John Maynard Keynes, David Lewis

La notion de convention est une représentation de la coordination des agents, qui est non
contractuelle. Les conventions se sont un contrat implicite, non écrit, mais qui ferait l'objet d'un
concept particulier, celui de savoir commun (« common knowledge »). La convention, c'est ce qui
permet aux agents de se coordonner et d'anticiper que les autres vont se conformer à cette
coordination. Cette notion de convention a deux origines théoriques :

- David Hume, philosophe britannique, qui prend pour exemple les avirons, en disant que si
des bons rameurs se retrouvent ensemble, ils vont adopter un rythme semblable, sans
contrat écrit ni indication criée. Ils vont se coordonner pour aller plus vite. Donc
« convention » c ce qui conduit les individus à se coordonner selon des modes dont ils savent
que les autres vont effectuer.
- Keynes s'interroge sur la manière dont les marchés financiers fonctionnent. Quels que soient les
fondamentaux d'une action, ce qui compte ce ne sont pas les fondamentaux, ce qui compte ce
sont les intentions des agents. (Parallèle avec le chapitre sur le concours de beauté de Keynes
où les lecteurs votent pour ce qu'il pense être le choix des autres agents ; l’obj est de ne pas
choisir la plus belle des figures mais de se coordonner pour trouver la plus jolies et qui va mettre
d’accord le public)

David K. Lewis donne quant à lui une définition stricte du mot « convention ». Lewis, qui est un
des élèves de Thomas Schelling, théorise la notion de convention autour de la connaissance
commune. Pour lui, la convention est un système de règles qui a un caractère contraignant, sans
genèse intentionnelle, càd lorsqu’on s’y pli on ne réfléchis pas (entrée et sortie d’amphi) et qui
assure la coordination entre les agents. Sa définition précise est la suivante :

Une régularité R dans l'action ou dans l'action et dans la croyance est une convention au sein
d'une population P placée dans une situation récurrente S si et seulement si à l'intérieure de P
les conditions suivantes sont vérifiées ou presque vérifiées :
1) Tout le monde ou presque se conforme à R (Ex : Par exemple le placement sur l'escalator
dans le métro à Paris, contrairement à Lille selon l’anecdote de la prof )
2) Tout le monde anticipe que tout le monde ou presque se conforme à R (ex : S’arrêter au
rouge et passer au vert alors qu’au Venezuela ce n’est pas le cas, les gens ne s’arrêtent pas de
peur qu’on les agresse ou vol des choses).
3) Cette croyance selon laquelle les autres se conforment à R donne une raison bonne et
décisive de se conformer à R
4) Il y a une préférence générale pour une conformité générale à R plutôt que pour une
conformité moindre à R
5) R n'est pas la seule régularité possible qui satisfasse les deux dernières conditions : il existe
une autre régularité R' qui satisfasse ces conditions
6) Ce qui est énuméré dans les conditions 1 à 5 fait l'objet d'un « common knowledge »

Le « common knowledge » c'est le « je sais que tu sais que ».

2.2.2) Deux domaines d'application de la notion de convention : les systèmes financiers, les
relations de travail (ne pas faire)

Il y a des procédures conventionnelles qui se traduisent par les indices type Dow Jones ou
CAC40. Sur les marchés financiers, la notion de convention aide à adopter des procédures
administratives pour réguler le marché. Deuxième grande application de la notion de convention
dans le champ de l'économie, la relation de travail dans l'entreprise : on a là deux grands types
de conventions : conventions de chômage (solidarités entre salariés et entrepreneurs : on a une
convention avec les salariés consistant à dire qu’on a intérêt à garder les salariés car ils sont
efficaces ; en cas de choc exogène, l’employeur conserve son employé, celui-acceptant d’être
payé moins), et des conventions de productivité (si on embauche quelqu'un, ce quelqu'un fera le
job même s'il n'est pas surveillé : il n'y a pas d'opportunisme ex-post ; l’employeur s’engage à
payer l’employé selon sa productivité ). Concernant les conventions de chômage, l'idée porte sur
des conventions implicites entre un employeur et un employé consistant à dire que dans les deux
cas il n'y aura pas d'opportunisme ex-post (soit dès qu'il y a un choc exogène l'employeur ne
renvoie pas ses employés, et de même, les employés s'engagent à travailler bien voire à
accepter une diminution de salaire pour ne pas être au chômage).

2.2.3) Les « cités » de Luc Boltanski et Laurent Thévenot

Laurent Thévenot et Luc Boltanski ont écrit Les économies de la grandeur (1991). Ils vont
distinguer six cités dans lesquelles les conventions ne sont pas les mêmes. Ces cités sont :

- La cité domestique : Elle est gérée par des valeurs de référence telle que la famille, la tradition,
la hiérarchie, l'antériorité, l'autorité ; la dévalorisation porte sur l'impolitesse, la traîtrise, la
nouveauté ; les figures centrales sont le père, le roi, l'ancien du village ; les épreuves
archétypales sont les cérémonies familiales). La cité domestique se traduit par le côté traditionnel
de la famille. Le texte de référence est le Discours sur la servitude volontaire de Bossuet.

- La cité marchande : Pour la cité commerçante le texte de référence est le texte d'Adam Smith
Recherches sur la nature et les causes de la richesse des nations ; la valeur de référence est la
concurrence ; la valorisation porte sur l'intérêt, la valeur (?) ; la dévalorisation porte sur la
gratuité, les épreuves modèles ce sont le marché, la construction d'un contrat.
- La cité industrielle : La valeur de référence est la science, le progrès, l'efficacité ; ce qui est
dévalorisé c'est l'inefficacité, l'improductivité ; les figures ce sont l'expert, l'ingénieur, le
professionnel ; les épreuves modèles ce sont le test, la réalisation ; le texte de référence est celui
de Saint-Simon De la physiologie sociale.

- La cité inspirée : Les valeurs de référence sont l'imagination, la création, l'inspiration, l'insolite ;
les figures sont l'artiste, le génie, la fée ; les épreuves-modèles sont la création ex nihilo ; le texte
de référence est La cité de Dieu de Saint-Augustin

- La cité de l'opinion : Les valeurs de référence sont la réputation, la renommée ; on valorise la


célébrité, le succès ; on dévalorise ce qui est méconnu ; les figures sont les peoples, le chargé de
communication ; les épreuves ce sont le regard des autres ; le texte de référence est Le
Léviathan de Hobbes

- La cité civique : On valorise la démocratie, la solidarité, l'équité ; on dévalorise


l'individualisme, l'inégalité ; le texte de référence est le Contrat Social de Rousseau

Il y a des comportements différents selon les cités dans lesquelles les agents évoluent. Le
professeur Chiapello rajoute à ces six cités une prophétie des projets (Internet : Cela semble être
plutôt « cité par projets » ). Les cités de Boltanski-Thévenot peuvent être pensées en
synchronisme. Ces cités signifient qu'il y a un regroupement d'individus.

CHAPITRE 3 : Information, choix individuels et communication

Ici, l'idée c'est que l'individu ne maitrise pas toute l'information dont il pourrait disposer. Il y a
donc un problème d’asymétrie des infos.

3.1) Information et formation des prix


3.1.1) Infirmation et prix : le modèle de Friedrich Von Hayek

Von Hayek publie en 1945 un article sur le lien entre l'information et la formation des prix.
Jusque-là on a opposé l'école anglaise (équilibre partiel) à celle de Lausanne (équilibre général)
(Moi : Jusque-là, la loi du marché explique la formation des prix. ). Une troisième école, dont Von
Hayek fait partie, met l'accent sur la dimension subjective de la valeur. Pour eux, la valeur d'un
objet est liée à la demande de cet objet et non à l'offre alors que les autres mettaient l'accent sur
le coût de production. Ce que disent les Autrichiens, c'est que le prix est subjectif. Cela a pour
corollaire que l'Etat et l'intérêt général n' ont pas d'existence dans ce système. Les individus se
coordonnent. Ce que fait Hayek c'est de mettre l'information à la place du jeu de l'offre et de la
demande. L'idée est qu'avant Hayek, on avait deux manières de penser la fixation des prix :
- Sur un marché concurrentiel, les individus sont « price taker » et sur un marché de concurrence
imparfaite, les consommateurs sont « price maker » (se forment des monopsones, oligopsones).
- La tradition keynésienne, dite du « mark-up », selon laquelle l'entrepreneur fixe le prix en
ajoutant une marge au coût de production.

A partir de ce duo tradition standard/tradition keynésienne, on explique la fixation des prix. Pour Von
Hayek, l'information renseigne sur la qualité ou la quantité. Comment a-t-on ces informations ? Dans
les magasins, on fait les stocks et on a donc des informations sur la quantité. Par exemple il y avait
un parfum dont la pub disait que c'était le parfum le plus cher du monde.

3.1.2) La nature des informations : informations-prix, informations-quantités et informations-


qualité (Partie non traitée en cours, car pas intéressante selon la prof)

3.2) Information et coordination

3.2.1) Information, coûts de transaction et types de contrat : la typologie de E.O. Williamson

On retrouve les concepts de Williamson, dont on avait vu le concept d'opportunisme. Il développe


l'idée de coûts de transaction, et de lien entre les coûts de transaction et les formes de
gouvernance dans les contrats.
En 37, Coase se pose la question, pourquoi les firmes existent-elles dont les relations internes ne
sont pas marchandes? La réponse est que les firmes existent parce que sur un marché il existe
au sens propre des coûts de transaction, donc liés au fonctionnement du mâché. En d’autres
termes, les firmes existent car il y a des cas où il est plus couteux de faire appel au marché que
d’internaliser un individu. ( moins cher de recruter une secrétaire , que faire appel à une agence
d’intérim seulement que pour quelques heure).
Ces coûts peuvent être ex-ante ou ex-post, soit avant ou après la passation du contrat, par
exemple des coûts de négociation, de rédaction. En 75, il écrit « Markets and Hierarchies » ou il
reprend cette théorie des coûts de transaction qui ouvre sur une typologie des types de
contrats en fonction des coûts de transaction et de la « gouvernance » (Internet : La gouvernance
est chargée de résoudre les conflits entre firmes engagées dans une transaction, après le
contrat) de ces contrats :
- La gouvernance de marché : Cela concerne une transaction classique. ( Internet : Le désaccord
est traité devant un juge.)
- Une gouvernance trilatérale : C'est une gouvernance dans laquelle les actifs sont très
spécifiques. Un actif spécifique c'est un actif lié à un environnement ou un lieu spécifique (Ex :
quelqu'un qui cherche du travail et qui ne dispose que d'un savoir-faire spécifique comme savoir
conduire un char de guerre ou tirer au bazooka). Un contrat sur des actifs spécifiques
suppose une gouvernance trilatérale (offreur, demandeur, expert). S'il y a un conflit, on fait appel
à un expert.
- La gouvernance bilatérale : C'est une gouvernance où il y a autonomie des parties, par
exemple en cas de sous-traitance. (Internet : Pas de recours à un tiers.)
- La gouvernance unifiée : Elle porte sur les transactions au sein de la firme. Les coûts de
transaction sont moindres. Il n'y a pas vraiment d'achat et de vente. Il n'y a donc pas de
transaction à proprement parler. (Internet : Là on maîtrise l’information.)

3.2.2) Une théorie mathématique de la communication : le modèle de Shannon et Weaver

Là, on passe à quelque chose de différent, à savoir les modèles qui ont été faits après la
Seconde Guerre Mondiale, pour analyser le phénomène de la communication de masse.

Le modèle de Lasswell (1ère étape) :

Lasswell était psychologue et psychiatre. Après la 1 ère guerre mondiale, il écrit Propaganda Tech
niques in the World War. Il est à l’origine d’une théorie qu'il appelle la théorie des cinq « W » :
C'est originellement une technique de propagande durant la Première Guerre
Mondiale et il démontre que dans un contexte de guerre, la propagande et opinion public
joue rôle important. Le raisonnement c'est « Who says what to whom in which
channel with what effect ».

Le modèle de Shannon et Weaver (2ème étape) :

Le modèle va être repris après la seconde guerre mondiale par deux auteurs, Shannon et
Weaver, qui vont proposer un modèle mathématique très simple où ils vont intégrer l’idée de
brouillage.

Ils reprennent la même chose et ajoutent « le bruit ». Shannon et Weaver disent qu'à la source
d'information, qui délivre un message à un transmetteur (Ex : le micro), qui envoie un signal à
une source, qui envoie le message à un récepteur pour arriver à destination. On a un encodeur,
un message, un canal, un récepteur, un décodeur, une source. Durant la guerre, l'enjeu est
fondamental. Le bruit est appelé « brouillage ». Si on ne veut pas qu'un message arrive, on
brouille les messages.

3.2.3) Le modèle de Jacob Marschak


Il est un éminent membre de l'AEA
(Internet : American Economic
Association). Son adresse présidentielle
au Congrès de l'AEA est importante.
Dans ce discours, il adapte le schéma
de Shannon et Weaver à la circulation
de l'information de la firme. Il ajoute la
notion importante de feedback : on
demande au destinataire ses ressentis.
Marschak
part d'une fonction objectif (= objectif mis en fonction ; Ex : on veut produire des carottes
surgelées avec telle quantité de travail, telle quantité de pesticides, etc.). Pour établir cette
fonction, on prévoit des événements sur la base de recherches faites pour relever des données,
que l'on code sous forme de signaux que l'on émet, sous forme de signaux également, décodées
pour obtenir des informations, pour prendre une décision, à l'origine d'une action. Dans ce
processus, il y a des coûts (coûts de décodage, coûts d'action, coûts de codage, etc.). Troisième
élément dans ce modèle, après le feedbak : le feedback peut être positif (dans ce cas, il exacerbe
le modèle par un effet « boule de neige »), ou négatif, comme l'a suggéré Nobert Wiener. On a
des éléments variables : événements, données, signaux, informations, action.

CHAPITRE 4 : Information, incitations, performances

4.1) Les asymétries d'information

Une asymétrie d'information, c'est une situation dans laquelle un agent dispose d'une information
que l'autre n'a pas. C'est lié à l'opportunisme. C'est la capacité à jouir d'une information que
l'autre n'a pas.

4.1.1) La relation principal-agent

La relation principale agent= théorie dvp dans les année 70 par Ross Jensen Fama Arrow
(vérifier demander). Il y a relation d’agence lorsqu’un agent qu’on appelle principal ou mandant
délègue par contrat tout ou une partie de son pouvoir de décision à un autre agent qu’on appelle
agent ou mandataire. Si ma voiture se casse, et qu’un mécanicien escroc vienne, je délègue mes
pouvoirs et je me fait manipuler (car il dit que ca va couter chère alors que non)
Ainsi, un mandant délègue une partie de son pouvoir de décision à un autre agent, appelé
mandataire. (Internet : Là, on est dans le cadre de la théorie de l’agence : elle vise l’ensemble
des problèmes rencontrés lorsque l’action d’un acteur économique, le principal, dépend de
l’action ou de la nature d’un autre acteur, l’agent, sur lequel le principal est imparfaitement
informé. Il s’agit donc d’étudier les conséquences d’une asymétrie d’information. )
Cette théorie s’organise autour de 2 instants.

4.1.2) La sélection adverse (anti-selecetion)

Exante (avant le contrat)


C'est lorsqu'on fait un mauvais choix parce qu'on a une asymétrie d'information. C'est la structure
de marché qui conduit à faire le mauvais choix. Il y a des marchés par exemple qui permettent
qu'il y ait des garanties pour qu'il y ait des prix plus bas en matière automobile, et les agents font
le choix de la voiture moins chère sous prétexte qu'elle a une garantie, sans que sa qualité soit
meilleure que l'autre. Il y a donc un mécanisme institutionnel. Ainsi, la sélection adverse fait que
les agents choisissent les biens de moindre qualité en raison de la
structure du marché, car ils ne disposent pas de l'information nécessaire pour faire les bons
choix. (Internet : L’anti-sélection est un phénomène par lequel une offre faite sur un marché
aboutit à des résultats inverses de ceux souhaités, à cause d'asymétries d'information.)
Michael Spence, à l'origine de la théorie du signal de marché, montre que les bons agents sur un
marché de sélection adverse, sont prêts à supporter un coût pour signaler leur qualité, et ne pas
tomber dans le processus d'anti-sélection (vendeur classique VS vendeur
à la sauvette par exemple). Pour que le signal soit utile il faut qu'il soit crédible. Les « tricheurs »
n'utilisent pas ce signal. Il faut donc trouver quelque chose pour que les agents tricheurs
n'envoient pas un mauvais signal. En éducation par exemple, le diplôme est un signal.

4.1.3) Le risque moral(aléa moral)

C'est quand les mauvais agents sont plus actifs que les bons. (Internet : L'aléa moral consiste
dans le fait qu'une personne ou une entreprise assurée contre un risque peut se comporter de
manière plus risquée que si elle était totalement exposée au risque. Exemple : si le propriétaire
d’un vélo qui s’assure contre le vol se contente d’un petit antivol au prétexte que si son vélo est
volé il sera remboursé, il fait jouer l’aléa moral. L’agent, non exposé au risque, ne se comporte
pas comme s’il était totalement exposé au risque. )

4.2) Les mécanismes incitatifs

4.2.1) Une définition générale


Ce sont des mécanismes qui vont inciter des agents à révéler une information qu'ils
dissimulaient, ou à se comporter autrement qu'ils comptaient. Cette théorie des mécanismes
incitatifs a été développée dans les années 1970, et a été récompensée en 2007,
par Hurvicz, Myerson, et Maskin. La définition classique et générale des incitations est la suivante
: c'est l'ensemble des événements qui peuvent être manipulés par un décideur ou un groupe de
décideurs de façon à modifier les actes et les conséquences des actes choisis par les agents.

4.2.2) La nature des mécanismes incitatifs

En cas d'asymétrie d'informations, il y a 3 possibilités :

- On créé une instance spécialisée chargée d'obtenir l'information ou un service de surveillance.


Le problème, c'est que la bureaucratie a un coût.
- On se base sur l'information connue et les performances passées pour prendre une décision.
- On créé des procédures incitatives qui vont amener les agents à révéler eux-mêmes leurs
informations, leurs préférences et transmettre ces informations ou ces préférences avec
honnêteté.

Les mécanismes incitatifs ce sont les comportements qui amènent les gens à ne pas suivre les
comportements souhaités par eux. L'effort est l'objet de la théorie de l'incitation. Une série de
modèle intègre la variable « e » (pour effort) dans une fonction de production. Comment
améliore-t-on l'effort ? Dans ces modèles, l'effort, c'est la capacité d'accroître le profit. Un modèle
qui explique le résultat d'une équipe sportive par exemple, ou d'un déménagement, c'est qu'il y a
une prime pour la réussite.

4.2.3) Quelques exemples : les mécanismes de Myerson, de Groves, de Bonin-Weitzman

Trois exemples de mécanismes incitatifs. Cela a à voir avec la théorie des équipes de Marschak
et Radner. Selon cette théorie, une équipe a besoin de travail pour se payer. (Moi : On considère
les agents économiques comme faisant partie d’une équipe, donc d’un collectif de production mu
par un consensus absolu dans lequel il est impossible d’imputer à chacun des membres une
partie précise de l’input. On ne peut pas distinguer les productivités marginales respectives. Etant
donné les signaux reçus par les membres de l’organisation, l’objectif est de déterminer la
répartition optimale des règles de décisions . L’équipe est un collectif d’individus ayant les mêmes
intérêts mais pas le même degré d’information : il s’agit pour l’équipe d’accroître ses bénéfices,
ce qui implique d’avoir une communication interne efficace, d’où la nécessité de déterminer la
répartition optimale des règles de décisions.)

Pour Groves, le mécanisme consiste à lier l'allocation des ressources, l'efficacité. Par exemple,
une bonne équipe de déménageurs aura plusieurs contrats, alors qu'une mauvaise en aura peu.
Si on est efficient et efficace les jours précédents, on nous donne plus d’inputs, donc on pourra
produire plus et gagner plus. Là, on est avant le contrat : on propose plus de travail pour gagner
plus. Ce second mécanisme concerne la rémunération après la passation du contrat : une règle
de partage des bénéfices permet d'accroitre l’adaptation de chaque personne de l'équipe en
fonction de sa part de travail. Voici la différence avec le modèle précédent : soit on donne à
l'équipe plus de travail pour améliorer la circulation de l’information (incitation ex-ante à l’effort) ,
soit on donne aux agents une meilleure rémunération si le travail est bien fait après le contrat, si
l’information a bien circulé.

Abordons maintenant le mécanisme de Myerson. Myerson est un spécialiste de la théorie des


jeux. Le mécanisme consiste là à dire qu'on augmente la rémunération à condition de révéler les
informations. On a donc des mécanismes indirects qui incitent les agents. (Exemple de de la prof
sur la langue croate).

4.3) Incitations et performances

4.3.1) Incitations, coordination verticale et coordination horizontale : la typologie de Masahiko


Aoki

Il propose une typologie de 2 types de firmes : entre des firmes « A » pour américaines et
« J » pour japonaises. Cette typologie joue sur une relation inverse entre la circulation de
l'information, donc la coordination, et l'attachement à la firme et le salaire. Aoki montre qu'il y a
deux firmes qui ont une logique radicalement différente sur deux points . Dans la firme A, l'accès
au marché est totalement libre : on peut rentrer à n'importe quel moment à n'importe quel poste,
mais la circulation de l'information est extrêmement hiérarchisée. Donc, s'il y a un problème à la
base, l'information va circuler entre les différentes strates de la hiérarchie.
Concernant la firme japonaise, elle repose sur une centralisation de l'accès au marché de travail .
On rentre sur le marché du travail à la sortie des études généralement. Il y a des « ports of entry
» au niveau des cadres supérieurs, mais entre l'étudiant à peine diplômé et ces points d'entrée il
y a au moins dix ans de carrière. Le salaire est principalement fixé à l'ancienneté. Un
informaticien très qualifié sera au début payé comme un balayeur : c'est une forme incitation pour
ne pas quitter la firme. Deuxième conséquence, les jeunes font « tous les postes » (ouvrier,
balayeur). La circulation de l'information et la prise de décision sont complètement
décentralisées. Puisque tout le monde a travaillé dans tous les ateliers, on communique plus
facilement. On appelle ça le toyotisme.

CHAPITRE 5 : Rationalité et choix collectifs

La question du choix collectif n'est pas simple. Elle s'est posée pour la première fois dans
l'Histoire à un moment où des mathématiciens, des philosophes, s'intéressaient à la question de
savoir comment était prise une décision collective.

5.1) La logique des choix collectifs

5.1.1) Le paradoxe de Condorcet

Le marquis de Condorcet a réfléchi à cette question. A l'époque il n'y a pas de


Parlement. Condorcet, mathématicien pose la question de savoir s'il y a un
paradoxe. Condorcet était un philosophe des lumières qui était pour la
démocratie. Il soulève un lièvre. On a des élections où on a 60 décideurs et 3
alternatives, 3 candidats A, B, C, qu'il faut classer dans l'ordre. Supposons
que 23 votants choisissent A, B, et C. 17 choisissent B, C, A. 2
vont choisir B, A, C. 10 vont choisir C, A, B. 8 choisissent C, B, A. La majorité préfère A, donc A
est élu. Si l'on prend les choix 2 à 2, pourtant, C l'emporte sur A. Le calcul à deux n'est pas le
même que le calcul à trois !

Classement A>B>C B>C>A B>A>C C>A>B C>B>A


choisi
Nombrede 23 17 2 10 8
décideurs

Premier problème, la majorité simple qui se dégage de cette décision ne représente pas une
majorité simple dans le cas où A serait opposé au seul C. Deuxième problème, on a une situation
illogique : le classement le plus fréquent est A > B > C, duquel on en déduit que A > C alors que
dans le cas où A affronte C, on a pourtant C > A.

Arrow s'offre le luxe d'enchaîner la démonstration d'un équilibre économique général et deux
théories de l'économie du bien-être. Il publie en même temps un livre où il reprend le paradoxe de
Condorcet : l'équilibre général c'est très bien mais il n'y a pas de prise de décision possible . Dans
ce livre il montre que si les participants à un choix collectif n'ont pas la même fonction de
préférence alors il n'existe pas de procédure de choix satisfaisante. Avoir la même fonction
objectif (ou de préférence), c'est soit une situation dans laquelle on fait tous le même choix, soit
une situation dictatoriale (un dictateur impose sa fonction objectif à l'ensemble des décideurs).
Arrow dit que si on est dans une situation où il y a plus que deux options, on ne peut pas
respecter les conditions suivantes : il faut que le choix se porte sur la totalité des votes, il faut qu'il
n'y ait pas de dictature, et il fait que le résultat soit un optimum de Pareto. C'est la théorie de
l'impossibilité d'Arrow (Internet : Il n'existe pas de fonction de choix social (un système de vote)
qui puisse convertir des préférences individuelles en une décision agrégée cohérente, hormis
dans le cas où la fonction de choix social coïncide avec les choix d'un seul individu (« dictateur
»), indépendamment du reste de la population ).
Quatre conditions d'Arrow : (dont la réunion est démontrée impossible par Arrow )

- Le classement doit être total (il prend en compte toutes les possibilités de classement)
- Ce classement est Pareto-compatible
- Il doit être indépendant de tout autre facteur que les préférences des agents
- Ce choix doit pouvoir être exprimé sans qu'un dictateur impose son classement à l'ensemble
des autres agents

5.1.2) Les mécanismes de décision collective

Plusieurs mécanismes de décision collective. Le premier est la dictature. Là, un agent impose
ses choix aux autres participants, ce qui impose une situation parfaitement hiérarchisée et
transparente (donc il faut un système de surveillance et de hiérarchie). Il peut y avoir un système
où il y a des divergences de choix et dans lequel on pallie cela par des mécanismes incitatifs.
Ces systèmes sont autoritaires, et aux yeux d’Arrow, ce n'est pas un système démocratique.

Le consensus absolu, contrairement à la situation dictatoriale, résulte d'une adhésion globalisée à


une proposition. Donc, le vote de cette proposition peut être soumis à une règle d'unanimité. La
théorie des équipes se caractérise par un consensus absolu sur les tâches
à accomplir. La définition plus sophistiquée d'une équipe c'est un ensemble d'individus ou agents
(décideurs) unis par un intérêt commun. Ils peuvent disposer d'informations différentes, et ne pas
avoir les mêmes variables mais ils effectuent un choix commun.

Il y a un troisième cas, qui est la décision par vote majoritaire, qui est appliquée dans la plupart
des Parlements. Dans les années 1970/1980 cette situation est critiquée par l'Ecole du
« public choice » de Buchanan et Tullock, qui écrivent un livre dans lequel il montre qu'il y a un
coût associé à la règle majoritaire, ce coût étant lié à ce qu'ils appellent l'électeur médian (qui
incite à fore des alliances). Ils prennent une situation illustrée à l'époque par le Parlement
israélien.

Il y a une collision entre les modèles de bureaucratie (les choix résultent de procédures, de
filtrages des préférences du rang inférieur vers le rang supérieur) et les modèles (?).

5.2) Conflits et coordination

5.2.1) L'analyse traditionnelle : la théorie économique des conflits

Il n'y a pas de conflits car le marché est supposé régler les conflits. Le seul risque de conflit qui
apparaît est lié au comportement opportuniste, au comportement de tricheur. Ce qu'on appelle
l'opportunisme de Williamson consiste à invalider la procédure de règlement des
conflits par le marché. Cette possibilité d'opportunisme, de tricherie, de tire-au-flanc, ouvre un
espace de recherche concernant l’existence de conflits sur le fondement théorique des conflits,
fondement qui va être intégré dans un mécanisme de bruit dont on a déjà parlé.

5.2.2) Exit, Voice, and Loyalty : la thèse d’Albert O. Hirschman

Contrairement à la théorie microéconomique selon laquelle le marché règle les conflits,


Hirschman propose une typologie des stratégies. Il dit que dans toutes les situations, les agents
ont le choix entre trois comportements : Exit (On refuse et on s'en va face au conflit ; on rejette le
système), Voice (On exprime son mécontentement, son avis, ce qui suppose une analyse des
conflits qui existe depuis Pigou), et Loyalty (On reste dans la situation actuelle ). Gary S. Becker
propose une approche économique des comportements humains, dans laquelle il formalise en
termes de microéconomie standards toute une série de comportements humains.

5.2.3) Les trois modèles de Harvey Libenstein

Libenstein part en Afrique et revient avec un modèle intéressant où il inverse la relation entre
productivité marginale du travail et le salaire. Il écrit Economic backwarness, and economic
growth. Il dit que si quelqu'un n'a pas un salaire suffisant, qu'il ne peut pas vivre correctement, il
ne pourra pas fournir une productivité efficace. Il va même plus loin en disant que ça fonctionne
de même dans les pays développés. Il introduit notamment la notion de salaire d'efficience : la
question qui se pose est celle de la gestion du personnel de manière à accroître la productivité.
Ainsi il faut bien traiter la main d'œuvre en lui donnant un salaire efficient de sorte qu'en retour le
différentiel de productivité est important. Libenstein invente l'efficience X. X est là une inconnue. Il
développe l'idée selon laquelle il y a une efficience non économique qui accroît la productivité et
qui comprend des choses comme le bonheur et les sourires.

Troisième texte, en 1982, Libenstein publie un article sur le dilemme du prisonnier dans la théorie
de la main invisible. La relation salariale comprend une double incertitude : sur la productivité du
salarié et sur l'évolution du salaire fixé par l'employeur. On peut mettre ça en parallèle avec les
conventions de chômage qu'on a étudiées. Libenstein modélise un dilemme.

Pierre Feuille Ciseau


Pierre 0;0 -1, +1 +1 ; -1
Feuille +1 ; -1 0;0 -1 ; +1
Ciseau -1 ; +1 +1 ; -1 0;0

Le dilemme du prisonnier : Soit deux criminels arrêtés par la police. On leur dit qu'ils ont le choix
entre dénoncer et ne pas dénoncer l'autre. S'ils se dénoncent l'un et l'autre, ils prennent chacun
deux ans de prison. Si l'un dénonce l'autre, mais que l'autre se tait, alors celui qui est dénoncé
prend 4 ans de prison, et l'autre ne fait rien. Si chacun garde le silence, alors ils prennent chacun
six mois de prison. Ici, la situation dans laquelle tout le monde se dénonce est l'équilibre de
Nash : l'idée est que lorsqu'on découvre le choix de l'autre, on ne regrette pas le sien.
L'équilibre de Pareto est la situation dans laquelle personne ne se dénonce. Libenstein
applique ce dilemme à la relation entre l'employeur et le salarié :

Employeur
Salarié Stratégie pacifique Stratégie agressive

Effort maximum S = 15 ; P = 15 S = 3 ; P = 20
Effort minimum S = 20 ; P = 3 S=5;P=5

La première situation correspond à l'optimum de Pareto : l'employeur et le salarié se font


confiance, l'un apporte une productivité efficace, et l'autre le rémunère bien et lui donne de
bonnes conditions de travail. La dernière situation correspond à la situation des pays du tiers-
monde : puisqu'ils ont un salaire minable et leurs conditions de travail nulles, ils ne travaillent pas.

5.2.4) La « tragédie des biens communs » d'Elinor Ostrom

Elinor Ostrom travaille sur un problème qui apparaît dans l'article d'un biologiste nommé Garrett
Hardin. Cette tragédie suggère que la loi du marché conduit à une surexploitation des biens
communs. Le partage du bien commun est un jeu à somme nulle. Il faut d'abord définir le bien
commun : on ne peut pas lui attribuer de droit de propriété (Ex : océan, champ collectif). Un bien
rival (les biens communs ne sont pas des biens exclusifs : on ne peut pas empêcher leur
consommation si l’agent ne paye pas a priori ), c’est un bien qui, s'il est consommé par un
individu, n'est plus consommable par l'autre. ( Internet : Lorsqu'un bien est partagé entre plusieurs
exploitants, plus les exploitant augmentent leurs propres exploitations, plus la capacité de
production du bien de base diminue.) Trois possibilités pour pallier cela :

- Une possibilité posée par Pigou, qui est la nationalisation : on règlemente les droits d'accès à la
ressource.
- La privatisation : On attribue des droits individuels de propriété
- On peut gérer par les communautés : Des règles pesant l'intérêt public et l'intérêt général
organisent la gestion marchande des biens communs. Ostrom montre qu'il y a des
arrangements institutionnels qui ne sont pas marchands. Ostrom définit 8 principes pour une
gestion réussie des biens communs : (arrangements institutionnels)

1) Les droits d'accès doivent être clairement définis


2) Les avantages doivent être proportionnels aux coûts assumés
3) Des procédures doivent être mises en place pour effectuer les choix collectifs
4) Des règles de supervision et de surveillance doivent exister
5) Des sanctions graduelles et différenciées doivent pouvoir être appliquées
6) Des mécanismes de résolution des conflits doivent être institués
7) L'Etat doit reconnaître l'organisation qui a été mise en place localement
8) L'ensemble du système doit être organisé à plusieurs niveaux

On a des « nested institutions ». (?) Ostrom écrit sur l'évolution des institutions qui permettent de
gérer la gouvernance collective. Elle lance un programme de recherche sur trois éléments :

1) La gouvernance économique : Cela prend en compte des problématiques


environnementales.

2) En 2010, Guillaume Olard écrit un article sur Ostrom. La consommation de connaissance


n'appauvrit pas le stock commun, au contraire l'enrichit : ce ne sont pas des biens rivaux. Donc,
les biens collectifs ne sont pas forcément rivaux.

3) Michael Heller écrit la tragédie des biens anti-communs. Il parle non pas des biens collectifs
de savoir, pas non plus de la gouvernance économique, mais de phénomènes dans lesquels des
agents rationnels gaspillent des biens collectifs. Là c'est l'idée qu'on utilise mal des biens qui ne
sont pas communs mais qui devraient l'être.

CHAPITRE 6 : Décisions, hiérarchie, autorité

John Rawls écrit une théorie de la justice visant à répartir les biens communs selon des règles.
Comment répartir la richesse ? Il propose une délibération sous « un voile d'ignorance ». Il dit
qu'on allait faire comme si chacun de nous ne savait pas où il allait atterrir. Il pose le principe du
« maximin » (on maximise la situation de ceux qui sont en bas de l'échelle), et du « minimax » (on
réfléchit à un seuil pour contrôler ceux qui sont en haut de l'échelle). Il dit qu'il y a des règles, qui
sont les maximes, qui servent à résumer des données passées sous formes de considérations
très générales permettant de faire un choix, et d'autres règles, qui sont des pratiques d'usages,
jouant un rôle de contraintes sur les choix.

6.1) Décisions et autorité légitime : la typologie de Max Weber

Weber propose une typologie du couple domination/légitimité. Au premier cours, on a vu qu'i y


avait une action pouvait être rationnelle par sa finalité (zweckrationalität), par ses valeurs
(wertrationalität), et affective, non délibérée. Weber dit que toute domination sociale
s'accompagne d'une forme de légitimité dont la fonction est de normaliser ce qui est. La
légitimité, c'est une croyance sociale qui valide un pouvoir détenu par les dominants. Weber parle
du caractère « sacré » de la tradition : le mot « sacré » n'a plus nécessairement le même sens
aujourd'hui.
Weber dit que la domination des aristocrates sur les autres est la domination la plus
universelle et la plus primitive. Il y a l'idée qu'il y a une sorte de sacralité divine pour justifier la
domination d'un groupe sur un autre. On peut parler de l'apartheid en Afrique du Sud. Ça c'était la
première forme de domination. ( Légitimité traditionnelle donc ?). Deuxième forme, la légitimité
peut être charismatique, qui est issue d'une personne dotée d'une aura exceptionnelle. Le
pouvoir du chef charismatique est un pouvoir de propagande. Troisième type de domination, c'est
une légitime rationnelle. Il y a enfin la légitimité légale, justifiée par une organisation
administrative, dans laquelle chacun trouverait son dû, et qui permettrait à chacun de se tourner
vers la démocratie. Weber dit que la légitimité justifie le respect d'une norme. La quatrième forme
de légitimité est la légitimité légale, qui correspond à la rationalité économique, et qui s'appuie sur
un pouvoir abstrait et rationnel (zweckrationalität).

Dans les Etats modernes, la rationalité est justifiée par la compétence. Cette dernière forme, que
Weber appelle la « rationalisation de la société », c'est le fait qu'au début du XIX ème siècle, les
sociétés se sont détachées de la religion notamment, et d'un certain nombre de hiérarchies
sociales. Mr. Pinkus invente la pillule et contribue à diminuer la barrière hommes/femmes. Cette
rationalisation suppose cinq conditions pour Weber :

1) La domination des notions de calculs et d'efficacité : L'introduction de techniques de gestion,


de comptabilité, qui signifie que les critères de choix répondent à des critères abstraits,
émancipés des jugements.
2) L'autonomisation de l'économie par rapport à d'autres disciplines : Il existe un domaine propre
de l'économie qui s'émancipe de la philosophie par exemple, ou de la religion.
3) La formalisation (dépersonnalisation au sens du professeur) des rapports sociaux : Il y a des
relations formalisées, et l'intimité/la spécificité des relations s'ajoute au-dessus de cette
formalisation (Ex : relations professeurs/élèves).
4) Le désenchantement du monde : Il y a une rationalisation des formes de pensées, et il n'y a
plus d'enchantement (religion, philosophie, etc.). Dans la vie publique, il y a un bannissement des
valeurs hors de la vie publique : on a vu l'affrontement de ces deux camps au moment du
mariage pour tous.
5) L'émergence de la bureaucratie (bureaucratie au sens de Max Weber) : Là, la bureaucratie
c'est l'idéaltype de la domination légale, qui est une organisation juste et efficace, qui se
caractérise par quatre grands traits : le pouvoir est fondé sur la compétence et non sur la force/la
coutume, la règlementation dans laquelle s'insère le fonctionnement bureaucratique est
impersonnelle (elle exclue l'arbitraire, le clientélisme, et les décisions non fondées en droit),
l'exécution de tâches divisées en fonctions spécialisées, la fixation de critères objectifs.

6.2) Décisions et hiérarchies

6.2.1) Hiérarchie et autorité


Chester Barnard travaille sur les relations entre l'autorité et la hiérarchie. La relation d'autorité
renvoie à la question du transfert du pouvoir de décision d'un agent à un autre. La définition que
donne Barnard est la suivante : Un agent J a de l'autorité sur un agent I si I délègue son pouvoir
son décision à J, donc autorise J à choisir les actions A. Deux caractéristiques donc : l'autorité
implique l'intentionnalité, et l'autorité implique la hiérarchie.

Ken Arrow montre que l'autorité se caractérise toujours en dernière instance par la possibilité de
faire un choix à la place d'un autre individu. La notion de hiérarchie est intéressante car elle induit
une notion de symétrie. Si I est subordonné hiérarchiquement à J, c'est que I se réfère aux
objectifs définis par J plutôt qu'aux siens propres, lorsqu'on doit choisir A, qui appartient à
l'ensemble des actions, et si les décisions de J prévalent sur celle de I en cas de conflits.

En 1984, Brass fait une étude empirique sur les principaux attributs d'un supérieur hiérarchique
sur ses subordonnées hiérarchiques. Il dégage un principe d'assignation (capacités d'assigner les
tâches de manière discrétionnaire), un principe de nomination, et un principe de contraintes
(capacité de faire prévaloir systématiquement ce qui a été décidé), ainsi qu'un principe de
supervision (capacité de contrôler ses subordonnés).

6.2.2) Diriger et exécuter : la typologie de Roy Radner (non traité en cours)

6.3) Conflits et coalitions : les cinq configurations de Henry Mintzberg

Mintzberg publie un livre en 1953 en invoquant cinq composantes


fondamentales d'une organisation : sommet stratégique (haut de la
hiérarchie), ligne hiérarchique, centre opérationnel (bas de la
hiérarchie), la technostructure (analystes situés en dehors de la
ligne de hiérarchie formelle), et le personnel fonctionnel (domaines
en dehors de l'activité
principale : comptabilité, droit, etc.).

La structure simple est que le sommet stratégique domine les autres, et pousse à la
centralisation. Ensuite, ce que Mintzberg appelle « machine bureaucracy » c'est une
configuration dominée par la bureaucratie mécanique. Ce qui pousse à la standardisation des
tâches, c'est la technostructure (bureau des méthodes dans l'OST). Le centre opérationnel ce
sont les « prolos » : ils cherchent à réduire l'influence des autres catégories et encouragent à une
décentralisation. La ligne hiérarchique, c'est le personnel médian. L'adhocratie c'est l'influence du
personnel fonctionnel, notamment du service financier, des RH. ( Moi : Mintzberg distingue cinq
configurations selon l’élément principal : structure simple, bureaucratie mécaniste,
bureaucratie professionnelle, forme divisionnelle, adhocratie. )

Retour sur le cours : L'autonomisation des fonctions sociales, c'est que l'économie par exemple,
ou la gestion, deviennent une discipline à part, et il n'y a pas une théorie qui règle tout le
fonctionnement de la société. On est dans un système mathématisé, comptabilisé. La
formalisation des relations, c'est le fait que la fonction l'emporte sur la personnalisation.

CHAPITRE 7 : Introduction à la théorie des jeux

C'est d'abord une mise en forme des relations entre les individus, qui apparaît comme
formalisation mathématique dans les années 1920. John Von Neumann, Emile Borel, Ermst
Zermelo, sont les mathématiciens qui inventent un formalisme nouveau qui consiste à
mathématiser les problèmes. Au moment de jouer, on se pose la question de savoir ce que l'autre
va jouer. Cette mise en forme mathématique va prendre son essor en 1944 lorsque Von
Neumann et Oskar Morgenstern publient un ouvrage : Theory of Games. L'idée de départ, c'est
que tous les problèmes mathématiques peuvent se ramener à un jeu de stratégie entre les
acteurs rationnels. Auparavant, les problèmes économiques n'étaient pas formalisés : pour les
duopoles par exemple, on disait que la stratégie c'était d'anticiper les comportements de l'autre.
Ces travaux sont prolongés par Richard Selten, John Harsanyi.

7.1) Jeux et coordination

7.1.1) Jeux coopératifs et jeux non coopératifs

Qu'est-ce qu'un jeu ? Un jeu, c'est au départ un ensemble de règles qui vont spécifier les joueurs
(éventuellement leur nom), le nombre de joueurs, les stratégies envisageables, la séquence des
décisions (il y a des jeux « one shot »), les gains (ce que les joueurs gagnent dans telle
configuration), la disposition des joueurs. Il y a des typologies des grands jeux, dont les jeux
coopératifs/non coopératifs. Les jeux coopératifs, ce sont des jeux de concurrence, dans lesquels
on peut faire des alliances. On a des jeux avec des décisions simultanées et des jeux avec
décisions séquentielles. Il y a des jeux statiques (Ex : dilemme du prisonnier), et des jeux répétés
(On prend les mêmes joueurs et on les refait jouer). Enfin, on distingue également les jeux à
information parfaite des jeux à information imparfaite.

7.1.2) Jeux sous forme stratégique et jeux sous forme extensive

Qu'est-ce qu'une stratégie ? C'est un plan d'action complet qui va définir ce que le joueur va faire
à chaque étape de décision et lorsqu’il est confronté à chacune des situations qui peut survenir
(En théorie des jeux, l'intervention du hasard est évoquée comme « la Nature »), ainsi que les
gains associés. Les joueurs sont dotés d'une rationalité parfaite. Ils sont capables de raisonner
en « backward induction » (Internet : « Raisonnement rétrograde » : on déduit les effets d’une
action en analysant ses conséquences éventuelles. ) : ils anticipent, et pensent avec
des coups d'avance. Il faut prendre en compte l'hypothèse de « common knowledge ».
Le jeu de miroir (je joue ça parce que je sais que mon adversaire joue ça) est un
système de diffusion de l'information que l'on appelle connaissance commune. On peut
se remémorer le concours de beauté de Keynes. Il y a des stratégies dominantes et
des stratégies dominées.

Albert A B
Bérénice
A (1000, 40) (30, 60)
B (200, 80) (20, 110)

Si on est Albert, qu'est-ce que Bérénice peut faire ? Tout est question de « common knowledge »,
Albert sait que Bérénice sait qu'il ne va pas jouer A ( Si Albert joue A, il perd dans tous les cas les
deux joueurs ayant une rationalité parfaite. Donc, la solution de ce jeu est (30 60), puisque
sachant qu'Albert va jouer B, Bérénice maximise ses gains.

Les jeux à information complète sont des jeux dans lesquels on a des informations sur les règles
du jeu, sur les gains qui leur sont associés, sur la stratégie des autres agents et sur leurs
motivations. La conséquence de ça, c'est le « common knowledge ». Il n'y a pas seulement une
transparence parfaite de l'information, mais un monde où on peut se mettre à la place de l'autre.
Un jeu sous forme normale répond à trois questions : Qui joue ? Quelles sont les stratégies
disponibles pour chaque joueur ? Quels sont les gains associés à chaque stratégie en fonction de
ce que joue l'autre ? Le tableau suivant est un tableau dit sous forme normale (Moi : surtout pour
les jeux simultanés).

Bonnie Ne dénonce pas Dénonce


Clyde
Ne dénonce pas (-1 ; -1) (-10 ; 0)
Dénonce (0 ; -10) (-8, -8)

Pour les jeux sous forme extensive, c'est la même chose exprimée de manière différente (sous
forme d'arbre et non de tableau).

Clyde dénonce aussi (-8 ; -8)

Dénonce
Clyde ne dénonce pas (0 ; -10)
Bonnie
Clyde dénonce (-10 ; 0)
Ne dénonce pas
Clyde ne dénonce pas (-1 ; -1)
Clyde dénonce aussi (-8 ; -8)

Dénonce
Clyde ne dénonce pas (0 ; -10)
Clyde
Clyde dénonce (-10 ; 0)
Ne dénonce pas Clyde ne dénonce pas (-1 ; -1)

Les décideurs rationnels raisonnent de manière stratégique, et ont des objectifs


indépendants et endogènes par rapport au jeu, comme la maximisation du profit. Un jeu, c'est la
description des gains des joueurs, et des interactions stratégiques qui définissent des contraintes
qui vont peser sur les joueurs pour élaborer leur stratégie. Une solution, c'est la
description systématique des solutions qui peuvent émerger d'un jeu. Ces jeux peuvent être
coopératifs (on coopère) ou non coopératifs. Deuxième distinction, on a les jeux séquentiels ou
simultanés. Evidemment, même dans les jeux non coopératifs, si on répète un dilemme du
prisonnier avec les mêmes joueurs, cela a des conséquences sur les stratégies. Enfin, on a les
jeux à information complète et les jeux à information incomplète. Les informations peuvent être le
rapport au risque par exemple ( Les agents sont-ils risquophiles ? risquophobes ?). Chaque
joueur peut se mettre à la place des autres et à la place du théoricien : c'est le propre des jeux à
information complète. Dans les jeux à information incomplète, il y a de l'incertitude endogène
(incertitude sur les décisions des autres joueurs) et exogène (incertitude sur des caractéristiques
du jeu ou des joueurs qui ne sont pas disponibles pour tous les joueurs). Lorsqu'on a une
incertitude endogène ou exogène, on ne sait pas quelle solution va sortir du jeu, et on n'a pas de
solution au sens de Pareto, mais un « concept de solution » qui est une sorte de sous-optimum
de Pareto. Théoriquement, dans un jeu, la seule chose qui compte c'est le gain. Voilà comment
modéliser des jeux à trois joueurs :

Ex : La règle du jeu est qu'un joueur reçoit la somme du jeu en faisant le produit par quatre du
plus petit des nombre qui désigne les stratégies choisies par les joueurs, somme à laquelle on
soustrait le nombre qui désigne la stratégie choisie par le joueur. Comment modélise-t-on cela
quand il y a trois joueurs ? Si C choisit la stratégie 1. On fait le tableau suivant :

B
A 1 2 3

1 (3;3;3) (3;2;3) (3;1;3)


2 (2;3;3) (2;2;3) (2;1;3)
3 (1;3;3) (1;2;3) (1;1;3)

Le plus petit nombre est là toujours 1. Or, 4 x 1= 4. Et enfin, 4 - 1 = 3. Disons maintenant que C
joue 2 :
B
A 1 2 3

1 (3;3;2) (3;2;2) (3;1;2)


2 (2;3;2) (6;6;6) (6;5;6)
3 (1;3;2) (5;6;6) (5;5;6)

Disons que maintenant C joue 3 :

B
A 1 2 3

1 (3;3;1) (3;2;1) (3;1;1)


2 (2;3;1) (6;6;5) (6;5;5)
3 (1;3;1) (5;6;5) (9;9;9)

Jeux sous forme extensive : C'est une formalisation qui permet de mettre l'accent sur l'ordre
dans lequel les joueurs interviennent et sur l'information dont ils disposent à chaque coup du jeu .
Ils comportent des nœuds, des flèches extensives (d'un nœud à un autre), et des vecteurs qui
caractérisent les nœuds et les flèches.

Exemple : On reprend le jeu précédent, et on considère que C joue 3.

Ex : On a une origine A. Du nœud A partent trois flèches, qui correspondent à des stratégies X
(3;0;0), z (qui mène à un nœud B) et z (qui mène à un nœud C). Du nœud B partent deux
branches : x (4;2;4) et y (2;3;1). Du point C part la branche u (1;0;3) et une autre branche qui
mène à un nœud A, duquel part une branche x' (3;2;2), et une autre qui mène à un point B. De ce
deuxième point B part une branche y' (2;3;1), et une autre qui mène à un deuxième point C. De
ce deuxième point C part une branche u' (5;5;5), et une autre branche w qui mène à un gain
(3;2;9). Si on est C (premier point), on sait qu'on peut obtenir 4n si on joue z, que A joue y et que
B joue x mais on sait que B ne vas pas jouer x. Si c'est A qui commence, la solution du jeu est
(3;0;0). Dans ce jeu il y a deux règles qui ne sont jamais violées : il y a au moins une action (donc
une flèche) qui part de chaque nœud, et au plus une flèche qui y aboutit. Conséquence de cette
règle, il n'y a, à partir d'un point, qu'une seule manière de revenir à l'origine, ce qui permet les
anticipations. Donc il y a une seule manière de construire la « backward induction » (= induction
à rebours). Lorsqu’on se déplace à contre-courant (= dans le sens contraire des flèches), on ne
peut pas revenir à l'origine. Une arborescence mathématique, c'est une figure dont les
ramifications ne se coupent jamais et ne se comportement pas en boucle.

7.2) L'équilibre de Nash

7.2.1) Définition
Voir Un homme d'exception (film sur Nash). Un équilibre de Nash c'est, selon la définition écrite
par John Nash en 1950 dans sa thèse, « l'ensemble des stratégies, une par joueur, telles
qu'aucun joueur ne peut obtenir de gains supplémentaires en changeant unilatéralement de
stratégie, de sorte qu'aucun des joueurs n'a de regrets en découvrant ce que les autres ont joué
». Dans un équilibre de Nash, personne n'a de regrets.
7.2.2) Stratégies dominantes et stratégies dominées

B
A B1 B2 B3
A1 (12 ; 6) (8 ; 4) (16 ; 3)
A2 (10 ; 4) (8 ; 9) (13 ; 7)

(A1 ; B1) est un équilibre de Nash : B n'a pas de regrets en jouant B1. On sait que A a intérêt à
jouer A1 car à tous les coups, il gagne. Pour maximiser ses gains quand A joue A1 B joue B1.
(B2 ; A2) est aussi un équilibre de Nash (au sens faible cette fois). B a un intérêt à jouer B2, car il
peut gagner. A a alors la possibilité de jouer indifféremment A1 et A2 dans cette hypothèse. Il y a
deux équilibres de Nash formellement, mais si on réfléchit, A2 est faiblement dominé (A1 est
faiblement dominant), de même que B3 est faiblement dominé, et donc, dans ce cade pluriel
d'équilibres, la solution optimale c'est (12 ; 6). Melvin Dresher et Merrill Flood formulent le
dilemme du prisonnier. Tucker en donne la forme originale suivante :

B
A Dénonce Ne dénonce pas

Dénonce (-1 ; -1) (1 ; -2)


Ne dénonce pas (-2 ; 1) (0 ; 0)

L'intérêt de cet exemple est le suivant. L'équilibre de Nash est (Dénonce ; Dénonce) : les deux
joueurs n'ont pas de regrets lorsqu'ils découvrent la stratégie de l'autre. L'optimum de Pareto est
(Ne dénonce pas ; Ne dénonce pas).

7.2.4) Point focal et conventions

La guerre des sexes :

Femme
Homme Foot Ballet

Foot (5 ; 4) (2 ; 2)
Ballet (-1 ; -1) (4 ; 5)
Les deux équilibres de Nash, c'est (Foot ; Foot) et (Ballet ; Ballet). La première solution, c'est de
faire intervenir un autre élément, qui est la « Nature » (le hasard par exemple, ou on se fonde sur
la météo pour faire son choix). Deuxième manière de se coordonner, c'est la tradition (convention
sociale). Le point focal est un élément que les deux joueurs connaissent et dont ils vont se servir
pour se coordonner. Ce n'est pas la Nature, ce n'est pas du hasard, c'est une référence que les
deux joueurs ont. (Le hasard comme la tradition sont des points focaux. )

7.2.5) Les stratégies mixtes

Exemple des « matching pennies » : On lance une pièce. Si on joue pile, et que l'autre joue face,
l'autre prend les deux pièces. Si on joue face, on garde les deux pièces. C'est un jeu à somme
nulle.

Joueur 1
Joueur 2 Pile (β) Face (1 - β)

Pile (α) (1 ; -1) (-1 ; 1)


Face (1 - α) (-1 ; 1) (1 ; -1)

Là il n'y a pas d'équilibre de Nash (en stratégie pure). Que fait-on alors ? On va donc introduire
des probabilités : cela veut dire qu'on recherche la probabilité α pour que le joueur 1 joue pile et
la probabilité β pour que le joueur 2 joue pile. Si le joueur 2 joue pile, le joueur 1 a une probabilité
β de gagner 1, et une probabilité (1 - β) de perdre la pièce. Son espérance de gain est de β x 1 +
(-1) x (1 - β) = 2 x β - 1. Si le joueur 2 joue face, l’espérance de gain du joueur 1 est de (-1) β + (1
- β) x 1 = 1 - 2β. On résout 1 - 2β = 2β - 1, ce qui implique que β= 1/2, et donc α
= ½ (Moi : Il y a donc un équilibre de Nash tel que β = α = ½.).

Lorsqu'il n'y a pas d'équilibre de Nash, on utilise des stratégies mixtes (par opposition aux
stratégies pures). Mixte, cela veut dire qu'aucun des joueurs ne peut améliorer ses gains en
choisissant une autre stratégie car l'autre joueur a aussi choisi une stratégie mixte. Sur la base de
cet équilibre de Nash, on tire le théorème de Nash : tout jeu admet au moins un équilibre de
Nash, éventuellement en stratégie mixte .

1
2 A1 (P = 0,5) B1 (P= 0,5)

A2 (P = 0,7) (3;1) (1;3)


B2 (P = 0,3) (0 ; 5) (4;2)

Il n'y a pas d'équilibre de Nash !


Pour le joueur 1 : Si le joueur 1 joue A1, l'espérance de gain du joueur 1 est 0,7 x 1 + 0,3 x 5 =
2,2. Si le joueur 1 joue B1, son espérance de gain est de 0,7x 3 + 0,3 x 2 = 2,7. Par conséquent,
le joueur 1 joue B1.

Pour le joueur 2 : S'il joue A2, son espérance de gain est 0,5 x 3 + 0,5 x 1 = 2. S'il joue B2, son
espérance de gain est 0,5 x 0 + 0,5 x 4 = 2. Le joueur 2 est indifférent. Mais comme il a
connaissance de tous ses calculs, il sait que le joueur va jouer B1. Donc, la solution, en stratégie
mixte est que l'équilibre est (B2, B1).

7.3) Rationalité et coordination en théorie des jeux : quelques exemples de jeux paradigmatiques

Jeux de mille-pattes :

Ce jeu est construit de manière à ce qu'un joueur sache que s'il continue, son gain sera inférieur,
au coup suivant de 1 à son coup présent, et que le gain de l'autre augmentera de 2. On est là
dans le cadre d'une « backward induction » (induction à rebours). (Voir photo d’Etienne en-
dessous)

On observe que le gain augmente avec le nombre de coups. La logique est la même que pour le
dilemme des prisonniers : on est en jeu non coopératif (on ne fait pas confiance à l'autre). La
seule solution sûre pour A est de s'arrêter à 1. Le seul équilibre de Nash est donc (1 ; 1). En
effet, à la fin, A a 999 et B aussi, et A sait que B va préférer avoir 1001 que 1000 : donc A a
intérêt à s'arrêter à (1;1). Cela démontre l'absurdité du système : alors qu'ils pourraient atteindre
un équilibre Pareto-Optimal à (1000;1000), alors qu'ils préfèrent (1;1). Ce jeu a été formalisé par
Rubinstein, en 1999.

Le jeu des cerfs : C'est un exemple emprunté à Jean-Jacques Rousseau. C'est un jeu sur la
question de la coopération. On a deux chasseurs. Soit ils coopèrent et attrapent un gros cerf, ou
bien ils partent de leur côté et rapportent chacun un lapin. A-t-on intérêt à coopérer pour ramener
un gros gibier ? Voici la matrice des gains :
Chasseur 1 Cerf Lièvre
Chasseur 2
Cerf (1 ; 1) (0 ; 1/3)
Lièvre (1/3 ; 0) (1/3 ; 1/3)
(1 ; 1) est un équilibre de Nash. (1/3 ; 1/3) en est un deuxième . On voit, et cela s'applique au
paradoxe de Libenstein (Internet : Le producteur est profondément mû par la maximisation, c’est-
à-dire faire des profits intéressants tout en réduisant les coûts. Ainsi, maximisation et
minimisation sont étroitement liées.), que la coopération donne le meilleur équilibre de Nash, et la
sortie simultanée des deux joueurs donne un deuxième équilibre de Nash, évidemment moins
intéressant que le premier.

Le jeu de la poule mouillée (voir La Fureur de vivre) :

Sortir de la voiture Y rester


Sortir de la voiture (0 ; 0) (-2 ; 1)
Y rester (1 ; -2) (-8 ; -8)

A-t-on un équilibre de Nash en stratégie pure ? On a deux équilibres de Nash : (-2 ; 1) et (1 ; -


2), en stratégie pure. On a un élément additionnel, qui est la volonté d'éviter la mort des deux
garçons. Ce jeu a été revisité pour la crise des missiles à Cuba en 1962. L'idée est qu'il faut
mieux voir (0 ; 0) que (-8 : -8). Y-a-t-il un équilibre en stratégie mixte ? (Le faire à la maison).

Le jeu du bien public : Il y a là quatre joueurs qui ne communiquent pas entre eux. Chacun reçoit
au début 10 jetons de deux euros. Il a le choix entre garder les dix jetons, ou les mettre dans une
cagnotte commune, et à ce moment les gains sont alors de 1 euro par jeton pour chaque joueur.
On a deux cas extrêmes : soit tout le monde est altruiste (gain de 40 euros pour tout le monde),
soit tout le monde est égoïste (gain de 20 euros pour tout le monde). Toutefois, pour celui qui a
une stratégie égoïste en espérant que les autres seront tous altruistes, a un gain espéré de 50.

CHAPITRE 8 : Rationalité et théorie de la décision : quelques développements


récents

8.1) Psychologie économique et économie expérimentale

8.1.1) Les premières expériences économiques

Depuis les années 1970, les modèles sont utilisés pour étudier la compétition entre les firmes
(duopole ou oligopole). La théorie des jeux permet d'explorer la question des barrières à
l'entrée, qui peuvent être constituée par de obstacles stratégiques : une firme sait que si elle
entre, les insiders vont prendre des mesures de rétorsion de sorte que l'entrant ne pourra pas
survivre. Deuxième grand domaine d'application, la question de la crédibilité d'une menace. Si on
a un choix entre coopérer entre deux firmes, on a dans la coopération. Ces questions sont
centrales en finances et en économie industrielle.
Exercice : Trois firmes produisent trois biens, mais de qualité différente. Si la concurrence se fait
sur le même secteur de qualité, elle est plus forte que si elle se fait sur des secteurs de qualité
différente.

Bon Moyen Faible


Bon (50 ; 50) (70 ; 35) (10 ; 80)
Moyen (70, 35) (-10 ; -5) (15 ; 1)
Faible (60 ; 70) (1 ; 15) (-20 ; -40)

1) Quels sont les équilibres de Nash de ce jeu ?


2) Quelle stratégie maximise les profits joints ?
3) Quelle entreprise bénéficie le plus des profits joints ?
4) Quelle somme cette dernière entreprise peut-elle offrir à sa partenaire pour faire collusion ?

1) La case (Moyen ; Bon) est un équilibre de Nash. Il n'y a qu'un seul équilibre de Nash.

2) (60 ; 70)

3) C'est l'entreprise 2

4) Au moins 10 de manière à ce que l'autre gagne 70. L'optimum de Pareto est ici (60 ; 70).

8.1.2) Le paradoxe d’Allais

C'est à partir de ce choix de la théorie de l'espérance d'utilité (Internet : La surévaluation de la


probabilité de gain induit des poids décisionnels qui font percevoir par les agents économiques
un jeu dont l’espérance de gain est négative comme un jeu dont l’espérance « perçue » est
positive) que la première véritable expérience va avoir lieu. Elle est menée par Maurice Allais.
Jimmie Savage développe la théorie de l'espérance d'utilité. En 1953 New York, Allais et
Savage déjeunent ensemble et décident de mener une expérience.
- L'expérience est la suivante : choisit-on la situation A (certitude de recevoir 100 millions
de dollars avec une probabilité de 1), ou la situation B (incertitude entre recevoir (500
millions de dollars avec une probabilité de 98/100 ou 0 avec une probabilité de 2/100) ?
- La deuxième question est la suivante. On a 1 chance sur 100 de gagner 100 millions, et
99/100 de gagner 1 million (situation C). La situation D est la suivante : on a une 0,098
chance de gagner 500 millions, 0,99 chances de gagner 1 millions et 0,02 chances de ne
rien gagner du tout.

Jimmie Savage et les autres spécialistes choisissent A et D. Ce choix viole l'axiome


d'indépendance. C peut s'écrire 0,01A + (0,99)Z et D = (0,01)B + 0,99Z (Z correspondent à un
gain de 1 million). L'axiome d'indépendance implique donc qu'on choisisse C si on choisit A, et D
si on a choisi B. Ce paradoxe a donné la « prospect theory » de Kahneman et Tvsersky.
Supposons qu'on est plus riche de 300 qu'il y a une heure. Soit une situation A dans laquelle on
est sûr de gagner 100 euros. Soit une situation B où on a 1/2 chance de gagner 200 et 1/2
chance de gagner 0. (Ici, l’axiome d’indépendance de la théorie d’utilité est violé, et Allais
explique ça par la présence d’une prime de risque, qui centralise l’attention de l’agent, lorsque le
risque est extrême.)

8.1.1) L’institutionnalisation de l’économie expérimentale : un nouveau « tournant empirique »


dans la discipline économique

Ce tournant empirique qu'a pris la théorie économique depuis la Seconde Guerre Mondiale
est extrêmement important aujourd'hui. Il a débloqué l'idée selon laquelle on ne peut pas
expérimenter en sciences humaines. L'idée est que si l'on prend un dilemme du prisonnier, il est
par exemple impossible de l'expérimenter en vrai. Toutefois commencent certaines
expérimentations : cela commence avec une théorie importante, extraite de la Theory of Games
and Economics Behvior de 1944, qui est la théorie d'espérance d'utilité. Il y a deux théories du
choix : une théorie du choix en environnement certain, et une théorie du choix en environnement
incertain, soit dans une situation de risque. Cette situation de risque peut être représentée sous
la forme d'une loterie (intervention du hasard). Une loterie, c'est une distribution de probabilité sur
un ensemble de résultats. Qu'est-ce que l'espérance de gain de cette loterie ?

Exemple : Soit une urne qui a une boule blanche et une boule noire. Si on tire la boule blanche,
on gagne 100 euros et si on tire la boule noire on ne gagne rien. L'espérance de gain est donc de
50 euros. Un individu qui aime le risque sera prêt à mettre plus de 50 euros pour participer
à la loterie. 50 est l'espérance de gain objective. C'est ensuite, selon son amour ou son aversion
au risque, que les joueurs seront prêts à jouer ou à ne pas jouer. Introduisons maintenant
l'espérance d'utilité de la loterie. Cette espérance d'utilité de la loterie est pour ce cas-là 1/2 x
Utilité (100 euros) + 1/2 x Utilité (0 euros). On retombe toujours sur 50 donc. Toutefois, cela peut
être plus compliqué. Imaginons maintenant que la fonction d'utilité de l'agent soit égale à
racine(X). Donc l'espérance d'utilité du gain de la loterie est maintenant égale à 1/2 x 10 + 1/2 x 0
= 5. Cela veut dire que dans ce cas, le gain certain est de 25 (100/5 ?) . Ce raisonnement est la
base de la théorie de Von Neumann et de Morgenstern. Combien on accepte de payer pour
participer à la loterie ? Un agent « normal » acceptera de payer jusqu'à 25 pour participer à la
loterie. Si l'agent paye 10 euros par exemple, il a un gain ex-ante (c'est-à-dire qu'il a déjà gagné
15 euros d'une certaine manière). Cette théorie de l'espérance d'utilité
repose sur deux axiomes notamment (elle va plus loin que la simple utilisation des probabilités
en introduisant une fonction d’utilité, et se distingue donc de l’espérance de gain.) :

- Un axiome d'indépendance : Si une loterie X est préférée à une loterie Y alors la loterie pX + (1-
p)Z est préférée à la loterie p(Y) + (1-p)Z (Si on préfère de la vanille à la de la fraise, on préfère
de la vanille avec un peu de chocolat à de la fraise avec un peu de chocolat).
- Un axiome de transitivité : Si une loterie X est préférée à une loterie Y et que une loterie Y est
préférée à une loterie Z, alors la loterie X est préférée à la loterie Z.

8.2) Psychologie économique et économie comportementale (behavioral economics)

8.2.1) Les modèles de prospect de Kahneman et Tversky

La « pospect theory » consiste à introduire d'une part les émotions dans l'analyse économique, et
à prendre en compte les effets de cadrage d'autre part. Les effets de cadrage c'est l'influence de
la manière dont on présente un problème à un individu, et qui fait que certains sont plus
réticents/enclins à perdre/gagner de l'argent. En 2002, on remet un prix Nobel à Kahneman et
Tversky (à titre posthume). Ils disent que les individus utilisent des raccourcis cognitifs, qu'ils
appellent des heuristiques. Le programme de la prospect theory est parfois appelé heuristiques et
biais (« heuristics and biases »).

Les causes centrales de ces heuristiques et de ces biais sont doubles : effets de cadrage et
capacités cognitives. Les heuristiques ce sont des règles qui conduisent à des approximations
efficaces pour simplifier les problèmes. Les biais désignent la distorsion entre la façon dont nous
devons raisonner pour assurer la validité du raisonnement et la réalité. Les heuristiques
statistiques, ce serait un peu comme les probabilités statistiques puisqu'on tire des règles
d'expériences passées. Il y a aussi les heuristiques non statistiques. Les heuristiques non
statistiques reflètent l'incapacité des individus (phrase prise sur une meuf pas attentive devant, à
vérifier !). L'heuristique non statistique traduit le fait que dans la vraie vie les gens sont plutôt
réticents à se baser sur des statistiques pour choisir leurs comportements : ils peuvent se baser
sur leur envie de boire du coca, plutôt que de suivre des statistiques qui pointent la mauvaise
influence du coca sur la santé. Quelques exemples d'heuristiques pour illustrer cette définition :
une heuristique de représentativité (c'est une règle qui consiste à estimer la probabilité
d'appartenance d'un objet à une classe d'objet à partir de sa ressemblance avec un cas-type ; si
on a toujours eu des profs très ennuyeux, quand on voit arriver un prof, on se dit qu'il est
ennuyeux), une heuristique de disponibilité (on juge la fréquence ou la probabilité d'un
événement en fonction de la capacité qu'ont les individus à se remémorer l'événement ; on se
base ici sur les informations immédiatement disponibles ), un heuristique d'ancrage et
d'ajustement (l'ancre, c'est l'information pertinente à travers laquelle se fait le choix et donc le
jugement), heuristique de simulation (utilisée dans le raisonnement contre-factuel : c'est le fait de
considérer le dénouement probable d'une situation comme celui qui aura réellement lieu),
l'heuristique d'effort (lorsque l'obtention nécessite un effort, cet objet aura plus de valeur une
fois obtenu), l'heuristique de rareté (la valeur d'un bien augmente avec sa rareté), l'heuristique de
négativité (une information positive a plus de poids qu'une information négative : voir « framing
live, framing death »).

Exemple d'heuristique d'ancrage et d'ajustement : On fait tourner une roue de la fortune avec
deux ancres possibles : 10% et 65%. Puis on demande si ce pourcentage est inférieur ou
supérieur aux nations africaines représentées aux USA. Puis on demande d'estimer le
pourcentage de nations africaines effectivement représentées aux USA. Si l'ancre est de 10%,
l'estimation finale est de 25%. Si l'ancre est de 65%, l'estimation finale est de 45%. Les réactions
expérimentales des individus partent de cet ancrage truqué.

Exemple d'heuristique de simulation : On est plus frustré si on rate un avion à cinq minutes près,
que si on le rate à deux heures près. Dans cette heuristique, on se fait le film de ce qu'il se serait
passé si le dénouement avait eu lieu.

Nous avons tous des représentations sur le monde, qui sont médiées par les heuristiques. Thaler
et Sunstein vont s'appuyer sur le programme de Kahneman et Tversky pour essayer d'inventer
des politiques publiques qui orientent les comportements des agents tout en restant libéral au
sens anglo-saxon du terme (sans tomber dans le paternalisme). Obama a une commission sur
les « nudges ». La question est simple : peut-on établir un comportement de paternalisme libéral
? Le paternalisme c'est la doctrine qui justifie qu'il est moralement légitime pour un agent privé ou
public de décider à la place d'un autre agent pour son propre bien. Le problème du paternalisme
c'est que ce n'est pas libéral. Dans nos pays, on peut considérer qu'il est normal qu'on interdise
aux gens de boire trop, de se droguer, etc. Dans la logique paternaliste, il est justifié que la
puissance publique oriente les choix. La question du paternalisme libéral introduit l'idée qu'il faut
analyser les individus tels qu'ils sont, c'est-à-dire non rationnels, mais soumis à des émotions. La
rationalité est limitée, mais la volonté des individus aussi (on parle de « bounded power »). L'idée
des heuristiques c'est de renforcer les biais cognitifs pour amener des agents à se comporter
différemment. La limitation de la volonté individuelle est un problème central dans les théories du
« nudge ». Les choix intertemporels sont un autre problème. Dans l'ouvrage Nudge de Sunstein
et Thaler, l'exemple est le suivant : un gestionnaire de cafétéria scolaire se rend compte que la
manière dont sont agencés les repas amène les élèves à consommer de manière très différente
leur plat. Si on présente joliment les salades, et dans des boîtes pas stylées la junk food, ça aura
un impact. Plusieurs possibilités de nudges :

- Débiaising : Il s'agit de rendre les choix individuels plus rationnels en fournissant aux
individus le moyen d'être conscient des heuristiques et des biais.
- L'architecture de choix : C'est la construction du contexte dans lequel se fait la décision.
- Les contraintes inter-temporelles : On cherche à limiter les incohérences temporelles ( les
femmes battues préfèrent au bout d’un certain moment rentrer au domicile conjugal que
porter plaine : c’est une préférence incohérente qui existe car au gré du temps les
préférences changent) et donc à limiter les options disponibles dans le futur.

Retour sur le cours : L'heuristique c'est un peu comme le « framing », c'est la manière dont le
choix est encadré. Le cadre de ces heuristiques, c'est la rationalité limitée. Dans la vie
quotidienne, on raisonne beaucoup avec des heuristiques. Une heuristique statistique, c'est que
statistiquement, une cause alpha donne un effet bêta : l'idée est que si statistiquement on a une
meilleure note quand on prépare un examen, que quand on ne le prépare pas, on va donc
préparer son examen. Ce qui est intéressant dans les heuristiques et qui conduit aux nudges,
c'est l'idée que la manière de présenter les choix peut influencer les décisions des agents, sans
les obliger. L'utilisation d'heuristiques veut dire qu'on reste dans un système libéral. Les nudges,
c'est la modulation de l'impact des heuristiques. La question du paternalisme libéral est centrale.
Dans les pays anglo-saxons, l'idée d'interdiction de fumer par exemple, semble impossible. Ce
paternalisme doit être faible, et non intrusif (ne pas entrer de manière décisif dans la prise de
décision des agents). Jamais la puissance publique ne doit se substituer au choix des agents.
Par ailleurs, l'action de la puissance publique doit pouvoir être efficace, doit pouvoir accroître ce
qui est bon pour les agents, en développant l'architecture de choix, pour permettre aux agents
d'avoir des performances conformes à leur bien-être objectif. Le troisième caractère, c'est que le
paternalisme libéral est inévitable. Sur ce qui est nudging, il y a eu tout un débat dans le monde
anglo-saxon de savoir s'il s'agissait e libéralisme ou de paternalisme.

Les cascades informationnelles :

C'est une procédure rationnelle de choix lorsqu’on a une information privée qui n'est pas
certaine et une information publique qui n'est pas non plus certaine. Disons qu'on est dans une
ville de vacances que l'on ne connaît pas. Avant de partir, on regarde le trajet sur une carte. En
partant, on a oublié la carte. On se souvient qu'on avait vu que la route A était plus rapide pour
aller à la plage, mais on voit les gens prendre la route B. Du fait de l'incertitude sur la lecture de la
carte et du comportement des gens, il est rationnel pour les gens de prendre la route B.
Supposons que l'information privée ait une probabilité d'être vraie de 51%. La première voiture va
prendre la route B, tout le monde va le suivre, et don l'erreur va être de 49%. Lorsque
l'information privée n'est pas si certaine, choisir une informatique publique, encore moins
certaine, mais conforté par le comportement des gens, est un choix rationnel . La cascade, c'est le
choix rationnel entre une information privée (le jugement personnel), et une information publique
(ce qu'on observe). C'est un choix objectif. Ce principe des cascades informationnelles est le
même principe que les nudges, les framing, etc. Comment, dans une situation d'information
limitée, d'incertitude, on a des solutions liées à des heuristiques, ou encore des nudges, voire à
un mimétisme informationnel, qui suppose que puisqu'on ne sait pas, on suppose que les autres
individus savent. Keynes dit qu'il vaut mieux avoir tort avec tout le monde, que raison tout seul
(sur un marché financier). L'étude des cascades informationnelles permet d'analyser les
mouvements spéculatifs. Sunstein a analysé la bulle américaine liée au prix de l'immobilier. Il a
dit que c'est un système de cascade informationnelle : on veut vendre une maison, on pense
qu'elle vaut tant, et que le prix de l'immobilier augmente, donc on vend plus cher que sa valeur, et
on contribue à faire augmenter le prix de l'immobilier, jusqu'à ce que la bulle explose. Cet écart
entre l'information privée et l'information collective créé une cascade informationnelle qui
provoque des bulles spéculatives. C'est une littérature relativement récente. Le premier grand
papier, nous le devons à Ho Lee, qui publie dans la revue Economics and Statistics un article sur
les avalanches informationnelles. Une cascade informationnelle apparaît lorsqu'il est optimal pour
un individu ayant observé les actions de ceux qui l'ont précédé de copier le comportement de ses
prédécesseurs, quelle que soit sa propre information. C'est comme ça que se construit une
cascade.

Retour sur le cours : Les heuristiques créent les biais. Le biais, c'est la différence entre un
comportement rationnel, tel que le décrit la théorie, et le comportement effectif, en partie façonné
par d'autres formes de rationalité). Comme il y a toujours des biais, l'une des manières de
modifier le comportement est de « débiaiser » les comportements. Le « debiaising » consiste à
expliquer cet écart. Le « framing », c'est la manière de présenter un problème : selon cette
manière, le choix en sera influencé. Les heuristiques c'est ce qu'on pratique soi-même tout le
temps, elles ne sont pas fabriquées par les autres. Le paternalisme pose les limites au biais.
« Framing live/framing death » : c'est l'histoire du choix où on demande aux gens de choisir entre
sauver 200 personnes sur 600, ou de ne pas pouvoir en sauver 400. Le paternalisme a plusieurs
formes : débiaisement, architecture de choix. Le paternalisme, ce n'est pas du marketing. La loi
Evain est un exemple : on interdit la publicité sur le tabac. Par contre l'interdiction de fumer sur
les lieux publics, en revanche, ce n'est pas du paternalisme.)

Questions d'ordre général sur le cours : (Pour le partiel, les questions possibles correspondent
aux sous-titres. En fait, la prof attend de mettre en lien les notions, comme par exemple la
typologie de Weber et la typologie des comportements affectifs, etc.).

Conclusion générale du cours de rationalité et organisation :

La neuro-économie :

La neuro-économie et les identités multiples (« multiple selves ») sont deux domaines qui
bougent beaucoup en ce moment. La neuro-économie s’est principalement développée aux USA,
et un peu en Suisse. C'est une sorte de 2 ème étape de l'économie comportementale, en reprenant
le modèle de Kahneman et Tvsersky qui intégrait des émotions au modèle, dont la conscience
permet de revenir à un modèle rationnel. L'enjeu c'est comment modifier la prise de décision des
agents (neuro-marketing), soit apprendre aux agents à ne pas se faire avoir par tout ce qui est «
framing ». Il y a une sorte de deuxième étape qui consiste
à aller regarder à partir d'instruments techniques des neurosciences d'aller regarder quels sont
les morceaux du cerveau qui vont s'activer dans un contexte de prise de décision. On se fonde
sur l'IRM fonctionnelle. C'est un instrument d'imagerie médicale. On observe le lien entre les
zones neurologiques et la prise de décision. L'idée d'utiliser des expérimentations
neurophysiologiques va être appliquée à partir des années 2000, surtout depuis 2010, par un
certain nombre d'auteurs comme Colin Camerer, Gigerenzer. Le professeur renvoie notamment
à un livre de Damasio L'erreur de Descartes (Internet : Descartes disait qu’être rationnel, c’était
se couper de ses émotions). Il y a aussi les travaux de Fehr en Suisse.

La démarche consiste à repartir de la théorie de l'utilité espérée, pour analyser le paradoxe


d'Allais en essayant de comprendre le choix des agents. L'explication des neurobiologistes sur le
paradoxe d'Allais tient à l'attraction de la chose : on préfère choisir la sûreté que de tenter le plus
attrayant au risque de perdre beaucoup (pour les deux premières options). Pour les deux
secondes options, la neurobiologie montre que pour le choix la zone qui s'éclaire est la zone de
l'anticipation des regrets. Ariel Rubinstein qui s'est intéressé à l'économie comportementale, à la
théorie des jeux, et à la neuro-économie, a proposé une critique : ce n'est pas parce qu'une
région cérébrale est activée que cela explique la prise de décision.
Rubinstein dit qu'il y a 3 théories pour la rationalité :
- La théorie centrale dit que le décideur applique une fonction de choix pour déterminer un choix
a dans l'alternative A. On suppose que le choix est rationnel, que les agents ont des préférences.
- L'économie comportementale dit que le choix dépend des « framing » (cadrage : organisation
de la présentation du choix a de telle manière que la plupart des gens le suive),
- Le modèle neuro-économique dans lequel le choix résulte de l'activation d'une zone cérébrale,
cette activation est l'indicateur d'une stratégie est cognitive.

Les domaines d'application se situent surtout dans la théorie pure, mais aussi un peu en gestion
(choix inter temporels, comportements altruistes, marketing : exemple du « parfum le plus cher du
monde »).

2) Les identités multiples (« multiple selves ») :

Il y a deux théories ici. La première vient de Georges Akerlof. C'est celui qui a essayé la théorie
de l'altruisme dans la relation professionnelle. Avec Edith Kanton, il publie un livre sur les
identités multiples. Les identités multiples renvoie à l'idée que l'agent rationnel n'est pas un, mais
qu'il est multiple. L'idée est que l'individu rationnel qui fait des choix n'aura pas les mêmes
préférences et la même fonction d'utilité dans le temps : on est donc dans le cadre d'une
diachronie (et non d'une synchronie). Il y a une théorie plus institutionnelle, qui est celle de John
Dario, qui dit que l'identité n'est pas la même partout sur terre.

Retour sur de points du cours :

La tragédie des biens communs :

Dans l'article, Hardin développe l'idée selon laquelle la tragédie des biens communs
conduirait les agents à surexploiter les biens que les agents partageraient. Cette question a
été reprise par Ostrom, qui définit ce qu'est un bien commun, et réfléchit à cette tragédie. La
question est d'opposer l'intérêt individuel à l'intérêt collectif lorsqu'il y a un bien commun.
Le résultat est qu'on aboutit à une surexploitation des biens. La question du bien commun porte
sur un bien dont on ne peut pas attribuer de droit de propriété. Par exemple, il y a l'océan : il y a
des bateaux qui déversent du pétrole, mais il n'y a pas de droit de propriété. Un bien rival est un
bien dont les droits de propriété ne sont pas définis. Ostrom distingue 3 solutions :
- Elle reprend l'idée de Pigou, qui propose de nationaliser les biens communs pour les
règlementer. Il y aurait alors des taxes pigouviennes pour définir l'accès à la ressource.
- La privatisation des biens : Par exemple, le champ commun serait géré par le maire du village,
qui distribuerait les droits de propriété entre les habitants qui recevraient chacun une part.
- Un arrangement institutionnel : Cela conduirait à gérer collectivement les écosystèmes.

Les mécanismes d'incitation : Le principal sait que dans certains cas, l'agent a intérêt à mentir. Il
lui propose donc la rémunération qu'il obtiendrait à ne pas mentir. Pour remédier à cela, le
principal préfère que l'agent lui révèle son mensonge, et lui dire qu'il le paye pareil que s'il avait
menti, pour détecter le mensonge. Le contrat incitatif utilise des instruments économiques.

La typologie des trans-actions : Les « rationing transactions » c'est lorsque qu'une autorité
hiérarchique (institution plutôt ?) donne des informations : on n'pas le droit de faire travailler un
enfant de onze ans.

Théorie des jeux : Le résultat vient de son choix, mais aussi du choix du partenaire. C'est ça le
principe des interactions stratégiques. L'équilibre de Nash c'est un ou plusieurs points où les
joueurs. Il y a deux cas de figure. En stratégie pure, il n'y a pas d'équilibre de Nash : il faut donc
passer par les stratégies mixtes.

Le paradoxe d'Allais : C'est lui qui monte que dans un colloque une expérience va remettre en
question l'un des deux axiomes de l'utilité espérée forgée par Savage et Von Neumann. Le choix
s'expliquerait par des émotions, des heuristiques, donc des manières de poser le problème. Les
agents peuvent avoir des émotions qui font qu'ils choisissent autre chose que ce que la théorie
de l'utilité espérée impliquait. Cela conduit à la théorie des heuristiques de Kahneman et Tversky,
et celle du « nudge » (en français, le coup de pouce).

Exemple de « nudge » : A l'aéroport d'Amsterdam, il y avait des frais de nettoyage pour les
urinoirs. La solution a consisté à mettre une mouche dans l'urinoir. Une stratégie dominée est une
stratégie toujours perdante (ce sont des stratégies strictement dominantes et dominées). Une
stratégie faiblement dominante, c'est que la stratégie puisse être dominante comme perdante.

Vous aimerez peut-être aussi