Microéconomie
Chapitre 1 : Les fondements de la microéconomie
I) La naissance de la microéconomie
Il est très difficile de dater l’apparition de la microéconomie, tant de nombreux économistes
au cours de l’histoire se sont inspirés d’elle. Cependant, le véritable développement de cette
science, au sens où elle a été portée sur le devant de la scène comme le seul et unique moyen
de comprendre le fonctionnement de nos sociétés, peut être recherché aux environs des
années 1870’s, ou plus exactement, au cours de la seconde moitié du 19ème
siècle.
Jusqu’ici, un certain nombre d’économistes, qualifiés de « classiques » (d’A. Smith à JS.
Mill), s’étaient succédés pour défendre, tour à tour, leurs visions des sociétés contemporaines,
et notamment de celles qui s’étaient développées avec la « révolution industrielle ». Ils
tentaient de comprendre et d’expliquer les phénomènes nouveaux qui étaient en train
d’apparaître au sein des sociétés postindustrielles : transition démographique, exode rural,
misère ouvrière etc…
Malgré quelques divergences d’opinions, plusieurs points communs caractérisaient ces
économistes :
- Valeur des biens : l’ensemble des biens échangés sur le marché ont une valeur
intrinsèque, objective et indépendante des préférences individuelles. En effet, mise à
part JB. Say, les classiques pensent que la valeur d’un bien se mesure par la quantité
de travail « incorporée » en ce bien, quantité mesurée par le temps de travail
nécessaire à sa production. D. Ricardo 1 et K. Marx
2 sont certainement les deux
auteurs qui ont défendu le plus ardemment cette conception de la valeur.
- Approche des phénomènes : La plupart des classiques se référait à une analyse du type
« macroéconomique », c’est-à-dire qu’ils s’intéressaient essentiellement à comprendre
les mécanismes d’interaction entre les variables agrégées au niveau national
(Production, Investissement, Epargne, Inflation etc…). Même s’ils tentaient d’analyser
le comportement des individus en société, ils désiraient, avant tout, comprendre les
tenants et aboutissants des grandes variables macroéconomiques.
- Méthode explicative : La plupart des classiques se référait à ce que l’on pourrait
appeler « le monisme épistémologique ». L’objectif est de comprendre objectivement
les phénomènes économiques en utilisant les mêmes outils de travail que les sciences
de la nature. Autrement dit, l’approche scientifique des classiques se base sur la
formulation d’hypothèses générales dans le but de construire des modèles théoriques
universels qui serviront à comprendre la réalité économique et sociale. Cependant, les
classiques utilisaient très peu les mathématiques, considérant qu’elles n’étaient pas
nécessaires pour expliquer les phénomènes de société.
1 « Des principes de l’économie politique et de l’impôt » - 1817 2 « Le Capital » (Livre 1) - 1867
A la fin du 19ème
siècle, un certain nombre d’économistes ont tenté d’apporter
plusieurs critiques aux conceptions scientifiques des « classiques ». Leurs influences ont
tellement été importantes par la suite que nous avons même parlé de « révolution
marginaliste ». En effet, au début des années 1870’s, trois économistes publiaient au même
moment trois ouvrages dont la portée n’était encore connu de personne. Ces trois
personnalités provenaient d’horizons géographiques très différents, et pourtant, leurs analyses
s’avéreront identiques, à quelques nuances près.
S. Jevons [1835 ; 1882] (Ecole de Cambridge) : « Théorie de l’économie politique », 1871
C. Menger [1840 ; 1921] (Ecole de Vienne) : « Principes de l’économie politique », 1871
L. Walras [1834 ; 1910] (Ecole de Lausanne) : « Les éléments d’économie politique pure »,
1874.
Ces trois économistes, et leurs successeurs, voulaient en finir avec plusieurs conceptions
des « classiques » qui leur paraissaient erronées.
Tout d’abord, cette critique datant en réalité de H. Gossen (1854), la valeur d’un bien ne peut
être mesurée par la quantité de travail incorporée en lui. En effet, ceci serait négligé le rôle
fondamental de l’individu dans la détermination des valeurs. En réalité, la valeur ne peut être
que « subjective », c’est-à-dire directement rattachée aux préférences des individus. Ce sont
ces derniers, qui à travers leurs désirs et leurs besoins, accordent une valeur plus ou moins
élevée aux marchandises. La valeur d’un bien est donc mesurée par l’utilité, c’est-à-dire
l’importance que ce bien représente pour l’individu dans la satisfaction de ses besoins
personnels. L’individu est donc le centre de la valeur. Ainsi, les prix sur le marché (forme
monétaire de la valeur) résultent directement de la confrontation entre les préférences
subjectives des agents présents sur ce marché. C’est à travers le mécanisme de l’offre et de la
demande, qui ne reflète rien d’autre que les désirs individuels, que se forment le prix des
biens et services.
Ensuite, ces « néo-classiques » (ou marginalistes), comme on les appellera par la suite, ont
voulu rompre définitivement avec leurs prédécesseurs sur la démarche que doit adopter la
science économique. Cette dernière doit se révéler avant tout mathématique.
« Dès que les choses dont une science s’occupe sont susceptibles de plus ou de moins, leurs
rapports et leurs lois sont de nature mathématiques » (Walras, Economie et mécanique, 1909)
Nous ne pouvons comprendre efficacement les phénomènes économiques qu’en les
analysants rationnellement (comprenez mathématiquement). Il faut donc que la science
économique adopte les mêmes fondements que les sciences de la nature, pas seulement sur la
démarché générale (formulation d’hypothèses et construction de modèles théoriques) mais
aussi sur l’outil utilisé, à savoir les mathématiques. C’est le seul moyen pour que la science
économique devienne véritablement scientifique. Certes, les classiques ont raison lorsqu’ils
s’inspirent des sciences dures pour construire leurs modèles théoriques à partir d’hypothèses
simplificatrices de la réalité, mais ils ont tort lorsqu’ils tentent de le faire sans recourir à
l’utilisation des mathématiques.
Fondamentalement, les néo-classiques considèrent que la théorie de la « main invisible » de
A. Smith est partout vérifiée, mais ils le critiquent par le fait qu’il tente de la démontrer par
des méthodes qui ne leur paraissent pas scientifiques. Ce que cherchent donc ces économistes,
c’est de démontrer rationnellement cette théorie, en utilisant les mathématiques. Il faut
montrer scientifiquement que le marché aboutit à une solution efficace pour tous. Ce sera l’un
des enjeux de la microéconomie.
Enfin, la critique la plus importante est certainement celle de l’approche macroéconomique
des classiques. Nous ne pouvons pas comprendre les phénomènes si on ne les interprète pas
en partant de l’individu et de son action individuelle. C’est donc avant tout une méthode
individualiste qui sera mise sur le devant de la scène par les économistes néo-classiques.
Seule la compréhension de l’individu isolé (à la Robinson Crusoé) et de ses choix rationnels
peut nous permettre d’expliquer le fonctionnement des sociétés ainsi que des phénomènes
macroéconomiques. La macroéconomie n’est donc pensée que comme l’agrégation de
multiples phénomènes microéconomiques : ce qui est vrai au niveau microéconomique l’est
aussi au niveau macroéconomique C’est donc avec cette critique que les néo-classiques
placeront la microéconomie comme la seule explication véritablement scientifique, la
macroéconomie découlant simplement de cette dernière.
En définitive, ce que cherchent les économistes néo-classiques, c’est de construire une
« microéconomie modélisée » pour aborder efficacement les phénomènes économiques.
L’objet de la science économique doit être l’étude mathématique du comportement individuel,
comportement qui nous permettra de comprendre, par la suite, les phénomènes plus globaux.
Comme le soulignait L. Robbins en 1932 : « L’économie est la science qui étudie le
comportement humain en tant que relation entre des fins et des moyens rares à usages
alternatifs »
Remarque : C. Menger est un économiste particulier à son époque. Défendant la
microéconomie comme la seule science valable, il dénoncera cependant l’utilisation des
mathématiques ainsi que la conception microéconomique des deux autres auteurs.
Ainsi, lorsqu’on emploiera le terme de « néo-classiques », on ne se référera qu’à l’école de
Cambridge et à celle de Lausanne. L’emploi du terme « marginalistes » englobera les
économistes autrichiens.
II) L’approche microéconomique traditionnelle.
Cette approche a été développée par les économistes néo-classiques et constitue, à juste titre,
le premier développement d’une microéconomie modélisée.
Tout d’abord, les néo-classiques considèrent, pour des raisons hypothétiques, qu’il n’existe
que deux agents économiques fondamentaux qui échangent sur le marché: les
consommateurs et les producteurs. Bien entendu, un consommateur peut devenir, à un
moment donné, producteur, et inversement. L’Etat est donc exclu du champ d’analyse puisque
le fonctionnement du marché est indépendant de son existence.
Il est possible, sous un angle néo-classiques, de définir la microéconomie comme une science
à la fois explicative et normative.
- Explicative car elle cherche à comprendre les motifs qui poussent les individus à agir
dans telle ou telle direction. Elle cherche à savoir comment les agents économiques
déterminent leurs actions à partir des « signaux » envoyés par le marché et des
contraintes qui leur sont imposées par leur environnement. En ce sens, elle cherche
donc à expliquer simplement le comportement rationnel de l’individu.
- Normative car elle ne cherche pas à décrire la réalité telle qu’elle nous apparaît (en ce
sens, on peut dire qu’elle n’est pas empirique), mais cherche à connaître la solution la
plus optimale. Elle veut donc en permanence trouver la meilleure organisation sociale
et comprendre quel est le meilleur choix possible pour l’individu, compte tenu de la
diversité de ses possibilités d’action. Elle recherche donc ce qui constitue la meilleure
décision pour l’agent pris isolément. Parmi les choix que doit faire l’individu, quel est
le meilleur POUR LUI ? Voilà la question fondamentale de la microéconomie
traditionnelle.
En conséquence, la microéconomie est l’étude des comportements individuels rationnels
(des consommateurs et des producteurs) et de leurs interactions sur les marchés.
Cependant, pour être une science pleinement normative, la microéconomie doit partir
d’hypothèses simplificatrices de la réalité, cette dernière se révélant trop complexe pour en
saisir la moindre particularité. En effet, en observant la réalité telle qu’elle nous apparaît, on
ne peut connaître la solution optimale d’un seul individu. Il faut donc construire un modèle
qui va simplifier cette réalité et qui va nous permettre de comprendre le fondement de
l’optimum. Il faut alors faire des suppositions quant au comportement de l’agent et présumer
entre autres qu’il connaisse son meilleur choix possible et qu’il soit en plus capable de
l’atteindre.
- Première hypothèse : L’individu est supposé parfaitement rationnel. Il constitue, aux
yeux des néo-classiques, un « homo oeconomicus » c’est-à-dire un être doté d’une
raison parfaite. L’agent connaît tous ses besoins, toutes ses préférences et est capable
de calculer précisément la satisfaction que lui rapporte chaque bien consommé ou
produit. Il s’agit de la vision cardinale de l’utilité. Cela suppose donc que l’individu
dispose d’une information parfaite sur tous les marchés, à la fois en ce qui concerne le
prix des biens, leur qualité intrinsèque ainsi que la quantité disponible sur le marché.
Il doit, en outre, connaître parfaitement ce qui lui permet d’améliorer sa satisfaction
personnelle. L’individu, étant donné sa connaissance parfaite du monde qui l’entoure,
cherchera toujours à maximiser cette satisfaction et sera capable de le faire. Ainsi, le
consommateur est supposé maximiser son utilité et le producteur est supposé
maximiser son profit. En conséquence, chaque individu est supposé atteindre son
« équilibre individuel », moment où il n’a plus intérêt à modifier ses choix
personnels.
- Seconde hypothèse : l’individu agit toujours sous des contraintes qu’il n’a pas
choisies mais qui s’imposent nécessairement à lui. En effet, le consommateur est en
permanence limité par son revenu disponible, l’entreprise par sa technologie et par sa
technique de production. L’environnement dans lequel agissent les acteurs pèse sur
leurs décisions subjectives. Les individus font donc des choix rationnels mais compte
tenu de certaines donnés qui s’imposent à eux.
Il serait alors plus judicieux d’indiquer que les individus maximisent leurs satisfactions
sous contraintes.
- Troisième hypothèse : Toute décision individuelle est marginale. C’est cette raison
qui a poussé les économistes a qualifié parfois les néo-classiques de « marginalistes ».
En effet, selon eux, les individus ne prennent pas leurs décisions en raisonnant
globalement (que m’apporterait la consommation-production de chocolat ?) mais en
raisonnant « à la marge » (que m’apporterait une unité marginale de chocolat ?).
Lorsqu’un individu opère un choix, il prendra la décision d’agir en regardant ce que
lui rapporterait la dernière unité et ce qu’elle lui coûterait, et non en regardant ce que
lui rapporteraient toutes les unités prises dans leur globalité. Cela n’a aucun sens de
croire qu’un bien nous apporte de la satisfaction. Ce sont les quantités consommées ou
produites de ce bien qui nous rendent heureux. Par conséquent, lorsque l’on parle
d’utilité, on se réfère toujours à des quantités d’un bien, et plus précisément aux
quantités marginales de ce bien.
- Quatrième hypothèse : Toutes les interactions individuelles s’opèrent sur des marchés,
qui sont le cadre de l’échange. Un marché est un lieu réel (marché de la Bourse) ou
fictif (marché de l’automobile par exemple) où sont confrontées et coordonnées toutes
les décisions individuelles d’offre et de demande, et sur lequel s’établit un prix
d’équilibre (ou « équilibre de marché »). Le marché est donc le seul lieu d’échange
volontaire et avantageux pour les acteurs puisque c’est sur celui-ci que ces derniers
maximisent leur satisfaction.
III) L’évolution de la microéconomie.
Les trois premiers marginalistes (Jevons, Menger et Walras) constituent ce que nous pouvons
appeler la première génération. Leur particularité (hors Menger) est d’avoir posé les bases
scientifiques de l’analyse microéconomique.
C’est à partir de leurs développements que la microéconomie connaîtra son heure de gloire.
Une foule d’économistes reprendront leurs modèles mathématiques, certains ne feront que les
compléter, laissant leurs fondements intacts alors que d’autres jugeront nécessaire d’apporter
quelques modifications plus réalistes. Quoiqu’il en soit, tous ont cherché à montrer que la
« microéconomie modélisée » était la véritable science explicative des phénomènes sociaux.
Une seconde génération de néo-classiques tentera de compléter les analyses traditionnelles,
sans apporter de modifications majeures aux modèles mathématiques des premiers. On peut
les qualifier de successeurs légitimes sur ce point.
À Cambridge, c’est A. Marshall [1842 ; 1924] et F. Edgeworth [1845 ; 1926] qui
succéderont à Jevons. Le premier est notamment connu pour avoir développé une analyse en
termes « d’équilibre partiel 3», dans son célèbre ouvrage de 1890 « Principes d’économie
politique ».
A Lausanne, c’est V. Pareto [1848 ; 1923] qui succédera à L. Walras, avec son ouvrage de
1896 « Cours d’économie politique ». Il est notamment connu pour avoir complété et
approfondi « l’équilibre général », à travers l’expression connue sous le nom « d’Optimum
de Pareto4 »
A la fin du 19ème
siècle, une controverse va apparaître sur la mesure de l’utilité. En effet,
jusqu’ici, tous s’accordaient pour défendre l’idée que l’individu était capable de calculer
précisément la satisfaction que lui rapportait chaque quantité de marchandise consommée. On
parlait alors « d’utilité cardinale ». Par la suite, plusieurs économistes dénonceront cette
mesure de l’utilité, jugeant qu’elle n’est pas conforme à la réalité. I. Fisher (en 1892), V.
Pareto (en 1906) ou encore E. Slutsky (en 1915) préféreront parler « d’utilité ordinale ». En
réalité, l’individu n’est capable que de classer les biens par ordre de préférence c’est-à-dire de
comparer les utilités, sans pour autant savoir calculer précisément les degrés d’utilité. Il s’agit
d’une mesure relative et non plus absolue. Exemple : Je suis capable de dire que je préfère le chocolat au caramel mais je suis incapable de dire que le chocolat me rapporte 2,5 fois plus d’utilité que le caramel.
A partir du 20ème
siècle, toute une série d’économistes se succéderont afin d’apporter des
compléments à l’analyse traditionnelle de la microéconomie. Cette dernière cherchera
toujours à être de plus en plus réaliste, allant même parfois jusqu’à réformer en profondeur
certaines des hypothèses fondamentales.
Avec la crise de 1929, la macroéconomie keynésienne deviendra la référence pour tous les
politiciens de l’époque. Pendant un certain temps, la microéconomie sera oubliée, certains
jugeant même qu’elle n’a jamais rien apporté à la science économique. Cependant, certains
auteurs, comme J. Hicks (« Valeur et Capital » - 1939), essayeront de remettre sur le devant
de la scène l’analyse microéconomique, tout en la combinant aux préceptes développés par J.
Keynes (1936). Leur objectif sera de construire une « synthèse néo-classique » (modèle IS-
LM), ce que P. Samuelson (« Les fondements de l’analyse économique » -1947) reprendra par
la suite.
3 Cf section 4 4 Cf section 4
A partir des années 1940, une nouvelle génération de microéconomistes apparaît,
bouleversant les analyses traditionnelles des premières générations. Ce bouleversement a été
si important que l’on a qualifié leurs analyses de « nouvelle microéconomie ». Le point de
départ de cette nouvelle microéconomie est de réformer les hypothèses en profondeur. En
effet, elle se veut être un courant théorique porteur d’une analyse plus réaliste des marchés.
Pour cela, elle va apporter des modifications majeures aux modèles construits jusqu’ici. Là où
les premiers néo-classiques se sont trompés, c’est d’avoir considérer l’information comme
parfaite. Selon eux, c’est cette hypothèse qui empêche la microéconomie d’être réaliste. En
effet, l’information ne peut être qu’imparfaite sur les marchés et toute l’analyse doit se baser
en s’appuyant sur cette hypothèse. Ce sera l’objectif de « l’économie de l’information »,
avec son principal représentant : G. Akerlof, « The Market for Lemons » en 1970.
Un autre courant de la nouvelle microéconomie va se développer à partir des années 1940 : il
s’agit de la théorie des jeux. Les fondateurs de cette théorie seront Von Neumann et
Morgenstern en 1944 avec « Theory of Games and Economic Behavior ». D’autres leur
succéderont comme J. Nash en 1951 avec son ouvrage « Non-cooperative Games ».
Dans les années 1950, deux célèbres économistes, Arrow et Debreu reprendront les analyses
de L. Walras en termes « d’équilibre général », dans leur ouvrage « The Existence of an
Equilibirum for a Competitive Economy » de 1954. Leur objectif sera de montrer que cet
équilibre existe mais pas sous les hypothèses trop simplificatrices de Walras. Leurs analyses
permettront de redonner un souffle de vie à la microéconomie et inspireront même des
courants de sociologie (G. Becker) et de macroéconomie.
Certains, par la suite, seront conscients que pour donner raison à la microéconomie, celle-ci
doit faire face à la macroéconomie keynésienne, qui ne cesse de se développer dans les
esprits. Ce sera l’objectif de R. Lucas (appartenant au courant de la « nouvelle école
classique ») dans les années 1970 et 1980 : la macroéconomie keynésienne est dangereuse car
elle omet la réaction des agents économiques face aux politiques menées. En effet, toute
politique macroéconomique modifie les décisions microéconomiques des agents et peut donc
se révéler inefficace. Ce qui compte, c’est de comprendre que la macroéconomie découle
directement et seulement des comportements microéconomiques. L’analyse microéconomique
doit donc être la seule préoccupation des économistes pour comprendre les phénomènes plus
globaux des économies de marché. Toutes politiques keynésiennes est par conséquent à
condamner en raison des perturbations qu’elles provoquent sur le comportement
microéconomique des acteurs.
IV) L’approche en termes d’équilibre général.
La plupart des néo-classiques avaient pour objectif de démontrer mathématiquement que la
« main invisible » de Smith n’était pas qu’une simple idéologie mais qu’elle était le principe
fondateur de l’organisation économique et sociale. Pour le démontrer, la seule voie
véritablement scientifique était l’utilisation des mathématiques. Autrement dit, la seule
préoccupation des premiers néo-classiques a été de valider scientifiquement la thèse de Smith.
En 1874, dans les « Eléments d’économie politique pure », Léon Walras a tenté de démontrer
la théorie de Smith à travers l’idée qu’il existerait un « équilibre général ». En effet, le fait que
les intérêts particuliers des agents économiques se coordonnent efficacement pour former un
intérêt général qui n’a été désiré consciemment par personne, a été l’une des grandes
démonstrations de la thèse de l’équilibre général.
L. Walras voulait répondre, en conformité avec son dessein, à trois questions
fondamentales :
- L’équilibre économique existe-t-il ? Autrement dit, la thèse de Smith est-elle vérifiée ?
- Cet équilibre est-il stable en tout temps et en tout lieu ? Existe-t-il un mécanisme
automatique qui permette de revenir à l’équilibre en cas de perturbations ?
- L’équilibre est-il optimal ? Est-il le plus efficient ?
Cependant, pour Walras, la question n’est pas tant de montrer qu’un équilibre existe sur
chaque marché indépendamment de tous les autres (ce que fera A. Marshall), mais bien au
contraire. L’analyse de Walras s’inscrit dans un cadre où tous les marchés sont
interdépendants, s’influençant mutuellement c’est-à-dire sur lesquelles chaque décision a
des conséquences sur le fonctionnement des autres marchés. C’est à cela que le terme
« équilibre général » renvoi.
L’objectif est de montrer qu’un équilibre existe SIMULTANEMENT sur tous les marchés,
et non sur un marché pris isolément. Autrement dit, Walras ne cherche pas simplement à
montrer que tous les marchés peuvent être équilibrés à un moment ou un autre, mais que tous
le sont en même temps.
On comprend que l’intention de démontrer cette idée ne peut se faire en observant simplement
la réalité telle qu’elle est, mais qu’il est nécessaire de poser des hypothèses qui nous
permettent de simplifier cette réalité. Walras était conscient que sa démarche n’était pas
positive mais bien normative. Par conséquent, il ne cherche pas à montrer qu’un équilibre
général existe réellement (il est conscient qu’il ne l’est pas) mais que des conditions bien
spécifiques peuvent nous permettre de s’en approcher. Ces conditions seront à la base de
l’énonciation de la « concurrence pure et parfaite » (CPP).
En effet, la démarche de l’équilibre général s’inscrit dans des conditions strictes qui sont
celles de la CPP. Walras est donc clair : l’équilibre général existe si les hypothèses de la CPP
sont vérifiées. Il s’agit donc bien d’un modèle normatif.
1) Les hypothèses de la concurrence pure et parfaite.
L. Walras énonce cinq grandes conditions de la CPP :
Atomicité des agents économiques : Les agents (offreurs et demandeurs)
sont en nombre tellement élevé qu’ils n’ont aucune influence
individuelle sur le marché. Aucun d’entre eux, pris individuellement, ne
peut influencer le fonctionnement du marché. Les deux seules choses sur
lesquelles ils ont une influence directe sont les quantités de facteurs
utilisées dans la production (« inputs ») ainsi que les quantités de
production (« outputs »). Ainsi, ils n’ont aucune influence sur les prix du
marché : les agents sont « price takers », devant accepter le prix de
marché comme une donnée s’imposant à eux.
Homogénéité des bien produits : sur chaque marché (1 marché = 1
bien), les biens sont strictement identiques entre les offreurs. Ils
possèdent les mêmes caractéristiques stricto sensu : prix, qualité,
contenu … Dit simplement, chacun vend le même bien que son voisin.
Libre circulation des agents économiques : Tous les agents, offreurs et
demandeurs, peuvent entrer ou sortir librement du marché, sans subir
aucuns coûts.
Information parfaite : Les agents, offreurs et demandeurs, possèdent
exactement la même information sur le marché, celle-ci se révélant
parfaite. Ainsi, les agents connaissent les caractéristiques de tous les
biens sur le marché, y compris leurs prix de vente.
Mobilité parfaite des facteurs de production : tous les facteurs de
production (travail et capital pour simplifier) sont libres de choisir le
marché sur lequel ils souhaitent être employés. Ils peuvent quitter
instantanément un marché pour aller être employé sur un autre marché
qui est plus rémunérateur.
C’est donc dans ce cadre que L. Walras pense l’existence de l’équilibre général. Nous y
reviendrons plus tard.
2) L’admiration pour JB. Say
L. Walras a toujours été très admiratif de JB. Say puisqu’il considère que la « loi des
débouchés », énoncé par ce dernier, est réalisée en tout temps et en tout lieu. C’est d’ailleurs
sur cette base que L. Walras peut penser l’existence de l’équilibre général. Sans cette loi
établie pour vraie, l’équilibre général ne pourrait exister. On peut alors considérer que cette
loi est une condition supplémentaire à son existence.
Voici ce que la « loi des débouchés » énonce :
L’offre de production globale engendre un revenu global, qui, en valeur, égalise la première.
Ce revenu est alors utilisé, par les ménages, soit dans la consommation de biens et services,
soit dans l’épargne. En général, le revenu est utilisé conjointement pour les deux utilisations,
une partie allant pour la consommation et une autre pour l’épargne.
La consommation engendre directement une demande en biens de consommation, et, étant
donné que l’épargne est égale à l’investissement, ce dernier représente aussi une demande de
biens de production. Ainsi, le revenu global constitue une demande globale de même valeur.
L’offre GLOBALE est donc toujours égale à la demande GLOBALE. JB. Say était conscient que des déséquilibres entre offre et demande peuvent se produire, mais
ces déséquilibres ne peuvent être que sectoriels. Il ne peut jamais y avoir de déséquilibre
global entre l’offre et la demande. Les crises de surproduction généralisée, que Keynes
soutiendra, sont donc tout simplement impossibles et illusoires.
L. Walras admet, dans sa totalité, cette théorie. Cela lui permet d’indiquer que la somme des
demandes EN VALEUR est toujours égale à la somme des offres EN VALEUR, c’est-à-dire,
que :
Pn : prix du bien « n »
Dn : demande du bien « n »
On : offre du bien « n »
3) La loi de Walras
Si l’offre globale est égale à la demande globale, ou si, le revenu global engendré par l’offre
de production est égal à la demande globale, on peut en conclure que :
L’offre de facteurs de production, à l’origine du revenu global (l’usage de facteurs de
production est nécessairement rémunérée !) est donc strictement égale à la demande de biens
de consommation.
Walras en déduit que si on pose pour point de départ que tous les marchés sont équilibrés
(offre = demande), alors on peut en déduire que si n-1 marchés le sont, le nième marché l’est
aussi.
Exemple : si on suppose que le système est composé de 5 marchés interdépendants et que 4
d’entre eux sont équilibrés, alors, automatiquement, le 5ème
l’est aussi.
4) L’existence de l’équilibre général.
C’est sur l’ensemble de ces hypothèses que Walras en déduit l’existence d’un équilibre
simultané sur tous les marchés. Il tente de répondre à la question : l’équilibre existe-t-il ?
Remarque : la loi des débouchés ne signifie absolument pas que l’équilibre général existe car
cette loi ne nous dit pas si tous les marchés sont équilibrés en même temps. Il s’agit
simplement d’une condition nécessaire à l’existence de l’équilibre général.
Il se pose la question suivante : puisque les offres et les demandes sont données, existe-t-il
un système de prix qui assure l’équilibre général ? Autrement dit, existe-t-il un ensemble de
prix tel que sur tous les marchés, ces prix assurent un équilibre simultané ?
Walras commence par poser plusieurs équations de base : il suppose qu’il existe x biens et
donc x marchés. Sur chaque marché, il y a une offre, une demande et un prix qui assure
l’égalité entre offre et demande.
Mais, chaque offre et chaque demande dépendent du prix de tous les autres marchés, telle
que :
O1 = f (P1, P2, …, Px)
D1 = f (P1, P2, …, Px)
….
….
Ox = f (P1, P2, …, Px)
Dx = f (P1, P2, …, Px)
Dans ce cas, Walras doit poser un système d’équations avec un certain nombre d’inconnus
tels que le nombre d’équations soit égal au nombre d’inconnus, sinon le système ne pourrait
être résolu. Ceci s’explique par le fait que les prix, qui sont une partie des inconnus, se
retrouvent dans toutes les équations. Autrement dit, les équations sont interdépendantes. La
seule solution est alors de résoudre chaque équation en tenant compte des autres, ce qu’un
système d’équations nous permet de faire.
Il suppose alors qu’il existe « n » équations d’offre (facteurs de production) et « m » équations
de demande (biens de consommation). Mais, il y a aussi « n » équations d’équilibre sur les
« n » marchés de facteurs de production. De même, il existe « m » équations d’équilibre sur
les « m » marchés de biens de consommation. En tout, il y a donc « 2n + 2m » équations.
Mais, étant donné la loi de Walras, on peut supposer qu’il y a « 2n + 2m – 1 » équations, la
dernière se déduisant automatiquement des autres.
De plus, Walras admet qu’il y a « n » inconnues correspondantes aux prix des facteurs de
production et « n » inconnus correspond aux quantités de ces facteurs. De même, il y a « m »
inconnus correspondant aux prix des biens de consommation et « m » inconnus correspondant
aux quantités des biens de consommation. En tout, on a alors « 2n + 2m » inconnus.
A priori, le système ne peut être résolu puisqu’il y a pus d’inconnus que d’équations. Sauf que
Walras considère que parmi les inconnus, il y a la monnaie. Il va donc poser cette dernière
comme « numéraire » en lui donnant une valeur de 1, les autres prix s’établissant en fonction
de cette valeur.
Finalement, le système se retrouve avec « 2n + 2m – 1 » équations et « 2n + 2m -1 »
inconnus. Le système a donc une solution puisqu’on a autant d’équations que d’inconnus.
Walras peut en conclure que l’équilibre général existe. A l’équilibre, tous les agents
individuels ont atteint leur optimum et personne n’a intérêt à changer de comportement. C’est,
selon Walras, la situation la plus juste et la plus égalitaire qui soit, et surtout, la plus optimale.
Nous verrons, par la suite, que certains auteurs ont réfuté cette conclusion.
Prolongement de l’existence de l’équilibre général :
La question de l’existence d’un équilibre général a été reprise par deux auteurs, K. Arrow et
G. Debreu, en 1954 dans un article intitulé « The Existence of an Equilibrium for a
Competitive Economy ».
Ces deux auteurs vont tenter de montrer que la démonstration faîte par Walras est insuffisante
pour prouver qu’un équilibre général existe. En effet, il ne suffit pas de dire que le nombre
d’équations est égal au nombre d’inconnus pour en conclure que l’équilibre simultané sur tous
les marchés existe.
K. Arrow et G. Debreu expliquent que même si cette condition est respectée, l’offre et la
demande peuvent tout simplement ne pas se croiser.
Dans cette situation (qui n’est qu’un exemple), ils concluent qu’il n’y a donc pas de solution
au système. Le système est dit « surdéterminé ».
Selon eux, il faut nécessairement ajouter des conditions pour que l’équilibre général existe :
- Les fonctions d’offre et de demande doivent être continues
- Les fonctions d’offre et de demande doivent être bornées (ne pas tendre vers l’infini)
Sauf que ces conditions font elles-mêmes l’objet de plusieurs hypothèses à respecter :
- Les agents cherchent toujours à maximiser leur satisfaction personnelle (profit ou
utilité)
- Les critères de la CPP sont vérifiés.
- Les marchés sont complets : il existe un marché pour chaque bien présent et pour
chaque bien futur.
- Les agents doivent disposer de dotations en biens initiales avant même d’agir sur le
marché.
- Courbes d’indifférence convexes (voir plus bas) : les biens ne sont pas des substituts
parfaits.
- Rendements d’échelle décroissants.
- Absence de coûts fixes
Remarque : Vous remarquerez rapidement que ces deux auteurs ne font qu’ajouter des
hypothèses supplémentaires au modèle de L. Walras, comme s’il n’y en avait pas assez ….
5) La stabilité de l’équilibre général
Une fois le problème de l’existence de l’équilibre général résolu, Walras pose ensuite les
conditions qui permettent de s’assurer que le système économique tend vers cet équilibre et
qu’il se stabilise à ce niveau. En effet, à priori, rien ne nous dit que ce système converge vers
un équilibre général et s’il se stabilisera au niveau de celui-ci. Il se pourrait que l’on soit
continuellement dans une situation de « déséquilibre général », où l’équilibre est bien plus
une exception qu’une réalité permanente.
Walras est donc confronté à un autre problème : l’équilibre général, même s’il existe, est-il
stable à long terme ? Autrement dit, est-on sûr que l’ordre économique convergera vers un
équilibre simultané sur tous les marchés et qu’il y restera ?
Walras répond, bien entendu, par l’affirmatif, tout en apportant des justifications à son propos.
Tout d’abord, Walras n’exclut pas la possibilité que le système économique peut être
en déséquilibre au moins à court terme (offre > demande ou demande > offre). Mais, si les
prix sont parfaitement flexibles, cette situation ne pourra pas durer.
En effet, il existe, sur tous marchés, des offreurs et demandeurs, qui proposent pour
chaque niveau de prix, une certaine quantité (offerte et demandée). Evidemment, pour un
certain niveau de prix, il se peut que la demande soit supérieure à l’offre (ou inversement).
Mais ce serait oublier notre fameux « commissaire-priseur ». En effet, c’est lui qui est
chargé de récolter toutes les offres individuelles et toutes les demandes individuelles pour
chaque niveau de prix « crié » et pour chaque marché, et qui, par conséquent, est chargé
d’ajuster les deux. S’il constate un déséquilibre, il crie un nouveau prix puis récolte de
nouveau les offres et les demandes. Il continue ce « processus de tâtonnement » jusqu’à
temps qu’il égalise l’offre et la demande sur chaque marché. Ainsi, il finit par trouver, sur
chacun d’entre eux, un prix d’équilibre où chaque offre est égale à la demande. Il a donc bien
équilibré chaque marché EN MEME TEMPS.
Vous l’avez compris : le « commissaire-priseur » doit être capable de modifier le prix
de chaque bien comme il l’entend (sinon pas d’équilibre), ce qui suppose une parfaite
flexibilité de ces prix
Walras est donc clair : l’équilibre, à long terme, ne peut être que stable, grâce à l’action du
commissaire-priseur. Dès qu’un déséquilibre survient, celui-ci se charge de le résorber en
criant un nouveau prix qui permettra d’égaliser, de nouveau, l’offre et la demande.
Mais que font les agents (offreurs et demandeurs) pendant le tâtonnement ? Echangent-ils
même en situation de déséquilibre ou bien ne font-ils que crier des quantités ?
Pour Walras, on ne peut pas échanger pendant la période de déséquilibre. Les échanges ont
donc lieu seulement une fois l’équilibre général atteint. Les agents ne peuvent pas à la fois
crier les quantités offertes et demandées qu’ils proposent à un certain niveau de prix, et en
même temps échanger avec les autres.
Critiques apportées à Walras :
La question de la stabilité de l’équilibre général a été reprise par une série d’économistes,
dont le but premier était d’apporter quelques critiques à l’analyse de L. Walras.
Le « Théorème de Sonnenschein, Debreu et Mantel » énonce que, même avec les
conditions d’Arrow-Debreu, l’équilibre général ne peut pas être stable à long terme.
Si nous croyons Walras, la parfaite flexibilité des prix devraient annuler toute « demande
nette » c’est-à-dire tout excès de demande (positif ou négatif).
Remarque : une « demande nette » positive correspond à un excès de demande. Une demande
nette négative correspond à un « excès d’offre ».
Cependant, cela n’est vérifié que s’il existe une « substituabilité brute » entre tous les biens :
il faut donc que l’effet-substitution l’emporte sur l’effet-revenu.
En effet, supposons que l’économie est composée de deux biens : X et Y. Le prix du bien X
augmente. Deux effets se produisent :
- Effet-substitution : la quantité demandée de biens X diminue et la quantité de bien Y
augmente.
- Effet-revenu : la hausse du prix de X a diminué le pouvoir d’achat du revenu, ce qui se
traduit par une diminution de la demande de X et de Y.
Ainsi, avec la hausse du prix du bien X, le prix relatif de Y a diminué, mais si l’effet-revenu
l’emporte sur l’effet-substitution, la demande de Y diminue également.
Ainsi, il se peut que la « demande nette » de Y (à supposer qu’elle existe) varie dans le
même sens que son prix relatif, ce qui est, bien sûr, contraire à l’analyse traditionnelle de la
loi de la demande. En cas de déséquilibre, il se peut que ce dernier se maintienne
durablement, sans être résorbé.
Le problème est que, sous les conditions d’Arrow-Debreu, les « demandes nettes » sont
totalement indéterminées. Ainsi, rien ne nous dit que l’effet-substitution l’emportera sur
l’effet-revenu ou bien si l’inverse se produira.
Par conséquent, la stabilité de l’équilibre général n’est pas garantie.
Une autre critique a été apportée par JM. Keynes [1883 ; 1946]
Le tâtonnement Walrassien pose problème puisqu’il doit supposer, pour garantir
l’équilibre, que les prix soient flexibles. Or, selon, Keynes, les prix ont tendance à être rigide
à court terme, l’ajustement entre l’offre et la demande se faisant uniquement par les
quantités. Cette idée remet complètement en cause le système des prix de Walras, système
supposé égaliser l’offre et la demande sur chaque marché.
Une autre critique sera apportée par Clower, en 1965, reposant sur sa « théorie du
déséquilibre » et sur un approfondissement de la critique établie par Keynes : pour que le
commissaire-priseur soit capable d’équilibrer l’offre et la demande et de crier un prix afin de
récolter TOUTES les offres et demande individuelles, encore faut-il « entendre son crie ». La
seule solution est de devoir supposer que les offreurs et demandeurs se rencontrent sur un
même lieu. Or, quiconque essaye d’observer la réalité s’apercevra que, mise à part sur le
marché de la Bourse, l’offre et la demande ne se rencontrent jamais directement dans un
même espace géographique. Par conséquent, le commissaire-priseur est une pure fiction
théorique, qui n’existe pas et n’existera jamais. Puisqu’il n’y a pas de commissaire-priseur
qui peut assurer l’équilibre général, personne ne peut alors faire converger la société vers un
système de prix général. Les échanges ont donc nécessairement lieu à des prix de
déséquilibre.
Pour Clower, Walras a donc raison « en théorie » : il existe un système de prix qui permet
d’égaliser les offres et demandes « notionnelles ». Mais, « en réalité », ce système ne peut
assurer l’égalisation des offres et demandes « effectives », simplement parce qu’il n’existe
pas de mécanisme de convergence vers ce système théorique (pas de commissaire-priseur).
De plus, Clower reprend la rigidité des prix chère à notre ami Keynes. L’ajustement sur le
marché s’opère par les quantités et non par les prix.
6) L’efficacité de l’équilibre général.
Nous y sommes : l’équilibre général existe et, en plus, il est stable. Mais est-il efficient ?
Walras n’aura pas le temps de répondre à cette question, la laissant à son successeur de l’école
de Lausanne : V. Pareto, qui fondera ce que l’on a appelé : « l’Economie du bien-être »
Selon lui, toute situation d’équilibre général est nécessairement efficiente. En effet, cet
équilibre correspond à une situation où il nous est impossible d’améliorer la situation d’un
agent sans détériorer au moins celle d’un autre. Il s’agit de son fameux « optimum de
Pareto ».
Il s’agit alors de la situation la plus optimale (comprenez : la plus efficiente) à la fois pour les
consommateurs ainsi que pour les producteurs : aucune ressource n’est gaspillée.
Approfondissements et critiques apportés :
- La critique « constructiviste » : l’optimum de Pareto est un critère d’efficacité et non
de « justice sociale ». Il n’est pas de son intérêt d’étudier ou de juger de l’écart de
revenu et de bien-être entre les individus. Autrement dit, il n’indique pas quel est le
meilleur système de répartition de ressources dans une économie. Son seul intérêt est
d’indiquer que l’équilibre général est efficient économiquement mais pas de
démontrer qu’il l’est socialement.
- Une deuxième critique à apporter est la multiplicité des optimums de Pareto. On peut
en effet tout à fait envisager que l’optimum n’est pas unique mais qu’il soit plutôt
pluriel. Dans ce cas, il existe, parmi la diversité des optimums, certains qui sont
certainement plus optimales que d’autres, voir qu’un seul le soit, c’est-à-dire qu’il
existe probablement un « optimum optimorum ». Mais lequel ? Comment le
connaître et le définir ?
- Une « nouvelle économie du bien-être » va se développer sous l’influence de K.
Arrow et de son « théorème d’impossibilité », développé en 1952 dans « Choix
social et valeur individuelle ». Selon lui, s’il existe, au minimum dans la société, 3
projets portés par 3 agents différents, aucune règle d’agrégation ne permet de remplir
les 5 conditions suivantes :
Les préférences sont transitives
Il existe une préférence sociale c’est-à-dire un Optimum de Pareto
La préférence sociale entre deux projets ne dépend pas des préférences
individuelles sur les autres projets
L’agrégation est non dictatoriale
L’agrégation est définie par toutes les préférences transitives et totales
sur l’ensemble des projets.
Autrement dit, s’il existe au moins 3 projets, 1 des 5 conditions ne peut pas être respectée en
cas d’agrégation des projets.
- « Théorème de Lipsey et Lancaster » (1956) : l’optimum de Pareto n’est pas vérifié
si on prend en compte l’existence d’externalités, même si l’Etat intervient pour
résoudre ces dernières (taxes, subventions …).
7) Critiques d’ordre plus général
a) Critique de FA. Hayek
Pour lui, ni l’équilibre général existe, quelque soit ce que l’on fasse, ni même d’ailleurs
« l’homo oeconomicus ». Il s’agit, en effet, d’un équilibre trop statique qui ne rend pas
compte de la dynamique réelle de la société, dynamique basée sur la connaissance dispersée
entre des millions d’individus, agissant selon cette connaissance individuelle et qui finit par
produire un ordre spontané que personne n’aurait pu prévoir ou même envisagé. Personne ne
peut donc être parfaitement rationnel puisque chaque individu possède une information que
les autres n’ont pas. Le marché n’est donc pas un lieu où l’offre et la demande s’équilibre,
mais il s’agit avant tout d’un lieu de transmission de l’information entre les agents
économiques.
b) J. Schumpeter
En analysant les travaux de Walras, notamment dans « La théorie de l’évolution
économique » (1912) ou dans « Business Cycles » (1939), Schumpeter pense que le système
néo-classique est un système statique c’est-à-dire stationnaire. L’offre engendre une
demande, qui engendre à son tour une offre, mais la particularité provient du fait que ce
« processus circulaire » se reproduit toujours à l’identique et que par conséquent, les crises
sont inexistantes. Toute variable économique est constante et le temps n’intervient pas dans le
jeu du marché.
Cette analyse pose un sérieux problème à Schumpeter. En effet, le système économique est
avant tout un système dynamique et évolutif. Le temps est fondamental et joue un rôle
primordial dans le déroulement du cycle économique. Le processus « Offre Demande » ne
se reproduit pas à l’identique car toute variable économique est susceptible de changer au
cours du temps. Les crises sont donc un élément ancré au cœur des sociétés de marché.
c) La critique de J. Sapir, « Les trous noirs de la science économique » (2000)
Cette critique envers l’équilibre général est assez féroce. En effet, selon lui, l’équilibre
général ne peut être qu’un équilibre de troc puisque la monnaie est inexistante dans ce
système. Selon lui, le fait de ne pas tenir compte de la monnaie, ou même de la dimension
temporelle du marché rend l’équilibre général inutile et n’est donc qu’une machine à
décerveler. Le désajustement entre l’offre et la demande est une possibilité que nie cet
équilibre.
De plus, à partir du moment où les hommes agissent, l’incertitude devient un pilier central
pour comprendre ces actions. Or, l’incertitude implique des institutions qui vont tenter de
réduire cette dernière par l’élaboration de règles et de normes.
d) Le Tableau de Von Stackelberg
La CPP serait davantage une construction théorique qu’un modèle permettant de décrire la
réalité. En effet, au sein des divers modes d’organisation du marché, il existe une multitude de
possibilités. La pluralité des situations empêche le marché d’atteindre vraiment une situation
de CPP et donc d’optimum. Ainsi, l’existence d’un équilibre optimal serait plus d’ordre
« religieux » que d’ordre « pratique ».
C’est ce que décrit justement le « tableau de Stackelberg » : le type de concurrence dépend
nécessairement du nombre d’offreurs et de demandeurs sur le marché. Un petit nombre
d’offreurs sur le marché n’induira pas le même résultat qu’un grand nombre d’offreurs. Par
conséquent, la CPP n’est qu’une possibilité parmi tant d’autres.
Nombre d’offreurs
Nombre de
demandeurs
Un seul Un petit nombre Un Grand nombre
Un seul Monopole bilatéral Monopsone contrarié Monopsone
Un petit nombre Monopole contrarié Oligopole bilatéral Oligopsone
Un grand nombre Monopole Oligopole CPP
8) L’analyse en termes d’équilibre partiel
On doit cette analyse à un économiste de Cambridge, successeur de S. Jevons : Alfred
Marshall [1842 ; 1924].
En considérant que les agents cherchent à maximiser leur satisfaction personnelle, il est
préférable de regarder, selon lui, non pas ce qui se passe sur tous les marchés en même temps,
mais simplement d’analyser un marché isolé, INDEPENDANT de tous les autres. Marshall
raisonne « toutes choses égales par ailleurs » c’est-à-dire que lorsqu’il s’intéresse à un
marché et aux changements survenus sur celui-ci, il considère les autres marchés comme
n’ayant pas changé ou bien comme n’ayant aucun impact sur celui qui est étudié. L’équilibre
d’un marché ne dépend pas de l’équilibre sur les autres marchés.
Par conséquent, Marshall en conclut que l’offre et la demande sur chaque marché (1 marché =
1 bien) ne dépendent que du prix du bien vendu sur ce marché, et non pas du prix de tous les
autres biens.
Sur chaque marché, la « loi de l’offre et de la demande » fait converger le prix vers un « prix
d’équilibre » où O = D.
A long terme, tout déséquilibre est nécessairement résorbé : si, à un moment donné, l’offre
excède la demande, le prix va diminuer, ce qui fera baisser l’offre et augmenter la demande,
jusqu’à temps que l’on retrouve une situation d’équilibre. Et inversement en cas d’excès de
demande.
P O
Excès d’offre
PE
Excès de demande
D
QE Q
Remarque : la notation avec P en ordonné et Q en abscisse est une notation purement
marshallienne. Selon lui, ce sont les quantités qui sont fonction du prix, et non l’inverse
(comme Keynes voudra le faire croire).
Chapitre 2 : La théorie du consommateur
Nous voici face à notre premier agent économique central : le consommateur. Nous avons
décidé de commencer par lui car l’explication de son comportement nous est apparue plus
abordable que pour le reste de la théorie microéconomique. J’indique immédiatement que
toute la théorie néo-classique se situe dans un cadre de CPP.
Le consommateur, pour la microéconomie standard, agit dans le but d’atteindre son SEUL
objectif : maximiser sa satisfaction individuelle.
Bien entendu, lorsque nous parlons de satisfaction personnelle, nous nous référons
immédiatement à l’utilité des biens et services. En effet, la première fonction du
consommateur est d’acheter des biens et services qui lui procureront de la jouissance et du
bien-être au moment de leur consommation. Ainsi, pour cet agent, ce qui compte, c’est
l’utilité du bien c’est-à-dire la satisfaction qu’il retire de la consommation de ce bien.
Remarque : pour les néo-classiques, les économistes n’ont pas à juger des préférences
individuelles. La science économique n’est pas une science morale. Voici comment L. Walras
exprimait cette idée :
« Il n’y a pas à tenir compte ici de la moralité ou de l’immoralité auquel répond le besoin ou
la chose utile. Qu’une substance soit recherchée par un médecin pour guérir un malade ou
par un assassin pour empoisonner sa famille, c’est une question importante à d’autres points
de vue, mais tout à fait indifférente au nôtre (celui des économistes) » (Eléments d’économie
politique pure)
En conséquence, puisque l’objectif du consommateur est de maximiser son utilité (notée U),
l’économiste doit se borner à chercher comment l’individu peut maximiser cette utilité.
Mais, que signifie précisément « maximiser son utilité » ?
Pour les néo-classiques, l’utilité d’un bien ne dépend que des quantités consommées de ce
bien. Autrement dit, la fonction utilité n’intègre pas tous les éléments qualitatifs qui, dans la
réalité, peuvent modifier l’utilité d’un bien.
Pour atteindre son objectif, le consommateur doit connaître le « panier de biens » qui lui
assure un maximum d’utilité, c’est-à-dire qu’il doit connaître LA combinaison d’un
ensemble de biens qui lui procure un optimum de satisfaction. Voilà ce que signifie
« maximiser son utilité » : quel est le panier de biens qui maximise (ou optimise) ma
satisfaction ?
1) La loi de « l’utilité marginale ».
Le principe de l’utilité marginale, quoique très ancien dans la théorie économique, a été porté
à son plus haut degré d’étude avec l’arrivée des néo-classiques.
Le raisonnement de départ, si on cherche à savoir comment le consommateur peut maximiser
son utilité, doit obligatoirement se faire, selon eux, « à la marge ». Autrement dit, selon ces
économistes, le consommateur ne raisonne jamais sur l’utilité totale que lui procure une
certaine quantité d’un bien mais sur la dernière unité consommée. En effet, le postulat de
départ est de souligner qu’au moment de l’acte de consommation, l’agent se demande
toujours s’il va, oui ou non, décider de consommer une unité supplémentaire d’un bien X.
Prenons un exemple : lorsque vous buvez un verre d’eau, si vous êtes rationnels, ce verre
vous procure de la satisfaction. Au moment de vous resservir un verre, vous ne vous
demandez pas si la totalité de l’eau consommée vous a apporté suffisamment d’utilité, mais
bien si la consommation d’une unité d’eau supplémentaire vous apporterait suffisamment
d’utilité.
Ainsi, le consommateur, au moment de l’acte de consommer, raisonne toujours « à la
marge » c’est-à-dire sur la dernière unité consommée.
Voilà le point de départ sur lequel va se fonder toute l’analyse néo-classiques : l’utilité
marginale. Il s’agit, en réalité, de l’utilité apportée par la dernière unité consommée d’un bien
X. C’est cela qui compte pour le consommateur !
Reprenons notre exemple en le numérisant :
Supposons que l’individu ait consommé 5 verres d’eau, en 15 minutes (le 15 est tout à fait
arbitraire). Si l’individu décide de consommer un 6ème
verre d’eau, son utilité va
nécessairement augmenter (sinon, pourquoi le ferait-il ?). Puis, il désire boire un 7ème
verre
d’eau. Et ce processus continue pendant 30 minutes, finissant avec un 15ème
verre d’eau.
Comprenez bien : le 15ème
verre d’eau lui a apporté nécessairement moins d’utilité que le
14ème
verre, qui lui a apporté moins d’utilité que le 13ème
etc… Autrement dit, à chaque verre
d’eau, le consommateur augmentait son utilité, mais cette augmentation s’avère de plus en
plus faible au mesure et à mesure qu’il consomme des verres.
Par conséquent, les néo-classiques en ont déduit que l’utilité marginale est nécessairement
décroissante : plus la consommation d’un bien X augmente, plus l’intensité du besoin
diminue, plus l’utilité totale augmente mais de moins en moins. L’unité suivante, en procurant
davantage d’utilité, en procure cependant moins que l’unité précédente. Voilà le fondement de
la théorie marginaliste !!!
Graphiquement, nous pouvons représenter l’utilité marginale (notée Um) comme suit :
Um
Consommation du bien X
Plus l’individu consomme un bien X, plus l’utilité totale augmente mais dans des proportions
décroissantes : à chaque unité supplémentaire consommée, l’utilité augmente mais moins que
précédemment. Donc, l’utilité de la nième unité consommée apporte moins d’utilité que la n-
1ème unité consommée. Au fur et à mesure de la consommation du bien X, l’utilité
supplémentaire apportée par la consommation d’une unité supplémentaire diminue
progressivement.
Voici comment nous pouvons représenter l’utilité totale procurée par le bien X :
U
X
Pourquoi la courbe de l’utilité totale est-elle concave ?
La forme de cette courbe s’explique justement par la « loi de l’utilité marginale
décroissante ».
Etudions la variation d’une unité consommée du bien X et observons la variation de
l’utilité totale qui en résulte, et ceci, à deux extrémités de la courbe. Nous pouvons
immédiatement faire une conclusion qui nous paraît intuitive compte tenu de la forme de la
courbe : au fur et à mesure de l’augmentation des quantités consommées du bien X, l’utilité
totale croît mais de moins en moins c’est-à-dire dans des proportions décroissantes. En effet,
si vous prenez une variation unitaire de la consommation de X au début du graphique et à
l’autre extrémité de celui-ci, voici de combien variera l’utilité totale :
Utilité
totale
Bien X Var X
Variation
de U
Var X
Var U
Que remarquons-nous ?
Nous apercevons immédiatement que, pour une même variation de la consommation du bien
X, la variation de l’utilité totale qui en résulte s’avère différente. En effet, nous voyons que la
variation de l’utilité est plus forte pour de petites quantités consommées de X, mais plus faible
pour de grandes quantités. Ainsi, plus la consommation du bien X est élevée, plus de petites
variations de ces quantités apporteront moins d’utilité qu’auparavant. Ceci signifie bien que
plus la consommation du bien augmente, plus la variation positive de l’utilité est faible, ce
que confirme notre « loi de l’utilité marginale décroissante ».
Remarque : Certains se demanderont pourquoi la courbe de l’utilité totale, à un moment
donné, ne devient pas décroissante. L’explication en est relativement simple : si l’utilité
totale, à un moment donné de la consommation du bien X, devenait décroissante, ceci
indiquerait que toutes quantités supplémentaires consommées de X DIMINUENT l’utilité
totale ou, dit autrement, que l’utilité marginale soit négative. Chaque unité consommée de X
ne rapporterait pas moins d’utilité qu’auparavant mais diminuerait même celle-ci. Quel
individu parfaitement rationnel serait assez fou pour consommer des unités de bien qui
diminuent son utilité ? L’agent rationnel ne dépassera jamais son « point de satiété ».
Outre l’utilisation d’une représentation graphique, nous pouvons également exprimer
mathématiquement l’utilité marginale d’un bien X. Les notations qui suivent seront utilisées
tout au long de ce document.
Soit U, le niveau d’utilité attachée à l’agent A. Nous pouvons en déduire que l’utilité totale de
notre agent est fonction des QUANTITES consommées du bien. Si nous supposons un seul
bien, alors :
Utilité de l’agent A = U(X), avec X : quantités consommées du bien X.
L’utilité marginale n’étant rien d’autre que la variation de l’utilité résultante de la
consommation d’une unité supplémentaire du bien X, l’utilité marginale peut s’écrire comme
suit :
Um = U(X+1) – U(X)
L’utilité marginale est bien l’utilité apportée par la consommation de la dernière unité moins
l’utilité apportée par la consommation de l’unité précédente. Au final, il nous reste l’utilité
supplémentaire apportée par la consommation d’une unité supplémentaire du bien X.
Exprimée autrement, l’utilité marginale s’écrit comme suit :
Um = (ΔU) / (ΔX)
Il s’agit de la variation de l’utilité totale rapportée à la variation de la quantité consommée du
bien X.
Cependant, si nous voulons être le plus précis possible, il serait davantage intéressant
d’observer la variation de l’utilité totale apportée par une variation infinitésimale de la
quantité consommée du bien X, ce que la formule précédente ne peut nous fournir (la
variation est nécessairement trop grande par avoir une vue « microscopique »).
Ainsi, la formule la plus adéquate est nécessairement :
Um = δU(X) / δX
Autrement dit, il s’agit de la dérivée de la fonction utilité par rapport à la variable X. Voilà le
moyen de nous donner un aperçu de la variation de l’utilité lorsque les quantités consommées
de X varient de manière infime.
2) Les préférences du consommateur.
Jusqu’à maintenant, nous avons raisonné avec un bien, nommé X. Considérons à présent deux
biens X et Y. Bien entendu, notre consommateur peut choisir de consommer autant de
quantités des deux biens qu’il souhaite.
La rationalité de l’agent va nécessairement le pousser à consommer le bien dont l’utilité
marginale est la plus élevée.
Exemple : si vous avez le choix entre consommer du beurre ou de la margarine, quel choix
allez-vous entreprendre ? Vous n’allez certainement pas vous demander lequel des deux biens
vous a déjà rapporté le plus d’utilité c’est-à-dire que vous n’allez pas raisonner en termes
d’utilité totale. Ce que vous allez vous demander, c’est lequel vous rapportera le plus d’utilité
si vous en consommez une unité supplémentaire. Autrement dit, à l’instant t, ce qui vous
intéresse, c’est de savoir lequel est le plus enclin à faire augmenter davantage votre utilité
que l’autre. Vous raisonnez donc sur la dernière unité consommée.
Supposons alors que UmX > UmY : rationnellement, la consommation du bien X augmentera.
Mais, selon la « loi de l’utilité marginale décroissante », la hausse de la consommation du
bien X va faire diminuer l’utilité marginale de ce bien jusqu’à temps qu’elle croise l’utilité
marginale du bien Y. A ce moment, c’est-à-dire lorsque UmX = UmY, le consommateur n’a
plus intérêt à modifier sa combinaison des deux biens X et Y. S’il le fait, l’une des deux
utilités marginales deviendra supérieure à l’autre et un nouveau processus d’égalisation
s’opérera jusqu’à temps que les deux s’égalisent de nouveau.
Cependant, vous l’aurez compris : il existe une multitude de combinaisons de biens X et Y,
c’est-à-dire de paniers de biens X et Y, qui assurent au consommateur le même niveau
d’utilité totale. Autrement dit, l’individu a le choix entre différents paniers de biens qui lui
rapportent le même niveau d’utilité globale.
Exemple : Soient deux biens : chocolat et caramel. Si nous décidons de consommer une
certaine quantité des deux biens, c’est-à-dire si nous optons pour une combinaison de
chocolat et caramel, nous pouvons être certains qu’il existe plusieurs combinaisons qui
assurent le même niveau d’utilité totale à l’agent. Par exemple, consommer 3 chocolats et 2
caramels peut rapporter le même utilité que consommer 1 chocolat et 4 caramels.
Cet ensemble de combinaison de paniers de bien qui assure le même niveau d’utilité totale au
consommateur est appelé « Courbe d’indifférence » ou « Courbe d’iso-utilité ». Cette
approche a été développée par V. Pareto, se rattachant à la conception « ordinale » de l’utilité.
Représentation graphique de courbes d’indifférence : Ces courbes se représentent dans le plan
(X ; Y).
Y
A
C2 C3
B
C1
Plusieurs propriétés caractérisent ces courbes :
a) Tous les points sur une courbe d’indifférence assurent le même niveau d’utilité totale
au consommateur. Autrement dit, ce sont tous les paniers de bien (X ; Y) qui
garantissent une même utilité globale.
Sur le graphique, les points A et B représentent deux paniers de biens différents mais qui
assurent la même utilité au consommateur.
b) Il existe une infinité de courbes d’indifférence. Plus elle est élevée, plus le niveau
d’utilité est lui-même élevé. En effet, la courbe C3 assure un niveau d’utilité plus élevé
que la courbe C2 et a fortiori que la courbe C1. Autrement dit, plus on va vers le nord-
ouest du graphique, plus le niveau d’utilité est grand.
L’ensemble des courbes d’indifférence, pour les biens X et Y, est appelé « carte
d’indifférence ».
c) La courbe d’indifférence est nécessairement décroissante. En effet, pour maintenir
une utilité constante, il faut nécessairement compenser la diminution d’un bien par
l’augmentation de l’autre.
Si la consommation de Y diminue, l’utilité totale va diminuer, ce qui implique, si on souhaite
conserver le même niveau d’utilité, que la consommation de X augmente. Ainsi, la relation est
inverse entre X et Y, ce qui est nécessaire pour conserver l’hypothèse de stabilité de l’utilité
totale.
Le graphique suivant illustre parfaitement cette idée :
Y
Y0
Y1
X0 X1 X
La combinaison (X0 ; Y0) correspond à la situation initiale. Si la consommation de Y diminue
et passe à Y1, pour maintenir le même niveau d’utilité, il faut alors que la consommation de X
augmente et passe à X1.
d) Les courbes d’indifférence sont convexes. Voilà certainement la propriété la plus
difficile à comprendre. Elle indique, de manière technique, que les deux biens X et Y
sont imparfaitement substituables.
En effet, elle indique que toute variation négative de la consommation de l’un des deux biens
doit être compensée par une variation de plus en plus forte de la consommation de l’autre
bien. Plus la consommation de l’un des deux biens diminue, plus cette diminution, si elle se
poursuit, doit être compensée par une augmentation de plus en plus élevée de l’autre bien, et
ceci, en raison de la loi de l’utilité marginale décroissante.
Les biens sont donc bien imparfaitement substituables car s’ils ne l’étaient pas (=
parfaitement substituables), toute variation de la consommation de l’un des deux biens devrait
toujours être compensée par la même variation de la consommation de l’autre bien. Mais ceci
signifierait que l’utilité marginale est constante et non décroissante, ce qui réfute notre
hypothèse fondamentale. Si c’était le cas, alors les courbes d’indifférence devraient être des
droites et non des courbes.
Prenons un exemple : Supposons que la consommation de Y diminue. Dans ce cas, l’utilité
marginale du bien Y se remet à augmenter, et plus la consommation diminue, plus l’utilité
marginale augmente. Ainsi, pour compenser cette augmentation de l’utilité marginale, il est
nécessaire d’augmenter de plus en plus fortement la consommation du bien X, d’autant qu’au
fur et à mesure de cette augmentation, l’utilité marginale du bien X diminuera de plus en
plus. Donc, la diminution progressive de Y doit être compensée par une plus forte
augmentation du bien X, à mesure que le processus se poursuit. La baisse de l’utilité
marginale de X et la hausse de celle de Y doit être compensée par une plus grande quantité
consommée.
La représentation graphique suivante illustre cette propriété :
Y
Var Y
Var Y
X
Var X Var X
Au fur et à mesure de la diminution de Y, la même variation négative implique des variations
de plus en plus fortes de la consommation du bien X. Autrement dit, plus on descend le long
de la courbe d’indifférence, plus la variation de X qui résulte d’une variation identique de Y
est élevée.
Cette propriété de la convexité des courbes d’indifférence a une autre implication : elle
indique que le consommateur préférera toujours des paniers de biens mixtes à des paniers de
biens extrêmes. Il préfère consommer un peu des deux biens que de consommer un seul bien
sur les deux.
Exemple : si l’agent a le choix entre du chocolat et du caramel, il préférera consommer des
quantités des deux biens, que de consommer seulement du chocolat ou du caramel.
e) Deux courbes d’indifférence ne peuvent pas se croiser. L’explication en est très
simple.
Cette propriété justifie une hypothèse très forte sur les préférences du consommateur : la
transitivité des préférences. Cette hypothèse indique que si l’agent préfère le bien X au bien
Y et Y à Z, on peut en conclure logiquement qu’il préfère X à Z. Cette hypothèse suppose que
l’agent connaît parfaitement ses préférences individuelles.
Pour que cette hypothèse soit vérifiée, il faut nécessairement que les courbes d’indifférence
soient parallèles et qu’elles ne se coupent jamais.
Exemple : si vous préférez le café au chocolat et le chocolat au caramel, vous préférez alors
le café au caramel.
Supposons alors que deux courbes d’indifférence se croisent, comme suit :
Y
C
A
B
X
Sur ce graphique sont placés trois points : A, B et C. Que remarquons-nous ?
- Puisque A et B se situent sur la même courbe d’indifférence, nous pouvons en déduire
que ces deux paniers de bien assurent la même utilité au consommateur.
- Puisque A et C se situent sur la même courbe d’indifférence, nous pouvons aussi en
déduire que ces deux paniers de biens garantissent le même niveau d’utilité totale au
consommateur.
- Par déduction logique, on devrait en conclure que les paniers de biens B et C assurent
le même niveau d’utilité. Or, ces deux points ne sont pas sur la même courbe
d’indifférence donc ne rapportent pas la même utilité à l’individu.
Dans ce cas-ci, l’hypothèse de transitivité n’est pas respectée.
Pour qu’elle soit respectée, il faut alors que les courbes d’indifférence n’ont aucuns points
d’intersection entre elles, ce qui suppose qu’elles ne doivent pas se croiser. Elles sont donc
nécessairement parallèles.
Il nous est possible de mesurer la pente des courbes d’indifférence afin de comprendre
l’ampleur de la variation d’un bien lorsque l’autre varie également. Autrement dit, on peut
s’intéresser au degré de variation du bien Y nécessaire pour compenser la variation du bien X,
ceci dans le but de maintenir une même satisfaction.
C’est l’objectif de la mesure de la pente de la courbe d’indifférence : de combien doit varier Y
lorsque X varie de manière infinitésimale, afin de conserver le même niveau d’utilité ?
La réponse à cette question va dépendre de la forme de la courbe d’indifférence. L’ampleur de
la variation du bien Y, nécessaire pour compenser une variation infinitésimale de X, ne sera
pas la même selon que la pente de la courbe soit forte ou, au contraire, relativement faible.
Prenons le cas de deux pentes dont l’une est forte et l’autre faible.
Y Y
X X
Pente forte Pente faible
Quelle conclusion peut-on en tirer de l’étude de ces deux graphiques ?
Sur le premier, lorsque la pente est forte, nous constatons qu’une faible variation de X
implique une forte variation du bien Y. Au contraire, sur le second, une forte variation de X
implique une faible variation de Y.
Par conséquent, lorsque nous voulons nous intéresser au degré de pente des courbes
d’indifférence, nous pouvons calculer ce que l’on appelle le « Taux marginal de
substitution » (TMS). Il répond à la question : quelle doit être la variation de Y lorsque X
varie de manière infinitésimale pour maintenir une même satisfaction ?
Remarque : Il s’agit bien de regarder ce qui se passe lorsque X varie de manière infime c’est-
à-dire pour de très faibles variations de X.
Bien entendu, le TMS est nécessairement négatif puisque la relation est inverse entre X et Y :
si nous diminuons les quantités consommées de X, nous devons alors augmenter celles de Y
pour maintenir une même utilité.
Ainsi, nous devons faire appel aux dérivées si nous voulons connaître le calcul du TMS :
TMS = ∂Y / ∂X < 0
TMS = - (∂Y / ∂X) > 0
Il s’agit alors de calculer la dérivée de Y par rapport à X. Pour le moment, nous n’entrerons
pas dans le détail du calcul du TMS.
Remarque : le TMS mesure le degré de pente, c’est-à-dire la variation de Y nécessaire pour
compenser la variation infinitésimale de X, EN UN POINT de la courbe d’indifférence. Si
nous nous intéressons à des variations infimes de X, chaque point de la courbe a
nécessairement une pente différente, donc un TMS différent.
Y
TMS1
TMS2
X
Ainsi, nous voyons, en observant ce graphique, que le TMS1 est différent du TMS2 puisque le
degré de pente n’est pas le même. Evidemment, ces différences de TMS renvoi à l’hypothèse
de convexité des préférences.
En effet, la pente du TMS2 est plus faible que la pente du TMS1, ce qui s’explique simplement
par le fait qu’une même variation de X à deux extrémités du graphique implique des
variations différentes du bien Y. Au TMS2, une même variation de X qu’au TMS1 impliquera
une plus petite variation du bien Y. Dit autrement, une même variation de Y aux deux points
du graphique impliquera une plus forte variation de X au TMS2, ce que confirme la convexité
des préférences.
On peut donc en conclure que la pente de la courbe d’indifférence, le TMS, est décroissante
le long de cette courbe. Ceci signifie que la pente est de plus en plus faible au fur et à mesure
que l’on descende le long de cette courbe.
Ainsi, le TMS ne mesure rien d’autre que la variation de l’utilité du bien Y par rapport à la
variation de l’utilité du bien X, ce que nous pouvons écrire comme :
TMS = (ΔUY / ΔUX) = UmX / UmY
3) La contrainte budgétaire.
Jusqu’ici, notre consommateur n’était limité par aucune contrainte. Il pouvait consommer les
quantités de bien qu’il désirait, et ce, sans jamais être limité par une quelconque variable
extérieure.
Cependant, comme tout consommateur, l’individu est au moins limité par un élément
indiscutable : il s’agit, bien entendu, de son revenu. En effet, l’agent peut toujours choisir la
combinaison de biens (X ; Y) qu’il souhaite mais il doit aussi tenir compte, dans ses choix, de
sa variable revenu. L’individu possède un budget LIMITE, il agit donc dans une « économie
monétaire de rareté ».
Certes, il cherche à maximiser son utilité mais il doit tenir de sa contrainte de revenu. Il ne
peut consommer toutes les quantités de biens qu’il désire. Autrement dit, l’individu maximise
son utilité « sous contrainte de revenu ». Voilà l’élément que le consommateur doit prendre
en compte lorsqu’il cherche son équilibre individuel.
Dans la théorie microéconomique, cette contrainte financière est appelée « contrainte
budgétaire ». L’individu ne peut pas dépenser plus que son revenu. Autrement dit, nous
pouvons écrire la contrainte budgétaire comme suit :
Dépenses ≤ Revenu.
PX. X + PY. Y ≤ R
PX : Prix unitaire du bien X
PY : Prix unitaire du bien Y
Remarque : puisque nous raisonnons en CPP, le revenu, ainsi que les prix des biens sont
données à l’individu, ce dernier n’ayant aucun contrôle sur ces variables. L’individu est
« price taker ».
Cependant, le consommateur étant parfaitement rationnel, il a tout intérêt à dépenser la totalité
de son revenu (l’épargne est supposée inexistante). Autrement dit, il cherchera toujours à faire
en sorte que ses dépenses égalisent son revenu, c’est-à-dire :
PX. X + PY. Y = R
Tout comme pour l’explication des courbes d’indifférence, nous pouvons en déduire qu’il
existe une infinité de combinaisons de biens X et Y qui assurent un même niveau de revenu.
Autrement dit, il existe un ensemble de combinaisons (X ; Y) qui correspond à la contrainte
budgétaire du consommateur. Cet ensemble de combinaisons est appelée « droite
budgétaire », que nous pouvons représenter comme suit :
Y L’équation de la droite est du type :
Y = f(X). En partant de l’équation de
la contrainte budgétaire, nous pouvons
C en déduire que :
B Y = (R/Py) – [(PX/PY).X]
A
X
R/PY
R/PX
Sur tous les points de cette droite, le niveau de revenu est identique, seule la combinaison des
deux biens est différente.
Pour connaître la valeur des extrémités de la droite, il suffit de remplacer l’une des deux
variables par la valeur 0 :
- Si X = 0, alors Y = R/PY
- Si Y= 0, alors X = R/PX.
Ces deux extrémités correspondent au maximum de l’un des deux biens que l’agent peut
consommer. Si X = 0, l’agent peut consommer au maximum « R/PY » unités de Y.
Inversement si Y = 0, l’agent peut consommer au maximum « R/PX » unités de X.
Finalement, la droite budgétaire correspond au maximum des dépenses que peut faire le
consommateur. Dit autrement, ce dernier ne pourra jamais dépasser cette droite, sinon il
dépenserait plus que le niveau de son revenu. Par conséquent, le point C est inaccessible à
l’agent : il aimerait bien consommer un panier de biens correspondant au point C, mais,
compte tenu de sa contrainte budgétaire, il ne pourra jamais atteindre ce point (toutes choses
égales par ailleurs !).
De même, l’individu ne choisira jamais un panier de biens au-dessous de la droite de budget.
Dans ce cas, il ne dépenserait pas l’intégralité de son revenu, ce qui contredirait notre
hypothèse de rationalité. Le point A peut donc être atteint par l’agent, mais il ne le choisira
pas car son revenu n’est pas intégralement dépensé en ce point.
Finalement, l’individu choisira toujours une combinaison de biens X et Y situés sur sa droite
de budget (point B). C’est le choix le plus rationnel qu’il peut faire. Pour le moment, notre
propos n’est pas de savoir quel point sur cette droite le consommateur va choisir, mais
seulement d’indiquer qu’il le fera.
Nous pouvons, à ce stade de l’étude, nous poser une question mise de côté jusqu’à
maintenant : pourquoi la pente de la droite de budget est-elle négative ? Autrement dit,
pourquoi la droite est-elle décroissante ?
L’explication est encore une fois la même que pour la courbe d’indifférence : si l’un des deux
bien varie dans un sens, il faut, pour continuer à dépenser l’intégralité du revenu, que l’autre
bien varie dans le sens inverse.
Par exemple, si la quantité consommée de Y diminue, il faut, pour maintenir un même niveau
de dépense, consommer nécessairement plus de X.
Mais, à la différence de la courbe d’indifférence, la pente de la droite budgétaire est constante
et partout la même, c’est-à-dire en tous points de cette droite. Quelque soit la variation de l’un
des deux biens, l’autre bien subira nécessairement toujours la même variation dans le sens
inverse.
Par exemple, si Y diminue aux deux extrémités de la droite, nous constatons que X
augmentera dans les mêmes proportions, que l’on soit en haut ou en bas de la droite.
Y
X
Variation de X identique
Ce phénomène est « normal » puisque l’équation de la droite de budget est donnée par :
Y = (R/Py) – [(PX/PY).X]
La pente de la droite est alors donnée par : -PX / PY.
Or, sauf modifications de prix, le rapport du prix de X au prix de Y est constant pour tous
paniers de biens (X ; Y). Autrement dit, la pente est identique quelque soit le point où
l’individu se trouve.
En conséquence, nous comprenons maintenant que le degré de pente est toujours donné par
le rapport PX/PY. Nous avons donc deux cas à distinguer : lorsque la pente de la droite est
faible et lorsqu’elle est forte.
Y La faiblesse de la pente implique qu’une
forte variation de X correspond une
faible variation de Y.
X
Pente faible : PX/PY faible
Y Une pente forte indique qu’une faible
variation de X implique une forte
variation de Y
X
Pente forte : PX/PY fort
Remarque : dans les deux cas, n’oubliez jamais que les variations résultantes d’une variation
initiale de l’un des deux biens, sont toujours les mêmes. La pente est constante en tous points
de la droite !!
Diminution de R/PX
Cependant, ceci n’indique en rien que la pente de la droite budgétaire est constamment la
même et qu’aucun facteur exogène ne peut venir la perturber. Au contraire, des changements
peuvent survenir qui vont modifier soit le degré de la pente, soit toute la pente elle-même.
- 1er
cas : lorsque l’un des deux prix varie, c’est le degré de la pente qui change.
Supposons que PX augmente (graph 1) : dans ce cas, le rapport (PX/PY) augmente et la pente
devient donc plus forte. Même conséquence si PY diminue (graph 2)
Y
X X
Graphique 1 : PX augmente Graphique 2 : PY diminue
Quelles conséquences ces changements impliquent-ils ?
Tout d’abord, nous constatons que les points extrêmes se modifient : la quantité maximale de
X que l’individu peut consommer diminue dans le premier cas, et la quantité maximale de Y
augmente dans le second, sans que l’autre ne change dans les deux cas. Par conséquent, la
pente devient bien plus forte. L’implication principale est claire : la même variation du bien X
entraine une plus forte variation de la quantité de Y.
De plus, les possibilités de consommation de l’agent changent également.
Dans le premier cas, lorsque PX augmente, nous constatons que l’agent peut consommer
moins de quantités des deux biens. En effet, l’ensemble des possibles, sous la droite, se réduit.
Le consommateur doit donc accepter une diminution de ses capacités de dépenses.
Dans le second cas, lorsque PY diminue, au contraire, le consommateur voit ses capacités de
dépense augmenter puisque la droite se déplace vers le haut. Il peut donc consommer des
paniers de bien composés de plus grandes quantités des deux biens.
Augmentation de R/PY
Supposons maintenant que PX diminue ou que PY augmente. Dans ce cas, la pente de la droite
devient plus faible, (PX/PY) diminue, comme les deux graphiques ci-dessous le montre.
Y Y
X X
Graphique 1 : PX diminue Graphique 2 : PY augmente
Quelles sont les conséquences de ces changements ?
Tout d’abord, nous constatons que les points extrêmes se modifient : la quantité maximale de
X que l’individu peut consommer augmente dans le premier cas, et la quantité maximale de Y
diminue dans le second, sans que l’autre ne change dans les deux cas. Par conséquent, la pente
devient bien plus faible. L’implication principale est claire : la même variation du bien X
entraine une plus faible variation de la quantité de Y.
De plus, les possibilités de consommation de l’agent changent également.
Dans le premier cas, lorsque PX diminue, nous constatons que l’agent peut consommer plus
de quantités des deux biens. En effet, l’ensemble des possibles, sous la droite, augmente. Le
consommateur fait donc face à une augmentation de ses capacités de dépenses.
Dans le second cas, lorsque PY augmente, au contraire, le consommateur voit ses capacités de
dépense diminuer puisque la droite se déplace vers le bas. Il peut donc consommer des paniers
de bien composés de plus petites quantités des deux biens.
- 2ème
cas : si le prix des deux biens varie dans le même sens et dans les mêmes
proportions.
Tout d’abord, si PX augmente et que PY augmente également, et ce dans les mêmes
proportions, alors la pente de la droite ne change pas. En effet, le rapport (PX/PY) demeure
inchangé. Cependant, puisque le prix des deux biens a augmenté, les possibilités de
consommation de l’agent se réduisent nécessairement : il peut acheter moins des deux biens.
Augmentation de R/PX Diminution de R/PY
Graphiquement, la modification de pente peut se représenter ainsi :
Y
X
Ainsi, nous constatons bien que la pente de la nouvelle droite (en bleu) est strictement
parallèle à la droite budgétaire initiale, avant l’augmentation des prix (en noir). Cependant,
cette nouvelle droite de budget est au-dessous de la précédente, ce qui implique qu’il peut
effectivement acheter moins des deux biens. Ses possibilités de consommation se réduisent.
Mais, en revanche, puisque le degré de pente est identique, une variation quelconque de X
implique toujours la même variation du bien Y.
Nous pouvons démontrer la même chose si les prix des deux biens diminuent dans les
mêmes proportions. Dans ce cas, la pente reste inchangée (PX/PY est le même) mais elle se
déplace cette fois parallèlement vers la droite. L’agent peut acheter plus des deux biens, ses
possibilités de consommation augmentent.
Y
X
Diminution de R/PX
Diminution de R/PY
Augmentation de R/PX
Augmentation de R/PY
- 3ème
cas : le prix des deux biens varie dans le même sens mais pas dans les mêmes
proportions.
Supposons le cas où PX et PY augmentent mais dans des proportions différentes. Dans ce
cas, il faut distinguer deux cas : celui où l’augmentation de PX est plus forte que
l’augmentation de PY, et celui où PY augmente davantage que PX.
Si PX augmente plus fortement que PY : le rapport (PX/PY) va augmenter mais faiblement.
Ainsi, la pente de la droite budgétaire va devenir relativement plus forte.
Y
X
Nous constatons que, suite à une variation plus forte de PX, l’extrémité de X diminue plus
fortement que l’extrémité de Y. Ainsi, nous avons bien un changement de pente de la droite.
Celle-ci devient plus forte : la même variation de X implique une plus forte variation de la
consommation du bien Y.
De plus, suite à l’augmentation du prix des deux biens, même si celle-ci est différente, les
possibilités de consommation de l’agent diminuent : il peut acheter moins des deux biens,
mais ce phénomène est moins prononcé que si l’augmentation des prix est de même ampleur
(2ème
cas).
Si PX augmente moins que PY : dans ce cas, la pente va se modifier aussi et le rapport (PX/PY)
va diminuer. La pente de la droite budgétaire va donc devenir plus faible. C’est le cas inverse
à celui au-dessus.
Y
X
Diminution forte de R/PX
Diminution faible de R/PY
Diminution faible de R/PX
Diminution forte de R/PY
Nous constatons que la pente a bien diminué : une même variation de X impliquera une
variation plus faible des quantités du bien Y. Cette fois, c’est l’extrémité de Y qui a beaucoup
plus diminué que l’extrémité du bien X.
De plus, comme précédemment, les possibilités de consommation se sont réduites : l’individu
peut acheter moins des deux biens puisque la droite se situe au-dessous de la situation initiale.
Remarque : Nous pouvons faire la même chose lorsque le prix des deux biens diminue dans
des proportions différentes. Dans ce cas, la pente va aussi se modifier (soit plus forte, soit
plus faible) mais dans les deux cas, les possibilités de consommation vont augmenter, l’agent
pouvant consommer plus des deux biens.
De même, vous pouvez vous amuser à le faire lorsque le prix des deux biens varie en sens
opposé (l’un augmente et l’autre diminue) et ce, soit dans les mêmes proportions, soit dans
des proportions différentes.
- 4ème
cas : lorsque le niveau de revenu change.
En effet, jusqu’ici, nous avons étudié des cas où seuls les prix des biens X et Y variaient.
Mais, si un changement survient sur le marché du travail (cf section …..), on peut tout à fait
imaginer que cette fois-ci, c’est le niveau de revenu qui va se modifier. Dans ce cas, deux
possibilités existent : le niveau de revenu augmente ou le niveau de revenu diminue.
Supposons que le revenu augmente, suite à des modifications sur le marché du travail.
Dans ce cas, la droite de budget va nécessairement augmenter et se déplacer vers la droite.
En effet, les possibilités de consommation de l’agent vont augmenter : si son revenu
augmente, il peut consommer plus de quantités des deux biens.
Mais, le degré de pente va-t-il changer ? Autrement dit, la pente va-t-elle augmenter
parallèlement à la première ? On peut répondre par l’affirmatif à ces questions. Si le revenu
augmente, ce sont les deux extrémités du graphique qui augmentent dans les mêmes
proportions. Ainsi, la droite de budget se déplace parallèlement vers la droite, ce qui accroît
l’ensemble des possibles.
Y
X
Déplacement parallèle vers la droite
Si le niveau de revenu diminue : dans ce cas, c’est l’inverse. La droite de budget se déplace
vers la gauche, notre agent pouvant consommer moins des deux biens. Ses possibilités de
consommation se réduisent.
Cependant, elle se déplace aussi parallèlement vers la gauche : les deux extrémités diminuent
dans les mêmes proportions. Le degré de pente ne change pas.
Y
X
4) La détermination de l’équilibre individuel.
Nous voilà enfin à ce qui nous préoccupe de prime abord : à quoi correspond l’optimum de
notre consommateur ? Où se situe son équilibre individuel ?
Nous savons depuis le début que l’agent cherche à maximiser son utilité, tout en étant limité
par sa contrainte budgétaire.
Que signifie maintenant « maximiser son utilité » ?
Si notre consommateur a le choix entre deux biens X et Y, il cherchera à connaître le panier
de bien (X ; Y) qui lui procure le plus d’utilité possible. Mais, les paniers de biens que peut
choisir le consommateur ne correspondent à rien d’autre qu’aux courbes d’indifférence. Ce
sont ces courbes qui représentent le niveau d’utilité que procure un panier de bien particulier.
Maximiser son utilité, c’est-à-dire avoir l’utilité la plus élevée, revient à se situer sur la courbe
d’indifférence la plus élevée possible.
Que signifie « tout en étant limité par sa contrainte budgétaire » ?
Ceci signifie simplement que l’individu ne peut choisir n’importe quel panier de bien qu’il
désirerait. Il doit choisir un panier de bien situé au maximum sur sa droite de budget
puisqu’il ne peut pas dépasser celle-ci.
Au final, le consommateur veut d’un côté se situer sur la courbe d’indifférence la plus élevée
possible mais, de l’autre, il doit tenir compte du fait qu’il ne peut pas dépasser sa droite
budgétaire. L’objectif du consommateur rationnel est de combiner ces deux éléments du
mieux possible : obtenir la courbe d’indifférence la plus élevée sans dépasser la droite de
budget.
Déplacement parallèle vers la gauche
Représentons graphiquement cette situation :
Y
C3 C4
B
C2
A
C1
X
Nous constatons que le consommateur fait face à une infinité de courbes d’indifférence, mais,
évidemment, à une seule droite budgétaire.
Face à cela, le consommateur doit faire un choix. Lequel fera-t-il ?
Supposons qu’il décide de choisir C1 ou C2 : certes, ce sont deux possibilités qui s’offrent à
lui puisque ces deux courbes d’indifférence se situent bien au-dessous de la droite de budget.
Cependant, comme on la dit précédemment, le consommateur rationnel tentera toujours d’être
sur sa droite de budget puisqu’il veut consommer l’intégralité de son revenu. Ces deux
courbes sont donc possibles mais ne constituent pas un choix parfaitement rationnels.
Supposons qu’il désire C4 : à priori, il a tout intérêt à choisir C4 puisqu’il s’agit de la courbe
d’indifférence la plus élevée donc il s’agit du niveau d’utilité le plus grand. Mais vous
remarquerez que cette courbe d’indifférence est située au-delà de sa droite budgétaire c’est-à-
dire au-delà du niveau limite qu’il peut choisir. Par conséquent, il lui est impossible de choisir
un panier de biens sur la courbe C4, même s’il aurait un intérêt direct.
Finalement, le choix le plus optimal pour l’agent est de choisir un panier de bien situé sur la
courbe d’indifférence la plus élevée (pour lui rapporter l’utilité la plus grande) mais
compatible avec sa contrainte budgétaire.
Le choix optimal est donc le point d’intersection entre la courbe d’indifférence C3 et la
droite budgétaire. C’est à ce niveau qu’il optimise son utilité. Cet optimum correspond
donc au point B.
Il est à la fois sur sa droite budgétaire, donc il consomme bien tout son revenu, et en plus, il
est sur la courbe d’indifférence la plus élevée compte tenu de son budget. Il ne peut connaître
meilleur choix possible.
Mais, pourquoi ne choisit-il pas le point A ? Après tout, il est situé sur sa droite budgétaire,
non ?
L’explication en est très simple : le point A est certes situé sur la droite de budget mais il
correspond à la courbe d’indifférence C2. Or cette courbe est inférieure à la courbe C3, elle
rapporte donc moins d’utilité que cette dernière.
Entre le point A et B, il est préférable de choisir B, correspondant à un niveau d’utilité plus
élevé.
Ainsi, l’optimum du consommateur est toujours donné par LE POINT DE TANGENCE
entre la courbe d’indifférence la plus élevée et la droite budgétaire (point B).
Ceci signifie clairement que l’optimum du consommateur est UNIQUE : il n’y a qu’un seul
point de tangence possible. C’est pour cela que l’optimum est un « équilibre individuel » :
l’agent n’a plus aucun intérêt à changer sa situation puisqu’elle correspond au seul point
optimal.
Mathématiquement, l’optimum est donné par le point de tangence entre la courbe
d’indifférence et la droite de budget. Autrement dit, il s’agit d’une situation où la pente de la
courbe d’indifférence est égale à la pente de la droite budgétaire, c’est-à-dire :
-PX/PY = ∂Y / ∂X
Or, la pente de la courbe d’indifférence correspond au TMS, donc nous pouvons réécrire
l’égalité comme suit :
TMS = PX / PY
Finalement, puisque le TMS est égal au rapport des utilités marginales, l’optimum du
consommateur s’écrit :
UmX/UmY = PX/PY.
Le rapport des utilités marginales est égal au rapport des prix.
Ou encore, ce que l’on appelle « loi de Gossen » :
UmX/PX = UmY/PY
5) Les variations de l’optimum individuel.
L’équilibre individuel du consommateur se détermine lorsque l’on raisonne « toutes choses
égales par ailleurs ». Mais, il est tout à fait possible d’envisager, à un instant t, des
changements de prix ou de revenu qui surviennent. Ces facteurs vont venir modifier
l’équilibre individuel du consommateur et vont donc faire varier l’optimum de l’agent.
Supposons des variations positives du revenu : ce cas correspond à celui où le niveau de
revenu augmente et fait déplacer la contrainte budgétaire vers la droite. Si nous envisageons
plusieurs variations successives, nous pouvons représenter les nouvelles situations comme
suit :
Y
La droite de budget se déplace plusieurs
fois vers la droite, parallèlement aux
droites précédentes.
X
Si, maintenant, on essaye de rechercher l’optimum individuel suite à ces variations de revenu,
il suffit seulement de connaître les courbes d’indifférence. Or, comme il en existe une infinité,
pour chaque variation positive du revenu et donc pour chaque droite de budget, il existe
nécessairement une courbe d’indifférence qui correspond au point de tangence entre la courbe
et la droite de budget.
Graphiquement, voici la nouvelle situation :
Y
X
Pour chaque droite de budget, il existe un point de tangence avec une courbe d’indifférence.
Ainsi, lorsque le revenu augmente successivement, l’optimum individuel se déplace
nécessairement vers la droite et devient d’ailleurs de plus en plus grand. L’utilité atteinte est
plus élevée car les possibilités de consommation se sont accrues avec l’augmentation du
revenu.
Si on rejoint l’ensemble de ces optimums individuels, on obtient ce que l’on appelle « la
courbe de consommation-revenu ».
Remarque : ce qui est vrai pour des variations positives du revenu l’est aussi lorsque les prix
des deux biens diminuent dans les mêmes proportions. Dans ce cas, la droite de budget se
déplace vers la droite parallèlement aux précédentes et la démonstration est exactement la
même.
Lorsqu’un seul des deux prix se modifie, nous pouvons également observer ce qui se
passe sur l’optimum du consommateur.
Supposons que le prix du bien X diminue successivement: dans ce cas, la pente de la droite
budgétaire change puisque le rapport (PX/PY) diminue de plus en plus. La pente devient ainsi
de plus en plus faible.
Cependant, si PX diminue, la droite de budget se déplace vers la droite et pivote autour de
l’extrémité du bien Y, seule l’extrémité du bien X se déplace vers la droite.
Y
X
Courbe de consommation-revenu
Nous constatons bien un pivot de la droite de budget autour de (R/PY), la pente devenant de
plus en plus faible.
Ainsi, comme pour le revenu, nous pouvons envisager une courbe d’indifférence pour chaque
droite budgétaire. Ainsi, un point de tangence se fera jour pour chaque droite de budget.
Y
X
Par conséquent, nous apercevons que l’optimum individuel se modifie en faveur du
consommateur. En effet, l’optimum est de plus en plus élevé au fur et à mesure de la
diminution du prix du bien X, augmentant les possibilités de consommation.
Si on rejoint l’ensemble de ces optimums individuels, nous obtenons « la courbe de
consommation-prix ».
Remarque : Nous pourrions faire la même chose si, cette fois, le prix du bien Y diminuait.
Dans ce cas, les conséquences seraient les mêmes que pour la diminution du prix du bien X.
CONCLUSION DU CHAPITRE
La théorie du consommateur nous a aidés à comprendre le comportement d’un individu qui
agit en concurrence pure et parfaite. Selon ce modèle, l’agent maximise sa satisfaction
personnelle compte tenu d’une contrainte de budget qui s’impose à lui. La question que se
pose le consommateur, à savoir : « comment répartir mon revenu de façon à optimiser mes
préférences ? », a une réponse claire : il suffit de choisir le point (et le seul point)
correspondant à la courbe d’indifférence la plus élevée compatible avec le revenu disponible.
Cette théorie du consommateur ne se veut absolument pas réaliste. Elle cherche juste à prévoir
des résultats qui auraient lieu si les conditions de l’analyse étaient respectées. Elle établit une
« norme » idéale à atteindre et fournit les éléments qui nous permettraient de l’atteindre.
L’établissement d’un cadre normatif pour comprendre le comportement du consommateur
sous certaines conditions, peut être utilisé afin de comprendre également le comportement du
producteur. Ceci sera l’objet du chapitre suivant.
Courbe de consommation-prix
Chapitre 3 : La théorie du producteur
Il s’agit du second agent économique que la théorie microéconomique étudie. La théorie du
producteur s’intéresse exclusivement à l’étude de ce que nous appelons couramment « firme »
ou, dit plus simplement, « entreprise ».
Bien entendu, les définitions de ce qu’est une « entreprise » sont assez nombreuses,
dépendant généralement de la place que l’on souhaite lui donner.
Pour la microéconomie traditionnelle, la firme n’est qu’une simple institution qui produit des
biens et services en utilisant des facteurs qui lui permettent de produire ces biens et services.
Dit autrement, l’entreprise est l’institution qui transforme des « inputs » (facteurs employés
dans le processus de production : matières premières, travail …) en « outputs » (produit fini,
celui qui est vendu sur le marché).
Les questions que se pose une entreprise lorsqu’elle entame un processus de production sont
au nombre de trois : Que produire ? Combien en produire ? Comment les produire ?
J’aimerais, tout de suite, insister sur une notion fondamentale en microéconomie : celle de
« facteurs de production ». En effet, lorsqu’on se pose la question « comment produire ? »,
on considère que la firme ne produit qu’en utilisant et en employant des facteurs de
production c’est-à-dire tous les facteurs qui seront intégrés au processus de production afin
d’en retirer une production finie. Il s’agit de tous les éléments entrant dans le processus de
production. Bien entendu, il en existe de nombreux dans la réalité, surtout si on cherche à tous
les différencier en fonction de leur durée de vie, leur rémunération etc… Pour simplifier ainsi
l’analyse, on considère, en microéconomie, qu’il n’existe que deux grands facteurs de
production : travail et capital. On omettra ici le facteur « Terre ».
- Le travail (noté L) est relatif aux salariés, qui reçoivent en contrepartie de leur force de
travail, un salaire unitaire (noté w).
- Le capital (noté K) est relatif à tous les moyens de production autre que le travail et la
terre, et sa rémunération constitue le taux d’intérêt (noté r).
Quelques définitions s’imposent :
- On parlera de « facteurs substituables » lorsqu’il sera possible, pour le producteur, de
modifier la combinaison de ses facteurs de production. Autrement dit, il peut
remplacer aisément du travail par du capital ou bien l’inverse, et ceci, sans aucun coût.
On dit aussi qu’il peut changer les proportions de ses facteurs de production, c’est-à-
dire qu’il peut modifier le rapport « K/L » (= intensité capitalistique).
- On parlera de « facteurs complémentaires » lorsque le producteur ne peut pas
modifier la proportion de ses facteurs de production. Rien ne lui interdit de modifier
les quantités de ses facteurs de production, mais, dans ce cas, il devra le faire dans les
mêmes proportions pour K et pour L, car on considère que l’un ne peut pas être utilisé
sans l’autre. Donc, si la firme augmente le K de x%, elle doit aussi augmenter le L de
x%.
Exemple : si le producteur a besoin d’un salarié pour faire fonctionner un tracteur, dans ce
cas, s’il décide d’investir dans un autre tracteur, il va devoir aussi embaucher un autre
salarié. La proportion des facteurs de production est restée la même.
Quand la firme se pose toutes ces questions, elle le fait car elle ne vise qu’un objectif (la firme
est tout autant rationnelle que le consommateur !) : faire le plus de profit possible. En effet,
une firme ne produit que pour vendre ensuite sur le marché sa production. Pourquoi vend-t-
elle ? Pour recevoir une « somme d’argent » qui lui permette de payer d’abord ses salariés, ses
actionnaires mais surtout pour essayer de recevoir la plus grande quantité d’argent pour elle-
même. La firme cherche, après avoir payé tout le monde, à posséder le maximum d’argent,
soit pour investir, soit pour épargner (les choix individuels ne nous intéressent pas ici !)
Donc, ce que cherche la firme en vendant sa production, ce n’est pas tant rémunérer ses
salariés ou actionnaires, mais plutôt recevoir un revenu le plus élevé possible.
Ce revenu, reçu après paiement des salariés, actionnaires, investisseurs en tout genre, est donc
un « revenu résiduel » : c’est ce qui reste une fois payé tous ceux qui ont participé au
processus de production, c’est-à-dire les facteurs de production. C’est ce revenu que
l’entreprise cherche à maximiser. Or, ce revenu résiduel, n’est rien d’autre que le profit.
L’objectif d’une firme est donc de maximiser le profit. Le profit est en quelque sorte la
satisfaction personnelle du producteur. Or, maximiser sa satisfaction revient donc à maximiser
le revenu que l’on reçoit et donc à maximiser le profit.
Puisque le profit correspond au revenu qui reste après paiement des facteurs de production (w
et r), on peut écrire le profit comme suit :
Π = Chiffre d’affaire – coût de production
En effet, vous constatez que le profit n’est rien d’autre que le chiffre d’affaire (ce que
l’entreprise vend) auquel on retire l’ensemble des coûts qui sont entrés dans la production du
produit fini, c’est-à-dire qu’on retire le paiement des facteurs de production (puisque ce sont
les seuls éléments qui entrent dans la production).
On peut le réécrire comme :
Π = P. Q – w.L – r.K
P.Q : Chiffre d’affaire (prix * quantités)
w.L : salaire unitaire * quantité de travail employée. Il s’agit donc de la masse de salaire
versée.
r. K : taux d’intérêt * quantité de capital utilisée.
On a donc bien retiré au chiffre d’affaire l’ensemble des versements effectués aux facteurs de
production. Puisque ces derniers (L et K) sont les seuls moyens qui nous servent à produire,
une fois retiré leur paiement, le reste correspond bien au revenu du producteur.
C’est donc bien ce profit que le producteur cherchera à maximiser. Son objectif est donc de :
Max Π = Max [PQ – WL – rK]
Remarque : Vous serez d’accord pour dire que maximiser le profit revient à minimiser les
coûts. Autrement dit, en essayant de faire en sorte que l’expression « -wL – rK » soit la plus
faible possible, vous rendez le terme de droit plus élevé et donc le profit lui-même. Donc,
chercher à minimiser les coûts revient à maximiser son revenu.
Venons-en maintenant à une question dont la réponse demeure partiellement incomplète :
comment maximiser le profit ? En effet, connaître l’expression du profit ne nous dit rien sur la façon dont le producteur
cherchera à le maximiser.
Notre analyse se situant dans un cadre de CPP, nous savons dès à présent que la firme n’a
aucun moyen de contrôler ou d’influencer ni le prix du bien, ni le prix des facteurs de
production. Tous ces prix sont donnés par le marché à l’entreprise, qui n’est, dans ce cas,
qu’un « price taker ». Ainsi, la firme n’a aucun moyen, d’influence sur « P », sur « w » et sur
« r ». Ces trois prix lui sont imposés.
En conséquence, le seul moyen de maximiser le profit, c’est d’agir soit sur les quantités
produites (Q), soit sur les quantités de facteurs de production (L et/ou K). Mais, vous l’aurez
compris : les quantités produites dépendent directement des quantités de facteurs de
production utilisées. En effet, produire revient à utiliser des moyens qui nous permettent de
produire. Par conséquent, en microéconomie, on considérera qu’il existe toujours une relation
positive entre la production et les facteurs de production utilisés : plus de facteurs de
production, c’est plus de production.
La relation qui unit la production avec les quantités de facteurs de production est donnée par
ce qu’on appelle « la fonction de production ». Il s’agit d’une relation mathématique, mais
qui nous dit exactement ce qu’on vient de dire : les quantités produites dépendent
positivement des quantités de facteurs de production. Autrement dit, c’est la fonction de
production qui nous permet de transformer des inputs en outputs, et qui nous dit en plus dans
quelles proportions.
Nous pouvons l’écrire :
Q = F (K ; L)
Littéralement, on dit que Q est une fonction de K et de L.
ATTENTION, je veux insister sur un point fondamental. La fonction de production ne nous
dit pas seulement la relation qui unit production et facteurs de production (n’oubliez jamais
qu’on ne raisonne que sur les quantités !!) mais une chose bien plus importante : elle nous
donne la production MAXIMALE que l’entreprise peut atteindre compte tenu des facteurs
de production qu’elle utilise. Autrement dit, la firme ne peut jamais dépasser sa fonction de
production, elle ne peut pas produire plus qu’elle. Ainsi, on considère que la fonction de
production est une « contrainte » pour l’entreprise car si elle n’existait pas, la firme pourrait
produire autant qu’elle le souhaite. Or ce n’est pas le cas : le producteur est contraint par sa
fonction de production à ne pas pouvoir dépasser un certain niveau de production compte tenu
des facteurs de production utilisés.
Avant d’entrer dans le détail de la théorie du producteur, une dernière remarque doit être
signalée. En effet, il nous faut distinguer le cas du « court terme » et celui du « long terme ».
- A court terme, on considèrera que la firme ne peut faire varier que sa quantité de
travail. En effet, elle peut facilement embaucher ou licencier mais par contre, dans un
laps de temps réduit, il lui est difficile de modifier la quantité de capital. Imaginez en
quelques mois produire un nouveau bâtiment !!! Cependant, ne pensez pas qu’à court
terme, la firme n’utilise pas de capital. On a juste dit qu’elle ne peut en modifier la
quantité.
La fonction de production s’écriera alors : Q = F (L). Puisque la quantité de capital reste fixe,
on dira que la production ne dépend que du travail et que seul celui-ci peut varier.
- A long terme, la firme peut faire tous les ajustements qu’elle désire. Autrement dit, elle
peut aisément faire varier à la fois sa quantité de travail mais aussi sa quantité de
capital.
La fonction de production s’écriera alors : Q = F (K ; L).
Section 1 : la notion de productivité.
Pour simplifier la compréhension, nous nous intéresserons pour le moment qu’au cas de court
terme et négligerons celui de long terme. Ainsi, Q = F (L).
La question qui nous motive ici est la suivante : comment varie la production lorsque
la quantité de travail varie ?
Autrement dit, on aimerait bien connaître la relation mathématique qui unit la production et le
facteur travail, ou, dit autrement, la proportion qui unit les deux.
Poser cette question revient à étudier la notion de productivité et particulièrement celle de
productivité du travail.
Tout d’abord, il nous est possible de définir ce qu’on entend par « productivité moyenne du
travail » : c’est ce que produit en moyenne chaque unité de travail ou bien chaque travailleur,
pour simplifier. Bien entendu, on est conscient que chaque salarié ne produit pas la même
chose que son collègue : certains sont plus productifs que d’autres. Donc la productivité est
différente d’un salarié à l’autre. Mais, justement, la notion de productivité moyenne élimine
ces divergences puisqu’elle ne tient compte que de ce que produit chaque salarié en moyenne,
sans tenir compte de la production effective de chacun.
Exemple : Si elle est égale à 2, cela signifie simplement que chaque salarié produit en
moyenne 2 unités de biens. Cela ne veut pas dire que chaque salarié produit effectivement 2
unités de bien.
Mathématiquement, on peut l’écrire : PML = Q / L.
Il s’agit de la quantité totale produire divisée par la quantité de travail.
Mais, ce qui nous intéresse, nous, est d’un autre ordre. En effet, on ne sait toujours pas de
combien varie la production lorsque la quantité de travail varie. Il nous faut maintenant
répondre à cette question, en ayant recours à la notion de « productivité marginale du
travail ».
Prenons un exemple pour faciliter la compréhension : Supposons que l’entreprise utilise 5
salariés et que sa production est de 100 unités. Ce qu’aimerait savoir la firme, c’est de
combien va varier sa production si elle décide d’embaucher un 6ème
salarié. Supposons
qu’avec un salarié en plus, elle produit maintenant 120 unités. Il est donc clair que le 6ème
salarié lui a rapporté 20 unités. Puis, avec un 7ème
salarié, sa production passe à 135 unités et
ainsi de suite. Nous pouvons regrouper les valeurs dans un tableau :
Nombre de
salariés
5 6 7 8 9 10
Quantité
produite
100 120 135 145 150 153
Que constatons-nous ?
Nous apercevons directement que notre hypothèse de départ est confirmée : plus la firme
utilise de travail et plus sa production totale augmente. Mais, ce qui nous intéresse ici, c’est de
savoir comment varie cette production au fur et à mesure que la firme utilise de salariés.
Pour cela, nous pouvons calculer les variations de production à chaque salarié
supplémentaire. On saura alors de combien a varié la production lorsque la firme a décidé de
prendre un travailleur en plus.
Nombre de
salariés 5 6 7 8 9 10
Quantité
produite 100 120 135 145 150 153
Variation de
production 20 15 10 5 3
Comment interpréter cette dernière ligne ?
Nous constatons que lorsque la firme prend un 6ème
salarié, sa production augmente de 20
unités (elle est donc de 120). Puis, en utilisant un 7ème
salarié, sa production augmente de 15
(elle est donc de 135). Avec un 8ème
travailleur, sa production augmente de 10 (elle est donc
de 145).
Que conclure ?
A chaque travailleur supplémentaire (6ème
– 7ème
etc…), la firme augmente sa production
(+20 ; +15 ; +10 etc…) mais ces augmentations sont de plus en plus faibles. Autrement dit,
chaque travailleur supplémentaire lui permet de produire toujours plus mais dans des
proportions décroissantes. Les hausses de sa production sont de plus en plus faibles et donc
chaque travailleur supplémentaire lui rapporte toujours moins que le précédent. Toute hausse
du facteur travail permet à la firme d’accroître sa production (sinon pourquoi embaucher ?)
mais de moins en moins. Chaque hausse est de plus en plus petite.
Or, ce que produit EN PLUS un travailleur supplémentaire, c’est ce qu’on appelle la
« productivité marginale du travail ». Elle nous donne la variation de la production suite à
une variation des quantités de travail. De combien augmente la production suite à
l’augmentation d’un travailleur supplémentaire ? Voilà la question à laquelle répond la
productivité marginale.
On peut donc facilement conclure que, si chaque travailleur supplémentaire permet
d’accroître la production mais que cette hausse est de plus en plus faible, la productivité
marginale du travail est DECROISSANTE. La hausse de la production résultant de la hausse
d’une unité de travail est décroissante, autrement dit, l’augmentation de la production est de
plus en plus petite.
On appelle cela « loi des rendements marginaux (factoriels) décroissants » (Turgot est
certainement le premier à avoir formulé cette loi).
Cependant, on considère que lorsque la quantité de travail est faible, la productivité marginale
est croissante c’est-à-dire que les variations de la production sont de plus en plus fortes. Mais
cela ne vaut que pour de petites quantités de travail.
Graphiquement, on peut la représenter ainsi :
Pm
L
On a donc bien une phase croissante qui correspond à une productivité marginale croissante
puis une phase décroissante. De plus, on constate qu’à partir d’un certain point, elle devient
négative. Cela est très facile à comprendre : si les hausses de production sont de plus en plus
faibles, à un moment donné, elles vont devenir nulles de telle sorte que la production
n’augmentera plus suite à des hausses de travail. Si la firme continue à augmenter la quantité
de travail, alors elle prend le risque de faire diminuer la production. C’est le moment où la
productivité marginale devient négative : chaque travailleur supplémentaire fait diminuer la
production. La firme étant parfaitement rationnelle, elle s’arrêtera juste au point où Pm
devient négatif.
On peut maintenant représenter la fonction de production Q = F (L) en tenant compte de tout
ce que l’on a dit ci-dessus.
Q
L
On constate que la courbe a une forme concave : elle veut juste dire que les variations de
production suite à la hausse du travail sont de plus en plus faibles, ce qui respecte notre loi des
rendements marginaux décroissants. En effet, si vous faîtes varié le travail d’une unité au bord
de la courbe et au bout de la courbe, vous constaterez que la variation de production est plus
forte au début qu’à la fin.
Q
L
On constate que pour une même variation du facteur travail, la variation de la production qui
en résulte est plus forte lorsque la quantité de travail est faible. Autrement dit, la variation de
la production est plus élevée au bord qu’au bout du graphique c’est-à-dire plus élevée lorsque
la quantité de travail initiale est faible.
Mathématiquement, la productivité marginale du travail se calcule comme suit :
PmL = ΔQ / ΔL
PmL = ∂Q / ∂L
Les deux expressions reviennent à la même chose mais dit autrement. La première correspond
au cas où on possède les données statistiques sur la production et la quantité de travail. Il
suffit de calculer, comme on le fait dans le tableau ci-dessous, les variations successives de
production par rapport aux variations successives du facteur travail.
Nombre de
salariés 5 6 7 8 9 10
Quantité produite 100 120 135 145 150 153
ΔQ / ΔL (120-100) / (6-5) =
20 15 10 5 3
On soustrait chaque Q avec son précédent et on divise le tout par la variation des quantités de
travail. On obtient donc la variation supplémentaire de la production suite à chaque variation
des quantités de travail, ce qui correspond bien à la PmL. On regarde, en fait, pour chaque
travailleur supplémentaire de combien varie la production.
On conclut qu’elle est bien décroissante puisque les résultats obtenus sont de plus en plus
faibles.
Variation de Q Variation de L = 1
La seconde formule est utilisée lorsqu’on ne possède pas les données statistiques relatives à la
production et au travail, mais que l’on dispose de la fonction de production : Q = F (L).
Dans ce cas, il suffit de dériver cette fonction par rapport à la variable L et on obtient, cette
fois, la fonction de productivité marginale du travail.
Exemple : Soit Q = 2L0.5
PmL = ∂Q / ∂L = (2*0.5) L0.5-1
= L-0.5
Il suffit alors de remplacer L par n’importe quelle valeur pour connaître la variation de
production qui résulte d’une variation infinitésimale du travail (très très faibles variations du
travail).
Comment savoir si elle est décroissante ? Il suffit de calculer la dérivée de PmL et de
regarder son signe.
∂PmL / ∂L = -0.5*L-0.5-1
= -0.5L-1.5
< 0
La productivité marginale du travail est bien décroissante.
Remarque :
- Ce qui est vrai pour le facteur travail l’est aussi pour le facteur capital. La loi des
rendements marginaux décroissants s’applique aux deux facteurs.
- Cette loi n’est cependant vraie que si on suppose que l’un des deux facteurs reste fixe.
Lorsqu’on s’est intéressé à la productivité marginale du travail, on a considéré que le
facteur capital restait fixe. De même, si on s’intéresse à la productivité marginale du
capital, la loi n’est vraie que si on suppose que le facteur travail reste constant. La loi
n’est plus vraie lorsqu’on fait varier les deux facteurs en même temps.
Voyons alors le cas où les deux facteurs varient dans les mêmes proportions et
observons les effets sur la production. Cela suppose donc que la firme se situe à long
terme. La question qu’on se pose ici est donc : de combien varie la production lorsque
les deux facteurs de production varient dans les mêmes proportions ?
Dans ce cas, on s’intéresse aux « rendements d’échelle ». Mais, attention, j’insiste tout de
suite sur le fait que cela ne s’applique que si les deux facteurs varient exactement dans les
mêmes proportions, autrement dit, si le rapport K/L ne change pas. On peut alors distinguer 3
cas :
- Si la variation de la production est plus faible que la variation des quantités de
facteurs, alors on parle de « rendements d’échelle décroissants ».
Exemple : Si on double la quantité des deux facteurs, la production fait moins que doubler
- Si la variation de la production est identique à celle des facteurs, on parle de
« rendements d’échelle constants ».
Exemple : Si on double les facteurs de production et que la production double.
- Si la variation de la production est plus forte que celle des facteurs de production, on
parle de « rendements d’échelle croissants ».
Exemple : Les facteurs doublent, la production fait plus que doubler.
Prenons un exemple pour illustrer ces rendements d’échelle : Supposons que la fonction de production de la firme soit la suivante : Q = 2K0.3L0.7 Quelle est la nature des rendements d’échelle ? Pour répondre à cette question, on va supposer que les quantités de facteurs de production doublent et on va regarder ce qui se passe sur la production. Doubler K et L revient à les multiplier par 2. Q’ = 2 (2K0.3) (2L0.7). On peut sortir les 2 en les mettant à leur puissance correspondante. Q’ = 2 * 20.3K0.320.7L0.7. On sait que : 20.3 = 1.23 et 20.7 = 1.62. En les multipliant, on obtient : Q’ = 2 * (1.23*1.62) K0.3L0.7 Q’ = 2* 2*K0.3L0.7 Or, 2K0.3L0.7 = Q. Donc, Q’= 2*Q On constate que Q’ est deux fois plus élevé que Q. Autrement dit, la production a doublé suite au doublement des facteurs de production. La production a donc varié dans les mêmes proportions que les facteurs. On parle alors de « rendements d’échelle constants ».
Etudions maintenant la relation qui unit la productivité moyenne et la productivité
marginale. Pour cela, on reprendra le cas où le capital est fixe et où seul le travail
peut varier.
Pour comprendre cette relation, prenons le cas d’un étudiant et de ses notes aux examens. Supposons que sa moyenne soit jusqu’ici de 10/20. Il passe un examen et obtient 8/20. Que se passe-t-il sur sa moyenne ? Elle va nécessairement diminuer et passer à 9/20. Puis, il passe encore un autre examen et il obtient à celui-ci un 12/20. Que va faire sa moyenne ? Elle va obligatoirement augmenter et passer à 10.5/20.
Que peut-on en conclure ? A chaque fois qu’il obtient une note supplémentaire qui est supérieure à sa moyenne, cette dernière augmente. S’il obtient une note supplémentaire inférieure à sa moyenne, cette dernière diminue. Par conséquent, ce qui est vrai pour les notes est aussi vrai pour les productivités. Si la
productivité marginale est supérieure à la productivité moyenne, cette dernière augmente. Dès
que la productivité marginale devient inférieure à la productivité moyenne, cette dernière
diminue.
On peut l’écrire plus clairement de la manière suivante :
- Si PmL > PML PML augmente
- Si PmL < PML PML diminue.
Graphiquement, voici ce que cela donne :
Pm
PM
Pm
PM
L
On peut donc en conclure que Pm = PM lorsque PM est à son maximum. Dès que la
productivité marginale égalise la productivité moyenne, cette dernière est à son maximum.
Autrement dit, elle est maximisée lorsque ce que rapporte le dernier travailleur est juste égal à
ce que produise en moyenne chaque salarié.
A présent, nous pouvons développer ce graphique en se demandant : Quelle est la quantité de
travail que la firme va décider d’utiliser ? Autrement dit, compte tenu de la forme des courbes
ci-dessus, quel endroit sur ces courbes la firme a-t-elle intérêt à choisir ? Quelle partie des
courbes est la plus rationnelle pour elle ?
Pour répondre à ces questions, reprenons le graphique en le découpant plus précisément. En
effet, nous pouvons distinguer 4 phases sur ce graphique :
Pm
PM
Pm
PM
L
1ère
phase : la Pm et PM sont tous les deux croissants
2ème
phase : Pm est décroissant et PM est croissant
3ème
phase : Pm décroissant mais positif, et PM décroissant et positif.
4ème
phase : Pm décroissant mais négatif, et PM décroissant et positif
Pm > PM : PM croissant
Pm < PM : PM décroissant
A partir de là, quelle phase l’entreprise va-t-elle choisir ? Où va-t-elle décider de fixer la
quantité de travail ?
D’abord, constatons que la phase 4 est irrationnelle. En effet, si l’entreprise la choisissait,
elle prendrait le risque de voir sa production diminuer étant donné le fait que la productivité
marginale est négative. Toute hausse de la quantité de travail ferait diminuer sa production.
Quelle entreprise serait assez « idiote » pour choisir cette phase ? La phase 4 est donc à
proscrire.
La phase 1 est tout aussi irrationnelle mais pour des raisons différentes. En effet, tout au
long de cette phase, la productivité marginale n’est pas à son maximum. Autrement dit,
l’entreprise a intérêt à augmenter la quantité de travail au-delà de la phase 1 puisque chaque
hausse du travail fait augmenter sa production dans des proportions croissantes. Une unité de
travail en plus augmente la production davantage que l’unité précédente. La firme a donc
intérêt à embaucher jusqu’au point A au moins. La phase 1 n’est donc pas rationnelle.
Ainsi, un producteur rationnel doit choisir entre la phase 2 et la phase 3. Ce sont toutes les
deux des phases efficientes du point de vue de l’objectif de maximisation du profit. Mais,
nous allons voir que l’une est plus intéressante que l’autre.
La phase 2 correspond à une phase où la productivité marginale du travail est décroissante
mais où la productivité moyenne est croissante. Au cours de cette phase, la firme est efficiente
du point de vue marginal mais pas du point de vue global étant donné que PM continue
d’augmenter en raison du fait que Pm > PM. La firme a donc intérêt à continuer d’utiliser
davantage de travail car son efficacité moyenne augmente. Elle doit donc au moins se rendre
au point B.
Finalement, si le producteur cherche à maximiser son profit, il faut que PM soit maximisé ce
qui correspond à la phase 3. Cette dernière est la plus efficiente pour la firme.
L’entreprise fixera toujours sa quantité de travail au moment où PM et Pm deviennent tous les
deux décroissants.
Remarque : ce qui est vrai pour le facteur travail l’est tout autant pour le facteur capital. On
aurait pu faire la même analyse avec le capital, ce qui n’aurait rien changé à la conclusion.
Section 2 : la notion de coût
Jusqu’ici, on ne s’est intéressé qu’à la notion de productivité en cherchant à démontrer que la
firme fixera sa quantité de travail à l’endroit où ses rendements marginaux et moyens sont
décroissants.
Cependant, le producteur ne doit pas simplement se demander ce que lui rapporte chaque
unité de facteur de production (productivité du travail ou du capital), mais aussi ce qu’elle lui
coûte. Ainsi, dans l’objectif de maximisation du profit, il ne suffit pas simplement à la firme
de tenir compte de la productivité de ses facteurs mais aussi des coûts de production associés
à l’utilisation de ces facteurs. N’oublions pas que les coûts constituent un élément du profit.
En effet, dans l’équation : π = PQ – wL – rK, nous avions signalé plus haut que le profit est
le revenu obtenu après paiement des facteurs de production L et K. Ainsi, la rémunération de
ces facteurs constitue les coûts de production que la firme doit supporter et qui sont les seuls
à nous intéresser en microéconomie. La rémunération du travail et celle du capital sont bien
deux éléments à retirer pour obtenir le profit, donc représentent bien les dépenses nécessaires
pour produire. Ainsi, dans l’équation du profit, nous retrouvons les coûts de production sous
la forme : - wL – rK.
Nous pouvons tout d’abord essayer de définir ce qu’est un coût de production. Il s’agit de
l’ensemble des dépenses qui ont été nécessaires pour produire la marchandise.
En microéconomie, nous considérons aussi qu’il y a deux grands types de coûts auxquels la
firme doit faire face pour produire :
Coûts fixes : coûts indépendants de l’activité de l’entreprise et de sa production.
Autrement dit, il s’agit des coûts que la firme supporte même si elle ne produit pas. On
y retrouve, en réalité : le loyer, les amortissements de machines etc….
Coûts variables : il s’agit des coûts directement dépendants de l’activité de l’entreprise
et qui varient en même temps que sa production. On y retrouve par exemple les
matières premières, le travail etc…
Nous pouvons alors déterminer l’équation du coût de production en fonction de la production.
CT (Q) = CF + CV (Q)
Vous noterez que le coût variable (noté CV) est aussi fonction de la production puisqu’il varie
avec elle, alors que le coût fixe (noté CF) est indépendant de cette production.
Ce qui nous intéresse, dès lors, prend la même forme que ce que l’on a dit à propos de la
productivité. Ce qu’il faut analyser dès à présent est la manière dont les coûts évoluent
lorsque la production évolue. Autrement dit, il s’agit d’étudier l’évolution des coûts que le
producteur doit supporter. Comment le coût total varie lorsque la production varie ? On ne
s’intéresse pas, ici, à la manière dont les coûts évoluent lorsque les quantités de facteurs
évoluent mais bien lorsque les quantités produites évoluent. C’est bien le coût de production
qui est visé par notre analyse.
Remarque : Dans la suite de l’analyse, nous négligerons les coûts fixes pour la simple raison
qu’ils n’affectent pas l’évolution des coûts de production. On ne s’intéressera qu’aux coûts
variables puisqu’eux seuls peuvent nous aider à répondre à notre question.
Considérons le cas où nous sommes à court terme : dans ce cas, on sait que seul le travail
peut varier donc seul ce facteur nous intéresse dans l’analyse des variations des coûts. Pour le
dire autrement, seul le coût du facteur travail est intéressant pour nous.
On sait que la production est fonction du facteur travail à court terme de telle sorte que :
Q = F (L).
Or, nous savons que le coût variable est fonction de Q : CV (Q)
Nous pouvons en déduire que le coût variable est fonction du facteur travail à court terme.
Comme le coût total ne dépend, pour simplifier comme on l’a dit, que des coûts variables, on
peut donc réécrire la fonction de coût total comme :
CT = w. L
Nous pouvons alors reprendre la question qui nous intéresse : comment varie le coût total
lorsque la production varie ?
On peut, tout d’abord, définir le « coût moyen » : ce que coûte, en moyenne, chaque unité
produite. ATTENTION, on ne s’intéresse pas à ce que coûte en moyenne une unité de travail
(ce qui est « w » en passant) mais bien à ce que coûte une unité de production.
Mais, ce qui intéresse surtout la firme est de se demander si elle a intérêt à produire une unité
supplémentaire de marchandise ou non. Autrement dit, c’est le coût de la dernière unité
produite qui intéresse le producteur. En effet, la firme part d’un état initial et ce qui compte
pour elle, est de se demander comment variera son coût si elle décide de produire une
marchandise en plus. C’est donc le « coût marginal » (noté Cm) qui obsède le producteur
c’est-à-dire le coût supplémentaire lorsque la firme décide de produire une unité
supplémentaire de marchandise.
Comment évolue ce coût ?
Tout d’abord, le coût marginal est fonction du salaire unitaire versé au travailleur. En effet,
nous avons dit que le coût total représente le coût du travail. Ce que nous coût une unité de
production supplémentaire dépend donc de ce que l’on va verser au travailleur qui a été
nécessaire pour la produire. Mais, ce salaire est fixé sur le marché du travail et s’impose à la
firme. Il ne peut donc pas nous aider à comprendre comment évolue le coût marginal.
Ce dernier dépend alors de quelque chose de plus fondamental, à savoir : la productivité
marginale du travail. En effet, nous avons dit que seul le coût du facteur travail nous
intéresse ici. Or, ce que nous coûte le travail dépend directement de ce qu’il nous rapporte.
Par conséquent, ce que nous coûte une unité de production supplémentaire dépend
directement de ce que nous rapporte une unité supplémentaire de travail (n’oubliez pas que la
production est fonction du travail).
Prenons un exemple pour illustrer ceci : supposons une entreprise disposant de 5 salariés qui produisent 100 unités. Avec un 6ème, la firme augmente sa production de 20 et avec un 7ème, elle augmente sa production de 15. Nous avons toutes les raisons de penser que les unités produites par le 7ème nous coûterons davantage que les unités produites par le 6ème, car, avec le 7ème salarié, on a produit moins qu’avec le 6ème. Le coût de ces unités sera nécessairement plus élevé. Nous avons donc une relation inverse entre Pm et Cm. Si le premier augmente, le second
diminue. Si le premier diminue, le second augmente.
Mais, nous savons, d’après la « loi des rendements marginaux décroissants », que la
productivité marginale du travail est nécessairement décroissante. Nous pouvons en déduire
alors la « loi des coûts marginaux croissants » : l’augmentation des quantités produites
augmente le coût total dans des proportions croissantes. Au fur et à mesure de la hausse de la
production, le coût total augmentera mais de plus en plus fortement. Ce que nous coûte
chaque unité supplémentaire produite est plus élevé que ce que nous ont coûtés les unités
précédentes.
Remarque : On sait que pour des unités de travail faibles, la productivité marginale est
croissante. Nous pouvons donc en déduire que pour des unités produites faibles, le coût
marginal sera décroissant.
Ainsi, le coût marginal est une fonction croissante des quantités produites. Plus la production
augmente, plus le coût augmente mais de plus en plus.
Mathématiquement, on le calcule comme suit :
Cm = ΔCT / ΔQ
Cm = δCT / δQ
Il s’agit de la même logique qu’avec la productivité marginale.
Nous pouvons aussi démontrer mathématiquement la relation inverse existante entre Pm et
Cm :
CT = w. L
Cm = δCT / δQ
Cm = w. (δL / δQ)
Or, on sait que Pm = δQ / δL. Ici, nous avons donc l’inverse de Pm.
Cm = w. (1/Pm)
Cm = w/ Pm
On constate bien que si Pm augmente, Cm diminue puisque Pm est au dénominateur. Son
augmentation fait donc diminuer tout le quotient et donc Cm.
Remarque : nous pourrions prouver la même relation inverse mais cette fois, entre le coût
moyen et la productivité moyenne. Je vous laisser le soin de le faire.
Graphiquement, nous pouvons reprendre le graphique sur les productivités et en déduire celui
sur les coûts.
Pm
PM
Pm
PM
L
Nous pouvons constater exactement la même relation entre CM et Cm qu’avec PM et Pm. En
effet, lorsque Cm < CM, alors CM est décroissant. Puis, lorsque Cm > CM, alors CM est
croissant. On peut donc en conclure que CM est à son minimum lorsque Cm = CM (point
E).
Cm
CM
Q
Cm
CM
E
Passons maintenant à l’étude de long terme : nous continuons à négliger les coûts fixes.
La production dépend alors des deux facteurs de production : Q = F (K ; L)
Nous savons qu’à long terme, la firme peut faire varier les quantités de ses deux facteurs de
production. Il n’y a plus de contrainte sur le capital. Ainsi, le coût total, représenté
uniquement par le coût variable, dépend maintenant des deux facteurs de production de telle
sorte que le coût représente à la fois le coût en travail et en même temps, le coût en capital.
CT (Q) ou CV (Q) = wL + rK
La question qui se pose maintenant est la même que celle que l’on s’est posé à court terme :
comment varient les coûts de production lorsque les quantités produites varient ?
On sait qu’à long terme, faire varier la production revient à faire varier les deux facteurs de
production en même temps. Nous avons vu qu’il nous fallait distinguer trois cas selon
l’impact des variations des facteurs sur la variation de la production :
- Rendements d’échelle croissants
- Rendements d’échelle décroissants
- Rendements d’échelle constants
Ainsi, à long terme, étudier la variation des coûts quand la production varie revient donc à
étudier la nature des rendements d’échelle, puisque ce sont eux qui nous permettent
d’apprécier l’ampleur de la variation de la production quand les facteurs varient et donc
d’évaluer l’ampleur de la variation des coûts, cette dernière dépendant de la variation de la
production.
Nous pouvons distinguer deux cas :
- Rendements d’échelle croissants : cela signifie que lorsque les facteurs de production
varient, la production varie plus fortement. Cela peut donc être associé à un coût
moyen décroissant. En effet, si la production varie davantage que les facteurs de
production, chaque unité, en moyenne, coûtera moins qu’auparavant. On parlera alors
d’« économies d’échelle ».
- Rendements d’échelle décroissants : lorsque les facteurs de production varient, la
production varie plus faiblement. Ainsi, chaque unité, en moyenne, coûtera davantage.
Le coût moyen est croissant. On parle de « déséconomies d’échelle ».
Nous savons donc maintenant comment, à long terme, les coûts varient en fonction de la
production. Tout dépend, en fait, de la nature des rendements d’échelle.
Or, à long terme, la forme du coût moyen est identique à celle de court terme : d’abord, une
phase décroissante puis une phase croissante. Autrement dit, une phase d’économies d’échelle
puis une phase de déséconomies d’échelle. On dit aussi que le coût moyen a une forme en
« U ».
Comment expliquer les économies et déséconomies d’échelle ?
- Division du travail : au début de la production, répartir les tâches horizontalement et
verticalement permet de gagner en efficacité et de réaliser des gains de productivité.
Le coût moyen décroît : chaque unité, en moyenne, coûte de moins en moins. Mais, à
un moment, ses effets positifs s’épuisent. A partir d’une certaine production, la
division du travail ne joue plus et ne marche plus : le coût moyen se remet à
augmenter.
- Coûts fixes : quand la production commence à se développer, les coûts fixes
n’évoluent pas puisqu’ils sont, en principe, indépendants de la production. Ainsi, le
coût moyen décroît puisque la production se développe plus que le coût total (dont une
partie reste fixe). Mais, à un moment donné, produire plus demande des changements
structurels (local, amortissement) qui affectent les coûts fixes de l’entreprise. Dans ce
cas, ils augmentent et font donc augmenter le coût moyen.
De plus, à long terme, la firme a la possibilité de modifier sa taille ou bien sa technologie
dans le but d’accroître la productivité de ses facteurs et donc de diminuer leurs coûts. En effet,
le producteur peut décider d’acheter de nouveaux locaux, de nouvelles unités de production
ou encore décider simplement d’investir dans une technologie plus performante. Dans tous les
cas, cela contribuera à accroître fortement ses gains de productivité, c’est-à-dire à réduire ses
coûts de production.
Comment cela se traduit-il ?
Graphiquement, on va constater un déplacement de la courbe de coût moyen vers la droite,
comme le graphique ci-dessous le montre :
CM
Q
Economies
d’échelle
Déséconomies
d’échelle
La situation initiale est caractérisée par la courbe CM. Après changement de taille et/ou de
technologie, la courbe se déplace en CM’.
Que cela signifie-t-il ?
Simplement que pour un niveau de production supérieur à Q*, le coût moyen est plus faible
en CM’ qu’en CM (CM1’ < CM1). Autrement dit, un même niveau de production, avant et
après les changements opérés par la firme, donnera un coût moyen plus faible que si la firme
était restée à son niveau initial. CM’ permet ainsi de réduire le coût moyen de production
alors même que le niveau de production peut rester inchangé.
De plus, cela signifie aussi, comme on le voit, que la firme peut produire davantage
qu’auparavant, elle peut davantage développer sa production. Les quantités produites sont
supérieurs après les modifications structurelles puisque CM’ est à droite de CM.
Section 3 : L’optimum du producteur
Nous sommes maintenant suffisamment armés pour revenir à notre objectif initial :
maximiser le profit du producteur. Il s’agit maintenant d’étudier les conditions dans
lesquelles cet objectif peut être atteint. Nous raisonnerons, bien entendu, à long terme et
supposerons que les facteurs sont substituables.
Revenons à l’équation du profit : π = PQ – wL – rK, avec Q = F (K ; L).
Comment le producteur peut-il parvenir à maximiser le profit ?
Comme nous savons que les prix sont donnés et imposés au producteur, la seule manière
d’agir sur l’équation du profit est de changer les quantités de facteurs de production. La firme
n’a, en effet, que le moyen de modifier ou bien sa production, ou bien les quantités de ses
facteurs de production. Mais, on sait que Q = F (K ; L), donc l’équation de profit peut se
réécrire :
CM
Q
CM CM’
Q*
CM1
CM1’
Q1
π = P. F (K ; L) – wL – rK
Finalement, la seule possibilité d’agir sur le profit est d’agir sur les quantités de ses facteurs
de production.
Le problème du producteur est donc de trouver une combinaison optimale de L et de K qui
lui permette de maximiser son profit. Dit autrement, il doit rechercher la production
optimale qui maximise son revenu.
Mais, on sera d’accord pour indiquer qu’un même niveau de production peut être obtenu à
partir de différentes combinaisons de facteurs de production. En effet, produire x unités n’est
pas le résultat d’une seule combinaison de L et de K.
Ainsi, pour un unique niveau de production, il existe une infinité de combinaisons de L et de
K. On appelle cela un « isoquant » de production.
Voilà comment on représente graphiquement cet isoquant :
Nous constatons, ainsi, sur ce graphique, que tous les points sur la courbe correspondent à des
combinaisons de travail et de capital qui assurent un même niveau de production Q0.
Autrement dit, la combinaison « A » assure le même niveau de production que la combinaison
« B ».
Plusieurs propriétés caractérisent ces isoquants :
- Il existe une infinité d’isoquants de production. A chaque niveau de production lui
correspond un isoquant.
- Plus l’isoquant est situé au Nord-est, plus le niveau de production est élevé. Dit
autrement, plus l’isoquant est à droite, plus il correspond à une production élevée.
- L’isoquant est décroissant. Cela paraît assez logique : si la quantité de capital diminue,
pour maintenir un même niveau de production, il faut augmenter la quantité de l’autre
facteur c’est-à-dire le travail. Le graphique suivant le prouve :
K
L
Q0
A
B
L’isoquant se trace dans le repère (K ; L).
Pour obtenir l’équation de la courbe, il suffit
d’exprimer K en fonction de L. Pour cela, on part
de la fonction de production : Q = F (K ; L) puis on
transforme pour avoir quelque chose du type : K =
F (Q ; L)
Nous remarquons que, pour passer de A à B, il faut diminuer la
quantité de capital. En retour, on remarque que, pour rester sur le
même isoquant donc pour conserver un même niveau de
production, il a fallu augmenter la quantité de travail.
- Les isoquants sont convexes. Il s’agit de la propriété la plus difficile à comprendre.
Démontrons-le par étapes.
Pour des quantités de capital élevées et donc pour des quantités de travail faibles, si nous
diminuons le capital, on sait qu’il va falloir compenser cette baisse par une augmentation de la
quantité de travail. Mais, dans quelles proportions ?
Etant donné que la quantité de capital est élevée et que celle du travail est faible, nous
pouvons en conclure que la Pm du K est plus faible, en ce point, que Pm du travail (puisque
Pm est décroissante avec les quantités). Ainsi, si le capital diminue, sa productivité marginale
va augmenter mais pour compenser cette diminution, il va falloir augmenter très peu la
quantité de travail puisque sa productivité est supérieure.
Une forte diminution du capital devra donc être compensée par une faible augmentation du
travail lorsqu’on se situe au bord de la courbe (K élevé et L faible).
K
L
A
B
K
L
L’inverse est facilement démontrable lorsqu’on se situe à des quantités de travail élevées et de
faibles quantités de capital. Dans ce cas, PmK > PmL. Une forte diminution des quantités de
travail devra être compensée par une faible augmentation de capital.
Cette variation de l’un des facteurs nécessaire pour compenser la variation de l’autre afin de
maintenir constante la production est mesurée par ce que l’on appelle le « TMST » : Taux
marginal de substitution technique. Bien entendu, il sera différent selon l’endroit où on se
situe sur la courbe puisque celle-ci n’est pas linéaire. Ainsi, généralement, on calcule le
TMST « en un point » de la courbe d’isoquant. Cela nous permet de savoir, en ce point,
quelle est la variation nécessaire pour maintenir la production constante.
Dit plus mathématiquement, le TMST correspond au degré de pente de la tangente en un
point de l’isoquant.
TMST = δK / δL
Le TMST est forcément négatif puisqu’il y a une relation inverse entre les variations de
facteurs : quand l’un diminue, l’autre doit augmenter. On peut donc écrire, pour avoir le
TMST positif :
TMST = - (δK / δL)
De plus, il est décroissant au fur et à mesure qu’on se déplace le long de la courbe : une
diminution identique du capital demande progressivement des hausses de plus en plus fortes
de travail. La pente est donc de plus en plus horizontale ou de « plus en plus pentue ».
K
L
K
Remarque : si nous avions affaire à des facteurs complémentaires, la forme des isoquants
serait totalement différente. Puisque les facteurs de production doivent être utilisés dans des
proportions fixes, on ne pourrait pas diminuer la quantité de l’un et le compenser par
l’augmentation de l’autre. Dans ce cas, les isoquants auraient la forme suivante :
A partir de maintenant, nous pouvons nous demander comment le producteur va-t-il atteindre
son optimum ? Autrement dit, quelle quantité produite et quelle combinaison de L et de K va-
t-il choisir (sachez que trouver la combinaison de L et K revient à fixer Q) ?
Comme le consommateur, la firme n’agit pas totalement de manière libre et sans contraintes.
Elle peut, certes, choisir une combinaison de travail et capital et donc choisir une certaine
quantité de production, mais peut-elle le faire comme elle l’entend ? Autrement dit, existe-t-il
certaines contraintes qui pourraient éventuellement l’empêcher de fixer n’importe quelle
production ? La réponse est bien évidemment OUI.
Aucune firme ne peut, à un moment donné, choisir n’importe quelle quantité de travail et
capital. On dit que le producteur agit SOUS CONTRAINTE. Mais, quelles contraintes ?
La seule contrainte à laquelle doit faire face la firme, en microéconomie, est la « contrainte
budgétaire ». N’oubliez pas que la firme doit supporter des coûts de production et que ces
coûts limitent ses possibilités d’action. Ainsi, quand on parle de contrainte budgétaire, on
renvoi directement à la contrainte de coût qui pèse sur le producteur au moment de la
production.
L’équation de cette contrainte budgétaire est donnée par :
CT = wL + rK, avec w et r fixés sur le marché.
Nous pouvons tenter, pour comprendre l’impact des coûts sur les choix de la firme,
représenter cette contrainte sur le même graphique que celui des isoquants. Nous savons que
le graphique est représenté par le capital en ordonné et par le travail en abscisse. Ainsi, pour
tracer la contrainte budgétaire, il suffit d’exprimer K en fonction de L et de représenter
l’équation résultante de cette expression.
Si CT = wL + rK, après changement, on obtient :
K = (CT/r) – (w/r).L
L
CT / r
On sait que (CT/r) est une constante puisque r est donné ainsi que CT. De plus, le rapport
(w/r) est aussi donné puisque les deux composantes sont données. Par conséquent, le seul
élément variable de l’équation est bien la quantité de travail L. On a donc bien une expression
du type :
K = f (L)
On appelle cette équation : « Equation de la droite d’isocoûts ». C’est l’ensemble des
combinaisons de travail et de capital qui assurent un même coût pour la firme. Autrement dit,
pour un même coût de production, la firme dispose de multiples combinaisons des deux
facteurs de production. Il s’agit bien d’une droite car nous avons affaire à une fonction du
type affine mais ne nous attardons pas là-dessus.
Comment représenter cette droite dans le plan (K ; L) ?
Nous savons que, pour représenter une droite, nous avons besoin seulement de deux points.
Prenons le cas où L=0. Dans ce cas, en remplaçant L par 0, on obtient K = CT/r.
Prenons le cas où K =0. Dans ce cas, L = CT/w.
Nous avons donc ici nos deux points extrêmes qui nous suffisent pour tracer la droite
d’isocoûts.
K
L
Sachez que le degré de la pente d’isocoûts est déterminé par le rapport (w/r). Mais retenez-le
simplement, sans chercher à le comprendre. Ce serait trop long à expliquer pour quelque
chose d’aussi peu important !
Plus le rapport est faible, plus la pente est faible et plus le rapport est élevé, plus la pente est
forte.
CT / w
K K
L L
Propriétés des isocoûts :
- il existe autant d’isocoûts que de coût total. En effet, si l’isocoût est l’ensemble des
combinaisons de L et K qui assurent un même niveau de coût, vous aurez compris que
pour chaque niveau de coût total, il existe un isocoût différent.
Nous sommes maintenant suffisamment armés pour déterminer l’optimum du producteur.
Représentons sur le même graphique les isoquants et isocoûts :
K
Q1
Q2
B
Q0
L
Rappelons que l’objectif de notre producteur est de maximiser son profit, c’est-à-dire de
minimiser ses coûts. Ainsi, il cherche à avoir le coût total le plus faible.
Une fois que la firme constate le niveau du coût total (ici CT1) comme une contrainte qui pèse
sur elle, quelle combinaison de travail et capital va-t-elle choisir pour atteindre son objectif de
minimisation des coûts ?
La firme va, bien entendu, toujours décider d’atteindre l’isoquant le plus élevé, lui assurant un
niveau de production maximal. Mais, elle sait qu’elle doit tenir compte de sa contrainte
budgétaire CT1, et qu’elle ne peut la dépasser.
Pente forte :
(w/r) élevé
Pente faible :
(w/r) faible.
CT1
Si elle choisit Q0, la firme n’est pas rationnelle car elle se situe au-dessous de sa droite
d’isocoûts. Autrement dit, elle pourrait envisager de produire plus que Q0 sans dépasser sa
contrainte budgétaire. Elle n’a donc aucun intérêt à choisir Q0 puisqu’elle peut produire
davantage.
Si elle choisit Q2, elle est rationnelle au sens où elle cherche à atteindre le niveau de
production le plus élevé. Mais nous voyons que cet isoquant est incompatible avec la droite
d’isocoût CT1 puisque situé au-dessus d’elle. Le producteur dépasse sa contrainte budgétaire,
ce qui lui est évidemment impossible. Même s’il souhaite fixer sa production au niveau de
Q2, il ne peut le faire compte tenu de sa contrainte budgétaire.
Enfin, s’il choisit Q1, il constate que pour ce niveau de production, il n’existe qu’un point
compatible avec l’isocoût CT1. Il s’agit du point B. Ce point est le seul qui permet de rendre
compatible le coût CT1 avec une production fixée à Q1. Il s’agit donc du niveau de
production le plus élevé possible compte tenu de la contrainte budgétaire. La firme ne peut
pas faire mieux que ce point. Elle produit le plus qu’elle peut tout en étant situé juste au
niveau de sa droite d’isocoût. Dit autrement, elle épuise tout son budget, ce qui est
parfaitement rationnel pour elle.
L’optimum est alors donné par le point de tangence entre l’isoquant de production et la
droite d’isocoûts la plus basse. La firme a réalisé son objectif de maximisation du profit.
Remarque : nous pourrions étudier les effets sur l’optimum lorsque la rémunération des
facteurs de production varie c’est-à-dire lorsque w et/ou r varient. Nous allons le faire avec
un exemple, les autres se prêtant à la même logique.
Supposons que w diminuent mais que r demeure inchangé. Dans ce cas, le rapport (w/r)
diminue et donc la pente de la droite d’isocoût change, devenant plus faible. Voici
graphiquement les changements à opérer :
K CT1 CT0 L
Que constatons-nous ?
La pente de l’isocoût est devenue plus faible à la suite de la baisse de w, ce qui a aussi
déplacer l’abscisse vers la droite puisque (CT/w) a augmenté.
Quel impact cela aura-t-il sur l’optimum ?
W diminue donc (CT / w) augmente.
Nous voyons tout de suite que la firme a accès à beaucoup plus de possibilités. Il est logique
que si w a diminué, le producteur peut envisager de développer davantage sa production et
donc d’utiliser davantage de facteurs de production.
Si nous représentions les isoquants, voici ce que cela donnerait :
K
Q1 Q2
B C
L
La situation de départ est donnée par le point B. Après diminution de w, on sait que l’isocoût
change de pente et que celle-ci devient plus faible. On remarque alors qu’il est tout à fait
possible pour la firme d’augmenter sa production jusque Q2 afin d’optimiser sa situation. En
effet, si elle restait à Q1, elle ne serait pas parfaitement rationnel cat elle n’aurait pas épuisé
tout son budget. La seule façon pour elle d’optimiser sa production tout en étant compatible
avec sa nouvelle contrainte de budget est de développer la première jusque Q2. De cette
façon, elle épuise son budget en se situant au point C. Le point C est le nouvel optimum : il
s’agit de l’isoquant le plus élevé compatible avec le nouvel isocoût.
Nous pourrions, pour terminer, représenter le « sentier d’expansion ». Il s’agit de l’ensemble
des optimums du producteur après modifications successives des isocoûts et des possibilités
de production. En effet, si nous supposons que la situation du producteur s’améliore de telle
sorte que ses possibilités de production augmentent et cela de manière successive dans le
temps, nous pouvons alors représenter les changements que cela va procurer sur l’optimum de
la firme.
K
L
Nous constatons que l’optimum du producteur se déplace successivement vers la droite au
fur et à mesure que les possibilités s’améliorent, de telle sorte qu’il puisse produire toujours
plus. Si nous relions tous ces optimums, nous obtenons alors le « sentier d’expansion ».
Sentier d’expansion
Remarque : nous avons supposé indirectement ici que les déplacements d’isocoûts sont
parallèles et donc que le rapport (w/r) reste identique, seul le niveau du coût total change. Dit
autrement, nous avons supposé que le degré de pente des isocoûts restait inchangé. Bien
entendu, cette hypothèse n’est en rien la seule possible. Nous pouvons tout à fait envisager
que le rapport w/r se modifie (l’un des deux varie) et donc que le degré de pente change,
devenant plus ou moins faible. Mais cela ne change en rien la signification du sentier
d’expansion. Il s’agit toujours de constater les changements d’optimums résultant de la
modification des possibilités de production, même si ces possibilités ne changent pas dans les
mêmes proportions.
Voici un exemple :
K
L
Ici, nous constatons qu’à chaque fois, c’est w qui a diminué, ce qui a rendu la pente de
l’isocoût de plus en plus faible (CT/w augmente successivement). Mais, nous voyons que
nous pouvons représenter l’évolution de l’optimum à chaque changement d’isocoûts.
Sentier d’expansion
Top Related