Méthodes

MÉTHODES

NOTE PLUS SAVANTE SUR LA MANIÈRE
DONT LES ÉCONOMISTES FABRIQUENT LEURS  PRÉVISIONS

Par Fabrizio Carlevaro

 Le Temps stratégique No 36 L‘économiste, confronté à un problème de prévision, se forge, en général, à partir de quelques outils de base, une méthodologie ad hoc, moins en fonction de critères théoriques que des statistiques dont il dispose! Ce sont ces outils de base que je vais présenter ici, ainsi que le petit nombre d’idées-force qui les fondent. Il va sans dire qu’une même méthode de prévision peut reposer sur plusieurs de ces idées-force.

Idée-force no.1: demander l’opinion d’un expert. Une idée bien naturelle, la première même qui vient à l’esprit de quiconque est confronté à un problème de prévision… Dans l’antiquité, lorsqu’un individu voulait connaître son sort, il s’adressait à un devin, et lorsque le roi se préoccupait de la destinée de son royaume, il s’adressait à un prophète. Selon le livre de la Genèse, Pharaon, après avoir fait appel à tous les devins et à tous les sages de l’Égypte, demanda à Joseph l’interprétation du songe où il avait vu sept vaches grasses et sept vaches maigres. Joseph expliqua que les premières préfiguraient sept années d’abondance, les secondes sept années de famine. Cette prévision d’un cycle économique incita Pharaon à stocker une partie des récoltes des années d’abondance pour conjurer la famine des années suivantes.

Bien entendu, pour faire aujourd’hui des prévisions économiques, on choisit d’autres experts, que l’on peut classer en trois catégories: ceux qui experts sont par la force des choses, parce que l’événement à prévoir dépend de leur décision; ceux qui le sont malgré eux, parce que leurs craintes ou leurs espoirs déterminent l’événement; ceux enfin qui prétendent l’être, c’est-à-dire les experts à proprement parler!

Si l’on doit par exemple prévoir le volume des dépenses d’investissement d’un pays, on peut interroger sur leurs intentions les entreprises privées et les collectivités publiques qui vont faire ces dépenses, planifiées, qu’il s’agisse de construction ou d’équipement, plusieurs mois, voire plusieurs années, à l’avance. De même pourra-t-on faire des prévisions sur les ventes de voitures ou de frigos en interrogeant sur leurs intentions d’achat les ménages. Les avis de de ces experts malgré eux, invités à donner leur avis, conduisent à des prévisions d’une bonne fiabilité, mais dont la précision peut se détériorer rapidement dans la mesure où la durée à prévoir est longue.

On fait appel à la deuxième catégorie d’experts non pas parce que l’on croit que leurs prévisions se matérialiseront, mais parce que leurs anticipations sont un déterminant majeur de la variable que l’on cherche à prévoir. Ces experts sont les mêmes entrepreneurs ou consommateurs que ceux de la première catégorie, mais on leur demande un autre type d’opinion, appelé attitude. En Suisse, par exemple, l’Office fédéral des questions conjoncturelles fait exécuter, chaque trimestre, une enquête par téléphone pour déterminer l’attitude des consommateurs face à l’évolution de la situation économique générale, des prix, de l’emploi, etc., parce que la connaissance de ces anticipations (craintes ou espoirs) peut contribuer à prévoir la consommation des ménages. Les réponses obtenues sont qualitatives (du type « amélioration », « pas de changement » ou « détérioration »), mais elles peuvent être traduites en chiffres, sous forme d’indices de diffusion, donnant le pourcentage de réponses favorables, ou de solde, différence entre réponses favorables et défavorables, exprimé en pourcent du total des réponses. Ainsi chiffrées, les attitudes sont corrélées avec la consommation pour établir une relation statistique permettant la prévision. L’apport de ces données à la prévision semble plutôt maigre et reste un sujet controversé.

Contrairement aux experts involontaires des deux premières catégories, les vrais experts peuvent être consultés sur toutes sortes de sujets de prévision et pour des horizons qui dépassent le court terme. Pour prévoir la consommation d’énergie des ménages, par exemple, il faut connaître, outre le nombre de ménages et leur équipement ménager, le rendement énergétique des appareils qui seront disponibles à l’horizon de prévision. Si cet horizon est très éloigné, on n’a d’autre choix que de recourir aux avis de spécialistes en technologie.

Mais alors se pose une première question: faut-il se fier à un seul expert, ou en consulter plusieurs? Le bons sens suggère d’opter pour la seconde solution, car dénicher l’expert « le plus réputé » relève de la gageure et qu’il y a souvent autant d’avis que d’experts. D’où une seconde question: comment extraire une prévision fiable des opinions souvent contradictoires données par les membres d’un panel d’experts? On peut bien sûr les réunir en commission dans l’espoir qu’ils aboutiront à un consensus. Hélas, le consensus peut être complètement biaisé, parce qu’une minorité de fortes personnalités subjugue toutes les autres par exemple ou que la minorité adhère à l’avis de la majorité « par usure ». Pour pallier ces inconvénients, on peut procéder à une enquête anonyme où chaque expert a le même poids. Mais, dans ce cas, l’espoir d’atteindre un consensus s’évanouit et l’on perd tout l’effet cynégétique de la discussion en groupe.

Une procédure intermédiaire a été développée dans les années soixante à la Rand Corporation. Appelée Delphi (de Delphes, ville célèbre par son oracle), cette procédure préserve l’anonymat des experts et de leurs réponses par l’utilisation d’un questionnaire. mais les fait interagir par l’intermédiaire d’un coordinateur. Celui-ci dépouille les questionnaires et les resoumet aux experts, pour révision, accompagnés des résultats du dépouillement. L’information statistique fournie est représentée par la médiane des réponses et par l’intervalle interquartile, qui exprime la dispersion des réponses. Si un participant maintient son estimation en dehors de l’intervalle interquartile, on lui demande d’expliquer ses raisons. Tous ces arguments sont résumés et soumis pour critique avec le troisième questionnaire. Cette forme d’interaction peut être poursuivie mais, en pratique, elle s’arrête là, soit que les réponses finissent par se cristalliser, soit que l’organisateur manque de temps pour faire un ou plusieurs tours supplémentaires!

La méthode Delphi, souvent critiquée parce qu’elle ne prend pas en compte les liens pouvant exister entre les différentes prévisions demandées aux experts, reste très utilisée, ce qui témoigne, sinon de sa fiabilité, du moins de son utilité.

Idée-force no. 2: guetter les signes avant-coureurs. Ce deuxième principe de prévision remonte, lui aussi, à la nuit des temps. Les aruspices cherchaient des présages dans les entrailles des animaux, les auspices dans le comportement des oiseaux, les empyromanciens dans l’auscultation des foyers… L’économie moderne recourt aux signes avant-coureurs pour prévoir surtout l’évolution de la conjoncture, ses retournements en particulier.

L’idée de base est simple: les ordres précèdent la production et les ventes; les entreprises réduisent la durée du travail avant de licencier; le sens de variation d’un stock apparaît avant que l’on ne connaisse le niveau de cette variation, et tous ces éléments sont faciles à connaître. Certains noient cependant cette idée dans une grande sophistication théorique. Je songe ici aux raisons invoquées pour justifier le choix des trois courbes du célèbre baromètre de Harvard: l’indice du cours des actions (courbe A), en tant qu’indicateur avancé; le volume des chèques tirés sur les dépôts bancaires (courbe B), comme indicateur coïncident; le taux d’intérêt (courbe C), comme indicateur retardé, destiné à contrôler tout signal émis par les deux autres. La théorie de Harvard se résume ainsi: une augmentation du taux d’intérêt (courbe C) engendre un climat de pessimisme dans l’économie qui fait diminuer le cours des actions (courbe A), ce qui conduit à une réduction des investissements et donc à une récession (courbe B). Cette dernière produit une diminution des taux d’intérêt (courbe C), qui rend aux anticipations leur optimisme et pousse les prix des actions à la hausse (courbe A), en générant, par là, la reprise de l’activité économique (courbe B), c’est-à-dire le bouclement du cycle conjoncturel. Il faut noter que le baromètre de Harvard s’est révélé incapable de prévoir ou même d’enregistrer la Grande dépression des années trente.

En pratique, de nombreux pays disposent aujourd’hui d’une batterie d’indicateurs avancés qu’ils utilisent pour formuler leurs diagnostics conjoncturels. On constate, cependant, que les indicateurs avancés de conjoncture, s’ils prévoient virtuellement tous les retournements, le font avec une avance très variable et, parfois, annoncent des retournements qui ne se produisent pas. Pour réduire le risque de fausses alertes, on préfère donc recourir à des agrégats d’indicateurs avancés qui prennent la forme d’indices de diffusion(pourcentage d’indicateurs qui augmentent) ou d’indices composites (intégrant l’ampleur des variations des composants). Ces raffinements ne font pourtant qu’atténuer les problèmes, sans les éliminer, et le prévisionniste doit, à ce stade, porter un jugement subjectif, fondé sur son expérience. C’est dire que la méthode des indicateurs avancés relève trop de l’art pour être à la portée de chacun.

Il ne faudrait pas conclure de cette présentation un peu desabusée que la prévision par indicateurs avancés se limite au seul domaine de la conjoncture ou du court terme. On l’a utilisée avec succès dans d’autres domaines et pour des prévisions à moyen ou à long terme, notamment dans le domaine technologique, qui fait l’objet de ce numéro spécial.

Idée-force no. 3: exploiter les régularités temporelles. Cette troisième idée est à l’origine d’un très grand nombre de techniques, de modèles et même de théories de prévision. Elle fascine des cohortes de statisticiens-mathématiciens et d’économètres à vocation statistico- mathématique, à qui elle permet de s’adonner à la volupté des raffinements ésotériques… jusqu’à l’orgasme intellectuel.

On commence par porter les observations historiques de la grandeur économique à prévoir sur un graphique, dont l’axe vertical (l’ordonnée) indique la valeur de la grandeur en question et l’axe horizontal (l’abscisse) la date à laquelle elle a été observée. On obtient ainsi une suite de points (une série temporelle ou série chronologique ou encore chronique) que l’on dévisage attentivement pour deviner si les points sont approximativement alignés sur une droite imaginaire. Si tel est le cas, ce qui en économie arrive plus souvent qu’on ne l’imagine, on prend une règle et on trace cette droite imaginaire sur le graphique, à travers et au-delà des points. Pour formuler une prévision, on regarde ensuite quelle valeur indique cette droite à la date choisie . C’est tout. La méthode est simple, totalement explicite, donc « objective » parce que transmissible et reproductible. Tout cela est d’ailleurs bien connu: il s’agit de la très banale extrapolation.

Mais si l’on n’arrive pas à imaginer une droite, que fait-on? On cherche à imaginer une autre courbe « régulière ». Pour peu que l’on soit un mathématicien chevronné, on arrive facilement à en trouver une et, de surcroît, à l’écrire en formule, du style: y=f(x), où y désigne la grandeur et x le temps. Une formule qui ne sera pas celle de la courbe passant réellement à travers les points observés, mais de la famille des courbe ayant à peu près cette « forme ». Mais comment trouver la valeur des paramètres qui caractérisent la courbe particulière que l’on a perçue à travers les points? Ce problème est, en général, difficile à résoudre graphiquement (sauf pour la droite), mais peut trouver une solution mathématique. Il suffit d’exprimer en formule la distance entre les points et une courbe quelconque de la famille, puis de décider que la courbe particulière que l’on cherche est celle qui minimise la distance. Ce n’est plus dès lors qu’une affaire de calcul, dit de l’ajustement. Le hic c’est qu’il n’y a pas une définition unique de distance: elle peut être euclidienne ou non-euclidienne. De sorte que chaque mathématicien en quête d’originalité ou de reconnaissance par ses pairs peut proposer la sienne… et c’est évidemment ce qui se passe! D’où la prolifération des méthodes d’ajustement, conduisant à autant de prévisions différentes à partir du même principe. La situation est devenue si confuse qu’il a fallu concevoir une théorie statistico-mathématique, dite de l’estimation, qui trie le bon grain de l’ivraie en attribuant aux écarts entre les valeurs historiques et les valeurs de la courbe à la même date les caractéristiques d’une variable stochastique (aléatoire) à laquelle s’applique le calcul des probabilités… La terreur de mes étudiants en économie!

Mais la fécondité du principe ne s’arrête pas là. Il incite aussi à rechercher un invariant temporel de la grandeur économique, sur lequel asseoir la prévision. Par exemple, dans le cas où les points historiques sont sur une droite, l’invariant temporel est la variation entre deux dates successives (la vitesse), qui est constante. Souvent, on est obligé de fouiller plus avant pour dénicher l’invariant: taux de variation, différence seconde (l’accélération) ou troisième, et j’en passe… Le résultat des courses c’est que l’on se retrouve avec une formule, appelée équation de récurrence (bien entendu stochastique), qui relie la valeur courante (date t) de la grandeur à une suite plus ou moins longue de valeurs passées (dates t-1, t-2,…). Cette formule permet de calculer, pas à pas (on dit par récurrence ou itérativement), la prévision pour la date t+1, puis t+2, et ainsi de suite, à partir de l’observation la plus récente et des observations pour les dates antérieures figurant dans la formule. Pour faire bref: ce type de modèle a « fait un tabac » chez les économistes d’entreprise (notamment pour prévoir l’évolution à court terme des ventes) et assuré la fortune académique, ou parfois financière, de quelques statisticiens qui, comme le couple Box et Jenkins ont su vanter les mérites de leur variante.

Tous ces développements empêchent surtout ceux qui s’y livrent de se poser la question fondamentale: est-ce que tout cela est bien utile? Question à laquelle on est bien obligé de répondre par un oui et par non.

Non: parce que prévoir une variable économique, quelle qu’elle soit, sans faire référence aux autres variables (économiques ou non) avec lesquelles elle interagit dans la réalité, est insensé ou du moins osé. Cette façon outrancièrement mécaniste de prévoir, qui postule l’autonomie de la variable par rapport à son environnement, repose sur l’hypothèse implicite de la constance de cet environnement (le fameux « toutes choses égales par ailleurs » des économistes théoriciens) ou plutôt sur l’hypothèse d’une évolution qui se poursuivra comme par le passé. La prévision sera donc fondée sur un acte de foi, sans souci d’explication ou de compréhension. Ces modèles sont bien sûr incapables de prévoir les points de retournement conjoncturels.

Oui: parce que la série historique sur laquelle repose l’extrapolation est parfois tout ce dont on dispose pour prévoir. Faute de mieux, la prévision par extrapolation a au moins l’avantage d’être praticable. D’ailleurs, tant que l’environnement économique se trouve en « régime de croisière », les prévisions par extrapolation sont loin d’être décevantes.

Idée-force no. 4: expliquer pour prévoir. Remède à la tentation de la prévision mécaniste, il s’agit là du quatrième et dernier principe de prévision que je discuterai, étant entendu qu’il en est d’autres encore, que je garde en réserve pour mes étudiants, tels ceux d’analogie, de conformisme, ou celui dit de « la voie de chemin de fer ».

La météorologie, qui est soeur de l’économie par l’intérêt qu’elle porte au développement de méthodes de prévision fiables, a fait en la matière ses progrès les plus décisifs lorsque Lewis Richardson introduisit, en 1922, la prévision dite numérique. L’idée était de formuler, en utilisant les lois de la mécanique des fluides et de la thermodynamique, un modèle mathématique de l’atmosphère. L’état de l’atmosphère étant connu à un instant donné, on pouvait alors déduire de cet état une prévision de l’évolution future. La même démarche avait été utilisée par les astronomes, bien plus tôt, pour prévoir avec succès la position future des planètes. Pour formuler ce type de prévisions scientifiques, on décrit d’abord le comportement du système à prévoir à travers un ensemble de lois scientifiques (qui sont des propositions générales, explicatives, validées empiriquement par l’expérimentation ou l’observation), puis, par déduction, on cherche à quelle conclusion conduisent ces lois, lorsqu’on les applique à un « état initial » donné.

Les économètres ont essayé de développer une méthode de prévision de même nature. Leur première tentative est à peine plus récente que celle de Richardson en météorologie: Jan Tinbergen (qui reçut le premier Nobel d’économie) construisit le premier modèle économétrique d’une économie nationale en 1935. Mais comme en météorologie, il fallut attendre l’après-guerre pour que la méthode devienne opératoire, sous l’impulsion de Lawrence Klein (un autre Nobel d’économie), grâce à l’introduction des calculateurs électroniques et à une observation plus précise de l' »état » des économies.

Cette méthode suggère d’inscrire les diverses grandeurs économiques à prévoir dans un système d’équations simultanées où elles figurent au titre d’inconnues du système (on les appelle les variables endogènes). Chaque équation doit représenter l’un des comportements des agents économiques, l’une des contraintes techniques ou institutionnelles ou encore l’un des mécanismes d’ajustement, qui tous assemblés constituent l’économie. Par exemple, une équation exprimera comment les ménages décident de leurs achats, une autre quel processus de production on utilise pour produire telle catégorie de biens. Ces équations établissent des liens d’interdépendance entre les variables endogènes à une même époque (l’année, par exemple), mais elles font intervenir aussi d’autres éléments explicatifs. D’abord des variables endogènes décalées, c’est-à-dire d’années antérieures, pour traduire des effets d’habitude, des anticipations fondées sur l’évolution historique, etc.; puis des variables exogènes (courantes et retardées), exprimant l’état de l’environnement de l’économie (prix internationaux, population, taux d’imposition fiscale); enfin, des paramètres, c’est-à-dire des constantes empiriques (élasticité prix, propension à épargner, productivité du travail), ainsi que des perturbations stochastiques, traduisant l’effet de facteurs non identifiés. Pour déduire de ce système l’évolution de l’économie, il faut alors calculer la solution de ces équations (les inconnues sont les variables endogènes) après avoir introduit l’observation historique des variables endogènes et exogènes et chiffré la valeur future des variables exogènes et, si possible, des perturbations.

Cette méthode possède deux atouts majeurs, par rapport à celles déjà présentées. D’une part, elle permet d’analyser séparément les différentes sources d’incertitude qui affectent la prévision. D’autre part, elle est assez générale pour permettre d’intégration des autres méthodes évoquées, les renseignements notamment tirés des enquêtes sur les intentions ou les attitudes, ainsi que ceux fournis par l’appréciation subjective des experts. Elle prend en compte cinq sources d’incertitude: les équations, les constantes empiriques, les observations historiques, l’évolution future des variables exogènes et celle des perturbations. Aucune n’est négligeable, chacune contribue aux erreurs de prévision.

La quatrième de ces sources d’incertitude permet de distinguer la méthodologie de la prévision économétrique de celle de la prévision météorologique. Le météorologue peut prévoir en supposant constants les « paramètres » de ses équations qui décrivent l’état de l’atmosphère, sa composition physico-chimique par exemple. L’économètre, lui, ne le peut pas. Il est donc obligé d’anticiper l’évolution de ses variables exogènes… à moins que sa mégalomanie ne le pousse à élargir le système jusqu’à établir un modèle de l’économie mondiale, et rendre ainsi la notion d’environnement sans objet!

Selon que cette anticipation relève du probable (ce qui n’est généralement possible qu’à court terme) ou de la simple conjecture, on parlera de prévision tout court ou de prévision conditionnelle (lire: réaliste si la conjecture sur les variables exogènes se concrétise). C’est selon cette deuxième acception qu’il faut en général interpréter les prévisions économiques à moyen et à long terme élaborées par l’approche économétrique. L’évolution attribuée aux variables exogènes n’est alors qu’un simple « scénario », pour utiliser le jargon des stratèges, c’est-à-dire une évolution admissible de l’environnement, mais sur la plus ou moins grande vraisemblance de laquelle on ne se prononce pas. De telles prévisions ne relèvent plus de la volonté de fournir une prédiction équivalente à une prophétie, mais sont faites dans l’intention d’explorer l’avenir, dans une attitude prospective. Suivant cette conception, le futur est constitué, à côté d’éléments inéluctables et d’éléments imprévisibles, d’un « espace libre », à construire par l’action volontaire de l’homme (le futur volontaire), qu’il convient d’orienter précisément par des prévisions conditionnelles.

Des études comparatives portant sur les erreurs des prévisions macroéconomiques à court terme, réalisées sur plusieurs périodes et pour plusieurs pays, ont montré que la précision des méthodes économétriques est légèrement meilleure que la précision des prévisions réalisées par d’autres méthodes, formelles ou informelles. En l’état, l’avantage de l’approche économétrique ne réside pas tant dans ses capacités prévisionnelles que dans son potentiel d’outil de simulation des effets de politiques, que les autres méthodes sont incapables de prendre en compte.

S’intéresser aux méthodes de la prévision économique, c’est ouvrir une boîte de Pandore recelant un ensemble hétéroclite d’outils dont l’utilisation apporte surtout des déceptions. Mais le besoin de prévoir la chose économique est si puissant, la prévision si indispensable au fonctionnement de notre société rationnelle, technologique et marchande, que l’on ne peut y renoncer. Certes, elle la prévision ne sera jamais le corollaire noble et fiable de la connaissance scientifique dont rêvent tant d’économistes. Mais, au fond de la boîte, demeure l’espoir que, toujours plus proche de la démarche scientifique, elle nous donne les moyens de mieux maîtriser nos destins.

© Le Temps stratégique, No 36, Genève, Octobre 1990.

Les commentaires sont fermés