Ces quarante dernières années ont été marquées par le « juste in Time ». De la production à la livraison, tout se doit d’être fluide avec la constitution minimale de stocks qui grèvent les coûts. Pour rester compétitives, les entreprises ont été contraintes de réduire les délais de livraison. Pour garantir l’approvisionnement en temps réel des chaînes de production de plus en plus éclatées, au nom de la théorie des avantages comparatifs, une noria de porte-conteneurs, d’avions, de camions sillonnent les mers, les airs et les routes tout autour de la planète. Cette gestion a été rendue possible par le développement d’Internet qui permet de passer en instantanée des commandes et d’en réaliser le suivi.
L’épidémie de covid-19 a semblé briser ce beau puzzle d’une rare complexité et de ce fait fragile. Des centaines de milliers de conteneurs manquent à l’appel pour livrer biens et marchandises en temps et en heure en Asie, aux États-Unis ou en Europe. Les pénuries se multiplient et l’énergie enregistre une hausse brutale de ses cours. Dans les faits, la crise renforce le numérique, les entreprises ayant un besoin absolu de données pour anticiper les besoins, pour ajuster au mieux les commandes et pour les suivre. À partir d’une connaissance la plus précise des disponibilités des usines, des bateaux, des ports, etc., elles peuvent effectuer des arbitrages. Amazon utilise déjà des données instantanées pour suivre en temps réels l’évolution des besoins en produits alimentaires et en biens de haute technologie afin de réaliser ses commandes le plus en amont possible.
Durant de nombreuses années, les administrations avaient du mal à appréhender la situation en temps réel, compte tenu de la lenteur des remontées de l’information. Les premières estimations du Produit national brut américain datent de 1934 et étaient initialement livrées avec un décalage de 13 mois. Dans les années 1950, le jeune Alan Greenspan, futur Président de la Banque centrale américaine, surveillait le trafic des wagons de marchandises pour évaluer la production d’acier. Malgré les progrès de la comptabilité nationale grâce au recours aux outils informatiques, les gouvernements étaient relativement aveugles pour la prise de décision.
Outils rudimentaires
En 1975, le Gouvernement français s’engagea ainsi à contretemps dans une relance de l’économie alors que la récession était surmontée. Cette relance ne fit que favoriser l’inflation déjà élevée. Le deuxième choc pétrolier en 1979 fut également sous-évalué. En 2007/2008, l’administration et la banque centrale américaine n’ont pas perçu les effets sur l’emploi et sur l’activité de la crise des subprimes. Celle-ci aurait été moins dommageable si la Réserve fédérale avait réduit les taux d’intérêt à près de zéro en décembre 2007, quand l’Amérique est entrée en récession, plutôt qu’en décembre 2008. De longs mois ont été alors perdus. En 2011, c’est la Banque centrale européenne qui a commis une erreur d’appréciation en se fiant à de mauvais signaux. Elle a augmenté à tort les taux d’intérêt dans un contexte d’inflation temporaire, sans prendre conscience qu’elle replongeait la zone euro en récession. Sur le plan de la santé, en 2003, faute de statistiques en temps réel, le ministère de la Santé français était incapable d’apprécier les conséquences sur la mortalité de la canicule du mois d’août. Il fallut attendre la fin de l’année pour prendre conscience que plus de 15 000 personnes étaient décédées à cause de la chaleur.
Jusqu’à ces dernières années, les outils utilisés par les administrations restaient assez rudimentaires. La classification industrielle aux États-Unis utilisée par les économistes de l’administration datait de l’époque du New Deal (1937). Des mises à jour avaient été réalisées, mais l’industrie comportait toujours 24 sous-sections quand l’ensemble de la sphère financière n’en comprenait que trois malgré son essor lors de ces trente dernières années. À la sortie de la Seconde Guerre mondiale, les économistes et les statisticiens sont appelés au chevet des gouvernements pour évaluer les effets des politiques publiques et pour établir des grilles de décision en fonction de leurs coûts, avantages et inconvénients. Des modèles économétriques sont élaborés pour réaliser des prévisions macro-économiques. A compter des années 1970, les économistes intègrent des données comportementales dans leurs analyses. La sociologie, la psychologie voire la psychanalyse sont appelées à l’aide pour l’homo-economicus.
Mais les temps changent…
Avec l’épidémie de covid-19, les administrations publiques et les banques centrales se sont mises aux données en temps réel. Elles compulsent les réservations de restaurants, les paiements par carte, le nombre de passages aux péages d’autoroute, le nombre de billets de train ou d’avion vendus, la consommation d’électricité. Elles analysent également les recherches de mot sur Google, les déplacements grâce aux puces des téléphones pour évaluer si les ménages vont au cinéma ou au restaurant et s’ils sont partis ou pas en vacances. En mai 2020, les Fed régionales de Dallas et de New York aux États-Unis ont créé un indice d’activité à partir des données de SafeGraph, une startup spécialisée dans l’exploitation des données de géolocalisation et de mobilité issues des téléphones portables. La Fed de St Louis a utilisé les données du fournisseur américain d’applications professionnelles pour les PME, Homebase, pour suivre quotidiennement l’évolution de l’emploi. Les deux ont montré des déficits d’activité économique avant les données officielles. Cet indicateur a été repris par la banque centrale américaine pour établir le niveau du soutien à l’économie à réaliser en temps réel.
Les résultats sont encore rudimentaires, mais à mesure que les appareils numériques, les capteurs et les paiements rapides deviennent omniprésents, la capacité d’observer l’économie avec précision et rapidité s’améliore.
Les économistes les plus en vue, comme Raj Chetty de l’Université Harvard, n’exploitent plus exclusivement les données officielles. Ils dirigent des laboratoires spécialisés dans la collecte et l’analyse automatisée des données. Des banques comme JP Morgan Chase étudient en temps réel les données sur les soldes bancaires et les factures de cartes de crédit, aidant à révéler si les ménages consomment ou épargnent. Le suivi des comportements est facilité par la montée en puissance des achats en ligne. Les paiements en temps réel ont augmenté de 41 % en 2020, selon McKinsey. En Chine comme en Inde, le commerce en ligne est en voie de devenir majoritaire. (l’Inde a enregistré 25,6 milliards de telles transactions en 2020). Le suivi des marchandises « pucées » est quasi généralisé permettant une appréciation des pénuries en temps réel. Le développement des monnaies digitales de banque centrale, les « govcoins » devraient parachever la numérisation de toutes les relations économiques. Ces monnaies sont en cours d’expérimentation dans 50 États, la Chine étant en avance en la matière.
Retour du keynésianisme
Avant la crise, les banquiers centraux estimaient qu’il fallait 18 mois au moins pour qu’une modification des taux d’intérêt puisse avoir un quelconque effet sur la conjoncture. Avec la crise covid-19, les gouvernements ont pu, grâce aux outils numériques, agir rapidement en réalisant en direct des transferts d’argent aux ménages set aux entreprises. Par souci d’efficience, Hong Kong essaie des distributions d’argent dans des portefeuilles numériques avec expiration programmée afin d’inciter la population à consommer le plus vite possible. Les prestations sociales versées numériquement en fonction des données fiscales remontées en temps réel peuvent être adaptées également en temps réel en tenant compte de la situation du citoyen. Par la richesse des données qu’ils collectent, les GAFA ont la capacité de se doter d’indicateurs avancés très fins permettant de déceler l’évolution de la croissance. Apple et Google suivent les déplacements de leurs clients. Ils connaissent leurs goûts, leurs peurs et leurs désirs du moment à travers les pages consultées. Tant du côté du secteur public que du secteur privé, le danger est de tomber dans un syndrome de surveillance généralisée. C’est le rêve du Parti communiste chinois qui cherche à s’engager dans une forme de planification centrale numérique. Dans les pays occidentaux, après des années de dérégulation, la tendance est au retour du keynésianisme.
Au-delà des progrès potentiels qu’offre l’exploitation des données aux décideurs publics, la question des libertés publiques se pose avec un risque de contrôle des individus. Par ailleurs, l’économie pourrait se montrer rétive à la tentation orwellienne. Son avenir n’est pas codifiable à travers des algorithmes. Elle est par nature complexe et son évolution repose sur le comportement spontané de milliards d’entreprises indépendantes et de consommateurs. Par nature, les innovations, les ruptures, les crises, les krachs ne sont pas probabilisables et donc pas modélisables.