Bad data

 

Au palmarès des phrases fétiches des acteurs de marché, deux au moins mettent les statistiques à l’honneur : le sempiternel « Les chiffres sont meilleurs qu’attendus » et son équivalent négatif : « Les chiffres sont en-dessous des attentes ». Si vous traversez une salle de marché un vendredi vers 14h30, lorsque tombent les chiffres de l’emploi américain, vous n’échapperez pas à l’une ou l’autre de ces deux sentences… parfois ponctuées d’un juron de dépit ou d’un « yes ! » sonore. Et pour peu que la Chine ait publié un autre chiffre un peu plus tôt dans la journée, sans doute auriez-vous eu l’occasion d’entendre l’inévitable « you cannot trust Chinese statistics » (beaucoup d’opérateurs sont anglo-saxons).

S’il est communément admis que l’« on ne peut se fier aux statistiques chinoises », peut-on vraiment s’en remettre aux autres ? A-t-on raison d’accorder une telle importance aux données macroéconomiques, et comment les marchés doivent-ils les intégrer ? Autant de questions délicates qui font l’objet d’une solide étude publiée par la banque UBS(1).

Ce problème d’ajustement des marchés aux publications est avant tout d’ordre émotionnel : une donnée publiée engendre un sentiment chez les consommateurs ou les investisseurs qui les amène à réagir. Ce sentiment, UBS l’a modélisé à travers son « baromètre du blasé ». L’idée : comparer la « volatilité des sentiments » à la volatilité réelle des données macroéconomiques sous-jacentes. Le constat est sans appel : le baromètre du blasé s’affole à tel point qu’on pourrait le rebaptiser « baromètre du stressé ». Depuis deux ans, on assiste à une sur-réaction des marchés de plus en plus fréquente aux stimuli macroéconomiques. Les mois récents, au cours desquels obligations, actions et changes ont connu des amplitudes parfois record, en sont une illustration prégnante.

Si les marchés sur-réagissent aux données macroéconomiques, c’est sans doute que les boursiers leur prêtent une très grande fiabilité. Et de fait, on pourrait penser qu’à l’heure du big data on dispose désormais de données de plus en plus sûres. La réalité n’est hélas pas si simple.

Prenons le cas des données liées à la consommation : alors que les enquêtes sur le sujet affichaient des taux de réponse de 85% dans les années 1980, celui-ci est désormais tombé à 65% et les réponses sont plus fréquemment biaisées. Les statisticiens tentent de contourner cet affaiblissement en allant chercher des données directement sur la toile mais, ce faisant, ils introduisent un biais sous-pondérant la consommation hors internet. Du big data au « bad data », le pas est vite franchi et le paradoxe évident : si la granularité des données est aujourd’hui beaucoup plus forte, la fiabilité finale des chiffres ne s’est pas forcément accrue.

Dans le même ordre d’idée, regardons ce qui se passe outre-Manche : toujours très pragmatique, la Banque d’Angleterre publie désormais nombre de données sous forme d’intervalles plutôt que de chiffres exacts. Dire qu’en 2015 la croissance anglaise était comprise entre 2 et 3% semble moins ambitieux que d’affirmer qu’elle était de 2,5%, mais sans doute plus honnête intellectuellement.

Relativiser les statistiques à l’aune de ces considérations devrait aider les investisseurs à retrouver un peu de sérénité. Tout comme l’observation de statistiques moins prisées mais parfois plus pertinentes. Un exemple ? Aujourd’hui 50% des habitants de Shanghai ne confectionnent plus leur repas mais se les font livrer. C’est finalement plus parlant qu’un PIB incertain et ça rassure, tant sur la transformation de l’économie chinoise vers une économie de service que sur les perspectives de croissance de la deuxième économie du monde.

Didier Le Menestrel, avec la complicité de Marc Craquelin

(1) « Is sentiment data sentimental nonsense? » Paul Donovan, Economist, UBS, 24 février 2015