Cet article appartient au dossier : Vers Bâle IV ? Les banques dans l’incertitude.

Regard académique

« Mieux appréhender l’incertitude liée aux modèles »

En 2001, le mathématicien Paul Embrechts* cosignait un article très critique des choix de Bâle II, pointant notamment du doigt les limites des modèles statistiques. « Reconsider before it is too late » mettaient en garde les auteurs.

L'auteur

  • Paul Embrechts, ETH Zürich
    • Professeur de mathématiques
      ETH Zürich et Swiss Finance Institute
* Coauteur, avec Jón Daníelsson, Charles Goodhart, Con Keating, Felix Muennich, Olivier Renault et Hyun Song Shin, de « An Academic Response to Basel II », Special Paper n°130, Financial Markets Group, London School of Economics, mai 2001.

Revue de l'article

Cet article est extrait de
Revue Banque n°795

Vers Bâle IV ? Les banques dans l’incertitude

Les réflexions actuelles du Comité de Bâle questionnent l’utilisation des modèles internes. Selon vous, à la lumière de la crise, quelle place doivent-ils occuper dans la régulation bancaire ?

Deux approches – l’une quantitative, l’autre qualitative – sont aujourd’hui en discussion. Les modèles, qui se rattachent à l’approche quantitative, sont utilisés à plusieurs niveaux :

  • tout d’abord, celui des produits financiers eux-mêmes : les modèles jouent un rôle fondamental dans leur pricing. Mais ils introduisent une incertitude, en particulier lorsqu’ils sont utilisés pour valoriser ces produits en cas de mouvements de marché extrêmes et plus encore lorsque plusieurs mouvements se combinent. Le monde bancaire aurait dû avant la crise et doit toujours apprendre à mieux appréhender cette incertitude liée aux modèles ;
  • ensuite, celui de la régulation de ces produits, à travers le calcul des exigences en capital des actifs pondérés des risques. La crise financière a montré que les estimations de ces actifs n’étaient pas toujours correctes, et l’incertitude introduite par les modèles en est une des raisons ;
  • vient enfin la question des modèles internes. Certaines mesures du risque auxquelles ont recours ces modèles ne sont pas toujours bien comprises ou n’ont pas été utilisées avec suffisamment de précautions. Les modèles constituent un bon outil tant qu’on comprend leurs lacunes et leurs limites.

Certains régulateurs, comme l’autorité suisse, sont très critiques de l’utilisation des modèles dans le domaine des marchés financiers, mus par des comportements humains (voir Encadré). Est-ce que supprimer le recours aux modèles serait aller trop loin ?

Les régulateurs se posent en effet davantage de questions sur cette approche quantitative, mais il me semble que le risque aujourd’hui est que le balancier parte trop loin dans le sens inverse et que la réglementation ne se fie plus qu’à une approche qualitative. Il est très important de trouver le bon point d’équilibre : on a besoin des deux approches, quantitative et qualitative. Les modèles permettent de mettre dans des formules de vraies questions techniques : je ne vois pas, par exemple, comment valoriser un dérivé de taux sans modèles ! Mais il est vrai qu’ils peuvent avoir des difficultés à prédire l’évolution des marchés financiers, car il existe des facteurs humains et sociaux importants. À chaque modèle sont associées des conditions d’utilisation et des faiblesses qu’il faut connaître. Il est important pour le régulateur de mettre en place une approche équilibrée, avec des personnes ou à défaut des équipes capables de cette double approche.

Les modèles internes ne sont-ils pas devenus trop complexes pour être correctement régulés ?

Sans avoir fait d’études détaillées sur ce point, je pense que la forêt des modèles internes s’est épaissie avec le temps et que les moyens humains dont disposent les régulateurs ne leur permettent pas de les appréhender dans leur intégralité, pour chacune des banques supervisées. Il me semble qu’il faudrait, à un certain moment, limiter ce que j’appelle la « croissance darwinienne » des modèles.

En 2001, vous critiquiez l’utilisation des modèles pour l’évaluation du risque opérationnel. Aujourd’hui, le Comité de Bâle envisage de supprimer l’approche avancée pour le mesurer…

Enfin ! Le risque opérationnel est une classe de risques très différente du risque de marché ou de crédit. Il ne s’échange pas sur les marchés. Les données utilisées pour le mesurer sont difficiles à trouver et complexes à analyser, car il couvre des catégories de risques et d’événements très variées. Ce sont les données les plus difficiles à modéliser que je connaisse et on ne trouvera jamais « le » modèle. On ne peut d’ailleurs pas les » back-tester ».

Faut-il s’en tenir alors à une approche qualitative ?

Non, je pense qu’il faut là encore privilégier la combinaison des deux. La méthode standardisée est elle aussi quantitative : elle prend en compte des indicateurs d’activité. Par exemple, la multiplication d’erreurs juridiques au sein d’une banque est l’indicateur d’un problème sérieux. Ces données doivent être collectées, standardisées et discutées à différents niveaux dans les comités de risques, jusqu’au conseil d’administration. Une analyse qualitative stricte, au sein du pilier 2, doit compléter cette approche quantitative. En revanche, évaluer le risque opérationnel sur la base d’un modèle, avec un haut degré de confiance, et en déduire le niveau de fonds propres nécessaires pour protéger l’établissement pendant des années… J’ai de vrais doutes et je me réjouis que le Comité de Bâle les partage.

Dans la revue fondamentale du trading book, le Comité de Bâle prévoit de remplacer la Value at Risk (VaR) [1] par l’Expected Shortfall [2] pour mesurer le risque en période de tension. Cela va-t-il dans le bon sens, selon vous ?

Tout d’abord, il faut noter qu’aucune mesure, prise isolément, n’est suffisante. Il faut toujours en combiner plusieurs. Ensuite, l’aspect qui me semble fondamental, dans le passage de la VaR à l’Expected Shortfall, est le changement de mode de pensée qu’il traduit. Raisonner en VaR, c’est poser la question « If ? » : on cherche à savoir si un événement est de nature à se produire une fois en mille ans. Avec l’Expected Shortfall, on s’intéresse à la question « What if ? » : sachant qu’un événement se produit une fois tous les mille ans, à quelle perte peut-on s’attendre si cela arrive ? C’est une question très différente. Ce changement de mode de pensée me laisse croire que l’on est sur la bonne voie.

 

Propos recueillis par Séverine Leboucher

[1] Valeur en risque.

[2] Espérance mathématique de perte extrême.

 

Sommaire du dossier

Vers Bâle IV ? Les banques dans l’incertitude