Le risque de marché se manifeste par la baisse de la valeur du portefeuille bancaire, suite à une évolution défavorable des taux/cours/indices/prix de références. Il est fortement corrélé à la conjoncture économique, élément tout à fait exogène aux banques.
Quatre facteurs majeurs abordés dans le premier chapitre de la thèse expliquent la forte sensibilité des banques contemporaines à ce risque : la « marchéisation » de leurs conditions créditrices et débitrices, la « mobilièrisation » de leur bilan, l’accroissement des engagements sur instruments financiers dans leur hors-bilan, et enfin, la forte volatilité des référentiels sur les marchés organisés et de gré à gré (OTC).
Au regard de la composition de leur bilan, les banques sont particulièrement sensibles aux mouvements adverses de taux d’intérêt, dans la mesure où certaines de leurs positions sont à taux fixe, alors que d’autres sont à taux variables 217 . La fluctuation des cours de change leur pose également un sérieux problème, étant donnés, d’une part, les comptes de correspondance libellés en devise et, d’autre part, l’origine étrangère de plusieurs de leurs actifs et passifs. En outre, l’essor de l’activité d’arbitrage (trading) liée en grande partie aux engagements de hors-bilan, accentue leur vulnérabilité potentielle quant aux retournements des tendances sur les marchés financiers.
Lorsqu’il se manifeste, le risque de marché se traduit par un besoin additionnel en fonds propres. Logiquement, la banque concernée doit adapter le niveau de ces derniers à celui de ses risques ou vice versa. En tout état de cause, les fonds propres doivent permettre d’éponger toute perte éventuelle de portefeuille, sans compromettre l’honorabilité de la banque. Malencontreusement, il en est souvent autrement dans les faits.
La disposition des banques à effectuer de leur propre gré ce genre d’ajustement entre fonds propres et risques est toute relative. En effet, cette pratique crée un coût d’opportunité plus ou moins important étant donnée l’immobilisation d’une partie des fonds propres. Lorsque la concurrence caractérise le marché bancaire, les comportements de free riding l’emportent sur les comportements sains. Certaines banques ayant pris trop de risques peuvent alors devenir insolvables et propager un risque systémique.
La gestion du risque de marché s’appuie largement sur les enseignements de la théorie des choix de portefeuille. Dans ce cadre, les modèles d’optimisation du portefeuille bancaire cherchent à minimiser la volatilité de celui-ci pour un rendement moyen donné ou, toutes choses égales par ailleurs, à maximiser le rendement pour une volatilité donnée.
Les techniques utilisées font appel aux métriques de risque (risk metrics 218 ), fondées sur le calcul puis l’interprétation de plusieurs paramètres : Duration, Convexité, Bêta, Delta, Gamma, Véga, etc. 219 .
Les résultats permettent de déterminer la valeur combinée du portefeuille bancaire, d’évaluer son exposition systématique (par opposition à spécifique qui a trait à un actif ou titre particulier) et de dresser ses scénarios d’évolution probables.
Depuis que la banque américaine JP Morgan a rendu public, en 1994, son propre modèle de contrôle des risques de marché « RiskMetrics », celui-ci a connu une large diffusion au sein de la profession bancaire 220 . Ce modèle qui repose sur la méthode Value-at-Risk 221 (VaR), permet d’estimer, ex ante, la perte potentielle maximale que le portefeuille d’une banque peut subir en cas d’évolution défavorable des marchés. Les estimations sont spécifiées dans une seule monnaie, pour un horizon de temps donné et un niveau de probabilité prédéfini (intervalle de confiance).
Le résultat de la VaR prend la forme d’un chiffre unique. Il renseigne sur le risque global du portefeuille, tout en tenant compte de la diversité des actifs qui le composent. Economiquement parlant, ce résultat correspond à une perte exceptionnelle qui, si elle survient, devra être couverte par les fonds propres.
La multiplication des désastres bancaires liés au risque de marché durant les années quatre-vingt-dix (Barings et Daiwa en 1995), conjuguée à l’absence d’un dispositif standard d’estimation de ce risque, a incité les autorités de réglementation à intervenir. A priori, le modèle VaR permettait une approximation chiffrée du risque global supporté par le portefeuille d’une banque.
Faute de meilleure alternative et malgré les quelques critiques qui ont été formulées à l’encontre de ce modèle iii , les principaux régulateurs ont recommandé son utilisation à la communauté bancaire. Ainsi, dès janvier 1996, le comité de Bâle (regroupant actuellement plus de 100 pays) l’inclut dans l’amendement « risques de marché » aux premiers accords de 1988 sur les fonds propres. Par souci d’efficience, il laisse cependant la possibilité aux banques de développer leur propre modèle interne.
Cela permet en effet des économies en fonds propres puisque les catégories de risques sont corrélées au lieu d’être simplement additionnées comme dans la méthode standardisée. Il faut préciser que le développement d’un modèle interne requiert d’importants coûts et que son approbation est subordonnée au respect de critères qualitatifs stricts. Le dispositif réglementaire qui a banalisé l’utilisation de la VaR a aussi veillé à consolider son assise prudentielle, à travers la définition rigoureuse de plusieurs paramètres :
L’ensemble de ces mesures est aujourd’hui applicable dans plusieurs pays, dont ceux de la Communauté européenne (via les Capital Adequacy Directives).
Il est à signaler que l’efficacité de la VaR en tant qu’outil de gestion du risque de marché, dépend en grande partie de la qualité « réaliste » des hypothèses en relation avec l’état de l’économie et le comportement des marchés. Aussi, la VaR reste sujette à un « risque de modèle » qui explique en partie, la lourdeur des normes réglementaires auxquelles elle est astreinte.
Parallèlement à l’encadrement de la VaR, le réglementeur est aussi intervenu pour limiter l’utilisation abusive, par les banques, des produits dérivés (swaps, options, futures). En effet, comme nous l’avons vu dans le premier chapitre, certains facteurs ont encouragé les banques à faire de ces produits un important pan de leur activité contemporaine. D’une part, ils sont à l’origine de revenus faciles qui semblent pallier la baisse de rentabilité de l’intermédiation traditionnelle. Ils génèrent des commissions sûres lorsqu’ils sont confectionnés et gérés pour le compte de la clientèle et permettent un haut effet de levier lorsqu’ils sont utilisés pour le propre compte de la banque. D’autre part, ils se caractérisent par de faibles coûts de transaction, une grande flexibilité liée à leur caractère contingent et s’ouvrent parfaitement à l’innovation ainsi qu’au « sur mesure de masse ».
Cependant, ces instruments qui devaient au départ servir à réduire le risque de marché via une meilleure répartition, semblent plutôt l’avoir amplifié. Leur utilisation, aussi bien pour des fins de spéculation que de couverture, a d’ailleurs rendu la distinction entre ces deux notions très ténue. Etant donné qu’ils ne se prêtent pas à la mutualisation (au sens de réduction du risque moyen), ils ne font que transférer le risque d’une contrepartie à une autre. En effet, comme le signale Warde (1994, p.20) : « Un principe de base du marché des dérivés est qu’il s’agit d’un jeu à somme nulle : les bénéfices des uns ne peuvent être couverts que par les pertes des autres ».
Or, l’importance des sommes notionnelles sur lesquelles portent ces produits 223 a poussé certains économistes à formellement les identifier comme source potentielle de risque systémique (Leland, 1997, p.05). Aussi, face à l’engouement excessif des banques pour ce genre d’instruments, le Comité de Bâle a décidé en 1996 de les comptabiliser à titre d’équivalents risque-crédit.
Cela a permis de les inclure dans le cadre du ratio Cooke et d’assurer une couverture en fonds propres des risques qu’ils véhiculent. Mais, devant l’inadéquation de plus en plus évidente de ce ratio face à l’évolution effective de l’activité bancaire, le comité de Bâle a décidé de le remplacer par un nouveau dispositif prudentiel dès 2006. C’est ce que nous allons voir dans ce qui suit.
Par exemple, une hausse générale des taux d’intérêt rétrécit la marge d’intermédiation d’une banque si ses actifs à taux variables sont inférieurs à ses passifs à taux variables (impasse –Gap– négative).
Il est important de distinguer les notions fondamentales de mesure et de métrique. Une mesure est l’opération d’assigner un nombre à quelque chose. Une métrique est l’interprétation du nombre assigné.
La Duration d’une obligation correspond à la période à l’issue de laquelle sa rentabilité n’est pas affectée par les variations de taux d’intérêt. La Duration apparaît comme une durée de vie moyenne actualisée de tous les flux financiers futurs (intérêt et capital).
La Convexité d’une obligation mesure la variation relative de la sensibilité de cette obligation à une petite fluctuation des taux d’intérêt. Elle exprime la rapidité de l’appréciation et la lenteur de la dépréciation du cours de l’obligation si les taux baissent ou montent. La convexité prend la forme de la dérivée seconde du cours de l’obligation par rapport au taux d’intérêt.
Le Bêta (coefficient Bêta) mesure la sensibilité d’un titre financier ou d’un portefeuille aux fluctuations de l’ensemble du marché. Il s’obtient en régressant la rentabilité de ce titre sur la rentabilité de l’ensemble du marché.
Le Delta mesure la sensibilité du prix d’une option (la prime) aux fluctuations de la valeur du sous-jacent. C’est la dérivée de la valeur théorique de l’option par rapport au cours du sous-jacent.
Le Gamma représente la sensibilité du delta d’une option aux variations de la valeur du sous-jacent, c’est-à-dire la dérivée du delta par rapport au sous-jacent.
Le Véga mesure l’importance avec laquelle la prime d’une option évolue avec la volatilité de l’indice boursier. C’est la dérivée de la valeur théorique de l’option par rapport à la volatilité explicite.
Pour une présentation détaillée de ces notions, voir http://www.riskglossary.com/ .
Ce modèle est disponible gratuitement sur Internet à l’adresse : http://www.riskmetrics.com/ .
Le terme de Value-at-Risk (valeur de marché sous risque) a été utilisé pour la première fois dans le rapport de 1993 du G-30, organisation fondée en 1978 et regroupant des professionnels, régulateurs et universitaires qui tablent sur les questions économiques et financières internationales. Pour plus de détails sur la VaR, voir http://www.gloriamundi.org/ .
Le stress testing consiste à soumettre la VaR à des chocs de paramètres (Krach boursier, effondrement du taux de change, variation brutale des taux d’intérêt, etc.) afin de voir les répercussions que cela pourrait avoir sur le portefeuille bancaire. Le back testing consiste lui, à confronter la VaR calculée avec les pertes et profits effectivement réalisés. Puisque l’intervalle de confiance retenu est de 99%, les pertes ne devraient logiquement pas être supérieures au 1% restant. Dans le cas contraire, la méthode appliquée à la distribution des pertes et profits est inadaptée au portefeuille considéré. La réglementation a prévu des pénalités sous forme de multiplication du coefficient multiplicateur appliqué aux fonds propres (initialement de 3) en cas d’inadéquation.
Un total de 197 177 milliards de dollars sur les marchés de gré à gré (OTC) à la fin décembre 2003 et un total de 304 000 milliards de dollars sur les marché organisés à la fin juin 2004 (Rapports trimestriels de la BRI, juin et septembre 2004).