Sélectionner une page

Revue Banque

– le 29 août 2022

Grâce à une réglementation de plus en plus favorable, la data science est aujourd’hui un outil fondamental dans le domaine du risque de crédit. Les modèles statistiques deviennent un moyen efficace pour les acteurs bancaires de noter leurs contreparties engagées, voire de concurrencer les agences de notation qui dominaient jusqu’à présent dans cette activité.
Alors que les établissements bancaires sont amenés à revoir leurs modèles de notation interne dans le cadre du programme IRB-REPAIR lancé par l’EBA en 2016, l’apport de la data science dans le domaine des risques financiers est aujourd’hui considérable.
Cette discipline donne aujourd’hui aux banques l’opportunité de développer leurs propres approches de notation en matière de crédit et notamment pour les entreprises à forte capitalisation, activité historiquement dominée par les agences de notation.
Quelle est donc la fiabilité de ces modèles internes IRBA ? Leur précision leur permet-elle de concurrencer les agences de notation? Focus sur ces approches statistiques qui dictent le capital bancaire.

Un contexte réglementaire favorable à l’essor des modèles internes

Depuis la publication des directives de Bâle 2, les banques disposant d’une autorisation de l’ACPR peuvent estimer leurs propres paramètres de risque de crédit, comme la Probabilité de Défaut (PD), ou encore la perte en cas de défaut (Loss-Given Default ou LGD).
Ces paramètres sont calculés au travers de modèles internes qui dégagent une note pour les contreparties engagées auprès de l’établissement.

Elles ont alors le choix entre une approche interne de notation, développée grâce à des modèles statistiques et une approche standard, où les notes sont établies par des acteurs externes.
Si la méthode de notation repose sur une modélisation interne, tous les paramètres estimés (notamment la PD et la LGD) sont utilisés par l’établissement afin de calculer pour chaque contrat un actif pondéré par les risques (Risk Weighted Asset ou RWA) : cette métrique est cruciale puisqu’elle donne, pour chaque actif, le niveau de capital minimum requis en fonction du niveau de risque évalué.

L’approche interne est fondée sur des modèles statistiques développés grâce à une discipline décisive depuis plusieurs années dans un grand nombre de domaines : la Data Science, qui est utilisée à la fois pour extraire des informations pertinentes de bases de données mais également d’en prédire.
Ce champ de compétences a pris une ampleur considérable au sein des départements des risques bancaires, leurs résultats ayant pu prouver la précision et les gains que peuvent représenter les théories statistiques en pratique dans le domaine financier.

Les agences de notation : un pilier parfois contesté des institutions financières

Depuis plusieurs décennies, les agences de notation financières occupent une place centrale dans le monde financier.
Effectivement, leurs analyses tout comme leurs notes ont une forte influence sur le comportement des investisseurs, prouvant la véracité ainsi que la crédibilité des analyses sur les notes qu’elles définissent.
Elles apparaissent donc comme un pilier immuable pour l’investisseur, un garde-fou pouvant potentiellement refléter un niveau de risque que les régulateurs doivent contrôler scrupuleusement, et dont la méthodologie reste différente de celle employée en IRBA.
Cette dernière repose plus sur une analyse purement métier qui peut passer, par exemple, via l’analyse des états financiers de l’entreprise.
Cependant, même si leur influence en matière d’évaluation des risques est parfois immense, notamment pour les plus prestigieuses d’entre elles (le trio de tête Moody’s, Fitch et Standard & Poors), l’histoire a démontré à plusieurs reprises que ces typologies de notations ne sont pas une science exacte. La crise des subprimes en est l’un des exemples phares : la titrisation, procédé qui consiste à transférer à des investisseurs des actifs tels que des créances par exemple, a joué un rôle important dans cette crise.

De nombreux paquets titrisés contenant des créances douteuses ont circulé et ont contribué considérablement à l’effondrement du système financier mondial. Mais si ces produits ont pu tant circuler, c’est avant tout grâce aux notes octroyées par les agences de notations qui ne reflétaient pas du tout le réel niveau de risque, et ont permis plus tard de mettre en évidence plusieurs dysfonctionnements : conflits d’intérêts, modèles de notations parfois erronés, etc.
Cela a dû obliger les régulateurs mondiaux à redoubler d’efforts dans la surveillance de ces agences, dont l’impact sur les marchés comme sur les dettes publiques (elles ont également été montrées du doigt pour avoir été des instigateurs de la crise de la dette publique grecque) s’est révélé colossal.

L’approche IRBA : Une approche ciblée des risques faisant apparaître des disparités au profit des agences

L’apport des statistiques permet aux banques de pouvoir cibler au mieux leur approche crédit, tant dans l’estimation que dans la couverture des risques associés : l’approche notation interne est en effet utile pour appliquer une pondération plus fine en RWA , tandis qu’une pondération forfaitaire et donc potentiellement plus coûteuse en termes d’évaluation des risques est appliquée dans l’approche standard.

Cependant, la mise en place des réformes de la réglementation Bâle III a pu mettre en évidence les limites que cette approche peut avoir, comme le programme réglementaire IRB-REPAIR a pu le faire : définition du défaut non harmonisée entre les acteurs bancaires, disparités importantes des modèles entre établissements…

Les limites des statistiques elles-mêmes peuvent être l’un des défauts supplémentaires de l’approche IRBA : même si la data science apporte des prévisions pertinentes et cohérentes d’un point de vue macro, elle peut dégager des résultats erronés d’un point de vue micro, tout cela au profit des agences de notations externes aux banques.
En effet, le risque de défaut nul n’existe pas, même pour les contreparties les plus exemplaires dans leurs états financiers, et le manque de précision de certains modèles sur ces acteurs, en particulier, peut s’avérer décisif.
Sur ce point, les agences de notation restent un gage de fiabilité étant donnée leur approche basée sur une expérience métier, pouvant également disposer de variables explicatives que ne prennent pas en compte les modèles internes.

On ne peut donc pas définir de véritable vainqueur du match Data Science — Agence de notations.
Alors que les agences ont derrière elles plusieurs décennies d’expérience, l’histoire a démontré qu’elles n’ont pas un point de vue omniscient sur l’évaluation des risques, permettant l’essor progressif des modèles statistiques ayant eux aussi leurs limites.
Les acteurs bancaires se doivent donc de composer minutieusement entre les deux approches de notation, au gré d’une réglementation évoluant constamment.

Par Alexandre Grauzman, Consultant Square Management.

Share This