La réglementation financière comme un algorithme : comment mesurer la complexité réglementaire

Jean-Edouard Colliard, Professeur de Finance - 19 septembre 2016
 La réglementation financière comme un algorithme : comment mesurer la complexité réglementaire - Jean-Edouard Colliard - ©Fotolia- belkaelf25

Enrichir le cadre réglementaire peut conduire à une complexité qui finit par obscurcir la compréhension de la réglementation. Afin de définir le bon équilibre entre les deux, une équipe de recherche travaille au développement d’une méthode de mesure de cette complexité en s’appuyant sur le vocabulaire et la terminologie utilisés dans les textes réglementaires. 

Jean-Edouard Colliard ©HECParis

Ancien élève de l'école normale supérieure (Ulm), Jean-Edouard Colliard a obtenu son doctorat en économie à l'Ecole d'Economie de Paris en 2012. Ses principaux domaines de (...)

Voir le CV

Enrichir le cadre réglementaire peut conduire à une complexité qui finit par obscurcir la compréhension de la réglementation. Afin de définir le bon équilibre entre les deux, une équipe de recherche travaille au développement d’une méthode de mesure de cette complexité en s’appuyant sur le vocabulaire et la terminologie utilisés dans les textes réglementaires. 

De l’avis général, la complexité réglementaire a fortement augmenté dans les dernières années, pour atteindre des niveaux excessifs. Steven J. Davis, de l’Université de Chicago, compare ainsi les Dix Commandements censés régler l’activité humaine dans l’Ancien Testament aux « environ Un Million de Commandements » du Code des Réglementations fédérales aux Etats-Unis . La complexité des nouvelles réglementations bancaires a récemment fait l’objet d’une attention marquée, Andrew Haldane de la Banque d’Angleterre opposant les 30 pages de Bâle I aux 616 pages de Bâle 3, soit une multiplication par vingt en un quart de siècle. En matière de réglementation, cependant, longueur et complexité ne sont pas synonymes. Par exemple, le logiciel régissant Apollo 11 comportait 145 000 lignes de code, contre 86 millions de lignes pour Mac OS X – ce qui ne signifie nullement que faire fonctionner nos ordinateurs portables soit 600 fois plus complexe qu’envoyer des humains sur la Lune. 

Les déterminants de la complexité

Dans le cadre d’un projet de recherche en cours, Jean-Edouard Colliard, professeur de finance à HEC Paris et Co-Pierre Georg, professeur à l'Université du Cap et Deutsche Bundesbank élaborent de nouvelles méthodes de mesure de la complexité réglementaire inspirées de l’informatique. De fait, la réglementation financière peut être considérée comme un programme informatique : en admettant comme point de départ une institution financière et ses actions, elle procède à une série d’opérations et produit une décision réglementaire, par exemple ne rien faire ou imposer une amende. Les programmeurs utilisent depuis longtemps différentes méthodes de mesure de la complexité d’un programme, comptant non seulement les lignes de code mais également le nombre de variables, les opérateurs logiques et mathématiques utilisés, et prenant en compte la structure logique du programme. 

En appliquant des concepts similaires à l’étude de la réglementation financière, Colliard et Georg proposent des modes de mesure de la complexité réglementaire qui prennent en compte la quantité d’instructions différentes données par le régulateur, le nombre de variables économiques mentionnées par la réglementation (nombre de produits financiers, types d’agents régulés) et le nombre d’utilisations de ces variables et instructions.  

Guillemet

La réglementation financière peut être considérée comme un programme informatique

Ces mesures prennent en particulier en considération la nature répétitive de certaines réglementations. A titre d’exemple, Bâle I se compose principalement d’une liste d’actifs-types auxquels sont assignées différentes pondérations du risque pour calculer les actifs pondérés totaux. Bien que le texte soit long du fait du nombre d’actifs-types énumérés, il répète la même structure logique de nombreuses fois, et est donc moins complexe qu’un texte d’une longueur similaire qui se composerait d’instructions réglementaires totalement différentes. 

Une autre dimension intéressante à cerner est le « niveau » d’une réglementation. Définir de nouveaux concepts comme « pondération du risque » ou « approche standard » et s’y référer permet de raccourcir un texte réglementaire en évitant de réexpliquer le concept chaque fois qu’il est utilisé. Cependant, multiplier le nombre de ces concepts réglementaires crée une terminologie spécialisée entièrement nouvelle, ce qui rend le texte beaucoup plus abscons pour des non-experts. Les termes de cet arbitrage entre concision et transparence peuvent faire l’objet d’une mesure empirique.

Les auteurs utilisent actuellement le Dodd-Frank Act américain et les différents accords de Bâle pour tester leur approche. L’idée est de se fonder sur ces textes importants pour produire une première liste des différents termes utilisés dans les textes réglementaires, classifiés selon leur fonction. Cette liste pourra ensuite être utilisée pour produire différentes mesures de la complexité réglementaire. 

L’objectif final des chercheurs est de développer une plate-forme en ligne sur laquelle les utilisateurs pourraient soumettre de nouveaux textes réglementaires afin d’en mesurer la complexité ainsi que mettre à jour la liste de mots de façon collaborative. Cette plate-forme pourrait ensuite devenir un outil majeur pour tester les propositions de réglementation et identifier les éléments qui pourraient devoir être simplifiés. 

Une autre étape importante pour les auteurs est de procéder au « backtesting » de leurs mesures de la complexité. Idéalement, les mesures fondées sur les textes devraient prédire les coûts effectifs de la complexité réglementaire, tant pour les agents soumis à la régulation que pour les autorités de supervision responsables de leur application. L’équipe de recherche a déjà entamé une collaboration dans ce sens avec l’Autorité des Marchés Financiers (le « gendarme de la Bourse » français) et l’Autorité de Contrôle Prudentiel et de Résolution (superviseur bancaire français). La prochaine étape sera d’échanger avec les acteurs du marché afin d’établir un lien entre leurs coûts de conformité et des éléments spécifiques de la réglementation financière. 

Applications Pratiques
Applications Pratiques

Les mesures de la complexité algorithmique ont servi à rendre la programmation plus efficiente. De même, des mesures de la complexité réglementaire pourraient contribuer à réduire la complexité des textes réglementaires en identifiant les parties paraissant indûment complexes des propositions de réglementation. Les régulateurs doivent gérer un arbitrage entre exhaustivité et complexité. Bien que les économistes sachent généralement mesurer les bienfaits d’un enrichissement du cadre réglementaire, il sera difficile de parvenir à un bon équilibre s’il n’existe pas de mesure pour les coûts liés à la complexité correspondants.

Méthodologie
Méthodologie

Colliard et Georg catégorisent les mots utilisés dans les textes réglementaires à la fois manuellement et en s’appuyant sur des techniques de machine-learning. Un mot donné peut par exemple être un « opérateur réglementaire » (ainsi de « doit » ou « être obligé »), un « opérateur logique » (comme « si » ou « dans le cas où »), un « opérant économique » (« banque », « hedge fund »), etc. Le parallélisme avec la complexité algorithmique suggère différentes mesures fondées sur le nombre de mots de chaque catégories, avec et sans répétition.