Les algorithmes d’apprentissage appliqués au droit : bonne ou mauvaise idée ?

David Restrepo Amariles, Professeur de Droit - 11 avril 2017
Les algorithmes d’apprentissage appliqués au droit : bonne ou mauvaise idée ? David Restrepo-Amariles ©Fotolia-Zhi Difeng

Les algorithmes d’apprentissage envahissent notre quotidien. Ils transforment même désormais la manière dont les lois et les réglementations sont créées et appliquées dans certains pays, où l’on se base à présent sur l’analyse des données pour les élaborer et automatiser leur mise en œuvre. David Restrepo Amariles a choisi de consacrer sa dernière étude au développement du droit SMART, fondé sur des algorithmes d’apprentissage. Il s’est demandé de quelle manière ceux-ci pouvaient servir le droit et améliorer l’application des réglementations sans porter atteinte à nos libertés fondamentales et à l’État de droit.

David Restrepo-Amariles ©HECParis

David Restrepo Amariles est professeur de fiscalité et droit à HEC Paris depuis 2014 et avocat au barreau colombien. Il est titulaire d’un doctorat en droit de l’Université libre (...)

Voir le CV

Le droit est en pleine mutation. Le concept du droit Scientifique, Mathématique, Algorithmique, et orienté par le Risque et la Technologie (SMART) devient une réalité, porté par les dernières avancées des algorithmes d’apprentissage, capables d’interpréter le Big Data. « Nous assistons actuellement à un changement de paradigme dans le fonctionnement des réglementations et, plus généralement, du droit dans notre société », explique David Restrepo Amariles. « Nous nous éloignons du système démocratique traditionnel, où les lois sont créées et adoptées par un parlement, dont la bonne application est assurée par des organes de justice et les forces de l’ordre et distinguant les règles des faits, pour nous rapprocher d’un droit SMART, où les règles sont directement basées sur des faits et où l’application de la loi est automatisée. »

Quelles applications concrètes pour le droit SMART ?

Le droit SMART s’inscrit notamment dans la logique des villes intelligentes, comme l’explique David Restrepo Amariles, citant l’exemple de Songdo, en Corée du Sud, qui fait figure de précurseur en matière de SMART City. « Dans ces villes, tout est relié à un système central, qui détermine les règles applicables et veille au respect de la réglementation. Ce système peut par exemple vérifier que les habitants ne sortent leur poubelle que le jour de la collecte, ne dépassent pas les limitations de vitesse imposées ou équipent leur véhicule d’un éthylotest anti-démarrage. Cette application automatisée de la loi prévient les infractions. » Et les systèmes SMART, dont les données sont traitées par des algorithmes qui veillent au respect des lois, ne sont pas l’apanage des villes intelligentes. David Restrepo Amariles évoque ainsi le cas du Royaume-Uni : « L’autorité fiscale britannique a développé le logiciel Connect pour optimiser et faciliter l’identification des fraudes fiscales. Le dispositif exploite le Big Data, collectant des données structurées et non structurées, telles que celles issues des réseaux sociaux ou des sites de vente aux enchères, pour vérifier que le mode de vie des individus cadre avec les revenus qu’ils déclarent. Aujourd’hui, près de 90 % des enquêtes fiscales ouvertes au Royaume-Uni font suite à un signalement de ce logiciel. » 

Guillemet

Les praticiens du droit doivent être suffisamment informés sur les nouvelles technologies digitales pour pouvoir appréhender la problématique du droit SMART.

Comment fonctionnent les algorithmes d’apprentissage ?

Certains de ces algorithmes peuvent même apprendre à mesure qu’ils traitent de nouvelles données. « Le logiciel Connect a été programmé pour recueillir et analyser des données afin de vérifier que les lois fiscales du Royaume-Uni sont respectées. S’il s’agissait d’un algorithme d’apprentissage, il pourrait également identifier certains comportements communs aux fraudeurs et intégrer cette nouvelle information dans ses évaluations. Il pourrait par exemple détecter que les personnes qui achètent régulièrement des produits sur tel ou tel site d’enchères sont moins susceptibles de déclarer la TVA et donc les signaler aux enquêteurs », explique-t-il. En d’autres termes, les algorithmes d’apprentissage se « perfectionnent » de manière autonome, sur la base de leurs propres déductions et non uniquement des données qui leur sont fournies. 

Quid de l’État de droit ?

David Restrepo Amariles s’est interrogé sur la manière dont les algorithmes d’apprentissage peuvent améliorer les réglementations, ainsi que leurs impacts potentiels sur nos libertés civiles. Pour trouver des réponses, il a étudié l’utilisation des systèmes SMART dans cinq disciplines du droit : la propriété intellectuelle, le droit fiscal, le droit commercial et financier, la sécurité et le respect du droit, ainsi que la conformité des entreprises, en se concentrant sur les problématiques potentielles de protection des données et de la vie privée, de discrimination et d’application régulière de la loi. Il a ainsi découvert que certains algorithmes, tels que celui d'Uber, pouvaient « apprendre » à discriminer et aller ainsi à l’encontre de l’état de droit. « L’algorithme d’Uber alloue les courses en voiture en fonction de la proximité et de la cote du chauffeur. Mais si un chauffeur d’une certaine origine ethnique est systématiquement mal classé par les utilisateurs, l’algorithme en tiendra compte et exacerbera ainsi la discrimination au lieu de la prévenir. Au final, l’algorithme, censé être neutre, apprend à se comporter de manière discriminatoire. » Un tel algorithme en vient donc à enfreindre les lois anti-discrimination. Se pose alors une question : « peut-on imputer la responsabilité de cette discrimination à un algorithme ? » En pratique, il est difficile de tenir un algorithme apprenant pour responsable, mais aussi d’évaluer si son comportement est véritablement discriminant. Il faut procéder à de l’ingénierie inversée ou faire des tests en « boîte noire » lors desquels on fournit des informations à l’algorithme et on observe ses réactions.

Une certification de la conformité des algorithmes à l’État de droit s’impose

« Nous devons trouver des moyens de nous assurer que les algorithmes sont conformes à l’État de droit et qu’ils contribuent à améliorer la loi », conclut David Restrepo Amariles. La tâche étant ardue, le chercheur suggère l’élaboration d’une norme technique applicable à tous les marchés. Là encore, des algorithmes spécifiques pourraient servir à tester la conformité des algorithmes à l’État de droit. Ceux réussissant le test seraient certifiés conformes. « Interdire l’utilisation des systèmes SMART sous prétexte de protéger les libertés civiles serait hasardeux et ralentirait l’innovation. Il serait préférable de mettre en place un système fiable de certification pour protéger les individus et les entreprises. »


D’après un entretien avec David Restrepo Amariles sur son article « Law’s Learning Algorithm: Making Rules Fitter through Big Data ».

Applications Pratiques
Applications Pratiques

David Restrepo Amariles souligne la nécessité croissante pour les juristes de se former aux technologies d’analyse de données. « Les praticiens du droit doivent être suffisamment informés sur les nouvelles technologies digitales pour pouvoir appréhender la problématique du droit SMART. Il est important qu’ils prennent conscience de la transformation profonde qui s’opère actuellement afin de pouvoir adapter la loi aux progrès de l’informatique », déclare-t-il, avant de préciser : « Il est essentiel que les juristes, du public mais aussi du privé, soient davantage formés au droit SMART. »

Méthodologie
Méthodologie

L’étude de David Restrepo Amariles repose sur une analyse de la documentation existante relative à l’usage des algorithmes en informatique, en économie, en droit et en sociologie. Cinq disciplines du droit y sont abordées : la propriété intellectuelle, le droit fiscal, le droit commercial et financier, la sécurité et le respect du droit, ainsi que la conformité des entreprises. L’auteur s’est intéressé aux impacts potentiels sur l’État de droit des algorithmes qui ont recours à la déduction inverse, à la rétropropagation, à la programmation génétique, à l’inférence statistique ou aux machines à noyau (kernel machines). Son évaluation se fonde sur les principes de protection des données, de confidentialité, de non-discrimination et d’application régulière de la loi, communément admis dans les pays de Common Law et les pays de droit civil, y compris dans l’Union européenne.