[Billet d’humeur] Point sur la rentrée juridique par Jonathan Keller : D’un besoin impérieux de concertation sur l’algorithmie

[ Billet d’humeur ]

Chaque mois, nous publierons un billet d’humeur d’un membre de l’association Open Law* – Le droit ouvert. Nous commençons avec un point sur la rentrée juridique par Jonathan Keller. N’hésitez pas à nous envoyer ou à proposer des idées d’articles, vos contributions sont évidement les bienvenues !

« Je ne voudrais pas faire partie d’un club qui m’accepterait comme membre » déclarait Groucho Marx.
D’une certaine manière, je souscris à cette déclaration et ai toujours préféré les relations interpersonnelles plutôt que d’adhérer à une pensée collective ; « le biais du chercheur » – pour ne pas dire l’expression de son ego – excuserons nous. Les (nombreuses) associations auxquelles j’ai adhéré, milité, parfois (maladroitement) dirigé, reflétaient davantage un esprit collectif à travers duquel la pluralité des voix s’exprimait nonobstant sa forme juridique – pyramidale par destination de la loi. Or, force m’est d’avouer qu’Open Law est un collectif dont je suis fier d’être membre.

La rentrée juridique qu’elle soit constitutionnelle, législative ou judiciaire, met en exergue ce besoin d’une structure telle qu’Open Law – composée de sachants (praticiens ou théoriciens) du droit, de l’accès à celui-ci, de l’informatique et de l’administration publique. En effet, sur le prétexte décennal de la crise économique, les besoins de la justice – tristement jamais assez assouvis – se voient être davantage réduits. Cette réduction s’accompagne – bien évidemment – par une informatisation croissante avec l’utilisation des algorithmes– abusive d’après les conseils juridiques .
 
Lors de sa décision n°2018-765 DC du 12 juin dernier, le Conseil Constitutionnel censurait partiellement la transposition du Règlement Général des Données Personnelles (RGDP). Bien qu’acceptant que certaines décisions administratives individuelles puissent être prises sur le fondement d’un algorithme, en sus et place d’un responsable administratif, la juridiction suprême française conditionne cette procédure à trois conditions :

  • L’administré doit avoir accès à l’intégralité de l’algorithme pour en comprendre le fondement ;
  • La décision doit pouvoir faire l’objet de recours par les administrés concernés ;
  • La décision ne peut concerner une donnée personnelle sensible de l’administré.

Cette décision a aussi un impact théorique et indirect sur la branche judiciaire – déjà sujette à sa propre réforme. Celle-ci, avait fait l’objet d’une mobilisation sans précédent, digne d’une flash mob, par les avocats qui reprochaient au gouvernement,de nouveau et à juste titre,de provoquer « l’éloignement programmé du citoyen de son juge et l’aseptisation de l’accès au droit ») [1] par la substitution des juges par – ô surprise – des algorithmes. Evidemment, il est à craindre que le recours à l’algorithmie, à l’instar de la décision du Conseil Constitutionnel, se place comme un véritable premier degré de juridiction, nonobstant le droit à tout justiciable d’exercer son recours devant la Cour d’appel. Le gouvernement ne souhaitant évidemment pas déplacer le problème de l’empilement des dossiers des juges de premières instances à ceux d’appels a rehaussé le seuil de celui-ci. Et pour s’assurer que les affaires en-deçà d’un certain montant n’aille toquer à la Cour de Cassation, créant ainsi un surplus, le gouvernement suggérera à la haute juridiction de droit privé la possibilité de choisir ses dossiers plutôt que d’être saisie. Le juge constitutionnel ne semble pas s’être trop appesanti sur la question de l’adéquation de l’article 10 de la loi informatique (qui prohibe l’utilisation de traitement de données pour l’octroi ou le soustrait de droits) avec la question judiciaire.
                                                
Outre la censure, naturelle et salvatrice à notre sens de l’application des algorithmes à la question pénale, le Conseil Constitutionnel a émis des réserves sur les « algorithmes auto-apprenants » c’est-à-dire les algorithmes « susceptibles de réviser eux-mêmes les règles qu’ils appliquent ». Réserves plutôt salutaires puisqu’en effet, dans son article publié dans The Guardian du 30 août 2018 [2], quasi-immédiatement repris et commenté par l’inépuisable O. ERTZSCHEID [3] et l’alerte H. GUILLAUD [4], Andrew SMITH opère une distinction entre les algorithmes « idiots » et les Franken-algorithmes. Les algorithmes « idiots » peuvent ne pas l’être totalement mais restent quoi qu’il advienne sous le contrôle direct et la supervision d’une personne humaine, là où les seconds – au contraire – s’en affranchissent totalement. Cette libération se fait (je cite O. ERTZSCHEID) par de « nouvelles algorithmiques où l’algorithme ne désigne plus simplement la trivialité d’une série d’instructions logico-mathématiques mais un environnement complexe d’automatismes décisionnels sur la base de gigantesques jeux de données que plus personne n’est en mesure de comprendre d’englober dans leur totalité, à commencer par ceux-là mêmes qui développent lesdits algorithmes et jeux de données ».

En d’autres termes, mêmes les concepteurs de ces Franken-algorithmes ignorent leur évolution et leur processus de décision laissant donc les algorithmes évoluaient indépendamment. En pratique, leurs effets sont malheureusement tragiques comme l’illustre la mort d’Elaine HERZBERG – écrasée par une voiture autonome. Dans ce sens, Ellen ULLMAN, citée par M. SMITH, déclare « when algorithms start to create new algorithms, it gets farther and farther from human agency ». Plus clairement, leur « explicabilité », c’est-à-dire pour reprendre les propos de F. PELLEGRINI [5], « les travaux visant à augmenter la traçabilité de la prise de décisions par les traitements auto-apprenants » sont ardus voire impossibles comme le démontre l’autopsie du code du véhicule – lorsque on peut y avoir accès [6] ayant écrasé Mme HERZBERG.
 
Face à cela, la doctrine juridique s’interroge sur la question de l’imputation de la responsabilité n’arrivant pas à déterminer si la responsabilité doit être imputée sans faute et autonome au développeur [7] ou, pure vision mercantile et contestable, à l’intelligence artificielle stricto sensu [8]. Doit on soumettre les développeurs à un code éthique comme l’invitent les plus grands scientifiques de notre époque entraînant ainsi la judiciarisation d’une morale là où elle ne serait pas invitée ? Par conséquent, devons-nous brider les développements de cette matière et subir un nouveau retard technologique ? ou n’intervenir qu’au seul moment de l’octroi de la protection par la loi comme le suggéraient alors certains auteurs ? [9] ou soumettre l’examen du code à un organisme public comprenant peu ou pas assez d’experts aptes à apprécier la réalisation concrète ? [10]
 
Ces questions propres à l’intelligence artificielle « intelligente » sont d’autant plus inquiétantes lorsqu’elles sont transposées dans le cadre de l’extrême informatisation du monde judiciaire. Nul besoin de citer d’études – même si ces dernières vont toutes dans ce sens – qui souligneraient la réduction d’empathie par l’emploi exagéré de la technologie. Or le besoin de justice n’est-il pas de sortir de sortir du principe rigoureux dura lex sed lex, ce que certes une machine pourrait appliquer, pour une justice « personnalisée ». Ne lit-on pas dans les règles de la profession d’avocats, sous les plumes de S. BORTOLUZZI et al., qu’in fine le rôle de l’avocat (r)est(e) du côté du justiciable, où il « défend au pénal et au civil l’honneur et la liberté des hommes, doivent exister ces multiples enceintes où, par l’élaboration des contrats, par la défense des ‘’petits’’ contre les oppresseurs, des consommateurs contre les multinationales ». [11]
 
Et sans être strictement réservée aux serviteurs du droit, aux éditeurs juridiques, aux professions supports et auxiliaires de ces derniers, l’association Open Law, à travers la création de communs informationnels, à travers le partage de la connaissance et de l’interdisciplinarité, recherchés et mis en avant, répond à la plupart de ces critiques en devenant non pas un interlocuteur unique mais un porte-voix de réflexions plurielles, questionnement indispensable de ces innovations technologiques et de leurs enjeux pour la société.  

Jonathan Keller

[1] P.-A. Laugery, https://www.lejdd.fr/societe/justice/pierre-ann-laugery-batonnier-de-lordre-des-avocats-jai-mal-a-ma-france-3631499

[2] Franken-algorithms the deadly consequences of unpredictable code, disponible sur https://www.theguardian.com/technology/2018/aug/29/coding-algorithms-frankenalgos-program-danger?CMP=Share_iOSApp_Other

[3] http://affordance.typepad.com/mon_weblog/2018/09/algorithmes-frankenstein.html

[4] http://www.internetactu.net/a-lire-ailleurs/de-limbrication-algorithmique/ 

[5] Intelligence artificielle, mégadonnées et gouvernance, RLDI n°144, 01/2018 

[6] voir E. Philippe et J. Keller, Du besoin d’octroyer un statut de lanceur d’alerte à la société civile décompilant illicitement des logiciels, in Renforcer l’efficacité de la protection des lanceurs d’alerte: l’apport du droit comparé et des normes du Conseil de l’Europe, dans Droit et justice -à paraître

[7] M. Monot-Fouletier et M. Clément, Véhicule autonome :  vers une autonomie du régime de responsabilité applicable ? D. 2018, p. 219

[8] A. Bensoussan, La personne Robot, D. 2017 p. 2044

[9] G. Valat, propositions pour un encadrement du régime juridique des logiciels, RLDI 2016, n°123

[10] L. Godefroy, Le code algorithmique au service du droit, D. 2018 p. 734

[11] S. Bortoluzzi, D. Piau, T. Wickers, H.Ader et A. Damien, Règles de la profession d’avocat 2018-2019 p. 60 § 021.53

Retour en haut