La Commission des lois du Sénat a institué une mission d’information relative au déploiement de l’intelligence artificielle générative au sein des professions du droit au mois d’avril 2024. Elle est en passe d’achever ses travaux. La présentation synthétique de notre analyse est l’objet de la présente communication.
L’IA générative, tentative de définition
L’intelligence artificielle générative est une terminologie qui fait rêver. Elle suscite, comme le fait apparaître la vidéo mise en ligne sur le site du Sénat des commentaires enthousiastes de certains professionnels du droit. Son vecteur le plus emblématique est actuellement connu sous le nom de « Chatgpt » qui est un algorithme de communication qui repose sur l’inférence de séquences du langage humain.
Pour le dire simplement un algorithme d’intelligence artificielle générative ne « comprend » absolument rien de ce qu’on lui « dit » même en langage naturel.
Il repère dans les membres de phrases ou des phonèmes des séquences d’informations numériques qu’il compare aux informations qu’il détient dans sa propre base de données internes. Ayant traité cette demande il apporte une réponse construite sur la plus forte probabilité de pertinence statistique.
Autrement dit, il « décode » numériquement une séquence digitale et y « accole » la meilleure réponse possible par rapport à sa propre « éducation » antérieure.
Apparence et réalité
Ce qui séduit tout utilisateur d’un de ces algorithmes c’est le plus souvent la pertinence et la fluidité de la communication.
Nombreux d’entre eux « parlent » à « leur » « IA » et restent convaincus de la fiabilité des résultats qui leur sont apportés. La proximité apparente de l’intelligence artificielle et de son utilisateur est telle que souvent celui-ci renonce à interroger les présupposés idéologiques qui structurent un tel outil.
En effet ce n’est pas parce qu’une analyse résulte d’un calcul que celui qui a posé les termes du calcul ne les a pas envisagés par rapport à sa propre sensibilité. En matière de traitement des mégadonnées ce que l’on entend faire apparaître est indissociable de la construction de l’outil créé pour traiter les données.
« Tous les modèles sont faux mais certains sont utiles » est une logique toujours à l’œuvre pour la structuration des intelligences artificielles, y compris celles de dernière génération à l’heure où nous écrivons.
Cette réalité incontournable permet au demeurant de mieux appréhender l’absence de subjectivité prêtée à un traitement algorithmique des données judiciaires et de relativiser l’existence d’une supériorité dans l’appréciation exempte des biais cognitifs qui altéreraient par essence tout jugement « humain ».
La Silicon Valley et la régulation démocratique
L’histoire des technologies d’intelligence artificielle démontre que leur développement a été indissociable d’une volonté de se soustraire à un contrôle législatif et aussi démocratique dans certains cas.
Comme l’a démontré la sociologue Shoshana Zuboff l’économie de la donnée (qui est à la base du traitement de celle-ci par des algorithmes spécifiques et du développement des intelligences artificielles) s’est largement bâtie sur la volonté de mettre en place des dispositifs qui permettaient de faire échapper la captation de l’information aux dispositions qui garantissent par exemple le respect de la vie privée (cf l’âge du capitalisme de surveillance, ed Zulma).
Du danger qui existe à faire fabriquer des trombones par un ordinateur ultraperformant et ultramotivé
Par ailleurs, sauf si elle est programmée pour en intégrer certaines valeurs spécialement définies pour elle une intelligence artificielle n’a par définition aucune conscience morale.
Les travaux du philosophe suédois Nick Bostrom ont illustré le risque de maximisation des résultats auxquels pourrait conduire une intelligence artificielle uniquement conçue pour produire des trombones et qui n’aurait aucun frein moral.
A son stade ultime elle trouverait logique de convertir les atomes composant les humains en trombones (expérience de pensée dite « paperclip », autrement dit « trombone » en langue anglaise).
La problématique toujours non résolue de « l’alignement ».
De nombreuses expériences font encore aujourd’hui apparaître l’existence de possibilités de contournement des contraintes imposées à des intelligences artificielles pour répondre les exercices qui leur sont proposés.
Enfin les intelligences artificielles même les plus évoluées peuvent apporter des réponses qui diffèrent de la demande qui leur est formulée.
Cette problématique, qu’on appelle le « problème de l’alignement » aurait plusieurs causes et notamment la spécificité de tout langage humain qui repose sur des notions qui n’y sont pas exprimées par ce que certaines d’entre elles sont admises implicitement par un grand nombre de locuteurs.
A l’heure actuelle la problématique de l’alignement ne diminue pas avec l’augmentation des capacités de traitement des intelligences artificielles. Au contraire il apparaît qu’elle a tendance à augmenter à mesure que les capacités de traitement des intelligences artificielles augmentent.
Pour limiter les problématiques de l’alignement et « éduquer » les intelligences artificielles la meilleure réponse semble pour l’instant rester celle de l’intervention de superviseurs humains.
Ce qui renforce la problématique relative à la subjectivité inhérente à la constitution de toute intelligence fut elle « artificielle ».
Du bon usage du radium
Ce n’est pas parce qu’on peut tirer beaucoup de choses des intelligences artificielles que celles-ci ne doivent pas être encadrées dans leur déploiement et leur utilisation. Au début du XX° siècle, peu après sa découverte il y a eu un engouement considérable pour le radium dont les vertus étaient par exemple utilisées dans la production de produits cosmétiques ; de nombreuses entreprises s’étaient alors lancées dans la diffusion de crèmes voire de dentifrices enrichis en substances radioactives. Avant bien entendu de voir cette utilisation finalement prohibée en raison des désastres qu’elle engendrait. Pas plus qu’il y a un siècle, la liberté d’entreprendre ne garantit aujourd’hui celle d’empoisonner des individus au-delà d’un seuil raisonnable.
Intelligences artificielles et professions du droit : deux logiques différentes.
Un échange de la vidéo mise en ligne sur le site du Sénat illustre particulièrement bien les ambiguïtés de la situation actuelle.
Un des intervenants, mathématicien, soutient au cours de son intervention que dès lors que les écrivains ont lu leurs prédécesseurs pour créer leurs oeuvres il n’y aurait aucun problème à mettre à disposition des intelligences artificielles tous les écrits du monde pour leur permettre de se former.
La professeure de droit qui était présente à la table ronde lui a alors répondu que précisément, le droit devait s’appliquer y compris à la formation des intelligences artificielles et que le droit d’auteur était protégé y compris dans un tel contexte. La création intellectuelle n’est donc pas automatiquement soluble dans la nécessité d’éduquer les algorithmes.
Intelligence artificielle et fonction juridictionnelle : la pratique et la théorie
Le déploiement des intelligences artificielles au sein des juridictions est cependant inévitable.
D’une part le recours à cette technologie laisse entrevoir de réels gains d’efficacité.
D’autre part la régulation algorithmique qu’on le veuille ou non est en passe de devenir un élément de la légitimation de la régulation juridictionnelle.
Cette innovation ouvrira-t-elle nécessairement une phase ou de nombreux problèmes se trouveront rapidement résolus du seul fait de leur utilisation ?
Il est possible de l’espérer mais il y a tout lieu d’en douter. Des contraintes pratiques et philosophiques doivent en effet être appréhendées avant d’envisager une telle voie.
De la misère technologique propre au ministère de la justice
Tout d’abord il convient de se souvenir que le déploiement de technologies de l’information au sein du ministère de la justice reste aujourd’hui assez désastreux : de Cassiopée à Portalis en passant par l’usage persistant de « word perfect » les outils technologiques déployés restent inadaptés aux besoins des juridictions…La co-présidente de la mission sénatoriale Mme De la Gontrie le souligne d’ailleurs au cours de la table ronde mise en ligne pour s’inquiéter de la faiblesse des moyens du ministère de la justice en la matière. Passer de « word perfect » à « Chatgpt » en quelques mois voire quelques années est une perspective de développement qui a l’air difficilement soutenable au regard des expériences passées.
De la nécessité d’un « statut de la magistrature » des intelligences artificielles ?
Ensuite surgit la question de l’adaptation de ce type de fonctionnalité à l’exercice de la fonction juridictionnelle.
Au sein des professions du droit en général il convient de distinguer celles d’exercice libéral et notamment les avocats et la magistrature judiciaire.
Les membres des Barreaux sont libres d’organiser leur travail, dans certaines limites bien entendu, mais ce qu’ils proposent aux magistrats se sont au final des argumentations qui ont vocation à emporter la conviction de la juridiction.
S’ils entendent utiliser des outils qui ne présentent aucune certification spéciale pour produire des écritures devant une juridiction cela n’engagera que leur responsabilité professionnelle individuelle, en cas de dysfonctionnement de l’outil en question.
La production des juridictions présente une dimension sociale bien différente car son résultat a pour effet de modifier de manière définitive l’ordre juridique existant. Ce n’est pas seulement une argumentation, mais une argumentation performative. Un jugement produit, par définition de la « vérité judiciaire ».
Jusqu’à quel point cette « vérité judiciaire » peut-elle s’articuler sur le recours à des intelligences artificielles qui ne respecteraient pas un certain nombre de contraintes spécifiques d’ordre éthique pour être élaborées ?
Serait-il dès lors concevable de déployer des systèmes qui n’intégreraient pas des dispositions spéciales sans porter atteinte au droit à un procès équitable des justiciables ?
Ce serait une régression démocratique insupportable ne serait-ce qu’au regard des dispositions de la Convention EDH.
Le recours à des intelligences artificielles juridictionnelles supposera que celles-ci soient placées dans une situation de recherche de l’information et de traitement des données absolument irréprochables, même si leur production est in fine vérifiée par un agent humain.
Les limites d’un impensé radical : la production juridictionnelle est plus importante que la fonction juridictionnelle.
Or en l’espèce s’agissant du ministère de la Justice de tels dispositifs sont impensés et aussi en réalité impensables.
Pourquoi ? Parce que la fonction juridictionnelle est frappée d’une forme d’impensé radical.
Seule existe actuellement dans la production législative et légistique et dans l’action des différentes administrations qui se sont succédées depuis de nombreuses années une pensée de la production juridictionnelle et non de la fonction juridictionnelle.
A preuve : en dépit des réformes récurrentes de la loi organique portant statut de la magistrature (une par législature au minimum depuis au trente vingt ans) la faiblesse des garanties statutaires en matière disciplinaire démontre qu’il n’est pas déterminant pour le législateur organique de protéger l’exercice de la fonction juridictionnelle par l’usage de procédure inadaptées ou détournées de leur objet.
Comment dans ces conditions penser la protection des « juges virtuels » alors même que celle des « juges humains » n’apparaît déjà pas suffisamment garantie ?
Les membres de la mission sénatoriale ont bien raison de s’inquiéter du « décalage » dans l’accès aux intelligences artificielles qui pourrait concerner les magistrats de l’ordre judiciaire en face de certains grands réseaux d’avocats.
Mais ce qu’ils n’ont pour l’instant pas encore perçu (si l’on en croit la vidéo mise en ligne) c’est que cette faiblesse structurelle existe déjà et que l’arrivée sur le marché d’algorithmes nouveaux n’est qu’un révélateur et un amplificateur d’une déshérence conceptuelle déjà existante.
Et ce n’est pas la mise à disposition d’un outil algorithmique qui pourra à lui seul y porter remède.
Qui gardera les gardiens dématérialisés ?
Pour notre organisation la question n’est pas de savoir comment des intelligences artificielles pourraient être déployées mais si les droits des justiciables à un procès équitable devant un tribunal indépendant et impartial seront réellement garanties à l’occasion d’un tel déploiement y compris pour critiquer utilement en droit l’usage de tels outils. Car calculer n’est pas comprendre et préjuger n’est pas juger.
Le mythe d’un « grand juge » numérique apparaît aussi fantasmatique et dangereux pour le fonctionnement démocratique d’une société que celui de « l’homme providentiel » qui aurait par nature réponse à tout. Il relève en réalité d’une pensée transhumaniste bien plus que d’une pensée humaniste.
La puissance d’un outil numérique ne saurait obérer la nécessité d’un débat démocratique sur les conditions de son utilisation. Nous ne pouvons donc que remercier la Commission des lois du Sénat d’avoir contribué à initier une telle réflexion.