Le Semanario Judicial de la Federación (SJF) a publié deux principes de jurisprudence — appelés tesis dans le système mexicain — portant sur l’usage de l’intelligence artificielle dans la justice. La controverse à l’origine de ces décisions paraît purement technique : dans une affaire de garantie, des exécuteurs testamentaires ont introduit un recours en plainte (recurso de queja) pour contester le montant fixé, en faisant valoir l’absence de paramètres objectifs. Mais la lecture des deux tesis révèle bien plus qu’un calcul : elle révèle comment la rhétorique technoenthousiaste s’incorpore au langage juridique, sans filtres ni définitions.
Voici une analyse critique, principe par principe, argument par argument.
Premier principe : quatre raisons qui répètent le marketing d’OpenAI
Le premier principe de jurisprudence qualifie d’emblée l’IA d’« outil innovant », sans définir ce qu’il entend par « IA ». Et pour cause : l’affaire concerne en réalité ChatGPT et d’autres modèles similaires. Il énonce ensuite quatre raisons qui justifieraient l’usage de « l’IA ». Reprenons-les une à une.
a) « Elle réduit les erreurs humaines dans ces calculs. »
J’attends toujours de voir une erreur qui ne soit pas une erreur « humaine ». Et j’attends également de voir des statistiques sérieuses sur la diminution effective de l’erreur lorsqu’on utilise ChatGPT pour des calculs numériques, plutôt qu’un expert ou un logiciel spécialisé. La prémisse est posée sans le moindre élément empirique.
b) « Elle apporte transparence et traçabilité en exposant pas à pas comment le résultat est obtenu. »
Cela dépend de l’usage. Recourir à un modèle stochastique comportant des milliards de paramètres n’apporte pas, en soi, davantage de transparence ni de traçabilité sur le résultat. Confondre une sortie en langage naturel avec une explication traçable du raisonnement est une erreur technique de fond.
c) « Elle génère cohérence et standardisation dans les précédents et dans la fixation des montants de garantie. »
Ici, l’on confond l’outil et le processus. L’IA ne génère ni cohérence ni standardisation. Ce qui produit ce résultat, c’est uniquement la rigueur avec laquelle les montants de garantie sont fixés. L’IA, en elle-même, est un ensemble d’outils variés. Aucune garantie de cohérence ou de standardisation ne découle du simple fait d’« utiliser de l’IA ».
d) « Elle améliore l’efficacité procédurale, en libérant du temps pour l’analyse substantielle du dossier et en facilitant la motivation des décisions judiciaires. »
Rhétorique technoenthousiaste, affirmée sans autre fondement que la répétition ad nauseam du marketing d’OpenAI.
Deuxième principe : « usage éthique et responsable », des signifiants vides
Le deuxième principe de jurisprudence prétend établir les éléments minimaux à observer pour un usage « éthique et responsable » de l’IA, dans une perspective de droits humains. Mais qu’est-ce qu’un usage éthique et responsable ?
- « Éthique » dépend de la théorie morale adoptée — kantienne, utilitariste, des vertus, etc. — et peut conduire à des conclusions contradictoires.
- « Responsable » ne signifie rien si l’on ne précise ni devant qui ni avec quelles conséquences.
Ce sont des signifiants vides qui contaminent le langage juridique avec une rhétorique corporative et de soft law. Inscrire ces termes dans un principe de jurisprudence isolé, sans définitions techniques claires, revient à importer dans le raisonnement juridictionnel le vocabulaire du marketing technologique.
Le joker rhétorique : proportionnalité et innocuité
Une autre formule de ce deuxième principe mérite que l’on s’y arrête :
« La proportionnalité et l’innocuité exigent que les outils d’IA ne soient utilisés que dans la mesure nécessaire et adéquate pour atteindre une fin légitime, comme par exemple faciliter des raisonnements numériques sans atteindre le raisonnement juridique dans l’interprétation ou l’application des normes. »
Je ne commenterai pas davantage.
La suite
Je publierai prochainement une analyse de la méthode fondée sur ChatGPT effectivement utilisée pour calculer la garantie, avec des conclusions appuyées sur des données — et non sur des intuitions ou du marketing.
Pour les juristes qui souhaitent se former de manière critique à l’usage de ces outils plutôt que les adopter à l’aveugle, je renvoie également à notre analyse sur les guides ChatGPT pour avocats et les risques qu’ils font peser sur l’exercice professionnel. Et si votre cabinet ou votre direction juridique évalue comment intégrer ces outils avec la rigueur méthodologique requise, les six lignes de services de legis.digital sont conçues pour cela : automatisation, formation, gouvernance de l’IA et conseil stratégique avec des KPI mesurables.
Note : Les tesis citées n’émanent pas de la SCJN (cour suprême mexicaine), mais de Tribunaux collégiaux de circuit (TCC), bien qu’elles soient publiées sur le portail du SJF administré par la SCJN.