La vérité désarmée face à l’oracle muet (par Guillaume Tefengang)
Mes chers lecteurs,
Si la machine est aveugle, c’est qu’elle regarde à travers les lunettes d’un autre. Dans l’arène médiatico-techno-juridique que nous arpentons aujourd’hui avec la même stupéfaction qu’un promeneur dans une serre tropicale découvrant que les plantes l’observent, l’affaire dite New Jersey v. Artefacts, ou devrions-nous dire New Jersey v. la machine qui nous regarde sans nous voir, nous rappelle que nos concepts de preuve, de vérité et de responsabilité chancellent dès que nous demandons à une intelligence artificielle de dire la justice sans en avoir jamais souffert les douleurs ni compris les silences.
I. La justice des statistiques contre la justice des hommes
Ce qui est ici en cause, ce n’est pas seulement l’introduction d’un outil d’aide à la décision judiciaire, les fameux algorithmes d’évaluation du risque de récidive, aujourd’hui travestis en oracles technologiques. Non, ce qui se joue sous nos yeux est d’un ordre autrement plus profond : il s’agit de savoir si la justice peut encore s’exercer au nom de l’homme, ou si, dans son désir d’efficacité et de neutralité, elle consent à devenir l’exécutante d’une statistique qui ne connaît ni la honte, ni la honte d’avoir honte.
Dans cette affaire, un prévenu s’est vu notifier son incarcération préventive sur la base d’un score algorithmique produit par un logiciel opaque, Pretrial Risk Assessment Tool, dont ni les paramètres, ni les sources d’entraînement, ni les biais structurels n’étaient accessibles à la défense. Le juge, ayant reçu ce score, a tranché comme on tranche un fruit mûr : d’un geste sûr, sans poser de question, comme si le jugement avait déjà été rendu ailleurs, dans une autre langue, dans un autre monde.
Or le droit, mes chers lecteurs, n’est pas une science froide ; il est un art difficile, une mise en récit du réel, une tentative désespérée de traduire l’âme humaine en catégories juridiques sans jamais l’y enfermer tout à fait. Que reste-t-il de cette ambition lorsque l’on délègue à une machine le soin d’évaluer la dangerosité d’un être humain sans lui donner la parole, sans même lui accorder le bénéfice du doute ?
Ce que la Cour suprême du New Jersey vient de décider, en autorisant un tel usage sans obligation de transparence sur le fonctionnement de l’algorithme, c’est que la présomption d’innocence peut désormais plier devant la présomption de performance. Mais cette performance n’est qu’un mirage. Elle repose sur des corrélations passées, sur des données biaisées, sur l’histoire d’une justice qui a trop souvent confondu l’ordre avec l’équité. Le passé y est figé comme dans l’ambre, et l’individu y disparaît derrière un profil statistique où l’on ne voit plus que les contours flous d’une probabilité.
L’on nous dira que l’algorithme n’est qu’un outil, qu’il n’a pas de volonté propre, qu’il n’est ni juge ni bourreau. Mais c’est précisément là le danger : sa non-volonté, sa prétention à l’objectivité, fait de lui un instrument irrésistible dans les mains de ceux qui préfèrent l’automatisme à l’effort du discernement. Le juge n’est plus appelé à juger ; il devient spectateur d’une décision qu’il croit objective, parce qu’elle vient d’un ailleurs supposé neutre. Et l’avocat, dans tout cela ? Il plaide contre un fantôme, contre un raisonnement dont il ignore les prémisses, contre une conclusion qu’il ne peut ni discuter, ni démonter, ni même comprendre.
II. Vers une ontologie algorithmique du soupçon
Nous entrons dans un âge étrange, où la vérité n’est plus débattue mais calculée, où la norme n’est plus énoncée mais inférée, où la justice n’est plus rendue mais prédite. L’algorithme devient une prophétie qui s’ignore : il ne dit pas ce qui est, mais ce qui risque d’être. Et sur ce risque, il fait peser une peine. Non pas pour réparer un tort, mais pour prévenir un mal qui n’a pas encore eu lieu. Nous avons glissé de l’imputabilité à la prédictibilité, de la faute à la fréquence.
Il faut ici citer la formule de Kafka, toujours plus prophétique que tous nos stratèges numériques réunis : « Quelqu’un devait avoir calomnié Joseph K., car sans avoir rien fait de mal, il fut arrêté un matin. » Ce matin-là est désormais chaque matin, et la calomnie ne vient plus d’un dénonciateur humain, mais d’un système qui a appris à nous soupçonner sans avoir besoin de nous connaître.
À ceux qui verraient là une exagération, je répondrai ceci : le droit n’est pas un tableau de bord, ni un jeu de données ; c’est une écoute. Tant que cette écoute pourra être remplacée par un calcul, tant que nos systèmes juridiques accepteront d’écarter la contestation humaine au profit de l’assurance algorithmique, nous ne serons plus dans un État de droit, mais dans un état de prédiction.
La justice ne doit pas seulement être juste : elle doit être compréhensible, intelligible, discutable. Elle doit être rendue par des femmes et des hommes capables de douter, de revenir sur leur position, de sentir dans leurs tripes que parfois, la loi elle-même peut se tromper. Aucun algorithme ne connaît cette hésitation-là.
L’histoire jugera ce moment comme elle juge toujours les renoncements silencieux. Elle dira que nous savions, que nous avions été prévenus, que nous avons préféré nous rassurer à bon compte. Et peut-être, peut-être seulement, elle laissera entendre que ce fut là notre plus grande faute.