14/03/2026

Dans la justice haïtienne, l'IA ne créera pas un problème nouveau, elle rendra l'ancien plus difficile à voir

0 words
0 m
boats on the water

Il y a des hommes et des femmes qui attendent leur jugement depuis des années dans les prisons haïtiennes. La détention préventive prolongée est une réalité systémique dans un appareil judiciaire qui manque de juges, de ressources, de dossiers complets, et souvent de volonté institutionnelle pour accélérer les procédures.

C'est dans ce système qu'on s'apprête, tôt ou tard, à introduire des outils d'intelligence artificielle.

Pas par malice. Par pression internationale, par attrait du progrès, par mimétisme envers des réformes menées ailleurs. Les outils arrivent toujours avant les questions.

Je ne suis pas juriste. Je travaille au carrefour de la communication politique, de l'économie, des données et de l'intelligence artificielle. C'est précisément de là que je vois ce que les approches purement juridiques peinent à nommer : un problème de données avant d'être un problème de droit.

Le monde découvre ce qu'Haïti vit déjà

L'UNESCO vient de publier un guide intitulé « AI Essentials for Judges », présenté lors de l'India AI Impact Summit 2026. Le document répond à une réalité documentée : 44 % des professionnels de la magistrature à travers le monde utilisent l'IA dans leur travail quotidien, dans des institutions où 91 % d'entre eux n'ont reçu aucune formation ni directive officielle pour le faire.

Le monde découvre un problème qu'il est en train de créer. Haïti, si elle suit la même trajectoire, n'aura pas l'excuse de ne pas avoir été prévenue.

Mais le vrai sujet n'est pas la formation des juges. C'est plus profond.

Dans des systèmes judiciaires qui fonctionnent, avec une indépendance réelle et un contrôle démocratique effectif, l'IA introduit des risques nouveaux : biais algorithmique, opacité décisionnelle, capture par des acteurs privés sans mandat public. Ce sont des risques sérieux, documentés, que des chercheurs étudient depuis des années.

Dans un système judiciaire comme celui d'Haïti, l'IA n'introduit pas un risque nouveau. Elle accélère un problème ancien en lui donnant l'apparence de l'objectivité.

C'est là que se situe la différence centrale. Et c'est là que le débat doit commencer.

Un outil d'évaluation algorithmique du type de ceux utilisés dans d'autres pays pour estimer le risque de récidive ou prioriser les dossiers produira des résultats à partir de données. Les données disponibles dans le système judiciaire haïtien reflètent des décennies de dysfonctionnement : des arrestations inégales selon les quartiers et les ressources des accusés, des détentions prolongées par défaut, des dossiers incomplets, des décisions influencées par des pressions extérieures.

Un algorithme entraîné sur ces données ne produira pas de la neutralité. Il produira une version numérique, rapide et indiscutable, des mêmes inégalités.

Et c'est là que le danger devient structurel. Un juge dont la décision est contestée peut être interrogé. Une institution peut être mise en cause. Mais un système algorithmique opaque, conçu par une entreprise étrangère et déployé dans le cadre d'une réforme financée par un bailleur international, est autrement plus difficile à contester. Il parle la langue de l'objectivité. Il résiste aux recours.

L'algorithme COMPAS, utilisé aux États-Unis pour évaluer le risque de récidive, en est l'exemple le plus documenté : une analyse approfondie a révélé des écarts raciaux significatifs dans les scores attribués. Des accusés noirs se voyaient attribuer des probabilités de récidive plus élevées que des accusés blancs aux profils comparables. Le système produisait des résultats biaisés avec l'autorité d'un calcul. Dans des pays où les mécanismes de recours sont solides, cela a suscité des débats et des enquêtes. Dans des pays où ces mécanismes sont fragiles, que se passe-t-il quand le biais n'est pas détecté ?

L'histoire peut se répéter

Haïti a une histoire spécifique avec les outils que d'autres ont conçus pour elle. Les réformes institutionnelles financées de l'extérieur ont, dans leur ensemble, reproduit les structures de dépendance qu'elles prétendaient corriger. Les outils arrivent avec des conditionnalités. Les formations sont pensées pour d'autres contextes. Quand les projets se terminent, les institutions restent seules avec des systèmes qu'elles ne maîtrisent pas.

Il n'y a aucune raison de penser que l'IA fera exception à ce schéma, sauf si quelqu'un décide activement d'en faire exception.

La question n'est donc pas de savoir si Haïti devrait adopter l'IA dans son système judiciaire. Elle est de savoir qui, en Haïti, sera en mesure de définir les conditions de cette adoption avant que les outils ne soient déjà là.

Mon humble opinion

L'IA dans la justice est un choix, pas une révolution à ne pas manquer. Haïti a les moyens de le faire délibérément ou de le subir par défaut.

Faire ce choix délibérément commence par un inventaire honnête. Quels dispositifs numériques sont déjà utilisés dans les institutions judiciaires ? Conçus par qui ? Sur quelle base décisionnelle ? Sous quelle supervision ? Audités par qui ? Cette question n'a probablement pas de réponse claire aujourd'hui, et c'est précisément là que se situe le premier problème.

Il faudrait ensuite exiger la traçabilité. Toute décision judiciaire assistée par un système algorithmique devrait l'indiquer explicitement, avec une voie de contestation réelle sur le mécanisme qui l'a produite. Il s'agit d'une exigence élémentaire du droit à un procès équitable.

Et surtout, poser la souveraineté avant l'efficacité. Un outil qu'une institution judiciaire haïtienne ne peut pas examiner, modifier ou rejeter n'est pas un outil d'aide à la décision. C'est une contrainte imposée de l'extérieur.

Il y a enfin une tâche que ni l'UNESCO ni les bailleurs ne feront à la place d'Haïti : désigner des acteurs haïtiens mandatés pour définir ce que l'IA peut et ne peut pas faire dans les tribunaux du pays. Avant que les décisions soient prises par ceux qui vendront les systèmes.

La décision qu'il faudra prendre

L'UNESCO a raison de s'inquiéter du déficit de formation des juges à l'échelle mondiale. Mais son guide ne change pas la question centrale pour des contextes comme Haïti.

Former des juges à utiliser l'IA, c'est répondre à une mauvaise question. La vraie question est de décider si et comment l'IA entre dans la justice haïtienne, avec quelles garanties, sous quel contrôle, au service de qui.

Cette décision n'appartient ni à l'UNESCO, ni aux bailleurs, ni aux entreprises qui produiront les outils. Elle appartient aux Haïtiens.

Pour le moment, personne ne la prend.

Sources : AI Essentials for Judges, UNESCO 2026 | India AI Impact Summit 2026, UNESCO | UNESCO — IA & État de droit, Afrique