Regtech et legaltech : expert ou outil de performance ?

mercredi 16 octobre 2019

Machine contre machine, L’affaire Dupont de Ligonès doit nous permettre de repenser l’usage l’intelligence artificielle

Chaque jour, l’actualité rend plus exaltant mais aussi plus anxiogène le développement de l’Intelligence Artificielle. Et pourtant quel outil si nous savons nous l’approprier avec discernement.

Cette semaine, un robot a qualifié de coupable une personne pourtant sans lien avec le crime qui lui a été imputé.

A partir de cet élément, on pourrait facilement extrapoler et imaginer que sur les seules informations traitées par le robot, à savoir l’identité digitale du présumé coupable, la justice automatisée aidée de la justice prédictive ne vienne confirmer les résultat d’une instruction déshumanisée.

D’autant plus facilement que l’ensemble des personnes en charge des responsabilités, police, media et vox populi, bien que disposant de toutes les informations propres à l’innocenter, ont aveuglément fait confiance dans la machine alors qu’aucun élément, mais vraiment aucun, ne prédestinait cette personne à de telles accusations : aucun lien de rattachement ni géographique ni familial. aucun lien avec les victimes, aucune ressemblance avec le véritable coupable pourtant identifié et vraisemblablement décédé, Dupont de Ligonès. Un age différent, une vie sans relation...

Mais la machine "expert" l’a désigné !

Bien heureusement, une autre machine, de rang supérieur car elle compare les ADN et pas seulement les empruntes digitales, l’a rapidement innocenté.

Car ce qui a été déterminant pour innocenter cette personne, c’est essentiellement l’analyse ADN, mais ni les témoignages du voisinage ni aucune information du monde réel !

Et comme la machine est seule responsable de son jugement éclairé, cet innocent ne recevra aucune indemnité pour la porte défoncée de sa maison, pour les désordres générés par une perquisition à charge, pour 24 heures de garde à vue et pour une exposition malheureuse dans les média du monde entier.

La morale de cette histoire, c’est que les nouvelles technologies doivent être considérés comme des outils au service de l’analyse par l’humain, tout comme les experts doivent assister le juge pour une prise de décision, mais pas décider à sa place.

C’est une autre facette de la "neutralité technologique" qui doit permettre d’analyser le monde du virtuel avec le regard du réel.