Alvi Choudhury, un ingénieur logiciel basé à Southampton, a connu une expérience traumatisante. Alors qu'il travaillait chez lui, des agents de police se sont présentés à sa porte. Moins de temps après, il se retrouvait menotté pour un cambriolage de 3 000 livres à Milton Keynes, une ville où il n’a jamais mis les pieds.
Cette arrestation repose sur un système de reconnaissance faciale déployé à travers le pays, qui réalise environ 25 000 recherches mensuelles à partir de 19 millions de photos d'identité judiciaire. Malheureusement, cet algorithme a mal interprété son image par rapport aux vidéosurveillance du lieu du crime, désignant Choudhury comme suspect.
Une ressemblance troublante
En examinant les images de vidéosurveillance, Alvi a remarqué des différences majeures. L'individu suspect semblait plus jeune et avait des caractéristiques physiques distinctes. "Il avait dix ans de moins et des traits différents", raconte-t-il, stupéfait et en colère. "J’étais furieux, car je pensais que l'enquêteur avait juste vu un homme brun et avait présumé que c'était moi."
La police insiste sur le fait que la reconnaissance faciale est uniquement un outil d’orientation et non une preuve définitive de culpabilité. Le Conseil national des chefs de police affirme que toute correspondance devrait être validée par une évaluation humaine. Cependant, dans ce cas, la Thames Valley Police a indiqué que la décision d’arrêter Choudhury reposait également sur l'évaluation visuelle des enquêteurs, et non sur un quelconque profilage racial.
Les biais mis en lumière
Les statistiques présentent un tableau alarmant. Une étude commandée par le ministère de l'Intérieur a révélé des taux de faux positifs beaucoup plus élevés pour les visages noirs (5,5%) et asiatiques (4,0%) comparativement aux visages blancs (0,04%). Les commissaires de police s’inquiètent de ces biais préoccupants, lorsque des arrestations sont effectuées sur la base d'erreurs de ce type.
Depuis décembre, la Thames Valley Police utilise la reconnaissance faciale en temps réel, avec environ 100 000 visages scannés et seulement six arrestations. Bien que cela puisse sembler marginal, pour Alvi Choudhury, cette expérience a des conséquences beaucoup plus profondes. Ses voisins l'ont vu être menotté, et son père, choqué, n'a pas pu travailler le lendemain. Malgré la présentation de preuves de sa présence à Southampton le jour du cambriolage, il a passé près de dix heures en garde à vue, son visage n’ayant pas été considéré comme distinct des images de vidéosurveillance.
Appels à une réforme urgente
Reconnaissant que son arrestation pouvait résulter d'un biais, la Thames Valley Police n’a toutefois pas jugé nécessaire d’intégrer cette problématique dans ses révisions internes. Iain Gould, l'avocat d'Alvi, insiste sur le fait que l'intelligence artificielle ne doit jamais remplacer le discernement humain. Selon lui, un nouveau système national de correspondance faciale est en préparation, mais pour l’instant, Choudhury appelle à une plus grande transparence concernant les arrestations injustes liées à ces technologies.
Cette affaire a mis en lumière les limites et risques associés à la technologie de reconnaissance faciale, notamment en ce qui concerne les droits individuels et l'éthique dans son application. À l'échelle des vies humaines, chaque erreur a des conséquences qui dépassent largement les chiffres.







