Il manque un peu les 3/4 de l'histoire à savoir :
- La reconnaissance faciale l'a placée en tant que suspecte potentielle, mais c'est bien une identification "formelle" par la victime suite à la présentation d'un tapissage de photos qui a conduit à son arrestation
- La victime du vol de voiture avait eu une relation sexuelle avec la femme complice du vol de sa voiture, donc la victime avait bien vu son visage
- La photo utilisée par la police avait 8 ans car Porcha Woodruff avait été arrêtée dans le passé donc sa photo se trouvait dans les fichiers de la police. Par contre la police disposait d'une photo plus récente et aurait pu l'utiliser lors de la présentation des photos à la victime, elle ne l'a pas fait.
- La police savait que la personne identifiée n'était pas enceinte et n'en a pas tenu compte.
Quand on lit l'article on se croirait dans Minority Report, à quel moment la reconnaissance faciale trouve une personne "de nul part" ? A quel moment la reconnaissance faciale seule désigne un.e coupable d'un vol avec violence où la victime a pu voir le visage de l'agresseur.euse ?
Maintenant est-ce que les algorithmes sont racistes ? Oui clairement. Mais c'est pas la bonne histoire pour illustrer le problème je pense. C'est surtout une enquête bâclée, à charge, et une victime qui se trompe (ce qui arrive aussi, après avoir subit un vol avec violence on peut avoir une vision altérée des événements. On ne peut pas blâmer la victime ici.)
En France si vous êtes victime d'un vol avec violence, vous allez déposer plainte, on vous présente des photos, vous dites "100% c'est ellui, en plus j'ai eu une relation sexuelle avec peu avant donc je me souviens bien du visage", la personne que vous accusez se retrouvera directement en GàV, c'est normal. Le reste le banc en béton j'en passe, c'est une GàV oui, c'est horrible quand on s'y trouve mais c'est pas un "mauvais traitement" (dans le sens c'est pareil pour tout le monde, même si je trouve toujours ça inhumain).