ActualitésIA

Reconnaissance faciale défaillante : une femme emprisonnée à tort pendant des mois

Les technologies d’intelligence artificielle sont de plus en plus utilisées dans divers domaines, y compris par les forces de l’ordre. La police utilise des algorithmes pour traiter les rapports, améliorer la communication et identifier les suspects grâce aux systèmes de reconnaissance faciale. Cependant, les erreurs dans ces systèmes peuvent avoir des conséquences graves. Pour une résidente du Tennessee, une erreur d’IA a conduit à plusieurs mois de détention pour un crime commis dans un État où elle n’avait jamais été. Cette information a été publiée par SlashGear.

Arrestation et détention prolongée suite à l’usage de Clearview AI

Angela Lipps a été arrêtée en juillet 2025 sur la base d’un mandat émis par la police de Fargo (Dakota du Nord), à plus de 1600 kilomètres de chez elle. Pour identifier la suspecte dans une affaire de fraude bancaire, les forces de l’ordre ont fait appel au département voisin de West Fargo, qui utilise régulièrement la technologie de reconnaissance faciale de Clearview AI.

La police affirme que, outre les résultats générés par l’IA, des enquêtes supplémentaires ont été menées. Après l’émission du mandat, des marshals américains ont arrêté la femme chez elle. Elle a été placée en détention dans une prison du comté en tant que fugitive et détenue sans possibilité de libération sous caution pendant près de quatre mois.

Preuve d’innocence et conséquences pour les forces de l’ordre

Lipps est restée en prison jusqu’en octobre, après quoi elle a été extradée vers le Dakota du Nord. Finalement, l’avocat de la femme a fourni des relevés bancaires prouvant son alibi, et toutes les charges ont été abandonnées. La direction de la police de Fargo a indiqué que l’affaire ne reposait pas « uniquement » sur les données générées par l’intelligence artificielle. La longue période de détention a été expliquée par le fait que la suspecte contestait l’extradition ou avait des problèmes juridiques dans une autre affaire.

Ce cas souligne les risques liés à l’utilisation incontrôlée de l’intelligence artificielle par les forces de l’ordre. Actuellement, la situation a entraîné plusieurs conséquences :

  • Angela Lipps envisage de déposer une plainte pour arrestation injustifiée.
  • La police de Fargo a cessé d’utiliser les données de reconnaissance faciale du département voisin, déclarant qu’elle ne comprenait pas complètement les algorithmes et le contrôle de ce système.
  • L’incident s’ajoute aux statistiques d’erreurs d’IA, rappelant un cas similaire à Détroit l’année dernière où une autre femme avait été arrêtée à tort pour vol de voiture en raison d’un dysfonctionnement similaire du programme.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *