Une IA peut clarifier des empreintes digitales
Une IA capable de corrigé des images floues ou déformées d’empreintes digitales, relevées sur des scènes de crime pourrait faciliter l’identification des personnes, mais il n’est pas certain qu’une telle preuve tienne la route devant un tribunal.
Une intelligence artificielle
Amol Joshi, de l’université de Virginie-Occidentale, et ses collègues ont entraîné une IA à corriger les distorsions des empreintes digitales causées par une mauvaise mise au point de l’appareil photo et d’autres erreurs.
L’équipe a pris un ensemble de données de 15 860 images d’empreintes digitales de 250 sujets et en a créé des versions floues de manière synthétique à différents niveaux de distorsion. Près de 14 000 de ces paires d’images ont été utilisées pour entraîner l’IA et les autres ont servi à tester ses performances.
Les chercheurs ont créé un réseau adversatif génératif où un réseau neuronal est opposé à un autre. L’un d’entre eux tente de générer des empreintes digitales floues réalistes tandis que l’autre les évalue sur le plan du réalisme, et les résultats sont renvoyés à chaque algorithme pour lui permettre de s’améliorer.
Les crêtes et les vallées des empreintes digitales étant essentielles à l’identification, l’équipe a utilisé un algorithme distinct pour mettre en évidence ces caractéristiques pendant la formation et vérifier que l’algorithme de clarification ne détruisait pas ces données ou ne les ajoutait pas de manière erronée.
Une précision allant de 96 % à 86 %
L’équipe a constaté que son modèle pouvait atteindre une précision de 96 % dans la partie inférieure de sa gamme d’intensité de flou et de 86 % dans la partie supérieure. Intuitivement, l’algorithme réussit d’autant mieux à extraire une image propre que l’image d’entrée est moins floue.
Mais David Goodwin, de la société britannique Forensic Equity, affirme que les images floues dues à une erreur humaine ne devraient pas se produire avec une formation appropriée. Les images floues dues à une erreur humaine devraient pouvoir être prévenues avec une formation appropriée. Il prévient également que la nature boîte noire des réseaux neuronaux poserait un problème au tribunal, où toute manipulation des images d’empreintes digitales ferait l’objet d’un examen minutieux.
Les réseaux neuronaux peuvent être formés pour effectuer un large éventail de tâches, mais ils ne sont pas contrôlables comme un code généré par l’homme. Souvent, le fonctionnement interne des modèles qui en résultent est un mystère pour leurs créateurs.
Selon M. Goodwin, il est peu probable que les tribunaux britanniques acceptent des preuves manipulées par une IA qui ne peut fournir une piste d’identification ou une explication du traitement effectué.
Les tribunaux n’accepteraient pas ces preuves
« Dans ce pays, cela n’atteindrait même pas les seuils minimaux, on en aurait tout simplement ri », dit-il. Pour prendre des images d’empreintes digitales, on utilise des caméras spéciales qui permettent une certaine manipulation de la lumière qui favorise la visibilité, mais qui conservent également un journal de données détaillé de toutes les opérations afin que les tribunaux puissent l’évaluer.
Cette recherche a été pré-publiée dans arXiv.
Source : New Scientist
Crédit photo : Pixabay