Les dispositifs de reconnaissance faciale représentent pour les États l’alléchante promesse d’une surveillance renforcée de l’espace public, au prix d’une dangereuse orwellisation de nos sociétés. Leur utilisation militaire est encore plus vertigineuse. En France, le cadre juridique de la reconnaissance faciale reste trop vague et insuffisant pour garantir la sécurité des données des citoyens et le respect de leur vie privée.
Les technologies de reconnaissance faciale appartiennent au plus large répertoire des dispositifs d’utilisation de données biométriques. Les données extraites d’une image (ou vidéo) d’un visage sont utilisées soit pour authentifier, soit pour identifier un individu. Dans le premier cas, le visage est comparé au modèle du même visage afin de vérifier son identité. Cette technologie permet alors de déverrouiller un smartphone, de franchir les portiques d’un aéroport ou d’accéder à son immeuble. L’identification, quant à elle, consiste à vérifier si le visage présenté correspond à un autre, enregistré préalablement dans une base de données.
Si le mécanisme d’authentification ne semble pas soulever d’enjeux éthiques en tant que tels, les citoyens peuvent montrer des réticences à confier leurs données biométriques à l’organisme de surveillance qui les enregistre pour procéder à l’authentification, car ils manquent souvent de certitudes quant aux utilisations secondaires qui pourraient en résulter ; d’où des problèmes kafkaïens lorsqu’aucune alternative à la reconnaissance faciale n’est offerte, à l’image de ces citoyens chinois qui ne peuvent plus accéder à leur immeuble sans se soumettre à un tel dispositif.
L’identification soulève quant à elle nombre de problèmes. Elle représente d’abord une menace pour le droit à la vie privée, puisqu’elle induit la possibilité d’une surveillance de masse : il suffit d’imaginer que la reconnaissance faciale soit intégrée aux caméras de surveillance qui enregistreraient par exemple le visage des participants à une manifestation afin de les ficher. Son utilisation dans un cadre militaire, en outre, induit des conséquences cauchemardesques : certains se souviendront ici de la vidéo « Slaughterbots » (2017) réalisée par l’association autonomousweapons.org, qui milite contre l’utilisation de l’intelligence artificielle dans l’armement.
Lisez la suite et soutenez un média indépendant sans publicité
S’abonnerAccès illimité au site à partir de 1€
Déjà abonné ? Connectez-vous
0 commentaire
Devenez abonné !
Vous souhaitez pouvoir commenter nos articles et échanger avec notre communauté de lecteurs ? Abonnez-vous pour accéder à cette fonctionnalité.
S'abonner