Les dispositifs de reconnaissance faciale représentent pour les États l’alléchante promesse d’une surveillance renforcée de l’espace public, au prix d’une dangereuse orwellisation de nos sociétés. Leur utilisation militaire est encore plus vertigineuse. En France, le cadre juridique de la reconnaissance faciale reste trop vague et insuffisant pour garantir la sécurité des données des citoyens et le respect de leur vie privée.

publié le 13/04/2022 Par Camille Musikian
Reconnaissance faciale : un cadre juridique insuffisant face aux dérives

Les technologies de reconnaissance faciale appartiennent au plus large répertoire des dispositifs d’utilisation de données biométriques. Les données extraites d’une image (ou vidéo) d’un visage sont utilisées soit pour authentifier, soit pour identifier un individu. Dans le premier cas, le visage est comparé au modèle du même visage afin de vérifier son identité. Cette technologie permet alors de déverrouiller un smartphone, de franchir les portiques d’un aéroport ou d’accéder à son immeuble. L’identification, quant à elle, consiste à vérifier si le visage présenté correspond à un autre, enregistré préalablement dans une base de données.

Si le mécanisme d’authentification ne semble pas soulever d’enjeux éthiques en tant que tels, les citoyens peuvent montrer des réticences à confier leurs données biométriques à l’organisme de surveillance qui les enregistre pour procéder à l’authentification, car ils manquent souvent de certitudes quant aux utilisations secondaires qui pourraient en résulter ; d’où des problèmes kafkaïens lorsqu’aucune alternative à la reconnaissance faciale n’est offerte, à l’image de ces citoyens chinois qui ne peuvent plus accéder à leur immeuble sans se soumettre à un tel dispositif.

L’identification soulève quant à elle nombre de problèmes. Elle représente d’abord une menace pour le droit à la vie privée, puisqu’elle induit la possibilité d’une surveillance de masse : il suffit d’imaginer que la reconnaissance faciale soit intégrée aux caméras de surveillance qui enregistreraient par exemple le visage des participants à une manifestation afin de les ficher. Son utilisation dans un cadre militaire, en outre, induit des conséquences cauchemardesques : certains se souviendront ici de la vidéo « Slaughterbots » (2017) réalisée par l’association autonomousweapons.org, qui milite contre l’utilisation de l’intelligence artificielle dans l’armement.

Lisez la suite et soutenez un média indépendant sans publicité

S’abonner
Accès illimité au site à partir de 1€
Des analyses graphiques pour prendre du recul sur les grands sujets de l’actualité
Des chroniques et des interviews de personnalités publiques trop peu entendues
Des synthèses d’ouvrages dans notre bibliothèque d’autodéfense intellectuelle
Et bien plus encore....

Déjà abonné ? Connectez-vous