Culture numérique
Votre visage, future clé de votre vie privée ?
Dans un monde qui carbure à la sécurité, l’urgence de recourir à des moyens efficaces et inviolables pour authentifier les personnes prend l’allure d’une véritable quête. Des nouvelles technologies de reconnaissance des visages sont présentées par leurs promotrices et promoteurs comme des solutions séduisantes, mais elles génèrent aussi des inquiétudes légitimes.
Il y a deux types d’utilisation de la reconnaissance faciale : l’identification et l’authentification. L’identification sert à déterminer l’identité d’une personne inconnue à partir d’une image de son visage. Elle permet par exemple de trouver une personne dans une foule. L’authentification sert à confirmer l’identité d’une personne en vérifiant que son visage correspond bien à celui d’une image connue du visage. Elle sert déjà à déverrouiller certains téléphones intelligents.
Prises isolément, certaines applications de la reconnaissance faciale avérées ou éventuelles peuvent sembler constituer des développements intéressants. C’est le cas de l’identification des patient·e·s dans les hôpitaux pour un accès plus rapide aux dossiers médicaux, de la recherche de personnes disparues et de la sécurisation des données sur nos téléphones cellulaires. C’est aussi le cas de la facilitation du rituel sécuritaire dans les aéroports de même que de l’utilisation des visages comme clé d’accès supplémentaire aux guichets bancaires, par exemple.
Toutefois, l’idée d’un déploiement de telles techniques dans toutes les sphères de la société est beaucoup plus inquiétante. En effet, la capacité d’identification combinée à l’omniprésence des caméras de surveillance nous rapproche d’un contrôle total et permanent de l’ensemble de la société. La mise en place d’une telle société ne relève plus de la science-fiction. La Chine, par exemple, veut créer une base de données permettant d’identifier par son visage n’importe lequel de ses 1,3 milliard de citoyens et citoyennes avec un taux de succès visé de 90%. L’Inde a un projet similaire. La Chine vise aussi la mise en place d’un système de crédit social, une sorte d’hybride entre une cote de crédit et un programme de fidélité qui tiendrait compte des comportements sociaux des personnes tels qu’observés par les caméras de surveillance et leur comportement sur Internet. Les personnes ayant une cote de crédit social trop basse se verraient privées d’accès au transport aérien ou ferroviaire, à certains restaurants, à certaines écoles. À l’inverse, une bonne cote permettrait d’avoir accès au crédit bancaire, à certaines destinations de voyage, etc.
La reconnaissance faciale n’a pas que des applications de surveillance pour l’État. Au Québec, plusieurs centres d’achat filment déjà les consommateurs à leur insu afin de créer des profils pour étudier leurs comportements [1]. De plus en plus d’écoles, d’universités, d’immeubles à logements, etc., utilisent la reconnaissance faciale pour décider qui peut avoir accès aux locaux. Facebook, Google et d’autres utilisent la reconnaissance faciale pour identifier des personnes sur les photos. À l’aide de caméras dans des classes, on a même étudié les expressions faciales des étudiant·e·s afin de surveiller leur niveau d’attention.
Surveillance et dérives
Que doit-on craindre de la mise en place de l’identification par reconnaissance faciale ? Avant tout, la mise en place graduelle d’une culture de la surveillance. Se sachant surveillé·e en tout temps, le comportement de chacun·e se modifie pour correspondre à ce qui est attendu, particulièrement si on distribue punitions et récompenses à partir des comportements observés.
Cela renverse la présomption d’innocence et contourne les garde-fous juridiques qui encadrent les enquêtes policières actuellement. En déclenchant de simples alarmes pour des actions qui ne correspondent pas nécessairement à des actions illégales, on élargit l’étendue des actions que le public surveillé tentera d’éviter. Cela revient à modifier indirectement la loi, possiblement en ne consultant que les fabricants des logiciels de surveillance.
Les problèmes ne sont pas nécessairement dus à l’utilisation initialement annoncée, mais les possibles dérives de la combinaison entre la reconnaissance faciale et les immenses bases de données que l’État ou des intérêts privés ont déjà amassées. On peut ainsi suivre des personnes ou croiser des informations de manière inattendue.
En France par exemple, un récent rapport du ministre de l’Intérieur fait un lien inquiétant entre un nouveau système d’authentification utilisant la reconnaissance faciale pour les services gouvernementaux et l’anonymat servant à la propagation de propos haineux, ce qui revient implicitement à proposer d’utiliser un outil d’authentification gouvernemental comme moyen d’identification sur les réseaux sociaux.
Une compagnie russe a proposé un logiciel permettant de retracer des personnes sur des réseaux sociaux à partir d’une simple photo. Le scénario typique est de pouvoir entrer en contact avec une personne inconnue qui nous a plu. Un jeune programmeur allemand a récemment annoncé la création d’un logiciel permettant de retracer la vraie identité d’actrices pornos à l’aide des images trouvées sur les réseaux sociaux. On imagine comment de tels outils peuvent devenir de puissants outils de harcèlement.
Technologie imparfaite
Ces systèmes, malgré de récentes améliorations, n’ont pas encore démontré leur efficacité pour la surveillance à grande échelle. Dans différents tests effectués, le nombre de faux positifs – c’est-à-dire d’identifications erronées – peut être assez élevé. Ces erreurs peuvent mener à des interpellations fréquentes des mauvaises personnes. Si on utilise la reconnaissance faciale à des fins d’identification de personnes suspectes, la multiplication des interpellations erronées contribue à renforcer le sentiment de surveillance totale. Ironiquement, le plus important pour faire baisser le taux de criminalité dans les zones surveillées n’est pas tant l’efficacité des systèmes déployés que le fait que toutes et tous se sentent surveillé·e·s.
Les systèmes de reconnaissance faciale ont un autre problème. Ils sont parfois racistes et sexistes ! Souvent conçus par des personnes blanches, les systèmes sont sujets à des biais lorsqu’il s’agit d’identifier correctement les personnes non blanches, particulièrement les femmes. Une dérive assez terrible est d’utiliser de tels biais pour cibler certains groupes minoritaires, comme on a commencé à le faire en Chine pour repérer les personnes issues de la minorité musulmane ouïghoure.
Or, malgré ces lacunes, plusieurs compagnies cherchent actuellement à vendre leurs produits de reconnaissance faciale, en particulier au niveau municipal. Si l’intérêt des Amazon, Google, Microsoft, Cisco et cie est évidemment pécuniaire (on prédit que ce marché aura une croissance importante dans les prochaines années), celui des administrations publiques qui veulent adopter de tels systèmes est autre. Bien qu’elles soient possiblement séduites par des promesses d’amélioration de la sécurité, la possibilité de réduire les coûts des services policiers ou de sécurité doit certainement aussi peser dans la balance d’un esprit néolibéral.
Trous noirs juridiques
Si certaines utilisations de la reconnaissance faciale sont triviales et ne posent pas de problème, il n’y a pas de limites minimales universellement acceptées guidant leur utilisation. Certains groupes de défense des libertés fondamentales demandent un encadrement légal plus clair, et même Microsoft, pourtant productrice importante de cette technologie, demande des limites légales claires pour les compagnies privées et pour l’État afin de protéger les droits et libertés des personnes et éviter tout scénario orwellien. Plusieurs groupes de défense des droits préconisent plutôt l’interdiction totale de l’usage de la reconnaissance faciale. Ainsi, la ville de San Francisco a récemment choisi d’interdire à ses services municipaux (dont la police et l’agence de transport public) d’utiliser des technologies de reconnaissance faciale afin de protéger la vie privée de ses citoyen·ne·s.
La reconnaissance faciale est une nouvelle clé permettant d’accéder à des données sur tout individu présent dans une immense base de données. À la différence de vos empreintes digitales ou de votre ADN, toute personne munie d’une caméra peut facilement obtenir cette clé et l’utiliser pour accéder à toute l’information publique vous concernant ou enrichir cette banque d’information. La protection de la vie privée ou de l’anonymat doit rapidement être repensée avant que l’utilisation de cette nouvelle technologie soit tellement répandue qu’il soit presque impossible de revenir en arrière. Cette réflexion doit être collective et ne pas être limitée aux actrices et acteurs gouvernementaux ou de l’industrie logicielle et tenir compte de l’existence déjà problématique de toute l’information personnelle à disposition des États et des compagnies privés.
[1] Voir Fabien Deglise, « Un centre commercial de Sainte-Foy lance un projet-pilote de profilage des clients », Le Devoir, 25 janvier 2019.