La Commission des lois du Sénat a présenté mercredi une proposition d’expérimentation sur 3 ans de la reconnaissance faciale. Discrimination, société de surveillance… La technologie suscite encore des inquiétudes.
Un projet d’expérimentation sur 3 ans
« Pas de surveillance tout le temps et largement », a conclu Marc-Philippe Daubresse au sujet du projet d’expérimentation en 3 ans d’une technologie de reconnaissance faciale. Le représentant LR a exposé ce mercredi 11 mai, aux côtés de Jérôme Durain (PS) et Arnaud de Belenet (Union centriste), le rapport d’un groupe de travail de la Commission des lois du Sénat à ce sujet. S’agissant d’un projet d’expérimentation, les trois rapporteurs ont assuré qu’il s’agirait d’occurrences « restreint[e]s, contrôlé[e]s et encadré[e]s ». L’objectif étant de ne pas tomber dans « une société de surveillance ». Le recours à la reconnaissance faciale ne devrait donc s’appliquer qu’à des cas très particuliers. Le groupe a évoqué une « menace imminente » mais aussi les « grands événements ».
De fait, si le gouvernement n’exclut pas une expérimentation aux Jeux Olympiques 2024, la mairie de Nice avait déjà réalisé des tests à plus petite échelle lors du carnaval de 2019. Un échantillon de 5000 personnes qui avaient préalablement donné leur consentement avait donc été évalué. À l’issue de l’expérimentation, la mairie de Nice avait conclu que la reconnaissance faciale était un « outil fiable et pertinent ». Ce qui n’était pas l’avis de la CNIL (Commission nationale de l’informatique et des libertés). Selon elle, le rapport fourni en fin d’opération ne permettait pas « une vision objective (…) et un avis sur son efficacité ». La Commission avait également rapporté avoir demandé des précisions à la mairie de la commune, sans succès. Il existe donc des imprécisions quant à l’utilisation de cette technologie. Imprécisions admises par Marc-Philippe Daubresse comme des « zones de flou ».
Des failles techniques et éthiques
Entre autres précisions demandées par la CNIL, se trouvait la question de la discrimination. L’exactitude de la reconnaissance faciale n’a pas encore été démontrée de façon concrète, au contraire. Une étude menée par Joy Buolamwini, chercheuse au MIT (Massachusetts Institute of Technology) a soulevé un problème de biais racial et genré. Après analyse d’un échantillon de 1270 personnes, elle avait dégagé des performances décevantes de l’outil pour les femmes noires en particulier. Si performance de la reconnaissance faciale montrait une chance de succès de 99% pour homme blanc, ce chiffre tombait à 65% pour une femme à la peau foncée. Cette différence pourrait causer des erreurs d’identification, particulièrement dans le cadre d’enquêtes judiciaires.
Reste également à déterminer l’enjeu du stockage des données. Dans le cadre d’une expérimentation qui a pris place en 2021, le Groupe des Aéroports de Paris (ADP) avait mis en place un système d’authentification biométrique. Le rapport du gouvernement sur cette opération, les données des voyageurs contrôlées étaient parfaitement protégées. Il évoque notamment la question de « la durée de conservation des données », point également soulevé par le groupe de travail ce mercredi. Ils ont en effet mentionné que les données inutilisées seraient « auto-détruites immédiatement ». Or, la technologie de reconnaissance faciale permet entre autre un traitement des données a posteriori. Selon les trois rapporteurs, il s’agirait de mobiliser cette fonctionnalité pour « la recherche d’auteur ou de vic•time des infractions les plus graves ». Une éventualité qui remet en question cette destruction de données sur la population.
Quelles limites à cette technologie ?
Au-delà de ces points de controverse, la réglementation de la reconnaissance faciale n’est pas encore clairement définie. L’Union européenne et plus particulièrement la France assurent la soumettre à « un cadre juridique strict ». Mais ce n’est pas le cas partout. La commercialisation de cette technologie par des entreprises privées comme Clearview AI suscite des protestations notamment au Canada et aux États-Unis. De fait, son caractère non-discriminant pourrait mener à scanner des inconnus dans une zone donnée délivrant leur identité, jusqu’à leur adresse.