Identifiée à tort par un logiciel de reconnaissance faciale, une Américaine de 50 ans a passé près de six mois en prison pour une fraude qu’elle n’a pas commise. Libérée sans ressources, elle affirme avoir tout perdu.
Identifiée à tort par un logiciel de reconnaissance faciale, une Américaine de 50 ans a passé près de six mois en prison pour une fraude qu’elle n’a pas commise. Libérée sans ressources, elle affirme avoir tout perdu.
Amazon veut utiliser son immense réseau de caméras Ring pour scanner les quartiers à la recherche d'animaux égarés. Une prouesse technologique bienveillante en apparence, mais qui réveille de lourdes inquiétudes sur la surveillance de masse.
Amazon veut utiliser son immense réseau de caméras Ring pour scanner les quartiers à la recherche d'animaux égarés. Une prouesse technologique bienveillante en apparence, mais qui réveille de lourdes inquiétudes sur la surveillance de masse.
De la reconnaissance faciale partout dans l'espace public ? Si l'opinion publique y est hostile aujourd'hui, le ministre de la Justice Gérald Darmanin estime que le pays y viendra dans quelques années -- notamment dans le cadre de la lutte contre le trafic de drogue, qui prend de plus en plus d'ampleur dans le pays.
De la reconnaissance faciale partout dans l'espace public ? Si l'opinion publique y est hostile aujourd'hui, le ministre de la Justice Gérald Darmanin estime que le pays y viendra dans quelques années -- notamment dans le cadre de la lutte contre le trafic de drogue, qui prend de plus en plus d'ampleur dans le pays.
L'empoisonnement de l'intelligence artificielle fait partie des menaces à prendre en compte pour l'année 2025. Cette technique devrait renforcer la nécessité d'une prudence accrue vis-à-vis des résultats fournis par l'IA.
L'empoisonnement de l'intelligence artificielle fait partie des menaces à prendre en compte pour l'année 2025. Cette technique devrait renforcer la nécessité d'une prudence accrue vis-à-vis des résultats fournis par l'IA.
L’expérimentation des caméras de surveillance augmentées d’IA lors des Jeux olympiques et paralympiques s’est avérée positive. Le gouvernement réfléchit donc à l’installer durablement sur l’ensemble du territoire français, soulevant des inquiétudes pour les libertés individuelles bien que la reconnaissance faciale en soit exclue.
La loi du 19 mai 2023 relative aux Jeux olympiques et paralympiques de 2024 a été promulguée suite aux incidents survenus au Stade de France lors de la finale de la lig
L’expérimentation des caméras de surveillance augmentées d’IA lors des Jeux olympiques et paralympiques s’est avérée positive. Le gouvernement réfléchit donc à l’installer durablement sur l’ensemble du territoire français, soulevant des inquiétudes pour les libertés individuelles bien que la reconnaissance faciale en soit exclue.
La loi du 19 mai 2023 relative aux Jeux olympiques et paralympiques de 2024 a été promulguée suite aux incidents survenus au Stade de France lors de la finale de la ligue des champions en mai 2022. Elle autorise l’expérimentation de la vidéosurveillance intelligente afin de renforcer la sécurité lors d’événements sportifs, récréatifs ou culturels exposés à des risques. Toutefois, s’il est possible d’utiliser les caméras augmentées par l’IA pour détecter en temps réel les mouvements de foule, les sacs abandonnés ou les comportements suspects, la reconnaissance faciale et l’identification biométrique sont, quant à elles, exclues.
Le texte de la loi prévoit une prolongation possible de l’expérimentation jusqu’au 31 mars 2025, celle-ci pourrait bien perdurer. En effet lors de son discours de politique générale à l’Assemblée le 1er octobre dernier, le Premier ministre, Michel Barnier, a déclaré être en faveur d’une “généralisation de la méthode expérimentée pendant les Jeux olympiques”.
La ville de Cannes avait fait figure de précurseur en mai dernier en expérimentant les caméras intelligentes lors de son Festival International du Film, mais le dispositif a également été utilisé avant les JO pour plusieurs événements comme les concerts de Taylor Swift ou le tournoi Roland-Garros.
Durant les JO, 185 caméras fixes ont été installées aux abords des sites olympiques de la région parisienne et, selon Laurent Nunez, préfet de police de Paris, le bilan de l’expérimentation est globalement positif. Il se prononce donc lui aussi en faveur de la généralisation de ce dispositif, toutefois aucune décision ne sera prise avant que le comité d’évaluation de l’expérimentation prévu par la loi n’ait rendu son rapport, ce qu’il devrait faire avant la fin de l’année.
Un risque accentué de surveillance généralisée
La CNIL souligne depuis longtemps le risque de surveillance généralisée due à la multiplication des systèmes vidéo, pour elle, les caméras dotées d’IA augmentent ce risque :
“De tels dispositifs ne sont en aucun cas un simple “prolongement” technique des caméras existantes. Ils modifient leur nature même par leur capacité de détection et d’analyse automatisée et posent, par conséquent, des questions éthiques et juridiques nouvelles” .
Pour elle, tout comme pour les associations de défense des droits et libertés, leur déploiement dans des espaces publics va à l’encontre des libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte…).
Comme il est généralement impossible pour les personnes d’exercer les droits qui leur sont reconnus par le RGPD, notamment le droit d’opposition à être analysé par une caméra, ces usages selon la CNIL “ne seront licites que lorsqu’ils auront été autorisés par les pouvoirs publics, qui doivent prendre un texte (réglementaire ou législatif) pour écarter le droit d’opposition”.
Le gouvernement réfléchit d’ailleurs actuellement à une nouvelle loi qui maintiendra l’exclusion de la reconnaissance faciale.
IA et sûreté : vers une généralisation des caméras de vidéosurveillance intelligentes en France
Des étudiants de Harvard ont relié un programme d'intelligence artificielle à leurs lunettes Ray-Ban de Meta pour identifier les individus qu'ils croisent dans la rue.
Des étudiants de Harvard ont relié un programme d'intelligence artificielle à leurs lunettes Ray-Ban de Meta pour identifier les individus qu'ils croisent dans la rue.
L'alliance des partis de gauche aux élections législatives de 2024 s'est entendue sur un point en particulier concernant la tech et le numérique : il faut interdire la reconnaissance faciale.
L'alliance des partis de gauche aux élections législatives de 2024 s'est entendue sur un point en particulier concernant la tech et le numérique : il faut interdire la reconnaissance faciale.
Deviner l’orientation politique d’une personne d’après son visage peut sembler autant improbable qu’inquiétant. Trois chercheurs de l’Université de Stanford ont selon eux démontré que c’était pourtant possible et pour des évaluateurs humains et pour des algorithmes d’IA et ce, à partir d’images standardisées de visages inexpressifs. Pour eux, leurs résultats soulignent l’urgence pour les chercheurs, le public et les décideurs politiques de reconnaître et de traiter les risques potentiels de la t
Deviner l’orientation politique d’une personne d’après son visage peut sembler autant improbable qu’inquiétant. Trois chercheurs de l’Université de Stanford ont selon eux démontré que c’était pourtant possible et pour des évaluateurs humains et pour des algorithmes d’IA et ce, à partir d’images standardisées de visages inexpressifs. Pour eux, leurs résultats soulignent l’urgence pour les chercheurs, le public et les décideurs politiques de reconnaître et de traiter les risques potentiels de la technologie de reconnaissance faciale pour la vie privée.
Des recherches antérieures ont montré que les humains peuvent déduire l’orientation politique à partir d’images faciales, bien que cela puisse être influencé par des facteurs tels que la présentation de soi, l’expression faciale et les propriétés de l’image. Les algorithmes de reconnaissance faciale, quant à eux, ont atteint une précision encore plus élevée dans la prédiction de l’orientation politique, ce qui pose des questions sur la confidentialité et le contrôle des informations personnelles.
Les chercheurs de Stanford ont voulu déterminer dans quelle mesure ces prédictions reposent sur des traits faciaux stables plutôt que sur d’autres facteurs modifiables.
Echantillon de l’étude
Les 591 participants à cette étude ont été recrutés dans une grande université américaine privée et étaient âgés de 19 à 22 ans. Ils ont été photographiés en laboratoire dans des conditions standardisées, vêtus d’un t-shirt noir, sans maquillage, les cheveux tirés en arrière, même orientation de la tête devant un arrière-plan neutre, après avoir rempli un questionnaire où ils ont indiqué leur âge, leur sexe et leur orientation politique.
Méthodologie
Pour prédire l’orientation politique à partir des photos, les chercheurs ont utilisé l’algorithme de reconnaissance faciale VGGFace2 avec une architecture ResNet-50-256D, spécialement conçue pour extraire des informations pertinentes à partir d’images faciales. Ce réseau neuronal a été entraîné sur un vaste ensemble de données comprenant 9 131 individus et 3,3 millions d’images faciales, couvrant une variété de poses, expressions faciales, éclairages et autres caractéristiques.
Les images ont été converties en descripteurs de visage de 256 valeurs, uniques à chaque individu, capturant des traits distinctifs et stables du visage, bien que non interprétables par les humains en raison de leur complexité.
Ces descripteurs ont ensuite été utilisés dans une régression linéaire pour cartographier les caractéristiques du visage sur une échelle d’orientation politique, validée par une méthode de validation croisée pour éviter le surapprentissage.
Dans un second temps, ils ont demandé à des évaluateurs humains de déduire eux-aussi l’orientation politique des participants à partir des photos.
Ils ont également appliqué leur méthode pour prédire l’affiliation à un parti politique dans un échantillon très différent : des images de profil de 3 401 politiciens des États-Unis, du Royaume-Uni et du Canada.
Limitations
Les auteurs soulignent certaines limitations de leur étude : la jeunesse de l’échantillon, sa taille et le fait que les participants étaient majoritairement libéraux.
D’autre part, les images faciales en basse résolution et bidimensionnelles utilisées pour l’étude ne capturaient pas entièrement la complexité tridimensionnelle de l’apparence du visage. De plus, l’algorithme de reconnaissance faciale n’était pas spécialement conçu pour prédire l’orientation politique, ce qui pourrait limiter sa performance par rapport à un modèle dédié à cette tâche.
Résultats
Les résultats ont montré que les évaluateurs humains (corrélation r = 0,21) et l’algorithme de reconnaissance faciale (corrélation r = 0,22) étaient capables de prédire les scores d’orientation politique des participants sur une échelle décorrélée de l’âge, du sexe et de l’origine ethnique (α de Cronbach = 0,94). Lorsque l’algorithme a exploité des informations sur l’âge, le sexe et l’origine ethnique des participants, sa précision prédictive a été encore améliorée (corrélation r = 0,31).
Alors que les images des politiciens n’étaient pas standardisées, la performance réalisée (r ≈ 0,13) montre que les associations entre l’apparence faciale et l’orientation politique se généralisent au-delà de l’échantillon relativement jeune et libéral des participants américains recueillis dans cette étude.
Pour eux, ces résultats suggèrent que les technologies de surveillance biométrique généralisées sont plus menaçantes qu’on ne le pensait auparavant. Des algorithmes, bien que modérément précis, peuvent avoir un impact considérable lorsqu’ils sont appliqués à de grandes populations dans des contextes à enjeux élevés. Ils estiment que les universitaires, le public et les décideurs politiques devraient en prendre note et envisager de renforcer les politiques réglementant l’enregistrement et le traitement des images faciales.
Références de l’article :
“Facial Recognition Technology and Human Raters Can Predict Political Orientation From Images of Expressionless Faces Even When Controlling for Demographics and Self-Presentation”
Les technologies de reconnaissance faciale, posturale et comportementale, en pleine croissance depuis une décennie, ont désormais des implications majeures dans des domaines variés tels que la sécurité, la finance ou les transports. Le Comité national pilote d’éthique du numérique (CNPEN) a publié le 29 janvier dernier un avis sur les enjeux éthiques qu’elles soulèvent.
Le CNPEN a été créé en décembre 2019 par Edouard Philippe, alors premier ministre, et placé sous l’égide du Comité consultatif
Les technologies de reconnaissance faciale, posturale et comportementale, en pleine croissance depuis une décennie, ont désormais des implications majeures dans des domaines variés tels que la sécurité, la finance ou les transports. Le Comité national pilote d’éthique du numérique (CNPEN) a publié le 29 janvier dernier un avis sur les enjeux éthiques qu’elles soulèvent.
Le CNPEN a été créé en décembre 2019 par Edouard Philippe, alors premier ministre, et placé sous l’égide du Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE). Il réunit des personnalités du monde académique, industriel et institutionnel, experts dans divers domaines, contribuant à une réflexion éthique nécessaire face au développement numérique et participant à éclairer le débat public.
Le CNPEN a déjà émis des avis sur divers sujets, tels que les systèmes d’intelligence artificielle générative, la rétroactivité d’un changement de nom dans les documents scientifiques numériques, ainsi que les enjeux éthiques liés à l’IA dans le diagnostic médical et les plateformes de données de santé.
Les membres du groupe de travail de ce dernier avis sont :
les rapporteurs Karine Dognin-Sauze et Jean-Gabriel Ganascia,
Raja Chatila, Laure Coulombel, Laurence Devillers, Claude Kirchner, Catherine Tessier et Célia Zolynski.
Ils ont été accompagnés par :
Mélanie Gornet (stagiaire), Anaëlle Martin (rédactrice), Alexia Pronesti (rédactrice) et Amélie Turci (rédactrice-stagiaire).
Ils soulignent dans cet avis la dualité des technologies de reconnaissance faciale, posturale et comportementale, qui offrent des opportunités potentiellement bénéfiques tout en soulevant des préoccupations légitimes quant aux libertés individuelles. Plutôt que de prendre une position tranchée, le comité adopte une approche épistémologique, mettant en avant la nécessité d’une évaluation précise et rigoureuse de chaque cas d’usage.
Jean-Gabriel Ganascia, membre du CNPEN et co-rapporteur de l’avis, souligne :
“L’avis ne cherche ni à condamner ni à glorifier l’utilisation de ces technologies, mais plutôt à éclairer et à susciter une réflexion éthique approfondie. Il s’adresse à toutes les parties prenantes, qu’il s’agisse des scientifiques, ingénieurs, développeurs, fournisseurs, utilisateurs exploitants, opérateurs, législateurs, représentants institutionnels, régulateurs, organismes de certification ou personnes physiques exposées aux technologies de reconnaissance”.
Le Comité insiste sur l’importance d’une évaluation approfondie des technologies déployées, examinant leur adéquation avec les objectifs visés et anticipant les conséquences à court, moyen et long terme sur la société. Il met en garde contre une approche simpliste du débat, soulignant sa complexité et appelant à une régulation équilibrée basée sur des évaluations expérimentales rigoureuses des performances.
Karine Dognin-Sauze, membre du CNPEN et co-rapporteur de l’avis, affirme :
“L’évaluation des technologies de reconnaissance biométrique doit être approfondie et adaptée à chaque contexte spécifique. Nous devons éviter les généralisations hâtives et prendre en compte la complexité des enjeux éthiques auxquels nous sommes confrontés”.
Le CNPEN émet 19 recommandations qui explorent des notions familières telles que la finalité, la proportionnalité, la transparence et l’équité. Parmi celles-ci, le Comité recommande d’énoncer “de façon explicite les finalités poursuivies par le recours aux systèmes de reconnaissance faciale, posturale et comportementale, afin qu’aucune finalité ne soit passée sous silence ou dissimulée”.
D’autres recommandations sont plus spécifiques, couvrant des aspects tels que les dimensions scientifiques, les expérimentations, ainsi que les implications économiques et sociales liées au déploiement de ces dispositifs technologiques. Le CNPEN traite, notamment, la question des biais et propose d’inclure « une mention explicite de la présence potentielle de biais » lors de l’installation de ces systèmes.
Il encourage également la définition systématique d’un protocole précisant les finalités, les hypothèses, le détail de la mise en œuvre, les acteurs impliqués, le cadre, ainsi que la durée, pour toute expérimentation d’un système de reconnaissance faciale, posturale ou comportementale.
L’avis et ces recommandations ont pour objectif d’aider les citoyens à prendre conscience des évolutions technologiques et à décider démocratiquement de la société dans laquelle ils souhaitent vivre, en tenant compte des impératifs de sécurité, des avantages des technologies et des risques pour les libertés individuelles et collectives.
L’avis complet et les recommandations détaillées sont disponibles sur le site institutionnel du CNPEN.