covid pretexte pour une surveillance numerique accrue

Le Covid-19, prétexte pour une surveillance numérique accrue ?

Pour suivre la propagation du nouveau coronavirus, les États membres de l’UE ont pris des mesures de surveillance supplémentaire, et ce, aux dépens des droits fondamentaux.

« Avez-vous téléchargé l’application Stop-Covid ? ». À cette question, même le Premier ministre Jean Castex a répondu « non » la semaine dernière lors de l’émission « Vous avez la parole ». Provoquant les rires et la stupeur chez les chroniqueurs face à l’ironie de la situation, ces propos ont relancé le débat sur l’utilité de l’application de traçage du SARS-CoV-2.

Selon le gouvernement, « [l’application] permet de prévenir les personnes qui ont été à proximité d’une personne testée positive, afin que celles-ci puissent être prises en charge le plus tôt possible, le tout sans jamais sacrifier nos libertés individuelles. »

La France a ainsi suivi le chemin de ses voisins européens en développant cette application mobile.

Le Centre européen de prévention et de contrôle des maladies (ECDC) a pourtant souligné l’importance de la recherche des contacts par les applications de téléphonie mobile. Néanmoins, la plupart des experts s’accordent à dire que les applications ne suffisent pas et devraient être complétées par d’autres mesures.

Défiance de la population

Bien que son utilité soit remise en question, la violation des droits fondamentaux, notamment à la vie privée, n’est que très peu abordée. Un point soulevé dans les bulletins mensuels de l’Agence des droits fondamentaux de l’Union européenne (FRA), y compris celui d’avril.

Le rapport cite, entre autres, le professeur Joseph A. Cannataci, rapporteur spécial de l’ONU : « [les smartphones et les autres applications de traçage sont potentiellement] parmi les développements technologiques les plus intrusifs en matière de protection de la vie privée au cours des vingt dernières années (…). »

Selon la FRA, ces applications risquent de nuire à d’autres droits, tels que la liberté de circulation, d’association et de religion. L’identification d’une personne, ses fréquentations ou sa localisation pourrait révéler ses convictions politiques ou religieuses.

De plus, les éventuelles erreurs de données pourraient renforcer les préjugés, la discrimination et les inégalités. Sans oublier le risque accru d’exclusion numérique et sociale pour les personnes peu informées dans le domaine.

« En général, la FRA a constaté un manque d’analyse approfondie des implications en matière de droits fondamentaux, lors de l’utilisation de nouvelles technologies », a expliqué Nicole Romain, directrice de communication de la FRA.

« Toutefois, de nombreux pays ont également collaboré activement avec leurs autorités de protection des données lors de l’élaboration d’applications de traçage. Celles-ci ont également publié des orientations de leur propre initiative, » précise-t-elle.

En France, la Commission nationale de l’informatique et des libertés (CNIL) explique avoir « procédé à trois contrôles afin de s’assurer que le fonctionnement de l’application “StopCovid France” réponde aux exigences de protection de la vie privée et des données personnelles de ses utilisateurs. »

Cependant, les citoyens se montrent très réticents à l’idée de partager leurs informations personnelles et ne font pas confiance aux gouvernements.

Ce phénomène peut s’expliquer par le manque de connaissance des utilisateurs au sujet des pratiques en matière de protection de la vie privée. Comme les sondages de la FRA le montrent, beaucoup ne savent pas vérifier les paramètres de confidentialité ou désactiver les paramètres de localisation. 77% des Français estiment qu’il n’est pas facile de consentir à l’utilisation de données personnelles par le biais de services en ligne.

Certains États ont également fait appel aux drones. L’Italie, la Hongrie et la Grèce ont ainsi contrôlé le respect des mesures d’éloignement physique dans les espaces publics et mesuré la température des personnes par voie aérienne.

L’Allemagne et la Roumanie sont allées plus loin en utilisant des bracelets biométriques. La Pologne et la Moldavie ont quant à elles eu recours à la reconnaissance faciale.

Nicole Romain souligne que « ces technologies traitent des données personnelles ou peuvent avoir un impact sur la manière dont les personnes jouissent de leurs droits fondamentaux. » Elle rappelle que « les droits fondamentaux ne peuvent être limités que dans des conditions strictes, justifiant la nécessité et la proportionnalité de leur limitation éventuelle. »

Il appartient certes aux pays européens d’assurer la conformité des technologies utilisées sur leur territoire aux règles de l’UE, mais la Commission européenne peut décider de porter plainte si tel n’est pas le cas.

Par : Anne Damiani | EURACTIV France

Le Covid-19, prétexte pour une surveillance numérique accrue ?

reconnaissance facilale

La reconnaissance faciale sème le trouble au sein du Parlement européen

La commission parlementaire des libertés civiles, de la justice et des affaires intérieures remet en cause la volonté du bloc de créer une base de données paneuropéenne de reconnaissance faciale destinée à être utilisée par la police.

Dans le cadre d’une révision du traité de Prüm (2005), qui prévoit l’échange de données génétiques, d’empreintes digitales et de données à caractère personnel au sein du bloc, les États membres ont proposé que les autorités policières soient habilitées à partager des images faciales.

Des experts ont alors averti les députés européens des risques que comprend le projet « next-generation Prüm ». Ainsi, les droits liés à la vie privée pourraient être entravés si de nouvelles catégories de données étaient introduites dans le traité, comme la reconnaissance faciale.

La Dr Niovi Vavoula, de la Queen Mary University à Londres, a soulevé plusieurs inquiétudes auprès des députés européens. D’une part, le risque de « faux positifs » est bien présent. D’autre part, certaines minorités ethniques pourraient être injustement ciblées en raison de préjugés algorithmiques.

L’autorité européenne de protection des données demande un moratoire sur la reconnaissance faciale

Les technologies de reconnaissance automatique doivent être temporairement interdites dans les lieux publics, affirme le Contrôleur européen de la protection des données (CEPD). L’organe, qui surveille l’application des règles en la matière au sein de l’UE, plaide pour un moratoire.

Des points également soulignés par Chloé Berthélémy, membre de l’association européenne pour les droits en ligne (EDRi), pour qui il est était « troublant » de penser à étendre le champ d’action du traité afin de couvrir les images faciales, et ce, au vu des faux positifs et des « préjugés raciaux systémiques entretenus par les forces de l’ordre et le système de justice pénale ».

La Dr Rafaela Granja, de l’Université de Minho, se réfère à une étude récente sur les points de contact nationaux (PCN) à travers le bloc qui permettent de simplifier les échanges transfrontaliers de données.

D’après l’analyse, fondée sur les réponses reçues aux PCN, il semblerait que les « faux positifs et le manque de normes ainsi que les problèmes liés à la responsabilité et la transparence » soient inhérents à l’extension du traité de Prüm.

Les députés européens appréhendent d’ailleurs cette idée. « Même au cours du dernier mandat, nous savions que la qualité des données était de la plus haute importance », a indiqué la législatrice Birgit Sippel (S&D), ajoutant que « pourtant, nous bataillons toujours avec ces thématiques, nous parlons de faux positifs et de concordances erronées, comme si c’était normal ».

« Mais ces faux positifs ont des conséquences néfastes sur les enquêtes, qui pourraient ainsi prendre un mauvais tournant », renchérit-elle.

Une technologie de reconnaissance faciale reçoit le label d’excellence de la Commission

La Commission a décerné son « label d’excellence » à une technologie capable de reconnaître des visages en temps réel et d’analyser le comportement des foules, et qui sera utilisée en cas de nouvelle vague de COVID-19.

Sophie in’t Veld, de Renew Europe, se demande quelle approche l’UE devrait adopter afin de gérer les abus de pouvoir pouvant émaner de certains États qui utilisent les nouveaux instruments prévus dans le « next-generation Prüm ».

Le Parlement européen ne joue qu’un rôle consultatif dans le cadre de ce traité. C’est pourquoi Sergey Lagodinsky des Verts/ALE a laissé entendre qu’il faudrait mener une étude plus minutieuse sur les ramifications possibles de ce nouveau système.

« Je pense que les conclusions à tirer sont très claires : il faut évaluer avant de modifier », a-t-il dit. « Nous devons procéder à un examen du système actuel avant d’aller plus loin. »

Malgré les craintes exprimées, certains législateurs se sont prononcés en faveur de l’extension.

À cet effet, Tomas Tobé (PPE) a souligné qu’un « échange accru » de données entre les forces de l’ordre de l’UE était nécessaire pour lutter contre la criminalité, mais qu’il conviendrait d’abord de mieux comprendre l’utilité de la reconnaissance faciale dans ce contexte.

Les conclusions du Conseil de l’UE datant de 2018 proposent une extension du traité et invitent les experts des États membres – dans le cadre du groupe de travail chargé des échanges d’informations et de la protection des données (DAPIX) – « à étudier les procédures inscrites dans le traité de Prüm afin de peut-être y inclure de nouvelles technologies biométriques, comme la reconnaissance faciale ».

Selon le rapport, la Commission européenne s’est entretenue avec la boîte de consultance Deloitte afin de mener une analyse à ces fins, et ce, pour le prix de 700 000 euros.

L’étude fait désormais l’objet de discussions au sein des groupes de travail au Conseil de l’UE, et une mise à jour publique sur les projets prévus devrait avoir lieu en octobre.

Reconnaissance faciale oeil

Reconnaissance faciale : la police européenne envisage une base de données massive

Selon un rapport confidentiel, les forces de police de l’UE rêvent de mettre en place un réseau interconnecté de bases de données de reconnaissance faciale.

Un rapport du Conseil de l’UE, qui aurait circulé entre dix États membres en novembre dernier, détaille les mesures prises par l’Autriche pour légiférer sur la mise en place d’un réseau de base de données de reconnaissance faciale, auquel les forces de police de toute l’UE pourraient accéder.

Les documents, obtenus par The Intercept, comprennent une série de rapports qui examinent la possibilité d’étendre le traité de Prüm, qui régit la coopération policière opérationnelle entre les États membres de l’UE, pour y inclure des images de reconnaissance faciale.

En l’état actuel des choses, des dispositions permettent le partage de l’ADN, des empreintes digitales et des registres d’immatriculation des véhicules entre les pays membres participants. L’initiative avait été lancée par le ministre allemand des Affaires intérieures, Wolfgang Schäuble, en 2005.

Étendre le traité de Prüm pour y inclure des images de reconnaissance faciale avait été envisagé dans des conclusions du Conseil de l’UE en 2018, qui invitaient alors les experts des États membres à « évaluer le déroulement de la procédure Prüm dans l’optique d’une évolution future intégrant éventuellement de nouvelles technologies biométriques, par exemple des systèmes d’identification faciale. »

Afin d’évaluer la faisabilité du projet, les rapports suggèrent que la Commission européenne aurait chargé le cabinet Deloitte de mener une évaluation sur ce type de technologie, pour un coût total de 700 000 euros.

Livre blanc sur l’intelligence artificielle

Cette fuite de documents survient à un moment où l’UE est plongée dans le débat de la réglementation des technologies de reconnaissance faciale dans l’UE.

Précédemment, des documents obtenus par Euractiv montraient que la Commission européenne réfléchissait à un éventuel moratoire de cinq ans sur la technologie dans le contexte de son Livre blanc sur l’intelligence artificielle, une feuille de route sur la manière dont l’exécutif compte atténuer les risques futurs dans ce domaine.

Ces projets ont toutefois été enterrés dans la version finale du Livre blanc publié la semaine dernière, la Commission préférant plutôt opter pour « un débat européen sur l’utilisation de l’identification biométrique à distance ».

L’exécutif a aussi souligné le fait que dans le cadre de la loi européenne sur la protection des données, le traitement des données biométriques pour identifier des personnes était interdit, sauf des conditions spécifiques ayant trait à la sécurité nationale ou à l’intérêt public.

L’article 6 du règlement européen sur la protection des données expose les conditions dans lesquelles des données personnelles peuvent être traitées en toute légalité. L’une d’entre elles impose à l’utilisateur de donner son consentement explicite. L’article 4 (14) du règlement couvre quant à lui le traitement des données biométriques.

Malgré tout, ces derniers mois, les États membres de l’UE ont élaboré des plans dans le domaine des technologies de reconnaissance faciale.

L’Allemagne a fait part de son intention de déployer des outils automatiques de reconnaissance faciale dans 134 gares et 14 aéroports, alors que la France prévoit aussi de mettre en place un cadre légal permettant d’intégrer des technologies de reconnaissance faciale aux systèmes de vidéo surveillance.

Plus largement, le Livre blanc de l’UE sur l’intelligence artificielle met l’accent sur une série de technologies à « haut risque » pouvant servir à une future surveillance. Ces technologies tombent dans deux catégories : celles qui seraient utilisées dans « des secteurs critiques » et celles qui auraient un « usage critique ».

Ces secteurs comprennent la santé, le transport, la police, le recrutement, et le système juridique. Les applications critiques concernent quant à elles les technologies comportant un danger de mort ou de blessures, ou celles ayant des retombées juridiques.

Clearview AI

Partout ailleurs, l’UE a fermement pris position sur l’emploi de la reconnaissance faciale ailleurs dans le monde.

Suite aux récentes révélations selon lesquelles la société technologique américaine Clearview AI a amassé plus de trois milliards de photos de visages d’utilisateurs sur les réseaux sociaux comme YouTube, Facebook et Twitter sans obtenir leur autorisation, la Commission est en discussion avec les autorités européennes de protection des données pour déterminer si les données des citoyens européens auraient pu être en danger.

Bruxelles se penche sur le scandale Clearview AI sur la reconnaissance faciale

La Commission consulte les autorités de protection des données européennes après avoir appris que la firme technologique américaine Clearview AI avait amassé les images de plus de trois milliards de visages d’utilisateurs de réseaux sociaux sans leur permission.

Clearview AI met à disposition des forces de l’ordre une base de données capable de faire correspondre des images de visages avec plus de trois milliards d’autres images de visages récupérées sur des réseaux sociaux.

« La Commission est au courant des rapports de la presse, nous suivons le dossier de près et restons en contact avec les autorités nationales de protection des données ainsi qu’avec le Comité européen de la protection des données », a assuré un porte-parole de l’exécutif.

« Ces technologies n’opèrent pas dans un vide juridique. L’utilisation de données personnelles est soumise aux règles strictes du RGPD. [Celui-ci] prescrit une base juridique bien définie et un objectif légitime ; la personne concernée doit être au courant de la procédure, elle doit pouvoir obtenir réparation et [posséder] des moyens de vérification ».

Reconnaissance faciale : la police européenne envisage une base de données massive