Vous ne le savez peut être pas, mais un événement majeur est en train de se jouer sur les datas santé françaises. À côté les enjeux et risques du DMP, c'est une partie de billes dans une cour de récréation. De quoi s'agit-il ?
"Health Data Hub", c'est le petit nom sympa de ce nouveau monstre issu d'une volonté du sommet de l'état. Et comme avec toute volonté idéologique venant de personnes qui n'y connaissent rien et qui sont sous influences, le risque d'aller à la casse est souvent plus grand que les bénéfices.
De quoi parle-t-on ici ? Ce hub est une grande marmite numérique connectée dans laquelle on va déverser toutes, TOUTES, les datas santé françaises disponibles. Et par le saint miracle de l'IA on pense qu'il va en sortir quelque chose.
Comme toujours dans ce genre de choses, les promesses vont pleuvoir : "n'ayez pas peur, on s'occupe de tout, il n'y aura pas de problème de piratage, d'anonymisation ratée, de surveillance ... Pensez donc aux bénéfices que la santé va tirer de tout ça, l'IA c'est l'avenir !".
Comme toujours on va mettre en avant des bénéfices dont l'existence même reste à prouver et négliger les risques. Comme toujours, pour faire plaisir au roi qui a pointé une date sur un calendrier, on va se précipiter, faire n'importe quoi pour tenir les délais.
Et donc comme trop souvent, on risque de voir le politique signer des ardoises conséquentes aux entreprises techno qui vont lui proposer une solution pré digérée (avec promesse implicite d'embauche pour les signataires et petites mains 3 ans plus tard).
Mais attendez, on a gardé le meilleur pour la fin : devinez chers amis, chers confrères quelle entreprise est présentie pour héberger ce nouveau joujou idéologique ? OVH, boite française ? Perdu. Scaleway, branche de Online (Free) ? Perdu. Cherchez un peu quoi !
Allez, on est sympa on vous le dit : une boite américaine qui a un grand cloud couleur ciel sur lequel l'administration US a TOUS les droits (et on a bien compris après avoir lu Snowden que détenir l'autorisation légale n'était plus vraiment la préoccupation là bas, à plus forte raison quand on parle des datas qui ne concernent pas les citoyens US) . Boite qui s'illustre déjà par sa présence dans l'éducation nationale et la défense française. Oui vous ne rêvez pas : Microsoft.
Source, entre autres : Soignons nos données de santé par Pierre-Alain Raphan, député LREM de l'Essonne.
Les risques actuels du cloud computing par Greg Kroah-Hartman, l’un des principaux développeurs du noyau Linux : Greg Kroah-Hartman : à l’heure de Spectre et Zombieload « vous devez choisir entre la sécurité et les performances »
Le "datamining" avait permis de récupérer 335 millions d'euros sur la totalité de l'année 2018.
L’Etat peut se frotter les mains. Selon les chiffres dévoilés ce mercredi par Gérald Darmanin, le ministre des Comptes publics, le fisc a récupéré 5,6 milliards d’euros de recouvrement pour fraude fiscale sur les neuf premiers mois de 2019. "C’est une hausse de 40% de l’argent qui est dans les caisses de l’Etat", a souligné le ministre, dont les propos ont été relayés par l’AFP. Une partie de cette somme a été notamment récupérée grâce à l’intelligence artificielle, explique Europe 1.
En fouillant les données des particuliers et des entreprises, l’Etat a ainsi récupéré 640 millions d’euros depuis le début de l’année 2019. C’est près de deux fois plus que sur la totalité de l’année 2018, puisque 335 millions d’euros de redressement ont été enregistrés avec cette méthode l’an dernier, souligne BFMTV. La technique de "datamining" est utilisée depuis 2018 pour lutter contre la fraude fiscale. Elle permet de croiser les données de 5 millions d’entreprises en France et les informations des 37 millions de foyers fiscaux et de déceler des irrégularités.
⋙ Lire aussi Fisc : les fraudeurs n'auront jamais autant "payé" qu'en 2019
Bercy ne donne pas plus de détails
Les données bancaires, fiscales, ou les déclarations à l’Urssaf, à la CAF ou à la Sécurité sociale sont ainsi scrutées, recoupées, et des milliers de dossiers sont envoyés aux services fiscaux locaux. Même chose pour vos données sur les réseaux sociaux, qui sont logiquement exploitables depuis cette année par le fisc. BFMTV avance que Bercy n’a pas encore permis l’utilisation des données de Facebook ou Instagram. Mais Europe 1 assure que le contrôle de la fraude fiscale est bien étendu aux réseaux sociaux pour 2019, comme annoncé en novembre dernier.
⋙ Lire aussi Quand un inspecteur des impôts est mis en examen... pour fraude fiscale !
"Il y aura la permissivité de constater que si vous vous faites prendre en photo (…) de nombreuses fois, avec une voiture de luxe alors que vous n’avez pas les moyens de le faire, peut-être que c’est votre cousin ou votre copine qui vous l’a prêtée, ou peut-être pas", expliquait Gérard Darmanin, dont les propos étaient relayés par Le Monde. Bercy n’a pas profité du premier bilan sur la fraude fiscale en 2019 pour donner plus d’informations sur cette intelligence artificielle ou sur l’utilisation des données des réseaux sociaux.
Des chercheurs en sécurité ont découvert qu'il était possible d'espionner des conversations en ajoutant du code dans les applications des enceintes connectées d'Amazon et de Google. Il s'agit d'une forme de phishing vocal pour obliger les utilisateurs à donner des infos confidentielles comme un mot de passe ou une adresse email, mais aussi pour les enregistrer à leur insu.
En novembre, la France veut lancer son dispositif ALICEM de reconnaissance faciale pour accéder eux services publics en ligne. Pour la Quadrature du net, mais aussi la CNIL, ce dispositif n’est pas compatible avec le règlement général sur les données personnelles. Nos libertés sont-elles en danger ? Martin Drago, juriste et membre de la Quadrature du Net, est l’invité de #LaMidinale.
« Il y en a déjà dans les aéroports et l y a eu une expérience lors du carnaval de Nice pendant trois jours - première expérimentation de reconnaissance faciale sur la voie publique ! La police peut accéder et faire de la reconnaissance faciale avec un fichier… et il y a cette expérimentation dans les lycées qui arrive. »
« Ce qui a motivé notre recours, c’est qu’il faut commencer à réfléchir à l’interdiction, voire à un moratoire sur le développement de cette technologie. »
« On entend beaucoup, de la part de la gendarmerie et de la police, qu’on serait en train de perdre la course à l’armement par rapport à la Chine ou aux Etats-Unis et qu’il nous faut un champion français. »
« [La gendarmerie et la police] nous expliquent qu’on a déjà des champions français mais qu’ils ne peuvent pas expérimenter leur technologie en France et qu’ils doivent aller l’expérimenter dans des pays étrangers ou le cadre des libertés va être un peu moins stricte. »
« Ce qui motive ces expérimentations, c’est de faire de la France l’une des pionnières de ces technologies. »
« Un des premiers problèmes des dispositifs de reconnaissance faciale, c’est que ça ne marche pas très bien. Comme tous les dispositifs d’intelligence artificielle, il y a des biais. »
« Il faut aller au-delà de la critique de ces biais et s’interroger intrinsèquement sur la technologie elle-même : est-ce qu’elle n’est pas trop dangereuse pour exister ? »
« Que cette technologie marche ou pas ? On s’en fout, on n’en veut pas. »
« ALICEM n’est pas une expérimentation, c’est un dispositif finalisé. »
« ALICEM sert à créer une identité numérique sur Internet pour accéder à certains services publics (…) et quand vous voulez créer cette identité numérique, vous êtes obligé de passer par un dispositif de reconnaissance faciale. »
« Pour l’instant, ça n’est que pour les gens qui disposent d’un téléphone Androïd et un passeport biométrique : il faut scanner avec le téléphone la puce du passeport biométrique et ensuite il faut prendre une vidéo de soi. »
« Le problème, c’est que le gouvernement nous explique que pour le faire, on a le consentement des gens (…), ce qui n’est pas le cas parce que vous êtes obligé de passer par un dispositif de reconnaissance faciale. »
« Le problème, c’est ce que veut faire le gouvernement des données liées à la reconnaissance faciale : le gouvernement ne respecte pas le RGPD [règlement général sur les données personnelles] sur cette notion de “consentement libre” car on ne peut pas contraindre les gens à utiliser leurs données personnelles. »
« Il y a le discours du gouvernement, notamment celui de Christophe Castaner qui fait le lien entre la haine, l’anonymat en ligne et le dispositif ALICEM. »
« Aujourd’hui, ALICEM n’est pas encore obligatoire pour tout le monde mais le risque c’est : que se passe-t-il demain ? »
« Avec ALICEM, la CNIL dit que le gouvernement ne respecter par le RGPD. Le gouvernement n’en a pas tenu compte et a publié le décret d’application ce qui nous a motivés à l’attaquer. »
« La reconnaissance faciale, telle qu’elle est voulue, c’est l’outil final de reconnaissance et de surveillance de masse dans la rue. »
« Contrairement l’ADN ou les empreintes, on sait quand on vous les prend. S’agissant du visage, on ne sait pas quand une caméra va vous repérer ou vous identifier. »
« C’est un dispositif qui peut être partout dans la rue et c’est une possibilité notamment dans le cadre des Jeux Olympiques de 2024 que le gouvernement voudrait mettre en place. »
« Ce dispositif a un effet énorme sur les libertés d’aller et venir, sur notre vie privée et aussi sur notre liberté d’expression et de manifester : si vous savez qu’en allant manifester, vous aller être identifié, vous n’allez peut-être pas manifester de la même façon. »
« Cette technologie est un normalisme : elle existe déjà sur certains téléphone portable et si vous l’utilisez pour accéder aux services publics ou pour entrer dans votre établissement scolaire, ça normalise la technologie et quand ça va arriver dans l’espace public, vous n’allez plus tellement réfléchir aux dangers pour les libertés. »
« Le gouvernement va utiliser l’argument de la peur et du terrorisme pour pousser ces technologies. »
« On parle de reconnaissance faciale mais il y existe aussi une assemblée de nouveaux outils, de nouvelles technologies de surveillance qui se développent, comme la vidéo de surveillance intelligente - qui va repérer certains comportements dans la foule - ou des micros - comme à Saint-Etienne qui vont repérer certains bruits. »
« On a lancé le mouvement Technopolis qui permet de se renseigner, de bien comprendre ces technologies, de les analyser, de voir les dangers sur les libertés. »
« C’est pas parce qu’on est frappé par un attentat qu’on a envie d’avoir ces technologies. »
« Il ne faut pas faire la comparaison avec le modèle chinois parce qu’en France, il se passe déjà des choses assez graves : la vidéo surveillance intelligente a déjà lieu à Valenciennes et à Toulouse. La reconnaissance faciale ainsi que des micros sont déjà en place dans certaines rues. »
« On a tendance à dire qu’en France, on n’en est pas encore comme en Chine. Alors que si, en France, il se passe des choses très graves. »
La nouvelle application d’identité numérique lancée par le gouvernement
On assiste en France à de plus en plus d’expérimentations sur la reconnaissance faciale, les portiques biométriques dans les lycées, au carnaval de Nice, ou encore dans les aéroports… Le Ministère de l’Intérieur et l’Agence Nationale des Titres Sécurisés lance une nouvelle application sur Android : Alicem. Elle propose aux citoyens de se créer une identité numérique pour tout ce qui est procédure administrative en ligne et ce, à partir de la reconnaissance faciale. Selon les révélations de Bloomberg hier, elle sera lancée dès novembre.
La France sera donc le premier pays de l’Union Européenne à utiliser la reconnaissance faciale pour donner aux citoyens une identité numérique. Mais cela pose de nombreuses questions, notamment sur la protection des données personnelles. Nous avons tenté de joindre le Ministère de l’intérieur qui n’a pas pu répondre à nos questions. Interview avec Martin Drago, juriste à la Quadrature du net, l’association de défense des droits et libertés des citoyens sur Internet. Il engage une action en justice contre l’État
Écouter sur le site l'interview de Martin Drago.
Que ce soit pour circuler, consommer ou accéder à des données, le visage sert de plus en plus de passeport. Or, la reconnaissance faciale ne s'arrête pas à l'authentification : elle peut aussi servir à contrôler les gens à distance et même à décrypter leur caractère ou leur orientation sexuelle. Une "inquisition" qui inquiète jusqu'aux chercheurs en I.A.
TROIS DATES CLÉS
3 nov. 2017
Apple sort un iPhone doté d'un système de reconnaissance faciale (Face ID) permettant de le déverrouiller, d'authentifier des achats, d'accéder à des applis… Cette fonction pose des questions de sécurité et de respect de la vie privée - notamment sur le lieu de stockage des visages numérisés…
14 mai 2019
Le conseil municipal de San Francisco vote l'interdiction de l'utilisation de la reconnaissance faciale dans ses rues par les forces de police. Motif : "La propension de cette technologie à mettre en danger les libertés civiles surpasse substantiellement ses bénéfices supposés. "
Sept. 2019
Deux lycées de la région Paca, Ampère à Marseille et Les Eucalyptus à Nice, filtrent désormais l'entrée des élèves avec un système d'authentification faciale - le consentement des parents étant nécessaire pour chaque élève. Une initiative très critiquée, qui fait l'objet de recours en justice.
626 millions
Le nombre de caméras de vidéosurveillance que devrait compter la Chine en 2020 - contre moins de 2 millions en France. Le marché chinois de la reconnaissance faciale croît de 20 % par an.
Lire la suite sur Science et vie
De l'authentification…
DANS LES SMARTPHONES, À LA DOUANE, À LA CAISSE…
Partout, la reconnaissance faciale est en train de remplacer - ou de compléter - nos codes secrets et nos empreintes digitales. Cette technique désormais très fiable nécessite le consentement de la personne… Mais il arrive parfois qu'aucune alternative ne soit proposée.
1984 Derrière Winston, la voix du télécran continuait à débiter des renseignements sur la fonte et sur le dépassement des prévisions pour le neuvième plan triennal. Le télécran recevait et transmettait simultanément. Il captait tous les sons émis par Winston au-dessus d’un chuchotement très bas. De plus, tant que Winston demeurait dans le champ de vision de la plaque de métal, il pouvait être vu aussi bien qu’entendu. Naturellement, il n’y avait pas moyen de savoir si, à un moment donné, on était surveillé. Combien de fois, et suivant quel plan, la Police de la Pensée se branchait-elle sur une ligne individuelle quelconque, personne ne pouvait le savoir. On pouvait même imaginer qu’elle surveillait tout le monde, constamment. Mais de toute façon, elle pouvait mettre une prise sur votre ligne chaque fois qu’elle le désirait. On devait vivre, on vivait, car l’habitude devient instinct, en admettant que tout son émis était entendu et que, sauf dans l’obscurité, tout mouvement était perçu .
2020 - Le dernier comptage effectué en 2012 par la CNIL (Commission nationale informatique et libertés) faisait état de 935 000 caméras de surveillance installées sur notre territoire. Le nombre doit maintenant dépasser allègrement le million. Où sont-elles ? Partout ! Aux guichets de banque, dans les bureaux de tabac, les parkings, les couloirs de métro et même sur les lieux de travail. Avant un nouveau comptage, la dynamique ne n’infléchit pas sur le territoire : En 2018, 23 nouvelles caméras de vidéosurveillance ont été installées à Tours, le nombre de caméras dans cette ville ayant quadruplé en quatre ans. À Béziers, la mairie à fait savoir, dans un communiqué en janvier 2019, que la ville allait doubler le nombre de caméras de vidéosurveillance d’ici deux ans, passant de 90 début 2019, à 200 fin 2020, appuyant cette volonté d’un tweet et de mots dont je vous laisse juge.
Dès 2011, la Cour des comptes s’agaçait de l’absence d’évaluation de l’efficacité de cette approche sur la voie publique : « Les différentes études conduites à l’étranger, notamment au Royaume-Uni, aux États-Unis et en Australie ne démontrent pas globalement l’efficacité de la vidéosurveillance de la voie publique », s’inquiétait-elle même dans son rapport. Le flot d’images qu’elles diffusent est humainement impossible à regarder ! Et l’analyse automatique reste expérimentale.
En 2010, Laurent Mucchielli, directeur de recherche au CNRS, répondait lors d’une audition publique à un questionnement de la mairie de Toulouse qui souhaitait savoir si la vidéosurveillance était un bon moyen pour lutter contre les problèmes de délinquance et d’incivilités. En s’appuyant sur les recherches internationales et sur des évaluations locales réalisées en France des rapports publics, six constats ont été formulés :
1 - La vidéosurveillance de voie publique est une technologie qui présente à l’heure actuelle un faible intérêt comme outil de lutte contre la délinquance, tant en termes préventifs que répressifs.
2 - Elle se heurte à des limites inhérentes à la réalité délinquante, ainsi qu’à des limites en termes de coût financier, de carence doctrinale et de déficit chronique de coordination des différentes catégories d’agents publics (voire privés) concernés.
3 - Son principal impact est sans doute symbolique : la vidéosurveillance peut rassurer certaines personnes plus sujettes que d’autres au sentiment d’insécurité (commerçants du centre-ville, personnes âgées, etc.), elle peut aussi servir à des élus à afficher une politique de sécurité.
4 - Son coût est tel qu’il oblige fatalement à abandonner d’autres dépenses et à renoncer à d’autres types d’embauche d’agents contribuant à la tranquillité publique.
5 - La pression que l’État exerce actuellement sur les collectivités territoriales par le biais de l’incitation financière ainsi que par la mobilisation des préfets et des fonctionnaires de police et de gendarmerie a nécessairement d’autres raisons que la recherche d’une meilleure efficacité de la politique de sécurité. Le contexte de désengagement de l’État et de réduction des fonctionnaires en fait partie. La volonté d’affichage d’une politique permettant de masquer la persistance du haut niveau des problèmes de délinquance me semble également une hypothèse légitime. Les liens avec le monde de la sécurité privée seraient à explorer.
6 - Le pays européen le plus vidéosurveillé – le Royaume-Uni – est en train de faire machine arrière en parvenant à peu près aux mêmes constats. C’est ce qu’ont déclaré à plusieurs reprises ces dernières années les policiers londoniens et c’est ce qu’a entériné récemment le nouveau premier ministre Boris Johnson. En conclusion, un chercheur indépendant ne peut que mettre en garde les élus contre ce « mirage technologique » et rappeler qu’il existe bien d’autres façons d’essayer de réduire le niveau de délinquance dont souffrent l’ensemble de nos concitoyens.
Et Laurent Mucchielli de conclure :
« Un chercheur indépendant ne peut que mettre en garde les élus contre ce « mirage technologique » et rappeler qu’il existe bien d’autres façons d’essayer de réduire le niveau de délinquance dont souffrent l’ensemble de nos concitoyens. »
En 2018, le sociologue évoquait à nouveau dans son ouvrage, Vous êtes filmés ! Enquête sur le bluff de… la vidéosurveillance un gaspillage de l’argent public déniant toutes les recherches et études sérieuses. « Depuis plus de vingt ans, le monde scientifique, par la voix de chercheurs français et étrangers, ne cesse de juger, chiffres à l’appui, l’impact très limité de la vidéosurveillance sur l’insécurité ! »
À l’approche de 2020 la poursuite de la fuite en avant de certaines municipalités, démontre que la science à peu d’effet, sur des postures électoralistes.
Pour contre-argumenter, les fervents adeptes de l’utilisation de caméras évoquent le fait que le manque d’efficience régulièrement pointée – hier comme aujourd’hui – est, entre autres, lié au fait que cette dernière gagnerait en efficacité si elle était couplée à de la reconnaissance faciale. C’est désormais chose faite en France, mais pour l’instant de façon parcimonieuse. Pour rappel, la Commission nationale de l’informatique et des libertés (CNIL) a autorisé la reconnaissance faciale avant d’embarquer dans l’Eurostar à la gare du Nord. Dans la même dynamique « pour fluidifier (Ndla : argument mis en avant) les contrôles aux frontières », des sas à reconnaissance faciale sont opérationnels depuis juillet 2018 dans les aéroports parisiens.
Pour autant, la CNIL n’est pas favorable à la généralisation de la reconnaissance faciale dans tous les lieux publics :
« Si cette technologie n’en est qu’à ses balbutiements, il importe de comprendre que son caractère intrusif est croissant puisque la liberté d’aller et venir anonymement pourrait être remise en cause. »
Les similitudes et analogies entre l’ouvrage « 1984 » et notre société contemporaine pourraient se multiplier. Mais je doute que le lecteur lise une chronique de 300 pages.
L’entretien de la peur fait recette pour la surveillance dans une époque où, tant pour le politique que pour certains secteurs d’activités liés à la protection des personnes : ici pour légitimer des lois controversées, là pour multiplier les offres de produits sécurisants le citoyen chez lui. Si nous pouvons pointer des arguments fallacieux niant les conclusions d’experts sur des dérives d’usages à fin électoraliste, nous ne pouvons pourtant pas nier la recrudescence des cambriolages. Depuis le 1er janvier dernier (Ndla 2019), les cambriolages en France ont augmenté de 1,15 %, passant ainsi de 114 917 à 116 237 faits qui ont été dénoncés auprès des autorités.
Dans ce contexte, le marché de la vidéosurveillance (partie intégrante du domaine de la sécurité) se porte bien. Comme le souligne une étude de MSI publiée en mai 2019, cette croissance – même si elle se ralentie du fait du non renouvellement d’usagers déjà équipés – est « favorisée par le maintien d’un sentiment d’insécurité important, mais également par la diminution de la réticence à l’installation de caméras tant dans l’espace public que privé ».
En 2020, « 1984 » n’a pas perdu son statut de chef d’œuvre. Celui de dystopie est devenu plus discutable. La dystopie est presque devenue réalité, mais une dystopie… dysfonctionnelle : problématique de tri des données récoltées, de l’efficacité des outils de surveillance… avec la complicité des citoyens (par exemple, le développement de la possibilité de vendre ses données personnelles). Pour combien de temps le sera-t-elle encore (dysfonctionnelle) ? Je l’ignore. De là ou George Orwell observe Londres, la ville où il est décédé le 21 janvier 1950 et qui compte aujourd’hui plusieurs centaines de milliers de caméras, ce dernier doit songer aux vers d’Alfred de Musset (La Coupe et les lèvres, 1831) :
Je hais comme la mort l’état de plagiaire ;
Mon verre n’est pas grand, mais je bois dans mon verre
C’est bien peu, je le sais, que d’être homme de bien,
Mais toujours est-il vrai que je n’exhume rien. »
SECURITE La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des conseils de parents d’élèves s’associent. Le mouvement entend « résister à la surveillance totale de nos villes et de nos vies ».
Dans une petite salle sans fenêtre du centre-ville de Nice, ça cause « big data », « smart-city » et « intelligence artificielle ». Des mots qui, accolés aux questions de sécurité, inquiètent les responsables de la Quadrature du Net, de la Ligue des droits de l'Homme, de la FCPE 06 et de la CGT 06. Ces quatre organisations lancent « Technopolice », une campagne « contre la surveillance technologique de l’espace urbain à des fins policières ». Le mouvement entend « résister à la surveillance totale de nos villes et de nos vies ».
Si le collectif Technopolice a choisi Nice pour lancer sa campagne, ce n’est pas vraiment un hasard. C’est ici que la reconnaissance faciale a été expérimentée lors du carnaval et qu’un lycée va tester les portiques intelligents. C’est aussi dans la capitale azuréenne que la détection des émotions dans le tram est en projet et que le programme Safe-city met en relation toutes ces données.
« On a constaté un développement de ces dispositifs de surveillance sans vraiment de contrôle, sans aucun débat public, sans réflexion sur les droits fondamentaux, explique Martin Drago de la Quadrature du Net. Les questions de libertés ne sont pas assez abordées. Or, on ne va pas sortir manifester dans la rue de la même façon si on sait qu’on va être identifié. La notion de consentement, la finalité du traitement de nos données, l’anonymisation des données personnelles sont des questions importantes. »
Contactée, la ville de Nice n’a pas souhaité réagir.
« Il y a toujours ce flou »
Ces quatre associations s’étaient déjà réunies. C’était en février pour une procédure commune. Ensemble, ils ont saisi le tribunal administratif pour s'opposer à l’expérimentation de la reconnaissance faciale dans les lycées de la région Sud.
Désormais rassemblées en collectif, elles ont créé un site web avec un forum, une base de données documentaires et une plateforme afin de coordonner les recherches et les actions autour de la « surveillance technologique ». « On dénonce l’opacité de ces projets. Qu’est-ce que ça va donner ? Quand ça va commencer ? On ne comprend pas, affirme Martin Drago. Il y a toujours ce flou où c’est à nous d’aller creuser pour savoir ce qui va se passer. » Technopolice a déjà tracté devant le lycée Ampère de Marseille, toujours au sujet des portiques de sécurité.
Le collectif s’inquiète de la confidentialité et de la marchandisation des données. « On est convaincus que les enfants sont de futurs citoyens, pointe Laetitia Siccardi de la FCPE 06. La question des libertés fondamentales n’est pas à mettre de côté. Il faut que nos enfants soient conscients qu’ils ont des libertés et que c’est précieux. »
Nos visages méritent-ils d'être autant protégés que nos informations personnelles ? La reconnaissance faciale débarque, sans réel encadrement, et la protection des données biométriques reste plus que jamais essentielle...
Rappel : La reconnaissance faciale s’apprête à déferler en France. Pour documenter et résister à ces déploiements, rendez-vous sur technopolice.fr et son forum !
Mardi 24 septembre, La Quadrature était conviée à la « vingt-quatrième journée technico-opérationnelle de la sécurité intérieure », qui se tenait dans un amphithéâtre bondé de la Direction générale de la gendarmerie nationale. Ces rencontres sont organisées tous les six mois par le ministère de l’intérieur, et celle-ci avait pour thème : « reconnaissance faciale : applications – acceptabilité – prospective ».
Les rencontres « technopolice » sont marquées par un fort entre-soi, mêlant fonctionnaires du ministère de l’intérieur, chercheurs et industriels de la sécurité (à l’exception de la Quadrature, un avocat critique était également invité, ainsi que deux personnes de la CNIL qui s’en sont tenu à un simple rappel du droit applicable). Et dans cette atmosphère feutrée, notre intervention semble avoir détonné, comme en témoigne le compte-rendu de cette journée publié par l’Essor, le journal des gendarmes.
Nous étions sincèrement reconnaissants de l’invitation, et contents d’assister à des présentations fournissant des informations de première main qui sont autrement très difficiles d’accès pour les militants ou chercheurs travaillant sur ces questions. Nous l’avons rappelé en introduction de notre propos. Mais pour nous, l’enjeu était aussi de faire valoir une parole dissonante et de rappeler que, au moment où la reconnaissance faciale s’apprête à déferler dans nos sociétés, ces échanges entre opérationnels et développeurs industriels devaient faire l’épreuve de la controverse.
Voici donc une sorte de verbatim plus ou moins fidèle de notre intervention…
—
« Merci de votre invitation. De tels échanges sont trop rares. Et en dépit des désaccords fondamentaux, ils ont le mérite de créer un peu de porosité entre nos mondes.
La Quadrature du Net est une association fondée en 2008 pour résister aux formes de contrôle d’Internet qui allaient à l’encontre des libertés publiques. Aujourd’hui, nous nous rendons pleinement compte de la justesse des combats des années 1960 et 1970, où des groupes militants associaient l’informatique à la domination bureaucratique. Ils l’associaient à un régime technocratique plutôt que démocratique, non pas fondé sur l’autonomie et la liberté mais sur l’expertise alléguée de quelques hauts pontes formés dans les écoles d’élite.
Ce régime technocratique est toujours le nôtre. L’insistance mise sur le critères d’efficacité lors de cette journée l’illustre de bien, de même que l’extrême faiblesse de la prise en compte des aspects non seulement juridiques et éthiques, mais aussi proprement politiques de technologies comme la reconnaissance faciale.
La domination technocratique évite la confrontation démocratique. Ces 24ème rencontres « Technopolice » en fournissent là encore un exemple : aucune information ne doit filtrer, les participants étant astreints à un « engagement de non-divulgation ». De même, la présence en ligne de ces rencontres qui existent depuis années est quasi nulle. De fait, aucune information ne filtre. Une confidentialité qui entache tout ce dont on discute ici d’un grave déficit de légitimité démocratique, alors même que tout cela est incontestablement d’intérêt public.
Indirectement, l’extrême discrétion qui entoure ces rencontres nous a été utile, nous permettant d’utiliser le mot « technopolice » pour lancer, avec d’autres acteurs associatifs, notre propre campagne le 16 septembre dernier. En inscrivant le terme dans un moteur de recherche pour voir si nous étions les premiers à vouloir l’utiliser, nous avions découvert des traces de ces rencontres, mais si peu nombreuses que nous avions alors pensé que ce n’était pas un problème que de reprendre ce terme à notre compte (et ce n’est que quelques mois plus tard que nous recevions votre invitation à venir ici aujourd’hui…).
En écoutant vos présentations, nous mesurons une nouvelle fois le fossé qui sépare la réalité des usages de l’informatique dans le cadre de la surveillance d’État, et les informations publiques qui filtrent à son sujet. C’est justement contre ce secret que notre campagne vise à documenter les projets technopoliciers, et à permettre à chacun de se mobiliser pour dire notre refus collectif de ces technologies de contrôle qui essaiment partout en France.
Ces technologies sont très largement développées dans le cadre de la recherche publique, parfois avec le contournement explicite du cadre juridique applicable en Europe. C’est par exemple le cas lorsque des chercheurs français travaillent avec des homologues chinois pour perfectionner leurs algorithmes de reconnaissance faciale grâce aux bases de données de visages de citoyens chinois. Ou, comme on l’a appris ce matin, quand le gouvernement français passe un accord de sécurité avec celui de Singapour afin qu’un industriel français puisse passer outre les réserves de la CNIL et expérimenter le scan en temps réel sur les visages d’une foule dans un hub de transport de la ville-État. On ne peut s’empêcher de voir dans ces manœuvres un écho pas si lointain des expérimentations et mesures d’exception pratiquées à l’époque coloniale sur les peuples colonisés, avant d’être réimportées en métropole.
Outre la recherche publique, ces développements technologiques sont pilotés par des personnes en situation relevant plus ou moins directement du conflit d’intérêt, avec de nombreux croisements et hybridations entre secteur public et privé. Ils aboutissent aujourd’hui à des expérimentations locales hautement subventionnées pour assurer la compétitivité des industriels français sur ce marché porteur. Le tout, là encore, sans information transparente ni vrai débat public. Rien ne doit entraver le progrès de la technopolice.
La question de la légalité de ces outils est aussi largement éludée. Et quand elle est abordée, c’est toujours pour évoquer les restrictions que le cadre juridique existant imposerait à leur développement, et non sur les atteintes graves et injustifiables que ces outils portent à nos libertés fondamentales. Nos libertés d’expression, de manifestation, d’aller et venir sont pourtant bien en jeu ici, tout comme notre droit à la vie privée. Il faut s’interroger sur l’atteinte intrinsèquement disproportionnée à nos libertés que représente un outil comme la reconnaissance faciale, disproportion que souligne d’ailleurs la ville de San Francisco dans son ordonnance qui en interdit l’usage à ses policiers : « La propension de la technologie de reconnaissance faciale à mettre en danger les droits civils et les libertés civiles l’emporte largement sur les avantages escomptés (…) ». Il faut aussi s’interroger sur la compatibilité des dispositifs fantasmés par la Préfecture de police de Paris et bien d’autres avec la jurisprudence du Conseil Constitutionnel qui soulignait, déjà en 1993, l’illégalité de « pratique de contrôles d’identité généralisés et discrétionnaires ».
C’est pour cette raison que nous avons déjà déposé deux recours, pour lutter contre la normalisation et la banalisation d’un tel outil : l’un contre la délibération de la Région Sud autorisant une expérimentation de portiques biométriques dans deux lycées, l’autre contre l’application AliceM, développée par le ministère de l’Intérieur, et qui veut faire de la reconnaissance faciale une la clé de voûte d’une future identité numérique.
Sans doute aimeriez-vous que, face à l’inéluctabilité de nouvelles lois destinées à encadrer les dispositifs présentés aujourd’hui, nous puissions offrir des conseils sur ce que seraient des lois « socialement acceptables » et « juridiquement soutenables » ? Le Forum Économique Mondial et le Conseil national du numérique nous ont eux aussi proposé de participer à une série de dialogues sur l’encadrement de la reconnaissance faciale.
Un peu plus de transparence, un semblant de contrôle par la CNIL, une réduction des biais racistes et autres obstacles apparemment « techniques » auxquels se heurtent ces technologies, et l’on croit possible d’assurer un compromis « éthique » entre la défense technologique de l’ordre public et l’État de droit. Ces projets de loi viendront. Le pouvoir politique y sera réticent car, sauf à instrumentaliser les enjeux de sécurité (ce dont il est certes désormais coutumier), il n’y a généralement pas grand-chose à gagner à faire passer des lois de surveillance.
Pour notre part, il est probable nous soyons une nouvelle fois contraints de travailler sur ces projets de loi sécuritaires, pour défendre les droits humains et limiter la casse. Pour utiliser le droit dans le but d’entraver au maximum l’usage de ces technologies.
Mais nous vous le disons tout net : après y avoir réfléchi, nous considérons que la reconnaissance faciale et autres technologies technopolicières doivent être proscrites. Elles mènent l’humanité vers une pente dangereuse : ces technologies permettent d’insidieuses formes de contrôle au bénéfice de quelques maîtres seul capable de « réviser les paramètres » des machines à son service.
Plutôt que de discuter des modalités d’un « encadrement approprié », nous exprimons donc notre refus vis-à-vis de de ces technologies policières. Nous pensons à nos grand-mères et à nos grand-pères qui, s’ils avaient du vivre au début des années 1940 dans un monde saturé des technologies que vous fabriquez, n’auraient pas survécu plus de trois semaines dans la clandestinité, et n’auraient donc pas pu organiser des réseaux de solidarité dissidents pour résister au régime nazi.
Nous disons notre refus car pour nous, la sécurité c’est d’abord des logements dignes, un air sain, la paix économique et sociale, l’accès à l’éducation, la participation politique, l’autonomie patiemment construite. Et que ces technologies n’apportent rien de tout cela. Elles semblent d’abord et avant tout conçues pour vider nos régimes politiques de tout essence démocratique en assurant un téléguidage de nos conduites. Sous prétexte d’efficacité, elles aboutissent à déshumaniser encore davantage les rapports qu’entretiennent les bureaucraties policières avec la population.
C’est peut être l’une des premières fois que, vous tous qui travaillez depuis longtemps sur ces déploiements technologiques, vous êtes confrontés a une opinion réellement dissonante. Peut être y verrez-vous le signe de l’inutilité de ce type d’échanges. Nous espérons qu’au contraire, vous comprendrez qu’il s’agit d’une confrontation nécessaire trop longtemps retardée – retardée jusqu’à nous mettre pratiquement dans la situation du fait accompli. Et nous espérons que vous comprendrez que ce débat, vous ne pourrez plus y échapper. Vous devez entendre notre refus ».
(Traduction de la conclusion en Français. L'article est en Anglais)
Ne commettez pas l’erreur de penser que vous êtes à l’abri, peut-être parce que vous êtes jeune, homme, blanc, hétérosexuel et en bonne santé. Vous pourriez penser que vos données personnelles ne peuvent que vous procurer de bonnes choses, jamais de mauvaises, si vous avez eu de la chance jusqu’à présent. Mais vous n’êtes peut-être pas en aussi bonne santé que vous le pensez, et vous ne serez pas jeune pour toujours. La démocratie que vous tenez pour acquise pourrait se transformer en un régime autoritaire qui pourrait ne pas favoriser des gens comme vous.
De plus, la protection de la vie privée ne concerne pas que votre propre personne. La vie privée est à la fois personnelle et collective. Lorsque vous exposez votre vie privée, vous nous mettez tous en danger. Le pouvoir de protection de la vie privée est nécessaire à la démocratie – pour que les gens votent selon leurs croyances et sans pression indue, pour que les citoyens protestent anonymement sans crainte de représailles, pour que les individus aient la liberté de s’associer, de dire ce qu’ils pensent, de lire ce qui les intéresse. Si nous voulons vivre en démocratie, il faut que le gros du pouvoir appartienne au peuple. Si la majeure partie du pouvoir revient aux entreprises, nous aurons une ploutocratie. Si la plus grande partie du pouvoir revient à l’État, nous aurons une sorte d’autoritarisme. La démocratie n’est pas une évidence. C’est une chose pour laquelle nous devons nous battre tous les jours. Et si nous cessons de construire les conditions dans lesquelles elle prospère, la démocratie ne sera plus. La vie privée est importante parce qu’elle donne du pouvoir aux gens. Protégez-la.
Alors que le déploiement sécurisé des réseaux 5G vient d’être adopté par la France (loi « anti-Huawei »), les polémiques fleurissent autour des assistants vocaux (sans oublier votre Xbox) convertis en véritables « mouchards ». A la suite de lanceurs d’alerte, plusieurs médias ont ainsi révélé l’étendue des enregistrements accidentels (non déclenchés par l’utilisateur) et surtout l’envoi de tous les enregistrements à des sous-traitants dont les salariés écoutent vos moments les plus intimes.
Google Home, Apple Siri, Amazon Echo et Xbox, fabricants de ces dispositifs reposant sur l’intelligence artificielle ont en effet recours à des sociétés extérieures pour analyser les requêtes. C’est acceptable, mais là où cela devient glissant, c’est que les salariés peuvent écouter les enregistrements des voix des membres du foyer et des personnes qui les visitent et sont à portée de voix.
La commande vocale est en réalité profondément infiltrée dans votre vie privée. Au-delà des assistants vocaux ce sont bien sûr le téléphone, un casque audio, les équipements ménagers, jusqu’à votre chambre d’hôtel, et demain les véhicules autonomes qui fonctionnent grâce à cette technologie. Il est donc temps de découvrir ce que les fabricants enregistrent, pourquoi, et quels sont les risques pour les utilisateurs.
Contrôler des objets connectés, utiliser des services de divertissement tels sont les fonctions des assistants personnels à commande vocale : répondre à une question, jouer un morceau de musique, donner la météo, descendre les stores, diminuer la température… un vrai valet à votre service !
Tous les appareils connectés se trouvent dans le foyer ou sont portés par leurs utilisateurs. Le volume des données qu’ils génèrent est donc très important et reflète parfaitement le mode de vie de la famille depuis l’heure du lever. Réglage du chauffage, goûts culturels, achats passés, centres d’intérêt… rien de leur échappe. Le profil commercial de chaque membre de la famille est affiné en toute discrétion puisque la voix qui commande l’appareil ne laisse aucune « trace ». En effet, vous souvenez-vous des requêtes formulées hier ? La semaine dernière ? Ou depuis l’achat de cet assistant ? Et qu’en est-il des interactions de vos enfants ou de leurs amis avec cette machine ? L’appareil lui, ne perd pas une miette du moindre mot et s’empresse de l’analyser pour peaufiner la technologie de reconnaissance vocale et, au passage, la publicité ciblée.
Le fonctionnement est tellement simple que l’appareil se déclenche au bruit d’une simple fermeture éclair ! Siri s’est aussi déclenché en plein discours du Secrétaire à la Défense Gavin Williamson qui s’adressait aux députés au sujet de la Syrie. Le même assistant s’active aussi en concordance avec l’Apple Watch. Or, le taux de déclenchement accidentel de cette montre connectée est très élevé et il peut enregistrer jusqu’à 30 secondes de son. Des négociations d’affaires aux rapports sexuels, en passant par des transactions illicites et des consultations médicales, l’objet des enregistrements est identifiable en un rien de temps.
Le motif invoqué par les fabricants pour justifier ces enregistrements est l’amélioration de la technologie de reconnaissance vocale : « améliorer la qualité langagière » selon Amazon et Google. Les sociétés précisent qu’elles permettent à l’utilisateur de s’opposer à certaines utilisations de ces enregistrements par une option d’« opt-out » (pour ce faire, il faudra vous immerger dans les paramètres de votre appareil…). Apple a pour sa part expliqué que l’analyse porte sur moins de 1 % des requêtes et qu’elle se fait moyennant des garanties : les données sont anonymisées (elles ne peuvent pas être rattachées à l’identifiant d’un client) et les personnes chargées de l’analyse ont signé un engagement de confidentialité. Devant le tollé provoqué par ces révélations, la firme a décidé d’introduire une option de consentement pour les utilisateurs.
Si ces enregistrements « accidentels » et leur envoi pour analyse et écoute à des sous-traitants alimentent la polémique, c’est parce que les utilisateurs n’en étaient pas informés par les fabricants. Leur manque de loyauté et de transparence vis-à-vis de leurs clients est donc condamnable, sans compter l’absence de sécurité et de confidentialité s’agissant des enregistrements communiqués aux médias. Ces enregistrements comprennent l’historique des requêtes audio et la transcription des requêtes. Ils sont accompagnés de données de localisation, données de contacts et détails des applications qui servent à vérifier si la réponse à une requête a été donnée, plus les méta-données (date, heure, utilisateur…).
De surcroît, d’innombrables cas d’enregistrements portent sur des discussions privées entre médecins et patients, des négociations commerciales, des transactions apparemment criminelles, ou encore de rencontres sexuelles, etc.
Or, les données contenues par ces enregistrements sont des données à caractère personnel puisqu’il s’agit d’informations se rapportant à une personne physique identifiée ou identifiable. Rappelons que la personne physique peut être identifiée indirectement par référence à un identifiant (nom, numéro d’identification, données de localisation) ou à un ou plusieurs éléments spécifiques propres à son identité qu’elle soit physique, économique, culturelle ou sociale.
Nombre de ces données sont qualifiées de sensibles : celles révélant l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses, l’appartenance syndicale, les données de santé ou celles concernant la vie sexuelle ou l’orientation sexuelle d’une personne. Le RGPD interdit le traitement de ces données sauf consentement explicite de la personne et dans certaines hypothèses strictement définies (art. 9). Or, dans de tels cas, les équipes qui analysent les enregistrements ont pour toute consigne de rapporter un « incident technique », sans plus. Aucune procédure n’est mise en place pour ces données très sensibles !
Au-delà de la publicité ciblée, les risques sont le partage ou la commercialisation des données, le piratage et l’utilisation par des tiers non autorisés (usurpation d’identité, arnaques, ransomware, etc.). Ces risques sont bien réels car la détection de la voix humaine n’est pas infaillible. Lors du Super Bowl 2017, une publicité TV sur Google Home avait déclenché les appareils des téléspectateurs car les personnages lançaient le fameux « OK Google ». De nombreux utilisateurs d’Amazon Echo ont reçu à leur domicile une maison de poupée qu’ils n’avaient pas commandée ! La commande vocale est donc la grande vulnérabilité de ces nouvelles technologies.
L’utilisation des assistants à commande vocale se révèle donc à haut risque pour la vie privée de ses utilisateurs. Leurs propriétaires sont en premier lieu affectés ainsi que toute personne se trouvant à portée de voix de l’appareil, même s’il n’en a pas forcément conscience. Plusieurs principes du RGDP ne sont sans doute pas observés. Celui de licéité, loyauté et transparence tout d’abord, puisque ces enregistrements et leur envoi à des sous-traitants ont eu lieu en dehors de toute information des personnes aisément accessible, facile à comprendre et formulée en termes clairs et simples. La minimisation de l’usage des données est aussi mise à mal car ces sociétés traitent des données qui ne sont ni adéquates, ni pertinentes au regard des requêtes des usagers.
Ensuite, rappelons qu’en vertu du principe de limitation des finalités, la ou les finalités doivent répondre à trois qualités. Être « déterminées » préalablement ce qui signifie qu’il est interdit de collecter des données à des fins préventives. Ces finalités doivent être « explicites », c’est-à-dire communiquées à la personne concernée (droit à l’information) et enfin, être légitimes par rapport à l’activité du responsable de traitement.
Quant à la limitation de la conservation, aucune durée n’est spécifiée par les CGU de Google si ce n’est que les enregistrements sont conservés jusqu’à ce que les utilisateurs les suppriment. Comment faire ? Ici encore, tout repose sur la vigilance de la personne et sa persévérance, à défaut de protection par défaut et dès la conception de la part de Google (accédez ici à votre activité sur la page de Google pour tenter de supprimer vos enregistrements).
Sur certains produits, il est possible de paramétrer plusieurs profils d’utilisateurs, dans ce cas les enregistrements permettent l’identification de la personne (biométrie vocale) et les données sont rattachées à chaque profil. S’agissant de données biométriques, elles sont qualifiées de sensibles au sens du RGPD et ne peuvent être traitées que sur la base d’un consentement explicite.
En cas d’utilisation des données pour une finalité autre que celles spécifiées dans les conditions d’utilisation de ces services, les sociétés peuvent voir leur responsabilité engagée pour détournement de finalité. La CNIL a récemment mis en demeure des sociétés des groupes Humanis et Malakoff-Médéric de cesser d’utiliser pour de la prospection commerciale des données personnelles collectées exclusivement afin de payer les allocations retraite.
Avec l’entrée en application du RGPD, les amendes administratives pour violation des principes de base d’un traitement, y compris les conditions applicables au consentement, peuvent atteindre vingt millions d’euros ou jusqu’à 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent (le montant le plus élevé étant retenu).
L’autorité de protection des données allemande a justement ouvert une procédure d’enquête en août dernier enjoignant Google de cesser ses analyses des enregistrements pour une durée de 3 mois dans l’Union européenne.
Les détenteurs de ces assistants peuvent tout d’abord exercer leurs droits d’accès à leurs données à caractère personnel pour savoir quelles écoutes ont été faites, et ensuite en demander la suppression. En attendant que des sanctions soient prises, les conseils de la CNIL sont les suivants :
Privilégier l’utilisation d’enceintes équipées d’un bouton de désactivation du microphone.
Couper le micro/éteindre/débrancher l’appareil lorsque vous ne souhaitez pas être écouté. Certains dispositifs n’ont pas de bouton on/off et doivent être débranchés.
Avertir les tiers/invités de l’enregistrement potentiel des conversations (ou couper le micro lorsqu’il y a des invités).
Encadrer les interactions des enfants avec ce type d’appareils (rester dans la pièce, éteindre le dispositif lorsqu’on n’est pas avec eux).
Vérifier qu’il est bien réglé par défaut pour filtrer les informations à destination des enfants.
Enfin, si vous possédez l’appareil Alexa d’Amazon, il est possible de désactiver l’option d’enregistrement dans : Paramètres > Alexa et vos informations personnelles > Gérer comment vos données contribuent à améliorer Alexa > Contribuer à améliorer les services Amazon et à développer de nouvelles fonctionnalités.
Google, Apple, Facebook, Amazon, Microsoft… ces firmes ont récemment reconnu avoir écouté des conversations d’utilisateurs à partir d’enceintes connectées ou de smartphones dans le but d’améliorer les performances de leurs systèmes.
Nichés dans nos téléphones, enceintes et autres objets connectés… les assistants vocaux envahissent notre vie quotidienne. Leur rôle, répondre à des requêtes et exécuter des actions comme l’envoi d’un message, le lancement d’une musique, une recherche sur internet… Faciliter la vie de tout un chacun, en somme.
Mais un nuage vient ternir l’horizon : nos requêtes, nos questions, mais aussi nos conversations privées peuvent être stockées et écoutées. Alors, comment s’en prémunir ?
Les enceintes connectées sont « en veille permanente » et peuvent « s’activer et enregistrer inopinément une conversation dès lors qu’elle[s] croi[en]t détecter le mot-clé » qui la déclenche, rappelle la Commission nationale de l’informatique et des libertés (CNIL) dans un guide en ligne publié en 2018.
L’autorité administrative prodigue quelques conseils pour protéger la vie privée des utilisateurs : privilégier les enceintes « équipées d’un bouton de désactivation du microphone » afin de pouvoir « couper le micro » ou « débrancher l’appareil » lorsque l’on ne souhaite pas être écouté, supprimer régulièrement « l’historique des conversations/questions posées » ou encore « avertir des tiers de l’enregistrement potentiel des conversations ».
Malgré toutes ces précautions, « le simple fait d’avoir une enceinte connectée comporte un danger sur l’utilisation des extraits vocaux », met en garde Martin Drago, juriste à la Quadrature du net. Aroua Biri, experte en cybersécurité, file la métaphore : « l’enceinte connectée, c’est une personne qui peut nous écouter du matin au soir. Ce que l’on dit en sa présence doit pouvoir être dit devant une assemblée ».
Outre l’utilisation des données par les entreprises, la menace d’un piratage plane. « Imaginez si un hacker s’emparait des conversations… », lance Aroua Biri. La solution serait d’« éviter de placer ces appareils dans des espaces d’intimité et de limiter leur usage à un moment dans la journée par exemple ».
Le risque est aussi présent avec les smartphones, qui peuvent également être équipés d’assistants vocaux. Les plus connus : Siri pour Apple, et Google Assistant chez Google. Pour éviter tout enregistrement, il faut tout simplement désactiver lesdits assistants. Mais si l’utilisateur souhaite s’en servir avec plus de contrôle, il est possible de désactiver la fonction de mise en route vocale. Les fameux « Dis Siri » ou « Ok Google ». En clair, l’assistant devra être activé manuellement par l’utilisateur à chaque requête, ce qui ralentit quelque peu le procédé.
Par ailleurs, Google a mis en place l’outil « Mon activité » afin de permettre aux utilisateurs de connaître leurs données enregistrées, dont l’historique des commandes vocales effectuées. Il est possible d’y désactiver l’« activité vocale et audio ».
Dernière révélation en date : Facebook a reconnu avoir fait écouter et transcrire des conversations vocales privées tenues sur son application Messenger. Le réseau social explique que les utilisateurs avaient donné leur accord. Aroua Biri déplore le fait que « beaucoup de gens téléchargent sans regarder les droits qu’ils accordent aux applications ». Dans le cadre de Messenger, explique-t-elle, il est possible d’utiliser l’application sans avoir à accorder la permission d’activer le microphone.
Pour limiter les risques, cette « culture de la vérification » serait donc une condition nécessaire. Mais pas forcément suffisante : « quand Facebook demandait à l’utilisateur de consentir à l’utilisation de son micro sur Messenger, personne ne savait que derrière, il allait y avoir des humains qui allaient écouter les conversations », regrette Martin Drago.
Oubliée la réclame à la papa ! Désormais digitalisée, la pub se veut intelligente et personnalisée. Mais elle est aussi de plus en plus intrusive…
Vous allez fêter votre anniversaire cet été et, voilà que sur votre fil d’actualité Facebook, on vous propose d’acheter un tee-shirt où est inscrit «Les meilleurs sont nés en juillet». Vous consultez régulièrement des sites de recettes italiennes et une publicité apparaît sur votre écran, vantant un tablier de cuisine où s’affiche le slogan «Les filles aiment les garçons qui aiment les pâtes». Comme des centaines de milliers d’internautes, vous venez d’être la proie d’une publicité ciblée qui a utilisé vos données personnelles. Car les réseaux sociaux, mais aussi la plupart des sites Internet que vous fréquentez, savent beaucoup de choses sur vous et ne se privent pas de vendre à leurs clients des informations sociologiques ou géographiques vous concernant. Un marché colossal puisqu’en 2019, selon Cisco, le marché de la publicité digitale (Internet et téléphonie mobile) devrait dépasser les 200 milliards d’euros dans le monde. En France, la publicité en ligne a atteint le chiffre d’affaires record de 4,9 milliards d’euros en 2018. Et pour la première fois, le digital est passé devant la télévision.
«Une bonne publicité, c’est le bon message livré à la bonne personne au bon moment.» La traditionnelle formule n’a jamais été aussi pertinente qu’à l’heure de la révolution numérique, qui permet un ciblage des consommateurs toujours plus précis. Entré en vigueur le 25 mai 2018, le règlement général sur la protection des données (le RGPD) n’a pas entamé ce marché en pleine croissance. Pour le respecter, les sites sont certes obligés de demander l’autorisation aux internautes pour utiliser leurs données, mais cela ne semble pas ralentir le business, car l’immense majorité clique sur le bouton «accepter». Certains internautes ressentent même les pubs ciblées comme moins agaçantes que les publicités classiques, car elles correspondent à leurs envies du moment. Pour toutes ces bannières publicitaires, l’élément central est le cookie.
Des pubs de plus en plus précises
On peut le définir comme un ensemble d’informations textuelles enregistrées sur le navigateur de votre ordinateur après la visite d’un site Internet. A chaque fois que l’on revient sur cette page, l’information est transmise par l’ordinateur au serveur Web qui vous identifie immédiatement. Les cookies basiques, dits «internes», ne sont utilisés que par le site Web que vous avez visité. Mais, très souvent, ces sites partagent ces petits intrus avec des régies publicitaires, qui peuvent ainsi cibler leurs publicités à partir de plusieurs adresses Internet. Grâce à un simple cookie, votre profil d’internaute se précise et les publicités qui s’afficheront sur votre écran correspondront de mieux en mieux à vos données sociologiques et à vos habitudes de consommation. C’est la raison pour laquelle vous recevez des publicités de clubs de vacances en Croatie si vous vous êtes renseigné sur les hébergements de ce pays ou que des messages vous incitent à revenir sur un site d’e-commerce que vous avez récemment consulté.
Encore plus précis, le geo-targeting permet aux annonceurs de cibler leurs clients potentiels en leur proposant des publicités pour des produits ou des services se trouvant à proximité de leur position géographique. Vous êtes au fin fond de l’Aveyron et, comme par hasard, une fenêtre s’affiche sur votre navigateur avec une publicité pour le supermarché situé à 2 kilomètres. Et ce n’est rien à côté de ce qui vous attend : votre téléviseur va, à son tour, bientôt diffuser des publicités adaptées à votre profil. TF1, France Télévisions ou BFM demandent une réforme de l’audiovisuel pour tenter de contrer l’influence grandissante du Net qui fait chuter leur chiffre d’affaires. En janvier 2018, un test grandeur nature a été réalisé par France Télévisions : les habitants de la région du Mans ont reçu une page de publicité spécifique pour l’assureur Thélem sur le signal TNT de France 2 et de France 4. Techniquement, tout est déjà au point et votre box Internet regorge d’informations personnelles que les annonceurs vont s’arracher.
Mais les nouvelles technologies sont jugées de plus en plus intrusives par les consommateurs. Les millennials seraient devenus totalement «adlergics» et ont massivement recours à des logiciels bloqueurs de publicité quand ils sont sur Internet. Dernière polémique en date, les panneaux publicitaires équipés de systèmes de mesure d’audience installés dans le métro parisien ainsi qu’à Toulouse. Sur ces panneaux, des capteurs scannent les ondes Wi-Fi et Bluetooth des smartphones qui passent à proximité afin de mesurer l’audience. Les données recueillies sont anonymes, mais elles permettront de savoir, par exemple, que des personnes qui ont vu une publicité sur un panneau se sont ensuite rendues dans une boutique si elle est équipée du même dispositif… Mais ce qui n’est pas du goût de certains usagers, c’est que, par défaut, tout le monde est enregistré et qu’il faut aller sur le site du prestataire (l’agence Retency) pour signaler qu’on ne veut pas que notre portable soit tracé… Ce qui oblige à communiquer ses données personnelles.
La publicité ciblée mode d’emploi
Un cookie est intégré dans un site Internet appelé A par les administrateurs de cette adresse.
Lorsque l’internaute visite ce site, le cookie se télécharge directement sur son navigateur.
L’internaute continue de surfer et part vers d’autres sites.
Sur ces autres sites, le cookie est analysé et détecte la visite préalable sur le site A.
Des bannières de publicité s’affichent alors sur l’écran de l’internaute pour l’inciter à retourner vers le site A.
Une fuite de documents à la Maison-Blanche la semaine passée aurait révélé que le président américain Donald Trump serait en train de rédiger un décret visant à réglementer la censure des médias sociaux en ligne. Le projet de loi confierait à la FTC et à la FCC, la surveillance des échanges en ligne sur les plateformes de médias sociaux, les forums, etc. Le décret en question donnerait aux organismes fédéraux, le pouvoir de choisir quel type de données seraient acceptable ou non sur Internet. Pour beaucoup, ce projet témoigne de l’aversion profonde de Donald Trump pour les médias sociaux.
Ces derniers mois, le président américain Donald Trump n’a pas cessé de rappeler combien de fois il trouve que les médias sociaux deviennent de plus dangereux pour l’homme et la façon dont ils influent négativement sur le comportement humain. Cela a encore été le cas la semaine passée lorsqu’il s’est prononcé sur les fusillades dans les villes d’El Paso, au Texas, et Dayton, dans la l’Ohio. « Les dangers d'Internet et des médias sociaux ne peuvent être ignorés et ne seront pas ignorés. La haine n'a pas sa place en Amérique », avait-il déclaré. Il a invité les agences de réglementation de l’État et les médias sociaux à collaborer.
« Nous devons identifier et agir plus efficacement sur les signes avant-coureurs. Je demande au ministère de la Justice de travailler en partenariat avec les agences étatiques et fédérales locales, ainsi que les sociétés de médias sociaux, pour développer des outils qui vont permettre de détecter les tireurs de masse avant qu'ils ne frappent », avait-il déclaré dans son discours de la semaine passée. À en croire ces événements, l’on peut être amené à dire que Trump nourrit un sentiment d’exécration très forte à l’égard des plateformes de médias sociaux et des communautés en lignes.
Selon le média américain CNN, un résumé du décret montre que Donald Trump appelle la FCC à élaborer de nouvelles réglementations. Ces réglementations vont préciser comment et quand la loi peut protéger les sites de médias sociaux lorsqu'ils décident de poster ou de supprimer du contenu sur leurs plateformes.
Selon des groupes de défense de liberté d’expression, cela donnerait à ces agences fédérales un contrôle sans précédent sur la manière dont les plateformes Internet modéreraient les posts en ligne. Le décret leur permettrait de révoquer les protections essentielles énoncées par le Congrès à la section 230 de la loi sur la décence des communications.
En effet, la CDA 230 (Communications Decency Act 230) est la loi fondamentale qui permet aux plateformes en ligne de permettre aux utilisateurs de publier leur propre contenu et de prendre des décisions de base concernant les types de contenu qu’elles souhaitent héberger en tant qu’entités privées. Tous les contenus publiés par les utilisateurs sur Internet ont été rendus possibles grâce à cette protection essentielle de la liberté d’expression.
Ainsi, si le décret venait à être appliquée, elle refléterait une escalade significative du président Trump dans ses attaques fréquentes contre les sociétés de médias sociaux pour un préjugé systémique prétendu, mais non prouvées à l'encontre de conservateurs de la part de plateformes technologiques.
Cela pourrait aussi donner lieu à une réinterprétation importante d'une loi (CDA 230) qui, selon ses auteurs, était censée donner aux entreprises de haute technologie la plus grande liberté pour gérer le contenu à leur guise. Ce qui signifierait que n'importe quel parti politique au pouvoir pourrait dicter quel discours est autorisé sur Internet. Selon l’association Fight For The Future, l’administration prétend vouloir empêcher les entreprises privées de faire taire le discours, mais ce plan créerait de nouveaux pouvoirs terrifiants de censure en faveur du gouvernement et pour les agences étatiques de réglementation.
Le média CNN a informé que le résumé du projet de loi qu’il a pu consulter porte actuellement le titre « Protéger les Américains de la censure en ligne ». La FTC serait la grande bénéficiaire des avantages de ce décret. Elle va travailler avec la FCC pour élaborer un rapport d’enquête sur la manière dont les entreprises technologiques gèrent leurs plateformes et vérifier si elles le font de manière neutre.
Le résumé indique aussi que les entreprises dont la base d'utilisateurs mensuels représente au moins un huitième de la population américaine pourraient se retrouver confrontées à un examen minutieux. En gros, le décret de l’administration Trump cherche à restreindre considérablement les protections accordées aux entreprises en vertu de la directive CDA 230. Trump a-t-il à l’idée que cette loi accorde trop de protection aux médias sociaux ?
Cette loi aurait déjà été fermement condamné par le Premier amendement et des experts de la liberté de parole issus de tous les horizons politiques. « Peu importe votre politique, peu importe ce que vous pensez du président, c'est une idée terrible qui aura l'effet exactement opposé à celui de son objectif déclaré de protéger la liberté d'expression », a déclaré l’association Fight For The Future. D’après cette dernière, la Maison-Blanche et son administration actuelle ne sont pas les seules à promouvoir cette idée erronée. Certains grands démocrates ont également appelé à affaiblir la CDA 230.
En Europe également, des lois sur la censure continuent de nourrir les assises des députés. Au sein de l’UE, en début d’année, les négociations sur la réforme européenne sur le droit d’auteur avaient été interrompues après que les gouvernements des États membres n’ont pas réussi à adopter une position commune sur l’article 13, qui vise à obliger les plateformes d’Internet à installer des machines de censure qui filtrent automatiquement les contenus mis en ligne par leurs utilisateurs. Finalement, en février, la France et l'Allemagne ont trouvé un accord et les négociations sur la directive Copyright ont repris.
Pour rappel, l’article 13 vise à instaurer le filtrage automatique des contenus mis en ligne, puisque ce sont des algorithmes qui devraient juger quel contenu a le droit d'apparaître sur Internet. Néanmoins, notons que beaucoup condamnent ces propositions de loi, en les traitant d’horribles. « Je parie que de nombreux conservateurs se retournent dans leur tombe en écoutant toutes ces grandes approches du gouvernement. Leur proposition aujourd'hui ne constitue rien de moins qu'un discours policier », a déclaré le sénateur Ron Wyden (D-Ore) dans une interview accordée à CNN.
La voix, nouvelle empreinte digitale ? D'après le Wall Street Journal, certaines banques et même le corps médical ont littéralement trouvé leur voie : utiliser la voix de chacun pour mieux les identifier.
Dans le domaine de la biométrie, on rivalise de moyens pour identifier tout un chacun. Depuis quelques années déjà, nos doigts sont un sésame pour déverrouiller nos téléphones. Souriez, vous devez payer : on peut également régler une transaction désormais avec son visage. Marchez ? Vous êtes identifié ! La prochaine rivale de l’empreinte digitale - considérée comme infaillible - est peut-être la voix, selon le Wall Street Journal. « On sait depuis des siècles que la voix porte en elle quantité d’informations. Grâce à l’intelligence artificielle, on peut soutirer ces informations », déclare au journal Rita Singh, chercheuse spécialisée en apprentissage machine appliqué à la voix, à la Carnegie Mellon University. Il y a quelques mois, toujours au même journal, l’universitaire avait précisé que « la voix humaine contient des informations, liées à nos caractéristiques physiques, physiologiques, démographiques, médicales, et environnementales ». Utile pour le profilage en tout genre.
Dans les faits, la chercheuse essaie de transformer chaque voix en un code-barres unique à chacun. Pour ce faire, Rita Singh distingue une douzaine de caractéristiques vocales. Avoir la voix rauque ou des trémolos dans la voix, par exemple, mais aussi la résonance sont autant d’indices pour identifier un individu. La manière dont on pose sa voix ou dont on échoue à se faire entendre dans une salle peuplée d’autres individus pourrait trahir plus qu’une timidité en public. On pourrait aller jusqu’à en déduire son physique. Selon l’universitaire, dans une enquête policière, l’audio serait tout aussi utile que la voix. Une affirmation qui est loin d’être farfelue quand on voit que son travail serait soutenu financièrement par le département américain de la Sécurité intérieure.
« Ma voix est mon mot de passe »
Les entreprises auraient déjà recours à la voix pour prévenir les fraudes. Les banques, notamment. HSBC est ainsi la première banque à avoir mis en place un système de reconnaissance vocale pour ses clients. Quelque 15 millions de clients peuvent accéder en Grande-Bretagne à leurs comptes d’un simple « bonjour », même avec un rhume, s’amusait en 2016 le Guardian. En réalité, le client doit dire « my voice is my password » (« ma voix est mon mot de passe ») pour s’identifier. Quelques mois plus tard, un journaliste de la BBC pointe une première défaillance du système : il demande alors à son jumeau de tenter d’accéder à son compte, ce qu’il réussit à faire… après 7 tentatives. La banque déclare avoir depuis rectifié le tir et a annoncé en avril dernier avoir évité pour 300 millions de livres sterling (325 millions d’euros) de fraudes. Au WSJ, Daniel Capozzi, un des porte-paroles de Discover Financial Services - une entreprise américaine spécialisée dans les cartes de crédit - explique avoir réduit les fraudes de 10 % depuis que la société a recours à un système d’analyse vocale.
La médecine a aussi recours à ces mêmes technologies, notamment pour détecter certaines maladies dégénératives, telles que la maladie de Parkinson, ou tester l’efficacité d’un traitement contre la dépression. C’est ce que propose la société Sonde Health, qui analyse le rythme, le timbre et la clarté d’une voix pour identifier de possibles souffrances psychologiques. Une démarche qui se rapproche de celle de l’entreprise canadienne WinterLight Labs qui utilise la voix pour étudier les effets de l’âge sur les individus. Dis-moi comment tu parles, et je te dirai qui tu es, et qui tu deviendras ?
Microsoft clarifie l'écoute humaine d'enregistrements audio de Cortana et pour Skype avec son service de traduction. Une clarification mais pas d'interruption.
Comme Amazon, Apple, Google et plus récemment Facebook, Microsoft a aussi été épinglé pour des écoutes par des sous-traitants humains d'enregistrements audio de Cortana ou encore avec le service de traduction de Skype.
Il est surtout reproché à toutes ces entreprises technologiques le fait qu'elles n'ont pas spécifié de manière claire que des humains pouvaient ainsi être à l'écoute.
Afin de contribuer à l'amélioration de systèmes d'intelligence artificielle, une collecte et l'utilisation de certaines données vocales n'étaient pas cachées, et avec une possibilité de contrôle de l'utilisateur. Sauf qu'il n'était pas fait mention de manière explicite du recours à des sous-traitants à oreille humaine.
Chacun à leur manière, Amazon, Apple, Google et Facebook ont déjà réagi à la suite des révélations. Des justifications, mais aussi une mise en pause de ce " système d'écoute " pour Apple, Google et Facebook, tandis qu'Amazon propose de nouvelles options et améliore son information sur le sujet.
Microsoft ne fait pas de pause, mais a mis à jour sa politique en matière de confidentialité afin de la clarifier. Que ce soit pour Cortana ou pour le service de traduction sur Skype, on peut désormais lire une même tournure de phrase. C'est le deuxième paragraphe ci-dessous qui est nouveau :
" Lorsque vous parlez à Cortana ou à d'autres applications utilisant des services vocaux Microsoft, Microsoft enregistre une copie de vos enregistrements vocaux (à savoir, vos données vocales) pour aider nos moteurs de reconnaissance à mieux vous comprendre et optimiser votre expérience avec d"autres services de reconnaissance vocale personnalisés qui vous aideront à trouver ce que vous recherchez.
Cela peut inclure la transcription des enregistrements audio par des employés et fournisseurs Microsoft, sous réserve des procédures conçues pour hiérarchiser la confidentialité des utilisateurs, y compris les étapes de désidentification des données, nécessitant des contrats de non-divulgation avec les fournisseurs et leurs employés, et demandant aux fournisseurs de respecter les strictes normes de confidentialité définies dans la législation européenne et ailleurs. "
Microsoft propose un outil pour le contrôle de la confidentialité. À Motherboard, un porte-parole du groupe de Redmond a indiqué : " Nous avons mis à jour notre déclaration de confidentialité et nos foires aux questions (FAQ) sur nos produits afin de les rendre plus claires. Nous continuerons d'examiner d'autres mesures que nous pourrions prendre. "
Un décret du gouvernement a officialisé le développement d’une application mobile d’authentification d’identité. Baptisée «AliceM», elle fait appel à un dispositif de reconnaissance faciale. Certaines associations s’inquiètent.
Tous les jours ou presque, des articles sont publiés sur les abus liés à la reconnaissance faciale. Aux États-Unis, elle aide la police à surveiller la frontière mexicaine alors qu’en Chine, elle permet au pouvoir en place de surveiller sa population. En France, le gouvernement souhaite se servir de cette technologie via une application mobile pour authentifier l’identité des citoyens. L’utilisation d’un tel dispositif, très décrié, provoque déjà des levées de boucliers.
● Qu’est-ce que l’AliceM?
AliceM est une application mobile, pour le moment uniquement disponible sur Android. Acronyme d’«Authentification en ligne certifiée sur mobile», elle est actuellement en phase de test. Bientôt, elle permettra de s’identifier grâce à son smartphone pour accéder depuis son mobile aux sites de certains services publics regroupés dans le portail d’accès FranceConnect comme celui des impôts ou celui de l’Assurance maladie.
Cela fait plusieurs années que le ministère de l’Intérieur, à l’origine du projet, travaille sur AliceM et d’autres produits similaires, sans grand succès. En 2012, la création d’une base de données biométriques avec l’appui de l’Agence nationale des titres sécurisés (ANTS) avait été avortée par le Conseil Constitutionnel qui avait jugé le projet anticonstitutionnel. En septembre 2017, l’actuel locataire de la place Beauvau, Christophe Castaner, évoquait dans une feuille de route sa volonté de «se positionner comme maître d’œuvre de l’élaboration de solutions d’identité numérique», note Le Monde. Le ministre a par ailleurs fait savoir cette année qu’il souhaitait que tous les Français puissent prouver leur identité en ligne d’ici 2020, notamment par AliceM qu’il qualifie dans un rapport sur la cybermenace d’«un des prémices d’une politique publique de l’identité numérique». AliceM a finalement été mis en place via un décret publié le 13 mai dernier. Son principe est simple: elle demande à ses utilisateurs de prouver leur identité en prenant en photo leur passeport ou titre de séjour biométrique mais aussi, via un «système de reconnaissance faciale statique (via une photo) et dynamique (via une vidéo où il faut faire des gestes et des mouvements de tête)».
● Pourquoi ce projet inquiète certaines associations?
Le 15 juillet dernier, ce décret publié le 13 mai dernier a été contesté par une association de défense des libertés numériques, La Quadrature du Net. Cette dernière a déposé un recours au Conseil d’État pour le faire annuler. Elle s’insurge contre le fait que l’utilisateur n’ait pas la liberté de choisir de passer outre le dispositif de reconnaissance faciale pour avoir accès à plusieurs services publics dématérialisés via AliceM. L’association reproche à l’État de ne pas respecter le RGPD (Règlement général sur la protection des données personnelles). Lequel stipule que quand il s’agit d’utilisation de données personnelles, «le consentement ne devrait pas être considéré comme ayant été donné librement si la personne concernée ne dispose pas d’une véritable liberté de choix». La Quadrature du Net s’appuie aussi sur un avis de la CNIL (Commission nationale de l’informatique et des libertés) rendu le 18 octobre dernier sur le projet du gouvernement. «Le gouvernement ne propose pas, en l’occurrence, d’alternative à la reconnaissance faciale pour créer une identité numérique (...) Au regard de ces principes, le consentement ne peut être regardé comme libre et comme étant par suite susceptible de lever l’interdiction posée par le RGPD» explique-t-elle.
La Commission propose de mettre en place des solutions alternatives à la reconnaissance faciale pour garantir un consentement libre comme un face-à-face en préfecture ou un appel vidéo avec un agent de l’ANTS. Des solutions qui n’ont pas été retenues par le gouvernement dans son décret. «Le plus inquiétant dans cette procédure, c’est que nous constatons une perte de pouvoir de la CNIL. Si même le gouvernement ne l’écoute plus, qui va le faire?» s’interroge Martin Drago, juriste au sein de la Quadrature du Net, contacté par Le Figaro. «Proposer des alternatives, c’est le minimum» explique-t-il. L’expert regrette l’absence de prise de conscience de l’opinion et des pouvoirs publics sur le sujet de la reconnaissance faciale alors que déjà plusieurs villes, notamment aux États-Unis, ont décidé de bannir cette technologie.
Même si leurs données ont été anonymisées, 83% des Américains peuvent être ré-identifiés à partir de leur genre, de leur date de naissance et de leur code postal, selon une nouvelle étude.
Les données sont devenues la clef de voûte de l’économie moderne. Essentielles pour les progrès médicaux comme la lutte contre le cancer, elles sont aussi utilisées dans le domaine du ciblage publicitaire. Mais assez souvent, surtout dans le secteur de la santé, les données sensibles sont anonymisées avant de pouvoir être partagées ou vendues. C’est ce qu’on appelle la dé-identification : on retire de la base de données les informations permettant d’identifier facilement une personne. Par exemple, les hôpitaux effacent les noms des patients, leurs adresses, leurs dates de naissance, et peuvent intégrer de fausses valeurs.
Mais toutes ces précautions pour protéger l’anonymat sont vaines, affirment des chercheurs de l’Université catholique de Louvain et de l’Imperial College de Londres, dans une étude publiée dans Nature le 23 juillet. Ils ne sont pas les premiers à exposer les failles de l’anonymisation des données, déjà mises en avant dans des études de l’Université de Princeton (2014), de Cornell (2017) ou encore dans une enquête du Guardian (2017). Mais cette fois-ci, les chercheurs ont évalué la probabilité exacte d’identifier une personne à partir d’un ensemble de données dites « anonymisées ». Ils ont pour cela développé un algorithme de machine learning, capable d'identifier quels critères peuvent rendre une personne unique dans un groupe donné.
Processus de réidentification
L'algorithme expliqué par les chercheurs / Université catholique de Louvain et Imperial College de Londres
Selon eux, 83% des Américains peuvent être ré-identifiés à partir des trois critères que sont le genre, la date de naissance et le code postal. Et ce chiffre monte à 99,98% à partir de 15 critères démographiques (âge, genre, lieu, métier, etc.). « Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi eux, beaucoup moins sont également nés le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien », explique un des chercheurs dans un communiqué de presse. Or, de telles informations sont souvent demandées par les entreprises pour cibler leurs publicités.
Les chercheurs ont mis en ligne le code source de leur algorithme afin de pouvoir reproduire l’expérience. Leur site permet également de calculer, grâce à ce modèle, la probabilité pour un individu d’être identifié en fonction de sa date de naissance, de son genre et de son code postal.
L’impuissance du RGPD
Afin de mieux encadrer l’utilisation des données, l’Union européenne a adopté le Règlement général européen pour la protection des données (RGPD), entré en vigueur en France le 25 mai 2018. Une solution pourtant insuffisante, selon les chercheurs : « Une donnée anonymisée n’est plus considérée comme donnée personnelle et échappe aux régimes de protection des données comme le RGPD ». Avant d’ajouter : « Nos résultats remettent en question la comptabilité des standards d’anonymisation avec les lois de protection des données telles que le RGPD ».
L'entreprise Experian vend des bases de données contenant 248 attributs par personne
L’étude pointe également du doigt certaines pratiques du courtier en données Experian, qui achète et revend des données dans un but commercial. Même si l’entreprise met en vente des bases de données dites « anonymisées », celles-ci contiennent jusqu’à 248 caractéristiques par foyer, permettant donc d’identifier très facilement chaque individu. Selon les chercheurs, 120 millions d’Américains seraient concernés.
Vers plus de contrôle
Les chercheurs encouragent donc les législateurs à agir pour ne pas avoir à revivre des scandales comme celui ayant touché Facebook en 2018. À l'époque, l’entreprise Cambridge Analytica avait aspiré les données personnelles de 50 millions d’Américains sur le réseau social, et ainsi permis à Donald Trump de cibler ces profils dans le cadre de la dernière campagne présidentielle américaine.
Mais là où les données sont particulièrement sensibles, c’est dans le domaine de la santé, alors que plus de 26 millions de personnes ont déjà fait un test ADN en vente libre. Le secteur bancaire est également à risque, surtout depuis le lancement du Libra, la cryptomonnaie de Facebook, pour laquelle se pose la question de la délimitation entre données personnelles et données financières.
Un processus de ré-identification expliqué par
Un processus de ré-identification expliqué par les chercheurs / Université catholique de Louvain et l’Imperial College de Londres
Des solutions alternatives existent, mais elles sont pour l'instant insuffisantes, rappelle le New York Times. Il est par exemple possible de contrôler l’accès aux données médicales sensibles, en interdisant la copie de celles-ci, ce qui constitue toutefois une barrière à la recherche scientifique. Un autre moyen pourrait être de crypter ces données, mais si le résultat final d'une étude scientifique cryptée s'avère faux, les chercheurs auront du mal à revenir à la source du problème.
Pour changer la législation, encore faut-il qu’il y ait une prise de conscience. Ce qui n’est pas exactement le cas, selon une étude de la société Norton Lifelock dont nous vous parlions en mars dernier. Si deux tiers des Français se disent préoccupés par la protection de leurs données personnelles, 59% seraient toutefois prêts à vendre ou à donner leurs informations de géolocalisation ou leurs historiques de recherche à des entreprises. Au nom de la gratuité et de l’amélioration du service.
Les organismes qui traitent des données sensibles ont principalement recours à des pratiques de l’anonymisation pour les partager ou les vendre. En théorie, ces techniques, appelées dé-identification, rendent les individus non identifiables. Une fois rendues anonymes, les données ne sont plus considérées comme des données personnelles et échappent aux régimes de protection des données. Mais ces données demeurent-elles non identifiables pour le reste du temps avec les techniques actuelles ? La réponse c’est non, d’après les nouvelles recherches publiées dans la revue Nature Communications.
En effet, des scientifiques de l'Imperial College de Londres et de l'Université Catholique de Louvain, en Belgique ont développé un algorithme de « machine learning » qui prouve qu’il est possible de ré-identifier précisément et facilement les individus au sein de n'importe quelle base de données, même lorsque vos données personnelles ont été supprimées, ont indiqué les responsables de l’université mardi dans un communiqué. Ce qui est encore plus surprenant, c’est que les scientifiques ont affiché le code de leur logiciel en ligne pour que n'importe qui puisse l'utiliser.
Plus l’évolution technologique vous oblige à vous connectés, davantage vous laissez vos données en ligne chaque fois que vous faites une opération, comme commander un repas à emporter, la réservation d’une chambre d’hôtel lors d’un voyage. Mais surtout lorsque les données sensibles comme vos diagnostics médicaux ou votre dossier fiscal se retrouvent en ligne. Cependant, vous ne devriez pas vous inquiéter, car les données d'identification personnelle ont été supprimées, rendant ainsi vos informations « anonymes ».
La pratique actuelle consiste à éliminer les éléments manifestement identifiables tels que les noms, les numéros de téléphone, les adresses électroniques, etc. Les ensembles de données sont également modifiés pour être moins précis, les colonnes des feuilles de calcul sont supprimées et le « bruit » est introduit dans les données, a rapporté MIT Technology Review dans un article publié mardi.
Les politiques de protection de la vie privée nous assurent que cela signifie qu'il n'y a aucun risque que nous puissions être retracés dans la base de données de sorte que dans la plupart des pays du monde, les données anonymes ne sont pas considérées comme des données personnelles, c’est-à-dire, que l'information peut être partagée et vendue sans enfreindre les lois sur la vie privée, selon The New York Times. Les études de marché sont prêtes à payer les courtiers pour un large éventail de données, allant des préférences de datation aux tendances politiques, en passant par les achats des ménages et la diffusion en continu des données favorites.
Cependant, la nouvelle étude suggère que les données « anonymisées » avec les pratiques actuelles sont loin d'être anonymes. Les chercheurs de ces deux universités ont créé un modèle d'apprentissage machine qui estime exactement à quel point il est facile de ré-identifier des individus à partir d'un ensemble de données anonymisées. Ils ont rapporté dans la revue Nature Communications que leur modèle est capable d'identifier 99,98 % des Américains à partir de presque tous les ensembles de données disponibles avec aussi peu que 15 caractéristiques, comme le sexe, le code postal ou l'état civil.
« Au fur et à mesure que l'information s'accumule, les chances que ce ne soit pas vous diminuent très rapidement », a expliqué Yves-Alexandre de Montjoye, chercheur à l'Imperial College de Londres et un des auteurs de l'étude.
Pour parvenir à leur conclusion, les chercheurs ont rassemblé une base de données de 210 ensembles de données différents provenant de cinq sources, dont le recensement américain. Ils ont ensuite introduit ces données dans leur modèle d'apprentissage machine, qui a appris quelles combinaisons sont plus ou moins uniques et lesquelles le sont moins. Et enfin, le modèle attribue la probabilité d'une identification correcte.
Mais ce qui est encore plus surprenant, c’est la décision des scientifiques de publier le code de leur logiciel en ligne pour que n'importe qui puisse y accéder. Habituellement, lorsque les scientifiques découvrent une faille de sécurité, ils alertent le fournisseur ou l'organisme gouvernemental qui héberge les données. Mais ils n’ont pas procédé ainsi, car il y a de nombreuses données anonymes circulent dans le monde entier, et toutes sont en danger, a dit le Dr de Montjoye.
Selon le chercheur, la décision de la divulgation du code a été difficile à prendre. Il s'agissait donc de choisir entre garder ou publier la méthode afin que les fournisseurs de données puissent sécuriser les futurs ensembles de données et empêcher la ré-identification des individus.
« C'est très difficile », a dit le Dr de Montjoye. « Tu dois croiser les doigts que tu l'as bien fait, parce qu'une fois qu'il est là, tu ne le récupéreras jamais ».
Ce n’est la première étude qui montre à quel point il est facile de retrouver des individus à partir de bases de données anonymes. Selon The News York Times, en 2016, des individus ont été identifiés à partir de l'historique de navigation de trois millions d'Allemands, données qui avaient été achetées avec un fournisseur. Aussi, les généticiens ont déjà montré que les individus peuvent être identifiés dans des bases de données génétiques supposées anonymes.
Ces preuves montrent que toutes les pratiques d'anonymisation actuelles ont pris du retard par rapport à notre capacité à les briser
Selon The Times, parmi les moyens habituels de protection de la vie privée, il y a la « dé-identification » des personnes en supprimant des attributs ou en substituant de fausses valeurs, ou en ne divulguant que des fractions d'un ensemble de données rendues anonymes. Mais, d’après Dr de Montjoye, le fait que l'ensemble de données soit incomplet ne protège pas la vie privée des gens. Selon lui, les preuves recueillies jusqu’à présent montrent que toutes les méthodes actuelles sont inadéquates et ont surtout pris du retard par rapport à notre capacité à les briser. « Nous devons aller au-delà de la dé-identification », a-t-il dit, avant d’ajouter que « L'anonymat n'est pas une propriété d'un ensemble de données, mais une propriété de la façon dont vous l'utilisez ».
MIT Technology Review a rapporté que ces méthodes pourraient, par ailleurs, être utilisées à de mauvaises fins. Par exemple, quelqu'un qui cherche à commettre une fraude d'identité ou à obtenir des renseignements à des fins de chantage pourrait se servir de ces moyens.
« Le problème, c'est que nous pensons que lorsque les données ont été rendues anonymes, elles sont sûres. Les organisations et les entreprises nous disent que c'est sans danger, ce qui prouve que ce n'est pas le cas », a dit Dr de Montjoye.
Toutefois, selon The Times, l'équilibre est délicat en la matière, car l'information qui devient totalement anonyme devient également moins utile, en particulier pour les scientifiques qui tentent de reproduire les résultats d'autres études. Mais chaque petite partie qui est conservée dans une base de données rend l'identification des individus plus possible.
Des solutions pour empêcher la re-identification des personnes
Entre autres solutions proposées, il y a le contrôle d’accès aux données sensibles, telles que les dossiers médicaux. Les personnes habilitées devraient accéder à ces données dans une salle sécurisée. Les données peuvent être utilisées mais pas copiées, et tout ce qui est fait avec l'information doit être enregistré, a rapporté The Times. Kamel Gadouche, directeur général d'un centre de données de recherche en France, le CASD, a expliqué que les chercheurs peuvent également accéder à l'information à distance, mais « il y a des exigences très strictes pour la salle où le point d'accès est installé ».
Selon M. Gadouche, le CASD détient des informations sur 66 millions de personnes, y compris des données fiscales et médicales, fournies par les gouvernements et les universités. « Nous ne restreignons pas l'accès », a dit le directeur du centre. « Nous contrôlons l'accès ».
Mais il y a des inconvénients de la méthode du contrôle de l'accès aux données. A titre d’exemple, si un scientifique soumet un article de recherche à une revue, d'autres scientifiques pourraient vouloir confirmer les résultats en utilisant les données d’origine. Mais si l’accès est soumis à un contrôle, la confirmation des résultats sera un véritable défi.
Une autre solution a été rapporté par MIT Technologie Review. Selon Charlie Cabot, directeur de recherche chez Privitar, une firme d'ingénierie en protection de la vie privée, la méthode consiste pour les organisations à utiliser la protection différentielle de la vie privée, un modèle mathématique complexe qui permet aux organisations de partager des données agrégées sur les habitudes des utilisateurs tout en protégeant l'identité d'une personne.
Selon MIT Technologie Review, la technique subira pour la première fois un test majeur l'année prochaine. Elle est déjà utilisée pour sécuriser la base de données du recensement américain, a rapporté le magazine. Mais les organisations rendront-elles vraiment les données personnelles totalement anonymes si en le faisant elles deviennent moins utiles ?
Source : Nature Communication, MIT Technologie Review