Thanks to “data inference” technology, companies know more about you than you disclose.
People concerned about privacy often try to be “careful” online. They stay off social media, or if they’re on it, they post cautiously. They don’t share information about their religious beliefs, personal life, health status or political views. By doing so, they think they are protecting their privacy.
But they are wrong. Because of technological advances and the sheer amount of data now available about billions of other people, discretion no longer suffices to protect your privacy. Computer algorithms and network analyses can now infer, with a sufficiently high degree of accuracy, a wide range of things about you that you may have never disclosed, including your moods, your political beliefs, your sexual orientation and your health.
There is no longer such a thing as individually “opting out” of our privacy-compromised world.
The basic idea of data inference is not new. Magazine subscriber lists have long been purchased by retailers, charities and politicians because they provide useful hints about people’s views. A subscriber to The Wall Street Journal is more likely to be a Republican voter than is a subscriber to The Nation, and so on.
But today’s technology works at a far higher level. Consider an example involving Facebook. In 2017, the newspaper The Australian published an article, based on a leaked document from Facebook, revealing that the company had told advertisers that it could predict when younger users, including teenagers, were feeling “insecure,” “worthless” or otherwise in need of a “confidence boost.” Facebook was apparently able to draw these inferences by monitoring photos, posts and other social media data.
Facebook denied letting advertisers target people based on those characteristics, but it’s almost certainly true that it has that capacity. Indeed, academic researchers demonstrated last year that they were able to predict depression in Facebook users by analyzing their social media data — and they had access to far less data than Facebook does. Even if Facebook does not now market its ability to glean your present or future mental health from your social media activity, the fact that it (and any number of other, less visible actors) can do this should worry you.
It is worth stressing that today’s computational inference does not merely check to see if Facebook users posted phrases like “I’m depressed” or “I feel terrible.” The technology is more sophisticated than that: Machine-learning algorithms are fed huge amounts of data, and the computer program itself categorizes who is more likely to become depressed.
Consider another example. In 2017, academic researchers, armed with data from more than 40,000 Instagram photos, used machine-learning tools to accurately identify signs of depression in a group of 166 Instagram users. Their computer models turned out to be better predictors of depression than humans who were asked to rate whether photos were happy or sad and so forth.
Used for honorable purposes, computational inference can be a wonderful thing. Predicting depression before the onset of clinical symptoms would be a boon for public health, which is why academics are researching these tools; they dream of early screening and prevention.
Editors’ Picks
Does This Dress Make Me Look Guilty?
It’s Not You, It’s Men
The Racial Bias Built Into Photography
But these tools are worrisome, too. Few people posting photos on Instagram are aware that they may be revealing their mental health status to anyone with the right computational power.
Computational inference can also be a tool of social control. The Chinese government, having gathered biometric data on its citizens, is trying to use big dataClose X and artificial intelligenceClose X to single out “threats” to Communist rule, including the country’s Uighurs, a mostly Muslim ethnic group.
[As technology advances, will it continue to blur the lines between public and private? Sign up for Charlie Warzel’s limited-run newsletter to explore what’s at stake and what you can do about it.]
Such tools are already being marketed for use in hiring employees, for detecting shoppers’ moods and predicting criminal behavior. Unless they are properly regulated, in the near future we could be hired, fired, granted or denied insurance, accepted to or rejected from college, rented housing and extended or denied credit based on facts that are inferred about us.
This is worrisome enough when it involves correct inferences. But because computational inference is a statistical technique, it also often gets things wrong — and it is hard, and perhaps impossible, to pinpoint the source of the error, for these algorithms offer little to no insights into how they operate. What happens when someone is denied a job on the basis of an inference that we aren’t even sure is correct?
Another troubling example of inference involves your phone number. It is increasingly an identifier that works like a Social Security number — it is unique to you. Even if you have stayed off Facebook and other social media, your phone number is almost certainly in many other people’s contact lists on their phones. If they use Facebook (or Instagram or WhatsApp), they have been prompted to upload their contacts to help find their “friends,” which many people do.
Once your number surfaces in a few uploads, Facebook can place you in a social network, which helps it infer things about you since we tend to resemble the people in our social set. (Facebook even keeps “shadow” profiles of nonusers and deploys “tracking pixelsClose X” situated all over the web — not just on Facebook — that transmit information about your behavior to the company.)
Sign Up for The Privacy Project Newsletter
As technology advances, will it continue to blur the lines between public and private? Explore what's at stake and what you can do about it.
Last year, an investigation led by Senator Ron Wyden, Democrat of Oregon, revealed that Verizon, T-Mobile, Sprint and AT&T were selling people’s real-time location dataClose X. An investigative report last year by The New York Times and a separate inquiry by the security analyst Will Strafach also showed that weather apps including the Weather Channel, AccuWeather and WeatherBug were selling their users’ location data. This kind of data isn’t useful just for tracking you but also for inferring things about you. What were you doing at a cancer clinic? Why were you leaving the house of a woman who is not your wife at 5 a.m.?
The journalist Kashmir Hill has reported on cases in which Facebook suggested to a psychiatrist’s patients that they were potential “Facebook friends,” suggested that people “friend” the person with whom their spouse was having an affair and outed prostitutes’ real identities to their clients. We don’t want corporations (or governments) to make such connections, let alone exploit this to “grow” their platform.
What is to be done? Designing phones and other devices to be more privacy-protected would be start, and government regulation of the collection and flow of data would help slow things down. But this is not the complete solution. We also need to start passing laws that directly regulate the use of computational inference: What will we allow to be inferred, and under what conditions, and subject to what kinds of accountability, disclosure, controls and penalties for misuse?
Until we have good answers to these questions, you can expect others to continue to know more and more about you — no matter how discreet you may have been.
À l'ère du Big data et de l’intelligence artificielle, les chercheurs du Québec comme ceux du monde entier souhaitent plus que jamais avoir accès aux renseignements personnels de santé des citoyens afin de réaliser des études novatrices en se basant sur des données probantes.
Avoir accès aux données de santé est essentiel pour l’avancement des connaissances et pour le bien commun de notre société.
Or il n’est pas toujours facile de savoir qui a accès à quelles données (dossiers médicaux, hospitalisations, revenus), pour quelles raisons, ni comment celles-ci peuvent faire progresser la science et favoriser le bien commun.
Quand nos données sont comparées à une vraie mine d’or pouvant résoudre tous les maux de notre société, il y a probablement lieu de s’interroger, voire de s’inquiéter des motifs justifiant un engouement aussi important.
Un consentement difficile à obtenir
Au Québec, comme ailleurs dans le monde, les renseignements personnels de santé sont nécessaires pour la surveillance des maladies infectieuses, pour la gestion d’épisodes de soins ou encore pour le développement des connaissances. Lorsqu’il s’agit de recherche, les chercheurs doivent solliciter notre consentement libre et éclairé pour avoir accès à nos renseignements personnels, une étape primordiale qui témoigne du respect accordé aux participants. D’ailleurs, le respect de la personne (de son autonomie et de son autodétermination) constitue le premier des grands principes de l’éthique de la recherche.
Mais que se passe-t-il si vous êtes décédé ou que vous faites partie d’une population si imposante qu’il est impossible de solliciter votre consentement? Dans un tel contexte, le législateur a prévu des exceptions à l’obtention du consentement des personnes de manière à rendre possible la recherche. Par exemple, des instances légales comme la Commission d’accès à l’information du Québec ou le directeur des services professionnels d’un centre hospitalier peuvent, sans consentement, autoriser la communication de renseignements personnels à des fins de recherche.
Pour justifier cette brèche au principe éthique du respect de la personne, il faut démontrer la nécessité de réaliser une telle étude, dans l’intérêt du public, et promettre de protéger la confidentialité des renseignements recueillis. Il faut également conserver les données de manière sécuritaire pendant toute la durée de l’étude et les détruire à son aboutissement.
En cet ère des Facebook et Google, il devient de plus en plus difficile d’obtenir le consentement des personnes et d’imposer des conditions et des limites quant à la conservation des renseignements. La technologie permet désormais d’entreposer des tonnes de renseignements, de les croiser avec d’autres données et de les conserver pendant plusieurs années pour la recherche ou pour d’autres raisons (ex. gains financiers par des entreprises d’informatique, d’assurances ou pharmaceutiques).
Quel bien commun?
Ainsi, que présuppose cette quête de « bien commun »?
Pour les chercheurs du secteur public et des universités, où la recherche est valorisée, le bien commun vise notamment à favoriser le bien-être et la santé des citoyens. Il vise également le maintien d’une société libre et démocratique, où il y a un juste équilibre entre l’intérêt personnel et collectif, en permettant de concilier vie privée et recherche en santé publique.
Mais pour atteindre cet équilibre, des balises sont nécessaires, et face aux récentes dérives d'usages inappropriés des données par des entreprises privées (ex. Cambridge Analytica), la rhétorique aveugle de l’accès ubiquitaire, ou libre accès, aux données personnelles convient de moins en moins, plus particulièrement si la compréhension de la notion de bien commun n’est pas partagée socialement.
Pour mieux saisir l’importance des enjeux liés à la notion de bien commun, prenons l’exemple du dossier médical électronique au Québec, lequel contient plusieurs renseignements personnels de santé.
Ces données sont de plus en plus enregistrées dans les centres de recherche des établissements de santé avec l’autorisation du directeur des services professionnels, mais sans notre consentement. De même, les compagnie privées, qui emmagasinent ces renseignements sur leur serveurs pour les organismes publics, semblent s’en servir à d’autres fins.
Ces renseignements sont exploités pour la recherche et certains gestionnaires de données ne se gênent pas pour les offrir à d’autres chercheurs, les présenter en public (moyennant certains frais) lors de conférences scientifiques, au nom du bien commun.
Si vous faites partie des milliers de personnes qui n’ont jamais consenti à faire partie de ces banques de données publiques ou privées, vous aurez probablement envie d’affirmer haut et fort que vos renseignements de santé ne sont pas à vendre.
Cet exemple illustre qu’il est peut-être venu le temps d’ajouter quelques balises législatives aux lois en vigueur au Québec et ailleurs afin de mieux assurer la protection de la vie privée de la population. À priori, il semble urgent que nous puissions identifier qui (les chercheurs issus des secteurs publics ou privés ou les deux?) devrait avoir accès à nos données personnelles (de santé et d’autres formes) et, socialement, comment concevons-nous le bien commun?
Puisque la protection de la vie privée fait encore partie des valeurs fondamentales de notre société, toute dérogation au consentement de la personne devrait-elle se justifier par la démonstration d’un potentiel réel de contribution au bien commun ou sociétal? Devrions-nous exiger des redditions de compte et plus de transparence de la part de ceux qui détiennent tous ces renseignements en notre nom?
En l’absence d’information facilement accessible à propos des détenteurs de nos renseignements, de qui y a accès et pour quelles raisons et quelles seront les retombées positives attendues pour la société, il semble que ce proverbe africain d’auteur inconnu soit pertinent : « Ce que tu peux faire pour moi, sans moi, tu le fais contre moi ».
Many companies are now offering direct to consumer genetic testing. Which means the police has now access to more DNA data than ever before.
In April 2018, California police finally arrested a man suspected of being the Golden State killer, a mysterious individual accused of having raped and murdered a dozen women in the 1970s and 1980s before vanishing into thin air. The news made headlines, not only because the police had been looking for the serial killer for so long, but also because of how they caught him. They did so by entering his DNA into the genealogy website GEDmatch. They were then able to identify the unknown killer’s relatives who had submitted their DNA to the database on their own. If the use of DNA by the police is not new, it was the first time that DNA collected from consumer genetic testing companies had been used to arrest a suspect.
2018 was, without a doubt, the year when DNA tests really took off and reached a mainstream audience. As many people purchased consumer DNA tests in 2018 as in all previous years combined, according to MIT Technology Review. It is estimated that 26 million people have now taken an at-home ancestry test in the US, and if the market keeps growing at the same pace, this figure could reach 100 million by early 2021. Surging public interest in learning more about ancestry and health, increasing amount of easy to use, affordable services, and intensive campaigns of TV and online marketing from these companies has led to a spectacular surge in popularity for at-home DNA testing.
The human genome was sequenced for the first time in 2003. Since then, the cost of DNA-based technology has been dramatically decreasing, and the number of companies offering direct to consumer genetic testing has skyrocketed. Leading companies in the field include Ancestry, FamilyTreeDNA and 23andMe. These tests use DNA to tell people which geographic area their ancestors are from and to locate family members, including distant cousins. Your genome can also give you some precious information about your health, such as your risk of developing a certain type of cancer.
But besides ancestry and health, there’s a third field in which DNA testing is starting to make a change: chasing criminals. Since the arrest of the alleged Golden State killer, in April 2018, genetic genealogy has helped lead to 24 other suspect identification in the US, according to CeCe Moore, a chief genetic genealogist with Parabon NanoLabs. This DNA technology company has been working with the police to chase criminals using DNA-and-family-tracing techniques. This has proved particularly useful to resolve “cold cases”, these unsolved criminal investigations that remain open, sometimes for years or even decades (two of the cases that Parabon helped crack were more than 30 years old), pending the discovery of new evidence.
The process is simple. The police takes the unknown killer’s DNA from a crime scene and scrolls through the huge, ever-expanding genealogy database of those direct to consumer DNA testing services. They are then (hopefully) able to match the killer’s DNA with some of its relatives and narrow their research. Some direct-to-consumer DNA companies, including AncestryDNA and 23AndMe, do not allow their DNA samples to be directly searched by authorities. However, they do allow users to download their raw data. The police takes this data, and then uploads it to a third-party genealogy database, like GEDmatch, which makes it possible to compare DNA results obtained from different commercial testing companies. They are then able to do their research. But there are also some companies, such as FamilyTreeDNA, that allow law-enforcement agencies to directly access their database.
And not everyone is happy about it. Especially as FamilyTreeDNA hasn’t been totally transparent regarding this process. Users who shared their DNA with the company had no idea that their information would be made accessible to the FBI and other law-enforcement agencies. When Buzzfeed News recently revealed that the company had chosen to do so without consulting customers, it, of course, generated a backlash. The company had to react and make a public statement in which they announced that customers would now have the ability to prevent the police from accessing their information. “Users now have the ability to opt out of matching with DNA relatives whose accounts are flagged as being created to identify the remains of a deceased individual or a perpetrator of a homicide or sexual assault, also referred to as Law Enforcement Matching (LEM),” the company said in an email outlining changes to its terms and conditions for users.
"Our DNA is essentially like a blueprint to ourselves"
But FamilyTreeDNA followed up with a really smart PR move. They released a TV spot where, in order to turn the table on critics, they urged consumers to help them catch criminals, by agreeing to make their DNA available to the police. This TV spot highlights the complexity of the debate. On the one hand, these new tools can prove incredibly useful to catch murderers and improve our safety. But they can also directly threaten our privacy, and civil liberties defenders are now expressing their concerns.
"Our DNA is essentially like a blueprint to ourselves," Vera Eidelman, a staff attorney with the American Civil Liberties Union (ACLU), told ABC News. "DNA can tell us about hereditary diseases potentially, our ancestry... there are already attempts to tie genetic information to personality traits, to mental health, to other predictors of life outcomes. So giving that deeply detailed information over to government investigators is troubling in that it just exposes so much information about ourselves." In the current situation, people may be sharing their genetic information for one specific purpose (finding their distant cousins or getting insights about their health), which information could end up being used for a totally different things (like, catching one of their relatives who broke the law). For now, law enforcement is only using DNA data to catch murderers and rapists, but what if the technology became much more prevalent and the police started using it for all kinds of infractions?
As the market of direct to consumer DNA testing has just recently become mainstream, it is still widely unregulated. But there is no doubt that privacy-related questions will be more and more debated over the last few months, and that regulations will end up being put into place to find a compromise between privacy and security.
our une raison ou une autre, les projets de fichage géant se multiplient à travers le monde. En Inde par exemple, le gouvernement a mis en place une gigantesque base de données biométriques et un système d'identification pour faciliter l'utilisation de ses services par les populations. Présenté à l'origine comme fonctionnant sur la base du volontariat et destiné à fournir à tout Indien une pièce d'identité, le programme baptisé Aadhaar est devenu obligatoire ces dernières années pour un nombre croissant de services comme des subventions publiques, le paiement d'impôts ou l'ouverture d'un compte en banque. Et le gouvernement aimerait l'étendre à bien d'autres opérations courantes.
En France, un système similaire est en train d'être mis en œuvre à travers le fichier des titres électroniques sécurisés (TES). Par un décret publié fin octobre 2016, le gouvernement français s'est vu accordé l'autorisation de créer une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille, etc.) de la quasi-totalité de la population, avec comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.
Au nom des libertés publiques, des organisations et des particuliers ont demandé à la plus haute juridiction administrative la suppression de ce « monstre », généralisé à l’ensemble du territoire en mars 2017 et qui vise à regrouper les informations personnelles des titulaires d’un passeport ou d’une carte d’identité, soit environ 60 millions de Français. Mais en octobre dernier, le Conseil d'État, qui a statué sur la question, a approuvé le fichier TES, estimant que sa création ne constituait pas une « atteinte disproportionnée » au droit des personnes au respect de leur vie privée.
On rencontre ce genre de systèmes en Chine, mais aussi États-Unis, où le Département des douanes et de la protection des frontières (CBP) et le FBI collectent des données biométriques dans le cadre de leurs activités. Au niveau européen, le Parlement vient à son tour de donner son feu vert à la création d'une gigantesque base de données biométriques.
Sur son site officiel, le Parlement européen a effet annoncé l'adoption « de nouvelles mesures visant à améliorer l'échange de données entre les systèmes d'information de l'UE pour gérer les frontières, la sécurité et les migrations ». Et d'ajouter que « les nouvelles règles rendront les systèmes d'information de l'UE utilisés dans la gestion de la sécurité, des frontières et des migrations interopérables, permettant ainsi l'échange de données entre les systèmes. Cela facilitera les tâches des gardes-frontières, des agents des migrations, des policiers et des autorités judiciaires en leur fournissant un accès plus systématique et plus rapide à divers systèmes d'information de l'UE sur la sécurité et le contrôle des frontières. »
Les principaux éléments de la nouvelle législation sont les suivants :
un portail de recherche européen permettant des recherches simultanées dans plusieurs systèmes, plutôt que d'interroger chaque système individuellement ;
un service de données biométriques partagé pour mettre en correspondance les empreintes digitales et les images faciales de plusieurs systèmes ;
un référentiel d’identité commun (en anglais Common identity repository ou CIR) fournissant des informations biographiques telles que les dates de naissance et les numéros de passeport pour une identification plus fiable ;
un détecteur d'identités multiples, détectant si une personne est enregistrée sous plusieurs identités dans différentes bases de données.
« Les systèmes couverts par les nouvelles règles comprendraient le système d'information Schengen, Eurodac, le système d'information sur les visas (VIS) et trois nouveaux systèmes : le système européen de casiers judiciaires des ressortissants de pays tiers (ECRIS-TCN), le système d'entrée/sortie (EES) et le système européen d’information et d’autorisation concernant les voyages (ETIAS) », ont déclaré des responsables de l’UE.
Les nouvelles règles ont été adoptées par le Parlement européen le 16 avril dernier, lors de deux votes séparés. Les règles d'interopérabilité entre les systèmes d'information de l'UE axés sur le contrôle des frontières et les visas ont été adoptées par 511 voix contre 123, avec 9 abstentions. Et la législation sur l'interopérabilité entre les systèmes d'information de l'UE axés sur la coopération policière et judiciaire, l'asile et les migrations a été approuvée par 510 voix contre 130, avec 9 abstentions.
Les nouvelles règles avaient déjà été approuvées par les négociateurs du Parlement et du Conseil en février dernier. Et après l’approbation officielle du Conseil, les États membres disposeront de deux ans pour adopter les nouvelles règles.
Pour les législateurs de l'UE, il s'agit d'améliorer l'échange de données entre les systèmes d'information de l'Union. Ils assurent que ce projet ne cible que les citoyens non membres de l'UE et ont promis que des « garanties appropriées » seront mises en place pour protéger les droits fondamentaux et l'accès aux données. Mais pour les défenseurs de la vie privée, l'UE a atteint un point de non-retour dans la création d'une « base de données centralisée européenne Big Brother ».
Trois principales critiques ont été faites à l'égard de ce projet. D'abord, les législateurs parlent d'« interopérabilité » des systèmes d'information, alors que dans la pratique, il s'agit plutôt de la création d'une base de données européenne centralisée incorporant les bases de données nationales décentralisées existantes et futures.
Ensuite, l'une des utilisations les plus controversées de la base de données centralisée consistera pour la police et les gardes-frontières à utiliser le CIR pour vérifier les identités biométriques et donc les détails biographiques d'une personne faisant l'objet d'une vérification d'identité par des agents. Or, le contrôle d'identité peut et ne sera clairement pas limité aux citoyens de pays tiers. Mais on assistera plutôt à une utilisation généralisée et discriminatoire de ce nouveau pouvoir, d'après Statewatch, une organisation à but non lucratif qui surveille l'État, la justice et les affaires intérieures, la sécurité et les libertés civiles dans l'Union européenne.
En plus, en avril 2018, la Commission européenne a présenté une proposition pour la réglementation des cartes d'identité nationales afin d'inclure de manière obligatoire les données biométriques (empreintes digitales et images faciales) ; laquelle proposition couvrirait plus de 370 millions de citoyens européens. Statewach craint que ces données biométriques soient ajoutées à la base de données centralisée à l'avenir. En résumé, une fois opérationnelle, la base de données centralisée de l'UE pourrait devenir l'un des plus gros systèmes de suivi des citoyens au monde, juste derrière les systèmes utilisés par le gouvernement chinois et le système indien Aadhar.
Guidée vocalement, une enceinte connectée assiste l’utilisateur dans les tâches de son quotidien. Quels enjeux posent cette technologie au regard de la vie privée des utilisateurs ?
Une enceinte connectée « intelligente » est un dispositif équipé d’un haut-parleur et d’un micro qui intègre un assistant vocal. Grâce à cet équipement, l’enceinte est capable d’interagir avec l’utilisateur pour lui délivrer un service suite à une requête vocale. L’assistant est en mesure de répondre à une question, jouer de la musique, donner la météo, régler le chauffage, activer des lumières, réserver un VTC/Taxi, acheter des billets, etc.
Le principe général de fonctionnement se caractérise par 5 grandes étapes :
Etape 1 - L’utilisateur « réveille » l’enceinte à l’aide d’un mot-clé (« Hey Snips » / « Ok Google » / « Hey Alexa »).
L’enceinte est en permanence à l’écoute du mot clé mais n’enregistre rien et ne procède à aucune opération tant qu’elle ne l’a pas entendu.
Etape 2 (optionnelle) - L'utilisateur est reconnu
Certains modèles proposent à l’utilisateur de pré-enregistrer des échantillons de sa voix de manière à lui permettre d’accéder à un service différencié des autres utilisateurs de l’appareil (parents, enfants, invités, etc.). On parle alors de biométrie vocale.
Les données biométriques étant des données sensibles au sens du RGPD, elles ne pourront notamment être traitées dans ce contexte que sur la base du consentement explicite de la personne concernée.
Etape 3 – L’utilisateur énonce sa requête.
Certaines enceintes enregistrent localement les requêtes de l’utilisateur de manière à lui laisser la maîtrise de ses données (ex. une enceinte connectée avec l’assistant vocal de Snips). D’autres en revanche, envoient ces requêtes dans le cloud, autrement dit sur les serveurs de traitement de la société (ex. Amazon Echo, Google Home, etc.). Dans les deux cas, l’appareil (ou ses serveurs) peut être amené à conserver :
- Un historique des requêtes transcrites afin de permettre à la personne de pouvoir les consulter et à l’éditeur d’adapter les fonctionnalités du service.
Etape 4 – La parole prononcée est automatiquement transcrite en texte puis interprétée afin qu’une réponse adaptée soit fournie.
Une phrase de réponse est synthétisée puis jouée sur l’enceinte et/ou une commande est passée (monter les stores, augmenter la température, jouer un morceau de musique, répondre à une question, etc.)
Etape 5 - L’enceinte repasse en « veille»
D’abord déployés sur les téléphones, puis les enceintes ou les casques audio, les assistants à commande vocale s’intègrent progressivement dans l’habitacle de votre véhicule, dans vos équipements ménagers et même dans certaines chambres d’hôtels !
Ainsi, même si « votre parole s’envole », vos requêtes vocales restent enregistrées dans le cloud au même titre que les requêtes écrites que vous effectuez dans certains moteurs de recherche !
Voici 3 points de vigilance qui s’ajoutent aux diverses interrogations auxquelles vous serez peut-être un jour confronté en tant qu’utilisateur :
La confidentialité des échanges
En veille permanente, l’enceinte connectée peut s’activer et enregistrer inopinément une conversation dès lors qu’elle croit détecter le mot-clé. Pour mieux protéger votre vie privée ou éviter ce type de dysfonctionnement, n’hésitez pas à :
Principalement destinées au domicile pour contrôler des objets connectés et des services de divertissement, les appareils dotés d’un assistant à commande vocale se retrouvent au cœur de la vie du foyer. Le profil publicitaire des utilisateurs se trouve donc alimenté par les différentes interactions de l’utilisateur avec l’assistant (par exemple, habitudes de vie : heure lever, réglage du chauffage, goûts culturels, achats passés, centres d’intérêt, etc.).
Nos conseils
- Connecter des services qui présentent réellement une utilité pour vous, tout en considérant les risques à partager des données intimes ou des fonctionnalités sensibles (ouverture porte, alarme…) ;
- Etre vigilant sur le fait que les propos tenus face à l’appareil peuvent enrichir votre profil publicitaire ;
- Ne pas hésiter à contacter les services supports en cas de questions et, le cas échéant, la CNIL.
L’utilisateur échange vocalement avec un assistant connecté sans nécessairement s’appuyer sur un tableau de bord visuel. Sans écran, difficile d’avoir un aperçu des traces enregistrées, ni de juger de la pertinence des suggestions, d’en savoir plus ou d’avoir accès à des réponses provenant d’autres sources.
Notre conseil
Se rendre régulièrement sur le tableau de bord pour supprimer l’historique des conversations/questions posées et personnaliser l’outil selon vos besoins. >Par exemple, définir le moteur de recherche ou la source d’information utilisé par défaut par l’assistant;
La CNIL est en contact avec les différents fabricants afin d’avoir une parfaite compréhension des systèmes déployés. Elle réalise des tests sur certains de ces appareils et mène des réflexions sur les moyens à mettre en œuvre afin de garantir que les utilisateurs sont bien informés des données collectées, des usages qui en sont faits et des moyens à leur disposition pour y accéder, les modifier, les supprimer, etc. Des informations complémentaires sont disponibles sur le site du Laboratoire d’innovation numérique de la CNIL.
Votre enceinte connectée, qu’il s’agisse d’Amazon Echo, de Google Home ou du Homepod d’Apple, n’est pas qu’un gentil petit assistant personnel à domicile, mais aussi un espion potentiel. Car ne l’oubliez jamais : ces appareils sont constamment à l’écoute.
Alors que l’enceinte connectée Google Home, sortie en France en août 2017, s’implante petit à petit dans nos foyers, deux challengers sont débarquées récemment dans l’Hexagone : Amazon Echo, le 13 juin, et le Homepod d’Apple, le 18 juin. Désormais, il est possible de se faire assister chez soi par Google Assistant, Siri ou Alexa, en parlant à une petite boîte bluetooth connectée à Internet et munie de hauts parleurs et de micros, qui lui permettent d’entendre votre voix et d’obéir à vos commandes.
Ces assistants personnels peuvent vous aider à rechercher quelque chose sur le Web sans avoir à utiliser vos mains, lancer de la musique à votre demande, appeler quelqu’un (ou lui envoyer un message) pour vous, lire votre agenda et les bulletins météo, ou encore contrôler les appareils connectés (ampoules, thermostats, caméras, système de sécurité, robot aspirateur…) de votre maison intelligente.
Mais les nombreux bugs et les nombreuses situations (récentes) durant lesquelles ces appareils se sont révélés être des mouchards malgré eux viennent poser, en cette période marquée par le scandale Cambridge Analytica et l’application du RGPD, la question des données collectées et de la protection de notre vie privée. Ces enceintes connectées si pratiques ne seraient-elles finalement que des chevaux de Troie, utilisés par les géants du Web pour tout savoir sur nous, et potentiellement utilisables par des hackers malveillants ?
Bugs et commandes mal comprises
En Mai 2018, dans l’Oregon, près de Portland, Alexa, l’assistant vocal d’Amazon a enregistré, à son insu, la conversation d’un couple américain. Le cylindre d’Amazon Echo a ensuite partagé cette discussion privée mais heureusement anodine, en l’envoyant à un contact - un collègue du mari. Evidemment, nous n’avons pas affaire ici à une machine intelligente, une IA autonome, ni à un piratage, mais à une "simple" erreur d’interprétation de commande vocale. Selon Amazon, “Echo s'est réveillé à cause d'un mot prononcé dans une conversation de fond qui ressemblait à ‘Alexa’”. Puis l’assistant aurait ensuite compris que le couple lui demandait : “envoie un message”. Alexa aurait alors demandé “à qui ?” et entendu le nom du collègue en question... à qui il aurait ensuite envoyé un message vocal. Un “faux positif”, donc, une mauvaise interprétation de 5 commandes différentes, qui fait clairement tâche, même si Amazon soutient qu’il ne s’agit que d’un “cas isolé”. Pour l’instant ?
Autre “bug”, cette fois concernant la version “mini” du Google Home. En octobre 2017, la discrète petite enceinte, au service de son utilisateur, a enregistré, à son insu, pendant plusieurs jours, 24h sur 24, un journaliste qui le testait pour le site Android Report. Raison de cet espionnage : un dysfonctionnement du système d’activation de l’assistant, qui n’avait pas besoin qu’on lui dise “OK Google” pour se déclencher et écouter tout ce qui l’entoure (afin de répondre à d’éventuels ordres). Selon le journaliste, qui a décortiqué la page “mon activité” de son compte Google, la quasi-totalité de ses conversations auraient été transmises à l’entreprise californienne. Google n’a pas traîné face à ce bad buzz, et retiré définitivement l’option responsable de ce “bug”, à savoir un bouton tactile s’activant à la moindre vibration…
A priori, les enceintes connectées d’Amazon, Google et Apple n’écoutent pas nos conversations - sauf si on les appelle, au moyen d’un “OK Google”, d’un “Alexa” ou d’un “Dis, Siri”. Pour que ces mots-clés soient détectés instantanément par ces appareils, les micros sont en permanence en veille, mais quand ils sont en veille, rien n’est transmis au fabricant ni enregistré... en théorie, puisqu’il suffit d’un bug ou d’une faille pour que ces charmantes petites boites rondes se transforment en espionnes domotiques. “Nous avons déjà des assistants vocaux sur nos téléphones. Mais les enceintes connectées sont des objets à demeure, et elles sont de plus en plus puissantes : elles permettent de faire des achats en ligne, de contrôler des éléments de la maison comme l’éclairage, la température… Cela peut vite devenir sensible”, estime Gwendal Le Grand, directeur des technologies et de l’innovation à la CNIL, dans Libération.
Coupez votre micro
La Commission nationale de l'informatique et des libertés a déjà mis en garde les utilisateurs sur les dangers potentiels des enceintes intelligentes pour la vie privée. Dans un “guide” publié en décembre 2017, elle conseille ainsi aux gens de ne pas partager trop de données personnelles avec leurs assistants vocaux, rappelant que “les requêtes vocales sont enregistrées dans le cloud, de la même manière qu’elles le seraient s’il l’utilisateur les tapait au clavier dans certains moteurs de recherche”, et que ces appareils sont en “veille permanente” (et donc susceptibles de nous enregistrer).
La CNIL suggère face à ces risques d’être prudent, notamment en coupant le micro de son enceinte connectée (pour Google Home et Amazon Echo, il y a un bouton physique, mais pour le Homepod d’Apple, il faut désactiver cela via son iPhone ou en disant “Dis, Siri, arrête d’écouter”), ou même de carrément l’éteindre quand elle n’est pas utilisée. Moins pratique pour l’utiliser, certes, mais plus sûr, puisque le risque zéro n’existe jamais… A noter que l’organisme conseille de ne connecter ces assistants à commande vocale qu’à des services qui présentent “réellement une utilité” pour nous, et donc d’éviter de les relier à des données sensibles (par exemple, bancaires dans le cadre d’achats en ligne, ou liées à des fonctionnalités domotiques comme l’ouverture des portes ou l’activation de l’alarme de la maison). La CNIL recommande aussi, l’absence d’écran sur ces appareils ne permettant pas d’avoir un aperçu des données enregistrées, de se rendre régulièrement dans les paramètres de son compte en ligne, afin de supprimer l’historique des conversations et des questions posées à son assistant.
Des données précieuses pour les fabricants
Evidemment, la CNIL rappelle enfin à l’utilisateur d’être “vigilant sur le fait que les propos tenus face à l’appareil peuvent enrichir votre profil publicitaire”. Car il ne faut pas s’y tromper, et ne surtout pas oublier que les géants du Web utilisent les transcriptions de vos requêtes vocales, des métadonnées et les fichiers audios de vos conversations à des fins commerciales. Il s’agit même de leur modèle économique.
Les données, stockées dans le Cloud sans que les fabricants ne communiquent véritablement sur la durée de leur conservation, ne sont pas vendues à des tiers, mais Google, Amazon et Apple les utilisent pour mieux comprendre vos habitudes, et ensuite proposer aux annonceurs des publicités ciblées. Les enceintes ne vous lisent pas encore de pubs, mais il n’y a qu’un pas. Et en attendant, les annonceurs vous retrouvent déjà ailleurs - sur le Web, quand vous surfez depuis un ordinateur ou votre smartphone. Car “si c'est gratuit”... c'est probablement "vous le produit".
Outre le flou entourant le traitement ou non de vos requêtes vocales par des opérateurs humains chargés d’améliorer le système - Google, Apple et Amazon ne communiquent rien sur ce sujet, mais sur le site de La Quadrature du Net, une jeune femme témoigne de l’utilisation par des “transcripteurs” d’enregistrements en provenance de Cortana, l’assistant de Microsoft -, et au-delà de l’utilisation de vos données par les “GAFAM”, subsiste le risque, assez évident, de vous faire pirater. Et ainsi de voir vos appareils devenir de parfaits mouchards, aux mains de personnes malintentionnées.
Le risque du piratage n’est jamais loin
Durant l’été 2017, pile poil quand la Google Home est sortie en France, un expert britannique en cybersécurité, Mark Barnes, a ainsi démontré qu’il était possible d’installer un logiciel espion sur certains modèles d’Amazon Echo (fabriqués avant 2017), en exploitant une faille de l’OS dérivé de Linux utilisé par ces appareils, qui permettait d’ouvrir à distance un invite de commandes, avec privilèges administrateur, afin d’écouter tout alentour.
Pour “hacker” l’Amazon Echo à la base, Mark Barnes a dû trafiquer physiquement l’enceinte, mais cet exemple illustre bien le risque de se faire pirater. Car, explique le chercheur, une fois aux commandes, “on peut faire faire à l’appareil ce que l’on veut”. Et fût-il le rappeler, ces petits boitiers utilisent le Bluetooth, un protocole de communication sans fil pas si difficile que cela à percer (bien que les données qui y transitent soient, assurent les fabricants, chiffrées, et que les géants du Web sont plutôt réactifs en matière de sécurité informatique). A noter également que des techniques existent pour activer et utiliser la commande vocale d’enceintes intelligentes grâce à des ultrasons, inaudibles pour l’homme. Finalement, Barnes rappelle juste, tout comme la CNIL, qu’il existe une façon simple de se prémunir de ce risque : “il suffit de l’éteindre”.
Outre le fait que nos assistants personnels sont des mouchards potentiels placés dans votre salon, et représentent un risque pour notre liberté de choix (en pensant, à terme, à notre place), se pose donc finalement une question simple : est-il possible de faire confiance aux fabricants de ces enceintes, qui garantissent tout chiffrer et ne pas analyser les conversations, prenant notre vie privée “très au sérieux” ? Fin Mars, le New York Times révélait l’existence de brevets déposés par Google et Amazon, censés permettre aux appareils des deux entreprises de détecter, grâce à des algorithmes, des mots-clés comme “amour”, “n’aime pas” ou “acheter”, afin de mieux cibler les utilisateurs… Si les géants du Web assurent que la publicité personnalisée est pour eux secondaire, se méfier de votre enceinte connectée et l’éteindre par précaution (même si cela dégradera un peu votre "expérience utilisateur"), dans cette optique, n’est en rien de la paranoïa, mais juste du bon sens.
Alexa, Google Home, Siri... les assistants vocaux envahissent le quotidien. À quel prix pour vos vies privées?
Si les assistants virtuels n’ont pas encore envahi la totalité du monde des nouvelles technologies, ils ont conquis le CES, salon annuel de la technologie, qui s’est récemment tenu à Las Vegas. Alexa, Google Assistant et d’autres technologies d’assistance diverses et variées ont fait figure de produits incontournables dans cette conférence, animant tondeuses, lave-vaisselles et autres toilettes intelligentes à 7.000 dollars.
100 millions d'Alexa, et moi, et moi, et moi
Amazon et Google ont préparé le terrain de la conférence en rivalisant d’annonces vantant leurs intelligences artificielles respectives. Amazon a dévoilé qu’il avait vendu 100 millions d’appareils Alexa. Quelques jours plus tard, Google a annoncé que son Assistant équiperait bientôt plus d’un milliard d’appareils –ce qui relève peu ou prou de la triche, puisque la grande majorité de ces derniers ne sont pas des enceintes ou des engins spéciaux, mais simplement des téléphones Android.
Astuces de com’ mises à part, il est clair que les deux programmes ont infiltré la vie de millions de personnes, et le CES de 2019 est un avant-goût de l’avenir; un avenir dans lequel la majorité des appareils répondront aux commandes «Alexa», «OK Google», ou aux deux.
Cette invasion de l’espace domestique par l’intelligence artificielle se heurte toutefois à un contre-courant: l’industrie et les citoyennes et citoyens se sensibilisent de plus en plus aux risques liés à la vie privée en ligne. L’avenir sera peut-être fait de lampes parlantes et de fours à notre écoute, comme on a pu en voir au CES; tout dépendra des entreprises. Parviendront-elles à nous convaincre que ces locataires numériques ne nous espionnent pas –ou, à tout le moins, que les renseignements qu’ils recueillent ne nous joueront pas de mauvais tours?
En faisant leur entrée dans ce nouveau monde tapageur, les clientes et clients conscients des problèmes liés à la vie privée auront de plus en plus tendance à poser ces questions: «À quel assistant virtuel est-ce que je peux vraiment faire confiance?» ou «Si je ramène Alexa, Google, Siri, Cortana ou Bixby à la maison, lequel sera le plus gros mouchard?».
Les vœux pieux
Impossible d’y répondre de manière catégorique, mais les premiers indices sont là. Google et Amazon ont rassuré foule et médias un nombre incalculable de fois en affirmant que leurs produits d’intelligence artificielle (assistants virtuels, enceintes connectées) ne nous espionnaient pas. Les deux géants jurent qu’ils se contentent d’enregistrer et de stocker ce que nous disons lors de nos interactions directes avec les appareils –qui se déclenchent lorsque leur mot clé est prononcé («OK Google», «Alexa», etc.).
Le reste du temps, ils écoutent, mais seulement pour détecter ces mots d’activation –et ils ne stockent aucune information, ne les transfèrent vers aucun serveur. Sur la plupart des enceintes intelligentes, il est même possible de désactiver cette fonctionnalité en appuyant sur le bouton du mode silencieux. Les informations enregistrées sont stockées dans votre compte Google ou Alexa, où elles peuvent être consultées et supprimées. En théorie, vous êtes la seule personne à pouvoir y accéder.
Amazon et Google aimeraient vous faire croire à ce scénario simple comme bonjour: leurs assistants ne stockeraient les informations que lorsque vous leur parlez directement, et personne n’aurait accès à ces informations sauf vous. Mais les deux entreprises ont commis de multiples faux pas –et ont donc fait mentir ces vœux pieux.
Les mensonges
Côté Google, on a découvert que certaines anciennes versions de l’enceinte connectée Home Mini étaient presque toujours actives du fait de «pressions fantômes» sur leur bouton du haut; elles écoutaient donc leurs utilisateurs toute la journée, ce qui n’était pas prévu (Google a réglé le problème en retirant l’activation via le bouton du haut). Pour autant que nous sachions, aucune information personnelle n’a fuité –mais l’affaire fut un inquiétant rappel à la réalité: il est effectivement difficile de déterminer si nos assistants n’écoutent que ce qu’ils sont censés écouter.
Côté Amazon, Alexa a connu de multiples déconvenues cette dernière année quant à la protection de la vie privée; certaines furent plus inquiétantes que d’autres. La première affaire fut celle du «rire flippant»: en lieu et place de certaines commandes, des appareils Alexa semblaient entendre «Alexa, rit» et se laissait alors aller à une hilarité spontanée.
So Alexa decided to laugh randomly while I was in the kitchen. Freaked @SnootyJuicer and I out. I thought a kid was laughing behind me. pic.twitter.com/6dblzkiQHp
— CaptHandlebar (@CaptHandlebar) 23 février 2018
La vie privée des utilisateurs et utilisatrices n’a pas été menacée, mais l’affaire a illustré l’imperfection de la protection par commandes vocales. Un cas encore plus étrange a vu un appareil Alexa (équipant une maison remplie de machines intelligentes) enregistrer la conversation privée d’une famille avant de l’envoyer à un contact, sans intervention extérieure visible. Alexa avait en fait mal interprété certaines bribes de conversation, croyant entendre «Alexa», puis «envoyer message», puis le nom d’une personne présente sur la liste de contact.
Alexa a encore fait parler d’elle le mois dernier. Un utilisateur a reçu l’accès aux archives d’enregistrements d’un tiers; Amazon a alors évoqué une erreur humaine. Un scénario crédible, qui ne l’excuse en rien: les erreurs humaines resteront toujours un facteur de risque tant que l’entreprise recueillera des données sensibles non encryptées.
Jeudi 10 janvier, l’Intercept, citant des sources anonymes, révélait que des caméras de sécurité Ring (compatibles avec Alexa) avaient permis à des employés de Ring (et à des tiers) d’accéder à des images filmées par certaines clientes et clients, y compris à l’intérieur de leur domicile.
Pris dans leur globalité, ces bugs indiquent que les machines à activation vocale ne sont pas entièrement sûres, et que même les entreprises les plus réputées sont susceptibles de commettre des erreurs impliquant les données recueillies par leurs assistants personnels. Ces assistants sont présents sur de plus en plus de gadgets; les risques ne font donc qu’augmenter.
Pour ne rien arranger, Google et Amazon se tirent ouvertement la bourre pour signer le plus de contrats possible avec les créateurs de matériel. Les deux entreprises ont tout intérêt à éviter les scandales liés à la vie privée –mais si l’on en croit l’invasion observée au CES, les deux rivaux mettent également l’accent sur l’ampleur et la rapidité.
Tout n'est pas noir
On peut toutefois souligner quelques points positifs: certains experts en cybersécurité estiment par exemple qu’il est beaucoup plus difficile de pirater à distance une enceinte intelligente qu’un site internet ou un PC. Interrogé à ce sujet par la chaîne CNBC, Jake Williams, fondateur de Rendition Infosec [entreprise qui propose des conseils en cybersécurité, ndlr] et ancien hacker de la NSA, a expliqué que les enceintes connectées étaient conçues pour traiter les requêtes provenant de deux sources, et deux sources seulement: la voix des personnes présentes dans la pièce, et l’entreprise qui les a conçues.
Une enceinte intelligente ne permet pas de surfer sur internet, de cliquer sur des liens vérolés ou de télécharger des logiciels tiers non autorisés, ce qui limite la «surface d’attaque» des hackers potentiels. Les paranoïaques répondront que théoriquement, tout cela n’empêche pas les fabricants de permettre à des organisations (comme… la NSA) d’accéder secrètement aux données, ou de les remettre aux forces de l’ordre.
Il convient de rappeler que votre «surface d’attaque» augmente à chaque fois que vous installez un nouvel appareil à activation vocale dans votre foyer. Les hackers sont peut-être incapables de pirater un Amazon Echo en lui injectant du code à distance, mais les cambrioleurs ou cambrioleuses seront peut-être capables de désactiver les verrous de votre porte Alexa en criant le bon nom de code. Google et Amazon proposent tous deux des fonctionnalités de reconnaissance vocale pour prévenir ce type de scénario, mais elles sont loin d’être parfaites.
Les personnes soucieuses de la protection de leur vie privée tenteront –à raison– d’éviter tout appareil muni d’une caméra vidéo tel que l’Echo Look et l’Echo Show (Amazon), ou l’Assistant de Google (l’affichage intelligent du Home Hub de Google ne comporte pas de caméra; une sage décision, sans doute prise pour protéger la vie privée des utilisateurs et utilisatrices). Le problème relève plus du caractère potentiellement sensible des données enregistrées que du fait que les caméras soient plus simples à pirater.
D’un autre côté, nous sommes nombreuses et nombreux à avoir des caméras sur nos téléphones et nos ordinateurs portables. Ce qui illustre un autre point du phénomène: les risques liés aux enceintes connectées et aux assistants virtuels sautent peut-être plus aux yeux que les risques liés aux autres appareils et services acceptés par le plus grand nombre (Gmail, iPhone, etc.). Ces premiers ne sont pourtant pas nécessairement plus dangereux que ces derniers. Ils présentent peu ou prou les mêmes risques; seule la forme change.
Vos données personnelles, une mine d'or
Ces affaires soulèvent un autre risque –certes moins important– lié à la vie privée: que font Google et Amazon (ou tout autre fabricant d’assistants connectés) de vos données personnelles? Les préférences et le comportement en ligne des utilisateurs et utilisatrices constituent le carburant de la machine publicitaire de Google; son Assistant incarne donc une nouvelle manière de recueillir des informations. Certaines et certains préféreront donc opter pour une autre plateforme vocale –même si, là encore, rien n’indique que la collecte des données sera plus intrusive que celle pratiquée sur Android, Gmail ou Google Maps.
Les publicités ciblées n’ont jamais été le cœur du modèle économique d’Amazon, et l’entreprise affirme qu’elle ne compte pas diffuser de publicités via Alexa. Signalons toutefois qu’Amazon est en train de partir à la conquête du marché publicitaire, et que les publicités tournant autour d’Alexa sont (à tout le moins) envisagées.
Mais alors, quid des alternatives? Il serait évidemment préférable d’éviter Portal, le nouvel appareil d’appel vidéo de Facebook, la réputation de la firme en matière de protection de la vie privée n’étant plus à défaire. Facebook a certes équipé la caméra du Portal d’un «obturateur spécial» pour protéger la vie privée, ce qui pourrait rassurer. La firme a toutefois été contrainte à reconnaître que l’appareil recueillait bel et bien des données personnelles, contrairement à ce qui avait été annoncé.
Cortana (Microsoft) et Bixby (Samsung) ont peut-être des atouts, mais ils ne font pas encore figure de concurrents sérieux face à Google Assistant et Alexa en tant que plateformes. Au CES, Samsung a annoncé que ses télévisions connectées fonctionneraient désormais avec Google et Alexa en plus de Bixby; quant à Cortana, elle collabore avec Alexa depuis l’an dernier –ce qui laisse penser qu’aucun de ces assistants vocaux ne compte tenir tête aux deux géants.
Quid d’Apple? La firme à la pomme refuse de présenter ses produits au CES –une aversion notoire qui ne l’a pas empêchée de se moquer publiquement de ses concurrents. Elle a fait afficher une publicité géante sur un immeuble de treize étage, frappée des mots: «Ce qui se passe sur votre iPhone reste sur votre iPhone» (jeu de mots habile faisant référence à la devise de Las Vegas, et moquerie peu subtile visant Google et Amazon, qui stockent les données de vos assistants personnels sur leurs serveurs). La nouvelle enceinte connectée d’Apple, le HomePod, anonymise les requêtes que vous adressez aux serveurs d’Apple; elles ne sont donc pas liées à votre compte. Il dispose également d’une qualité sonore haut de gamme.
Siri, plus sûre mais moins maline
Les points positifs sont donc nombreux. À l’exception d’un écueil de taille: le HomePod utilise la plateforme Siri, qui est beaucoup moins intelligente qu’Alexa ou le Google Assistant. Siri peine à comprendre le sens des mots et à répondre aux questions sur le monde; il faut donc se contenter des bases (musique, minuteur, lumière, envoi de sms). Par ailleurs, le HomePod a sa propre faille de sécurité inhérente: il ne reconnaît pas la voix de ses propriétaires et ne permet pas la création de comptes séparés, ce qui signifie que toute personne ayant accès à votre domicile peut l’utiliser en se faisant passer pour vous –en envoyant un sms à l’un de vos contacts depuis votre compte, par exemple. Oh, et il coûte 350 dollars, soit trois fois plus qu’un Echo ou qu’un Google Home.
HomePod demeure peut-être la meilleure option si vous avez vraiment envie d’une enceinte connectée, si la protection de votre vie privée est votre priorité, et si vous disposez du budget nécessaire. Mais Siri demeure une plateforme vocale inférieure à Google et Alexa, et vous ne la trouverez dans aucune des machines connectées en vente au CES. Reste à déterminer la meilleure alternative à Apple.
Si vous tenez vraiment à tailler une bavette avec les objets de votre domicile, vous devrez choisir entre Google, connu pour sa tendance à ficher ses utilisateurs et utilisatrices, et Amazon, qui ne s’adonne pas encore à cette pratique (mais pourrait bien s’y mettre). Amazon semble donc être la meilleure option. Attention, cependant: la collecte de données personnelles sensibles a toujours été au centre du modèle économique de Google –ce dernier est donc beaucoup plus au fait des problèmes que représente la protection de ce type d’informations. Dans un entretien accordé à Slate l’an dernier, Al Lindsay (responsable d’Alexa) a visiblement balayé d’un revers de main l’idée selon laquelle la protection de la vie privée constituait un enjeu de taille.
Une lueur d’espoir est apparue dans les travées du CES 2019 sous la forme d’un nouvel assistant virtuel open source appelé Mycroft, qui promet de ne jamais recueillir vos données personnelles. CNET souligne que son développement vient à peine de commencer; et peut-être ne parviendra-t-il jamais à rivaliser avec Google Assistant et Alexa au niveau de l'intelligence. Mais il prouve qu’une partie des fabricants d’assistants virtuels commencent à faire de la protection de la vie privée une fonctionnalité centrale, et non un simple ajout après coup.
Trois modèles se partagent le marché français depuis le 18 juin et l’arrivée de l’Homepod d’Apple. Leur utilisation peut être risquée pour les données.
Faut-il craindre d’installer au milieu du salon un micro relié à Internet et écoutant en permanenceles conversations alentour ? C’est, en substance, la question à laquelle il faudra répondre avant de se laisser tenter par une enceinte connectée. Trois principaux modèles se disputent désormais le marché français, après l’arrivée de l’Homepod d’Apple, lundi 18 juin, venue concurrencer Echo d’Amazon et Home de Google.
Ces enceintes « intelligentes » apparaissent bien moins vulnérables au risque de piratage que les objets connectés moyens. « Les grandes entreprises [qui les commercialisent] disposent d’équipes dédiées à la sécurité, elles ont de l’expérience et des moyens. Ce n’est pas le premier produit qu’elles mettent sur le marché », veut croire Candid Wueest, chercheur pour l’entreprise spécialisée en sécurité informatique Symantec. La possibilité qu’un pirate en prenne le contrôle, pour espionner ou en perturber le fonctionnement, n’est cependant pas nulle, comme pour tout objet informatique. A l’été 2017, un chercheur britannique avait d’ailleurs démontré qu’il était possible, après manipulation physique, de transformer Echo en mouchard. Un défaut corrigé depuis par le constructeur.
La principale inquiétude : la vie privée
Au-delà du piratage, la principale inquiétude suscitée par ces enceintes est celle de la protection de la vie privée. Elles enregistrent en permanence les conversations : c’est leur principe même. La plupart des enregistrements, régulièrement supprimés, ne sont cependant pas envoyés sur Internet : c’est le cas uniquement lorsque l’enceinte reconnaît la formule censée la « réveiller ». La voix de l’utilisateur est alors transmise aux serveurs de l’entreprise, qui procède à l’analyse et renvoie les résultats.
Les enceintes d’Amazon et de Google stockent l’intégralité de ces enregistrements sur leurs serveurs, notamment pour entraîner leurs algorithmes afin de mieux répondre aux sollicitations ultérieures. Il est possible, pour qui a accès au compte lié à l’enceinte, de consulter (ou d’effacer) ces enregistrements, qui ne sont pas supprimés par défaut. Apple, de son côté, assure le faire à intervalle régulier et utiliser un mode de transmission sur ses serveurs qui ne permet pas d’identifier l’utilisateur dont ils proviennent. Ces enregistrements pourraient intéresser la police : en 2016, des procureurs de l’Arkansas (Etats-Unis) avaient ainsi demandé les enregistrements de l’Echo d’un suspect dans une enquête pour meurtre.
Enfin, il n’est pas exclu, pour ce type de technologie, qu’un être de chair et de sang écoute ces enregistrements : l’association française La Quadrature du Net a ainsi récemment relayé le témoignage d’une femme chargée d’écouter des enregistrements issus de l’assistant de Microsoft, Cortana (qui n’est actuellement pas intégré dans une enceinte connectée).
Parfois, les enceintes connectées peuvent se déclencher à l’insu de l’utilisateur, croyant reconnaître par erreur la formule censée les activer et envoyant donc ce qu’elles entendent sur les serveurs de son entreprise. Il est possible, pour tous les modèles, de désactiver physiquement le micro.
Même si certaines enceintes possèdent des mécanismes de reconnaissance vocale ou de codes limitant leur utilisation à leur propriétaire légitime, il est aussi possible pour toute personne à proximité de l’objet de l’utiliser à sa guise. Le Homepod d’Apple, par exemple, permet de lire les messages de l’iPhone et ne fait pas la différence entre la voix de son maître et les autres. La publicité s’en est amusée : la chaîne de fast-food Burger King a diffusé en 2017 une publicité pendant le Super Bowl utilisant le mot-clé déclenchant les Google Home pour leur faire lire la page Wikipédia de l’entreprise. Au-delà de cette plaisanterie marketing, rapidement déjouée par Google, cette caractéristique peut poser problème, par exemple lorsque l’enceinte est reliée à un compte permettant des achats. Candid Wueest conseille ainsi de cloisonner les comptes liés à ces assistants : « Si vous ne comptez pas utiliser les achats en ligne, utilisez un compte qui n’est pas lié à une carte bancaire. Il faut être sélectif : voulez-vous vraiment contrôler votre serrure connectée ou la vidéosurveillance de votre domicile depuis votre enceinte connectée ? Peut-être pas. »
Ces enceintes, tout particulièrement celle d’Amazon et de Google, représentent surtout un moyen de créer un canal complémentaire de collecte de données personnelles. Tous les fabricants l’affirment : diffuser de la publicité n’est pas leur priorité, voire, pour Apple, n’entre pas du tout dans leurs projets. Mais qui sait comment vont évoluer ces assistants ? Amazon a ainsi déposé un brevet lui permettant de proposer une publicité sur la base des interactions avec son assistant. Quelle forme ces publicités prendront-elles ? C’est un autre enjeu, puisqu’il pourra s’agir non pas de spots classiques mais de suggestions plus ou moins transparentes : le but de ces enceintes connectées est justement d’apporter des conseils et des réponses sur un plateau.
Martin Untersinger
Pour améliorer l'intelligence artificielle de son assistant, le géant américain emploie des collaborateurs qui analysent des enregistrements audio d'Aexa.
La nouvelle ne pas rassurer les utilisateurs d’enceintes Echo. Et, d'une façon plus générale, tous ceux qui font appel à des assistants vocaux. Dans un article bien informé, Bloomberg révèle en effet que des milliers d'employés d'Amazon écoutent des conversations d'Alexa provenant du monde entier. De quoi faire frémir - et fuir ! - tous ceux qui hésitent à s'équiper d'une enceinte connectée de peur justement d'être sur écoute permanente.
Comme le rapporte Bloomberg, le géant américain emploie des équipes réparties un peu partout dans le monde, des Etats-Unis à l'Inde en passant par le Costa Rica et la Roumanie, pour analyser et retranscrire par écrit des conversations provenant d'Alexa dans le but d'aider l'intelligence artificielle (IA) qui fait fonctionne l'assistant vocal à s’améliorer. De fait, aussi puissants que soient les algorithmes et les procédés d’apprentissage de type deep learning, l'expertise humaine reste encore indispensable pour faire progresser l'IA.
Dans le cas d'Amazon, les auditeurs cherchent surtout à combler des lacunes d'Alexa, en aidant l'assistant à mieux comprendre certaines requêtes formulées en langage naturel. Bloomberg donne ainsi l’exemple d'un auditeur qui aurait permis de mieux interpréter le nom de l’artiste américaine Taylor Swift, souvent déformé et mal compris. Bref, des écoutes pour le bien de tous, selon Amazon, d'autant que les enregistrements seraient en théorie débarrassés de toute information confidentielle sur l'identité des utilisateurs.
Sauf que, toujours selon Bloomberg, le tableau ne serait pas aussi idyllique dans la réalité. D'abord, la plupart des auditeurs ne seraient pas employés directement par Amazon, mais par des sous-traitants travaillant dans des conditions assez "intensives". Chacun écouterait ainsi près d'un millier d’extraits sonores par jour, pendant environ neuf heures, en analysant, en retranscrivant et en annotent les enregistrements, de manière à identifier et à signaler les termes et les formules complexes, et en échangeant leurs résultats avec leurs collègues via une messagerie interne. De fait, les auditeurs échangent de nombreuses informations entre eux pour s'aider mutuellement à améliorer Alexa, mais certaines conversations plus ou moins comiques, feraient l'objet de partages massifs et de moqueries.
Quelques situations s'avéreraient toutefois délicates, voire troublantes. Des témoins ont ainsi rapporté à Bloomberg qu'ils avaient entendu ce qu'ils ont interprété comme une agression sexuelle. Face à leur désarroi et à leur demande, leur hiérarchie leur aurait ordonné de ne rien, au prétexte que ce n'était pas de leur ressort, ni de celui d'Amazon... Mais il y a encore plus embarrassant. L’enquête de Bloomberg révèle qu’Amazon permet à ses propres auditeurs salariés d’accéder à des informations sensibles des utilisateurs, via le numéro de série des enceintes, comme leur prénom ou leur numéro de compte Amazon, ce qui va à l'encontre des engagements pris à l'égard de la protection des données personnelles.
Amazon se veut rassurant, affirmant que seul un très faible pourcentage de conversations sont ainsi enregistrées et analysées, et que des mesures strictes - "tolérance zéro" - sont prises pour garantir la confidentialité des informations personnelles recueillies. Un discours officiel que l'enquête de Bloomberg met à mal. D'autant qu'Amazon ne dit pas explicitement dans ses conditions d'utilisation du son service que des extraits de conversations peuvent être écoutées et analysées par des êtres humains. Et même si l’anonymisation des données semble mieux assurée par Google Assistant et Siri d'Apple, les principaux concurrents d'Alexa, ces révélations risquent de semer le doute chez de nombreux utilisateurs potentiels, soucieux de leur vie privée.
Si le RGPD est entré en application récemment, en plaçant l’Europe à l’avant-garde de la protection des données à caractère personnel, il ne doit pas nous dissuader de nous interroger en profondeur sur la question des identités, dont les contours se sont redéfinis à l’ère numérique. Il s’agit bel et bien de porter une réflexion critique sur des enjeux éthiques et philosophiques majeurs, au-delà de la seule question de la protection des informations personnelles et de la privacy.
Les politiques actuelles sur la protection des données mettent l’accent sur les droits de la personne. Mais elles ne prennent pas la mesure de la manière dont l’exercice de notre libre arbitre se voit de plus en plus empêché au sein d’environnements technologiques complexes, et encore moins des effets de la métamorphose numérique sur les processus de subjectivation, le devenir-soi de l’individu. On considère le plus souvent, dans ces textes, un sujet déjà constitué, capable d’exercer ses droits, sa propre volonté et ses principes. Or, le propre des technologies numériques – telle est la thèse ici défendue – est de participer à la formation des subjectivités selon un mode nouveau : en redistribuant sans cesse le jeu des contraintes et des incitations, elles créent les conditions d’une plus grande malléabilité des individus. Nous détaillons ces processus dans notre ouvrage Les identités numériques en tension.
Si les moyens mis en place par le RGPD sont clairement nécessaires pour soutenir l’initiative et l’autonomie de l’individu dans la gestion de sa vie numérique, il faut cependant souligner que les notions mêmes de consentement et de contrôle par l’utilisateur vis-à-vis de ses données, et sur lesquels le mouvement actuel repose, restent problématiques. Et cela parce que deux logiques, distinctes mais concordantes, sont aujourd’hui à l’œuvre.
Si une certaine sensibilité des utilisateurs aux traces laissées volontairement ou involontairement au cours de leurs activités en ligne, et dont il peut avoir connaissance (comme, par exemple, des métadonnées de connexion), semble s’accroître, et peut servir de support à l’approche basée sur le consentement, cette dynamique rencontre assez vite ses limites.
Tout d’abord, la multiplication des informations récoltées rend irréaliste l’exercice systématique du consentement et le contrôle par l’utilisateur, ne serait-ce qu’en raison de la surcharge cognitive que cet exercice effectif exigerait de sa part. Ensuite, le changement de nature des moyens techniques de collecte, exemplifiée par l’avènement des objets connectés, conduit à la démultiplication des capteurs qui collectent les données sans même que l’utilisateur puisse s’en rendre compte, comme le montre l’exemple, de moins en moins hypothétique, de la vidéo-surveillance couplée à la reconnaissance faciale et, plus amplement, le cas de toutes les connaissances que les opérateurs acquièrent sur la base de ces données. Il s’agit ici d’une couche de l’identité numérique dont le contenu et de nombreuses exploitations possibles sont absolument inconnus de la personne qui en est la source.
Qui plus est, une forte tendance des acteurs, étatiques et privés, consiste à vouloir décrire l’individu de manière exhaustive et totale, en créant le risque de le réduire à un ensemble de plus en plus complet d’attributs. Dans ce nouveau régime de pouvoir, le visible se réduit à ce qui peut être saisi en données, à ce qui relève de la mise à disposition immédiate des êtres, comme s’il s’agissait en fin de compte de simples objets.
La deuxième logique à l’œuvre dans nos sociétés hypermodernes touche à l’inscription de ce paradigme basé sur la protection et le consentement dans les mécanismes de la société néolibérale. La société contemporaine conjugue en effet deux aspects en matière de privacy : il s’agit de considérer l’individu comme étant visible de manière permanente, et comme étant responsable individuellement pour ce qui est vu de lui. Un tel ensemble de normes sociales se consolide à chaque fois que l’utilisateur exerce le consentement – ou l’opposition – à l’utilisation de ses données. En effet, à chaque itération, l’utilisateur renforce sa compréhension de soi-même comme l’auteur et le responsable de la circulation des données. Il endosse aussi l’injonction à la maîtrise des données alors même que cette dernière est le plus souvent illusoire. Surtout, il endosse l’injonction à calculer les bénéfices que le partage des informations peut lui apporter. En ce sens, l’application stricte et croissante du paradigme de consentement peut être considérée comme étant corrélative d’une conception de l’individu qui devient non seulement l’objet d’une visibilité quasi-totale, mais aussi – et surtout – un agent économique rationnel, à même d’analyser son agir en termes de coûts et de bénéfices.
Cette difficulté fondamentale fait que les enjeux futurs des identités numériques ne se réduisent pas à donner plus de contrôle explicite, ou plus de consentement éclairé. Il convient bel et bien de trouver d’autres voies complémentaires, qui se situent sans doute du côté des pratiques (et non simplement des « usages ») des utilisateurs, à condition que de telles pratiques mettent en place des stratégies de résistance pour contourner l’impératif de visibilité absolue et de définition de l’individu comme agent économique rationnel.
De telles pratiques digitales doivent en outre nous inciter à dépasser la compréhension de l’échange social – numérique ou non – sous le régime du calcul des bénéfices que l’on en retire ou des externalités. Ainsi, les enjeux soulevés par les identités numériques dépassent largement les enjeux de protection de l’individu ou les enjeux des « modèles d’affaires », et touchent à la manière même dont la société dans son ensemble conçoit la signification de l’échange social. Dans un tel horizon, il est primordial d’affronter les ambivalences et les jeux de tension qui sont intrinsèques aux technologies numériques, en examinant les nouveaux modes de subjectivation qui sont induits dans ces opérations. C’est à partir d’un tel exercice de discernement que pourra advenir un mode de gouvernance des données plus responsable.
Ce 18 janvier, Emmanuel Macron a plaidé en faveur d'une "levée progressive de tout anonymat", dans une volonté d'améliorer la qualité de la démocratie participative. Un discours qu'il n'est pas le premier à tenir.
Pour le deuxième acte du grand débat national, qui se tenait ce 18 janvier au Palais des congrès de Souillac (Lot), Emmanuel Macron s'est exprimé au sujet de "l'hygiène démocratique du statut de l'information". Afin de lui redonner ses lettres de noblesse, le président de la République a estimé qu'il s'agissait d'aller "vers une levée progressive de toute forme d'anonymat", en faisant mention de "processus où on sait distinguer le vrai du faux et où on doit savoir d’où les gens parlent et pourquoi ils disent les choses".
Si le chef de l'Etat s'est montré évasif à propos desdits processus, ses propos font écho à un discours prononcé en novembre dernier. A l'annonce de l'appel de Paris pour la confiance et la cybersécurité dans le cyberespace, Emmanuel Macron avait pointé du doigt un "anonymat devenu problématique", qui laissait impunis des "torrents de haine déversés en ligne".
Des documents d'identité pour se connecter
Concrètement, mettre en place des initiatives pour dissiper l'anonymat en ligne est envisageable. Il est techniquement possible de soumettre une inscription sur un réseau social, Facebook en tête, à la fourniture d'une pièce d'identité. Une proposition en ce sens avait d'ailleurs été formulée par Eric Ciotti, député LR des Alpes-Maritimes, en août 2016, pour mieux lutter contre le terrorisme.
Cela balaie d'un revers de main l'efficacité et la nature même des VPN, ces "réseaux privés virtuels" qui favorisent l'anonymat en ligne et générant des adresses IP factices. Ces logiciels deviennent inutiles dès lors que des identifiants correspondant à une identité réelle, et associés à une pièce d'identité, sont réclamés pour se connecter à un réseau.
"Ce genre d'obligations - si elles passaient par la loi - seraient impossibles à respecter pour les petits acteurs et risqueraient fort de renforcer davantage les grandes plateformes américaines", explique Félix Tréguer, de la Quadrature du Net, une association de défense des libertés en ligne. "Emmanuel Macron oublie que l'anonymat constitue un droit associé à la liberté d'expression et de communication et au droit à la vie privée. Il est reconnu comme tel au niveau international, notamment par la Cour européenne des droits de l'Homme", complète-t-il.
Haro sur le chiffrement
Par le passé, Emmanuel Macron a déjà dérogé à son rôle de "candidat du numérique" pour faire valoir une approche sécuritaire au sujet d'Internet. En avril 2017, le candidat à l'élection présidentielle avait indiqué vouloir forcer les "messageries instantanées fortement cryptées" à collaborer avec la justice, dans le cadre de la lutte antiterroriste. Il leur reprochait leur refus, dans le cadre d'une enquête, de donner accès aux contenus échangés, à même de comprendre des éléments déterminants. Au point d'envisager, qu'un jour, elles soient considérées comme des "complices d'attentats".
En s'attaquant à l'anonymat, Emmanuel Macron franchit une étape supplémentaire. "Cette question de "levée progressive de toute forme d'anonymat" est en filigrane un aveu de faiblesse face à la défaillance d'éducation des citoyens d'une part, et l'incapacité ou l'ignorance en matière d'investigation, d'une autre", souligne Rayna Stamboliyska, experte en sécurité des données personnelles et auteure de La face cachée d'Internet. "A défaut d'harmoniser les interactions avec les plateformes, pour ne citer que cet exemple, on renvoie la responsabilité sur le citoyen. C'est ce glissement-là qui est problématique et qu'il faut expliquer, expliciter et combattre".
Surtout, Emmanuel Macron semble prôner une position non seulement partagée par Eric Ciotti, mais également mise en avant par ses prédécesseurs François Hollande et Nicolas Sarkozy. "La méfiance envers la parole critique ou irrévérencieuse qui se déploie sur Internet est largement partagée par les élites politiques", rappelle Félix Tréguer. Pourtant, et malgré la défiance qu'il peut inspirer, l'anonymat a son lot de bienfaits, avance le chercheur post-doctorant à l'ISCC (CNRS). "Il conviendrait de combattre la vindicte dont il fait l'objet en rappelant qu'il permet aussi de lutter contre les formes de harcèlement en masquant l'identité de cibles potentielles. Il libère la parole de groupes marginalisés qui sans l'anonymat ou le pseudonymat seraient enclins à s'autocensurer. De ce point de vue, mettre fin à l'anonymat serait donc contre-productif, en plus d'être attentatoire aux libertés publiques."
L'annonce sème le doute sur la sécurité des données génétiques.
Avec les tests d'ADN effectués chez soi, une nouvelle opportunité se présente pour les enquêteurs de police. Aux États-Unis, le FBI est récemment entré en collaboration avec Family Tree DNA, une entreprise qui propose à tout un chacun de prélever son propre ADN pour le faire analyser. Ces kits prêts à l'emploi se composent de deux bâtonnets pour prélever l'ADN à l'intérieur de la joue. Le kit est ensuite renvoyé à l'entreprise pour être analysé et établir l'arbre généalogique ainsi que l'origine du volontaire.
Pour la première fois, une société privée de ce secteur a accepté de mettre volontairement à disposition des forces de l'ordre une partie de ses données. Néanmoins, le FBI ne peut pas parcourir librement la base de Family Tree. Dans un communiqué, l'entreprise détaille sa relation avec le Bureau d'investigation en précisant n'avoir signé aucun contrat et dit travailler au cas par cas pour comparer des échantillons à sa bibliothèque de données. Elle revendique avoir contribué à moins de dix enquêtes.
Depuis deux ans déjà, la police et le FBI ont utilisé des données généalogiques publiques pour élucider des affaires non résolues. Le «Golden State Killer», un tueur en série soupçonné de douze meurtres et cinquante et un viols entre 1974 et 1986, a pu être arrêté en avril 2018. L'ADN collecté sur les scènes de crime a pu être confondu avec celui d'un membre de sa famille.
À LIRE AUSSI La maltraitance des enfants pourrait bien laisser des traces sur l'ADN
Enjeu de sécurité
Le rapprochement entre les deux organismes a engendré beaucoup de doutes sur la privatisation des données. «Globalement, je me sens abusée, je sens que ma confiance en tant que client a été trahie», a déclaré Leah Larkin, une généalogiste génétique de Livermore, en Californie, à BuzzFeed News. Le site offre à ses adeptes la possibilité de refuser d'apparaître dans les résultats dont peut se servir le FBI, mais cela implique que la fonctionnalité phare du test –retrouver des proches– n'est plus disponible.
Un généalogiste a relevé d'après un sondage informel réalisé aux États-Unis et en Europe que 85% des personnes interrogées sont à l'aise avec l'idée que les forces de l'ordre utilisent leur ADN.
Family Tree annonce recenser 1.021.774 entrées dans sa banque de données. À titre de comparaison, ses deux principaux concurrents dans le monde, Ancestry.com et 23andMe en possèdent respectivement dix millions et cinq millions.
« S’agissant de notre profil numérique, les données que nous choisissons de partager ne sont que la pointe de l’iceberg. Nous ne voyons pas le reste, cachés sous la surface des interfaces conviviales des applications mobiles et des services en ligne. Les données les plus précieuses sur nous sont inférées hors de notre contrôle et sans notre consentement. Or, ce sont ces couches plus profondes et que nous ne pouvons pas contrôler qui prennent réellement les décisions qui nous affectent, pas nous », explique Katarzyna Szymielewicz (@szymielewicz), cofondatrice et présidente de la Fondation Panoptykon, une association polonaise de défense des libertés individuelles et des droits de l’homme dans la société de surveillance (qu’on pourrait considérer comme l’équivalent de la Quadrature du Net en France) – dans une tribune pour Quartz.
Dans un graphique particulièrement parlant (à consulter en haute définition), la Fondation Panoptykon détaille les 3 couches d’information qui composent nos identités en ligne.
La première couche d’information est la seule sur laquelle nous avons le contrôle. Elle se compose des données que nous insérons dans les médias sociaux ou les applications (informations de profil, publications, requêtes, photos, événements, déplacements…).
La seconde couche est constituée d’observations comportementales et de métadonnées qui donnent un contexte à ces choix : position en temps réel, graphe de nos relations intimes et professionnelles, le temps que nous passons, les habitudes d’achat, les mouvements de nos souris ou de nos doigts…
La troisième couche est composée des interprétations de la première et de la seconde couche. Nos données sont analysées et comparées en permanence à d’autres profils pour inférer des corrélations statistiques significatives… Ce qu’on appelle souvent la personnalisation, mais qui vise plus à nous catégoriser qu’à nous distinguer.
Le problème est que si l’utilisateur contrôle la première couche, ce n’est pas le cas des deux autres. Or ces inférences permettent de déterminer beaucoup de nos comportements : profil psychométrique, QI, situation familiale, maladies, obsessions, engagements… Or, nombre de décisions contraignantes sont prises depuis ces interprétations et corrélations. Le problème est que le « double » numérique que le traitement de ces données produit ne nous est pas accessible… et que si nous y avions accès, nous pourrions ne pas nous y reconnaître. « Que diriez-vous si vous découvriez que votre « double de données » est malade ou émotionnellement instable, sans possibilité de crédit, ou plus simplement pas assez cool, et tout cela à cause de la façon dont vous faites vos requêtes en ligne ou de vos relations en ligne ? »
Les algorithmes prennent des décisions basées sur des corrélations statistiques. Et il est possible – même fréquent – qu’un algorithme interprète mal votre comportement… Le problème, souligne Katarzyna Szymielewicz est que si le résultat de cette analyse est discriminatoire ou injuste – « par exemple que votre demande de crédit est refusée parce que vous vivez dans le « mauvais » quartier, ou que votre demande d’emploi ne parvient pas à aboutir parce que votre réseau de relation n’est pas « suffisamment robuste » » – il n’y a aucune incitation du marché à le corriger. Pour la présidente de Panoptykon, nous ne sommes pas si loin du Score de crédit social chinois ! Nous devons reprendre le contrôle du traitement dont nous sommes l’objet.
Pour cela, il nous faut d’abord mieux contrôler la première couche de notre profil. Nous pouvons chiffrer nos communications, désactiver les métadonnées de nos images, veiller à ce que nos téléphones n’aient pas accès par défaut à nos emplacements, réfléchir à ce que nous partageons… Mais même en faisant ces efforts, nous ne pouvons pas contrôler ce qui est observé et interprété par les algorithmes dans les deuxièmes et troisièmes couches de nos profils. Pour Katarzyna Szymielewicz, il nous faut agir collectivement pour convaincre ceux qui font du profilage de modifier leur approche, de nous montrer leurs calculs, de nous demander notre consentement et de le respecter. Le RGPD accorde aux utilisateurs le droit de vérifier leurs données, y compris les profils marketing générés par-devers eux. « Tant que nous traitons les courtiers en données et les spécialistes du marketing comme des ennemis et qu’ils nous traitent comme une ressource exploitation, il n’y aura pas de place pour une conversation constructive ».
Le Wi-Fi a mal vieillit, explique la journaliste Ava Kofman (@eyywa) pour Real Life. Si nous sommes de plus en plus conscients de la surveillance dont nous sommes l’objet quand nous naviguons sur le web ou que nous utilisons nos smartphones, nous avons tendance à oublier que c’est également le cas lorsque nous utilisons une connexion Wi-Fi pour nous connecter. Il faut dire que quand le protocole Wi-Fi a été adopté, en 1997, nul n’imaginait que toutes nos connexions et tous nos objets l’utiliseraient.
Les failles et limites du protocole sont nombreuses et documentées. Nombre d’artistes les ont illustrées, comme le Wifi Data Safari de Brannon Drosey et Nick Briz ou Astro Noise de Surya Mattu qui montrent les transmissions non chiffrées qui transitent par les ondes. Ou encore le Wi-Fi Whisperer de Kyle McDonald, un petit robot qui murmure les activités qu’il écoute à voix basse tout comme Snoopi de Jiashan Wu. On pourrait ajouter à cette liste, le dispositif Hommes en gris de Danja Vasiliev et Julian Oliver…
Nous laissons tous des traces quand nous nous déplaçons : nos ordinateurs envoient en permanence leur identité aux réseaux Wi-Fi environnants pour trouver un réseau auquel il s’est déjà connecté. En échange, il est donc possible d’obtenir l’identité unique de l’ordinateur, du smartphone ou du dispositif qui cherche à se connecter, et surtout la liste des réseaux Wi-Fi auxquels il s’est déjà connecté. En structurant les requêtes, il est donc facile de demander l’historique de connexion et d’en déduire les lieux d’où le dispositif se connecte le plus souvent ! Autant d’informations extrêmement personnelles dont le marketing raffole ! Les noms des réseaux Wi-Fi que vos appareils gardent en mémoire indiquent ainsi très facilement quels endroits vous fréquentez (hôtels, universités, entreprises, conférences…) ce qui peut en dire long sur qui vous êtes et ce que vous préférez, surtout quand on dispose d’une liste des réseaux Wi-Fi existants pour réattribuer leurs noms à des emplacements, à l’image des 500 millions de réseaux sans fil collectés par Wigle.net (qui ne sont qu’une partie de ceux que collectent en permanence votre ordinateur ou votre téléphone).
L’Agence européenne chargée de la sécurité des réseaux et de l’information rappelait les risques liés au protocole Wi-Fi notamment que la collecte des réseaux Wi-Fi enregistrés sur nos appareils pouvait être utilisée pour relier des personnes entre elles en comparant les noms des points d’accès qu’ils utilisent ou encore de suivre les déplacements d’un appareil, comme un GPS, selon les requêtes qu’il envoie pour se connecter à un réseau et la force du signal qu’il émet.
Pour les artistes Dorsey et Briz, « les gens ne savent pas comment fonctionne la technologie, c’est pourquoi personne ne songe à exiger un meilleur moyen de se connecter ». En l’absence de pression publique, il y a peu d’incitations à proposer de meilleurs protocoles de connexion ! La commodité l’emporte toujours sur la vie privée. « Déjà qu’il est difficile de convaincre les gens de boycotter les géants de la technologie, il est encore plus difficile d’imaginer un soulèvement contre le Wi-Fi ! »
Des solutions s’esquissent. Des experts travaillent à reconcevoir un protocole sans fil qui soit « privacy by design », notamment en proposant de générer des adresses aléatoires pour nos dispositifs numériques… D’autres proposent des techniques d’obfuscation – comme Shenanigans.io imaginé par l’artiste David Rueter – pour ajouter du bruit aux requêtes auxquels répondent nos terminaux en générant de fausses adresses de réseaux auxquels ils se seraient connectés.
En attendant, la seule solution qu’il nous reste est de couper notre Wi-Fi quand nous ne sommes pas connectés à un réseau connu. Il existe pour cela quelques applications, comme Smart Wi-Fi Toggle. Reste à se demander pourquoi ces fonctionnalités ne sont toujours pas activées par défaut pour gérer votre connexion sans fil…
Google compte un pourcentage important de la population mondiale parmi ses clients directs, avec de multiples produits en tête de leurs marchés mondiaux et de nombreux produits qui dépassent le milliard d’utilisateurs actifs par mois. Ces produits sont en mesure de recueillir des données sur les utilisateurs au moyen d’une variété de techniques qui peuvent être difficiles à comprendre pour un utilisateur moyen. Une grande partie de la collecte de données de Google a lieu lorsque l’utilisateur n’utilise aucun de ses produits directement. L’ampleur d’une telle collecte est considérable, en particulier sur les appareils mobiles Android. Et bien que ces informations soient généralement recueillies sans identifier un utilisateur unique, Google a la possibilité d’utiliser les données recueillies auprès d’autres sources pour désanonymiser une telle collecte.
« Dans les faits, la vie privée se réduit comme peau de chagrin, il faut en avoir conscience » selon Alexandre Lazarègue, avocat spécialiste du droit numérique. « Et le droit concernant les données personnelles n’en est qu’aux prémices, les problématiques ne vont que se multiplier. »
Il est « impossible de protéger à 100 % » les données personnelles sur internet, constate Alexandre Lazarègue, avocat spécialiste du droit numérique, alors que Facebook est secoué par de nouvelles révélations sur l’accès d’autres géants du web aux informations privées collectées par la plateforme.
Serait-il possible de mieux protéger les données personnelles sur internet ?
Du point de vue de la sécurité informatique, même si le RGPD (Règlement général de protection des données, entré en vigueur au niveau européen en mai dernier) par exemple impose des obligations en termes d’architecture de réseau pour mieux protéger les données stockées, tout le monde sait qu’en réalité il est impossible de protéger à 100 % d’un piratage ou d’une perte de données.
Ceux qui transmettent leurs données aux plateformes et grandes entreprises doivent avoir pleinement conscience qu’il n’existe aucune assurance totale de ne pas voir demain ces données perdues.
Du point de vue du droit, les entreprises font en sorte qu’il est très difficile à chacun d’assumer pleinement ses droits, les contrats sont tellement déséquilibrés que le consentement est dans les faits imposé. Et leur puissance économique est telle que les sanctions uniquement économiques, même quand il s’agit de 4 % du chiffre d’affaires mondial comme le prévoit le RGPD a un faible impact au final, quand on se souvient que Facebook par exemple gagne 500 000 dollars toutes les 7 minutes.
Le RGPD est toutefois venu donner plus de droits aux utilisateurs de grandes plateformes, voit-on une évolution des usages depuis son entrée en vigueur ?
En tant qu’avocat, j’ai pu constater un intérêt des citoyens quant à la question de la protection de leurs données personnelles, qui s’est matérialisé notamment par une multiplication des recours auprès de la CNIL (Commission nationale informatique et libertés, NDLR), en particulier en ce qui concerne le droit à l’oubli. Il y a globalement une prise de conscience que les données sont précieuses et ne peuvent être vendues.
Mais dans le même temps, après six mois d’exercice du RGPD, on constate qu’il y a de quoi l’améliorer. S’il s’applique tant aux petites qu’aux grandes entreprises, on voit que dans les faits il est très contraignant pour les petites alors que les plus grosses peuvent trouver le moyen de s’y soustraire.
La philosophie du règlement permet normalement une relation immédiate entre utilisateurs et entreprises, avec la possibilité du choix laissé dans l’usage des données mais dans les faits, on en est très loin et il y a encore beaucoup à améliorer en la matière pour que ce soit effectif.
Quelles sont les limites du RGPD dont profitent les grandes plateformes du net selon vous ?
La problématique est dans l’exercice réel des droits, du fait du déséquilibre existant entre utilisateurs et fournisseurs de service. Le RGPD octroie des droits mais en réalité les utilisateurs sont pris au piège de ces plateformes qui, de fait, imposent le consentement.
Dès lors que l’utilisateur consent à donner accès à ses données, même s’il en a le droit, dans les faits il n’a pas la possibilité de vérifier comment elles sont utilisées ni qui y a accès et souvent il n’a pas conscience d’avoir accordé un accès aussi large, parce que personne ne lit les dizaines de pages de conditions d’utilisation.
Pourtant il faut que les individus aient conscience de leur responsabilité et qu’ils comprennent que ces données qu’ils publient, même en privé, elles sont diffusées pour l’éternité, quand bien même il y a le droit à l’oubli.Mais dans le contexte de révolution numérique il est difficile d’échapper à ces services, qui pourtant se basent sur le traitement des données. Vouloir y échapper ce serait désormais se mettre en marge de la société.
La collecte de données de Google
Un premier aperçu
1.
Google est la plus grosse agence de publicité numérique du monde 1. Elle fournit aussi le leader des navigateurs web 2, la première plateforme mobile 3 ainsi que le moteur de recherche le plus utilisé au monde 4. La plateforme vidéo de Google, ses services de mail et de cartographie comptent 1 milliard d’utilisateurs mensuels actifs chacun 5. Google utilise l’immense popularité de ses produits pour collecter des données détaillées sur le comportement des utilisateurs en ligne comme dans la vie réelle, données qu’il utilisera ensuite pour cibler ses utilisateurs avec de la publicité payante. Les revenus de Google augmentent significativement en fonction de la finesse des technologies de ciblage des données.
2.
Google collecte les données utilisateurs de diverses manières. Les plus évidentes sont « actives », celles dans lesquelles l’utilisateur donne
directement et consciemment des informations à Google, par exemple en s’inscrivant à des applications très populaires telles que YouTube, Gmail, ou le moteur de recherche. Les voies dites « passives » utilisées par Google pour collecter des données sont plus discrètes, quand une application devient pendant son utilisation l’instrument de la collecte des données, sans que l’utilisateur en soit conscient. On trouve ces méthodes de collecte dans les plateformes (Android, Chrome), les applications (le moteur de recherche, YouTube, Maps), des outils de publication (Google Analytics, AdSense) et de publicité (AdMob, AdWords). L’étendue et l’ampleur de la collecte passive de données de Google ont été en grande partie négligées par les études antérieures sur le sujet 6.
3.
Pour comprendre les données que Google collecte, cette étude s’appuie sur quatre sources clefs :
a. Les outils Google « Mon activité » (My Activity) 7 et « Téléchargez vos données » (Takeout) 8, qui décrivent aux utilisateurs l’information collectée lors de l’usage des outils Google.
b. Les données interceptées lors de l’envoi aux serveurs de Google pendant l’utilisation des produits Google ou d’autres sociétés associées.
c. Les règles concernant la vie privée (des produits Google spécifiquement ou en général).
d. Des recherches tierces qui ont analysé les collectes de données opérées par Google.
4.
Au travers de la combinaison des sources ci-dessus, cette étude montre une vue globale et exhaustive de l’approche de Google concernant la collecte des données et aborde en profondeur certains types d’informations collectées auprès des utilisateurs et utilisatrices.
Cette étude met en avant les éléments clés suivants :
a. Dans une journée d’utilisation typique, Google en apprend énormément sur les intérêts personnels de ses utilisateurs. Dans ce scénario d’une journée « classique », où un utilisateur réel avec un compte Google et un téléphone Android (avec une nouvelle carte SIM) suit sa routine quotidienne, Google collecte des données tout au long des différentes activités, comme la localisation, les trajets empruntés, les articles achetés et la musique écoutée. De manière assez surprenante, Google collecte ou infère plus de deux tiers des informations via des techniques passives. Au bout du compte, Google a identifié les intérêts des utilisateurs avec une précision remarquable.
b. Android joue un rôle majeur dans la collecte des données pour Google, avec plus de 2 milliards d’utilisateurs actifs mensuels dans le monde 9. Alors que le système d’exploitation Android est utilisé par des fabricants d’équipement d’origine (FEO) partout dans le monde, il est étroitement connecté à l’écosystème Google via le service Google Play. Android aide Google à récolter des informations personnelles sur les utilisateurs (nom, numéro de téléphone, date de naissance, code postal et dans beaucoup de cas le numéro de carte bancaire), les activités réalisées sur le téléphone (applications utilisées, sites web consultés) et les coordonnées de géolocalisation. En coulisses, Android envoie fréquemment la localisation de l’utilisateur ainsi que des informations sur l’appareil lui-même, comme sur l’utilisation des applications, les rapports de bugs, la configuration de l’appareil, les sauvegardes et différents identifiants relatifs à l’appareil.
c. Le navigateur Chrome aide Google à collecter des données utilisateurs depuis à la fois le téléphone et l’ordinateur de bureau, grâce à quelque 2 milliards d’installations dans le monde 10. Le navigateur Chrome collecte des informations personnelles (comme lorsqu’un utilisateur remplit un formulaire en ligne) et les envoie à Google via le processus de synchronisation. Il liste aussi les pages visitées et envoie les données de géolocalisation à Google.
d. Android comme Chrome envoient des données à Google même en l’absence de toute interaction de l’utilisateur. Nos expériences montrent qu’un téléphone Android dormant et stationnaire (avec Chrome actif en arrière-plan) a communiqué des informations de localisation à Google 340 fois pendant une période de 24 heures, soit en moyenne 14 communications de données par heure. En fait, les informations de localisation représentent 35 % de l’échantillon complet de données envoyés à Google. À l’opposé, une expérience similaire a montré que sur un appareil iOS d’Apple avec Safari (où ni Android ni Chrome n’étaient utilisés), Google ne pouvait pas collecter de données notables (localisation ou autres) en absence d’interaction de l’utilisateur avec l’appareil.
e. Une fois qu’un utilisateur ou une utilisatrice commence à interagir avec un téléphone Android (par exemple, se déplace, visite des pages web, utilise des applications), les communications passives vers les domaines de serveurs Google augmentent considérablement, même dans les cas où l’on n’a pas utilisé d’applications Google majeures (c.-à-d. ni recherche Google, ni YouTube, pas de Gmail ni Google Maps). Cette augmentation s’explique en grande partie par l’activité sur les données de l’éditeur et de l’annonceur de Google (Google Analytics, DoubleClick, AdWords) 11. Ces données représentaient 46 % de l’ensemble des requêtes aux serveurs Google depuis le téléphone Android. Google a collecté la localisation à un taux 1,4 fois supérieur par rapport à l’expérience du téléphone fixe sans interaction avec l’utilisateur. En termes d’amplitude, les serveurs de Google ont communiqué 11,6 Mo de données par jour (ou 0,35 Go / mois) avec l’appareil Android. Cette expérience suggère que même si un utilisateur n’interagit avec aucune application phare de Google, Google est toujours en mesure de recueillir beaucoup d’informations par l’entremise de ses produits d’annonce et d’éditeur.
f. Si un utilisateur d’appareil sous iOS décide de renoncer à l’usage de tout produit Google (c’est-à-dire sans Android, ni Chrome, ni applications Google) et visite exclusivement des pages web non-Google, le nombre de fois où les données sont communiquées aux serveurs de Google demeure encore étonnamment élevé. Cette communication est menée exclusivement par des services de l’annonceur/éditeur. Le nombre d’appels de ces services Google à partir d’un appareil iOS est similaire à ceux passés par un appareil Android. Dans notre expérience, la quantité totale de données communiquées aux serveurs Google à partir d’un appareil iOS est environ la moitié de ce qui est envoyé à partir d’un appareil Android.
g. Les identificateurs publicitaires (qui sont censés être « anonymisés » et collectent des données sur l’activité des applications et les visites des pages web tierces) peuvent être associés à l’identité d’un utilisateur ou utilisatrice de Google. Cela se produit par le transfert des informations d’identification depuis l’appareil Android vers les serveurs de Google. De même, le cookie ID DoubleClick (qui piste les activités des utilisateurs et utilisatrices sur les pages web d’un tiers) constitue un autre identificateur censé être anonymisé que Google peut associer à celui d’un compte personnel Google, si l’utilisateur accède à une application Google avec le navigateur déjà utilisé pour aller sur la page web externe. En définitive, nos conclusions sont que Google a la possibilité de connecter les données anonymes collectées par des moyens passifs avec les données personnelles de l’utilisateur.
Les tests d'ADN pour connaître ses « origines » explosent aux États-Unis. Mais les entreprises privées qui les réalisent revendent souvent ces données, pourtant si précieuses.
Ils veulent savoir d’où viennent leurs épais sourcils, leurs tâches de rousseur ou leur teint olive. Un peu d’Irlande, de bassin méditerranéen ou d’Amérique centrale. Aux États-Unis, de plus en plus d’Américains choisissent de passer un test ADN afin de connaître leurs origines. Pour cela, nul besoin de se rendre dans des laboratoires spécialisés. Pour quelques dizaines de dollars, ils peuvent commander un kit de prélèvement sur internet ou même aller le chercher directement dans la pharmacie de leur quartier.
Pour savoir d’où ils « viennent », ils déposent un peu de salive dans un tube en plastique puis l’envoient par la poste pour le faire analyser. Plus de 10 millions d’Américains et Américaines y ont déjà eu recours, selon une étude publiée dans le magazine scientifique Genome biology. « Si on se projette d’ici à 2021, ce sont plus de 100 millions de profils ADN qui auront été analysés. La croissance réelle excèdera probablement nos prédictions en raison de l’augmentation croissante de la publicité et du prix de séquençage de l’ADN qui baisse », expliquent les deux auteurs de l’étude. Mais est-ce vraiment une bonne idée ?
Le séquençage du génome a fait des progrès fulgurants. Il a fallu 13 ans, de 1990 à 2003, pour séquencer un génome entier pour la première fois. 15 ans plus tard, en 2018, cela ne prend plus que quelques jours. Et les tests grand public, eux, n’en analysent en fait qu’une partie.
Cette technologie n’est pas chère, facile d’accès, et produit des résultats rapides. Pourquoi ne pas y céder et découvrir les secrets cachés dans nos doubles hélices d’ADN ? Peut-être parce que nos informations génétiques font partie de ce que nous avons de plus cher. Et pour cause, les grands groupes se l’arrachent… Cet été, 23andMe, l’une des principales entreprises de ce secteur, a revendu la quasi-totalité des données qu’elle possédait au géant de l’industrie pharmaceutique GlaxoSmithKline. 80 % des utilisateurs de ce kit ont autorisé le partage de leurs données, faute d’avoir bien lu les petites lignes des conditions du contrat.
23andMe assure n’utiliser les données que des clients qui ont donné leur autorisation, et qui plus est, en les anonymisant. « Personne ne peut être identifié », peut-on lire dans un communiqué publié par l’entreprise. Mais plusieurs voix dissidentes commencent à se faire entendre au sein de la communauté scientifique, comme sur le site du Times. « Ces informations ne sont jamais sécurisées à 100 %. Le risque est amplifié quand une organisation les partage avec une autre. Quand les informations vont d’un endroit à l’autre, il y a toujours un risque qu’elles soient interceptées par d’autres acteurs », estime Peter Pitts, le président du Center for medicine in the public interest (CMPI), une association de recherche à but non lucrative.
Ces données destinées à découvrir ses origines seront finalement utilisées par un laboratoire pharmaceutique pour mettre sur le marché de nouveaux médicaments, notamment dans la maladie de Parkinson. « Ensemble, GSK et 23andme vont s’employer à traduire ces informations génétiques et phénotypiques dans nos activités de R&D pour développer la médecine de précision, mettre en point des sous-groupes de patients et constituer plus facilement des cohortes pour les études cliniques », explique l’entreprise pharmaceutique dans un communiqué.
Il suffit que 2 % de la population donne son ADN pour que tous les Américains puissent être identifiés
Surtout, la notion de vie privée risque d’être considérablement restreinte dans les années à venir. Il suffit que 2 % de la population donne son ADN pour que tous les Américains puissent être identifiés, selon une étude publiée dans la revue Science par Yaniv Erlich, le responsable scientifique de MyHeritage, une entreprise de tests ADN basée en Israël. Aujourd’hui déjà, plus de 60 % des Américains d’origine européenne peuvent être identifiés grâce aux bases de données de généalogie génétique publiques, comme GEDmatch.
Cette base de données a même permis à la police californienne de retrouver l’identité d’un tueur, en téléchargeant simplement son ADN sur le site. Sur GEDmatch, où tous les ADN sont enregistrés au format texte, avec un nom et une adresse mail associée, il est possible de retrouver les ADN proches des nôtres. La police a réussi à mettre la main sur un cousin au 3e degré du tueur, alors que le meurtre datait de 1980. La technique est maintenant utilisée à l’échelle nationale pour résoudre les cold cases, avec déjà 13 personnes arrêtées en 5 mois.
Si dans ce cas-là, la génétique a été utilisée à bon escient, le contraire peut vite arriver. C’est Yaniv Erlich lui-même qui met en garde contre cette technique dans l’étude publiée sur le site de Science : « Même si les décideurs et le grand public peuvent être en faveur de l’amélioration des outils médico-légaux pour résoudre les crimes, ils reposent sur des bases de données ouvertes à tout le monde. Par conséquent, la même technique pourrait être utilisée de façon abusive dans des buts néfastes, comme l’identification inversée d’individus ayant participé à des recherches à partir de leurs données génétiques. »
Voilà donc bien des écueils auxquels se soumettent personnes souhaitant simplement savoir qui ont été leurs ancêtres. D’autant que le test ADN ne permet pas vraiment d’avoir un temps d’avance sur les risques qui planent sur notre santé. La Food and Drug Administration (FDA), le gendarme du médicament américain, avait imposé un moratoire sur les tests de santé de 23andMe en 2013.
Il a finalement été levé en 2017 pour une dizaine de maladies, comme Alzheimer, Parkison, le risque de thromboses ou de maladies coeliaques. Là encore, le ton restait prudent. « Il est important que les gens comprennent que le risque génétique n’est qu’une pièce d’un puzzle plus large. Cela ne veut pas dire qu’ils vont, ou ne vont pas développer une maladie », déclarait alors Jeffrey Shuren, directeur du centre de la FDA en charge des dispositifs médicaux. Le résultat génétique reste une indication et ne permet aucune projection avérée.
En attendant, des vidéos méticuleusement mises en scène se multiplient sur Youtube, montrant des anonymes en train de découvrir leurs résultats. Beaucoup d’entre elles ont été postées par Momondo, un site de… comparateurs de voyages. À l’occasion d’un concours, l’enseigne offrait même un voyage dans le pays « de ses racines » à un grand gagnant. Ce genre de pratiques risque de s’étendre à l’Europe. AncestryDNA et 23andMe n’envoient pas leurs kits en France, mais des produits similaires sont disponibles sur Amazon. Myheritage a ouvert sa livraison à la France, bien que les tests génétiques de convenance n’y soient pas autorisés. Ils ont même récemment fait une promo pour Halloween. Reste à savoir si le jeu en vaut la chandelle.
Attendu depuis près de 15 ans, le dossier médical partagé (DMP), sorte de carnet de santé numérique, pourrait bientôt devenir une réalité pour tous les Français, la ministre de la Santé Agnès Buzyn devant annoncer mardi sa généralisation.
Lundi, elle a invité "tous les Français" à "se faire ouvrir" un DMP, soit sur internet, soit chez leur pharmacien, vantant un outil permettant des "gains de temps, peut-être des économies" en rationalisant les soins, mais "avant tout un outil de partage d'information pour faire de la meilleure médecine".
Le directeur général de l'Assurance maladie, Nicolas Revel, et le président de France Assos Santé, qui regroupe 80 associations de patients, participeront au "lancement officiel" de la nouvelle version de cet outil présenté dès 2004 par Philippe Douste Blazy, l'un des prédécesseurs de Mme Buzyn.
Mais les curieux peuvent d'ores et déjà se rendre sur le site dmp.fr, qui permet à tous les volontaires de créer leur carnet en ligne, et télécharger l'application mobile dédiée.
"Gratuit, confidentiel et sécurisé", le DMP "conserve précieusement" les informations de santé du patient, libre de les partager avec son médecin traitant et "tous les professionnels de santé" de son parcours, explique l'Assurance maladie, chargée de la nouvelle mouture, testée depuis 2016 dans neuf départements.
D'après elle, "le DMP est le seul service" qui permette de "retrouver dans un même endroit" son historique de soins des 24 derniers mois, ses antécédents médicaux (pathologie, allergies...), ses résultats d'examens (radio, analyses biologiques...), les comptes-rendus d'hospitalisation ou encore les coordonnées des proches à prévenir en cas d'urgence.
De quoi satisfaire Fabienne, 57 ans, dont l'allergie aux sulfamides (antibiotique) a failli lui coûter la vie il y a quelques années, après une opération. "Je savais que j'étais allergique à un médicament mais ne me souvenais plus lequel, alors l'anesthésiste a supposé qu'il s'agissait de la pénicilline".
Eviter ce type d'incident, mais aussi les interactions médicamenteuses dangereuses ou les actes redondants et inutiles est la vocation du DMP, également censé favoriser la coopération entre les professionnels de santé. Il est de ce fait particulièrement recommandé aux personnes atteintes de pathologies chroniques ou aux femmes enceintes.
"pas obligatoire"
Le DMP est tombé dans le giron de l'Assurance maladie en 2016, en vertu de la loi santé de Marisol Touraine, soucieuse de refonder un dispositif au point mort malgré son coût, d'"au moins 210 millions d'euros" entre 2004 et fin 2011, selon la Cour des comptes...
Bien loin des milliards d'euros d'économies visés par M. Douste-Blazy.
La première phase de développement a déjà permis de créer 550.000 DMP en 18 mois, jusqu'à mai 2018. En y ajoutant ceux de la décennie précédente, "plus de 1,2 million de DMP" étaient ouverts au début de l'été, selon l'Assurance maladie
C'est encore loin de l'"objectif de 40 millions de DMP ouverts d'ici à 5 ans" inscrit dans un accord entre l'Assurance maladie et l'Union nationale des professionnels de santé (UNPS).
Mais plusieurs innovations devraient ôter certains freins, notamment chez les professionnels de santé, qui ont boudé la précédente version, pas assez ergonomique, trop chronophage.
Les patients pourront cette fois ouvrir eux-même leur dossier en ligne ou auprès des agents des caisses d'assurance maladie, en plus des établissements de santé et des professionnels, pour lesquels l'Assurance maladie pourrait négocier "des mécanismes d'incitation" financière, comme elle l'a déjà fait avec les pharmaciens, qui toucheront un euro par DMP ouvert.
En outre, c'est l'Assurance maladie qui injectera automatiquement dans le DMP "l'historique des remboursements" des actes et des médicaments sur les deux dernières années, alors que les précédents DMP étaient plutôt vides.
Côté patient, le DMP "n'est pas obligatoire et n'a aucun impact sur (les) remboursements", peut-on lire sur le site dmp.fr.
"Seul" le médecin traitant "peut accéder à l'ensemble des informations", le patient pouvant bloquer les professionnels de son choix, ajouter ou masquer certains documents, ou tout bonnement supprimer son DMP, dont "les données seront conservées pendant 10 ans".
Reste à voir si les hôpitaux et les cabinets médicaux disposeront de logiciels capables d'intégrer facilement des documents au DMP, et comment la protection du secret médical sera garantie.
En libre téléchargement au format PDF, un cahier de vacances pour les 7-11 ans sur la sécurité numérique.
NDLR : Il parait qu'officiellement en France il ne faut plus dire "fake news", mais infox. Si si si, c''était au Journal officiel, donc, ce n'est pas une fake news ... heu je veux dire une infox.