Vous avez sans doute vu défiler des annonces du Black Friday vous invitant à acheter des produits de toute sorte. Si vous vous êtes résolu à acheter une (nouvelle) smart TV, le FBI voudrait que vous sachiez un certain nombre de choses.
Les smart TV ressemblent aux téléviseurs ordinaires, mais disposent de la possibilité de se connecter à Internet. Plusieurs vont se tourner vers la télévision connectée pour avoir accès à des services de streaming comme Netflix, Hulu, Amazon Prime Video et d’autres. Mais, comme tout ce qui se connecte à Internet, les vulnérabilités des smart TV sont donc ouvertes aux hackers. De plus, de nombreuses smart TV sont équipées d'une caméra et d'un microphone. Pourtant, comme pour la plupart des autres appareils connectés à Internet, les fabricants ne mettent souvent pas la sécurité en priorité.
C’est l'un des points sur lesquels le bureau du FBI à Portland a publié un avertissement sur son site Web.
« Un certain nombre de téléviseurs récents ont également des caméras intégrées. Dans certains cas, les caméras sont utilisées pour la reconnaissance faciale afin que le téléviseur sache qui est en train de regarder les programmes pour adapter le contenu et réaliser des propositions. Certains de ses appareils permettent également de réaliser des appels vidéo.
« Outre le risque que votre fabricant de télévision et les développeurs d'applications vous écoutent et vous regardent, la télévision peut également être une passerelle pour que les pirates pénètrent dans votre maison. Un cyberacteur malveillant peut ne pas être en mesure d'accéder directement à votre ordinateur verrouillé, mais il est possible que votre téléviseur non sécurisé lui permette d'accéder facilement à la porte dérobée via votre routeur.
« Les pirates peuvent également prendre le contrôle de votre téléviseur non sécurisé. Au bas du spectre des risques, ils peuvent changer de chaîne, jouer avec le volume et montrer à vos enfants des vidéos inappropriées. Dans le pire des cas, ils peuvent allumer la caméra et le microphone de votre téléviseur et vous espionner ».
Les attaques actives et les exploits contre les téléviseurs connectés sont rares, mais pas inconnus. Étant donné que chaque téléviseur intelligent connecté est livré avec le logiciel de son fabricant et est à la merci de son programme de correctifs de sécurité irrégulier et souvent peu fiable, certains appareils sont plus vulnérables que d’autres. Plus tôt cette année, des hackers ont montré qu’il était possible de détourner la Google Chromecast et de diffuser des vidéos au hasard à des milliers de victimes.
En fait, certains des plus grands exploits ciblant les télévisions connectées de ces dernières années ont été développés par la CIA, mais ont été volés. Les fichiers ont ensuite été publiés en ligne par WikiLeaks.
Cependant, même si l’avertissement du FBI répond à de véritables craintes, l’un des problèmes les plus importants qui devraient en susciter autant, sinon davantage, est le nombre de données de suivi collectées sur les propriétaires de téléviseurs intelligents.
Le Washington Post, plus tôt cette année, a constaté que certains des fabricants de téléviseurs intelligents les plus populaires, y compris Samsung et LG, collectent des tonnes d'informations sur ce que les utilisateurs regardent afin d'aider les annonceurs à mieux cibler leurs publicités et à suggérer des contenus à suivre, par exemple. Le problème de la retransmission télévisée est devenu si problématique il y a quelques années que le fabricant de téléviseurs intelligents Vizio a dû payer une amende de 2,2 millions de dollars après avoir été surpris en train de collecter secrètement les données de visionnage. Plus tôt cette année, un recours collectif séparé lié à la poursuite de Vizio a été autorisé malgré la demande de l'entreprise.
Les téléviseurs et la technologie occupent une place importante dans nos vies et ne sont pas près de disparaître. Aussi, le FBI a fait une série de recommandations pour vous aider à mieux protéger votre famille :
Sachez exactement quelles sont les fonctionnalités de votre téléviseur et comment les contrôler. Effectuez une recherche Internet de base avec votre numéro de modèle et les mots « microphone », « caméra » et « confidentialité ».
Ne dépendez pas des paramètres de sécurité par défaut. Modifiez les mots de passe si vous le pouvez. Sachez, si possible, désactiver les microphones, les appareils photo et la collecte des informations personnelles. Si vous ne pouvez pas les désactiver, déterminez si vous êtes prêt à prendre le risque d’acheter ce modèle ou d’utiliser ce service.
Si vous ne pouvez pas éteindre une caméra, mais souhaitez le faire, un simple morceau de ruban noir sur l’œil de la caméra est une option de retour aux sources.
Vérifiez la capacité du fabricant à mettre à jour votre appareil avec des correctifs de sécurité. Peuvent-ils le faire ? L'ont-ils fait dans le passé ?
Vérifiez la politique de confidentialité du fabricant de téléviseurs et les services de streaming que vous utilisez. Confirmez quelles données ils collectent, comment ils les stockent et ce qu’ils en font.
Source : FBI
The FBI says owners of IoT (Internet of Things) devices should isolate this equipment on a separate WiFi network, different from the one they're using for their primary devices, such as laptops, desktops, or smartphones.
"Your fridge and your laptop should not be on the same network," the FBI's Portland office said in a weekly tech advice column. "Keep your most private, sensitive data on a separate system from your other IoT devices," it added.
The same advice -- to keep devices on a separate WiFi network or LAN -- has been shared in the past by multiple IT and security experts [1, 2, 3, 4].
The reasoning behind it is simple. By keeping all the IoT equipment on a separate network, any compromise of a "smart" device will not grant an attacker a direct route to a user's primary devices -- where most of their data is stored. Jumping across the two networks would require considerable effort from the attacker.
However, placing primary devices and IoT devices on separate networks might not sound that easy for non-technical users. The simplest way is to use two routers.
The smarter way is to use "micro-segmentation," a feature found in the firmware of most WiFi routers, which allows router admins to create virtual networks (VLANs). VLANs will behave as different networks; even they effectively run on the same router. A good tutorial on how you can create VLANs on your routers is available here.
While isolating IoT devices on their own network is the best course of action for both home users and companies alike, this wasn't the FBI's only advice on dealing with IoT devices. See below:
Change the device's factory settings from the default password. A simple Internet search should tell you how—and if you can't find the information, consider moving on to another product.
Passwords should be as long as possible and unique for IoT devices.
Many connected devices are supported by mobile apps on your phone. These apps could be running in the background and using default permissions that you never realized you approved. Know what kind of personal information those apps are collecting and say "no" to privilege requests that don't make sense.
Make sure all your devices are updated regularly. If automatic updates are available for software, hardware, and operating systems, turn them on.
Last week, the same FBI branch office in Portland also gave out similarly good advice on dealing with smart TVs by recommending that device owners put a piece of black tape over their smart TV's camera lens.
The FBI claimed that hackers who take over one of today's fully-featured smart television sets would be able to spy on device owners through the built-in cameras.
While this is prudent advice, it is worth mentioning that there have not been any known cases of this happening -- with hackers taking over a smart TV and spying on its owner.
Des chercheurs en sécurité ont découvert qu'il était possible d'espionner des conversations en ajoutant du code dans les applications des enceintes connectées d'Amazon et de Google. Il s'agit d'une forme de phishing vocal pour obliger les utilisateurs à donner des infos confidentielles comme un mot de passe ou une adresse email, mais aussi pour les enregistrer à leur insu.
Alors que le déploiement sécurisé des réseaux 5G vient d’être adopté par la France (loi « anti-Huawei »), les polémiques fleurissent autour des assistants vocaux (sans oublier votre Xbox) convertis en véritables « mouchards ». A la suite de lanceurs d’alerte, plusieurs médias ont ainsi révélé l’étendue des enregistrements accidentels (non déclenchés par l’utilisateur) et surtout l’envoi de tous les enregistrements à des sous-traitants dont les salariés écoutent vos moments les plus intimes.
Google Home, Apple Siri, Amazon Echo et Xbox, fabricants de ces dispositifs reposant sur l’intelligence artificielle ont en effet recours à des sociétés extérieures pour analyser les requêtes. C’est acceptable, mais là où cela devient glissant, c’est que les salariés peuvent écouter les enregistrements des voix des membres du foyer et des personnes qui les visitent et sont à portée de voix.
La commande vocale est en réalité profondément infiltrée dans votre vie privée. Au-delà des assistants vocaux ce sont bien sûr le téléphone, un casque audio, les équipements ménagers, jusqu’à votre chambre d’hôtel, et demain les véhicules autonomes qui fonctionnent grâce à cette technologie. Il est donc temps de découvrir ce que les fabricants enregistrent, pourquoi, et quels sont les risques pour les utilisateurs.
Contrôler des objets connectés, utiliser des services de divertissement tels sont les fonctions des assistants personnels à commande vocale : répondre à une question, jouer un morceau de musique, donner la météo, descendre les stores, diminuer la température… un vrai valet à votre service !
Tous les appareils connectés se trouvent dans le foyer ou sont portés par leurs utilisateurs. Le volume des données qu’ils génèrent est donc très important et reflète parfaitement le mode de vie de la famille depuis l’heure du lever. Réglage du chauffage, goûts culturels, achats passés, centres d’intérêt… rien de leur échappe. Le profil commercial de chaque membre de la famille est affiné en toute discrétion puisque la voix qui commande l’appareil ne laisse aucune « trace ». En effet, vous souvenez-vous des requêtes formulées hier ? La semaine dernière ? Ou depuis l’achat de cet assistant ? Et qu’en est-il des interactions de vos enfants ou de leurs amis avec cette machine ? L’appareil lui, ne perd pas une miette du moindre mot et s’empresse de l’analyser pour peaufiner la technologie de reconnaissance vocale et, au passage, la publicité ciblée.
Le fonctionnement est tellement simple que l’appareil se déclenche au bruit d’une simple fermeture éclair ! Siri s’est aussi déclenché en plein discours du Secrétaire à la Défense Gavin Williamson qui s’adressait aux députés au sujet de la Syrie. Le même assistant s’active aussi en concordance avec l’Apple Watch. Or, le taux de déclenchement accidentel de cette montre connectée est très élevé et il peut enregistrer jusqu’à 30 secondes de son. Des négociations d’affaires aux rapports sexuels, en passant par des transactions illicites et des consultations médicales, l’objet des enregistrements est identifiable en un rien de temps.
Le motif invoqué par les fabricants pour justifier ces enregistrements est l’amélioration de la technologie de reconnaissance vocale : « améliorer la qualité langagière » selon Amazon et Google. Les sociétés précisent qu’elles permettent à l’utilisateur de s’opposer à certaines utilisations de ces enregistrements par une option d’« opt-out » (pour ce faire, il faudra vous immerger dans les paramètres de votre appareil…). Apple a pour sa part expliqué que l’analyse porte sur moins de 1 % des requêtes et qu’elle se fait moyennant des garanties : les données sont anonymisées (elles ne peuvent pas être rattachées à l’identifiant d’un client) et les personnes chargées de l’analyse ont signé un engagement de confidentialité. Devant le tollé provoqué par ces révélations, la firme a décidé d’introduire une option de consentement pour les utilisateurs.
Si ces enregistrements « accidentels » et leur envoi pour analyse et écoute à des sous-traitants alimentent la polémique, c’est parce que les utilisateurs n’en étaient pas informés par les fabricants. Leur manque de loyauté et de transparence vis-à-vis de leurs clients est donc condamnable, sans compter l’absence de sécurité et de confidentialité s’agissant des enregistrements communiqués aux médias. Ces enregistrements comprennent l’historique des requêtes audio et la transcription des requêtes. Ils sont accompagnés de données de localisation, données de contacts et détails des applications qui servent à vérifier si la réponse à une requête a été donnée, plus les méta-données (date, heure, utilisateur…).
De surcroît, d’innombrables cas d’enregistrements portent sur des discussions privées entre médecins et patients, des négociations commerciales, des transactions apparemment criminelles, ou encore de rencontres sexuelles, etc.
Or, les données contenues par ces enregistrements sont des données à caractère personnel puisqu’il s’agit d’informations se rapportant à une personne physique identifiée ou identifiable. Rappelons que la personne physique peut être identifiée indirectement par référence à un identifiant (nom, numéro d’identification, données de localisation) ou à un ou plusieurs éléments spécifiques propres à son identité qu’elle soit physique, économique, culturelle ou sociale.
Nombre de ces données sont qualifiées de sensibles : celles révélant l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses, l’appartenance syndicale, les données de santé ou celles concernant la vie sexuelle ou l’orientation sexuelle d’une personne. Le RGPD interdit le traitement de ces données sauf consentement explicite de la personne et dans certaines hypothèses strictement définies (art. 9). Or, dans de tels cas, les équipes qui analysent les enregistrements ont pour toute consigne de rapporter un « incident technique », sans plus. Aucune procédure n’est mise en place pour ces données très sensibles !
Au-delà de la publicité ciblée, les risques sont le partage ou la commercialisation des données, le piratage et l’utilisation par des tiers non autorisés (usurpation d’identité, arnaques, ransomware, etc.). Ces risques sont bien réels car la détection de la voix humaine n’est pas infaillible. Lors du Super Bowl 2017, une publicité TV sur Google Home avait déclenché les appareils des téléspectateurs car les personnages lançaient le fameux « OK Google ». De nombreux utilisateurs d’Amazon Echo ont reçu à leur domicile une maison de poupée qu’ils n’avaient pas commandée ! La commande vocale est donc la grande vulnérabilité de ces nouvelles technologies.
L’utilisation des assistants à commande vocale se révèle donc à haut risque pour la vie privée de ses utilisateurs. Leurs propriétaires sont en premier lieu affectés ainsi que toute personne se trouvant à portée de voix de l’appareil, même s’il n’en a pas forcément conscience. Plusieurs principes du RGDP ne sont sans doute pas observés. Celui de licéité, loyauté et transparence tout d’abord, puisque ces enregistrements et leur envoi à des sous-traitants ont eu lieu en dehors de toute information des personnes aisément accessible, facile à comprendre et formulée en termes clairs et simples. La minimisation de l’usage des données est aussi mise à mal car ces sociétés traitent des données qui ne sont ni adéquates, ni pertinentes au regard des requêtes des usagers.
Ensuite, rappelons qu’en vertu du principe de limitation des finalités, la ou les finalités doivent répondre à trois qualités. Être « déterminées » préalablement ce qui signifie qu’il est interdit de collecter des données à des fins préventives. Ces finalités doivent être « explicites », c’est-à-dire communiquées à la personne concernée (droit à l’information) et enfin, être légitimes par rapport à l’activité du responsable de traitement.
Quant à la limitation de la conservation, aucune durée n’est spécifiée par les CGU de Google si ce n’est que les enregistrements sont conservés jusqu’à ce que les utilisateurs les suppriment. Comment faire ? Ici encore, tout repose sur la vigilance de la personne et sa persévérance, à défaut de protection par défaut et dès la conception de la part de Google (accédez ici à votre activité sur la page de Google pour tenter de supprimer vos enregistrements).
Sur certains produits, il est possible de paramétrer plusieurs profils d’utilisateurs, dans ce cas les enregistrements permettent l’identification de la personne (biométrie vocale) et les données sont rattachées à chaque profil. S’agissant de données biométriques, elles sont qualifiées de sensibles au sens du RGPD et ne peuvent être traitées que sur la base d’un consentement explicite.
En cas d’utilisation des données pour une finalité autre que celles spécifiées dans les conditions d’utilisation de ces services, les sociétés peuvent voir leur responsabilité engagée pour détournement de finalité. La CNIL a récemment mis en demeure des sociétés des groupes Humanis et Malakoff-Médéric de cesser d’utiliser pour de la prospection commerciale des données personnelles collectées exclusivement afin de payer les allocations retraite.
Avec l’entrée en application du RGPD, les amendes administratives pour violation des principes de base d’un traitement, y compris les conditions applicables au consentement, peuvent atteindre vingt millions d’euros ou jusqu’à 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent (le montant le plus élevé étant retenu).
L’autorité de protection des données allemande a justement ouvert une procédure d’enquête en août dernier enjoignant Google de cesser ses analyses des enregistrements pour une durée de 3 mois dans l’Union européenne.
Les détenteurs de ces assistants peuvent tout d’abord exercer leurs droits d’accès à leurs données à caractère personnel pour savoir quelles écoutes ont été faites, et ensuite en demander la suppression. En attendant que des sanctions soient prises, les conseils de la CNIL sont les suivants :
Privilégier l’utilisation d’enceintes équipées d’un bouton de désactivation du microphone.
Couper le micro/éteindre/débrancher l’appareil lorsque vous ne souhaitez pas être écouté. Certains dispositifs n’ont pas de bouton on/off et doivent être débranchés.
Avertir les tiers/invités de l’enregistrement potentiel des conversations (ou couper le micro lorsqu’il y a des invités).
Encadrer les interactions des enfants avec ce type d’appareils (rester dans la pièce, éteindre le dispositif lorsqu’on n’est pas avec eux).
Vérifier qu’il est bien réglé par défaut pour filtrer les informations à destination des enfants.
Enfin, si vous possédez l’appareil Alexa d’Amazon, il est possible de désactiver l’option d’enregistrement dans : Paramètres > Alexa et vos informations personnelles > Gérer comment vos données contribuent à améliorer Alexa > Contribuer à améliorer les services Amazon et à développer de nouvelles fonctionnalités.
Google, Apple, Facebook, Amazon, Microsoft… ces firmes ont récemment reconnu avoir écouté des conversations d’utilisateurs à partir d’enceintes connectées ou de smartphones dans le but d’améliorer les performances de leurs systèmes.
Nichés dans nos téléphones, enceintes et autres objets connectés… les assistants vocaux envahissent notre vie quotidienne. Leur rôle, répondre à des requêtes et exécuter des actions comme l’envoi d’un message, le lancement d’une musique, une recherche sur internet… Faciliter la vie de tout un chacun, en somme.
Mais un nuage vient ternir l’horizon : nos requêtes, nos questions, mais aussi nos conversations privées peuvent être stockées et écoutées. Alors, comment s’en prémunir ?
Les enceintes connectées sont « en veille permanente » et peuvent « s’activer et enregistrer inopinément une conversation dès lors qu’elle[s] croi[en]t détecter le mot-clé » qui la déclenche, rappelle la Commission nationale de l’informatique et des libertés (CNIL) dans un guide en ligne publié en 2018.
L’autorité administrative prodigue quelques conseils pour protéger la vie privée des utilisateurs : privilégier les enceintes « équipées d’un bouton de désactivation du microphone » afin de pouvoir « couper le micro » ou « débrancher l’appareil » lorsque l’on ne souhaite pas être écouté, supprimer régulièrement « l’historique des conversations/questions posées » ou encore « avertir des tiers de l’enregistrement potentiel des conversations ».
Malgré toutes ces précautions, « le simple fait d’avoir une enceinte connectée comporte un danger sur l’utilisation des extraits vocaux », met en garde Martin Drago, juriste à la Quadrature du net. Aroua Biri, experte en cybersécurité, file la métaphore : « l’enceinte connectée, c’est une personne qui peut nous écouter du matin au soir. Ce que l’on dit en sa présence doit pouvoir être dit devant une assemblée ».
Outre l’utilisation des données par les entreprises, la menace d’un piratage plane. « Imaginez si un hacker s’emparait des conversations… », lance Aroua Biri. La solution serait d’« éviter de placer ces appareils dans des espaces d’intimité et de limiter leur usage à un moment dans la journée par exemple ».
Le risque est aussi présent avec les smartphones, qui peuvent également être équipés d’assistants vocaux. Les plus connus : Siri pour Apple, et Google Assistant chez Google. Pour éviter tout enregistrement, il faut tout simplement désactiver lesdits assistants. Mais si l’utilisateur souhaite s’en servir avec plus de contrôle, il est possible de désactiver la fonction de mise en route vocale. Les fameux « Dis Siri » ou « Ok Google ». En clair, l’assistant devra être activé manuellement par l’utilisateur à chaque requête, ce qui ralentit quelque peu le procédé.
Par ailleurs, Google a mis en place l’outil « Mon activité » afin de permettre aux utilisateurs de connaître leurs données enregistrées, dont l’historique des commandes vocales effectuées. Il est possible d’y désactiver l’« activité vocale et audio ».
Dernière révélation en date : Facebook a reconnu avoir fait écouter et transcrire des conversations vocales privées tenues sur son application Messenger. Le réseau social explique que les utilisateurs avaient donné leur accord. Aroua Biri déplore le fait que « beaucoup de gens téléchargent sans regarder les droits qu’ils accordent aux applications ». Dans le cadre de Messenger, explique-t-elle, il est possible d’utiliser l’application sans avoir à accorder la permission d’activer le microphone.
Pour limiter les risques, cette « culture de la vérification » serait donc une condition nécessaire. Mais pas forcément suffisante : « quand Facebook demandait à l’utilisateur de consentir à l’utilisation de son micro sur Messenger, personne ne savait que derrière, il allait y avoir des humains qui allaient écouter les conversations », regrette Martin Drago.
Des enregistrements des questions posées à Siri sont écoutées par Apple et peuvent révéler des informations très sensibles.
«Ce qui se passe dans votre iPhone reste dans votre iPhone.» proclamait un immense panneau publicitaire affiché dans Las Vegas lors du dernier CES, un grand salon dédié aux nouvelles technologies. Une bravade d’Apple, qui n’a de cesse de vanter sa supériorité sur ses concurrents en terme de protection des données.
Mais comme Amazon et Google l’ont admis avant elle, la firme de Cupertino écoute elle aussi les extraits audio enregistrés par son assistant vocal Siri, selon les révélations d'un lanceur d'alertes au Guardian.
Comme chez Google et Amazon, une petite portion des enregistrements de Siri, moins de 1% selon Apple, sont sélectionnés au hasard puis envoyés à des reviewers afin de vérifier si Siri a correctement compris ce qui lui était demandé, qu’il n’a pas répondu à coté, que l’activation était bien intentionnelle, etc.
Apple précise auprès du Guardian que les enregistrements, qui ne durent que quelques secondes, ne sont pas liés aux identifiants de leurs client·es, et que toutes les personnes en mesure de les écouter ont signé des accords stricts de confidentialité.
Mais même si les identités ne sont pas directement reliées aux enregistrements, le personnel a tout de même accès aux coordonnées, contacts et données des applis liées à l'appareil utilisé.
Ce processus permet d’identifier les failles de l’assistant et de l’améliorer. Seulement, ce ne sont pas des personnes directement employées par Apple qui consultent ces fichiers. Ce sont des sous-traitants dont les employé·es, selon la source du Guardian, ne sont pas vraiment trié·es sur le volet.
Or, beaucoup d’enregistrements sont déclenchés par erreur. Il arrive à Siri de penser à tort que sa phrase d’activation («Hey Siri») a été prononcée, notamment quand il entend le bruit d’une fermeture éclair. Quand une Apple Watch est soulevée puis entend des paroles, Siri est aussi automatiquement déclenché, ce qui cause un nombre de déclenchement accidentels «incroyablement haut».
Ainsi, «on peut entendre un médecin et son patient, on ne peut pas être sûrs mais certaines conversations ressemblent beaucoup à un deal de drogue. Parfois, des gens en train de coucher ensemble sont accidentellement enregistrés par une enceinte connectée ou une montre».
Contrairement à Amazon et Google, qui permettent à leur clientèle de refuser que leurs enregistrements soient utilisés pour améliorer le service, le seul moyen pour y échapper chez Apple est de désactiver Siri entièrement.
Le géant américain reconnait enregistrer les conversations avec son assistant vocal. Mais aussi partager des informations avec des tiers...
Depuis leur apparition dans les foyers, les assistants vocaux intégrés à des objets connectés suscitent des doutes et des inquiétudes. Notamment quant à la confidentialité des conversations et de toutes les informations à caractère privé qu'elles recèlent. Comment les requêtes sont-elles analysées ? Les échanges sont-ils enregistrés ? Que deviennent les données collectées ? Les appareils sont-ils en écoute permanente ? Autant de questions que de nombreux utilisateurs se posent, et qui traduisent une légitime méfiance vis-à-vis d'intelligences artificielles toujours plus performantes mises au point par des sociétés commerciales.
Parmi ces dernières, Amazon concentre les craintes, surtout depuis que l'on a appris que les conversations engagées avec Alexa, son assistant intelligent, étaient enregistrées et transmises à des prestataires externes pour analyse, à fin d'amélioration (voir [actualité]). Des craintes qui devraient encore s'accentuer avec les informations recueillies par le sénateur américain Chris Coons, suite à une lettre qu'il avait envoyée en mai dernier aux dirigeants d'Amazon. Car la réponse du géant du commerce en ligne a de quoi donner des frissons...
Dans son courrier adressé le 28 juin au sénateur (et reproduit par nos confrères américains de Cnet), Brian Huseman, vice-président chargé des politiques publiques d'Amazon, confirme bien qu'Amazon conserve les enregistrements vocaux d'Alexa ainsi que leurs transcriptions indéfiniment. Il précise en outre les requêtes impliquant des transactions (achat de biens et de services) laissent des traces qui sont également enregistrées et utilisées, de même que certaines informations comme le réglage d'alarmes ou de rappels. Autant d'informations à caractère privé qui alimentent de gigantesques bases de données. Le tout, dans le but officiel d'améliorer la personnalisation de l'assistant vocal et d'optimiser les services rendus aux utilisateurs. – conformément à leurs propres demandes, dixit Amazon.
Une réponse qui n'a pas rassuré Chris Coons. Et qui ne l'a pas convaincu non plus. Le sénateur doute même que les conversations soient effectivement détruites, même après effacement manuel par l'utilisateur, et notamment par la commande vocale idoine (voir actualité). S'interrogeant toujours sur la nature des éléments conservés sur les serveurs de l'entreprise, il déplore également le flou qu'Amazon entretient sur le partage avec des tiers des informations collectées via Alexa. It est fort probable que l'affaire n'en reste pas là et qu'Amazon soit sommé de fournir davantage d'explications aux autorités comme à ses clients, voire de modifier les conditions d'utilisation d'Alexa et de clarifier ses pratiques.
Ce ne sont là que quelques-uns des moyens ingénieux par lesquels la police de la sûreté de l’Etat – mieux connue sous le nom de Stasi – espionna des individus entre 1950 et 1990, dont beaucoup sont maintenant exposés au musée de la Stasi à Berlin.
À l’heure actuelle, la police allemande – à l’instar de nombreuses forces de l’ordre – souhaite non seulement avoir accès à des données téléphoniques, mais également à des informations recueillies par des assistants numériques tels que Google Home et Amazon Echo.
L'Allemagne prévoit de discuter de cette question la semaine prochaine lors d'une réunion des ministres de l'intérieur. Mardi, un porte-parole du ministère de l'Intérieur a abordé la question lors d'une conférence de presse: "Pour lutter efficacement contre la criminalité, il est très important que les autorités fédérales et des États aient accès aux données collectées par ces appareils".
Cela a déclenché des sonneries d'alarme pour ceux qui surveillent les droits à la vie privée numérique.
"Ils savent que c'est anticonstitutionnel, ce qu'ils vont faire et je suppose que les autorités de protection des données s'impliquent", a déclaré Jeanette Hofmann, professeure de politique Internet à la Freie Universität Berlin et experte de recherche sur Internet et Internet à la société allemande du Bundestag. ,
Le problème du cartel de Tech est ouvert depuis des années
"La maison est toujours considérée comme un lieu sacré par rapport à ce qui se passe en public, la possibilité que tout ce que vous faites à la maison soit surveillé et que les données ne soient mises à la disposition des autorités répressives que sur décision de justice, est assez effrayant. "
L’Allemagne n’est certainement pas le seul pays à s’occuper de la question de la délimitation de la confidentialité des données numériques. Cependant, en raison de son histoire, l'Allemagne est particulièrement sensible au droit à la vie privée et a adopté certaines des lois les plus strictes au monde en matière de protection de la vie privée.
Sven Herpig, expert en cybersécurité, a déclaré que la politique allemande prenait traditionnellement en charge le cryptage pour cette raison.
"La politique que nous avons au cours des 20 dernières années dit:" Nous ne compromettons pas le cryptage, nous ne l'affaiblissons pas, nous ne faisons pas de backdoors, les forces de l'ordre doivent trouver un autre moyen d'accéder aux données ", a-t-il déclaré.
"Vous devez regarder l'expérience historique de la surveillance NS, puis nous avons une longue histoire contre la surveillance gouvernementale."
Toutefois, avec les assistants numériques tels que Google Home ou Amazon Echo, de nombreuses données collectées ne sont pas stockées en Allemagne, mais à l'étranger, notamment aux États-Unis. Jeudi, l'Union de sécurité de la Commission européenne s'est réunie pour évaluer les propositions permettant à tout membre, y compris l'Allemagne, d'accéder aux preuves numériques recueillies dans un autre pays.
"Trop longtemps, les criminels et les terroristes abusent de la technologie moderne pour commettre leurs crimes", a déclaré Julian King, commissaire de l'Union pour la sécurité, dans un communiqué. "En établissant des normes internationales pour l'accès aux preuves électroniques, nous franchissons un pas supplémentaire vers la fermeture de la zone dans laquelle ils exercent leurs activités en garantissant que les services répressifs puissent plus efficacement enquêter sur eux et les poursuivre, tout en respectant pleinement les droits fondamentaux. ".
Preuve numérique comme preuve pénale
Selon la Commission européenne, environ 85% des enquêtes pénales nécessitent des preuves numériques et dans 2/3 de ces cas, les preuves doivent être obtenues auprès de fournisseurs de services externes, en particulier aux États-Unis.
Cependant, les groupes allemands de défense des droits numériques ont critiqué les propositions de l'UE en soulignant que les lois strictes en matière de protection des données en Allemagne peuvent être mises à mal et ont soutenu que les propositions actuelles ne tiennent pas compte du fait qu'un crime dans un pays est nécessairement un crime dans un autre est vu.
Le nouveau plan de Facebook ne protège pas votre vie privée et la FTC ne
"Un tel régime n'aurait de sens que s'il existait un consensus au sein de l'UE ou au niveau international sur ce qui constitue un crime et que les mêmes garanties procédurales s'appliquent", a déclaré Elisabeth Niekrenz de Digital Society, un organisme de surveillance des droits numériques. "Si l'avortement est une infraction pénale dans un État et pas dans un autre, les fournisseurs de services de cet État ne devraient pas être contraints de prouver de tels événements."
Expériences de surveillance personnelle
Les Allemands savent par expérience à quel point la surveillance de masse peut être mal utilisée. Aujourd'hui, un citoyen allemand peut voir dans ses archives personnelles dans les archives de la Stasi les informations que la police a recueillies sur lui et sa famille, et utiliser ces informations pour harceler les dissidents et contrôler les simples citoyens.
Pour les appareils numériques, toutefois, ce sont les entreprises privées qui réduisent les données collectées grâce à cette surveillance dans le monde entier. Maintenant, prévient le professeur Hofmann, les gouvernements dans le contexte des enquêtes pénales veulent également avoir accès à cette richesse de données. Il incombe donc aux activistes des droits numériques de défendre leur cas devant les tribunaux.
L'agence nationale de sécurité arrête son programme de surveillance
"C’est un problème international. Nous sommes scandalisés d’avoir entendu nos conversations privées chez nous, mais le gouvernement dit qu’il en fera de même", a déclaré Hofmann.
"Nous avons privatisé de nombreuses infrastructures et transféré le pouvoir décisionnel aux marchés. Ainsi, dans le passé, lorsque les citoyens estimaient que le marché abusait de ces pouvoirs, ils pouvaient se tourner vers les gouvernements et exiger une réglementation, mais le système judiciaire reste la seule alternative C'est un gros problème pour toute démocratie. "
Guidée vocalement, une enceinte connectée assiste l’utilisateur dans les tâches de son quotidien. Quels enjeux posent cette technologie au regard de la vie privée des utilisateurs ?
Une enceinte connectée « intelligente » est un dispositif équipé d’un haut-parleur et d’un micro qui intègre un assistant vocal. Grâce à cet équipement, l’enceinte est capable d’interagir avec l’utilisateur pour lui délivrer un service suite à une requête vocale. L’assistant est en mesure de répondre à une question, jouer de la musique, donner la météo, régler le chauffage, activer des lumières, réserver un VTC/Taxi, acheter des billets, etc.
Le principe général de fonctionnement se caractérise par 5 grandes étapes :
Etape 1 - L’utilisateur « réveille » l’enceinte à l’aide d’un mot-clé (« Hey Snips » / « Ok Google » / « Hey Alexa »).
L’enceinte est en permanence à l’écoute du mot clé mais n’enregistre rien et ne procède à aucune opération tant qu’elle ne l’a pas entendu.
Etape 2 (optionnelle) - L'utilisateur est reconnu
Certains modèles proposent à l’utilisateur de pré-enregistrer des échantillons de sa voix de manière à lui permettre d’accéder à un service différencié des autres utilisateurs de l’appareil (parents, enfants, invités, etc.). On parle alors de biométrie vocale.
Les données biométriques étant des données sensibles au sens du RGPD, elles ne pourront notamment être traitées dans ce contexte que sur la base du consentement explicite de la personne concernée.
Etape 3 – L’utilisateur énonce sa requête.
Certaines enceintes enregistrent localement les requêtes de l’utilisateur de manière à lui laisser la maîtrise de ses données (ex. une enceinte connectée avec l’assistant vocal de Snips). D’autres en revanche, envoient ces requêtes dans le cloud, autrement dit sur les serveurs de traitement de la société (ex. Amazon Echo, Google Home, etc.). Dans les deux cas, l’appareil (ou ses serveurs) peut être amené à conserver :
- Un historique des requêtes transcrites afin de permettre à la personne de pouvoir les consulter et à l’éditeur d’adapter les fonctionnalités du service.
Etape 4 – La parole prononcée est automatiquement transcrite en texte puis interprétée afin qu’une réponse adaptée soit fournie.
Une phrase de réponse est synthétisée puis jouée sur l’enceinte et/ou une commande est passée (monter les stores, augmenter la température, jouer un morceau de musique, répondre à une question, etc.)
Etape 5 - L’enceinte repasse en « veille»
D’abord déployés sur les téléphones, puis les enceintes ou les casques audio, les assistants à commande vocale s’intègrent progressivement dans l’habitacle de votre véhicule, dans vos équipements ménagers et même dans certaines chambres d’hôtels !
Ainsi, même si « votre parole s’envole », vos requêtes vocales restent enregistrées dans le cloud au même titre que les requêtes écrites que vous effectuez dans certains moteurs de recherche !
Voici 3 points de vigilance qui s’ajoutent aux diverses interrogations auxquelles vous serez peut-être un jour confronté en tant qu’utilisateur :
La confidentialité des échanges
En veille permanente, l’enceinte connectée peut s’activer et enregistrer inopinément une conversation dès lors qu’elle croit détecter le mot-clé. Pour mieux protéger votre vie privée ou éviter ce type de dysfonctionnement, n’hésitez pas à :
Principalement destinées au domicile pour contrôler des objets connectés et des services de divertissement, les appareils dotés d’un assistant à commande vocale se retrouvent au cœur de la vie du foyer. Le profil publicitaire des utilisateurs se trouve donc alimenté par les différentes interactions de l’utilisateur avec l’assistant (par exemple, habitudes de vie : heure lever, réglage du chauffage, goûts culturels, achats passés, centres d’intérêt, etc.).
Nos conseils
- Connecter des services qui présentent réellement une utilité pour vous, tout en considérant les risques à partager des données intimes ou des fonctionnalités sensibles (ouverture porte, alarme…) ;
- Etre vigilant sur le fait que les propos tenus face à l’appareil peuvent enrichir votre profil publicitaire ;
- Ne pas hésiter à contacter les services supports en cas de questions et, le cas échéant, la CNIL.
L’utilisateur échange vocalement avec un assistant connecté sans nécessairement s’appuyer sur un tableau de bord visuel. Sans écran, difficile d’avoir un aperçu des traces enregistrées, ni de juger de la pertinence des suggestions, d’en savoir plus ou d’avoir accès à des réponses provenant d’autres sources.
Notre conseil
Se rendre régulièrement sur le tableau de bord pour supprimer l’historique des conversations/questions posées et personnaliser l’outil selon vos besoins. >Par exemple, définir le moteur de recherche ou la source d’information utilisé par défaut par l’assistant;
La CNIL est en contact avec les différents fabricants afin d’avoir une parfaite compréhension des systèmes déployés. Elle réalise des tests sur certains de ces appareils et mène des réflexions sur les moyens à mettre en œuvre afin de garantir que les utilisateurs sont bien informés des données collectées, des usages qui en sont faits et des moyens à leur disposition pour y accéder, les modifier, les supprimer, etc. Des informations complémentaires sont disponibles sur le site du Laboratoire d’innovation numérique de la CNIL.
Votre enceinte connectée, qu’il s’agisse d’Amazon Echo, de Google Home ou du Homepod d’Apple, n’est pas qu’un gentil petit assistant personnel à domicile, mais aussi un espion potentiel. Car ne l’oubliez jamais : ces appareils sont constamment à l’écoute.
Alors que l’enceinte connectée Google Home, sortie en France en août 2017, s’implante petit à petit dans nos foyers, deux challengers sont débarquées récemment dans l’Hexagone : Amazon Echo, le 13 juin, et le Homepod d’Apple, le 18 juin. Désormais, il est possible de se faire assister chez soi par Google Assistant, Siri ou Alexa, en parlant à une petite boîte bluetooth connectée à Internet et munie de hauts parleurs et de micros, qui lui permettent d’entendre votre voix et d’obéir à vos commandes.
Ces assistants personnels peuvent vous aider à rechercher quelque chose sur le Web sans avoir à utiliser vos mains, lancer de la musique à votre demande, appeler quelqu’un (ou lui envoyer un message) pour vous, lire votre agenda et les bulletins météo, ou encore contrôler les appareils connectés (ampoules, thermostats, caméras, système de sécurité, robot aspirateur…) de votre maison intelligente.
Mais les nombreux bugs et les nombreuses situations (récentes) durant lesquelles ces appareils se sont révélés être des mouchards malgré eux viennent poser, en cette période marquée par le scandale Cambridge Analytica et l’application du RGPD, la question des données collectées et de la protection de notre vie privée. Ces enceintes connectées si pratiques ne seraient-elles finalement que des chevaux de Troie, utilisés par les géants du Web pour tout savoir sur nous, et potentiellement utilisables par des hackers malveillants ?
Bugs et commandes mal comprises
En Mai 2018, dans l’Oregon, près de Portland, Alexa, l’assistant vocal d’Amazon a enregistré, à son insu, la conversation d’un couple américain. Le cylindre d’Amazon Echo a ensuite partagé cette discussion privée mais heureusement anodine, en l’envoyant à un contact - un collègue du mari. Evidemment, nous n’avons pas affaire ici à une machine intelligente, une IA autonome, ni à un piratage, mais à une "simple" erreur d’interprétation de commande vocale. Selon Amazon, “Echo s'est réveillé à cause d'un mot prononcé dans une conversation de fond qui ressemblait à ‘Alexa’”. Puis l’assistant aurait ensuite compris que le couple lui demandait : “envoie un message”. Alexa aurait alors demandé “à qui ?” et entendu le nom du collègue en question... à qui il aurait ensuite envoyé un message vocal. Un “faux positif”, donc, une mauvaise interprétation de 5 commandes différentes, qui fait clairement tâche, même si Amazon soutient qu’il ne s’agit que d’un “cas isolé”. Pour l’instant ?
Autre “bug”, cette fois concernant la version “mini” du Google Home. En octobre 2017, la discrète petite enceinte, au service de son utilisateur, a enregistré, à son insu, pendant plusieurs jours, 24h sur 24, un journaliste qui le testait pour le site Android Report. Raison de cet espionnage : un dysfonctionnement du système d’activation de l’assistant, qui n’avait pas besoin qu’on lui dise “OK Google” pour se déclencher et écouter tout ce qui l’entoure (afin de répondre à d’éventuels ordres). Selon le journaliste, qui a décortiqué la page “mon activité” de son compte Google, la quasi-totalité de ses conversations auraient été transmises à l’entreprise californienne. Google n’a pas traîné face à ce bad buzz, et retiré définitivement l’option responsable de ce “bug”, à savoir un bouton tactile s’activant à la moindre vibration…
A priori, les enceintes connectées d’Amazon, Google et Apple n’écoutent pas nos conversations - sauf si on les appelle, au moyen d’un “OK Google”, d’un “Alexa” ou d’un “Dis, Siri”. Pour que ces mots-clés soient détectés instantanément par ces appareils, les micros sont en permanence en veille, mais quand ils sont en veille, rien n’est transmis au fabricant ni enregistré... en théorie, puisqu’il suffit d’un bug ou d’une faille pour que ces charmantes petites boites rondes se transforment en espionnes domotiques. “Nous avons déjà des assistants vocaux sur nos téléphones. Mais les enceintes connectées sont des objets à demeure, et elles sont de plus en plus puissantes : elles permettent de faire des achats en ligne, de contrôler des éléments de la maison comme l’éclairage, la température… Cela peut vite devenir sensible”, estime Gwendal Le Grand, directeur des technologies et de l’innovation à la CNIL, dans Libération.
Coupez votre micro
La Commission nationale de l'informatique et des libertés a déjà mis en garde les utilisateurs sur les dangers potentiels des enceintes intelligentes pour la vie privée. Dans un “guide” publié en décembre 2017, elle conseille ainsi aux gens de ne pas partager trop de données personnelles avec leurs assistants vocaux, rappelant que “les requêtes vocales sont enregistrées dans le cloud, de la même manière qu’elles le seraient s’il l’utilisateur les tapait au clavier dans certains moteurs de recherche”, et que ces appareils sont en “veille permanente” (et donc susceptibles de nous enregistrer).
La CNIL suggère face à ces risques d’être prudent, notamment en coupant le micro de son enceinte connectée (pour Google Home et Amazon Echo, il y a un bouton physique, mais pour le Homepod d’Apple, il faut désactiver cela via son iPhone ou en disant “Dis, Siri, arrête d’écouter”), ou même de carrément l’éteindre quand elle n’est pas utilisée. Moins pratique pour l’utiliser, certes, mais plus sûr, puisque le risque zéro n’existe jamais… A noter que l’organisme conseille de ne connecter ces assistants à commande vocale qu’à des services qui présentent “réellement une utilité” pour nous, et donc d’éviter de les relier à des données sensibles (par exemple, bancaires dans le cadre d’achats en ligne, ou liées à des fonctionnalités domotiques comme l’ouverture des portes ou l’activation de l’alarme de la maison). La CNIL recommande aussi, l’absence d’écran sur ces appareils ne permettant pas d’avoir un aperçu des données enregistrées, de se rendre régulièrement dans les paramètres de son compte en ligne, afin de supprimer l’historique des conversations et des questions posées à son assistant.
Des données précieuses pour les fabricants
Evidemment, la CNIL rappelle enfin à l’utilisateur d’être “vigilant sur le fait que les propos tenus face à l’appareil peuvent enrichir votre profil publicitaire”. Car il ne faut pas s’y tromper, et ne surtout pas oublier que les géants du Web utilisent les transcriptions de vos requêtes vocales, des métadonnées et les fichiers audios de vos conversations à des fins commerciales. Il s’agit même de leur modèle économique.
Les données, stockées dans le Cloud sans que les fabricants ne communiquent véritablement sur la durée de leur conservation, ne sont pas vendues à des tiers, mais Google, Amazon et Apple les utilisent pour mieux comprendre vos habitudes, et ensuite proposer aux annonceurs des publicités ciblées. Les enceintes ne vous lisent pas encore de pubs, mais il n’y a qu’un pas. Et en attendant, les annonceurs vous retrouvent déjà ailleurs - sur le Web, quand vous surfez depuis un ordinateur ou votre smartphone. Car “si c'est gratuit”... c'est probablement "vous le produit".
Outre le flou entourant le traitement ou non de vos requêtes vocales par des opérateurs humains chargés d’améliorer le système - Google, Apple et Amazon ne communiquent rien sur ce sujet, mais sur le site de La Quadrature du Net, une jeune femme témoigne de l’utilisation par des “transcripteurs” d’enregistrements en provenance de Cortana, l’assistant de Microsoft -, et au-delà de l’utilisation de vos données par les “GAFAM”, subsiste le risque, assez évident, de vous faire pirater. Et ainsi de voir vos appareils devenir de parfaits mouchards, aux mains de personnes malintentionnées.
Le risque du piratage n’est jamais loin
Durant l’été 2017, pile poil quand la Google Home est sortie en France, un expert britannique en cybersécurité, Mark Barnes, a ainsi démontré qu’il était possible d’installer un logiciel espion sur certains modèles d’Amazon Echo (fabriqués avant 2017), en exploitant une faille de l’OS dérivé de Linux utilisé par ces appareils, qui permettait d’ouvrir à distance un invite de commandes, avec privilèges administrateur, afin d’écouter tout alentour.
Pour “hacker” l’Amazon Echo à la base, Mark Barnes a dû trafiquer physiquement l’enceinte, mais cet exemple illustre bien le risque de se faire pirater. Car, explique le chercheur, une fois aux commandes, “on peut faire faire à l’appareil ce que l’on veut”. Et fût-il le rappeler, ces petits boitiers utilisent le Bluetooth, un protocole de communication sans fil pas si difficile que cela à percer (bien que les données qui y transitent soient, assurent les fabricants, chiffrées, et que les géants du Web sont plutôt réactifs en matière de sécurité informatique). A noter également que des techniques existent pour activer et utiliser la commande vocale d’enceintes intelligentes grâce à des ultrasons, inaudibles pour l’homme. Finalement, Barnes rappelle juste, tout comme la CNIL, qu’il existe une façon simple de se prémunir de ce risque : “il suffit de l’éteindre”.
Outre le fait que nos assistants personnels sont des mouchards potentiels placés dans votre salon, et représentent un risque pour notre liberté de choix (en pensant, à terme, à notre place), se pose donc finalement une question simple : est-il possible de faire confiance aux fabricants de ces enceintes, qui garantissent tout chiffrer et ne pas analyser les conversations, prenant notre vie privée “très au sérieux” ? Fin Mars, le New York Times révélait l’existence de brevets déposés par Google et Amazon, censés permettre aux appareils des deux entreprises de détecter, grâce à des algorithmes, des mots-clés comme “amour”, “n’aime pas” ou “acheter”, afin de mieux cibler les utilisateurs… Si les géants du Web assurent que la publicité personnalisée est pour eux secondaire, se méfier de votre enceinte connectée et l’éteindre par précaution (même si cela dégradera un peu votre "expérience utilisateur"), dans cette optique, n’est en rien de la paranoïa, mais juste du bon sens.
Alexa, Google Home, Siri... les assistants vocaux envahissent le quotidien. À quel prix pour vos vies privées?
Si les assistants virtuels n’ont pas encore envahi la totalité du monde des nouvelles technologies, ils ont conquis le CES, salon annuel de la technologie, qui s’est récemment tenu à Las Vegas. Alexa, Google Assistant et d’autres technologies d’assistance diverses et variées ont fait figure de produits incontournables dans cette conférence, animant tondeuses, lave-vaisselles et autres toilettes intelligentes à 7.000 dollars.
100 millions d'Alexa, et moi, et moi, et moi
Amazon et Google ont préparé le terrain de la conférence en rivalisant d’annonces vantant leurs intelligences artificielles respectives. Amazon a dévoilé qu’il avait vendu 100 millions d’appareils Alexa. Quelques jours plus tard, Google a annoncé que son Assistant équiperait bientôt plus d’un milliard d’appareils –ce qui relève peu ou prou de la triche, puisque la grande majorité de ces derniers ne sont pas des enceintes ou des engins spéciaux, mais simplement des téléphones Android.
Astuces de com’ mises à part, il est clair que les deux programmes ont infiltré la vie de millions de personnes, et le CES de 2019 est un avant-goût de l’avenir; un avenir dans lequel la majorité des appareils répondront aux commandes «Alexa», «OK Google», ou aux deux.
Cette invasion de l’espace domestique par l’intelligence artificielle se heurte toutefois à un contre-courant: l’industrie et les citoyennes et citoyens se sensibilisent de plus en plus aux risques liés à la vie privée en ligne. L’avenir sera peut-être fait de lampes parlantes et de fours à notre écoute, comme on a pu en voir au CES; tout dépendra des entreprises. Parviendront-elles à nous convaincre que ces locataires numériques ne nous espionnent pas –ou, à tout le moins, que les renseignements qu’ils recueillent ne nous joueront pas de mauvais tours?
En faisant leur entrée dans ce nouveau monde tapageur, les clientes et clients conscients des problèmes liés à la vie privée auront de plus en plus tendance à poser ces questions: «À quel assistant virtuel est-ce que je peux vraiment faire confiance?» ou «Si je ramène Alexa, Google, Siri, Cortana ou Bixby à la maison, lequel sera le plus gros mouchard?».
Les vœux pieux
Impossible d’y répondre de manière catégorique, mais les premiers indices sont là. Google et Amazon ont rassuré foule et médias un nombre incalculable de fois en affirmant que leurs produits d’intelligence artificielle (assistants virtuels, enceintes connectées) ne nous espionnaient pas. Les deux géants jurent qu’ils se contentent d’enregistrer et de stocker ce que nous disons lors de nos interactions directes avec les appareils –qui se déclenchent lorsque leur mot clé est prononcé («OK Google», «Alexa», etc.).
Le reste du temps, ils écoutent, mais seulement pour détecter ces mots d’activation –et ils ne stockent aucune information, ne les transfèrent vers aucun serveur. Sur la plupart des enceintes intelligentes, il est même possible de désactiver cette fonctionnalité en appuyant sur le bouton du mode silencieux. Les informations enregistrées sont stockées dans votre compte Google ou Alexa, où elles peuvent être consultées et supprimées. En théorie, vous êtes la seule personne à pouvoir y accéder.
Amazon et Google aimeraient vous faire croire à ce scénario simple comme bonjour: leurs assistants ne stockeraient les informations que lorsque vous leur parlez directement, et personne n’aurait accès à ces informations sauf vous. Mais les deux entreprises ont commis de multiples faux pas –et ont donc fait mentir ces vœux pieux.
Les mensonges
Côté Google, on a découvert que certaines anciennes versions de l’enceinte connectée Home Mini étaient presque toujours actives du fait de «pressions fantômes» sur leur bouton du haut; elles écoutaient donc leurs utilisateurs toute la journée, ce qui n’était pas prévu (Google a réglé le problème en retirant l’activation via le bouton du haut). Pour autant que nous sachions, aucune information personnelle n’a fuité –mais l’affaire fut un inquiétant rappel à la réalité: il est effectivement difficile de déterminer si nos assistants n’écoutent que ce qu’ils sont censés écouter.
Côté Amazon, Alexa a connu de multiples déconvenues cette dernière année quant à la protection de la vie privée; certaines furent plus inquiétantes que d’autres. La première affaire fut celle du «rire flippant»: en lieu et place de certaines commandes, des appareils Alexa semblaient entendre «Alexa, rit» et se laissait alors aller à une hilarité spontanée.
So Alexa decided to laugh randomly while I was in the kitchen. Freaked @SnootyJuicer and I out. I thought a kid was laughing behind me. pic.twitter.com/6dblzkiQHp
— CaptHandlebar (@CaptHandlebar) 23 février 2018
La vie privée des utilisateurs et utilisatrices n’a pas été menacée, mais l’affaire a illustré l’imperfection de la protection par commandes vocales. Un cas encore plus étrange a vu un appareil Alexa (équipant une maison remplie de machines intelligentes) enregistrer la conversation privée d’une famille avant de l’envoyer à un contact, sans intervention extérieure visible. Alexa avait en fait mal interprété certaines bribes de conversation, croyant entendre «Alexa», puis «envoyer message», puis le nom d’une personne présente sur la liste de contact.
Alexa a encore fait parler d’elle le mois dernier. Un utilisateur a reçu l’accès aux archives d’enregistrements d’un tiers; Amazon a alors évoqué une erreur humaine. Un scénario crédible, qui ne l’excuse en rien: les erreurs humaines resteront toujours un facteur de risque tant que l’entreprise recueillera des données sensibles non encryptées.
Jeudi 10 janvier, l’Intercept, citant des sources anonymes, révélait que des caméras de sécurité Ring (compatibles avec Alexa) avaient permis à des employés de Ring (et à des tiers) d’accéder à des images filmées par certaines clientes et clients, y compris à l’intérieur de leur domicile.
Pris dans leur globalité, ces bugs indiquent que les machines à activation vocale ne sont pas entièrement sûres, et que même les entreprises les plus réputées sont susceptibles de commettre des erreurs impliquant les données recueillies par leurs assistants personnels. Ces assistants sont présents sur de plus en plus de gadgets; les risques ne font donc qu’augmenter.
Pour ne rien arranger, Google et Amazon se tirent ouvertement la bourre pour signer le plus de contrats possible avec les créateurs de matériel. Les deux entreprises ont tout intérêt à éviter les scandales liés à la vie privée –mais si l’on en croit l’invasion observée au CES, les deux rivaux mettent également l’accent sur l’ampleur et la rapidité.
Tout n'est pas noir
On peut toutefois souligner quelques points positifs: certains experts en cybersécurité estiment par exemple qu’il est beaucoup plus difficile de pirater à distance une enceinte intelligente qu’un site internet ou un PC. Interrogé à ce sujet par la chaîne CNBC, Jake Williams, fondateur de Rendition Infosec [entreprise qui propose des conseils en cybersécurité, ndlr] et ancien hacker de la NSA, a expliqué que les enceintes connectées étaient conçues pour traiter les requêtes provenant de deux sources, et deux sources seulement: la voix des personnes présentes dans la pièce, et l’entreprise qui les a conçues.
Une enceinte intelligente ne permet pas de surfer sur internet, de cliquer sur des liens vérolés ou de télécharger des logiciels tiers non autorisés, ce qui limite la «surface d’attaque» des hackers potentiels. Les paranoïaques répondront que théoriquement, tout cela n’empêche pas les fabricants de permettre à des organisations (comme… la NSA) d’accéder secrètement aux données, ou de les remettre aux forces de l’ordre.
Il convient de rappeler que votre «surface d’attaque» augmente à chaque fois que vous installez un nouvel appareil à activation vocale dans votre foyer. Les hackers sont peut-être incapables de pirater un Amazon Echo en lui injectant du code à distance, mais les cambrioleurs ou cambrioleuses seront peut-être capables de désactiver les verrous de votre porte Alexa en criant le bon nom de code. Google et Amazon proposent tous deux des fonctionnalités de reconnaissance vocale pour prévenir ce type de scénario, mais elles sont loin d’être parfaites.
Les personnes soucieuses de la protection de leur vie privée tenteront –à raison– d’éviter tout appareil muni d’une caméra vidéo tel que l’Echo Look et l’Echo Show (Amazon), ou l’Assistant de Google (l’affichage intelligent du Home Hub de Google ne comporte pas de caméra; une sage décision, sans doute prise pour protéger la vie privée des utilisateurs et utilisatrices). Le problème relève plus du caractère potentiellement sensible des données enregistrées que du fait que les caméras soient plus simples à pirater.
D’un autre côté, nous sommes nombreuses et nombreux à avoir des caméras sur nos téléphones et nos ordinateurs portables. Ce qui illustre un autre point du phénomène: les risques liés aux enceintes connectées et aux assistants virtuels sautent peut-être plus aux yeux que les risques liés aux autres appareils et services acceptés par le plus grand nombre (Gmail, iPhone, etc.). Ces premiers ne sont pourtant pas nécessairement plus dangereux que ces derniers. Ils présentent peu ou prou les mêmes risques; seule la forme change.
Vos données personnelles, une mine d'or
Ces affaires soulèvent un autre risque –certes moins important– lié à la vie privée: que font Google et Amazon (ou tout autre fabricant d’assistants connectés) de vos données personnelles? Les préférences et le comportement en ligne des utilisateurs et utilisatrices constituent le carburant de la machine publicitaire de Google; son Assistant incarne donc une nouvelle manière de recueillir des informations. Certaines et certains préféreront donc opter pour une autre plateforme vocale –même si, là encore, rien n’indique que la collecte des données sera plus intrusive que celle pratiquée sur Android, Gmail ou Google Maps.
Les publicités ciblées n’ont jamais été le cœur du modèle économique d’Amazon, et l’entreprise affirme qu’elle ne compte pas diffuser de publicités via Alexa. Signalons toutefois qu’Amazon est en train de partir à la conquête du marché publicitaire, et que les publicités tournant autour d’Alexa sont (à tout le moins) envisagées.
Mais alors, quid des alternatives? Il serait évidemment préférable d’éviter Portal, le nouvel appareil d’appel vidéo de Facebook, la réputation de la firme en matière de protection de la vie privée n’étant plus à défaire. Facebook a certes équipé la caméra du Portal d’un «obturateur spécial» pour protéger la vie privée, ce qui pourrait rassurer. La firme a toutefois été contrainte à reconnaître que l’appareil recueillait bel et bien des données personnelles, contrairement à ce qui avait été annoncé.
Cortana (Microsoft) et Bixby (Samsung) ont peut-être des atouts, mais ils ne font pas encore figure de concurrents sérieux face à Google Assistant et Alexa en tant que plateformes. Au CES, Samsung a annoncé que ses télévisions connectées fonctionneraient désormais avec Google et Alexa en plus de Bixby; quant à Cortana, elle collabore avec Alexa depuis l’an dernier –ce qui laisse penser qu’aucun de ces assistants vocaux ne compte tenir tête aux deux géants.
Quid d’Apple? La firme à la pomme refuse de présenter ses produits au CES –une aversion notoire qui ne l’a pas empêchée de se moquer publiquement de ses concurrents. Elle a fait afficher une publicité géante sur un immeuble de treize étage, frappée des mots: «Ce qui se passe sur votre iPhone reste sur votre iPhone» (jeu de mots habile faisant référence à la devise de Las Vegas, et moquerie peu subtile visant Google et Amazon, qui stockent les données de vos assistants personnels sur leurs serveurs). La nouvelle enceinte connectée d’Apple, le HomePod, anonymise les requêtes que vous adressez aux serveurs d’Apple; elles ne sont donc pas liées à votre compte. Il dispose également d’une qualité sonore haut de gamme.
Siri, plus sûre mais moins maline
Les points positifs sont donc nombreux. À l’exception d’un écueil de taille: le HomePod utilise la plateforme Siri, qui est beaucoup moins intelligente qu’Alexa ou le Google Assistant. Siri peine à comprendre le sens des mots et à répondre aux questions sur le monde; il faut donc se contenter des bases (musique, minuteur, lumière, envoi de sms). Par ailleurs, le HomePod a sa propre faille de sécurité inhérente: il ne reconnaît pas la voix de ses propriétaires et ne permet pas la création de comptes séparés, ce qui signifie que toute personne ayant accès à votre domicile peut l’utiliser en se faisant passer pour vous –en envoyant un sms à l’un de vos contacts depuis votre compte, par exemple. Oh, et il coûte 350 dollars, soit trois fois plus qu’un Echo ou qu’un Google Home.
HomePod demeure peut-être la meilleure option si vous avez vraiment envie d’une enceinte connectée, si la protection de votre vie privée est votre priorité, et si vous disposez du budget nécessaire. Mais Siri demeure une plateforme vocale inférieure à Google et Alexa, et vous ne la trouverez dans aucune des machines connectées en vente au CES. Reste à déterminer la meilleure alternative à Apple.
Si vous tenez vraiment à tailler une bavette avec les objets de votre domicile, vous devrez choisir entre Google, connu pour sa tendance à ficher ses utilisateurs et utilisatrices, et Amazon, qui ne s’adonne pas encore à cette pratique (mais pourrait bien s’y mettre). Amazon semble donc être la meilleure option. Attention, cependant: la collecte de données personnelles sensibles a toujours été au centre du modèle économique de Google –ce dernier est donc beaucoup plus au fait des problèmes que représente la protection de ce type d’informations. Dans un entretien accordé à Slate l’an dernier, Al Lindsay (responsable d’Alexa) a visiblement balayé d’un revers de main l’idée selon laquelle la protection de la vie privée constituait un enjeu de taille.
Une lueur d’espoir est apparue dans les travées du CES 2019 sous la forme d’un nouvel assistant virtuel open source appelé Mycroft, qui promet de ne jamais recueillir vos données personnelles. CNET souligne que son développement vient à peine de commencer; et peut-être ne parviendra-t-il jamais à rivaliser avec Google Assistant et Alexa au niveau de l'intelligence. Mais il prouve qu’une partie des fabricants d’assistants virtuels commencent à faire de la protection de la vie privée une fonctionnalité centrale, et non un simple ajout après coup.
Trois modèles se partagent le marché français depuis le 18 juin et l’arrivée de l’Homepod d’Apple. Leur utilisation peut être risquée pour les données.
Faut-il craindre d’installer au milieu du salon un micro relié à Internet et écoutant en permanenceles conversations alentour ? C’est, en substance, la question à laquelle il faudra répondre avant de se laisser tenter par une enceinte connectée. Trois principaux modèles se disputent désormais le marché français, après l’arrivée de l’Homepod d’Apple, lundi 18 juin, venue concurrencer Echo d’Amazon et Home de Google.
Ces enceintes « intelligentes » apparaissent bien moins vulnérables au risque de piratage que les objets connectés moyens. « Les grandes entreprises [qui les commercialisent] disposent d’équipes dédiées à la sécurité, elles ont de l’expérience et des moyens. Ce n’est pas le premier produit qu’elles mettent sur le marché », veut croire Candid Wueest, chercheur pour l’entreprise spécialisée en sécurité informatique Symantec. La possibilité qu’un pirate en prenne le contrôle, pour espionner ou en perturber le fonctionnement, n’est cependant pas nulle, comme pour tout objet informatique. A l’été 2017, un chercheur britannique avait d’ailleurs démontré qu’il était possible, après manipulation physique, de transformer Echo en mouchard. Un défaut corrigé depuis par le constructeur.
La principale inquiétude : la vie privée
Au-delà du piratage, la principale inquiétude suscitée par ces enceintes est celle de la protection de la vie privée. Elles enregistrent en permanence les conversations : c’est leur principe même. La plupart des enregistrements, régulièrement supprimés, ne sont cependant pas envoyés sur Internet : c’est le cas uniquement lorsque l’enceinte reconnaît la formule censée la « réveiller ». La voix de l’utilisateur est alors transmise aux serveurs de l’entreprise, qui procède à l’analyse et renvoie les résultats.
Les enceintes d’Amazon et de Google stockent l’intégralité de ces enregistrements sur leurs serveurs, notamment pour entraîner leurs algorithmes afin de mieux répondre aux sollicitations ultérieures. Il est possible, pour qui a accès au compte lié à l’enceinte, de consulter (ou d’effacer) ces enregistrements, qui ne sont pas supprimés par défaut. Apple, de son côté, assure le faire à intervalle régulier et utiliser un mode de transmission sur ses serveurs qui ne permet pas d’identifier l’utilisateur dont ils proviennent. Ces enregistrements pourraient intéresser la police : en 2016, des procureurs de l’Arkansas (Etats-Unis) avaient ainsi demandé les enregistrements de l’Echo d’un suspect dans une enquête pour meurtre.
Enfin, il n’est pas exclu, pour ce type de technologie, qu’un être de chair et de sang écoute ces enregistrements : l’association française La Quadrature du Net a ainsi récemment relayé le témoignage d’une femme chargée d’écouter des enregistrements issus de l’assistant de Microsoft, Cortana (qui n’est actuellement pas intégré dans une enceinte connectée).
Parfois, les enceintes connectées peuvent se déclencher à l’insu de l’utilisateur, croyant reconnaître par erreur la formule censée les activer et envoyant donc ce qu’elles entendent sur les serveurs de son entreprise. Il est possible, pour tous les modèles, de désactiver physiquement le micro.
Même si certaines enceintes possèdent des mécanismes de reconnaissance vocale ou de codes limitant leur utilisation à leur propriétaire légitime, il est aussi possible pour toute personne à proximité de l’objet de l’utiliser à sa guise. Le Homepod d’Apple, par exemple, permet de lire les messages de l’iPhone et ne fait pas la différence entre la voix de son maître et les autres. La publicité s’en est amusée : la chaîne de fast-food Burger King a diffusé en 2017 une publicité pendant le Super Bowl utilisant le mot-clé déclenchant les Google Home pour leur faire lire la page Wikipédia de l’entreprise. Au-delà de cette plaisanterie marketing, rapidement déjouée par Google, cette caractéristique peut poser problème, par exemple lorsque l’enceinte est reliée à un compte permettant des achats. Candid Wueest conseille ainsi de cloisonner les comptes liés à ces assistants : « Si vous ne comptez pas utiliser les achats en ligne, utilisez un compte qui n’est pas lié à une carte bancaire. Il faut être sélectif : voulez-vous vraiment contrôler votre serrure connectée ou la vidéosurveillance de votre domicile depuis votre enceinte connectée ? Peut-être pas. »
Ces enceintes, tout particulièrement celle d’Amazon et de Google, représentent surtout un moyen de créer un canal complémentaire de collecte de données personnelles. Tous les fabricants l’affirment : diffuser de la publicité n’est pas leur priorité, voire, pour Apple, n’entre pas du tout dans leurs projets. Mais qui sait comment vont évoluer ces assistants ? Amazon a ainsi déposé un brevet lui permettant de proposer une publicité sur la base des interactions avec son assistant. Quelle forme ces publicités prendront-elles ? C’est un autre enjeu, puisqu’il pourra s’agir non pas de spots classiques mais de suggestions plus ou moins transparentes : le but de ces enceintes connectées est justement d’apporter des conseils et des réponses sur un plateau.
Martin Untersinger
Pour améliorer l'intelligence artificielle de son assistant, le géant américain emploie des collaborateurs qui analysent des enregistrements audio d'Aexa.
La nouvelle ne pas rassurer les utilisateurs d’enceintes Echo. Et, d'une façon plus générale, tous ceux qui font appel à des assistants vocaux. Dans un article bien informé, Bloomberg révèle en effet que des milliers d'employés d'Amazon écoutent des conversations d'Alexa provenant du monde entier. De quoi faire frémir - et fuir ! - tous ceux qui hésitent à s'équiper d'une enceinte connectée de peur justement d'être sur écoute permanente.
Comme le rapporte Bloomberg, le géant américain emploie des équipes réparties un peu partout dans le monde, des Etats-Unis à l'Inde en passant par le Costa Rica et la Roumanie, pour analyser et retranscrire par écrit des conversations provenant d'Alexa dans le but d'aider l'intelligence artificielle (IA) qui fait fonctionne l'assistant vocal à s’améliorer. De fait, aussi puissants que soient les algorithmes et les procédés d’apprentissage de type deep learning, l'expertise humaine reste encore indispensable pour faire progresser l'IA.
Dans le cas d'Amazon, les auditeurs cherchent surtout à combler des lacunes d'Alexa, en aidant l'assistant à mieux comprendre certaines requêtes formulées en langage naturel. Bloomberg donne ainsi l’exemple d'un auditeur qui aurait permis de mieux interpréter le nom de l’artiste américaine Taylor Swift, souvent déformé et mal compris. Bref, des écoutes pour le bien de tous, selon Amazon, d'autant que les enregistrements seraient en théorie débarrassés de toute information confidentielle sur l'identité des utilisateurs.
Sauf que, toujours selon Bloomberg, le tableau ne serait pas aussi idyllique dans la réalité. D'abord, la plupart des auditeurs ne seraient pas employés directement par Amazon, mais par des sous-traitants travaillant dans des conditions assez "intensives". Chacun écouterait ainsi près d'un millier d’extraits sonores par jour, pendant environ neuf heures, en analysant, en retranscrivant et en annotent les enregistrements, de manière à identifier et à signaler les termes et les formules complexes, et en échangeant leurs résultats avec leurs collègues via une messagerie interne. De fait, les auditeurs échangent de nombreuses informations entre eux pour s'aider mutuellement à améliorer Alexa, mais certaines conversations plus ou moins comiques, feraient l'objet de partages massifs et de moqueries.
Quelques situations s'avéreraient toutefois délicates, voire troublantes. Des témoins ont ainsi rapporté à Bloomberg qu'ils avaient entendu ce qu'ils ont interprété comme une agression sexuelle. Face à leur désarroi et à leur demande, leur hiérarchie leur aurait ordonné de ne rien, au prétexte que ce n'était pas de leur ressort, ni de celui d'Amazon... Mais il y a encore plus embarrassant. L’enquête de Bloomberg révèle qu’Amazon permet à ses propres auditeurs salariés d’accéder à des informations sensibles des utilisateurs, via le numéro de série des enceintes, comme leur prénom ou leur numéro de compte Amazon, ce qui va à l'encontre des engagements pris à l'égard de la protection des données personnelles.
Amazon se veut rassurant, affirmant que seul un très faible pourcentage de conversations sont ainsi enregistrées et analysées, et que des mesures strictes - "tolérance zéro" - sont prises pour garantir la confidentialité des informations personnelles recueillies. Un discours officiel que l'enquête de Bloomberg met à mal. D'autant qu'Amazon ne dit pas explicitement dans ses conditions d'utilisation du son service que des extraits de conversations peuvent être écoutées et analysées par des êtres humains. Et même si l’anonymisation des données semble mieux assurée par Google Assistant et Siri d'Apple, les principaux concurrents d'Alexa, ces révélations risquent de semer le doute chez de nombreux utilisateurs potentiels, soucieux de leur vie privée.