Google, Apple, Facebook, Amazon, Microsoft… ces firmes ont récemment reconnu avoir écouté des conversations d’utilisateurs à partir d’enceintes connectées ou de smartphones dans le but d’améliorer les performances de leurs systèmes.
Nichés dans nos téléphones, enceintes et autres objets connectés… les assistants vocaux envahissent notre vie quotidienne. Leur rôle, répondre à des requêtes et exécuter des actions comme l’envoi d’un message, le lancement d’une musique, une recherche sur internet… Faciliter la vie de tout un chacun, en somme.
Mais un nuage vient ternir l’horizon : nos requêtes, nos questions, mais aussi nos conversations privées peuvent être stockées et écoutées. Alors, comment s’en prémunir ?
Les enceintes connectées sont « en veille permanente » et peuvent « s’activer et enregistrer inopinément une conversation dès lors qu’elle[s] croi[en]t détecter le mot-clé » qui la déclenche, rappelle la Commission nationale de l’informatique et des libertés (CNIL) dans un guide en ligne publié en 2018.
L’autorité administrative prodigue quelques conseils pour protéger la vie privée des utilisateurs : privilégier les enceintes « équipées d’un bouton de désactivation du microphone » afin de pouvoir « couper le micro » ou « débrancher l’appareil » lorsque l’on ne souhaite pas être écouté, supprimer régulièrement « l’historique des conversations/questions posées » ou encore « avertir des tiers de l’enregistrement potentiel des conversations ».
Malgré toutes ces précautions, « le simple fait d’avoir une enceinte connectée comporte un danger sur l’utilisation des extraits vocaux », met en garde Martin Drago, juriste à la Quadrature du net. Aroua Biri, experte en cybersécurité, file la métaphore : « l’enceinte connectée, c’est une personne qui peut nous écouter du matin au soir. Ce que l’on dit en sa présence doit pouvoir être dit devant une assemblée ».
Outre l’utilisation des données par les entreprises, la menace d’un piratage plane. « Imaginez si un hacker s’emparait des conversations… », lance Aroua Biri. La solution serait d’« éviter de placer ces appareils dans des espaces d’intimité et de limiter leur usage à un moment dans la journée par exemple ».
Le risque est aussi présent avec les smartphones, qui peuvent également être équipés d’assistants vocaux. Les plus connus : Siri pour Apple, et Google Assistant chez Google. Pour éviter tout enregistrement, il faut tout simplement désactiver lesdits assistants. Mais si l’utilisateur souhaite s’en servir avec plus de contrôle, il est possible de désactiver la fonction de mise en route vocale. Les fameux « Dis Siri » ou « Ok Google ». En clair, l’assistant devra être activé manuellement par l’utilisateur à chaque requête, ce qui ralentit quelque peu le procédé.
Par ailleurs, Google a mis en place l’outil « Mon activité » afin de permettre aux utilisateurs de connaître leurs données enregistrées, dont l’historique des commandes vocales effectuées. Il est possible d’y désactiver l’« activité vocale et audio ».
Dernière révélation en date : Facebook a reconnu avoir fait écouter et transcrire des conversations vocales privées tenues sur son application Messenger. Le réseau social explique que les utilisateurs avaient donné leur accord. Aroua Biri déplore le fait que « beaucoup de gens téléchargent sans regarder les droits qu’ils accordent aux applications ». Dans le cadre de Messenger, explique-t-elle, il est possible d’utiliser l’application sans avoir à accorder la permission d’activer le microphone.
Pour limiter les risques, cette « culture de la vérification » serait donc une condition nécessaire. Mais pas forcément suffisante : « quand Facebook demandait à l’utilisateur de consentir à l’utilisation de son micro sur Messenger, personne ne savait que derrière, il allait y avoir des humains qui allaient écouter les conversations », regrette Martin Drago.