our une raison ou une autre, les projets de fichage géant se multiplient à travers le monde. En Inde par exemple, le gouvernement a mis en place une gigantesque base de données biométriques et un système d'identification pour faciliter l'utilisation de ses services par les populations. Présenté à l'origine comme fonctionnant sur la base du volontariat et destiné à fournir à tout Indien une pièce d'identité, le programme baptisé Aadhaar est devenu obligatoire ces dernières années pour un nombre croissant de services comme des subventions publiques, le paiement d'impôts ou l'ouverture d'un compte en banque. Et le gouvernement aimerait l'étendre à bien d'autres opérations courantes.
En France, un système similaire est en train d'être mis en œuvre à travers le fichier des titres électroniques sécurisés (TES). Par un décret publié fin octobre 2016, le gouvernement français s'est vu accordé l'autorisation de créer une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille, etc.) de la quasi-totalité de la population, avec comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.
Au nom des libertés publiques, des organisations et des particuliers ont demandé à la plus haute juridiction administrative la suppression de ce « monstre », généralisé à l’ensemble du territoire en mars 2017 et qui vise à regrouper les informations personnelles des titulaires d’un passeport ou d’une carte d’identité, soit environ 60 millions de Français. Mais en octobre dernier, le Conseil d'État, qui a statué sur la question, a approuvé le fichier TES, estimant que sa création ne constituait pas une « atteinte disproportionnée » au droit des personnes au respect de leur vie privée.
On rencontre ce genre de systèmes en Chine, mais aussi États-Unis, où le Département des douanes et de la protection des frontières (CBP) et le FBI collectent des données biométriques dans le cadre de leurs activités. Au niveau européen, le Parlement vient à son tour de donner son feu vert à la création d'une gigantesque base de données biométriques.
Sur son site officiel, le Parlement européen a effet annoncé l'adoption « de nouvelles mesures visant à améliorer l'échange de données entre les systèmes d'information de l'UE pour gérer les frontières, la sécurité et les migrations ». Et d'ajouter que « les nouvelles règles rendront les systèmes d'information de l'UE utilisés dans la gestion de la sécurité, des frontières et des migrations interopérables, permettant ainsi l'échange de données entre les systèmes. Cela facilitera les tâches des gardes-frontières, des agents des migrations, des policiers et des autorités judiciaires en leur fournissant un accès plus systématique et plus rapide à divers systèmes d'information de l'UE sur la sécurité et le contrôle des frontières. »
Les principaux éléments de la nouvelle législation sont les suivants :
un portail de recherche européen permettant des recherches simultanées dans plusieurs systèmes, plutôt que d'interroger chaque système individuellement ;
un service de données biométriques partagé pour mettre en correspondance les empreintes digitales et les images faciales de plusieurs systèmes ;
un référentiel d’identité commun (en anglais Common identity repository ou CIR) fournissant des informations biographiques telles que les dates de naissance et les numéros de passeport pour une identification plus fiable ;
un détecteur d'identités multiples, détectant si une personne est enregistrée sous plusieurs identités dans différentes bases de données.
« Les systèmes couverts par les nouvelles règles comprendraient le système d'information Schengen, Eurodac, le système d'information sur les visas (VIS) et trois nouveaux systèmes : le système européen de casiers judiciaires des ressortissants de pays tiers (ECRIS-TCN), le système d'entrée/sortie (EES) et le système européen d’information et d’autorisation concernant les voyages (ETIAS) », ont déclaré des responsables de l’UE.
Les nouvelles règles ont été adoptées par le Parlement européen le 16 avril dernier, lors de deux votes séparés. Les règles d'interopérabilité entre les systèmes d'information de l'UE axés sur le contrôle des frontières et les visas ont été adoptées par 511 voix contre 123, avec 9 abstentions. Et la législation sur l'interopérabilité entre les systèmes d'information de l'UE axés sur la coopération policière et judiciaire, l'asile et les migrations a été approuvée par 510 voix contre 130, avec 9 abstentions.
Les nouvelles règles avaient déjà été approuvées par les négociateurs du Parlement et du Conseil en février dernier. Et après l’approbation officielle du Conseil, les États membres disposeront de deux ans pour adopter les nouvelles règles.
Pour les législateurs de l'UE, il s'agit d'améliorer l'échange de données entre les systèmes d'information de l'Union. Ils assurent que ce projet ne cible que les citoyens non membres de l'UE et ont promis que des « garanties appropriées » seront mises en place pour protéger les droits fondamentaux et l'accès aux données. Mais pour les défenseurs de la vie privée, l'UE a atteint un point de non-retour dans la création d'une « base de données centralisée européenne Big Brother ».
Trois principales critiques ont été faites à l'égard de ce projet. D'abord, les législateurs parlent d'« interopérabilité » des systèmes d'information, alors que dans la pratique, il s'agit plutôt de la création d'une base de données européenne centralisée incorporant les bases de données nationales décentralisées existantes et futures.
Ensuite, l'une des utilisations les plus controversées de la base de données centralisée consistera pour la police et les gardes-frontières à utiliser le CIR pour vérifier les identités biométriques et donc les détails biographiques d'une personne faisant l'objet d'une vérification d'identité par des agents. Or, le contrôle d'identité peut et ne sera clairement pas limité aux citoyens de pays tiers. Mais on assistera plutôt à une utilisation généralisée et discriminatoire de ce nouveau pouvoir, d'après Statewatch, une organisation à but non lucratif qui surveille l'État, la justice et les affaires intérieures, la sécurité et les libertés civiles dans l'Union européenne.
En plus, en avril 2018, la Commission européenne a présenté une proposition pour la réglementation des cartes d'identité nationales afin d'inclure de manière obligatoire les données biométriques (empreintes digitales et images faciales) ; laquelle proposition couvrirait plus de 370 millions de citoyens européens. Statewach craint que ces données biométriques soient ajoutées à la base de données centralisée à l'avenir. En résumé, une fois opérationnelle, la base de données centralisée de l'UE pourrait devenir l'un des plus gros systèmes de suivi des citoyens au monde, juste derrière les systèmes utilisés par le gouvernement chinois et le système indien Aadhar.
e navigateur Brave propose désormais d'être rémunéré pour voir des pubs respectueuses de la confidentialité.
(CCM) — Lancé par le créateur de Javascript en 2016, Brave est un navigateur Internet centré sur la protection de la vie privée et son fonctionnement est un peu spécial puisque pour accélérer le chargement des pages, il filtre les publicités et le tracking... mais aussi vous offre des récompenses si vous visualiser des publicités plus respectueuses de votre vie privée. Aujourd'hui, Brave va plus loin en lançant sa propre régie publicitaire, Brave Ads.
"Encore de la pub, en quoi c'est intéressant ?" vous demandez-vous. Et bien la régie Brave Ads est dans la droite lignée du programme de récompense Brave Rewards. En l’occurrence, pour chaque publicité regardée vous gagnez quelques Basic Attention Tokens (BAT), une sorte de cryptomonnaie. Si vous acceptez de visualiser quelques publicités - uniquement affichées sporadiquement et de façon discrète - issues de la régie Brave Ads, vous pourrez alors récupérer 70% des revenus pour le premier affichage puis 15% pour les suivants.
Bien sûr, les revenus ne vous seront pas reversés en monnaie sonnante et trébuchante, mais dans ces fameux BAT. Ces tokens pourront alors être reversés à des créateurs de contenus que vous appréciez, comme des Youtubers ou des sites médias partenaires par exemple. Cependant, il se pourrait qu'à l'avenir les BAT puissent être convertis en d'autres cryptomonnaies ou en euros.
Enfin, les contenus publicitaires Brave Ads sont bien proposés suivant votre profil, mais celui-ci est généré anonymement et de façon confidentielle directement par le navigateur. Malheureusement, cette nouveauté ne concerne que la version PC pour le moment, et devrait arriver dans les mois qui viennent sur les version iOS et Android. Rendez-vous sur le site de Brave si vous voulez tenter l'expérience.
Avec des millions de téléchargements depuis un an, Brave est le petit navigateur qui monte. Sa spécificité ? Il reverse aux internautes 70 % de ses revenus lorsqu'une publicité s'affiche. Une somme qui doit permettre aussi de financer les sites gratuits.
Déjà adopté par six millions d’internautes, Brave a pour ambition d’être le plus sûr et le plus sécurisé des navigateurs, mais aussi celui qui veut révolutionner le business model des sites gratuits. Comment ? En offrant la possibilité aux internautes de rémunérer les sites gratuits qu’ils visitent chaque jour.
Pour cela, Brave se comporte comme un ad-blocker, en bloquant la publicité et les outils de tracking des régies, et il n’affiche que des publicités à la demande. À chaque fois qu’un internaute visionne une publicité, Brave le rémunère. L'internaute a alors le choix de reverser une partie de la somme au site qu’il vient de visiter.
70 % des revenus pour le visiteur
C’est innovant, et l’éditeur du navigateur vient de dévoiler sa propre régie de publicité dont il détaille le fonctionnement. Du côté des annonceurs, il s’agit d’un système de jetons basé sur Ethereum, système d’applications décentralisé. L'achat et la vente des publicités se font via Basic Attention Token (BAT), une monnaie virtuelle. Brave reverse 70 % à l’internaute et conserve donc une marge de 30 %. Ensuite, l’internaute est libre de conserver l’intégralité de cette monnaie virtuelle ou d’en reverser une partie au site visité, qui lui-même s'est inscrit dans la régie Brave Ads.
Le site gratuit peut aussi décider d’afficher ses propres publicités. Auquel cas, il s’engage à verser 15 % aux visiteurs et 15 % à Brave. Pour l’instant, cette régie publicitaire est lancée aux États-Unis, au Canada, mais aussi en France, en Allemagne et au Royaume-Uni. Pour l’internaute, cette monnaie virtuelle récoltée peut ensuite être échangée et utilisée à d’autres fins. À terme, Brave proposera de la transformer en bons plans ou de la convertir en devises.
FAKE NEWS PANIC : LES NOUVEAUX CIRCUITS DE L’INFORMATION
Nous sommes tous persuadés que le 30 octobre 1938, la population affolée des États-Unis s’est précipitée dans les rues pour fuir une prétendue attaque martienne dont Orson Welles venait de faire l’annonce à la radio, à l’occasion d’une adaptation théâtrale de La Guerre des mondes, le roman de Henry George Wells. L’image d’un pays en panique est restée gravée dans les livres, les documentaires et l’imaginaire public (document 46).
Or, cette panique n’a jamais eu lieu. Dans un remarquable ouvrage, Broadcast Hysteria : Orson Welles’s War of the Worlds and the Art of Fake News, Brad Schwartz a minutieusement démonté la fabrication du mythe. Ce soir-là, les rues sont restées relativement vides, les hôpitaux n’ont pas été encombrés, personne n’a vu d’attroupement à Time Square et la menace des hordes martiennes n’a pas suscité de suicides.
La panique de La Guerre des mondes a été littéralement fabriquée par la presse écrite de l’époque, qui reprochait notamment à la radio d’aspirer tous les revenus publicitaires. On prêtait à ce nouveau média une telle force qu’on le disait capable d’hypnotiser le public. Reflet des anxiétés politiques d’alors, spécialement de la responsabilité des discours radiophoniques d’Hitler dans la montée du nazisme, une théorie des médias s’est construite, celle des effets forts, aussi appelée, de façon imagée, « seringue hypodermique » : la radio débranche la raison des auditeurs pour atteindre directement leurs sensibilités ; elle aurait la capacité de contrôler les croyances, de guider les comportements et de changer les représentations. ...
La réforme du droit d'auteur sur Internet est approuvée par le Parlement européen ce mardi 26 mars 2019. Souvent présentée comme une solution pour "sauver les auteurs et la presse" contre l'appétit des géants du Net qui ne les rétribuent pas, la réalité est plus complexe et plus nuancée.
Personne n'a encore réussi à comprendre ce qu'il se passerait réellement si la directive droits d'auteur sur Internet était votée, après plus de deux ans de négociations et de remaniements. Maintenant que le Parlement européen l'a approuvée, ce mardi 26 mars, il est temps de refaire le point sur ceux qui la dénoncent ou ceux qui la plébiscitent.
Jeudi 21 mars 2019, les versions de l'encyclopédie coopérative en ligne Wikipédia, en allemand, en tchèque, en slovaque et en danois n'étaient pas disponibles pour 24 heures, en signe de protestation contre la directive droits d'auteur.
Pour résumer : deux camps s'affrontent, et en réalité… trois. D'un côté, les sociétés d'auteurs et les auteurs, ayants droit, organes de presse, et de l'autre les plateformes géantes du Net et les défenseurs des libertés sur Internet. Croire que les deux derniers s'opposeraient aux premiers pour les mêmes raisons est un raccourci souvent utilisé : des accusations de financement par Google du collectif "Save the Internet" qui appelle à manifester en Europe ont circulé et la croyance que les GAFAM seraient seuls à la manœuvre pour faire empêcher le vote de la directive ou seraient de mêche avec des organisations civiles anti-censure internet, reste encore d'actualité. Pourtant, la vérité se situe souvent au milieu du gué, et c'est bien là que se situe le nœud du problème avec la directive droits d'auteur, ses détracteurs… et ses soutiens.
A lire : Droits voisins Internet : l'Union européenne donne son feu vert pour une réforme
Une idée juste…
Rétribuer les auteurs lorsque leurs œuvres sont utilisées ou empêcher leur utilisation par des tiers sans accord est une règle juste qui s'applique dans le monde physique sans opposition particulière. Mais sur Internet cette règle n'est pas forcément respectée : plateformes de streaming illégales, diffusion d'œuvres par des particuliers sur YouTube, partages de photos, de vidéos sur Facebook et diffusion d'articles de presse sont devenus courants, le tout étant massivement monétisé par les firmes, et ce, sans contreparties. C'est à cet état de fait que la directive droits d'auteurs veut s'attaquer. Pour redonner le pouvoir à ceux qui créent les contenus plutôt qu'à ceux qui les pillent ou les exploitent illégalement.
La directive droits d'auteur est donc une directive qui a pour ambition d'aider la création artistique, soutenir les producteurs de contenus et pouvoir les rétribuer : une idée considérée comme "juste" par tous — collectifs de "défense d'Internet" inclus — à l'exception des firmes mises en cause, que sont les GAFAM et autres plateformes d'échanges de contenus. Mais comme le diable se cache dans les détails, ce n'est pas l'idée en tant que telle qui est contestée mais les moyens prévus pour l'appliquer. C'est sur cet aspect que les défenseurs des libertés et les promoteurs de la directive sont irréconciliables.
…pour une application décalée ?
Deux articles sont contestés en particulier : le 11 et le 13, qui — pour simplifier — obligent les fournisseurs de contenus à empêcher que des contenus sans accord avec des ayants droit puissent être publiés, ou que des citations puissent être faites sur des contenus de presse sans rétribution.
L'article 13 de ce texte entend créer de nouvelles règles pour les gros hébergeurs - qui diffusent un « grand nombre d'œuvres ». Ceux-ci devraient passer des accords avec les ayants droit des œuvres qu'ils diffusent, afin de définir les modes de répartition des revenus (publicitaires ou d'abonnement) avec ceux-ci ou de prendre des mesures pour empêcher la diffusion de contenus signalés par ces derniers. Le texte mentionne des « techniques efficaces de reconnaissance des contenus », faisant clairement référence au Content ID déployé sur YouTube depuis dix ans - outil qui permet à Google de détecter automatiquement les œuvres publiées sur son site afin de permettre à leurs ayants droit d'empêcher ou de permettre leur diffusion (auquel cas contre rémunération).
(Droits voisins Internet : l'Union européenne donne son feu vert pour une réforme)
Ces articles ont été assouplis depuis septembre : dans la nouvelle version les hyperliens vers des sites presse sont par exemple désormais possibles sans autorisation : Wikipedia ne devrait donc pas subir les foudres de la directive droits d'auteur pour ses liens externes. Mais de nombreuses nuances apportées dans la directive laissent dans le flou la surveillance des contenus et leur retrait, les possibilités de citations d'articles sans accord ou la création de pastiches, de parodies à partir d'œuvres commerciales…
Le site NextInpact détaille point par point les effets possibles de censure ou de limitations de la liberté d'expression que la directive pourrait causer, ainsi que les potentielles avancées en matière de financement de la presse par Google ou d'autres plateformes de mises en avant de contenus : "Directive Droit d'auteur : mais qu'ont voté les eurodéputés ?"
Savoir précisément ce qu'il sera possible ou non de publier, sur quelle durée, par quels moyens, depuis quelle plateforme est excessivement difficile à la lecture du texte de loi européen. Les défenseurs d'Internet estiment par exemple que la "censure aveugle des robots de téléchargement", empêchera de nombreux partages, comme les "mèmes Internet" (idée, concept simple propagés à travers le web, prenant la forme d'un hyperlien, d'une vidéo, d'un site Internet, d'une image).
Liberté, protection et surveillance sont dans un bateau
Internet et son célèbre avatar le World Wide Web est un outil de partage depuis l'origine. Son succès mondial est le fruit d'une liberté de diffusion de l'information sans contraintes entre tous ses utilisateurs. Ce succès a permis d'ouvrir les échanges à tous mais a aussi créé des opportunités commerciales immenses, des monopoles de fait, menant à l'exploitation indue du travail d'autrui : c'est cette distorsion que veut combattre la directive droit d'auteur en permettant de protéger les créations.
Mais protéger en contraignant les plateformes à surveiller chaque contenu pour vérifier les droits qui lui sont conférés, oblige ces plateformes à automatiser le filtrage des contenus, selon les défenseurs de la liberté d'expression sur Internet. Tout contenu ou extrait de contenu commercial pourrait alors être supprimé ou impossible à partager sur le réseau de façon publique. C'est avec cette crainte qu'une question simple pourrait se poser : "Si dans le bateau Internet accueillant la protection, la surveillance et la liberté, la liberté tombe à l'eau, qui va donc rester dans le bateau ?"
La réponse est facile. Reste désormais à voir si celle-ci s'applique aussi simplement ou de manière plus souple… une fois la directive adoptée.
Pascal Hérard
es eurodéputés ont approuvé mardi 26 mars la réforme européenne du droit d'auteur, un texte très attendu par les médias et le monde de la culture mais combattu par les plateformes américaines et les partisans de la liberté sur internet.
Présentée par la Commission européenne en septembre 2016, cette réforme a reçu 348 votes pour, 274 contre et 36 abstentions. Les grandes plateformes commerciales américaines comme Google, Facebook ou YouTube, devront donc coopérer avec les auteurs et la presse pour les rémunérer ou les aider à protéger leurs œuvres.
"Je sais qu'il y a beaucoup de craintes sur ce que peuvent faire ou pas les utilisateurs - maintenant, nous avons des garanties claires sur la liberté d'expression (...) et la créativité en ligne", s'est félicité le vice-président de la Commission européenne, Andrus Ansip, sur twitter. Présentée par M. Ansip en septembre 2016, cette réforme aux enjeux financiers conséquents a fait l'objet d'un lobbying sans précédent de la part de ses partisans comme de ses opposants, mobilisés jusqu'au dernier jour.
Bienvenue sur le MOOC de la CNIL
Vous y trouverez l’ensemble des informations pour vous initier au RGPD et débuter ainsi la mise en conformité de votre organisme.
Ce dispositif gratuit est accessible jusqu’au mois de septembre 2021.
En suivant l’intégralité de ce MOOC, vous pourrez obtenir une attestation.
Créé dans un idéal d’échange libre et gratuit il y a trente ans, le web est désormais dominé par des géants marchands. Alors, quelle place pour la collaboration sur la Toile ?
On le connaît aujourd’hui sous son petit nom, « trois w ». Il y a trente ans, le 12 mars 1989, Tim Berners-Lee, chercheur britannique au CERN (Organisation européenne pour la recherche nucléaire) à Genève en Suisse, mettait au point le world wide web pour permettre l’échange d’informations sur Internet dans le monde entier – et non entre réseaux locaux seulement. Aidé de son collègue belge Robert Caillaud, il invente le premier serveur web (info.cern.ch), le protocole http pour localiser les informations et le langage HTML pour créer les pages. En 1993, devant le succès de ces outils, le CERN livre le code source du www et le fait tomber dans le domaine public.
Mais les services marchands ont vite pris le dessus avec l’arrivée d’Amazon en 1995 ou de Google en 1998. La tendance est à une centralisation du réseau, certains acteurs devenant incontournables par leur taille et le nombre de leurs services. « Chaque invention vient avec son ombre, résume Flore Vasseur, journaliste et auteur du livre “ Ce qu’il reste de nos rêves ” (éd. des Équateurs). L’outil web est neutre, mais les nobles intentions perdent face aux lobbies très organisés du profit et de la manipulation. Il n’y a pas de lobby du bien commun. C’est ce que défendait Aaron Swartz [un génie de l’informatique américain, il s’est suicidé sous la menace d’un procès fédéral en 2013, NDLR], auquel je consacre mon livre, qui incarnait la défense du bien, ce qu’internet produit de mieux : l’accès libre au savoir, contre le flicage qu’on voit à l’œuvre désormais. »
L’application prochaine de la législation européenne – article 13 et article 11, qui rend responsables les plateformes internets de contenus qu’elles offrent, au risque de fortes amendes – menace aussi la liberté de création sur YouTube, selon Dead Will (alias Wilfried Kaiser), Tourangeau qui vulgarise des concepts sociétaux grâce à des extraits de films. « Les plateformes ne vont pas rendre de risque et ne feront pas du cas par cas. On risque de ne plus pouvoir utiliser les œuvres, ce qui dans mon cas est impossible. Même si j’ai déjà recours à Wikimedias pour avoir des contenus libres de droits. » Face à cette nouvelle situation menaçant une liberté d’expression, deux attitudes sont possibles : croire à un bluff de YouTube qui ne fera pas vraiment la chasse et ne rien changer, soit espérer que la plateforme passe des accords, avec Allocine par exemple.
Ce sont des entreprises toxiques pour nos vies et ce n’est pas ça que le web voulait au départ.
Pierre-Yves Gosset, délégué général de Framasoft
Mais des villages résistent toujours à l’envahisseur, en créant des logiciels libres. Pierre-Yves Gosset, délégué général de Framasoft, explique que son site associatif s’est créé « sur une idée de partage des savoirs, de transparence et d’entraide. Par exemple Wikipedia qu’on peut modifier, partager ou enrichir librement, à condition de citer l’auteur. » L’association existe depuis dix-huit ans et s’est fixée comme objectif, en 2014 de dégoogliser internet en proposant des services alternatifs. Avec les révélations d’Edouard Snowden, en 2013, sur le programme d’espionnage américain PRISM, « nous avons découvert qu’internet était aussi un outil de surveillance. Nous avons réorienté notre action vers plus de pédagogie, pour expliquer aux gens que les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) sont un aspirateur à données personnelles. Ce sont des entreprises toxiques pour nos vies et ce n’est pas ça que le web voulait au départ. » Framasoft prépare l’avenir en pariant sur un retour aux logiciels libres après un basculement du modèle du web vers une sobriété nouvelle. 30 ans, l’âge de la maturité, devrait voir éclore « une certaine lucidité des citoyens sur l’utilité d’internet » comme l’invoque aussi Flore Vasseur. Alors, Happy birthday, Tim !
Tipeee, la plateforme alternative
Il y a cinq ans, des Youtubeurs français ont créé la plateforme Tipeee, start-up dont les internautes rétribuent les vidéos – « tip » signifie pourboire en anglais. Ce modèle permet de s’affranchir de la publicité, une alternative efficace au monopole de YouTube. « C’est un bon moyen pour ne pas dépendre de la publicité, indique Dead Will, vulgarisateur en concepts sociétaux, Tourangeau lui aussi. On revient aux fondements du web pour la diffusion de la connaissance. » Des journalistes de Thinkerview, des dessinateurs ou récemment des podcasteurs ont choisi ce mode de diffusion direct.
Outre la publication des comptes rendus de session plénière et de délibérations de l’exécutif, la Région Centre-Val de Loire livre aussi des études dynamiques sur des thématiques précises. Par exemple, elle est la première en France à fournir, en accès libre, les données de ponctualité des trains régionaux, disponibles son portail en open data. « Nous avons fait le choix de ce portail, ouvert en octobre, pour rendre la donnée intelligible, détaille Laurent Ollivier, directeur du numérique à la Region. Ce n’est pas tout de satisfaire les obligations réglementaires en libérant de la donnée, encore faut-il qu’elle soit utile. C’est vertueux pour le public mais aussi en interne, pour réfléchir à la place des données qu’on gère. »
À la tête d’une petite équipe transversale, il pilote les thèmes qui pourraient être abordés, puis le bureau exécutif les valide. « Nous travaillons autour du tourisme, mais aussi du patrimoine, continue Laurent Ollivier. Nous avons des données de qualité qui représentent un potentiel colossal pour le tourisme par exemple. Les acteur privés pourraient s’en servir pour faire du business. »
Il y a dix ans, nous avons eu besoin de Google Chrome pour libérer le Web de l’hégémonie des entreprises, et nous avons réussi à le faire pendant une courte période. Aujourd’hui, sa domination étouffe la plateforme même qu’il a autrefois sauvée des griffes de Microsoft. Et personne, à part Google, n’a besoin de ça.
Nous sommes en 2008. Microsoft a toujours une ferme emprise sur le marché des navigateurs web. Six années se sont écoulées depuis que Mozilla a sorti Firefox, un concurrent direct d’Internet Explorer. Google, l’entreprise derrière le moteur de recherche que tout le monde aimait à ce moment-là, vient d’annoncer qu’il entre dans la danse. Chrome était né.
Au bout de deux ans, Chrome représentait 15 % de l’ensemble du trafic web sur les ordinateurs fixes — pour comparer, il a fallu 6 ans à Firefox pour atteindre ce niveau. Google a réussi à fournir un navigateur rapide et judicieusement conçu qui a connu un succès immédiat parmi les utilisateurs et les développeurs Web. Les innovations et les prouesses d’ingénierie de leur produit étaient une bouffée d’air frais, et leur dévouement à l’open source la cerise sur le gâteau. Au fil des ans, Google a continué à montrer l’exemple en adoptant les standards du Web.
Avançons d’une décennie. Le paysage des navigateurs Web est très différent. Chrome est le navigateur le plus répandu de la planète, faisant de facto de Google le gardien du Web, à la fois sur mobile et sur ordinateur fixe, partout sauf dans une poignée de régions du monde. Le navigateur est préinstallé sur la plupart des téléphones Android vendus hors de Chine, et sert d’interface utilisateur pour Chrome OS, l’incursion de Google dans les systèmes d’exploitation pour ordinateurs fixe et tablettes. Ce qui a commencé comme un navigateur d’avant-garde respectant les standards est maintenant une plateforme tentaculaire qui n’épargne aucun domaine de l’informatique moderne.
Bien que le navigateur Chrome ne soit pas lui-même open source, la plupart de ses composantes internes le sont. Chromium, la portion non-propriétaire de Chrome, a été rendue open source très tôt, avec une licence laissant de larges marges de manœuvre, en signe de dévouement à la communauté du Web ouvert. En tant que navigateur riche en fonctionnalités, Chromium est devenu très populaire auprès des utilisateurs de Linux. En tant que projet open source, il a de nombreux adeptes dans l’écosystème open source, et a souvent été utilisé comme base pour d’autres navigateurs ou applications.
Tant Chrome que Chromium se basent sur Blink, le moteur de rendu qui a démarré comme un fork de WebKit en 2013, lorsque l’insatisfaction de Google grandissait envers le projet mené par Apple. Blink a continué de croître depuis lors, et va continuer de prospérer lorsque Microsoft commencera à l’utiliser pour son navigateur Edge.
La plateforme Chrome a profondément changé le Web. Et plus encore. L’adoption des technologies web dans le développement des logiciels PC a connu une augmentation sans précédent dans les 5 dernières années, avec des projets comme Github Electron, qui s’imposent sur chaque OS majeur comme les standards de facto pour des applications multiplateformes. ChromeOS, quoique toujours minoritaire comparé à Windows et MacOS, s’installe dans les esprits et gagne des parts de marché.
Chrome est, de fait, partout. Et c’est une mauvaise nouvelle
Don’t Be Evil
L’hégémonie de Chrome a un effet négatif majeur sur le Web en tant que plateforme ouverte : les développeurs boudent de plus en plus les autres navigateurs lors de leurs tests et de leurs débogages. Si cela fonctionne comme prévu sur Chrome, c’est prêt à être diffusé. Cela engendre en retour un afflux d’utilisateurs pour le navigateur puisque leurs sites web et applications favorites ne marchent plus ailleurs, rendant les développeurs moins susceptibles de passer du temps à tester sur les autres navigateurs. Un cercle vicieux qui, s’il n’est pas brisé, entraînera la disparition de la plupart des autres navigateurs et leur oubli. Et c’est exactement comme ça que vous asphyxiez le Web ouvert.
Quand il s’agit de promouvoir l’utilisation d’un unique navigateur Web, Google mène la danse. Une faible assurance de qualité et des choix de conception discutables sont juste la surface visible de l’iceberg quand on regarde les applications de Google et ses services en dehors de l’écosystème Chrome. Pour rendre les choses encore pires, le blâme retombe souvent sur les autres concurrents car ils « retarderaient l’avancée du Web ». Le Web est actuellement le terrain de jeu de Google ; soit vous faites comme ils disent, soit on vous traite de retardataire.
Sans une compétition saine et équitable, n’importe quelle plateforme ouverte régressera en une organisation dirigiste. Pour le Web, cela veut dire que ses points les plus importants — la liberté et l’accessibilité universelle — sont sapés pour chaque pour-cent de part de marché obtenu par Chrome. Rien que cela est suffisant pour s’inquiéter. Mais quand on regarde de plus près le modèle commercial de Google, la situation devient beaucoup plus effrayante.
La raison d’être de n’importe quelle entreprise est de faire du profit et de satisfaire les actionnaires. Quand la croissance soutient une bonne cause, c’est considéré comme un avantage compétitif. Dans le cas contraire, les services marketing et relations publiques sont mis au travail. Le mantra de Google, « Don’t be evil« , s’inscrivait parfaitement dans leur récit d’entreprise quand leur croissance s’accompagnait de rendre le Web davantage ouvert et accessible.
Hélas, ce n’est plus le cas.
Logos de Chrome
L’intérêt de l’entreprise a dérivé petit à petit pour transformer leur domination sur le marché des navigateurs en une croissance du chiffre d’affaires. Il se trouve que le modèle commercial de Google est la publicité sur leur moteur de recherche et Adsense. Tout le reste représente à peine 10 % de leur revenu annuel. Cela n’est pas forcément un problème en soi, mais quand la limite entre navigateur, moteur de recherche et services en ligne est brouillée, nous avons un problème. Et un gros.
Les entreprises qui marchent comptent sur leurs avantages compétitifs. Les moins scrupuleuses en abusent si elles ne sont pas supervisées. Quand votre navigateur vous force à vous identifier, à utiliser des cookies que vous ne pouvez pas supprimer et cherche à neutraliser les extensions de blocage de pub et de vie privée, ça devient très mauvais1. Encore plus quand vous prenez en compte le fait que chaque site web contient au moins un bout de code qui communique avec les serveurs de Google pour traquer les visiteurs, leur montrer des publicités ou leur proposer des polices d’écriture personnalisées.
En théorie, on pourrait fermer les yeux sur ces mauvaises pratiques si l’entreprise impliquée avait un bon bilan sur la gestion des données personnelles. En pratique cependant, Google est structurellement flippant, et ils n’arrivent pas à changer. Vous pouvez penser que vos données personnelles ne regardent que vous, mais ils ne semblent pas être d’accord.
Le modèle économique de Google requiert un flot régulier de données qui puissent être analysées et utilisées pour créer des publicités ciblées. Du coup, tout ce qu’ils font a pour but ultime d’accroître leur base utilisateur et le temps passé par ces derniers sur leurs outils. Même quand l’informatique s’est déplacée de l’ordinateur de bureau vers le mobile, Chrome est resté un rouage important du mécanisme d’accumulation des données de Google. Les sites web que vous visitez et les mots-clés utilisés sont traqués et mis à profit pour vous offrir une expérience plus « personnalisée ». Sans une limite claire entre le navigateur et le moteur de recherche, il est difficile de suivre qui connaît quoi à votre propos. Au final, on accepte le compromis et on continue à vivre nos vies, exactement comme les ingénieurs et concepteurs de produits de Google le souhaitent.
En bref, Google a montré à plusieurs reprises qu’il n’avait aucune empathie envers ses utilisateurs finaux. Sa priorité la plus claire est et restera les intérêts des publicitaires.
Voir au-delà
Une compétition saine centrée sur l’utilisateur est ce qui a provoqué l’arrivée des meilleurs produits et expériences depuis les débuts de l’informatique. Avec Chrome dominant 60 % du marché des navigateurs et Chromium envahissant la bureautique sur les trois plateformes majeures, on confie beaucoup à une seule entreprise et écosystème. Un écosystème qui ne semble plus concerné par la performance, ni par l’expérience utilisateur, ni par la vie privée, ni par les progrès de l’informatique.
Mais on a encore la possibilité de changer les choses. On l’a fait il y a une décennie et on peut le faire de nouveau.
Mozilla et Apple font tous deux un travail remarquable pour combler l’écart des standards du Web qui s’est élargi dans les premières années de Chrome. Ils sont même sensiblement en avance sur les questions de performance, utilisation de la batterie, vie privée et sécurité.
Si vous êtes coincés avec des services de Google qui ne marchent pas sur d’autres navigateurs, ou comptez sur Chrome DevTools pour faire votre travail, pensez à utiliser Vivaldi2 à la place. Ce n’est pas l’idéal —Chromium appartient aussi à Google—, mais c’est un pas dans la bonne direction néanmoins. Soutenir des petits éditeurs et encourager la diversité des navigateurs est nécessaire pour renverser, ou au moins ralentir, la croissance malsaine de Chrome.
Je me suis libéré de Chrome en 2014, et je n’y ai jamais retouché. Il est probable que vous vous en tirerez aussi bien que moi. Vous pouvez l’apprécier en tant que navigateur. Et vous pouvez ne pas vous préoccuper des compromissions en termes de vie privée qui viennent avec. Mais l’enjeu est bien plus important que nos préférences personnelles et nos affinités ; une plateforme entière est sur le point de devenir un nouveau jardin clos. Et on en a déjà assez. Donc, faisons ce que nous pouvons, quand nous le pouvons, pour éviter ça.
Sources & Lectures supplémentaires
“Parts de marché des navigateurs web”, https://fr.wikipedia.org/wiki/Parts_de_march%C3%A9_des_navigateurs_web, Wikipédia.
“Chrome is Not the Standard”, https://www.chriskrycho.com/2017/chrome-is-not-the-standard.html, Chris Krycho.
“Why I’m done with Chrome”, https://blog.cryptographyengineering.com/2018/09/23/why-im-leaving-chrome/, Matthew Green.
“Browser Diversity Starts with US”, http://www.zeldman.com/2018/12/07/browser-diversity-starts-with-us/, Jeffrey Zeldman.
Je sais que, après les retours négatifs des utilisateurs, Chrome 70 a retiré certaines de ces parties. Cependant, mon raisonnement tient toujours.
Opera et Brave sont deux autres alternatives, mais le premier est détenu par un consortium publicitaire et vidéoludique implanté en Chine, tandis que le second expérimente des modèles économiques non-conventionnels basés sur la publicité.
Si le RGPD est entré en application récemment, en plaçant l’Europe à l’avant-garde de la protection des données à caractère personnel, il ne doit pas nous dissuader de nous interroger en profondeur sur la question des identités, dont les contours se sont redéfinis à l’ère numérique. Il s’agit bel et bien de porter une réflexion critique sur des enjeux éthiques et philosophiques majeurs, au-delà de la seule question de la protection des informations personnelles et de la privacy.
Les politiques actuelles sur la protection des données mettent l’accent sur les droits de la personne. Mais elles ne prennent pas la mesure de la manière dont l’exercice de notre libre arbitre se voit de plus en plus empêché au sein d’environnements technologiques complexes, et encore moins des effets de la métamorphose numérique sur les processus de subjectivation, le devenir-soi de l’individu. On considère le plus souvent, dans ces textes, un sujet déjà constitué, capable d’exercer ses droits, sa propre volonté et ses principes. Or, le propre des technologies numériques – telle est la thèse ici défendue – est de participer à la formation des subjectivités selon un mode nouveau : en redistribuant sans cesse le jeu des contraintes et des incitations, elles créent les conditions d’une plus grande malléabilité des individus. Nous détaillons ces processus dans notre ouvrage Les identités numériques en tension.
Si les moyens mis en place par le RGPD sont clairement nécessaires pour soutenir l’initiative et l’autonomie de l’individu dans la gestion de sa vie numérique, il faut cependant souligner que les notions mêmes de consentement et de contrôle par l’utilisateur vis-à-vis de ses données, et sur lesquels le mouvement actuel repose, restent problématiques. Et cela parce que deux logiques, distinctes mais concordantes, sont aujourd’hui à l’œuvre.
Si une certaine sensibilité des utilisateurs aux traces laissées volontairement ou involontairement au cours de leurs activités en ligne, et dont il peut avoir connaissance (comme, par exemple, des métadonnées de connexion), semble s’accroître, et peut servir de support à l’approche basée sur le consentement, cette dynamique rencontre assez vite ses limites.
Tout d’abord, la multiplication des informations récoltées rend irréaliste l’exercice systématique du consentement et le contrôle par l’utilisateur, ne serait-ce qu’en raison de la surcharge cognitive que cet exercice effectif exigerait de sa part. Ensuite, le changement de nature des moyens techniques de collecte, exemplifiée par l’avènement des objets connectés, conduit à la démultiplication des capteurs qui collectent les données sans même que l’utilisateur puisse s’en rendre compte, comme le montre l’exemple, de moins en moins hypothétique, de la vidéo-surveillance couplée à la reconnaissance faciale et, plus amplement, le cas de toutes les connaissances que les opérateurs acquièrent sur la base de ces données. Il s’agit ici d’une couche de l’identité numérique dont le contenu et de nombreuses exploitations possibles sont absolument inconnus de la personne qui en est la source.
Qui plus est, une forte tendance des acteurs, étatiques et privés, consiste à vouloir décrire l’individu de manière exhaustive et totale, en créant le risque de le réduire à un ensemble de plus en plus complet d’attributs. Dans ce nouveau régime de pouvoir, le visible se réduit à ce qui peut être saisi en données, à ce qui relève de la mise à disposition immédiate des êtres, comme s’il s’agissait en fin de compte de simples objets.
La deuxième logique à l’œuvre dans nos sociétés hypermodernes touche à l’inscription de ce paradigme basé sur la protection et le consentement dans les mécanismes de la société néolibérale. La société contemporaine conjugue en effet deux aspects en matière de privacy : il s’agit de considérer l’individu comme étant visible de manière permanente, et comme étant responsable individuellement pour ce qui est vu de lui. Un tel ensemble de normes sociales se consolide à chaque fois que l’utilisateur exerce le consentement – ou l’opposition – à l’utilisation de ses données. En effet, à chaque itération, l’utilisateur renforce sa compréhension de soi-même comme l’auteur et le responsable de la circulation des données. Il endosse aussi l’injonction à la maîtrise des données alors même que cette dernière est le plus souvent illusoire. Surtout, il endosse l’injonction à calculer les bénéfices que le partage des informations peut lui apporter. En ce sens, l’application stricte et croissante du paradigme de consentement peut être considérée comme étant corrélative d’une conception de l’individu qui devient non seulement l’objet d’une visibilité quasi-totale, mais aussi – et surtout – un agent économique rationnel, à même d’analyser son agir en termes de coûts et de bénéfices.
Cette difficulté fondamentale fait que les enjeux futurs des identités numériques ne se réduisent pas à donner plus de contrôle explicite, ou plus de consentement éclairé. Il convient bel et bien de trouver d’autres voies complémentaires, qui se situent sans doute du côté des pratiques (et non simplement des « usages ») des utilisateurs, à condition que de telles pratiques mettent en place des stratégies de résistance pour contourner l’impératif de visibilité absolue et de définition de l’individu comme agent économique rationnel.
De telles pratiques digitales doivent en outre nous inciter à dépasser la compréhension de l’échange social – numérique ou non – sous le régime du calcul des bénéfices que l’on en retire ou des externalités. Ainsi, les enjeux soulevés par les identités numériques dépassent largement les enjeux de protection de l’individu ou les enjeux des « modèles d’affaires », et touchent à la manière même dont la société dans son ensemble conçoit la signification de l’échange social. Dans un tel horizon, il est primordial d’affronter les ambivalences et les jeux de tension qui sont intrinsèques aux technologies numériques, en examinant les nouveaux modes de subjectivation qui sont induits dans ces opérations. C’est à partir d’un tel exercice de discernement que pourra advenir un mode de gouvernance des données plus responsable.
Il ne faut pas que ça se fasse à marche forcée au détriment d'une partie de la population qui n'arriverait pas à suivre... C'est ce que dit en substance le rapport que Jacques Toubon a remis au Premier ministre mardi 26 février. Et pour lancer cet avertissement, il se base sur les milliers de requêtes qui remontent jusqu'à lui venant d'administrés qui se plaignent des démarches en ligne.
On sait aussi que c'est un sujet qui revient constamment dans le grand débat. Les "gilets jaunes" réclament le retour des services publics dans les territoires, mais leur crainte c'est que ça se fasse sous forme dématérialisée. La e-administration représente pourtant l'avenir et a beaucoup d'avantages, tout le monde est d'accord là-dessus.
La dématérialisation des démarches administratives permet à l'État de faire des économies. N'est ce pas ce que l'on recherche en ce moment ? Pour les citoyens, c'est un gain de temps (plus besoin de se déplacer ou d'envoyer un courrier). Le formulaire en ligne peut-être pré-rempli à distance par l'administration et en quelques clics, la demande est faite.
Parce qu'il estime que la France n'est pas prête. Pas prête en tout cas pour un basculement complet en 4 ans à peine. On a l'impression aujourd'hui que tout le monde ou presque a accès aux nouvelles technologies et sait s'en servir. Eh bien ce n'est pas vrai !
Prés de 30 % de la population adulte passe encore à côté. C'est pourquoi Jacques Toubon demande au gouvernement d'avancer prudemment pour ne laisser personne en chemin. Il ne faut pas que dématérialisation des services publics accentue la fracture numérique.
Au moins 25 millions de personnes concernées
Ces personnes qui ne sont pas prêtes à passer au tout numérique dans leurs échanges avec l'administration, on peut les diviser en 3. Et on retrouve certaines d'entre elles dans plusieurs catégories. Il y a ceux qui sont fâchés avec l'informatique. Il y a un terme qui a été inventé : on parle maintenant d'illectronisme (c'est la version informatique de illettrisme). Le rapport donne un chiffre : en France, 18 millions de personnes admettent ne pas savoir ou mal savoir se servir d'un ordinateur.
Ensuite, il y a ceux qui n'ont pas les moyens de s'équiper. Un ordinateur, un smartphone, un abonnement internet, éventuellement une imprimante, ce n'est pas à la portée de toutes les bourses : 7 millions de personnes ne sont pas connectés à internet.
Et puis dernière catégorie, ce sont ceux qui voudraient bien mais qui ne peuvent pas : 500.000 français vivent dans des zones blanches, c'est à dire dans des endroits où internet ne passe pas. Et près de 10 millions de personnes habitent des zones grises, des communes où les connections ne sont pas toujours faciles et de bonne qualité.
D'où le message du Défenseur des Droits dans dans son rapport : ne pas confondre vitesse et précipitation, se hâter lentement en veillant à n'oublier personne. Jacques Toubon préconise notamment de toujours conserver un 2e accès à l'administration, en plus d'internet, un guichet, une adresse postale ou un numéro de téléphone vers lesquels les citoyens en délicatesse avec leur ordinateur pourraient se rabattre.
Le dernier livre du chercheur Tarleton Gillespie (@TarletonG, blog), Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit) livre une plongée très documentée dans le monde de la modération des plateformes des grands réseaux sociaux… et offre bien des prises pour comprendre les enjeux ce débat récurrent sur les règles et le droit qui doivent présider nos échanges en ligne.
La modération – cette invitation à la pondération, à trouver les bonnes règles d’échanges et de débats en ligne – désigne souvent cette capacité à gérer les communautés d’utilisateurs, le public (« l’ensemble de ceux qui sont affectés par les conséquences indirectes de transactions qu’il est jugé nécessaire de veiller systématiquement à ces conséquences », disait John Dewey dans Le public et ses problèmes) est une préoccupation centrale depuis le début du web. Des premiers forums aux listes de discussions sur Usenet, les communautés en ligne ont toujours eu besoin qu’on prenne soin d’elles, que ce soit en développant des formes de gouvernance pour les protéger, des procédures claires et démocratiques d’usages, ou en trouvant les modalités pour traiter les préjudices et infractions. Les plateformes n’échappent pas à ces règles ni à ces débats.
À l'instar du célèbre bug de l'an 2000 pour les ordinateurs, le système de positionnement américain GPS pourrait cesser de fonctionner le 6 avril prochain à cause d'un problème de dates. Voici comment l'éviter.
Une faiblesse du système de positionnement américain GPS risque d'empêcher bon nombre d'appareils GPS de fonctionner correctement après le 6 avril prochain. C'est ce qu'a découvert The Register, et la cause du dysfonctionnement est un compteur système indiquant la semaine qui arrive à sa limite et qui sera automatiquement réinitialisé. Le problème est similaire au fameux bug de l'an 2000.
Afin de calculer correctement la position, les systèmes de navigation doivent connaître la date. Lors des échanges, le système GPS communique la semaine en cours dans une variable de 10 bits. Cela signifie que cette variable peut prendre 2¹⁰ valeurs, autrement dit, compter de 0 à 1.023. Après 1.023 semaines, soit près de 20 ans, le compteur repasse à zéro et continue de compter. Le compteur a commencé en 1980 pour la première fois, puis a été remis à zéro en 1999. La prochaine réinitialisation arrivera le 6 avril 2019.
Une mise à jour est nécessaire
Le seul moyen pour les appareils plus anciens de retrouver la bonne date sera d'effectuer une mise à jour système. Cela concerne principalement les appareils fabriqués avant 2010, les plus récents ne devraient pas poser de problème si les fabricants ont bien suivi les normes. Cependant, certains d'entre eux ont contourné la difficulté en changeant la date de début, et donc certains appareils pourraient passer cette date sans encombre mais causer le même souci dans quelques années.
Ce problème ne devrait plus se rencontrer à l'avenir pour les nouveaux appareils. Le système intègre désormais de nouveaux formats de message CNAV et MNAV qui utilisent une variable 13 bits. Il devrait donc être valable pendant plus de 150 ans.
Un texte commun de directive européenne vient d'être adopté. Il réforme les principes du droit d'auteur en ligne et les règles applicables aux plateformes de contenu. Décryptage.
(CCM) — La Commission européenne, le Conseil de l'UE et le Parlement européen viennent de se mettre d'accord sur un projet commun de directive sur le copyright et les droits d'auteur numériques. Cette proposition veut moderniser le droit européen, à l'heure de l'omniprésence du digital.
Comme l'indique Andrus Ansip le vice-président de la Commission Européenne en charge du marché unique digital dans son tweet (lien en anglais), les instances européennes veulent avec ce texte à la fois garantir les droits des utilisateurs de services numériques, moderniser les règles applicables aux plateformes de contenus en ligne et assurer la rémunération des producteurs de contenus. Réussir cette triple mission n'était pas gagné d'avance car en matière de droits d'auteur et de copyright, les intérêts des différents acteurs sont divergents la plupart du temps. Plusieurs points du texte font encore débat au sein de la communauté des experts en droit des contenus numériques.
En particulier, l'article 11 veut mettre en place une taxe sur les liens hypertextes sortants. Les créateurs de contenus numériques et les éditeurs de presse obtiennent le droit de demander une rémunération aux plateformes qui affichent un extrait – même « très court » – de leurs contenus. Les agrégateurs d'actualités et les moteurs de recherche sont directement visés, au premier rang desquels Google avait déjà prévenu que cet article 11 pourrait entraîner la fermeture de Google Actualités (cf. notre article sur le sujet). Reste à savoir comment seront interprétées les notions « d'extraits très courts » et d'agrégateurs de contenu. Sur ce dernier point, il se pourrait que même les blogs personnels tenus par des particuliers ou les sites associatifs à but non lucratif soient également concernés par la taxe sur les liens sortants.
Pour laisser le temps aux acteurs du digital de s'organiser, une période de protection de deux ans est prévue par le texte, pendant laquelle les liens hypertextes peuvent encore être utilisés librement. D'ici à 2021, les discussions promettent d'être vives pour négocier la mise en application du texte européen, consultable sur le site de la Commission.
Les logiciels libres et le mouvement open source luttent contre les boîtes noires, prônant le partage des savoirs et le « faire ensemble ». Mais l’ouverture des codes est-elle vraiment un gage d’ouverture aux autres ? Le monde du « libre » ne devrait-il pas engager une mutation pour rendre plus tangible sa dimension solidaire et toucher un public plus large ? Ce sont les questions que pose cet article de Solidarum, issu du numéro 3 de la revue Visions solidaires pour demain, en librairie depuis la mi-janvier.
Dans les années 1980, l’informatique devient grand public avec l’IBM PC, le Macintosh d’Apple et le système Windows de Microsoft. Cette généralisation s’accompagne à l’époque d’une dissimulation des codes sources des programmes, rendant les systèmes incompatibles les uns avec les autres.
Pour Richard Stallman, hacker de la première heure, ces programmes propriétaires privent en effet leurs utilisateurs de libertés essentielles : liberté d’utilisation, liberté de diffuser tout ou partie du programme et liberté d’accéder, de modifier, d’adapter, d’améliorer le code du logiciel. Pour lui, aujourd’hui comme hier, seule l’ouverture du code garantit que tout utilisateur puisse profiter en toute confiance d’un logiciel et, potentiellement, se le réapproprier. Ainsi a-t-il lancé dès 1983 le mouvement du logiciel libre avec la licence GNU, à partir de laquelle va se développer une multitude de programmes libres, dont l’emblématique Linux.
À la fin des années 1990, les développeurs se concentrent sur le volet technique du libre : l’ouverture du code. Ainsi naît l’open source, désormais pratiqué par des programmes majeurs tel le système d’exploitation mobile Android. Mais qu’en est-il aujourd’hui sur un terrain plus social ?
Catherine Guillard est administratrice système et cofondatrice de la Librerie solidaire, qui accompagne les acteurs de la solidarité sociale dans l’utilisation de solutions libres. « Je ne vois pas ce qui peut exister et qui ne soit pas remplaçable par une solution open source, en particulier dans les innovations sociales et tous les projets d’intérêt général, dit-elle. Hier, je suis tombée sur un logiciel qui gère la projection dans les cinémas... Le libre permet aussi de répondre à des besoins publics, à l’image d’OpenCimetière qui a été produit pour une commune et qui sert à présent à d’autres mairies. »
Un monde ouvert au partage et à la contribution
Cet élan d’ouverture s’est décliné dans la production de marchandises avec l’open hardware, dans les données avec l’open data (mise à disposition de données publiques) ou encore dans le partage des connaissances avec l’open innovation, l’open science, etc. Ce mouvement général repose sur la libre circulation des savoirs, l’accessibilité au « faire » et la coopération entre pairs. « Dans le pair-à-pair, il n’y a aucun lien de subordination, ce qui prime c’est l’élan contributif et chacun décide de ce qu’il est en capacité de faire, sans besoin de le justifier a priori. Il y a un principe de confiance qui est facilité par les dispositifs numériques qui rendent l’erreur acceptable puisqu’il est toujours possible de revenir en arrière », témoigne Maia Dereva de la P2P Fondation. Cette capacité du pair-à-pair à faire une place à chacun s’appuie sur une organisation qui n’est pas exempte de hiérarchies, mais qui repose sur la reconnaissance des compétences entre pairs. « Quand des salariés transforment leur entreprise en coopérative, cela ne les empêche pas de recruter un directeur, mais la direction est une compétence de coordination et non un organe de pouvoir. C’est la même chose dans le pair-à-pair », précise-t-elle.
Grâce à cette accessibilité, le monde de l’open fonctionne comme une deuxième école, une façon d’acquérir des savoirs sans passer par les institutions, de casser les barrières à l’entrée du monde de l’informatique ou de la production en général, à l’image des fablabs et des makerspaces. Ainsi, en Colombie, dans le fablab Utopiamaker « des jeunes handicapés apprennent à construire leurs propres prothèses avec des imprimantes 3D, à partir de modèles open source trouvés sur internet. Ils les adaptent à leurs besoins et envies : une prothèse pour jouer de la guitare ou pour faire du vélo, etc. », raconte Philippe Parmentier, à l’initiative de ce fablab.
L’open source est aussi une façon de rendre des solutions financièrement accessibles, les ressources étant majoritairement gratuites. En outre, au lieu de réinventer la roue, l’open source s’appuie sur ce qui existe a n de l’améliorer. Ainsi Nicolas Huchet, amputé d’une main, travaille avec l’aide de makers sur le projet Bionicohand, une prothèse avec capteurs sensoriels accessible à tous.
L’utilisation de l’open source leur permet de diviser le coût de production par cent et de s’appuyer sur des technologies inventées par d’autres. La main bionique, une fois finalisée, sera elle-même en open source. C’est le principe de l’économie du partage en opposition à l’économie de la rente, symbolisée par les brevets.
Un monde open pourtant très fermé dans la pratique
Ce monde du partage et de la libre contribution devrait convaincre toute personne œuvrant pour un monde plus solidaire, plus équitable ; toute personne se sentant exclue de la société, du marché.
Le libre reste circonscrit au monde de l’informatique et se compose majoritairement d’hommes
Mais, si l’open source a permis au libre de gagner en efficacité, sa focalisation sur la technique l’a sans doute éloigné de ceux à qui il s’adressait en premier lieu : tous les autres, qui ne développent pas. Le libre reste, en effet, très circonscrit au monde de l’informatique et se compose majoritairement d’hommes, même si d’une multitude de nationalités. « Il y a dix ans, on dénombrait à peine 2 % de développeuses dans l’open source, cela commence à bouger, mais le nombre de femmes reste marginal, bien plus que dans le monde du logiciel propriétaire, déplore Catherine Guillard. Nous n’arrivons pas à convaincre les acteurs de l’économie sociale et solidaire d’utiliser des logiciels libres alors qu’ils défendent les mêmes valeurs de partage et d’équité sociale que nous. On manque sans doute d’un langage commun pour se comprendre. »
Le projet de société véhiculé par le libre a néanmoins connu un regain d’attention auprès d’un public non initié à la suite des débats autour des données personnelles et des différents scandales qui ont révélé les dangers de la centralisation des données. Et il existe désormais des services alternatifs pour les personnes qui refusent la captation de leurs informations personnelles par quelques entreprises dont les GAFAM (Google, Apple, Facebook, Amazon, Microsoft).
« Le logiciel libre fait prendre conscience de l’impact de l’informatique sur nos vies »
« Les logiciels libres ne permettent pas forcément de protéger les données, mais on est sûr que l’exploitation des données ne constitue pas le modèle économique du service. Quand on entre dans l’état d ’esprit du logiciel libre, on prend conscience de l’impact de l’informatique dans sa propre vie, on est plus vigilant et on est assuré que quelqu’un quelque part vérifiera s’il y a des mouchards dans le code et alertera les autres. La faiblesse du libre, c’est que si j’envoie un mail à un ami qui est sur Gmail, malgré tous mes efforts, Google aura mes données. Le libre te pousse à considérer l’interconnexion aux autres et le risque qu’on fait prendre aux autres en laissant ses données sur internet sans s’assurer de ce qu’elles deviennent », explique Catherine Guillard. Cette attention réciproque, qui demande de protéger ses données pour ne pas exposer celles de ses proches, reste, cependant, trop marginale. Aujourd’hui, le libre reste insuffisamment utilisé par la population pour avoir un impact à la hauteur de ces enjeux.
Comment sortir le libre de sa « geekitude » ?
Il faudrait réussir à embarquer d’autres types de motivations et de compétences dans les communautés du libre, impliquer une population plus large dans sa production. L’une des clés serait sans doute de rendre l’engagement dans le libre aussi mobilisateur pour d’autres métiers que ceux du développement... Par exemple les graphistes, les juristes ou pourquoi pas le monde médical, qui tous doivent composer avec le numérique et les dérives de certains de ses acteurs. Enfin, il faudrait peut-être revenir aux origines sociales et politiques du libre.
En effet, à l’image du bio qui n’est pas qu’une méthode de culture, le libre n’est pas qu’une méthode de développement, mais propose un modèle de société plus respectueux des autres, plus solidaire, plus attentif aux impacts sociaux et environnementaux. Faire un pas vers le libre, c’est, au fond, soutenir le « faire ensemble ».
Capable de lire n’importe quelle vidéo sur n’importe quel support, le petit logiciel gratuit VLC s’est imposé en vingt ans comme un indispensable. Il est développé par des Français.
Quatre cents millions d’utilisateurs, plus de trois milliards de téléchargements… En vingt ans, le logiciel gratuit VLC a su se rendre indispensable et a envahi ordinateurs et smartphones partout dans le monde. Ses forces : il permet de lire à peu près toutes les vidéos, quel qu’en soit le format, sur n’importe quel support et ce sans collecte de données ou publicité cachée.
Le célèbre cône de signalisation, qui lui sert d’icône, a vu le jour en région parisienne. Aujourd’hui encore, la plupart des développeurs responsables de ses mises à jour sont français.
Tout a commencé à l’Ecole centrale Paris. « C’est une histoire très simple et très française », raconte Jean-Baptiste Kempf, l’un des piliers du projet et président de l’association VideoLAN, qui développe et distribue VLC. En 1995, les étudiants réclament à la direction de l’école un meilleur réseau informatique. Officiellement, pour pouvoir travailler dans de meilleures conditions. Officieusement, il s’agit de pouvoir jouer à Doom, un jeu vidéo de tir, en réseau.
La direction de l’école, qui voit clair dans leur jeu, botte en touche et leur propose de trouver eux-mêmes leur financement. Bouygues fait une proposition : l’industriel est prêt à installer un nouveau réseau, à condition que les élèves développent un moyen d’y diffuser les programmes de TF1 et n’aient plus ainsi besoin d’installer une parabole par étudiant.
Le but n’est pas tant de faire l’économie de l’installation d’un parc complet de paraboles, mais de développer à moindres frais un projet qui pourra ensuite servir à l’industriel de vitrine technologique. « C’est la première fois que le streaming vidéo est utilisé », raconte M. Kempf à propos de cette technologie, qui préfigure Netflix ou YouTube. « C’était de la science-fiction », ajoute-t-il.
Et de fait, le développement patine, connaît quelques faux départs, mais, promotion après promotion, il occupe les élèves de deuxième année qui finissent par poser, en 1999, les bases du projet VideoLAN, qui vise à développer le streaming vidéo.
Celui-ci comprend plusieurs facettes : diffusion, lecture… C’est cette dernière fonction, baptisée VideoLAN Client, qui deviendra VLC. Reste à trouver le pictogramme. Ce sera le cône de signalisation de travaux. Omniprésent sur le campus, cet objet est détourné et utilisé dans de nombreuses soirées étudiantes. « Quand je suis arrivé il y en avait des centaines un peu partout. Mais on les a tous rendus à la DDE [direction départementale de l’équipement], promis ! », en rit encore aujourd’hui M. Kempf.
Le couteau suisse de la vidéo
Il faudra attendre 2001 avant que le projet ne devienne « open source », et même « libre », c’est-à-dire accessible gratuitement mais aussi librement diffusable, utilisable, modifiable, par tout un chacun. La technologie développée par les étudiants sort alors de l’école pour être bidouillée par les développeurs du monde entier. Aujourd’hui, des bouts de codes informatiques écrits à l’origine pour VideoLAN coulent dans les veines virtuelles de YouTube et Netflix.
« Au départ l’école espérait rentabiliser la technologie, mais elle se rend bien compte que le projet ne tourne qu’avec des étudiants. En 2001, la direction, un peu résignée, ne comprend pas très bien ce qu’est “l’open source”, mais trouve que c’est un projet sympa et innovant, alors elle l’accepte. Des mecs ont passé un an à faire que du VLC : ils ne sont pas allés en cours, ils ont redoublé… ».
Jean-Baptiste Kempf cite quelques-uns de ces pionniers, Christophe Massiot, Rémi Denis-Courmont, Laurent Aimar, ou encore Samuel Hocevar, un des pionniers de Wikipédia en France.
M. Kempf a vingt ans quand il intègre l’école, en 2003. Entre-temps, VideoLAN s’est étoffé. Au gré des mises à jour, VLC est devenu un formidable couteau suisse, capable de décrypter n’importe quel format vidéo ou audio. « A l’époque, VLC était le seul lecteur qui permettait de lire les DVD sur Mac », se souvient notamment M. Kempf.
Pour réussir cet exploit, les étudiants et les développeurs extérieurs dissèquent chaque format vidéo du marché pour en comprendre le fonctionnement et ainsi programmer les bouts de code qui permettent de les décoder – on appelle ça des « codecs ». C’est la grande force de VLC : il est livré avec la plupart des codecs nécessaires pour lire les formats vidéo les plus pointus, de sorte que l’utilisateur n’ait pas à se soucier de trouver le bon programme, la bonne mise à jour. C’est une révolution.
Ce n’est d’ailleurs pas un hasard si VLC a vu le jour en France. Rien n’interdit aux développeurs de concevoir leurs propres outils pour lire un format vidéo inventé par Apple ou Microsoft. Ce n’est pas le cas partout, et notamment dans les pays où les lois de la protection intellectuelle sont beaucoup plus favorables aux géants de l’informatique. « La politique française est beaucoup plus saine qu’ailleurs. Je ne pense pas que ce soit menacé à court terme, mais il y a des attaques permanentes », explique M. Kempf, qui reste attentif à l’évolution de la législation européenne en la matière.
VLC à l’heure de la « start-up nation »
En 2004, VLC atteint son premier million de téléchargements. Mais tandis que la popularité du logiciel explose, la motivation des développeurs, elle, s’émousse. Forcément, il est plus grisant de poser les fondations que de corriger les bugs. M. Kempf fait les comptes : « le 1er janvier 2007, on n’est plus que deux sur le projet. L’école a resserré les boulons, il commençait à y avoir plus de boulot en cours » et moins de temps pour VLC.
M. Kempf décide alors de refonder le projet et lance l’association VideoLAN, dont il est toujours aujourd’hui président. « Je passe alors beaucoup de temps à recruter de nouveaux étudiants, à l’extérieur de Centrale, demande à des anciens de revenir. Je fais aussi beaucoup de conférences. »
L’initiative redonne un coup de fouet à VLC, qui dépasse, en 2009, les cent millions de téléchargements. Ce deuxième âge d’or n’a qu’un temps. Car, avec le tournant des années 2010, arrive la révolution des smartphones et surtout de leurs applications. « A mon époque, se souvient M. Kempf, les cadors, c’était les mecs qui faisaient de “l’open source” ou du jeu vidéo. A partir de 2012, tout le monde veut faire le prochain jeu smartphone à succès, ou lancer le nouveau Uber. »
« J’ai refusé beaucoup d’argent »
Développer une technologie utile, pratique, téléchargée en 2012 un milliard de fois, mais qui ne rapporte pas un centime ? Ringard, pour la nouvelle génération de développeurs qui veut monter le prochain gros coup, celui qui la rendra riche. Ou, a minima, qui lui permettra de payer ses factures. « J’ai compris qu’il fallait des employés à plein temps », explique M. Kempf. Il monte alors VideoLabs, dans le 13e arrondissement à Paris, forte aujourd’hui d’une vingtaine de salariés, qui adapte le logiciel au besoin des entreprises.
Pendant des années, les codeurs de VLC ont intégré – et continuent de le faire – des formats vidéo utiles au grand public. Mais désormais, les sociétés les sollicitent et les paient pour que VLC puisse lire leurs propres formats. « Nous avons eu un fabricant de caméras industrielles qui voulait pouvoir utiliser VLC. Ce n’est pas quelque chose que nous aurions intégré spontanément », explique M. Kempf.
L’entreprise développe aussi des versions spécifiques pour des clients, qui souhaitent implanter dans leurs produits un lecteur vidéo. Certains « baby phones » vidéo, par exemple, qui vous permettent de vérifier en image et depuis la pièce d’à côté que bébé va bien, utilisent une version modifiée de VLC.
Un savoir faire reconnu
« Le but est de pouvoir financer VLC, pour lui permettre de rester gratuit », résume M. Kempf. Et ça marche. En 2017, l’entreprise a réalisé un million d’euros de chiffre d’affaires. Suffisamment pour lui permettre de refuser des propositions éthiquement plus discutables. « J’ai refusé beaucoup d’argent, des contrats à 20 millions d’euros », annonce M. Kempf. Des sociétés comme l’américain Ask.com, par exemple, ont ainsi toqué à sa porte, lui proposant d’afficher sa très impopulaire et très envahissante barre de recherche à l’intérieur de VLC.
« Si Netflix nous propose la même chose, pourquoi pas, il y a plein d’utilisateurs à qui ça ferait plaisir. On n’est pas contre gagner de l’argent, mais on essaie de faire les choses bien. Cela ne doit pas être au détriment des utilisateurs. Je veux pouvoir me coucher le soir en étant fier de ce que j’ai fait de ma journée. Je pense que c’est la principale différence avec plein de gens de la start-up nation ».
En novembre 2018, M. Kempf, en qualité de président de l’association VideoLAN, a été élevé au rang de chevalier de l’ordre national du Mérite. A travers lui, c’est VLC et un certain savoir faire technologique français qui sont reconnus.
VLC, lui, en est à sa troisième itération. La quatrième, actuellement en développement, devrait notamment renforcer la sécurité du logiciel. « Des personnes malintentionnées essaient d’y mettre des virus », soulignait M. Kempf en 2017 sur le forum en ligne Reddit. En 2017, Wikileaks révélait, en effet, que la CIA s’était servie d’une ancienne version de VLC pour infiltrer des ordinateurs.
En septembre 2018, les responsables de la sécurité du navigateur Google Chrome ont mis sur la table une proposition radicale: modifier les fondations de l’URL, la Uniform Resource Locator, ou ce que l'on appelle l’«adresse» d’un site.
Au fil du temps, alors que les fonctionnalités du web se sont diversifiées, l'URL est petit à petit devenue une longue suite de termes et de numéros incompréhensibles pour les profanes –soit la grande majorité des internautes. D’autant que dans le cas de la navigation sur mobile, l’écran d’un téléphone n’est pas assez large pour afficher la majorité des URL.
Cette difficulté de lecture représente du pain béni pour les hackers, car elle leur permet de créer la confusion pour leurs éventuelles arnaques. Puisque nous ne comprenons pas les URL, nous sommes habitués à ne pas les lire. Cela augmente nos chances de cliquer sur un lien conçu pour ressembler à un nom de domaine réel qui conduit en fait à une page de phishing.
«Notre but est de changer la manière dont les sites sont présentés. Les internautes devraient savoir facilement sur quel site ils sont», a expliqué au site Wired Emily Starck, qui dirige le département sécurité de Google Chrome.
Son service travaille actuellement sur un outil qui vise à détecter les URL suspectes. Cet outil, dénommé TrickURI, permet aux développeurs et développeuses de savoir à quoi leur URL va ressembler dans différentes situations.
L’équipe tente aussi de créer une alerte qui notifierait les internautes lorsqu’une URL est louche. Le challenge est de mettre en évidence les éléments de l’URL qui semblent étranges tout en filtrant les parties difficiles à lire.
Google a l’habitude de régler des problèmes de sécurité sur son navigateur avant de faire pression sur les autres afin qu’ils adoptent les mêmes solutions. C’était par exemple le cas avec le protocole HTTPS, désormais répandu. Mais certaines voix s'élèvent, craignant que Google utilise ce même pouvoir de pression pour faire accepter une mesure bénéfique à Chrome uniquement –et pas au reste du web.
Ce 18 janvier, Emmanuel Macron a plaidé en faveur d'une "levée progressive de tout anonymat", dans une volonté d'améliorer la qualité de la démocratie participative. Un discours qu'il n'est pas le premier à tenir.
Pour le deuxième acte du grand débat national, qui se tenait ce 18 janvier au Palais des congrès de Souillac (Lot), Emmanuel Macron s'est exprimé au sujet de "l'hygiène démocratique du statut de l'information". Afin de lui redonner ses lettres de noblesse, le président de la République a estimé qu'il s'agissait d'aller "vers une levée progressive de toute forme d'anonymat", en faisant mention de "processus où on sait distinguer le vrai du faux et où on doit savoir d’où les gens parlent et pourquoi ils disent les choses".
Si le chef de l'Etat s'est montré évasif à propos desdits processus, ses propos font écho à un discours prononcé en novembre dernier. A l'annonce de l'appel de Paris pour la confiance et la cybersécurité dans le cyberespace, Emmanuel Macron avait pointé du doigt un "anonymat devenu problématique", qui laissait impunis des "torrents de haine déversés en ligne".
Des documents d'identité pour se connecter
Concrètement, mettre en place des initiatives pour dissiper l'anonymat en ligne est envisageable. Il est techniquement possible de soumettre une inscription sur un réseau social, Facebook en tête, à la fourniture d'une pièce d'identité. Une proposition en ce sens avait d'ailleurs été formulée par Eric Ciotti, député LR des Alpes-Maritimes, en août 2016, pour mieux lutter contre le terrorisme.
Cela balaie d'un revers de main l'efficacité et la nature même des VPN, ces "réseaux privés virtuels" qui favorisent l'anonymat en ligne et générant des adresses IP factices. Ces logiciels deviennent inutiles dès lors que des identifiants correspondant à une identité réelle, et associés à une pièce d'identité, sont réclamés pour se connecter à un réseau.
"Ce genre d'obligations - si elles passaient par la loi - seraient impossibles à respecter pour les petits acteurs et risqueraient fort de renforcer davantage les grandes plateformes américaines", explique Félix Tréguer, de la Quadrature du Net, une association de défense des libertés en ligne. "Emmanuel Macron oublie que l'anonymat constitue un droit associé à la liberté d'expression et de communication et au droit à la vie privée. Il est reconnu comme tel au niveau international, notamment par la Cour européenne des droits de l'Homme", complète-t-il.
Haro sur le chiffrement
Par le passé, Emmanuel Macron a déjà dérogé à son rôle de "candidat du numérique" pour faire valoir une approche sécuritaire au sujet d'Internet. En avril 2017, le candidat à l'élection présidentielle avait indiqué vouloir forcer les "messageries instantanées fortement cryptées" à collaborer avec la justice, dans le cadre de la lutte antiterroriste. Il leur reprochait leur refus, dans le cadre d'une enquête, de donner accès aux contenus échangés, à même de comprendre des éléments déterminants. Au point d'envisager, qu'un jour, elles soient considérées comme des "complices d'attentats".
En s'attaquant à l'anonymat, Emmanuel Macron franchit une étape supplémentaire. "Cette question de "levée progressive de toute forme d'anonymat" est en filigrane un aveu de faiblesse face à la défaillance d'éducation des citoyens d'une part, et l'incapacité ou l'ignorance en matière d'investigation, d'une autre", souligne Rayna Stamboliyska, experte en sécurité des données personnelles et auteure de La face cachée d'Internet. "A défaut d'harmoniser les interactions avec les plateformes, pour ne citer que cet exemple, on renvoie la responsabilité sur le citoyen. C'est ce glissement-là qui est problématique et qu'il faut expliquer, expliciter et combattre".
Surtout, Emmanuel Macron semble prôner une position non seulement partagée par Eric Ciotti, mais également mise en avant par ses prédécesseurs François Hollande et Nicolas Sarkozy. "La méfiance envers la parole critique ou irrévérencieuse qui se déploie sur Internet est largement partagée par les élites politiques", rappelle Félix Tréguer. Pourtant, et malgré la défiance qu'il peut inspirer, l'anonymat a son lot de bienfaits, avance le chercheur post-doctorant à l'ISCC (CNRS). "Il conviendrait de combattre la vindicte dont il fait l'objet en rappelant qu'il permet aussi de lutter contre les formes de harcèlement en masquant l'identité de cibles potentielles. Il libère la parole de groupes marginalisés qui sans l'anonymat ou le pseudonymat seraient enclins à s'autocensurer. De ce point de vue, mettre fin à l'anonymat serait donc contre-productif, en plus d'être attentatoire aux libertés publiques."
« S’agissant de notre profil numérique, les données que nous choisissons de partager ne sont que la pointe de l’iceberg. Nous ne voyons pas le reste, cachés sous la surface des interfaces conviviales des applications mobiles et des services en ligne. Les données les plus précieuses sur nous sont inférées hors de notre contrôle et sans notre consentement. Or, ce sont ces couches plus profondes et que nous ne pouvons pas contrôler qui prennent réellement les décisions qui nous affectent, pas nous », explique Katarzyna Szymielewicz (@szymielewicz), cofondatrice et présidente de la Fondation Panoptykon, une association polonaise de défense des libertés individuelles et des droits de l’homme dans la société de surveillance (qu’on pourrait considérer comme l’équivalent de la Quadrature du Net en France) – dans une tribune pour Quartz.
Dans un graphique particulièrement parlant (à consulter en haute définition), la Fondation Panoptykon détaille les 3 couches d’information qui composent nos identités en ligne.
La première couche d’information est la seule sur laquelle nous avons le contrôle. Elle se compose des données que nous insérons dans les médias sociaux ou les applications (informations de profil, publications, requêtes, photos, événements, déplacements…).
La seconde couche est constituée d’observations comportementales et de métadonnées qui donnent un contexte à ces choix : position en temps réel, graphe de nos relations intimes et professionnelles, le temps que nous passons, les habitudes d’achat, les mouvements de nos souris ou de nos doigts…
La troisième couche est composée des interprétations de la première et de la seconde couche. Nos données sont analysées et comparées en permanence à d’autres profils pour inférer des corrélations statistiques significatives… Ce qu’on appelle souvent la personnalisation, mais qui vise plus à nous catégoriser qu’à nous distinguer.
Le problème est que si l’utilisateur contrôle la première couche, ce n’est pas le cas des deux autres. Or ces inférences permettent de déterminer beaucoup de nos comportements : profil psychométrique, QI, situation familiale, maladies, obsessions, engagements… Or, nombre de décisions contraignantes sont prises depuis ces interprétations et corrélations. Le problème est que le « double » numérique que le traitement de ces données produit ne nous est pas accessible… et que si nous y avions accès, nous pourrions ne pas nous y reconnaître. « Que diriez-vous si vous découvriez que votre « double de données » est malade ou émotionnellement instable, sans possibilité de crédit, ou plus simplement pas assez cool, et tout cela à cause de la façon dont vous faites vos requêtes en ligne ou de vos relations en ligne ? »
Les algorithmes prennent des décisions basées sur des corrélations statistiques. Et il est possible – même fréquent – qu’un algorithme interprète mal votre comportement… Le problème, souligne Katarzyna Szymielewicz est que si le résultat de cette analyse est discriminatoire ou injuste – « par exemple que votre demande de crédit est refusée parce que vous vivez dans le « mauvais » quartier, ou que votre demande d’emploi ne parvient pas à aboutir parce que votre réseau de relation n’est pas « suffisamment robuste » » – il n’y a aucune incitation du marché à le corriger. Pour la présidente de Panoptykon, nous ne sommes pas si loin du Score de crédit social chinois ! Nous devons reprendre le contrôle du traitement dont nous sommes l’objet.
Pour cela, il nous faut d’abord mieux contrôler la première couche de notre profil. Nous pouvons chiffrer nos communications, désactiver les métadonnées de nos images, veiller à ce que nos téléphones n’aient pas accès par défaut à nos emplacements, réfléchir à ce que nous partageons… Mais même en faisant ces efforts, nous ne pouvons pas contrôler ce qui est observé et interprété par les algorithmes dans les deuxièmes et troisièmes couches de nos profils. Pour Katarzyna Szymielewicz, il nous faut agir collectivement pour convaincre ceux qui font du profilage de modifier leur approche, de nous montrer leurs calculs, de nous demander notre consentement et de le respecter. Le RGPD accorde aux utilisateurs le droit de vérifier leurs données, y compris les profils marketing générés par-devers eux. « Tant que nous traitons les courtiers en données et les spécialistes du marketing comme des ennemis et qu’ils nous traitent comme une ressource exploitation, il n’y aura pas de place pour une conversation constructive ».
Le Wi-Fi a mal vieillit, explique la journaliste Ava Kofman (@eyywa) pour Real Life. Si nous sommes de plus en plus conscients de la surveillance dont nous sommes l’objet quand nous naviguons sur le web ou que nous utilisons nos smartphones, nous avons tendance à oublier que c’est également le cas lorsque nous utilisons une connexion Wi-Fi pour nous connecter. Il faut dire que quand le protocole Wi-Fi a été adopté, en 1997, nul n’imaginait que toutes nos connexions et tous nos objets l’utiliseraient.
Les failles et limites du protocole sont nombreuses et documentées. Nombre d’artistes les ont illustrées, comme le Wifi Data Safari de Brannon Drosey et Nick Briz ou Astro Noise de Surya Mattu qui montrent les transmissions non chiffrées qui transitent par les ondes. Ou encore le Wi-Fi Whisperer de Kyle McDonald, un petit robot qui murmure les activités qu’il écoute à voix basse tout comme Snoopi de Jiashan Wu. On pourrait ajouter à cette liste, le dispositif Hommes en gris de Danja Vasiliev et Julian Oliver…
Nous laissons tous des traces quand nous nous déplaçons : nos ordinateurs envoient en permanence leur identité aux réseaux Wi-Fi environnants pour trouver un réseau auquel il s’est déjà connecté. En échange, il est donc possible d’obtenir l’identité unique de l’ordinateur, du smartphone ou du dispositif qui cherche à se connecter, et surtout la liste des réseaux Wi-Fi auxquels il s’est déjà connecté. En structurant les requêtes, il est donc facile de demander l’historique de connexion et d’en déduire les lieux d’où le dispositif se connecte le plus souvent ! Autant d’informations extrêmement personnelles dont le marketing raffole ! Les noms des réseaux Wi-Fi que vos appareils gardent en mémoire indiquent ainsi très facilement quels endroits vous fréquentez (hôtels, universités, entreprises, conférences…) ce qui peut en dire long sur qui vous êtes et ce que vous préférez, surtout quand on dispose d’une liste des réseaux Wi-Fi existants pour réattribuer leurs noms à des emplacements, à l’image des 500 millions de réseaux sans fil collectés par Wigle.net (qui ne sont qu’une partie de ceux que collectent en permanence votre ordinateur ou votre téléphone).
L’Agence européenne chargée de la sécurité des réseaux et de l’information rappelait les risques liés au protocole Wi-Fi notamment que la collecte des réseaux Wi-Fi enregistrés sur nos appareils pouvait être utilisée pour relier des personnes entre elles en comparant les noms des points d’accès qu’ils utilisent ou encore de suivre les déplacements d’un appareil, comme un GPS, selon les requêtes qu’il envoie pour se connecter à un réseau et la force du signal qu’il émet.
Pour les artistes Dorsey et Briz, « les gens ne savent pas comment fonctionne la technologie, c’est pourquoi personne ne songe à exiger un meilleur moyen de se connecter ». En l’absence de pression publique, il y a peu d’incitations à proposer de meilleurs protocoles de connexion ! La commodité l’emporte toujours sur la vie privée. « Déjà qu’il est difficile de convaincre les gens de boycotter les géants de la technologie, il est encore plus difficile d’imaginer un soulèvement contre le Wi-Fi ! »
Des solutions s’esquissent. Des experts travaillent à reconcevoir un protocole sans fil qui soit « privacy by design », notamment en proposant de générer des adresses aléatoires pour nos dispositifs numériques… D’autres proposent des techniques d’obfuscation – comme Shenanigans.io imaginé par l’artiste David Rueter – pour ajouter du bruit aux requêtes auxquels répondent nos terminaux en générant de fausses adresses de réseaux auxquels ils se seraient connectés.
En attendant, la seule solution qu’il nous reste est de couper notre Wi-Fi quand nous ne sommes pas connectés à un réseau connu. Il existe pour cela quelques applications, comme Smart Wi-Fi Toggle. Reste à se demander pourquoi ces fonctionnalités ne sont toujours pas activées par défaut pour gérer votre connexion sans fil…