Dans quelle mesure les différentes générations sont-elles plus ou moins sensibles à la notion de surveillance ? Un regard sur les personnes nées au tournant des années 80 et 90 montre que ces dernières abandonnent probablement plus facilement une part de contrôle sur les données personnelles et n’ont sans doute pas eu totalement conscience de leur grande valeur.
Peut-être qu’à l’approche des Jeux olympiques de Paris, avez-vous vaguement protesté lors de la mise en place d’un fichier vidéo algorithmique ? Et puis avez-vous haussé les épaules : un fichier de plus. Peut-être par résignation ou par habitude ? Comme d’autres, vous avez peut-être aussi renseigné sans trop vous poser de questions votre profil MySpace ou donné votre « ASV » (âge, sexe, ville) sur les chats Caramail au tournant des années 1990-2000 et encore aujourd’hui vous cliquez quotidiennement sur « valider les CGU » (conditions générales d'utilisation) sans les lire ou sur « accepter les cookies » sans savoir précisément ce que c’est.
En effet, peut-être, faites-vous partie de ce nombre important d’individus nés entre 1979 et 1994 et avez-vous saisi au vol le développement de l’informatique et des nouvelles technologies. Et ce, sans forcément vous attarder sur ce que cela impliquait sur le plan de la surveillance des données que vous avez accepté de partager avec le reste du monde…
Pour se convaincre de l’existence de cette habitude rapidement acquise, il suffit d’avoir en tête les grandes dates de l’histoire récente de l’informatique et d’Internet : Apple met en 1983 sur le marché le premier ordinateur utilisant une souris et une interface graphique, c’est le Lisa.
Puis le World Wide Web est inventé par Tim Berners-Lee en 1989, 36 millions d’ordinateurs sont connectés à Internet en 1996, Google est fondé en 1998 et Facebook est lancé en 2004. L’accélération exponentielle d’abord des machines elles-mêmes, puis des réseaux et enfin du partage de données et de la mobilité a suivi de très près les millennials.
La génération précédente, plus âgée, a parfois moins l’habitude de ces outils ou s’est battue contre certaines dérives initiales, notamment sécuritaires. La suivante, qui a été plongée immédiatement dans un monde déjà régi par l’omniprésence d’Internet et des réseaux, en connaît plus spontanément les risques (même si elle n’est pas nécessairement plus prudente).
Probablement du fait de ce contexte, la génération née entre le début des années 1980 et le milieu des années 1990 est aussi celle qui est la plus optimiste face au développement des technologies.
Cet état de fait apparaît d’autant plus clairement que la « génération Z », plus jeune, est marquée généralement par une plus grande apathie voire un certain pessimisme notamment quant au devenir des données personnelles.
En effet, aujourd’hui, les plus jeunes, déjà très habitués à l’usage permanent des réseaux sociaux et aux surveillances de toute part, se trouvent très conscients de ses enjeux mais font montre d’une forme de résignation. Celle-ci se traduit notamment par le « privacy paradox » mis en lumière par certains sociologues et qui se traduit par une tendance paradoxale à se réclamer d’une défense de la vie privée tout en exposant très largement celle-ci volontairement par l’utilisation des réseaux sociaux.
A contrario, cette confiance en la technologie se manifeste spécialement par une forme de techno-optimisme, y compris lorsqu’il s’agit de l’usage de données personnelles. Cet état d’esprit se traduit dans de nombreux domaines : lorsqu’il s’agit de l’usage des données de santé par exemple ou plus généralement quant à l’utilisation des technologies pour régler des problèmes sociaux ou humains comme le réchauffement climatique.
Cet optimisme est aussi visible lorsqu’il s’agit d’évoquer les fichiers policiers ou administratifs. S’il n’existe pas de données précises sur l’acceptation des bases de données sécuritaires par chaque tranche d’âge, il n’en demeure pas moins que la génération des 30-45 ans n’est plus celle de l’affaire Safari dont l’éclatement, après la révélation d’un projet de méga-fichier par le ministère de l’Intérieur, a permis la naissance de la CNIL.
Cette génération a, au contraire, été marquée par des événements clés tels que les attentats du 11 septembre 2001 ou la crise économique de 2009.
Ces événements, et plus généralement le climat dans lequel cette génération a grandi et vit aujourd’hui, la conduisent à être, d’après les études d’opinion récentes, plus sensible aux questions de sécurité que d’autres. Elle entretient ainsi un rapport différent à la sécurité, moins encline à subir des contrôles d’identité répétés (qui sont bien plus fréquents chez les plus jeunes) mais plus inquiète pour l’avenir et plus sensible aux arguments sécuritaires.
Cet état d’esprit favorise en conséquence une plus grande acceptation encore des fichiers et aux dispositifs de sécurité qui sont perçus comme des outils nécessaires à l’adaptation aux nouvelles formes de délinquance et de criminalité, par exemple à l’occasion de l’organisation des futurs Jeux olympiques et paralympiques en France ou rendus utiles pour permettre la gestion d’une pandémie comme celle du Covid-19.
Les deux phénomènes – optimisme face au développement des technologies et sensibilité à la question sécuritaire – sont d’autant plus inextricables qu’il existe un lien important entre usages individuels et commerciaux des technologies d’une part et usages technosécuritaires d’autre part. En effet, les expériences en apparence inoffensives de l’utilisation récréative ou domestique des technologies de surveillance (caméras de surveillance, objets connectés, etc.) favorisent l’acceptabilité voire l’accoutumance à ces outils qui renforcent le sentiment de confort tant personnel que sécuritaire.
La génération des trentenaires et quadra actuelle, très habituée au développement des technologies dans tous les cadres (individuels, familiaux, professionnels, collectifs, etc.) et encore très empreinte du techno-optimisme de l’explosion des possibilités offertes par ces outils depuis les années 1990 est ainsi plus encline encore que d’autres à accepter leur présence dans un contexte de surveillance de masse.
Cet état d’esprit favorise en conséquence une plus grande acceptation encore des fichiers et aux dispositifs de sécurité qui sont perçus comme des outils nécessaires à l’adaptation aux nouvelles formes de délinquance et de criminalité. Maxim Hopman/Unsplash, CC BY-NC-ND
La pénétration très importante de ces dispositifs dans notre quotidien est telle que le recours aux technologies même les plus débattues comme l’intelligence artificielle peut sembler à certains comme le cours normal du progrès technique. Comme pour toutes les autres générations, l’habituation est d’autant plus importante que l’effet cliquet conduit à ne jamais – ou presque – remettre en cause des dispositifs adoptés.
Partant, la génération des 30-45 ans, sans doute bien davantage que celle qui la précède (encore marquée par certains excès ou trop peu familiarisée à ces questions) que celle qui la suit (davantage pessimiste) développe une forte acceptabilité des dispositifs de surveillance de tous horizons. En cela, elle abandonne aussi probablement une part de contrôle sur les données personnelles dont beaucoup n’ont sans doute pas totalement conscience de la grande valeur.
Au contraire, les réglementations (à l’image du Règlement général sur la protection des données adopté en 2016 et appliqué en 2018) tentant de limiter ces phénomènes sont parfois perçues comme une source d’agacement au quotidien voire comme un frein à l’innovation.
Sur le plan sécuritaire, l’acceptabilité de ces fichages, perçus comme nécessaires pour assurer la sécurité et la gestion efficace de la société, pose la question de la confiance accordée aux institutions. Or, là encore, il semble que la génération étudiée soit moins à même de présenter une défiance importante envers la sphère politique comme le fait la plus jeune génération.
Demeurent très probablement encore d’autres facteurs explicatifs qu’il reste à explorer au regard d’une génération dont l’état d’esprit relativement aux données personnelles est d’autant plus essentiel que cette génération est en partie celle qui construit le droit applicable aujourd’hui et demain en ces matières.
Le phishing consiste à se faire passer pour quelqu’un en qui vous avez confiance (organisme officiel, supérieur hiérarchique, un proche…) afin de récupérer vos données ou de s’introduire dans votre système informatique, sans que vous en ayez conscience.
Faux SMS de l’assurance maladie, liens piégés sur Telegram, publicités Facebook frauduleuses, entourloupes reproduisant les sites de Total et Engie… Les tentatives de phishing, ou d’hameçonnage, peuvent venir d’à peu près n’importe où, ce qui ne les rend pas toujours simples à repérer. Reprenons donc les bases, pour éviter de tomber dans le panneau.
Les phishings n’ont de limite que l’imagination des fraudeurs. Dans l’actualité récente, des campagnes d’hameçonnage ont ainsi pu prendre la forme de mails de vérification de compte imitant la communication de l’éditeur de cartes tickets restaurants Swile, d’annonces alléchantes pour un faux jeu concours Lidl ou un vélo électrique soi-disant gagné auprès de Décathlon.
Certaines arnaques se font passer pour le site des impôts, pour la Police nationale ou pour l’application TousAntiCovid… Mails officiels, publicité sur les réseaux sociaux, messages envoyés par SMS ou n’importe quelle application de messagerie : à peu près tous les éléments que nous utilisons quotidiennement en ligne et sur nos téléphones peuvent être utilisés pour tenter de piéger les internautes — même les commentaires de documents partagés !
« Le grand public manque de sens critique envers ce qu’il se passe en ligne, c’est assez étrange, s’étonne Gérôme Billois, Partner cybersécurité et confiance digitale chez Wavestone. Dans la rue, si vous voyez des gens louches, vous changez de trottoir. Beaucoup de gens suspendent cette approche dans l’univers numérique, alors que tout ce qui y est dit n’est pas nécessairement vrai. »
Le premier conseil que l’on puisse donner pour éviter de tomber dans le panneau d’un hameçonnage, c’est donc de rester en alerte : si c’est trop beau pour être vrai, il vaut mieux vérifier avant de cliquer. S’il y a une notion très forte d’urgence, il faut redoubler d’attention : suggérer le besoin d’une action immédiate (« votre ordinateur est infecté, il faut le nettoyer ! », « j’ai besoin de quelques centaines d’euros dans la demi-heure pour me sortir d’une mauvaise passe ! ») est un mécanisme fréquemment utilisé dans les arnaques.
Un cran au-dessus, il y a quelques réflexes utiles à prendre : vérifiez les URL vers lesquelles renvoient les sites ou les textos que vous recevez, par exemple. Semblent-elles correctes, ou y a-t-il une petite erreur, un i à la place d’un l, un 0 à la place d’un o, un mot étrange ? Même chose dans des mails d’apparence officielle : s’il y a des fautes d’orthographe ou de grammaire, ça peut être louche. Si tout parait indiquer une correspondance de l’administration française, mais que dans le pied de page, l’adresse indiquée est située à l’autre bout du monde, c’est probablement anormal. S’il y a des pièces jointes, méfiance, encore une fois : elles sont un vecteur courant d’installation de logiciels malveillants.
Cela varie avec l’objectif final des personnes qui lancent la campagne de phishing : se faire de l’argent, voler des informations sensibles, déstabiliser une entité… Pour les particuliers, les campagnes visent le plus souvent à récupérer des données personnelles, des informations bancaires ou directement de l’argent. Le but est soit de vous faire cliquer sur un lien qui installera ensuite un logiciel frauduleux, soit de vous convaincre de payer, de toute bonne foi (on parle alors d’ingénierie sociale : en manipulant l’individu, on arrive à lui faire céder de l’argent ou des informations).
Pour les entreprises, explique Gérôme Billois, les attaques sont quelquefois beaucoup plus poussées : un criminel peut lancer un spear phishing, en produisant un mail ou une communication parfaitement calibrée pour essayer de tromper une personne précise : le patron, le responsable de la recherche et développement ou le directeur financier, par exemple. Le but est alors, dans certains cas, de réaliser une arnaque au président (se faire passer pour le fondateur pour détourner des fonds), dans d’autres d’espionner, ou de voler des données stratégiques.
Souvent, le phishing n’est aussi que la première étape d’opérations plus complexes : cliquez sur le lien malveillant intégré à l’attaque et vous lancerez en sous-main le téléchargement d’un cheval de Troie ou d’un rançongiciel, ou céderez sans vous en douter l’accès aux systèmes de votre entreprise. « Assez rapidement, on arrive sur des problématiques d’espionnage industriel », indique l’expert.
Les États-Unis et 55 autres pays ont lancé, ce 28 avril, une initiative commune pour garantir un internet sûr et libre. Avec la signature de cette charte baptisée « Déclaration pour l’avenir d’internet », l’administration Biden veut réunir le plus de pays possibles autour d’une vision commune sur ce que doit être la toile de demain.
La « Déclaration pour l’avenir d’internet » contient plus de 20 « principes ». Dans cette charte, les signataires s’engagent, entre autres, à renforcer la démocratie en ligne en acceptant de ne pas fermer l'accès à l'internet. Les plus de 60 pays participants – dont la Grande-Bretagne, la France, l'Allemagne, le Japon, ou encore le Kenya et l'Ukraine – promettent de ne pas utiliser d’algorithmes pour espionner illégalement les citoyens et de ne pas mener de campagnes de désinformation pour influer sur des élections.
« Aux côtés de + de 50 partenaires, les États-Unis ont lancé aujourd'hui la déclaration pour l'avenir d'internet, un engagement à promouvoir un internet ouvert, au profit des peuples du monde entier. » - Le @SecBlinken #FutureoftheInternet pic.twitter.com/FwLtGCIXZg
Cette initiative se veut un contrepoids face à l’inquiétante montée de grandes puissances autoritaires, où l’accès à l’information numérique est restreint. L’enjeu est majeur, explique la Maison Blanche. Puisqu’il s’agit de repousser « l’autoritarisme numérique croissant », dont font preuve notamment la Chine et la Russie. Les équipes de Joe Biden ont travaillé pendant plusieurs mois à l'élaboration de cette charte.
Depuis l'invasion de l'Ukraine, le 24 février dernier, « la Russie a promu de manière agressive la désinformation dans son pays et à l'étranger, censuré les sources d'information sur internet, bloqué ou fermé des sites légitimes et est allée jusqu'à attaquer physiquement l'infrastructure internet en Ukraine », a dénoncé un haut responsable de l'administration Biden auprès de journalistes.
La nouvelle charte concoctée par Washington montre pourtant déjà ses limites : elle est non contraignante et des pays comme l’Inde, l’Indonésie ou le Brésil ne l’ont pas signée. Les défenseurs américains d’un internet libre attendent de Joe Biden surtout qu’il revienne sur la décision, prise sous la présidence de Donald Trump, de mettre fin à la neutralité du net. Le président s’y est engagé. Mais ses nominations pour les postes à la Commission fédérale des communications sont toujours bloquées au Sénat.
La sécurité est renforcée au moment de valider le paiement, notamment pour les achats dans le montant est supérieur à 30 euros.
TECHNO - Faire du shopping sur internet devrait devenir plus sûr: de nouvelles normes de sécurité pour les paiements en ligne entrent en vigueur à partir de ce samedi 15 mai et vont progressivement être adoptées par les commerçants.
Les émetteurs de cartes bancaires, banques, opérateurs de paiement, commerçants en ligne, etc. sont désormais tenus de déployer un dispositif dit “d’authentification forte” du client lors de paiements électroniques ou d’opérations bancaires sensibles.
Cela consiste à demander lors d’un paiement en ligne la validation par le client de deux critères de sécurité: l’usage d’un seul code reçu par SMS ne sera plus jugé suffisant et devra être progressivement renforcé au moyen de nouvelles solutions.
À compter de samedi, “l’authentification forte est demandée par les banques françaises, en concertation avec l’écosystème des paiements, pour les achats en ligne”, a indiqué la Fédération bancaire française dans un communiqué.
Reconnaissance biométrique ou mot de passe
Concrètement, au moment de payer sur internet, le client recevra sur un téléphone préalablement identifié une notification l’invitant à s’authentifier, soit au moyen de la saisie d’un code personnel, soit par prise d’empreinte biométrique pour les mobiles équipés (empreinte digitale, reconnaissance faciale ou reconnaissance d’iris).
“Pour les clients qui n’auraient pas de smartphone, les banques proposent des solutions alternatives comme l’utilisation d’un SMS à usage unique couplé à un mot de passe connu par le client, ou encore l’utilisation d’un dispositif physique dédié”, souligne la fédération bancaire.
Ce nouveau dispositif est prévu par la directive européenne dite “DSP2” visant à renforcer le niveau de sécurité des opérations de paiement sur internet en Europe, pour limiter les risques de fraude. Il survient dans le contexte particulier de la crise du Covid-19, qui s’est traduite par une explosion du commerce en ligne.
Or “le taux de fraude est vingt fois plus élevé en e-commerce (0,16% des montants) que dans les commerces de proximité”, relève auprès de l’AFP Jean-Michel Chanavas, délégué général de Mercatel, une association professionnelle spécialiste des questions liées au paiement. “Les commerçants sont tout à fait d’accord pour réduire le niveau de fraude”, mais “l’enjeu était d’arriver à ce que les outils soient là”, ajoute-t-il, se disant notamment vigilant quant aux “achats sur mobiles, où les taux d’échecs sont plus importants et où il reste encore des problèmes à résoudre”.
Mise en œuvre progressive
“Tout ne va pas passer d’un extrême à l’autre”, souligne pour sa part la fédération du e-commerce Fevad, rappelant que ces nouvelles normes de sécurité sont mises en œuvre par étapes depuis plusieurs mois. “On a beaucoup travaillé avec la Banque de France, avec les différents acteurs, les sites (internet). Tout le monde a fait en sorte que ce soit prêt.”
L’authentification forte concernait déjà les montants supérieurs à 500 euros depuis le 15 février, à 250 euros depuis le 15 mars et les transactions au-delà de 100 euros depuis le 15 avril. Certains marchands ont aussi pris de l’avance et basculé l’ensemble de leurs transactions: au total, plus de “80% des montants font d’ores et déjà l’objet d’une authentification forte”, assure Jean-Michel Chanavas.
Pour les autres, “les établissements bancaires, à partir du 15 mai, mettront en œuvre progressivement cette mesure d’authentification forte sur une durée de quatre semaines, afin de laisser un temps d’adaptation aux commerçants”, précise la fédération bancaire.
Ainsi, progressivement à partir de samedi, et définitivement après les quatre semaines d’adaptation, les banques pourront décliner toute transaction non conforme.
Les commerçants en ligne pourront cependant demander sous certaines conditions une exemption d’authentification forte. Par exemple sur les transactions de moins de 30 euros ou jugées peu risquées, comme des paiements réguliers pour des abonnements ou adressés à un bénéficiaire pré-autorisé par le consommateur dans son application bancaire.
Twenty years on from its humble beginnings, the online encyclopedia is now an indispensable tool
By Barbara Speed - January 22, 2021 March 2021
There are two stories you could tell about Wikipedia.
One is that 20 years ago a web resource was launched that threatened academia and the media, and displaced established sources of knowledge. It was an encyclopedia anyone could edit—children, opinionated ignoramuses and angry ex-spouses. If I edited the page on particle physics to claim it was “the study of ducks,” the change would be instantly published. If I edited your page to call you a paedophile, that would be published too. Worse, although anyone could edit it, not everyone did: the editors were a self-selecting group of pedants and know-it-alls and overwhelmingly men. All of this led to biases in what soon became the world’s first port of call for finding out about anything. In time the site’s co-founder, Larry Sanger, would concede that “trolls sort of took over. The inmates started running the asylum.”
But there is also another—increasingly plausible—story. Namely, that Wikipedia is the last redoubt of the idealism of the early World Wide Web. From the moment of Tim Berners-Lee’s 1989 paper with its proposal of how information could be connected and made accessible via a hyperlink, visionaries began to imagine a kind of global democracy, where anybody, anywhere, could use a computer to discover the world. Amid a raft of developments known (in a 1999 coinage) as “Web 2.0”—which allowed everybody not merely to consume content but also to create it—some dared to dream that we would all become digital citizens shaking the plutocracy’s hold on established media and other elitist hierarchies.
Bit by bit, most of the web let us down. Yes, we were given a voice—but it didn’t come for free. Websites like Facebook harvest our data in order to attract advertisers; screen addiction, raging tribalism, trolling and misinformation reign. Tech billionaires got far richer than the old press barons ever were, and the rest of us became not empowered e-citizens—but data sold to companies wanting to target us.
But despite being the seventh most-visited site in the world in 2020, Wikipedia still seems different. It is the only not-for-profit in the top 10, with no adverts, no data collection and no billionaire CEO. Hundreds of thousands of volunteers maintain and create pages for free, correcting one another and upholding an impressive veracity. As early as 2005, the science journal Nature found that Wikipedia “comes close” to the accuracy of Encyclopedia Britannica online (to the displeasure of the Britannica’s editors). Back then, the young Wikipedia had four errors per science entry to Britannica’s three. Wikipedia may not have reached the ideal of Jimmy Wales, the site’s more prominent co-founder, of being “a world in which every single person on the planet is given free access to the sum of all human knowledge,” but it isn’t far off. In February 2020, Wired named Wikipedia as “the last best place on the internet.”
As Wikipedia leaves its teenage years, the question is—which of our two stories is more valid?
Wikipedia’s creators might seem like unlikely revolutionaries. Growing up in Huntsville, Alabama, where he was born in 1966, Jimmy Wales had a deep affection for his household encyclopedia. He would sit with his mother sticking in entry-updates sent by the publisher that referred the reader to a more accurate entry in a later edition. Speaking from an attic in his house in the Cotswolds during lockdown, Wales tells me that one entry that needed updating was the moon’s, for the good reason that “people had landed on it for the first time.”
Wales studied finance and went on to work as a trader. His intellectual heroes were the novelist and philosopher of selfishness Ayn Rand (one of his daughters is named after a Rand heroine) and the Austrian free market economist Friedrich Hayek, whose Road to Serfdom was a favourite of Margaret Thatcher’s. He spent much of his free time on the early internet, playing fantasy games and browsing, and became fixated by its potential. He quit his job and with two partners set up Bomis, which started as an information directory but developed into a men’s site (whose “Babe Engine” was basically a way to search for pornography).
Wales decided to create a free, virtual encyclopedia that could be updated in real time and that anyone could access. Like its predecessors, it would be a secondary, not a primary source—it would cite information from the media or academic papers, rather than publish original research—and it would have a strict approvals process. “It was really very formal and very top-down, you had to be approved to write anything, and you were expected to submit a completed essay,” he says. Nupedia launched in October 1999, with Larry Sanger—a philosophy graduate student whom Wales had met online via philosophy mailing lists—as editor-in-chief.
“There are now over 300 Wikipedias in different languages, and over six million entries on the English language site alone”
Thanks to the long submission process, the site had published only 21 articles after a year. Meanwhile, Sanger and Wales had come across the concept of “wikis”—collaborative, freely rewritable web pages that can be used to run group projects, collect notes or run a database (wiki is the Hawaiian word for quick). As an experiment, they launched another encyclopedia on 15th January 2001 that ditched the checks in favour of a wiki-style approach: Wikipedia.
Intended as a sideshow to Nupedia, the new site exploded. “One of the things that was interesting,” Wales remembers, “is that in the early days, people started writing things that were pretty good. They were very short and basic, but there was nothing wrong with them.” There are now over 300 Wikipedias in different languages, and over six million entries on the English language site alone. Over time, three core policies were established: pages should take a neutral point of view; contain no original research; and be verifiable, meaning that other visitors can check the information comes from a reliable source. Interestingly, none of these tenets is “accuracy”: the site effectively outsources this by resting everything on citations.
Two of the site’s servers crashed on Christmas Day 2004, and Wales had to keep the site “limping along” himself. Shortly after, he launched a fundraising campaign. Today, regular energetic campaigns, highly visible when you click on an entry, bring in over $100m a year for Wikipedia and other projects of the superintending Wikimedia Foundation, mostly from small donations—the average is $15.
Despite the incredible number of pages, there are fewer active editors than you might think: on the English-language Wikipedia only 51,000 editors made five or more edits in December 2020. A 2017 study found that in the site’s first decade, 1 per cent of Wikipedia’s editors were responsible for 77 per cent of its edits. An edit can be as small as a tweak to the formatting, or it could be starting a new page.
The site is now vast, with over 55m articles—the English-language Wikipedia alone would fill 90,000 books, giving it comparable volume (if not always quality) to a typical Oxbridge college library, available free to anyone with an internet connection, whether a rice farmer in Bangladesh or a physics student with out-of-date textbooks. Most impressive is its speed: articles are edited 350 times a minute. Wales says one of the first moments he truly saw Wikipedia’s potential was on 9/11. While television news was looping footage of the towers falling, Wikipedia’s network of volunteers were doing something different: “People were writing about the architecture of the World Trade Center, its history.” The site has come into its own during the pandemic, too, moving far more rapidly than established publications: since December 2019, there has been an average of 110 edits per hour on Covid-19 articles by some 97,000 editors.
Edit wars: mention of Wikipedia’s co-founder, Larry Sanger, was famously removed from Jimmy Wales’s entry—by none other than Wales himself.
The passion and dedication of Wikipedia’s editors is clear, but that doesn’t necessarily mean they’re always good at what they do. One sobering recent revelation concerned entries in the Scots language, a close cousin of English that is primarily spoken in the Scottish lowlands (and not to be confused with Scottish Gaelic). Thousands of Wikipedia pages in Scots had been created by someone who didn’t speak the language—a teenage user called AmaryllisGardener from North Carolina. Some words were still in English, others seemed to have been translated into Scots via a poor online dictionary. AmaryllisGardener sincerely thought he was being helpful, saying in a Wikipedia comment that he had started editing the pages when he was 12, and was “devastated” by the outcry (and abuse from other editors). Ryan Dempsey, a Scots language enthusiast from Northern Ireland who first flagged the errors on Reddit, tells me that he believes the errors went uncorrected for so long mostly because Scots is not very widely spoken, still less read, “and those fluent in it are more likely to be older and rural and so have less of an online presence.” After outing AmaryllisGardener, he realised that there were “many other editors who were far worse” on the Scots site.
The story was covered all over the world, but isn’t the best example of Wikipedia’s effectiveness: mistranslations—especially in little-read languages—are far more likely to survive than factual errors, given the requirement to cite facts carefully (you’ve doubtless seen a bright red “citation needed” mark next to an apparently innocuous statement). However, there have been many other controversies about accuracy. Lord Justice Leveson was blasted in 2012 after his report into the culture and ethics—and accuracy—of the British press listed one of the founders of the Independent newspaper as one “Brett Straub,” an unknown figure who erroneously appeared on the paper’s Wikipedia page.
In 2015, the scientists Adam Wilson and Gene Likens looked into the edit histories of several science pages on Wikipedia, finding that within just a few days the page for acid rain was edited to define it as “the deposition of wet poo and cats,” and separately by another user who claimed that “acid rain killed bugs bunny”; a third dismissed the phenomenon as “a load of bullshit.” One repeatedly tried to change the spelling of “rain” to “ran.”
None of the rogue changes lasted long—dedicated editors monitor popular pages for changes, as do the site’s bots—but for Likens in particular, who led the team that discovered acid rain and had devoted time to editing the page himself, this was frustrating. (Of course, anything called “acid” may invite a certain volume of psychedelic gobbledygook.) Wilson says “acid rain went through some very tumultuous edits.” Their study found politically controversial scientific subjects attracted far more edits, which will also mean more quality control. Wilson tells me that he is fairly impressed by the discussion and edits on the climate change page.
The other problem with Wikipedia’s open-door editing policy is that there’s little to stop those with a vested interest influencing entries. Wikipedia’s guidelines caution against editing your own page, or on behalf of family, friends or your employer, but this is tricky to police in a land of anonymous usernames—and the temptation can be strong. Indeed, a farcical controversy unfolded when Wales changed his own entry to remove references to Sanger as co-founder of the site, leaving him as the sole creator. He was called out in 2005, and later aired regret to Wired: “I wish I hadn’t done it. It’s in poor taste.” The Bureau of Investigative Journalism revealed in 2012 that thousands of edits to Wikipedia were being made from within the House of Commons. The former MP Joan Ryan, who left Labour for The Independent Group, admitted to editing her own page, pleading that she had to tackle “misleading or untruthful information.”
But while both criticism and praise often centre on the claim that editing is a free-for-all, that is no longer quite the case. Thomas Leitch, author of Wikipedia U, points out: “Wikipedia’s folklore is that ‘We’re the people’s encyclopedia. We’re a democracy, anybody can edit.’ That’s not true—[to edit] you can’t be someone who has corrected, or in Wikipedia’s view miscorrected, a given page so many times you’re now banned; or someone who has run afoul of an editor. You have to colour within the lines to be able to edit on Wikipedia.”
While anyone can create a Wikipedia account and click “edit” on almost any page, your edit will likely be reversed by another editor unless it meets certain standards. If disputes arise—edits being repeatedly made and reversed, or a discussion turning ugly on the “Talk” discussion pages that accompany every article—users can be banned by administrators, or an article can be “locked” against unsupervised edits.
Even the everyday friction between editors can put off the would-be Wikipedians. I decided to have a go, and added a short, factual line on a recent controversy to the “history of Wikipedia” page (admittedly one that’s likely to be heavily scrutinised). Within seven hours it was removed by another editor, with the curt explanation: “hardly notable or controversial.” The page as a whole is marked as “need[ing] to be updated” as of August 2018—based on my limited experience, perhaps over-precious editors could be to blame.
The stern eyes of experienced editors may be justified in some cases but there are serious consequences. Surveys show that editors on the English language site are overwhelmingly young men—exactly in keeping with so much of Silicon Valley. The Wikimedia Foundation set a goal in 2011 to get to 25 per cent female editors over four years. In 2014, executive director Sue Gardner was forced to admit that “I didn’t solve it. We didn’t solve it.” In 2018, nine out of 10 editors were male.
“Wikipedia’s open-door editing policy means there’s little to stop those with a vested interest from influencing stories”
Wales bemoans “not nearly enough” progress, and says the Foundation “still has a lot to learn.” He had hoped the phasing-in of a visual text editor (meaning the page you’re editing looks like the published version, rather than resembling off-putting code) would attract more diverse editors, but “it hasn’t had the impact that I would like.”
What’s at stake with diversity is, in Wales’s own words, not just “some sort of random political correctness—it impacts the content.” When male contributors predominate, you get certain kinds of entries and edits: in 2013, the New York Times journalist Amanda Filipacchi noticed that someone, or a group of someones, was gradually moving women out of the “American Novelists” category and moving them into one called “American Women Novelists,” meaning that the main list of American authors was becoming exclusively male.
With no application process for being an editor, and potentially anonymous and genderless profiles, this is a problem not easily amenable to the conventional corrective of monitoring. Jessica Wade, a physicist and Wikipedia editor, blames the skew to the male-dominated tech world from which the site was born: “When the community started, it wasn’t diverse, and it didn’t welcome people from underrepresented groups.”
When women or minorities do try to edit, she says, they can face old hands “who don’t encourage people enough to make them want to stay. Not everyone is so determined that they won’t give up when they’re told the page they listed is rubbish, or that they’ve not cited something properly.”
Having dabbled in editing Wikipedia herself, Wade was shocked by the lack of entries for female scientists. She set herself a steep goal: to create a new page for a female or minority scientist every single day—and, starting in early 2018, she’s done it ever since. Her project provoked some grumbles, and one fellow scientist made her doubt herself: “They said that I was diluting Wikipedia and damaging the community by putting these entries on there. It really upset me.” She’s quick to say, though, that the majority of the community is supportive, and the joys of collaborating—waking up after a night of editing to see that contributors on the other side of the world have added useful edits or photos to your entry—outweigh the negatives. Mary Mann, a librarian who was spurred back into editing recently by inaccuracies regarding a type of pepper, tells me that her experience has been positive, “with the caveat that the pages I’ve tended to work on so far are non-controversial pages. Everyone likes Sichuan peppers.”
Another important skew in Wikipedia’s contributions is geographical: Around 68 per cent of contributors are in America and the UK; Wales predicts that the big changes in Wikipedia’s next 20 years will be largely invisible on the English site: “Wikipedias in the languages of the developing world [will be] a really huge part of our future—how do we support whatever technological limitations people might have?”
Wales believes that “the reputation of Wikipedia has improved dramatically over the years.” At the beginning, he found the storms about individual silly edits frustrating, but there are far fewer of them now. “It’s like how there was a whole spate of stories about eBay, about someone selling a gun, or someone selling their babies, or selling their soul. And then everybody realised that yeah, you can post pretty much anything you want on eBay, then someone will flag it and it gets taken down. It’s not that exciting.”
Meanwhile, stories of lecturers warning students not to cite Wikipedia conveniently omit that they would say the same about any encyclopedia, as they’re not primary sources. Several I spoke to regularly recommend Wikipedia as a great place to start researching a subject, as you can reach the primary sources through the links. Ellis Jones, a sociology professor, made editing Wikipedia pages on sociological theorists part of his syllabus: “It’s one of the most exciting things in the course for the students. It allows them to see that even though they’re not experts, they can contribute some small piece of knowledge to the public.”
Leitch, the author of Wikipedia U, argues that the great gift of Wikipedia is the way that it teaches us to question sources of authority. “Yes, of course, we have to be asking questions about Wikipedia. But while we’re on that subject, shouldn’t we be asking those questions about liberal education in all of its avatars?” Take the peer-review process: a 2017 study found that it comes with its own set of biases: women were under-represented, and both men and women tended to favour work by their own genders. Some charge the process with slowing down the publication of disruptive findings; virtually everyone involved with it knows that academics will insist on the addition of references to their own publications, as shameless a form of anonymous self-promotion as attempting to buff up your Wikipedia page.
Rather than Wired’s description of it as the “last best place on the internet,” I prefer the way Tom Forth, another Wikipedia editor, described it to me: as “the least bad place on the internet.” It has many flaws, but many fewer than other huge sites. “Don’t be evil,” Google’s former motto, is a promise Wikipedia could claim to have kept.
“The great gift of Wikipedia is the way that it teaches us to
question sources of authority”
Ironically for those who see Wikipedia as a disruptor, some of its greatest problems stem from the older institutions it relies on for citations. Its “notability criteria” mean that “reputable” sources must recognise a subject’s importance before Wikipedia can. When I ask Jimmy Wales about his concerns about fake news, he highlights a much greater problem: the steep decline in local news outlets, which means the site often cannot cover local topics at all.
However, the relationship between the resource and the world it reflects is not a one-way street. It can seem like if something isn’t on Wikipedia, it may as well not exist. Conversely, newer pages like those created for female and ethnic minority scientists by Wade can, in some small ways, hack away at the biases in the world at large. During 2020, she and another scientist set about creating Wikipedia pages for those researching the pandemic, and says she soon noticed a gradual lessening in the white, male skew of experts quoted in the media.
One of the first pages Wade made was for Gladys West, an African-American scientist and a pioneer of GPS technology. The page started small, as little was known about her life, but over the years more has emerged, and she was recently profiled in the Guardian. For Wade, this encapsulates the joy of editing. “When I see other people I’ve done pages for getting recognition and honours and being celebrated, I’m just like, this is the best day ever. This is the greatest thing ever. The power you have from just sitting up at night with your laptop—it’s extraordinary.”
There is something undeniably romantic about thousands of people pooling their knowledge online—not for money or fame, but because it seems a good thing to do. One of the editors I spoke to sent me a link to “Listen to Wikipedia,” a website that plays musical notes as it shows, in real time, which pages are being updated: bells for additions, strings for subtractions; deeper notes for large edits, higher notes for small. “Kent county Delaware,” “Biondi,” “Upton State Pueblo Pottery,” “Italy National Cricket Team.” “Topher Grace,” and words in languages I don’t understand flash by. The longer I watch, the more it looks like the least bad place on the internet.
(Re)définir la publicité
La page Wikipédia la concernant est éloquente, elle commence ainsi « La publicité est une forme de communication de masse, dont le but est de fixer l’attention d’une cible visée (consommateur, utilisateur, usager, électeur, etc.) afin de l’inciter à adopter un comportement souhaité : achat d’un produit, élection d’une personnalité politique, incitation à l’économie d’énergie, etc. »1fr.wikipedia.org/wiki/Publicité. Elle ne s’éloigne pas des définitions plus classiques où l’on retrouve toujours le fait « d’inciter », de « promouvoir », « d’exercer sur le public une influence, une action psychologique afin de créer en lui des besoins, des désirs »2Voir la définition du Larousse ou même du Trésor de la langue française.
Il est important de poser ces définitions pour sortir des chaussetrappes où la publicité serait entendue, dans son sens étymologique, comme le fait de rendre quelque chose « public », de le faire connaitre et serait assimilée à de la simple communication, voire à de l’information du public. Non, la publicité n’est pas là pour échanger ni pour informer, elle est là pour inciter. Elle agit sur nos schémas cognitifs, nos pensées et nos rêves, sur nos « temps de cerveaux disponibles »3Selon la formule de 2004 de Patrick Le Lay alors PDG de TF1. pour les modifier, majoritairement dans des logiques de consommation commerciale voire de propagande politique.
Ainsi, une personne qui tire des revenus de la publicité tire des revenus de la modification des processus cognitifs des individus et donc quasi systématiquement de leurs manipulations dans des actes de consommation potentiellement inutiles et néfastes.
Le deuxième point important à rappeler est que la publicité ne crée pas en soi de valeur et toute l’énergie qui y est investie peut être perçue comme gaspillée. Elle est susceptible de créer des besoins ou peut réorienter des pratiques, mais cela sans faire appel à des choix conscients ou informés. Elle joue sur les désirs, sur les fonctionnements cognitifs, sur nos peurs, etc.
À l’échelle sociétale, la publicité est un surcout de paiement. On subit la publicité dans la rue comme sur Internet et on paye ces influences mentales, majoritairement non souhaitées, quand on achète un bien ou un service.
La publicité est donc payée aussi bien cognitivement que monétairement.
Une définition sarcastique en creux de la publicité pourrait donc être : le symptôme d’une société malade qui paye une industrie parasite pour se faire manipuler.
Pour en résumer brièvement quelques-uns, la publicité a pour cout sociétaux :
La modification des comportements orientée par des logiques mercantiles et adressée surtout aux personnes qui sont les plus vulnérables à ces influences, et notamment aux enfants ;
La création de besoins et les conséquences notamment environnementales et sociales qui les accompagnent, par la surconsommation de biens (nouvel ordiphone, voiture…) ;
Des utilisations à des fins de propagande politique et donc de perversion de l’idéal des logiques démocratiques ;
Des liens de contrôle des médias, dont les informations seront influencées par ce lien de dépendance4La dépendance de nombreux vidéastes aux revenus de NordVpn en témoigne assez clairement, même quand ceux-ci restent caustiques à ce sujet cela reste très édulcoré, voir par exemple « Pourquoi NordVPN est partout ?! », Un créatif, 30 mai 2019, publié sur https://www.youtube.com/watch?v=9X_2rNC6nKA ;
La construction ou la reproduction de normes sociales par des pratiques de communication de masse qui viennent influencer et polluer nos imaginaires.
Malheureusement, la publicité a trouvé avec Internet un terrain de jeu sans égal qui n’a fait que renforcer ses conséquences.
Le modèle publicitaire, le péché originel d’Internet
Internet n’a pas été pensé et spécialement conçu pour des pratiques économiques. Facilité de transmission de l’information et de son partage, pratiques décentralisées, numérisation des contenus et une reproduction à cout marginal… En dehors des couts d’accès à Internet qui étaient eux onéreux (matériel informatique et abonnements liés au débit), la navigation en ligne et même les premiers services numériques ne requéraient aucun paiement. Les premiers temps d’Internet témoignent ainsi de nombreuses pratiques bénévoles, amatrices, libres, d’expérimentation, de partage, etc. un certain idéal paradisiaque5Attention, tout était loin d’être parfait sur bien d’autres sujets. pour nombre des premiè·res internautes. La déclaration d’indépendance du cyberespace6John Perry Barlow, « A declaration of the independance of Cyberspace », 8 fév. 1996, Davos, https://www.eff.org/cyberspace-independence de John Perry Barlow témoigne de cet enthousiasme et on peut pourtant voir un certain tournant symbolique dans le fait qu’elle ait été réalisée dans le cadre du Forum économique mondial de Davos.
Les entreprises ont ensuite saisi l’importance de ce nouveau média et ont commencé à l’investir. Elles se sont toutefois confrontées à un problème : un rejet majeur de toute possibilité de paiement en ligne dû aussi bien à des craintes (plutôt justifiées) liées à la sécurité des données bancaires, mais aussi, et surtout, à des pratiques déjà ancrées d’accès gratuit. Pourquoi payer pour une information alors qu’elle est déjà présente en accès libre sur un autre site ? Pourquoi débourser une somme pour un service alors que tel prestataire me l’offre « gratuitement » ?
Assez naturellement de nombreuses personnes se sont tournées vers la publicité pour obtenir des revenus en ligne, le modèle était connu et malgré quelques premières réticences des annonceurs les audiences étaient en pleine croissance et ils se sont ainsi laissés convaincre.
Le développement de la publicité sur Internet n’a pas été exempt de tout heurt, le tout premier mail publicitaire (spam) en 1978 a, par exemple, connu une vive réaction d’indignation.7Brad Templeton, « Reaction to the DEC Spam of 1978 », https://www.templetons.com/brad/spamreact.html De la même façon, les bloqueurs de publicité, petits outils qui bloquent techniquement les différents affichages publicitaires sont apparus et ont été rapidement adoptés au moment où la publicité a commencé à inonder de nombreux sites pour maximiser les « impressions publicitaires ». L’invasion publicitaire est devenue trop forte et les internautes avertis se protègent ainsi des multiples « popups », affichages conduisant vers des sites malveillants, renvois et rechargements intempestifs, etc.
Le déluge publicitaire a envahi ce « paradis » et l’a durablement déséquilibré. La gratuité bénévole et altruiste des débuts a été remplacée par une apparence de gratuité. Rares sont les services en ligne (et très spécifiques) qui réussissent, même aujourd’hui, à obtenir un paiement direct de la part de leurs utilisateurs-clients face à la distorsion de concurrence induite par ce trou noir de la gratuité publicitaire et l’exploitation des biais psychologiques des utilisateurs-produits par la publicité.
Cela a pu faire dire à Ethan Zuckerman, chercheur sur les questions touchant aux libertés à l’ère du numérique et activiste, mais qui a également participé à la création du popup publicitaire : « L’état de déchéance de notre internet est une conséquence directe, involontaire, de choisir la publicité comme modèle par défaut pour les contenus et services en ligne. »8Ethan Zuckerman, « The Internet’s Original Sin », 14 août 2014, https://www.theatlantic.com/technology/archive/2014/08/advertising-is-the-internets-original-sin/376041/, la citation en anglais « The fallen state of our Internet is a direct, if unintentional, consequence of choosing advertising as the default model to support online content and services. »
Ce noir constat s’appuie aussi sur les conséquences de la deuxième vague du développement publicitaire en ligne : la publicité « ciblée ».
Les dérives illégales de la surveillance publicitaire
Citant Ethan Zuckerman, Hubert Guillaud résume ainsi les conséquences néfastes de la publicité en ligne9Hubert Guillaut, « Comment tuer la pub, ce péché originel de l’internet ? », 13 nov. 2014, http://www.internetactu.net/2014/11/13/comment-tuer-la-pub-ce-peche-originel-de-linternet/ :
« La surveillance et le développement de la surveillance (comme le dit Bruce Schneier, la surveillance est le modèle d’affaires d’internet 10Bruche Schneier, « Surveillance as a Business Model », 25 nov. 2013, https://www.schneier.com/blog/archives/2013/11/surveillance_as_1.html ;
Le développement d’une information qui vise à vous faire cliquer, plutôt qu’à vous faire réfléchir ou à vous engager en tant que citoyens ;
Le modèle publicitaire favorise la centralisation pour atteindre un public toujours plus large. Et cette centralisation fait que les décisions pour censurer des propos ou des images par les entreprises et plates-formes deviennent aussi puissantes que celles prises par les gouvernements :
Enfin, la personnalisation de l’information, notre récompense, nous conduit à l’isolement idéologique, à l’image de la propagande personnalisée […] »
On en ajoutera quelques-unes, mais la plus importante est désormais bien connue. Pour sortir des logiques inefficaces de matraquage publicitaire, des entreprises ont fait le choix de développer des outils permettant de surveiller les internautes au travers de leurs navigations pour mieux les profiler et ainsi leur fournir des publicités plus « ciblées », au meilleur endroit au meilleur moment pour ainsi essayer de les manipuler le plus efficacement possible dans des actes de consommation.11Et oui, la publicité marche sur tout le monde, voir Benjamin Kessler et Steven Sweldens, « Think You’re Immune to Advertising ? Think Again », 30 janv. 2018, https://knowledge.insead.edu/marketing/think-youre-immune-to-advertising-think-again-8286
C’est une évolution relativement logique de « l’économie de l’attention », pour éviter la perte d’attention induite par la surmultiplication publicitaire, on a développé des outils pour les rendre beaucoup plus efficaces.
Ces outils ont toutefois un cout sociétal colossal : ils impliquent une surveillance de masse et quasi constante des internautes dans leurs navigations. La publicité a financé et continue de financer le développement de ces outils de surveillance qui viennent cibler les consommateurs et les traquer. Les deux entreprises championnes de cette surveillance sont incontestablement Google/Alphabet et Facebook12Voir par ex. Nicole Perrin, « Facebook-Google Duopoly Won’t Crack This Year » , 4 nov. 2019, https://www.emarketer.com/content/facebook-google-duopoly-won-t-crack-this-year et rappelons que les fondateurs de Google ont pourtant pu exprimer certains des réels problèmes de la dépendance publicitaire, Sergei Brin et Lawrence Page, « The Anatomy of a Large-Scale Hypertextual Web Search Engine », 1998, http://infolab.stanford.edu/~backrub/google.html : « To make matters worse, some advertisers attempt to gain people’s attention by taking measures meant to mislead automated search engines. » ou encore : « we expect that advertising funded search engines will be inherently biased towards the advertisers and away from the needs of the consumers. » dont la quasi-totalité des revenus proviennent de la publicité et qui représentent à elles deux désormais bien plus de 50% de tout le secteur de la publicité en ligne. Ce ne sont (malheureusement ?) pas les seuls acteurs de ce système et bien d’autres (géants du numérique, courtiers en données, etc.) cherchent à se partager le reste du gâteau. Le développement de ces nombreuses entreprises s’est ainsi totalement orienté vers la captation de données personnelles par la surveillance et vers la maximisation de l’exploitation des temps de cerveaux disponibles des internautes.
Ce problème est ainsi résumé par la chercheuse Zeynep Tufekci : « on a créé une infrastructure de surveillance dystopique juste pour que des gens cliquent sur la pub »13Zeynep Tufekci, « We’re building a dystopia just to make people click on ads », sept. 2017 https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads. Cette infrastructure est colossale, les outils de surveillance qui ont été développés et le marché de la surveillance publicitaire en ligne sont d’une grande complexité14L’Avis n° 18-A-03 du 6 mars 2018 portant sur l’exploitation des données dans le secteur de la publicité sur internet de l’Autorité de la concurrence, https://www.autoritedelaconcurrence.fr/sites/default/files/commitments//18a03.pdf en témoigne. et n’hésitent pas à utiliser la moindre faille possible.15Voir par exemple la technique du « Web Beacon », https://en.wikipedia.org/wiki/Web_beacon Le système publicitaire a su pleinement tirer profit de l’informatique pour automatiser la surveillance des individus et les manipuler. Il espère même maintenant pouvoir importer cette surveillance dans nos rues avec les panneaux numériques.16Résistance à l’Agression Publicitaire, « JCDecaux colonise la Défense avec ses mobiliers urbains numériques », sept. 2014, https://antipub.org/jcdecaux-colonise-la-defense-avec-ses-mobiliers-urbains-numeriques/
Sans insister ici sur ce point, cette surveillance a assez naturellement attiré la convoitise des différents gouvernements qui ne pouvaient rêver d’un tel système de surveillance et ne se privent pas d’essayer d’en bénéficier à des fins de contrôle et de répression dans ce que l’on pourrait appeler un « partenariat public-privé de la surveillance. »17En témoigne notamment les révélations d’Edward Snowden du programme « PRISM ».
Il y a là une atteinte majeure au droit au respect de la vie privée des personnes, une liberté pourtant fondamentale, ainsi qu’à la législation européenne sur la protection des données personnelles. Ainsi, le Règlement général sur la protection des données (RGPD) couplé à la directive e-privacy impose un consentement « libre, éclairé, spécifique et univoque » pour la majorité des opérations de collecte de données personnelles à des fins publicitaires. Or, la quasi-totalité de ces outils de surveillance ne satisfont pas à ces critères qui impliqueraient par défaut que les données ne soient pas collectées. C’est seulement si l’internaute acceptait volontairement et spécifiquement d’être traqué à des fins publicitaires qu’il pourrait l’être. C’est pourquoi La Quadrature du Net a lancé18Voir notre site de campagne https://gafam.laquadrature.net/ et par exemple la plainte contre Google https://gafam.laquadrature.net/wp-content/uploads/sites/9/2018/05/google.pdf, dès l’entrée en application du RGPD, des plaintes collectives contre les fameux « GAFAM » pour leurs violations de ces règles. Malheureusement, plus d’un an et demi après ces plaintes, ces pratiques continuent de proliférer et seul Google a été sanctionné d’une timide amende de 50 millions d’euros qui ne s’appuyait malheureusement pas sur tous les griefs. Même aux États-Unis la législation COPPA (Children’s Online Privacy Protection Act), interdit la collecte à des fins publicitaires sur des enfants de moins de 13 ans et n’a fait jusqu’en 201919Google semble toutefois s’être fait rappelé à l’ordre et a annoncé devoir supprimer les publicités pour les chaines s’adressant à un public enfantin. Sur ce sujet, voir par exemple, « Game Theory : Will Your Favorite Channel Survive 2020 ? (COPPA) », 22 nov. 2019, https://www.youtube.com/watch?v=pd604xskDmUqu’être assez sciemment contournée face à la manne publicitaire de la manipulation des plus jeunes…
Malgré l’illégalité flagrante, ces pratiques de surveillance continuent donc de violer chaque jour nos libertés.
Si les internautes averti·es peuvent configurer certains outils, dont leur bloqueur de publicités, pour limiter ces abus (par exemple en suivant les informations sur https://bloquelapub.net/) c’est encore dans une guerre continue entre l’ingéniosité pervertie20Les ingénieur-es de Facebook font preuve d’une malice certaine aussi bien pour traquer les internautes que pour les forcer à voir leurs publicités (il suffit de regarder le code source des contenus « sponsorisés » pour en être convaincu…). des ingénieurs publicitaires pour contourner ou bloquer les bloqueurs de pubs et celles des hackeur·ses qui y résistent. Quoi qu’il en soit, la publicité et la surveillance publicitaire demeurent pour la majorité des personnes.
Une lourde addition des couts sociétaux de la publicité en ligne
La surveillance publicitaire est la dérive la plus flagrante de la publicité, elle est inacceptable et il est nécessaire de la combattre pour la faire disparaitre si l’on veut caresser l’espoir de retrouver des pratiques commerciales plus saines sur Internet, mais cela semble loin de suffire. La publicité en elle-même est un problème : elle induit une dépendance économique aux annonceurs, mais aussi technique aux systèmes publicitaires.
Les problématiques liées à la dépendance économique publicitaire sont très claires quand la publicité constitue la seule source de revenus d’un acteur. Cette problématique est aussi mise en valeur avec les vidéastes qui s’appuient sur la plateforme de Google « Youtube » qui sont devenu·es de fait totalement dépendant·es du bon vouloir de celle-ci pour leurs revenus ou encore avec les éditeurs de presse qui ne font depuis plus de 10 ans que de subir des revers pour obtenir les miettes des revenus publicitaires de Google.
Côté dépendance technique, pour les gestionnaires de site Internet, insérer un système publicitaire revient à laisser une porte ouverte à des acteurs tiers et constitue donc une faille en puissance. Il y a là un réel cout de confiance et de dépendance. L’encart publicitaire peut être utilisé pour faire exécuter des éléments de code d’un prestataire publicitaire ou d’un tiers qui l’aurait compromis, on ne contrôle pas nécessairement le contenu des publicités qui s’afficheront…
La publicité est également un surcout énergétique dans l’affichage de la page, qui peut rester faible, mais peut aussi largement alourdir une page si l’on parle par exemple de publicité vidéo21 Gregor Aisch, Wilson Andrew and Josh Kelleroct « The Cost of Mobile Ads on 50 News Websites », 1 oct. 2015,https://www.nytimes.com/interactive/2015/10/01/business/cost-of-mobile-ads.htmlou de multiplication des traqueurs et dispositifs de contrôle.
Le gaspillage énergétique, les dépendances multiples des acteurs dont le modèle économique repose sur la publicité, la dystopie de surveillance, l’influence mentale subie des personnes qui voient leurs pensées parasitées pour leur faire consommer plus ou voter autrement…
La publicité apparait bien comme une cause majeure de perversion d’Internet vers plus de centralité, plus de contrôle et de surveillance des géants du numérique, plus de contenus piège à clic et de désinformation au lieu de productions de qualité et de partage…
L’addition des conséquences sociétales de la publicité en ligne est salée comme la mer d’Aral22Le parallèle pourrait même être poussé plus loin, voir Professeur Feuillage, « Aral, ta mer est tellement sèche qu’elle mouille du sable », 31 janv. 2018, https://www.youtube.com/watch?v=uajOhmmxYuc&feature=emb_logo&has_verified=1. La supprimer en même temps que la surveillance publicitaire participerait très largement à résoudre de nombreuses atteintes aux libertés fondamentales et aux équilibres démocratiques.
Twitter a annoncé fin octobre 201923Par des déclarations de Jack Dorsay son PDG, https://twitter.com/jack/status/1189634360472829952 supprimer les publicités politiques de son réseau social et en explique les raisons :
« Nous avons pris la décision d’arrêter toutes les publicités politiques sur Twitter. Nous pensons que la portée d’un message politique doit se mériter, pas s’acheter. »
La démarche est louable, mais pour arrêter les publicités politiques sur Twitter ne faut-il pas arrêter la publicité tout court ? Edward Bernays (neveu de Freud, considéré comme le père de la propagande politique et des « relations publiques ») comme Cambridge Analytica24Edward Bernays, Propaganda : Comment manipuler l’opinion en démocratie, (trad. Oristelle Bonis, préf. Normand Baillargeon), Zones / La Découverte, 2007 (1re éd. 1928) ; concernant Cambridge Analytica, avant que le scandale n’éclate la page d’accueil du site affichait fièrement : « Data drives all we do, Cambridge Analytica uses data to change audience behavior. Visit our Commercial or Political divisions to see how we can help you ». avaient bien compris que la publicité a les mêmes effets qu’il s’agisse de biens de consommation ou d’idées. Mais au-delà de ça, « tout est politique » : les publicités sexistes ou pour des véhicules polluants, des nouveaux gadgets technologiques, des voyages lointains, de la nourriture de mauvaise qualité… jouent largement sur de grands enjeux politiques25Voir Emily Atkin, Exxon climate ads aren’t « political, » according to Twitter But a Harvard researcher says Exxon’s ads « epitomize the art » of political advertising, 5 nov. 2019, https://heated.world/p/exxon-climate-ads-arent-political et Résistance à l’agression publicitaire (RAP), En refusant de réglementer la publicité, le gouvernement sacrifie l’écologie, 10 décembre 2019, https://reporterre.net/En-refusant-de-reglementer-la-publicite-le-gouvernement-sacrifie-l-ecologie. La publicité est en soi une idéologie politique26Pour en saisir l’ampleur, voir l’ouvrage de Naomi Klein, No Logo : la tyrannie des marques, (trad. Michel Saint-Germain), Actes Sud, 2001, et celui du Groupe Marcuse, De la misère humaine en milieu publicitaire : comment le monde se meurt de notre mode de vie, la Découverte, 2004., adossée au capitalisme, qu’il soit de surveillance ou non.
À La Quadrature du Net nous refusons l’exploitation de ces temps de cerveaux disponibles et de profiter de ces revenus publicitaires, même quand ils sont si « gentiment » proposés par des sociétés telles que Lilo, Brave ou Qwant27Lilo ne servant que d’emballage de blanchiment aux recherches et aux publicités de Microsoft – Bing en vendant l’image de marque des associations tout en se gardant 50% des revenus publicitaires reversés par Microsoft. S’agissant de Brave, les montants versés directement par les internautes constituent une piste intéressante de financement des contenus et services en ligne, mais les logiques de remplaçement des publicités présentes sur les sites par celles de la régie Brave où « Les publicités sont placées en fonction des opportunités, et les utilisateurs deviennent des partenaires et non des cibles » pour qu’une partie soit reversée à des acteurs tiers est à minima douteuse… C’est la même logique absurde que l’option « Qwant Qoz » qui permet si elle est activée à l’utilisateur-produit de voir deux fois plus de publicités pour que son surplus d’exploitation cérébrale soit reversé à des associations…
qui derrière une vitrine d’« éthique » restent dans cette logique d’exploitation et ne servent qu’à faire accepter ces logiques publicitaires.
Nous refusons ces manipulations et espérons des pratiques saines où les biens ou des services sont vendus directement pour ce qu’ils valent, nous souhaitons avoir une liberté de réception sur les informations auxquelles nous accédons et que les plus riches ne puissent pas payer pour être plus entendus et modifier nos comportements.
Nous ne voulons plus que nos cerveaux soient des produits !
https://bloquelapub.net/
References[+]
↑1 fr.wikipedia.org/wiki/Publicité
↑2 Voir la définition du Larousse ou même du Trésor de la langue française.
↑3 Selon la formule de 2004 de Patrick Le Lay alors PDG de TF1.
↑4 La dépendance de nombreux vidéastes aux revenus de NordVpn en témoigne assez clairement, même quand ceux-ci restent caustiques à ce sujet cela reste très édulcoré, voir par exemple « Pourquoi NordVPN est partout ?! », Un créatif, 30 mai 2019, publié sur https://www.youtube.com/watch?v=9X_2rNC6nKA
↑5 Attention, tout était loin d’être parfait sur bien d’autres sujets.
↑6 John Perry Barlow, « A declaration of the independance of Cyberspace », 8 fév. 1996, Davos, https://www.eff.org/cyberspace-independence
↑7 Brad Templeton, « Reaction to the DEC Spam of 1978 », https://www.templetons.com/brad/spamreact.html
↑8 Ethan Zuckerman, « The Internet’s Original Sin », 14 août 2014, https://www.theatlantic.com/technology/archive/2014/08/advertising-is-the-internets-original-sin/376041/, la citation en anglais « The fallen state of our Internet is a direct, if unintentional, consequence of choosing advertising as the default model to support online content and services. »
↑9 Hubert Guillaut, « Comment tuer la pub, ce péché originel de l’internet ? », 13 nov. 2014, http://www.internetactu.net/2014/11/13/comment-tuer-la-pub-ce-peche-originel-de-linternet/
↑10 Bruche Schneier, « Surveillance as a Business Model », 25 nov. 2013, https://www.schneier.com/blog/archives/2013/11/surveillance_as_1.html
↑11 Et oui, la publicité marche sur tout le monde, voir Benjamin Kessler et Steven Sweldens, « Think You’re Immune to Advertising ? Think Again », 30 janv. 2018, https://knowledge.insead.edu/marketing/think-youre-immune-to-advertising-think-again-8286
↑12 Voir par ex. Nicole Perrin, « Facebook-Google Duopoly Won’t Crack This Year » , 4 nov. 2019, https://www.emarketer.com/content/facebook-google-duopoly-won-t-crack-this-year et rappelons que les fondateurs de Google ont pourtant pu exprimer certains des réels problèmes de la dépendance publicitaire, Sergei Brin et Lawrence Page, « The Anatomy of a Large-Scale Hypertextual Web Search Engine », 1998, http://infolab.stanford.edu/~backrub/google.html : « To make matters worse, some advertisers attempt to gain people’s attention by taking measures meant to mislead automated search engines. » ou encore : « we expect that advertising funded search engines will be inherently biased towards the advertisers and away from the needs of the consumers. »
↑13 Zeynep Tufekci, « We’re building a dystopia just to make people click on ads », sept. 2017 https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads
↑14 L’Avis n° 18-A-03 du 6 mars 2018 portant sur l’exploitation des données dans le secteur de la publicité sur internet de l’Autorité de la concurrence, https://www.autoritedelaconcurrence.fr/sites/default/files/commitments//18a03.pdf en témoigne.
↑15 Voir par exemple la technique du « Web Beacon », https://en.wikipedia.org/wiki/Web_beacon
↑16 Résistance à l’Agression Publicitaire, « JCDecaux colonise la Défense avec ses mobiliers urbains numériques », sept. 2014, https://antipub.org/jcdecaux-colonise-la-defense-avec-ses-mobiliers-urbains-numeriques/
↑17 En témoigne notamment les révélations d’Edward Snowden du programme « PRISM ».
↑18 Voir notre site de campagne https://gafam.laquadrature.net/ et par exemple la plainte contre Google https://gafam.laquadrature.net/wp-content/uploads/sites/9/2018/05/google.pdf
↑19 Google semble toutefois s’être fait rappelé à l’ordre et a annoncé devoir supprimer les publicités pour les chaines s’adressant à un public enfantin. Sur ce sujet, voir par exemple, « Game Theory : Will Your Favorite Channel Survive 2020 ? (COPPA) », 22 nov. 2019, https://www.youtube.com/watch?v=pd604xskDmU
↑20 Les ingénieur-es de Facebook font preuve d’une malice certaine aussi bien pour traquer les internautes que pour les forcer à voir leurs publicités (il suffit de regarder le code source des contenus « sponsorisés » pour en être convaincu…).
↑21 Gregor Aisch, Wilson Andrew and Josh Kelleroct « The Cost of Mobile Ads on 50 News Websites », 1 oct. 2015,https://www.nytimes.com/interactive/2015/10/01/business/cost-of-mobile-ads.html
↑22 Le parallèle pourrait même être poussé plus loin, voir Professeur Feuillage, « Aral, ta mer est tellement sèche qu’elle mouille du sable », 31 janv. 2018, https://www.youtube.com/watch?v=uajOhmmxYuc&feature=emb_logo&has_verified=1
↑23 Par des déclarations de Jack Dorsay son PDG, https://twitter.com/jack/status/1189634360472829952
↑24 Edward Bernays, Propaganda : Comment manipuler l’opinion en démocratie, (trad. Oristelle Bonis, préf. Normand Baillargeon), Zones / La Découverte, 2007 (1re éd. 1928) ; concernant Cambridge Analytica, avant que le scandale n’éclate la page d’accueil du site affichait fièrement : « Data drives all we do, Cambridge Analytica uses data to change audience behavior. Visit our Commercial or Political divisions to see how we can help you ».
↑25 Voir Emily Atkin, Exxon climate ads aren’t « political, » according to Twitter But a Harvard researcher says Exxon’s ads « epitomize the art » of political advertising, 5 nov. 2019, https://heated.world/p/exxon-climate-ads-arent-political et Résistance à l’agression publicitaire (RAP), En refusant de réglementer la publicité, le gouvernement sacrifie l’écologie, 10 décembre 2019, https://reporterre.net/En-refusant-de-reglementer-la-publicite-le-gouvernement-sacrifie-l-ecologie
↑26 Pour en saisir l’ampleur, voir l’ouvrage de Naomi Klein, No Logo : la tyrannie des marques, (trad. Michel Saint-Germain), Actes Sud, 2001, et celui du Groupe Marcuse, De la misère humaine en milieu publicitaire : comment le monde se meurt de notre mode de vie, la Découverte, 2004.
↑27 Lilo ne servant que d’emballage de blanchiment aux recherches et aux publicités de Microsoft – Bing en vendant l’image de marque des associations tout en se gardant 50% des revenus publicitaires reversés par Microsoft. S’agissant de Brave, les montants versés directement par les internautes constituent une piste intéressante de financement des contenus et services en ligne, mais les logiques de remplaçement des publicités présentes sur les sites par celles de la régie Brave où « Les publicités sont placées en fonction des opportunités, et les utilisateurs deviennent des partenaires et non des cibles » pour qu’une partie soit reversée à des acteurs tiers est à minima douteuse… C’est la même logique absurde que l’option « Qwant Qoz » qui permet si elle est activée à l’utilisateur-produit de voir deux fois plus de publicités pour que son surplus d’exploitation cérébrale soit reversé à des associations…
Le Conseil national du numérique a produit un document sur le numérique et l'environnement. Si elle contient de nombreuses mesures très différentes, l'une d'elles détonne : elle invite à envisager la fin des forfaits illimités dans l'Internet fixe en France.
Pour sauver le climat, faudra-t-il en finir avec les forfaits illimités dans l’Internet fixe ? C’est l’une des idées que retient le Conseil national du numérique dans ses travaux sur l’environnement et le numérique. Ce n’est évidemment pas la seule idée figurant dans la feuille de route — il y en a en tout cinquante, organisées autour de douze objectifs –, mais elle est l’une qui retient le plus l’attention, car elle va à contre-courant du marché français depuis une vingtaine d’années.
« Encourager les forfaits à consommation limitée »
L’idée, dont se fait l’écho Next Inpact, tient en une phrase : il s’agit de demander aux opérateurs télécoms « d’encourager les forfaits à consommation limitée, y compris sur le fixe, afin d’éviter une subvention indirecte des utilisateurs à fort trafic par l’ensemble des usagers, (sachant qu’une fois le seuil dépassé, il s’agit de passer à des débits moindres) ». En somme, il ne s’agirait pas de bloquer l’accès à Internet, mais de brider la capacité de téléchargement.
Cette proposition figure dans le septième objectif, consacré à la limitation de l’empreinte environnementale de la conception et du déploiement des réseaux et des infrastructures numériques. Elle côtoie d’autres pistes de réflexion, comme des limitations au niveau du préchargement de ressources dans les navigateurs web (qui survient en arrière-plan en anticipant la navigation de l’internaute, pour lui présenter les pages plus rapidement), et la réduction de la consommation énergétique des appareils.
Cette réflexion sur l’accès à Internet dans le fixe, si elle était suivie d’effet, serait un sacré bouleversement dans le marché des télécoms français. C’est en effet aux alentours des années 2000 que le marché s’est structuré autour de l’illimité, avec par exemple Free et son fameux accès illimité pour 29,99 € par mois mois, à 512 Kbps, en 2002.À l’époque, des opérateurs aujourd’hui disparus comme AOL, Tiscali et Easyconnect, ont fini par s’aligner, façonnant ainsi le secteur que l’on connaît aujourd’hui.
La fibre optique, qui donne accès à des débits très importants, se développe en France. Pourtant, le CNNum invite à envisager de restreindre les accès à l’Internet fixe. // Source : Alexandre Delbos
Cette problématique de l’illimité dans les forfaits ne se pose dans le mobile en revanche, car ces abonnements sont articulés autour d’enveloppes de données mobiles qui sont réinitialisées tous les mois. Si celle-ci est consommée en intégralité, la connexion est soit empêchée, bridée ou comptabilisée en hors forfait. Cela dit, ces enveloppes grossissent au fil des ans, pour se caler aux nouvelles générations (2G, 3G, 4G, 5G…) et, donc, à des débits accrus ouvrant de nouveaux usages.
En comparaison de la situation dans d’autres pays du monde, les internautes français sont bien lotis : les fournisseurs d’accès à Internet en Belgique, aux USA ou bien au Canada sont bien moins séduisants avec leurs formules restrictives. une situation qui s’explique entre autres par un faible dynamisme concurrentiel, là où le marché français a fait fondre les prix et exploser les fonctionnalités.
Une idée à articuler avec d’autres propositions
Reste toutefois une question : la fin de l’illimité, en tout cas avec un débit inchangé, ne va-t-elle pas à l’encontre du développement de certains nouveaux usages, comme l’ultra haute définition pour la vidéo, ou bien la généralisation accrue du télétravail, qui a montré ses vertus lors du confinement — et qui peut avoir des effets positifs sur la pollution, en limitant par exemple l’usage de la voiture ?
Pour le Conseil national du numérique, cette hypothèse n’a de sens que si elle est articulée avec d’autres approches, qui sont évoquées également dans la feuille de route. Cela passe par une incitation « à adopter la sobriété numérique » au niveau de la population et à « réguler l’économie de l’attention numérique », qui est jugée responsable de la hausse des usages numériques.
Mais surtout, l’instance consultative considère qu’il faut « interroger la pertinence de nos usages numériques afin d’en limiter la croissance ». Et de proposer quelques leviers : en finir avec la course à la haute définition, redescendre la taille des écrans des téléviseurs, limiter le nombre d’objets connectés, limiter la qualité maximale des vidéos en ligne, imposer un mode basse consommation d’énergie par défaut et questionner l’intérêt et l’urgence de la 5G.
Aux débuts d’Internet, un idéal d’horizontalité, de gratuité, de liberté. Trente ans après, le web s’est centralisé, marchandisé, et a été colonisé par les géants du numérique. Ces derniers ont-ils trahi l’utopie des pionniers d’Internet ?
Internet a été parfois décrit comme un espace de liberté inédit permettant aux utilisateurs de contourner la censure et d’enjamber les frontières, de créer et d’échanger à l’infini, de se réinventer artiste, journaliste ou militant. Aujourd’hui, ce discours semble désuet : on met plutôt l’accent sur l’hypercentralisation du web, sa neutralité est remise en cause, la censure et la surveillance généralisée des réseaux se développent. Alors, ne reste-t-il vraiment plus rien de l’utopie numérique ?
Si les réseaux de communication informatique naissent bien au cœur de l’écosystème « militaro-industrialo-universitaire » issu de la Guerre froide, on aurait tort d’associer le projet Internet aux seuls intérêts stratégiques du gouvernement américain. Dans les années 1970, les laboratoires de recherche informatique sont marqués par l’expérience de la contre-culture : on y défend une approche créative et collaborative du travail, contre la lourdeur, le cloisonnement et les hiérarchies bureaucratiques. Les chercheurs en informatique élaborent des procédures de discussion plus informelles, plus horizontales, et défendent une nouvelle manière de faire de la recherche. Internet, et surtout le web, qui s’est développé dans les années 1990, sont vus comme l’accomplissement d’un vieux rêve scientifique : le partage de la connaissance au sein d’une bibliothèque sans frontières, à laquelle chacun peut accéder et contribuer. En 1995, Tim Berners-Lee, principal auteur des protocoles du web au sein de l’Organisation européenne pour la recherche nucléaire (Cern), déclare ainsi : « J’ai fait (et je continue à faire) le rêve que le web devienne moins une nouvelle chaîne de télévision qu’un vaste océan interactif de savoirs partagés. Je nous imagine ainsi immergés dans un environnement chaleureux, amical, composé de toutes les choses que nous et nos amis aurions vues, entendues, crues et comprises. » Cet imaginaire nourrit l’expérience des premiers concepteurs et utilisateurs du web, qui forment, jusqu’au milieu des années 1990, une « république des informaticiens », sorte de communauté scientifique idéale qui voit dans le réseau l’aboutissement d’un projet humaniste.
Le web est vu comme l’accomplissement d’un vieux rêve scientifique : le partage de la connaissance au sein d’une bibliothèque sans frontières.
Les chercheurs en informatique n’ont pas été les seuls à construire l’« utopie numérique ». Dans les années 1990, la diffusion de l’ordinateur personnel permet aussi l’émergence des premiers services de communication électronique. Des groupes de passionnés y échangent sur les transformations technologiques en cours, formant ainsi les premières « communautés virtuelles ». On y retrouve aussi bien d’anciens hippies que des entrepreneurs de la nouvelle économie, des consultants en technologie et de jeunes hackers. Ils partagent des pratiques et des principes éthiques fondés sur le rejet de l’autorité, la liberté de ton ou la « netiquette », code de conduite informel que chacun se doit de respecter lors des discussions en ligne.
Ce projet utopique est néanmoins aussi hybride et protéiforme que les communautés qui le composent, croisant l’humanisme scientifique, l’héritage contre-culturel des années 1960 ou la pensée libertarienne autour d’un enthousiasme partagé pour les nouvelles technologies. Il trouve sa traduction la plus concrète dans la « déclaration d’indépendance du cyberespace », rédigée en 1996 par John Perry Barlow, fondateur de l’une des premières associations de militants numériques, l’Electronic Frontier Foundation : « Le cyberespace est constitué par des échanges, des relations, et par la pensée elle-même […]. Notre monde est à la fois partout et nulle part, mais il n’est pas là où vivent les corps. Nous créons un monde où tous peuvent entrer, sans privilège ni préjugé dicté par la race, le pouvoir économique, la puissance militaire ou le lieu de naissance. Nous créons un monde où chacun, où qu’il se trouve, peut exprimer ses idées, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou à une norme. »
« Le cyberespace est constitué par des échanges, des relations, et par la pensée elle-même […]. Notre monde est à la fois partout et nulle part, mais il n’est pas là où vivent les corps. » (J. Perry Barlow)
Ce texte est tout autant une célébration de l’utopie numérique qu’un manifeste défensif, visant à la protéger contre l’ingérence des puissances politiques et économiques. La déclaration d’indépendance du cyberespace est en effet écrite au moment même où l’ouverture d’Internet fragilise l’autonomie des pionniers. L’utopie de « l’Internet libre » se lit ici comme une défense des libertés sur Internet : liberté d’expression, libre circulation de l’information, mais aussi droit à l’anonymat et neutralité du réseau, autant de causes que vont porter les militants numériques de l’Electronic Frontier Foundation, et bien d’autres après eux, contre la transformation du réseau.
Gafam, les géants du numérique
Derrière cet acronyme, on désigne cinq firmes multinationales américaines : Google, Apple, Facebook, Amazon et Microsoft, qui dominent les marchés de l’économie numérique. Les Gafam ont acquis une position hégémonique dans la plupart des pays du monde, à l’exception notable de la Chine. Leur lobbying, souvent convergent, en fait des acteurs particulièrement puissants dans les négociations internationales sur la gouvernance des réseaux. Pour les États, elles sont devenues à la fois un objet de réforme fiscale, un enjeu de régulation (pour mieux protéger les données des citoyens), mais aussi des partenaires indispensables dans de nombreux domaines d’intervention publique (lutte contre le piratage, le cyberterrorisme ou les fausses informations).
Pour autant, il ne faudrait pas totalement confondre ces entreprises, car elles renvoient à des modèles d’affaires parfois très différents. Pour Google, par exemple, les services gratuits (Gmail, YouTube, le moteur de recherche et navigateur Chrome) sont financés par l’exploitation de nos données personnelles qui permettent à l’entreprise de capter à elle seule un tiers du marché de la publicité en ligne. À l’inverse, l’entreprise Apple s’est développée ces dernières années autour d’un modèle intégré très fermé, proposant des appareils coûteux qui se veulent particulièrement protecteurs de la vie privée. – AB
Une série de renoncements ?
Si les années 1990 constituent bien une sorte d’âge d’or de l’utopie numérique, l’expansion d’Internet va progressivement remettre en cause cette vision enchantée du cyberespace. Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées. Jusqu’alors soutenu par la puissance publique, il était considéré comme un outil de coordination scientifique dont les usages se devaient d’être strictement non lucratifs. Mais le développement de services commerciaux d’accès favorise la découverte du web par un plus large public. Et si la plupart des contenus en ligne restent gratuits, Internet se cherche un modèle économique, suscitant l’enthousiasme, parfois excessif, des marchés. On assiste à l’émergence de nouveaux acteurs économiques : d’abord, ceux de la vente en ligne puis ceux de la vente d’espaces publicitaires ciblés et de l’exploitation des données recueillies sur les internautes. Apparaissent alors les futures grandes entreprises numériques : Amazon en 1994, eBay en 1995, Netflix en 1997, Google en 1998. La décennie suivante voit la naissance des réseaux sociaux autour de ce qu’on a appelé le « web 2.0 »1, fondé sur la participation et l’interaction des internautes : Facebook en 2004, YouTube en 2005, Twitter en 2006, etc. La montée en puissance de ces grandes plateformes modifie considérablement le visage d’Internet. Jonathan Zittrain2 parle par exemple de « centralisation » d’Internet, dès lors que l’essentiel du trafic transite désormais par quelques sites, appareils ou applications. Cette évolution, attribuée pour l’essentiel à l’hégémonie des géants du numérique, les « Gafam » (voir encadré), est vue par les militants comme une première trahison de l’esprit horizontal et décentré qui caractérisait les échanges au début du réseau.
Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées.
La deuxième trahison tient à l’accroissement du contrôle des communications dans un espace numérique jusqu’ici marqué par le principe d’auto-régulation et de responsabilisation de chaque participant. Dans les années 1990, les premières « affaires du net » révèlent la face sombre du web : incitations à la haine, pédopornographie, piratage informatique, propagande, etc. Ces menaces favorisent un retour progressif des États, jusqu’alors remarquablement absents, pour réguler les échanges et protéger les droits sur Internet. Depuis les années 2000, les initiatives législatives se multiplient pour lutter contre le piratage, la prolifération de contenus haineux ou, plus récemment, la manipulation de l’information. Ces lois ont été combattues par les militants numériques, avec plus ou moins de succès3, au nom de la défense des libertés. Ils craignent le verrouillage technique d’un réseau qui a pourtant pu servir d’espace de résistance en contexte autoritaire : on assisterait à un retour de la censure et de la surveillance autour d’une alliance entre États et grandes entreprises numériques. Depuis les révélations en 2013 d’Edward Snowden sur l’existence de programmes de surveillance généralisée mis en place par les États-Unis4, ce combat ne concerne plus seulement une poignée d’États policiers (comme la Chine, la Russie ou l’Iran) mais doit, selon les militants du numérique, être étendu à l’ensemble des sociétés occidentales.
Utopie numérique : trahisons ou traductions ?
Retour du contrôle des communications, règne de la marchandisation et centralisation du web autour des grandes plateformes : ces transformations d’Internet sont dénoncées comme autant de coups portés au projet initial de « l’Internet libre », principalement de la part des Gafam. Pour autant, on aurait tort d’opposer schématiquement les défenseurs aux fossoyeurs de l’utopie numérique. Google s’est parfois trouvé aux côtés des militants du net pour défendre la libre circulation de l’information, la neutralité du net ou l’assouplissement de la propriété intellectuelle. Le projet « Google books » de numérisation de livres, par exemple, n’est pas sans rappeler celui de bibliothèque universelle formulé par les premiers concepteurs du réseau. On songe également aux prises de position très strictes d’Apple au sujet de la protection de la vie privée5. Ces affinités s’expliquent aussi par les racines culturelles de l’utopie numérique. Les fondateurs d’entreprises numériques, les développeurs qui y travaillent, sont bien souvent des utilisateurs pionniers et passionnés d’Internet. Pour certains, l’esprit de la Silicon Valley, loin de marquer une trahison de l’utopie numérique, en constitue l’expression la plus aboutie en tant que synthèse entre l’esprit de la contre-culture et l’enthousiasme technologique d’entrepreneurs innovants. Ce caractère hybride de la culture numérique autorise finalement des interprétations et des appropriations parfois contradictoires d’un discours qui n’a jamais été univoque. Mais l’éthique des pionniers reste une référence pour les militants comme pour les entreprises. En 2005, Google opère un tour de force symbolique et stratégique en recrutant le chercheur Vinton Cerf, co-inventeur du protocole TCP/IP considéré comme le « père d’Internet » : il est nommé « chief Internet evangelist6 », un titre qui manifeste la volonté de l’entreprise de se placer sous le patronage d’un « esprit originel » d’Internet.
Pour certains, l’esprit de la Silicon Valley constitue l’expression la plus aboutie de l’utopie numérique.
Par définition, une « utopie » désigne un « non-lieu », un territoire hors du monde. Mais Internet n’est que trop ancré dans la réalité sociale : il n’échappe pas à ses règles, ses rapports de force inégaux, ses contradictions. Pour autant, « l’utopie numérique » n’est pas vraiment morte : elle a plutôt été traduite autour de causes et de projets sociaux nombreux qui, de la lutte contre la censure à la défense de la neutralité du net, continuent de nourrir le militantisme numérique. À cet égard, les fronts sur lesquels défendre les principes de l’Internet libre, loin de se réduire, n’ont cessé de se multiplier.
Envoyer un mail, regarder un film en streaming ou faire une recherche sur Google semblent être des activités anodines. Pourtant, tous ces gestes ont un impact sur la planète. Environ 4% de émissions de gaz à effet de serre sont liées à l'activité numérique. Cette pollution a même dépassé celle provoquée par le transport aérien.
Ainsi, en appuyant sur le bouton "rechercher" de Google, vous émettez l'équivalent de 5 à 7 grammes de CO2, soit l'énergie nécessaire pour faire fonctionner les machines qui envoient, transportent et stockent les informations.
D'après l'Agence de l'environnement et de la maîtrise de l'énergie (ADEME), 47% des émissions de gaz à effet de serre générées par le numérique sont dues aux équipements des consommateurs, comme les ordinateurs ou les smartphones. Quelques conseils pour réduire votre empreinte carbone liée au numérique.
L'ADEME estime que "faire durer nos équipements numériques constitue le geste le plus efficace pour diminuer leurs impacts". Les Français changent souvent de téléphone portable ou d'ordinateur alors que l'ancien fonctionne encore, en raison d'un phénomène de mode ou d'une offre promotionnelle.
Pour l'organisation, utiliser une tablette ou un ordinateur pendant quatre ans au lieu de deux améliore de 50% son bilan environnemental. Elle conseille également de donner ou vendre ses appareils inutilisés pour leur donner une deuxième vie, et de privilégier l'achat de matériel d'occasion ou reconditionné.
Lorsque vous n'utilisez pas votre ordinateur ou votre console de jeu pendant une longue période, par exemple des vacances, éteignez-les et débranchez-les. Des appareils branchés, même éteints, continuent de consommer.
De tous les appareils numériques, la box internet est celui qui utilise le plus d'énergie : elle consomme six fois plus qu'un téléviseur. L'ADEME recommande d'éteindre sa box au lieu de la mettre en veille. Cela permettrait d'économiser 30 euros d'électricité par an.
Le stockage des mails est responsable d'une "pollution dormante" : un message conservé dans une boîte courrier fait tourner des serveurs de Gmail, Yahoo ou encore Outlook en permanence. Gardez donc seulement ce qui est nécessaire.
Il est recommandé de supprimer tous vos spams et d'installer un logiciel anti-spam, mais aussi vous désabonner des newsletters qui encombrent les messageries.
Une recherche sur Google ou Yahoo consomme elle aussi de l'énergie. Elle fait appel à plusieurs "data centers", centres de traitement des données, qui abritent des serveurs et de systèmes de stockage. Lors d'une requête, les data centers sont sollicités à plusieurs reprises : pour accéder à la page d'accueil du moteur de recherche, pour voir les résultats trouvés et enfin pour accéder au site sélectionné.
Mieux vaut donc taper directement l'adresse du site lorsqu'on la connaît, créer des favoris pour les plus consultés et d'utiliser des mots-clés précis pour tomber sur le bon résultat du premier coup.
L’intérêt du logiciel libre1 c’est de pouvoir se réapproprier les outils et les connaissances et c’est important de ne pas dissocier les deux parce les outils sont aussi des connaissances et qu’aujourd’hui, dans un monde qui est de plus en plus numérique, où la télévision est numérique, le téléphone est numérique, la musique est numérique, les livres sont numériques, il est important de pouvoir comprendre comment fonctionne un peu tout ça. Donc ce n’est pas seulement comprendre comment fonctionne Internet, ce qui pourtant la base, c’est aussi comprendre comment fonctionnent les logiciels, par qui est-ce qu’ils sont faits, dans quel but, comment est-ce qu’ils contribuent à la société et comment est-ce que nous on peut contribuer, finalement, à ces logiciels de façon à ce qu’ils puissent améliorer la société.
Le modèle du logiciel libre ce n’est pas seulement un modèle technique de production du logiciel, c’est aussi tout un ensemble de valeurs éthiques et sociales qui sont portées par ce mouvement depuis plus de 30 ans maintenant et qui vise non seulement à rester maître de ses données, maître de ses logiciels, mais aussi de se dire que les outils ne sont pas neutres et que si on veut pouvoir en avoir la maîtrise, en tout cas en ce qui concerne les biens communs numériques, le logiciel libre est probablement la seule réponse concrète, efficace, utilisable tout de suite, qui nous permet de se poser la question de l’éthique et des valeurs sociales qui sont transmises au travers du logiciel aujourd’hui.
Je puis définir le logiciel libre en trois mots : liberté, égalité, fraternité.
Richard Stallman2 qui est le fondateur du mouvement du logiciel libre arrive souvent en conférence avec un accent anglais alors qu’il parle très bien français, mais il a un accent anglais assez prononcé, en disant : « Je puis définir le logiciel libre en trois mots : liberté, égalité, fraternité » ; d’habitude la salle se lève et l’applaudit. C’est assez juste, du coup, de pouvoir définir le logiciel libre comme ça, c’est-à-dire c’est à la fois les libertés qui sont accordées à l’utilisateur, parce que dans le logiciel libre ce n’est pas le logiciel qui est libre, c’est l’utilisateur ou l’utilisatrice ; l’égalité c’est parce qu’il n’y a pas de différence, il n’y a pas de discrimination sur qui va utiliser le logiciel en question ; et enfin la fraternité c’est quelque chose qui pour nous est important, c’est la capacité, finalement, à s’entraider pour coconstruire ensemble du bien commun numérique qu’est du logiciel libre, donc le fait de partager les bonnes recettes de cuisine du logiciel, mais aussi le fait de pouvoir aider quelqu’un qui est dans la mouise à un moment donné et qui n’arrive pas à s’en sortir, on peut poser la question. Donc un des avantages du logiciel libre ou un des slogans du logiciel libre ça peut être : « Si tu ne sais pas demande et si tu sais partage ! »
Si tu ne sais pas demande et si tu sais partage !
Il s’agit d’abord de faire connaître le logiciel libre, donc on a choisi de le faire connaître, nous, par la base, c’est-à-dire en intervenant dans des MJC [Maisons des jeunes et de la culture], dans des bibliothèques, dans des médiathèques et petit à petit que chaque personne puisse se dire : mais en fait moi aussi je peux contribuer au logiciel libre ; moi aussi je peux participer au bien commun ; moi aussi je peux m’investir dans une association ; moi aussi je vais pouvoir contribuer à Wikipédia. Et petit à petit ces personnes vont se rendre compte d’abord de la valorisation qu’il y a à travailler pour l’intérêt général, parce que c’est quelque chose de valorisant.
Ce qui nous3, nous intéresse c’est que ces logiciels puissent exister pour tout le monde, qu’ils puissent participer à développer un secteur de la société de contribution et notamment celui des biens communs pour qu’on ne reste pas cantonnés, finalement, à se dire : ah ben là c’est bon, il y a une alternative en Libre qui existe, on ne s’en occupe pas. Ce qu’on veut c’est construire et coproduire des logiciels libres au service de la société de contribution.
Si vous voulez développer des biens communs, il faut être prêt à y participer. C’est une société de l’effort, c’est évident, ce n’est pas ce qui nous est vendu évidemment en face ; on est plutôt dans une société du confort avec la société de surconsommation.
Si vous voulez développer des biens communs, il faut être prêt à y participer. C’est une société de l’effort, c’est évident, ce n’est pas ce qui nous est vendu évidemment en face ; on est plutôt dans une société du confort avec la société de surconsommation. La société de contribution est une société de l’effort qui va nécessiter de prendre du temps, de prendre sur soi, de mettre de l’énergie dans le maintien et le développement de ces biens communs.
Il est difficile aujourd’hui, quand on regarde cette société de la surconsommation, de se dire qu’elle a un avenir d’égalité et de fraternité pour beaucoup de gens. Concrètement dans cinq ans, dans dix ans, si jamais on ne développe pas le logiciel libre, on aura quoi ? On aura un « Googleternet » sur lequel vous pourrez consommer des vidéos, sur lequel vous pourrez publier des contenus, mais tous ces contenus seront validés, monétisés et on va vous encourager à produire des contenus qui n’existent pas ou qui ne sortent pas trop du cadre. Donc finalement, on va se retrouver enfermés dans une espèce de bulle intellectuelle qui aura été conçue par les algorithmes de Google ou de Facebook qui vous diront : « Dormez tranquilles braves gens, demain vous irez regarder votre vidéo de chatons plutôt que de vous intéresser à ce qui se passe sur la loi travail. »
Moi évidemment, ce dont j’ai envie c’est qu’on puisse construire un monde avec plus de solidarité, où les données puissent être contrôlées par les utilisateurs, mais c’est aussi un monde où les médicaments ne seraient pas brevetés par exemple. Ça c’est la vision que j’ai du monde, mais je ne prétends pas que c’est la bonne. Par contre, pour arriver à ça, il faut pouvoir coconstruire des outils sous forme de logiciels libres ; il faut pouvoir lutter ou en tout cas expliquer les dérives de la propriété intellectuelle : un médicament qui est breveté sur un certain nombre d’années, potentiellement évidemment il a un coût, ce qui est parfaitement compréhensible, en recherche et développement, il faut bien que l’entreprise puisse rentrer dans ses frais, mais d’un autre côté, s’il est protégé pendant 20 ans, qui va faire le calcul du nombre de personnes qui sont en souffrance parce qu’elles n’ont pas accès à ce médicament-là ?
Il faut surtout planter des graines dans les esprits pour que les gens puissent se rendre compte de ce que c’est que le bien commun, de ce que c’est que la contribution, des efforts que ça va leur demander, mais de pourquoi est-ce qu’ils vont le faire. Qu’est-ce que nous, on a envie de construire comme société ? Comment est-ce qu’on a envie de la construire ? Quels sont nos objectifs ? Et avec qui est-ce qu’on veut la construire ? Parce que, encore une fois, il ne s’agit pas de dire que c’est nous contre eux, il s’agit de dire : qu’est-ce que nous on veut inventer ?
Nous on ne parle pas de convergence des luttes, on parle de convergence des buts.
Finalement c’est assez important pour nous, aujourd’hui, de réfléchir avec les personnes qui sont intéressées par cette société de contribution. Qui veut, avec le logiciel libre, avec le développement durable, avec les innovations démocratiques, sociales et politiques qui peuvent exister, avec les médecines dites alternatives, pouvoir inventer une autre société qui ne soit pas juste celle de la consommation.
En fait les gens qui ont construit l’Internet l’ont fait de manière ouverte entre eux, donc on a une communauté des développeurs qui ont fait l’Internet et ils l’ont fait pour que cet Internet serve de support à des applications qui allaient être libres, ouvertes, que personne n’allait décider, mais qui allaient se mettre en place sur ce commun de l’Internet qu’ils avaient construit. C’était leur philosophie de travail. Ce qu’ils n’avaient pas prévu c’est qu’il y aurait beaucoup d’argent à gagner sur les applications, parce que c’est venu beaucoup plus tard, c’est venu à partir du milieu des années 90, à partir de la création de Amazon, par exemple, en 1994 et peut-être un symptôme de ça c’est : on va passer non plus d’un échange entre des individus sur un mode horizontal, mais bien sur une entreprise qui a un objectif visant de la population, visant des individus usagers, pour capter à son bénéfice au début leur commerce, puis leurs données, puis l’ensemble de leur activité, de leurs traces humaines dans la vie.
Un programme informatique aujourd’hui il enregistre. Toutes les connaissances, les savoirs du monde sont quelque part dans les systèmes informatiques. Or, on le voit bien avec les médias sociaux par exemple, nous agissons dessus, nous croyons voir, mais nous ne voyons que la surface. Toute l’utilisation des traces qui se réalise en dessous, toutes les interprétations qui sont faites par des algorithmes nous échappent, parce que le système n’est pas libre, parce que personne ne sait réellement ce que fait Facebook avec nos usages et nos pratiques.
L’intérêt du logiciel libre1 c’est justement d’être transparent sur ce qui va être fait et donc de garantir qu’il n’y a pas des chevaux de Troie installés à l’intérieur d’un logiciel, qu’il n’y a pas des choses qui vont être contraires à la liberté d’usage de l’utilisateur.
En fait, quand on prive les gens du savoir, quand on les prive du droit d’usage sur des produits qu’y compris ils ont achetés, les gens ne le supportent pas. Ils ont envie de hacker le système. Et ce qu’il y a de bien avec l’informatique, avec les logiciels libres au démarrage, c’est qu’ils peuvent le faire ; il suffit d’apprendre à faire de l’informatique pour hacker le système. Ce qui a fait que des milliers et des milliers de personnes ont créé des sites web au tout début des années 90 à partir de savoirs qui étaient transmis comme ça, qui n’avaient été prévus par personne.
C’est ce qui fait qu’aujourd’hui les paysans ont de plus en plus envie de savoir ce qu’ils plantent, de maîtriser leur chaîne de production et donc d’utiliser des semences fermières, de créer un réel commun de la semence qui ne soit pas dépendant de grandes entreprises où on ne sait plus trop quelle est la qualité, l’adaptation du produit.
C’est le succès des fab labs2 dont il faut tenir compte. Les gens ont envie d’apprendre à faire des choses et ils le font, c’est ça qui est intéressant. On voit des tas de communs se développer dans tous les domaines d’activité. On voit des gens qui créent des activités coopératives, des jardins partagés à l’intérieur des villes, qui créent des villes résilientes et ça, ça construit du commun. Et les gens le font de manière plus ou moins spontanée, souvent sans utiliser le mot. Le mot « commun » c’est nous universitaires qui le mettons quand on regarde des pratiques très diverses, mais les gens font leurs échanges de graines, ils font leurs fab labs, ils font leurs fabrications coopératives, ils font les jardins partagés, ils le font sans mettre un mot dessus.
C’est important d’avoir aussi des intellectuels qui regardent les choses et qui disent : « Là il y a des ressemblances, il y a tout un mouvement, toute une dynamique par en bas qui dit "nous voulons nous réapproprier le monde". » Et ça c’est la dynamique du commun. Et nous voulons le réapproprier de manière coopérative, collaborative, ensemble, pas tout seuls. Ça existe, ça promet une nouvelle société. Ouvrons les yeux et servons-nous-en pour nous coordonner.
S’il y a un retour des communs aujourd’hui c’est parce que le numérique nous a remis cette question du partage, cette question d’échange au goût du jour.
L’âge de l’utopie numérique semble être à son crépuscule. Dans la longue nuit qui s’annonce, les activistes de tout bord vont essayer de se saisir du potentiel d’internet pour leur cause. Si la fracture de l’activisme numérique continue de s’élargir, l’aube va nous amener à un âge ou seulement quelques citoyens pourront se faire entendre. Cela n’éteindra pas seulement le rêve que la technologie puisse être une force de progrès, cela éteindra aussi la possibilité d’une société purement démocratique
Thanks to “data inference” technology, companies know more about you than you disclose.
People concerned about privacy often try to be “careful” online. They stay off social media, or if they’re on it, they post cautiously. They don’t share information about their religious beliefs, personal life, health status or political views. By doing so, they think they are protecting their privacy.
But they are wrong. Because of technological advances and the sheer amount of data now available about billions of other people, discretion no longer suffices to protect your privacy. Computer algorithms and network analyses can now infer, with a sufficiently high degree of accuracy, a wide range of things about you that you may have never disclosed, including your moods, your political beliefs, your sexual orientation and your health.
There is no longer such a thing as individually “opting out” of our privacy-compromised world.
The basic idea of data inference is not new. Magazine subscriber lists have long been purchased by retailers, charities and politicians because they provide useful hints about people’s views. A subscriber to The Wall Street Journal is more likely to be a Republican voter than is a subscriber to The Nation, and so on.
But today’s technology works at a far higher level. Consider an example involving Facebook. In 2017, the newspaper The Australian published an article, based on a leaked document from Facebook, revealing that the company had told advertisers that it could predict when younger users, including teenagers, were feeling “insecure,” “worthless” or otherwise in need of a “confidence boost.” Facebook was apparently able to draw these inferences by monitoring photos, posts and other social media data.
Facebook denied letting advertisers target people based on those characteristics, but it’s almost certainly true that it has that capacity. Indeed, academic researchers demonstrated last year that they were able to predict depression in Facebook users by analyzing their social media data — and they had access to far less data than Facebook does. Even if Facebook does not now market its ability to glean your present or future mental health from your social media activity, the fact that it (and any number of other, less visible actors) can do this should worry you.
It is worth stressing that today’s computational inference does not merely check to see if Facebook users posted phrases like “I’m depressed” or “I feel terrible.” The technology is more sophisticated than that: Machine-learning algorithms are fed huge amounts of data, and the computer program itself categorizes who is more likely to become depressed.
Consider another example. In 2017, academic researchers, armed with data from more than 40,000 Instagram photos, used machine-learning tools to accurately identify signs of depression in a group of 166 Instagram users. Their computer models turned out to be better predictors of depression than humans who were asked to rate whether photos were happy or sad and so forth.
Used for honorable purposes, computational inference can be a wonderful thing. Predicting depression before the onset of clinical symptoms would be a boon for public health, which is why academics are researching these tools; they dream of early screening and prevention.
Editors’ Picks
Does This Dress Make Me Look Guilty?
It’s Not You, It’s Men
The Racial Bias Built Into Photography
But these tools are worrisome, too. Few people posting photos on Instagram are aware that they may be revealing their mental health status to anyone with the right computational power.
Computational inference can also be a tool of social control. The Chinese government, having gathered biometric data on its citizens, is trying to use big dataClose X and artificial intelligenceClose X to single out “threats” to Communist rule, including the country’s Uighurs, a mostly Muslim ethnic group.
[As technology advances, will it continue to blur the lines between public and private? Sign up for Charlie Warzel’s limited-run newsletter to explore what’s at stake and what you can do about it.]
Such tools are already being marketed for use in hiring employees, for detecting shoppers’ moods and predicting criminal behavior. Unless they are properly regulated, in the near future we could be hired, fired, granted or denied insurance, accepted to or rejected from college, rented housing and extended or denied credit based on facts that are inferred about us.
This is worrisome enough when it involves correct inferences. But because computational inference is a statistical technique, it also often gets things wrong — and it is hard, and perhaps impossible, to pinpoint the source of the error, for these algorithms offer little to no insights into how they operate. What happens when someone is denied a job on the basis of an inference that we aren’t even sure is correct?
Another troubling example of inference involves your phone number. It is increasingly an identifier that works like a Social Security number — it is unique to you. Even if you have stayed off Facebook and other social media, your phone number is almost certainly in many other people’s contact lists on their phones. If they use Facebook (or Instagram or WhatsApp), they have been prompted to upload their contacts to help find their “friends,” which many people do.
Once your number surfaces in a few uploads, Facebook can place you in a social network, which helps it infer things about you since we tend to resemble the people in our social set. (Facebook even keeps “shadow” profiles of nonusers and deploys “tracking pixelsClose X” situated all over the web — not just on Facebook — that transmit information about your behavior to the company.)
Sign Up for The Privacy Project Newsletter
As technology advances, will it continue to blur the lines between public and private? Explore what's at stake and what you can do about it.
Last year, an investigation led by Senator Ron Wyden, Democrat of Oregon, revealed that Verizon, T-Mobile, Sprint and AT&T were selling people’s real-time location dataClose X. An investigative report last year by The New York Times and a separate inquiry by the security analyst Will Strafach also showed that weather apps including the Weather Channel, AccuWeather and WeatherBug were selling their users’ location data. This kind of data isn’t useful just for tracking you but also for inferring things about you. What were you doing at a cancer clinic? Why were you leaving the house of a woman who is not your wife at 5 a.m.?
The journalist Kashmir Hill has reported on cases in which Facebook suggested to a psychiatrist’s patients that they were potential “Facebook friends,” suggested that people “friend” the person with whom their spouse was having an affair and outed prostitutes’ real identities to their clients. We don’t want corporations (or governments) to make such connections, let alone exploit this to “grow” their platform.
What is to be done? Designing phones and other devices to be more privacy-protected would be start, and government regulation of the collection and flow of data would help slow things down. But this is not the complete solution. We also need to start passing laws that directly regulate the use of computational inference: What will we allow to be inferred, and under what conditions, and subject to what kinds of accountability, disclosure, controls and penalties for misuse?
Until we have good answers to these questions, you can expect others to continue to know more and more about you — no matter how discreet you may have been.
Un article en anglais sur le blog du Forum économique mondial (WEF en anglais) nous apprend qu'il existerait 5 visions de l'Internet qui sont en compétitions les unes avec les autres. Le classement fait est géographique : Europe, Russie, Chine et deux aux États-Unis (Washington contre Silicon Valley). Bien sûr ces accrochages géographiques sont très simplificateurs et peuvent être partagés par d'autres pays / régions / organisations / individus de part le monde. Regarder ces visions nous permet-il de mieux comprendre comment nous positionner en temps que loisir généalogique ?
Reprenons
La vision européenne (qualifiée de bourgeoise par le WEF) aimerait maximiser la liberté en ligne mais préfère que chacun se comporte correctement, dise la vérité, ne trolle pas, respecte la vie privée, etc. La réglementation est la réponse donnée aux excès.
La vision chinoise (qualifiée de paternaliste par le WEF) voir l'internet comme un serviteur de l'ordre public lequel est défini par le gouvernement lui-même
La vision russe (qualifiée de désinformative par le WEF) voit l'internet comme un moyen de miner les normes de diffusion de la vérité. Ses partisans exploitent les vulnérabilités inhérentes au système. Dans le même temps intérieurement, elle cherche à isoler son internet de l'internet mondial
la vision de Washington (qualifiée de commerciale par le WEF) voit l'internet comme un autre type d'espace, habité par de la donnée qui est un autre type de ressources. Elle prétend que si nous voulons de l'innovation et de la création de valeur, alors nous devrions accorder des droits de propriété sur les données et laisser le marché faire.
la vision de la Silicon Valley (qualifiée d'ouverte par le WEF) voit l'internet comme un paradis anarchiste pour geeks sans restrictions sur le flot de données car les données veulent être libres.
Au final, ce classement très subjectif a pour mérite de montrer que les tiraillements internes au milieu généalogique (payant contre gratuit, vérité des informations, place des institutions gouvernementales...) transcendent ce milieu et se retrouvent au niveau de l'internet lui-même. Que voulons nous en faire, qu'acceptons-nous que nos dirigeants en fassent ?
Pour vous connecter à l’Internet, vous avez besoin d’un FAI (Fournisseur d’Accès à l’Internet), une entreprise ou une association dont le métier est de relier des individus ou des organisations aux autres FAI. En effet, l’Internet est une coalition de réseaux, chaque FAI a le sien, et ce qui constitue l’Internet global, c’est la connexion de tous ces FAI entre eux. À part devenir soi-même FAI, la seule façon de se connecter à l’Internet est donc de passer par un de ces FAI. La question de la confiance est donc cruciale : qu’est-ce que mon FAI fait sans me le dire ?
Il y a des révolutions qui se font en silence. L’intégration d’Internet dans les foyers des milieux populaires en est un bon exemple.
Où situer la « fracture numérique » ?
On a, au début des années 2000, beaucoup parlé de « fracture numérique » en s’intéressant à la fois aux inégalités d’accès et d’usages. Les rapports annuels du CREDOC montrent que les catégories populaires ont commencé à rattraper leur retard de connexion depuis une dizaine d’années : entre 2006 et 2017, en France, la proportion d’employés ayant une connexion Internet à domicile est passée de 51 % à 93 %, celle des ouvriers de 38 à 83 % (CREDOC 2017 : 48).
C’est désormais l’âge et non le revenu ou le niveau de diplôme qui est le facteur le plus clivant (parmi ceux qui ne se connectent jamais à Internet, huit personnes sur dix ont 60 ans ou plus). Si la question de l’accès est en passe d’être résolue, les usages des classes populaires restent moins variés et moins fréquents que ceux des classes moyennes et supérieures, nous apprennent ces mêmes rapports. Les individus non diplômés ont plus de mal à s’adapter à la dématérialisation des services administratifs, font moins de recherches, pratiquent moins les achats, se lancent très rarement dans la production de contenus. Bref, il y aurait en quelque sorte un « Internet du pauvre », moins créatif, moins audacieux, moins utile en quelque sorte…
Changer de focale
Peut-être faut-il adopter un autre regard ? Ces enquêtes statistiques reposent sur un comptage déploratif des manques par rapport aux pratiques les plus innovantes, celles des individus jeunes, diplômés, urbains. On peut partir d’un point de vue différent en posant a priori que les pratiques d’Internet privilégiées par les classes populaires font sens par rapport à leur besoins quotidiens et qu’elles sont des indicateurs pertinents de leur rapport au monde et des transformations possibles de ce rapport au monde.
Comme Jacques Rancière l’a analysé à propos des productions écrites d’ouvriers au XIXe siècle, il s’agit de poser l’égalité des intelligences comme point de départ de la réflexion pour comprendre comment « une langue commune appropriée par les autres » peut être réappropriée par ceux à qui elle n’était pas destinée. (Rancière 2009 : 152).
Un tel changement de focale permet d’entrevoir des usages qui n’ont rien de spectaculaire si ce n’est qu’ils ont profondément transformé le rapport au savoir et aux connaissances de ceux qui ne sont pas allés longtemps à l’école. Ce sont par exemple des recherches sur le sens des mots employés par les médecins ou celui des intitulés des devoirs scolaires des enfants. Pour des internautes avertis, elles pourraient paraître peu sophistiquées, mais, en attendant, elles opèrent une transformation majeure en réduisant l’asymétrie du rapport aux experts et en atténuant ces phénomènes de « déférence subie » des classes populaires face au monde des sachants – qu’Annette Lareau a analysée dans un beau livre, Unequal Childhoods (2011).
Recherche en ligne : s’informer et acheter
Des salariés qui exercent des emplois subalternes et n’ont aucun usage du numérique dans leur vie professionnelle passent aussi beaucoup de temps en ligne pour s’informer sur leur métier ou leurs droits : le succès des sites d’employés des services à la personne est là pour en témoigner. Des assistantes maternelles y parlent de leur conception de l’éducation des enfants, des aides-soignantes ou des agents de service hospitaliers de leur rapport aux patients. On pourrait aussi souligner tout ce que les tutoriels renouvellent au sein de savoir-faire traditionnellement investis par les classes populaires : ce sont des ingrédients jamais utilisés pour la cuisine, des manières de jardiner ou bricoler nouvelles, des modèles de tricot inconnus qui sont arrivés dans les foyers.
Apprendre donc, mais aussi acheter. Pour ceux qui vivent dans des zones rurales ou semi rurales, l’accès en quelques clics à des biens jusqu’alors introuvables dans leur environnement immédiat paraît a priori comme une immense opportunité. Mais en fait, les choses sont plus compliquées. La grande vitrine marchande en ligne est moins appréciée pour le choix qu’elle offre que pour les économies qu’elle permet de réaliser en surfant sur les promotions. C’est la recherche de la bonne affaire qui motive en priorité : c’est aussi qu’elle permet de pratiquer une gestion par les stocks en achetant par lots. En même temps, ces gains sont coupables puisqu’ils contribuent à fragiliser le commerce local, ou du moins ce qu’il en reste.
Dans une société d’interconnaissance forte où les commerçants sont aussi des voisins, et parfois des amis, la trahison laisse un goût amer des deux côtés. À l’inverse, les marchés de biens d’occasion entre particuliers, à commencer par Le Bon Coin qui recrute une importante clientèle rurale et populaire, sont décrits comme des marchés vertueux : ils offrent le plaisir d’une flânerie géolocalisée – c’est devenu une nouvelle source de commérage !-, évitent de jeter, et permettent de gagner quelques euros en sauvegardant la fierté de l’acheteur qui peut se meubler et se vêtir à moindre coût sans passer par des systèmes de dons. L’achat en ligne a donc opéré une transformation paradoxale du rapport au local, en détruisant certains liens et en en créant d’autres.
Lire et communiquer sur Internet
Enfin, Internet c’est une relation à l’écrit, marque de ceux qui en ont été les créateurs. Elle ne va pas de soi pour des individus qui ont un faible niveau de diplôme et très peu de pratiques scripturales sur leur lieu de travail. Le mail, qui demande une écriture normée, est largement délaissé dans ces familles populaires : il ne sert qu’aux échanges avec les sites d’achat et les administrations -le terme de démêlés serait en l’occurrence plus exact dans ce dernier cas.
C’est aussi qu’il s’inscrit dans une logique de communication interpersonnelle et asynchrone qui contrevient aux normes de relations en face à face et des échanges collectifs qui prévalent dans les milieux populaires. Facebook a bien mieux tiré son épingle du jeu : il permet l’échange de contenus sous forme de liens partagés, s’inscrit dans une dynamique d’échange de groupe et ne demande aucune écriture soignée. Ce réseau social apparaît être un moyen privilégié pour garder le contact avec les membres de sa famille large et les très proches, à la recherche d’un consensus sur les valeurs partagées. C’est un réseau de l’entre-soi, sans ouverture particulière sur d’autres mondes sociaux.
Car si l’Internet a finalement tenu de nombreuses promesses du côté du rapport au savoir, il n’a visiblement pas réussi à estomper les frontières entre les univers sociaux.
Dominique Pasquier, sociologue, directrice de recherche CNRS est l’auteur de « L’Internet des familles modestes. Enquête dans la France rurale ». Paris, Presses des Mines, 2018.
La semaine dernière, lors d’un vote qui a divisé presque tous les grands partis de l’Union européenne, les députés européens ont adopté toutes les terribles propositions de la nouvelle directive sur le droit d’auteur et rejeté toutes les bonnes, ouvrant la voie à la surveillance de masse automatisée et à la censure arbitraire sur Internet : cela concerne aussi bien les messages – comme les tweets et les mises à jour de statut sur Facebook – que les photos, les vidéos, les fichiers audio, le code des logiciels – tous les médias qui peuvent être protégés par le droit d’auteur.
Trois propositions ont été adoptées par le Parlement européen, chacune d’entre elles est catastrophique pour la liberté d’expression, la vie privée et les arts :
Article 13 : les filtres de copyright. Toutes les plateformes, sauf les plus petites, devront adopter défensivement des filtres de copyright qui examinent tout ce que vous publiez et censurent tout ce qu’ils jugent être une violation du copyright.
Article 11 : il est interdit de créer des liens vers les sites d’information en utilisant plus d’un mot d’un article, à moins d’utiliser un service qui a acheté une licence du site vers lequel vous voulez créer un lien. Les sites d’information peuvent faire payer le droit de les citer ou le refuser, ce qui leur donne effectivement le droit de choisir qui peut les critiquer. Les États membres ont la possibilité, sans obligation, de créer des exceptions et des limitations pour réduire les dommages causés par ce nouveau droit.
Au même moment, l’UE a rejeté jusqu’à la plus modeste proposition pour adapter le droit d’auteur au vingt-et-unième siècle :
Pas de « liberté de panorama ». Quand nous prenons des photos ou des vidéos dans des espaces publics, nous sommes susceptibles de capturer incidemment des œuvres protégées par le droit d’auteur : depuis l’art ordinaire dans les publicités sur les flancs des bus jusqu’aux T-shirts portés par les manifestants, en passant par les façades de bâtiments revendiquées par les architectes comme étant soumises à leur droit d’auteur. L’UE a rejeté une proposition qui rendrait légal, à l’échelle européenne, de photographier des scènes de rue sans craindre de violer le droit d’auteur des objets en arrière-plan ;
J’ai passé la majeure partie de l’été à discuter avec des gens qui sont très satisfaits de ces négociations, en essayant de comprendre pourquoi ils pensaient que cela pourrait être bon pour eux. Voilà ce que j’ai découvert.
Ces gens ne comprennent rien aux filtres. Vraiment rien.
L’industrie du divertissement a convaincu les créateurs qu’il existe une technologie permettant d’identifier les œuvres protégées par le droit d’auteur et de les empêcher d’être montrées en ligne sans une licence appropriée et que la seule chose qui nous retient est l’entêtement des plateformes.
La réalité, c’est que les filtres empêchent principalement les utilisateurs légitimes (y compris les créateurs) de faire des choses légitimes, alors que les véritables contrefacteurs trouvent ces filtres faciles à contourner.
En d’autres termes : si votre activité à plein temps consiste à comprendre comment fonctionnent les filtres et à bidouiller pour les contourner, vous pouvez devenir facilement expert⋅e dans ce domaine. Les filtres utilisés par le gouvernement chinois pour bloquer les images, par exemple, peuvent être contournés par des mesures simples.
Cependant, ces filtres sont mille fois plus efficaces que des filtres de copyright, parce qu’ils sont très simples à mettre en œuvre, tandis que leurs commanditaires ont d’immenses moyens financiers et techniques à disposition.
Mais si vous êtes un photographe professionnel, ou juste un particulier qui publie son propre travail, vous avez mieux à faire que de devenir un super combattant anti-filtre. Quand un filtre se trompe sur votre travail et le bloque pour violation du copyright, vous ne pouvez pas simplement court-circuiter le filtre avec un truc clandestin : vous devez contacter la plateforme qui vous a bloqué⋅e, vous retrouvant en attente derrière des millions d’autres pauvres gogos dans la même situation que vous.
Croisez les doigts et espérez que la personne surchargée de travail qui prendra votre réclamation en compte décidera que vous êtes dans votre droit.
Bien évidemment, les grosses entreprises du divertissement et de l’information ne sont pas inquiétées par ce résultat : elles ont des points d’entrée directe dans les plateformes de diffusion de contenus, des accès prioritaires aux services d’assistance pour débloquer leurs contenus quand ceux-ci sont bloqués par un filtre. Les créateurs qui se rallieront aux grandes sociétés du divertissement seront ainsi protégés des filtres – tandis que les indépendants (et le public) devront se débrouiller seuls.
Ils sous-estiment lourdement l’importance de la concurrence pour améliorer leur sort.
La réalisation des filtres que l’UE vient d’imposer coûtera des centaines de millions de dollars. Il y a très peu d’entreprises dans le monde qui ont ce genre de capital : les géants de la technologie basés aux États-Unis ou en Chine et quelques autres, comme VK en Russie.
L’obligation de filtrer Internet impose un seuil plancher à l’éventuel fractionnement des grandes plateformes par les régulateurs anti-monopole : puisque seules les plus grandes entreprises peuvent se permettre de contrôler l’ensemble du réseau à la recherche d’infractions, elles ne pourront pas être forcées à se séparer en entités beaucoup plus petites. La dernière version de la directive prévoit des exemptions pour les petites entreprises, mais celles-ci devront rester petites ou anticiper constamment le jour où elles devront elles-mêmes endosser le rôle de police du droit d’auteur. Aujourd’hui, l’UE a voté pour consolider le secteur des technologies, et ainsi pour rendre beaucoup plus difficile le fonctionnement des créateurs indépendants. Nous voyons deux grandes industries, faisant toutes deux face à des problèmes de compétitivité, négocier un accord qui fonctionne pour elles, mais qui diminuera la concurrence pour le créateur indépendant pris entre les deux. Ce qu’il nous fallait, c’était des solutions pour contrer le renforcement des industries de la technologie comme de celles de la création : au lieu de cela, nous avons obtenu un compromis qui fonctionne pour elles, mais qui exclut tout le reste.
Comment a-t-on pu en arriver à une situation si désastreuse ?
Ce n’est pas difficile à comprendre, hélas. Internet fait partie intégrante de tout ce que nous faisons, et par conséquent, chaque problème que nous rencontrons a un lien avec Internet. Pour les gens qui ne comprennent pas bien la technologie, il y a un moyen naturel de résoudre tout problème : « réparer la technologie ».
Dans une maxime devenue célèbre, Arthur C. Clarke affirmait que « toute technologie suffisamment avancée est indiscernable de la magie ». Certaines réalisations technologiques semblent effectivement magiques, il est naturel d’être témoin de ces miracles du quotidien et d’estimer que la technologie peut tout faire.
L’incapacité à comprendre ce que la technologie peut ou ne peut pas faire est la source d’une infinité d’erreurs : depuis ceux qui affirment hâtivement que les machines à voter connectées peuvent être suffisamment sécurisées pour être utilisées lors d’une élection nationale ; aux officiels qui claironnent qu’il est possible de créer un système de chiffrement qui empêche les truands d’accéder à nos données, mais autorise la police à accéder aux données des truands ; en passant par la croyance que le problème de la frontière irlandaise post-Brexit peut être « solutionné » par de vagues mesures techniques.
Dès que quelques puissants décideurs des industries du divertissement ont été persuadés que le filtrage massif était possible et sans conséquence néfaste, cette croyance s’est répandue, et quand les spécialistes (y compris les experts qui font autorité sur le sujet) disent que ce n’est pas possible, ils sont accusés d’être bornés et de manquer de vision, pas d’apporter un regard avisé sur ce qui est possible ou non.
C’est un schéma assez familier, mais dans le cas de la directive européenne sur le copyright, il y a eu des facteurs aggravants. Lier un amendement sur les filtres de copyright à une proposition de transfert de quelques millions d’euros des géants de l’informatique vers les propriétaires de médias a garanti une couverture médiatique favorable de la part de la presse, qui cherche elle-même une solution à ses problèmes.
Enfin, le problème est qu’Internet favorise une sorte de vision étriquée par laquelle nous avons l’illusion que la petite portion du Net que nous utilisons en constitue la totalité. Internet gère des milliards de communications publiques chaque jour : vœux de naissance et messages de condoléances, signalement de fêtes et réunions prochaines, campagnes politiques et lettres d’amour. Un petit bout, moins d’un pour cent, de ces communications constitue le genre de violation du droit d’auteur visé par l’article 13, mais les avocats de cet article insistent pour dire que le « but premier » de ces plateformes est de diffuser des œuvres protégées par le droit d’auteur.
Il ne fait aucun doute que les gens de l’industrie du divertissement interagissent avec beaucoup d’œuvres de divertissement en ligne, de la même façon que la police voit beaucoup de gens qui utilisent Internet pour planifier des crimes, et les fashionistas voient beaucoup de gens qui utilisent Internet pour montrer leurs tenues.
L’Internet est plus vaste qu’aucun⋅e d’entre nous ne peut le concevoir, mais cela ne signifie pas que nous devrions être indifférent⋅e⋅s à tous les autres utilisateurs d’Internet et à ce qu’ils perdent lorsque nous poursuivons nos seuls objectifs, aux dépens du reste du monde numérique.
Le vote récent de la directive sur le copyright ne rend pas seulement la vie plus difficile aux créateurs, en donnant une plus grande part de leurs revenus à Big contenus et Big techno – il rend la vie plus difficile pour nous tous. Hier, un spécialiste d’un syndicat de créateurs dont je suis membre m’a dit que leur travail n’est pas de « protéger les gens qui veulent citer Shakespeare » (qui pourraient être bloqués par l’enregistrement bidon de ses œuvres dans les filtres du droit d’auteur) – mais plutôt de protéger les intérêts des photographes du syndicat dont l’œuvre est « volée ». Non seulement l’appui de mon syndicat à cette proposition catastrophique ne fait aucun bien aux photographes, mais il causera aussi d’énormes dommages à ceux dont les communications seront prises entre deux feux. Même un taux d’erreur de seulement un pour cent signifie encore des dizaines de millions d’actes de censure arbitraire, chaque jour.
Alors, que faut-il faire ?
En pratique, il existe bien d’autres opportunités pour les Européens d’influencer leurs élu⋅es sur cette question.
Tout de suite : la directive rentre dans une phase de « trilogues » , des réunions secrètes, à huis clos, entre les représentants des gouvernements nationaux et de l’Union européenne ; elles seront difficiles à influencer, mais elles détermineront le discours final présenté au parlement pour le prochain vote (difficulté : 10/10).
Au printemps prochain, le Parlement européen votera sur le discours qui ressort de ces trilogues. Il est peu probable qu’ils puissent étudier le texte plus en profondeur, on passera donc à un vote sur la directive proprement dite. Il est très difficile de contrecarrer la directive à ce stade (difficulté : 8/10).
Par la suite les 28 États membres devront débattre et mettre en vigueur leurs propres versions de la législation. Sous bien des aspects, il sera plus difficile d’influencer 28 parlements distincts que de régler le problème au niveau européen, quoique les membres des parlements nationaux seront plus réceptifs aux arguments d’internautes isolés, et les victoires obtenues dans un pays peuvent être mises à profit dans d’autres (« Tu vois, ça a marché au Luxembourg. On n’a qu’à faire la même chose. ») (difficulté : 7/10).
En attendant, des élections européennes se profilent, au cours desquelles les politiciens de l’UE devront se battre pour leur emploi. Il n’y a pas beaucoup d’endroits où un futur membre du Parlement européen peut gagner une élection en se vantant de l’expansion du droit d’auteur, mais il y a beaucoup d’adversaires électoraux potentiels qui seront trop heureux de faire campagne avec le slogan « Votez pour moi, mon adversaire vient de casser Internet » ;
Comme nous l’avons vu dans le combat pour la neutralité du Net aux USA, le mouvement pour protéger l’Internet libre et ouvert bénéficie d’un large soutien populaire et peut se transformer en sujet brûlant pour les politiciens.
Écoutez, on n’a jamais dit que notre combat se terminerait par notre « victoire » définitive – le combat pour garder l’Internet libre, juste et ouvert est toujours en cours.
Tant que les gens auront :
a) des problèmes,
b) liés de près ou de loin à Internet,
il y aura toujours des appels à casser/détruire Internet pour tenter de les résoudre.
Nous venons de subir un cuisant revers, mais cela ne change pas notre mission. Se battre, se battre et se battre encore pour garder Internet ouvert, libre et équitable, pour le préserver comme un lieu où nous pouvons nous organiser pour mener les autres luttes qui comptent, contre les inégalités et les trusts, les discriminations de race et de genre, pour la liberté de la parole et de la légitimité démocratique.
Si ce vote avait abouti au résultat inverse, nous serions toujours en train de nous battre aujourd’hui. Et demain. Et les jours suivants.
La lutte pour préserver et restaurer l’Internet libre, équitable et ouvert est une lutte dans laquelle vous vous engagez, pas un match que vous gagnez. Les enjeux sont trop élevés pour faire autrement.
Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.
L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.
Les votes dans les assemblées nous abusent telles des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.
Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
Nous avons pas « perdu Internet » !
Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ». Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait au mois d’août dernier :
Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.
Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci.
Sortir d’une conception « formelle » de la liberté d’expression
Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :
La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif.
On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens !
En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
Se doter (enfin) d’une doctrine économique claire
Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…
Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues aiment à se construire sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille hégémonique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer.
Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » est en mesure de nous sauver des monstruosités qu’il a lui-même engendrées.
Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l’économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème.
On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
Et maintenant, que faire ?
En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :
Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.
L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.
La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.
Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques du combat ont profondément évolué.
L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent une graine en laquelle nous pouvons encore placer nos espoirs. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines.
« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon.
Licence CC0
Mercredi 12 septembre 2018 se tiendra un vote déterminant pour la défense d'un Internet libre et ouvert, neutre et acentré : le Parlement européen réuni en formation plénière va amender et voter la proposition de révision de la directive droit d'auteur de la Commission européenne dont l'article 13 imposerait aux plateformes de partage le filtrage des contenus mis en ligne par leurs utilisateurs et utilisatrices. Une mesure liberticide que les parlementaires doivent absolument rejeter. Il est donc fondamental de se mobiliser pour garantir ce vote de rejet.
25 mai 2018 - Avant-hier, Emmanuel Macron recevait son homologue Mark Zuckerberg, symbole défait d'un monde dont le glas a sonné ce matin. Sous les traits forcés du dynamisme et de l'innovation, Macron, ne comprenant rien à son époque, fait la cour à des puissances dont le modèle, aussi dépassé qu'illégal, prendra bientôt fin. Les seules structures qui compteront à l'avenir seront les nôtres : celles de l'Internet libre et décentralisé, établies et régulées par le peuple lui-même. C'est la voie qu'a ouvert le RGPD : prenons-la sans détour.