1er février 2023 VIE PRIVÉE
La proposition de loi européenne sur le contrôle du chat ne se contentera pas de prendre le contrôle totalitaire de toutes les communications privées. Elle aura également pour conséquence involontaire d'interdire les systèmes d'exploitation open source.
L'UE est actuellement en train de promulguer la loi sur le contrôle du chat. Elle a été critiquée pour avoir créé un système centralisé de surveillance et de censure de masse à l'échelle de l'UE et pour avoir permis aux gouvernements d'écouter toutes les communications privées. Mais une conséquence peu évoquée de la loi proposée est qu'elle rend illégaux pratiquement tous les systèmes d'exploitation à code source ouvert existants, y compris les principales distributions Linux. Elle interdirait également l'archive d'applications Android open source F-Droid.
L'article 6 de la loi impose à tous les "magasins d'applications logicielles" de :
Évaluer si chaque service fourni par chaque application logicielle permet une communication interhumaine.
vérifier si chaque utilisateur est âgé de plus ou moins de 17 ans
empêcher les utilisateurs de moins de 17 ans d'installer de tels logiciels de communication.
En laissant de côté la folie des intentions déclarées ou les détails des logiciels qui seraient visés, examinons les implications pour les systèmes de logiciels libres.
Un "magasin d'applications logicielles" est défini par l'article 2[*] comme étant "un type de services d'intermédiation en ligne, qui se concentre sur les applications logicielles en tant que produit ou service intermédié".
Cela couvre clairement les archives logicielles en ligne presque universellement utilisées par les systèmes d'exploitation à source ouverte depuis les années 1990 comme principale méthode de distribution des applications et des mises à jour de sécurité. Ces archives sont souvent créées et maintenues par de petites entreprises ou des associations de bénévoles. Elles sont hébergées par des centaines d'organisations telles que des universités et des fournisseurs d'accès à Internet dans le monde entier. L'une des principales, l'archive de paquets Debian gérée par des bénévoles, contient actuellement plus de 170 000 paquets logiciels.
Ces services d'archivage de logiciels ne sont pas construits autour du concept d'un utilisateur humain individuel avec une identité ou un compte. Ils desservent des machines anonymes, comme un ordinateur portable, un serveur ou un appareil. Ces machines peuvent ensuite être utilisées ou non par des utilisateurs humains individuels pour installer des applications, ce qui échappe totalement au contrôle des services d'archives.
Pour être en mesure, ne serait-ce que conceptuellement et théoriquement, de respecter cette loi, il faudrait revoir totalement l'installation des logiciels, leur approvisionnement et les mises à jour de sécurité, procéder à une restructuration organisationnelle majeure et mettre au rebut, centraliser et reconstruire l'infrastructure de distribution des logiciels.
Ceci n'est bien sûr que théorique car les coûts et les problèmes pratiques seraient insurmontables.
Si et quand cette loi entre en vigueur, elle rendra illégaux les services de logiciels libres qui sous-tendent la majorité des services et des infrastructures sur l'internet, un nombre incalculable d'appareils et les ordinateurs utilisés par les développeurs de logiciels, parmi beaucoup d'autres choses. Pour se conformer à la loi, il faudrait tout arrêter, au niveau mondial, car les serveurs qui fournissent les logiciels et les mises à jour de sécurité ne font pas la différence entre un serveur web, un développeur de logiciels japonais, un réfrigérateur et un adolescent européen.
Il peut sembler incroyable que les auteurs de la loi n'aient pas pensé à cela, mais ce n'est pas si surprenant si l'on considère qu'il ne s'agit là que de l'une des nombreuses conséquences gigantesques de cette loi mal conçue et rédigée.
[Pour définir un magasin d'applications logicielles, la loi fait référence à la loi européenne sur les marchés numériques, article 2, point 12, qui définit l'"assistant virtuel". Ce qu'ils veulent dire en réalité est le point 14, qui définit le "magasin d'applications logicielles".
Traduit avec www.DeepL.com/Translator (version gratuite)
Twenty years on from its humble beginnings, the online encyclopedia is now an indispensable tool
By Barbara Speed - January 22, 2021 March 2021
There are two stories you could tell about Wikipedia.
One is that 20 years ago a web resource was launched that threatened academia and the media, and displaced established sources of knowledge. It was an encyclopedia anyone could edit—children, opinionated ignoramuses and angry ex-spouses. If I edited the page on particle physics to claim it was “the study of ducks,” the change would be instantly published. If I edited your page to call you a paedophile, that would be published too. Worse, although anyone could edit it, not everyone did: the editors were a self-selecting group of pedants and know-it-alls and overwhelmingly men. All of this led to biases in what soon became the world’s first port of call for finding out about anything. In time the site’s co-founder, Larry Sanger, would concede that “trolls sort of took over. The inmates started running the asylum.”
But there is also another—increasingly plausible—story. Namely, that Wikipedia is the last redoubt of the idealism of the early World Wide Web. From the moment of Tim Berners-Lee’s 1989 paper with its proposal of how information could be connected and made accessible via a hyperlink, visionaries began to imagine a kind of global democracy, where anybody, anywhere, could use a computer to discover the world. Amid a raft of developments known (in a 1999 coinage) as “Web 2.0”—which allowed everybody not merely to consume content but also to create it—some dared to dream that we would all become digital citizens shaking the plutocracy’s hold on established media and other elitist hierarchies.
Bit by bit, most of the web let us down. Yes, we were given a voice—but it didn’t come for free. Websites like Facebook harvest our data in order to attract advertisers; screen addiction, raging tribalism, trolling and misinformation reign. Tech billionaires got far richer than the old press barons ever were, and the rest of us became not empowered e-citizens—but data sold to companies wanting to target us.
But despite being the seventh most-visited site in the world in 2020, Wikipedia still seems different. It is the only not-for-profit in the top 10, with no adverts, no data collection and no billionaire CEO. Hundreds of thousands of volunteers maintain and create pages for free, correcting one another and upholding an impressive veracity. As early as 2005, the science journal Nature found that Wikipedia “comes close” to the accuracy of Encyclopedia Britannica online (to the displeasure of the Britannica’s editors). Back then, the young Wikipedia had four errors per science entry to Britannica’s three. Wikipedia may not have reached the ideal of Jimmy Wales, the site’s more prominent co-founder, of being “a world in which every single person on the planet is given free access to the sum of all human knowledge,” but it isn’t far off. In February 2020, Wired named Wikipedia as “the last best place on the internet.”
As Wikipedia leaves its teenage years, the question is—which of our two stories is more valid?
Wikipedia’s creators might seem like unlikely revolutionaries. Growing up in Huntsville, Alabama, where he was born in 1966, Jimmy Wales had a deep affection for his household encyclopedia. He would sit with his mother sticking in entry-updates sent by the publisher that referred the reader to a more accurate entry in a later edition. Speaking from an attic in his house in the Cotswolds during lockdown, Wales tells me that one entry that needed updating was the moon’s, for the good reason that “people had landed on it for the first time.”
Wales studied finance and went on to work as a trader. His intellectual heroes were the novelist and philosopher of selfishness Ayn Rand (one of his daughters is named after a Rand heroine) and the Austrian free market economist Friedrich Hayek, whose Road to Serfdom was a favourite of Margaret Thatcher’s. He spent much of his free time on the early internet, playing fantasy games and browsing, and became fixated by its potential. He quit his job and with two partners set up Bomis, which started as an information directory but developed into a men’s site (whose “Babe Engine” was basically a way to search for pornography).
Wales decided to create a free, virtual encyclopedia that could be updated in real time and that anyone could access. Like its predecessors, it would be a secondary, not a primary source—it would cite information from the media or academic papers, rather than publish original research—and it would have a strict approvals process. “It was really very formal and very top-down, you had to be approved to write anything, and you were expected to submit a completed essay,” he says. Nupedia launched in October 1999, with Larry Sanger—a philosophy graduate student whom Wales had met online via philosophy mailing lists—as editor-in-chief.
“There are now over 300 Wikipedias in different languages, and over six million entries on the English language site alone”
Thanks to the long submission process, the site had published only 21 articles after a year. Meanwhile, Sanger and Wales had come across the concept of “wikis”—collaborative, freely rewritable web pages that can be used to run group projects, collect notes or run a database (wiki is the Hawaiian word for quick). As an experiment, they launched another encyclopedia on 15th January 2001 that ditched the checks in favour of a wiki-style approach: Wikipedia.
Intended as a sideshow to Nupedia, the new site exploded. “One of the things that was interesting,” Wales remembers, “is that in the early days, people started writing things that were pretty good. They were very short and basic, but there was nothing wrong with them.” There are now over 300 Wikipedias in different languages, and over six million entries on the English language site alone. Over time, three core policies were established: pages should take a neutral point of view; contain no original research; and be verifiable, meaning that other visitors can check the information comes from a reliable source. Interestingly, none of these tenets is “accuracy”: the site effectively outsources this by resting everything on citations.
Two of the site’s servers crashed on Christmas Day 2004, and Wales had to keep the site “limping along” himself. Shortly after, he launched a fundraising campaign. Today, regular energetic campaigns, highly visible when you click on an entry, bring in over $100m a year for Wikipedia and other projects of the superintending Wikimedia Foundation, mostly from small donations—the average is $15.
Despite the incredible number of pages, there are fewer active editors than you might think: on the English-language Wikipedia only 51,000 editors made five or more edits in December 2020. A 2017 study found that in the site’s first decade, 1 per cent of Wikipedia’s editors were responsible for 77 per cent of its edits. An edit can be as small as a tweak to the formatting, or it could be starting a new page.
The site is now vast, with over 55m articles—the English-language Wikipedia alone would fill 90,000 books, giving it comparable volume (if not always quality) to a typical Oxbridge college library, available free to anyone with an internet connection, whether a rice farmer in Bangladesh or a physics student with out-of-date textbooks. Most impressive is its speed: articles are edited 350 times a minute. Wales says one of the first moments he truly saw Wikipedia’s potential was on 9/11. While television news was looping footage of the towers falling, Wikipedia’s network of volunteers were doing something different: “People were writing about the architecture of the World Trade Center, its history.” The site has come into its own during the pandemic, too, moving far more rapidly than established publications: since December 2019, there has been an average of 110 edits per hour on Covid-19 articles by some 97,000 editors.
Edit wars: mention of Wikipedia’s co-founder, Larry Sanger, was famously removed from Jimmy Wales’s entry—by none other than Wales himself.
The passion and dedication of Wikipedia’s editors is clear, but that doesn’t necessarily mean they’re always good at what they do. One sobering recent revelation concerned entries in the Scots language, a close cousin of English that is primarily spoken in the Scottish lowlands (and not to be confused with Scottish Gaelic). Thousands of Wikipedia pages in Scots had been created by someone who didn’t speak the language—a teenage user called AmaryllisGardener from North Carolina. Some words were still in English, others seemed to have been translated into Scots via a poor online dictionary. AmaryllisGardener sincerely thought he was being helpful, saying in a Wikipedia comment that he had started editing the pages when he was 12, and was “devastated” by the outcry (and abuse from other editors). Ryan Dempsey, a Scots language enthusiast from Northern Ireland who first flagged the errors on Reddit, tells me that he believes the errors went uncorrected for so long mostly because Scots is not very widely spoken, still less read, “and those fluent in it are more likely to be older and rural and so have less of an online presence.” After outing AmaryllisGardener, he realised that there were “many other editors who were far worse” on the Scots site.
The story was covered all over the world, but isn’t the best example of Wikipedia’s effectiveness: mistranslations—especially in little-read languages—are far more likely to survive than factual errors, given the requirement to cite facts carefully (you’ve doubtless seen a bright red “citation needed” mark next to an apparently innocuous statement). However, there have been many other controversies about accuracy. Lord Justice Leveson was blasted in 2012 after his report into the culture and ethics—and accuracy—of the British press listed one of the founders of the Independent newspaper as one “Brett Straub,” an unknown figure who erroneously appeared on the paper’s Wikipedia page.
In 2015, the scientists Adam Wilson and Gene Likens looked into the edit histories of several science pages on Wikipedia, finding that within just a few days the page for acid rain was edited to define it as “the deposition of wet poo and cats,” and separately by another user who claimed that “acid rain killed bugs bunny”; a third dismissed the phenomenon as “a load of bullshit.” One repeatedly tried to change the spelling of “rain” to “ran.”
None of the rogue changes lasted long—dedicated editors monitor popular pages for changes, as do the site’s bots—but for Likens in particular, who led the team that discovered acid rain and had devoted time to editing the page himself, this was frustrating. (Of course, anything called “acid” may invite a certain volume of psychedelic gobbledygook.) Wilson says “acid rain went through some very tumultuous edits.” Their study found politically controversial scientific subjects attracted far more edits, which will also mean more quality control. Wilson tells me that he is fairly impressed by the discussion and edits on the climate change page.
The other problem with Wikipedia’s open-door editing policy is that there’s little to stop those with a vested interest influencing entries. Wikipedia’s guidelines caution against editing your own page, or on behalf of family, friends or your employer, but this is tricky to police in a land of anonymous usernames—and the temptation can be strong. Indeed, a farcical controversy unfolded when Wales changed his own entry to remove references to Sanger as co-founder of the site, leaving him as the sole creator. He was called out in 2005, and later aired regret to Wired: “I wish I hadn’t done it. It’s in poor taste.” The Bureau of Investigative Journalism revealed in 2012 that thousands of edits to Wikipedia were being made from within the House of Commons. The former MP Joan Ryan, who left Labour for The Independent Group, admitted to editing her own page, pleading that she had to tackle “misleading or untruthful information.”
But while both criticism and praise often centre on the claim that editing is a free-for-all, that is no longer quite the case. Thomas Leitch, author of Wikipedia U, points out: “Wikipedia’s folklore is that ‘We’re the people’s encyclopedia. We’re a democracy, anybody can edit.’ That’s not true—[to edit] you can’t be someone who has corrected, or in Wikipedia’s view miscorrected, a given page so many times you’re now banned; or someone who has run afoul of an editor. You have to colour within the lines to be able to edit on Wikipedia.”
While anyone can create a Wikipedia account and click “edit” on almost any page, your edit will likely be reversed by another editor unless it meets certain standards. If disputes arise—edits being repeatedly made and reversed, or a discussion turning ugly on the “Talk” discussion pages that accompany every article—users can be banned by administrators, or an article can be “locked” against unsupervised edits.
Even the everyday friction between editors can put off the would-be Wikipedians. I decided to have a go, and added a short, factual line on a recent controversy to the “history of Wikipedia” page (admittedly one that’s likely to be heavily scrutinised). Within seven hours it was removed by another editor, with the curt explanation: “hardly notable or controversial.” The page as a whole is marked as “need[ing] to be updated” as of August 2018—based on my limited experience, perhaps over-precious editors could be to blame.
The stern eyes of experienced editors may be justified in some cases but there are serious consequences. Surveys show that editors on the English language site are overwhelmingly young men—exactly in keeping with so much of Silicon Valley. The Wikimedia Foundation set a goal in 2011 to get to 25 per cent female editors over four years. In 2014, executive director Sue Gardner was forced to admit that “I didn’t solve it. We didn’t solve it.” In 2018, nine out of 10 editors were male.
“Wikipedia’s open-door editing policy means there’s little to stop those with a vested interest from influencing stories”
Wales bemoans “not nearly enough” progress, and says the Foundation “still has a lot to learn.” He had hoped the phasing-in of a visual text editor (meaning the page you’re editing looks like the published version, rather than resembling off-putting code) would attract more diverse editors, but “it hasn’t had the impact that I would like.”
What’s at stake with diversity is, in Wales’s own words, not just “some sort of random political correctness—it impacts the content.” When male contributors predominate, you get certain kinds of entries and edits: in 2013, the New York Times journalist Amanda Filipacchi noticed that someone, or a group of someones, was gradually moving women out of the “American Novelists” category and moving them into one called “American Women Novelists,” meaning that the main list of American authors was becoming exclusively male.
With no application process for being an editor, and potentially anonymous and genderless profiles, this is a problem not easily amenable to the conventional corrective of monitoring. Jessica Wade, a physicist and Wikipedia editor, blames the skew to the male-dominated tech world from which the site was born: “When the community started, it wasn’t diverse, and it didn’t welcome people from underrepresented groups.”
When women or minorities do try to edit, she says, they can face old hands “who don’t encourage people enough to make them want to stay. Not everyone is so determined that they won’t give up when they’re told the page they listed is rubbish, or that they’ve not cited something properly.”
Having dabbled in editing Wikipedia herself, Wade was shocked by the lack of entries for female scientists. She set herself a steep goal: to create a new page for a female or minority scientist every single day—and, starting in early 2018, she’s done it ever since. Her project provoked some grumbles, and one fellow scientist made her doubt herself: “They said that I was diluting Wikipedia and damaging the community by putting these entries on there. It really upset me.” She’s quick to say, though, that the majority of the community is supportive, and the joys of collaborating—waking up after a night of editing to see that contributors on the other side of the world have added useful edits or photos to your entry—outweigh the negatives. Mary Mann, a librarian who was spurred back into editing recently by inaccuracies regarding a type of pepper, tells me that her experience has been positive, “with the caveat that the pages I’ve tended to work on so far are non-controversial pages. Everyone likes Sichuan peppers.”
Another important skew in Wikipedia’s contributions is geographical: Around 68 per cent of contributors are in America and the UK; Wales predicts that the big changes in Wikipedia’s next 20 years will be largely invisible on the English site: “Wikipedias in the languages of the developing world [will be] a really huge part of our future—how do we support whatever technological limitations people might have?”
Wales believes that “the reputation of Wikipedia has improved dramatically over the years.” At the beginning, he found the storms about individual silly edits frustrating, but there are far fewer of them now. “It’s like how there was a whole spate of stories about eBay, about someone selling a gun, or someone selling their babies, or selling their soul. And then everybody realised that yeah, you can post pretty much anything you want on eBay, then someone will flag it and it gets taken down. It’s not that exciting.”
Meanwhile, stories of lecturers warning students not to cite Wikipedia conveniently omit that they would say the same about any encyclopedia, as they’re not primary sources. Several I spoke to regularly recommend Wikipedia as a great place to start researching a subject, as you can reach the primary sources through the links. Ellis Jones, a sociology professor, made editing Wikipedia pages on sociological theorists part of his syllabus: “It’s one of the most exciting things in the course for the students. It allows them to see that even though they’re not experts, they can contribute some small piece of knowledge to the public.”
Leitch, the author of Wikipedia U, argues that the great gift of Wikipedia is the way that it teaches us to question sources of authority. “Yes, of course, we have to be asking questions about Wikipedia. But while we’re on that subject, shouldn’t we be asking those questions about liberal education in all of its avatars?” Take the peer-review process: a 2017 study found that it comes with its own set of biases: women were under-represented, and both men and women tended to favour work by their own genders. Some charge the process with slowing down the publication of disruptive findings; virtually everyone involved with it knows that academics will insist on the addition of references to their own publications, as shameless a form of anonymous self-promotion as attempting to buff up your Wikipedia page.
Rather than Wired’s description of it as the “last best place on the internet,” I prefer the way Tom Forth, another Wikipedia editor, described it to me: as “the least bad place on the internet.” It has many flaws, but many fewer than other huge sites. “Don’t be evil,” Google’s former motto, is a promise Wikipedia could claim to have kept.
“The great gift of Wikipedia is the way that it teaches us to
question sources of authority”
Ironically for those who see Wikipedia as a disruptor, some of its greatest problems stem from the older institutions it relies on for citations. Its “notability criteria” mean that “reputable” sources must recognise a subject’s importance before Wikipedia can. When I ask Jimmy Wales about his concerns about fake news, he highlights a much greater problem: the steep decline in local news outlets, which means the site often cannot cover local topics at all.
However, the relationship between the resource and the world it reflects is not a one-way street. It can seem like if something isn’t on Wikipedia, it may as well not exist. Conversely, newer pages like those created for female and ethnic minority scientists by Wade can, in some small ways, hack away at the biases in the world at large. During 2020, she and another scientist set about creating Wikipedia pages for those researching the pandemic, and says she soon noticed a gradual lessening in the white, male skew of experts quoted in the media.
One of the first pages Wade made was for Gladys West, an African-American scientist and a pioneer of GPS technology. The page started small, as little was known about her life, but over the years more has emerged, and she was recently profiled in the Guardian. For Wade, this encapsulates the joy of editing. “When I see other people I’ve done pages for getting recognition and honours and being celebrated, I’m just like, this is the best day ever. This is the greatest thing ever. The power you have from just sitting up at night with your laptop—it’s extraordinary.”
There is something undeniably romantic about thousands of people pooling their knowledge online—not for money or fame, but because it seems a good thing to do. One of the editors I spoke to sent me a link to “Listen to Wikipedia,” a website that plays musical notes as it shows, in real time, which pages are being updated: bells for additions, strings for subtractions; deeper notes for large edits, higher notes for small. “Kent county Delaware,” “Biondi,” “Upton State Pueblo Pottery,” “Italy National Cricket Team.” “Topher Grace,” and words in languages I don’t understand flash by. The longer I watch, the more it looks like the least bad place on the internet.
Note : Courrier International a repris cet article en le titrant "La regrettable américanisation de la France" et en ajoutant cette introduction :
En France, la critique grandit contre l’importation excessive de certaines théories de sciences sociales américaines dans l’Hexagone. Le néopuritanisme répandu dans les universités outre-Atlantique est effectivement en train d’imposer des limites au droit de critiquer, qui est pourtant fondamental, déplore ce chroniqueur québécois.
En France, 2021 sera l’année du bicentenaire de la mort de Napoléon. C’est en effet le 5 mai 1821 que ce génie politique et militaire qui transforma la face du monde rendit son dernier souffle à Sainte-Hélène. La série de commémorations prévues, dont la publication d’une centaine de livres, a pourtant mal commencé. La conférence prévue cet automne à Nantes avec l’historien Thierry Lentz a été annulée. Dans un texte sibyllin, l’école de commerce de Nantes se contente de dire qu’elle ne voulait pas « promouvoir l’héritage napoléonien en cette période »...
Le lecteur averti devinera que celui qui a rétabli l’esclavage dans les colonies en 1802, alors qu’il était Premier consul, n’est pas en odeur de sainteté dans la ville qui abrite un mémorial consacré à son abolition. Comme si ce personnage plus grand que nature pouvait être ainsi réduit à cette seule décision. Une décision qui mériterait justement d’être étudiée sous l’angle historique plutôt que sous le seul éclairage de la morale.
La révolution néopuritaine qui fait rage dans les universités américaines serait-elle en train de gagner la France ? On peut le craindre. Déjà, les annulations et les tentatives d’annulation de conférences sont légion. On pense à la spécialiste de l’esthétique Carole Talon-Hugon, chahutée à Nice et qui est l’auteure d’un ouvrage fort à propos intitulé L’art sous contrôle (PUF). L’an dernier, l’enseignante de la Sorbonne Yana Grinshpun s’est fait refuser la publication d’un texte sous prétexte qu’il ne respectait pas les règles de l’« écriture inclusive », ce code impraticable devenu le nouveau drapeau rouge des militantes féministes les plus radicales.
Ce que Grinshpun nomme la « radicalisation progressive de l’espace universitaire » a déjà atteint aux États-Unis des sommets stratosphériques. En 2018, les chercheurs américains Helen Pluckrose, James Lindsay et Peter Boghossian en avaient fait la démonstration par l’absurde. Ils rédigèrent une vingtaine d’articles truffés d’enquêtes bidon et de statistiques bidouillées flattant tous dans le sens du poil les nouvelles idéologies radicales à la mode. L’un d’eux affirmait démontrer qu’une « rampante culture du viol » sévissait chez les chiens, dont certaines races souffraient d’une « oppression systémique ». Un autre dénonçait l’astrologie comme une pratique masculiniste et sexiste afin de lui opposer « une astrologie féministe, queer et indigéniste ». Au moment où le canular fut révélé, sept de ces articles avaient été acceptés, sept autres étaient à l’étape du comité de lecture et six seulement avaient été refusés.
Un dernier, mais non le moindre, reproduisait un extrait de Mein Kampf où l’on avait simplement remplacé les Juifs par les Blancs. Il fut refusé, mais reçut les éloges de plusieurs universitaires chevronnés. Les auteurs de ce coup fumant entendaient ainsi démontrer à quel point ce qu’ils nomment les « grievance studies » — que l’on pourrait traduire par « facultés de la récrimination » ou des « doléances » — a substitué l’idéologie à l’étude des faits.
Pluckrose et Lindsay viennent d’ailleurs de publier le best-seller Cynical Theories qui s’est vu décerner le titre de « Meilleur livre politique de l’année » par le Times. Son sous-titre est déjà tout un programme : « Comment les militants universitaires ont fait n’importe quoi sur la race, le sexe et l’identité — et pourquoi cela nuit à tout le monde ».
Les « gender », « ethnic » ou « post-colonial studies » fonctionnent en effet souvent comme si les femmes, les homosexuels ou les Noirs étaient seuls habilités à parler de ces sujets. Comme si leur parole était par essence sacrée et incontestable. Comme si elle échappait aux règles normales de la critique.
Or, la critique n’est-elle pas fondatrice de l’université au moins depuis Montaigne ? Elle est inhérente et constitutive de tout travail universitaire, peu importe le sexe, la race ou l’orientation sexuelle de celui qui parle. Quant aux discours militants, qui sont respectables tant qu’ils ne se cachent pas sous de mauvais prétextes, ils ne sont pas plus solubles dans la recherche universitaire que dans le journalisme.
Comme l’écrit Thierry Lentz : « Les groupes militants ont toujours existé. Ils ont toujours été agissants. […] Cela étant, les choses changent désormais rapidement en raison de la mollesse générale de la société et des administrations. Dire qu’un étudiant est là pour étudier est presque un scandale, empêcher les interventions extérieures d’historiens ou de philosophes entre presque dans les mœurs. Sur ce point, l’avenir est sombre, n’en doutons pas. »
Alors que les digues sautent les unes après les autres, en France comme au Québec, certains réclament une loi afin de protéger la liberté de parole dans une institution qui devrait pourtant en être le sanctuaire. Nul doute que pour défendre cette liberté, il faudra des recteurs autrement plus hardis que celui de l’Université d’Ottawa qui a refusé de soutenir la professeure Lieutenant-Duval à qui l’on avait reproché l’automne dernier d’avoir osé prononcer le mot « nègre ».
« On ne peut pas faire semblant d’être courageux », disait un personnage qui en connaissait un bout sur le sujet. Un certain… Napoléon Bonaparte.
Tu as faim ? J’ai une pomme. Partageons là. Du coup, je n’ai mangé qu’une demi-pomme. Mais j’ai gagné ton amitié. Tu as une idée ? Partageons là. Du coup, nous voilà toi et moi avec une idée. Mieux encore : ton idée vient de m’en susciter une autre que je te repartage, en retour. Pour te permettre d’en trouver une troisième peut-être.
Une pomme est un bien rival. Cette notion désigne un bien dont la consommation par une personne empêche la consommation par d’autres. Ce qui relève de l’information ne l’est donc pas ; du coup, partager de l’information n’appauvrit pas … Sauf si on considère que l’autre en profite ? Peut-être … même pas. Découvrons cette histoire.
Il était une fois, ah non : il était deux fois.
Il était une première fois, bien avant l’informatique, l’idée de rétribuer qui contribue au perfectionnement du métier à tisser, dans le Lyon du XVIIIe siècle. Les corporations de marchands et la municipalité choisirent de récompenser qui adapte un nouveau système à un grand nombre de métiers à tisser. Cette politique d’innovation économique ouverte basée sur une stratégie gagnante-gagnante de partage des innovations technologiques (travailler ensemble plutôt que de tenter de cacher son savoir et de tuer les autres pour finir par mourir dans un désert économique) a permis à Lyon, devant Nottingham par exemple, de devenir leader sur ce secteur.
Pour le fameux métier à tisser de Jacquard, d’aucuns y voient un génie, d’autres de dire qu’il n’a rien inventé. Les deux ont tort et raison. Joseph Marie Charles dit Jacquard n’est pas un inventeur, c’est un intégrateur. Basile Bouchon a créé une machine à tisser à aiguille, Jean-Baptiste Falcon a complété la machine avec un système de carte perforée pour bénéficier d’un programme des gestes à mécaniser, et Jacques Vaucanson, a mis au point les cylindres automatiques pour soulager les utilisateurs en leur évitant d’avoir à faire tout cela à la main. Le métier de Jacquard est un aboutissement. C’est le fait que toutes ces innovations furent partagées publiquement qui permit de dépasser le monde anglo-saxon empêtré dans un système de protections avec des brevets, sur ce secteur économique.
Et il était une autre fois l’informatique.
L’informatique est une science et depuis toujours les connaissances scientifiques se partagent, se visitent et se revisitent pour pouvoir les vérifier, les confronter, les critiquer, les dépasser. À de rares exceptions près, les scientifiques qui ont travaillé isolément, dans le plus grand secret, sont restés … stérilement isolés. La science n’avance plus que collectivement et il est important de toujours se battre pour mettre en avant ces valeurs d’une science ouverte. Au début de l’informatique, les algorithmes se partageaient comme les équations mathématiques, avec des communautés de développeurs qui s’entraidaient. Et puis, avec la découverte du potentiel commercial des logiciels et sous l’influence notamment de Bill Gates, la notion de “copyright” s’est imposée en 1976, faisant du logiciel un possible bien propriétaire, en lien avec l’émergence d’un secteur d’activités nouveau et très vite florissant, au moment de l’avènement de l’informatique grand public qui est devenu omniprésente. Mais cette réglementation engendrera tellement de contraintes que 45 ans plus tard, même Microsoft s’investit de plus en plus dans le logiciel libre. L’intérêt réel de grandes firmes comme IBM ou Microsoft dans ce nouveau type de partage de connaissances marque un tournant.
Quel intérêt à une telle démarche ?
On peut invoquer de multiples raisons : pour que les personnes qui travaillent sur des projets parfois gigantesques puissent s’entraider, pour que l’on puisse étudier un logiciel complexe dont le fonctionnement doit rester transparent (par exemple pour mettre en place un système de vote numérique), pour que économiquement on crée des “biens communs” qui puissent permettre au plus grand nombre de développer ce dont il ou elle a besoin, et faire des économies d’échelle, comme par exemple lorsqu’il s’agit de corriger des bugs.
Un logiciel libre garantit quatre libertés fondamentales :
– utiliser le logiciel
– copier le logiciel
– étudier le logiciel
– modifier le logiciel et redistribuer les versions modifiées.
Et si cette démarche d’ouverture ne se limitait pas au logiciel ? Et si comme Wikipédia qui a permis de “libérer” les connaissances encyclopédiques humaines, qui avaient été enfermées sous forme de bien marchand, on faisait en sorte de s’organiser de manière collégiale, en privilégiant l’entraide et le partage pour d’autres grandes créations humaines ?
Je n’aime pas me faire chier dans la vie, et je ne dois pas être la seule.
Il m’arrive pourtant souvent d’être surprise que ce soit, autour de moi, un critère décisif pour organiser sa vie : aller au plus pratique. À ce qui engage le moins d’efforts. Les pubs fourmillent d’invitations à se laisser dorloter en échange de quelques euros. Le champ des services ne cesse jamais de s’étendre – et de libérer la croissance. Plus besoin de sortir se faire couper les cheveux, le coiffeur vient chez vous. Inutile de penser à mettre de la bière au frigo, un livreur vous l’apporte. Des services auparavant réservés aux client·es des grands hôtels se massifient désormais : faites livrer des fleurs, chercher un document à la maison, etc. Votre maison est devenue le centre du monde, si vous le voulez bien. Il doit bien être possible de faire autrement, c’est comme cela que nous vivions il y a encore cinq ans.
Tous ces services se déploient dans une société de plus en plus inégalitaire : d’un côté des gens qui méritent de bien bouffer après leur journée de boulot ou une réunion exigeante (voir les pubs qui mettent en scène le réconfort après l’effort), de l’autre des galériens qui sont payés une misère pour leur livrer un pad thai ou un kit apéro (ici le témoignage d’un livreur chez Frichti). C’est surtout parce que le chômage reste massif et l’armée de réserve importante, parce que les emplois ont été délibérément déqualifiés en auto-entreprise que ces entreprises prolifèrent. Si les galériens en ont marre de risquer leur vie et la vôtre en conduisant comme des dingues, ils trouveront un migrant à qui faire faire le boulot. Mais le tout s’appuie sur un mélange de paresse et de sens de ce qui lui est dû qui saisit l’individu en régime libéral au moment de faire à bouffer ou de s’occuper de la dimension matérielle de sa vie. Certes nous devons encore être quelques-un·es à cuire des nouilles quand nous avons la flemme de cuisiner et qui apprécions de sortir au restaurant pour nous changer les idées, découvrir un autre monde, des odeurs,une ambiance (et je n’oublie pas que ces lieux aussi sont propices à l’exploitation du travail). Mais la compétition économique pousse au cul tout le monde pour inventer des services innovants – c’est à dire dont personne n’avait vraiment besoin, qui étaient des rêves d’enfants gâtés mais qui, intelligemment marketés, nous laissent imaginer que nos vies sont vachement mieux avec. Ils constituent une industrie de la compensation sur laquelle il faudra mettre le doigt un jour et qui en attendant offre aux winners des vies de merde pleines de gratifications.
C’est pratique aussi, quand votre smartphone pense à votre place, que le logiciel va chercher vos mots de passe sur une autre bécane, recueille et transfère vos données à votre insu… Pratique, mais un peu inquiétant. Qu’importe, c’est surtout bien pratique ! Je suis la première à ne pas faire en matière de sécurité tous les efforts que me proposent des camarades plus cultivés que moi sur ces questions. Mais malgré cette désinvolture, je flippe quand je vois le niveau d’indépendance acquis par mon smartphone. Après des années de résistance et bien qu’il soit encore possible d’acheter neufs des téléphones bien conçus qui permettent de téléphoner (et d’avoir l’heure), j’ai cédé pour le côté pratique (1) : plus besoin de m’inquiéter d’avoir une connexion Internet régulière, de préparer mes déplacements et ma vie sociale comme je le faisais, avec capture d’écran de plans, schémas dessinés dans l’agenda, infos importantes notées sur papier, etc. Mais je me sens sous tutelle, dépossédée, comme une gamine gâtée sauf que je sais ce que c’est que l’autonomie et je regrette celle que j’avais avant.
Car c’est pratique mais c’est une dépossession : plus la peine de se soucier de la dimension matérielle de sa vie (et de savoir cuire des nouilles), pas besoin de garder la maîtrise de ses outils… Jusqu’ici, tout va bien, tant qu’on fait encore partie de la petite bourgeoisie qui peut se payer tout ça, tant que des pans entiers du macro-système technicien ne s’effondrent pas. Mais tout cela nous déqualifie humainement et il est des menaces plus immédiates encore que l’effondrement écologique ou une vraie crise de l’énergie : nos libertés, individuelles et collectives.
Je côtoie beaucoup de personnes engagées, qui n’ont pas de mots assez durs pour stigmatiser le capitalisme et le productivisme, qui éteignent la lumière dans les pièces qu’elles n’utilisent pas et qui pourtant maintiennent des comptes dans des réseaux sociaux devenus plus gros que des États, qui consomment un paquet de ressources et d’énergie pour calculer ce qu’elles aiment et vendre le résultat à d’autres boîtes, censurent leurs images, détournent leurs « ami·es » d’elles ou réciproquement sur base algorithmique, censurent les noms de groupes pas assez familiaux, gèrent leur environnement social comme un pensionnat dans les années 1950 en attendant de purement et simplement censurer leurs propos (2). Et ces personnes, parfois ces collectifs et associations, restent parce que c’est « pratique »(3).
J’ai toujours reçu un minimum d’écho dans des groupes anti-capitalistes, écologistes ou féministes, quand j’ai suggéré que Facebook, Twitter, Google Drive et autres n’étaient pas nos amis et proposé d’utiliser les outils créés et maintenus par des groupes politiques plus proches de nous et soucieux de nos libertés : les outils Framasoft (qui vont du pad à l’agenda en ligne, en passant par l’interface de sondages et la feuille de calcul), le Crabgrass de Riseup qui offre des fonctionnalités magiques et je me désole de ne faire partie d’aucun groupe qui l’utilise, etc. Et j’ai régulièrement mis en cause chez mes correspondant·es l’idée saugrenue d’avoir un compte Gmail qui vous pousse à garder dix ans de données en ligne plutôt que de ranger dans des fichiers dédiés et régulièrement sauvegardés les images qui vous tiennent à cœur. Et chaque fois, ce que j’entends, c’est que ce serait sympa de sauver la banquise mais… quand même, c’est pratique. Et j’ai vu des bonnes volontés s’arrêter au fait que Framacalc ne propose pas de mettre en couleur les cases, même quand cette couleur contribue à la lisibilité de la feuille sans rajouter aucune information digne d’intérêt. Aucune. Ces outils sont parfois moins bien que leur concurrence commerciale mais ne peut-on arbitrer sur d’autres critères ?
Nous n’allons pas nous flageller, non : si ces entreprises prolifèrent, de la start-up aux GAFA, c’est bien parce que les États leur laissent la bride sur le col. Ils démontent le droit du travail au profit de la micro-entreprise, ils votent des législations liberticides et laissent passer des pratiques intrusives et des concentrations industrielles qui devraient normalement tomber sous le coup de lois anti-trust (Messenger + Facebook + WhatsApp + Instagram, what else ?). C’est bien simple : les appels au contrôle des GAFA viennent aujourd’hui du sein desdits GAFA (et pas forcément des concurrents !) autant que des politiques. Visiblement, ça nous touche moins que la dernière vidéo de pandas mignons qui fait le buzz. Mais ça devrait. Et bien que notre marge de manœuvre soit limitée, bien qu’une défection individuelle ne signifie pas grand-chose numériquement, même si c’est dur de se passer des centaines de likes qui saluent vos traits d’esprit et vos indignations sur Twitter, même si votre organisation a fait son trou sur Facebook, il me semble que la première chose à faire, dans cette situation, c’est de quitter ces réseaux pour en faire vivre de plus démocratiques, sobres et décentralisés. Votre engagement anti-capitaliste, écologiste et anti-autoritaire le mérite bien…
Mauvaise nouvelle : il va falloir réapprendre à se faire un peu chier, dans la vie.
PS : Ceci est mon 300e billet sur ce blog, ouvert il y a exactement dix ans. 300 billets, ça ne veut pas dire 300 textes, il y a quelques annonces sur le lot. Mais oui, cela fait deux textes par mois en moyenne. Les meilleurs ont été publiés ailleurs (notamment dans les journaux papier L’An 02, CQFD, L’Âge de faire, Moins ! et d’autres encore) ou reformulés dans le cadre des livres Égologie (Le Monde à l’envers, 2007) et La Conjuration des ego (Syllepse, 2019). Je prépare aussi la réédition de ma brochure sur le revenu garanti (aux éditions du Monde à l’envers cet hiver). C’est un blog qui m’a aidée à écrire dans des formats courts puis un peu plus longs (mais toujours pas très longs !) et à faire œuvre malgré le chômage de longue durée et le manque de sollicitations. Je me fais chier à payer le nom de domaine chaque année, ce qui permet de bénéficier d’un hébergement offert par Gandi.net et de ne pas livrer votre cerveau à la publicité.
(1) À vrai dire j’ai cédé dans la perspective d’un travail de terrain à l’étranger, où les seuls accès à Internet se faisaient par mobile et où mes informateurs utilisaient WhatsApp plus volontiers que des sms hors de prix. Et j’y ai gagné un dictaphone de bien meilleure qualité. Mais au quotidien, en France, je me laisse convaincre par le smartphone alors que j’ai encore le choix tous les matins de mettre plutôt mon vieux Nokia dans ma poche.
(2) Ces réseaux sociaux hébergent vos propos, vous permettent de mettre en ligne vos textes, images, fichiers vidéo et audio. Vous restez responsable de vos publications. Tout va bien. Sauf que les dernières innovations en matière de libertés civiles (qui s’accompagnent de la remise en cause d’un droit de la presse qui fonctionne très bien depuis 1881) font de ces réseaux vos éditeurs, lesquels partagent avec vous la responsabilité pénale de vos publications. Devinez la peine que vont prendre ces gros acteurs capitalistes à faire vérifier par des petites mains rémunérées que vos propos sont en effet contraires à la loi, diffamatoires, insultants ou appelant à la haine ? C’est moins cher de le mettre à la poubelle dès qu’une personne qui ne vous aime pas les signale, d’autant plus que vous ne représentez rien (à moins que vous ne soyez Donald Trump, dans ce cas l’appel à la haine est acceptable). Les organisations qui pourraient se saisir de ce cas de censure pour le rendre public sont elles aussi sur ces réseaux (qui contrôlent leur audience) ou ailleurs et plus personne ne les entend crier parce que tout le monde est sur Facebook. Monde de rêve, hein ?
(3) Moi aussi, je reste, tentant de limiter ma participation et préférant socialiser dans des lieux plus proches de mes valeurs, Seenthis.net ou Mastodon.
Aux débuts d’Internet, un idéal d’horizontalité, de gratuité, de liberté. Trente ans après, le web s’est centralisé, marchandisé, et a été colonisé par les géants du numérique. Ces derniers ont-ils trahi l’utopie des pionniers d’Internet ?
Internet a été parfois décrit comme un espace de liberté inédit permettant aux utilisateurs de contourner la censure et d’enjamber les frontières, de créer et d’échanger à l’infini, de se réinventer artiste, journaliste ou militant. Aujourd’hui, ce discours semble désuet : on met plutôt l’accent sur l’hypercentralisation du web, sa neutralité est remise en cause, la censure et la surveillance généralisée des réseaux se développent. Alors, ne reste-t-il vraiment plus rien de l’utopie numérique ?
Si les réseaux de communication informatique naissent bien au cœur de l’écosystème « militaro-industrialo-universitaire » issu de la Guerre froide, on aurait tort d’associer le projet Internet aux seuls intérêts stratégiques du gouvernement américain. Dans les années 1970, les laboratoires de recherche informatique sont marqués par l’expérience de la contre-culture : on y défend une approche créative et collaborative du travail, contre la lourdeur, le cloisonnement et les hiérarchies bureaucratiques. Les chercheurs en informatique élaborent des procédures de discussion plus informelles, plus horizontales, et défendent une nouvelle manière de faire de la recherche. Internet, et surtout le web, qui s’est développé dans les années 1990, sont vus comme l’accomplissement d’un vieux rêve scientifique : le partage de la connaissance au sein d’une bibliothèque sans frontières, à laquelle chacun peut accéder et contribuer. En 1995, Tim Berners-Lee, principal auteur des protocoles du web au sein de l’Organisation européenne pour la recherche nucléaire (Cern), déclare ainsi : « J’ai fait (et je continue à faire) le rêve que le web devienne moins une nouvelle chaîne de télévision qu’un vaste océan interactif de savoirs partagés. Je nous imagine ainsi immergés dans un environnement chaleureux, amical, composé de toutes les choses que nous et nos amis aurions vues, entendues, crues et comprises. » Cet imaginaire nourrit l’expérience des premiers concepteurs et utilisateurs du web, qui forment, jusqu’au milieu des années 1990, une « république des informaticiens », sorte de communauté scientifique idéale qui voit dans le réseau l’aboutissement d’un projet humaniste.
Le web est vu comme l’accomplissement d’un vieux rêve scientifique : le partage de la connaissance au sein d’une bibliothèque sans frontières.
Les chercheurs en informatique n’ont pas été les seuls à construire l’« utopie numérique ». Dans les années 1990, la diffusion de l’ordinateur personnel permet aussi l’émergence des premiers services de communication électronique. Des groupes de passionnés y échangent sur les transformations technologiques en cours, formant ainsi les premières « communautés virtuelles ». On y retrouve aussi bien d’anciens hippies que des entrepreneurs de la nouvelle économie, des consultants en technologie et de jeunes hackers. Ils partagent des pratiques et des principes éthiques fondés sur le rejet de l’autorité, la liberté de ton ou la « netiquette », code de conduite informel que chacun se doit de respecter lors des discussions en ligne.
Ce projet utopique est néanmoins aussi hybride et protéiforme que les communautés qui le composent, croisant l’humanisme scientifique, l’héritage contre-culturel des années 1960 ou la pensée libertarienne autour d’un enthousiasme partagé pour les nouvelles technologies. Il trouve sa traduction la plus concrète dans la « déclaration d’indépendance du cyberespace », rédigée en 1996 par John Perry Barlow, fondateur de l’une des premières associations de militants numériques, l’Electronic Frontier Foundation : « Le cyberespace est constitué par des échanges, des relations, et par la pensée elle-même […]. Notre monde est à la fois partout et nulle part, mais il n’est pas là où vivent les corps. Nous créons un monde où tous peuvent entrer, sans privilège ni préjugé dicté par la race, le pouvoir économique, la puissance militaire ou le lieu de naissance. Nous créons un monde où chacun, où qu’il se trouve, peut exprimer ses idées, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou à une norme. »
« Le cyberespace est constitué par des échanges, des relations, et par la pensée elle-même […]. Notre monde est à la fois partout et nulle part, mais il n’est pas là où vivent les corps. » (J. Perry Barlow)
Ce texte est tout autant une célébration de l’utopie numérique qu’un manifeste défensif, visant à la protéger contre l’ingérence des puissances politiques et économiques. La déclaration d’indépendance du cyberespace est en effet écrite au moment même où l’ouverture d’Internet fragilise l’autonomie des pionniers. L’utopie de « l’Internet libre » se lit ici comme une défense des libertés sur Internet : liberté d’expression, libre circulation de l’information, mais aussi droit à l’anonymat et neutralité du réseau, autant de causes que vont porter les militants numériques de l’Electronic Frontier Foundation, et bien d’autres après eux, contre la transformation du réseau.
Gafam, les géants du numérique
Derrière cet acronyme, on désigne cinq firmes multinationales américaines : Google, Apple, Facebook, Amazon et Microsoft, qui dominent les marchés de l’économie numérique. Les Gafam ont acquis une position hégémonique dans la plupart des pays du monde, à l’exception notable de la Chine. Leur lobbying, souvent convergent, en fait des acteurs particulièrement puissants dans les négociations internationales sur la gouvernance des réseaux. Pour les États, elles sont devenues à la fois un objet de réforme fiscale, un enjeu de régulation (pour mieux protéger les données des citoyens), mais aussi des partenaires indispensables dans de nombreux domaines d’intervention publique (lutte contre le piratage, le cyberterrorisme ou les fausses informations).
Pour autant, il ne faudrait pas totalement confondre ces entreprises, car elles renvoient à des modèles d’affaires parfois très différents. Pour Google, par exemple, les services gratuits (Gmail, YouTube, le moteur de recherche et navigateur Chrome) sont financés par l’exploitation de nos données personnelles qui permettent à l’entreprise de capter à elle seule un tiers du marché de la publicité en ligne. À l’inverse, l’entreprise Apple s’est développée ces dernières années autour d’un modèle intégré très fermé, proposant des appareils coûteux qui se veulent particulièrement protecteurs de la vie privée. – AB
Une série de renoncements ?
Si les années 1990 constituent bien une sorte d’âge d’or de l’utopie numérique, l’expansion d’Internet va progressivement remettre en cause cette vision enchantée du cyberespace. Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées. Jusqu’alors soutenu par la puissance publique, il était considéré comme un outil de coordination scientifique dont les usages se devaient d’être strictement non lucratifs. Mais le développement de services commerciaux d’accès favorise la découverte du web par un plus large public. Et si la plupart des contenus en ligne restent gratuits, Internet se cherche un modèle économique, suscitant l’enthousiasme, parfois excessif, des marchés. On assiste à l’émergence de nouveaux acteurs économiques : d’abord, ceux de la vente en ligne puis ceux de la vente d’espaces publicitaires ciblés et de l’exploitation des données recueillies sur les internautes. Apparaissent alors les futures grandes entreprises numériques : Amazon en 1994, eBay en 1995, Netflix en 1997, Google en 1998. La décennie suivante voit la naissance des réseaux sociaux autour de ce qu’on a appelé le « web 2.0 »1, fondé sur la participation et l’interaction des internautes : Facebook en 2004, YouTube en 2005, Twitter en 2006, etc. La montée en puissance de ces grandes plateformes modifie considérablement le visage d’Internet. Jonathan Zittrain2 parle par exemple de « centralisation » d’Internet, dès lors que l’essentiel du trafic transite désormais par quelques sites, appareils ou applications. Cette évolution, attribuée pour l’essentiel à l’hégémonie des géants du numérique, les « Gafam » (voir encadré), est vue par les militants comme une première trahison de l’esprit horizontal et décentré qui caractérisait les échanges au début du réseau.
Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées.
La deuxième trahison tient à l’accroissement du contrôle des communications dans un espace numérique jusqu’ici marqué par le principe d’auto-régulation et de responsabilisation de chaque participant. Dans les années 1990, les premières « affaires du net » révèlent la face sombre du web : incitations à la haine, pédopornographie, piratage informatique, propagande, etc. Ces menaces favorisent un retour progressif des États, jusqu’alors remarquablement absents, pour réguler les échanges et protéger les droits sur Internet. Depuis les années 2000, les initiatives législatives se multiplient pour lutter contre le piratage, la prolifération de contenus haineux ou, plus récemment, la manipulation de l’information. Ces lois ont été combattues par les militants numériques, avec plus ou moins de succès3, au nom de la défense des libertés. Ils craignent le verrouillage technique d’un réseau qui a pourtant pu servir d’espace de résistance en contexte autoritaire : on assisterait à un retour de la censure et de la surveillance autour d’une alliance entre États et grandes entreprises numériques. Depuis les révélations en 2013 d’Edward Snowden sur l’existence de programmes de surveillance généralisée mis en place par les États-Unis4, ce combat ne concerne plus seulement une poignée d’États policiers (comme la Chine, la Russie ou l’Iran) mais doit, selon les militants du numérique, être étendu à l’ensemble des sociétés occidentales.
Utopie numérique : trahisons ou traductions ?
Retour du contrôle des communications, règne de la marchandisation et centralisation du web autour des grandes plateformes : ces transformations d’Internet sont dénoncées comme autant de coups portés au projet initial de « l’Internet libre », principalement de la part des Gafam. Pour autant, on aurait tort d’opposer schématiquement les défenseurs aux fossoyeurs de l’utopie numérique. Google s’est parfois trouvé aux côtés des militants du net pour défendre la libre circulation de l’information, la neutralité du net ou l’assouplissement de la propriété intellectuelle. Le projet « Google books » de numérisation de livres, par exemple, n’est pas sans rappeler celui de bibliothèque universelle formulé par les premiers concepteurs du réseau. On songe également aux prises de position très strictes d’Apple au sujet de la protection de la vie privée5. Ces affinités s’expliquent aussi par les racines culturelles de l’utopie numérique. Les fondateurs d’entreprises numériques, les développeurs qui y travaillent, sont bien souvent des utilisateurs pionniers et passionnés d’Internet. Pour certains, l’esprit de la Silicon Valley, loin de marquer une trahison de l’utopie numérique, en constitue l’expression la plus aboutie en tant que synthèse entre l’esprit de la contre-culture et l’enthousiasme technologique d’entrepreneurs innovants. Ce caractère hybride de la culture numérique autorise finalement des interprétations et des appropriations parfois contradictoires d’un discours qui n’a jamais été univoque. Mais l’éthique des pionniers reste une référence pour les militants comme pour les entreprises. En 2005, Google opère un tour de force symbolique et stratégique en recrutant le chercheur Vinton Cerf, co-inventeur du protocole TCP/IP considéré comme le « père d’Internet » : il est nommé « chief Internet evangelist6 », un titre qui manifeste la volonté de l’entreprise de se placer sous le patronage d’un « esprit originel » d’Internet.
Pour certains, l’esprit de la Silicon Valley constitue l’expression la plus aboutie de l’utopie numérique.
Par définition, une « utopie » désigne un « non-lieu », un territoire hors du monde. Mais Internet n’est que trop ancré dans la réalité sociale : il n’échappe pas à ses règles, ses rapports de force inégaux, ses contradictions. Pour autant, « l’utopie numérique » n’est pas vraiment morte : elle a plutôt été traduite autour de causes et de projets sociaux nombreux qui, de la lutte contre la censure à la défense de la neutralité du net, continuent de nourrir le militantisme numérique. À cet égard, les fronts sur lesquels défendre les principes de l’Internet libre, loin de se réduire, n’ont cessé de se multiplier.
La notion de gratuité s’articule autour de deux dimensions. La première correspond à l’idée de non-contrepartie financière. « Gratis » signifie obtenir quelque chose pour rien, sans payer. En ce sens, l’économie de la gratuité semble en essor. Le marketing utilise depuis bien longtemps la technique de la gratuité. Pour exemple, Gillette, en offrant ses rasoirs et en faisant payer ses lames, a été l’une des marques pionnières dans ce domaine.
Le modèle freemium, qui consiste à proposer une version gratuite grand public couplée avec une version payante, est aujourd’hui largement exploité par les marques dans de nombreux secteurs. Avec Internet, l’économie de la gratuité semble à son apogée. Musiques offertes en ligne, logiciels open source, cours en ligne gratuits sous forme de MOOC, autant d’exemples qui illustrent l’essor du phénomène de gratuité. Et Chris Anderson d’intituler son célèbre ouvrage : « Free ! Entrez dans l’économie du gratuit ».
Si les modèles économiques fondés sur l’absence de contrepartie pécuniaire semblent effectivement se développer, les services proposés n’en demeurent pas pour autant totalement gratuits, en ce sens que la réciprocité est toujours attendue. Gillette offrait ses rasoirs pour pouvoir mieux vendre ses lames. Les modèles freemium consistent in fine à miser sur le fait que certains des consommateurs vont passer à la version payante. Le développement de nombreux modèles gratuits, tels que celui de Waze par exemple, s’appuie sur une contrepartie financière pour l’entreprise, contrepartie assurée par la publicité.
Ceci nous amène à considérer la deuxième dimension de la gratuité, celle qui correspond à l’idée de faire quelque chose « pour rien », sans utilité évidente, sans attente de contrepartie, sans équivalence. D’aucuns diront que cette gratuité-là n’existe pas, comme le suggère l’adage américain bien connu, « There is no such thing as a free lunch » (« les déjeuners gratuits n’existent pas »). Dans quelle mesure peut-on alors parler d’économie de la gratuité ? Et comment l’appréhender ?
Une gratuité « impossible a priori »
En changeant de paradigme. Certains chercheurs parlent de « paradigme sociaux dominants » pour caractériser cet ensemble de valeurs et de comportements, formels et informels, qui caractérisent une société. Ils ont notamment montré que l’un des paradigmes sociaux dominants régissant les sociétés occidentales relevait du paradigme économique, et s’articulait autour de trois croyances :
l’intérêt : le comportement individuel devrait être déterminé par l’intérêt économique de chacun ;
le progrès : l’économie est la meilleure mesure du progrès ;
la croissance : si la croissance économique persiste, tout le monde en profite.
Changer de paradigme, c’est donc changer de perspective. « Le cadre de pensée marchand rend la gratuité impossible a priori », soulignait en 1992 Jacques T. Godbout, professeur à l’Université du Québec dans son livre « L’esprit du don ». Les sciences de gestion sont habituées à puiser dans différents champs disciplinaires pour nourrir leur réflexion. La théologie en fait partie, et de plus en plus de chercheurs mobilisent le cadre d’analyse de la religion pour éclairer les modèles économiques ou la psychologie du consommateur.
La doctrine sociale de l’Église peut ici s’avérer un cadre d’analyse fécond. Pierre-Yves Gomez, professeur à l’EM Lyon Business School, suggérait aux gestionnaires en 2009, dans un éditorial de la revue Sciences de gestion, de lire l’encyclique Caritas in veritate, qui aborde le thème de la gratuité dans l’économie.
Le pape Benoît XVI estimait que la gratuité était nécessaire au bon fonctionnement de l’économie.
Dans cette encyclique, le pape Benoît XVI développe l’idée selon laquelle la gratuité est nécessaire au bon fonctionnement de l’économie :
« Le grand défi qui se présente à nous est celui de montrer, au niveau de la pensée comme des comportements, que non seulement les principes traditionnels de l’éthique sociale, tels que la transparence, l’honnêteté et la responsabilité ne peuvent être négligées ou sous-évaluées, mais aussi que, dans les relations marchandes, le principe de gratuité et la logique du don, comme expression de la fraternité, peuvent et doivent trouver leur place à l’intérieur de l’activité économique normale. »
L’agir gratuit prend alors la forme d’un interstice entre « le donner pour avoir », spécifique à la logique de l’échange marchand et caractéristique des modèles de gratuité évoqués au début de cet article, et le « donner par devoir », propre à l’action publique et réglée par les lois de l’État. Le don gratuit, c’est « le transfert, librement déterminé, d’une ressource tangible ou intangible à une autre personne, sans demande ou attente d’un quelconque retour ou compensation », pour reprendre la définition des chercheurs Bénédicte de Peyrelongue, Olivier Masclef et Valérie Guillard. L’économie de la gratuité revient alors à considérer que les acteurs de l’entreprise, les consommateurs, ne donnent pas uniquement que pour recevoir.
La réciprocité n’est pas exclue, mais elle est ex-post, elle arrive de surcroît. Et ce retour éventuel n’est pas forcément quantifiable, ni estimable. Former un nouvel arrivant dans l’entreprise pour le simple plaisir de transmettre, mettre à disposition son canapé gratuitement pour le simple plaisir de la rencontre, partager sa passion du jardinage sur YouTube pour le simple plaisir du partage, proposer un logiciel en version libre pour faire avancer la recherche, autant de comportements qui témoignent d’une forme d’économie de la gratuité.
Parfois, ces comportements sont motivés par la volonté de dénoncer le mythe de la croissance et de la surconsommation. Simplicité volontaire, frugalité, sobriété heureuse… Autant de vocables qui sous-tendent l’idée de réinjecter de la gratuité dans l’économie, en considérant que de nombreuses ressources nous sont offertes gratuitement, par la nature mais aussi par nos relations. Changer de paradigme, c’est donc regarder l’économie de la gratuité depuis la « citée inspirée » décrite par les sociologues Luc Boltanski et Laurent Thévenot, plutôt que depuis la « cité marchande ».
« There is no such thing as a free lunch. » Dans la sphère du marché, incontestablement. Il n’en demeure pas moins que l’économie a besoin de personnes ouvertes à la gratuité. La valeur créée est alors non pas une valeur d’usage ou d’échange, mais une valeur de liens.
Un peu plus de 10 ans après le premier opus (qui reste d'actualité et que je vous invite à relire), un article sur The Conversation relance le sujet avec de nouveaux arguments que nous reprenons ci-dessous
L'auteur y rappelle que la notion de gratuité s’articule autour de deux dimensions :
La première correspond à l’idée de non-contrepartie financière.
La seconde correspond à l’idée de faire quelque chose « pour rien », sans utilité évidente, sans attente de contrepartie, sans équivalence.
La première permet de développer des modèles économiques et cela existe depuis un bon moment, par exemple Gillette offrait ses rasoirs pour pouvoir mieux vendre ses lames. On trouve aussi un autre modèle comme le freemium (le plus connu du monde généalogique est sans doute celui de Geneanet) qui consistent in fine à miser sur le fait que certains des consommateurs vont passer à la version payante, ou encore le modèle de gratuité du service contre l'exploitation de la donnée comme chez Google qui n'est plus à une intrusion près dans votre vie privée et vient d'admettre écouter les enregistrements issus de son assistant vocal. Cela amène des adages comme "si c'est gratuit c'est vous le produit" et ces modèles économiques bien que fondés sur l’absence de contrepartie pécuniaire n’en demeurent pas pour autant totalement gratuits, en ce sens que la réciprocité est toujours attendue.
Pour la seconde , on ne peut l'appréhender qu'en changeant de paradigme et en abandonnant l'un de nos paradigmes sociaux dominants. Rappelons qu'il s'agit là de valeurs et de comportements, formels et informels, qui caractérisent une société. Le paradigme économique, s'articule autour de trois croyances :
l’intérêt : le comportement individuel devrait être déterminé par l’intérêt économique de chacun ;
le progrès : l’économie est la meilleure mesure du progrès ;
la croissance : si la croissance économique persiste, tout le monde en profite.
Abandonner ce paradigme revient à ne plus se trouver ni dans « le donner pour avoir » de l'échange marchand ni dans le « donner par devoir », propre à l’action publique. Le don gratuit, c’est « le transfert, librement déterminé, d’une ressource tangible ou intangible à une autre personne, sans demande ou attente d’un quelconque retour ou compensation », pour reprendre la définition des chercheurs Bénédicte de Peyrelongue, Olivier Masclef et Valérie Guillard. La réciprocité n'est pas exclue mais elle arrive comme un bonus.
Chez FranceGenWeb nous nous retrouvons pleinement dans cette deuxième dimension et si nous vous invitons à participer, c'est parce que nous croyons en notre œuvre collective et dans la libre diffusion du savoir.
Récemment je lisais sous une plume généalogique, courageusement signée "un administrateur", le poncif souvent employé par certains tenants de la vente des relevés généalogique : ce qui est gratuit n'a pas de valeur
Évidemment mon sang n'a fait qu'un tour. Car enfin au delà du jeu de mots sur "valeur" (la gratuité correspond effectivement à ne pas donner une valeur marchande à quelque chose) il y a aussi un jugement de valeur sur une chose ou un acte gratuit. Et c'est bien là que ça m'interpelle. Car enfin, un conseil proposé gratuitement chez FranceGenWeb se veut tout aussi sérieux qu'un conseil proposé sur un forum accessible uniquement sur abonnement.
En me balladant sur le net et en sortant du cadre généalogique j'ai trouvé ces quelques informations sur ce poncif. Tout d'abord même si certains l'attribuent à Freud, il s'agit plus probablement d'une adaptation de la phrase de Milton Friedman There is no free lunch ou There's no such thing as a free lunch (il n'existe pas de repas gratuit).
Certes les coûts lorsqu'ils existent sont bien supportés par quelqu'un. Et si ce site tourne c'est bien que des membres acceptent de le financer, que des bénévoles prennent sur leur temps et se déplacent, qui pour chercher des actes aux archives, qui pour photographier un Monument aux morts, qui pour construire les pages web relatives à tel service, qui pour gérer une petite base de données, etc. Nous cherchons toujours des bénévoles.
Autre argument souvent avancé, seul le prix donne de la valeur et crée la responsabilité. Quid alors de la valeur de l’amour, de l’amitié, de la fraternité ou, plus prosaïquement pour nous, du bénévolat ? C'est bien en cherchant à tout monétiser, que l'on oublie que certaines choses n'ont pas de prix. Comment monétiser les 10 années de recherche sur tel mariage, alors que pour cette branche là, j'ai épuisé les registres paroissiaux en deux jours ? Comment monétiser le coup de main que m'a donné tel autre généalogiste en me communiquant une part de ses recherches ?
Enfin on lit également que Le fait de payer rassure les gens. Même en payant, on est pas à l'abri d'une erreur (de lecture, de recopie ou d'homonymie par ex...) et pire on est pas à l'abri d'un charlatan qui "fabriquerait" de fausses preuves (l'histoire relatée par Stéphane Cosson à ce sujet est d'ailleurs édifiante). là non plus il ne faut pas jeter le bon grain avec l'ivraie, et de même dans la généalogie gratuite, tout est également possible.
En conclusion, s'il y a bien un poncif qui a la vie dure, c'est bien celui-ci et nous l'entendrons encore de nombreuses fois... Mais si quelques uns de ceux qui ont cette opinion pouvaient réviser leur position, ça aiderait à faire progresser la généalogie associative. Ces jugements à l'emporte pièce sont particulièrement pénibles à lire d'autant plus que l'attaque se fait toujours dans le même sens, nous respectons le choix de chacun de faire de la généalogie comme il l'entend en terme de monétisation mais nous entendons bien faire savoir que nous en faisons de manière gratuite et du mieux que nous sachions faire ! Merci à tous nos bénévoles & membres pour leur soutien et leur action depuis 10 ans qu'existe FranceGenWeb.
Just over one year ago, French President Emmanuel Macron came to the United States to import two potentially invasive species to Washington. One was a tree and the other was a crackdown on free speech. Ironically, soon after the tree was planted, officials dug it up to send it to quarantine. However, the more dangerous species was his acorn of speech controls, a proposal that resulted in rapturous applause from our clueless politicians.
While our politicians in the United States may applaud Macron like village idiots, most Americans are hardcore believers in free speech. It runs in our blood. Undeterred, however, Macron and others in Europe are moving to unilaterally impose speech controls on the internet with new legislation in France and Germany. If you believe this is a European issue, think again.
Macron and his government are attempting to unilaterally scrub out the internet of hateful thoughts. The French Parliament has moved toward a new law that would give internet companies like Facebook and Google just 24 hours to remove hateful speech from their sites or face fines of $1.4 million per violation. A final vote is expected next week. Germany passed a similar measure last year and imposed fines of $56 million.
The French and Germans have given up in trying to convince the United States to surrender its free speech protections. They realized that they do not have to because by imposing crippling penalties, major companies will be forced into censoring speech under poorly defined standards. The result could be the curtailment of the greatest invention fostering free speech in the history of the world. It is all happening without a whimper of opposition from Congress or from most civil liberties organizations.
The move by the Europeans hits in the blind spot of the United States Constitution. The First Amendment does an excellent job of preventing government action against free speech, and most of the laws curtailing free speech in Europe would be unconstitutional in the United States. However, although protected against Big Brother, we are left completely vulnerable to Little Brother, made up of the private companies that have wide discretion on curtailing and controlling speech around the world.
Europeans know these companies are quite unlikely to surgically remove content for individual countries. The effect will be similar to the “California Exception.” All states are subject to uniform vehicle emissions standards under the Clean Air Act, but California was given an exception to establish more stringent standards. Rather than create special cars for California, the more stringent standards tend to drive car designs. When it comes to speech controls, Europeans know they can limit speech not only in their countries but practically limit speech in the United States and elsewhere.
Indeed, Europeans are building on past success. Back in 2013, a group of Jewish students used French laws to sue Twitter to force it to hand over the identities of anonymous posters of comments deemed anti-Semitic. To its credit, Twitter fought to protect anonymity but the European courts ruled against the company and, ultimately, it caved. Anonymity is being rolled back as rapidly as free speech is being crushed in these countries.
Macron knows the European speech controls are likely to metastasize throughout the internet. They have already laid waste to free speech in Europe. These laws criminalize speech under vague standards referring to “inciting” or “intimidating” others based on race or religion. For example, fashion designer John Galliano has been found guilty in a French court on charges of making anti-Semitic comments against at least three people in a Paris bar. At his sentencing, Judge Anne Marie Sauteraud read out a list of the bad words used by Galliano to Geraldine Bloch and Philippe Virgitti. “He said ‘dirty whore’ at least a thousand times,” she explained out loud.
In another case, the father of French conservative presidential candidate Marine Le Pen was fined because he had called people from the Roma minority “smelly.” A French mother was prosecuted because her son went to school with a shirt reading “I am a bomb.” A German man was arrested for having a ringtone with the voice of Adolf Hitler. A German conservative politician was placed under criminal investigation for a tweet in which she accused police of appeasing “barbaric gang raping Muslim hordes of men.” Even German Justice Minister Heiko Maas was censored under his own laws for calling an author an “idiot” on Twitter.
The result of such poorly defined laws is predictable. A recent poll found only 18 percent of Germans feel they can speak freely in public. More than 31 percent did not even feel free to express themselves in private among their friends. Just 17 percent of Germans felt free to express themselves on the internet, and 35 percent said free speech is confined to small private circles. That is called a chilling effect, and it should be feared.
There are also renewed calls in the United Nations to make hate speech a type of international crime. Muslim nations want blasphemy included, and Israel wants anti-Semitism to be criminalized. Even in our own country, politicians like Howard Dean and various academics have declared that hate speech is not protected by the First Amendment. Representative Frederica Wilson has called for people to be “prosecuted” for making fun of members of Congress. A recent poll found half of college students in the United States do not believe that hate speech should be protected.
The sad irony of France leading efforts to curb free speech is powerful. Once the bastion of liberty, France has now become one of the greatest international threats to free speech. It even led a crackdown on the free press with criminal investigations. For years, we have simply watched from our side of the Atlantic and dismissed these trends as a European issue. With these new laws, however, it is a global issue. The invasive species of this acron is about to be unleashed on the worldwide web.
Jonathan Turley is the Shapiro Professor of Public Interest Law at George Washington University. You can follow him on Twitter @JonathanTurley.
À Londres, en Angleterre, un homme a été arrêté après avoir tenté d'échapper aux caméras de reconnaissance faciale. La police avait pourtant indiqué dans un communiqué que "quiconque refusera d'être scanné ne sera pas nécessairement considéré comme suspect".
L'homme en question se serait couvert le visage lorsqu'il passait devant les caméras déployées par la ville, rapporte le journal britannique The Independant. Alerté par un homme qui avait vu des pancartes avertissant le public que des caméras les filmaient, il aurait alors relevé le haut de son pull afin de camoufler son identité. Arrêté par la police, il a été condamné à payer une amende de 90 livres, soit un peu plus de 100 euros.
Selon un porte-parole de la police, "des policiers ont arrêté un homme soupçonné d’agir dans le centre-ville de Romford lors du déploiement de la technologie de reconnaissance faciale. Après avoir été arrêté, l’homme est devenu agressif et a menacé les agents. En conséquence, un avis de pénalité pour désordre public lui a été délivré".
Considérant que la reconnaissance faciale était une atteinte à la liberté individuelle et la vie privée des gens, certaines villes ont décidé de la bannir. C'est le cas de San Francisco, première ville d'Amérique du Nord, à interdire à la police et autres agences gouvernementales de se servir de ce système. Le Conseil municipal entend ainsi garantir les droits civils des habitants.
L’intérêt du logiciel libre1 c’est de pouvoir se réapproprier les outils et les connaissances et c’est important de ne pas dissocier les deux parce les outils sont aussi des connaissances et qu’aujourd’hui, dans un monde qui est de plus en plus numérique, où la télévision est numérique, le téléphone est numérique, la musique est numérique, les livres sont numériques, il est important de pouvoir comprendre comment fonctionne un peu tout ça. Donc ce n’est pas seulement comprendre comment fonctionne Internet, ce qui pourtant la base, c’est aussi comprendre comment fonctionnent les logiciels, par qui est-ce qu’ils sont faits, dans quel but, comment est-ce qu’ils contribuent à la société et comment est-ce que nous on peut contribuer, finalement, à ces logiciels de façon à ce qu’ils puissent améliorer la société.
Le modèle du logiciel libre ce n’est pas seulement un modèle technique de production du logiciel, c’est aussi tout un ensemble de valeurs éthiques et sociales qui sont portées par ce mouvement depuis plus de 30 ans maintenant et qui vise non seulement à rester maître de ses données, maître de ses logiciels, mais aussi de se dire que les outils ne sont pas neutres et que si on veut pouvoir en avoir la maîtrise, en tout cas en ce qui concerne les biens communs numériques, le logiciel libre est probablement la seule réponse concrète, efficace, utilisable tout de suite, qui nous permet de se poser la question de l’éthique et des valeurs sociales qui sont transmises au travers du logiciel aujourd’hui.
Je puis définir le logiciel libre en trois mots : liberté, égalité, fraternité.
Richard Stallman2 qui est le fondateur du mouvement du logiciel libre arrive souvent en conférence avec un accent anglais alors qu’il parle très bien français, mais il a un accent anglais assez prononcé, en disant : « Je puis définir le logiciel libre en trois mots : liberté, égalité, fraternité » ; d’habitude la salle se lève et l’applaudit. C’est assez juste, du coup, de pouvoir définir le logiciel libre comme ça, c’est-à-dire c’est à la fois les libertés qui sont accordées à l’utilisateur, parce que dans le logiciel libre ce n’est pas le logiciel qui est libre, c’est l’utilisateur ou l’utilisatrice ; l’égalité c’est parce qu’il n’y a pas de différence, il n’y a pas de discrimination sur qui va utiliser le logiciel en question ; et enfin la fraternité c’est quelque chose qui pour nous est important, c’est la capacité, finalement, à s’entraider pour coconstruire ensemble du bien commun numérique qu’est du logiciel libre, donc le fait de partager les bonnes recettes de cuisine du logiciel, mais aussi le fait de pouvoir aider quelqu’un qui est dans la mouise à un moment donné et qui n’arrive pas à s’en sortir, on peut poser la question. Donc un des avantages du logiciel libre ou un des slogans du logiciel libre ça peut être : « Si tu ne sais pas demande et si tu sais partage ! »
Si tu ne sais pas demande et si tu sais partage !
Il s’agit d’abord de faire connaître le logiciel libre, donc on a choisi de le faire connaître, nous, par la base, c’est-à-dire en intervenant dans des MJC [Maisons des jeunes et de la culture], dans des bibliothèques, dans des médiathèques et petit à petit que chaque personne puisse se dire : mais en fait moi aussi je peux contribuer au logiciel libre ; moi aussi je peux participer au bien commun ; moi aussi je peux m’investir dans une association ; moi aussi je vais pouvoir contribuer à Wikipédia. Et petit à petit ces personnes vont se rendre compte d’abord de la valorisation qu’il y a à travailler pour l’intérêt général, parce que c’est quelque chose de valorisant.
Ce qui nous3, nous intéresse c’est que ces logiciels puissent exister pour tout le monde, qu’ils puissent participer à développer un secteur de la société de contribution et notamment celui des biens communs pour qu’on ne reste pas cantonnés, finalement, à se dire : ah ben là c’est bon, il y a une alternative en Libre qui existe, on ne s’en occupe pas. Ce qu’on veut c’est construire et coproduire des logiciels libres au service de la société de contribution.
Si vous voulez développer des biens communs, il faut être prêt à y participer. C’est une société de l’effort, c’est évident, ce n’est pas ce qui nous est vendu évidemment en face ; on est plutôt dans une société du confort avec la société de surconsommation.
Si vous voulez développer des biens communs, il faut être prêt à y participer. C’est une société de l’effort, c’est évident, ce n’est pas ce qui nous est vendu évidemment en face ; on est plutôt dans une société du confort avec la société de surconsommation. La société de contribution est une société de l’effort qui va nécessiter de prendre du temps, de prendre sur soi, de mettre de l’énergie dans le maintien et le développement de ces biens communs.
Il est difficile aujourd’hui, quand on regarde cette société de la surconsommation, de se dire qu’elle a un avenir d’égalité et de fraternité pour beaucoup de gens. Concrètement dans cinq ans, dans dix ans, si jamais on ne développe pas le logiciel libre, on aura quoi ? On aura un « Googleternet » sur lequel vous pourrez consommer des vidéos, sur lequel vous pourrez publier des contenus, mais tous ces contenus seront validés, monétisés et on va vous encourager à produire des contenus qui n’existent pas ou qui ne sortent pas trop du cadre. Donc finalement, on va se retrouver enfermés dans une espèce de bulle intellectuelle qui aura été conçue par les algorithmes de Google ou de Facebook qui vous diront : « Dormez tranquilles braves gens, demain vous irez regarder votre vidéo de chatons plutôt que de vous intéresser à ce qui se passe sur la loi travail. »
Moi évidemment, ce dont j’ai envie c’est qu’on puisse construire un monde avec plus de solidarité, où les données puissent être contrôlées par les utilisateurs, mais c’est aussi un monde où les médicaments ne seraient pas brevetés par exemple. Ça c’est la vision que j’ai du monde, mais je ne prétends pas que c’est la bonne. Par contre, pour arriver à ça, il faut pouvoir coconstruire des outils sous forme de logiciels libres ; il faut pouvoir lutter ou en tout cas expliquer les dérives de la propriété intellectuelle : un médicament qui est breveté sur un certain nombre d’années, potentiellement évidemment il a un coût, ce qui est parfaitement compréhensible, en recherche et développement, il faut bien que l’entreprise puisse rentrer dans ses frais, mais d’un autre côté, s’il est protégé pendant 20 ans, qui va faire le calcul du nombre de personnes qui sont en souffrance parce qu’elles n’ont pas accès à ce médicament-là ?
Il faut surtout planter des graines dans les esprits pour que les gens puissent se rendre compte de ce que c’est que le bien commun, de ce que c’est que la contribution, des efforts que ça va leur demander, mais de pourquoi est-ce qu’ils vont le faire. Qu’est-ce que nous, on a envie de construire comme société ? Comment est-ce qu’on a envie de la construire ? Quels sont nos objectifs ? Et avec qui est-ce qu’on veut la construire ? Parce que, encore une fois, il ne s’agit pas de dire que c’est nous contre eux, il s’agit de dire : qu’est-ce que nous on veut inventer ?
Nous on ne parle pas de convergence des luttes, on parle de convergence des buts.
Finalement c’est assez important pour nous, aujourd’hui, de réfléchir avec les personnes qui sont intéressées par cette société de contribution. Qui veut, avec le logiciel libre, avec le développement durable, avec les innovations démocratiques, sociales et politiques qui peuvent exister, avec les médecines dites alternatives, pouvoir inventer une autre société qui ne soit pas juste celle de la consommation.
Les logiciels libres et le mouvement open source luttent contre les boîtes noires, prônant le partage des savoirs et le « faire ensemble ». Mais l’ouverture des codes est-elle vraiment un gage d’ouverture aux autres ? Le monde du « libre » ne devrait-il pas engager une mutation pour rendre plus tangible sa dimension solidaire et toucher un public plus large ? Ce sont les questions que pose cet article de Solidarum, issu du numéro 3 de la revue Visions solidaires pour demain, en librairie depuis la mi-janvier.
Dans les années 1980, l’informatique devient grand public avec l’IBM PC, le Macintosh d’Apple et le système Windows de Microsoft. Cette généralisation s’accompagne à l’époque d’une dissimulation des codes sources des programmes, rendant les systèmes incompatibles les uns avec les autres.
Pour Richard Stallman, hacker de la première heure, ces programmes propriétaires privent en effet leurs utilisateurs de libertés essentielles : liberté d’utilisation, liberté de diffuser tout ou partie du programme et liberté d’accéder, de modifier, d’adapter, d’améliorer le code du logiciel. Pour lui, aujourd’hui comme hier, seule l’ouverture du code garantit que tout utilisateur puisse profiter en toute confiance d’un logiciel et, potentiellement, se le réapproprier. Ainsi a-t-il lancé dès 1983 le mouvement du logiciel libre avec la licence GNU, à partir de laquelle va se développer une multitude de programmes libres, dont l’emblématique Linux.
À la fin des années 1990, les développeurs se concentrent sur le volet technique du libre : l’ouverture du code. Ainsi naît l’open source, désormais pratiqué par des programmes majeurs tel le système d’exploitation mobile Android. Mais qu’en est-il aujourd’hui sur un terrain plus social ?
Catherine Guillard est administratrice système et cofondatrice de la Librerie solidaire, qui accompagne les acteurs de la solidarité sociale dans l’utilisation de solutions libres. « Je ne vois pas ce qui peut exister et qui ne soit pas remplaçable par une solution open source, en particulier dans les innovations sociales et tous les projets d’intérêt général, dit-elle. Hier, je suis tombée sur un logiciel qui gère la projection dans les cinémas... Le libre permet aussi de répondre à des besoins publics, à l’image d’OpenCimetière qui a été produit pour une commune et qui sert à présent à d’autres mairies. »
Un monde ouvert au partage et à la contribution
Cet élan d’ouverture s’est décliné dans la production de marchandises avec l’open hardware, dans les données avec l’open data (mise à disposition de données publiques) ou encore dans le partage des connaissances avec l’open innovation, l’open science, etc. Ce mouvement général repose sur la libre circulation des savoirs, l’accessibilité au « faire » et la coopération entre pairs. « Dans le pair-à-pair, il n’y a aucun lien de subordination, ce qui prime c’est l’élan contributif et chacun décide de ce qu’il est en capacité de faire, sans besoin de le justifier a priori. Il y a un principe de confiance qui est facilité par les dispositifs numériques qui rendent l’erreur acceptable puisqu’il est toujours possible de revenir en arrière », témoigne Maia Dereva de la P2P Fondation. Cette capacité du pair-à-pair à faire une place à chacun s’appuie sur une organisation qui n’est pas exempte de hiérarchies, mais qui repose sur la reconnaissance des compétences entre pairs. « Quand des salariés transforment leur entreprise en coopérative, cela ne les empêche pas de recruter un directeur, mais la direction est une compétence de coordination et non un organe de pouvoir. C’est la même chose dans le pair-à-pair », précise-t-elle.
Grâce à cette accessibilité, le monde de l’open fonctionne comme une deuxième école, une façon d’acquérir des savoirs sans passer par les institutions, de casser les barrières à l’entrée du monde de l’informatique ou de la production en général, à l’image des fablabs et des makerspaces. Ainsi, en Colombie, dans le fablab Utopiamaker « des jeunes handicapés apprennent à construire leurs propres prothèses avec des imprimantes 3D, à partir de modèles open source trouvés sur internet. Ils les adaptent à leurs besoins et envies : une prothèse pour jouer de la guitare ou pour faire du vélo, etc. », raconte Philippe Parmentier, à l’initiative de ce fablab.
L’open source est aussi une façon de rendre des solutions financièrement accessibles, les ressources étant majoritairement gratuites. En outre, au lieu de réinventer la roue, l’open source s’appuie sur ce qui existe a n de l’améliorer. Ainsi Nicolas Huchet, amputé d’une main, travaille avec l’aide de makers sur le projet Bionicohand, une prothèse avec capteurs sensoriels accessible à tous.
L’utilisation de l’open source leur permet de diviser le coût de production par cent et de s’appuyer sur des technologies inventées par d’autres. La main bionique, une fois finalisée, sera elle-même en open source. C’est le principe de l’économie du partage en opposition à l’économie de la rente, symbolisée par les brevets.
Un monde open pourtant très fermé dans la pratique
Ce monde du partage et de la libre contribution devrait convaincre toute personne œuvrant pour un monde plus solidaire, plus équitable ; toute personne se sentant exclue de la société, du marché.
Le libre reste circonscrit au monde de l’informatique et se compose majoritairement d’hommes
Mais, si l’open source a permis au libre de gagner en efficacité, sa focalisation sur la technique l’a sans doute éloigné de ceux à qui il s’adressait en premier lieu : tous les autres, qui ne développent pas. Le libre reste, en effet, très circonscrit au monde de l’informatique et se compose majoritairement d’hommes, même si d’une multitude de nationalités. « Il y a dix ans, on dénombrait à peine 2 % de développeuses dans l’open source, cela commence à bouger, mais le nombre de femmes reste marginal, bien plus que dans le monde du logiciel propriétaire, déplore Catherine Guillard. Nous n’arrivons pas à convaincre les acteurs de l’économie sociale et solidaire d’utiliser des logiciels libres alors qu’ils défendent les mêmes valeurs de partage et d’équité sociale que nous. On manque sans doute d’un langage commun pour se comprendre. »
Le projet de société véhiculé par le libre a néanmoins connu un regain d’attention auprès d’un public non initié à la suite des débats autour des données personnelles et des différents scandales qui ont révélé les dangers de la centralisation des données. Et il existe désormais des services alternatifs pour les personnes qui refusent la captation de leurs informations personnelles par quelques entreprises dont les GAFAM (Google, Apple, Facebook, Amazon, Microsoft).
« Le logiciel libre fait prendre conscience de l’impact de l’informatique sur nos vies »
« Les logiciels libres ne permettent pas forcément de protéger les données, mais on est sûr que l’exploitation des données ne constitue pas le modèle économique du service. Quand on entre dans l’état d ’esprit du logiciel libre, on prend conscience de l’impact de l’informatique dans sa propre vie, on est plus vigilant et on est assuré que quelqu’un quelque part vérifiera s’il y a des mouchards dans le code et alertera les autres. La faiblesse du libre, c’est que si j’envoie un mail à un ami qui est sur Gmail, malgré tous mes efforts, Google aura mes données. Le libre te pousse à considérer l’interconnexion aux autres et le risque qu’on fait prendre aux autres en laissant ses données sur internet sans s’assurer de ce qu’elles deviennent », explique Catherine Guillard. Cette attention réciproque, qui demande de protéger ses données pour ne pas exposer celles de ses proches, reste, cependant, trop marginale. Aujourd’hui, le libre reste insuffisamment utilisé par la population pour avoir un impact à la hauteur de ces enjeux.
Comment sortir le libre de sa « geekitude » ?
Il faudrait réussir à embarquer d’autres types de motivations et de compétences dans les communautés du libre, impliquer une population plus large dans sa production. L’une des clés serait sans doute de rendre l’engagement dans le libre aussi mobilisateur pour d’autres métiers que ceux du développement... Par exemple les graphistes, les juristes ou pourquoi pas le monde médical, qui tous doivent composer avec le numérique et les dérives de certains de ses acteurs. Enfin, il faudrait peut-être revenir aux origines sociales et politiques du libre.
En effet, à l’image du bio qui n’est pas qu’une méthode de culture, le libre n’est pas qu’une méthode de développement, mais propose un modèle de société plus respectueux des autres, plus solidaire, plus attentif aux impacts sociaux et environnementaux. Faire un pas vers le libre, c’est, au fond, soutenir le « faire ensemble ».
Cette application web de galerie photos, codée en PHP/MySQL, s’adresse aux particuliers, aux pros de la photographie et aux organisations. Je vais vous présenter ses différentes fonctionnalités de manière illustrée. Ainsi, vous pourrez vous faire une idée de son fonctionnement.
On retrouve la liste des différents albums, avec une première photo d’illustration – comme sur Google Photos. Si on adore le rangement, on peut même créer des sous-albums de sous-albums : la profondeur est illimitée. Par ailleurs, une même photo peut être associée à plusieurs albums.
Il est également possible de sélectionner plusieurs photos et d’appliquer des modifications de masse. Par exemple, changer le nom du photographe, ajouter des tags pour retrouver les photos plus facilement, ajouter celles-ci à un album, définir les coordonnées GPS de chaque photo…
On peut repérer nos photos d’une façon chronologique (c’est justement l’une des fonctionnalités que j’apprécie sur Google Photos). C’est parfois le plus simple lorsqu’on doit retrouver un visuel.
Il est possible de créer des groupes et des utilisateurs. On peut affecter à chacun un niveau de confidentialité, permettant de voir tel ou tel album uniquement. Les administrateurs et les webmasters sont les seuls à pouvoir gérer les photos et les groupes. Pour moi, la gestion des permissions de base dans Piwigo constitue le point faible du service. En effet, il n’y a pas de gestion poussée des rôles utilisateurs. Peut-être qu’une extension pourrait remédier à ce problème.
Une fonction que j’adore sur Piwigo – elle n’existe pas sur Google Photos : on peut afficher une carte du monde et visualiser tous les points de géolocalisation, qui représentent nos photos. C’est hyper sympa, on se rend compte du chemin parcouru et des régions visitées. Cette option n’est pas présente dans l’installation de base, il vous faudra un plugin.
On peut aussi visionner nos photos en plein écran sous forme de diaporama. C’est plutôt sympa.
Les visiteurs peuvent écrire des commentaires sous nos photos, les noter et recevoir une notification par mail lorsqu’on ajoute de nouvelles photos.
Pour vous faciliter la vie, Piwigo récupère toutes les méta-data de vos images : le temps d’ouverture de votre objectif au moment de la prise de la photo, la marque de l’appareil photo, etc.
Une API existe et vous permet de faire plein de choses. Par exemple, vous pouvez potentiellement synchroniser un dossier provenant d’ailleurs avec Piwigo, ou publier des photos depuis le célèbre logiciel Lightroom. Les possibilités sont infinies.
es développeurs adorent partager des projets comme celui-ci et y apporter leur contribution. Piwigo possède pas moins de 350 extensions… il y a de quoi faire ! Si vous souhaitez les découvrir, c’est par ici.
Si je vous ai déjà convaincu, tant mieux ! Mais si vous êtes encore hésitants, je peux vous dire que pas mal de monde l’utilisent déjà : entreprises et particuliers. Arles, la célèbre ville de la photo, utilise ce système qui existe depuis 2002. Pas mal d’années de développement, donc…
Si vous êtes intéressé, vous pouvez suivre ce petit tutoriel qui vous aidera à installer le système. Si vous avez la moindre question, les commentaires sont là pour ça !
L'April se joint à 43 associations pour signer une lettre ouverte rédigée à l'initiative de La Quadrature du Net, afin d'interpeller le président de la République et lui demander de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le jeudi 6 décembre 2018 pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook notamment et à remettre en cause la confidentialité de nos communications.
Un texte qui aura un écho particulier pour toute personne qui suit la liberticide directive droit d'auteur. L'objet du texte est différent, mais la solution affichée est très similaire : imposer aux acteurs de l'Internet, hébergeurs en tête, une surveillance des informations et contenus des personnes qui utilisent leurs services et les en rendre responsables.
Vous pourrez retrouver la liste des signataires sur le site de La Quadrature du Net, ainsi que leurs textes d'analyse sur ce dossier.
Opposition au projet de règlement européen de censure antiterroriste
Monsieur le Président,
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement >européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog >et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
44 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le 6 décembre pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook (relire notre analyse) et à remettre en cause la confidentialité de nos communications (relire notre analyse).
La lettre en PDF ou ci-dessous :
Monsieur le Président,
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Signataires :
Alsace Réseau Neutre
April
Aquilenet
Bee Home
Le CECIL
Devloprog
Digital Courage
FAImaison
FDN
FFDN
Framasoft
Franciliens
Globenet
Hadoly
Hoga
Human Rights Watch
Illyse
Iloth
IndieHosters
La mère Zaclys
Labomedia
Lautrenet
Marsnet
Mediapart
Nebulae
Observatoire des Libertés et du Numérique
Open Rights Group
Outils libres
Ouvaton
Panoptykon
Paquerettes
Parinux
Picasoft
ProtonMail
Rézine
Statewatch
Syndicat de la magistrature
Syndicat national des journalistes
Creis – Terminal
Toile-Libre
Vhost
Wikimedia France
Witness
Xnet
Chapril est la contribution de l'April au Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (CHATONS). Le projet vise à rassembler des acteurs proposant des services en ligne libres, éthiques, décentralisés et solidaires afin de permettre aux utilisateurs de trouver - rapidement - des alternatives aux produits de Google (entre autres) mais respectueux de leurs données et de leur vie privée.
Notre chaton(s) a fini sa gestation. Les conditions générales d'utilisation (CGU) ont été finalisées et des premiers services sont disponibles, notamment pour des tests en conditions réelles d'usage, sur le site Chapril :
pour planifier un rendez-vous ou prendre des décisions rapidement et simplement
pour échanger des messages, appelés « pouets » (ou toots dans d'autres langues dont l'anglais), via le réseau social décentralisé Mastodon
pour rédiger collaborativement du texte en ligne
pour partager des textes de manière confidentielle et sécurisée.
C'est en tout cas ce que dit la dernière version de l’avant-projet de loi d’orientation sur les mobilités (LOM).
TRANSPORTS - Cyclistes, motards et automobilistes bientôt logés à la même enseigne? Dans la dernière version de l'avant-projet de loi d'orientation sur les mobilités (LOM) que s'est procuré le site spécialisé dans l'activité parlementaire Contexte, un article portant sur les "mobilités actives" devraient particulièrement attirer l'attention de ceux qui se rendent au travail en vélo.
Car il reprend l'une des idées fortes du "plan vélo" que le gouvernement avait dévoilé à la mi-septembre: l'immatriculation des bicyclettes. L'idée, comme le précise BFMTV qui a repéré l'article, est de lutter contre le vol, et par conséquent, le recel de vélos. Selon ce texte, les montures devront donc faire l'objet d'un marquage spécial sur gravé le cadre "sous une forme lisible, indélébile, inamovible et infalsifiable" permettant sa "lecture par capteur optique".
Mais ce n'est pas tout. Une fois marqué, le vélo devra être enregistré au "fichier national des propriétaires de cycles", et le propriétaire obtiendra un "certificat de propriété", soit l'équivalent d'une carte grise pour un automobiliste. Le cycliste devra être capable de présenter ce certificat, dont l'authenticité sera vérifié en ligne. Par ailleurs, qui dit immatriculation, dit stationnement. Le texte envisage ainsi de développer les parkings sécurisés de vélos, via SNCF Mobilités et la RATP.
De quoi verbaliser les bicyclettes "mal garées" que l'on accroche aux lampadaires ou autres barrières? Le texte ne le dit pas. Dans l'hypothèse où cette loi serait promulguée fin 2019, ce dispositif devrait -en théorie- être appliqué à la fin de l'année 2020.
L’association française Framasoft se bat pour proposer un maximum de variations «libres» des principaux services commerciaux de Microsoft, Google et même Facebook. Son but: se libérer du joug de ces géants de la technologie
Le Parlement européen se prononcera mercredi sur la directive relative au «droit d’auteur dans le marché unique numérique». L’article 13, qui veut imposer l’utilisation d’algorithmes et automatiser la détection d’infractions au droit d’auteur, est une menace contre le partage et la créativité en ligne.
Le 12 septembre, nos députés européens auront à se prononcer sur la directive relative au «droit d’auteur dans le marché unique numérique», que les Etats membres ont déjà validé. Dès le préambule du texte, le cadre est fixé : il est question d’œuvres, d’auteurs, de patrimoine. Le texte veut clarifier le «modèle économique» qui définira dans quelles conditions les «consommateurs» (le mot apparaît quatre fois dans l’introduction) pourront faire usage de ces œuvres.
Le monde est ainsi découpé simplement : d’un côté, les artistes et les titulaires de droits d’auteurs, et parfois les structures et les institutions connexes (musées, universités, éditeurs) ; de l’autre, la grande masse des anonymes. La porosité entre les uns et les autres n’est pas de mise : le cas d’une personne écoutant des concerts sur Internet et publiant ses interprétations d’un prélude de Chopin n’est pas évoqué. Les médiateurs entre propriétaires (de droits, de licences) et locataires-utilisateurs sont les Etats, chargés de faire respecter la future loi, et les «prestataires de services en ligne» (les hébergeurs). Là encore, nulle place pour les auteurs-éditeurs de sites web altruistes, qui publient leurs analyses, leurs découvertes, leurs concerts de rock entre amis. On reste dans une logique traditionnelle où l’Etat et l’Union européenne régulent le fonctionnement d’industriels qui seraient laxistes en matière de propriété artistique ou intellectuelle.
Une volée de récriminations
Mais comment appliquer une telle loi ? Grâce à de gigantesques algorithmes. L’article 13 précise que les prestataires de services, en étroite coopération avec les titulaires de droits, développeront des techniques de reconnaissance des contenus. Les acteurs hors Facebook, Sacem ou équivalents seront censurés, donc éliminés du Web. Ulrich Kaiser, professeur de musique allemand, l’a vérifié. Il a mis en ligne quelques interprétations de son fait de morceaux de Schubert, tombé depuis longtemps dans le domaine public, et a vérifié comment le logiciel de vérification de droits d’auteur de YouTube (Content ID) réagissait. Il a vite reçu une volée de récriminations prétendant qu’il violait des droits d’auteur. Et ses arguments étaient systématiquement rejetés. En bref, pour qui n’est pas adossé à une agence de droits d’auteur, il y aura toujours un robot ou un digital worker payé au clic qui lui interdira toute publication, au motif qu’il copie une œuvre, même s’il a le droit pour lui. Belle inversion juridique où nous devons faire la preuve de notre innocence, quand sa présomption figure dans notre Constitution.
Le second souci est que ces algorithmes coûtent très cher (de l’ordre de 50 millions d’euros), et sont évidemment très protégés par… le copyright. Nous sommes ici bien loin des logiciels libres façonnés par des poignées de bénévoles, et qui font vivre Internet. Et notre Union européenne, qui veut protéger les big industries du numérique et de la culture, ne réalise pas qu’elle se transforme en bourgeois de Calais, au seul bénéfice des Etats-Unis, puisqu’elle ne sait produire ces logiciels et bases de données associées.
La peur du don
Ainsi, du haut de Bruxelles, on ne fait pas que penser le contemporain avec des catégories obsolètes, aux dépens des citoyens et de leur créativité. On se trompe.
Apparaît d’abord une étrange peur du don. Le don, ce phénomène social total, qui structure nos sociétés via l’échange, qui nourrit nos idées : celles-ci se confortent et s’affinent au contact d’autrui. Tenter de les censurer, d’en vérifier systématiquement l’authenticité, c’est aller contre l’éducation, contre le développement personnel : la science et la création se nourrissent d’emprunts, d’appropriations, de détournements.
Ensuite, supposer que la technique va sauver ou protéger la culture relève de l’erreur. De tout temps technique et culture forment une tresse inséparable. Nos films sont faits avec des caméras, qui fonctionnent à l’électricité, désormais montés sur ordinateur. Nous appelons nos ponts (du Gard ou de Tancarville) des «ouvrages d’art». Et avec l’informatique, nous prenons conscience de la dimension technique de l’écriture, qui nous sert autant à développer un raisonnement, à jeter les bases d’une nouvelle loi qu’à déguster un Rimbaud qui a peu profité de ses droits d’auteur. La grande majorité des productions informatiques relèvent de ces jeux d’écriture où copier, coller, emprunter, détourner, articulent recettes, banales applications et imagination.
Façonner le monde
Et enfin, l’idée qu’un algorithme puisse se substituer au jugement humain est erronée. Un algorithme est écrit par des humains, qui y injectent leur subjectivité, leurs représentations du monde, leurs valeurs morales, comme le montre le philosophe Andrew Feenberg. Il n’est pas neutre. Un algorithme l’est d’autant moins s’il appartient à une firme, qui va évidemment l’adapter à ses intérêts économiques. La chose est manifeste quand il s’appuie sur des bases de données massives pour produire du deep learning. C’est le principe même de l’apprentissage : si nous apprenons à des ordinateurs à modéliser le climat, nous ne pouvons leur confier des opérations chirurgicales sur des humains. Et l’idée que les machines puissent résoudre des problèmes moraux (liés au vol, à l’invention) signale avant tout une démission politique. La volonté de déléguer à ces machines des questions qui méritent d’être débattues par tous : démocratiquement.
C’est toute la question du «numérique»: cette technique a plus que jamais le pouvoir de façonner le monde. Y compris politiquement. Avec les réseaux sociaux, nous ressentons, non pas son pouvoir, mais ses effets sur nos sociétés. L’histoire de l’écriture nous rappelle que ces effets sont lents, variés, particulièrement dépendants de ce que nous voulons qu’ils soient. Moins que jamais, la technique est éloignée de nous. Sauf si nous déléguons à quelques managers le formatage de nos sociétés par le biais de leurs chimères. Souvent, celles-ci se réduisent à quelques croyances, qui confinent à la numérologie. Il s’agit de projeter toute la complexité humaine, ses variations multidimensionnelles, sur une droite, où chacun.e d’entre nous serait évaluable. Avec une seule note entre 0 et 20.
Le numérique, c’est politique. Ça se pratique aussi, ça s’apprend. Comme l’écriture. Ça se débat. Il est urgent de l’enseigner à toutes les générations, à tous les corps de métier ; d’en expérimenter les facettes actuelles, d’en inventer les futures. Les artistes, les historiens, les physiciennes usent tous de l’écriture. Il en est de même pour le «numérique». Jeunes et vieux, Chinois, Français et Californiens prenons le temps de penser le numérique, au-delà de nos moules et frontières disciplinaires. La technique nous appartient. A nous tous d’en convaincre nos députés.