À l’occasion de la journée européenne de protection des données, ce lundi 28 janvier 2019, Résistance à l’Agression Publicitaire (RAP) et La Quadrature du Net, soutenues par d’autres associations, lancent une opération Bloque la pub sur Internet et passe le bloqueur à tes voisin·es.
Cette opération continue de mettre en évidence les effets négatifs de la publicité en ligne et les outils pour s’en prémunir !
Internet est devenu un espace prioritaire pour les investissements des publicitaires. En France, pour la première fois en 2016, le marché de la publicité numérique devient le « premier média investi sur l’ensemble de l’année », avec une part de marché de 29,6%, devant la télévision. En 2017, c’est aussi le cas au niveau mondial. Ce jeune « marché » est principalement capté par deux géants de la publicité numérique. Google et Facebook. Ces deux géants concentrent à eux seuls autour de 50% du marché et bénéficient de la quasi-totalité des nouveaux investissements sur ce marché. « Pêché originel d’Internet », où, pour de nombreuses personnes et sociétés, il demeure difficile d’obtenir un paiement monétaire direct pour des contenus et services commerciaux et la publicité continue de s’imposer comme un paiement indirect.
Les services vivant de la publicité exploitent le « temps de cerveau disponible » des internautes qui les visitent, et qui n’en sont donc pas les clients, mais bien les produits. Cette influence est achetée par les annonceurs qui font payer le cout publicitaire dans les produits finalement achetés.
La publicité en ligne a plusieurs conséquences : en termes de dépendance vis-à-vis des annonceurs et des revenus publicitaires, et donc des limites sur la production de contenus et d’information, en termes de liberté de réception et de possibilité de limiter les manipulations publicitaires, sur la santé, l’écologie…
En ligne, ces problématiques qui concernent toutes les publicités ont de plus été complétées par un autre enjeu fondamental. Comme l’exprime parfaitement Zeynep Tufekci, une chercheuse turque, « on a créé une infrastructure de surveillance dystopique juste pour que des gens cliquent sur la pub ». De grandes entreprises telles que Google, Facebook et d’autres « courtiers en données » comme Criteo ont développés des outils visant à toujours mieux nous « traquer » dans nos navigations en ligne pour nous profiler publicitairement. Ces pratiques sont extrêmement intrusives et dangereuses pour les libertés fondamentales.
L’Europe dispose pourtant désormais d’un règlement qui devrait mettre majoritairement fin à cette exploitation de nos données personnelles. En vertu du règlement général pour la protection des données RGPD, la plupart de ces pratiques de collecte de données personnelles en ligne devraient reposer sur un consentement libre et éclairé. Sinon, ces pratiques sont illégales. C’est sur ce fondement que La Quadrature du Net a porté plainte collectivement contre les 5 géants du numérique. Si le RGPD est rentré en application récemment et que ces plaintes collectives prennent du temps, la CNIL française a déjà agi sur des questionnements similaires, et a même, lundi 22 janvier 2019, commencé à sanctionner Google à une amende de 50 millions d’euros s’agissant de ces pratiques relatives à Android.
Il est temps que cette législation soit totalement respectée et que les publicitaires cessent de nous espionner en permanence en ligne.
Un sondage BVA-La Dépêche de 2018 révélait que 77% des Français·es se disent inquiet·es de l’utilisation que pouvaient faire des grandes entreprises commerciales de leurs données numériques personnelles. 83% des Français·es sont irrité·es par la publicité en ligne selon un sondage de l’institut CSA en mars 2016 et « seulement » 24% des personnes interrogées avaient alors installé un bloqueur de publicité.
Le blocage de la publicité en ligne apparait comme un bon outil de résistance pour se prémunir de la surveillance publicitaire sur Internet. Pour l’aider à se développer, nos associations lancent le site Internet :
Plusieurs opérations collectives ou individuelles de sensibilisation et blocages de la publicité auront lieu sur plusieurs villes du territoire français et sur Internet peu de temps avant et le jour du 28 janvier 2019, journée européenne de la « protection des données personnelles ». Le jour rêvé pour s’opposer à la publicité en ligne qui exploite ces données !
RAP et La Quadrature du Net demandent :
– Le respect de la liberté de réception dans l’espace public et ailleurs, le droit et la possibilité de refuser d’être influencé par la publicité,
– Le strict respect du règlement général pour la protection des données et l’interdiction de la collecte de données personnelles à des fins publicitaires sans le recueil d’un consentement libre (non-conditionnant pour l’accès au service), explicite et éclairé où les paramètres les plus protecteurs sont configurés par défaut. Les sites Internet et services en ligne ne doivent par défaut collecter aucune information à des fins publicitaires sans que l’internaute ne les y ait expressément autorisés.
Rendez-vous sur bloquelapub.net et sur Internet toute la journée du 28 janvier 2019
Les associations soutiens de cette mobilisation : Framasoft, Le CECIL, Globenet
Contact : contact@bloquelapub.net, contact@antipub.org, contact@laquadrature.net
Sites lourds, sites lents, pages web obèses qui exigent pour être consultées dans un délai raisonnable une carte graphique performante, un processeur rapide et autant que possible une connexion par fibre optique… tel est le quotidien de l’internaute ordinaire.
Nul besoin de remonter aux débuts du Web pour comparer : c’est d’une année sur l’autre que la taille moyenne des pages web s’accroît désormais de façon significative.
Quant à la consommation en énergie de notre vie en ligne, elle prend des proportions qui inquiètent à juste titre : des lointains datacenters aux hochets numériques dont nous aimons nous entourer, il y a de quoi se poser des questions sur la nocivité environnementale de nos usages collectifs et individuels.
Bien sûr, les solutions économes à l’échelle de chacun sont peut-être dérisoires au regard des gigantesques gaspillages d’un système consumériste insatiable et énergivore.
Cependant nous vous invitons à prendre en considération l’expérience de l’équipe barcelonaise de Low-Tech Magazine dont nous avons traduit pour vous un article. Un peu comme l’association Framasoft l’avait fait en ouverture de la campagne dégooglisons… en se dégooglisant elle-même, les personnes de Low-tech Magazine ont fait de leur mieux pour appliquer à leur propre site les principes de frugalité qu’elles défendent : ce ne sont plus seulement les logiciels mais aussi les matériels qui ont fait l’objet d’une cure d’amaigrissement au régime solaire.
En espérant que ça donnera des idées à tous les bidouilleurs…
article original : How to build a Low-tech website
Traduction Framalang : Khrys, Mika, Bidouille, Penguin, Eclipse, Barbara, Mannik, jums, Mary, Cyrilus, goofy, simon, xi, Lumi, Suzy + 2 auteurs anonymes
Les technologies qui permettent la décentralisation du Web suscitent beaucoup d’intérêt et c’est tant mieux. Elles nous permettent d’échapper aux silos propriétaires qui collectent et monétisent les données que nous y laissons.
Vous connaissez probablement Mastodon, peerTube, Pleroma et autres ressources qui reposent sur le protocole activityPub. Mais connaissez-vous les projets Aragon, IPFS, ou ScuttleButt ?
Aujourd’hui nous vous proposons la traduction d’un bref article introducteur à une technologie qui permet de produire et héberger son site web sur son ordinateur et de le diffuser sans le moindre serveur depuis un navigateur.
L’article original est issu de la série Dweb (Decentralized Web) publiée sur Mozilla Hacks, dans laquelle Dietrich Ayala met le projecteur sur toutes les initiatives récentes autour du Web décentralisé ou distribué.
Traduction Framalang : bengo35, goofy
Des résultats tronqués, où ne s’affichent ni les titres ni les images des articles de presse… Voilà ce à quoi, selon Google, pourrait ressembler le moteur de recherche si la directive européenne sur le droit d’auteur était mise en œuvre.
Certains internautes français ont eu la surprise de découvrir, ces derniers jours, des résultats de recherche Google à l’apparence étrange en tapant certains mots-clés. Des pages parfois très dépouillées, où les articles de presse remontant sur Google n’avaient plus d’images ni de titres, remplacés par des espaces vides, selon nos constatations.
Depuis que l'application GPS Waze a fait de sa ville un itinéraire intelligent, le maire de Lieusaint fait tout pour revenir en arrière. Ses riverains se plaignent de nombreuses nuisances.
Depuis plus d’un an et demi, les 12 000 habitants de Lieusaint, une ville située en Seine-et-Marne, subissent des nuisances quotidiennes. Parce que l’application GPS Waze a fait de leurs rues un itinéraire « intelligent », ils voient passer sous leurs fenêtres des flots ininterrompus de voitures. Le maire de la ville, Michel Bisson (PS), raconte cette histoire à Numerama.
Numerama : Que se passe-t-il exactement à Lieusaint depuis un an et demi ?
Michel Bisson : Il y a un peu plus d’un an et demi, on a commencé à voir arriver beaucoup de voitures dans Lieusaint. C’était tous les matins, entre 8 et 9 heures. Il faut savoir que la ville est bordée par l’autoroute A5 et la Francilienne, deux axes routiers majeurs. On a rapidement compris que l’application GPS Waze conseillait aux automobilistes qui s’y trouvaient de passer plutôt par Lieusaint pour gagner du temps.
Le problème, c’est que toutes ces voitures passent depuis 18 mois dans des quartiers résidentiels. Cela amène des nuisances sonores, de la pollution. Il arrive que les bus soient ralentis par ce nouveau trafic, et que des gens arrivent en retard ou ratent un train de ce fait.
Il y a enfin un problème de sécurité. Ce sont des quartiers dans lesquels passent des papas et mamans qui amènent des enfants à l’école et où il y a un collège, donc des enfants qui traversent. Fort heureusement, pour le moment, nous n’avons eu ni accident, ni d’augmentation significative du nombre d’infractions constatées.
Vous avez pris des mesures pour tenter de tromper l’algorithme de Waze. Lesquelles ?
Dès que l’on a compris d’où le problème venait, on s’est mis à organiser des réunions publiques. Nous nous sommes mis d’accord sur des solutions relatives à l’aménagement. On a par exemple transformé des voies à double-sens en voies à sens unique.
Il y a 6 ou 8 mois environ, on a également installé des feux tricolores supplémentaires. C’était assez délicat, car il fallait qu’ils ralentissent les utilisateurs de Waze, mais qu’ils ne pénalisent pas les riverains, sinon c’eut été une double-peine…
On les a donc placés dans des endroits relativement improbables. Il y en a par exemple à l’entrée de la ville, au niveau d’un passage piéton en bordure d’une forêt. On l’a volontairement réglé pour qu’il soit long : il reste une minute au rouge.
À l’inverse, on a fait en sorte de ne pas mettre de feu tricolore à la sortie de la ville, pour que les voitures qui y entrent puissent vite ressortir et désengorger les rues.
Waze a-t-il réagi ?
Pas vraiment. J’ai envoyé deux courriers : un au début de l’été 2018, puis le second à la fin de l’été. Je n’ai pas eu de réponse, mais c’est peut-être aussi parce qu’ils sont une petite équipe en France, et qu’ils n’ont pas beaucoup de pouvoir sur les algorithmes.
Puis quand on a commencé notre installation de feux tricolores à des endroits bizarres, les médias ont commencé à s’intéresser à notre histoire. J’ai alors réussi à entrer en contact avec un cartographe indépendant, qui travaille bénévolement pour Waze. Ensemble, on a cherché des solutions. Il m’a dit qu’on ne pouvait effectivement pas changer grand-chose à l’algorithme, mais qu’on pouvait le tromper un peu en ajoutant des paramètres.
Il a d’abord changé des voiries de catégorie. Sur Waze, il y a différentes catégories de routes, qui vont de la catégorie 1, les autoroutes, à la catégorie 6, de petites routes résidentielles. On a passé des routes en catégorie 6 et depuis, on a effectivement un peu moins de flux.
Une autre mesure efficace, ça a été de sélectionner d’autres trajets que ceux passant par Lieusaint comme étant des trajets « attractifs ». Dès le lendemain, on en mesurait les effets.
Au total, on a réussi à réduire le trafic de 40 à 50 % environ. Ce n’est pas réglé pour autant, alors on prévoit encore d’ajouter sur la carte des équipements publics comme les écoles, afin que l’algorithme se « dise » : ok, on va éviter les flux massifs dans le coin. Cela deviendra opérationnel en 2019 et on espère que les effets seront là. Sinon, nous avons prévu de baisser la limitation de vitesse de certaines rues.
Jusqu’où irez-vous ?
Je crois que l’important c’est de ne pas oublier l’intérêt général. Une ville aux États-Unis a interdit des routes aux non-riverains. Nous l’avons envisagé, mais ça nous semblait trop extrême. On a aussi pensé à passer des rues en sens interdit de 8 à 9 heures, mais il nous faudrait l’aval de la préfecture. En tant que commune, on ne fait pas non plus ce qu’on veut.
Pensez-vous que les collectivités ou le gouvernement devraient agir ?
Je sais que c’est un problème qui ne touche pas que Lieusaint. Il y a eu des problèmes de la sorte à Chateaufort, dans les Yvelines, à Versailles quand il y avait d’importants travaux dans le centre, et j’ai aussi été contacté par le maire du 7e arrondissement de Paris pour un souci avec Waze, dont je ne connais pas les détails.
À première vue, ça a l’air d’un micro-phénomène, mais je pense que c’est bien plus que ça. Ça pose la question de la maîtrise de l’espace public. Garantir la sécurité dans l’espace public, c’est un devoir pour nous. Les nouvelles technologies comme Waze apportent beaucoup de choses très positives, mais parfois, elles ont des effets pervers. Dans le cas présent, c’est le désordre dans l’espace public.
Il y a du coup un véritable enjeu pour les collectivités, qui me semblent dans un premier temps bien indiquées pour agir, plus que le gouvernement. Nous avons besoin d’instances de régulation.
Que se passera-t-il si on laisse faire les choses ?
Le risque, c’est que nos villes deviennent des villes servicielles. Aujourd’hui, on est davantage dans un système de villes citoyennes, où le public prime sur le privé. Si des applications comme Waze ont plus de pouvoir que nous sur l’espace public, ce rapport va s’inverser peu à peu.
Vous n’avez donc aucun pouvoir sur Waze ?
Non, puisque nous n’avons avec l’entreprise aucune relation contractuelle. De ce fait, on ne peut pas leur reprocher de ne pas respecter un contrat avec nous.
Contacté, Waze n’a pour le moment pas répondu à nos sollicitations.
Les articles 11 et 13 de la directive européenne sur les droits d'auteur font débat depuis des mois. Parmi ceux qui discutent du texte, des voix s'élèvent également contre eux, au point de suspendre les discussions.
Les discussions à propos de la directive européenne sur les droits d’auteur sont en pause. Une réunion qui devait avoir lieu prochainement pour en discuter a été annulée, a rapporté The Verge vendredi 18 janvier. Ceci est lié aux doutes émis par plusieurs représentants d’États membres de l’Union européenne à propos des articles 11 et 13.
Des dispositions difficiles à mettre en œuvre
Ces deux articles cristallisent depuis quelques mois maintenant l’essentiel des critiques faites sur la directive. L’article 11 doit créer un droit voisin au droit d’auteur pour les éditeurs de presse. L’objectif est de donner à ces derniers plus de poids pour pouvoir négocier l’utilisation de leurs contenus dans divers services en ligne.
copyright directive juri
Discussions sur la directive // Source : Julia Reda
L’article pose question, car il semble difficilement applicable. Il obligerait par exemple les internautes souhaitant ajouter en guise de source un lien vers un article de presse dans Wikipedia à d’abord demander au média de le citer. Pour les défenseurs des libertés numériques, une telle idée est déraisonnable, même si l’hypothèse d’une dérogation pour Wikipedia a été évoquée : d’autres projets similaires sur Internet pourraient être mis en danger. Ce texte selon certains, va même à l’encontre de ce qu’est le web, à savoir des pages hébergées sur des sites et reliées les unes aux autres par des liens hypertextes.
L’article 11 déplaît également à Google, qui pourrait se voir imposer une sorte de « taxe Google Actualités ». Celle-ci avait été mise en place en Espagne, et Google a préféré à l’époque fermer son service Google News dans le pays.
L’article 13, qu’on vous expliquait en détails dans un article, concerne lui les plateformes d’hébergement en ligne. Il a pour objectif de mieux protéger les ayants droit, c’est-à-dire les personnes ou entités qui détiennent des droits d’auteur.
L’article 13 de la directive européenne sur les droits d’auteurs fait peur aux vidéastes. // Source : Numerama / Pixabay
En l’état, il modifie le degré de responsabilité des plateformes comme YouTube, qui a mené une large campagne contre l’article 13. Il indique que l’entreprise, et d’autres, seront responsables des contenus qui sont publiés sur leur plateformes, et donc du respect des droits d’auteur dessus. Jusqu’à présent, les plateformes sont considérées comme de simples hébergeurs de contenus, et ne sont obligées de supprimer des contenus violant les droits d’auteur que s’ils lui sont signalés.
Comme l’article 11, l’article 13 pose de nombreuses questions, et pas seulement à YouTube. Sa mise en application semble pour le moment délicate, voire impossible.
Deux articles jugés trop restrictifs en l’état
Les représentants de 11 États membres semblent avoir entendu ces critiques. Ils ont annulé un sommet à venir en expliquant que la directive, notamment dans ses articles 11 et 13, était trop restrictive, et qu’elle risquait de pénaliser les créateurs en ligne.
Au mois de juillet, le Parlement européen avait déjà exprimé ses doutes concernant les deux articles controversés. Cependant, une version plus nuancée avait été approuvée au mois de septembre.
Les représentants des États ont jusqu’à la fin du mois de février pour valider une nouvelle version du texte.
Pierre-Yves Beaudouin est le président de l’association Wikimédia France.
Durant les débats de ces derniers mois, Wikipedia a été présenté comme un anti-droit d’auteur par de nombreux partisans de l’article 13. Née en pleine période de piratage massif de la musique, l’encyclopédie Wikipédia repose sur un système juridique basé sur le droit d’auteur et la création de son propre contenu. Le piratage n’a jamais été la règle et la communauté passe de nombreuses heures à expliquer et faire respecter le droit d’auteur. Les wikipédiens sont des créateurs comme les autres et sont régulièrement victimes de plagiat.
Les articles 11 et 13 de la directive Copyright n’en finissent plus de se mettre à dos les internautes. Après les chercheurs en informatique, les jeunes artistes, les bibliothécaires, les universitaires, les pères fondateurs d’Internet, les forges de logiciel open source, les makers ou de nombreux sites web (Medium, Qwant, Redditt, Twitch, Twitter, Vimeo, Youtube…) et la mobilisation des rédacteurs de Wikipédia, ce sont les Youtubeurs eux-même qui invitent les eurodéputés à ne pas généraliser à l’ensemble d’Internet le système de filtrage à l’œuvre sur Youtube. Pour couronner le tout, la pétition citoyenne n’en finit pas de grimper : 4,3 millions de signataires.
Malgré ces nombreuses protestations, le législateur et les gouvernements européens refusent de revoir leur projet. Au final l’article 13 va se traduire par la mise en place de solutions de filtrage automatique du contenu posté sur les plateformes par les internautes et restreindre la possibilité de diffuser du contenu, ce, au détriment de la possibilité de s’exprimer et de la liberté d’expression. Pire il ne prévoit pas de mécanismes suffisants pour permettre aux internautes de contester facilement les suppressions et les démonétisations de contenus injustifiées.
À force de compromis et tentatives de passages en force du texte, on ne voit plus très bien à quoi sert la directive. À l’origine, la Commission européenne a proposé de mettre à jour et d’harmoniser certains aspects de l’accès en ligne à l’information et à la connaissance dans l’Union européenne. Selon le législateur, l’émergence de nouveaux services, la possibilité de partager des informations et l’utilisation croissante de l’apprentissage automatique pour extraire des connaissances nécessitent une révision du cadre juridique de la législation européenne sur le droit d’auteur. Nous partageons ce point de vue et le mouvement Wikimedia est impliqué depuis 2016 dans les différentes phases d’élaboration de la directive.
Or il n’est plus question d’harmoniser le droit d’auteur au sein de l’Union européenne. Pas plus de le moderniser vraiment (règles concernant la fouille de texte incohérentes, exception User Generated Content et prise en compte de la culture du remix improbables, etc.) ou de favoriser l’innovation et l’émergence de nouveaux acteurs. La réforme du droit d’auteur sur Internet semble avoir été détournée de son objet initial pour simplement servir à réguler et obtenir plus d’argent de Youtube pour l’industrie musicale. Est-ce vraiment le but d’une directive européenne qui va s’appliquer dans l’espace économique européen pendant une vingtaine d’années ? Le seul article, le -14, qui fut rajouté lors des débats au Parlement européen, qui assurait une proportionnalité de revenus aux auteurs par rapport à l’argent créé autour d’un contenu posté est lui remis en cause lors des discussions du Trilogue entre Commission, Parlement et Conseil européen. Cela ne va pas en s’améliorant au fur et à mesure des versions du texte issues des discussions, c’est même de pire en pire.
L’exemption des startups et PME qui avait été proposée par le parlement, serait elle aussi remise en cause. Incohérent avec tous les discours tenus à longueur d’année sur l’importance d’avoir des plateformes européennes compétitives et de favoriser l’éclosion de champions européens. La responsabilisation immédiate des plateformes des contenus postés par les internautes est un frein énorme pour toute création de nouvelle plateforme. La réforme européenne souhaite imposer la technologie imparfaite de filtrage utilisée sur Youtube pourtant décriée à longueur de journée par les utilisateurs de la plateforme. De nombreux partisans de l’article 13 reconnaissent que cette technologie ContentID n’est pas au point et ne peut être généralisée à l’ensemble du contenu sur Internet : Ils estiment que la main invisible du progrès permettra à l’humanité d’avoir une technologie au point dans le futur qui reconnaîtrait les exceptions au droit d’auteur, fondamentales pour notre démocratie (information, éducation, parodie, remix, etc.). Il ne reste plus qu’à espérer qu’elle voit le jour d’ici une vingtaine d’années (durée d’application probable de cette directive) et non dans un siècle. Un pari dangereux.
Concrètement, vous souhaitez diffuser un article ou une illustration sur une plateforme, il y aura un risque que la solution de filtrage automatique, déployée pour respecter la directive, rejette votre contenu ou bloque votre compte au bout de plusieurs tentatives alors que le contenu est parfaitement légal. Des vidéos de Bach ont bien été supprimées de Youtube, il est donc tout à fait imaginable qu’à l’avenir des tableaux de Léonard de Vinci ou des citations de Victor Hugo soient supprimées.
Pour construire Wikipédia, les bénévoles utilisent souvent du contenu posté sur d’autres plateformes (Internet Archive, Flickr, Youtube, etc.). Dès le niveau de la création de contenu, la directive va poser problème en terme de sources et restreindre l’accès des créateurs à un large public.
Selon moi, une directive réussie devrait permettre l’émergence d’un futur Wikipédia dans 5, 10 ou 20 ans. Si ce n’est pas le cas, c’est que la directive est néfaste à l’intérêt général. Je déplore que le débat n’ai pas reposé en France sur les bonnes questions et permis la préservation des piliers de l’éco-système d’Internet. C’est une question de préservation de l’environnement numérique qui a permis ce qu’Internet propose aujourd’hui de meilleur. Une génération entière d’européens s’oppose à la directive car elle en comprend les enjeux. Il semble que les législateurs de l’Union européenne en sont moins conscients et n’écoutent pas les questions légitimes de ceux qui font Internet, au jour le jour.
Plus d'information
Wikimédia France est une association pour le libre partage de la connaissance née en 2004 pour promouvoir et soutenir en France l’ensemble des projets hébergés par la Wikimedia Foundation. Wikimédia France n’édite ni n’héberge aucun des projets de la Wikimedia Foundation, mais travaille à leur enrichissement et à leur meilleure connaissance par le soutien aux actions de ses membres.
Le Défenseur des droits met en garde contre une dématérialisation à "marche forcée" des services publics et certaines "dérives" dans le passage progressif au tout numérique, qui se traduit "pour beaucoup d'usagers par un véritable recul de l'accès" aux droits.
Car si ce "processus inéluctable et fondamentalement positif" constitue un "progrès", il ne doit "laisser personne de côté", surtout pas les plus vulnérables, personnes âgées et détenus en tête, juge dans son rapport "dématérialisation et inégalités d'accès aux services publics" le Défenseur des droits Jacques Toubon, autorité indépendante notamment chargée de veiller au respect des droits et libertés par l'administration.
Dans ce rapport qui sera présenté jeudi et dont l'AFP s'est procuré copie, il s'appuie sur les milliers de réclamations reçues de la part des usagers pour étayer, de façon très détaillée, les insuffisances parfois "inacceptables" des administrations en ligne et le retard dans la mise en ?uvre du plan gouvernemental qui prévoit le passage de l'intégralité des services publics sur internet à l'horizon 2022.
Cet "objectif ne sera pas atteint si l'ambition (...) se résume à pallier la disparition des services publics sur certains territoires et à privilégier une approche budgétaire", tacle ainsi M. Toubon. A fortiori, souligne le rapport, si la transformation "est mise en place à +marche forcée+, sans tenir compte des difficultés bien réelles d'une partie de la population".
Il évoque par exemple la "fracture numérique" particulièrement évidente dans les 541 communes classées en "zone blanche" et donc dépourvues de toute connexion à internet, ce qui entraîne une "rupture d'égalité" et une "entrave à l'accès aux services publics" dans des zones par ailleurs enclavées.
Le Défenseur des droits prend ainsi l'exemple d'un homme radié de Pôle emploi après deux rendez-vous manqués avec son conseiller. "Or, Monsieur X. réside dans un secteur qualifié de +zone blanche+ et n'a jamais reçu à temps les mails de convocation et les SMS sur son téléphone portable."
De fait, dans un pays où l'on consacre 1H50 par mois aux démarches administratives, comment franchir le cap lorsqu'on n'a pas d'ordinateur (comme 19% des Français) ou d'accès à internet?
Un couple de personnes âgées en Guadeloupe, illustre le rapport, n'a ainsi jamais pu consulter la notification de suspension de son allocation aux adultes handicapés, et les deux seniors de 75 et 86 ans n'ont donc pas pu formuler de recours à temps.
Parfois, les situations sont tout simplement kafkaïennes: comme pour ce demandeur de certificat d'immatriculation qui n'a jamais pu transmettre ses justificatifs car les pièces jointes étaient limitées à un volume d'1 Mo (méga-octet) tandis que ses documents en faisaient 1,2. Ou ce détenu à qui l'on demande une photo d'identité, omettant, peut-être, qu'il n'y a pas de cabine photographique en prison.
Face aux dysfonctionnements décrits sur 71 pages, l'autorité indépendante émet plusieurs recommandations, dont la principale va à l'encontre du principe-même du tout numérique: conserver une alternative, pour qu'aucune démarche administrative ne soit accessible "uniquement par voie dématérialisée".
Le Défenseur des droits réclame aussi une "clause de protection" permettant à l'usager de ne pas être tenu pour "responsable" en cas de problème technique ou encore de repérer les personnes "en difficulté avec le numérique" grâce à des tests lors de la journée défense et citoyenneté.
En particulier, il souligne l'importance de ne pas marginaliser davantage les sans-abris, les handicapés, les étrangers, cette "file invisible" en ligne qui "parvient encore moins qu'auparavant à accéder aux guichets".
Car, résume le rapport, "un service public dématérialisé reste un service public avec tout ce que cela impose de contraintes". File d'attente comprise.
Google compte un pourcentage important de la population mondiale parmi ses clients directs, avec de multiples produits en tête de leurs marchés mondiaux et de nombreux produits qui dépassent le milliard d’utilisateurs actifs par mois. Ces produits sont en mesure de recueillir des données sur les utilisateurs au moyen d’une variété de techniques qui peuvent être difficiles à comprendre pour un utilisateur moyen. Une grande partie de la collecte de données de Google a lieu lorsque l’utilisateur n’utilise aucun de ses produits directement. L’ampleur d’une telle collecte est considérable, en particulier sur les appareils mobiles Android. Et bien que ces informations soient généralement recueillies sans identifier un utilisateur unique, Google a la possibilité d’utiliser les données recueillies auprès d’autres sources pour désanonymiser une telle collecte.
Le ministère de l'Éducation nationale vient de confirmer la création d'un CAPES d'informatique dont la mise en place est prévue pour 2020.
"Enfin !" Scandent ceux qui se battent depuis plusieurs années déjà pour une modernisation de l'éducation nationale et des cycles de formation proposée aux étudiants, le ministre de l'Éducation nationale et de la Jeunesse Jean-Michel Blanquer a finalement annoncé la création, pour 2020, d'un CAPES d'informatique.
Jean Michel Blanquer
Alors que le gouvernement se lance depuis quelques années dans une modernisation de son fonctionnement et le développement du numérique en France, rien n'était encore proposé au sein de l'Éducation nationale pour intégrer pleinement le numérique dans les cycles de formation des élèves et étudiants.
Interrogé au micro de France Culture, le ministre a précisé "Nous allons créer un CAPES informatique qui verra le jour dès 2020 et dans quelques années nous créerons certainement une agrégation d'informatique. Nous consacrons ainsi le numérique dans le système", ajoutant qu'il s'agit "d'une nouvelle extrêmement importante, car avec cette création, nous créons un cercle vertueux de l’enseignement numérique."
Selon les premières estimations, 1500 postes seraient nécessaires, couverts dans un premier temps par "des professeurs qui suivent des formations continues".
Le ministre poursuit : " A partir du moment où l’on crée un CAPES, on crée quelque chose qui va structurer le futur. Ce qui est très important c’est qu’avec cette ouverture, nous consacrons le numérique dans un sens non superficiel" ajoutant "Aujourd’hui on parle trop du numérique en restant à la surface des choses alors même que nous avons besoin d'élèves qui développent leur sens logique grâce à la programmation, d'élèves qui relient les savoirs numériques aux autres savoirs grâce à leurs approfondissements numériques et l’approfondissement de leur culture générale dans d’autres domaines".
Considéré comme un système ultime de protection d’un compte en ligne, l’authentification à double-facteur a pourtant été contournée par un groupe de hackers. Voici leur méthode.
Censé être robuste et imparable face aux tentatives de piratage, le système de double-authentification des comptes Google a pourtant été contourné par des hackers. Rappelons que la double-authentification, autrement appelée authentification à deux facteurs, ou encore validation en deux étapes chez Google, repose sur la classique saisie d’un identifiant et d’un mot de passe associée à un code à usage unique reçu le plus souvent par SMS pour accéder au compte. Un blindage supplémentaire qui semble impossible à contourner puisque seul l’utilisateur peut recevoir le code temporaire. Et pourtant, Amnesty International a relevé que plus d’un millier de comptes Gmail et Yahoo, protégés de cette façon ont été piratés.
Pour pouvoir accéder aux comptes protégés par ce système, la technique employée par les hackers ne requiert pas de connaissances en informatique pointues ou l’exploitation de vicieux malwares. Il s’agit d’une méthode phishing très élaborée dans laquelle un millier d’utilisateurs sont tombés. L’idée consiste à récupérer le code de double-authentification à usage unique et de l’utiliser avant son délai d’expiration.
Une méthode de phishing élaborée
Le groupe de pirates a donc convaincu ses cibles en envoyant un e-mail, suffisamment bien conçu pour que les victimes cliquent sur un lien renvoyant vers une fausse page d’identification. À partir de ce moment, l’utilisateur devait saisir ses identifiants et taper également son code. C’est alors que le hacker pouvait faire une demande de récupération de mot de passe et utiliser le code reçu pour accéder au compte et se l'accaparer. Il faut noter que ce phishing élaboré a été réalisé de façon très ciblée en visant précisément des journalistes ou des activistes au Moyen-Orient ou en Afrique du Nord. On peut supposer que le groupe de pirates est lié à un État. Dans le cas de Google, par exemple, rappelons qu’il existe deux autres procédés d’identifications que le code à chiffre reçu par SMS. Il est possible d’opter pour un système de validation par notification, ou encore en enregistrant l’ordinateur ou le mobile comme appareil autorisé.
« Dans les faits, la vie privée se réduit comme peau de chagrin, il faut en avoir conscience » selon Alexandre Lazarègue, avocat spécialiste du droit numérique. « Et le droit concernant les données personnelles n’en est qu’aux prémices, les problématiques ne vont que se multiplier. »
Il est « impossible de protéger à 100 % » les données personnelles sur internet, constate Alexandre Lazarègue, avocat spécialiste du droit numérique, alors que Facebook est secoué par de nouvelles révélations sur l’accès d’autres géants du web aux informations privées collectées par la plateforme.
Serait-il possible de mieux protéger les données personnelles sur internet ?
Du point de vue de la sécurité informatique, même si le RGPD (Règlement général de protection des données, entré en vigueur au niveau européen en mai dernier) par exemple impose des obligations en termes d’architecture de réseau pour mieux protéger les données stockées, tout le monde sait qu’en réalité il est impossible de protéger à 100 % d’un piratage ou d’une perte de données.
Ceux qui transmettent leurs données aux plateformes et grandes entreprises doivent avoir pleinement conscience qu’il n’existe aucune assurance totale de ne pas voir demain ces données perdues.
Du point de vue du droit, les entreprises font en sorte qu’il est très difficile à chacun d’assumer pleinement ses droits, les contrats sont tellement déséquilibrés que le consentement est dans les faits imposé. Et leur puissance économique est telle que les sanctions uniquement économiques, même quand il s’agit de 4 % du chiffre d’affaires mondial comme le prévoit le RGPD a un faible impact au final, quand on se souvient que Facebook par exemple gagne 500 000 dollars toutes les 7 minutes.
Le RGPD est toutefois venu donner plus de droits aux utilisateurs de grandes plateformes, voit-on une évolution des usages depuis son entrée en vigueur ?
En tant qu’avocat, j’ai pu constater un intérêt des citoyens quant à la question de la protection de leurs données personnelles, qui s’est matérialisé notamment par une multiplication des recours auprès de la CNIL (Commission nationale informatique et libertés, NDLR), en particulier en ce qui concerne le droit à l’oubli. Il y a globalement une prise de conscience que les données sont précieuses et ne peuvent être vendues.
Mais dans le même temps, après six mois d’exercice du RGPD, on constate qu’il y a de quoi l’améliorer. S’il s’applique tant aux petites qu’aux grandes entreprises, on voit que dans les faits il est très contraignant pour les petites alors que les plus grosses peuvent trouver le moyen de s’y soustraire.
La philosophie du règlement permet normalement une relation immédiate entre utilisateurs et entreprises, avec la possibilité du choix laissé dans l’usage des données mais dans les faits, on en est très loin et il y a encore beaucoup à améliorer en la matière pour que ce soit effectif.
Quelles sont les limites du RGPD dont profitent les grandes plateformes du net selon vous ?
La problématique est dans l’exercice réel des droits, du fait du déséquilibre existant entre utilisateurs et fournisseurs de service. Le RGPD octroie des droits mais en réalité les utilisateurs sont pris au piège de ces plateformes qui, de fait, imposent le consentement.
Dès lors que l’utilisateur consent à donner accès à ses données, même s’il en a le droit, dans les faits il n’a pas la possibilité de vérifier comment elles sont utilisées ni qui y a accès et souvent il n’a pas conscience d’avoir accordé un accès aussi large, parce que personne ne lit les dizaines de pages de conditions d’utilisation.
Pourtant il faut que les individus aient conscience de leur responsabilité et qu’ils comprennent que ces données qu’ils publient, même en privé, elles sont diffusées pour l’éternité, quand bien même il y a le droit à l’oubli.Mais dans le contexte de révolution numérique il est difficile d’échapper à ces services, qui pourtant se basent sur le traitement des données. Vouloir y échapper ce serait désormais se mettre en marge de la société.
Cette application web de galerie photos, codée en PHP/MySQL, s’adresse aux particuliers, aux pros de la photographie et aux organisations. Je vais vous présenter ses différentes fonctionnalités de manière illustrée. Ainsi, vous pourrez vous faire une idée de son fonctionnement.
On retrouve la liste des différents albums, avec une première photo d’illustration – comme sur Google Photos. Si on adore le rangement, on peut même créer des sous-albums de sous-albums : la profondeur est illimitée. Par ailleurs, une même photo peut être associée à plusieurs albums.
Il est également possible de sélectionner plusieurs photos et d’appliquer des modifications de masse. Par exemple, changer le nom du photographe, ajouter des tags pour retrouver les photos plus facilement, ajouter celles-ci à un album, définir les coordonnées GPS de chaque photo…
On peut repérer nos photos d’une façon chronologique (c’est justement l’une des fonctionnalités que j’apprécie sur Google Photos). C’est parfois le plus simple lorsqu’on doit retrouver un visuel.
Il est possible de créer des groupes et des utilisateurs. On peut affecter à chacun un niveau de confidentialité, permettant de voir tel ou tel album uniquement. Les administrateurs et les webmasters sont les seuls à pouvoir gérer les photos et les groupes. Pour moi, la gestion des permissions de base dans Piwigo constitue le point faible du service. En effet, il n’y a pas de gestion poussée des rôles utilisateurs. Peut-être qu’une extension pourrait remédier à ce problème.
Une fonction que j’adore sur Piwigo – elle n’existe pas sur Google Photos : on peut afficher une carte du monde et visualiser tous les points de géolocalisation, qui représentent nos photos. C’est hyper sympa, on se rend compte du chemin parcouru et des régions visitées. Cette option n’est pas présente dans l’installation de base, il vous faudra un plugin.
On peut aussi visionner nos photos en plein écran sous forme de diaporama. C’est plutôt sympa.
Les visiteurs peuvent écrire des commentaires sous nos photos, les noter et recevoir une notification par mail lorsqu’on ajoute de nouvelles photos.
Pour vous faciliter la vie, Piwigo récupère toutes les méta-data de vos images : le temps d’ouverture de votre objectif au moment de la prise de la photo, la marque de l’appareil photo, etc.
Une API existe et vous permet de faire plein de choses. Par exemple, vous pouvez potentiellement synchroniser un dossier provenant d’ailleurs avec Piwigo, ou publier des photos depuis le célèbre logiciel Lightroom. Les possibilités sont infinies.
es développeurs adorent partager des projets comme celui-ci et y apporter leur contribution. Piwigo possède pas moins de 350 extensions… il y a de quoi faire ! Si vous souhaitez les découvrir, c’est par ici.
Si je vous ai déjà convaincu, tant mieux ! Mais si vous êtes encore hésitants, je peux vous dire que pas mal de monde l’utilisent déjà : entreprises et particuliers. Arles, la célèbre ville de la photo, utilise ce système qui existe depuis 2002. Pas mal d’années de développement, donc…
Si vous êtes intéressé, vous pouvez suivre ce petit tutoriel qui vous aidera à installer le système. Si vous avez la moindre question, les commentaires sont là pour ça !
Avec la décision de Microsoft de passer à Chromium pour son navigateur Edge, Firefox de Mozilla reste le seul navigateur majeur à conserver son propre moteur alternatif. Dans un monde dominé par Google, Firefox peut-il rester compétitif ?
La semaine dernière, Microsoft a annoncé qu'il jetait l'éponge sur son effort de développement EdgeHTML et passait au moteur open source Chromium. C'est une grande victoire pour Google, qui maintient cette base de code et l'utilise comme noyau de Google Chrome. C'est sans doute une grande victoire pour les entreprises clientes de Microsoft, qui peuvent désormais compter sur un navigateur conforme aux standards et fonctionnant avec toutes leurs applications Web modernes.
Vous savez qui ne figurait pas parmi les gagnants ? Mozilla, créateur du navigateur Firefox.
Un web pensé uniquement pour Google, comme à l'ère IE
Dans un billet sombre et pessimiste sur le blog de Mozilla, le PDG Chris Beard a critiqué la décision de Microsoft, même s'il a reconnu qu'elle "peut avoir un sens" d'un point de vue business, tout en représentant une menace existentielle pour l'association Mozilla :
"Nous sommes en concurrence avec Google, non pas parce que c'est une bonne opportunité commerciale. Nous sommes en concurrence avec Google parce que la santé d'Internet et de la vie en ligne dépendent de la concurrence et du choix. Elles dépendent de la capacité des consommateurs à décider que nous voulons quelque chose de mieux et à agir.
[...]
Si un produit comme Chromium dispose d'une suffisamment grande part de marché, il devient alors plus facile pour les développeurs web et les entreprises de décider de ne pas se préoccuper que leurs services et sites fonctionnent avec autre chose que Chromium. C'est ce qui s'est passé lorsque Microsoft avait le monopole des navigateurs au début des années 2000, avant la sortie de Firefox. Et cela pourrait se reproduire."
Malheureusement, la relation de Mozilla avec Google est.... Disons que c'est compliqué. Oui, Firefox est en concurrence avec Google sur le marché des navigateurs, mais Google paie aussi littéralement pour la survie de Mozilla.
Il y a deux semaines, Mozilla a publié son rapport annuel, dont ses comptes pour 2017. Dans ce rapport, il reconnaît que "[a]ujourd'hui, la majorité des revenus de Mozilla Corporation provient de partenariats mondiaux de recherche pour le navigateur, y compris l'accord négocié avec Google en 2017 à la suite de la résiliation par Mozilla de son accord de recherche avec Yahoo/Oath....".
Firefox sous perfusion de Google
En fait, plus de 89% des 562 millions de dollars de revenus de Mozilla Corporation en 2017 provenaient des redevances sur les moteurs de recherche, et presque toutes ces recettes semblent provenir de Google. (Yandex est le moteur de recherche par défaut de Firefox en Russie et Baidu est le moteur par défaut en Chine. Google est activé par défaut aux États-Unis et dans d'autres marchés développés.)
C'est ce qui ressort de la rubrique "Concentration du risque" de l'état financier de Mozilla 2017 (PDF), ce qui est révélateur de la situation de l'éditeur indépendant.
Les contrats actuels avec les moteurs de recherche arrivent à échéance en novembre 2020, dans moins de deux ans. Si Google décide de mettre fin à ce partenariat rémunéré de recherche ou de modifier ses termes de manière significative, l'impact financier serait dévastateur pour Mozilla.
Avec 514 millions de dollars en numéraire et 421 millions de dollars en dépenses annuelles, il ne pourrait fonctionner que pendant une quinzaine de mois environ sans devoir conclure un autre contrat de recherche.
Malheureusement pour Mozilla, la plupart des forces du marché qui ont contraint Microsoft Edge à abandonner son moteur de navigation indépendant s'appliquent également à Firefox.
Malgré d'excellentes critiques, le navigateur Firefox Quantum, sorti fin 2017, n'a pas été en mesure de voler une part significative de l'utilisation des plateformes de bureau. Selon la source, Firefox continue de stagner sous les 10% de l'utilisation globale des navigateurs.
Dans les derniers chiffres du US Government Digital Analytics Program, par exemple, Firefox représentait exactement 8% du trafic des PC et Mac Windows, contre 8,44% pour Microsoft Edge et 7,9% pour Safari. Cette comparaison est encore pire qu'il n'y paraît, car Edge ne peut même pas être installé sur des appareils fonctionnant sous MacOS ou des versions de Windows autres que Windows 10, et la version de bureau de Safari fonctionne uniquement sur Mac.
Dernière alternative à la monoculture Google
Si vous regardez seulement les systèmes d'exploitation mobiles, Firefox est tout bonnement invisible avec tout juste 0,5% du trafic web tel que mesuré par DAP, soit légèrement moins que le navigateur Silk d'Amazon. Une partie du problème pourrait être que Google traite Firefox comme un citoyen de seconde catégorie, comme l'a rapporté Chris Duckett de ZDNet en juillet 2018 :
"Nous nous efforçons d'offrir une expérience de recherche exceptionnelle sur l'ensemble des navigateurs, et nous continuons de travailler à l'améliorer pour tous les utilisateurs" déclarait un porte-parole de Google à ZDNet.
"Firefox utilise le moteur Gecko, ce qui nous oblige à faire des tests approfondis sur toutes nos fonctionnalités pour assurer la compatibilité, car il est différent de WebKit (qui est utilisé par Chrome, Safari, UC, Opera). Nous l'avons fait pour le bureau Firefox, mais nous n'avons pas fait le même niveau de test pour mobile."
C'est le même problème que celui cité par les ingénieurs de Microsoft pour expliquer l'abandon de EdgeHTML. J'ai entendu dire que l'écrasante majorité du temps et de l'énergie consacrée par les développeurs d'EdgeHTML au cours des trois dernières années l'a été à résoudre des problèmes de compatibilité avec des sites qui ne fonctionnaient pas correctement car testés uniquement sur des navigateurs WebKit et Chromium.
Mozilla peut-il prendre en charge les coûts techniques de maintenance du seul moteur de rendu et de la seule base de code de navigateur qui ne soit pas basée sur WebKit ou Blink (le fork de WebKit pour Chromium de Google) ?
La nature brutale de la concurrence dans le monde technologique moderne suggère que la mission de Mozilla de fournir une alternative à la monoculture Google est admirable et probablement vouée à l'échec. La grande question est de savoir si Google continuera à payer des royalties pour maintenir Mozilla à flot après 2020. Cela pourrait se produire, comme une assurance contre une éventuelle action antitrust.
Le texte européen le plus liberticide de cette décennie est en approche
Hors un certain nombre de pays qui se sont opposés à ce texte, le Conseil de l’Union européenne vient d’acter un projet de loi au parfum pour le moins désagréable pour ce qui concerne les libertés publiques. Poussé par la gouvernance actuelle française, ce texte – peu médiatisé – pourrait s’avérer l’un des coups les plus violents jamais portés à la liberté d’expression dans les pays « démocratiques » de l’Union européenne. Le débat autour de ce texte va maintenant se poursuivre au parlement européen.
Il convient de préciser que le 12 décembre 2018 un premier rapport sur la lutte antiterroriste a été adopté à une très large majorité : sur 661 votants, 474 ont voté en faveur de ce dernier tel qu’il a été amendé, 112 voix contre, 75 votants se sont abstenus. Cette adoption était prévisible. Il faut toutefois noter qu’elle s’est déroulée dans un contexte très particulier : au lendemain du terrible drame de Strasbourg à proximité du marché de Noël. Ce rapport sur « les observations et les recommandations de la commission spéciale sur le terrorisme » est dans la même ligne. Ce rapport désormais adopté est un marchepied qui vient appuyer le texte à venir, texte qui recommandera entre autres mesures la sous-traitance de la censure aux géants de l’Internet.
Usant toujours de la même argumentation – a priori- louable : la lutte contre le terrorisme, ce texte – que vous retrouverez sous l’intitulé : « Règlement du Parlement Européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne » obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google. Quand la Quadrature du Net qui soulève le problème s’interroge : « Une loi européenne pour censurer les mouvements sociaux sur Internet ? » La réponse apparaît tristement contenue dans la question au regard des éléments exposés ci-après et des mouvements sociaux qui se déroulent en France depuis quelques semaines.
Nonobstant un projet réalisé dans un timing empêchant tout débat public, ces alliances contre-nature associant des géants du Net à des États dans l’exercice de la censure sont préoccupantes.
Pourquoi est-ce une dérive dangereuse ?
Si le règlement européen franchit ici un nouveau cap, c’est qu’au-delà d’une exigence de retrait dans l’heure sous peine de sanctions financières des prestataires, ce projet de loi prévoit d’intégrer également des « mesures proactives ».
Il s’agit donc d’avoir recours à de la censure automatique préventive ! Pour faire simple, cette censure serait alors paramétrée par les autorités concernées et les géants du web.
Voici ci-dessous quelques extraits de ce que propose ce projet de règlement en terme de mesures proactives (article 6). Un règlement que je vous encourage à lire attentivement et dans son ensemble (Bruxelles,le 7 décembre 2018 : Règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne).
Les fournisseurs de services d’hébergement prennent, selon le risque et le niveau d’exposition aux contenus à caractère terroriste, des mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste. Ces mesures sont efficaces et proportionnées, compte tenu du risque et du niveau d’exposition aux contenus à caractère terroriste, des droits fondamentaux des utilisateurs et de l’importance fondamentale de la liberté d’expression et d’information dans une société ouverte et démocratique.
Lorsqu’elle a été informée conformément à l’article 4, paragraphe 9, l’autorité compétente* visée à l’article 17, paragraphe 1, point (c), demande au fournisseur de services d’hébergement de soumettre, dans les trois mois suivant la réception de la demande, et ensuite au moins une fois par an, un rapport sur les mesures proactives spécifiques qu’il a prises, y compris au moyen d’outils automatisés.
Lorsque il est évoqué la notion « d’autorité compétentes » qui seront habilitées à superviser ces mesures proactives elles sont « précisées » dans le point (37) :
« (37) Aux fins du présent règlement, les États membres devraient désigner des autorités compétentes. L’obligation de désigner des autorités compétentes n’impose pas nécessairement la création de nouvelles autorités ; il peut en effet s’agir d’organismes existants chargés des fonctions prévues par le présent règlement. Celui-ci exige la désignation d’autorités compétentes chargées d’émettre les injonctions de suppression et les signalements et de superviser les mesures proactives, ainsi que d’imposer des sanctions. Il appartient aux États membres de décider du nombre d’autorités qu’ils souhaitent désigner pour remplir ces tâches ».
Sans vouloir jouer les oiseaux de mauvais augure, quand le ministre de l’Intérieur dénonce « les séditieux » parmi les gilets jaunes, on peut s’inquiéter fortement sur l’usage futur et dévoyé qui pourrait être fait par la gouvernance actuelle (et d’autres) d’une telle loi.
Les mots ont un sens, et les mots ne sont pas innocents ! Ils le sont d’autant moins lorsque l’on est aux responsabilités. Je rappelle donc qu’une sédition « est une forme d’émeute face à un pouvoir ou une autorité établie, dont le but ne serait pas uniquement de renverser les détenteurs d’une puissance, mais de rompre définitivement tout lien avec ce système ».
La problématique est que de « sédition » à « criminel » puis à « terroriste » il n’y a qu’un pas qui pourrait être vite franchi pour justifier une censure totalement outrancière en cas de mouvement social contestataire s’exprimant demain sur Internet.
Aussi, et au regard du type de qualificatif qui a été utilisé lors du mouvement de contestation sociale massif qui se déroule actuellement en France, que ce qualificatif soit supposé désigner quelques individus ou un collectif est en définitive peu important… Le mot a été lâché ! Il laisse sous-entendre que sous une telle loi un mouvement de contestation du type des « gilets jaunes » – en France comme ailleurs – pourrait être traité comme un mouvement potentiellement séditieux et de fait être censuré au plus tôt par les autorités et leurs nouveaux alliés de la censure.
Cela entraînerait ipso facto (par exemple) une impossibilité d’usage du Net pour l’organisation de rassemblements. Que ces rassemblements soient pacifiques ou non, ils pourraient être rapidement mis « dans le même panier » ! Le couperet de la censure pourrait alors s’abattre de façon généralisée et préventive pour “tuer dans l’œuf” ce type de mouvement contestataire. Il sera nécessaire et suffisant de s’appuyer sur les comportements de quelques illuminés réellement dangereux… pour brandir le terme sédition et co-actionner la censure algorithmique adaptée ! Pour le bien de la sécurité nationale, évidemment…
« Puisque le peuple vote contre le Gouvernement, il faut dissoudre le peuple ». (Bertolt Brecht)
Avec la Freebox Delta, le FAI fait le pari de vendre à ses abonnés une box haut de gamme intégrant tout un package de services. Un changement de stratégie complet qui pourrait lui permettre de retrouver de la valeur.
Quand Orange table sur la diversification de ses activités avec Orange Bank, Free opte pour un positionnement bien différent : se présenter à la fois comme un fournisseur d’accès à internet, de matériel et de services. « Nous ne sommes plus un simple opérateur télécom », nous a lâché comme un cri du cœur le directeur général d’Iliad Alexis Bidinot à l’issue de la présentation de la Freebox Delta.
Free vend du matériel à ses abonnés
Le FAI inaugure plusieurs pratiques avec son nouveau boîtier haut de gamme. A commencer par proposer aux abonnés de devenir propriétaires de leur matériel. Ce sera le cas pour le disque dur du Freebox Server qui est amovible mais aussi du Freebox Player, vendu au prix de 480 euros au comptant ou à raison de 10 euros par mois durant quatre ans.
Et on saluera la prise de risque et l’investissement considérable que cela représente d’avoir conçu en interne avec une équipe resserrée d'une cinquantaine de personnes ce produit qui présente, en plus, la particularité d'avoir été assemblé en France.
Free offre, en outre, dans son forfait à 49,99 euros par mois un pack sécurité comprenant une caméra de sécurité domestique, un détecteur d’ouverture et un détecteur de mouvements. « On va vous laisser accessibles plusieurs milliers d’euros d’équipements. Et ce n’est pas une image, à produire cela nous coûte 1000 euros voire beaucoup plus», a résumé hier Xavier Niel lors du 01live.
Des services offerts
La promesse de Free est claire : vous simplifier la vie en intégrant un maximum d’équipements disparates. Une centralisation qui représente aussi une économie pour l’utilisateur. « Si vous décidez de reconstituer tous les équipements que nous avons mis par vous-même, vous en ressortirez avec une facture de plus de 2400 euros pour des objets hétéroclites, éparpillés aux quatre coins de la maison et non intégrés les uns aux autres », a détaillé le directeur général d’Iliad Thomas Reynaud lors de la conférence de presse.
Free se distingue, en outre, de tous ses concurrents en incluant dans son forfait des services comme Netflix et TV by Canal qui sont proposés d'ordinaire en option payante. Et pas question de tabler sur une production maison de contenus comme SFR. Free reste sur un modèle de partenariats lui permettant d'englober encore l'offre presse LeKiosk, ou encore son hub domotique compatible avec les produits Somfy et Philips Hue.
Reprendre pied face aux GAFAM
Ce changement de cap est une bonne nouvelle pour Eric Denoyer, ancien patron de SFR et fondateur de la solution Smart Home Otodo. « C’est un positionnement qui n’est plus purement télécom. Free devient distributeur de services. Cela va lui permettre de sortir de la guerre des prix intestine que se livrent les opérateurs et de retrouver de la valeur », analyse-t-il. « C’est aussi le meilleur moyen de reprendre pied face aux GAFAM. Il était temps qu’un opérateur français propose un assistant vocal intégré », conclu-t-il.
La Freebox Delta ne devrait toucher qu’un public limité de technophiles ayant les moyens. Mais Free mise probablement sur cette box innovante pour servir de produit d’appel et attirer une plus vaste audience vers ses autres box plus abordables, à commencer par la Freebox One. De quoi renouer avec la croissance de son chiffre d'affaires et doper le nombre d'abonnés fixes en berne depuis le début de l'année 2018. Free va aussi continuer à enrichir son offre dans les mois et les années à venir, comme l'a laissé hier entendre Xavier Niel. Certains services n'auraient en effet pas été prêts à temps pour la présentation. C'est donc un pari ambitieux et à long terme que vient de lancer Free avec sa Freebox Delta.
Nous n’aurons jamais vu un règlement européen être accepté aussi rapidement par les gouvernements européens (en moins de 3 mois !), et ce malgré les inquiétudes exprimées par divers États1. Macron les a manifestement convaincu que, les élections européennes approchant, ils pourraient maintenir leur pouvoir en agitant l’inaltérable prétexte terroriste. En résulte une censure et une surveillance généralisée de l’Internet.
Le Conseil de l’Union européenne vient donc d’acter, à l’instant et sans le moindre débat sérieux, un projet de loi qui obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google2, tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle jugera « terroriste », sans l’autorisation d’un juge.
Deux mesures aussi délirantes qu’inédites, qui conduiront à soumettre tout l’écosystème numérique européen à une poignée de géants que l’Union prétend cyniquement vouloir combattre (lire notre analyse), tout en risquant de remettre en cause la confidentialité de nos correspondances3… Et tout ça alors que ni la Commission européenne ni les gouvernements n’ont jamais réussi à démontrer en quoi cette loi serait utile pour lutter contre le terrorisme4.
Le débat sur ce texte se poursuivra maintenant devant le Parlement européen. Celui-ci votera mercredi prochain, le 12 décembre, un premier « rapport sur la lutte anti-terroriste » qui, sans avoir l’effet d’une loi, promeut peu ou prou les mêmes mesures absurdes que celles prévues dans le « règlement de censure anti-terroriste », que le Parlement examinera dans les semaines suivantes.
Ce premier vote de mercredi sera l’occasion pour chaque député européen de révéler sa position face au projet totalitaire d’Emmanuel Macron, et ils devront en rendre compte alors que s’amorce la campagne électorale pour les élections européennes de 2019.
Pour vous connecter à l’Internet, vous avez besoin d’un FAI (Fournisseur d’Accès à l’Internet), une entreprise ou une association dont le métier est de relier des individus ou des organisations aux autres FAI. En effet, l’Internet est une coalition de réseaux, chaque FAI a le sien, et ce qui constitue l’Internet global, c’est la connexion de tous ces FAI entre eux. À part devenir soi-même FAI, la seule façon de se connecter à l’Internet est donc de passer par un de ces FAI. La question de la confiance est donc cruciale : qu’est-ce que mon FAI fait sans me le dire ?
Les nouvelles générations seraient capables d’utiliser de façon intuitive les outils du Web. Ce mythe menace les plus défavorisés.
«Chaque génération possède un million de visages et autant de voix» : ainsi débute un article du Time, publié en novembre 1951, qui se pose la question de savoir s’il est possible de dépeindre le portrait d’une génération entière. S’ensuit une enquête hasardeuse mais captivante durant laquelle des correspondants, partout à travers les Etats-Unis, sondent les jeunes, leurs parents et leurs professeurs, avec une bien audacieuse ambition : au million de visages et de voix, trouver des traits communs et des tonalités semblables. Cette enquête, plus lyrique que scientifique, donne naissance à un terme qui traverse les âges pour décrire la jeunesse américaine des années 50 : la génération silencieuse. Celle qui ne veut pas aller à la guerre mais montre peu d’enthousiasme pour la paix.
Le terme est forcément essentialisant, mais on ne pourra pas enlever aux journalistes du Time d’être allés à la rencontre de la jeunesse d’alors, dans sa diversité, pour l’observer et la questionner sur elle-même. Le concepteur américain de jeux vidéo Marc Prensky a-t-il fourni les mêmes efforts en 2001, avant de parler de «digital natives» pour décrire les enfants de notre siècle ? Les médias et autres think thanks ont-ils bien tendu l’oreille à toutes les jeunesses françaises avant d’acter que l’adolescent d’aujourd’hui est un «enfant du numérique» ? Lorsque j’emmène mes élèves de sections d’enseignement général et professionnel adapté (Segpa) en salle informatique et que je vois la plupart d’entre eux être déconcertés par des consignes aussi simples qu’ouvrir un navigateur, j’ai de sérieux doutes sur le fait que le maniement des outils numériques soit, chez eux, une compétence innée.
Mes doutes sont confirmés par des études. L’une d’entre elles, publiée en juin 2017 dans la revue Teaching and Teacher Education, montre qu’on ne naît pas avec des prédispositions qui renforcent la maîtrise des outils numériques, on les acquiert. Et cette acquisition ne se fait pas à la faveur d’un simple accès illimité à Internet : mes élèves, quoique pour la plupart issus de milieux défavorisés, possèdent tous des tablettes à la maison et des smartphones. Ils savent jouer à Fortnite et publier des statuts sur Facebook ou des stories sur Snapchat. Ils sont aussi capables de trouver les clips de leurs artistes préférés sur YouTube et de suivre les carrières de telle ou telle star de télé-réalité sur Instagram. C’est quand il s’agit de faire un usage éducatif de l’outil numérique qu’ils redeviennent ces êtres chétifs et impuissants qu’ils sont devant un livre ou un cahier.
La vision idéalisée
C’est ce qui mène certains sociologues à rappeler la nécessité de faire la différence entre l’accès et l’usage. La fracture numérique telle qu’on l’entendait au début des années 2000 est derrière nous : 98 % des 12 à 17 ans ont aujourd’hui un ordinateur chez eux. Demeurent pourtant de fortes inégalités liées à leur utilisation qui poussent le sociologue Fabien Granjon à parler de «fractures numériques de second degré», définies comme étant des inégalités sociales qui résultent d’un usage différent des mêmes outils numériques. Il faut se pencher sur ce phénomène pour en finir avec la vision idéalisée d’une génération de digital natives toute convertie aux nouveaux écrans et naturellement habile avec les appareils électroniques. Les données révèlent en effet des écarts de pratiques considérables entre les plus jeunes.
Les Américaines Ellen Seiter en 2008 (1), Eszter Hargittai en 2009 (2) et Jen Schradie (3) cette année : toutes ces sociologues sont arrivées à la conclusion selon laquelle la classe sociale façonne la compétence et l’usage en matière d’outils numériques. Et derrière ce constat se cache l’ombre de Bourdieu, c’est en lui que les chercheurs anglo-saxons ont trouvé une approche à même de raconter combien les relations de pouvoir et les reproductions des inégalités sociales sont au cœur même des outils numériques. En utilisant sa théorie du capital comme étant un ensemble de richesses matérielles mais aussi culturelles et sociales, ils ont montré que la position sociale construit une manière d’être («habitus» dans la terminologie de Bourdieu) vis-à-vis de l’utilisation d’Internet et des nouveaux médias. Dans son article «Les classes sociales sont-elles solubles dans Internet ?», le chercheur en sociologie de la communication Eric George donne un chiffre frappant : 72 % des utilisateurs d’Internet en milieu ouvrier ont un objectif de divertissement, contre 36 % seulement chez les cadres supérieurs.
En effet, au début des années 90, le journaliste Howard Rheingold défendait l’idée que ce réseau allait devenir un espace public tel que l’imaginait Habermas : un lieu capable de revitaliser la démocratie, gouverné par la raison, affranchi des «gatekeepers» et permettant aux citoyens de se rassembler pour discuter des questions d’intérêt commun. C’est raté, Internet n’est pas devenu ce lieu magique où s’évapore la stratification sociale : «La classe sociale est l’élément démographique le plus déterminant dans la production de contenu en ligne», explique Jen Schradie.
«Et alors ?» répondront ceux pour qui la déconnexion est un choix assumé, qui sont encore convaincus qu’on peut vivre et exercer sa citoyenneté à l’écart des écrans et des intelligences artificielles. Chaque changement social qui prend source sur les terres numériques et se répand dans la vie réelle leur rappelle la triste défaite de leur pensée. Aujourd’hui, ne pas participer à la production de contenu sur Internet, c’est se mettre un peu à l’écart de la marche du monde.
On peut en avoir l’illustration en regardant le récent documentaire Mission vérité diffusé sur Arte, qui explore les coulisses du New York Times et où on peut voir une rédaction évaluer la qualité de ses sujets en ne prenant en compte que les réactions sur Twitter. Contactée par mail, Jen Schradie déplore cette démarche de plus en plus répandue : «Quand les journalistes et les décideurs politiques s’appuient sur les réseaux sociaux, c’est une forme d’exclusion sociale. Ils favorisent les gens qui ont le temps, les ressources et les compétences pour être en ligne fréquemment et ceux qui comprennent le fonctionnement des algorithmes.»
Les voix absentes
Pire encore, comme en témoigne ce terme englobant de digital natives, on continue de faire comme si la voix d’une jeunesse tout entière n’était pas sous-représentée sur Internet. Et pendant qu’on façonne un monde de plus en plus connecté dans lequel l’exclusion numérique vous laisse au bord du chemin, vous bâillonne et vous condamne à un rôle d’observateur invisible et inaudible, c’est toute une cohorte d’adolescents fragiles, des milieux populaires ou ruraux, qu’on condamne à rester des «digital immigrants.»
L’«illectronisme», cet illettrisme du numérique, ne se contente pas d’être un obstacle empêchant la participation à la vie démocratique. A l’heure où le gouvernement envisage des services publics totalement dématérialisés en 2022, il est la promesse d’une exclusion sociale pure et simple. La comparaison avec l’illettrisme a de quoi interpeller, mais est-elle si absurde ? En 1957, Marguerite Duras s’était entretenue avec Germaine Roussel, une ouvrière de Romainville qui avait grandi chez des fermiers de la Somme et qui ne savait ni lire ni écrire. Au cours d’un entretien qui marque pour toute une vie, cette femme a tout déballé : sa sensation d’être comme une aveugle, sa honte, et sa façon de reconnaître le nom de sa rue : «Le mot "Lilas", il est haut presque comme il est large, il est joli.» Ce sentiment d’être à l’écart, cette honte et ce contournement de l’obstacle par l’intelligence ou la débrouille, c’est ce que je ressens quand je vois des parents échouer à demander une bourse pour leurs enfants par Internet.
Fabien Granjon l’a d’ailleurs théorisé dans son article portant sur les inégalités numériques : «L’échec dans les manipulations ou, sans doute plus violent encore, le fait de ne pas savoir quels types d’utilisation faire du dispositif technique, se transforment en une variété de moments négatifs, allant de la perte de confiance au sentiment de relégation», démontre-t-il. Et Philippe Marchal, qui a récemment conduit une étude sur ces Français déconnectés, met en avant ce qu’il appelle des «abandonnistes». Ce sont des personnes qui, par manque de maîtrise, renoncent à faire une démarche administrative sur Internet, à envoyer un mail important ou à faire un achat. L’abandon est encore plus ou moins permis aujourd’hui, il ne le sera plus avec la dématérialisation rampante.
Ils sont d’ailleurs 21 % de soi-disant digital natives à être des abandonnistes, selon cette même étude. Preuve, s’il en fallait encore, que des spécificités telles qu’un effet de génération ne sauraient supplanter d’autres déterminants sociologiques aussi puissants que l’appartenance sociale. «Chaque génération possède un million de visages et autant de voix», disait l’article du Time. C’est toujours aussi vrai, et l’oublier revient à fermer les yeux sur un fléau qui promet, aux jeunes les plus fragiles, l’extension du domaine de leur exclusion sociale.
(1) «Practicing at Home : Computers, Pianos, and Cultural Capital», d’Ellen Seiter, 2008.
(2) «Digital Na(t)ives ? Variation in Internet Skills and Uses Among Members of the "Net Generation"», d’Eszter Hargittai, 2009.
(3) «The Digital Activism Gap : How Class and Costs Shape Online Collective Action», de Jen Schradie, 2018.
Rachid Zerrouki professeur en Segpa à Marseille et journaliste
Chapril est la contribution de l'April au Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (CHATONS). Le projet vise à rassembler des acteurs proposant des services en ligne libres, éthiques, décentralisés et solidaires afin de permettre aux utilisateurs de trouver - rapidement - des alternatives aux produits de Google (entre autres) mais respectueux de leurs données et de leur vie privée.
Notre chaton(s) a fini sa gestation. Les conditions générales d'utilisation (CGU) ont été finalisées et des premiers services sont disponibles, notamment pour des tests en conditions réelles d'usage, sur le site Chapril :
pour planifier un rendez-vous ou prendre des décisions rapidement et simplement
pour échanger des messages, appelés « pouets » (ou toots dans d'autres langues dont l'anglais), via le réseau social décentralisé Mastodon
pour rédiger collaborativement du texte en ligne
pour partager des textes de manière confidentielle et sécurisée.