Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées à la liberté d’expression que les luttes démocratiques du XIXème siècle nous avaient léguées en héritage.
L’héritage démocratique-libéral piétiné
La loi de 1881 sur la liberté de la presse – aujourd’hui interprétée à la lumière de la Convention européenne des droits de l’Homme – est certes pleine de lacunes, et on a trop souvent tendance à exagérer son libéralisme. Mais elle n’en demeure pas moins une boussole fondamentale pour la liberté d’expression, prévoyant par exemple des règles procédurales spéciales pour juger a posteriori des abus de cette liberté, et consacrant la compétence exclusive du juge judiciaire dans le cadre de procédures publiques.
Ces dernières années, cet héritage a été piétiné. Les protections associées à la liberté d’expression reculent partout : dans la rue, dans la presse mais aussi et surtout sur Internet. Si le phénomène est ancien, le contexte actuel de crise (anti)terroriste et la dérive autoritaire qu’oppose le pouvoir aux mouvements sociaux y contribuent grandement. Pour ne prendre qu’un sujet qui nous intéressera ici, rappelons par exemple qu’en 2014, le législateur a estimé que l’« apologie du terrorisme » sur Internet n’aurait à ce point rien à voir avec la liberté d’expression qu’elle pourrait faire l’objet d’une censure secrète du ministère de l’intérieur. Cette évolution aura d’ailleurs conduit fin 2016 à la censure de communiqués revendiquant des actes de destruction matérielle de véhicules policiers, en réponse à l’inculpation de personnes arrêtées en lien avec les manifestations contre la loi travail de 2016.
Par le même vote de 2014, le Parlement jugeait également l’apologie du terrorisme indigne de la loi de 1881 et de ses garanties, et bien plus à sa place dans le code pénal. En contournant les garanties procédurales attachées à la loi de 1881, cette évolution aura conduit aux comparutions immédiates et à des condamnations totalement disproportionnées de dizaines de provocateurs au lendemain des attentats de janvier 2015.
De l’expérimentation à la législation
Cette fuite en avant est en train d’atteindre un point de bascule. Depuis 2015, les gouvernements français, britannique, allemand et étasunien n’ont eu cesse de mettre les multinationales de l’économie numérique sous pression pour les inviter à faire la police sur leurs plateformes. De visites ministérielles dans la Silicon Valley en sommets « États-plateformes » sur le terrorisme, Google, Facebook et consorts ont accepté ces collaborations visant à massifier la censure de la propagande terroriste dans un cadre extra-judiciaire.
Après de nombreuses expérimentations menées ces dernières années, notamment par Interpol ou encore le ministère de l’intérieur français, ces nouveaux agencements public-privé sont en passe d’être couronnés par l’adoption à marche forcée d’un règlement européen dédié à la lutte contre la propagande terroriste, présenté en septembre dernier par la Commission Juncker.
La France est, avec l’Allemagne, directement à l’origine de ce texte. Le 12 avril dernier, le ministre de l’intérieur Gérard Collomb et son homologue allemand écrivaient à la Commission européenne pour l’intimer d’agir au plus vite pour présenter et faire adopter ce texte. Celle-ci a donc obtempéré, présentant son projet en catimini le 12 septembre – le jour où le Parlement européen adoptait le fameux article 13 de la directive copyright, dont les obligations en matière de censure automatique nourrissaient alors la controverse.
Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :
L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelque soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.
La censure automatique bientôt généralisée
De la lettre d’avril 2018 émanant des ministres de l’intérieur français et allemand, il ressort deux choses, depuis confirmées par les informations glanées ces dernières semaines dans différents ministères.
D’abord, la certitude que le règlement est un pied dans la porte, une manière bien coutumière d’imposer des mesures controversées en invoquant des justifications supposées imparables – ici la lutte (anti)terroriste. Comme l’expliquent les ministres de l’intérieur dans cette missive :
« Il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine l‘incitation à la discrimination et à la haine raciale, atteinte à la dignité de la personne humaine…) ».
À terme, ce nouveau régime de censure a donc vocation à être généralisé. Il suffira de revoir les paramètres de ces outils de censure pour ajouter de nouvelles catégories de contenus.
Le deuxième enseignement de cette lettre des gouvernements français et allemand est que ces systèmes de censure automatique développés par les grandes plateformes devront être proposés à l’ensemble des acteurs visés par ce texte. Comme le soulignent les ministères dans leur missive :
« Les grandes entreprises [devront] apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus à caractère terroriste ».
Il est vrai que ces systèmes sont coûteux : Content-ID, l’outil mis en place par YouTube pour détecter de possibles atteintes au droit d’auteur dans les vidéos mis en ligne par les utilisateurs du service, aura a lui seul coûté près de 100 millions de dollars en développement…
Macron en soutien
Début novembre 2018, lors du Forum sur la gouvernance d’Internet qui se tenait dans les locaux de l’Unesco à Paris, Emmanuel Macron est revenu sur ce règlement, un texte qu’il a dit « soutenir pleinement », espérant « son adoption rapide avant les élections européennes ». Soit en à peu près 6 mois, délai exceptionnellement court pour un texte sécuritaire qui institue une censure extra-judiciaire pour l’ensemble des acteurs du Net opérant au sein de l’Union européenne.
Or, dans son discours, Macron confirme le bien-fondé des craintes soulevées par le règlement. Assurant que la « régulation des contenus illicites ou indésirables » est « la prochaine frontière », il s’empresse de distinguer « deux blocs » :
« le premier concerne la lutte contre les contenus objectivement et gravement illégaux – le terrorisme, la pédopornographie ». Pour ces contenus, l’intelligence artificielle est « mûre », assure le président français. C’est bien le sens du règlement européen que d’en généraliser l’usage.
« le second rassemble les contenus dont le caractère illicite est soumis à une interprétation, souvent d’ailleurs différente d’un pays à l’autre – les contenus haineux, la diffamation, le harcèlement ». Pour ces derniers, Emmanuel Macron estime que l’intelligence artificielle « n’est pas encore assez fine pour distinguer l’ironie, la parodie ou au contraire reconnaître un sous-entendu abject sous un discours policé ».
« Pas encore », donc bientôt ? Cette perspective a récemment été confirmée par Mounir Mahjoubi, secrétaire d’État au numérique : en annonçant le plan de lutte contre les contenus haineux sur Internet, le 14 février dernier, celui-ci évoquait sans réserve la perspective de soumettre les « discours de haine » à la censure automatique.
Quant à la référence aux contenus « indésirables », signifie-t-elle que que le chef de l’État entend encourager l’extension de ces systèmes de censure à des contenus licites mais réputés nuisibles par le pouvoir ? Un projet qui, parmi tant d’autres choses, contredit frontalement l’image d’un homme politique prétendant incarner l’« axe humaniste » européen dressé contre la fascisation du continent…
L’intelligence artificielle, Saint Graal des États
Durant les trois jours du Forum sur la gouvernance d’Internet, l’« intelligence artificielle » (ou IA) était sur toutes les bouches. C’est bien elle, en réalité, la nouvelle frontière censée transformer toutes les bureaucraties. C’est bien elle qui, selon l’expression entendue à maintes reprises durant cet événement, permettra à la surveillance et à la censure de « passer à l’échelle » (« scale up », en anglais).
Les progrès réalisés ces dernières années en « Machine Learning » et en traitement automatique des textes et des images fait en effet figure de Saint Graal pour les États. Fin 2017, un conseiller de Theresa May expliquait que si les États avaient besoin des multinationales américaines pour faire le sale boulot, c’est qu’après tout, « ces entreprises ont les meilleurs cerveaux du monde ».
Ces firmes, réunies depuis juin 2017 au sein d’un consortium baptisé « Global Internet Forum to Counter Terrorism », mettent en avant des résultats impressionnants (quoique guère vérifiables) en matière d’automatisation de la détection des contenus terroristes : YouTube parle de 98% de contenus de ce type repérés automatiquement, tandis que Facebook explique que 99% des contenus liés à l’État islamique ou à Al-Qaïda sont retirés avant que quiconque ne le ait signalés.
Pour l’heure, ces outils de censure automatique n’opèrent souvent qu’un premier filtrage, et l’immense majorité des contenus censurés sont en réalité « modérés » par des prestataires établis en Inde, au Philippines ou au Maroc pour juger de la conformité de textes ou d’images aux conditions d’utilisation des plateformes. Ces petites mains de la censure qui travaillent dans des conditions déplorables se voient imposer des objectifs délirants de l’ordre de 2000 images par heure, soit une appréciation portée sur une image en moins de deux secondes. En 2017, Facebook annonçait porter ses équipes de modération de 3000 à 7500 personnes. Google envisageait dans le même temps de porter le nombre de modérateurs YouTube à plus de 10 000.
Ces chiffres rappellent que, malgré ses rapides progrès, la censure automatisée n’est encore que balbutiante. Mais compte tenu des milliards investis dans la recherche en IA et des pressions exercées par les États, sa généralisation est désormais à portée de main. La censure privée et automatisée, que des organisations comme La Quadrature du Net combattent depuis des années, est bien en passe de fonder un nouveau régime de censure.
La fusion État-GAFAM : actualisation de logiques anciennes
Si l’on pense l’État non pas comme un bloc aux contours clairement identifiés (à la manière des juristes) mais davantage comme un ensemble de pratiques et une rationalité que Michel Foucault désignait comme la « gouvernementalité », alors il est clair que ce que ces évolutions donnent à voir, c’est l’incorporation de ces acteurs privés à l’État ; c’est la cooptation de leurs infrastructures et la diffusion de leurs savoirs-faire dans le traitement et l’analyse de masses de données désormais cruciales dans les formes contemporaines de gouvernement. C’est donc une fusion qui s’opère sous nos yeux, bien plus qu’une concurrence entre les États et les GAFAM qui chercheraient à se substituer aux gouvernements.
Ces logiques de cooptation d’acteurs privés par l’État sont récurrentes dans l’histoire de la censure. À partir du XVIè siècle, alors que le développement de l’imprimerie joue un rôle clé dans la propagation de doctrines politiques et religieuses subversives, l’État moderne en gestation recourait déjà aux partenariats public-privé dans la surveillance et la censure des communications.
En France par exemple, le cardinal de Richelieu conclut au début du XVIè siècle une alliance avec les libraires parisiens qui réclament un monopole perpétuel sur l’édition des livres pour écraser la concurrence. Ils se voient octroyer des privilèges à durée quasiment illimitée en échange de la conduite d’une mission de surveillance des publications et la docte application des règlements en matière de censure. Cette politique bientôt élargie à l’ensemble du royaume, permettra à une trentaine d’imprimeurs-libraires de maîtriser tant bien que mal la production et la distribution des livres. Cela n’étouffait évidemment pas totalement l’édition clandestine, mais permettait de maîtriser un tant soit peu les effets politiques de l’imprimerie, d’affermir l’absolutisme tout en remplissant les caisses de quelques hommes d’affaires.
Lors de leur apparition au tournant des années 1980, les réseaux informatiques – et Internet en particulier – se sont donnés à penser comme une technologie radicalement subversive des formes de contrôle des communications qui s’étaient institutionnalisées dans le giron de l’État moderne, et transposées aux différentes techniques de communication apparues depuis l’imprimerie. Ils allaient bientôt induire la massification des flux transfrontières d’information, l’anonymat relatif des communications numériques, l’appropriation de ces technologies par des groupes contestataires et marginalisés dans l’espace public traditionnel, et plus généralement la démocratisation de la capacité d’expression publique au delà du petit cercle des personnes ayant jusqu’alors accès aux médias traditionnels. Tout cela déstabilisait les modalités de contrôle de l’espace public et, plus encore, la souveraineté des États. Internet était donc perçu comme un espace dangereux. Il fallait donc réarmer la police de l’espace public ou, pour reprendre le vocable que Nicolas Sarkozy avait emprunté au parti communiste chinois, le « civiliser » (un terme encore repris récemment par Mounir Mahjoubi).
La solution est donc en passe d’être trouvée, et il aura fallu moins d’un quart de siècle. Aujourd’hui, au lieu d’une petite dizaines d’imprimeurs-libraires à l’échelle d’un pays, ce sont une poignée d’entreprises américaines qui sont cooptées par les bureaucraties d’État dédiées à la surveillance et à la censure. En dépit des discours lénifiants sur la « souveraineté numérique », les gouvernements préfèrent en fait renforcer la position dominante de ces multinationales, en obligeant l’ensemble des acteurs du numérique à leur acheter leurs systèmes de censure. Ceux qui ne pourront pas se le permettre ou qui refuseraient de se faire auxiliaires de censure – notamment ceux qui font encore vivre un Web indépendant, non-commercial, alternatif – seront poussés à mettre la clé sous la porte.
L’instrumentalisation de la lutte contre les discours de haine
On nous parle de lutter contre la propagande terroriste et les discours de haine. Mais il est désormais de plus en plus clair que cette lutte reposera sur des dispositifs de censure automatique qui resteront de véritables « boîtes noires », par définition secrètes, gérées par des partenariats publics-privés opaques. Ces derniers consentiront peut être à mettre en scène une certaine transparence, un peu d’autorégulation et des aménagements présentés comme autant de garanties – à l’image de Facebook qui nous promet aujourd’hui de mettre sur pied une « cour suprême » pour recevoir des plaintes d’utilisateurs victimes de sa politique de « modération ». Mais ils ne présenteront jamais les garanties offertes par des juridictions traditionnelles. Et pour cause : ces dispositifs sont conçus pour s’en affranchir. La censure automatique des communications a cet avantage pour le pouvoir qu’elle est presque invisible, et donc pratiquement incontestable.
On nous parle de lutter contre les discours de haine via la censure d’Internet. Mais depuis plus de quarante ans que des incriminations existent pour réprimer les expressions incitant à la haine et aux discriminations, a-t-on vraiment fait des progrès en la matière ? De fait, l’intolérance se donne à voir au grand jour sur Internet, où elle s’abat sur des groupes structurellement discriminés. Pour autant, ces opprobres sont aussi quotidiennes dans les médias traditionnels, dans les cénacles politiques, et bien souvent dans les pratiques des institutions.
On nous parle de lutter contre les discours de haine. Mais il apparaît de plus en plus clairement que ce qui est aussi visé, c’est l’invisibilisation de tout discours associé de près ou de loin à des formes de violence politique qui risqueraient d’être perçues comme légitimes. C’est ce qu’illustre par exemple l’affaire déjà évoquée, lorsque fin 2016, au nom de la lutte contre le terrorisme, le ministère de l’intérieur enjoignait à deux sites participatifs de censurer un communiqué revendiquant l’incendie d’un hangar de gendarmerie, acte présenté par les auteurs comme une réponse à la répression policière (cette décision aura finalement été annulée début 2019 par la justice administrative, exceptionnellement saisie de cette affaire). Plus largement, c’est l’ensemble des discours politiques contestataires qui pourraient bientôt faire l’objet de cette censure secrète. La tentation du pouvoir est réelle, comme en témoigne les velléités récentes du ministère de l’intérieur de censurer un photomontage qui remplaçait le visage du général Pinochet et de ses sbires par ceux d’Emmanuel Macron, d’Édouard Philippe et de Christophe Castaner.
S’il était adopté, le règlement antiterroriste serait donc une pierre de plus dans la mise en place de ces nouveaux dispositifs dédiés à l’invisibilisation des expressions politiques contestataires. Rien qu’en s’en tenant à la catégorie de l’apologie du terrorisme, les outils de censure développés par les multinationales du numérique en lien avec les autorités trouveraient à s’appliquer à de nombreuses activités militantes : le sens du terme « terrorisme » est en effet tellement vague, ou lorsqu’une définition existe elle est tellement large, qu’il peut servir à justifier la censure de toute expression favorable à des actions politiques offensives ou violentes – y compris la destruction de biens matériels, le sabotage ou le blocage d’infrastructures.
Conjurer la re-féodalisation de l’espace public numérique
Si l’on se soucie de la liberté d’expression et de l’État de droit, si l’on se soucie de ménager un espace où le pouvoir pourra être critiqué, où nous pourrons débattre et nous organiser, où un peu de sens commun pourra se construire, ces nouvelles fores de censure doivent être tenues en échec.
Ce qu’il faut, c’est d’abord comprendre qu’une grande partie du problème lié aux discours haineux sur Internet tient à ce qu’est devenue l’économie politique de ce réseau. Le nœud du problème spécifique que pose Internet, c’est bien la manière dont les grandes entreprises du numérique conditionnent les régimes d’attention : les contenus attrape-clics, simplistes et sans nuance, jouant sur les émotions négatives ; les « bulles de filtres » qui nous enferment tout en donnant l’illusion de neutralité, et offrent un faux sentiment de sécurité en permettant aussi à des individus aux identités politiques radicalement adverses de venir nous agresser sur des plateformes ouvertes aux quatre vents.
Face aux « Fake News » et à la haine qui sévit aussi sur Internet, ceux qui prétendent nous gouverner se frottent les mains : le pourrissement de l’espace public numérique leur permet aujourd’hui de légitimer le retour de vieilles stratégies de contrôle. C’est tout le sens du discours de Macron au Forum sur la gouvernance d’Internet.
Ce n’est pourtant pas une fatalité. Ces dernières semaines, La Quadrature du Net a commencé à exposer des positions destinées à lutter par le droit contre ces infrastructures centralisées qui pervertissent le débat public, tout en favorisant l’éclosion d’îlots de communication communautaires et fédérés où pourront se redéployer les espaces d’expression, de conversation, et donc une partie du débat public. L’idée phare de ces propositions, c’est de casser le régime d’attention mis en place par les plateformes, fondé sur la collecte des données personnelles et la hiérarchisation des contenus à des fins commerciales, au sein d’infrastructures gigantesques pensées pour rendre les utilisateurs captifs.
L’objectif, c’est bien de promouvoir en lieu et place une nouvelle topologie de l’espace public numérique capable de protéger des lieux de discussion décentralisés mais pouvant être reliés les uns aux autres, laissant à chacun le choix de ses communautés et des limites données à la liberté d’expression, pour ainsi mieux maîtriser son degré d’exposition aux conflits qui traversent immanquablement l’espace public. L’espoir est d’ainsi réduire le risque de conflits interpersonnels non-souhaités. C’est de faire en sorte que la demande sociale de censure soit moins forte et que la censure préalable et automatique puisse ne plus apparaître comme la seule option valable ; que le principe d’une protection judiciaire de la liberté d’expression soit préservé.
L’urgence, c’est en tous cas de rompre l’alliance des appareils policiers et des grands marchands d’infrastructures numériques. C’est d’éviter que ne se consolident les fondements techniques et juridiques d’une société de contrôle nous enfermant imperceptiblement dans une cage de fer algorithmique.
Ce texte est adapté d’une intervention au colloque « Réglementer la liberté d’expression au nom du débat public », qui se tenait à l’Institut de Recherche Philosophiques de Lyon (IRPhiL) les 29 et 30 novembre 2018.
Le dernier livre du chercheur Tarleton Gillespie (@TarletonG, blog), Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit) livre une plongée très documentée dans le monde de la modération des plateformes des grands réseaux sociaux… et offre bien des prises pour comprendre les enjeux ce débat récurrent sur les règles et le droit qui doivent présider nos échanges en ligne.
La modération – cette invitation à la pondération, à trouver les bonnes règles d’échanges et de débats en ligne – désigne souvent cette capacité à gérer les communautés d’utilisateurs, le public (« l’ensemble de ceux qui sont affectés par les conséquences indirectes de transactions qu’il est jugé nécessaire de veiller systématiquement à ces conséquences », disait John Dewey dans Le public et ses problèmes) est une préoccupation centrale depuis le début du web. Des premiers forums aux listes de discussions sur Usenet, les communautés en ligne ont toujours eu besoin qu’on prenne soin d’elles, que ce soit en développant des formes de gouvernance pour les protéger, des procédures claires et démocratiques d’usages, ou en trouvant les modalités pour traiter les préjudices et infractions. Les plateformes n’échappent pas à ces règles ni à ces débats.
Le texte européen le plus liberticide de cette décennie est en approche
Hors un certain nombre de pays qui se sont opposés à ce texte, le Conseil de l’Union européenne vient d’acter un projet de loi au parfum pour le moins désagréable pour ce qui concerne les libertés publiques. Poussé par la gouvernance actuelle française, ce texte – peu médiatisé – pourrait s’avérer l’un des coups les plus violents jamais portés à la liberté d’expression dans les pays « démocratiques » de l’Union européenne. Le débat autour de ce texte va maintenant se poursuivre au parlement européen.
Il convient de préciser que le 12 décembre 2018 un premier rapport sur la lutte antiterroriste a été adopté à une très large majorité : sur 661 votants, 474 ont voté en faveur de ce dernier tel qu’il a été amendé, 112 voix contre, 75 votants se sont abstenus. Cette adoption était prévisible. Il faut toutefois noter qu’elle s’est déroulée dans un contexte très particulier : au lendemain du terrible drame de Strasbourg à proximité du marché de Noël. Ce rapport sur « les observations et les recommandations de la commission spéciale sur le terrorisme » est dans la même ligne. Ce rapport désormais adopté est un marchepied qui vient appuyer le texte à venir, texte qui recommandera entre autres mesures la sous-traitance de la censure aux géants de l’Internet.
Usant toujours de la même argumentation – a priori- louable : la lutte contre le terrorisme, ce texte – que vous retrouverez sous l’intitulé : « Règlement du Parlement Européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne » obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google. Quand la Quadrature du Net qui soulève le problème s’interroge : « Une loi européenne pour censurer les mouvements sociaux sur Internet ? » La réponse apparaît tristement contenue dans la question au regard des éléments exposés ci-après et des mouvements sociaux qui se déroulent en France depuis quelques semaines.
Nonobstant un projet réalisé dans un timing empêchant tout débat public, ces alliances contre-nature associant des géants du Net à des États dans l’exercice de la censure sont préoccupantes.
Pourquoi est-ce une dérive dangereuse ?
Si le règlement européen franchit ici un nouveau cap, c’est qu’au-delà d’une exigence de retrait dans l’heure sous peine de sanctions financières des prestataires, ce projet de loi prévoit d’intégrer également des « mesures proactives ».
Il s’agit donc d’avoir recours à de la censure automatique préventive ! Pour faire simple, cette censure serait alors paramétrée par les autorités concernées et les géants du web.
Voici ci-dessous quelques extraits de ce que propose ce projet de règlement en terme de mesures proactives (article 6). Un règlement que je vous encourage à lire attentivement et dans son ensemble (Bruxelles,le 7 décembre 2018 : Règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne).
Les fournisseurs de services d’hébergement prennent, selon le risque et le niveau d’exposition aux contenus à caractère terroriste, des mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste. Ces mesures sont efficaces et proportionnées, compte tenu du risque et du niveau d’exposition aux contenus à caractère terroriste, des droits fondamentaux des utilisateurs et de l’importance fondamentale de la liberté d’expression et d’information dans une société ouverte et démocratique.
Lorsqu’elle a été informée conformément à l’article 4, paragraphe 9, l’autorité compétente* visée à l’article 17, paragraphe 1, point (c), demande au fournisseur de services d’hébergement de soumettre, dans les trois mois suivant la réception de la demande, et ensuite au moins une fois par an, un rapport sur les mesures proactives spécifiques qu’il a prises, y compris au moyen d’outils automatisés.
Lorsque il est évoqué la notion « d’autorité compétentes » qui seront habilitées à superviser ces mesures proactives elles sont « précisées » dans le point (37) :
« (37) Aux fins du présent règlement, les États membres devraient désigner des autorités compétentes. L’obligation de désigner des autorités compétentes n’impose pas nécessairement la création de nouvelles autorités ; il peut en effet s’agir d’organismes existants chargés des fonctions prévues par le présent règlement. Celui-ci exige la désignation d’autorités compétentes chargées d’émettre les injonctions de suppression et les signalements et de superviser les mesures proactives, ainsi que d’imposer des sanctions. Il appartient aux États membres de décider du nombre d’autorités qu’ils souhaitent désigner pour remplir ces tâches ».
Sans vouloir jouer les oiseaux de mauvais augure, quand le ministre de l’Intérieur dénonce « les séditieux » parmi les gilets jaunes, on peut s’inquiéter fortement sur l’usage futur et dévoyé qui pourrait être fait par la gouvernance actuelle (et d’autres) d’une telle loi.
Les mots ont un sens, et les mots ne sont pas innocents ! Ils le sont d’autant moins lorsque l’on est aux responsabilités. Je rappelle donc qu’une sédition « est une forme d’émeute face à un pouvoir ou une autorité établie, dont le but ne serait pas uniquement de renverser les détenteurs d’une puissance, mais de rompre définitivement tout lien avec ce système ».
La problématique est que de « sédition » à « criminel » puis à « terroriste » il n’y a qu’un pas qui pourrait être vite franchi pour justifier une censure totalement outrancière en cas de mouvement social contestataire s’exprimant demain sur Internet.
Aussi, et au regard du type de qualificatif qui a été utilisé lors du mouvement de contestation sociale massif qui se déroule actuellement en France, que ce qualificatif soit supposé désigner quelques individus ou un collectif est en définitive peu important… Le mot a été lâché ! Il laisse sous-entendre que sous une telle loi un mouvement de contestation du type des « gilets jaunes » – en France comme ailleurs – pourrait être traité comme un mouvement potentiellement séditieux et de fait être censuré au plus tôt par les autorités et leurs nouveaux alliés de la censure.
Cela entraînerait ipso facto (par exemple) une impossibilité d’usage du Net pour l’organisation de rassemblements. Que ces rassemblements soient pacifiques ou non, ils pourraient être rapidement mis « dans le même panier » ! Le couperet de la censure pourrait alors s’abattre de façon généralisée et préventive pour “tuer dans l’œuf” ce type de mouvement contestataire. Il sera nécessaire et suffisant de s’appuyer sur les comportements de quelques illuminés réellement dangereux… pour brandir le terme sédition et co-actionner la censure algorithmique adaptée ! Pour le bien de la sécurité nationale, évidemment…
« Puisque le peuple vote contre le Gouvernement, il faut dissoudre le peuple ». (Bertolt Brecht)
Nous n’aurons jamais vu un règlement européen être accepté aussi rapidement par les gouvernements européens (en moins de 3 mois !), et ce malgré les inquiétudes exprimées par divers États1. Macron les a manifestement convaincu que, les élections européennes approchant, ils pourraient maintenir leur pouvoir en agitant l’inaltérable prétexte terroriste. En résulte une censure et une surveillance généralisée de l’Internet.
Le Conseil de l’Union européenne vient donc d’acter, à l’instant et sans le moindre débat sérieux, un projet de loi qui obligera tous les acteurs du Web à se soumettre aux outils de surveillance et de censure automatisés fournis par Facebook et Google2, tout en permettant à la police d’exiger le retrait en une heure des contenus qu’elle jugera « terroriste », sans l’autorisation d’un juge.
Deux mesures aussi délirantes qu’inédites, qui conduiront à soumettre tout l’écosystème numérique européen à une poignée de géants que l’Union prétend cyniquement vouloir combattre (lire notre analyse), tout en risquant de remettre en cause la confidentialité de nos correspondances3… Et tout ça alors que ni la Commission européenne ni les gouvernements n’ont jamais réussi à démontrer en quoi cette loi serait utile pour lutter contre le terrorisme4.
Le débat sur ce texte se poursuivra maintenant devant le Parlement européen. Celui-ci votera mercredi prochain, le 12 décembre, un premier « rapport sur la lutte anti-terroriste » qui, sans avoir l’effet d’une loi, promeut peu ou prou les mêmes mesures absurdes que celles prévues dans le « règlement de censure anti-terroriste », que le Parlement examinera dans les semaines suivantes.
Ce premier vote de mercredi sera l’occasion pour chaque député européen de révéler sa position face au projet totalitaire d’Emmanuel Macron, et ils devront en rendre compte alors que s’amorce la campagne électorale pour les élections européennes de 2019.
L'April se joint à 43 associations pour signer une lettre ouverte rédigée à l'initiative de La Quadrature du Net, afin d'interpeller le président de la République et lui demander de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le jeudi 6 décembre 2018 pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook notamment et à remettre en cause la confidentialité de nos communications.
Un texte qui aura un écho particulier pour toute personne qui suit la liberticide directive droit d'auteur. L'objet du texte est différent, mais la solution affichée est très similaire : imposer aux acteurs de l'Internet, hébergeurs en tête, une surveillance des informations et contenus des personnes qui utilisent leurs services et les en rendre responsables.
Vous pourrez retrouver la liste des signataires sur le site de La Quadrature du Net, ainsi que leurs textes d'analyse sur ce dossier.
Opposition au projet de règlement européen de censure antiterroriste
Monsieur le Président,
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement >européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog >et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
44 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le 6 décembre pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook (relire notre analyse) et à remettre en cause la confidentialité de nos communications (relire notre analyse).
La lettre en PDF ou ci-dessous :
Monsieur le Président,
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Signataires :
Alsace Réseau Neutre
April
Aquilenet
Bee Home
Le CECIL
Devloprog
Digital Courage
FAImaison
FDN
FFDN
Framasoft
Franciliens
Globenet
Hadoly
Hoga
Human Rights Watch
Illyse
Iloth
IndieHosters
La mère Zaclys
Labomedia
Lautrenet
Marsnet
Mediapart
Nebulae
Observatoire des Libertés et du Numérique
Open Rights Group
Outils libres
Ouvaton
Panoptykon
Paquerettes
Parinux
Picasoft
ProtonMail
Rézine
Statewatch
Syndicat de la magistrature
Syndicat national des journalistes
Creis – Terminal
Toile-Libre
Vhost
Wikimedia France
Witness
Xnet