Vers l’automatisation de la censure politique

Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées à la liberté d’expression que les luttes démocratiques du XIXème siècle nous avaient léguées en héritage.

L’héritage démocratique-libéral piétiné

La loi de 1881 sur la liberté de la presse – aujourd’hui interprétée à la lumière de la Convention européenne des droits de l’Homme – est certes pleine de lacunes, et on a trop souvent tendance à exagérer son libéralisme. Mais elle n’en demeure pas moins une boussole fondamentale pour la liberté d’expression, prévoyant par exemple des règles procédurales spéciales pour juger a posteriori des abus de cette liberté, et consacrant la compétence exclusive du juge judiciaire dans le cadre de procédures publiques.

Ces dernières années, cet héritage a été piétiné. Les protections associées à la liberté d’expression reculent partout : dans la rue, dans la presse mais aussi et surtout sur Internet. Si le phénomène est ancien, le contexte actuel de crise (anti)terroriste et la dérive autoritaire qu’oppose le pouvoir aux mouvements sociaux y contribuent grandement. Pour ne prendre qu’un sujet qui nous intéressera ici, rappelons par exemple qu’en 2014, le législateur a estimé que l’« apologie du terrorisme » sur Internet n’aurait à ce point rien à voir avec la liberté d’expression qu’elle pourrait faire l’objet d’une censure secrète du ministère de l’intérieur. Cette évolution aura d’ailleurs conduit fin 2016 à la censure de communiqués revendiquant des actes de destruction matérielle de véhicules policiers, en réponse à l’inculpation de personnes arrêtées en lien avec les manifestations contre la loi travail de 2016.

Par le même vote de 2014, le Parlement jugeait également l’apologie du terrorisme indigne de la loi de 1881 et de ses garanties, et bien plus à sa place dans le code pénal. En contournant les garanties procédurales attachées à la loi de 1881, cette évolution aura conduit aux comparutions immédiates et à des condamnations totalement disproportionnées de dizaines de provocateurs au lendemain des attentats de janvier 2015.

De l’expérimentation à la législation

Cette fuite en avant est en train d’atteindre un point de bascule. Depuis 2015, les gouvernements français, britannique, allemand et étasunien n’ont eu de cesse de mettre les multinationales de l’économie numérique sous pression pour les inviter à faire la police sur leurs plateformes. De visites ministérielles dans la Silicon Valley en sommets « États-plateformes » sur le terrorisme, Google, Facebook et consorts ont accepté ces collaborations visant à massifier la censure de la propagande terroriste dans un cadre extra-judiciaire.

Après de nombreuses expérimentations menées ces dernières années, notamment par  Europol ou encore le ministère de l’intérieur français, ces nouveaux agencements public-privé sont en passe d’être couronnés par l’adoption à marche forcée d’un règlement européen dédié à la lutte contre la propagande terroriste, présenté en septembre dernier par la Commission Juncker.

La France est directement à l’origine de ce texte. Le 12 avril dernier, le ministre de l’intérieur Gérard Collomb et son homologue allemand écrivaient à la Commission européenne pour l’intimer d’agir au plus vite pour présenter et faire adopter ce texte. Celle-ci a donc obtempéré, présentant son projet en catimini le 12 septembre – le jour où le Parlement européen adoptait le fameux article 13 de la directive copyright, dont les obligations en matière de censure automatique nourrissaient alors la controverse.

Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :

  • L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelle que soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
  • L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
  • L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.

La censure automatique bientôt généralisée

De la lettre d’avril 2018 émanant des ministres de l’intérieur français et allemand, il ressort deux choses, depuis confirmées par les informations glanées ces dernières semaines dans différents ministères.

D’abord, la certitude que le règlement est un pied dans la porte, une manière bien coutumière d’imposer des mesures controversées en invoquant des justifications supposées imparables – ici la lutte (anti)terroriste. Comme l’expliquent les ministres de l’intérieur dans cette missive :

« Il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine l‘incitation à la discrimination et à la haine raciale, atteinte à la dignité de la personne humaine…) ».

À terme, ce nouveau régime de censure a donc vocation à être généralisé. Il suffira de revoir les paramètres de ces outils de filtrage pour ajouter de nouvelles catégories de contenus.

Le deuxième enseignement de cette lettre des gouvernements français et allemand est que ces systèmes de censure automatique développés par les grandes plateformes devront être proposés à l’ensemble des acteurs visés par ce texte :

« Les grandes entreprises [devront] apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus à caractère terroriste ».

Il est vrai que ces systèmes sont coûteux : Content-ID, l’outil mis en place par YouTube pour détecter de possibles atteintes au droit d’auteur dans les vidéos publiées par ses utilisateurs, aura à lui seul coûté près de 100 millions de dollars en développement…

Macron en soutien

Début novembre 2018, lors du Forum sur la gouvernance d’Internet qui se tenait dans les locaux de l’Unesco à Paris, Emmanuel Macron est revenu sur ce règlement, un texte qu’il a dit « soutenir pleinement », espérant « son adoption rapide avant les élections européennes ». Soit en à peu près 6 mois, délai exceptionnellement court pour un texte sécuritaire qui institue une censure extra-judiciaire pour l’ensemble des acteurs du Net opérant au sein de l’Union européenne.

Dans son discours, Macron confirme le bien-fondé des craintes soulevées par le règlement. Assurant que la « régulation des contenus illicites ou indésirables » est « la prochaine frontière », il s’empresse de distinguer « deux blocs » :

  • « le premier concerne la lutte contre les contenus objectivement et gravement illégaux – le terrorisme, la pédopornographie ». Pour ces contenus, l’intelligence artificielle est « mûre », assure le président français. C’est bien le sens du règlement européen que d’en généraliser l’usage.
  • « le second rassemble les contenus dont le caractère illicite est soumis à une interprétation, souvent d’ailleurs différente d’un pays à l’autre – les contenus haineux, la diffamation, le harcèlement ». Pour ces derniers, Emmanuel Macron estime que l’intelligence artificielle « n’est pas encore assez fine pour distinguer l’ironie, la parodie ou au contraire reconnaître un sous-entendu abject sous un discours policé ».

« Pas encore », donc bientôt ? Cette perspective a récemment été confirmée par Mounir Mahjoubi, secrétaire d’État au numérique : en annonçant le plan de lutte contre les contenus haineux sur Internet, le 14 février dernier, celui-ci évoquait sans réserve la perspective de soumettre les « discours de haine » à la censure automatique.

Quant à la référence aux contenus « indésirables », signifie-t-elle que que le chef de l’État entend encourager l’extension de ces systèmes de censure à des contenus licites mais réputés nuisibles par le pouvoir ? Un projet qui, parmi tant d’autres choses, contredit frontalement l’image d’un homme politique prétendant incarner l’« axe humaniste » européen dressé contre la fascisation du continent…

L’intelligence artificielle, Saint Graal des États

Durant les trois jours du Forum sur la gouvernance d’Internet, l’« intelligence artificielle » (ou IA) était sur toutes les bouches. C’est bien elle, en réalité, la nouvelle frontière censée transformer toutes les bureaucraties. C’est bien elle qui, selon l’expression entendue à maintes reprises durant cet événement, permettra à la surveillance et à la censure de « passer à l’échelle ».

Les progrès réalisés ces dernières années en « Machine Learning » et en traitement automatique des textes et des images fait en effet figure de Saint Graal pour les États. Fin 2017, un conseiller de Theresa May expliquait que si les États avaient besoin des multinationales américaines pour faire le sale boulot, c’est qu’après tout, « ces entreprises ont les meilleurs cerveaux du monde ».

Ces firmes, réunies depuis juin 2017 au sein d’un consortium baptisé « Global Internet Forum to Counter Terrorism », mettent en avant des résultats impressionnants (mais guère vérifiables) en matière d’automatisation de la détection des contenus terroristes : YouTube parle de 98% de contenus de ce type repérés automatiquement, tandis que Facebook explique que 99% des contenus liés à l’État islamique ou à Al-Qaïda sont retirés avant que quiconque ne les ait signalés.

Pour l’heure, ces outils de censure automatique n’opèrent souvent qu’un premier filtrage. L’essentiel des contenus censurés sont en réalité « modérés » par des prestataires établis en Inde, au Philippines ou au Maroc pour juger de la conformité de textes ou d’images aux conditions d’utilisation des plateformes. « En attendant les robots », ces petites mains de la censure qui travaillent dans des conditions déplorables se voient imposer des objectifs délirants de l’ordre de 2000 images par heure, soit une appréciation portée sur une image en moins de deux secondes. En 2017, Facebook annonçait porter ses équipes de modération de 3000 à 7500 personnes. Google envisageait dans le même temps de porter le nombre de modérateurs YouTube à plus de 10 000.

Ces chiffres rappellent que, malgré ses rapides progrès, la censure automatisée n’est encore que balbutiante. Mais compte tenu des milliards investis dans la recherche en IA et des pressions exercées par les États, sa généralisation est désormais à portée de main. Elle est bien en passe de fonder un nouveau régime de censure.

La fusion État-GAFAM : actualisation de logiques anciennes

Si l’on pense l’État non pas comme un bloc aux contours clairement identifiés (à la manière des juristes) mais davantage comme un ensemble de pratiques et une rationalité que Michel Foucault désignait comme la « gouvernementalité », alors il est clair que ce que ces évolutions donnent à voir, c’est l’incorporation de ces acteurs privés à l’État ; c’est la cooptation de leurs infrastructures et la diffusion de leurs savoir-faire dans le traitement et l’analyse de masses de données désormais cruciales dans les formes contemporaines de gouvernement. C’est donc une fusion qui s’opère sous nos yeux, bien plus qu’une concurrence entre les États et les GAFAM qui chercheraient à se substituer aux gouvernements.

Ces logiques de cooptation d’acteurs privés par l’État sont récurrentes dans l’histoire de la censure. À partir du XVIè siècle, alors que le développement de l’imprimerie joue un rôle clé dans la propagation de doctrines politiques et religieuses subversives, l’État moderne en gestation recourait déjà aux partenariats public-privé dans la surveillance et la censure des communications.

En France, le cardinal de Richelieu conclut au début du XVIè siècle une alliance avec les libraires parisiens qui réclament un monopole perpétuel sur l’édition des livres pour écraser la concurrence. Ils se voient octroyer des privilèges à durée quasiment illimitée en échange de la conduite d’une mission de surveillance des publications et la docte application des règlements en matière de censure. Cette politique, bientôt élargie à l’ensemble du royaume, permettra à une trentaine d’imprimeurs-libraires de maîtriser tant bien que mal la production et la distribution des livres. Cela n’étouffait évidemment pas totalement l’édition clandestine, mais permettait de maîtriser un tant soit peu les effets politiques de l’imprimerie, d’affermir l’absolutisme tout en remplissant les caisses de quelques hommes d’affaires.

Lors de leur apparition au tournant des années 1980, les réseaux informatiques – et Internet en particulier – se sont donnés à penser comme une technologie radicalement subversive des formes de contrôle des communications qui s’étaient institutionnalisées dans le giron de l’État moderne, et transposées aux différentes techniques de communication apparues depuis l’imprimerie. Ils allaient bientôt induire la massification des flux transfrontières d’information, l’anonymat relatif des communications numériques, l’appropriation de ces technologies par des groupes contestataires et marginalisés dans l’espace public traditionnel, et plus généralement la démocratisation de la capacité d’expression publique au delà du petit cercle des personnes ayant jusqu’alors accès aux médias traditionnels. Tout cela déstabilisait les modalités de contrôle de l’espace public et, plus encore, la souveraineté des États. Internet était perçu comme un espace dangereux. Il fallait donc réarmer la police de l’espace public ou, pour reprendre le vocable que Nicolas Sarkozy avait emprunté au parti communiste chinois, le « civiliser » (un terme encore repris récemment par Mounir Mahjoubi).

La solution est donc en passe d’être trouvée, et il aura fallu moins d’un quart de siècle. Aujourd’hui, au lieu d’une petite dizaines d’imprimeurs-libraires à l’échelle d’un pays, ce sont une poignée d’entreprises américaines qui sont cooptées par les bureaucraties d’État dédiées à la surveillance et à la censure. En dépit des discours lénifiants sur la « souveraineté numérique », les gouvernements préfèrent renforcer la position dominante de ces multinationales en obligeant l’ensemble des acteurs du numérique à leur acheter leurs systèmes de filtrage. Ceux qui ne pourront pas se le permettre ou qui refuseraient de se faire auxiliaires de censure – notamment ceux qui font encore vivre un Web indépendant, non-commercial, alternatif – seront poussés à mettre la clé sous la porte.

L’instrumentalisation de la lutte contre les discours de haine

On nous parle de lutter contre la propagande terroriste et les discours de haine. Mais il est désormais de plus en plus clair que cette lutte reposera sur des dispositifs de censure automatique qui resteront de véritables « boîtes noires », par définition secrètes, gérées par des partenariats public-privé opaques. Ces derniers consentiront peut être à mettre en scène une certaine transparence, un peu d’autorégulation et des aménagements présentés comme autant de garanties – à l’image de Facebook qui nous promet aujourd’hui de mettre sur pied une « cour suprême » pour recevoir des plaintes d’utilisateurs victimes de sa politique de « modération ». Mais ils ne présenteront jamais les garanties offertes par des juridictions traditionnelles. Et pour cause : ces dispositifs sont conçus pour s’en affranchir. La censure automatique des communications a cet avantage pour le pouvoir qu’elle est presque invisible, et donc pratiquement incontestable.

On nous parle de lutter contre les discours de haine via la censure d’Internet. Mais depuis plus de quarante ans que des incriminations existent pour réprimer les expressions incitant à la haine et aux discriminations, a-t-on vraiment fait des progrès en la matière ? De fait, l’intolérance se donne à voir au grand jour sur Internet, où elle s’abat sur des groupes structurellement discriminés. Pour autant, ces opprobres sont aussi quotidiennes dans les médias traditionnels, dans les cénacles politiques, et bien souvent dans les pratiques des institutions.

On nous parle de lutter contre les discours de haine. Mais il apparaît de plus en plus clairement que ce qui est aussi visé, c’est l’invisibilisation de tout discours associé de près ou de loin à des formes de violence politique qui risqueraient d’être perçues comme légitimes. C’est ce qu’illustre par exemple l’affaire déjà évoquée, lorsque fin 2016, au nom de la lutte contre le terrorisme, le ministère de l’intérieur enjoignait à deux sites participatifs de censurer un communiqué revendiquant l’incendie d’un hangar de gendarmerie, acte présenté par les auteurs comme une réponse à la répression policière (cette décision aura finalement été annulée début 2019 par la justice administrative, exceptionnellement saisie de cette affaire). Plus largement, c’est l’ensemble des discours politiques contestataires qui pourraient bientôt faire l’objet de cette censure secrète. La tentation du pouvoir est réelle, comme en témoigne les velléités récentes du ministère de l’intérieur de faire retirer un photomontage qui remplaçait le visage du général Pinochet et de ses sbires par ceux d’Emmanuel Macron, d’Édouard Philippe et de Christophe Castaner.

S’il était adopté, le règlement antiterroriste serait donc une pierre de plus dans la mise en place de ces nouveaux dispositifs dédiés à l’invisibilisation des expressions politiques contestataires. Rien qu’en s’en tenant à la catégorie de l’apologie du terrorisme, les outils de censure développés par les multinationales du numérique en lien avec les autorités trouveraient à s’appliquer à de nombreuses activités militantes : le sens du terme « terrorisme » est en effet tellement vague, ou lorsqu’une définition existe elle est tellement large, qu’il peut servir à justifier la censure de toute expression favorable à des actions politiques offensives ou violentes – y compris la destruction de biens matériels, le sabotage ou le blocage d’infrastructures.

Conjurer la re-féodalisation de l’espace public numérique

Si l’on se soucie de la liberté d’expression, si l’on se soucie de ménager un espace où le pouvoir pourra être critiqué, où nous pourrons débattre et nous organiser, où un peu de sens commun pourra se construire, ces nouvelles formes de censure doivent être tenues en échec.

Ce qu’il faut, c’est d’abord comprendre qu’une grande partie du problème lié aux discours haineux sur Internet tient à ce qu’est devenue l’économie politique de ce réseau. Le nœud du problème spécifique que pose Internet, c’est bien la manière dont les grandes entreprises du numérique conditionnent les régimes d’attention : les contenus attrape-clics, simplistes et sans nuance, jouant sur les émotions négatives ; les « bulles de filtres » qui nous enferment tout en donnant l’illusion de neutralité, et offrent un faux sentiment de sécurité en permettant aussi à des individus aux identités politiques radicalement adverses de venir nous agresser sur des plateformes ouvertes aux quatre vents.

Face aux « Fake News » et à la haine qui sévit aussi sur Internet, ceux qui prétendent nous gouverner se frottent les mains : le pourrissement de l’espace public numérique leur permet aujourd’hui de légitimer le retour de vieilles stratégies de contrôle. C’est tout le sens du discours de Macron au Forum sur la gouvernance d’Internet.

Ce n’est pourtant pas une fatalité. Ces dernières semaines, La Quadrature du Net a commencé à exposer des positions destinées à lutter par le droit contre ces infrastructures centralisées qui pervertissent le débat public, tout en favorisant l’éclosion d’îlots de communication communautaires et fédérés où pourront se redéployer les espaces d’expression, de conversation, et donc une partie du débat public. L’idée phare de ces propositions, c’est de casser le régime d’attention mis en place par les plateformes, fondé sur la collecte des données personnelles et la hiérarchisation des contenus à des fins commerciales, au sein d’infrastructures gigantesques pensées pour rendre les utilisateurs captifs.

L’objectif, c’est bien de promouvoir en lieu et place une nouvelle topologie de l’espace public numérique capable de protéger des lieux de discussion décentralisés mais pouvant être reliés les uns aux autres, laissant à chacun le choix de ses communautés et des limites données à la liberté d’expression, pour ainsi mieux maîtriser son degré d’exposition aux conflits qui traversent immanquablement l’espace public. L’espoir est d’ainsi réduire le risque de conflits interpersonnels non-souhaités. C’est de faire en sorte que la demande sociale de censure soit moins forte et que la censure préalable et automatique puisse ne plus apparaître comme la seule option valable ; que le principe d’une protection judiciaire de la liberté d’expression soit préservé.

L’urgence, c’est en tous cas de rompre l’alliance des appareils policiers et des grands marchands d’infrastructures numériques. C’est d’éviter que ne se consolident les fondements techniques et juridiques d’une société de contrôle nous enfermant imperceptiblement dans une cage de fer algorithmique.

Ce texte, publié sur le site de La Quadrature du Net, est adapté d’une intervention au colloque « Réglementer la liberté d’expression au nom du débat public », qui se tenait à l’Institut de Recherche Philosophiques de Lyon (IRPhiL) les 29 et 30 novembre 2018.

La genèse de l’activisme numérique en France

Avec mon collègue Patrick Pétin, nous venons de publier dans la revue Internet Histories un article en anglais qui retrace la genèse de l’activisme numérique en France.

L’idée est d’apporter quelques éléments d’analyse nouveau à partir d’entretiens réalisés avec des pionniers de la mouvance depuis deux ans, mais aussi de faire connaître à l’international les spécificités de la trajectoire française, alors que l’historiographie reste largement dominée par les acteurs anglo-saxons.

Voici le résumé :

In the mid-1990s, as the Internet underwent a major wave of growth and commodification, it also became increasingly politicised. In this article, we analyse the process that led to the birth of the digital rights movement in France. Based on archival work and interviews with key protagonists of the movement, this article blends historical, sociological and policy analysis to help explain the politicisation of French “Internet pioneers”. It documents the emergence of alternative Internet service providers, their relationship to other activist groups, and to the wider digital economy. It then shows how the same small group of individuals turned to political advocacy by surveying some of their interactions with policy-makers, focusing in particular on the debate on intermediary liability and freedom of expression. We stress that the particular social trajectories of these digital rights activists confronted with the commodification of the Internet and the power practices of the state converged to create a “perfect storm” that led them to wield exceptional influence on Internet policy in this early phase of development. We also highlight some of the movement’s internal contradictions and explain its waning influence from the early 2000s on. Through this article, we hope to help diversify the historiography of digital activism as well as to contribute to comparative-historical approaches.

Une nouvelle figure du pouvoir émerge sous nos yeux

Je reproduis ici un entretien avec le journaliste Clément Pouré de Motherboard.

Motherboard – Début janvier, Emmanuel Macron annonçait un projet de loi sur les fake news. Faut-il s’inquiéter d’une éventuelle censure ?

Félix Tréguer – Le projet d’Emmanuel Macron reste assez flou à ce stade, mais les mesures envisagées semblent cibler l’utilisation des systèmes de contenus sponsorisés sur les plateformes et seraient limitées aux seules périodes électorales.

Elles suscitent des interrogations et des craintes légitimes. Faire la transparence sur l’identité des financeurs et les montants investis dans ces contenus sponsorisés serait tout à fait raisonnable. Mais Macron envisage également la possibilité de saisir le juge en référé pour censurer un site ou bannir un utilisateur qui aurait diffusé des fausses nouvelles. Cela pose un risque évident en terme de libertés publiques : un juge peut-il décemment juger en urgence du caractère délibérément mensonger et frauduleux d’une information qui circule sur les réseaux ? Question embarrassante à laquelle pour l’heure, l’Élysée n’apporte pas l’ombre d’une réponse…surtout que l’approche reste extrêmement étroite.

Quelle serait la bonne approche ?

Après le lancement de RT France – la chaîne internationale russe – sur le câble et le satellite, Macron prend comme seul modèle de menace le risque d’ingérence russe dans le processus électoral. Mais le débat sur la qualité de l’information et son rôle dans le débat démocratique mériterait une approche plus ouverte.

Par exemple, que faire contre la remise en cause du pluralisme face à la concentration historique des médias en France, sous l’égide d’une poignée de milliardaires ? Comment protéger la qualité de l’information et l’importance du journalisme en démocratie, alors que les sapes budgétaires dans les rédactions empêchent nombre de journalistes de faire correctement leur travail ? Comment lutter contre les modèles économiques des grandes firmes du numérique, fondés sur la surveillance des utilisateurs à grand renfort d’outils Big Data, modèles qui encouragent les contenus clivants, caricaturaux ou tout simplement mensongers pour générer un maximum de clics, et donc de traces à revendre aux annonceurs ? Et enfin, comment lutter contre l’appropriation par les partis politiques de ces mêmes profils utilisateurs à des fins de ciblage des électeurs, comme l’a fait la campagne de Trump aux États-Unis avec l’aide de l’entreprise Cambridge Analytica ?

Les formes de propagande à l’ère numérique complexifient des logiques qui travaillent nos régimes politiques depuis bien longtemps. Il y a là de vraies questions politiques que, manifestement, les États et les grandes entreprises préfèrent esquiver.

Cette tentative de réduire la liberté sur Internet n’est pas nouvelle….

Au fond, le débat sur les « fake news » n’est qu’un des nombreux fronts où se dessine un nouveau rapport d’équilibre dans la régulation des moyens de communication. Il s’agit pour les États et les médias dominants de trouver les termes d’un compromis acceptable avec les grandes firmes du numérique dans le gouvernement de l’espace public numérique.

Ce processus est ancien, presque autant qu’Internet antérieur à l’apparition de Google ou de Facebook. Dès 1996, un jeune secrétaire d’État délégué aux postes et télécommunications, un certain François Fillon, proposait de confier à un comité annexé au CSA le rôle de fixer des « règles déontologiques » et d’évaluer le respect de ces règles par les éditeurs de sites. Tout avis négatif aurait valu censure du site en question par ceux qu’on appellera plus tard les « intermédiaires techniques » de l’Internet, notamment les opérateurs télécoms et les hébergeurs. À l’époque, les premières mobilisations citoyennes organisées par les pionniers de l’activisme numérique avaient permis de battre en brèche ces propositions et d’obtenir la mise en place d’un cadre juridique protecteur de la liberté d’expression sur Internet, sous l’égide du juge judiciaire.

Mais depuis 2001, on assiste à l’éternel retour de propositions visant à extra-judiciariser la censure (c’est-à-dire qu’elle ne de dépend plus des juges ou des tribunaux, NDLR). Certains projets sont restés lettre morte, mais petit à petit, cette extra-judiciarisation est devenue une réalité.

Pourriez-vous nous citer un exemple précis de ce phénomène ?

Par exemple, la régulation d’Internet par le CSA reste pour l’essentiel un projet avorté. Fin novembre, Macron a cru opportun d’invoquer la défense du droit des femmes pour proposer une nouvelle fois d’étendre les compétences du CSA à Internet. Comme l’avait fait le gouvernement Raffarin en 2004 ; comme Sarkzoy en son temps, et comme sous la présidence Hollande, le sujet revient sur la table. Mais l’idée même de confier à une autorité administrative comme le CSA un pouvoir de censure sur l’expression publique de tout citoyen rompt avec une longue tradition démocratique de protection judiciaire de la liberté d’expression, consacrée en France avec la loi de 1881 sur la liberté de la presse.

Dans le même temps, cette censure administrative est devenue une réalité pour certaines catégories de contenu. Ainsi, la loi LOPPSI de 2011 pour les contenus à caractère pédopornographiques puis, de manière encore plus problématique, la loi antiterroriste de novembre 2014 pour ce qui concerne l’apologie du terrorisme, ont toutes deux consacré le pouvoir du ministère de l’Intérieur pour obtenir le déréférencement, le retrait de contenu, ou le blocage de l’accès à des sites entiers, sans nul contrôle d’un juge. Le dispositif inauguré en 2015 monte rapidement en puissance. Dès la deuxième année, le nombre de contenus retirés par les hébergeurs a doublé. Celui des sites bloqués par les fournisseurs d’accès, presque triplé.

En septembre dernier, ce régime a pris un tour nouveau avec une injonction envoyée à deux instances locales du site d’information militante Indymedia. Le gouvernement les a forcées à retirer une tribune publiée par un auteur anonyme qui revendiquait l’incendie d’un hangar de gendarmerie, et ce alors même que ce texte avait déjà été repris par la presse locale qui elle n’a pas été inquiétée. Après l’affaire Tarnac, c’est une nouvelle illustration de la volonté de certains hauts responsables policiers de mobiliser l’arsenal de la lutte anti-terroriste contre des groupes d’extrême gauche. Mais l’affaire est passé presque inaperçue.

Même dans le cas des sites terroristes, on constate que les contenus sont facilement accessibles à ceux qui maitrisent un tant soit peu l’outil numérique. Le gouvernement a-t-il vraiment les moyens de censurer concrètement Internet ?

Ce ne sera jamais une censure totale. La personne censurée par son hébergeur pourra toujours republier son contenu ailleurs sur Internet, et ceux qui veulent y accéder ont les moyens techniques de contourner le blocage opéré par leur fournisseur d’accès. Mais pour l’essentiel de la population qui ne se donnera pas la peine de jouer à ce jeu-là, une censure même partielle permettra d’invisibiliser l’information. Et puis l’existence même du dispositif installe des formes d’autocensure. Pour reprendre l’exemple d’Indymedia, après cette affaire, un média contributif risque d’y réfléchir à deux fois avant de publier un écrit revendiquant un acte incendiaire. La censure n’a pas besoin d’être totale pour produire les effets politiques escomptés par le pouvoir.

Qu’en est-il du rôle des grandes plateformes dans ces nouvelles formes de censure ?

C’est la deuxième grande tendance à l’œuvre dans le mouvement d’extra-judiciarisation : le développement fulgurant de la « censure privée », opérée par les grandes multinationales américaines du numérique. Là encore, c’est un débat ancien, qui date des années 1990. Mais ces dernières années, le phénomène a pris une toute autre ampleur. Il a deux ressorts principaux.

D’une part, il y a la volonté des plateformes d’éviter les contenus jugés sensibles, par exemple ceux ayant trait à la sexualité ou à même à certaines causes politiques. Pour elles, la motivation principale est de proposer une environnement médiatique aseptisé conforme aux attentes des annonceurs publicitaires. C’est le cas par exemple quand Facebook juge opportun de censurer le tableau de Courbet, L’Origine du monde, ou qu’il sanctionne des utilisateurs engagés dans la lutte anti-raciste. Cette censure est souvent justifiée juridiquement par les « conditions d’utilisation » de la plateforme, qui définissent en des termes très vagues des catégories de contenu proscrites sur leurs services.

D’autre part, les États font pression sur ces acteurs privés pour qu’ils se fassent auxiliaires de police et de justice, là encore sur la base de droit privé que constituent leurs « conditions d’utilisation ». Le gouvernement britannique, l’agence EUROPOL et la France sont les fers de lance de ce mouvement. Cela conduit à une augmentation exponentielle du nombre des contenus censurés. Non seulement le juge judiciaire est court-circuité, mais ces décisions de censure relèvent de plus en plus des scans automatiques qui vont repérer certains éléments et, sur cette base, censurer des vidéos, des images, du texte. Le tout sans réelle transparence.

Face à ces évolutions, on assiste à une levée de boucliers de la part d’organisations comme la Quadrature, mais aussi de professionnels du droit ou des médias. Pourtant, cela n’a que peu d’effets sur l’opinion publique et les lois passent de manière quasi-systématique.

Comment agir dans le climat sécuritaire ambiant ?

Nos régimes politiques sont sur une pente post-démocratique. Nos représentants politiques sont délégitimés, l’État de droit attaqué par des dispositifs liberticides, et notre système médiatique toujours en crise. Malgré son potentiel, Internet n’aura pas permis la révolution démocratique que certains espéraient à ses débuts. Dans ces conditions, travailler au respect des droits est effectivement une tâche ardue, et force est de constater que, collectivement, nous n’avons pas réussi à enrayer ces tendances.

Il faut bien sûr se remettre en question. Peut-être nous sommes nous enfermés dans un discours inefficace pour dénoncer les tendances sécuritaires, comme celles que je viens de décrire. Michel Foucault le disait déjà dans les années 1970, à une époque où étaient posées les bases d’un ordre politique néo-libéral, mêlant dérive sécuritaire, consumérisme, informatisation et dérégulation économique. Foucault appelait alors à faire « confiance à la conscience politique des gens ». Plutôt que de s’en prendre à « l’État fasciste », il disait qu’il fallait partir de leur « l’expérience réelle », de « ce rapport inquiet, anxieux qu’ils ont avec les mécanismes de sécurité ». De fait, aujourd’hui, certaines des mobilisations les plus dynamiques contre les techniques de contrôle social viennent « d’en bas », de prises de conscience individuelles et collectives qui sont d’ordre sensible et non directement des analyses de militants professionnels ou de chercheurs. Un bon exemple de cela est le mouvement populaire d’opposition aux compteurs électriques connectés.

Par ailleurs, une partie de l’activisme numérique a peut-être également pêché par une foi aveugle dans les vertus émancipatrices de la technique, avec cette idée qu’Internet était un outil de libération et un défi insurmontable lancé aux États. Paradoxalement, cela a pu donner raison à ceux qui, à l’image de Nicolas Sarkozy, en appelaient à « civiliser Internet » et à résorber cette supposée « zone de non droit », au détriment de la protection des libertés. Or, ce qu’on voit aujourd’hui, c’est que les États réussissent en fait très bien à domestiquer cet espace de communications transfrontières qu’est Internet. Comme pour l’imprimerie aux XVIème et XVIIème siècle, ils construisent des alliances avec ceux qui maitrisent les moyens de communication, et ce dans le but de rétablir un système efficace de censure et de surveillance. Aujourd’hui, ce ne sont plus les imprimeurs-libraires, mais les grandes entreprises du numérique, notamment celles issues de la Silicon Valley. Ce sont elles qui détiennent les clés de ce nouveau macro-système technique associé à l’ère numérique. C’est pourquoi les États cherchent à les coopter, au gré d’un jeu donnant-donnant, fait de contraintes et d’influences réciproques.

C’est dans ce mouvement historique qu’il faut replacer les propositions récentes sur les « fake news », ou encore les projets macroniens de « Startup Nation » ou d’« État plateforme ». Il s’agit d’installer ces mêmes entreprises et leur modèle de gouvernance au coeur de nos économies, au coeur de l’État et des politiques publiques.

Pour autant, il me semble que de plus en plus de personnes font la désagréable expérience de cette nouvelle figure du pouvoir qui émerge sous nos yeux, et s’organisent politiquement pour y résister. Des liens se tissent aussi avec ceux qui construisent des services et des infrastructures alternatives, libres et décentralisées, pour faire advenir un monde numérique fidèle aux valeurs d’autonomie et d’émancipation. Malgré les tendances dystopiques qui travaillent le monde numérique, il n’y a pas de fatalité. L’histoire est pleine de surprise.