Directive sur le droit d’auteur : l’affrontement factice des deux têtes du capitalisme informationnel

Tribune partie dans Le Monde Idées du 9 septembre 2018 (pdf).

Un quart de siècle qu’on se repasse ce même mauvais film, celui où les industries culturelles instrumentalisent la loi pour faire la guerre à leur public. En cause cette fois-ci, l’article 13 de la directive sur le droit d’auteur en cours d’examen à Bruxelles, et sur lequel le Parlement européen se prononcera le 12 septembre.

Dans sa rédaction actuelle, cette disposition impose que, dans le cadre d’accords avec les sociétés d’ayants droit (telle la Sacem), les ­plates-formes numériques (YouTube, Facebook et consorts) recourent à des outils de ­filtrage automatisés. Le but ? Repérer les ­contenus ­publiés par les internautes et bloquer ceux ­incluant des œuvres couvertes par le droit d’auteur. Une forme de censure préalable, automatisée et privatisée.

Rien de bien nouveau, donc. En effet, depuis le milieu des années 1990, les industries culturelles (musique, cinéma, édition…) n’ont eu de cesse d’exiger des législateurs et des tribunaux la « collaboration » forcée des fournisseurs ­d’accès à Internet et des hébergeurs pour lutter ­contre l’échange gratuit d’œuvres culturelles sur les réseaux.

L’ACTA rejeté en 2012

A l’époque déjà, ces débats avaient conduit à la mobilisation des associations de défense des droits dans l’environnement numérique. Comme aujourd’hui, ces dernières faisaient valoir que la logique poursuivie était dangereuse, puisqu’elle revenait à confier à des entreprises privées un rôle de surveillance et de censure des communications sur le Net.

Ces débats débouchèrent en Europe sur un compromis instable à travers une directive adoptée en juin 2000, qui semblait donner gain de cause aux militants et aux acteurs de l’économie numérique. Les « intermédiaires techniques » d’Internet, et en particulier les hébergeurs, ne seraient plus inquiétés tant qu’ils ne joueraient pas de rôle actif dans la diffusion des contenus litigieux. Il leur fallait répondre aux demandes judiciaires visant à retirer les publications illicites, mais les Etats ne pourraient pas leur imposer d’« obligation générale de surveillance » des communications pour détecter et empêcher de telles publications.

Depuis, les initiatives visant à imposer des filtres automatiques se sont pourtant multipliées. Et parfois, en France notamment, leurs promoteurs ont eu gain de cause devant les tribunaux. Toutefois, dans deux arrêts importants rendus en 2011 et 2012 au nom de la protection de la liberté de communication et de la vie privée, la Cour de justice de l’Union européenne s’est opposée aux demandes d’une ­société de gestion visant à imposer à un fournisseur d’accès ou à un hébergeur la mise en place de tels filtres. En 2012, le Parlement européen a également rejeté l’Accord commercial anti-contrefaçon (ACTA), qui aurait pu banaliser, à l’échelle mondiale, le recours à ces outils de filtrage.

Surveillance des utilisateurs

Sauf que, entre-temps, l’économie politique d’Internet a été profondément ébranlée par l’apparition d’un nouvel oligopole, composé de quelques firmes presque entièrement consacrées à la régulation algorithmique de l’information. Il y a ainsi plus de dix ans que Google, mis sous pression par les multinationales du divertissement, a déployé au sein de sa filiale YouTube un système de filtrage baptisé Content ID.

En scannant automatiquement l’ensemble des vidéos mises en ligne par les utilisateurs et en les confrontant à une base de données de contenus soumis au droit d’auteur, les algorithmes de Content ID permettent aux ayants droit de bloquer ou de monétiser les vidéos incluant des œuvres dont ils détiennent les droits. Un dispositif que l’article 13 de la directive sur le droit d’auteur cherche à généraliser.

Or, Content ID a conduit à de nombreux cas de censure voyant des ayants droit revendiquer des œuvres qui ne leur appartenaient pas. Il s’avère aussi incapable de respecter les exceptions légales au droit d’auteur ­(citation, parodie…) sur lesquelles se fondent des nouvelles pratiques artistiques (remix, mashups…). Google a donc beau jeu de critiquer l’article 13 au nom de la défense des libertés, en chœur avec d’autres entreprises du numérique qui ont placé la censure privée et la surveillance des utilisateurs au cœur de leurs modèles économiques.

Incapables de repenser les politiques culturelles

A l’hypocrisie des géants du numérique ­répond celle des industries culturelles. Trop occupées à défendre une vision « propriétariste » du droit d’auteur et à réprimer le partage d’œuvres sur les réseaux peer to peer (« de pair à pair »), elles se montrent incapables de repenser les politiques culturelles à l’ère numérique. Résultat : elles en sont aujourd’hui réduites à négocier piteusement avec les grandes entreprises de technologie qui, profitant de leur incurie, ont raflé la mise.

Car c’est bien ce qui se joue actuellement avec la directive sur le droit d’auteur : l’affrontement des deux têtes de l’hydre du capitalisme ­informationnel. Industries culturelles versus ­plates-formes numériques, qui veulent chacune se ménager le maximum de marge de manœuvre dans leur négociation d’une forme de « licence globale » privatisée, laquelle viendra renforcer leurs positions oligopolistiques au détriment tant du public que des artistes.

Que faire pour sortir de ce cycle délétère ? D’abord, rejeter l’article 13 et le monde qu’il représente, celui où l’espace public et la liberté d’expression sont soumis aux décisions d’algorithmes opaques. Si le Parlement européen tient encore à inscrire l’Union européenne dans la tradition de l’Etat de droit, il réaffirmera la position qui est la sienne depuis près de vingt ans et le rejettera.

Et après ? On voudrait croire, comme nous l’avions cru en 2012 avec le rejet de l’ACTA, qu’une telle décision marquera le début d’une refondation des politiques culturelles et ­numériques. Mais, en dépit de quelques signes encourageants de l’UE pour contrer la dominance des Gafam (Google, Apple, Facebook, Amazon et Microsoft), il y a fort à parier que les Etats continueront de composer avec les ­nouveaux seigneurs de l’espace public… D’où l’importance de cultiver des espaces de résistance renouant avec le projet de faire d’Internet une bibliothèque universelle, envers et contre le droit si nécessaire.

Une nouvelle figure du pouvoir émerge sous nos yeux

Je reproduis ici un entretien avec le journaliste Clément Pouré de Motherboard.

Motherboard – Début janvier, Emmanuel Macron annonçait un projet de loi sur les fake news. Faut-il s’inquiéter d’une éventuelle censure ?

Félix Tréguer – Le projet d’Emmanuel Macron reste assez flou à ce stade, mais les mesures envisagées semblent cibler l’utilisation des systèmes de contenus sponsorisés sur les plateformes et seraient limitées aux seules périodes électorales.

Elles suscitent des interrogations et des craintes légitimes. Faire la transparence sur l’identité des financeurs et les montants investis dans ces contenus sponsorisés serait tout à fait raisonnable. Mais Macron envisage également la possibilité de saisir le juge en référé pour censurer un site ou bannir un utilisateur qui aurait diffusé des fausses nouvelles. Cela pose un risque évident en terme de libertés publiques : un juge peut-il décemment juger en urgence du caractère délibérément mensonger et frauduleux d’une information qui circule sur les réseaux ? Question embarrassante à laquelle pour l’heure, l’Élysée n’apporte pas l’ombre d’une réponse…surtout que l’approche reste extrêmement étroite.

Quelle serait la bonne approche ?

Après le lancement de RT France – la chaîne internationale russe – sur le câble et le satellite, Macron prend comme seul modèle de menace le risque d’ingérence russe dans le processus électoral. Mais le débat sur la qualité de l’information et son rôle dans le débat démocratique mériterait une approche plus ouverte.

Par exemple, que faire contre la remise en cause du pluralisme face à la concentration historique des médias en France, sous l’égide d’une poignée de milliardaires ? Comment protéger la qualité de l’information et l’importance du journalisme en démocratie, alors que les sapes budgétaires dans les rédactions empêchent nombre de journalistes de faire correctement leur travail ? Comment lutter contre les modèles économiques des grandes firmes du numérique, fondés sur la surveillance des utilisateurs à grand renfort d’outils Big Data, modèles qui encouragent les contenus clivants, caricaturaux ou tout simplement mensongers pour générer un maximum de clics, et donc de traces à revendre aux annonceurs ? Et enfin, comment lutter contre l’appropriation par les partis politiques de ces mêmes profils utilisateurs à des fins de ciblage des électeurs, comme l’a fait la campagne de Trump aux États-Unis avec l’aide de l’entreprise Cambridge Analytica ?

Les formes de propagande à l’ère numérique complexifient des logiques qui travaillent nos régimes politiques depuis bien longtemps. Il y a là de vraies questions politiques que, manifestement, les États et les grandes entreprises préfèrent esquiver.

Cette tentative de réduire la liberté sur Internet n’est pas nouvelle….

Au fond, le débat sur les « fake news » n’est qu’un des nombreux fronts où se dessine un nouveau rapport d’équilibre dans la régulation des moyens de communication. Il s’agit pour les États et les médias dominants de trouver les termes d’un compromis acceptable avec les grandes firmes du numérique dans le gouvernement de l’espace public numérique.

Ce processus est ancien, presque autant qu’Internet antérieur à l’apparition de Google ou de Facebook. Dès 1996, un jeune secrétaire d’État délégué aux postes et télécommunications, un certain François Fillon, proposait de confier à un comité annexé au CSA le rôle de fixer des « règles déontologiques » et d’évaluer le respect de ces règles par les éditeurs de sites. Tout avis négatif aurait valu censure du site en question par ceux qu’on appellera plus tard les « intermédiaires techniques » de l’Internet, notamment les opérateurs télécoms et les hébergeurs. À l’époque, les premières mobilisations citoyennes organisées par les pionniers de l’activisme numérique avaient permis de battre en brèche ces propositions et d’obtenir la mise en place d’un cadre juridique protecteur de la liberté d’expression sur Internet, sous l’égide du juge judiciaire.

Mais depuis 2001, on assiste à l’éternel retour de propositions visant à extra-judiciariser la censure (c’est-à-dire qu’elle ne de dépend plus des juges ou des tribunaux, NDLR). Certains projets sont restés lettre morte, mais petit à petit, cette extra-judiciarisation est devenue une réalité.

Pourriez-vous nous citer un exemple précis de ce phénomène ?

Par exemple, la régulation d’Internet par le CSA reste pour l’essentiel un projet avorté. Fin novembre, Macron a cru opportun d’invoquer la défense du droit des femmes pour proposer une nouvelle fois d’étendre les compétences du CSA à Internet. Comme l’avait fait le gouvernement Raffarin en 2004 ; comme Sarkzoy en son temps, et comme sous la présidence Hollande, le sujet revient sur la table. Mais l’idée même de confier à une autorité administrative comme le CSA un pouvoir de censure sur l’expression publique de tout citoyen rompt avec une longue tradition démocratique de protection judiciaire de la liberté d’expression, consacrée en France avec la loi de 1881 sur la liberté de la presse.

Dans le même temps, cette censure administrative est devenue une réalité pour certaines catégories de contenu. Ainsi, la loi LOPPSI de 2011 pour les contenus à caractère pédopornographiques puis, de manière encore plus problématique, la loi antiterroriste de novembre 2014 pour ce qui concerne l’apologie du terrorisme, ont toutes deux consacré le pouvoir du ministère de l’Intérieur pour obtenir le déréférencement, le retrait de contenu, ou le blocage de l’accès à des sites entiers, sans nul contrôle d’un juge. Le dispositif inauguré en 2015 monte rapidement en puissance. Dès la deuxième année, le nombre de contenus retirés par les hébergeurs a doublé. Celui des sites bloqués par les fournisseurs d’accès, presque triplé.

En septembre dernier, ce régime a pris un tour nouveau avec une injonction envoyée à deux instances locales du site d’information militante Indymedia. Le gouvernement les a forcées à retirer une tribune publiée par un auteur anonyme qui revendiquait l’incendie d’un hangar de gendarmerie, et ce alors même que ce texte avait déjà été repris par la presse locale qui elle n’a pas été inquiétée. Après l’affaire Tarnac, c’est une nouvelle illustration de la volonté de certains hauts responsables policiers de mobiliser l’arsenal de la lutte anti-terroriste contre des groupes d’extrême gauche. Mais l’affaire est passé presque inaperçue.

Même dans le cas des sites terroristes, on constate que les contenus sont facilement accessibles à ceux qui maitrisent un tant soit peu l’outil numérique. Le gouvernement a-t-il vraiment les moyens de censurer concrètement Internet ?

Ce ne sera jamais une censure totale. La personne censurée par son hébergeur pourra toujours republier son contenu ailleurs sur Internet, et ceux qui veulent y accéder ont les moyens techniques de contourner le blocage opéré par leur fournisseur d’accès. Mais pour l’essentiel de la population qui ne se donnera pas la peine de jouer à ce jeu-là, une censure même partielle permettra d’invisibiliser l’information. Et puis l’existence même du dispositif installe des formes d’autocensure. Pour reprendre l’exemple d’Indymedia, après cette affaire, un média contributif risque d’y réfléchir à deux fois avant de publier un écrit revendiquant un acte incendiaire. La censure n’a pas besoin d’être totale pour produire les effets politiques escomptés par le pouvoir.

Qu’en est-il du rôle des grandes plateformes dans ces nouvelles formes de censure ?

C’est la deuxième grande tendance à l’œuvre dans le mouvement d’extra-judiciarisation : le développement fulgurant de la « censure privée », opérée par les grandes multinationales américaines du numérique. Là encore, c’est un débat ancien, qui date des années 1990. Mais ces dernières années, le phénomène a pris une toute autre ampleur. Il a deux ressorts principaux.

D’une part, il y a la volonté des plateformes d’éviter les contenus jugés sensibles, par exemple ceux ayant trait à la sexualité ou à même à certaines causes politiques. Pour elles, la motivation principale est de proposer une environnement médiatique aseptisé conforme aux attentes des annonceurs publicitaires. C’est le cas par exemple quand Facebook juge opportun de censurer le tableau de Courbet, L’Origine du monde, ou qu’il sanctionne des utilisateurs engagés dans la lutte anti-raciste. Cette censure est souvent justifiée juridiquement par les « conditions d’utilisation » de la plateforme, qui définissent en des termes très vagues des catégories de contenu proscrites sur leurs services.

D’autre part, les États font pression sur ces acteurs privés pour qu’ils se fassent auxiliaires de police et de justice, là encore sur la base de droit privé que constituent leurs « conditions d’utilisation ». Le gouvernement britannique, l’agence EUROPOL et la France sont les fers de lance de ce mouvement. Cela conduit à une augmentation exponentielle du nombre des contenus censurés. Non seulement le juge judiciaire est court-circuité, mais ces décisions de censure relèvent de plus en plus des scans automatiques qui vont repérer certains éléments et, sur cette base, censurer des vidéos, des images, du texte. Le tout sans réelle transparence.

Face à ces évolutions, on assiste à une levée de boucliers de la part d’organisations comme la Quadrature, mais aussi de professionnels du droit ou des médias. Pourtant, cela n’a que peu d’effets sur l’opinion publique et les lois passent de manière quasi-systématique.

Comment agir dans le climat sécuritaire ambiant ?

Nos régimes politiques sont sur une pente post-démocratique. Nos représentants politiques sont délégitimés, l’État de droit attaqué par des dispositifs liberticides, et notre système médiatique toujours en crise. Malgré son potentiel, Internet n’aura pas permis la révolution démocratique que certains espéraient à ses débuts. Dans ces conditions, travailler au respect des droits est effectivement une tâche ardue, et force est de constater que, collectivement, nous n’avons pas réussi à enrayer ces tendances.

Il faut bien sûr se remettre en question. Peut-être nous sommes nous enfermés dans un discours inefficace pour dénoncer les tendances sécuritaires, comme celles que je viens de décrire. Michel Foucault le disait déjà dans les années 1970, à une époque où étaient posées les bases d’un ordre politique néo-libéral, mêlant dérive sécuritaire, consumérisme, informatisation et dérégulation économique. Foucault appelait alors à faire « confiance à la conscience politique des gens ». Plutôt que de s’en prendre à « l’État fasciste », il disait qu’il fallait partir de leur « l’expérience réelle », de « ce rapport inquiet, anxieux qu’ils ont avec les mécanismes de sécurité ». De fait, aujourd’hui, certaines des mobilisations les plus dynamiques contre les techniques de contrôle social viennent « d’en bas », de prises de conscience individuelles et collectives qui sont d’ordre sensible et non directement des analyses de militants professionnels ou de chercheurs. Un bon exemple de cela est le mouvement populaire d’opposition aux compteurs électriques connectés.

Par ailleurs, une partie de l’activisme numérique a peut-être également pêché par une foi aveugle dans les vertus émancipatrices de la technique, avec cette idée qu’Internet était un outil de libération et un défi insurmontable lancé aux États. Paradoxalement, cela a pu donner raison à ceux qui, à l’image de Nicolas Sarkozy, en appelaient à « civiliser Internet » et à résorber cette supposée « zone de non droit », au détriment de la protection des libertés. Or, ce qu’on voit aujourd’hui, c’est que les États réussissent en fait très bien à domestiquer cet espace de communications transfrontières qu’est Internet. Comme pour l’imprimerie aux XVIème et XVIIème siècle, ils construisent des alliances avec ceux qui maitrisent les moyens de communication, et ce dans le but de rétablir un système efficace de censure et de surveillance. Aujourd’hui, ce ne sont plus les imprimeurs-libraires, mais les grandes entreprises du numérique, notamment celles issues de la Silicon Valley. Ce sont elles qui détiennent les clés de ce nouveau macro-système technique associé à l’ère numérique. C’est pourquoi les États cherchent à les coopter, au gré d’un jeu donnant-donnant, fait de contraintes et d’influences réciproques.

C’est dans ce mouvement historique qu’il faut replacer les propositions récentes sur les « fake news », ou encore les projets macroniens de « Startup Nation » ou d’« État plateforme ». Il s’agit d’installer ces mêmes entreprises et leur modèle de gouvernance au coeur de nos économies, au coeur de l’État et des politiques publiques.

Pour autant, il me semble que de plus en plus de personnes font la désagréable expérience de cette nouvelle figure du pouvoir qui émerge sous nos yeux, et s’organisent politiquement pour y résister. Des liens se tissent aussi avec ceux qui construisent des services et des infrastructures alternatives, libres et décentralisées, pour faire advenir un monde numérique fidèle aux valeurs d’autonomie et d’émancipation. Malgré les tendances dystopiques qui travaillent le monde numérique, il n’y a pas de fatalité. L’histoire est pleine de surprise.

Thèse soutenue !

Enfin ! C’en est fini de cette thèse. Après sept ans de labeur, j’ai soutenu le 2 novembre 2017, entouré de mes proches (famille, ami.e.s, collègues) et face un à jury perspicace avec lequel j’ai pu nouer une discussion particulièrement riche.

J’ai déposé le PDF sur l’archive HAL-SHS. Voici le résumé :

Prenant pour point de départ les controverses contemporaines sur la liberté d’expression et la vie privée à l’ère numérique, cette thèse propose de revisiter l’histoire d’Internet au croisement de l’histoire du droit, des théories politiques et de l’histoire des sciences et des techniques. À travers une enquête de temps long sur l’affrontement des stratégies de pouvoir et de résistance associées aux techniques de communication, elle se veut une contribution à l’histoire de l’espace public et de l’activisme numérique.

À partir de la « naissance » de l’imprimerie, la première partie retrace les formes de contrôle de l’espace public qui se structurent en même temps que l’État moderne, et la manière dont elles sont reconduites dans le cadre des régimes représentatifs-libéraux (XVe-XXe siècle). Dans un deuxième temps, l’étude suit l’émergence des projets antagonistes qui ont présidé au développement des réseaux informatiques, et ce afin d’expliquer la profonde ambivalence des appropriations politiques de ces technologies, à la fois instrument de la domination technocratique et outil d’émancipation (1930-1990). La troisième partie revient sur les premières controverses autour des libertés sur Internet et la structuration de l’activisme numérique, Internet étant bientôt investi comme un espace et un objet de luttes politiques, dans une période marquée par la mondialisation néo-libérale (1990-2001). La quatrième illustre, à travers les mesures de contrôle d’Internet adoptées au nom de la « guerre contre le terrorisme » et à travers la répression de certaines franges de l’activisme numérique, les mutations illibérales des États (2001-2017).

L’étude entend ainsi contribuer à une réflexion collective sur l’un des en jeux identifiés par Michel Foucault dans ses écrits sur le pouvoir, à savoir : « comment déconnecter la croissance des capacités » – en l’espèce, les capacités associées aux « techniques de communication » – « et l’intensification des relations de pouvoir » ?