Pour une politique des fréquences au service de l’innovation et de la démocratie

Initialement publié sur La Quadrature du Net.

En dehors des accès WiFi, l’Internet sans-fil que nous vendent les opérateurs télécoms est un Internet truffé de restrictions d’accès, de bridages et de blocages en tous genres, qui portent atteinte au principe fondamental de neutralité du réseau et restreignent notre liberté de communication. Cet Internet sans-fil auquel nous accédons n’est qu’un ersatz d’Internet, géré par quelques opérateurs télécoms suffisamment puissants pour récolter les licences accordées par les pouvoirs publics, qui eux-mêmes exercent un monopole sur la ressource publique qu’est le spectre hertzien (c’est-à-dire les ondes radio)1.

Le 17 janvier dernier, l’Arcep délivrait aux opérateurs télécoms dominants les autorisations d’utilisation de la plus belle partie du « dividende numérique » permis par le passage à la TNT : les fréquences « en or », qui offrent un rapport particulièrement intéressant entre la propagation des ondes et la bande passante disponible, et donc une couverture maximale à moindre coût. Orange, SFR, Bouygues se sont ainsi vus accorder des blocs de fréquences dans la bande 800 MHz en vue du déploiement de leurs réseaux 4G.

Les pouvoirs publics se sont félicités de cette opération : les recettes perçues par l’État en échange de ces attributions s’élèvent à 2,6 milliards d’euros, qui viendront s’ajouter aux 936 millions déjà engrangés à l’occasion de la première série d’attributions de fréquences 4G dans la bande des 2,6 Ghz, en octobre dernier.

L’ouverture des fréquences : un sujet tabou ?

Ces manœuvres d’apparence technique se déroulent sans que personne ou presque ne remette en cause le bien fondé de cette logique de valorisation patrimoniale qui dicte l’attribution de cette ressource publique.

Certes, la 4G peut permettre de développer des réseaux très haut débit et amener l’Internet sans fil dans des territoires encore mal desservis, grâce aux engagements pris par les opérateurs. Certes, l’attribution de ces licences pourrait engendrer un nouveau cycle d’investissement permettant de réduire la congestion des réseaux sans-fil, et les opérateurs ne pourraient alors plus invoquer cette excuse pour justifier les restrictions d’accès endémiques qui gangrènent l’Internet mobile et violent la neutralité des réseaux. Et pourtant…

Faute d’un débat ouvert sur la politique du spectre radio en France et en Europe, nous nous privons d’autres options politiques, plus porteuses encore pour l’innovation et la compétitivité de notre économie, pour la démocratisation de nos réseaux de communication, pour l’intérêt général.

Quelles sont ces options ? L’élargissement d’une politique initiée il y a 30 ans avec les radios amateurs et relancée à la fin des années 1990 avec le lancement du WiFi, en autorisant l’accès libre – c’est-à-dire non soumis à l’octroi préalable d’une licence – à de nouvelles parties du spectre. Certaines fréquences sont particulièrement prometteuses pour élargir ces politiques : les « fréquences en or » issues du dividende numérique, celles attribuées aux opérateurs WiMax (dont nombre font l’objet d’une mise en demeure de l’Arcep pour manquement à leurs obligations), ou encore les fréquences situées dans les « espaces blancs » (ces fréquences attribuées aux chaînes de télévision mais laissées vacantes afin de créer des zones tampons évitant les interférences entre les émissions des différentes chaînes).

Un potentiel encore insoupçonné

Plutôt qu’un mode centralisé d’administration des fréquences hertziennes, où l’on accorde à une seule entité la possibilité de développer des réseaux, le modèle d’accès ouvert décentralise l’infrastructure des communications sans-fil. De là, chacun peut construire un réseau moyennant le respect de certaines normes techniques, notamment grâce aux petits émetteurs radio (femotocells ou picocells, dont le prix ne cesse de baisser), ainsi qu’aux technologies de réseaux maillés – où chaque récepteur radio est aussi émetteur et constitue un nœud du réseau.

Une fois l’accès aux fréquences ainsi ouvert, un grand nombre d’applications deviennent possibles, dont bon nombre sont encore insoupçonnées. Au niveau local, les fournisseurs d’accès associatifs et autres citoyens passionnés qui œuvrent pour un accès élargi à Internet, telles que Tetaneutral ou Sames Wireless, pourraient utiliser de nouvelles parties du spectre pour construire à moindre coût des réseaux de plus grande échelle, reliant un village isolé au reste de l’Internet, ou déployant un réseau sans-fil très haut haut débit à l’échelle d’une ville entière.

Au-delà des télécoms, dans le domaine de l’e-santé, de la logistique, de la fourniture d’énergie, de nombreux secteurs bénéficieraient également d’un accès ouvert aux fréquences pour innover et développer de nouveaux services. Yochai Benkler, professeur à Harvard, rappelle ainsi dans une étude récente qu’aux États-Unis, lorsqu’elles ont le choix, seule une minorité des entreprises de ces secteurs optent pour un accès sous licence pour leurs différentes applications, le plus souvent en s’octroyant les services d’un des opérateurs télécoms dominants, tels que l’opérateur historique AT&T. De quoi relativiser fortement les arguments qui voient dans un mode d’administration centralisé du spectre la garantie de la qualité de service. Même dans le secteur télécom, les opérateurs titulaires des licences ont eux-mêmes recours au WiFi pour décharger leurs réseaux saturés. D’après certaines estimations, d’ici à 2015, l’« offloading » (« déchargement » des réseaux 3G et 4G vers les réseaux WiFi) atteindra 30% du trafic « data » des opérateurs !

Un rendez-vous manqué pour l’Europe

Comme le suggèrent ces chiffres, les États-Unis sont en train de prendre une longueur d’avance sur l’Europe en matière de communications sans-fil, alors que la FCC s’apprête à parachever le cadre de régulation technique et juridique pour autoriser des accès libres aux espaces blancs et que le Congrès vient d’adopter une loi sanctuarisant ces politiques.

Au printemps 2011, le Parlement européen a bien tenté d’enclencher le mouvement, à l’occasion du débat sur le programme politique européen en matière de gestion du spectre. Les eurodéputés ont ainsi appelé la Commission européenne et les États-membres à œuvrer pour l’ouverture des fréquences. Malheureusement, les gouvernements des États membres, réunis au sein du Conseil de l’Union européenne, ont invoqué la défense de leurs prérogatives nationales dans ce domaine pour opposer une fin de non recevoir aux demandes du Parlement. Bien que les eurodéputés aient obtenu un engagement symbolique de la part du Conseil, aucune disposition contraignante n’a finalement été retenue.

Par conservatisme, les gouvernements européens, et notamment le gouvernement français, se refusent à débattre sérieusement de l’ouverture des fréquences. Aucune trace d’un tel débat dans le rapport de la Commission pour le dividende numérique, chargée en 2007 de proposer des orientations en matière de politique du spectre en France. Tout juste une courte référence aux espaces blancs dans le rapport « France numérique 2012 », présenté en 2008. Le rapport prenait acte du leadership américain dans ce domaine et affirmait :

Ces espaces blancs ou “white spaces” permettraient à une nouvelle génération de terminaux connectés de voir le jour et ainsi contribuer à la diversification des offres et services. La France pourrait devenir l’un des pays moteurs en Europe pour l’utilisation harmonisée des espaces blancs, et créer, à l’instar du dividende numérique, un vrai projet industriel au niveau européen.

Pour donner corps à ces bonnes résolutions, le rapport annonçait que l’Agence nationale des fréquences remettrait ses conclusions pour le 1er janvier 2009 sur l’utilisation de ces « espaces blancs » pour le très haut débit, en lien avec l’Arcep… Des conclusions que l’on attend toujours.

Le spectre radio, un bien commun à réhabiliter

L’attribution récente des fréquences en or, avec plus de 3,5 milliards d’euros de recettes escomptées, est évidemment présentée par les pouvoirs publics comme une opération réussie : l’État met ainsi la main sur une manne financière importante, en particulier en ces temps de disette budgétaire, et le secteur privé peut amorcer le déploiement de nouveaux réseaux sans-fil censés permettre la diversification des services et une meilleure couverture du territoire.

Pourtant, le principe même de l’attribution centralisée des fréquences repose sur des postulats et considérations archaïques, qui interdisent des politiques ambitieuses. Pourquoi ne pas, par exemple, conditionner l’octroi de ces fréquences à un engagement fort en matière de tarif social ou de respect de la neutralité du Net ? Et surtout, pourquoi ne pas accepter qu’au moins une partie de ces fréquences puisse faire l’objet d’un accès non soumis à licence ? Évidemment, les lobbies des opérateurs s’y opposent, souhaitant maintenir leur mainmise sur le secteur de l’accès à l’Internet sans-fil. Et il semble qu’ils soient entendus, puisque le gouvernement a fait le choix du statut quo, compromettant ainsi une politique de long terme plus porteuse pour l’innovation, le développement économique et la démocratisation de nos réseaux de communication.

Dans l’audiovisuel comme dans les télécoms2, la réalité de la politique du spectre actuelle est celle d’une ressource publique largement mise à disposition d’acteurs privés, souvent sans que l’intérêt général n’ait été réellement pris en compte. Face au potentiel de réduction de la fracture numérique, face au potentiel d’innovation et de gains de compétitivité que laisse entrevoir l’ouverture de l’accès aux fréquences, l’État semble à nouveau enfermé dans une logique de régulation qui favorise les acteurs industriels les mieux établis. Il est grand temps d’ouvrir sérieusement ce débat sur la politique des fréquences, afin de rééquilibrer nos politiques du spectre en faveur d’un accès partagé et citoyen à cette ressource essentielle pour nos sociétés en réseau.

Show 2 footnotes

  1. Une onde radio est classée en fonction de sa fréquence exprimée en Hz ou cycles par seconde; l’ensemble de ces fréquences constitue le spectre radiofréquence. http://fr.wikipedia.org/wiki/Onde_radio#Spectre_radiofr.C3.A9quence
  2. En matière audiovisuelle également, on est en droit de se demander s’il est bien raisonnable que le CSA se lance dans l’attribution de fréquences à 6 nouvelles chaînes TNT en haute définition, alors même qu’on observe une concentration rampante du secteur. De même, nous assistons à des comportements spéculatifs de certains groupes, à l’image de Bolloré qui s’apprête à engranger d’importantes plus-values financières en revendant à Canal + une partie de ses chaînes Direct 8 et Direct Star, chaînes qui n’ont pu se développer que grâce à l’octroi gracieux de fréquences par l’État.

L’obsolescence du droit des médias appliqué à Internet

« Autrefois, ce genre de discussions se tenait dans les salons ou les cafés ; aujourd’hui, elles ont lieu sur le Net. »
Alexis Delcambre, rédacteur en chef du journal en ligne LeMonde.fr

Suite au post de la semaine dernière, je voudrais ici tâcher de montrer les limites et les dangers liés à l’application à Internet des logiques de régulation héritées du droit des médias. Ce dernier s’est construit autour d’une personne, le directeur de publication, qui joue un rôle central dans la modération de l’expression publique dans les médias traditionnels.

Mais dès lors que cette fonction disparaît sur Internet, à mesure que l’expression publique s’émancipe du cadre journalistique, comment lutter contre les infractions pénales que constituent les abus de la liberté d’expression ?

Pour répondre à ce défi, le législateur s’efforce de recréer des modes de contrôle de l’expression publique sur Internet, sans arriver cependant à trouver un équilibre juridique capable de protéger réellement la liberté d’expression…

Avec Internet, le droit des médias disloqué

Un directeur de publication introuvable

Dans l’environnement médiatique traditionnel (presse, radio, télé), la loi a organisé la modération a priori des informations publiées. En France, l’article 42 de la loi de 1881 sur la liberté de la presse, ou la loi du 29 juillet 1982 relative à l’audiovisuel établissent ainsi en matière civile et pénale un mécanisme de responsabilité consacrant le rôle du directeur de publication dans la régulation de l’information rendue publique.1

Étant responsable pénalement en premier ressort, c’est le directeur de publication qui est censé s’assurer que les propos des auteurs publiés ne relèvent pas d’infractions réprimées par la loi, afin d’éviter toute poursuite. Le droit des médias s’est ainsi organisé autour de professionnels dont la fonction est de sélectionner l’information avant qu’elle n’entre dans la sphère publique.

Alors qu’auparavant cette dernière était investie par des professionnels – des journalistes et des écrivains pour l’essentiel – et alors que le nombre de locuteurs restait relativement restreint, il pouvait sembler légitime d’assurer le « polissage » du discours par les acteurs de la sphère publique eux-mêmes, sous la menace de condamnation pénale pour injure, diffamation, écrits et propos racistes ou sexistes, apologies des crimes et délits, les remises en cause de la présomption d’innocence ou de l’autorité de la justice.

Par Harald Groven (CC)

Cela est très bien résumé par le sociologue Dominique Cardon.

« L’espace public traditionnel est le résultat d’un long processus de professionnalisation et de domestication des locuteurs qui a donné naissance à la production de statuts réservés pour ceux qui prennent la parole en public (…).

D’exigeantes règles de publicité administrent un contrôle a priori (le sacro-saint rôle de gate-keeper des médias et de l’édition) des énoncés avant leur mise en visibilité.

L’espace public traditionnel était public parce que les informations rendues visibles à tous avaient fait l’objet d’une sélection préalable par des professionnels obéissant à des normes déontologiques qui se sont construites en même temps que le droit permettant de punir, en les invisibilisant, les propos contrevenants à ces règles. »2.

Internet ou l’expression publique non-domestiquée

Aujourd’hui, grâce à Internet, tout citoyen peut s’auto-publier ou s’exprimer dans des espaces prévus cet effet. La conséquence directe de cette évolution est que les débats qui se tenaient « dans les salons ou les cafés » peuvent désormais être rendus publics. La modération a priori permise par la domestication juridique des professionnels des médias vole en éclat.

En raison de cette transformation de la sphère publique, nombre d’énoncés ne correspondent clairement pas aux critères que nous attachons traditionnellement à la parole publique. Les écrits relevant de près ou de loin aux règles journalistique – qui gardent évidemment toute leur importance dans le nouvel écosystème informationnel – doivent désormais cohabiter avec des pratiques expressives relevant de la conversation, ce qui implique une dose d’excès, d’emportements, d’invectives, d’imprécisions voire de malhonnêteté dans les propos tenus, et que les journalistes sont généralement priés d’éviter3.

En somme, si les formes d’expression paraissent changer, c’est que les médias professionnels sont mécaniquement moins représentés dans une sphère publique désormais ouverte à tous, et que le type d’expression qui les caractérise côtoie désormais de nouveaux types d’énoncés…

Les mécanismes de contrôle des publications dans la sphère publique en réseau

Nombre d’infractions de presse sont considérées comme telles parce que le législateur a estimé à une époque ou Internet n’existait pas encore que l’espace démocratique ne pouvait composer avec certains propos, en particulier dans un environnement médiatique dominé par des entreprises privées. Or, si le droit a su « domestiquer » les locuteurs professionnels par un ensemble de règles construites dans la durée, il semble bien moins efficace pour organiser un nouvel écosystème informationnel dans lequel la diversité des locuteurs a littéralement explosé.

La dangereuse extension des règles journalistiques à l’expression en ligne

C’est en partie l’enjeu des tentatives de régulation administrative d’Internet que de rétablir des mécanismes par lesquels l’expression en ligne peut être « mesurée », « polissée » et rendue « respectueuse » d’autrui, en comptant sur l’auto-régulation pour faire respecter les limites traditionnelles de la liberté d’expression. Ainsi, certaines propositions législatives tentent de soumettre les personnes qui s’expriment sur Internet aux obligations qui pèsent sur les journalistes.

Par exemple, en Italie, la majorité parlementaire de Silvio Berlusconi a proposé en juillet 2010 au détour d’amendements à une loi portant sur les écoutes téléphoniques de soumettre les responsables de sites Internet aux obligations pesant sur les médias traditionnels, notamment en matière de droit de réponse et de rectification d’informations erronées ou calomnieuses (obligations qui sont inscrites dans une loi de 1948). Au départ, ces amendements visaient par exemple à imposer à tous les éditeurs de sites de s’identifier auprès des autorités (déclaration préalable) et de respecter un délai de 48 heures après réception d’une plainte d’un tiers pour publier des corrections, sous peine d’une amende de 12 500 euros4.

Suite à une levée de bouclier, de nouveaux amendements ont été déposés pour limiter ces mesures aux seuls journalistes professionnels exerçant sur Internet, et les débats parlementaires ont repris il y a de cela quelques semaines (lire le communiqué de Reporters Sans Frontières).

Cet exemple d’un débat malheureusement récurrent5 montre qu’aussi légitime puisse sembler le motif invoqué (corriger l’information inexacte ou diffamatoire), toute tentative d’appliquer d’anciennes règles journalistiques aux nouveaux participants à la sphère publique en réseau aurait pour effet de décourager la critique de personnalités publiques et plus généralement l’expression démocratique.

La responsabilité « allégée » des intermédiaires techniques, nouvel avatar de l’auto-régulation

Au-delà de ce type de propositions législatives, c’est surtout au travers du régime de responsabilité allégée des hébergeurs, inauguré par la directive e-Commerce de 2000, que le droit recrée les mécanismes d’autorégulation qui caractérisent les médias traditionnels.

Comme le suggère le qualificatif « allégée », ce régime de l’hébergeur est assimilé dans l’esprit des juristes à celui qui a cours dans les médias traditionnels, et donc à celui du directeur de publication. Si un éditeur de musique constate la publication non autorisée d’une de ses œuvres sur un blog, il pourra au prix de quelques formalités contacter l’hébergeur pour lui demander le retrait de celle-ci. De même, une association de lutte contre le racisme pourra mettre en place une politique visant à obtenir le retrait des propos à caractère raciste tenus dans des espaces participatifs en ligne.

Le fait que l’hébergeur fournisse une prestation technique qui est le support des messages en ligne fait de lui un point de contrôle aisé sur ces derniers, et c’est donc lui, en dépit de sa relation le plus souvent lointaine avec l’auteur ou éditeur, que la loin rend responsable légalement, et ce quoiqu’à un moindre degré qu’un directeur de publication traditionnel, qui agit avant publication. Ce faisant, le régime de responsabilité allégée des hébergeurs recrée une forme d’autorégulation de l’expression publique dans le but de faire respecter la loi.

Limites et dangers de l’auto-régulation de l’expression sur Internet

Bien que ce régime aboutisse en apparence à un équilibre satisfaisant, il n’est toutefois pas dépourvu de défauts structurels qui représentent un risque du point de vue de la liberté d’expression. Il s’agit tout d’abord d’un système qui impose aux prestataires de service de mettre en œuvre des procédures de traitement des demandes de retrait, d’évaluer le bien-fondé des demandes et de contacter les utilisateurs éditeurs des contenus litigieux. Tout cela représente un coût à la charge de ces acteurs commerciaux, qui ont tendance à vouloir le minimiser et ne consacrent pas toujours suffisamment de ressources à un traitement équilibré des demandes. Préférant se mettre à l’abri, nombre d’entre eux sont ainsi tentés de retirer les contenus, quand bien même la demande de retrait serait abusive6. D’autre part, même dans le cas où l’éditeur se voit demandé par son hébergeur s’il souhaite maintenir les contenus en ligne (s’exposant ainsi à de possibles poursuites), il est fort probable qu’il minimise les risques juridiques en cédant au retrait des contenus même lorsqu’il pense être dans son bon droit. C’est d’autant plus probable que les courts délais qui sont généralement accordés pour prendre une décision rendent difficile le recours à un conseil juridique. Mais surtout, comme nous l’avons déjà expliqué, le mécanisme de responsabilité allégée est perverti par des évolutions jurisprudentielles qui transforment les hébergeurs en véritables juges de l’expression sur Internet et renforcent l’incitation pour ces derniers à retirer des contenus sur simple notification de tiers.

Alors que le directeur de publication devait de par sa fonction de filtre mettre en balance le risque juridique lié à la publication d’une information sensible et les bénéfices (commerciaux ou « réputationnels ») qu’en retirerait sa rédaction, les hébergeurs n’obéissent pas à la même logique. Ils sont bien davantage enclins à faire valoir leur propre sécurité juridique sur l’intérêt de leurs utilisateurs à publier telle ou telle information. Il en résulte que, dans les faits, la liberté d’expression des locuteurs professionnels est aujourd’hui probablement mieux défendue que celle des locuteurs amateurs, quand bien même ils ne sont tenus à aucune règle déontologique. Le mécanisme qui découle du régime de responsabilité allégée est donc de ce point de vue insatisfaisant.

Plutôt que de mettre l’hébergeur ou le créateur du site au premier plan de la régulation des contenus en ligne, le droit ne devrait-il pas faire de l’auteur des propos le responsable en premier ressort ? Si l’on accepte de reconnaître les transformations de notre écosystème informationnel, il semble plus pertinent de considérer l’hébergeur ou l’éditeur d’un site participatif comme le gérant d’un « café ». Dès lors, il paraît disproportionné de les poursuivre pour des propos tenus par leurs « clients », et ce d’autant plus que comme nous le rappelions dans le post précédent, l’hébergeur n’est pas compétent pour juger de la légalité d’un contenu (le Conseil constitutionnel  a eu l’occasion de le souligner dans sa décision sur la LCEN, lorsqu’il écrit que « la caractérisation d’un message illicite peut se révéler délicate, même pour un juriste »).

Sortir Internet du droit des médias

Internet a induit une mutation importante de la communication publique, et nos sociétés cherchent encore les règles juridiques adaptées à ce nouveau moyen de communication.

Le régime de responsabilité allégée constitue à n’en pas douter un progrès important car après tout, le législateur aurait pu décider d’appliquer un régime de responsabilité directement issu du droit des médias en imposant à l’hébergeur le contrôle préalable des messages publiés. En France, l’extension de ce régime aux éditeurs de sites participatifs depuis 2009 représente également un progrès notable7.

Cela étant, comme nous l’avons vu, la mise en œuvre de ce régime n’est pas sans poser certains problèmes du point de vue de la liberté d’expression, notamment du fait d’évolutions jurisprudentielles qui semblent contourner l’esprit de la loi. Cette dernière, sans doute imprécise, voire incomplète, doit manifestement évoluer pour être plus protectrice de la liberté des citoyens qui s’expriment en ligne (voir les propositions de La Quadrature du Net à ce sujet).

Cependant, la difficile transposition du droit des médias aux logiques techniques et sociales qui caractérisent Internet montre la nécessité d’une remise en cause plus profonde. La logique même du droit des médias, qui cherche à policer et à contraindre le discours public est-elle encore d’actualité ?

Show 7 footnotes

  1. C’est le régime dit de « responsabilité en cascade ». Dans la presse, l’article 42 dispose que « seront passibles, comme auteurs principaux, des peines qui constituent la répression des crimes et délits commis par la voie de la presse (…) 1° les directeurs de publication ou éditeurs (…) 2° à leur défaut, les auteurs : 3° à défaut des auteurs, les imprimeurs ; 4° à défaut des imprimeurs, les vendeurs et distributeurs et afficheurs ». Ce mécanisme de responsabilité se retrouve en matière audiovisuelle: l’article 93-3 de la loi de 1982 prévoit que lors d’une des infractions de la loi de 1881 « est commise par un moyen de communication au public par voie électronique, le directeur de publication (…) sera poursuivi comme auteur principal lorsque le message incriminé a fait l’objet d’une fixation préalable à la communication publique. A défaut, l’auteur, et à défaut de l’auteur, le producteur sera poursuivi comme auteur principal. ».
  2. Cardon Dominique, 2009, « Vertus démocratiques de l’Internet »,. La Vie des idées. Adresse : http://www.laviedesidees.fr/Vertus-democratiques-de-l-Internet.html
  3. Ces excès, nous avons par ailleurs appris à nous en accommoder dans notre rapport quotidien à autrui, et il ne nous surprennent pas forcément venant d’hommes ou de femmes politiques.
  4. Arianna Ciccone, 27 juillet 2010, « Italy: Liability Risk for Bloggers? » , Global Voices. Adresse : http://advocacy.globalvoicesonline.org/2010/07/27/italy-a-bill-to-censor-the-internet/
  5. Le législateur européen avait eu un débat à similaire à l’occasion de l’examen de la directive sur les « services de médias audiovisuels », se posant la question de l’opportunité de soumettre les services de partage de vidéos (type Youtube) aux mêmes obligations que éditeurs de programmes audiovisuels à la demande. Il s’y était finalement refusé, estimant que les sites de partage s’apparentait à des hébergeurs, bénéficiant de ce fait du régime de responsabilité allégée, et non pas du régime de droit commun attaché aux éditeurs, qui exercent un contrôle sur le contenus publiés.
  6. La directive européenne e-Commerce reste assez vague concernant l’encadrement de demandes de retrait et leur traitement. Cette imprécisions du droit communautaire a abouti à des différences importantes dans les politiques mises en œuvre par les hébergeurs pour répondre aux demandes de retrait. Ainsi, des expériences menées aux Pays-Bas en 2004 montraient que la majorité d’entre eux ne vérifiaient pas la véracité des faits allégués dans les notifications, et qu’ils étaient prompts à retirer des contenus dont l’examen aurait facilement permis d’établir la parfaite licéité. Voir Sjoera Nas, 2004, « The Multatuli Project : ISP Notice & Take Down  », Sane. Adresse: http://www.bof.nl/docs/researchpaperSANE.pdf. En France, la loi (article 6-I-4 et l’article 6-I-4 de la LCEN) et la jurisprudence ont quelque peu encadré ces procédures de retrait, notamment pour éviter les notifications abusives.
  7. Dans la loi HADOPI du 12 juin 2009, le législateur a étendu le régime de responsabilité limitée aux éditeurs de sites participatifs: « Lorsqu’une infraction résulte du contenu adressé par un internaute à un service de communication au public en ligne, mis par le service à disposition du public, dans un espace de contribution personnel identifié comme tel, le directeur de la publication n’est pas responsable, sauf s’il est établi qu’il avait connaissance du caractère illicite du message ». Article 93-3 modifié de la loi n°82-652 du 29 juillet 1982 sur la communication audiovisuelle.

Les lois du numérique

Le texte d’Emmanuel Cauvin paru cet hiver dans la revue Débat1 est un texte important, qui se penche sur les rapports entre Internet et le droit. L’article traite en particulier de la difficulté d’appliquer les logiques de régulation traditionnelles à Internet. Emmanuel Cauvin, qui est juriste de métier, apporte ici sa pierre à ce débat vieux de 15 ans en mettant en exergue l’incapacité du législateur et des juges à adopter et à faire appliquer des lois adaptées au réseau. Pour l’auteur, c’est là une tentative vaine tant que nos sociétés se passeront d’un débat de fond sur ce que sont les « lois physiques » propres à cet environnement nouveau. Mais, comme j’aimerais le montrer ici, au gré de cette analyse, l’auteur semble réduire Internet à un Far-West numérique sans prendre en compte ses règles propres et leur caractère éminemment politique. Car la technique n’est pas la physique ; elle est bien davantage une construction sociale, et donc une construction politique. Or, en cherchant par dessus tout à assurer l’applicabilité de la norme, Cauvin fait mine de ne pas voir que cela est impossible, sauf à changer l’architecture technique de l’environnement qu’il s’agit de réguler. Cela pose évidemment problème du point de vue de la liberté de communication permise par Internet, et des autres valeurs que l’état actuel des techniques fait primer. L’auteur passe donc selon moi à côté d’un débat politique essentiel sur une réforme du droit de la communication qui viendrait protéger les capacités nouvelles permises actuellement par l’architecture d’Internet.

Internet, un monde immatériel « sur demande »

La principale contribution d’Emmanuel Cauvin au travers de cet article consiste à établir une casuistique juridique permettant de déceler les spécificités d’Internet. Sa démarche se fonde sur un appel au bon sens : « les règles juridiques sont d’abord dictées par les propriétés physiques des objets auxquels elles s’appliquent ». Il importe dont de comprendre quelles sont au juste les « lois physiques » de l’Internet, « car le travail de caractérisation » n’a toujours pas été fait par le législateur.

La première observation que fait l’auteur est déterminante au plan juridique : « Cette réalité n’apparaît que quand on la sollicite ». Internet est un monde « sur demande ». Cela avait été relevé dans le premier arrêt de la Cour suprême américaine relatif à Internet. Ainsi, dans l’arrêt Reno vs. ACLU de 1997, le juge Stevens soulignait la nature non invasive d’Internet, expliquant que « sur Internet, il est rare que les internaute soient exposés à un contenu ”par accident”». Internet est donc un monde auquel nous nous confrontons par notre propre volonté. Tout ce que nous y voyons ou faisons est, dans une certaine mesure, une conséquence logique de nos propres actions: ainsi en va-t-il des mots clés que nous recherchons, des liens hypertextes que nous cliquons, les pages Web que nous visitons. L’inattendu et la surprise ont bien évidemment leur place dans cet univers qui se déploie à chaque clic, mais nous restons maître de notre navigation.

D’autre part, bien que nous fassions l’expérience de ce monde sensible via la vue et l’ouïe et qu’il s’agisse donc d’un monde « réel », « les contraintes qui s’exercent sur nos faits et gestes ne son pas les mêmes ». Jamais notre intégrité physique n’est mise en cause, et l‘espace et la distance qui nous condamnent à un environnement géographique limité dans l’environnement physique sont abolis.  Tout point de ce gigantesque réseau n’est jamais qu’à une fraction de seconde (ou plusieurs, selon la qualité de la connexion!).

Cette immédiateté est le résultat des deux grandes « lois physiques » du réseau que Cauvin met en évidence : le mouvement et la copie. « Le mouvement parce que toute action et même la moindre présence [sur Internet] se traduisent par une émission. Tout ne vit qu’à travers une transmission », de l’écriture d’un texte, à l’envoi d’un e-mail, en passant par la consultation d’une page Web. Il s’agit de transmission sans dépossession puisqu’Internet fonctionne – et c’est là sa deuxième loi fondamentale – sur la copie.

Internet et les technologies numériques sont toutes entières fondées sur la copie. Ainsi, l’envoi d’un e-mail part forcément d’un ordinateur à un serveur, de ce serveur à des routeurs chargés d’orienter l’information sur le réseau, de ces routeurs au serveur sur lequel le destinataire récupère l’e-mail en question, pour enfin le lire – et c’est là l’ultime copie dans cet échange – sur son ordinateur. Chaque émission et réémission d’information créent en pratique une copie qui peut être gardée en mémoire. Autant de reproductions au coût nul qui s’égrainent donc au cours d’un voyage le long du réseau physique de câbles qui forment l’architecture sur laquelle repose Internet. Même sur un poste informatique, chaque lecture d’un fichier crée en pratique une nouvelle copie dans la mémoire vive de l’ordinateur.

Pour l’auteur, ce sont bien le mouvement et la copie qui défient les fondements du droit traditionnel, et qui rendent nécessaires une réforme de régimes tels que le droit d’auteur et ou le droit de la preuve, afin que soient pleinement prises en compte les « lois physiques » d’Internet.

CC(BySa) par luc legay

Des réformes inabouties et inefficaces

Ce mouvement quasi-organique que décrit Emmanuel Cauvin semble devoir rendre obsolète toute idée de contrôle sur l’information, comme il le montre au travers de son analyse de la crise du droit d’auteur face à Internet. En effet, si chaque manifestation d’une information donnée consiste en la réalisation d’une copie, un droit d’auteur fondé sur le droit de reproduction ou de représentation des œuvres vole en éclat, car de telles reproductions ou représentations deviennent impossibles à contrôler.

«  Depuis près de trente ans, s’appuyant sur les principes classiques du droit d’auteur considérés comme intouchables, le législateur s’évertue à ajuster leurs modalités d’application à l’évolution de ce que l’on continue d’appeler la «technique», alors qu’il conviendrait de s’attaquer à ces sacro-saints principes pour les renverser et les remplacer par d’autres. Les pouvoirs publics pratiquent des changements cosmétiques là où il faudrait procéder à une opération chirurgicale en profondeur ».

À défaut d’une telle réforme, le droit ne pourra donner que l’illusion de son applicabilité en invoquant des parallèles douteux tenant de ramener Internet à notre monde physique. Comme l’analogie trompeuse entre la loi HADOPI et le premier code de la route, invoquée par plusieurs ministres de la Culture ayant eu à défendre cette loi. De tels discours produisent des fictions juridiques, dont Cauvin pense à juste titre qu’ils ne peuvent avoir prise sur l’environnement immatériel auquel elles tentent de s’appliquer.

Mais ici se dévoile la vraie limite dans l’analyse d’Emmanuel Cauvin. Car après avoir montré les limites du droit actuel, il propose des pistes de réformes inabouties. Les propositions de l’auteur s’apparentent en effet à un changement de vocabulaire (le droit de reproduction et de représentation de l’auteur sur son œuvre deviennent le droit d’émission et de réception), et non à l’« opération chirurgicale en profondeur » qu’il appelle lui-même de ses vœux. Une telle démarche peut certes permettre une amélioration qualitative de nombre de lois à l’environnement numérique (ainsi en va-t-il de sa réflexion pertinente sur le droit de la preuve), mais son exemple du droit d’auteur montre que toute règle juridique vouée à empêcher des échanges d’information défie la logique même d’Internet. Ainsi, la distinction qu’il propose entre licence de réception (nouveau droit de reproduction) et licence d’émission (nouveau droit de représentation) est obsolète. Mettre en place un tel système revient à rétablir une différence entre les activités de réception et d’émission de biens culturels, alors même que l’auteur reconnaît que chaque internaute peut mener les deux à la fois. C’est typiquement le cas avec les échanges peer-to-peer qui représentent le moyen technique optimal pour diffuser des œuvres sur le réseau : toute réception est en même temps mise en partage d’une œuvre avec d’autres, et donc émission. La e-licence qu’il propose pour réguler le droit d’émission suppose qu’il est techniquement possible de monétiser toute émission de contenu. Or, de même qu’on ne peut les empêcher de telles transmissions qu’en changeant l’architecture physique d’Internet (ce que l’auteur semble exclure de son raisonnement), on ne peut pas non plus imposer que chaque échange s’accompagne d’une transaction monétaire.

En fait, Emmanuel Cauvin ne voit pas que, en l’état des « lois » propres de l’Internet, il est impossible de prévenir efficacement la publication d’information. Il y a une incompatibilité absolue entre une partie du droit de la communication – celle dont la fonction est justement d’empêcher la publication de certaines informations – et la nature même d’Internet tel que nous le connaissons.

Une architecture technique reflet de valeurs politiques

Emmnuel Cauvin voit Internet comme un outil technologique surgissant brutalement. Un espace à l’état de nature, vierge de toute  règle sociale, où la technique fait seule sa loi. Pour lui, s’en remettre au statu quo technique nous mène dans l’impasse.

« Qui, sur terre, songerait à fonder une morale sur l’application des lois physiques de notre milieu ».

Mais Internet n’est pas un objet asocial, ni un espace naturel qu’il faudrait « domestiquer ». Bien loin de l’état de nature que décrit l’auteur, Internet est au contraire un espace social, non seulement habité mais construit par l’homme, pour l’homme. Les choix techniques qui ont présidé à son développement ne sont pas arbitraires. Ils sont au moins pour partie le fruit de certaines valeurs qui sont celles des ingénieurs pionniers d’Internet et de l’informatique ouverte.

L’origine socio-culturelle d’Internet est de ce point de vue riche en enseignements. On ne peut séparer la technique de la vision de ses concepteurs. Il semble donc important de rappeler, comme le fait Dominique Cardon en se basant sur les travaux de Fred Turner dans La Démocratie Internet, que les chercheurs qui ont participé au développement d’Internet on baigné dans le mouvement de la contre-culture américaine :

Les tenants de la contre-culture, écrit Cardon, « veulent reprendre en main les enjeux techniques pour ne pas les laisser aux businessmen et aux militaires. Sur le mode de l’appropriation individuelle, du culture du micro et du ”do it yourslef ”, ils cherchent à repenser toute la politique des technosciences pour les mettre au service d’une extension des capacités individuelles (…). Tous, loin de là, ne sont pas hippies, mais il est incontestables que l’atmosphère culturelle qui nimbe la baie de San Francisco [où travaillent nombreux des ingénieurs clés] a profondément influencé la manière dont les premiers usagers de l’Internet se sont représenté l’outil qu’ils étaient en train d’inventer : un espace émancipé dans lequel il est possible de faire ”communauté” ».

L’environnement culturel qui a entouré l’avènement de l’informatique ouverte et d’Internet a eu une influence déterminante sur ce que Cauvin désigne comme les lois physiques du réseau. Le choix le plus remarquable, et qui distingue Internet de tous les réseaux de communication qui l’ont précédé, c’est son architecture acentrée, le fait que l’intelligence soit poussée en périphérie, à la différence des médias de masse que sont la presse, la radio ou la télévision, ou même du téléphone. Chacun peut envoyer n’importe quelle information, à n’importe qui, tant qu’un certain nombre de principes techniques sont respectés pour procéder à l’acheminement des données. La liberté de communication des personnes connectées s’en trouve maximisée. Ainsi, les règles techniques d’Internet permettent en théorie une liberté d’expression totale, l’anonymat, et dans une certaine mesure, le respect de la vie privée ; elles mettent l’accent sur l’auto-organisation et la mise en partage. Ces valeurs sont celles des pionniers de l’Internet.

Un outil fragile

Cette limite regrettable dans l’analyse d’Emmanuel Cauvin (qui ne voit pas que la technique est politique) l’amène à disqualifier la posture des défenseurs de la liberté sur Internet, ou en tous cas une partie d’entre eux. Il fait comme s’il ne voyait pas qu’en défendant l’architecture technique d’Internet, ces derniers défendent en fait ses valeurs originelles. Le risque est qu’en appliquant aveuglément au gré de simples ajustements conceptuels les principes juridiques traditionnels sans remettre en cause leur bien fondé, nos sociétés fassent prévaloir des valeurs au moins pour partie adverses, sans forcément s’en apercevoir. En effet, contrairement à ce qu’avance l’auteur, le débat sur les « lois pour le numérique » ne doit pas simplement être un débat sur l’application de nos valeurs à Internet, mais aussi et surtout un débat entre différentes valeurs qui s’affrontent dans l’espace public.

« Bouger, copier, bouger, copier. Tout ce qui pourrait heurter la fluidité de la matière, sa propagation universelle, est rejeté comme une hérésie. La seule légalité est technique, est légal ce qui est faisable et, par là même, tout ce qui est faisable est légal. La pensée de nos héros des nouvelles technologies est une pensée archaïque, la pensée d’êtres vivants et énergiques mais neutres par rapport à l’éco-système dans lequel ils vivent et se répandent. Aucun recul par rapport à la matière. »

En écrivant ici « est légal ce qui est faisable », il semble que Cauvin caricature la thèse défendue par le professeur de droit Lawrence Lessig, véritable pionnier de la réflexion juridique relative à Internet. Dans son ouvrage Code, paru en 1999, Lessig pose une équation : « code is law ». Le code (entendre « code informatique ») – c’est à dire l’architecture technique qui « fait » le cyberespace – peut permettre, faciliter ou empêcher certains comportements, tout comme les règles juridiques: qu’il s’agisse du réseau sur lequel je communique, ou de l’ordinateur dont je me sers, chacun de ces outils est programmé pour réaliser certaines fonctions, et contraint de ce fait mon champ d’action. Lessig nous invite à prendre en compte les effets normatifs de l’architecture technique. Il se porte ainsi en faux contre l’idée selon laquelle Internet ne serait pas « régulable ». Certes, il est difficile dans cet espace mouvant d’appliquer un droit. Cela supposerait de pouvoir connaître l’identité d’une personne en ligne, où elle se trouve, ce qu’elle fait. Or, Internet offre à l’heure actuelle la possibilité d’agir de manière invisible, sans que l’on sache qui l’on est, où l’on se trouve et ce que l’on fait.

D’où une tentation pour les États de développer des dispositifs leur permettant d’enregistrer ces différents paramètres, et de contraindre les comportements en ligne en faisant en sorte de « reprogrammer » l’architecture technique. C’est ce mouvement qu’on observe depuis 15 ans, qui a été mis en évidence à l’occasion du forum eG8 qui vient de s’achever, et que Larry Lessig avait déjà prédit : À mesure qu’un nombre croissant de notre vie sociale migre en ligne, les États se dotent d’outils pour identifier, surveiller les comportements, et de manière générale réguler les activités de la population via un mélange de contrôle technique et de dispositifs répressifs (voir en France les exemples récents tels que l’HADOPI, la LOPPSI, le décret sur la rétention des données par les hébergeurs, etc.).

Ce mouvement mondial de régulation tend à remettre peu à peu en cause le caractère décentralisé d’Internet. modifiant son architecture technique pour créer des points de contrôle : directement sur les postes informatiques (à l’image des outils de sécurisation prévu par la loi HADOPI, ou les logiciels de contrôles sous responsabilité de l’abonné) ou, plus grave, en cœur de réseau (filtrage étatique ou privé, saisie de noms de domaine, etc.).

Les dangers d’une sphère publique en ligne sous contrôle

Cette régulation croissante se fait selon deux directions : la surveillance (et la remise en cause de la vie privée), et la mise en place de filtres aux échanges d’information. Cela suppose de trouver dans cet espace de communication des acteurs prêts à endosser la fonction de gatekeepers, à l’image des directeurs de publication dans les médias traditionnels, pour contrôler les communicants en ligne. Ces gatekeepers ont pour fonction de réguler la publication des contenus dans l’espace public ; ils centralisent donc le pouvoir médiatique et peuvent de ce fait être soumis plus facilement à des pressions juridiques ou même simplement politiques. Sur Internet, ces gatekeepers sont les « intermédiaires techniques » : fournisseurs d’accès, hébergeurs, moteurs de recherche, ou autres éditeurs de service en ligne.

Loin d’un retour à la situation qui prévalait dans nos sociétés avant l’arrivée d’Internet, la montée en puissance d’une régulation d’Internet par l’entremettement des intermédiaires techniques constitue une vraie régression du point de vue démocratique : alors que les directeurs de publication opèrent selon une logique éditoriale, dans le respect de la déontologie journalistique et de leur fonction de « chien de garde de la démocratie », les nouveaux gatekeepers de l’Internet – au premier rang desquels Google – ne sont que des acteurs économiques en aucun cas soumis au respect des règles éthiques et juridiques qui pèsent sur les journalistes. Autre différence majeure : les gatekeepers de l’Internet ont recours à des procédés de filtrage automatique des contenus pour empêcher la publication d’information. C’est là leur seul moyen de contrôle, car ils ne peuvent évidemment pas étudier au cas par cas les contenus mis en ligne pour juger par eux même, « en personne », de leur licéité. Or, ces dispositifs techniques sont incapables d’appréhender la complexité des situations juridiques qu’ils ont à connaître (voir l’exemple des filtres ne reconnaissant pas les exceptions au droit d’auteur). Sans juge ni directeur de publication conscient de son rôle dans un régime démocratique, la technique soumise au droit laisse sur Internet libre cours à une censure arbitraire. Or, la démarche positiviste de Cauvin, en cherchant à imposer la règle juridique existante à une société numérique qui serait comme insoumise, amène irrémédiablement à justifier ces procédés.

Rompre avec le statu quo juridique pour faire le pari de la démocratie

J’aimerais pour finir proposer quelques pistes de réflexion pour repenser le droit de la communication à l’heure d’Internet

Adapter le droit à Internet, et non l’inverse.

Face à ce réseau mondial de communication, nous ne devons pas comme le fait Cauvin nous contenter de transposer les principes traditionnels de régulation à cet espace immatériel qui serait comme engluée dans l’état de nature. Il nous faut nous engager dans une véritable réforme, et trouver de nouveaux équilibres juridiques pour faire en sorte qu’Internet, espace de liberté et d’innovation, tienne toutes ses promesses.

Cette réforme devrait être l’occasion d’approfondir les « phénomènes démocratiques » à l’œuvre sur Internet : l’élargissement de l’espace médiatique à de nouveaux participants, à l’image des blogueurs ; l’émancipation d’un public jusque là relativement passif face aux grands groupes qui dominent les médias traditionnels ; une plus grande transparence des institutions politiques et une meilleure surveillance des puissants par les citoyens ; l’apparition de nouvelles sociabilités, qui permettent aux individus de prendre part en toute liberté à des communautés d’intérêt de types variés.

À défaut de faire un aggiornamentto du droit de la communication pour encourager ces phénomènes, nous risquons de changer irrémédiablement la nature d’Internet. Une telle réforme passe notamment par la mise en œuvre de garanties juridiques destinées à protéger les fondements techniques de la liberté de communication permise par Internet.

Accepter la relative inapplicabilité des limites juridiques à la liberté de communication.

Si l’on parvient à éviter que le droit ne restreigne le champ des possibles ouvert par la technique, alors on en revient au problème de l’application de logiques répressives soulevés ci-dessus : comment savoir qui est qui, qui fait quoi, et depuis quelle juridiction ? Dans de nombreux cas, l’autorité en charge de l’application des lois pourra disposer de ces informations (comme c’est le cas aujourd’hui), mais en ce qu’Internet offre la possibilité d’anonymiser et de chiffrer toute communication, il désarme ainsi partiellement l’application de la règle de droit.

Mais quel est au juste la nature de ce droit ainsi désarçonné par Internet ? Manifestement, une grande partie du droit continue de s’appliquer à Internet. Beaucoup des communications que nous faisons avec cet outil sont en effet le pendant immatériel d’échanges biens réels, de biens ou de services, qui restent régulés par le droit : le droit des contrats, le droit fiscal, civil ou pénal. Ainsi, lorsque nous achetons des biens et services en ligne, ces transactions s’accompagnent d’échanges monétaires par l’intermédiaire d’organismes bancaires. Par ailleurs, chaque bien commandé en ligne – un livre par exemple – nous sera livré par la poste. L’échange d’information n’est là qu’annonciateur de phénomènes physiques que le droit n’a aucun mal à réguler. Le client paye la TVA, le marchand en ligne s’acquitte des ses charges sociales, rétribue les ayants-droit, etc. Toute une chaîne de transactions qui fait l’objet de contrats et de règles juridiques pour réguler le versant physique des échanges en ligne.

Quelles sont donc les règles de droit qui sont affaiblies par Internet tel que nous le connaissons ? Comme nous l’avons vu, le droit d’auteur en est le parfait exemple : ce sont les règles juridiques visant à restreindre ou contrôler la transmission d’information. Le droit pourra rendre plus difficile la publication, et prévoir des sanctions dans certains cas isolés où les responsables pourraient être identifiés (poursuivre les auteurs de fuite d’informations secrètes, tels que Bradley Manning, soupçonné d’avoir communiqué des dizaines de milliers de câbles diplomatiques et de rapports militaires à WikiLeaks). Mais dans le cas d’informations dont la vocation est d’être publiques, et c’est typiquement le cas des œuvres culturelles, le droit sera submergé.

En effet, si l’information est divulguée et présente un intérêt public, et que sa transmission peut se faire sans que la personne qui la sollicite ne soit inquiétée physiquement (ce que permet l’anonymat, ou  même le sentiment d’anonymat), elle sera transmise, copiée, et propagée aux quatre coin du réseau, chaque fois que la transmission de l’information sera sollicitée par quelqu’un.

Dans le cas où l’information est de nature privée et qu’elle est néanmoins publiée, sa propagation ne pourra être limitée que du fait du désintérêt des internautes eux-mêmes. L’information restera alors cantonnée à ces zones d’Internet que Dominique Cardon désigne comme les zones de clair-obscur, où l’information est publique mais reste invisible du plus grand nombre des internautes. La seule limite à la transmission de l’information divulguée relève donc de logiques sociales. Sauf à détruire l’essence même d’Internet, le droit ne pourra rien – ou peu – contre cela.

Accepter que l’affaiblissement de la règle de droit puisse laisser à l’éthique comme mode de régulation.

Internet désarme le droit et confie à des logiques sociales le soin d’organiser la circulation de l’information sur Internet. J’ai évoqué les règles techniques ou juridiques qui font à elles seules qu’Internet n’est pas un objet asocial, un continent à domestiquer. Mais c’est ce troisième type de règles qu’il nous faut maintenant considérer ; ces règles sociales qui régulent au quotidien nos activités en ligne, et qui ont notamment été étudiées par les juristes américains comme Yochai Benkler ou Jonathan Zitttrain.

Internet est régit par des normes sociales, des règles éthiques. Internet lui-même, les logiciels libres qui font tourner 80% des serveurs et quasiment tous les ordinateurs connectés, les sites Internet collaboratifs comme Wikipédia, les forums et réseaux sociaux : tout Internet est fondé sur des stratégies de socialisation, des logiques de partage de connaissance, de compétences, sur une coopération à vaste échelle entre les participants à cet écosystème complexe. Tout ce monde qui forme notre expérience quotidienne, toute cette planète immatérielle que nous créons, collectivement, n’est le fruit que de notre volonté de communiquer, de mettre en partage.

Car là où le droit n’est pas, d’autres formes de régulation s’immiscent pour organiser ces échanges. Dans The Economy of Ideas, John Perry Barlow, pionnier de l’Internet et icône de la contre-culture américaine, écrit :

« Je suis convaincu que l’échec du droit entraînera presque certainement, par compensation, une renaissance de l’éthique comme fondement de la vie sociale ».

Ainsi, il se peut que les limites à l’expression peuvent ainsi ne plus avoir besoin de répression pénale, mais être déterminée de manière organique, au cas par cas, chaque communauté décidant pour elle-même des règles qu’elle entend appliquer aux échanges d’informations en son sein. Nous devons faire le pari que même sans le droit, Internet peut rester un espace public digne de ce nom ; que les actions individuelles (qui se réduisent, rappelons-le, à la transmission d’information) libérées de la contrainte du droit parviendront à en faire un outil accessible et apprécié de tous. La régulation sociale de l’expression doit conduire à un espace public organique, et non chapeauté par des autorités publiques tâchant d’organiser un pluralisme formel.

Et si nous pouvons prendre ce risque de laisser à l’éthique le soin de réguler les interactions sociales en ligne, au côté des règles de droit qui s’appliquent à l’espace physique et des règles techniques qui permettent ou empêchent certaines actions dans cet environnement immatériel, c’est qu’Internet ne se manifeste qu’à notre propre demande, et qu’il est immatériel. Nous nous y confrontons par notre propre volonté, sans que notre intégrité physique ne soit jamais remise en cause. Cela en relativise les dangers et nous permet, au moins en ce qui concerne la manière dont nous organisons la circulation de l’information dans nos sociétés, de prendre le risque de la démocratie réelle.

Show 1 footnote

  1. Cauvin Emmanuel, 2011, « Quelles lois pour le numérique ? »,. Le Débat, vol. 163, n° 1, p. 16.