Organiser l'architecture de l'internet

Les réseaux constituent la nouvelle morphologie sociale de nos sociétés, et la logique de la mise en réseau détermine largement les processus de production, d’expérience, de pouvoir et de culture […] Ce qui est nouveau aujourd’hui c’est le fait que les technologies de l’information fournissent la base de son extension à la société tout entière.
Manuel Castells1

Le code (informatique) c’est la loi […] et son architecture est politique.
Lawrence Lessig2

L’internet est devenu, en l’espace de quelques années, l’une des richesses des nations et l’une de leurs infrastructures les plus cruciales. Il s’est développé dans nos sociétés pour devenir un élément essentiel pour l’éducation, la diffusion des savoirs, la culture ainsi que pour l’économie. L’internet, par l’effet de levier qu’il exerce sur l’ensemble des activités de production est aussi devenu l’un des moteurs de la croissance de nos sociétés. Comprendre l’architecture de l’internet et ses répercussions sur l’ensemble des activités dans nos sociétés revêt un caractère stratégique pour l’ensemble des acteurs de ce que l’on nomme désormais la société de l’information mais aussi plus largement pour l’ensemble des citoyens. Les questions liées à la gouvernance de l’internet étaient d’ailleurs au centre du récent Sommet mondial sur la société de l’information (SMSI3) organisé par les Nations unies. Au-delà des mesures qui permettraient de développer ces technologies (en particulier dans les pays émergents), l’un des défis posés au SMSI consistait à établir en matière de gouvernance de l’internet le ” socle commun ” des principes et des valeurs qui devront prévaloir au sein de l’architecture des réseaux dans les années à venir.

L’internet : anatomie d’un réseau d’échange

L’architecture de l’internet possède en effet plusieurs spécificités technologiques, économiques et politiques qui conditionnent les usages du réseau. Ainsi, avant d’être un réseau ou même ” un réseau de réseaux “, l’internet est d’abord un assemblage de protocoles dotés de caractéristiques spécifiques. L’une des définitions ” historiques ” de l’internet a été donnée par Ed Kroll4 et résume la nature pluridimensionnelle du réseau :

– L’internet est un réseau de réseaux fonctionnant avec le protocole TCP/IP5 ;
– une communauté de personnes qui utilisent et développent ces réseaux ;
– l’ensemble des ressources mises à disposition de ces communautés.

L’architecture liée à cette définition correspond à la superposition de ” couches ” dont les fonctions sont différentes. Ainsi pour Y. Benkler6 ces trois couches fondamentales de l’internet sont liées d’une part au transport (infrastructures physiques), puis aux applications (couche logique) et enfin aux informations échangées (couche des contenus). L’une des particularités de cette architecture est liée à l’indépendance des différentes ” couches ” qui constituent le réseau.

Le double protocole fondamental de l’internet ” TCP/IP ” assure en effet une séparation entre les fonctions de transport et les fonctions de traitement des informations. Cette séparation est l’un des principes essentiels de l’internet : le principe du end-to-end (ou architecture de ” bout en bout “). Selon ce principe, l'” intelligence ” du réseau est située à l’extrémité des mailles et non centralisée dans le réseau lui-même, les fonctions ” nobles ” de traitement de l’information étant alors réservées aux ordinateurs (et aux usagers) situés aux extrémités du réseau.

C’est cette particularité de l’architecture de l’internet qui a permis à des utilisateurs ” isolés ” de développer des technologies qui par la suite ont été adoptées mondialement. Ce fut le cas avec le langage HTML qui a donné naissance au World Wide Web mais aussi plus récemment des weblogs7 ainsi que des systèmes dits de ” pair à pair ” (ou peer to peer). Ces technologies d’échanges ne sont en fait que les traductions les plus récentes du principe du end-to-end8.

Ce principe de réseau décentralisé constitue aussi une rupture profonde avec les systèmes de réseaux ” en étoile ” auxquels nous étions précédemment habitués, en particulier avec le minitel. Une architecture centralisée, en plus de rendre un réseau plus vulnérable aux attaques, fait reposer l’effort de création de nouveaux services sur un nombre limité d’acteurs et prive donc ses utilisateurs de nombreuses opportunités d’innovations (en tant que bénéficiaires mais aussi en tant que contributeurs comme c’est le cas lors du développement des logiciels libres9). À l’inverse, les réseaux qui adoptent le principe du end-to-end sont ” neutres ” et se limitent à transporter des informations sans les modifier (c’est la raison pour laquelle ce principe est aussi appelé principe de ” neutralité “). Le réseau constitue alors une plateforme d’expression commune, un ” bien commun ” qui permet à l’ensemble des utilisateurs de développer de nouveaux contenus et de nouveaux services10.

Ce principe a aussi des conséquences sur le fonctionnement économique du réseau. En effet, en favorisant la compétition aux ” extrémités ” du réseau, il préserve l’égalité d’accès au réseau pour les nouveaux entrants tout en maintenant l’unicité des fonctions essentielles du réseau. Ce principe évite notamment que le réseau ne fasse l’objet d’une appropriation par certaines entreprises ou certains secteurs au détriment de l’ensemble de ses utilisateurs.

C’est aussi ce principe qui a donné à l’internet sa souplesse en matière de développement de contenus et d’applications et lui a permis de devenir en l’espace de quelques années le plus important réseau de personnes et de contenus. Pour permettre aux réseaux de se développer, il convient donc de préserver l’unité de l’internet sans pour autant imposer une uniformité des usages des services ou des technologies. Il est aussi à noter que pour la première fois lors du SMSI, les 25 pays de l’Union européenne ont souhaité défendre explicitement auprès des Nations unies les trois principes fondamentaux de l’architecture de l’internet que sont l’interopérabilité11, l’ouverture et le principe du end-to-end12.

Les perspectives de l’architecture de l’internet

Unicité ou uniformité ?

L’architecture actuelle de l’internet n’est en rien un fait immuable lié à une ” nature ” du réseau. Les tentations de modifier cette architecture à des fins économiques ou politiques sont multiples et proviennent à la fois des acteurs industriels les plus précocement impliqués dans la gestion de l’internet13 et de certains gouvernements14 qui y voient un moyen commode pour rétablir un contrôle politique sur les réseaux.

En effet, le réseau a été conçu à l’origine pour résister à des formes d’attaques localisées, il ne pourrait résister (dans la forme que nous lui connaissons) à une modification de ses protocoles essentiels15. Le fait de revenir, ne serait-ce que partiellement ou localement, sur l’architecture de l’internet, pourrait avoir de lourdes conséquences sur le devenir du réseau et plus loin sur l’évolution de l’ensemble de nos sociétés.

L’architecture d’échange end-to-end (ou ” transversale “) de l’internet a été à l’origine de son succès, mais les architectures centralisées (ou ” verticales “) présentent, pour leurs promoteurs, des avantages économiques indéniables en matière de contrôle de la ” chaîne de valeur16 “. Les réseaux intégrés permettent de contrôler chaque étape de l’offre de services et d’étendre ainsi leur maîtrise à des secteurs qui jusqu’alors étaient séparés de l’internet (télévision, téléphonie fixe et mobile). C’est la raison pour laquelle de nombreux industriels souhaitent mettre en place des réseaux ” intégrés17 ” qui permettront d’associer et de contrôler, dans une zone géographique donnée, l’offre d’infrastructure, de services et de contenus18. Cette intégration constituerait un changement crucial dans la dynamique générale du réseau.

Cette évolution vers la ” convergence verticale ” des réseaux consacrerait le passage d’une architecture d’échange à une architecture de diffusion. Cela pourrait conduire d’une part à remettre en cause certains types d’applications et donc certains usages du réseau, mais cela conduirait aussi à instaurer sur le réseau la notion d’émetteurs ” privilégiés ” et de récepteurs ” passifs “. Nous pourrions ainsi assister à une ” télévisualisation ” ou ” broadcastisation ” de l’internet19. Ces nouvelles architectures pourraient aussi avoir d’importantes conséquences macroéconomiques puisqu’elles pourraient conduire à fragmenter l’internet et ainsi diminuer la valeur globale du réseau pour l’ensemble des acteurs économiques20.

En effet, l’internet constitue jusqu’ici une plateforme ” neutre ” et il a bénéficié jusqu’ici d’un financement mutualisé par l’ensemble des acteurs industriels. La fragmentation de l’internet pourrait aussi conduire à une remise en cause de ce modèle de financement au profit des seuls ” segments d’infrastructures ” les plus rentables du réseau.

L’autre caractéristique fondamentale de l’architecture de l’internet qui pourrait être remise en cause par ces évolutions est sa plasticité, et donc sa capacité à générer de nouveaux liens entre les différents ” n¦uds ” du réseau. L’organisation actuelle du réseau présente en effet l’avantage d’autoriser des recombinaisons permanentes entre les groupes d’utilisateurs mais aussi entre les applications qui sont mises en place sur les réseaux. Les concepteurs d’applications et les usagers du réseau peuvent ainsi directement expérimenter à large échelle de nouvelles pratiques sociales, culturelles ou économiques. À mesure que s’installeront des phénomènes de fragmentation de l’internet, ces recombinaisons pourraient devenir de plus en plus difficiles. Cette rigidification (ou ossification) du réseau favoriserait alors la fragmentation de l’internet en une série d’îlots. Ces îlots et ces archipels pourraient s’auto-alimenter, au risque d’isoler définitivement des pans entiers de l’internet. Ces phénomènes pourraient entraîner, à terme, une véritable stagnation des échanges entre les îlots ainsi créés et donc restreindre la diversité des contenus et des usages de ces réseaux.

Les conséquences de ces évolutions ne seront pas que techniques ou économiques, mais aussi politiques. En plus de modifier la physionomie du réseau, ces transformations auront un impact sur la notion même de pouvoir de contrôle de l’internet. Leur impact sur la circulation des idées pourrait être particulièrement sensible. En effet, les utilisateurs de ces îlots pourraient n’entrer en contact qu’avec des personnes et des idées qu’ils connaissent déjà et devenir de plus en plus imperméables aux idées qui ne leur sont pas familières. C’est ce qui fait dire au constitutionnaliste Cass Sunstein que la radicalisation des opinions politiques exprimées sur l’internet, la ” polarisation de groupe21 “, pourrait s’accentuer à mesure que cette fragmentation deviendrait une réalité.

Les risques de fragmentation ou de rigidification de l’internet devront donc être pris en compte à chaque niveau, et ce à l’échelle internationale. D’une manière générale, la préservation et le développement de l’internet nécessiteront la mise en ¦uvre d’une coordination internationale entre les différents acteurs et régulateurs de l’internet.

La cartographie de l’internet, nouvelle ” science des princes ” ?

Un autre élément clé de l’architecture de l’internet est lié à l’une des rares structures centralisées du réseau : le système de gestion des noms de domaines (Domain Name System ou DNS). Chaque machine connectée est en effet identifiée sur le réseau grâce à une adresse numérique (par exemple 143.126.211.220). Plutôt que de retenir, comme c’est encore le cas pour le téléphone, un identifiant numérique, les utilisateurs de l’internet composent des noms de domaines (comme www.airbus.com). Le DNS permet alors d’effectuer la conversion entre les noms de domaine et les adresses numériques et ainsi de rendre intelligible les adresses numériques des machines connectées au réseau. Les architectes initiaux de l’internet ont ainsi conçu ce système autour de treize machines, dites ” serveurs racines “, qui alimentent plusieurs milliers de serveurs relais sur l’ensemble de la planète. Ce sont ces machines du DNS (serveurs racines et serveurs secondaires) qui servent à répondre aux requêtes des utilisateurs qui souhaitent se connecter à un site web ou envoyer un courrier électronique.

La répartition des serveurs racines est encore très inégale puisque dix d’entre eux sont situés aux États-Unis et deux seulement en Europe. L’ensemble de l’architecture du DNS est actuellement géré par l’Icann22, société de droit privé californien établie à la demande du gouvernement des États-Unis en 1998. C’est le serveur ” racine A ” qui contrôle la répartition des différents domaines en fonction de leur zone géographique (pour les codes des différents pays, comme la racine ” .fr ” pour la France ou ” .de ” pour l’Allemagne) ou encore par secteur d’activité générique (.com, .net, .org, .aero, etc.). Mais il est à noter que depuis la création de l’Icann, la ” racine A ” reste contrôlée directement par le département du Commerce des États-Unis.

La gestion du DNS correspond donc à la cartographie thématique et fonctionnelle de l’internet. Les notions de gouvernance de l’internet et de gouvernance du DNS ont d’ailleurs longtemps été confondues. En effet, les formes actuelles de la gouvernance de l’internet sont directement liées aux spécificités architecturales de l’internet et en particulier du DNS. Si l’architecture du DNS a été conçue au départ pour faciliter les opérations de mise en place et de maintenance du réseau, cette architecture centralisée est devenue la cible de nombreuses critiques lorsqu’elle s’est avérée être la base d’un pouvoir politique sur les réseaux. En effet, cette architecture permettrait en théorie au gestionnaire du DNS d'” effacer ” de la carte de l’internet les ressources d’un pays tout entier23.

Ainsi l’un des objectifs essentiels du SMSI a été d’inscrire la supervision de ces infrastructures critiques dans un cadre qui soit à la fois multilatéral, transparent et démocratique. Dans cette perspective, les pays de l’Union européenne ont présenté une position commune qui visait à placer la supervision des ressources critiques de l’internet sous le contrôle collégial des États et non plus sous la seule responsabilité du département du Commerce des États-Unis. Cette proposition ” médiane ” s’inscrivait à égale distance de la position de statu quo défendue par les États-Unis et de celles de pays comme la Chine ou l’Iran qui souhaitaient placer l’ensemble de l’internet sous contrôle étatique. La perspective d’une perte de contrôle possible sur ces ressources cruciales a suscité de la part des États-Unis une forte hostilité, comme en a témoigné l’intense campagne diplomatique et médiatique menée contre la proposition européenne24. Un compromis sur la gouvernance de l’internet a cependant pu être établi à l’issue du Sommet25. Un double mécanisme a ainsi été mis en place afin de permettre à l’ensemble des États de coopérer sur un pied d’égalité à la gestion de ces infrastructures cruciales pour leurs économies et leur souveraineté. Le premier volet des actions mises en place par les Nations unies correspond à une coopération internationale renforcée qui portera sur la supervision des infrastructures critiques des noms de domaine. La seconde initiative consistera en la création d’un Forum sur la gouvernance de l’internet qui doit permettre de favoriser les échanges, les débats et le partage d’informations sur les grandes questions liées aux usages de l’internet.

Des enjeux politiques, économiques et culturels…

Longtemps considéré comme un élément ” central et intangible ” de l’internet, le DNS apparaît désormais comme l’un des services du réseau au même titre que le web ou le courrier électronique. D’autres structures de navigation, de recherche et d’échange d’informations sur l’internet pourraient venir se juxtaposer aux systèmes existants. Sur l’internet, les outils de navigation ” commerciaux ” deviennent ainsi des éléments clés de l’architecture du réseau. À l’instar des moteurs de recherche comme Google, de nouveaux systèmes de navigation sur l’internet pourraient même prétendre remplacer à terme le DNS26. Les moteurs de recherche indexeront bientôt l’ensemble des formes d’expression et de transmission du savoir humain. Ils sont devenus à ce point cruciaux sur un plan économique et stratégique qu’ils pourraient même faire l’objet de nouvelles régulations spécifiques27. Il convient de noter que c’est le projet de numérisation du patrimoine littéraire lancé par Google qui a été le facteur décisif pour la mise en place par les pays de l’Union d’une bibliothèque numérique européenne. Dans leur courrier au président de l’Union européenne, les chefs d’État et de gouvernement des six pays signataires (France, Allemagne, Espagne, Pologne, Italie et Hongrie) ont rappelé, en reprenant là encore une métaphore ” cartographique “, les enjeux culturels de ce projet : ” S’il n’est pas numérisé et rendu accessible en ligne, ce patrimoine pourrait, demain, ne pas occuper toute sa place dans la future géographie des savoirs28 […] ” Mais, comme le fait remarquer Jean-Noël Jeanneney29, président de la BnF, face à un réseau qui connaît de constantes évolutions ce sont les choix liés à l’architecture technologique du projet européen qui assureront à la fois sa validité et sa pérennité.

À mesure que des innovations verront le jour, en matière de services d’adressage30 sur l’internet ou de recherche d’informations31, les outils de la navigation sur l’internet seront amenés à évoluer, et avec eux les mécanismes de la régulation de l’internet. De la même manière, la montée en puissance des usages mobiles de l’internet, la diversification des terminaux connectés ou encore le développement des systèmes de pair à pair pourraient aussi avoir d’importantes conséquences sur l’architecture et sur la gouvernance de l’internet. C’est la raison pour laquelle les Nations unies privilégient désormais une définition large (et nécessairement évolutive) de la gouvernance de l’internet. Cette définition intègre à la fois les nouveaux usages de l’internet et les aspects liés à la sécurité et à la confiance sur les réseaux32.

La confiance, pierre angulaire du développement de l’internet

À l’heure où, dans nos sociétés, des pans entiers de l’activité économique (et des services des États) reposent sur l’internet, la stabilité des réseaux devient l’un des enjeux fondamentaux de la gouvernance de l’internet. L’internet épouse aussi les formes et les contours des États à mesure que leurs fonctions essentielles requièrent l’usage du réseau33. En ce sens, les instruments fondamentaux de la souveraineté deviendront bientôt indiscernables des outils de la puissance technologique. Les risques d’attaques informatiques des ” infrastructures critiques ” de l’internet (en particulier pour le DNS), qui n’apparaissaient que ” théoriques “, sont désormais au c¦ur des préoccupations des architectes des réseaux. La stabilité du réseau devient aussi un élément crucial pour l’ensemble des usagers de l’internet (qu’il s’agisse des citoyens, des organisations ou des États). La confiance sera en effet la clé de voûte du développement de l’internet. Ainsi, face à la montée en puissance des ” pathologies de systèmes ” que sont les virus, les attaques informatiques, ou encore le spam, une triple coordination portant à la fois sur les technologies, sur les mesures légales et enfin sur la sensibilisation des usagers de l’internet doit être envisagée. Parce qu’elles sont générées par les utilisateurs du réseau eux-mêmes et non issues de facteurs ” exogènes “, ces pathologies ne pourront pas être définitivement écartées. En l’absence d’une réponse appropriée, ces phénomènes pourraient même remettre en cause la dynamique économique et sociale des réseaux. En effet, si le réseau n’a pas connu jusqu’ici de ” crise de croissan¬ce “, des phénomènes comme le spam ou encore les virus pourraient en revanche être à l’origine d’une ” crise de confiance ” telle, qu’elle pourrait remettre en cause le développement général des réseaux dans nos sociétés.

Hypercontrôle ou irresponsabilité de masse ?

D’autres modifications de l’architecture de l’internet pourraient être liées aux conflits autour de la propriété intellectuelle sur les réseaux. Ainsi, l’un des risques liés à la criminalisation des pratiques d’échan¬ge de pair à pair serait de pousser les utilisateurs à adopter des systèmes d’échanges plus ” radicaux “. En effet, les technologies des systèmes de pair à pair, lorsqu’elles sont couplées à des technologies de cryptage, produisent des réseaux de pair à pair de ” troisième génération34 ” encore plus difficiles à contrôler et potentiellement plus inquiétants. Issus de programmeurs soucieux d’éviter la censure, en particulier dans les régimes non démocratiques35, ces réseaux pourraient poser de nouvelles difficultés aux acteurs publics. C’est le cas du réseau FreeNet36, qui permet de partager des fichiers qui sont à la fois cryptés, dupliqués et fragmentés sur les disques durs de l’ensemble de ses utilisateurs. Les utilisateurs qui participent au réseau FreeNet sont contraints par la ” nature ” du système d’ignorer la nature des contenus placés sur leurs disques durs par les autres utilisateurs. Le développement de ce type de technologies pourrait poser des problèmes importants dans le cas où des fichiers illicites seraient présents sur les ordinateurs à l’insu de leurs propriétaires. À l’heure où se développent de nombreuses formes d’expressions citoyennes de l’internet, favoriser une ” irresponsabilité de masse ” correspondrait à une régression démocratique. En effet l’interconnexion des réseaux accentue déjà les risques concernant les contenus illicites ainsi que le risque d’atteinte aux infrastructures clés de l’internet. Ces évolutions pourraient constituer pour certains États le point de départ d’une remise en cause de l’architecture d’échanges de l’internet37.

Objets virtuels et libertés réelles…

Les réseaux (et plus encore leur architecture) deviennent des ” objets politiques ” à mesure qu’ils s’insèrent dans la vie quotidienne des citoyens. Ainsi, les évolutions technologiques ont déjà permis (à l’instar du passage du téléphone fixe au téléphone mobile) de passer du réseau par habitation au réseau par habitant. Les objets connectés vont progressivement tisser autour des individus (voire à l’intérieur même des individus38) une trame qui épousera l’ensemble de leurs actions39. La prochaine génération de services consacrera cette mutation majeure de l’internet, le réseau pourrait ainsi évoluer d’un ” internet des flux d’informations ” (où l’essentiel des machines connectées sont des ordinateurs) vers un ” internet des objets ” qui connectera entre eux l’ensemble des objets du quotidien.

Au-delà du DNS dont la vocation première était d’identifier des ordinateurs, ce sont les nouvelles formes de traçage et de connexion des objets quotidiens qui orienteront le développement de ces nouveaux registres de l’internet.

À l’avenir, les codes-barres seront aussi progressivement remplacés par des puces ” sans contact ” sur l’ensemble des produits manufacturés et donneront accès via l’internet à des informations dynamiques réactualisées sur chaque objet (informations sur l’origine, le transit de la marchandise, la traçabilité, etc.). Ces liens entre les objets et leurs informations spécifiques reposeront sur le développement d’une nouvelle technologie dérivée du DNS : l’Object Naming System (ou ONS). Les conséquences sociales de ces évolutions technologiques sont encore difficilement prévisibles40. Ainsi, lorsque les autorités américaines ont décidé d’intégrer une puce RFID41 dans les passeports, les associations de défense des libertés individuelles ainsi que les industries liées au tourisme ont réagi au risque de ” captation involontaire d’identité ” et ont vu dans cette innovation technique la possibilité de faire ” de chaque citoyen américain à l’étranger une cible vivante42 […] “.

Au-delà des flux d’informations, le contrôle du DNS (et de l’ONS) s’étendra donc à la circulation des personnes ainsi qu’aux déplacements des biens et des marchandises. Qu’il s’agisse de souveraineté, de libertés individuelles ou de maîtrise économique, les enjeux politiques de cet ” internet des objets43 ” seront considérables. Plus encore qu’avec l'” internet des machines “, il sera donc nécessaire que cet ” internet des objets ” soit sous le contrôle des citoyens. Ils devront en particulier être en mesure de contrôler la manière dont les informations issues de ces puces sont utilisées, voire la manière dont ces puces pourront être désactivées. À l’avenir, les citoyens devront donc intervenir dans l’architecture de ces systèmes afin d’avoir droit à une nouvelle forme de liberté : le ” silence des puces “…

Vers une constitution pour la société de l’information Voir Lawrence Lessig, Cyberspace’s Architectural Constitution, Amsterdam, WWW9, 1999 (http://cyber.law.harvard.edu/works/lessig/www9.pdf). ?

L’architecture de l’internet est, au même titre que l’architecture de nos villes, porteuse d’un message politique et l’ensemble des acteurs de l’internet doivent donc être associés à la définition et à l’évolution de cette architecture. Cela afin de pouvoir inscrire au sein des technologies, et au-delà dans le ” socle commun ” de la gouvernance de l’internet, les principes auxquels nous sommes attachés.

Il n’existe pas dans ces domaines de déterminisme technologique, et l’évolution de l’internet dans nos sociétés sera directement liée aux choix technologiques que nous mettrons en ¦uvre. Il conviendra pour cela de créer une culture de la gouvernance des technologies afin d’enraciner dans l’éducation des citoyens les notions qui leur seront nécessaires pour l’exercice de la citoyenneté dans la société de l’information. Une transparence accrue en matière de gouvernance de l’internet devra aussi aller de pair avec une plus grande transparence des technologies, des contenus et des services accessibles sur les réseaux. Cette transparence permettra en particulier d’éviter que les réseaux ne soient perçus par les citoyens comme une menace pour leur vie privée ainsi que pour leurs libertés.

Il convient enfin d’établir une gouvernance de l’internet et donc une architecture de l’internet qui soit conforme aux principes et aux valeurs partagés par l’ensemble des citoyens. C’est la raison pour laquelle la société de l’information (au même titre que la bioéthique ou les nanotechnologies) devra faire l’objet d’un large débat démocratique. Ce débat loin de n’être que ” technique ” sera essentiel pour déterminer les formes que prendront les échanges et la diffusion des idées voire les nouvelles formes d’organisations sociales ou politiques de nos sociétés44.

Manuel Castells, l'Ère de l'information. La société en réseaux, Paris, Fayard, 1997.

Lawrence Lessig, Code et autres lois du Cyberespace (en anglais), Basic Books, 1999.

Sommet mondial sur la société de l'information : www.itu.int/wsis/index-fr.html.

Ed Kroll, " Qu'est-ce que l'internet ? ", RFC 1462 du 24 juin 1993 (http://mist.npl.washington.edu/internet.txt).

Transmission Control Protocol/Internet Protocol.

Yochai Benkler, 'From Consumers to Users: Shifting the Deeper Structures of Regulation Toward Sustainable Commons and User Access', 52 Fed. Comm. L.J. 561, 2000 (www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf).

" Un blog est un site web sur lequel une ou plusieurs personnes s'expriment de façon libre, sur la base d'une certaine périodicité. Le flux d'actualités est décomposé en unités chronologiques, susceptibles d'être commentées par les lecteurs et le plus souvent enrichies de liens externes. Le mot blog est né de la contraction de 'web log' (en quelque sorte un bloc-notes sur le web). " Définition issue de l'encyclopédie en ligne Wikipedia (fr.wikipedia.org/wiki/Blog). Lire aussi sur ce point " Le projet Proxima. Pour une appropriation de l'internet à l'école et dans les familles " (annexe sur weblogs et syndication, www.educnet.education.fr/plan/proxima.htm).

David D. Clark et Marjory S. Blumenthal, "Rethinking the design of the Internet. The end-to-end arguments vs. the brave new world", 25th Telecom Policy Research Conference, 2000 (www.tprc.org/abstracts00/rethinking.pdf).

Les logiciels libres constituent l'une des bases " historiques " des applications et des protocoles fondamentaux de l'internet.

Howard Shelanski, "Three Constraints on Net Neutrality Tradeoffs with the 'End-to-end' Principle", Berkeley, University de Californie, 8 février 2004 (www.pff.org/weblog/Shelanski_Boulder04.pdf).

" L'interopérabilité est le fait que plusieurs systèmes, qu'ils soient identiques ou radicalement différents, puissent communiquer sans ambiguïté et opérer ensemble [...] L'interopérabilité nécessite que les communications obéissent à des normes, clairement établies et univoques. " Wikipedia (http://fr.wikipedia.org/wiki/Interopérabilité). Comme l'ont montré les récents débats sur le droit d'auteur en France avec le projet de loi DADVSI, l'interopérabilité des logiciels mais aussi des formats de fichiers constitue un enjeu crucial pour l'ensemble des acteurs de l'internet. Ainsi, l'obligation légale d'interopérabilité qui vise à rendre la musique téléchargée lisible par l'ensemble des lecteurs a suscité un intense débat sur l'évolution industrielle de l'internet mais aussi sur l'évolution des pratiques culturelles en réseau. Lire l'éditorial de David Lazarus, "Apple not happy, but French may be on right track", San Francisco Chronicle, 26 mars 2006 (www.sfgate.com/cgi-bin/article.cgi?f=/c/a/2006/03/26/BUG4CHTPEF1.DTL). À l'avenir, les actions liées au respect de l'interopérabilité des logiciels et des formats de données devraient constituer le " noyau dur " des fonctions régaliennes des États en matière d'architecture de la société de l'information.

Voir la proposition de la présidence de l'Union européenne lors de la préparation du SMSI (www.itu.int/wsis/docs2/pc3/contributions/sca/EU-28.doc).

Voir sur ce point le rapport rendu sur la modification WildCard apportée par la société Verisign. "The Site Finder Report: Dr Stephen Crocker, Chair of the Committee", CircleID, 15 juillet 2004 (www.circleid.com/article/647_0_1_0_C/).

Voir Shanthi Kalathil et Taylor C. Boas, The Internet and State Control in Authoritarian Regimes: China, Cuba, and the Counterrevolution. Rapport du CEIP, juillet 2001 (www.ceip.org/ files/pdf/21KalathilBoas.pdf).

Il est à noter qu'à plusieurs reprises des acteurs industriels ou gouvernementaux ont souhaité revenir sur cette architecture. Voir en particulier les controverses avec les autorités chinoises à propos du protocole IPv9 : "Explaining China's IPv9" dans CircleID le 6 juillet 2004 (www.circleid.com/article/646_0_1_0_C/). Voir aussi "Towards a Common Understanding of the Roles and Responsibilities of all Stakeholders in Internet Governance", texte du groupe de travail sur la gouvernance de l'internet (WGIG) mis en place auprès des Nations unies (www.wgig.org/docs/WGIGpaperStakeholders.pdf).

Carl Shapiro et Hal Varian, Économie de l'information. Guide stratégique de l'économie des réseaux, De Boeck Université, 1999 (traduction d'Information Rules, Harvard Business School Press, 1998).

Voir sur ce point les controverses issues des projets de Next Generation Networks dans Ross Rader, "Internet to ITU: Stay Away from my Network", CircleID, 21 décembre 2004 (www.circleid.com/article/842_0_1_0_C).

L'un des exemples récents de ces conflits autour du principe de neutralité concerne la mise en place par certains opérateurs de télécoms d'une tarification " étagée " de certains services à valeur ajoutée comme la vidéo. Ce débat qui a été relancé auprès du Sénat américain devrait determiner les limites et la nature de l'action regulatrice des États sur l'architecture de l'internet. Dossier News.com, "Net Neutrality Showdown", avril 2006 (http://news.com.com/Net+neutrality+showdown/2009-1028_3-6055133.html).

Mais à la différence de la télévision, le moteur économique de ces évolutions n'est plus la " massification " de l'audience, mais une forme plus élaborée de recueil et de traitement des informations personnelles. Ces réseaux permettraient de fournir à leurs utilisateurs des contenus et des services personnalisés à moindre coût ; c'est le principe de la " personnalisation de masse ". L'une des dernières évolutions de la diffusion audiovisuelle en ligne concerne les podcasts ou baladodiffusions, qui sont désormais utilisés par l'ensemble des radios traditionnelles pour diffuser leurs émissions mais aussi par les internautes qui réalisent et diffusent eux-mêmes leurs programmes audio ou vidéo. Le " Podcasting " se différencie de la radiodiffusion et de la webdiffusion (webcasting) par la diffusion du son ou de la vidéo, non pas par un mécanisme centralisé qui enverrait un flux vers ses auditeurs, mais par l'action des auditeurs qui vont chercher eux-mêmes les fichiers audio. Les auteurs des émissions publient des fichiers audio qui peuvent s'apparenter à une émission radio classique. C'est ensuite aux auditeurs que revient le rôle de créer leur propre liste de lecture par leurs différentes souscriptions. Le téléchargement des programmes, issus des multiples sources qu'ils ont choisies, est alors automatique. Wikipedia (http://fr.wikipedia.org/wiki/Podcasting).

Ainsi la Loi de Metcalfe (du nom de l'inventeur du protocole " Ethernet ") établit que l'utilité ou la " valeur " d'un réseau est proportionnelle au carré du nombre de ses utilisateurs.

" En premier lieu les citoyens doivent être mis en contact avec des sujets qu'ils n'ont pas choisis par avance. Les rencontres non prévues, non planifiées sont un élément central de la démocratie elle-même. De telles rencontres concernent souvent des opinions et des sujets que les citoyens n'ont pas recherchés et que peut-être ils trouvent dérangeants. Ces rencontres sont importantes en partie pour se prémunir contre les risques de fragmentation ou d'extrémisme qui sont le résultat prévisible d'une situation dans laquelle des personnes ayant les mêmes opinions n'échangent qu'entre elles. Je ne suggère pas que les gouvernements devraient forcer les citoyens à être soumis à des choses qu'ils souhaitent éviter. Mais je prétends que, dans une démocratie digne de ce nom, les citoyens sont souvent mis en contact avec des idées et des thèmes qu'ils n'ont pas spécifiquement choisis. " Extrait de Cass Sunstein, Republic.com, Princeton, Princeton University Press, 2001.

Internet Corporation for Assigned Names and Numbers (www.icann.org).

Des préoccupations similaires ont été évoquées à propos du contrôle des systèmes de positionnement satellitaire. Il est en effet possible aux États-Unis de modifier (par exemple en temps de guerre) les données transmises à l'ensemble des usagers du système Global Positioning System (GPS). Voir "U.S. concerned China plans its own satellite navigation system", Computer World, 24 juin 2003 (www.computerworld.com/printthis/2003/0,4814,82464,00.html).

Dans un courrier adressé à la présidence britannique de l'Union européenne, la secrétaire d'État Condoleezza Rice a ainsi " demandé à l'Union européenne de reconsidérer sa récente position sur la gouvernance de l'internet " et ce, dans des termes jugés " inhabituellement directifs " par les diplomates les plus avertis. Voir Génération NT, 5 décembre 2005 (www.generation-nt.com/actualites/10606/sommet-tunis-internet-icann-union-europeenne).

Voir l'Agenda de Tunis pour la société de l'information (www.itu.int/wsis/docs2/tunis/off/ 6rev1-fr.html).

C'est le cas du nouveau système d'identification des " objets numériques " (Digital Object Identifier ou DOI) conçu par l'un des inventeurs de l'internet, le Dr Robert Kahn (http://en. wikipedia.org/wiki/Digital_object_identifier).

" Si les abus devaient se développer, les moteurs de recherche pourraient se trouver sous une pression publique croissante pour que des investigations gouvernementales soient mises en place et ils pourraient être soumis à un nombre croissant de conflits et d'attaques de la part d'autres structures commerciales. " Voir le rapport du National Research Council, Signposts in Cyberspace: The Domain Name System and Internet Navigation (www7.nationalacademies.org/cstb/dns_prepub.pdf).

Extrait du courrier adressé le 28 avril 2005 au président en exercice de l'Union, Jean-Claude Juncker, et à celui de la Commission européenne, Jose Manuel Barroso, afin d'accélérer la mise en ¦uvre du projet de bibliothèque numérique européenne.

" Faut-il que l'Europe mette sur pied son propre moteur de recherche ou plusieurs qui lui permette, à l'échelle planétaire, de s'assurer que perdure une concurrence dans ce domaine capital ? Ou bien doit-elle aspirer seulement à un puissant effort de numérisation qui lui donne la possibilité de poser ses conditions en y entrant ? " À propos de Jean-Noël Jeanneney, Quand Google défie l'Europe, Paris, Mille et une nuits, 2005, voir " Une grande bibliothèque virtuelle ? ", entretiens parus dans Libération, 3 mai 2005 (www.liberation.com/page.php?Article=293886).

John C. Klensin, "Role of the Domain Name System (DNS)" (www.ietf.org/internet-drafts/draft-klensin-dns-role-05.txt).

Sergey Brin et Lawrence Page, "The Anatomy of a Large-Scale Hypertextual Web Search Engine" (www-db.stanford.edu/~backrub/google.html).

Klaus Grewlich (ambassadeur d'Allemagne auprès des Nations unies), "Internet Governance, Definition; Governance tools; Global Multi-stakeholder entity", UN ICT Task Force, avril 2005 (www.unicttaskforce.org/perl/documents.pl?do=download;id=784).

Intervention de clôture de M. Nitin Desaï, représentant spécial du Secrétaire général des Nations unies pour le SMSI, Working Group on Internet Governance, Genève, 18 avril 2005 (www.wgig.org/April-scriptafternoon.html).

"More on file-swapping networks than just songs", News.com, 25 avril 2005 (http://news.com.com/2102-1027_3-5682539.html).

Theodore W. Hong et Ian Clarke, "The Persistence of Memory in Freenet" (www.doc.ic.ac.uk/~twh1/academic/papers/iptps.pdf).

Cyber Security: A Crisis of Prioritization, rapport du PITAC, février 2005 (www.itrd.gov/ pitac/reports/20050301_cybersecurity/cybersecurity.pdf).

" Microsoft brevette la transmission électrique par le corps humain ", Journal du Net, 25 juin 2004 (solutions.journaldunet.com/0406/040625_microsoft.shtml).

Howard Rheingold, Smart Mobs. The Next Social Revolution, Perseus Publishing, 2002.

Mark Monmonier, Spying with Maps: Surveillance Technologies and the Future of Privacy, University of Chicago Press, 2002.

Radio Frequency Identification : " L'identification par radiofréquence est une méthode pour stocker et récupérer des données à distance en utilisant des marqueurs appelés Tags RFID. "

Sara Kehaulani Goo, "Privacy Advocates Criticize Plan to Embed ID Chips in Passports", Washington Post, 3 avril 2005 (www.washingtonpost.com/wp-dyn/articles/A21858-2005Apr2.html).

ITU Internet Reports 2005: The Internet of Things (rapport de l'Union internationale des télécommunications sur l'" internet des objets " : www.itu.int/osg/spu/publications/internetofthings).

C'est la mission qui vient d'être confiée par le Secrétaire général des Nations unies au Forum sur la gouvernance de l'internet qui se réunira pour la première fois en novembre 2006 à Athènes.

Published 6 June 2006
Original in English
First published by Esprit 5/2006

Contributed by Esprit © Bernard Benhamou/Esprit Eurozine

PDF/PRINT

Published in

Share article

Newsletter

Subscribe to know what’s worth thinking about.

Discussion