Histoire et culture du numérique, partie 2


Cette seconde partie du dossier Histoire et culture du numérique détaille le développement du Web. Il retrace la généalogie du lien hypertexte, décrit les premiers services du Web, introduit les biens communs numériques et discute de l’impact profond du « Web 2.0 » sur l’évolution des usages d’Internet. Il est complété par une présentation de la gouvernance d’Internet et de ses enjeux.

Objectifs

  • Saisir l’évolution du réseau et des pratiques en ligne avec l’émergence du Web et de l’économie des plateformes.

  • Explorer la dimension politique du réseau pour saisir le caractère conventionnel, construit et évolutif de cette infrastructure

  • Se familiariser avec les enjeux de la gouvernance d’Internet Distinguer Internet du Web pour mieux étudier leurs enjeux respectifs

Enjeux

Le Web a lui-même déjà profondément changé en trente ans. Nous allons en retracer les développements afin de comprendre comment il en est venu à structurer de manière fondamentale notre organisation sociale. Ensuite, et face à la constatation que les utopies des pionniers ne se sont pas réalisées, nous discuterons des enjeux liés à la gouvernance d’Internet et des pratiques en ligne.

🌐 D’Internet au Web 2.0

Si Internet permet de relier des machines entre elles, le Web a lui été pensé pour créer des relations entre les documents présents sur le réseau. Le Web repose sur le protocole HTTP (HyperText Transfer Protocol), compatible avec TCP/IP. Il ne doit pas être confondu avec Internet lui-même : ce n’est que l’un des nombreux protocoles qui mobilisent le réseau (on trouve par exemple SMTP pour les mails ou FTP pour les fichiers volumineux). Le Web se situe au niveau de la couche applicative du réseau : c’est un service qui exploite les couches basses (l’infrastructure technique) d’Internet. Internet contient ainsi bien plus que le Web, même si ce dernier concentre beaucoup d’usages.

L’innovation au fondement du Web arrive en 1990. Il s’agit du lien hypertexte, fruit du travail de Tim Berners-Lee, alors informaticien au CERN. Dans un rapport intitulé “Information Management: A Proposal” qu’il soumet à sa direction, Berners-Lee propose un nouveau système de gestion de l’information. Ce projet contient l’idée des adresses URL (Uniform Resource Locator), attribuées aux documents pour permettre de naviguer de l’un à l’autre. Le lien hypertexte vient alors concrétiser simplement et très efficacement une manière nouvelle d’ordonner l’information.

Le lien hypertexte, un nouveau mode de classement de l’information

Comme avec Internet, le développement du Web vient ébranler des pratiques bien établies. En l’occurrence, le recours au lien hypertexte permet de s’éloigner des modes de classement documentaires qui ont prévalu jusqu’alors (penser, typiquement, à l’organisation des bibliothèques) : au lieu de grouper les documents selon des catégories et sous-catégories prédéfinies, le Web permet de les relier selon leur contenu. L’internaute peut alors s’affranchir de tout classement pour naviguer d’un document à l’autre, selon les liens hypertexte définis par l’auteur. Avec le Web, la classification de l’information se décentralise puisqu’elle n’est plus dans les mains des documentalistes. Le Web prolonge ainsi l’esprit libertaire des pionniers d’Internet.

La généalogie du lien hypertexte est ancienne. Au début du 20ème siècle déjà, l’inventeur belge Paul Otlet se lance dans un projet ambitieux de bibliothèque universelle, le Mundaneum, dans laquelle les documents sont organisés non pas selon leurs attributs (auteur, date, etc.) mais selon les idées qu’ils contiennent. Ainsi, les livres sont résumés dans des fiches thématiques, classées elles-mêmes dans des tiroirs (par milliers) en fonction des idées qu’elles ont en commun. En perçant les fiches de trous spécifiques aux informations qu’elles détiennent, il devient possible, à l’aide d’une tige, d’extraire les chapitres de livres différents évoquant une idée semblable. Ce système peut être considéré comme l’ancêtre du lien hypertexte. Plus tard, Otlet imaginera la création d’un ordinateur connecté (la Mondothèque) permettant d’explorer les savoirs du Mundaneum. Par sa volonté de rassembler et diffuser ouvertement les connaissances au-delà des frontières, Otlet a fortement contribué à nourrir l’imaginaire utopique au fondement des développements de l’informatique en réseau. Son ambition se retrouvera en effet dans de nombreux autres projets tels que le Memex de Vannevar Bush (1945), le système NLS d’Engelbart (1968) et Xanadu de Ted Nelson (1965). Ce dernier ne sera jamais fonctionnel mais c’est dans ce cadre que Nelson crée le terme « hypertexte », en référence au fait de connecter des idées entre elles. C’est Berners-Lee qui concrétisera le concept avec le développement du Web. Ce n’est pas un hasard si la solution émane de scientifiques : la structure documentaire du Web répond d’abord à leurs besoins de gérer une quantité grandissante de publications, dans un système académique qui fonctionne sur la base de citations. Les liens hypertextes rendent ainsi possible la consultation d’une référence à partir d’une autre.

Alt text

Diagramme de Paul Otlet représentant un système de classement des connaissances humaines, 1934.

Le Web est également marqué par les caractéristiques d’Internet : le principe est simple, ingénieux et facile à implémenter ; comme pour TCP/IP, le code est ouvert et accessible gratuitement (le CERN renonce à ses droits d’auteur en 1991). Le protocole HTTP se diffuse très rapidement et les sites Web deviennent la forme standardisée de publication sur Internet. En simplifiant considérablement l’utilisation d’Internet, le Web rend la recherche d’informations accessible au grand public. Les usages du Web, initialement académiques, vont se diversifier et augmenter de manière exponentielle dès 1993, avec l’apparition des premiers navigateurs.

Alt text

Extrait du rapport de Tim Berners-Lee expliquant un système de gestion de l’information, 1989.

Les premiers services du web et la « nouvelle économie »

Divers outils se développent rapidement pour pouvoir explorer les contenus de plus en plus nombreux du Web : les navigateurs, les annuaires et les moteurs de recherche. Le premier navigateur à succès, Mosaïc, fut développé par l’université de l’Illinois en 1993. Son créateur lancera Netscape une année plus tard, un navigateur gratuit mais qui intègre déjà la commercialisation des publicités (via les bannières des sites) et introduit les cookies. Netscape est utilisé par la grande majorité des internautes de l’époque, jusqu’au lancement d’Internet Explorer par Microsoft en 1995, qui parvient à dominer le marché pendant des années en vendant Explorer avec Windows, un système d’exploitation équipant alors 90% des ordinateurs (Microsoft fut condamné en 2013 pour cette pratique abusive). Les annuaires et les moteurs de recherche précèdent l’invention du Web mais s’imposent avec celui-ci. Avec le Web se développent en effet des portails, tels que Yahoo! (le premier et celui qui a dominé le secteur dans les années 90), dont le principe est de présenter une grande diversité de services ou d’informations sur une même page Web, pour mieux accrocher les internautes et maximiser ainsi le revenu des bannières publicitaires. À une époque où les usages sont peu développés et la connexion à Internet est chère, les portails constituent la référence du Web pour la plupart des internautes. Ils intègrent d’abord un annuaire, qui constitue l’adaptation du système des bibliothèques dans le Web (les pages sont indexées selon des catégories prédéfinies, elles-mêmes consultables sur le portail). Les moteurs de recherche, un système concurrent basé sur la recherche par motsclés, apparaissent sur le Web dès 1995 avec Altavista d’abord, puis Google dès 1998, qui a rapidement dominé le secteur avec son algorithme novateur (Page Rank).

Les premières entreprises du Web apparaissent dès 1995, dans un contexte où la gestion d’Internet a été privatisée et où le développement d’offres numériques devient un argument politique fort. Parmi les premières sociétés étatsuniennes, on trouve Netscape, Amazon et Ebay. Ce développement se constate aussi en Europe et en Chine (avec Alibaba notamment). Les investissements dans l’informatique deviennent massifs entre 1995 et 2000, créant une bulle économique. Le développement de services en ligne tels que le e-commerce engendre la « nouvelle économie », une période de croissance tirant profit de l’exploitation des nouvelles technologies numériques. Cette nouvelle économie repose toutefois sur le modèle traditionnel de l’industrie. À l’époque, l’économie du numérique est considérée comme immatérielle : en engendrant une suppression des intermédiaires, on devrait diminuer les coûts de commercialisation des produits. Les experts estiment alors qu’il faut numériser l’économie pour engendrer de la croissance. C’est le début de la « société de l’information » et de l’économie de services. Le modèle de la start-up s’impose : les employés sont connectés ; ils travaillent en réseau et sont autonomes.

Or, la capitalisation boursière des entreprises du Web ne reflète en rien leurs bénéfices effectifs. Ces start-up reposent sur un modèle d’affaires fragile. Leurs promesses ont séduit les marchés mais elles n’ont pu se concrétiser en générant une base de clients. La bulle éclate en 2000 et la plupart des entreprises du Web n’y survivent pas. Le développement du « Web 2.0 » relance le secteur en 2005, sur des bases différentes qui tiennent compte des spécificités du numérique. C’est le début de l’économie des plateformes.

D’autres services se développent parallèlement aux start-up, parmi lesquels IMDB, Craigslist, Wikipedia, Yahoo!, Flickr, Twitter et Facebook. Bien que la nature de ces sites diffère, ils constituent tous de grandes innovations du Web, dites « ascendantes » : elles n’émanent pas d’instituts de recherche ou d’études de marché mais sont le fruit d’initiatives privées ; de passionnés qui bricolent une solution répondant à un problème, un besoin ou un intérêt particulier. Celle-ci, au lieu d’être protégée par un brevet, est partagée le plus largement possible afin d’enrichir son développement. Étant donné qu’il s’agit de code, sa diffusion est facilitée et peut devenir très large. Certaines solutions peuvent intéresser le marché, qui cherche alors à les racheter pour les commercialiser. Les innovations ascendantes entretiennent l’imaginaire lié au hacking et aux utopies numériques (bricolage, mérite, créativité, liberté, décentralisation du pouvoir, etc.). La réussite de certaines initiatives ne doit toutefois pas laisser penser que les innovations ascendantes sont automatiquement fructueuses. En réalité, seule une minorité d’entre elles parvient à se pérenniser. Leur développement est un processus délicat qui ne dépend pas tant de l’originalité de l’idée que de son ancrage géographique (proche d’universités américaines prestigieuses), des ressources (sociales, financières) mobilisables et du processus de négociation visant à l’intégrer au marché.

Biens communs

Comme ce fut le cas pour Internet, la très large diffusion du Web et le développement de ses usages tiennent au basculement de son code dans le domaine public. Cette action fait du Web un bien commun, dans la lignée du projet politique des pionniers. Ni privé ni public, un bien commun est gouverné par la communauté qui l’utilise et doit rester accessible à tous. La notion précède le Web et concerne typiquement des ressources naturelles.

Le développement des communs numériques (voir encadré) a amené leurs communautés à créer une organisation du travail nouvelle, sans hiérarchie et avec une responsabilité distribuée. Ce mode de production est en outre rendu possible par l’infrastructure elle-même, qui favorise la mise en réseau permettant de bénéficier des avantages du travail collectif. Si ces communautés sont ouvertes à tout le monde, il s’opère toutefois une sélection sociale de leurs membres (selon le niveau de compétence et le genre, notamment) et une valorisation des plus méritants. Ainsi, il s’avère souvent que les logiciels libres ne sont l’œuvre que d’un petit groupe de personnes très actives.

Le saviez-vous ? – COMMUNS NUMÉRIQUES

Outre le Web, le logiciel libre constitue l’un des premiers communs du numérique. Ce mouvement se forme dans les années 1980, en réaction à la commercialisation des logiciels (qui deviennent propriétaires). Il émane de la culture hacker et en particulier de Richard Stallman. Ce dernier crée GNU, une version ouverte et gratuite du système d’exploitation UNIX. Stallman fonde par ailleurs la Free Software Foundation (FSF) en 1985, chargée de promouvoir le logiciel libre. C’est dans le cadre de la FSF que sont explicités ses principes : pour qu’un logiciel soit libre, tout utilisateur doit être en mesure d’y accéder pour l’étudier, l’utiliser, le modifier ou le redistribuer. Ces principes se concrétisent juridiquement par la création de licences libres, aussi appelées copyleft, qui garantissent l’ouverture des codes sources et, surtout, le partage des logiciels ainsi retravaillés.

Les logiciels open source sont d’autres communs numériques, très proches du logiciel libre. Les adeptes de l’open source délaissent les revendications politiques pour se concentrer sur l’efficacité du processus de travail, en considérant simplement qu’un logiciel est plus robuste lorsqu’il est travaillé par une communauté de personnes. Un exemple fameux est le développement du système d’exploitation LINUX, qui fut mis au point, dès 1991, par des développeurs du monde entier. Ce principe d’ouverture est aujourd’hui présent dans une grande diversité de domaines (open access, open education, open data, etc.).

En 2001, le juriste Lawrence Lessig propose de libérer non pas le code mais le contenu du Web (textes, images, etc). Il met ainsi au point les Creative Commons (CC), un ensemble de licences par lesquelles l’auteur du contenu conserve ses droits tout en établissant lui-même les conditions des usages qui peuvent être fait de son travail (utilisation non commerciale, modification, etc.)

La diffusion du logiciel libre et la création d’autres communs numériques provoque une réaction des défenseurs de la propriété intellectuelle. Celle-ci voit ses dispositions se durcir dès les années 1980. Ce sont deux visions de l’innovation qui s’opposent et placent des approches totalement différentes au fondement de la créativité : l’exclusivité dans le cas des entreprises (les potentiels retours sur investissement favorisent les projets) ; l’ouverture pour les communautés du libre (le partage des connaissances décuple l’inventivité). Les communs numériques relèvent ainsi de décisions éminemment politiques. Ils sont porteurs d’un projet de changement social – l’émancipation des individus – et viennent prolonger des utopies vieilles de plus de 100 ans.

Le « Web 2.0 », un tournant majeur

Le Web a profondément changé en vingt ans. Il devient « participatif » au début des années 2000, à mesure que les innovations techniques rendent la publication plus accessible. C’est l’évolution de cette application qui a fait exploser l’usage d’Internet.

Tout d’abord, des Content Management Systems (CMS) tels que Wordpress mettent à disposition des modèles de publication qui ne requièrent plus de manipuler du code (HTML) pour créer des pages Web. Une solution plus facile encore (car l’usage des CMS demande tout de même quelques compétences techniques) apparaît avec les blogs, des pages Web d’expression personnelle mises à disposition par diverses plateformes (notamment Skyrock et ses Skyblogs, très utilisés par les internautes francophones dans les années 2000).

Les internautes investissent également les forums et les espaces de commentaires des sites (de presse, commerciaux, culturels, etc.) pour donner leur opinion personnelle. La pratique se généralise en devenant une manière pour les sites d’améliorer leurs relations publiques ou leurs contacts avec la clientèle. Ces outils techniques favorisent ainsi l’expression personnelle et la présentation de soi sur le Web. Il en émerge également une forme de publication collective, les wikis, des pages qui regroupent les contributions d’une multitude d’internautes anonymes sur un sujet particulier.

Le Web 2.0 se caractérise donc par une structure participative. Les plateformes ainsi créées deviennent de nouveaux médiateurs en permettant à des personnes de se connecter autour d’un thème ou d’un projet. Paradoxalement, cette culture participative concentre l’essentiel des médiations et contributions sur une poignée de plateformes. L’effet de réseau[1] favorise les premiers services à émerger. Myspace, par exemple, est devenu central en 2003 s’agissant du domaine musical, en permettant aux artistes de mettre à disposition leurs morceaux et de se connecter avec les internautes, qui disposaient eux-mêmes d’une page de profil personnalisable. Myspace s’est fait détrôner par l’apparition successive de iTunes et de Facebook, qui géraient respectivement les aspects de distribution musicale et de présentation de soi.

Outre cette dimension participative, le Web 2.0 engendre la production d’une très grande quantité de données, qui constituent les traces de l’activité des internautes (clics, statuts, likes, tweets, etc.). Le succès financier des plateformes est le fait du recueil, de l’exploitation et de la vente des données générées par leurs services (souvent gratuits). Le Web participatif voit ainsi se développer l’économie des plateformes, qui pose des enjeux importants au niveau économique et de la vie privée notamment[2]. Sous l’effet de ces développements, Internet évolue : dans les faits, le réseau n’est plus distribué mais son trafic centralisé sur quelques plateformes ; il n’est plus ouvert en raison du nombre grandissant d’architectures propriétaires, une fermeture nécessaire au modèle économique des plateformes, basé sur la prédation des données. Le Web 2.0 marque l’entrée dans l’ère des plateformes et modifie profondément l’organisation d’Internet, au préjudice des utopies et des valeurs qui ont fondé le réseau.

Des alternatives fidèles aux valeurs pionnières subsistent toutefois, telles que Wikipédia, qui continue à opérer de manière non commerciale et ouverte ; des dispositifs proposant des services d’entraide, de crowdsourcing ou de crowdfunding ; le logiciel libre ; ou le peer-to-peer (P2P), qui prolonge le caractère distribué d’Internet.

Les modes d’organisation et de travail sur Internet sont donc multiples et orientés par des choix politiques. Le réseau présente un caractère ambivalent en faisant coexister des logiques à la fois communautaires et marchandes.

Au-delà des utopies : un espace politique

La neutralité du web

Les pionniers d’Internet rêvaient d’un espace autorégulé, dans lequel l’information circulerait sans entrave et toute personne pourrait s’exprimer. Cette vision a été formalisée en 2003 par le juriste américain Tim Wu, qui a développé le principe de neutralité du net. Celui-ci implique que tout paquet doit circuler librement sur Internet, sans égard à son contenu, son origine ou sa destination. La neutralité du net vise à garantir aux utilisateurs un accès libre et non filtré (ni hiérarchisé) aux informations circulant sur le réseau. La figure ci-contre a souvent été reprise pour en illustrer les principes essentiels. Ainsi, les fournisseurs d’accès ne doivent pas interférer avec les paquets circulant dans leur réseau. Cette neutralité peut concerner plusieurs éléments : l’émetteur ou le récepteur ; le lieu d’émission ou de réception ; le contenu ; le protocole. L’idée est de ne pas intervenir sur ces éléments, pour que les paquets de données circulent librement. La neutralité du net constitue la transposition technique d’une conception radicale de la liberté, proche du projet cybernétique. Il ne faut par ailleurs pas confondre la neutralité du net avec la neutralité politique : ce principe implique de rester neutre vis-à-vis de ce qui circule sur le réseau mais il s’inscrit dans une vision politique libertaire (celle des pionniers).

Alt text

Sébastien Desbenoit, la neutralité du net en une image

La neutralité du net parait souhaitable pour assurer des principes utopiques tels que la liberté d’expression ou l’intelligence collective. Certains FAI, par exemple, ont porté atteinte à la neutralité du net en cherchant à influencer ce qui circule sur le réseau de manière à augmenter leurs profits : ils ont tenté de privilégier la circulation des contenus qu’eux-mêmes produisent, de majorer les services générant beaucoup de trafic (tels que Netflix), ou de monétiser un accès spécifique à certains services. Le risque est que des politiques discriminatoires soient mises en place et qu’elles créent un « Internet à deux vitesses », où ceux qui en ont les moyens peuvent favoriser la cir- Sébastien Desbenoit, la neutralité du net en une image culation du contenu qu’ils produisent. En ce sens, l’atteinte à la neutralité du net implique une atteinte à la liberté d’expression.

Toutefois, appliquée strictement, la neutralité du net entrave toute régulation du réseau et ne permet aucune gouvernance politique, alors même qu’Internet met en relation des cultures très différentes qui doivent coexister. De plus, rester neutre dans un monde qui ne l’est pas contribue à maintenir dans une position de pouvoir certaines conceptions ou intérêts politiques et économiques, sans donner la possibilité à des visions discordantes mais tout aussi légitimes d’émerger. Finalement, un traitement différencié des données circulant sur Internet peut s’avérer bénéfique, comme c’est le cas par exemple dans la lutte antispam ou la création de pare-feu.

Il s’agit donc surtout d’identifier les situations dans lesquelles une atteinte à la neutralité du net est souhaitable. L’enjeu de la régulation est alors fondamental. La neutralité du net a longtemps été considérée comme une règle non écrite mais plusieurs pays ont choisi de lui donner force de loi, pour cadrer précisément son étendue et les pratiques acceptables. Les USA ont déclaré Internet comme un bien public (impliquant la neutralité du net) avant de revenir en arrière, au nom de la liberté de l’entrepreneur. En Europe, c’est surtout la liberté du consommateur qui l’emporte et la neutralité du net doit être garantie depuis 2016, selon un règlement de l’Union européenne.

Les autorités en charge de cette régulation sont difficiles à mettre en place. Elles doivent, d’une part, disposer de l’expertise technique pour contrecarrer les effets discriminants se cachant dans les dispositifs techniques et, d’autre part, embrasser le caractère transnational d’Internet et constituer un contrepoids efficace vis-à-vis des grandes entreprises du numérique.

La gouvernance d’internet

Les enjeux de régulation concernent à la fois le fonctionnement technique d’Internet et la gestion des services qui reposent sur le réseau, en particulier le Web. En écho au caractère coopératif de sa création, Internet s’est développé sans cadre juridique formel. Sa gouvernance s’est mise en place progressivement, au gré des problèmes qui apparaissaient, par des collectifs composés des personnes ayant élaboré le réseau. Une série d’instances ont ainsi vu le jour depuis les années 1980 et perdurent encore aujourd’hui. Bien qu’elles soient méconnues du public, ce sont elles qui continuent à encadrer les évolutions techniques d’Internet.

Parmi ces instances, on retrouve la Internet Engineering Task Force (IETF) qui regroupe la communauté pionnière ainsi que les ingénieurs dédiés au développement des couches basses de l’infrastructure. Axée sur le court terme, l’IETF conçoit notamment les RFC tandis que la Internet Research Task Force (IRTF) s’occupe du développement à plus long terme du réseau. Ces deux entités sont gérées par la Internet Society (ISOC), fondée en 1992 par Cerf et Kahn (les créateurs de TCP/IP) afin de coordonner les travaux techniques sur le réseau. L’ISOC est une organisation internationale composée de chapitres nationaux (mais non gouvernementaux). Bien qu’elle porte les valeurs pionnières d’Internet et constitue l’autorité de supervision, dans les faits, c’est surtout le travail de l’IETF qui impacte concrètement le fonctionnement du réseau.

Une autre entité joue un rôle décisif dans la gouvernance d’Internet : la Internet Corporation for Assigned Names and Numbers (ICANN). La régulation opérée par l’ICANN intervient au niveau de l’adressage : cette instance gère les règles d’attribution des adresses IP ainsi que des noms de domaine de premier niveau (les TLD, pour Top Level Domains). L’ICANN assure également la gestion technique du système de nom de domaine (Domain Name System ou DNS, chargé de résoudre les noms de domaines en adresses IP) au niveau des serveurs racine (ceux des TLD). La gouvernance de l’ICANN a régulièrement été remise en question, principalement en raison de ses liens avec le gouvernement américain (via son Département du commerce), qui impactent la neutralité de cette instance chargée de superviser un dispositif transnational. On a ainsi accusé l’ICANN de servir les intérêts des États-Unis. Ces débats ont mené à la rupture des liens contractuels de l’ICANN avec l’État nord-américain en 2016. L’ICANN reste toutefois une association soumise au droit califorcalifornien. Si les débats sont vifs, c’est parce que la gestion de l’adressage (et donc le contrôle de l’ICANN) revêt une dimension politique. La Chine a par exemple développé son propre DNS en 2006, indépendant de celui de l’ICANN, suite à la lenteur de ce dernier dans la gestion des noms de domaine non latins. Plusieurs autres pays ont menacé de faire de même, ce qui pourrait aboutir à un morcellement d’Internet qui menacerait sa portée mondiale et, par là même, l’objectif premier du réseau. Plus généralement, la définition des TLD nationaux (ccTLD) était à l’origine basée sur les codes ISO des pays, mais les délimitations territoriales peuvent évoluer ou être âprement disputées. Les noms de domaines peuvent alors faire l’objet d’une bataille géopolitique, car ils attribuent un statut politique aux territoires. Ainsi, la Catalogne s’est longtemps battue pour obtenir la création du TLD .cat. Ce n’est qu’en 2011 que l’ICANN a permis la création de nouveaux TLD, qui peuvent dès lors concerner des régions, des villes mais aussi des marques. A la dimension politique s’ajoutent par ailleurs des enjeux commerciaux, certains noms de domaine faisant l’objet d’une forte concurrence ou de cybersquatting.

Pour terminer sur les aspects techniques, le World Wide Web Consortium (W3C), fondé par Berners-Lee en 1994, édicte les standards du Web (HTML, CSS, etc.). Ce consortium réunit les acteurs du Web pour décider des bonnes pratiques et émettre des recommandations reposant sur des procédures de normalisation internationale. Si son mode de gouvernance se veut ouvert et basé sur le consensus, il se heurte à la puissance des grandes entreprises du numérique. Leur poids est tel qu’elles sont en mesure d’imposer unilatéralement leurs pratiques ou d’avoir une influence disproportionnée sur le processus décisionnel.

Internet est ainsi dirigé non pas par une unique instance étatique ou privée, mais par toute une série d’entités, elles-mêmes composées d’une multitude de parties prenantes (utilisateurs du réseau, gouvernements, entreprises, communautés scientifiques, société civile, organisations internationales). Cette organisation perdure malgré la grande complexité du système. Ces instances de gouvernance sont ouvertes à tout le monde (individus et collectifs) mais, dans les faits, il faut être très compétent pour avoir voix au chapitre. L’administration du réseau reste dans les mains d’une poignée d’acteurs influents. Elle ne constitue ainsi pas un véritable pluralisme normatif.

Il est également important de noter qu’Internet et le Web, malgré le caractère consensuel de leur gouvernance, n’ont pas été mis au point selon un processus démocratique. Ce sont en effet des collectifs techniques qui ont décidé des contours des applications numériques qui organisent aujourd’hui de manière fondamentale notre quotidien. Cette gouvernance se fait, aujourd’hui encore, selon les principes du rough consensus (consensus approximatif) et du running code (code courant), définis initialement par l’IETF dans une RFC en 1998. Ainsi, ce ne sont pas des règlements ni des lois votées démocratiquement qui gouvernent le domaine numérique, mais les ingénieurs développant le code. Les innovations sont alors adoptées en-dehors des cadres législatifs traditionnels, en priorisant leur opérationnalité plutôt que leur conformité réglementaire.

Il convient par ailleurs de s’attarder sur des acteurs externes au monde occidental. La Chine, en particulier, poursuit depuis 2010 une stratégie de concurrence et de contestation envers l’hégémonie étatsunienne, malgré sa politique isolationniste (reposant sur son propre DNS et son Great Firewall). Bénéficiant d’un large marché intérieur, de grandes capacités de financement ainsi que d’une grande efficacité, le gouvernement et les firmes chinoises commencent à faire pression sur les grandes entreprises actuelles du numérique, que ce soit du point de vue des technologies du réseau, des applications commerciales ou de la captation des traces numériques.

Finalement, les pratiques en ligne font elles aussi l’objet d’une régulation, essentiellement juridique. Internet n’a pas aboli le droit, comme le voulait Barlow. La législation s’adapte progressivement aux évolutions du numérique depuis les années 2000, en réponse à toute une série de problématiques portant atteinte au fonctionnement de la sphère publique (désinformation, harcèlement, propos haineux, etc.). Le droit s’est en particulier emparé des questions de la propriété intellectuelle et de la liberté d’expression en ligne. Les grandes plateformes du numérique, même si elles restent peu inquiétées ou intéressées par ces normes, doivent désormais se plier aux diverses décisions législatives nationales. De nombreux enjeux perdurent toutefois s’agissant de la légifération des pratiques en ligne, notamment celui de l’extra-judiciarisation (lorsque des décisions juridiques sont déléguées de fait aux plateformes numériques au lieu d’être prises par les juges), de la séparation de la responsabilité entre l’hébergeur et l’éditeur du contenu, ou du brouillage de la limite entre sphère privée et publique.

En Europe, le règlement général de l’UE sur la protection des données (RGPD) pose un jalon important en 2016. Avec ce texte, l’Europe propose une stratégie de gouvernance alternative à l’organisation ultralibérale des Etats-Unis. Le RGPD vise à rendre aux États une capacité d’intervention dans le marché et à mettre les entreprises du numérique face à leur responsabilité sociale. La configuration actuelle d’Internet résulte en effet de choix techniques orientés par une politique publique très libérale et un capitalisme financier. Le RGPD marque la tentative des pouvoirs publics de contrecarrer l’hégémonie des grandes plateformes du numérique, dont les promesses se sont progressivement transformées en scandales sociaux, politiques et économiques. Plus récemment, les législations sur les services et les marchés numériques (Digital Services Act et Digital Markets Act, respectivement), proposées par la Commission européenne en 2020, semblent prolonger l’initiative du RGPD.

[1] Voir dossier Economie du numérique

[2] Voir dossiers Economie du numérique et Vie privée et surveilllance

Ressources

  • Le livre Culture numérique (2019) de Dominique Cardon - chapitre « Le Web, un bien commun »

  • Le livre Sociologie du numérique (2019) de Dominique Boullier – chapitres « Histoire d’Internet » et « Gouvernance du numérique »

Sur les aspects documentaires du Web :

Sur les communs numériques et leurs enjeux :

Sur les enjeux de la gouvernance :

Sur la neutralité du net :

  • Le livre : Le Crosnier, H., & Schafer, V. (Eds.) 2011. La neutralité de l’internet : Un enjeu de communication. CNRS Éditions. doi: 10.4000/books.editionscnrs.15139

  • Le livre : Les fins d’Internet (2014) de Boris Beaude – chapitre de conclusion, « De la neutralité du Net à la neutralisation d’Internet »

  • Une émission qui reprend l’histoire d’Internet et du Web, et de leur développement commercial. De l’Internet libre à l’économie de plateforme sur France Culture. Elle reprend divers éléments des deux dossiers.

Sur les projets fondateurs :

  • Mother of all demos (highlights et video complète)

  • Memex : version traduite de son texte « As we may think » qui présente le Memex + une animation qui en présente le principe

  • Xanadu : un entretien avec Ted Nelson, dans lequel il explique les concepts de son projet et les différences avec le Web

Pistes pédagogiques

1. Le lien hypertexte comme mode de classement de l’information

Objectif : Prendre conscience de la spécificité de l’organisation de l’information sur le Web

The Wiki Game

🕓 10 min | 👩‍💻 branché

Les élèves jouent à The Wiki Game, dans lequel il faut naviguer sur Wikipédia (en cliquant sur les liens hypertextes des articles) pour parvenir à une certaine page à partir d’une autre (ex : partir de « Coldplay » pour arriver à « Sushi »), dans le temps imparti.

NB : le jeu est en anglais. Il est aussi possible de créer soi-même une liste d’associations en français. Les élèves partent alors directement de la page Wikipédia de départ et notent le chemin de liens hypertextes emprunté.

a) Quels éléments constituent des liens hypertexte dans les pages Wikipedia (sur quels éléments peut-on cliquer) ?

Des concepts théoriques, des personnalités, des lieux, des films, des livres, etc. Potentiellement, toute information peut être définie comme un lien hypertexte.

b) En quoi la façon de naviguer les contenus de Wikipedia (et, par extension, du Web) est différente de la recherche d’informations dans une bibliothèque ? Pour comparer, il est possible de consulter le site des bibliothèques municipales ou de la bibliothèque cantonale universitaire, qui reflètent le modèle traditionnel d’organisation de l’information. Voir quels sont les champs de recherche, les possibilités de tri, etc.

  • L’organisation de l’information est différente. Dans les bibliothèques, le classement général des documents se fait par matière, selon des catégories prédéfinies (philosophie, art, histoire, etc. ; voir la Classification décimale universelle).

  • Dans le Web, nous pouvons établir des liens entre des pages selon les idées qu’elles contiennent. Nous pouvons ainsi relier des idées, ce qui n’est pas possibles dans le système des bibliothèques.

  • Pour exemplifier ce point, les élèves peuvent consulter Six Degrees of Wikipedia. Ce site permet de trouver et de visualiser les liens hypertextes séparant deux articles Wikipédia.

  • Les attributs tels que l’auteur, le titre, la date, ne sont plus déterminants dans la classification de l’information sur le Web. Un document n’est plus classé selon une catégorie prédéfinie mais selon les liens qui sont créés vers d’autres ressources. Ce dernier élément est l’un des paramètres pris en compte dans le calcul du PageRank d’un site web par Google, qui lui sert à classer les résultats du moteur de recherche.

c) Qui définit les liens hypertexte dans Wikipédia ?

Sur Wikipédia, c’est l’auteur du contenu (l’éditeur de l’article) qui définit les liens hypertexte. Avec le Web, l’organisation de l’information n’est donc plus centralisée dans les mains des documentalistes (comme c’est le cas dans les bibliothèques).

2. Gouvernance du numérique

Objectif : Se familiariser avec la nature et les enjeux de la gouvernance d’Internet

NB : cette activité est relativement complexe ; elle se destine à des classes de troisième année.

La déclaration de l’indépendance du cyberespace

🕓 45 min | 👩‍💻 branché

Les élèves prennent connaissance de la figure « Qui dirige Internet ? » ci-contre, qui présente un résumé de la gouvernance d’Internet, et répondent aux questions suivantes : Qui dirige Internet ? Comment fonctionne la gouvernance du réseau ? Sur quels aspects portent les décisions et les normes ?

a) D’après cette image, qui dirige internet ?

Alt text

Qui dirigie internet ? Par Lynnalipinski of ICANN, partagé sur Wikipedia en CC-BY-SA 3.0

  • « Un réseau pluripartite décentralisé et international de groupes » incluant « la société civile, les gouvernements, les communautés académiques et scientifiques ainsi que des organisations nationales et internationales ».

  • Internet n’est pas dirigé par une seule entité (État, organisation internationale, entreprise ou autre) mais par une série d’acteurs divers : utilisateurs du réseau, gouvernements, entreprises, communautés scientifiques, société civile, organisations internationales. Il s’agit d’une gouvernance multipartite.

  • Par petits groupes, les élèves recherchent en ligne des informations sur les entités mentionnées dans la figure (date de création, membres, missions, champ d’application). Chaque groupe présente ensuite les entités qui lui ont été attribuées. En parallèle, il est possible de reconstituer le schéma en page 15 avec la classe (en se référant à la section « La gouvernance d’Internet »).

  • Ces entités se sont créées progressivement, au fur et à mesure des besoins et sans supervision globale. Historiquement, les premières à apparaitre s’occupent des aspects techniques. Les gouvernements ne s’impliquent que bien plus tard, à partir des années 2000, avec notamment la création de l’IGF.

b) Comment la figure décrit-elle le fonctionnement de la gouvernance du réseau ?

  • Multilatéralisme : tout le monde « a son mot à dire sur la gestion d’Internet ».

  • « Débat ouvert » : au sein des entités, les décisions sont prises par consensus.

  • Ces instances de gouvernance sont ouvertes à tout le monde mais, dans les faits, il faut être très compétent pour pouvoir intervenir. Pour s’en rendre compte, on peut par exemple consulter les RFC produites par le travail de l’IAB, l’IETF et l’IRTF (en anglais seulement). Malgré la volonté du multilatéralisme, ce sont donc surtout les communautés techniques qui dirigent l’évolution d’Internet. En effet, la gouvernance du réseau repose aujourd’hui encore sur les entités de gouvernance mises en place dès les années 1980. Ainsi, ce ne sont pas des règlements ni des lois votées démocratiquement qui gouvernent le domaine numérique, mais les ingénieurs développant le code. Les innovations sont alors adoptées en-dehors des cadres législatifs traditionnels : les entreprises du numérique priorisent la fonctionnalité de leur code plutôt que le respect des lois en vigueur. Ce n’est que dans un deuxième temps, et en réaction aux nouveaux usages que les applications numériques engendrent, que les entités (inter-)gouvernementales modifient leurs cadres législatifs pour encadrer ces innovations, ou demandent des comptes aux entreprises privées.

c) Sur quels aspects portent les décisions et les normes ?

  • Sur les « opérations et services » : la régulation concerne à la fois le fonctionnement technique d’Internet (l’infrastructure matérielle et logicielle) et la gestion des services qui reposent sur le réseau, en particulier le Web (réseaux sociaux, e-commerce, etc.).

  • Ces dernières années, l’Union européenne a cherché à réguler plus étroitement les services, comme en atteste l’adoption du RGPD en 2016 et les discussions actuelles autour des règlements DSA et DMA (voir section « La gouvernance d’Internet »). Il faut voir ici une volonté des gouvernements européens (moins libéraux que les USA) de prendre plus de contrôle sur la gouvernance du réseau tout en mettant le secteur privé face à ses responsabilités.

d) Internet est un réseau mondial, mais la gouvernance décrite dans la figure cidessus ne tient pas compte d’une grande région du monde. Laquelle ?

  • La Chine. Ce pays a créé son propre système d’adressage, déconnecté de celui de l’ICANN, et mis en place un système de surveillance et de censure communément appelé « Great Firewall », qui empêche la population chinoise d’accéder aux applications et aux contenus occidentaux.

  • L’absence de la Chine dans la figure cidessus (tirée elle-même de Wikipédia) est explicable par le fait que l’image est une production de l’ICANN. Pour comprendre les enjeux politiques liés à la gouvernance d’Internet, il faut toutefois également tenir compte de la Chine (voir section « La gouvernance d’Internet »).

  • En guise de complément, regarder la vidéo d’Arte L’Internet en Chine selon Xi Jinping, qui résume le fonctionnement d’Internet en Chine et les enjeux liés au contrôle du réseau pour ce pays (en particulier, se positionner en opposition à l’hégémonie américaine et aux valeurs occidentales). On y apprend notamment que les entreprises chinoises du numérique sont étroitement contrôlées par le gouvernement chinois, par le biais de l’Administration chinoise du cyberespace.

  • NB : sur le crédit social chinois (évoqué dans la vidéo), se référer au dossier « Vie privée et surveillance », qui nuance l’efficacité de ce système à l’heure actuelle : malgré le développement important du secteur numérique chinois, la surveillance opérée par le gouvernement ne repose que peu sur les technologies numériques. Le système de crédit social est encore expérimental et peu centralisé.

  • Finalement, la Chine tente depuis 2020 de faire adopter un nouveau protocole Internet en remplacement de l’actuel. Censé résoudre les problèmes actuels du réseau, ce nouveau protocole n’est toutefois pas un standard mais un produit des entreprises chinoises. Il marque une nouvelle tentative de la Chine pour exercer plus d’influence sur la gouvernance du réseau à un niveau mondial.

  • Par contraste, la Russie (autre pays souvent cité lorsqu’il s’agit d’opposer l’hégémonie occidentale), ne dispose pas d’un Internet construit sur mesure. Pour des raisons historiques, le réseau s’est d’abord développé sans influence étatique, résultant dans un dispositif très hétérogène et peu contrôlable, même si des développements récents (notamment les sanctions internationales en réponse à la guerre en Ukraine) tendent à concrétiser la possibilité de contrôle par l’Etat russe (pour approfondir, consulter cette ressources de SciencesPo Paris).

  • Internet s’inscrit ainsi des enjeux géopolitiques importants et préexistants, qui font que l’on parle régulièrement de « bataille » pour évoquer la gouvernance mondiale du réseau dans les médias (Le Temps 2020).

Alt text