b) Interconnexion et commutation ou les modalités d’acheminements

La présence du réseau physique de transmission ne suffit pas à permettre l’interconnexion informatique. L’accès au réseau passe par des intermédiaires. Le premier d’entre eux est le modem (modulateur / démodulateur), objet qui assure la conversion des signaux entre un équipement informatique et le réseau téléphonique. À l’heure actuelle, les modems sont le plus souvent intégrés à l’intérieur de l’unité centrale. Il importe avant tout que le modem autorise un débit suffisant pour permettre le transfert des données. Une fois encore, de la qualité de l’équipement dépendra la qualité de la connexion.

Le deuxième intermédiaire important est le fournisseur d’accès à l’Internet (FAI) qui loue des lignes téléphoniques à un opérateur de télécommunications puis facture cette prestation à ses clients sous forme d’abonnements et de forfaits. Le nombre de lignes louées et leur capacité (on parle aussi de la largeur de la bande passante) et le nombre de modems dédiés aux connexions des abonnés constituent des variables significatives dans la qualité du service offert. Ces prestataires gèrent en quelque sorte de véritables péages pour l’accès au réseau.

La poursuite de l’itinéraire passe par des routeurs ou des commutateurs, véritables points d’aiguillage sur le réseau. Pour arriver à bon port, les données qui voyagent sur le réseau doivent décliner leur identité et indiquer leur destination à chaque point d’interconnexion. Bref, pour fonctionner le réseau a besoin de protocoles419. Comme l’étymologie semble l’indiquer, le protocole est « collé en premier », et consiste en un ensemble de règles que doivent suivre les équipements de communication pour échanger des informations. Normes, règles communes et protocoles reconnus par tous sont nécessaires pour que les contacts soient possibles malgré l’hétérogénéité des machines.

Les données qui empruntent le réseau Internet sont fractionnées en plusieurs « paquets » autonomes. Chaque paquet peut emprunter un itinéraire différent ; sa structure incorpore diverses informations notamment l’adresse de la station émettrice (adresse IP –Internet Protocol-, unique pour chaque machine et configurée par un logiciel installé pour les besoins de la connexion) et l’adresse de la station destinataire. Les paquets se regroupent, une fois arrivés à destination pour reconstituer le document initial. Leur trajet est donc marqué par diverses opérations de fragmentation et de marquage codé, de contrôle par la lecture de ces marquages et de reconstruction au terme du voyage. On parle souvent du réseau comme d’une structure indestructible parce que totalement décentralisée. Or, le réseau existe grâce à l’interdépendance de tous les paramètres engagés dans son fonctionnement. Qu’un seul d’entre eux ne soit pas conforme et la connexion ne peut se faire de façon satisfaisante. Le réseau est peut-être puissant mais la connexion, qui intéresse l’usager en premier lieu, est fragile.

La structure du réseau, souvent assimilée à une toile d’araignée est extrêmement complexe, ramifiée à l’infini et pourtant invisible pour les utilisateurs. D’une certaine manière, ceux-ci subissent la loi des ingénieurs, la loi de tous ceux qui contribuent à construire et élaborer les règles de fonctionnement du réseau. C’est en substance ce qu’affirme Lawrence Lessig qui soutient qu’une « plus grande publicité sur le code est nécessaire » parce que :

‘« dans le cyberespace, l’architecture c’est le code informatique : les protocoles de communication et les logiciels qui font fonctionner l’ensemble du réseau. [...] Dans le cyberespace, c’est très simple d’imposer des contraintes invisibles et c’est un danger pour nos sociétés. »420

Loin des discours utopiques de libre-circulation, le poids des normes, codes et contrôles nous rapproche plutôt de la « fonction frontière » des NTIC, développée par Pascal Robert421. La circulation sur le réseau Internet s’avère encombrée d’intermédiaires, de péages ; l’interconnexion se fait sous contrôle. Pour Pierre Musso :

‘« Il y a deux points de vue sur le réseau : sa face invisible, celle dont s’occupe l’ingénieur, et sa face visible (le service ou le terminal) qui intéresse l’utilisateur. [...] Parce que le réseau de télécommunications est complexe et invisible, il évoque souvent un rapport occulte au pouvoir. »422

La complexité d’une structure réticulaire invisible et le manque de publicité de certaines règles de fonctionnement constituent bien des caractéristiques inquiétantes de l’Internet. Concernant les contrôles possibles, les moyens d’identifier ceux qui se connectent, de connaître sans qu’ils ne se soient exprimés volontairement, leurs goûts, leurs besoins etc., la prudence devrait être de rigueur. Nous avons déjà évoqué la question des traces laissées par l’internaute lors de la consultation de sites Web423, qui loin de pouvoir permettre la définition d’un quelconque « profil », ne donnent qu’un certain type d’informations : provenance géographique de la connexion, type de machine et logiciel de navigation à partir desquels se pilote la connexion, durée de consultation des documents ... Il apparaît nettement que ce type de communication à distance ne permet pas de connaître son public, son lectorat. Les connexions laissent des traces bien insuffisantes pour faire le portrait de celui qui se cache derrière. Que l’on fasse ainsi l’amalgame entre les pratiques de connexion et l’usager me semble significatif de la capacité des spécialistes du marketing à créer des profils, des styles (ou socio-styles424) d’internautes etc. pour justifier leurs préconisations et rassurer ceux que le fonctionnement du réseau laisse encore perplexes...

En introduction à cet exposé nous avons utilisé le terme de « milieu ». Il apparaît clairement, sans accéder à la perspective globalisante de la « Machine Univers »425 de Pierre Levy, que ce milieu semble dominé par la technologie. Pour compenser la crainte que pourrait inspirer un tel monde, on a inventé l’internaute, l’être humain capable de naviguer dans cet univers. Le terme d’internaute qui n’est pas sans évoquer l’astronaute, entretient le mythe du voyage et de l’exploration. Or, le fonctionnement du réseau montre à l’évidence, que seules les données circulent. L’usager, derrière son ordinateur ne fait que passer commande de fichiers qui lui sont livrés sur son écran.

Malgré ce qu’en disent les auteurs qui donnent une place prépondérante, voire déterminante à la technologie, leurs perspectives tendent à faire disparaître l’être humain, le reléguant en arrière plan ou ne l’envisageant que dans sa dimension d’usager... Et pourtant, si on se réfère aux trois catégories de réseaux proposées par Pierre Musso426, l’être humain est loin de disparaître derrière les machines. L’auteur rappelle qu’Internet n’est pas un réseau dit « point à masse » correspondant au modèle centralisé de la radiodiffusion. Il n’est pas non plus un réseau « point à point » correspondant au modèle téléphonique ou chacun est l’égal de l’autre dans l’échange. L’Internet est un réseau informatique,

‘« constitué d’une connexion de machines « autonomes », tels les ordinateurs qui peuvent fonctionner indépendamment de cette interconnexion. Ce réseau est un modèle anarchique, car sa base est l’outil individualisé dont l’ordinateur personnel est le modèle. »427

Cette catégorisation du réseau informatique réhabilite l’usager affirmant sa liberté à être ou non connecté, à choisir les réseaux ou les sites auxquels il souhaite accéder ; le choix du moment, de la durée, du rythme des connexions lui appartient... Comment le « pouvoir-choisir » et le « pouvoir-faire » de l’usager sont pris en compte par les producteurs d’information et de quelle façon ils se jouent avec le dispositif, sont les questions auxquelles nous tenterons de répondre à présent.

Notes
419.

Le protocole TCP/IP (Transport Control Protocol / Internet Protocol) permet à toutes les stations de communiquer sur l’Internet malgré leur hétérogénéité.

420.

Propos recueillis par Florent LATRIVE, publiés dans Libération, « Les lois invisibles du réseau; Tant qu’elles restent masquées, les règles administrant le Net sont un danger pour le citoyen », le 2 juin 2000. Article consulté sur Internet le 5 juin 2000 :

http://www.liberation.com/multi/actu/20000529/20000602ven.html . Lawrence LESSIG, professeur de droit à Harvard et expert auprès du gouvernement américain dans son conflit avec Microsoft a écrit un livre intitulé Code and Other Laws of Cyberespace, Basic Books, 1999.

421.

Notion déjà évoquée concernant la question des langages et des normes. ROBERT Pascal, « Les technologies de l’information et la fonction-frontière », op. cit.

422.

MUSSO Pierre, Télécommunications et philosophie des réseaux, op. cit., p. 228

423.

Voir dans la partie précédente la question de l’usage des logiciels de consultation de sites Web.

424.

En référence aux catégories développées par Bernard CATHELAT, Socio-styles-système, eéd ; d’Organisation, Paris, 1990, 555 p.

425.

LÉVY Pierre, La machine univers, op. cit.

426.

MUSSO Pierre, Télécommunications et philosophie des réseaux, op. cit., p. 232-236

427.

MUSSO Pierre, ibid, p. 233