6.4.2 Le contrôle d'admission

6.4.2.1 Contrôle d'une connexion déjà établie

Conformément à la stratégie HTTP de transfert par blocs proposée, chaque client enverra un certain nombre de requêtes au serveur, pour des blocs d'une taille constante. Pour éviter qu'un client ne demande trop de données, le serveur ne répondra qu'avec une certaine latence entre deux requêtes (Figure 72).

message URL fig72.gif
Figure 72 Régularisation du flux de requêtes HTTP sur une connexion. Entre deux requêtes consécutives le serveur garde une latence minimale : intervalle de temps durant lequel on ne donne pas plus d'une réponse.

Ainsi aucun client ne dépassera pas un débit maximal préétabli. En fonction des types et des débits des objets existant sur le serveur, le débit maximal autorisé pour un client peut avoir différentes valeurs.

On suppose que chaque client travaille avec la stratégie décrite dans le Chapitre 5 et demande des blocs de données de taille constante B c (Figure 73). Si le serveur sert n clients concurrents, le nombre de blocs transférés par seconde est n c.

message URL fig73.gif
Figure 73 Régularisation du flux de requêtes HTTP au niveau serveur