II-1-2 - Discussion 

La mesure I(t k ,u), représente la quantité d’information du document t k pour l’utilisateur u. Rappelons qu’elle s’écrit

message URL FIG017.gif

Les notations n(e*(t k )), e*( t k ), n(j) et n sont inchangées.

Supposons à présent que chaque classe ne contient qu’un document. t k est alors le document présenté en kème position. Nous aurons e*(t k )=k ; c’est à dire que le rang de la classe contenant le document t k est k, et n(e*(t k ))=1 ; c’est à dire que chaque classe ne contient qu’un document.

Si nous calculons la quantité d’information de chaque document à l’aide de la mesure I(t i ,u) précédente nous aurons :

message URL FIG021.gif

Cette mesure est proche de la mesure de probabilité de Shannon. En effet, cette dernière se présente sous la forme d’une fonction H telle que : H(pk) = -log2(pk), où pk désigne la probabilité d’apparition de l’événement k.

Nous pouvons faire l’analogie et écrire la mesure I(t k ,u) sous la forme I(t k ,u)= -log 2 (h k ).

message URL FIG022.gif

D’après la définition de I(t k ,u), Tague interprète h k comme la probabilité de ne plus avoir d’informations complémentaires après lecture des k premiers documents. Cette interprétation semble cohérente puisque quand

message URL FIG023.gif

Supposons à présent que nous voulions mesurer la quantité d’information de la chaîne idéale C*(u). h n sera la probabilité de ne plus avoir d’informations complémentaires après lecture des n premiers documents, c’est à dire après lecture de tous les documents de la chaîne idéale. C*(u) étant composée de tous les documents pertinents de la base, nous devrions avoir h n =1. Or la mesure de Tague donne

message URL FIG025.gif

L’ensemble des documents de la base est un corpus fini, nous ne pouvons donc pas passer à la limite,

Donc h n n’atteint jamais la valeur 1

Cette constatation nous amène à nous poser deux questions :

La validité de l’interprétation de h k que fait Tague est-elle correcte ?

Si ce n’est pas le cas, comment justifier le choix d’une fonction logarithmique pour calculer la quantité informationnelle d’un document en s’appuyant sur la théorie de Shannon ?