2.1.3.4.2.De l’utilité déterministe à l’utilité aléatoire

La présentation précédente de la théorie de l’utilité met en évidence les limites de ce cadre d’analyse, du fait que les hypothèses sur lesquelles il se fonde sont réductrices par rapport à la réalité. En effet, l’individu et son système de choix sont caractérisés par  :

L’hypothèse de rationalité des individus qui est le fondement de la théorie micro-économique du consommateur représente donc une limite forte dans la réalité pour l’analyse des comportements, dans la mesure où deux individus placés dans la même situation peuvent très bien faire des choix différents. Comme le souligne P. Bonnel (2002), ce n’est pas que les individus ne soient pas rationnels, mais leur rationalité n’est pas forcément celle de l’homo oeconomicus telle que l’on est conduit à la définir pour la modélisation.

En outre, la théorie du consommateur s’applique à l’étude de la demande d’un bien dont les quantités varieraient continûment. Or cette hypothèse est incompatible avec l’étude du bien « transport public urbain »qui possède les caractéristiques suivantes :

Ces raisons font qu’il est nécessaire de trouver une méthode intégrant la diversité des préférences individuelles qui induisent la variabilité des choix faits. L’idée est donc d’associer à un élément déterministe fonction des caractéristiques observables de l’individu n et de l’alternative i  une variable aléatoire, de valeur inconnue, qui reflète les goûts (non mesurés) particuliers à chaque personne, ainsi que les erreurs de mesure ou d’observation, faites sur les caractéristiques explicitement prises en compte dans la partie déterministe (nous détaillerons la composition du terme aléatoire plus bas). D’après Ben-Akiva et Lerman (1997), c’est Manski 45 qui est le premier à avoir formalisé cette approche. Ainsi, la fonction d’utilité est la somme de deux composantes :

La variable aléatoire est souvent appelée terme d’erreurs. On peut classer ces erreurs de la manière suivante (Bonnel, 2002) :

(Pour une présentation détaillée des apports successifs faits à la théorie de l’utilité aléatoire, voir Mc Fadden, 2001, pp. 21-22)

La présence du terme aléatoire dans la définition de la fonction d’utilité implique que le calcul de l’utilité renvoie à des modèles probabilistes qui prévoient la probabilité que les individus fassent un certain choix, mais pas directement le choix lui-même. La présence de ce terme aléatoire permet de tenir compte des éventualités suivantes (Ortuzar, Willumsen, 1994) :

Cette présentation de la fonction d’utilité implique toutefois que l’on fait en amont plusieurs hypothèses relatives au comportement des individus devant opérer un choix entre plusieurs alternatives (Dussaix, 1992) :

Nous verrons dans le paragraphe 1.1.4 que ces hypothèses sur la structuration des préférences des individus, qui sont celles d’un processus compensatoire entre attributs, sont fortes et limitent l’exercice.

Toutefois, ce modèle, fondé sous des hypothèses assez simples, présente l’inconvénient d’être très difficile à estimer dès que le nombre d’alternatives est supérieur à 3, ce qui explique sa faible utilisation dans les logiciels. Pour faire face à cette difficulté d’estimation, des hypothèses restrictives ont été posées quant à la distribution des termes aléatoires, et notamment une distribution identique et indépendante pour chacune des alternatives. Parmi ces distributions, la distribution de Gumbel est la plus couramment utilisée car elle conduit à un modèle très simple, même face à des univers de choix multidimensionnels : le modèle LOGIT multinomial (MNL est la terminologie anglo-saxonne). Toutefois, sa simplicité, qui découle de ses hypothèses, entraîne la propriété d’indépendance des alternatives (IIA selon les initiales anglo-saxonnes). Or cette propriété est souvent violée lorsque le nombre d’alternatives augmente, ce qui a poussé à proposer dans un premier temps des modèles de choix hiérarchiques permettant de lever les hypothèses les plus contraignantes. Mais la solution reste partielle dans le sens où une partie seulement de ces hypothèses est levée, c’est pourquoi la nouvelle génération de modèles vise à traiter simultanément toutes les hypothèses. Nous détaillons tous ces éléments dans le paragraphe qui suit.

Notes
45.

MANSKI C.F., [1977], Op cit.