Section 2 : Des réflexions de développements théoriques au choix d’une méthode de production de données

« ... la solidité d’une science empirique est mieux mesurée par la force de ses applications au monde réel que par la quantité ou l’élégance de ses théorèmes »
(R. Clower et P. Howitt. « Les fondements de l’économie »)

Sur la base d’un paramétrage choisi pour retracer le contexte de mobilité urbaine en France, les simulations du modèle conduisent à donner une consistance aux résultats théoriques en termes d’application d’une politique répressive du stationnement dans une perspective de régulation de la demande de déplacements urbains. Ainsi, ces simulations indiquent comment le rôle des outils de répression sur le partage modal varie selon le niveau de congestion. Dans un état d’hypercongestion du marché du stationnement, elles montrent que l’amende forfaitaire d’équilibre, quel que soit le motif, n’est jamais efficace du point de vue du critère de minimisation du temps moyen de déplacement. Elle dissuade cependant suffisamment la fraude pour contribuer à réaliser l’optimum social sur le marché du stationnement via les prix lorsque l’objectif du décideur public est de minimiser le temps total de déplacement moyen. La recherche d’un niveau d’amende de second rang conduit à poser la question de la pertinence de l’augmentation du niveau de l’amende. Elle permet de mettre en évidence le paradoxe suivant. Dans un état d’hypercongestion du marché du stationnement, l’augmentation de l’amende, d’une part, renforce l’avantage de l’usage de la voiture particulière pour un agent neutre au risque, d’autre part, incite à la fraude. La conclusion qu’il convient alors de tirer de ces résultats des simulations théoriques est que si, dans une logique de modération de l’usage de la voiture particulière, l’objectif est de détériorer l’avantage de l’usage de l’automobile en milieu urbain et de dissuader la fraude, alors le niveau de répression doit être manipulé avec précaution. Il doit être déterminé, au moins dans un premier temps, au regard du comportement individuel de fraude dans le cadre plus large de la demande de déplacements.

Ces résultats théoriques sont issus d’une représentation simplifiée du comportement de fraude au stationnement payant urbain sur voirie. De la nécessité de réduire le phénomène pour construire cette formalisation théorique, un cortège d’hypothèses est posé qui limite le degré de réalisme du modèle. En outre, pour mener le raisonnement jusqu’à son terme, il est nécessaire de restreindre le champ d’analyse, notamment en ce qui concerne le comportement de l’agent face au risque.

Pour gagner en réalisme, il convient alors d’explorer les pistes d’amélioration de formalisation du phénomène, d’une part, en élargissant la portée représentative du modèle, et d’autre part, en relâchant les restrictions apportées par les hypothèses.

En outre, les conclusions de l’analyse résultent de la confrontation des résultats théoriques du modèle à des résultats de simulations théoriques reconstituant de manière restrictive un contexte précis. Ce n’est que par la confrontation des résultats théoriques du modèle aux données réelles qu’il est cependant possible de juger de la pertinence de la représentation du phénomène.

Dès lors, l’objectif de cette dernière section est d’évaluer dans quelle mesure la pertinence du modèle peut être validée, d’une part, par la précision des hypothèses, et d’autre part, par la confrontation au réel.

Dans un premier temps, il est proposé d’explorer le champ de restriction des hypothèses et de mener une investigation sur les pistes d’amélioration du pouvoir représentatif du modèle, relatif à la pertinence d’hypothèses plus réalistes quant à la représentation du réel. Depuis la révision des hypothèses comportementales, la discussion envisage d’enrichir progressivement les hypothèses pour aboutir à un emboîtement du modèle de comportement de fraude au stationnement dans un modèle traitant plus globalement de la congestion urbaine.

Dans un deuxième temps, une réflexion est menée sur le choix d’une méthode de production de données permettant de soumettre le modèle au test de la falsification.