3.2.1.2. Principes ’scientifiques’

Même si, lors de leur mise sur le marché en 1935, les sondages d’opinion recèlent encore de très nombreux défauts techniques (les méthodes ne sont d’ailleurs pas encore unifiées), il reste qu’à la différence des ’votes de paille’ et des études de marché, ils reposent sur un concept statistique – la représentativité – qui pose le principe qu’il est possible d’obtenir des renseignements fiables sur l’ensemble d’une population à partir de l’étude d’un simple échantillon. Ce principe, entrevu dès le début du XVIIIème siècle, est admis au début du XXème siècle par l’ensemble de la communauté statistique internationale. La première méthode applicable est connue sous le nom d’échantillonnage au hasard. Elle est ainsi décrite par le statisticien danois Adolph Jensen: ’on prend un certain nombre d’unités dans des conditions telles que toutes les unités de l’ensemble soient également susceptibles d’être comprises dans ce nombre’ 572 . Autrement dit, il s’agit d’obtenir un échantillonnage représentatif en tirant au sort un certain nombre d’unités dans une ’population-mère’. Ce même Adolph Jensen propose en 1925 une autre méthode qu’il qualifie comme celle du ’choix judicieux’, dans laquelle ‘’les unités de l’ensemble étant réparties par groupe, le choix porte sur des groupes tels qu’ils présentent, au total, à peu près les mêmes caractéristiques que l’ensemble’ ’ 573 . Cette méthode, connue sous le nom de ’méthode des quotas’, repose sur le principe qu’un échantillonnage représentatif constitué à partir de variables connues (âge, sexe, catégories socio-professionnelles, habitat, niveau d’études, etc.) sera également représentatif du point de vue des variables que l’on cherche à connaître ( intentions de vote, opinion sur tel ou tel sujet, etc.). Curieusement, alors même que cette ’méthode des quotas’ est sévèrement critiquée par les statisticiens professionnels, qui cesseront définitivement de l’utiliser à partir de 1934, c’est précisément celle-ci que les instituts de sondages vont mettre en oeuvre jusqu’en 1948, date à laquelle les sondeurs américains se sont lourdement trompés en annonçant la victoire écrasante du candidat républicain Dewey à l’élection présidentielle alors que c’est le sénateur démocrate Harry Truman qui fut élu. A partir de 1948, les instituts de sondages américains se tourneront donc vers les différentes méthodes d’échantillonnage aléatoire. Nous reviendrons dans le chapitre 3.2.2. sur la critique de la méthode des quotas, puisque, contrairement à ce qui se passe aux Etats-Unis et dans la plupart des pays occidentaux, les instituts de sondages français sont parmi les derniers à faire usage, aujourd’hui encore, de cette méthode.

Puisque la constitution d’un échantillonnage aléatoire semble être la seule méthode scientifiquement valide – et qu’elle est par ailleurs très généralement adoptée par les instituts de sondages dans les pays développés, à l’exception notable de la France - il est nécessaire, sans trop entrer dans les détails techniques, de présenter les caractéristiques essentielles des procédés permettant d’y parvenir. Il existe trois méthodes aléatoires ou ’probabilistes’: le sondage aléatoire simple, le sondage aléatoire stratifié, le sondage par grappes et à deux degrés 574.

Le sondage aléatoire simple, qui est le modèle de référence, constitue en règle générale, l’élément de base des autres sondages aléatoires. Il consiste à tirer au sort dans une population donnée un certain nombre d’unités qui constitueront l’échantillon sans autre forme de procès. A partir de là, la précision d’un sondage aléatoire simple – qui, dans la pratique, n’est jamais utilisé seul – dépend de trois facteurs: la taille de l’échantillon (plus l’échantillon est grand, plus le résultat est proche de la réalité); la variance de la variable que l’on cherche à mesurer dans la population-mère (plus une population est homogène, plus le sondage est facile; plus la population est hétérogène, plus l’échantillon devra être important, sauf à recourir à la stratification que nous évoquerons ultérieurement); le taux de sondage, c’est-à-dire le rapport entre la taille de l’échantillon et celle de la population-mère, sachant qu’à partir d’une certaine taille de l’échantillon (environ 1000 unités), ce taux de sondage peut être négligé. En toute rigueur statistique, les résultats devraient être donnés ’par intervalle’, c’est-à-dire en indiquant le ’degré de confiance’ et une ’fourchette’. En règle générale, on recherche un ’intervalle de confiance ’ de 95% et une précision de plus ou moins 2%, ce qui signifie qu’il y a 95% de chances pour que le résultat x soit compris entre x-2 et x+2. Précisons encore que le sondage aléatoire simple repose sur l’hypothèse que tous les échantillons d’une population donnée sont réalisables avec la même probabilité, ce qui dans la pratique, peut s’avérer impossible si les conditions d’enquête ne le permettent pas. Imaginons, par exemple, un sondage réalisé Rue de la République à Lyon. Si le nombre des intervieweurs et le rythme des interviews sont constants alors que l’affluence est variable, les personnes présentes aux heures d’affluence auront beaucoup moins de chances d’être interrogées que celles présentes aux heures plus ’creuses’, ce qui constitue un biais méthodologique. Compte tenu des limites du sondage aléatoire simple, les statisticiens ont conçu des méthodes plus sophistiquées pour optimiser la fiabilité des résultats, en particulier la ’stratification’.

Les sondages aléatoires stratifiés consistent à diviser la population-mère en sous-ensembles que l’on nomme ’strates’ et à organiser un sondage dans chacune d’entre elles. Cela permet éventuellement d’exclure les échantillons extrêmes ou en tout cas de les traiter en fonction de l’importance réelle qu’ils ont, et d’autre part, d’obtenir des résultats plus fiables avec des échantillons plus petits, ce qui est possible, on l’ a déjà indiqué, en étudiant des populations le plus homogènes possible. Tout cela n’est évidemment possible que si la base du sondage contient des éléments permettant aisément de distinguer, a priori, différentes catégories. Les enquêtes usuelles, sur les ménages et les individus, par exemple, opèrent des stratifications en fonction de la région et de la taille des communes; celles sur les entreprises prennent en compte le secteur d’activité et la taille (effectifs ou chiffre d’affaires); les enquêtes sur la consommation utilisent des critères liés aux revenus, à l’âge, au sexe. En bref, on essaie de discriminer différentes catégories en fonction d’éléments pertinents du point de vue des informations que l’on souhaite découvrir.

Une troisième méthode de sondage aléatoire, encore plus élaborée, se divise en fait en deux variantes: le sondage ’par grappes’ et le sondage ’à deux degrés’. Il s’agit, dans une population-mère composée d’un assez grand nombre de sous-ensembles appelés ’grappes’ ou ’unités primaires’, de constituer un échantillon de ces grappes (soit de façon aléatoire, soit par un procédé de stratification) et d’effectuer un sondage dans chacune de ces grappes: si on interroge (ou si l’on contrôle) tous les éléments (ou ’unités secondaires’) d’une grappe, on a un sondage ’par grappe’ à proprement parler; si, à l’intérieur de chaque grappe, on procède à un nouvel échantillonnage, on a un sondage ’à deux degrés’. Cette technique est très utilisée, soit pour contrôler des produits de grande série conditionnés par lots (c’est-à-dire par grappes), soit pour des études épidémiologiques, soit pour les sondages électoraux ’sortie des urnes’ (les bureaux de vote étant considérés comme des grappes), soit pour des études de marché pour des produits diffusés dans de très nombreux points de vente, soit pour les enquêtes réalisées par l’INSEE à propos des ménages (logement, équipements, dépenses liées à l’alimentation, etc.), soit pour les mesures d’audience des médias (sélection des communes, choix des ménages à interroger, etc.). Cette méthode, a priori assez séduisante, souffre d’un sérieux handicap, lié à un phénomène appelé ’effet de grappe’. En effet, le regroupement des individus dans des ’grappes’ est généralement dû à des spécificités qui font que ces grappes ne sont pas très représentatives de l’ensemble de la population-mère. Il s’ensuit qu’à taille égale de l’échantillon, un sondage par grappes ou à deux degrés est moins précis qu’un sondage aléatoire stratifié. On y a néanmoins recours d’une façon relativement fréquente, soit parce qu’il n’existe pas de base de sondage, soit pour des raisons de coût.

Notes
572.

Cité par Loïc BLONDIAUX in La fabrique de l’opinion, opus cité, p. 171.

573.

Ibid. p. 171.

574.

Cf. Anne–Marie DUSSAIX et Jean-Marie GROSBRAS: Les sondages: principes et méthodes, Presses Universitaires de France, Paris, 1993.