1.2.2. Le ’biais de sur-confiance’

Le biais de confirmation se voit, fort logiquement, placé au rang des explications plausibles d’un second biais des plus étudiés : le ’biais dit de sur-confiance’ (’over-confidence’, Kahneman et al. [1982, part IV]). Deux techniques ont permis de démontrer la prégnance de cette propension qui voit le décideur systématiquement surestimer la pertinence de ses jugements et, donc, de ses croyances ou de ses connaissances.

Une première catégorie d’études ayant permis de démontrer l’existence d’un biais de sur-confiance met en jeu le concept de ’calibration’ ; un concept que Lichtenstein et al. [1982, p. 307] définissent comme suit : ’formally, a judge is calibrated if, over the long run, for all propositions assigned a given probability, the proportion that is true equals the probability assigned’. Si donc, à titre d’exemple, le décideur se dit ’convaincu à 70%’ de l’exactitude de tels et tels jugements, une parfaite calibration prévaut pour autant que 70% des jugements constitutifs de cette ’classe de probabilité’, la classe des jugements avancés avec un ’degré de confiance’ de 70%, s’avèrent bel et bien exacts. Aussi, pour prendre sens, le concept de calibration requiert-il qu’un grand nombre de ’méta-jugements’284 soient collectés et analysés. De telles conditions sont parfois réunies dans les contextes écologiques de la décision, lorsque l’on a affaire à des spécialistes amenés à formuler un grand nombre d’estimations.285 Mais ces conditions ont été plus communément suscitées dans un cadre expérimental, permettant, de la sorte, de déterminer le niveau courant de calibration des jugements individuels.286

Les conclusions que l’on est en droit de tirer des nombreuses expériences menées font état de niveaux de calibration plutôt insuffisants et allant dans le sens, donc, d’une propension à accorder une confiance excessive en la qualité de ses propres jugements.287 Fischhoff et al. [1977] rapportent ainsi que les propositions considérées comme certaines par leurs sujets ne se révèlent effectivement vraies que dans seulement 72% à 83% des cas, alors que celles qu’ils tiennent pour résolument fausses, accordant une probabilité nulle à l’éventualité de leur exactitude, sont pourtant vraies dans 20% à 30% des cas.288 Bien que les différentes études ne convergent pas rigoureusement sur ce point, il semble cependant que les jugements émis par les ’experts’ (dans le cadre, il va sans dire, de leur domaine d’activité respectif) témoignent d’une calibration de meilleure qualité, touchant parfois même à la perfection.289

Le biais de sur-confiance s’est également vu établi sur la base de l’examen des intervalles de confiance fournis par les décideurs invités à établir une estimation numérique de certaines grandeurs. Si la démarche diverge, les conclusions sont similaires. On constate, en effet, de façon générale, que les intervalles de confiance retenus sont trop étroits. Ainsi Alpert & Raiffa [1982]290 rapportent que les intervalles de confiance à 50% (correspondant à l’écart inter-quartiles) ne contiennent la valeur exacte que dans environ 30% des cas. Ces mêmes auteurs signalent que les intervalles à 98%, tels, donc, que la fourchette avancée par le sujet lui paraît contenir, pour ainsi dire avec certitude, la valeur correcte, ne recèlent cette valeur que dans environ 60% des cas. Là aussi, cependant, les intervalles de confiance suggérés par des spécialistes s’avèrent, en général, plus adéquats.

Notes
284.

Il s’agit là, en effet, de jugements relatifs à la pertinence de nos propres jugements.

285.

En fait, le concept a été initialement mobilisé afin d’apprécier la qualité des prévisions formulées, au jour le jour, par les météorologues. On sait ainsi que la pratique en vigueur aux Etats-Unis, en particulier, veut que les prévisionnistes du domaine attribuent une probabilité à l’événement ’précipitations’. Le nombre important de prévisions réalisées a très vite permis de déterminer le niveau de calibration des jugements ainsi émis -un niveau qui s’avère, généralement, d’une qualité tout à fait surprenante- (cf. Camerer [1995, p. 590 et note]).

286.

La pratique la plus répandue voit l’expérimentateur soumettre à l’attention du sujet un nombre important de questions de culture générale auxquelles il lui faut donner une réponse accompagnée d’une probabilité, ou d’une cote, censée traduire son degré de confiance en l’exactitude de la dite réponse (très souvent, l’expérience prend la forme d’un QCM).

287.

Cf. Lichtenstein et al. [1982], Camerer [1995, II. A.].

288.

Ce constat général souffre d’une exception lorsque le sujet est invité à se prononcer sur des questions très simples. Dans ces circonstances, la réaction la plus courante consiste à céder une part au doute, de sorte que l’examen de la calibration des jugements concernés révèle un certain manque de confiance.

289.

Cf. note 13, ci-dessus.

290.

Dans cette étude, à titre d’exemple, les sujets (des étudiants de l’université d’Harvard -engagés, pour l’essentiel, en MBA-, mais aussi quelques étudiants du MIT) sont invités à estimer diverses grandeurs, telles le pourcentage d’étudiants préférant le bourbon au scotchs, le pourcentage d’étudiants favorables à une éventuelle intervention militaire américaine au Moyen-Orient ou encore le nombre d’étudiants engagés en thèse au sein de la Harvard Business School ou le montant des recettes du canal de Panama en 1967... Pour chacune de ces grandeurs, les estimations demandées prennent la forme d’une fonction de densité simplifiée, puisque réduite aux seuls quartiles augmentés d’une estimation des valeurs extrêmes.