4.2.5. La statistique, un changement de paradigme du savoir

Comme nous venons de le décrire précédemment, l’entrée dans une pensée statistique fait aborder le monde du vivant, de la décision de l’homme (problème de la variabilité), de l’analyse d’une situation pour établir un protocole de collecte de données (problème de la représentativité d’un échantillon), de traitement de ces données, d’interprétation de ces données (problème de la significativité). En se référent aux recherches de Thomas S. Kuhn (KUHN, 1962, p. 22-23), nous devons tenir compte du fait que lorsque les scientifiques ne peuvent plus ignorer plus longtemps les anomalies qui renversent une situation établie, dans une pratique scientifique donnée, alors commencent des investigations extraordinaires qui les conduisent finalement à un nouvel ensemble de convictions, sur de nouvelles bases de la pratique de la science. Pour notre cas, retenons deux ruptures : l’une interrogeant le fondement de notre démarche scientifique utilisée jusqu’ici et l’autre, questionnant notre vision commune de l’organisation de l’univers.

Pour la première entrée, Karl Popper, reprenant les préoccupations de Hume, remet en cause le fonctionnement classique de la science : si le déterminisme s’applique pleinement, les événements s’enchaînent de causes à effets, et le hasard est tenu de côté comme ensemble n’entrant pas dans cette logique. Alors le futur serait semblable au passé, entièrement prédictible. Or les faits montrent qu’il n’en est pas ainsi. Dans ce cas, la référence même à la science, est-elle possible ? Dans l’esprit de Kant et de Bachelard, K. Popper questionne toute idée d’induction qui, logiquement parlant, ne devient une méthode de recherche que si on la résume de la manière suivante par : hypothèse, test, conservation des hypothèses qui “survivent” au passage avec succès à ces tests et communication des résultats qui ne peuvent être que provisoires dans l’attente de nouveaux tests. Rien ne peut donc donner une validité logique totale à l’induction. De même, pour résumer l’évolution de notre rapport à la science, au savoir scientifique, revenons à Kurt Gödel, qui, en soulevant le problème de la complétude en 1929 (HOFSTATDTER, 1997), pose la question fondamentale de savoir comment être sûr que l’ensemble des règles de démonstration admises par la communauté des mathématiciens permet de se prononcer sur le statut de “Vrai” ou de “Faux” de n’importe quel énoncé mathématique ? Nous pouvons déclarer qu’une phrase est démontrable mais d’une manière générale, rien ne prouve que notre démonstration dans l’absolu, fondée sur les axiomes et règles de logiques retenues, permette d’affirmer avec certitude que l’assertion analysée, démontrée est vraie.

Pour la seconde entrée, citons Ilya Prigogine (PRIGOGINE, 1988, 1994, 1996) et l’idée que l’incertitude n’est pas due seulement à notre ignorance. Dans La fin des certitudes (Prigogine, 1996, p. 10), il questionne l’idée de Karl Popper selon laquelle « tout événement est causé par un événement qui le précède, de sorte que l’on pourrait prédire ou expliquer tout événement… » et « par ailleurs le sens commun [qui] attribue aux personnes saines et adultes la capacité de choisir librement entre plusieurs voies d’action distinctes ». Il évoque en cela le “dilemme du déterminisme” qui marque notre rapport au monde et en particulier au temps (p. 10) : « le futur est-il donné ou bien est-il en perpétuelle construction ? La croyance en notre liberté est-elle une illusion ? » « La question du temps est au carrefour du problème de l’existence et de la connaissance.» D’un côté, le temps ne serait plus une valeur retenue en physique, car relevant d’une vision étriquée à notre dimension humaine et de l’autre pourtant, des découvertes plus récentes montrent que la symétrie du temps, issue d’une perception déterministe, fait que qu’il ne peut y avoir confusion entre passé et futur. L’univers serait animé par des phénomènes dus à l’irréversibilité du temps. Selon l’auteur, il précise (p. 12) que cette dernière :

‘« ne peut plus être identifiée à une simple apparence qui disparaîtrait si nous accédions à une connaissance parfaite. […] La matière est aveugle à l’équilibre là où la flèche du temps ne se manifeste pas ; mais lorsque celle-ci se manifeste, loin de l’équilibre, la matière commence à voir ! Sans la cohérence des processus irréversibles de non-équilibre, l’apparition de la vie sur terre serait inconcevable. »’

L’univers serait donc doté d’un potentiel d’auto-organisation, pouvant s’exprimer différemment avec le temps. Les connaissances actuelles nous révèleraient plutôt un monde instable, fait de fluctuations, de transformations et d’évolutions. Les lois de la nature ne seraient pas totalement aléatoires et imprévisibles ; en fait, il n’y aurait ni déterminisme pur ni hasard pur. Dans cet ordre d’idée, René Thom, en 1983, définissait sa “théorie des catastrophes” dans un entretien au journal Le Monde comme un moyen de rendre compte des discontinuités. Il précisait : “ La théorie des catastrophes consiste à dire qu’un phénomène discontinu peut émerger en quelque sorte spontanément à partir d’un milieu continu.” D’où son travail pour essayer d’établir une méthodologie, un mode de raisonnement, conduisant à prévoir, la chute d’une falaise, le déferlement d’une vague, les émeutes dans une prison ou les catastrophes économiques etc.

Ainsi, nous le constatons, la volonté par exemple de Cournot au XIX siècle,de rechercher toute marque de régularité au travers des événements apparaissant au premier abord, comme représentatifs du hasard pur, cette volonté donc se retrouve désormais expliquée, démontrée, cette fois-ci scientifiquement. Il y a désormais nécessité de questionner le hasard. D’un aspect anticipateur, minoritaire, elle devient passage incontournable à l’ensemble de la communauté des chercheurs pour aller dans le sens d’un approfondissement des phénomènes aléatoires. La science classique nous avait donné l’image d’un univers soumis à des déterminismes implacables que l’on peut définir sous forme de lois. Mais dès à présent, l’ère du déterminisme, de l’hégémonie des lois, semble s’installer à l’intérieur d’un ensemble englobant l’instable, le désordre, l’incertain. Il devient donc une obligation pour tous et, en particulier, pour les chercheurs comme pour les enseignants, d’approcher et de penser le hasard d’une manière rigoureuse, de l’envisager comme un effet du déterminisme et non plus comme sa négation. C’est dans cette optique que l’on doit reconnaître une place majeure à la notion de “complexité” initiée par Edgar Morin. C’est un défi et non une recette à la pensée. La complexité n’est pas l’exhaustivité mais la prise en compte des incertitudes et des contradictions. Elle ne rejette pas les idées claires, les déterminismes, les distinctions, les séparations, mais cherche à les intégrer. Comme le fait remarquer l’auteur dans l’Introduction à la pensée complexe, (MORIN, 1990, p. 21) « La complexité est un mot problème et non un mot solution ».

Ce changement radical de positionnement dans la manière d’orienter notre approche rationnelle du monde fait que nous pouvons avancer le terme fort de changement de paradigme. Nous ferons la transition avec le monde de l’éducation au travers des propos de Simone Weil (WEIL, p. 181) : « Les théories sur le progrès, sur le génie qui perce toujours, proviennent de ce qu’il est intolérable de voir ce qu’il y a de plus précieux au monde, livré au hasard. C’est parce que cela est intolérable, que cela doit être contemplé. » La sphère scolaire, ciment social autour d’une cohérence culturelle, constitue une part majeure de cet aspect sacré. Comme le fait remarquer Bertrand Vergely (VERGELY, 2000, p. 40). Il nous faut avant tout inciter les élèves à « renoncer à aller chercher derrière un événement les causes de celui-ci, se demander en revanche, quand un événement se produit, si véritablement il est l’effet du hasard, […] entreprendre d’aller au-delà des apparences, en faisant surgir les causes qui gouvernent celles-ci et, derrière elles, l’ordre souvent inaperçu du réel. » Avancer l’ambition d’enseigner la statistique à l’école élémentaire, c’est afficher la volonté, dès les fondements du savoir scolaire, d’aborder le hasard, la complexité du vivant, comme celle de l’évolution. C’est cristalliser la conjonction de ce changement de paradigme de la construction du savoir et de son contenu scolaire, au risque de heurter violemment nos habitudes et représentations communes. Edgar Morin (MORIN, 1990, p. 9) l’illustre de la manière suivante :

‘« Nous demandons légitimement à la pensée qu’elle dissipe les brouillards et les obscurités, qu’elle mette de l’ordre et de la clarté dans le réel, qu’elle révèle les lois qui nous gouvernent. Le mot de complexité, lui, ne peut qu’exprimer notre embarras, notre confusion, notre incapacité de définir de façon simple, de nommer de façon claire, de mettre de l’ordre dans nos idées. Aussi la connaissance scientifique fut longtemps et demeure encore souvent conçue comme ayant pour mission de dissiper l’apparente complexité des phénomènes afin de révéler l’ordre simple auquel ils obéissent. Mais s’il apparaît que les modes simplificateurs de connaissance mutilent plus qu’ils n’expriment les réalités ou les phénomènes dont ils rendent compte, s’il devient évident qu’ils produisent plus d’aveuglement que d’élucidation, alors surgit le problème : comment envisager la complexité de façon non-simplifiante ? »’

La statistique introduit cet obstacle à l’adresse des parents et des enseignants face à l’élève qui s’approprie ce savoir ; plus qu’une difficulté à accompagner ce dernier, ils perçoivent la rupture épistémologique qu’elle participe à installer.

En parallèle, ce changement de paradigme s'ajuste de manière semblable au travers de l'évolution de l'idée de savoir donnée par l'école. En nous appuyant sur une réflexion autour du thème “savoirs et connaissances, société du savoir et société de la connaissance ”, présentée par Christian Philippe, I.P.R. de vie scolaire à Bordeaux, au Regroupement des documentalistes au CDDP de Périgueux, 27/04/2004, voici les pistes de réflexion que cette recherche suggère. Le questionnement porte sur l’apparition de nouveaux objets de réflexion pédagogique (formation tout au long de la vie, validation des acquis de l'expérience, place des savoirs sociaux et associatifs, compétences scolaires et sociales, formation initiale et diplôme etc.), Christian Philippe dresse quelques repères épistémologiques de l’évolution des savoirs :

‘« Le savoir serait avant toute chose le produit de sa valeur d'usage, proclamée historiquement et géographiquement conditionnée. Sa portée universaliste devrait être minimisée. Triompherait la raison instrumentale. On serait entré dans une société de flux mobile éphémère et non plus de stocks. Les sources de production du savoir se diversifient bien au-delà de la sphère scientifique et s'organisent sur des tensions et des rétroactions sociales et culturelles - Kuhn 1977 (tension essentielle entre conservatisme et innovation), Bourdieu 2001 (théorie du champ). Le savoir, dans sa dimension explicative des actions humaines, et dans les recours qu'il propose à l'action sociale, se construit dans une interaction permanente, qui associe l'acteur social profane et les savoirs savants. La diffusion est ainsi un processus même de production. La part de l'affectif, de l'irrationnel, des enjeux de pouvoir, pèse sur cette rétro- production qui est qualifiée par Giddens de «double herméneutique ». La science produite est un construit social. Sa neutralité axiologique revendiquée pourtant est éphémère, partielle et illusoire. La vulgarisation des savoirs sociologiques est exemplaire de cette réflexivité qui accompagne la production de tout savoir. »’

Ce qui traduit l’évolution épistémologique de l’idée de construction du savoir de l’élève au sein de l’école : d’une production / transmission d’un ensemble de connaissances, à l’attente d’une appréhension cognitive correcte de la part des élèves, pour aller ensuite vers une observation des compétences, de l’idée d’évaluation et pour arriver enfin à dépasser une construction protégée du savoir par des spécialistes et l’élargir à un “construit social”. Pour résumer les propos de l’auteur, comment se positionner face aux trois conceptions suivantes quant au rôle de l’école dans cette transmission des savoirs : la production et/ou la transmission, les processus cognitifs et/ou les usages sociaux des savoirs. Cette obligation marque l’évolution d’un continuum guidé, assuré de sa direction et de son appréciation, vers une coproduction de savoirs acceptant une marge d’aléatoire pour ces deux critères. L’entière certitude n’est plus de mise face à la recherche permanente de l’esprit critique ; notre savoir est en perpétuelle remise en question pour s’aligner sur ses capacités en actes, à affronter la multiplicité des situations de vie. Il n’est pas un niveau d’appréhension définitivement atteint, mais prise de décision, argumentation, échange, communication, construction permanente de ce qui fait sens pour l’élève, dans son environnement englobant de ce fait la variabilité (par exemple, une des attentes du Socle commun de compétence est l’évaluation de la prise d’initiatives). La statistique présente ici toute sa particularité à actualiser le passage scolaire vers un savoir englobant la prise en compte de l’aléatoire.