3. Des textes pour faire état de l’évolution de la science et des contenus de savoirs

Annexe n° 3.1 : Comment analyser le monde du vivant ? JACQUARD A. (1995), Paroles de sciences, Textes présentés par A. Jacquard, Carnets de sagesse, Paris, Albin Michel, 1995, pp. 5-7.

Annexe n° 3.2 : La place de l’aléatoire dans l’enseignement des mathématiques. Complément du 8ème rapport de juillet 2000 sur la science et la technologie de l’Académie des Sciences, publié aux éditions TEC et DOC, et conçu par la CREM (Commission de Réflexion sur l’Enseignement des Mathématiques).

Annexe 3.3 : Présentation de l’A.I.E.S. (Association Internationale pour l’Enseignement de la Statistique)

Annexe 3.4 : "Nous avons été éduqués dans le domaine du certain, et nous avons peur de l'incertain ..." Autour du hasard, par Daniel SCHWARTZ, RevueLes nouvelles d’Archimède, Le journal culturel de l’Université des sciences et technologie de Lille, n°28 de oct. Nov. Déc. 2001, pp. 4 – 5.

Les individus sont tous différents par leur morphologie, leur comportement, leurs réactions à un agent pathogène. Chaque individu est unique. Il est, en plus, différent selon l’environnement, différent d’un moment à l’autre. Le domaine du vivant est fait de cas particuliers. Or, il n’y a de science que du général. Alors comment peut-il y avoir une science du vivant ? C’est pour répondre à cette question qu’a été mise au point la méthode statistique. Cette démarche comporte une solution et d’abord une formulation particulière des problèmes.

On peut en gros distinguer deux types de problèmes. Le premier est la description d’une population pour une caractéristique, un événement, disons une variable donnée : par exemple la cholestérolémie (variable quantitative) ou le fait d’être ou non diabétique (variable qualitative). Puisqu’il y a variabilité d’un sujet à l’autre, la formulation du problème consiste à décrire la population par une moyenne (pour la cholestérolémie) ou un pourcentage (pour les diabétiques). La difficulté est qu’on ne peut presque jamais accéder à toute la population, on ne dispose en règle générale que d’échantillons. La statistique permet, à partir des moyennes ou des taux observés sur ces échantillons, de situer la valeur vraie, celle de la population, dans une fourchette. La fourchette : autant le mot est connu, autant sa signification est méconnue. Le public croit d’abord que la vraie valeur est sûrement à l’intérieur de la fourchette, alors qu’on ne peut l’y situer qu’avec un risque d’erreur. Et il n’y a pas une fourchette, mais autant de fourchettes que de risques d’erreur consentis. La taille de la fourchette dépend aussi du nombre de sujets de l’échantillon, qu’on a intérêt à prendre le plus grand possible.

Enfin, on ne peut déterminer la fourchette que si l’échantillon est représentatif, ce qui n’est réalisé que s’il est constitué par tirage au sort. Cette approche à été longue à émerger, parce que nous avons été éduqués dans le domaine du certain, et que nous avons peur de l’incertain. Les pourcentages ont été longtemps refusés (combattus aux Académies des Sciences et de Médecine à la fin du XIXe siècle), et la moyenne a été vilipendée par Claude Bernard.

La seconde catégorie de problèmes est la description comparée, qui est de l’ordre de la recherche : on veut savoir s’il y a une liaison (éventuellement causale) entre deux variables, par exemple entre un traitement et l'évolution d'une maladie (temps de survie, guérison) ou entre usage du tabac et cancer des bronches. La formulation du problème consiste en comparaisons de moyennes (survie) ou de pourcentages (de guéris, de cancéreux). La difficulté est qu’on ne dispose que d’échantillons, ne donnant pas les vraies valeurs, il faut ici encore juger sur échantillons. La solution est le test statistique permettant de savoir si la différence est imputable aux fluctuations d’échantillonnage, ou si elle est réelle (significative).

"Nous avons été éduqués dans le domaine
du certain, et nous avons peur de l'incertain ..."

Si la différence est significative, elle ne traduit pas nécessairement une relation causale. Ceci n’est vrai que si les échantillons sont compa­rables, ce qui nécessite leur constitution par tirage au sort. Un nouvel apport de la statis­tique est ici une définition de la causalité dans le domaine de l’incertain. Un facteur causal n’entraîne pas nécessaire­ment l’événement, il suffit qu’il entraîne une augmentation de probabilité de cet événe­ment.

L’approche statistique heurte bien des idées acquises. On oublie sans cesse la variabilité, on tient compte de différences dues au seul hasard, on conclut d’emblée de la liaison à la causalité. On peut se demander pourquoi ces erreurs sont si fréquentes. Les raisons sont multiples, s’en­chevêtrant intimement : le calcul des probabilités à été inventé plus tard que beaucoup d’autres sciences, la statistique aussi par conséquent, car elle lui est directement liée ; nous sommes éduqués au lycée et formés par la vie dans l’idée de la certitude et, de plus, l’incertain nous fait peur. Il faut changer cet état de choses, et pour ce fait diffuser «l’esprit statistique» dans le public le plus large possible, et de bonne heure dans l’éduca­tion des jeunes.

Daniel SCHWARTZ, Ex-Professeur émérite à la Faculté de Médecine Paris Sud

Directeur de la première Unité de Recherches Statistiques de l'INSERM

Annexe 3.4 : Mathématiques floues – Mathématiques du chaos (COUTANSON, 1997)

Annexe 3.5 : Mise en garde présentée par les manuels scolaires de mathématiques au lycée, vis-à-vis d’un emploi précipité des outils statistiques

Annexe n°3.6 : La statistique selon les types de baccalauréats professionnels, extraits de Mathématiques 1ères et Tes professionnelles Bac pro industriel Hachette 1996

Annexe 3.7 : La place tenue par les statisticiens dans l’inscription historique évoquée par les ouvrages scolaires

Annexe n°3.8 : Notre déficit en repères mathématiques, extrait du Livre de toutes les comparaisons de Russel ASH, Gallimard, 1997.

Annexe n°3.9 : Étude sur le développement des mathématiques, sous la direction de Robert Morris, Éditions Unesco, Volume n°4, 1986.

Annexe n°3.10 : Entre impression et réalité. Un exemple du recours à la statistique pour analyser nos “maux” les plus profonds (extrait d’une émission de France Culture du 18 octobre 1996, retranscrite par B. Coutanson).

Annexe n°3.11 : L’enseignement des mathématiques à l’ère des autoroutes de l’information : finalités et contenus, par Gérard KUNTZ

Tribune libre de janvier 1999, n° 37, Les revues pédagogiques de la Mission Laïque Française, Activités mathématiques et scientifiques, p. 43.

La difficulté ne réside plus dans l’accès à l’information. Elle se manifeste, massive et douloureuse, au moment du traitement. Chaque enseignant connaît l’extrême embarras d’une majorité d’élèves pour tirer parti d’un document : comprendre le sens général, extraire les éléments pertinents, reformuler certains passages, résumer ou contracter, interpréter graphiques et images, distinguer leur valeur (illustration, argumentation, etc.) et les intégrer.

[…]

Les priorités imposées par les technologies de l’information sont claires et exigeantes. D’abord apprendre à lire un document : comprendre son vocabulaire, sa structure, ses axes essentiels ; interpréter les graphiques, déceler les parties pertinentes d’une image, d’un discours ou d’une musique et les mettre en relation avec le texte.

Savoir apprécier différents documents sur un thème donné : trier, sélectionner, hiérarchiser, voilà des compétences capitales face à l’inflation de l’information. Une recherche documentaire informatique (surtout quand elle est menée maladroitement…) se révèle souvent pléthorique, donc décevante. Parcourir en diagonale un document suffit à l’expert pour en évaluer la portée dans sa recherche. L’apprenti chercheur, lui, doit acquérir cette habileté.

[…]

Les aptitudes requises par les technologies de l’information ne présentent guère de nouveauté par rapport à celles que soulignaient des circulaires ministérielles déjà anciennes (9) : savoir traiter l’information est une compétence essentielle dans la société actuelle, indépendamment des nouveaux moyens techniques. Mais à l’ère du multimédia, une formation insuffisante est une forme d’illettrisme aux conséquences incalculables. Il faut d’abord convaincre les élèves que surfer n’est pas apprendre et que l’arrêt sur les documents, l’examen critique, sont indispensables. Bien sûr, le temps de l’errance à la recherche des documents est abrégé par une interrogation méthodique des bases de données (une réflexion préalable et un peu de logique booléenne la facilitent) : les joies du surf doivent être réservées à la flânerie et aux activités ludiques. Qu’on ne s’y trompe pas : apprendre à lire ainsisuppose un effort considérable, de l’école élémentaire au baccalauréat. Il faut y consacrer beaucoup de temps et en faire un objectif prioritaire dans toutes les disciplines. La face de l’école pourrait en être changée.