6. Conclusion

Bien qu’il n’y ait pas un véritable champ de recherche sur l’évaluation en didactique des sciences, il existe de nombreux travaux sur lesquels on peut s’appuyer.

Nous avons d’abord constaté que les séquences développées par les chercheurs ne tenaient pas compte de l’évaluation par l’enseignant, et que celui-là était contraint d’utiliser une forme plus traditionnelle d’évaluation. Cela conforte notre objectif de développement d’un outil d’évaluation des acquis des élèves pour l’enseignant cohérent avec la séquence. Nous avons ensuite vu que, bien que ne donnant pas d’outil d’évaluation à l’enseignant, les chercheurs évaluaient eux-mêmes les acquis des élèves après (et parfois avant) enseignement. Ces tests représentent une base de construction puisqu’ils sont conçus à partir de travaux de recherche. Cependant, il est nécessaire de réfléchir à la façon dont ces outils peuvent être adaptés pour les intégrer dans la pratique des enseignants français. Quelques réflexions générales issues des travaux en didactique nous permettent de trouver d’autres pistes de construction pour nos outils. Il est aussi intéressant de regarder l’élaboration des tests des acquis des élèves dans le cadre d’enquêtes internationales. PISA illustre ainsi une méthode de construction d’items d’épreuves dont l’objectif, bien que différent du nôtre, a le mérite d’être clairement défini. Nous avons aussi observé quelques outils d’évaluation produits par la recherche pour les enseignants. Le travail de Robin Millar et de Vicky Hames s’avère particulièrement intéressant dans le sens où nos objectifs et nos points de vue sont très proches.