1.2.3. Une revue de travaux récents

La structure des évènements dans l’interaction, les marqueurs de début et de fin ainsi que leur segmentation, l’organisation temporelle de l’activité dans son rythme et sa périodicité d’une part et d’autre part l’organisation macroscopique des évènements dans le temps, les prises de paroles, l’étude des situations de difficultés et les ajustements qui en découlent (autrement dit comment le déroulement normal d’une activité peut être interrompue par une difficulté souligné par les acteurs dans la situation), l’organisation spatiale de l’activité, l’étude des rôles des artefacts et des documents lors de la situation d’interaction, cette liste d’études citées par Jordan & Henderson (1995) est basée sur des données vidéographiques dans leurs analyses des situations d’interactions.

Dans le cadre des travaux en didactique des disciplines, nous citons le travail de thèse de Forest (2006) intitulé « Analyse Proxémique d'Interactions Didactiques ». Dans son travail, il a utilisé une nouvelle méthode qui vise à rendre compte de l'usage par l’enseignant de techniques proxémiques. Le but en est de montrer de quelle façon ces techniques du corps permettent à l’enseignant d'assumer une part non négligeable de la relation didactique. Il effectue une analyse vidéo « à la sourde » : il procède donc à des allers-retours répétés entre l'observation proprement dite des vidéos, et la description écrite des phénomènes observés. Son travail vise à comprendre ce qui se passe, uniquement à partir des interactions non-verbales, en essayant ensuite d’en rendre compte. Une validation des observations est faite en s’appuyant principalement sur deux dispositifs :

Il décrit sa technique comme une technique qui « amène progressivement [le chercheur] à être extrêmement sensible aux aspects étudiés » (idem). Cette technique, suivant l’auteur, peut engendrer un effet de « surinterprétation » qui doit être contrôlée.

Nous citons aussi parmi les travaux qui procèdent à l’utilisation des données vidéographiques en sciences de l’éducation : les travaux de Mortimer & al (2007), Malkoun (2007) et Seck (2007). Ce que ces travaux ont de particulier par rapport aux autres, est qu’une partie de leurs analyses s’est basée sur des logiciels d’analyse des données vidéo : Mortimer & al (2007) et Malkoun (2007) ont utilisé Videograph®, alors que Seck (2007) a utilisé le logiciel Transana®. Dans les trois travaux, il s’agissait d’un traitement d’une durée d’enregistrement de données relativement longue et pour des finalités de recherche différentes.

Le travail de Mortimer & al (2007, page 53, notre traduction) décrit une méthodologie pour analyser des données vidéo en classe, « dans laquelle certains des outils d'analyse […] a été adapté et développé pour permettre la catégorisation des données vidéo en temps réel en utilisant un logiciel développé Videograph® ».

Les auteurs présentent deux avantages lors de l’utilisation de ce logiciel (la seconde étant la conséquence de la première) :

Suivant ces auteurs, une limitation importante est visible lors de l’utilisation de ce logiciel : « le classement dans chaque groupe de catégorie est exclusif » (idem).

Ces deux avantages et cette limitation peuvent être mieux exploités et dépassés par d’autres types de logiciel tel que Transana ; c’est ce que nous allons montrer dans la suite de ce travail dans la partie méthodologie.

Dans une autre perspective mais en se basant sur le même logiciel d’analyse, l’objectif principal du travail de Malkoun (2007) vise à caractériser des pratiques de classe de physique en vue de les relier à l’évolution des performances des élèves entre le début et la fin de l’enseignement de la mécanique en seconde. L’analyse est centrée sur les savoirs enseignés comme production conjointe du professeur et des élèves dans une classe (cf. Sensevy, 2007). Sa méthodologie est basée sur une reconstruction du savoir enseigné à trois échelles de temps et de granularité. Cette reconstruction est fondée :

Pour ce faire, Malkoun s’est basée sur un ensemble de données vidéo et de questionnaires des élèves avant et après enseignement. Les données vidéo, en particulier, se basaient sur un ensemble de 17 heures d’enregistrement environ dans trois classes différentes.

Un premier traitement des vidéos consiste à transcrire les productions verbales d’une manière « très simplifiée ». Pour certaines séances, la transcription complète du discours a été faite et pour d’autres, l’auteur n’a effectué que des transcriptions partielles. L’utilisation des transcriptions dans l’analyse est secondée par le visionnement vidéo.

L’analyse à l’échelle microscopique est faite, d’une part, à travers des transcriptions des bandes vidéo en repérant les différentes « facettes » de connaissances produites (Cf. Malkoun, 2007) dans les productions verbales des différents acteurs : les élèves et l’enseignant. D’autre part, le codage en termes de « tâches épistémiques » est fait à travers Videograph.

L’auteur a fait le choix de coder les « tâches épistémiques » directement à l'aide de Videograph afin d'avoir une référence précise dans le temps et de pouvoir effectuer des comptages et des croisements.

Sur le plan mésoscopique, le découpage en « thème » était délimité en se basant sur les transcriptions en revenant à la bande vidéo pour bien préciser leur début et leur fin. Une fois délimités, les thèmes ont été implémentés dans Videograph grâce à des intervalles temporels, afin de marquer le début et la fin de chaque thème.

Nous pensons, que le repérage des « facettes » directement à travers des transcriptions est du non seulement à la limite que peut présenter le logiciel dans la définition de nombres de catégories (l’auteur ne l’indique pas, c’est nous qui inférons cela) mais aussi à la durée d’une facette qui est de l’ordre d’un énoncé ; la durée d’une facette étant plus petite que celle d’une tâche épistémique (de l’ordre de la seconde), il serait très difficile de la localiser en utilisant les fonctionnalité de ce logiciel. Ce n’est pas le cas par exemple du logiciel Transana.

Ainsi face aux choix méthodologiques, le temps de traitement et de recherche peut se heurter aux limites d’un logiciel de traitement de données vidéo. Dans le cas de cette recherche, nous pouvons en citer trois :

L’articulation entre les analyses aux différentes échelles permet de comparer les classes entre elles et de relier, au moins partiellement, le savoir enseigné aux performances des élèves. Malkoun introduit ainsi la notion de « continuité » comme étant la reprise, dans le savoir enseigné, d’un élément déjà introduit. Elle a montré que selon leur degré de difficulté, une continuité forte de certains éléments dans le savoir enseigné est liée à leur acquisition. Cette relation savoir enseigné - acquisition est renforcée par l’analyse à l’échelle mésoscopique pour l’étude de la dynamique du savoir, notamment l’étude de la topogenèse (le responsable de la production du savoir à un moment donné)10et la chronogenèse.

Dans le même cadre de travail de Malkoun (2007), en prenant aussi comme point de vue théorique la théorie de l’action conjointe, Seck (2007) élabore une méthodologie d’analyse des données vidéo en se basant sur l’outil d’analyse Transana. Comme Malkoun, le principal objectif est d’étudier le rapport entre les pratiques enseignantes et les performances des élèves sur les concepts relatifs à l’énergie au Lycée.

Une des questions principale de ce travail est la suivante : « En quoi le logiciel d’analyse des enregistrements vidéo des classes participe-il à la vérification de la cohérence des reconstructions du savoir enseigné à différentes échelles ? » (idem, page 32). Plus généralement, comment à partir d’un logiciel d’analyse peut-on reconstruire la réalité du fonctionnement de la classe en prenant le point du vue d’une analyse du savoir ; la pratique de classe du point de vue des savoirs en jeu constitue le centre de son travail de thèse. Seck s’est basé sur un ensemble de 20 heures d’enregistrement vidéo en classes de seconde de deux enseignants appartenant à deux établissements différents. L’auteur donne plusieurs raisons au choix d’un logiciel comme Transana :

Sa méthodologie est basée sur une reconstruction du savoir enseigné à trois échelles temporelles différentes. Cette reconstruction est fondée :

Le traitement des données sur Transana consistait, au niveau de chaque échelle, en une synchronisation intégrale des transcriptions avec les bandes vidéo :

Ces travaux de recherche nous ont poussés à réfléchir notre méthode d’analyse construite sur la base du logiciel Transana. Cela sera visible dans la partie « Traitement des données vidéo ».

Ces observations ouvrent la question des limites et des avantages qu’un logiciel d’analyse peut présenter aux chercheurs ; à quel point un logiciel d’analyse peut-il limiter le travail de recherche et comment pourrait-on optimiser son utilisation. Nous pensons que trois points parmi d’autres sont essentiels pour être pris en considération dans un travail de recherche utilisant ce type de logiciel d’analyse:

Notes
9.

Les définitions des échelles macroscopique, mésoscopique et microscopique sont présentes à partir de la page 34

10.

Nous consacrerons une partie pour l’introduction des définitions de la chronogenèse et de la topogenèse à partir de la page 42.