3.2.3.5. L’analyse inter-juges

Comme cela a été dit précédemment, les films ont été décodés par deux personnes et nous avons décidé que l’accord devait se situer à .80 pour valider un paramètre commun (sachant que le test Kappa va de 0 à 1). Nous avons utilisé le test Kappa de Cohen (1960). Pour cela, lorsque deux codages étaient en désaccord, les deux juges pouvaient se rendre compte de l’endroit du désaccord (facilement repérable dans le logiciel) et il y avait revisionnage de la partie où les juges étaient en désaccord afin de trouver la bonne entente et corriger le mauvais codage.

Cette phase d’accord inter-juges a permis une analyse plus fine et objective des comportements.

Nous avons ainsi recueilli toute une série de données que nous pouvons détailler en nombre d’événements codés et en nombre d’interactions. Ainsi, nous avons codé 18147 événements (ce nombre a été multiplié par deux car deux personnes ont procédé à ce décodage). Ces 18147 événements ont généré 22257 interactions adultes-enfants (interactions parvenant dans le seuil de 3 secondes) qui se répartissent en 10944 réactions de l’enfant par rapport à l’adulte et 11313 réactions de l’adulte par rapport à l’enfant. Ces nombreuses données ont ensuite été soumises à l’application d’analyses statistiques (l’annexe 6.10 détaille le nombre d’événements et le nombre d’interactions pour les enfants et pour les différents adultes).