Alors que dans OSCAR nous n’avions conservé comme données uniquement le fait que les sujets aient détecté ou non notre modification, les niveaux de la trame de saisie d’une réponse d’ICARE (figure 99) nous ont permis de recueillir plus d’informations. En effet si nous ne considérons en parallèle que la première question posée aux sujets (est-ce que la scène a été modifiée ?) et les caractéristiques de nos modifications, nous obtenons des informations d’un niveau macroscopique intéressantes. Aussi, les différents niveaux que le sujet doit détailler afin de visualiser sa réponse nous permettent d’obtenir des performances graduées selon la justesse de ces différents niveaux. De plus, l’enregistrement automatique des données nous a également permis de récupérer et de traiter aisément les réponses dites ‘’non-attendues’’. Ces données concernent les réponses fournies dans le but de rectifier des modifications que nous n’avons pas réalisées. Enfin, nous présenterons l’avantage global qu’apporte la sauvegarde automatique de l’intégralité des données couplée à l’utilisation de la 3D, via le module de feed-back visuel qui recompose graphiquement les réponses des sujets n’importe quand après leur passation. Le premier niveau d’analyse que nous fournissent les données d’ICARE concerne le jugement d’adéquation que porte le sujet sur l’image arrêtée par rapport à la scène finale de la vidéo qu’il vient de voir. En d’autres termes, il s’agit de la justesse des réponses à la question « Est-ce que la scène a été modifiée ? ». Les sujets avaient alors le choix entre trois réponses : oui, non ou je ne sais pas (nsp). Comme toutes les scènes finales de tests étaient modifiées, les réponses « non, la scène n’a pas été modifiée » et « je ne sais pas si la scène a été modifiée » conduisent forcément à la non-détection de nos modifications et à ce que nous appelons des « plans modifications vides » (PMV) qui constituent des réponses fausses. En revanche, les réponses « oui, la scène a été modifiée » mènent toutes à l’insertion d’objets dans l’image, c'est-à-dire à la correction de l’image modifiée. Mais cette catégorie peut être subdivisée en deux sous-catégories. Soit le sujet juge que la scène a été modifiée car il a détecté notre modification, et dans ce cas, au moins un des changements qu’il va dicter à l’expérimentateur corrigera notre modification. Nous appelons ces réponses « oui_R », elles correspondent à des détections de modifications. Soit le sujet estime également que la scène a été modifiée, mais pour une mauvaise raison. Dans ce cas, il n’a pas détecté notre modification, et ces changements sont des réponses que nous n’attendions pas ( : ces réponses sont notées « oui_NA »). La figure 111, ci-dessous, résume toutes ces possibilités et les effectifs obtenus pour chaque catégorie de réponses.
Ainsi nous obtenons deux possibilités : les réponses justes (cadre vert) et les réponses fausses (cadre rouge). Seules les réponses Oui_R sont véritablement considérés comme justes. En revanche, la catégorie réponses fausses regroupe les « non, la scène n’a pas été modifiée », les « je ne sais pas si la scène a été modifiée » ainsi que les « oui, la scène a été modifiée » accompagnée d’un changement non attendu (Oui_NA). Dans un premier temps, nous analyserons les réponses justes (Oui_R) en fonction d’une part des modifications que nous avions apportées aux scènes finales et d’autre part de la présence de la double tâche. Enfin nous analyserons les différents types de réponses fausses (non, nsp, et Oui_NA) selon les mêmes critères. Comme nous pouvons le voir sur la figure 111, au fur et à mesure que nous distinguons les types de réponses fournies par les sujets nos effectifs diminuent considérablement. C’est pourquoi, une grande partie des résultats qui suivent ne seront présentés qu’à titre descriptif, sans que nous puissions effectuer des tests statistiques sur les données.