4-4-3 Contrainte lexicale et probabilité d’identifier un mot (P(W|Ci))

La probabilité de prédire le mot, P(W|Ci) lorsqu’un CLIP Ci a été identifié est fonction du nombre de candidats lexicaux activés, c’est-à-dire du nombre de mots partageant les mêmes lettres que le CLIP. Ainsi, plus le nombre de « candidats » est élevé, plus il sera difficile d’inférer le mot cible. La probabilité de prédire un mot à partir d’un CLIP donné (Ci) peut ainsi être estimée suivant l’équation (5):

P( W|Ci ) est la probabilité de prédire le mot complet à partir du CLIP Ci, et N(Ci) le nombre de mots qui partagent les mêmes lettres que le CLIP partiel (« voisins CLIP » par la suite). Le nombre de « voisins CLIP » doit être différent de 0. Lorsqu’il n’y a aucun « voisin CLIP », N(Ci) = 1, et la probabilité d’inférer le mot sera de 100%, c’est précisément le cas lorsque toutes les lettres du mot sont identifiées (CLIP total) ou lorsque le seul mot compatible avec le stimulus est le mot cible lui-même.

Le modèle CLIP est un modèle probabiliste construit pour rendre compte des réponses correctes des stimuli mots en fonction de la position du regard dans la tâche d’identification perceptive. Le MPLI décrit précédemment est un cas particulier du modèle CLIP, où le mot est identifié via l’identification de toutes ses lettres, c’est-à-dire le CLIP total. Ce processus de reconnaissance du mot que nous avons appelé « identification perceptive totale » est prédictible entièrement à partir de l’information visuelle. Le modèle CLIP considère par ailleurs les situations où le lecteur n’a pas identifié toutes les lettres du mot (CLIP partiel) mais peut quand même reconnaître le mot par un processus d’inférence lexicale. Ce processus, à l’inverse de l’identification perceptive vraie, dépend des contraintes lexicales.

Afin de démontrer la pertinence du modèle CLIP, nous allons dans la partie qui suit, modéliser les données empiriques obtenues par Brysbaert et al (1996) comme cela a été proposé par Kajii & Osaka (2000). L’étude de Brysbaert et al (1996) fournit des mesures empiriques de la probabilité de prédire un mot à partir de l’identification de quelques lettres et permet ainsi de tester directement le modèle CLIP.