2.2.2. Perception des structures musicales et linguistiques : L’hypothèse de ressources d’intégration syntaxique partagées

En contradiction avec les observations issues de la neuropsychologie et les hypothèses de Peretz (2001, 2002 ; Peretz & Coltheart, 2003) sur la spécificité des fonctions musicales et linguistiques, des études en neurophysiologie ont montré des corrélats électrophysiologiques (ERAN/ELAN, P600) et neuro-anatomiques (notamment dans l’IFG) communs pour traiter les structures musicales et linguistiques chez les individus sains (Maess et al., 2001 ; Patel et al., 1998 ; Tillmann et al., 2003a ; voir section ). L’observation de corrélats neuronaux communs pour traiter la syntaxe en musique et en langage a conduit Patel (2003a) à formuler l’hypothèse que les traitements de la musique et du langage partagent des ressources d’intégration syntaxique (i.e., Shared Syntactic Integration Resources Hypothesis, SSIRH).

L’hypothèse SSIRH souligne des similarités structurelles entre les traitements de la musique et du langage en s’appuyant sur la théorie de l’espace tonal (i.e., TPST ; Lerdahl, 2001a ; section ) et sur la théorie des dépendances syntaxiques locales en langage (i.e., Syntactic Dependency Locality Theory ; Gibson, 1998 ; section ). Ces deux théories proposent notamment un lien entre la distance (temporelle) qui sépare deux événements (musicaux ou linguistiques) structurellement reliés et la difficulté d’intégration de ces deux événements.

Partant des similarités structurelles entre la musique et le langage (Chapitre 1) et des données neurophysiologiques sur les traitements de la syntaxe en musique et en langage (section 2.1.2), l’hypothèse SSIRH propose que ces traitements requièrent des ressources d’intégration structurelle partagées (Patel, 2003a). Ces ressources d’intégration structurelle permettraient de relier les événements musicaux ou linguistiques entre eux, au fur et à mesure qu’un nouvel événement est présenté, pour former une représentation globale et cohérente de la séquence d’événements musicaux ou linguistiques. Grâce aux connaissances des auditeurs sur les régularités structurelles de la musique et du langage, l’intégration structurelle des événements séquentiels en mémoire de travail permettrait la compréhension et l’interprétation d’une séquence d’événements structurée.

L’hypothèse SSIRH postule que les ressources d’intégration structurelle nécessaires aux traitements de la syntaxe en musique et en langage sont limitées (Patel, 2003a ; voir aussi Gibson, 1998). Par conséquent, l’hypothèse SSIRH prédit des effets d’interférence entre les traitements simultanés de la syntaxe en musique et en langage. La SSIRH prédit également un déficit syntaxique partagé pour le langage et la musique chez les patients aphasiques. L’hypothèse SSIRH a encouragé des recherches comportementales, électrophysiologiques et neuropsychologiques sur les relations entre les traitements des structures musicales et syntaxiques en langage. Indirectement, et en l’absence de toute prédiction sur d’éventuels effets d’interférence avec le traitement des structures sémantiques, l’hypothèse SSIRH a aussi incité des recherches à étudier les relations entre les traitements des structures musicales et sémantiques en langage. Les traitements simultanés des structures musicales et sémantiques étaient comparés avec les traitements simultanés des structures musicales et syntaxiques pour étudier la spécificité syntaxique des ressources partagées entre les traitements musicaux et linguistiques. L’ensemble de ces études (section ) a permis de contribuer à la question de la spécificité (ou non) des ressources cognitives et neuronales pour traiter les structures musicales et linguistiques en suggérant des ressources d’intégration structurelles partagées comme proposé par Patel (2003a, 2008, sous presse).

Pour résoudre le paradoxe issu de l’observation de corrélats neuronaux communs pour traiter la syntaxe en musique et en langage (section ) et de l’observation de cas de double dissociation fonctionnelle entre les traitements de la musique et du langage (section ), Patel (2003a) a proposé que les ressources d’intégration syntaxique partagées pour la musique et le langage opéraient sur des représentations musicales et linguistiques spécifiques qui seraient stockées dans des réseaux neuronaux distincts. Ainsi, les cas d’amusie sans aphasie et d’aphasie sans amusie refléteraient des déficits spécifiques d’accès aux représentations musicales (pour les amusiques) ou linguistiques (pour les aphasiques). Récemment, Patel (2008, sous presse) a étendu son hypothèse SSIRH dans un modèle de ressources partagées (Resource-sharing framework, ). Le resource-sharing framework rappelle l’hypothèse de représentations musicales et lingusitiques spécifiques et propose en plus que d’autres ressources (en plus des ressources d’intégration syntaxique) sont partagées pour les traitements de la musique et du langage, comme des ressources dédiées à la perception des structures rythmiques ou à l’apprentissage (Chapitre 1).

Figure 2.4. Le modèle Resource-sharing framework proposé par Patel (2008) propose que les traitements de la musique et du langage impliquent des réseaux de ressources cognitives et neuronales partagées pour différents type de processus (e.g., intégration syntaxique, rythme) et des réseaux distincts où sont stockées des représentations musicales et linguistiques spécifiques (d'après Patel, 2008, sous presse).