IV.2.2.1.Amélioration des performances

Deux hypothèses ont été testées pour augmenter le taux d’identification. La première modifie l’architecture du réseau. Puis, plusieurs méthodes d’apprentissage des motifs produits par le TRN ont été testées.

IV.2.2.1.1.Influence de la couche d’entrée du réseau

La première manière d’augmenter les performances du réseau consiste à tenir compte de différents nombres de neurones pour la fenêtre représentant la fréquence fondamentale, et différentes valeurs de l’écart type (paramètre sigma), qui agit sur le nombre de neurones actifs pour une fréquence donnée. Ceci a été rendu possible par la construction d’un programme écrit en C++ conçu de manière à garder un choix dynamique de la taille et de l’architecture du réseau.

Le graphique présenté à la Figure 5.10 illustre les valeurs moyenne pour des population des 50 réseaux. Les performances moyennes sont améliorées pour 60 neurones avec un nombre de neurones actifs relativement élevés. Cependant, la performance maximale (82 %) reste la même. Les résultats obtenus sont donc plus robustes pour la population de réseaux. Dans ce cas, l’augmentation du nombre de neurones d’entrées permet d’accorder moins d’importance à l’ajustement des poids du réseau. Est-il possible d’améliorer ces résultats en utilisant une technique d’apprentissage plus performante que celle utilisant les prototypes ?

Figure 5.10 Performance d’une population de 50 réseaux en fonction du nombre de neurones d’entrées pour F0 et le paramètre sigma. Les barres verticales indiquent l’écart type des performances de la population de réseaux.
Figure 5.10 Performance d’une population de 50 réseaux en fonction du nombre de neurones d’entrées pour F0 et le paramètre sigma. Les barres verticales indiquent l’écart type des performances de la population de réseaux.
Figure 5.11 Codage retenu pour la F0 (exemple avec 60 neurones et sigma égal à 50)
Figure 5.11 Codage retenu pour la F0 (exemple avec 60 neurones et sigma égal à 50)