II.1.4.Systèmes non supervisés

Dans ce cas, les informations fournies au système ne sont pas étiquetées. Kwasny, Kalman, Wu et Engebretson (1992 ; cité dans Combrinck, 1999) ont utilisé des réseaux récurrents sur des fichiers de parole non traitée. Les résultats sont excellents, mais le corpus utilisé est restreint (2 locuteurs, 2 phrases pour 2 langues). Du Preez et Weber (1998) ont reporté des résultats remarquables pour des chaînes de Markov cachées de rang supérieur (« high order HMMs »). A l’image des réseaux récurrents, une image de l’activité passée est maintenue. Les expériences ont été conduites sur l’Anglais et l’Hindi du corpus OGI-MLTS, et ils atteignent 79.8 % en 5s, et 97.4 % pour 45s (Combrinck, 1999).

Zissman (1993, 1996) emploie des chaînes de Markov cachés et des mixtures gaussiennes, poursuivant les travaux de Nakagawa et coll. (1992). Chaque langue est représentée par un ensemble de distributions gaussiennes multivariées, défini pendant la phase d’apprentissage. Une phrase test est classée en cherchant le modèle qui lui ressemble le plus (Zissman, 1996 : 50 % pour 5s de signal pour 10 langues du corpus OGI-MLTS)