Résumés |
fr |
Les fondements théoriques de l'apprentissage sont en grande partie posés. Comme la calculabilité est venue à maturité en s'orientant vers la complexité, l'apprentissage mûrit face à des résultats négatifs forts qui rendent sans espoir la quête d'algorithmes universels, efficaces pour toute donnée. Vraisemblablement les grandes avancées à venir seront (a) soit dans des domaines connexes où l'étude théorique a moins été poussée, (b) soit moins philosophiques et plus concrètes (théorique à préoccupations algorithmiques, représentation de données structurées, implémentation physique, modularité), soit enfin (c) dans la modélisation biologique. Cette thèse résume (et essaie modestement de compléter?) les avancées théoriques statistiques, des points de vue successifs des cas où l'apprentissage est difficile (i.e., où l'on sort du cadre iid sans bruit avec a priori de VC-dimension finie), des utilisations non-standards de la VC-théorie (non-supervisé, extraction de règles? : c'est le (a) ci-dessus), puis du passage au concret avec le passage aux préoccupations algorithmiques (validité des approximations dans les Supports Vector Machines, efficacité des algorithmes de Gibbs quoique l'étude soit très incomplète, plus proches voisins rapides d'un point de vue expérimental représentation de données structurées images ou textes - tout cela est le (b)) et la modélisation biologique (c). |
en |
Learning theory, neural networks and applicationsMain theoretical fundations of learning are achieved. As calculability has evolved into complexity, learning, in front of strong negative results which have destroyed the hope of universally efficient ultimate algorithms or approachs, has to evolve. Likely, main future breakthroughs will be (a) in related areas where the theoretical study is less developed, (b) in less philosophical and more concrete results (theory with algorithmic studies, management of structured data, physical implementation, modularity), (c) in biological modelling. This thesis overviews (and tries to complete) statistical theoretical advances, from the different points of view in which learning is difficult (i.e. where we get out of the iid framework without noise, with prior knowledge of finite VC-dimension), non-standard applications of VC-dimension (unsupervised learning, rule extraction? : this is (a) above), then concrete results with algorithmic studies (validity of approximations in Support Vector Machines, efficiency of Gibbs algorithms whenever the study is quite uncomplete, fast nearest neighbours from an experimental point of view ; management of structured data as images or text - all this is (b)) and biological modelization (c). |
|