3.1. Un déficit d'évaluation et de recherche

La notion d'évaluation mérite tout d'abord d'être clarifiée. Le terme évaluation vient du latin valere, "être vigoureux", "avoir de la valeur" et "avoir trait à quelque chose", "avoir une signification (mots) et une valeur (monnaie)". Dérivé de l'ancien français value, "prix", il apparaît au XIVème siècle comme la mesure d'une valeur. Aujourd'hui, selon J-M. De Ketele et X. Rogiers 367 , évaluer signifie plus précisément confronter un ensemble d'informations à un ensemble de critères, en vue de prendre une décision.

Les démarches évaluatives en éducation, quantitatives ou qualitatives, répondent à de nombreuses fonctions, orientées essentiellement vers le contrôle ou la formation. Le contrôle sous forme d'évaluation diagnostique ou sommative cherche à dresser un état des lieux ou conduire à une certification. L'évaluation formative vise une prise de conscience de la situation par les intéressés. Ceux-ci peuvent ainsi concevoir les remédiations les plus efficaces pour se rapprocher des objectifs visés. Dans l'un et l'autre cas, l'évaluation peut prendre une forme quantitative ou qualitative. L'une s'appuie sur des critères aisément quantifiables tandis que l'autre cherche à rendre compte d'éléments subjectifs plus difficilement mesurables.

Ces démarches peuvent concerner divers objet d'étude pouvant être classés selon deux niveaux : institutionnel ou individuel. L'évaluation institutionnelle est relative à un fonctionnement collectif s'exerçant à un échelon national ou local comme par exemple dans une circonscription, un groupe scolaire, une école, une classe. L'évaluation individuelle s'applique au niveau d'un élève ou d'un enseignant. L'évaluation peut encore relever d'activité externe, interne ou négociée. Externe, elle est pratiquée par un organisme extérieur ou un supérieur hiérarchique, dont l'autorité, assortie de méthodes scientifiques, est réputée être le garant d'un jugement impartial. Interne, elle est effectuée par les acteurs eux-mêmes, individuellement ou en équipe. Les auto-évaluations croisées des résultats leur permettent alors de comparer intentions et effets obtenus pour corriger de façon raisonnée les actions mises en place. Enfin, dans le but de parvenir à un accord intersubjectif de toutes les parties, l'évaluation peut être le produit d'une négociation entre niveau interne et externe.

L'évaluation institutionnelle des aides spécialisées recouvre une question ancienne. Un bilan précis des études conduites à ce sujet depuis une trentaine d'années permet de mesurer l'ampleur du déficit en ce domaine.

Déjà en 1987, l'administration faisait un constat sévère "depuis la circulaire fondatrice de 1970, rien a été fait en ce domaine" 368 . Les différents rapports conduits par l'Inspection générale de l'Education nationale sur les dispositifs d'aide, GAPP puis RASED, de même que celui de l'IREDU, montrent inlassablement la difficulté massive et persistante à évaluer les actions d'adaptation et d'intégration scolaire.

La première enquête importante fait suite à une demande ministérielle de septembre 1985 369 : "Un important réseau d'aide aux élèves en difficulté a été mis en place dans l'enseignement élémentaire. Après plusieurs années de fonctionnement, le temps me paraît venu d'examiner l'organisation de ce réseau et d'apprécier sa portée et sa qualité. C'est pourquoi je vous demande de procéder conjointement à une évaluation de ce système et de me soumettre des propositions pour en accroître l'efficacité".

En décembre 1985, le rapport provisoire relève "la difficulté d'un jugement objectivement fondé", une grande "hétérogénéité du système", son "impossible généralisation" et surtout les "lacunes du contrôle" et "l'absence d'évaluation" 370 . Il suggère une évolution substantielle de cette structure. En septembre 1987, le rapport complet étaye les résultats précédents et en extrait trois axes de réflexion : clarifier et préciser, contrôler et évaluer, adapter le dispositif aux contraintes de la réalité.

L'effort de clarification découle de "la juxtaposition de dispositions résultant de situations historiques différentes, que l'unité ne caractérise pas" 371 . La proposition qui lui fait suite préconise l'élaboration d'un texte "organique". Elle précise que la catégorisation des fonctions mérite d'être accentuée ainsi que la responsabilité des maîtres des classes ordinaires dans le processus d'aide. La collaboration est présentée à ce propos comme une "nécessité impérative" 372 .

La dimension évaluative apparaît comme une préoccupation centrale 373 . Les propositions, nombreuses et précises, sont essentiellement formalistes, c'est-à-dire centrées sur une objectivation des données au moyen de "document-guide", "dossiers", "fiches", "cahiers de comptes rendus", "guides d'évaluation" etc. Elles nécessitent un travail important tant au niveau du contrôle dont les IEN ont la charge que de l'évaluation conduite par les intervenants spécialisés. Parallèlement, les centres de formation sont invités à privilégier cet aspect dans les études et travaux pratiques proposés. De plus, les différents niveaux administratifs sont appelés à réaliser une enquête annuelle afin de réguler les fonctionnements observés.

Enfin, le dispositif réclame une adaptation aux besoins de la réalité. "Ce n'est pas dans un accroissement de moyens qu'il faut rechercher un développement et une amélioration de l'efficacité du dispositif d'aide, mais c'est au niveau de son fonctionnement. Il s'agit donc avec à peu près les mêmes moyens en personnel de desservir une population scolaire sensiblement plus importante" 374 . La pénurie en personnel, compensée par l'espoir d'une organisation plus efficiente, est ainsi avalisée. L'efficacité est par ailleurs présentée moins en termes de performances scolaires que de changements de comportement des maîtres et des élèves. Son optimisation repose sur l'élaboration de "politiques cohérentes dans chaque département, tout en cherchant le meilleur emploi des personnels existants" ainsi que des "formes d'intervention plus rapides et plus efficaces" 375 .

L'ensemble de ces recommandations annonce la circulaire d'avril 90 376 qui, réorganisant les groupes d'aide psychopédagogique et les classes d'adaptation, crée les réseaux d'aides spécialisées aux élèves en difficulté.

Suite à cette première enquête institutionnelle, la diffusion d'un rapport signé par Alain Mingat, chercheur à l'Institut de recherches sur l'économie de l'éducation (IREDU-CNRS) en octobre 1990 produit un effet "explosif", selon le titre d'un article publié dans Le monde de l'Education quelques mois plus tard 377 . Ce rapport répond à une demande formulée par l'Inspection Académique de la Côte d'Or 378 , alors même que se déroulait une évaluation nationale des GAPP, commandée par la Direction des écoles. L'étude conduite se centre uniquement sur les activités de rééducation au sein des GAPP à l'école élémentaire, en classe de cours préparatoire. Elle ne porte que sur une seule des missions des GAPP 379 : l'adaptation des élèves à l'école. Les actions de prévention, l'influence sur les pratiques et attitudes des maîtres ainsi que sur le fonctionnement de l'école ne sont pas abordées. L'évaluation conduite met doublement en cause non les GAPP, comme le laissent entendre coupures de presse ou rumeurs, mais l'efficacité des suivis rééducatifs. Deux motifs sont invoqués. L'un concerne le choix des élèves aidés dont le score aux tests n'est pas forcément mauvais alors que d'autres, présentant des lacunes graves, sont ignorés. L'autre est relatif aux effets de l'aide qui, rapportés aux résultats scolaires, s'avèrent globalement nocifs.

Cette analyse, dont les critères sont réduits à l'acquisition de savoirs, s'avère fortement contestable. Elle apparaît relever d'une conception réductrice de l'adaptation et d'une méconnaissance du travail de rééducation. L'incohérence dénoncée au niveau des indications ne prend pas en compte la diversité des raisons de prise en charge (refus scolaires, perturbations passagères dues à un changement important tel un divorce parental, une suite d'hospitalisation, un déménagement etc.) ou de non prise en charge (élèves relevant de structure spécialisée, en attente d'une place qui, selon les recommandations institutionnelles 380 relayées par les instances hiérarchiques, ne peuvent bénéficier d'une telle action). Par ailleurs, l'évaluation de l'aide apportée ne peut s'appuyer sur les seuls bilans d'apprentissage scolaire. Elle doit impérativement prendre en compte les objectifs que s'est donné le rééducateur dans son projet avec l'enseignant et les parents. La récusation la plus grave touche la méthodologie de cette recherche. Elle est citée par de nombreux auteurs comme l'exemple typique de ce qu'il ne faut pas faire. Le mathématicien C. Heuchenne dénonce les erreurs de mesure initiales 381 . Dominique Glasman évoque les biais introduits par l'absence de données sociales ou comportementales face à l'école 382 . Arletta Grisay met en évidence l'artefact méthodologique et conclut : "l'analyse aurait mérité d'être refaite" 383 .

Cette étude n'a pas eu de prolongement dans d'autres départements, comme il en avait tout d'abord été question. Elle a néanmoins marqué durablement les esprits en introduisant une suspicion forte à l'égard des RASED nouvellement mis en place au moment de la parution du rapport. L'évaluation de leurs actions, difficile à mettre en oeuvre, en porte encore le poids.

La Direction des écoles, préoccupée par la diversité de fonctionnement des RASED, commande une nouvelle enquête cinq ans après leur création. Celle-ci a pour but de recenser les différents types d'organisation, de comprendre les fondements de cette diversité et d'analyser les effets de l'action des RASED sur la scolarisation. Le rapport de l'Inspection Générale - dit rapport Gossot - examinant quelques situations départementales, paraît en 1996-97. Les conclusions montrent que les orientations de la circulaire de 90 sont inégalement appliquées. Si, par exemple, l'extension du dispositif à un plus grand nombre d'écoles est bien prise en compte, la définition des priorités d'action, la concertation entre professionnels ou la réalisation des différentes formes d'évaluation sont peu développées. Les faiblesses et l'hétérogénéité du système précédent ont tendance à persister. Les diversités proviennent essentiellement de l'imprécision des politiques départementales, des résistances des acteurs éducatifs à tous niveaux et des interrogations suscitées par la mise en œuvre de l'organisation en réseaux.

Globalement, les effets de l'action des réseaux sur la scolarisation des élèves, au moins dans leur aspect quantitatif, semblent "supérieurs à ceux des GAPP en 1987". Ce constat officiel s'accompagne d'une mise en garde contre les opinions courantes défavorables et d'une injonction forte en faveur d'une évaluation trop souvent inexistante. "L'évaluation départementale des réseaux384 n'est encore qu'embryonnaire, et les inspecteurs spécialisés ne se sont guère mobilisés pour la mettre en œuvre. Une telle situation ôte en tout cas, tout crédit aux jugements, parfois sévères et souvent hâtifs sur l'efficacité du dispositif. Elle n'est pas acceptable et ne peut se prolonger" 385 . Les IEN AIS eux-mêmes ne font guère preuve d'optimisme : "Au niveau départemental, il est illusoire de vouloir mettre en place une évaluation exhaustive du fonctionnement des RASED pour des raisons de temps et de complexité des traitements des données" 386 . Le déficit d'évaluation externe, aggravé par l'insuffisance de micropilotage 387 , se double d'une évaluation interne laissant à désirer. Les appréciations, fortement empreintes de subjectivité, ne sont pas encore construites à partir d'indicateurs précis.

Aujourd'hui, la circulaire d'avril 2002 apporte des instructions pour remédier aux défauts de collaboration et d'évaluation. Elle insiste notamment sur la nécessité d'une politique départementale cohérente, mise en oeuvre par un pilotage départemental et l'animation des dispositifs de circonscription. Cette insistance corrobore la nécessité et l'urgence d'un changement en ce domaine.

Nombre d'interviewés s'accordent pour relater les défaillances d'évaluation soit externe soit interne, bien que des pratiques très élaborées, étayées par des documents écrits transmis pour une étude plus approfondie, témoignent d'une évolution en cours. Les IEN montrent les lacunes de leurs pratiques. L'évaluation externe est souvent défectueuse, voire impalpable.

E01 Thomas (IEN) A1 p. 54

‘C'est la grosse difficulté et je ne vais pas raconter n'importe quoi. On ne trouve pas, on a un mal énorme à trouver des outils pour évaluer les réseaux.’

E42 Paul (Maître E) A2 p. 814

‘Il y a un IEN dans le réseau ? Il est inexistant… j'ai envie de dire. Ne serait-ce que l'exemple de cette année, on a eu aucune réunion avec l'IEN, aucune directive, aucun retour de notre projet de RASED.’

Elle peut être confiée aux intéressés et laissée à leur libre appréciation. Ce sont eux qui fixent priorités, indicateurs utiles à l'estimation du chemin parcouru et zone active 388 . Cette stratégie de management, laissant l'entière responsabilité aux subordonnés, peut apparaître comme une démission.

E41 Yvette (Maître E) A2 p. 814

‘[L'ancien projet de réseau arrivant à son terme, l'équipe doit redéfinir son secteur d'intervention].’ ‘- "Il y a [des critères] qui ne posent pas de problèmes : les résultats de l'évaluation CE2 et l'évaluation 6ème… et nosévaluations GS; ça donne une idée du niveau de l'école et ça permet de relativiser, parce que des fois, quand les maîtresses insistent beaucoup on aurait tendance à leur répondre oui tout de suite. Un autre critère, mais on n'est pas tous d'accord, c'est l'investissement des écoles parce qu'on trouve que c'est un critère qui augmente l'efficacité de notre travail… Il vaut mieux que les instits soient demandeurs, qu'ils nous invitent à leurs conseils, qu'ils discutent quoi… c'est bon signe quand ils nous associent à leurs projets. Un autre critère, c'est les priorités, qu'est-ce qu'on privilégie ? La prévention ? La remédiation ? Est-ce qu'on va au cycle 3 ? Enfin tout ça, ça brasse jusqu'à ce qu'on tombe d'accord… (rires)’ ‘- Et l'Inspecteur par rapport à ces choix ?’ ‘- Si j'ai bien compris, il nous suit toujours, à condition que le projet soit bien argumenté, c'est ce qu'il demande".’

Quand les critères sont arrêtés et que suffisamment d'informations pertinentes sont réunies, la politique à mettre en œuvre reste à définir. Comme le remarque judicieusement G. de Landsheere "Collecte d'indicateurs et pilotage ne sont pas synonymes. Les indicateurs sont des informations utiles au pilotage, c'est-à-dire en dernière analyse à la prise de décisions qui doivent se traduire dans des actions. Rien ne garantit que l'existence d'indicateurs, fussent-ils de la meilleure qualité, entraînera des actions" 389 . Le groupe d'enseignants spécialisés à qui la responsabilité du pilotage est abandonnée est alors dans la nécessité d'une cohésion interne sous peine de décisions anarchiques et incontrôlées. Ces pratiques encouragent une prise de pouvoir certainement difficile à contrôler par la suite.

L'évaluation interne, quand elle est réclamée par la hiérarchie, est laissée à la charge du personnel, sans qu'il soit demandé de retour. Cette demi-exigence signerait presque à mi-mots "l'évacuation" d'une population indésirable…

E01 Thomas (IEN) A1 p. 54-55

‘On va dire que la première évaluation du fonctionnement d'un réseau, c'est d'abord l'évacuation, l'évacuation (rires)... ce n'est pas un lapsus révélateur ça j'espère… mais l'évaluation des enfants eux-mêmes, c'est-à-dire au moment où ils l'ont pris et à la fin. Ce que je demande, c'est que ça, au moins, ça soit fait. L'évaluation qualitative, je crois qu'elle doit être exercée avant tout par les gens sur le terrain parce que c'est avant tout l'évaluation des enfants.’ ‘Est-ce que vous en avez des traces ?’ ‘Je n'en demande pas, non, je n'en fais pas remonter."’

E46 Olga (Maître G) A2 p. 608

‘Je trouve que c'est important parce que sinon, on ne sait pas bien où on va. Chaque action doit être évaluée, que ce soit une action rééducative ou un travail de réseau pour qu'il y ait… - je n'aime pas le mot de rendement – (rires)… les meilleures réussites dans les écoles. Comme personne ne nous évalue et que l'inspecteur nous fait confiance, c'est nous qui nous évaluons (rires) en montant nos propres évaluations. 390

Difficile à cerner et à apprécier, elle fait le plus souvent l'objet, non d'un accompagnement mais d'un contrôle par l'acte d'inspection. Cette limitation témoigne ainsi d'une tendance au désinvestissement. Méconnaissance ? Manque de temps ? Evitement de conflits ? Indifférence ? L'analyse des résultats effectuée par les seuls intéressés perd en visibilité. Elle renforce aussi le peu d'intérêt de la hiérarchie pour la collégialité, c'est-à-dire le partage de responsabilité entre IEN et personnel de RASED à propos du fonctionnement et de l'évaluation du dispositif.

Les actions spécialisées sont analysées empiriquement ou à l'aide de grilles d'évaluation plus ou moins sophistiquées, en cours de déroulement et en fin de prise en charge. En l'absence de conseil ou d'étayage, la recherche d'indicateurs peut être rebutante, hasardeuse ou difficilement transmissible.

E48 Gregory (Rééducateur) A2 p. 632

‘Non, je ne connais pas d'outils… Il y a une évaluation empirique mais pas d'outils mis en place pour l'évaluation. Elle se fait à partir de la rencontre des dire de l'instit, des parents, de l'équipe réseau qui à un moment considèrent qu'il y a eu évolution par rapport au signalement. Le signalement est écrit, on a réussi à les mettre en place depuis quelques années. Il y a ensuite le projet qui n'est pas toujours écrit parce que c'est une contrainte importante autant pour le réseau que pour l'instit. Mais à partir de ces deux outils-là l'évaluation c'est faire un point de comparaison entre le pourquoi de l'aide et la photographie qu'on peut prendre de l'enfant à une date donnée. (…) On a fait des tentatives dans deux réseaux. C'est quand même difficile d'objectiver un résultat d'aide rééducative… les maîtres E par contre s'en tirent toujours avec des petits bilans de ceci, des petits bilans de cela.’

E39 Monique (Maître E) A2 p. 525

‘En milieu d'année, je fais des bilans pour moi, pour savoir où les élèves en sont, pour voir ce qu'on n'a pas réussi à mettre en place. Le premier [critère d'évaluation], c'est d'abord savoir s'ils peuvent apprendre en classe tout seuls. Oui, oui... Le reste ça dépend du signalement, de ce qu'il fallait travailler… ça change pour chaque élève alors ce n'est pas simple à dire.’

Mais cette étude qualitative reste individuelle, à l'échelle d'une personne ou au mieux d'un RASED. Rarement croisée avec celle des supérieurs hiérarchiques ou d'autres professionnels, elle se développe dans une perspective intimiste, aux antipodes d'une préoccupation de réseau. Lorsque des tentatives d'élargissement sont proposées, dans l'espace ou dans le temps, celles-ci sont vivement rejetées au nom de principes irrecevables, tels la peur de "ficher les gamins" ou de voir les résultats interprétés par l'administration. Cette attitude défensive jette le doute et le discrédit sur des pratiques qui semblent, aux yeux des professionnels eux-mêmes, ne pas pouvoir résister au feu de l'évaluation et de la critique.

E14 Régis (IEN AIS) A1 p. 209

‘"Je n'ai eu qu'une levée de boucliers pour le moment... parce que je voulais essayer de voir quels étaient les enfants qui étaient pris en charge, non pas pour les évaluer en terme de "vous avez réussi, vous n'avez pas réussi" mais je voulais mettre en place une évaluation sur plusieurs années où on aurait fait la liste des enfants qui étaient pris, quand, comment, pendant combien de temps et on aurait essayé de voir sur quatre ou cinq ans. Est-ce que j'avais par exemple une amélioration des résultats à l'évaluation de CE2, de 6ème ? Est-ce que les gamins malgré des prises en charge multiples regagnaient l'enseignement ordinaire ou au contraire étaient dirigés vers un enseignement adapté ?"’

E48 Gregory (Rééducateur) A2 p. 632

‘Par le passé, il y a eu une seule tentative dans le département mais il y a eu une telle résistance de tous côtés – le tort est partagé : je trouvais ça débile parce qu'un tableau de bord du nombre d'enfants suivis pour quelle problématique etc… je ne vois pas pourquoi on ne remplirait pas ça, on l'a, on le sait… le problème après c'est l'utilisation qu'en fait l'administration, c'est une évaluation quantitative et non pas qualitative etc… - Donc il y a eu des résistances qui font que ça a été galvaudé… et la seconde année, ils n'ont pas insisté.’

Pour certains, les modalités de l'évaluation interne sont fréquemment assimilées à un rapport d'activité qui, le plus souvent, fait seulement état de constats chiffrés. Cet aspect quantitatif, qui fait l'objet d'un recueil quasi unanime des inspecteurs est relativement aisé à recueillir sous forme de tableau de bord. Cet outil peut mentionner par groupe scolaire et par niveau : le nombre d'enfants signalés, le type de demandes, le nombre d'enfants suivis, la nature, fréquence et durée des interventions. Parfois s'y ajoutent les objectifs poursuivis et les résultats.

E01 Thomas (IEN) A1 p. 55

‘"A la fin de l'année, je leur demande un rapport d'activité. On peut quand-même le noter comme un élément d'évaluation.’

E39 Monique (Maître E) A2 pp. 525

‘On doit remettre un compte rendu d'activités. C'est seulement quantitatif.’

E58 Anne-Marie (Psychologue scolaire) A2 p. 755

‘L'IEN nous demande chaque année une petite évaluation, l'année dernière il a demandé aux collègues combien d'enfants ils avaient suivi, il nous a demandés aussi de faire une petite analyse de l'âge des enfants qu'on avait vu, si c'était plus des garçons que des filles, plus des enfants de fin ou début d'année, voilà ça se limite à des choses comme ça. Je vais être inspectée alors là il me demande un rapport d'activité mais sinon, il ne me le demande pas tous les ans. Je trouve qu'effectivement il ne demande pas grand-chose en évaluation.’

Ce bilan peut également être croisé avec celui des directeurs d'école, chargés de détailler trimestriellement pour l'IEN le nom des élèves suivis par le réseau, la nature des difficultés et des aides proposées (contenu, fréquence, examens prévus etc.). Le danger d'une approche seulement quantitative est de se limiter à l'imaginaire d'un volume de travail "convenable", constitué par exemple pour un maître E d'une soixantaine d'élèves aidés par semaine sur un temps de 35 heures effectives (21 en présence d'enfants, 3 en synthèses, 9 en conseils ou rendez-vous avec les parents, professionnels extérieurs etc.). Dans ce cas, si les apparences ne sont pas conformes à la norme attendue - très variable d'un inspecteur à l'autre - les actions ne sont pas interrogées en tant que telles, mais soumises à une injonction de "rentabilité". Dans l'exemple ci-dessous, un maître G est appelé à aider entre quarante et cinquante élèves au minimum durant l'année scolaire, sans compter les enfants concernés par la prévention.

E01 Thomas (IEN) A1 p. 55

‘[Le rapport d'activité] peut me conduire à dire à la réunion de rentrée : " j'ai fait tel constat, il va falloir resserrer, notamment dire aux rééducateurs, il faudra prendre un peu plus d'enfants que ce que j'ai vu".’

Si cet aspect donne satisfaction, il engendre un mécanisme "d'hallucination positive" selon l'expression de Jacques Lévine 391 . Ce phénomène, très fréquent à tous les niveaux de l'éducation, "consiste à tenir pour réalisé ce qui reste à faire" 392 . L'IEN par exemple, emporté par son désir de se simplifier la tâche ou de nier les obstacles, peut reconnaître la qualité du travail effectué sans se donner les moyens de l'évaluer avec précision. Les enseignants, généralistes ou spécialisés, sont guettés par la même dérive. Leur efficacité est souvent un postulat crédité quelles que soient les méthodes employées. Or, il s'agit non seulement de faire la preuve des bénéfices apportés en termes d'éducation et d'humanisation mais aussi de montrer simultanément l'absence d'effets indésirables. Seule une évaluation exhaustive et négociée des actions entreprises peut permettre d'en comprendre les conséquences positives et négatives, de les infléchir, les transformer, voire d'en innover d'autres. Cette exhaustivité, issue impérativement d'un métissage entre aspects quantitatifs et qualitatifs, externes et internes, ne peut relever du bricolage personnel. Fruit d'une négociation entre supérieurs hiérarchiques et enseignants, elle relève d'un apprentissage 393 et requiert des moyens conséquents pour pouvoir être expérimentée sur un échantillonnage suffisant avant d'être généralisée.

Aujourd'hui la question de l'évaluation apparaît à la fois comme la cause et la conséquence d'une collaboration défectueuse. Ses défaillances laissent place en effet à une floraison d'opinions et de rumeurs non fondées qui attisent les conflits entre professionnels. Mais elles peuvent aussi résulter de l'inexistance d'un travail de recherche collective. La diversité des formations et des pratiques, n'a pas encore permis de définir de façon consensuelle ce qui est certain, valable, confirmé et ce qui l'est moins. Or, les avancées dans ce domaine ne peuvent être que le fruit d'une mise en commun collégiale de savoirs scientifiques et de savoirs-faire de terrain. L'invention de pratiques évaluatives simples et pertinentes permettrait de briser la dépréciation contagieuse dont les aides font actuellement l'objet. Celles-ci pourraient ainsi laisser leur gangue protectionniste et s'ouvrir à des innovations où l'humanisation de tous serait l'unique préoccupation.

Notes
367.

De KETELE J-M, ROEGIERS X. (1991) Méthodologie du recueil d'informations, Bruxelles, De Boeck

368.

IGEN 1987 Rapport Toraille et François n° 87-0185, Rapport sur le réseau d'aide aux élèves en difficulté – les groupes d'aide psycho-pédagogique et les classes d'adaptation

369.

Les résultats de cette évaluation ont été présentés en deux temps, sous la forme d'un rapport provisoire en 1985 et d'une publication en 1987 (IGEN 1987 Rapport sur le réseau d'aide aux élèves en difficulté – les groupes d'aide psycho-pédagogique et les classes d'adaptation, Rapporteurs R. Toraille et R. François n° 87-0185)

370.

IGEN Rapport GAPP n° 87-0185

371.

Ibid. Le texte précise aussi : "Cette diversité, comme toujours, est accentuée sur le terrain en fonction des appréciations des administrateurs départementaux et de la mise en œuvre pratique, souvent influencée par les conceptions des formateurs des centres de formation".

372.

Ibid. Le texte préfigure les points de dysfonctionnement des RASED actuels "Il serait utile de bien distinguer les actions dites d'adaptation de celles de rééducation" et de "renforcer la prise de conscience de la responsabilité du maître ordinaire dans le processus d'aide". De plus il est ajouté que "pour accentuer cette responsabilité du maître ordinaire, il faut réaffirmer que la pratique de l'examen de cas, en réunion de synthèse comprenant les membres du GAPP, le maître de la classe, le maître-directeur est une nécessité impérative ".

373.

Ibid. Les propositions sont nombreuses et très précises :

"- Mettre au point un document-guide à l'intention des inspecteurs départementaux, leur permettant de contrôler plus efficacement le travail des maîtres spécialisés concernés. Corrélativement, indiquer avec précision à ces maîtres les éléments d'appréciation – dossiers d'élèves, fiches diverses, cahiers de comptes rendus de synthèse, etc. – qu'ils seraient tenus de présenter aux inspecteurs

- Elaborer des guides d'évaluation destinés aux intervenants spécialisés – y compris les maîtres de l'option E – quelles que soient leurs fonctions.

- Inviter les centres de formation spécialisés à donner, dans les études et les travaux pratiques, toute leur importance aux processus d'évaluation à mettre en œuvre

- Elaborer les instruments d'une enquête annuelle, simple et relativement légère, permettant des observations, des évaluations, une régulation à différents niveaux."

374.

Ibid. Pour ce faire, la structure du dispositif, regroupant GAPP et classes d'adaptation, "est déterminée par l'inspecteur d'Académie, après consultation des organismes paritaires compétents. Il en établit le cadre géographique et il détermine les moyens mis à disposition, aux niveaux qualitatif et quantitatif". Une telle organisation doit contribuer à résoudre le problème de la dispersion des écoles et assurer une mobilité de l'affectation des moyens au plan départemental.

375.

IGEN Rapport 1996-97 DI 06 Les RASED : examen de quelques situations départementales, Rapporteur B. Gossot

376.

A cette date, les groupes d'aide psychopédagogique et des classes d'adaptation ont été réorganisés officiellement et transformés en réseaux d'aides spécialisées aux élèves en difficulté.

377.

LAURENT Evelyne (1990) Un rapport explosif sur les GAPP, in Le monde de l'Education, Décembre 1990 pages 52-53

378.

plus précisément l'IEN chargé de l'enseignement spécialisé de ce département

379.

Comme nous l'avons vu dans la partie historique, les textes de 1970 et 1976 assignaient trois missions aux GAPP : prévention des inadaptations, adaptation des élèves à l'école, rénovation de l'école.

380.

Circulaire de 1970

381.

HEUCHENNE C. (1993) Effet des erreurs de mesure sur l'évaluation de l'efficacité d'un traitement Revue Mathématique, Informatique et Sciences humaines, Vol 31, 122, 1993, pp. 5-9

382.

GLASMAN D. (1994) L'évaluation des soutiens scolaires hors école Migrants formation n°99 décembre 1994

383.

GRISAY A. (2001) Evaluer les dispositifs de prise en charge d'élèves faibles (ou forts) : l'utilisation de groupes naturels entraîne des artefacts Cahiers du service de Pédagogie expérimentale Université de Liège 7-8/2001 p. 129

384.

Le texte précise aussi : "l'évaluation semble être le point faible du dispositif départemental concernant les réseaux d'aides aux élèves en difficulté. Tout se passe comme si les inspecteurs d'Académie, après avoir présidé à la mise en place des réseaux et veillé à leur bonne gestion dans le cadre de la carte scolaire, estimaient leur mission accomplie et ne se souciaient guère de l'évaluation pédagogique globale du dispositif qu'ils ont créé, laissant aux inspecteurs de circonscription le soin de procéder à des évaluations locales et ponctuelles."

385.

IGEN, Rapport 1996-97 DI 06 Les RASED : examen de quelques situations départementales, Rapporteur B. Gossot

386.

EGRON B. (2002) L'évaluation des dispositifs de prise en charge des élèves en difficuleté scolaire La nouvelle revue de l'AIS n°20 4ème trimestre 2002 L'évaluation institutionnelle p. 83

387.

Le rapport précise : "D'une manière générale, on fait la même observation au niveau départemental, dans les circonscriptions et dans les réseaux : la définition des priorités n'a pas fait l'objet d'une réflexion suffisamment approfondie, l'énoncé de grands principes cachant mal un manque de rigueur et de méthode dans la recherche de critères pertinents pour déduire des stratégies d'actions prioritaires. Il est à craindre que pour ce travail préalable, essentiel à l'efficacité du fonctionnement des réseaux, on ait été beaucoup plus empirique que méthodique"

388.

La zone active désigne les écoles où intervient l'ensemble du RASED en opposition à la zone théorique couverte par le psychologue et délaissée momentanément par ses collègues en raison des priorités retenues.

389.

DE LANDSHEERE G. (1994) Le pilotage des systèmes d'éducation, Bruxelles, Ed. De Boeck, p. 90

390.

Olga me montre le projet de RASED où sont présentées et expliquées les diverses évaluations mises en œuvre. L'évaluation qualitative commune aux maîtres E et G est en particulier très structurée, avec des indicateurs concernant les acquisitions scolaires (maîtrise de la langue orale, structuration spatio-temporelle et motricité, lecture, production d'écrits, mathématiques) et les compétences comportementales à être écolier. De plus, la cohorte des enfants aidés est suivie tout au long de leur scolarité.

L'évaluation externe, outre des indicateurs classiques, évoque une enquête de satisfaction auprès des enseignants, encore à l'état d'ébauche au moment de l'entretien.

391.

LEVINE J. (1990) Rénovation : quelle formation des enseignants à la relation ? Conférence donnée à l'IUFM de Lyon, in CROUZIER M.F. Dossier documentaire de DEA1997-1998, Université Lyon 2, pp. 65-72

392.

Ibid.

393.

Le rapport de l'Inspection générale sur les RASED reconnaît clairement la difficulté d'un tel travail, à tous les niveaux de responsabilité. Il précise par exemple : "La définition des priorités déduites d'indicateurs précis relève d'un groupe de travail départemental. Si les inspecteurs d'Académie sont dans l'impossibilité de faire fonctionner un tel groupe, ils doivent faire appel à des équipes de laboratoires universitaires spécialisés afin de mener à bien ce travail technique."