D’après A Kupiec 646 , l’approche d’évaluation des Bibliothèques en France était empirique dans la plupart des cas malgré l’abondance des manuels. Certains estiment que ces manuels n’ont pas connu un grand succès en raison de l’instrumentation utilisée à l’époque par ces Bibliothèques. Celles-ci n’étaient pas en fait, suffisamment équipées pour mettre en œuvre des indicateurs de performance 647 . D’autres, tel que R. Ducasse, estiment que si la France est en retard en matière d’évaluation par rapport aux anglo-saxons, c’est en raison de son manque de connaissance en techniques d’évaluation.
Cependant, nous pensons que ce retard qui ne concerne pas uniquement les Bibliothèques françaises surtout dans les années 1980 648 pourrait trouver sa justification dans le contenu même des manuels d’évaluation qui existaient à l’époque. D’une part, nous constatons une quasi absence de manuels en langue française 649 . D’autre part, nous notons quelques dissemblances entre les manuels publiés par les anglo-saxons durant cette période.
Nous notons d’abord, le travail isolé des organismes de normalisation qui avait comme conséquence la multiplicité des manuels dont le contenu paraissait tantôt redondant tantôt incompréhensible : La plupart des manuels d’évaluation s’accommodaient à des Bibliothèques de tailles et de typologies bien particulières car ils étaient édités par plusieurs associations nord-américaines. Certains manuels étudiaient le cas des Bibliothèques universitaires 650 tandis que d’autres étaient destinées exclusivement aux Bibliothèques publiques. L’Association des Bibliothécaires Américains avait publié en 1987 deux manuels complémentaires au profit des Bibliothèques publiques. « Planning role setting for public libraries » 651 et « output measures for public libraries » 652 .
Dans le premier manuel, à savoir « « Planning role setting for public libraries », on propose des procédures simples pour mettre en place un système de planification. En cela, on fournit une liste plus ou moins exhaustive des missions qu’une Bibliothèque publique peut remplir, à partir desquelles, on propose des méthodes simples pour la révision du système.
Le manuel « output measures for public libraries » définit d’abord, les notions de mesure et d’indicateur. Puis, il présente la liste des indicateurs d’action classés selon quatre catégories 653 . Enfin, le manuel précise pour chaque indicateur la procédure à suivre pour recueillir les données nécessaires à la mesure des résultats de l’établissement (depuis le choix de l’échantillon représentatif et de la période de collecte jusqu’à l’analyse des données).
En 1990, un autre manuel de procédures standardisées destiné aux Bibliothèques publiques était publié. Il s’agit de « Keys to success » 654 dans lequel on définit 21 mesures et 16 indicateurs de performance répartis dans 4 catégories 655 . Malgré l’aspect informatif de ces manuels, leur apport était contesté à cause de la multiplicité des terminologies 656 proposées d’une part, et de la difficulté de mettre en œuvre certaines procédures, d’autre part.
En conséquence du manque de coopération entre les associations, les mesures et les indicateurs proposés étaient souvent confus puisqu’ils changeaient de sens et de rôles d’un manuel à l’autre. En outre, certains exemples de procédures fournis pour le recueil et l’analyse des données avaient un caractère obsolète. Nous constatons que les données chiffrées figurant dans certains manuels d’évaluation ne correspondaient pas à la réalité des Bibliothèques. Celles-ci voyaient leurs collections documentaires et leur public augmenter et la gestion de leur personnel se compliquer alors que les exemples fournis par les manuels étaient presque immuables. A vrai dire, les valeurs données comme points de repère (nombre de l’échantillon représentatif minimal, services, etc.) étaient rarement revues. En cela, elles pourraient dérouter la démarche évaluative des bibliothécaires.
Le manque de clarté et de précision est un autre argument avancé par certains qui ont critiqué les manuels d’évaluation publiés à la fin des années 1970 et au début des années 1980. C. abbott 657 par exemple, remet en cause la prédominance de l’approche théorique dans les manuels d’évaluation qui ont avantagé la définition des notions de base, relatives à l’évaluation au détriment de la description concise et simple de la démarche à suivre pour sa mise en œuvre. Dans ce sens, A. Kupiec souligne que les consignes et les recommandations des manuels sont peu significatives : les Bibliothèques cherchaient des moyens pour résoudre, cas par cas, les problèmes inhérents à leur mode de gestion alors que les manuels proposaient des indicateurs « d’un niveau de généralité excessif et souvent frustrant » 658 .
Ensuite, nous remarquons que dans plusieurs manuels d’évaluation, on focalise l’attention sur l’étude de l’efficacité des services offerts et on met surtout l’accent sur la question de la satisfaction de l’usager. C’est l’exemple typique des manuels édités par l’ALA 659 qui ont tendance à décrire rapidement les activités techniques et intermédiaires menées par les Bibliothèques pour rendre les services aux usagers et s’attardent beaucoup dans la description des méthodes d’évaluation de l’efficacité au détriment du contrôle de la gestion et de l’efficience.
En aucun cas, ces critiques passées en revue ne remettent en cause l’intérêt pédagogique des manuels d’évaluation publiés dans les années 1980 pour les Bibliothèques anglo-saxonnes. Cependant, elles témoignent du cheminement de la recherche et de l’expérience en matière d’évaluation des Bibliothèques ; elles démontrent que le cadre normatif de l’évaluation des Bibliothèques en était à ses premiers balbutiements.
Compte tenu de leur caractère officiel, les manuels d’évaluation avaient constitué une référence non négligeable dans les pays anglo-saxons. Leur disponibilité croissante avait contribué à la sensibilisation des bibliothécaires aux concepts et aux méthodes d’évaluation ; elle avait mis en lumière les avantages de la mise en place d’un système de planification pour une Bibliothèque et avait montré comment intégrer l’évaluation dans ce système pour en assurer une meilleure gestion de l’établissement.
Par ailleurs, la mise à jour plus ou moins régulière des éditions officielles témoigne de l’évolution de la réflexion des experts ayant participé à leur élaboration. Ces derniers ont élaboré de nouveaux ouvrages qui constituent donc, une sorte d’extension et de mise à jour des manuels cités plus haut.
A. Kupiec, op. cit. 1994.
S Ward, op. cit., 1995.
Plusieurs travaux décrivant la situation des Bibliothèques anglo-saxonnes montrent que très peu de bibliothécaires souhaitaient utiliser les indicateurs normalisés par crainte d’être critiqués. Nous pouvons citer les ouvrages de L.S. Baker et F.W. Lancaster (portant le titre « The measurement and évaluation of library services ») et de C. Abott (intitulé « Performance measurement in library and information services ») dans lesquels on souligne que les bibliothécaires nord-américains n’étaient pas formés aux concepts d’évaluation et de planification et qu’ils n’avaient pas acquis des connaissances en matière de recueil et d’analyse de données.
En 1989, un avant-projet de manuel en langue française a été publié par l’UNESCO pour mesurer les performances des Bibliothèques publiques. Il a fait l’objet en 1987 d’une intervention dans le cadre de la conférence de l’IFLA en 1987. Aucune édition définitive n’a suivi cette édition.
Citons parmi les plus connus, les manuels “Measuring academic library performance” publié par l’ALA en 1990 et “The effective academic library” édité par l’HEFCE en 1995.
N.A Van House et al. Planning role setting for public libraries, London, ALA, 1987, 117p..
N.A. Van House, et al. Output Measures for Public Libraries: a manual of Standardized Procedures, 2ed., Chicago: ALA, 1987, 99p. .
à savoir utilisation de la Bibliothèque, utilisation de son offre documentaire, accès à cette offre, évaluation du service de référence et évaluation des formations organisées dans la Bibliothèque.
King Research, Ltd., Keys for success : Performance indicators for public libraries, 1990.
Il s’agit d’indicateurs d’impact, d’efficacité, de coût-eficacité et de performance opérationnelle.
Citons à titre d’exemple, l’efficience qui apparaît dans des variantes et sous des appellations diverses. Dans le manuel « The effective academic library » édité par l’HEFCE en 1995, on distingue les indicateurs d’économie et les indicateurs d’efficience. Pour les auteurs de ce manuel, l’efficience consiste à comparer le nombre des services rendus par rapport aux ressources déployées, alors que l’économie relie les ressources de la Bibliothèque au public. Dans le manuel « The measurement and evaluation of library services » de L.S Baker et F.W. Lancatar , on propose trois notions : cout-efficacité, coût-avantage et coût-avantage-performance.
C. Abott, Performance measurement in library and information services, London : C. Abott, 1994, 57p.
A. Kupiec, op. cit., 1994.
Parmi ces manuels, nous pouvons citer deux édités en 1990 à savoir « The measurement and evaluation of library services » de S.L. Baker et F.W. Lancaster et « Measuring academic library performance » de N.V. House, C. McClure et B.T. Weill. Dans ces manuels, sont décrits de façon détaillée les critères d’évaluation de la satisfaction de l’usager et de la disponibilité et l’utilisation de l’offre documentaire. Par contre, l’évaluation de l’efficience a été signalée sans donner des indications précises pour sa mise en oeuvre.