Nous adoptons précisément l’enquête par questionnaire. Ce choix est motivé par le fait que le questionnaire permet d’intégrer différents types de questions par le biais desquelles nous pouvons sonder le terrain et procéder à de nombreuses analyses et corrélations.
Le but de cette enquête quantitative est d’avoir une vue d’ensemble qui soit proche de la réalité de la pratique d’évaluation dans les Bibliothèques françaises et des attentes des bibliothécaires.
En établissant le questionnaire, nous avons intégré les aspects concernant le cadre de la pratique de l’évaluation (profil de l’évaluateur, caractérisation de l’organisation de la Bibliothèque, de son public et de ses ressources documentaires) et ceux décrivant la pratique elle-même, les problèmes à lever et les manières de les résoudre.
Le questionnaire est articulé autour de six volets :
Notre questionnaire donné en annexe 791 comporte donc 34 questions dont 27 sont des questions fermées et 7 semi-directives.
Dans la formulation des questions, nous avons pris en compte la différence des niveaux de formation et de connaissances des bibliothécaires quant aux concepts de l’évaluation. C’est pourquoi, nous avons choisi d’utiliser surtout dans les questions 13, 15 et 17 des expressions simples pour représenter les quatre critères d’évaluation (à savoir l’efficacité 792 , l’efficience 793 , la pertinence 794 et l’impact 795 ) et les deux types du benchmarking 796 . C’est pour cette même raison que nous avons fourni la liste des indicateurs de performance. Celle-ci nous l’avons construite en s’appuyant sur la norme ISO 11620, sur la matrice établie par J. Sumsion pour le projet DECIDE et sur les derniers travaux de CERLIM réalisés pour le projet EQUINOX. Par cette liste, nous ne souhaitons pas savoir si les Bibliothèques se servent effectivement de ces indicateurs normalisés 797 , mais nous cherchons à cerner les principaux indicateurs qui seront valables aussi bien pour les Bibliothèques publiques que pour les Bibliothèques universitaires.
Pour éviter tout amalgame, nous avons aussi défini dans la question 11 chaque mission pouvant être sélectionnée par le répondant. Nous avons par ailleurs, précisé la distinction entre « les usagers inscrits » et les « usagers actifs » dans les questions 6 et 7. A la différence du premier, l’usager actif est selon la norme ISO 2789, « un usager entré à la Bibliothèque ou ayant utilisé son équipement ou ses services au cours de la période de référence » 798 . Cette définition prend en compte l’usage à distance des services et des ressources de la Bibliothèque. Enfin, pour une bonne appréciation de l’organisation des Bibliothèques françaises, nous avons demandé aux répondants dans les questions 10, 13, 15 et 17 de classer par ordre d’importance leurs objectifs, leurs performances et leurs sources d’information.
Pour s’assurer de l’adéquation entre le contenu des questions et les préoccupations et pratiques des bibliothécaires, nous avons demandé à trois dirigeants de Bibliothèques de répondre au questionnaire et de souligner le cas échéant, les problèmes concernant surtout la terminologie utilisée, la formulation des questions ainsi que la longueur du questionnaire. Cette consultation nous a conduit à présenter certaines questions sous forme de tableaux pour assurer une meilleure lisibilité ; elle nous a permis d’ajouter en bas du questionnaire des explications et des définitions pour lever toute ambiguïté.
voir annexe 3
L’efficacité est désignée dans la question 13 par les variables suivants : meilleure satisfaction du public, meilleur niveau culturel et intellectuel des collections et du personnel en contact avec le public, meilleur rotation des documents et meilleur usage des installations.
La variable utilisée dans la question 13 à savoir meilleur rapport coût-efficacité correspond pour nous à l’efficience
La pertinence est représentée dans la question 13 par les deux variables suivantes : disponibilité des ressources documentaires de la Bibliothèque et disponibilité du personnel pour l’accueil du public.
Meilleur pourcentage d’inscrits au regard de la population à desservir et meilleurs effets sur la formation, la culture, l’emploi et le développement culturel nous renvoient à l’impact.
Dans la question 15, le benchmarking externe est représenté par les deux variables « moyenne des résultats de Bibliothèques de même type » et « meilleurs résultats obtenus par d’autres Bibliothèques ou organismes comparables » alors que la variable « meilleurs résultats obtenus en des domaines comparables avec d’autres organisations » nous renvoie au benchmarking générique.
Ce type de question a été déjà abordé par A. G-Billon et T. Giappiconi dans leur enquête pour la section des Bibliothèques publiques de l’IFLA .
cité par T. Giappiconi, op. cit., 2001, p. 94.