4.2.3 La saisie, le dépouillement et l’analyse des données

Nous avons envoyé le questionnaire par voie postale à 264 Bibliothèques françaises au cours du mois de décembre 2000 et avons obtenu un total de 141 questionnaires complétés. Le meilleur taux de réponses obtenu concerne les Bibliothèques publiques (63% soit 89 Bibliothèques) suivi des Bibliothèques d’universités (26% soit 37 Bibliothèques) et des Bibliothèques de grands établissements (11% soit 15 Bibliothèques).

Pour saisir et dépouiller les questionnaires retournés, nous avons utilisé le logiciel Sphinx Primo 2000 (version 3.0) au moyen duquel nous avons effectué des opérations de codage, de croisement et de combinaison :

Nous avons procédé au codage des questions 10, 13, 15 et 18 qui a consisté précisément à attribuer des valeurs numériques aux énoncés pour les classer par ordre décroissant. Ce classement nous a permis d’identifier les aspects prioritaires (i.e. les plus importants) et les habitudes prédominantes en Bibliothèque concernant la politique de gestion, le niveau de performance, les sources d’information et de référence ainsi que les types d’évaluation qui sont en vigueur.

Nous avons effectué plusieurs croisements notamment pour relever les missions et les indicateurs de performance qui sont communs aux Bibliothèques publiques et aux Bibliothèques universitaires. Nous avons aussi effectué des croisements entre les méthodes de collecte utilisées en Bibliothèque d’une part, et la périodicité et les personnes chargées de leur mise en œuvre d’autre part. Nous avons par ailleurs, croisé les problèmes posés par les SIGB et les fonctionnalités souhaitées par le bibliothécaire, le but étant de dégager les causes à effet.

Nous avons opéré des combinaisons de plusieurs critères déterminant les possibilités technologiques à envisager dans le SIAD. Ces combinaisons concernent le traitement des données (données internes et externes) d’une Bibliothèque, le paramétrage des indicateurs de performance et des résultats d’évaluation.

Lors du dépouillement du questionnaire, nous avons relevé un certain nombre de questions restées sans réponses (voir tabl. 9). D’abord, nous avons constaté que les non-réponses concernent essentiellement les questions qui demandent de la part du répondant, plus d’effort pour donner des informations supplémentaires et/ou expliquer son point de vue. C’est le cas notamment des questions 23, 25, 31 et 32.

Quant aux questions portant sur les normes, la périodicité et les outils d’évaluation en vigueur, le taux d’abstention est relativement important puisqu’il a dépassé les 50%. Afin d’établir une corrélation entre les moyens d’une part et la pratique d’évaluation d’une part, nous avons demandé aux répondants de nous fournir des données statistiques relatives à l’évolution de leurs ressources et de leurs publics desservis durant ces deux dernières années (1998/1999 et 2000/2001).

En dépouillant les questionnaires, nous nous sommes rendu compte que le taux de non-réponses à notre question est relativement élevé. Comme nous allons l’expliquer dans la partie ci-dessous, la connaissance du profil du répondant et de sa responsabilité dans la Bibliothèque était pour nous indispensable pour expliquer à chaque fois les raisons des non-réponses.

Tabl.9 : La répartition des non-réponses
Les informations demandées Les non-réponses
(%)
Le volume de ressources classiques
L’usage des ressources électroniques
Le pourcentage d’usagers actifs par rapport à la population à desservir
Les personnes responsables de l’évaluation
L’utilisation d’un plan de développement des collections
L’utilisation de tableaux de bord
Le recours à un audit qualité
L’utilisation d’un système automatisé pour la collecte de données
La satisfaction par rapport au système utilisé
Le recours aux normes ISO 11620 et 2789
Les problèmes rencontrés dans la pratique d’évaluation
Les points de vue concernant l’échange entre Bibliothèques
32
entre 62 et 63
35

12,9
61,4
65,9
90.9
20,5
19,7
88,6
12,1
15,2 et 17