10.3.4. L'opposition d’EDF à l’introduction de critères probabilistes

EDF s'oppose en effet résolument à l'introduction de critères probabilistes dans la réglementation : compte tenu, d’une part, des incertitudes liées à l’évaluation des probabilités d’occurrence des événements rares et, d’autre part, des difficultés liées à la faisabilité des dispositifs présentant un taux de défaillance très bas (du fait notamment de l’existence de défaillances de mode commun), EDF estime qu'il est très difficile de fixer un critère global d’acceptation du risque qui ait un sens industriel. Du point de vue de l'électricien, la recommandation visant à fixer à 10-6 par an le seuil global par tranche et à 10-7 par an le seuil minimal par famille de situations au-delà duquel l’installation doit être dimensionnée afin de ne pas être à l’origine de conséquences inacceptables, paraît peu fondée. L'exploitant s'appuie notamment sur la valeur de 6.10-5/an de probabilité de fusion du cœur avancée par le rapport WASH 1400 pour rejeter un tel critère : il faudrait diviser par soixante au minimum cette probabilité pour atteindre 10-6 si l'on considère que la fusion est inacceptable.

Outre les questions de fond sur lesquelles nous revenons plus loin, l'opposition d'EDF, mais également des constructeurs, s'explique aisément par le contexte de multiplication des obligations réglementaires, à l'étranger mais également en France. Les industriels se voient confrontés à des critères de sûreté, des guides plus ou moins obligatoires, des contrôles toujours plus nombreux. Or ces réglementations entraînent une forte augmentation des coûts d’investissements et d’exploitation, c'est pourquoi les industriels peuvent craindre que cette nouvelle génération de réglementation, à base probabiliste, vienne se superposer aux procédures en cours. Ils craignent que cela ne les empêche de stabiliser, rationaliser les fabrications et le fonctionnement, et qu'ils ne puissent obtenir un nombre suffisant de produits identiques.

Pour EDF, la situation est particulièrement délicate : depuis 1974, six réacteurs par an ont été commandés, et en 1977, ce sont près d'une vingtaine de tranches qui sont en construction, dont aucune ne fonctionne encore. Les responsables d'EDF redoutent que l'introduction d'une nouvelle règle du jeu ne perturbe le déroulement du programme, cette opération choc qui avait été définie au plus haut niveau par le premier ministre et qui était menée comme une opération de guerre. Les critères, mais également les études probabilistes que l'on envisage, sont donc considérés par les industriels, et même par certains spécialistes du Département de Sûreté Nucléaire du CEA chargés de l'analyse de la sûreté, comme quelque chose de dangereux, dans la mesure où cela pourrait compromettre le programme et le planning du programme d'équipement nucléaire. Il est un fait également qu'EDF, ou même le DSN du CEA, ne disposent pas nécessairement des moyens supplémentaires à allouer à ce type d'études, submergés qu'ils sont par les études de conception pour le SEPTEN, ou par les analyses des dossiers de sûreté d'EDF pour le DSN.

Mais l'opposition d'EDF n'est pas motivée que par des impératifs matériels ou économiques. D'un point de vue méthodologique également, les études probabilistes ne sont pas jugées comme un outil efficace pour réduire réellement le risque. Pierre Bacher, directeur du SEPTEN, s’il est un partisan de l’outil probabiliste comme outil d’analyse, s’oppose à un usage réglementaire de critères probabilistes. Pierre Bacher déclare lors d'un débat au cours d'un séminaire sur la fiabilité que «la connaissance pratique des événements rares ne sera pas améliorée par l'expérience d'exploitation des centrales dans les dix prochaines années. Dans le cadre des réacteurs à eau, l'étude des séquences accidentelles ne présente pas d'intérêt pour EDF.» 650 Pierre Bacher explique les raisons qui font que pour les concepteurs, cette méthode ne peut guère être opératoire, tout au plus utile pour repérer certaines faiblesses à la conception : “Dans les années 76-77-78, on a commencé à faire en France, au SEPTEN que je dirigeais à l'époque, des études probabilistes sur les centrales françaises, et on a vu - d'ailleurs on l'avait lu dans le rapport de Rasmussen - qu'effectivement il y avait quelques domaines qui étaient des points faibles de nos installations, qui d'ailleurs avaient été identifiés comme des points faibles de la centrale de Surry. Et on a amélioré, sur ces points, en particulier l'alimentation en secours des générateurs de vapeur. Mais admettons qu'il y ait une dizaine de familles de scénarios d'accidents conduisant à la fusion du cœur, on en a amélioré une ou deux, puis il en restait sept ou huit qu'on n'avait pas améliorées. Et globalement, on a gagné quelque chose, mais supposez que vous ayez huit familles dont chacune conduise à une probabilité de fusion de cœur de 10-5, la somme c'est 8. 10-5, et 2 dont la probabilité est 2.10-5, et non pas une fois 10-5, vous rajoutez ces deux-là vont peser pour 4 au lieu de pour 2, donc vous êtes à 1,2 10-4 au total ; évidemment le concepteur va chercher à améliorer les deux plus mauvais donc il va essayer de les ramener de 2 à 1, donc de gagner un facteur 2 sur chacun d'entre eux. Et au total vous allez passer de 1,2 10-4 à 1.10-4, vous ne changez pas l'ordre de grandeur. Vous avez fait un travail utile, incontestablement, mais vous ne changez pas l'ordre de grandeur. Si vous voulez gagner un facteur 10, il faut prendre une approche totalement différente : il ne suffit pas de gommer les deux points qui dépassent du bruit de fond, il faut descendre dans le bruit de fond et aller rechercher toutes les causes qui y contribuent, et cela c'est un autre problème. C'est ce qu'on a fait ensuite. Quand on est passé au palier 1300, on a repris à zéro en se basant sur les connaissances qu'on avait acquises dans la décennie précédente, et on a cherché à améliorer partout, de façon à gagner sinon un facteur dix, au moins un facteur trois ou quatre, et pas seulement 20%.” 651

C'était en effet une des conclusions du rapport Rasmussen que de montrer qu’il y avait de nombreux chemins différents pouvant conduire à des accidents menant à la fusion du cœur. On pouvait donc tirer du rapport Rasmussen des conclusions plutôt pessimistes quant aux possibilités d'améliorations a posteriori en matière de sûreté de cette filière de réacteurs. A moins qu'un nombre réduit de scénarios aient eu des probabilités significativement plus importantes que celles prévues dans le rapport, il pouvait apparaître 652 difficile de réduire le risque d’un facteur significatif, 100 par exemple, en essayant de réduire la probabilité de ces quelques événements plus susceptibles de conduire à la fusion du cœur. De plus, à cause des incertitudes provenant des défaillances de mode commun, les concepteurs ne pouvaient qu'être confrontés à des difficultés supplémentaires pour accomplir avec confiance des réductions majeures dans les probabilités d’accident, étant donné qu'elles étaient déjà très faibles.

Notes
650.

Llory Michel, «Utilisation des méthodes probabilistes dans l'aéronautique et le domaine nucléaire. Compte rendu de la journée organisée le 30 janvier par la Section Sûreté-Environnement de la Société Française d'Energie Nucléaire», Revue Générale Nucléaire, N°4, juillet-août 1979, pp. 399-410. La citation de Pierre Bacher est extraite du compte rendu du débat sur les perspectives du développement des études probabilistes, p. 410.

651.

Entretien avec Pierre Bacher.

652.

Cf. Okrent David, Nuclear Reactor Safety. On the History of the Regulatory Process, The University of Wisconsin Press, Madison, 1981 p. 318.