Thèse de doctorat (2022)
Document en libre accès dans PolyPublie |
|
Libre accès au plein texte de ce document Conditions d'utilisation: Tous droits réservés Télécharger (29MB) |
Résumé
La sûreté des réacteurs nucléaires repose en partie sur des prédictions issues de simulations numériques. Leurs incertitudes doivent donc être évaluées. En neutronique, ces incertitudes sont, à ce jour, estimées à partir des écarts entre les mesures existantes et les simulations correspondantes. Ce procédé inhabituel en sciences aboutit à des fragilités dans l’estimation des incertitudes. Par exemple, une nouveauté pourrait induire plus d’écarts que ceux vus dans le retour d’expérience. De plus, dans certains cas (courants), ces incertitudes sont basées sur des écarts entre des mesures et des simulations ajustées, c’est-à-dire réalisées après avoir eu connaissance des mesures et en forçant les simulations au plus près des mesures. L’écart résiduel aboutit donc à considérer des incertitudes comprimées. Cette méthode d’évaluation des incertitudes peut donc être améliorée. Pour gagner en robustesse, l’approche proposée est de revenir aux fondamentaux : les sources d’erreurs des simulations. Pour ces travaux, elles sont principalement de deux types : — d’une part, les erreurs dues aux approximations physiques et numériques, regroupées sous le terme de « biais déterministes » ; — d’autre part, les incertitudes des constantes universelles gouvernant les interactions entre neutrons et noyaux, qui sont non négligeables en physique nucléaire. Ces incertitudes de données nucléaires, provenant de la physique nucléaire, sont propagées par une méthode de Monte-Carlo, exempte d’approximation, jusqu’aux simulations de physique des réacteurs nucléaires. Cette technique se révèle industrialisable en l’état. De plus, des propagations d’incertitudes ont été réalisées avec des méthodes approximatives, touchées par les biais déterministes, et par des méthodes de référence quasi exactes. La comparaison des deux a permis cette découverte centrale : pour des variations de données nucléaires correspondant typiquement à leurs incertitudes, les biais déterministes peuvent être considérés constants. D’apparence anodine, cet excellent accord permet une économie substantielle, mettant à portée l’évaluation de toutes les sources d’erreurs. En effet, les différents échantillons (Monte-Carlo) de données nucléaires peuvent être propagés avec des méthodes approximatives, puis tous corrigés à l’aide d’une seule solution de référence. Cette méthode originale, en double approche, permet de bénéficier du meilleur des méthodes quasi exactes et du meilleur des méthodes approximatives. Elle trouve une application toute particulière dans la suite de cette thèse. En effet, au-delà de ce premier thème portant sur la propagation d’incertitudes, un deuxième thème – étroitement lié – est abordé dans cette thèse : celui des ajustements aux mesures. Il est légitime de considérer que les outils de calcul scientifiques doivent reproduire les mesures réalisées expérimentalement sur des réacteurs bel et bien réels. Cependant, les ajustements standards reposent sur des bases fragiles, c’est-à-dire sur des compensations entre des erreurs de différentes natures. Par conséquent, ces compensations ne sont pas universelles. L’extrapolation n’est donc pas idéale, que ce soit pour l’introduction de nouveautés industrielles ou pour prévenir d’hypothétiques accidents. Par ailleurs, ces ajustements standards ne permettent pas d’évaluer des incertitudes ; la question des incertitudes est absente dans ces ajustements. Pour répondre à cette double problématique, une méthode novatrice d’ajustement bayésien est proposée, en s’appuyant sur un paradigme plus complet. Elle se base sur la technique imaginée lors de l’exploration du premier thème, pour éliminer les biais déterministes et ne conserver que les incertitudes dues aux données nucléaires. Suite à cela, la méthode « Backward-Forward Monte-Carlo » (BFMC), provenant de la physique nucléaire, est mise à contribution. Parmi les données nucléaires plausibles, sont jugées les plus vraisemblables celles en meilleur accord avec des mesures expérimentales réalisées sur des réacteurs. Les incertitudes de données nucléaires sont réduites de manière mesurée, sans montrer de signes de surajustement. En mobilisant une connaissance physique et universelle des causes profondes des erreurs, l’ensemble des méthodes exploitées dans cette thèse présentent des arguments solides, pouvant prétendre à une meilleure capacité d’extrapolation par rapport aux méthodes standards d’évaluation des incertitudes et d’ajustement. Par ailleurs, ces travaux de recherche mènent à recommander : (1) de renoncer à dériver, à partir de mesures, des quantités non mesurables (comme la puissance déposée localement) lors des comparaisons entre simulations et mesures, mais plutôt de simuler directement les quantités réellement mesurées par les capteurs et de s’y comparer ; (2) d’évaluer systématiquement les incertitudes technologiques et de mesures touchant les réacteurs nucléaires, avec une attention appuyée lors de leurs tous premiers démarrages ; (3) de mener une réévaluation décennale des incertitudes des outils de calcul scientifique, à l’instar des réexamens périodiques (décennaux) des installations nucléaires, pour tenir compte de l’évolution des connaissances. Enfin, ces travaux sont menés avec une attention particulière quant à leurs reproductibilités, par la mise à disposition des données et logiciels produits.
Abstract
Nuclear reactors safety relies partly on predictions from numerical simulations. Their uncertainties must therefore be evaluated. In reactor physics, these uncertainties are nowadays estimated on the basis of the differences between existing measurements and the corresponding simulations. This approach – unusual in science – leads to weaknesses in the estimation of uncertainties. For example, a novelty could induce more deviations than those seen in the past. Moreover, in some (common) cases, these uncertainties are based on differences between measurements and adjusted simulations, i.e. carried out after the measurements and by forcing the simulations as close as possible to the measurements. The residual deviation thus leads to consider compressed uncertainties. This method of evaluating uncertainties can therefore be improved. To further increase robustness, the proposed approach is to go back to the basics : the sources of errors in the simulations. For this work, they are mainly of two types : — on the one hand, the errors due to physical and numerical approximations, lumped together under the term “deterministic biases” ; — on the other hand, the uncertainties of the universal constants governing the interactions between neutrons and nuclei, which are not negligible in nuclear physics. These nuclear data uncertainties, stemming from nuclear physics, are propagated by an approximation-free Monte-Carlo method through reactor physics simulations. This technique proves to be industrializable as it is. Moreover, uncertainty propagations have been performed with approximate methods, affected by deterministic biases, and with quasi-exact reference methods (Monte-Carlo transport). Comparison of the two led to this central finding : for variations in nuclear data typically corresponding to their uncertainties, the deterministic biases can be considered constant. Although seemingly insignificant, this excellent agreement allows a substantial saving, bringing the evaluation of all sources of error within reach. Indeed, the different (Monte-Carlo) samples of nuclear data can be propagated with approximate methods, and then corrected at once with a single reference solution. This original dual approach method allows to benefit from the best of quasi-exact methods and from the best of approximate methods. It finds a particular application in the remainder of this thesis. Indeed, beyond this first theme concerning the propagation of uncertainties, a second theme – closely related – is addressed in this thesis: adjustments to measurements. It is legitimate to consider that scientific computational tools should reproduce measurements performed experimentally on real reactors. However, the most common adjustment method is based on fragile foundations, i.e. on compensations between errors of different natures. Consequently, these compensations are not universal. Extrapolation is therefore not ideal, either for the introduction of industrial innovations or to prevent hypothetical accidents. Moreover, these standard adjustments do not assess uncertainties ; the question of uncertainties is absent in these adjustments. In order to address these two issues, an innovative Bayesian adjustment method is proposed, relying on a more complete paradigm. It is based on the technique devised during the exploration of the first theme, to eliminate the deterministic biases and retain only the uncertainties due to the nuclear data. Following this, the “Backward-Forward Monte-Carlo” (BFMC) method, coming from nuclear physics, is brought to bear. Among the plausible nuclear data, those in better agreement with experimental measurements on reactors are considered the most likely. The uncertainties of nuclear data are reduced in a balanced way, without showing signs of overfitting. By mobilizing a physical and universal knowledge of the root causes of errors, the ensemble of methods exploited in this thesis present strong arguments, that can claim a better extrapolation capability than standard methods of uncertainty evaluation and adjustment. Furthermore, this research leads to recommend : (1) to renounce deriving, from measurements, non-measurable quantities (such as locally deposited power) when comparing simulations and measurements, but rather to directly simulate and compare the quantities actually measured by the detectors ; (2) to systematically evaluate the technological and measurement uncertainties affecting nuclear reactors, with particular attention to their very first start-ups ; (3) to carry out a decennial reassessment of the uncertainties of scientific calculation tools, in the manner of the French periodic (decennial) reviews of nuclear installations, to account for the evolution of knowledge. Finally, this work is carried out with particular attention to its reproducibility, by providing the data and software produced.
Département: | Département de génie physique |
---|---|
Programme: | Génie nucléaire |
Directeurs ou directrices: | Alain Hébert |
URL de PolyPublie: | https://publications.polymtl.ca/10545/ |
Université/École: | Polytechnique Montréal |
Date du dépôt: | 22 mars 2023 16:19 |
Dernière modification: | 27 sept. 2024 09:19 |
Citer en APA 7: | Salino, V. (2022). Incertitudes et ajustements de données nucléaires au moyen de méthodes déterministes, probabilistes et de mesures effectuées sur des réacteurs à eau sous pression [Thèse de doctorat, Polytechnique Montréal]. PolyPublie. https://publications.polymtl.ca/10545/ |
---|---|
Statistiques
Total des téléchargements à partir de PolyPublie
Téléchargements par année
Provenance des téléchargements