Votre recherche
Résultats 19 ressources
-
Abstract: In Canada, the annual runoff is predominantly influenced by snowmelt following the winter season, with a substantial portion (40-80\%) occurring during the spring period, leading to flooding in low-lying areas. Accurate prediction of streamflow is essential for hydropower production, effective flood management, necessitating the incorporation of comprehensive spatially distributed snow observations into hydrological models. This draws the attention to the research question " How can we utilize spatially distributed snow information at various spatial and temporal scales to enhance our understanding of snow processes and apply it for enhanced model calibration to improve hydrological model performance?" The first objective of this thesis is to investigate the utilization of spatially distributed snow information (SNODAS- SNOw Data Assimilation System) for the calibration of a hydrological model and to determine its impact on model performance. A distributed hydrological model, HYDROTEL, has been implemented in the Au Saumon River watershed using input data from ERA-5 Land for temperature data and MSWEP for precipitation data. Seven different calibration experiments are conducted, employing three different objective functions: Nash-Sutcliffe Efficiency (NSE), Root Mean Square Error (RMSE), and the SPAtial EFficiency metric (SPAEF). These objective functions are utilized individually or in combination as part of multi-objective calibration processes. This study indicates that utilizing SPAEF for spatial calibration of snow parameters improved streamflow prediction compared to the conventional practice of using RMSE for calibration. SPAEF is further implied to be a more effective metric than RMSE for both sequential and multi-objective calibration. During validation, the calibration experiment incorporating multi-objective SPAEF exhibits enhanced performance in terms of NSE and KGE compared to calibration experiment solely based on NSE. The findings of this study hold significant relevance and potential applicability in emerging satellite technology, particularly the future Terrestrial Snow Mass Mission (TSMM). The study then explores the impact of temporal resolution and signal saturation for model calibration by using SNODAS data as proxy SWE observations mimicking the characteristics of the TSMM product to calibrate the HYDROTEL model. Despite the limitations of it's temporal resolution and signal saturation it is noteworthy that TSMM data exhibits significant potential for enhancing model performance thereby highlighting its utility for hydrological modeling. This study then focuses on the spatio-temporal analysis of snow processes influencing the spatial variability and distribution of snow depth in a small-scale experimental watershed. Drone photogrammetry is employed to capture spatially distributed snow information over the watershed during the winter seasons of 2022 and 2023. The photogrammetric data facilitated the generation of high-resolution digital surface models (DSMs). Empirical Orthogonal Function (EOF) analysis is applied to understand the spatial distribution of snow, enabling a detailed examination of various snow processes at the watershed scale. This thesis explores the added value of spatially distributed snow cover information in predicting spring runoff. Each part of the study contributes to a comprehensive understanding of the spatial distribution of snow and its significance in hydrology.
-
Natural calamities like floods and droughts pose a significant threat to humanity, impacting millions of people each year and incurring substantial economic losses to society. In response to this challenge, this thesis focuses on developing advanced machine learning techniques to improve water height prediction accuracy that can aid municipalities in effective flood mitigation. The primary objective of this study is to evaluate an innovative architecture that leverages Long Short Term Networks - neural networks to predict water height accurately in three different environmental scenarios, i.e., frazil, droughts and floods due to snow spring melt. A distinguishing feature of our approach is the incorporation of meteorological forecast as an input parameter into the prediction model. By modeling the intricate relationships between water level data, historical meteorological data and meteorological forecasts, we seek to evaluate the impact of meteorological forecasts and if any inaccuracies could impact water-level prediction. We compare the outcomes obtained by incorporating next-hour, next-day and next-week meteorological data into our novel LSTM model. Our results indicate a comprehensive comparison of the usage of various parameters as input and our findings suggest that accurate weather forecasts are crucial in achieving reliable water height predictions. Additionally, this study focuses on the utilization of IoT sensor data in combination with ML models to enhance the effectiveness of flood prediction and management. We present an online machine learning approach that performs online training of the model using real-time data from IoT sensors. The integration of live sensor data provides a dynamic and adaptive system that demonstrates superior predictive capabilities compared to traditional static models. By adopting these advanced techniques, we can mitigate the adverse impacts of natural catastrophes and work towards building more resilient and disaster-resistant communities.
-
L’estimation du débit en rivières est un paramètre clé pour la gestion des ressources hydriques, la prévention des risques liés aux inondations et la planification des équipements hydroélectriques. Lorsque le débit d’eau est très élevé lors d'évènements extrêmes, les méthodes de jaugeage traditionnelles ne peuvent pas être utilisées. De plus, les stations du réseau hydrométrique sont généralement éparses et leur répartition spatiale n’est pas optimale. Par conséquent, de nombreuses sections de rivières ne peuvent être suivies par des mesures et observations du débit. Pour ces raisons, pendant la dernière décennie, les capteurs satellitaires ont été considérés comme une source d’observation complémentaire aux observations traditionnelles du niveau d’eau et du débit en rivières. L’utilisation d’une telle approche a fourni un moyen de maintenir et d’étendre le réseau d'observation hydrométrique. L’approche avec télédétection permet d’estimer le débit à partir des courbes de tarage qui met en relation le débit instantané (Q) et la géométrie d’une section transversale du chenal (la largeur ou la profondeur effective de la surface d’eau). En revanche, cette méthode est associée à des limitations, notamment, sa dépendance aux courbes de tarage. En effet, en raison de leurs natures empiriques, les courbes de tarage sont limitées à des sections spécifiques et ne peuvent être appliquées dans d’autres rivières. Récemment, des techniques d’apprentissage profond ont été appliquées avec succès dans de nombreux domaines, y compris en hydrologie. Dans le présent travail, l’approche d’apprentissage profond a été choisie, en particulier les réseaux de neurones convolutifs (CNN), pour estimer le débit en rivière. L’objectif principal de ce travail est de développer une approche d’estimation du débit en rivières à partir de l’imagerie RADARSAT 1&2 à l’aide de l’apprentissage profond. La zone d’étude se trouve dans l’ecozone du bouclier boréal à l’Est du Canada. Au total, 39 sites hydrographiques ont fait l’objet de cette étude. Dans le présent travail, une nouvelle architecture de CNN a été a été proposée, elle s'adapte aux données utilisées et permet d’estimer le débit en rivière instantané. Ce modèle donne un résultat du coefficient de détermination (R²) et de Nash-Sutcliffe égale à 0.91, le résultat d’erreur quadratique moyenne égale à 33 m³ /s. Cela démontre que le modèle CNN donne une solution appropriée aux problèmes d’estimation du débit avec des capteurs satellites sans intervention humaine. <br /><br />Estimating river flow is a key parameter for effective water resources management, flood risk prevention and hydroelectric facilities planning. In cases of very high flow of water or extreme events, traditional gauging methods cannot be reliable. In addition, hydrometric network stations are often sparse and their spatial distribution is not optimal. Therefore, many river sections cannot be monitored using traditional flow measurements and observations. For these reasons, satellite sensors are considered as a complementary observation source to traditional water level and flow observations in the last decades. The use of this kind of approach has provided a way to maintain and expand the hydrometric observation network. Remote sensing data can be used to estimate flow from rating curves that relate the instantaneous flow (Q) to the geometry of a channel cross-section (the effective width or depth of the water surface). On the other hand, remote sensing is also associated with limitations, notably its dependence on the rating curves. Indeed, due to their empirical nature, rating curves are limited to specific sections and cannot be applied in other rivers. Recently, deep learning techniques have been successfully applied in many fields, including hydrology. In the present work, the deep learning approach has been chosen, in particular convolutional neural networks (CNN), to estimate river flow. The main objective of this work is to develop an approach to estimate river flow from RADARSAT 1&2 imagery using deep learning. In this study, 39 hydrographic sites of the Boreal Shield ecozone in Eastern Canada were considered. A new CNN architecture was developed to provide a straightforward estimation of the instantaneous river flow rate. The achieved results demonstrated a coefficient of determination (R²) and Nash-Sutcliffe values of 0.91, and a root mean square error of 33m³ /s. This indicates the effectiveness of CNN in automatic flow estimation with satellite sensors.
-
La température extrême de l’eau influence de nombreuses propriétés physiques, chimiques et biologiques des rivières. l ’ évaluation de l ’ Une prédiction précise de la température de l’eau est importante pour impact environnemental. Dans ce cadre, différents modèles ont été utilisés pour estimer les températures de l ’ linéaires simp eau à différentes échelles spatiales et temporelles, allant des méthodes les pour déterminer l’incertitude à des modèles sophistiqués non linéaires. Cependant, cette variable primordiale n’a pas été traitée dans un contexte probabiliste (ou fréquentiste). Donc, l’estimation des évènements extrêmes thermiques à l’aide des approc hes d’analyse fréquentielle locale (AFL) est importante. Lors de l’estimation des extrêmes thermiques, il est crucial de tenir compte de la forme de la distribution de fréquences considérée. Dans la première partie de la thèse , nous nous concentrons sur la sélection de la distribution de probabilité la plus appropriée des températures des rivières. Le critère d critère d ’ ’ information d ’ Akaike (AIC) et le information bayésien (BIC) sont utilisés pour évaluer la qualité de l distributions statis ’ ajustement des tiques. La validation des distributions candidates appropriées est également effectuée en utilisant l ’ approche de diagramme de rapport des L obtenus montrent que la distribution de Weibull (W2) moments (MRD). Les résultats est celle qui semble s’ajuster le données provenant des stations de haute altitude, tandis que les mieux aux séries d’extrêmes provenant des stations situées dans les régions de basse altitude sont bien adaptées avec la distribution normale (N). Ceci correspond au premier article. L a ’ couverture spatiale des données de température des cours d ’ eau est limitée dans de nombreuses régions du monde. Pour cette raison, une analyse fréquentielle régionale (AFR) permettant d estimer les extrêmes de température des rivières sur des sites non jau gés ou mal surveillés est nécessaire. En général, l’AFR inclut deux étapes principales, la délimitation des régions homogènes (DRH) qui vise à déterminer les sites similaires, et l’estimation régionale (ER) qui transfère l’information depuis les sites déte rminés dans la première étape vers le site cible. Par conséquent, le modèle d’indice thermique (IT) est introduit dans le contexte d’AFR pour estimer les extrêmes du régime thermique. Cette méthode est analogue au modèle d ’ indice de crue (IF) largement uti lisé en hydrologie. Le modèle IT incorpore l’homogénéité de la distribution de fréquence appropriée pour chaque région, ce qui offre une plus grande flexibilité. Dans cette étude, le modèle IT est comparé avec la régression linéaire multiple (MLR). Les rés ultats indiquent que le modèle IT fournit la meilleure performance (Article 2) . Ensuite, l’approche d’analyse canonique des corrélations non linéaires (ACCNL) est intégrée dans la DRH, présentée dans le Chapitre 4 de ce manuscrit (Article 3). Elle permet de considérer la complexité des phénomènes thermiques dans l’étape de DRH. Par la suite, dans le but d’identifier des combinaisons (DRH-ER) plus prometteuses permettant une meilleure estimation, une étude comparative est réalisée. Les combinaisons considérées au niveau des deux étapes de la procédure de l’AFR sont des combinaisons linéaires, semi-linéaires et non linéaires. Les résultats montrent que la meilleure performance globale est présentée par la combinaison non linéaire ACCNL et le modèle additif généralisé (GAM). Finalement, des modèles non paramétriques tels que le foret aléatoire (RF), le boosting de gradient extrême (XGBoost) et le modèle régression multivariée par spline adaptative (MARS) sont introduits dans le contexte de l’AFR pour estimer les quantiles thermiques et les comparer aux quantiles estimés à l’aide du modèle semi-paramétrique GAM. Ces modèles sont combinés avec des approches linéaires et non linéaires dans l’étape DRH, telles que ACC et ACCNL, afin de déterminer leur potentiel prédictif. Les résultats indiquent que ACCNL+GAM est la meilleure, suivie par ACC+MARS. Ceci correspond à l’article 4. <br /><br />Extreme water temperatures have a significant impact on the physical, chemical, and biological properties of the rivers. Environmental impact assessment requires accurate predictions of water temperature. The models used to estimate water temperatures within this framework range from simple linear methods to more complex nonlinear models. However, w ater temperature has not been studied in a probabilistic manner. It is, therefore, essential to estimate extreme thermal events using local frequency analysis (LFA). An LFA aims to predict the frequency and amplitude of these events at a given gauged locat ion. In order to estimate quantiles, it is essential to consider the shape of the frequency distribution being considered. The first part of our study focuses on selecting the most appropriate probability distribution for river water temperatures. The Akai ke information criteria (AIC) and the Bayesian information criteria (BIC) are used to evaluate the goodness of fit of statistical distributions. An Lmoment ratio diagram (MRD) approach is also used to validate sui table candidate distributions. The results good fit for extremes data from the highindicate that the Weibull distribution (W2) provides a altitude stations, while the normal distribution (N) is most appropriate for lowaltitude stations. This corresponds to the first article. In many parts of the world, river temperature data are limited in terms of spatial coverage and size of the series. Therefore, it is necessary to perform a regional frequency analysis (RFA) to estimate river temperature extremes at ungauged or poorly monitored sites. Generall y, RFA involves two main steps: delineation of homogenous regions (DHR), which identifies similar sites, and regional estimation (RE), which transfers information from the identified sites to the target site. The thermal index (TI) model is introduced in t he context of RFA to estimate the extremes of the thermal regime. This method is analogous to the index flood (IF) model commonly used in hydrology. The TI model considers the homogeneity of the appropriate frequency distributions for each region, which pr ovides larger flexibility. This study compares the TI model with multiple linear regression (MLR) approach. Results indicate that the TI model leads to better performances (Article 2). Then, the nonlinear canonical correlations analysis (NLCCA) approach is integrated into the DHR, as presented in Chapter 4 of this manuscript (Article 3). It allows considering the complexity of the thermal phenomena in the DHR step. A comparative study is then conducted to identify more promising combinations (DHR RE), that RFA procedure, linear, semilead to best estimation results. In the two stages of the linear, and nonlinear combinations are considered. The results of this study indicate that the nonlinear combination of the NLCCA and the generalized additive model (GAM ) produces the best overall performances. Finally, nonparametric models such as random forest (RF), extreme gradient boosting (XGBoost), and multivariate adaptive regression splines (MARS) are introduced in the context of RFA in order to estimate thermal q uantiles and compare them to quantiles estimated using the semiparametric GAM model. The predictive potential of these models is determined by combining them with linear and nonlinear approaches, such as CCA and NLCCA, in the DHR step. The results indicat e that NLCCA+GAM is the best, followed by CCA+MARS. This corresponds to article 4.
-
Les modèles hydrologiques traditionnels n’imposent pas la contrainte de conservation d’énergie à la surface. Lorsque soumis à des températures plus élevées, ils ont le potentiel de surestimer l’évapotranspiration. Le modèle de surface physique CLASS est couplé au modèle de routage RAPID, basé sur la méthode de Muskingum, pour former un modèle hydrologique plus robuste en contexte de réchauffement global. CLASS-RAPID est implanté sur le bassin versant du Haut-Montmorency (47.4°N, 71.1°O). CLASS est calibré et validé à l’aide d’observations hydrométéorologiques à la Forêt Montmorency ; RAPID est optimisé d’après les observations de débits de la Direction d’expertise hydrique du Québec. Des projections climatiques provenant des modèles CanESM2, CNRM-CM5, GFDL-ESM2M et MPI-ESM du Projet d’intercomparaison des modèles couplés et des scénarios climatiques RCP 4.5 et RCP 8.5 sont fournies en entrées à CLASS-RAPID afin de réaliser des simulations hydrologiques pour la période future de 2041 à 2070. Des projections climatiques provenant des mêmes modèles pour la période de référence de 1981 à 2005 sont également utilisées par CLASS-RAPID afin de générer une séquence de débits pouvant être comparée à celle de la période future. CLASS-RAPID obtient un score de NSE = 0, 66 au critère de performance de Nash-Sutcliffe. Le modèle reproduit fidèlement la séquence des évènements hydrologiques, mais sous-estime systématiquement les pointes de crue. Les simulations de CLASS-RAPID réalisées en condition de changements climatiques projettent que les crues printanières se produisent plusieurs dizaines de jours à l’avance pour la période future de 2041 à 2070 en comparaison à la période de référence. Pour les quatre modèles à l’étude, les simulations en condition de changements climatiques permettent de prévoir une diminution moyenne des débits d’étiage d’été de 40% pour le scénario climatique RCP 4.5 et de 50% pour le scénario climatique RCP 8.5. Pour les mêmes scénarios climatiques, l’Atlas hydroclimatique du Québec, qui repose sur une modélisation hydrologique traditionnelle, prévoit une diminution des débits de respectivement 37% et 45%.
-
Les changements climatiques sont un défi mondial imminent, dont les conséquences sont déjà observées. On sait que ces effets s’intensifieront, entraînant une augmentation de la fréquence et de la gravité des événements météorologiques extrêmes, une perturbation substantielle de la production alimentaire et le déplacement de dizaines de millions de personnes en raison de vagues de chaleur mortelles et de sécheresses. La question est donc : que peut-on y faire ? Dans cette thèse, nous faisons des changements climatiques notre objet central et explorons les voies par lesquelles la recherche en apprentissage profond peut contribuer à son atténuation. Un obstacle connu à des politiques climatiques ambitieuses est le manque de soutien et de demande populaires. Cela peut être attribué, en partie, aux causes et conséquences extrêmement complexes et imbriquées des changements climatiques. Une mauvaise conception courante est qu'ils affecteront principalement d’autres personnes que soi-même, des personnes éloignées dans le temps ou l’espace. Pour y remédier, la recherche a montré que présenter aux gens des \textit{images} authentiques, locales et pertinentes d'un concept les aide à mieux comprendre et appréhender ce qui est en jeu. Dans notre première contribution, nous explorons donc comment les récentes avancées en apprentissage profond pour la vision par ordinateur et les réseaux antagonistes génératifs peuvent être utilisées pour générer des images \textit{personnalisées} représentant les impacts du changement climatique. Notre objectif avec \textit{ClimateGAN} est de visualiser à quoi pourrait ressembler une inondation d’un mètre à n’importe quelle adresse, indépendamment de son risque réel d’inondation sous l’effet des changements climatiques. Cette approche vise à susciter l’empathie en rendant les impacts abstraits du changement climatique plus tangibles et personnalisés. En utilisant une image de Google Street View et en la traitant avec \textit{ClimateGAN}, nous générons des images d’inondation physiquement plausibles et visuellement réalistes basées sur l’adaptation de domaine à partir d’un environnement simulé, la prédiction de profondeur et la segmentation sémantique. Ce modèle a été déployé sur un site web dans le but de sensibiliser et d’engager l’action en faveur des changements climatiques. En plus d’aider les gens à mieux visualiser à quoi pourrait ressembler un avenir climatique hors de contrôle, nous étudions également dans cette thèse comment l’apprentissage profond peut améliorer les technologies existantes. Un domaine majeur de recherche dans cette direction est la recherche de nouveaux matériaux. Dans cette thèse, nous explorons plus particulièrement la prédiction des propriétés des matériaux comme moyen d’accélérer la découverte d'électro-catalyseurs, une famille de matériaux impliqués dans le stockage d’énergie à base d’hydrogène. Nous présentons deux contributions, \textit{PhAST} et \textit{FAENet}, qui se concentrent sur l’amélioration du compromis performance/scalabilité dans les réseaux de neurones géométriques de graphe (GNN). Avec \textit{PhAST}, nous introduisons un ensemble de méthodes pour adapter la procédure GNN classique--de la création du graphe d’entrée aux prédictions d’énergie et de forces de sortie--à la tâche spécifique de prédire l’énergie d’un système atomique adsorbant-catalyseur relaxé. Nous démontrons comment, en plus d’améliorer les performances, ces modifications améliorent l’efficacité et permettent un entraînement compétitif des GNN dans des environnements CPU. Dans \textit{FAENet}, nous présentons un nouveau GNN efficace pour les prédictions équivariantes E(3). En particulier, nous transposons la charge de l’équivarience sur la représentation des données afin de réduire les contraintes sur le modèle lui-même. Cette approche nous permet d’introduire une nouvelle architecture légère et expressive visant à faire des prédictions meilleures et plus rapides de diverses propriétés des matériaux. Enfin, nous examinons de manière critique notre propre domaine et discutons des impacts environnementaux associés aux technologies de l’IA. Nous nous penchons sur la façon dont les praticiens peuvent estimer leurs émissions de carbone, quelles mesures ils peuvent prendre aujourd’hui pour les réduire, et quelles autres étapes sont nécessaires pour des déclarations et responsabilités environnementales plus précises.
-
Streamflow forecasting is important for managing water resources in sectors like agriculture, hydropower, drought management, and urban flood prevention planning. Our study examines short and long lead-times to create a framework for streamflow forecasting that can benefit water resource management and related sectors. To improve streamflow forecasts for up to ten days of lead-time, the study first focuses on improving initial conditions using an ensemble Kalman filter as a data assimilation method. The goal is to regulate the hyperparameters of the ensemble Kalman filter for each season to produce more accurate forecasts. A sensitivity analysis is conducted to identify the best hyperparameter sets for each season, including uncertainty in temperature, precipitation, observed streamflow, and the water content of three state variables - vadose zone, saturated zone, and snowpack - from the CEQUEAU model. Results indicate that improving initial conditions with the ensemble Kalman filter produces more skillful forecasts until a 6-day leadtime. Temperature uncertainty is particularly sensitive and varies across seasons. The vadose zone state variable was identified as the most important and sensitive state variable, and updating all state variables systematically may not be necessary for improving forecast skill. Recent machine learning advances are improving short-term streamflow forecasting. One such method is the Long Short-Term Memory (LSTM) model. In general, neural networks learn from regression as relationships exist between input-output. However, LSTM models have a feature named ‘forget gate’, which enables them to learn the relationship between inputs (e.g., temperature and precipitation) and output (streamflow), and also to capture temporal dependencies in the data. The study aimed to compare the performance of the Long ShortTerm Memory (LSTM) model with data assimilation-based and process-based hydrological models in short-term streamflow forecasting. All three models were tested using the same ensemble weather forecasts. The LSTM model demonstrated good performance in forecasting streamflow, with a Kling-Gupta efficiency (KGE) greater than 0.88 for 9 lead-times. The LSTM model did not incorporate data assimilation, but it benefited from observed streamflow until the last day before the forecast. This is because the LSTM model learned and incorporated knowledge from the previous days while issuing forecasts, similar to how data assimilation updates initial conditions. The study results also showed that the LSTM model had better performance up to day 6 of lead-time compared to the data assimilation-based models. However, training the LSTM model separately for each lead-time is a time-consuming process and is a disadvantage compared to the data assimilation-based methods. Nonetheless, the study demonstrated the potential of machine learning techniques in improving streamflow forecasting. The forecasting of streamflow for long lead-times such as a month usually involves the use of historical meteorological data to create probable future scenarios, as meteorological forecasts become unreliable beyond this lead-time. In this study, we proposed a novel method for streamflow forecasting based on ensemble streamflow forecasting (ESP) filtering, using a Genetic Algorithm (GA) to filter forecast scenarios. This method quantifies the potential of historical data for each basin. This potential could be utilized to enhance the accuracy of streamflow forecasts. We sorted the selected and unselected scenarios to find out the common features between them, but the results did not help distinguish between the two groups. Nonetheless, the GA method can be used as a benchmark for future studies to improve longterm streamflow forecasting. This method can also be used to compare different forecast methods based on the potential shown by the GA method for a specific size of ESP members. For instance, if a method uses large-scale climate signals to filter ESP members, the forecast skill result could be compared with the potential of historical data for that particular size of ESP members.
-
Reliable long-term streamflow forecast is essential in water resources management and plays a key role in reservoir management and hydropower generation. Properly framing the uncertainty is the key issue in providing a reliable long-term streamflow forecast, and probabilistic forecasts have been used to this effect. In a probabilistic approach, each observed historical data is taken as a possible realization of the future. Non stationarity of hydrometeorological variables, either due to the climate internal variability or anthropogenic change, is another important problem for long-term streamflow forecasts as it is becoming increasingly clearer that past historical data may not adequately represent the current climate. Therefore, there is a need to develop flexible approaches taking into account non-stationarity for long-term streamflow forecasts. Resampling past historical time series is the main approach used for probabilistic long term streamflow forecasts. However, non-stationarity is a key issue of resampling approaches. One possible approach is to make use of a stochastic weather generator coupled to a hydrological model to generate long-term probabilistic streamflow forecasts. Weather generators can easily be modified to account for climatic trends and therefore have the potential to take non-stationarity into account. However, before weather generators can be modified to account for climate non-stationarity, it is first necessary to evaluate whether the modeling chain consisting of a stochastic weather generator and a hydrological model can generate probabilistic streamflow forecasts with a performance similar to that of more traditional resampling approaches. The first objective of this study is therefore, to compare the performance of a stochastic weather generator against that of resampling historical meteorological time series in order to produce ensemble streamflow forecasts. Results indicate that while there are differences between both methods, they nevertheless largely both perform similarly, thus showing that weather generators can be used as substitutes to resampling the historical past. Based on these results, two approaches for taking non-stationarity into account have been proposed. Both approaches are based on a climate-based perturbation of the stochastic weather generator parameters. The first approach explored a simple perturbation method in which the entire length of the historical record is used to quantify internal variability, while a subset of recent years is used to characterize mean climatic values for precipitation, minimum and maximum temperatures. Results show that the approach systematically improves long-term streamflow forecasts accuracy, and that results are dependent on the time window used to estimate current mean climatic estimates. The second approach conditioned the parameters of a stochastic weather generator on largescale climate indices. In this approach, the most important climate indices are identified by looking at yearly correlations between a set of 40 indices and precipitation and temperature. A linear model is then constructed to identify precipitation and temperature anomalies which are then used to induce perturbations in the stochastic weather generator. Five different time windows are defined to determine the optimal linear model. Results show that temperatures are significantly correlated with large-scale climate indices, whereas precipitation is only weakly related to the same indices. The length of the time window has a considerable impact on the prediction ability of the linear models. The precipitation models based on short-duration time windows performed better than those based on longer windows, while the reverse was found for the temperature models. Results show that the proposed method improves long-term streamflow forecasting, particularly around the spring flood.
-
Flooding, a major natural calamity, severely threatens communities and infrastructures in areas susceptible to floods. Consequently, implementing an Internet of Things (IoT)-based flood monitoring system becomes crucial. Existing flood monitoring systems lack a comprehensive and scalable IoT platform to collect real-time data from diverse sensors efficiently, visualize flood information, and provide accurate water level forecasts. This thesis proposes a complete system designed to address the challenges associated with efficient data collection and flood monitoring from diverse IoT sensors. Our proposition involves creating and deploying a centralized system known as HYDROSIGHT, which facilitates the real-time gathering, monitoring, and visualization of flooding-related sensor data. HYDROSIGHT system also provides a log monitoring feature for effective debugging and troubleshooting. The IoT environment for flood monitoring and prediction system was designed to promote sustainability and autonomy by preferring sensors with minimal footprints and compatibility with solar panels. The system architecture leverages a 4G network for seamless data transmission. To validate the practical applicability of the proposed design,HYDROSIGHT system was tested at two municipalities of Quebec, namely Terrebonne, and Lac-Supérieur. In addition, the platform was also deployed at the Ericsson facility in Montreal to test the 5G capabilities. The deployment in these locations allowed us to evaluate the performance and effectiveness of the HYDROSIGHT system in a real flood monitoring environment. In addition to implementing the IoT testbed, a preliminary machine learning tool was developed on water level forecasting. In this experiment, we opted for an online machine-learning approach, recognizing the significance of real-time updates and low computational resources of IoT devices. Leveraging the constantly updating data from HYDROSIGHT, we trained and tested our online machine-learning model, enhancing its forecasting capabilities. We conducted a comparative analysis to understand the advantages of online machine learning over traditional batch learning. This analysis involved examining the water level forecasting results obtained from both methods using time series data from the HYDROSIGHT system deployed at Lac-Supérieur in Quebec.
-
RÉSUMÉ : Pour atténuer les risques d'inondation au Québec mais aussi partout dans le monde, plusieurs organismes gouvernementaux et des organismes privés, qui ont dans leurs attributions la gestion des risques des catastrophes naturelles, continuent d'améliorer ou d'innover en matière d'outils qui peuvent les aider efficacement à la mitigation des risques d'inondation et aider la société à mieux s'adapter aux changements climatiques, ce qui implique des nouvelles technologies pour la conception de ces outils. Après les inondations de 2017, le ministère de l'Environnement et de la Lutte contre les changements climatiques (MELCC) du gouvernement du Québec, en collaboration avec d'autres ministères et organismes et soutenu par Ouranos, a initié le projet INFO-Crue qui vise d'une part, à revoir la cartographie des zones inondables et, d'autre part, à mieux outiller les communautés et les décideurs en leur fournissant une cartographie prévisionnelle des crues de rivières. De ce fait, l'objectif de notre travail de recherche est d'analyser de façon empirique les facteurs qui influencent l'adoption d'un outil prévisionnel des crues. La revue de la littérature couvre les inondations et les prévisions, les théories et les modèles d'acceptation de la technologie de l'information (TI). Pour atteindre l'objectif de recherche, le modèle développé s'est appuyé particulièrement sur le modèle qui combine les concepts de la théorie unifiée de l'acceptation et l'utilisation des technologies (UTAUT) de Venkatesh et al. (2003) avec le concept « risque d'utilisation ». Afin de répondre à notre objectif de recherche, nous avons utilisé une méthodologie de recherche quantitative hypothético-déductive. Une collecte de données à l'aide d'une enquête par questionnaire électronique a été réalisée auprès de 106 citoyens qui habitent dans des zones inondables. L'analyse des résultats concorde avec la littérature. La nouvelle variable « risque d'utilisation » rajoutée au modèle UTAUT a engendré trois variables qui sont : « risque psychologique d'utilisation »; « risque de performance de l'outil » et « perte de confiance ». Pour expliquer l'adoption d'un nouvel outil prévisionnel des crues, notre analyse a révélé que cinq variables à savoir : « l'utilité perçue », « la facilité d'utilisation », « l'influence sociale », « la perte de confiance » et « le risque psychologique » sont des facteurs significatifs pour l'adoption du nouvel outil prévisionnel. -- Mot(s) clé(s) en français : Inondation, Prévision, UTAUT, Adoption de la technologie, Risque perçu d'utilisation, facteurs d'adoption, Projet INFO-Crue. -- ABSTRACT : With the aim of mitigating flood risks in Canada as well as around the world, several government and private organizations that have the responsibility of natural hazard risk management, are working hard to improve or innovate the flood mitigation approaches that can help effectively reducing flood risks and helping people adapt to climate change. After the 2017 floods, the Ministry of the Environment and the Fight against Climate Change (MELCC) of the Government of Quebec, in collaboration with other ministries and organizations and supported by Ouranos, initiated the INFO-Crue project which aims at reviewing the mapping of flood zones and providing communities and decision-makers with a forecast mapping of river floods. In this context, the objective of our research is to analyze the factors that may influence the adoption of a flood forecasting tool. The literature review covers flood and forecasting, as well as technology adoption models. To achieve the goal of our research, a conceptual model that combines the Unified Theory of Acceptance and Use of Technology (UTAUT) of Venkatesh et al. (2003) with perceived use risk was developed. A quantitative research methodology was used, and we administrate an electronic questionnaire survey to 106 citizens who live in flood-plain area. Results analysis show that the new variable "perceived use risk" introduced in the model generates three variables which are: "psychological risk"; "performance risk" and "loss of trust". To explain the adoption of a new forecasting tool, our analysis revealed that the following five variables which are "perceived usefulness", "ease of use", "social influence", "loss of trust" and "psychological risk" are significant factors for the adoption of the new forecasting tool. -- Mot(s) clé(s) en anglais : Flood, Forecasting, UTAUT, Technology Adoption, perceived Risk of use, adoption factors, INFO-Crue project.
-
RÉSUMÉ: Les inondations sont considérées comme l'un des risques naturels les plus dangereux au monde. Plusieurs pays souffrent des conséquences néfastes des inondations. Au Canada, plusieurs provinces ont subi des inondations au cours du siècle dernier. Par exemple, la rivière des Outaouais a été confrontée à de nombreuses inondations comme en 2017 et 2019. La population d'Ottawa continue à augmenter d'une année à l'autre. C'est pour cela que nous avons choisi la rivière des Outaouais comme étude de cas pour ce projet dans le but de protéger la société contre les risques causés par les inondations. Les pays adoptent plusieurs solutions basées sur différentes méthodes afin de minimiser les dommages causés par les crues. La plupart des scientifiques s'accordent que la prévision des crues est la meilleure façon de limiter les conséquences des crues. Les systèmes de prévision des crues sont indispensables dans les pays fréquemment confrontés à des crues. Ils visent à fournir un long délai d'exécution et à fournir aux autorités et aux décideurs des informations suffisantes. Par conséquent, ils auront suffisamment de temps pour prendre les mesures adéquates pour sauver la vie de la population et limiter les catastrophes économiques dues aux inondations. ABSTRACT: Floods are one of the most catastrophic natural disasters in Canada and around the world that can cause loss of life and damages to properties and infrastructures. Saguenay flood (1996), southern Alberta flood (2013), and Ottawa floods (2017, 2019), are a few examples of Canadian floods with tremendous socio-economic impacts. Flood forecasting and predicting its characteristics (e.g., its magnitude and extent) has an important role in preventing and mitigating such flood impacts. Particularly, short-term forecasting is crucial for early warning systems and emergency response to floods. This study presents an integrated hydraulic-hydrologic modeling system for flood prediction. In this system, the Delft3D two-dimensional hydrodynamic model is connected with a HEC-HMS hydrologic model and observation data to provide an automatic exchange of data and results. Delft3D and HEC-HMS were chosen for this study because they were widely used and provided good results. In addition, they were applied in several flood forecasting studies. The prediction weather data and watershed characteristics provide input to the hydrological model to predict streamflow conditions, which are then automatically fed into the hydrodynamic model. The hydrodynamic model simulates the flood characteristics such as water level, 2D depth-averaged velocity field, and flood extent.
-
While impressive results have been achieved in the well-known fields where Deep Learning allowed for breakthroughs such as computer vision, its impact on different older areas is still vastly unexplored. In Computational Fluid Dynamics and especially in Flood Modeling, many phenomena are very high-dimensional, and predictions require the use of numerical simulations, which can be, while very robust and tested, computationally heavy and may not prove useful in the context of real-time predictions. This issue led to various attempts at developing Reduced-Order Modeling techniques, both intrusive and non-intrusive. One recent relevant addition is a combination of Proper Orthogonal Decomposition with Deep Neural Networks (POD-NN). Yet, to our knowledge, little has been performed in implementing uncertainty-aware regression tools in the example of the POD-NN framework. In this work, we aim at comparing different novel methods addressing uncertainty quantification in Neural Networks, pushing forward the POD-NN concept with Deep Ensembles and Bayesian Neural Networks, which we first test on benchmark problems, and then apply to a real-life application: flooding predictions in the Mille-Iles river in Laval, QC, Canada. Building a non-intrusive surrogate model, able to know when it doesn’t know, is still an open research area as far as neural networks are concerned.
-
RÉSUMÉ: Les événements de submersion sont en augmentation sur les côtes du fleuve Saint-Laurent en raison des tempêtes, de la hausse du niveau marin et de la diminution de la glace de mer. À ce jour, le Québec ne possède pas de zonage de la submersion. Dans le cadre de cette thèse, une approche de cartographie de la submersion est développée en intégrant les vagues, les niveaux d'eau et la morphologie des plages de l'estuaire et du golfe du Saint-Laurent (EGSL). Deux types d'approches cartographiques ont été comparés : la simulation empirique qui projette un niveau total statique sur le territoire (niveau d'eau observé + effet des vagues sur la côte, le jet de rive ou runup), et le modèle numérique XBeach en mode surfbeat. Ces deux approches nécessitent une surface topo-bathymétrique précise et actualisée de la plage. Grâce au développement d'un réseau de suivi des plages par vidéo, nous évaluons dans un premier temps l'efficacité d'une méthode de topographie intertidale par vidéo par rapport à des levés LiDAR terrestres, et améliorons sa performance en intégrant les niveaux d'eau près de la plage au module d'élévation des lignes d'eau. Ce projet a permis la création de surfaces topographiques à précision centimétrique comparable au LiDAR et d'y extraire des paramètres morphologiques, comme la pente de la plage, nécessaire aux modèles empiriques de niveaux d'eau. La capacité des deux approches de cartographie à simuler la submersion du 6 décembre 2010 au Bas-Saint-Laurent a ensuite été analysée en comparant les surfaces inondées. La correspondance spatiale entre les simulations et les observations de submersion a été évaluée. Il en ressort que malgré la complexité du modèle XBeach et une légère surprédiction du modèle empirique (36%), les surfaces submergées obtenues par les deux approches sont similaires et correctement prédites à hauteur de 66-78%. Dans le cadre d'une troisième étude, XBeach a également été utilisé dans la baie des Chaleurs pour évaluer l'impact d'un événement extrême pour l'horizon 2100 sur l'aléa de submersion. Les simulations montrent que les débordements côtiers ont été engendrés par des vagues de relativement faible amplitude à la côte (Hs < 1 m) et que malgré des profondeurs d'eau avoisinant 1,2 m, des vitesses de courants élevées se sont produites dans les espaces urbanisés (U > 2 m/s). L'analyse de la cartographie de la submersion à Maria suggère qu'en 2100, l'impact de la hausse du niveau marin sur les communautés riveraines du Saint-Laurent pourrait provoquer des submersions plus vastes avec des profondeurs d'eau et vitesses de courants plus élevées, ce qui pourraient intensifier l'aléa auquel fait face la population. Même si les simulations numériques permettent de comprendre comment les phénomènes physiques engendrent la submersion, l'intérêt de la méthode statique réside dans sa rapidité d'application, mais son efficacité est fonction de la validité et l'applicabilité des modèles empiriques de runup utilisés. Ainsi, le dernier volet de la thèse porte sur le paramétrage d'un modèle empirique de runup adapté à l'EGSL. L'observation du runup (et de ses composantes moyenne et haute fréquence, le setup et le swash) par vidéo réalisée sur 5 plages couvre un large spectre de paramètres environnementaux et de types de côte sur une période de 3 ans. Des analyses de corrélation entre les niveaux d'eau à la côte et les caractéristiques de vagues au large et la pente de plage ont été réalisées. Les résultats montrent que l'influence des paramètres hydrodynamiques sur le runup, setup, et swash est paramétrée de façon similaire. Le rôle de la morphologie de la plage sur le setup est par ailleurs paramétré par une fonction inverse de la pente, alors que le swash est fonction de la racine carrée de la pente. Avec une erreur moyenne de 23 cm et un biais de 2 cm, l'équation de runup proposée offre un fort potentiel d'estimation des niveaux d'eau totaux sur les environnements côtiers diversifiés à fetch limité. Les résultats de la thèse montrent qu'il apparaît pertinent d'utiliser une approche statique p ur identifier les zones les plus vulnérables à la submersion, en autant que l'équation utilisée soit validée sur le type d'environnement en question. En combinant cette approche à des modélisations numériques en zones à forte concentration d'enjeux, il sera possible d'instaurer un premier zonage de la submersion au Québec. -- Mot(s) clé(s) en français : Cartographie de la submersion, Runup, Topographie par vidéo, Vagues infragravitaires, XBeach. -- ABSTRACT: Coastal flood events are increasing on the shores of the St. Lawrence River due to storms, rising sea levels and decreasing sea ice. To date, the province of Québec does not have a coastal flood mapping guideline. In this thesis, a coastal flood mapping approach is developed by integrating waves, water levels and beach morphology of the Estuary and Gulf of St. Lawrence (EGSL). Two types of cartographic approaches were compared: the empirical simulation that projects a static total level overland (observed water level + wave effect on the coast, known as wave runup), and the numerical model XBeach in surfbeat mode. These two approaches require a precise and updated topo-bathymetric surface of the beach. Through the development of a shore-based video monitoring network, we first evaluate the effectiveness of a video intertidal topography method against terrestrial LiDAR surveys, and improve its performance by integrating water levels near the beach as a proxy to beach contour elevetion. This project enabled the creation of centimeter-scale topographic surfaces comparable to LiDAR and the extraction of morphological parameters, such as the beach slope, necessary for empirical runup models. The ability of both mapping approaches to simulate the flood of December 6, 2010 in Bas-Saint-Laurent was analyzed by comparing flooded areas. Spatial correspondence between simulations and the observed flood extent was evaluated. Despite the complexity of XBeach and a slight over-prediction of the empirical model (36%), the flooded areas obtained by the two approaches are similar and correctly predicted by 66-78%. In a third study, XBeach was also used in the Chaleur Bay to assess the impact of an extreme event for the 2100 horizon on coastal flood hazards. The simulations show that the overland flow was generated by waves of relatively low amplitude at the coast (Hs <1 m) and that despite water depths close to 1.2 m, high current velocities occurred in the urbanized areas (U> 2 m/s). The analysis of the flood maps in Maria suggests that by 2100, the impact of sea level rise on coastal communities in the St. Lawrence could lead to larger flooded areas, with deeper water depths and higher flow velocity, intensifying the risk to the population. Although numerical simulations offer an understanding of the physical phenomena that cause coastal flooding, the interest of the static method lies in its convenience, but its effectiveness depends on the validity of the empirical runup models employed. Thus, the last part of the thesis deals with the parameterization of an empirical runup model in the EGSL. Video-based wave runup observations (and of its mean and high frequency components, setup and swash, respectively) on 5 beaches was carried out on a broad spectrum of environmental parameters and coast type over a period of 3 years. Correlation analyzes between coastal water levels (runup, setup, and swash) and offshore wave characteristics and beach slope were performed. The results show that the influence of the hydrodynamic parameters on wave runup, setup, and swash is similarly parameterized. The role of the morphology of the range on the setup is however parameterized by an inverse function of the slope, while the swash is a function of the square root of the slope. With an average error of 23 cm and a 2 cm bias, the original runup equation offers a high potential for estimating total water levels over diverse fetch-limited coastal environments. This thesis shows that it seems appropriate to use a static approach to identify the areas most vulnerable to coastal flooding, as long as the equation used is validated on the specific coastal environment. By combining this approach with numerical modeling in coastal hotspots with multiple issues at stake, it will be possible to introduce a first coasta flood zoning in the province of Québec. -- Mot(s) clé(s) en anglais : Coastal flooding, Runup, Video-derived topography, Infragravity waves, XBeach.
-
Les variabilités et changements climatiques et les incapacités pour faire face à leurs risques, à leurs effets et, plus précisément, à gérer les catastrophes hydrométéorologiques (inondation et sécheresse) qui les accompagnent, viennent en ajouter aux vulnérabilités et aux problèmes, qui sont déjà une préoccupation en Afrique Subsaharienne et au Bénin. Face à leurs manifestations de plus en plus récurrentes – la faiblesse des systèmes de financement local de la gestion des catastrophes et le déficit des systèmes de protection sociale, qui témoignent des limites des capacités de transfert des risques de catastrophe – cette étude a identifié la structure (gouvernance-ressources), comme le problème essentiel de la gestion des catastrophes au Bénin. Une étude synthétique, étude de cas multiples avec trois niveaux d’analyse imbriqués, dans une approche qualitative, a permis de mieux comprendre comment, dans un contexte de pauvreté, l’intégration de la micro assurance climatique, modifie la structure, le processus et le résultat de la gestion des catastrophes et assure la performance du système et la résilience des populations. Elle a documenté les différents aspects de la structure et des vulnérabilités des systèmes et des populations et a identifié l’absence d’intégration de la micro assurance climatique aux systèmes de gestion des catastrophes, comme un problème au coeur de la complexité des déterminants de la résilience, aussi confrontée à une autre complexité, celle de la diversité des interconnexions entre les différentes catégories de risques, qui place la santé au coeur de tous les risques. La nécessité d’une gestion holistique du risque global, ou d’une gestion tout risque, telle que retenue par le Cadre d’Action de Hyōgo et le Cadre d’Action de Sendai; et l’importance d’apporter une réponse en accord au contexte et à son profil de risques, qui prend l’option pour la "démocratisation" d’une micro assurance climatique, gouvernée sur la base de fondements idéologiques d’équité et d’efficience, cette recherche a préconisé – pour une gestion plus rationnelle, pertinente, efficace et efficiente des catastrophes – une intégration de trois systèmes : le système de la gestion des catastrophes; le système de protection sociale, y compris celui de la micro assurance climatique, et le système de la santé; tous reconnus outillés pour la gestion des risques. Elle a retenu, qu’une telle approche saurait aussi assurer une gestion efficace du changement qu’induirait l’intégration de la micro assurance climatique à la gestion des catastrophes; de ii même qu’une meilleure utilisation des outils et méthodes de sensibilisation, de prévention, de prévision et d’évaluation des risques et des dommages dont recèlent les pratiques en micro assurance climatique. Elle constate que la réussite de l’intégration de la MAC et son développement sont essentiellement plus déterminés par les acteurs et leurs intérêts, que par les ressources financières, même si elles sont aussi indispensables. Cette recherche préconise qu’à partir de choix de modèles et de modes d’intégration bien étudiés, son intégration ou sa prise en compte dans les différents programmes d’aide et de protection sociale mis en oeuvre au Bénin pourrait être, à travers les subventions de l’État, un moyen de mobilisation de fonds en faveur de son financement et de sa viabilité/durabilité. Ce financement pourra aussi s’appuyer sur les mécanismes traditionnels de financement de l’assurance, de la micro assurance, des changements climatiques et de la réduction des risques de catastrophe au Bénin, en Afrique et dans le monde. C’est pourquoi, en termes de gouvernance, ce travail soutien une restructuration avec une gestion entièrement centrée sur les communes, dans une approche des services de première ligne avec les réseaux de services ; en termes de ressources, il a aussi analysé les conditions et les possibilités de développement d’une micro assurance climatique, qui dépend avant tout de la qualité de la gestion des catastrophes (capacités à réduire les risques et limiter les pertes ou capacités à induire la résilience des systèmes et des populations). Cette approche puise dans les réalités et pratiques endogènes de gestion des catastrophes et surtout de protection sociale ou de transfert de risques ; elle s’inspire des bonnes pratiques d’ailleurs ; elle contribue à instaurer l’équité, comme principe de la gestion intégrée des catastrophes et, au-delà de la résilience, à susciter une convergence des efforts pour l’autonomisation de la structure et des populations, face aux manifestations catastrophiques des inondations et de la sécheresse. Cette recherche pense qu’il faut oser la micro assurance universelle pour la gestion des catastrophes hydrométéorologiques; qu’elle est réalisable ou faisable, même en contexte de pauvreté; et qu’il est aussi possible de combiner micro assurance climatique universelle et assurance médicale universelle, dans une dynamique qui mobilise des approches efficientes et les intérêts.
-
RÉSUMÉ : Bien que représentant la majorité des réseaux hydrographiques à l’échelle mondiale, les petits cours d’eau de tête sont souvent mis de côté dans les analyses abordant les impacts qu’auront les changements climatiques sur leur régime hydrologique. Pourtant, ils sont d’une importance capitale pour la qualité des eaux de surface et des habitats en plus de représenter la source principale de sédiments contribuant au dynamisme des rivières qu’ils alimentent. Ce mémoire vise à utiliser des données météorologiques actuelles et de projections climatiques pour mieux comprendre la réponse hydrologique des petits bassins versants nord gaspésiens lors d’événements hydrologiques d’importance (torrentialité, crue printanière). En développant un seuil intensité – durée de déclenchement d’aléas hydrogéomorphologiques adapté au nord de la Gaspésie et en calculant des tendances climatiques, il a été observé que les événements surpassant le seuil seraient de 2 à 3 fois plus fréquents en 2100 qu’en 2011 selon les scénarios RCP4.5 et RCP8.5. Les résultats de ces analyses ont initié une réflexion sur les impacts morphologiques potentiels à prendre en compte dans une optique de gestion et d’utilisation du territoire dans une région où les cours d’eau sont particulièrement dynamiques et sensibles au déclenchement d’aléas hydrogéomorphologiques. La hausse de la fréquence des événements surpassant le seuil, le comportement hydrologique du cours d’eau instrumenté lors d’événements de crue connus et documentés et le modèle conceptuel proposé mettent en relation les changements climatiques projetés, les impacts sur la réponse hydrologique et les ajustements morphologiques qui pourraient survenir à l’intérieur des petits cours d’eau, sur leurs cônes alluviaux et dans les rivières principales dans lesquelles ils se jettent. -- Mot(s) clé(s) en français : changements climatiques, hydrogéomorphologie, petits cours d’eau, pluies torrentielles, Gaspésie, aléas. -- ABSTRACT : Even though they represent over 70% of stream length in drainage networks at the global scale, small headwater streams are often sidelined when evaluating climate change impacts on the hydrological regime of rivers. Yet, they are of capital importance in maintaining surface water and habitat quality for ecological and resource management purposes. Furthermore, they represent the main source of sediments for downstream fluvial systems, being the main contributor to their dynamics. This thesis aims to use historical meteorological data and climate projections to better understand the hydrological response of small gaspesian headwater streams to important flood events. By developing a triggering intensity – duration rainfall threshold for hydrogeomorphological hazards adapted to the region and extracting trends from precipitation projections, it has been observed that the annual number of events surpassing the threshold would at least double in 2100 in comparison to 2011. Those results initiated a reflection on potential morphological adjustments to consider for land use and management in a region where rivers are particularly mobile and sensitive to the triggering of hydrogeomorphological hazards. The increase in the frequency of triggering rainfall, the hydrological behavior of the instrumented stream during known and documented flood events and the proposed conceptual model help explain potential climate change effects on the hydrological response and morphological adjustments that could happen inside headwater streams, on their alluvial fan and in the main rivers they feed. -- Mot(s) clé(s) en anglais : climate change, hydrogeomorphology, headwater streams, torrential rainfall, Gaspesie, natural hazards.
-
Extreme flood events continue to be one of the most threatening natural disasters around the world due to their pronounced social, environmental and economic impacts. Changes in the magnitude and frequency of floods have been documented during the last years, and it is expected that a changing climate will continue to affect their occurrence. Therefore, understanding the impacts of climate change through hydroclimatic simulations has become essential to prepare adaptation strategies for the future. However, the confidence in flood projections is still low due to the considerable uncertainties associated with their simulations, and the complexity of local features influencing these events. The main objective of this doctoral thesis is thus to improve our understanding of the modelling uncertainties associated with the generation of flood projections as well as evaluating strategies to reduce these uncertainties to increase our confidence in flood simulations. To address the main objective, this project aimed at (1) quantifying the uncertainty contributions of different elements involved in the modelling chain used to produce flood projections and, (2) evaluating the effects of different strategies to reduce the uncertainties associated with climate and hydrological models in regions with diverse hydroclimatic conditions. A total of 96 basins located in Quebec (basins dominated by snow-related processes) and Mexico (basins dominated by rain-related processes), covering a wide range of climatic and hydrological regimes were included in the study. The first stage consisted in decomposing the uncertainty contributions of four main uncertainty sources involved in the generation of flood projections: (1) climate models, (2) post-processing methods, (3) hydrological models, and (4) probability distributions used in flood frequency analyses. A variance decomposition method allowed quantifying and ranking the influence of each uncertainty source on floods over the two regions studied and by seasons. The results showed that the uncertainty contributions of each source vary over the different regions and seasons. Regions and seasons dominated by rain showed climate models as the main uncertainty source, while those dominated by snowmelt showed hydrological models as the main uncertainty contributor. These findings not only show the dangers of relying on single climate and hydrological models, but also underline the importance of regional uncertainty analyses. The second stage of this research project focused in evaluating strategies to reduce the uncertainties arising from hydrological models on flood projections. This stage includes two steps: (1) the analysis of the reliability of hydrological model’s calibration under a changing climate and (2) the evaluation of the effects of weighting hydrological simulations on flood projections. To address the first part, different calibration strategies were tested and evaluated using five conceptual lumped hydrological models under contrasting climate conditions with datasets lengths varying from 2 up to 21 years. The results revealed that the climatic conditions of the calibration data have larger impacts on hydrological model’s performance than the lengths of the climate time series. Moreover, changes on precipitation generally showed greater impacts than changes in temperature across all the different basins. These results suggest that shorter calibration and validation periods that are more representative of possible changes in climatic conditions could be more appropriate for climate change impact studies. Following these findings, the effects of different weighting strategies based on the robustness of hydrological models (in contrasting climatic conditions) were assessed on flood projections of the different studied basins. Weighting the five hydrological models based on their robustness showed some improvements over the traditional equal-weighting approach, particularly over warmer and drier conditions. Moreover, the results showed that the difference between these approaches was more pronounced over flood projections, as contrasting flood magnitudes and climate change signals were observed between both approaches. Additional analyses performed over four selected basins using a semi-distributed and more physically-based hydrological model suggested that this type of models might have an added value when simulating low-flows, and high flows on small basins (of about 500 km2). These results highlight once again the importance of working with ensembles of hydrological models and presents the potential impacts of weighting hydrological models on climate change impact studies. The final stage of this study focused on evaluating the impacts of weighting climate simulations on flood projections. The different weighting strategies tested showed that weighting climate simulations can improve the mean hydrograph representation compared to the traditional model “democracy” approach. This improvement was mainly observed with a weighting approach proposed in this thesis that evaluates the skill of the seasonal simulated streamflow against observations. The results also revealed that weighting climate simulations based on their performance can: (1) impact the floods magnitudes, (2) impact the climate change signals, and (3) reduce the uncertainty spreads of the resulting flood projection. These effects were particularly clear over rain-dominated basins, where climate modelling uncertainty plays a main role. These finding emphasize the need to reconsider the traditional climate model democracy approach, especially when studying processes with higher levels of climatic uncertainty. Finally, the implications of the obtained results were discussed. This section puts the main findings into perspective and identifies different ways forward to keep improving the understanding of climate change impacts in hydrology and increasing our confidence on flood projections that are essential to guide adaptation strategies for the future.
-
Les inondations présentent une grande menace à la sécurité humaine et matérielle. Les effets associés à ces phénomènes naturels risquent d'augmenter encore plus avec les tendances liées aux changements climatiques. Il est donc important de disposer d'outils de prévision et de prévention des crues fiables afin de mitiger les conséquences dévastatrices reliées. La mise en œuvre de ces outils implique des processus physiques assez complexes et nécessite beaucoup de données avec toute l'incertitude associée. Dans cette thèse, on explore les différentes sources d'incertitudes liée à la détermination des niveaux d'eau en rivières principalement dans un contexte de prévision où l'incertitude liée aux données de forçage est très importante. Les analyses conduites sont appliquées à la rivière Chaudière au Québec. En premier lieu, nous avons exploré les différentes sources paramétriques d'incertitude associées à la modélisation hydraulique dans un contexte de simulation avec un accent sur l'amélioration de la calibration du modèle hydraulique. Par la suite, dans un contexte de prévision opérationnel, on a évalué la propagation des sources d'incertitude de la prévision atmosphérique au modèle de rivière en passant par les prévisions hydrologiques avec des techniques probabilistes d'ensemble. La quantification de l'incertitude a montré que les données de forçage sont celles qui contribuent le plus à la description de l'incertitude dans la détermination des niveaux d'eau. L'incertitude paramétrique, dans un contexte de prévision, est quant à elle négligeable. Le recours à des prévisions d'ensemble a permis de produire une prévision de niveau d'eau assez fiable et a montré que celle-ci est fortement liée à la qualité des données qui proviennent de la chaine de prévision hydrométéorologique à l'amont du système de prévision proposé.
-
Dans le contexte du réchauffement planétaire, la relation de Clausius Clapeyron (CC) est utilisée comme un indicateur de l’évolution des précipitations extrêmes. Parmi les théories proposées, nous utilisons dans notre recherche une relation exponentielle qui fait le lien entre l’évolution des centiles les plus extrêmes des précipitations et le changement de la température ΔT dans le climat actuel. Selon cette théorie, les précipitations augmentent au même rythme que la capacité de rétention d'humidité dans l’atmosphère, expliquée par la relation de CC, avec un taux de changement d'environ 7 % par degré Celsius pour des valeurs de température et de pression près de la surface. Ainsi, le présent travail vise à vérifier l’existence de liens physiquement plausibles dans la relation entre les précipitations extrêmes et la température de l’air pour la région du Bassin Versant de la Rivière des Outaouais (BVRO) sur la période 1981-2010, à l’aide des simulations du Modèle Régional Canadien du Climat (MRCC) (versions 5 et 6), développé au centre ESCER, et de deux produits de réanalyses du Centre Européen pour les prévisions météorologiques à moyen terme (CEPMMT) à différentes résolutions spatiales. En général, les précipitations quotidiennes suivent un taux de changement inférieur à celui de CC ; tandis que les précipitations horaires augmentent plus rapidement avec la température. Dans ce dernier cas, pour la simulation du MRCC5 à plus haute résolution spatiale, des taux de changement supérieurs à CC ont même été produits, jusqu’à 10,2 %/°C. Ce travail a également mis en évidence qu’au-delà du seuil de 20°C, la capacité de rétention d'humidité de l’atmosphère n’est pas le seul facteur déterminant pour générer des précipitations extrêmes, et que d’autres facteurs sont à considérer, comme la disponibilité de l'humidité au moment de l'événement de précipitation et la présence de mécanismes dynamiques qui favorisent les mouvements verticaux ascendants. Un comportement sous forme de crochet, qui décrit une augmentation des précipitations jusqu'à un seuil de température, est observé dans la saison estivale avec le MRCC5, mais il a disparu avec les simulations du MRCC6, ce qui pourrait être une conséquence d’avoir seulement une année de simulation disponible ou bien d’une conséquence de la très haute résolution du modèle sur les intervalles de température et sur les effets locaux. En conclusion, l'applicabilité de la relation de CC ne doit pas être généralisée quant à l’étude des précipitations extrêmes, il est également important de considérer l'échelle temporelle, la résolution du modèle utilisé et la saison de l'année. L’évolution de cette relation de CC devrait être évaluée avec des simulations à très haute résolution spatiale (version en développement au centre ESCER), et pour d’autres zones climatiques, sachant que les intervalles de températures et les effets locaux exercent un rôle majeur sur les occurrences et les intensités des fortes précipitations. Ces éléments sont essentiels à intégrer dans le contexte des changements climatiques, en raison des conséquences associées aux fortes précipitations, notamment sur l’occurrence des inondations. _____________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Clausius-Clapeyron, évènements extrêmes, aléas météorologiques, risques d’inondation, changements climatiques
-
L’objectif de cette recherche est d’identifier les stratégies d’adaptation qui sont requises et du ressort d’une municipalité régionale de comté face aux inondations. Le réchauffement global des températures soulève plusieurs inquiétudes quant à la modification du cycle hydrologique. Les inondations figurent en tête de liste des enjeux de sécurité civile des municipalités riveraines. Au Québec, on prévoit une augmentation des précipitations printanières, automnales et hivernales, ainsi que des débits hivernaux plus élevés et un devancement des crues printanières. Des projections qui peuvent influencer l’approche de gestion des barrages, bien que le contrôle des niveaux d’eau ne soit pas une panacée vis-à-vis des inondations. Il suppose une gestion intégrée de l’eau parfois complexe. Aussi, les administrations locales ne siègent pas toujours aux comités responsables de la régularisation des cours d’eau. Celles-ci se retrouvent sur la ligne de front sans pour autant avoir le pouvoir et les ressources financières pour y faire face. Les crues exceptionnelles de 2017 et 2019 ont conduit la Municipalité régionale de comté de Vaudreuil-Soulanges à mettre à jour ses plans d’urgence et à mettre en place une cellule de crise. Elle applique une stratégie d’adaptation correspondant aux 4 axes du Plan de protection du territoire face aux inondations du ministère des Affaires municipales et de l’Habitation. Ces outils enrichissent leur capacité d’adaptation par l’acquisition de nouvelles connaissances et d’une nouvelle cartographie des zones inondables. Les vulnérabilités qui résultent de contraintes liées à l’aménagement du territoire, ainsi que d’enjeux réglementaires posent un défi pour le développement du territoire et la relocalisation de résidences inondées. Il convient de sonder la population sur sa vision de la résilience afin d’assurer une meilleure acceptabilité sociale des décisions à venir. Une vulnérabilité importante réside dans les écarts de perception du risque entre les municipalités et entre les individus ; ce qui engendre des enjeux de sécurité, de communication et de gouvernance. Les instances locales peuvent miser sur leurs habiletés de mobilisation pour réunir la communauté autour du développement d’un plan d’adaptation aux changements climatiques et ainsi harmoniser les perceptions. Finalement, l’épuisement des ressources humaines des municipalités inondées à répétition est à considérer. Il appert qu’il est essentiel d’identifier et de mettre en place les outils et ressources pour les soutenir.