Votre recherche
Résultats 5 ressources
-
Les modèles hydrologiques traditionnels n’imposent pas la contrainte de conservation d’énergie à la surface. Lorsque soumis à des températures plus élevées, ils ont le potentiel de surestimer l’évapotranspiration. Le modèle de surface physique CLASS est couplé au modèle de routage RAPID, basé sur la méthode de Muskingum, pour former un modèle hydrologique plus robuste en contexte de réchauffement global. CLASS-RAPID est implanté sur le bassin versant du Haut-Montmorency (47.4°N, 71.1°O). CLASS est calibré et validé à l’aide d’observations hydrométéorologiques à la Forêt Montmorency ; RAPID est optimisé d’après les observations de débits de la Direction d’expertise hydrique du Québec. Des projections climatiques provenant des modèles CanESM2, CNRM-CM5, GFDL-ESM2M et MPI-ESM du Projet d’intercomparaison des modèles couplés et des scénarios climatiques RCP 4.5 et RCP 8.5 sont fournies en entrées à CLASS-RAPID afin de réaliser des simulations hydrologiques pour la période future de 2041 à 2070. Des projections climatiques provenant des mêmes modèles pour la période de référence de 1981 à 2005 sont également utilisées par CLASS-RAPID afin de générer une séquence de débits pouvant être comparée à celle de la période future. CLASS-RAPID obtient un score de NSE = 0, 66 au critère de performance de Nash-Sutcliffe. Le modèle reproduit fidèlement la séquence des évènements hydrologiques, mais sous-estime systématiquement les pointes de crue. Les simulations de CLASS-RAPID réalisées en condition de changements climatiques projettent que les crues printanières se produisent plusieurs dizaines de jours à l’avance pour la période future de 2041 à 2070 en comparaison à la période de référence. Pour les quatre modèles à l’étude, les simulations en condition de changements climatiques permettent de prévoir une diminution moyenne des débits d’étiage d’été de 40% pour le scénario climatique RCP 4.5 et de 50% pour le scénario climatique RCP 8.5. Pour les mêmes scénarios climatiques, l’Atlas hydroclimatique du Québec, qui repose sur une modélisation hydrologique traditionnelle, prévoit une diminution des débits de respectivement 37% et 45%.
-
Reliable long-term streamflow forecast is essential in water resources management and plays a key role in reservoir management and hydropower generation. Properly framing the uncertainty is the key issue in providing a reliable long-term streamflow forecast, and probabilistic forecasts have been used to this effect. In a probabilistic approach, each observed historical data is taken as a possible realization of the future. Non stationarity of hydrometeorological variables, either due to the climate internal variability or anthropogenic change, is another important problem for long-term streamflow forecasts as it is becoming increasingly clearer that past historical data may not adequately represent the current climate. Therefore, there is a need to develop flexible approaches taking into account non-stationarity for long-term streamflow forecasts. Resampling past historical time series is the main approach used for probabilistic long term streamflow forecasts. However, non-stationarity is a key issue of resampling approaches. One possible approach is to make use of a stochastic weather generator coupled to a hydrological model to generate long-term probabilistic streamflow forecasts. Weather generators can easily be modified to account for climatic trends and therefore have the potential to take non-stationarity into account. However, before weather generators can be modified to account for climate non-stationarity, it is first necessary to evaluate whether the modeling chain consisting of a stochastic weather generator and a hydrological model can generate probabilistic streamflow forecasts with a performance similar to that of more traditional resampling approaches. The first objective of this study is therefore, to compare the performance of a stochastic weather generator against that of resampling historical meteorological time series in order to produce ensemble streamflow forecasts. Results indicate that while there are differences between both methods, they nevertheless largely both perform similarly, thus showing that weather generators can be used as substitutes to resampling the historical past. Based on these results, two approaches for taking non-stationarity into account have been proposed. Both approaches are based on a climate-based perturbation of the stochastic weather generator parameters. The first approach explored a simple perturbation method in which the entire length of the historical record is used to quantify internal variability, while a subset of recent years is used to characterize mean climatic values for precipitation, minimum and maximum temperatures. Results show that the approach systematically improves long-term streamflow forecasts accuracy, and that results are dependent on the time window used to estimate current mean climatic estimates. The second approach conditioned the parameters of a stochastic weather generator on largescale climate indices. In this approach, the most important climate indices are identified by looking at yearly correlations between a set of 40 indices and precipitation and temperature. A linear model is then constructed to identify precipitation and temperature anomalies which are then used to induce perturbations in the stochastic weather generator. Five different time windows are defined to determine the optimal linear model. Results show that temperatures are significantly correlated with large-scale climate indices, whereas precipitation is only weakly related to the same indices. The length of the time window has a considerable impact on the prediction ability of the linear models. The precipitation models based on short-duration time windows performed better than those based on longer windows, while the reverse was found for the temperature models. Results show that the proposed method improves long-term streamflow forecasting, particularly around the spring flood.
-
While impressive results have been achieved in the well-known fields where Deep Learning allowed for breakthroughs such as computer vision, its impact on different older areas is still vastly unexplored. In Computational Fluid Dynamics and especially in Flood Modeling, many phenomena are very high-dimensional, and predictions require the use of numerical simulations, which can be, while very robust and tested, computationally heavy and may not prove useful in the context of real-time predictions. This issue led to various attempts at developing Reduced-Order Modeling techniques, both intrusive and non-intrusive. One recent relevant addition is a combination of Proper Orthogonal Decomposition with Deep Neural Networks (POD-NN). Yet, to our knowledge, little has been performed in implementing uncertainty-aware regression tools in the example of the POD-NN framework. In this work, we aim at comparing different novel methods addressing uncertainty quantification in Neural Networks, pushing forward the POD-NN concept with Deep Ensembles and Bayesian Neural Networks, which we first test on benchmark problems, and then apply to a real-life application: flooding predictions in the Mille-Iles river in Laval, QC, Canada. Building a non-intrusive surrogate model, able to know when it doesn’t know, is still an open research area as far as neural networks are concerned.
-
RÉSUMÉ: Les événements de submersion sont en augmentation sur les côtes du fleuve Saint-Laurent en raison des tempêtes, de la hausse du niveau marin et de la diminution de la glace de mer. À ce jour, le Québec ne possède pas de zonage de la submersion. Dans le cadre de cette thèse, une approche de cartographie de la submersion est développée en intégrant les vagues, les niveaux d'eau et la morphologie des plages de l'estuaire et du golfe du Saint-Laurent (EGSL). Deux types d'approches cartographiques ont été comparés : la simulation empirique qui projette un niveau total statique sur le territoire (niveau d'eau observé + effet des vagues sur la côte, le jet de rive ou runup), et le modèle numérique XBeach en mode surfbeat. Ces deux approches nécessitent une surface topo-bathymétrique précise et actualisée de la plage. Grâce au développement d'un réseau de suivi des plages par vidéo, nous évaluons dans un premier temps l'efficacité d'une méthode de topographie intertidale par vidéo par rapport à des levés LiDAR terrestres, et améliorons sa performance en intégrant les niveaux d'eau près de la plage au module d'élévation des lignes d'eau. Ce projet a permis la création de surfaces topographiques à précision centimétrique comparable au LiDAR et d'y extraire des paramètres morphologiques, comme la pente de la plage, nécessaire aux modèles empiriques de niveaux d'eau. La capacité des deux approches de cartographie à simuler la submersion du 6 décembre 2010 au Bas-Saint-Laurent a ensuite été analysée en comparant les surfaces inondées. La correspondance spatiale entre les simulations et les observations de submersion a été évaluée. Il en ressort que malgré la complexité du modèle XBeach et une légère surprédiction du modèle empirique (36%), les surfaces submergées obtenues par les deux approches sont similaires et correctement prédites à hauteur de 66-78%. Dans le cadre d'une troisième étude, XBeach a également été utilisé dans la baie des Chaleurs pour évaluer l'impact d'un événement extrême pour l'horizon 2100 sur l'aléa de submersion. Les simulations montrent que les débordements côtiers ont été engendrés par des vagues de relativement faible amplitude à la côte (Hs < 1 m) et que malgré des profondeurs d'eau avoisinant 1,2 m, des vitesses de courants élevées se sont produites dans les espaces urbanisés (U > 2 m/s). L'analyse de la cartographie de la submersion à Maria suggère qu'en 2100, l'impact de la hausse du niveau marin sur les communautés riveraines du Saint-Laurent pourrait provoquer des submersions plus vastes avec des profondeurs d'eau et vitesses de courants plus élevées, ce qui pourraient intensifier l'aléa auquel fait face la population. Même si les simulations numériques permettent de comprendre comment les phénomènes physiques engendrent la submersion, l'intérêt de la méthode statique réside dans sa rapidité d'application, mais son efficacité est fonction de la validité et l'applicabilité des modèles empiriques de runup utilisés. Ainsi, le dernier volet de la thèse porte sur le paramétrage d'un modèle empirique de runup adapté à l'EGSL. L'observation du runup (et de ses composantes moyenne et haute fréquence, le setup et le swash) par vidéo réalisée sur 5 plages couvre un large spectre de paramètres environnementaux et de types de côte sur une période de 3 ans. Des analyses de corrélation entre les niveaux d'eau à la côte et les caractéristiques de vagues au large et la pente de plage ont été réalisées. Les résultats montrent que l'influence des paramètres hydrodynamiques sur le runup, setup, et swash est paramétrée de façon similaire. Le rôle de la morphologie de la plage sur le setup est par ailleurs paramétré par une fonction inverse de la pente, alors que le swash est fonction de la racine carrée de la pente. Avec une erreur moyenne de 23 cm et un biais de 2 cm, l'équation de runup proposée offre un fort potentiel d'estimation des niveaux d'eau totaux sur les environnements côtiers diversifiés à fetch limité. Les résultats de la thèse montrent qu'il apparaît pertinent d'utiliser une approche statique p ur identifier les zones les plus vulnérables à la submersion, en autant que l'équation utilisée soit validée sur le type d'environnement en question. En combinant cette approche à des modélisations numériques en zones à forte concentration d'enjeux, il sera possible d'instaurer un premier zonage de la submersion au Québec. -- Mot(s) clé(s) en français : Cartographie de la submersion, Runup, Topographie par vidéo, Vagues infragravitaires, XBeach. -- ABSTRACT: Coastal flood events are increasing on the shores of the St. Lawrence River due to storms, rising sea levels and decreasing sea ice. To date, the province of Québec does not have a coastal flood mapping guideline. In this thesis, a coastal flood mapping approach is developed by integrating waves, water levels and beach morphology of the Estuary and Gulf of St. Lawrence (EGSL). Two types of cartographic approaches were compared: the empirical simulation that projects a static total level overland (observed water level + wave effect on the coast, known as wave runup), and the numerical model XBeach in surfbeat mode. These two approaches require a precise and updated topo-bathymetric surface of the beach. Through the development of a shore-based video monitoring network, we first evaluate the effectiveness of a video intertidal topography method against terrestrial LiDAR surveys, and improve its performance by integrating water levels near the beach as a proxy to beach contour elevetion. This project enabled the creation of centimeter-scale topographic surfaces comparable to LiDAR and the extraction of morphological parameters, such as the beach slope, necessary for empirical runup models. The ability of both mapping approaches to simulate the flood of December 6, 2010 in Bas-Saint-Laurent was analyzed by comparing flooded areas. Spatial correspondence between simulations and the observed flood extent was evaluated. Despite the complexity of XBeach and a slight over-prediction of the empirical model (36%), the flooded areas obtained by the two approaches are similar and correctly predicted by 66-78%. In a third study, XBeach was also used in the Chaleur Bay to assess the impact of an extreme event for the 2100 horizon on coastal flood hazards. The simulations show that the overland flow was generated by waves of relatively low amplitude at the coast (Hs <1 m) and that despite water depths close to 1.2 m, high current velocities occurred in the urbanized areas (U> 2 m/s). The analysis of the flood maps in Maria suggests that by 2100, the impact of sea level rise on coastal communities in the St. Lawrence could lead to larger flooded areas, with deeper water depths and higher flow velocity, intensifying the risk to the population. Although numerical simulations offer an understanding of the physical phenomena that cause coastal flooding, the interest of the static method lies in its convenience, but its effectiveness depends on the validity of the empirical runup models employed. Thus, the last part of the thesis deals with the parameterization of an empirical runup model in the EGSL. Video-based wave runup observations (and of its mean and high frequency components, setup and swash, respectively) on 5 beaches was carried out on a broad spectrum of environmental parameters and coast type over a period of 3 years. Correlation analyzes between coastal water levels (runup, setup, and swash) and offshore wave characteristics and beach slope were performed. The results show that the influence of the hydrodynamic parameters on wave runup, setup, and swash is similarly parameterized. The role of the morphology of the range on the setup is however parameterized by an inverse function of the slope, while the swash is a function of the square root of the slope. With an average error of 23 cm and a 2 cm bias, the original runup equation offers a high potential for estimating total water levels over diverse fetch-limited coastal environments. This thesis shows that it seems appropriate to use a static approach to identify the areas most vulnerable to coastal flooding, as long as the equation used is validated on the specific coastal environment. By combining this approach with numerical modeling in coastal hotspots with multiple issues at stake, it will be possible to introduce a first coasta flood zoning in the province of Québec. -- Mot(s) clé(s) en anglais : Coastal flooding, Runup, Video-derived topography, Infragravity waves, XBeach.
-
Cette thèse vise à améliorer notre compréhension du modèle hédonique et de son application sur les données des biens immobiliers afin d'étudier l'impact d'un événement / externalité / environnementale liée à la présence d'inondation sur la valeur des propriétés résidentielles. Étant donné que les données immobilières sont réparties dans l'espace et dans le temps, des "corrections" temporelles et spatiales sont nécessaires dans le processus de modélisation économétrique. La recherche prend appui sur l’équation de prix hédonique. L’analyse empirique recours également à l’estimateur de type différence de différences spatio-temporelles (STDID) afin d’étudier l’effet d’une inondation survenue en 1998 sur le prix des résidences dans la ville de Laval au Canada entre 1995-2007. Les résultats suggèrent que l’utilisation des informations sur les zones inondables dans le but d’évaluer l’impact des inondations sur les valeurs résidentielles n’est pas une approche nécessairement appropriée. Les conclusions suggèrent que la grande hétérogénéité des résultats notés dans la littérature n’est probablement pas étrangère à la façon de définir les résidences touchées par les inondations. Cela signifie que les recherches empiriques sur les effets des inondations sur la valeur immobilière mesurent en réalité la valeur liée à la perception du risque d'inondation et non l’effet réel de l'inondation. Les résultats suggèrent que les applications futures dans la littérature devront porter une attention particulière à la manière de définir les zones inondables et d’identifier les résidences réellement touchées.