Votre recherche
Résultats 117 ressources
-
Coastal areas are particularly vulnerable to flooding from heavy rainfall, sea storm surge, or a combination of the two. Recent studies project higher intensity and frequency of heavy rains, and progressive sea level rise continuing over the next decades. Pre-emptive and optimal flood defense policies that adaptively address climate change are needed. However, future climate projections have significant uncertainty due to multiple factors: (a) future CO2 emission scenarios; (b) uncertainties in climate modelling; (c) discount factor changes due to market fluctuations; (d) uncertain migration and population growth dynamics. Here, a methodology is proposed to identify the optimal design and timing of flood defense structures in which uncertainties in 21st century climate projections are explicitly considered probabilistically. A multi-objective optimization model is developed to minimize both the cost of the flood defence infrastructure system and the flooding hydraulic risk expressed by Expected Annual Damage (EAD). The decision variables of the multi-objective optimization problem are the size of defence system and the timing of implementation. The model accounts for the joint probability density functions of extreme rainfall, storm surge and sea level rise, as well as the damages, which are determined dynamically by the defence system state considering the probability and consequences of system failure, using a water depth–damage curve related to the land use (Corine Land Cover); water depth due to flooding are calculated by hydraulic model. A new dominant sorting genetic algorithm (NSGAII) is used to solve the multi-objective problem optimization. A case study is presented for the Pontina Plain (Lazio Italy), a coastal region, originally a swamp reclaimed about a hundred years ago, that is rich in urban centers and farms. A set of optimal adaptation policies, quantifying size and timing of flood defence constructions for different climate scenarios and belonging to the Pareto curve obtained by the NSGAII are identified for such a case study to mitigate the risk of flooding and to aid decision makers.
-
In recent years, understanding and improving the perception of flood risk has become an important aspect of flood risk management and flood risk reduction policies. The aim of this study was to explore perceptions of flood risk in the Petite Nation River watershed, located in southern Quebec, Canada. A survey was conducted with 130 residents living on a floodplain in this river watershed, which had been affected by floods in the spring of 2017. Participants were asked about different aspects related to flood risk, such as the flood hazard experience, the physical changes occurring in the environment, climate change, information accessibility, flood risk governance, adaptation measures, and finally the perception of losses. An analysis of these factors provided perspectives for improving flood risk communication and increasing the public awareness of flood risk. The results indicated that the analyzed aspects are potentially important in terms of risk perception and showed that the flood risk perceptions varied for each aspect analyzed. In general, the information regarding flood risk management is available and generally understandable, and the level of confidence was good towards most authorities. However, the experiences of flood risk and the consequences of climate change on floods were not clear among the respondents. Regarding the adaptation measures, the majority of participants tended to consider non-structural adaptation measures as being more relevant than structural ones. Moreover, the long-term consequences of flooding on property values are of highest concern. These results provide a snapshot of citizens’ risk perceptions and their opinions on topics that are directly related to such risks.
-
Floods can be caused by heavy rainfall and the consequent overflow of rivers, causing low-lying areas to be affected. Populated regions close to riverbeds are the sectors most affected by these disasters, which requires modelling studies to generate different scenarios. The work focuses on the bibliometric analysis of the search for topics such as flood modelling focused on the research, risk, and assessment of these catastrophes, aiming to determine new trends and tools for their application in the prevention of these natural disasters. The methodology consists of: (i) search criteria and database selection, (ii) pre-processing of the selected data and software, and (iii) analysis and interpretation of the results. The results show a wide range of studies for dimensional analysis in different flood scenarios, which greatly benefit the development of flood prevention and risk strategies. In addition, this work provides insight into the different types of software and modelling for flood analysis and simulation and the various trends and applications for future modelling.
-
Abstract A warmer climate impacts streamflows and these changes need to be quantified to assess future risk, vulnerability, and to implement efficient adaptation measures. The climate simulations from the fifth phase of the Coupled Model Intercomparison Project (CMIP5), which have been the basis of most such assessments over the past decade, are being gradually superseded by the more recent Coupled Model Intercomparison Project Phase 6 (CMIP6). Our study portrays the added value of the CMIP6 ensemble over CMIP5 in a first North America wide comparison using 3,107 catchments. Results show a reduced spread of the CMIP6 ensemble compared to the CMIP5 ensemble for temperature and precipitation projections. In terms of flow indicators, the CMIP6 driven hydrological projections result in a smaller spread of future mean and high flow values, except for mountainous areas. Overall, we assess that the CMIP6 ensemble provides a narrower band of uncertainty of future climate projections, bringing more confidence for hydrological impact studies. , Plain Language Summary Greenhouse gas emissions are causing the climate to warm significantly, which in turn impacts flows in rivers worldwide. To adapt to these changes, it is essential to quantify them and assess future risk and vulnerability. Climate models are the primary tools used to achieve this. The main data set that provides scientists with state‐of‐the‐art climate model simulations is known as the Coupled Model Intercomparison Project (CMIP). The fifth phase of that project (CMIP5) has been used over the past decade in multiple hydrological studies to assess the impacts of climate change on streamflow. The more recent sixth phase (CMIP6) has started to generate projections, which brings the following question: is it necessary to update the hydrological impact studies performed using CMIP5 with the new CMIP6 models? To answer this question, a comparison between CMIP5 and CMIP6 using 3,107 catchments over North America was conducted. Results show that there is less spread in temperature and precipitation projections for CMIP6. This translates into a smaller spread of future mean, high and low flow values, except for mountainous areas. Overall, we assess that using the CMIP6 data set would provide a more concerted range of future climate projections, leading to more confident hydrological impact studies. , Key Points A comparison of hydrological impacts using Coupled Model Intercomparison Project version 5 (CMIP5) and Coupled Model Intercomparison Project Phase 6 (CMIP6) ensembles is performed over 3,107 catchments in North America The CMIP6 ensembles provide a narrower band of uncertainty for hydrological indicators in the future It is recommended to update hydrological impact studies performed using CMIP5 with the CMIP6 ensemble
-
Whether disasters influence adaptation actions in cities is contested. Yet, the extant knowledge base primarily consists of single or small-N case studies, so there is no global overview of the evidence on disaster impacts and adaptation. Here, we use regression analysis to explore the effects of disaster frequency and severity on four adaptation action types in 549 cities. In countries with greater adaptive capacity, economic losses increase city-level actions targeting recently experienced disaster event types, as well as actions to strengthen general disaster preparedness. An increase in disaster frequency reduces actions targeting hazard types other than those that recently occurred, while human losses have few effects. Comparisons between cities across levels of adaptive capacity indicate a wealth effect. More affluent countries incur greater economic damages from disasters, but also have higher governance capacity, creating both incentives and opportunities for adaptation measures. While disaster frequency and severity had a limited impact on adaptation actions overall, results are sensitive to which disaster impacts, adaptation action types, and adaptive capacities are considered.
-
Rangecroft et al. provide an important and interesting paper on the challenges of interdisciplinary research and fieldwork with participants in water resource management. The paper shows the challenges of interaction between their research areas and demonstrates the importance of how a researcher interacts with their selected study sites. My key points reflect the use of different methodologies within social and natural sciences and across them as well as the main challenge of who has the power to influence the research directions. Research is not value-free and is highly influenced by one’s own training and knowledge, which needs to be addressed in the research activities. Finally, an option might be to move beyond interdisciplinary constraints and to work within a stronger transdisciplinary framework. Water research very much needs to interact with non-academic people to understand the challenges and possible solutions.
-
Abstract The performance of adaptation measures depends on their robustness against various possible futures, with varying climate change impacts. Such impacts are driven by both climatic as well as non-climatic drivers. Risk dynamics are then important, as the avoided risk will determine the benefits of adaptation actions. It is argued that the integration of information on changing exposure and vulnerability is needed to make projections of future climate risk more realistic. In addition, many impact and vulnerability studies have used a top-down rather a technical approach. Whether adaptation action is feasible is determined by technical and physical possibilities on the ground, as well as local capacities, governance and preference. These determine the hard and soft limits of adaptation. Therefore, it is argued that the risk metrics outputs alone are not sufficient to predict adaptation outcomes, or predict where adaptation is feasible or not; they must be placed in the local context. Several of the current climate risk products would fall short of their promise to inform adaptation decision-making on the ground. Some steps are proposed to improve adaptation modelling in order to better incorporate these aspects.
-
In cold regions, ice jams frequently result in severe flooding due to a rapid rise in water levels upstream of the jam. Sudden floods resulting from ice jams threaten human safety and cause damage to properties and infrastructure. Hence, ice-jam prediction tools can give an early warning to increase response time and minimize the possible damages. However, ice-jam prediction has always been a challenge as there is no analytical method available for this purpose. Nonetheless, ice jams form when some hydro-meteorological conditions happen, a few hours to a few days before the event. Ice-jam prediction can be addressed as a binary multivariate time-series classification. Deep learning techniques have been widely used for time-series classification in many fields such as finance, engineering, weather forecasting, and medicine. In this research, we successfully applied convolutional neural networks (CNN), long short-term memory (LSTM), and combined convolutional–long short-term memory (CNN-LSTM) networks to predict the formation of ice jams in 150 rivers in the province of Quebec (Canada). We also employed machine learning methods including support vector machine (SVM), k-nearest neighbors classifier (KNN), decision tree, and multilayer perceptron (MLP) for this purpose. The hydro-meteorological variables (e.g., temperature, precipitation, and snow depth) along with the corresponding jam or no-jam events are used as model inputs. Ten percent of the data were excluded from the model and set aside for testing, and 100 reshuffling and splitting iterations were applied to 80 % of the remaining data for training and 20 % for validation. The developed deep learning models achieved improvements in performance in comparison to the developed machine learning models. The results show that the CNN-LSTM model yields the best results in the validation and testing with F1 scores of 0.82 and 0.92, respectively. This demonstrates that CNN and LSTM models are complementary, and a combination of both further improves classification.
-
La température extrême de l’eau influence de nombreuses propriétés physiques, chimiques et biologiques des rivières. l ’ évaluation de l ’ Une prédiction précise de la température de l’eau est importante pour impact environnemental. Dans ce cadre, différents modèles ont été utilisés pour estimer les températures de l ’ linéaires simp eau à différentes échelles spatiales et temporelles, allant des méthodes les pour déterminer l’incertitude à des modèles sophistiqués non linéaires. Cependant, cette variable primordiale n’a pas été traitée dans un contexte probabiliste (ou fréquentiste). Donc, l’estimation des évènements extrêmes thermiques à l’aide des approc hes d’analyse fréquentielle locale (AFL) est importante. Lors de l’estimation des extrêmes thermiques, il est crucial de tenir compte de la forme de la distribution de fréquences considérée. Dans la première partie de la thèse , nous nous concentrons sur la sélection de la distribution de probabilité la plus appropriée des températures des rivières. Le critère d critère d ’ ’ information d ’ Akaike (AIC) et le information bayésien (BIC) sont utilisés pour évaluer la qualité de l distributions statis ’ ajustement des tiques. La validation des distributions candidates appropriées est également effectuée en utilisant l ’ approche de diagramme de rapport des L obtenus montrent que la distribution de Weibull (W2) moments (MRD). Les résultats est celle qui semble s’ajuster le données provenant des stations de haute altitude, tandis que les mieux aux séries d’extrêmes provenant des stations situées dans les régions de basse altitude sont bien adaptées avec la distribution normale (N). Ceci correspond au premier article. L a ’ couverture spatiale des données de température des cours d ’ eau est limitée dans de nombreuses régions du monde. Pour cette raison, une analyse fréquentielle régionale (AFR) permettant d estimer les extrêmes de température des rivières sur des sites non jau gés ou mal surveillés est nécessaire. En général, l’AFR inclut deux étapes principales, la délimitation des régions homogènes (DRH) qui vise à déterminer les sites similaires, et l’estimation régionale (ER) qui transfère l’information depuis les sites déte rminés dans la première étape vers le site cible. Par conséquent, le modèle d’indice thermique (IT) est introduit dans le contexte d’AFR pour estimer les extrêmes du régime thermique. Cette méthode est analogue au modèle d ’ indice de crue (IF) largement uti lisé en hydrologie. Le modèle IT incorpore l’homogénéité de la distribution de fréquence appropriée pour chaque région, ce qui offre une plus grande flexibilité. Dans cette étude, le modèle IT est comparé avec la régression linéaire multiple (MLR). Les rés ultats indiquent que le modèle IT fournit la meilleure performance (Article 2) . Ensuite, l’approche d’analyse canonique des corrélations non linéaires (ACCNL) est intégrée dans la DRH, présentée dans le Chapitre 4 de ce manuscrit (Article 3). Elle permet de considérer la complexité des phénomènes thermiques dans l’étape de DRH. Par la suite, dans le but d’identifier des combinaisons (DRH-ER) plus prometteuses permettant une meilleure estimation, une étude comparative est réalisée. Les combinaisons considérées au niveau des deux étapes de la procédure de l’AFR sont des combinaisons linéaires, semi-linéaires et non linéaires. Les résultats montrent que la meilleure performance globale est présentée par la combinaison non linéaire ACCNL et le modèle additif généralisé (GAM). Finalement, des modèles non paramétriques tels que le foret aléatoire (RF), le boosting de gradient extrême (XGBoost) et le modèle régression multivariée par spline adaptative (MARS) sont introduits dans le contexte de l’AFR pour estimer les quantiles thermiques et les comparer aux quantiles estimés à l’aide du modèle semi-paramétrique GAM. Ces modèles sont combinés avec des approches linéaires et non linéaires dans l’étape DRH, telles que ACC et ACCNL, afin de déterminer leur potentiel prédictif. Les résultats indiquent que ACCNL+GAM est la meilleure, suivie par ACC+MARS. Ceci correspond à l’article 4. <br /><br />Extreme water temperatures have a significant impact on the physical, chemical, and biological properties of the rivers. Environmental impact assessment requires accurate predictions of water temperature. The models used to estimate water temperatures within this framework range from simple linear methods to more complex nonlinear models. However, w ater temperature has not been studied in a probabilistic manner. It is, therefore, essential to estimate extreme thermal events using local frequency analysis (LFA). An LFA aims to predict the frequency and amplitude of these events at a given gauged locat ion. In order to estimate quantiles, it is essential to consider the shape of the frequency distribution being considered. The first part of our study focuses on selecting the most appropriate probability distribution for river water temperatures. The Akai ke information criteria (AIC) and the Bayesian information criteria (BIC) are used to evaluate the goodness of fit of statistical distributions. An Lmoment ratio diagram (MRD) approach is also used to validate sui table candidate distributions. The results good fit for extremes data from the highindicate that the Weibull distribution (W2) provides a altitude stations, while the normal distribution (N) is most appropriate for lowaltitude stations. This corresponds to the first article. In many parts of the world, river temperature data are limited in terms of spatial coverage and size of the series. Therefore, it is necessary to perform a regional frequency analysis (RFA) to estimate river temperature extremes at ungauged or poorly monitored sites. Generall y, RFA involves two main steps: delineation of homogenous regions (DHR), which identifies similar sites, and regional estimation (RE), which transfers information from the identified sites to the target site. The thermal index (TI) model is introduced in t he context of RFA to estimate the extremes of the thermal regime. This method is analogous to the index flood (IF) model commonly used in hydrology. The TI model considers the homogeneity of the appropriate frequency distributions for each region, which pr ovides larger flexibility. This study compares the TI model with multiple linear regression (MLR) approach. Results indicate that the TI model leads to better performances (Article 2). Then, the nonlinear canonical correlations analysis (NLCCA) approach is integrated into the DHR, as presented in Chapter 4 of this manuscript (Article 3). It allows considering the complexity of the thermal phenomena in the DHR step. A comparative study is then conducted to identify more promising combinations (DHR RE), that RFA procedure, linear, semilead to best estimation results. In the two stages of the linear, and nonlinear combinations are considered. The results of this study indicate that the nonlinear combination of the NLCCA and the generalized additive model (GAM ) produces the best overall performances. Finally, nonparametric models such as random forest (RF), extreme gradient boosting (XGBoost), and multivariate adaptive regression splines (MARS) are introduced in the context of RFA in order to estimate thermal q uantiles and compare them to quantiles estimated using the semiparametric GAM model. The predictive potential of these models is determined by combining them with linear and nonlinear approaches, such as CCA and NLCCA, in the DHR step. The results indicat e that NLCCA+GAM is the best, followed by CCA+MARS. This corresponds to article 4.
-
Cette thèse traite des aspects de la quantification de l'incertitude dans l'évaluation des ressources éoliennes avec les pratiques d'analyses d'incertitude et de sensibilité. Les objectifs de cette thèse sont d'examiner et d'évaluer la qualité des pratiques d'analyse de sensibilité dans l'évaluation des ressources éoliennes, de décourager l'utilisation d'une analyse de sensibilité à la fois, d'encourager l'utilisation d'une analyse de sensibilité globale à la place, d'introduire des méthodes d'autres domaines., et montrer comment les analyses d'incertitude et de sensibilité globale ajoutent de la valeur au processus d'aide à la décision. Cette thèse est organisée en quatre articles : I. Une revue des pratiques d'analyse de sensibilité dans l'évaluation des ressources éoliennes avec une étude de cas de comparaison d'analyses de sensibilité individuelles et globales du coût actualisé de l'énergie éolienne offshore ; II. Technique Quasi-Monte Carlo dans l'analyse de sensibilité globale dans l'évaluation des ressources éoliennes avec une étude de cas sur les Émirats Arabes Unis; III. Utilisation de la famille de distribution Halphen pour l'estimation de la vitesse moyenne du vent avec une étude de cas sur l'Est du Canada; IV. Étude d'évaluation des ressources éoliennes offshore du golfe Persique avec les données satellitaires QuikSCAT.Les articles I à III ont chacun donné lieu à une publication évaluée par des pairs, tandis que l'article IV - à une soumission. L'article I propose des classifications par variable de sortie d'analyse de sensibilité, méthode, application, pays et logiciel. L'article I met en évidence les lacunes de la littérature, fournit des preuves des pièges, conduisant à des résultats d'évaluation erronés et coûteux des ressources éoliennes. L'article II montre comment l'analyse de sensibilité globale offre une amélioration au moyen du quasi-Monte Carlo avec ses plans d'échantillonnage élaborés permettant une convergence plus rapide. L'article III introduit la famille de distribution Halphen pour l'évaluation des ressources éoliennes. Article IV utilise les données satellitaires SeaWinds/QuikSCAT pour l'évaluation des ressources éoliennes offshore du golfe Persique. Les principales contributions à l'état de l'art avec cette thèse suivent. À la connaissance de l'auteur, aucune revue de l'analyse de sensibilité dans l'évaluation des ressources éoliennes n'est actuellement disponible dans la littérature, l'article I en propose une. L'article II relie la modélisation mathématique et l'évaluation des ressources éoliennes en introduisant la technique de quasi-Monte Carlo dans l'évaluation des ressources éoliennes. L'article III présente la famille de distribution de Halphen, de l'analyse de la fréquence des crues à l'évaluation des ressources éoliennes. <br /><br />This dissertation deals with the aspects of quantifying uncertainty in wind resource assessment with the practices of uncertainty and sensitivity analyses. The objectives of this dissertation are to review and assess the quality of sensitivity analysis practices in wind resource assessment, to discourage the use of one-at-a-time sensitivity analysis, encourage the use of global sensitivity analysis instead, introduce methods from other fields, and showcase how uncertainty and global sensitivity analyses adds value to the decision support process. This dissertation is organized in four articles: I. Review article of 102 feasibility studies: a review of sensitivity analysis practices in wind resource assessment with a case study of comparison of one-at-a-time vs. global sensitivity analyses of the levelized cost of offshore wind energy; II. Research article: Quasi-Monte Carlo technique in global sensitivity analysis in wind resource assessment with a case study on United Arab Emirates; III. Research article: Use of the Halphen distribution family for mean wind speed estimation with a case study on Eastern Canada; IV. Application article: Offshore wind resource assessment study of the Persian Gulf with QuikSCAT satellite data. Articles I-III have each resulted in a peer-reviewed publication, while Article IV – in a submission. Article I offers classifications by sensitivity analysis output variable, method, application, country, and software. It reveals the lack of collective agreement on the definition of sensitivity analysis in the literature, the dominance of nonlinear models, the prevalence of one-at a-time sensitivity analysis method, while one-at-a-time method is only valid for linear models. Article I highlights gaps in the literature, provides evidence of the pitfalls, leading to costly erroneous wind resource assessment results. Article II shows how global sensitivity analysis offers improvement by means of the quasi-Monte Carlo with its elaborate sampling designs enabling faster convergence. Article III introduces the Halphen distribution family for the purpose of wind recourse assessment. Article IV uses SeaWinds/QuikSCAT satellite data for offshore wind resource assessment of the Persian Gulf. The main contributions to the state-of-the-art with this dissertation follow. To the best of author’s knowledge, no review of sensitivity analysis in wind resource assessment is currently available in the literature, Article I offers such. Article II bridges mathematical modelling and wind resource assessment by introducing quasi-Monte Carlo technique to wind resource assessment. Article III introduces the Halphen distribution family from flood frequency analysis to wind resource assessment.
-
RÉSUMÉ : Pour atténuer les risques d'inondation au Québec mais aussi partout dans le monde, plusieurs organismes gouvernementaux et des organismes privés, qui ont dans leurs attributions la gestion des risques des catastrophes naturelles, continuent d'améliorer ou d'innover en matière d'outils qui peuvent les aider efficacement à la mitigation des risques d'inondation et aider la société à mieux s'adapter aux changements climatiques, ce qui implique des nouvelles technologies pour la conception de ces outils. Après les inondations de 2017, le ministère de l'Environnement et de la Lutte contre les changements climatiques (MELCC) du gouvernement du Québec, en collaboration avec d'autres ministères et organismes et soutenu par Ouranos, a initié le projet INFO-Crue qui vise d'une part, à revoir la cartographie des zones inondables et, d'autre part, à mieux outiller les communautés et les décideurs en leur fournissant une cartographie prévisionnelle des crues de rivières. De ce fait, l'objectif de notre travail de recherche est d'analyser de façon empirique les facteurs qui influencent l'adoption d'un outil prévisionnel des crues. La revue de la littérature couvre les inondations et les prévisions, les théories et les modèles d'acceptation de la technologie de l'information (TI). Pour atteindre l'objectif de recherche, le modèle développé s'est appuyé particulièrement sur le modèle qui combine les concepts de la théorie unifiée de l'acceptation et l'utilisation des technologies (UTAUT) de Venkatesh et al. (2003) avec le concept « risque d'utilisation ». Afin de répondre à notre objectif de recherche, nous avons utilisé une méthodologie de recherche quantitative hypothético-déductive. Une collecte de données à l'aide d'une enquête par questionnaire électronique a été réalisée auprès de 106 citoyens qui habitent dans des zones inondables. L'analyse des résultats concorde avec la littérature. La nouvelle variable « risque d'utilisation » rajoutée au modèle UTAUT a engendré trois variables qui sont : « risque psychologique d'utilisation »; « risque de performance de l'outil » et « perte de confiance ». Pour expliquer l'adoption d'un nouvel outil prévisionnel des crues, notre analyse a révélé que cinq variables à savoir : « l'utilité perçue », « la facilité d'utilisation », « l'influence sociale », « la perte de confiance » et « le risque psychologique » sont des facteurs significatifs pour l'adoption du nouvel outil prévisionnel. -- Mot(s) clé(s) en français : Inondation, Prévision, UTAUT, Adoption de la technologie, Risque perçu d'utilisation, facteurs d'adoption, Projet INFO-Crue. -- ABSTRACT : With the aim of mitigating flood risks in Canada as well as around the world, several government and private organizations that have the responsibility of natural hazard risk management, are working hard to improve or innovate the flood mitigation approaches that can help effectively reducing flood risks and helping people adapt to climate change. After the 2017 floods, the Ministry of the Environment and the Fight against Climate Change (MELCC) of the Government of Quebec, in collaboration with other ministries and organizations and supported by Ouranos, initiated the INFO-Crue project which aims at reviewing the mapping of flood zones and providing communities and decision-makers with a forecast mapping of river floods. In this context, the objective of our research is to analyze the factors that may influence the adoption of a flood forecasting tool. The literature review covers flood and forecasting, as well as technology adoption models. To achieve the goal of our research, a conceptual model that combines the Unified Theory of Acceptance and Use of Technology (UTAUT) of Venkatesh et al. (2003) with perceived use risk was developed. A quantitative research methodology was used, and we administrate an electronic questionnaire survey to 106 citizens who live in flood-plain area. Results analysis show that the new variable "perceived use risk" introduced in the model generates three variables which are: "psychological risk"; "performance risk" and "loss of trust". To explain the adoption of a new forecasting tool, our analysis revealed that the following five variables which are "perceived usefulness", "ease of use", "social influence", "loss of trust" and "psychological risk" are significant factors for the adoption of the new forecasting tool. -- Mot(s) clé(s) en anglais : Flood, Forecasting, UTAUT, Technology Adoption, perceived Risk of use, adoption factors, INFO-Crue project.
-
Compte tenu de la nécessité de mettre à jour les cartes d'inondation et de minimiser les coûts associés (collecte de données et ressources humaines), il existe un besoin de méthodes alternatives simplifiées ne reposant pas sur la modélisation hydrodynamique classique. L'une des méthodes simplifiées répondant à ce besoin est HAND (Height Above the Nearest Drainage), une approche qui requiert uniquement un modèle numérique d'altitude (MNA) et un réseau hydrographique. Celle-ci a été mise en œuvre dans PHYSITEL, un système d’information géographique SIG spécialisé pour les modèles hydrologiques distribués. Ainsi, pour une hauteur d’eau donnée dans plusieurs tronçons de rivière, il est possible de faire une délimitation de première instance de la surface inondée le long du réseau hydrographique d’un bassin versant. Par ailleurs, l'utilisation des informations fournies par HAND et l'application de l'équation de Manning permettent également de construire une courbe de tarage synthétique pour tout tronçon de rivière en l’absence de données bathymétriques. Ce mémoire présente l’application de cette approche, qui a été validée précédemment en partie sur de grands bassins, sur deux petits bassins, ceux de la rivière à La Raquette, d’une superficie de 133 km², et de la rivière Saint Charles, d’une superficie de 552 km². Trois stations de jaugeage dans chaque bassin ont fourni les informations de base nécessaires au processus de calage de l’approche. L’efficacité et l’adaptabilité de cette approche ont été évaluées dans ce projet en fonction des données disponibles, du temps de calcul et de la précision mesurée par le biais et l’erreur quadratique moyenne. Les incertitudes et sensibilités de l’approche ont été analysées en tenant compte de la résolution spatiale et du manque de données bathymétriques. De plus, des analyses innovatrices ont été produites dans l’application de HAND. Tels qu’une analyse de sensibilité globale pour informer le processus de calage ainsi que l’application d’un critère basé sur le nombre de Froude afin de permettre de valider le respect des hypothèses sous-jacentes à l’application de l’approche sur chaque tronçon de rivière d’un bassin. En utilisant des MNA à haute résolution(<5 m/pixel), des courbes de tarage synthétiques ont été produites avec des biais inférieurs à ±20 % par rapport à des courbes de tarage in-situ. De plus, la détermination d'un critère de sélection des courbes dans un biais de ± 5% par rapport à la courbe de tarage observée a permis d'obtenir des courbes de tarage synthétiques avec des erreurs quadratiques moyennes normalisées comprises entre 0,03 et 0,62. Ainsi, cette approche a été validée pour dériver des courbes de tarage synthétiques et, par conséquent, pour soutenir la délimitation des zones à risque d'inondation dans les petits bassins versants en tenant compte des incertitudes associées à l'application d'une approche de faible complexité. <br /><br />Given the emergent need to update flood inundation maps and minimize associated financial costs (data collection and human resources), simplified alternative methods to the classical hydrodynamic modelling method, are being developed. One of the simplified methods built to fulfill this need is the terrain-based Height Above the Nearest Drainage (HAND) method, which solely relies on a digital elevation model (DEM) and a river network. This approach was implemented in PHYSITEL, a specialized GIS for distributed hydrological models. For a given river reach and water height, HAND can provide a first-hand delineation of the inundated areas within a watershed. In addition, coupling the information provided by HAND and the Manning equation allows for the construction of a synthetic rating curve for any homogeneous river reach where bathymetric data are not available. Since this synthetic rating curve approach has been validated in part for large watersheds, this study tested this approach onto two small watersheds: the 133- km² La Raquette River watershed and the 552-km² Saint Charles River watershed. Three gauging stations on each basin provided the basic data to perform the calibration process. The effectiveness and adaptability of the approach was assessed as a function of available data, computational time, and accuracy measured using the bias and root mean squared error (RMSE). The uncertainties were quantified in terms of spatial resolution and lack of bathymetry data. In addition, innovative analyses were made on the application of the HAND-synthetic rating curve approach. First, a global sensitivity analysis was done to inform the calibration process, and then a Froude number-based criterion was applied to validate the application of the Manning equation on any river reach of a watershed. Using high-resolution DEMs (<5 m/pixel), we obtained synthetic rating curves with bias less than 20% when compared to in-situ rating curves. Finally, a curve selection criterion was applied to identify those curves having a bias of ± 5%. The selected synthetic rating curves had normalized mean squared errors between 0.03 and 0.62. Thus, the proposed approach was deemed appropriate to derive synthetic rating curves and support the delineation of flood risk areas in small watersheds all the while considering the uncertainties associated with applying a low complexity model.
-
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec.