Votre recherche
Résultats 72 ressources
-
AbstractThe frequency and severity of floods has increased in different regions of the world due to climate change. Although the impact of floods on human health has been extensively studied, the increase in the segments of the population that are likely to be impacted by floods in the future makes it necessary to examine how adaptation measures impact the mental health of individuals affected by these natural disasters. The goal of this scoping review is to document the existing studies on flood adaptation measures and their impact on the mental health of affected populations, in order to identify the best preventive strategies as well as limitations that deserve further exploration. This study employed the methodology of the PRISMA-ScR extension for scoping reviews to systematically search the databases Medline and Web of Science to identify studies that examined the impact of adaptation measures on the mental health of flood victims. The database queries resulted in a total of 857 records from both databases. Following two rounds of screening, 9 studies were included for full-text analysis. Most of the analyzed studies sought to identify the factors that drive resilience in flood victims, particularly in the context of social capital (6 studies), whereas the remaining studies analyzed the impact of external interventions on the mental health of flood victims, either from preventive or post-disaster measures (3 studies). There is a very limited number of studies that analyze the impact of adaptation measures on the mental health of populations and individuals affected by floods, which complicates the generalizability of their findings. There is a need for public health policies and guidelines for the development of flood adaptation measures that adequately consider a social component that can be used to support the mental health of flood victims.
-
Les inondations de 2017 et 2019 au Québec ont affecté respectivement 293 et 240 municipalités. Ces inondations ont généré une cascade d’évènements stressants (stresseurs primaires et secondaires) qui ont eu des effets sur la santé mentale de la population et retardé le processus de rétablissement des individus. Cette période de rétablissement peut s’échelonner sur plusieurs mois voire plusieurs années. Cette étude s’inscrit dans la spécificité de la recherche mixte mise de l’avant à travers trois stratégies de recherche, réalisées de façon séquentielle : 1) sondage populationnelle réalisé auprès de 680 personnes, 2) analyse de documents produits par les organisations participant au processus de rétablissement social des sinistrés, ou sur des analyses externes portant sur ces interventions de rétablissement et 3) entrevues semi-dirigées auprès de 15 propriétaires occupants ayant complété une demande d’indemnisation à la suite des inondations de 2019 et auprès de 11 professionnels et gestionnaires participant au processus de rétablissement social. Les entrevues semi-dirigées et les questionnaires complétés par les personnes sinistrées lors des inondations de 2019 démontrent que les principales sources de stress ayant des impacts sur la santé et le bien-être des répondants sont : 1) l’absence d’avertissement et la vitesse de la montée des eaux; 2) l’obligation de se relocaliser et la peur d’être victime de pillage; 3) le manque de solidarité et d’empathie de la part de certains employés du MSP; 4) la gestion des conflits familiaux; 5) la gestion de problèmes de santé nouveaux ou préexistants; 6) la complexité des demandes d’indemnisation; 7) la lourdeur et les délais des travaux de nettoyage ou de restauration; 8) les indemnités inférieures aux coûts engendrés par l’inondation; 9) les pertes matérielles subies, particulièrement ceux d’une valeur de plus de 50 000 $; et 10) la diminution anticipée de la valeur de sa résidence. À cela s’ajoute l’insatisfaction à l’égard du programme d’indemnisation du gouvernement du Québec (PGIAF) qui fait plus que doubler la prévalence des symptômes de stress post-traumatique. Les inondations entraînent également une perte de satisfaction ou de bien-être statistiquement significative. La valeur monétaire de cette perte de jouissance peut être exprimée en équivalent salaires. En moyenne, cette diminution du bien-être équivaut à une baisse de salaire de 60 000$ pour les individus ayant vécu une première inondation et à 100 000$ pour les individus ayant vécu de multiples inondations. Ces résultats suggèrent que les coûts indirects et intangibles représentent une part importante des dommages découlant des inondations. Ce projet de recherche vise également à analyser l’application du PGIAF et son influence sur les stresseurs vécus par les sinistrés dans le contexte de la pandémie de COVID-19. La principale recommandation de cette étude repose sur une analyse de documents, un sondage populationnel et des entrevues semi-dirigées. Ainsi, s’attaquer à la réduction de principaux stresseurs nécessite 1) d’améliorer la gouvernance du risque d’inondation, 2) d’intensifier la communication et le support aux sinistrés, et 3) de revoir les mécanismes d’indemnisation existants.
-
AbstractEl Niño‐Southern Oscillation (ENSO) is often considered as a source of long‐term predictability for extreme events via its teleconnection patterns. However, given that its characteristic cycle varies from two to 7 years, it is difficult to obtain statistically significant conclusions based on observational periods spanning only a few decades. To overcome this, we apply the global flood risk modeling framework developed by Carozza and Boudreault to an equivalent of 1,600 years of bias‐corrected General Circulation Model outputs. The results show substantial anomalies in flood occurrences and impacts for El Niño and La Niña when compared to the all‐year baseline. We were able to obtain a larger global coverage of statistically significant results than previous studies limited to observational data. Asymmetries in anomalies for both ENSO phases show a larger global influence of El Niño than La Niña on flood hazard and risk.
-
Abstract Measuring freshwater submerged aquatic vegetation (SAV) biomass at large spatial scales is challenging, and no single technique can cost effectively accomplish this while maintaining accuracy. We propose to combine and intercalibrate accurate quadrat‐scuba diver technique, fast rake sampling, and large‐scale echosounding. We found that the overall relationship between quadrat and rake biomass is moderately strong (pseudo R 2 = 0.61) and varies with substrate type and SAV growth form. Rake biomass was also successfully estimated from biovolume (pseudo R 2 = 0.57), a biomass proxy derived from echosounding. In addition, the relationship was affected, in decreasing relevance, by SAV growth form, flow velocity, acoustic data quality, depth, and wind conditions. Sequential application of calibrations yielded predictions in agreement with quadrat observations, but echosounding predictions underestimated biomass in shallow areas (< 1 m) while outperforming point estimation in deep areas (> 3 m). Whole‐system quadrat‐equivalent biomass from echosounding differed by a factor of two from point survey estimates, suggesting echosounding is more accurate at larger scales owing to the increased sample size and better representation of spatial heterogeneity. To decide when an individual or a combination of techniques is profitable, we developed a step‐by‐step guideline. Given the risks of quadrat‐scuba diver technique, we recommend developing a one‐time quadrat–rake calibration, followed by the use of rake and echosounding when sampling at larger spatial and temporal scales. In this case, rake sampling becomes a valid ground truthing method for echosounding, also providing valuable species information and estimates in shallow waters where echosounding is inappropriate.
-
Climate change and more frequent severe storms have caused persistent flooding, storm surges, and erosion in the northeastern coastal region of the United States. These weather-related disasters have continued to generate negative environmental consequences across many communities. This study examined how coastal residents’ exposure to flood risk information and information seeking behavior were related to their threat appraisal, threat-coping efficacy, and participation in community action in the context of building social resilience. A random sample of residents of a coastal community in the Northeastern United States was selected to participate in an online survey (N = 302). Key study results suggested that while offline news exposure was weakly related to flood vulnerability perception, online news exposure and mobile app use were both weakly associated with flood-risk information seeking. As flood vulnerability perception was strongly connected to flood severity perception but weakly linked to lower self-efficacy beliefs, flood severity perception was weakly and moderately associated with response-efficacy beliefs and information seeking, respectively. Furthermore, self-efficacy beliefs, response efficacy beliefs, and flood-risk information seeking were each a weak or moderate predictor of collective efficacy beliefs. Lastly, flood risk information-seeking was a strong predictor and collective efficacy beliefs were a weak predictor of community action for flood-risk management. This study tested a conceptual model that integrated the constructs from risk communication, information seeking, and protection motivation theory. Based on the modeling results reflecting a set of first-time findings, theoretical and practical implications are discussed.
-
This study investigates the phenomenon of information (in)sufficiency in the context of flood risks. Individuals’ perception of how much risk information they need is a major trigger and driver of information-seeking behavior, and therefore it is an important part of creating effective preventive risk-communication campaigns. To understand factors that contribute to individuals’ sense of information (in)sufficiency, the roles played by prior experiences of floods and general risk sensitivity were analyzed using survey data from residents in flood-risk zones. The findings highlight that every third respondent reported a state of information sufficiency. Residents with prior experience evaluate their information sufficiency level based on their perception of consequences of future floods. But it is general risk sensitivity that best explains need for more information.
-
Abstract. Efficient adaptation strategies to climate change require the estimation of future impacts and the uncertainty surrounding this estimation. Over- or underestimating future uncertainty may lead to maladaptation. Hydrological impact studies typically use a top-down approach in which multiple climate models are used to assess the uncertainty related to the climate model structure and climate sensitivity. Despite ongoing debate, impact modelers have typically embraced the concept of “model democracy”, in which each climate model is considered equally fit. The newer Coupled Model Intercomparison Project Phase 6 (CMIP6) simulations, with several models showing a climate sensitivity larger than that of Phase 5 (CMIP5) and larger than the likely range based on past climate information and understanding of planetary physics, have reignited the model democracy debate. Some have suggested that “hot” models be removed from impact studies to avoid skewing impact results toward unlikely futures. Indeed, the inclusion of these models in impact studies carries a significant risk of overestimating the impact of climate change. This large-sample study looks at the impact of removing hot models on the projections of future streamflow over 3107 North American catchments. More precisely, the variability in future projections of mean, high, and low flows is evaluated using an ensemble of 19 CMIP6 general circulation models (GCMs), 5 of which are deemed hot based on their global equilibrium climate sensitivity (ECS). The results show that the reduced ensemble of 14 climate models provides streamflow projections with reduced future variability for Canada, Alaska, the Southeast US, and along the Pacific coast. Elsewhere, the reduced ensemble has either no impact or results in increased variability in future streamflow, indicating that global outlier climate models do not necessarily provide regional outlier projections of future impacts. These results emphasize the delicate nature of climate model selection, especially based on global fitness metrics that may not be appropriate for local and regional assessments.
-
As Earth's atmospheric temperatures and human populations increase, more people are becoming vulnerable to natural and human-induced disasters. This is particularly true in Central America, where the growing human population is experiencing climate extremes (droughts and floods), and the region is susceptible to geological hazards, such as earthquakes and volcanic eruptions, and environmental deterioration in many forms (soil erosion, lake eutrophication, heavy metal contamination, etc.). Instrumental and historical data from the region are insufficient to understand and document past hazards, a necessary first step for mitigating future risks. Long, continuous, well-resolved geological records can, however, provide a window into past climate and environmental changes that can be used to better predict future conditions in the region. The Lake Izabal Basin (LIB), in eastern Guatemala, contains the longest known continental records of tectonics, climate, and environmental change in the northern Neotropics. The basin is a pull-apart depression that developed along the North American and Caribbean plate boundary ∼ 12 Myr ago and contains > 4 km of sediment. The sedimentological archive in the LIB records the interplay among several Earth System processes. Consequently, exploration of sediments in the basin can provide key information concerning: (1) tectonic deformation and earthquake history along the plate boundary; (2) the timing and causes of volcanism from the Central American Volcanic Arc; and (3) hydroclimatic, ecologic, and geomicrobiological responses to different climate and environmental states. To evaluate the LIB as a potential site for scientific drilling, 65 scientists from 13 countries and 33 institutions met in Antigua, Guatemala, in August 2022 under the auspices of the International Continental Scientific Drilling Program (ICDP) and the US National Science Foundation (NSF). Several working groups developed scientific questions and overarching hypotheses that could be addressed by drilling the LIB and identified optimal coring sites and instrumentation needed to achieve the project goals. The group also discussed logistical challenges and outreach opportunities. The project is not only an outstanding opportunity to improve our scientific understanding of seismotectonic, volcanic, paleoclimatic, paleoecologic, and paleobiologic processes that operate in the tropics of Central America, but it is also an opportunity to improve understanding of multiple geological hazards and communicate that knowledge to help increase the resilience of at-risk Central American communities.
-
Hydrological time series often present nonstationarities such as trends, shifts, or oscillations due to anthropogenic effects and hydroclimatological variations, including global climate change. For water managers, it is crucial to recognize and define the nonstationarities in hydrological records. The nonstationarities must be appropriately modeled and stochastically simulated according to the characteristics of observed records to evaluate the adequacy of flood risk mitigation measures and future water resources management strategies. Therefore, in the current study, three approaches were suggested to address stochastically nonstationary behaviors, especially in the long-term variability of hydrological variables: as an overall trend, shifting mean, or as a long-term oscillation. To represent these options for hydrological variables, the autoregressive model with an overall trend, shifting mean level (SML), and empirical mode decomposition with nonstationary oscillation resampling (EMD-NSOR) were employed in the hydrological series of the net basin supply in the Lake Champlain-River Richelieu basin, where the International Joint Committee recently managed and significant flood damage from long consistent high flows occurred. The detailed results indicate that the EMD-NSOR model can be an appropriate option by reproducing long-term dependence statistics and generating manageable scenarios, while the SML model does not properly reproduce the observed long-term dependence, that are critical to simulate sustainable flood events. The trend model produces too many risks for floods in the future but no risk for droughts. The overall results conclude that the nonstationarities in hydrological series should be carefully handled in stochastic simulation models to appropriately manage future water-related risks.
-
Earthquakes pose potentially substantial risks to residents in the Western Quebec seismic zone of eastern Canada, where Ottawa and Montreal are located. In eastern Canada, the majority of houses are not constructed to modern seismic standards and most homeowners do not purchase earthquake insurance for their homes. If a devastating earthquake strikes, homeowners would be left unprotected financially. To quantify financial risks to homeowners in the Western Quebec seismic zone, regional earthquake catastrophe models are developed by incorporating up-to-date public information on hazard, exposure and vulnerability. The developed catastrophe models can quantify the expected and upper-tail financial seismic risks by considering a comprehensive list of possible seismic events as well as critical earthquake scenarios based on the latest geological data in the region. The results indicate that regional seismic losses could reach several tens of billions of dollars if a moderate-to-large earthquake occurs near urban centres in the region, such as Montreal and Ottawa. The regional seismic loss estimates produced in this study are useful for informing earthquake risk management strategies, including earthquake insurance and disaster relief policies.
-
Abstract Collecting data on the dynamic breakup of a river's ice cover is a notoriously difficult task. However, such data are necessary to reconstruct the events leading to the formation of ice jams and calibrate numerical ice jam models. Photogrammetry using images from remotely piloted aircraft (RPA) is a cost-effective and rapid technique to produce large-scale orthomosaics and digital elevation maps (DEMs) of an ice jam. Herein, we apply RPA photogrammetry to document an ice jam that formed on a river in southern Quebec in the winter of 2022. Composite orthomosaics of the 2-km ice jam provided evidence of overbanking flow, hinge cracks near the banks and lengthy longitudinal stress cracks in the ice jam caused by sagging as the flow abated. DEMs helped identify zones where the ice rubble was grounded to the bed, thus allowing ice jam thickness estimates to be made in these locations. The datasets were then used to calibrate a one-dimensional numerical model of the ice jam. The model will be used in subsequent work to assess the risk of ice interacting with the superstructure of a low-level bridge in the reach and assess the likelihood of ice jam flooding of nearby residences.
-
The coast is a complex environment that comprises seawater, underwater, soil, atmosphere, and other environmental factors. Traditional and new pollutants, represented by oil spills and microplastic (MPs), persist in posing a constant threat to the ecosystems and social-economic features of coastal regions. Besides, the shoreline is exposed to various environment conditions, which may significantly affect the behaviors of pollutants on beaches. An in-depth understanding of the occurrence and fate of pollutants in coastal areas is a prerequisite for the development of sound prevention and remediation strategies. Firstly, the physicochemical behavior of crude oil on various types of shorelines under different environmental conditions were reviewed. The penetration, remobilization, and retention of stranded oil on shorelines are affected by the beach topography and the natural environment. The attenuation and fate of oil on shorelines from laboratory and field experiments were discussed. In addition, the source, type, distribution, and factors of MPs in the coastal areas were summarized. What is more, the occurrence and environmental risk of emerging plastics waste—personal protective equipment (PPE)—in the coastal environment during and pandemic were discussed. Then, the role of natural nanobubbles (NBs) in the fate and transport of spilled oil were investigated through laboratory experiments and model simulations. NBs significantly increased the concentration of dissolved oxygen as well as changed the pH, zeta potential, and surface tension of the water. With the assistance of external energy, the bulk NBs enhanced the efficiency in oil detachment from the surface of the substrate. At the same time, the surface NBs on the substrate obstructed the downward transport of oil colloids. Considering the behavior between the NBs in two different phases and the oil droplets, the oil droplets tended to bind to the NBs. Next, the behavior and movement of various MPs in the presence of bulk NBs was explored. In the presence of NBs, the binding of MPs and NBs resulted in an increase in the measured average particle size and concentration. The velocity of motion of MPs driven by NBs varies under different salinity conditions. The increase in ionic strength reduced the energy barrier between particles and promoted their aggregation. Thus, the binding of NBs and MPs became more stable, which in turn affected the movement of MPs in the water. Polyethylene (PE1) with small particle size was mainly affected by Brownian motion and its rising was limited, therefore polyethylene (PE2) with large particle size rose faster than PE1 in suspension, especially in the presence of NBs. The effect of nanobubbles on the mobilization of MPs in shorelines subject to seawater infiltration was further studied. The motion of MPs under continuous and transient conditions, as well as the upward transport induced with flood were considered. Salinity altered the energy barriers between particles, which in turn affected the movement of MPs within the matrix. In addition, hydrophilic MPs were more likely to infiltrate within the substrate and had different movement patterns under both continuous and transient conditions. The motion of the MPs within the substrate varied with flow rate, and NBs limited the vertical movement of MPs in the tidal zone. It was also observed that NBs adsorbed readily onto substrates, altering the surface properties of substrates, particularly their ability to attach and detach from other substances. Finally, the changing characteristics and environmental behaviors of PPE wastes when exposed to the shoreline environment were examined. The transformation of chain structure and chemical composition of masks and gloves as well as the decreased mechanical strength after UV weathering were observed. In addition, the physical abrasion caused by sand further exacerbated the release of MPs and leachable hazardous contaminates from masks and gloves. In conclusion, the coastal zone is threatened by various pollutants, including traditional pollutants (like the oil spill) and emerging pollutants (like MPs). Due to the complexity of the coastal zone, the occurrence, transport and fate of pollutants can be controlled by many factors, and some factors that are ignored before can also alter the environmental behavior of pollutants in the coastal zone. Natural NBs can change the properties of the water environment and affect the surface properties of the substrate. Bulk NBs contribute to the oil detachment from the sand surface, and surface nanobubbles in the substrate obstruct the downward transport of oil colloids. The behavior and mobilization of MPs in the coastal `zone are subject to mutual forces between the substrate, MPs, NBs, and other factors. Coastal zones are not only the main receptor of pollutants from oceans and lands but also play a key role in their fate and transport.
-
L’estimation du débit en rivières est un paramètre clé pour la gestion des ressources hydriques, la prévention des risques liés aux inondations et la planification des équipements hydroélectriques. Lorsque le débit d’eau est très élevé lors d'évènements extrêmes, les méthodes de jaugeage traditionnelles ne peuvent pas être utilisées. De plus, les stations du réseau hydrométrique sont généralement éparses et leur répartition spatiale n’est pas optimale. Par conséquent, de nombreuses sections de rivières ne peuvent être suivies par des mesures et observations du débit. Pour ces raisons, pendant la dernière décennie, les capteurs satellitaires ont été considérés comme une source d’observation complémentaire aux observations traditionnelles du niveau d’eau et du débit en rivières. L’utilisation d’une telle approche a fourni un moyen de maintenir et d’étendre le réseau d'observation hydrométrique. L’approche avec télédétection permet d’estimer le débit à partir des courbes de tarage qui met en relation le débit instantané (Q) et la géométrie d’une section transversale du chenal (la largeur ou la profondeur effective de la surface d’eau). En revanche, cette méthode est associée à des limitations, notamment, sa dépendance aux courbes de tarage. En effet, en raison de leurs natures empiriques, les courbes de tarage sont limitées à des sections spécifiques et ne peuvent être appliquées dans d’autres rivières. Récemment, des techniques d’apprentissage profond ont été appliquées avec succès dans de nombreux domaines, y compris en hydrologie. Dans le présent travail, l’approche d’apprentissage profond a été choisie, en particulier les réseaux de neurones convolutifs (CNN), pour estimer le débit en rivière. L’objectif principal de ce travail est de développer une approche d’estimation du débit en rivières à partir de l’imagerie RADARSAT 1&2 à l’aide de l’apprentissage profond. La zone d’étude se trouve dans l’ecozone du bouclier boréal à l’Est du Canada. Au total, 39 sites hydrographiques ont fait l’objet de cette étude. Dans le présent travail, une nouvelle architecture de CNN a été a été proposée, elle s'adapte aux données utilisées et permet d’estimer le débit en rivière instantané. Ce modèle donne un résultat du coefficient de détermination (R²) et de Nash-Sutcliffe égale à 0.91, le résultat d’erreur quadratique moyenne égale à 33 m³ /s. Cela démontre que le modèle CNN donne une solution appropriée aux problèmes d’estimation du débit avec des capteurs satellites sans intervention humaine. <br /><br />Estimating river flow is a key parameter for effective water resources management, flood risk prevention and hydroelectric facilities planning. In cases of very high flow of water or extreme events, traditional gauging methods cannot be reliable. In addition, hydrometric network stations are often sparse and their spatial distribution is not optimal. Therefore, many river sections cannot be monitored using traditional flow measurements and observations. For these reasons, satellite sensors are considered as a complementary observation source to traditional water level and flow observations in the last decades. The use of this kind of approach has provided a way to maintain and expand the hydrometric observation network. Remote sensing data can be used to estimate flow from rating curves that relate the instantaneous flow (Q) to the geometry of a channel cross-section (the effective width or depth of the water surface). On the other hand, remote sensing is also associated with limitations, notably its dependence on the rating curves. Indeed, due to their empirical nature, rating curves are limited to specific sections and cannot be applied in other rivers. Recently, deep learning techniques have been successfully applied in many fields, including hydrology. In the present work, the deep learning approach has been chosen, in particular convolutional neural networks (CNN), to estimate river flow. The main objective of this work is to develop an approach to estimate river flow from RADARSAT 1&2 imagery using deep learning. In this study, 39 hydrographic sites of the Boreal Shield ecozone in Eastern Canada were considered. A new CNN architecture was developed to provide a straightforward estimation of the instantaneous river flow rate. The achieved results demonstrated a coefficient of determination (R²) and Nash-Sutcliffe values of 0.91, and a root mean square error of 33m³ /s. This indicates the effectiveness of CNN in automatic flow estimation with satellite sensors.
-
Les inondations sont une préoccupation majeure avec un potentiel de risques importants pour la sécurité publique ainsi qu'un impact économique et social négatif. Pour développer un modèle hydrodynamique permettant de cartographier et d'évaluer les risques d'inondation, un modèle d'élévation est un élément essentiel. La grande disponibilité de données de télédétection multisources facilite la création d'un modèle numérique d'élévation topo-bathymétrique (TBDEM). Cependant, il peut être très difficile de créer un modèle d'élévation à haute résolution homogène adapté à la cartographie des inondations en raison des divergences entre les données topographiques et bathymétriques causées par des changements temporels, des systèmes de référence horizontaux et verticaux différents, et des différences significatives en termes de résolution, incertitude et zone de couverture. Cette étude présente une méthodologie qui élargit les études précédentes axées sur la cartographie côtière à basse résolution en résolvant les différences spatiales et temporelles des jeux de données multisources tout en maintenant l'intégrité de la morphologie des berges et de l'environnement proche du rivage. Ceci est réalisé en appliquant une nouvelle méthodologie de fusion qui est mieux adaptée aux sources de données en jeu. Une méthode de moindre coût est appliquée aux données topographiques alors qu'une méthode de feathering est appliquée aux données bathymétriques. Pour ce qui est de la zone intermédiaire à l'interface de la terre et de l'eau, des transects sont utilisés pour interpoler entre les données manquantes afin de garantir l'intégrité du littoral. Enfin, une méthode de krigeage empirique bayésien appliqué à l'ensemble des données permet de produire une surface sans discontinuité accompagnée d'une surface d'erreur pour analyser l'incertitude en chaque point du modèle. Des données LiDAR aéroporté ainsi que des données de bathymétrie multifaisceau de la section supérieure du fleuve Saint-Laurent au Québec, Canada ont été combinées en utilisant la méthodologie proposée. Le TBDEM produit dans cette étude constitue une meilleure représentation que les modèles précédents et minimise l'erreur dans les données. La capacité de ce TBDEM à être plus performant que les modèles précédents dans les simulations hydrodynamiques sera testée dans des études futures en utilisant des événements de crue enregistrés précédemment.
-
Les instances responsables d’assurer la gestion des risques d’inondations reliés aux embâcles de glace sont toujours à la recherche d’outils visant à prévenir les risques et réduire les conséquences sur les populations et les infrastructures. Grâce à la modélisation de certains paramètres jouant un rôle dans la formation des embâcles de glace comme la prédisposition géomorphologique et les conditions hydrométéorologiques, la prévention de ceux-ci s’est grandement améliorée. Les modèles axés sur la force de mobilisation de la rivière et sa capacité à contraindre l’écoulement gagnerait en pertinence s’ils pouvaient inclure la résistance du couvert de glace. Les outils de télédétection sont une manière efficace de connaitre l’état du couvert de glace tant sur l’ensemble de la rivière qu'à différents endroits ciblés. Ceux-ci peuvent générer différents produits cartographiques utiles avant, pendant et après les événements. La présente thèse vise à intégrer le suivi du couvert de glace dans les méthodes de prévention des embâcles à l’aide d’outils provenant de la télédétection. Pour ce faire, quatre sous-objectifs ont été accomplis 1) créer une approche de suivi du couvert de glace à grande échelle en exploitant les données de télédétection optique, radar et acquises par drone, 2) développer une méthode de cartographie automatique du type de glace par estimation d’ensemble à partir d’imagerie radar, 3) concevoir un modèle de détection automatique des lieux à risque de débâcle en utilisant les connaissances de personnes expertes pour interpréter les cartes du type de glace et 4) intégrer les outils développés aux autres modèles conçus dans le cadre de DAVE (Dispositif d’alertes et de vigilance aux embâcles). Les contributions originales découlant de cette thèse touchent plusieurs aspects du suivi du couvert de glace. Elles incluent la démonstration de la pertinence des indicateurs de suivi de la glace par la télédétection, la conceptualisation d’une méthode de segmentation de la rivière en secteurs de production, transport et accumulation de la glace, l’élaboration d’un modèle de cartographie du type de glace par estimation d’ensemble plus performant et polyvalent que les classificateurs originaux, la construction d’une base de données de dégradation du couvert de glace à partir des connaissances de personnes expertes en cartographie de la glace et un modèle de classification de la dégradation du couvert de glace. Cette thèse se conclut par l’intégration conceptuelle à l’aide d’une analyse multicritères hiérarchique des différents outils développés au sein de DAVE. <br /><br /> The authorities responsible for ice jam flood risk management are always looking for tools to prevent harm and reduce consequences on populations and infrastructure. Ice jam prevention has been greatly improved by modelling certain parameters—such as geomorphic predispositions and hydrometeorological conditions—that are central to ice jam formation. These models focusing on the strength of the river current and its ability to constrain the flow would gain in relevance if they could include ice cover strength. Remote sensing tools are an effective way of knowing the state of the ice cover over the whole river and at different target locations. These can be used to generate different map products to include in monitoring before, during and after hazard events. This dissertation therefore aims to integrate ice cover monitoring into ice jam prevention methods using remote sensing tools. To do so, three main sub-objectives were accomplished: 1) to create a large-scale ice cover monitoring approach using remote sensing data such as optical, radar and drone images, 2) to develop a method for automatic mapping of ice type by ensemble estimation from radar imagery, 3) to design an automatic detection model for breakup risk locations using ice type maps and expert judgment and 4) to integrate the tools developed with other models created within the Dispositif d’alertes et de vigilance des embâcles de glace (DAVE). The original contribution from this work covers multiple aspects of ice cover monitoring. This dissertation demonstrates the relevance of direct indicators of ice monitoring by remote sensing, conceptualizes a method for river segmentation into areas of ice production, transport and accumulation, develops an ensemble-based estimation ice type mapping model more efficient and versatile than the original algorithms, constructs an ice cover degradation database derived from the knowledge of ice mapping experts, and proposes a classification model of ice cover degradation. This dissertation concludes with the conceptual integration by analytic hierarchy process of the different tools developed within DAVE.
-
Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives.
-
Au Québec, les conditions printanières extraordinaires de 2017 et 2019 ont incité le gouvernement provincial à commander une mise à jour des cartes des zones inondables. La plupart des cartes existantes ne reflètent pas adéquatement l’aménagement actuel du territoire, ni l’aléa associé. Généralement, pour la cartographie, les modèles hydrodynamiques tel que HEC-RAS sont utilisés, mais ces outils nécessitent une expertise significative, des données hydrométriques et des relevés bathymétriques à haute résolution. Étant donnée la nécessité de mettre à jour ces cartes tout en réduisant les coûts financiers associés, des méthodes conceptuelles simplifiées ont été développées. Ces approches, y compris l’approche géomatique HAND (Height above the nearest drainage), qui reposent uniquement sur un modèle numérique d’élévation (MNE), sont de plus en plus utilisées. HAND permet de calculer la hauteur d’eau nécessaire pour inonder chaque pixel du MNE selon la différence entre son élévation et celle du pixel du cours d’eau dans lequel il se déverse. Les informations sur la géométrie hydraulique dérivées par HAND ainsi que l’application de l’équation de Manning permettent la construction d’une courbe de tarage synthétique (CTS) pour chaque tronçon de rivière homogène. Dans la littérature, cette méthode a été appliquée pour établir une cartographie de la zone inondable de première instance de grands fleuves aux États-Unis avec un taux de correspondance de 90% par rapport à l’utilisation de HEC-RAS. Elle n’a toutefois pas été appliquée sur de petits bassins versants, car ceux-ci engendrent des défis méthodologiques substantiels. Ce projet s’attaque à ces défis sur deux bassins versants Québécois, ceux des rivières à la Raquette et Delisle. Les conditions frontières des modèles sont dérivées d’un traitement statistique empirique des séries de débits simulés avec le modèle hydrologique HYDROTEL. Étant donnée l’absence de stations météorologiques sur le territoire à l’étude, des chroniques du système Canadien d’Analyse de la précipitation (CaPA) ont été utilisées pour cette modélisation hydrologique. Les résultats de ce projet pointent vers des performances satisfaisantes de l’approche géomatique HAND-CTS en comparaison avec le modèle hydrodynamique HEC-RAS (1D/2D et 2D au complet), avec des taux de correspondance entre les étendues des inondations supérieurs à 60 % pour les bassins versants de Delisle et à la Raquette. Les comparaisons étaient effectuées sur une gamme de débit allant d’un débit de période de retour de 2 ans jusqu’à un débit de plus de 350 ans. On notera que l’application sur la rivière à la Raquette a été développée dans les règles de l’art, incluant un processus de calage développé dans le cadre d’un projet de maitrise en sciences de l’eau connexe à ce mémoire, relativement à la longueur du tronçon, le calage vertical de la CTS en considérant la hauteur d’eau présente dans le cours d’eau lors du relevé LiDAR et sa précision verticale. Les résultats ont montré que le coefficient de précision globale le plus bas était de 98 % pour un débit de 350 ans, avec une précision de plus que 99 % pour les autres périodes de retour, ce qui représente une très bonne performance du modèle. Et par ailleurs, le coefficient de Kappa conditionnel humide variait entre 58 % et 28 %. Alors, que pour la rivière Delisle, l’application se veut naïve, c’est-à-dire sans calage préalable de la méthode HANDCTS. La précision globale a varié entre 83 % et 96 %, ce qui est considéré comme "très approprié" et une variation du coefficient Kappa conditionnel humide de 35,2 à 64,3 %. Alors que pour une différence d’élévations d'eau entre les élévations de référence et simulées, la performance était quantifiée par un RMSE qui variait pour les périodes de retour de 100 ans et de 350 ans respectivement de 4,5 m et de 7,1 m. Enfin, la distribution spatiale des différences d’élévations montre une distribution gaussienne avec une moyenne qui est à peu près égale à 0 où la plupart des erreurs se situent entre -0,34 m et 1,1 m La cartographie des zones inondables dérivée de HAND-CTS présente encore certains défis associés notamment à la présence d’infrastructures urbaines complexes (ex. : ponceaux, ponts et seuils) dont l’influence hydraulique n’est pas considérée. Dans le contexte où l’ensemble du Québec (529 000 km²) dispose d’une couverture LiDAR, les résultats de ce mémoire permettront de mieux comprendre les sources d’incertitude associées à la méthode HAND-CTS tout en démontrant son potentiel pour les bassins versants dépourvus de données bathymétriques et hydrométéorologiques. <br /><br />The 2017 and 2019 extraordinary spring conditions prompted the Quebec government to update flood risk maps, as most of them do not adequately reflect current land use and associated hazard. Generally, hydrodynamic models such as HEC-RAS are used for flood mapping, but they require significant expertise, hydrometric data, and high-resolution bathymetric surveys. Given the need to update these maps while reducing the associated financial costs, simplified conceptual methods have been developed over the last decade. These methods are increasingly used, including HAND (height above the nearest drainage), which relies on a Digital Elevation Model (DEM) to delineate the inundation area given the water height in a river segment. Furthermore, the river geometry derived from HAND data and the application of Manning’s equation allow for the construction of a synthetic rating curve (SRC) for each homogeneous river segment. In the scientific literature, this framework has been applied to produce first-instance floodplain mapping of large rivers. For example, in the Continental United States 90% match rates were achieved when compared to the use of HEC-RAS. However, this framework has not been validated for small watersheds, as substantial methodological challenges are anticipated. This project addresses these underlying challenges in two Quebec watersheds, the à la Raquette and Delisle watersheds. The boundary conditions of the HECRAS models were derived from an empirical statistical treatment of flow time series simulated by HYDROTEL, a hydrological model, using Canadian Precipitation Analysis Product (CaPA) time series. The results of this project point towards satisfactory performances, with match rates greater than 60 % for both watersheds. It should be noted that the application on the Delisle River is naive, that is without prior calibration of the HAND-SRC method. The overall accuracy ranged from 83.4 % to 96.2 % while the water surface elevation difference was quantified by an RMSE that was for the 100-year and 350-year return periods of 4.5 m and 7.1 m respectively and where most errors are between -0.34 m and 1.1 m representing a very good model comparing to similar studies. For à la Raquette, the application showed an overall accuracy coefficient of 98 % for a 350-year flow, with an accuracy of over 99 % for other return periods. The mapping of flood risk areas using HAND-SRC still faces certain challenges, notably the presence of complex urban infrastructures (e.g., culverts, bridges, and weirs) whose hydraulic influences are not considered by this geomatic approach. Given that most of Quebec (529,000 km²) topography has been digitized using LiDAR data, the results conveyed in this MSc thesis will allow for a better understanding of the sources of uncertainty associated with the application of the HAND-SRC method while demonstrating its potential for watersheds lacking hydrometeorological and high-resolution bathymetric data.