Votre recherche
Résultats 210 ressources
-
For the past few decades, remote sensing has been a valuable tool for deriving global information on snow water equivalent (SWE), where products derived from space-borne passive microwave radiometers are favoured as they respond to snow depth, an important component of SWE. GlobSnow, a novel SWE product, has increased the accuracy of global-scale SWE estimates by combining remotely sensed radiometric data with other physiographic characteristics, such as snow depth, as quantified by climatic stations. However, research has demonstrated that passive microwaves algorithms tend to underestimate SWE for deep snowpack. Approaches were proposed to correct for such underestimation; however, they are computer intensive and complex to implement at the watershed scale. In this study, SWEmax information from the near real time 5-km GlobSnow product, provided by Copernicus and the European Space Agency (ESA) and GlobSnow product at 25 km resolution were corrected using a simple bias correction approach for watershed scale applications. This method, referred to as the Watershed Scale Correction (WSC) approach, estimates the bias based on the direct runoff that occurs during the spring melt season. Direct runoff is estimated on the one hand from SWEmax information as main input. Infiltration is also considered in computing direct runoff. An independent estimation of direct runoff from gauged stations is also performed. Discrepancy between these estimates allows for estimating the bias correction factor. This approach is advantageous as it exploits data that commonly exists i.e., flow at gauged stations and remotely sensed/reanalysis data such as snow cover and precipitation. The WSC approach was applied to watersheds located in Eastern Canada. It was found that the average bias moved from 33.5% with existing GlobSnow product to 18% with the corrected product, using the recommended recursive filter coefficient β of 0.925 for baseflow separation. Results show the usefulness of integrating direct runoff for bias correction of existing GlobSnow product at the watershed scale. In addition, potential benefits are offered using the recursive filter approach for baseflow separation of watersheds with limited in situ SWE measurements, to further reduce overall uncertainties and bias. The WSC approach should be appealing for poorly monitored watersheds where SWE measurements are critical for hydropower production and where snowmelt can pose serious flood-related damages.
-
Abstract The estimation of sea levels corresponding to high return periods is crucial for coastal planning and for the design of coastal defenses. This paper deals with the use of historical observations, that is, events that occurred before the beginning of the systematic tide gauge recordings, to improve the estimation of design sea levels. Most of the recent publications dealing with statistical analyses applied to sea levels suggest that astronomical high tide levels and skew surges should be analyzed and modeled separately. Historical samples generally consist of observed record sea levels. Some extreme historical skew surges can easily remain unnoticed if they occur at low or moderate astronomical high tides and do not generate extreme sea levels. The exhaustiveness of historical skew surge series, which is an essential criterion for an unbiased statistical inference, can therefore not be guaranteed. This study proposes a model combining, in a single Bayesian inference procedure, information of two different natures for the calibration of the statistical distribution of skew surges: measured skew surges for the systematic period and extreme sea levels for the historical period. A data‐based comparison of the proposed model with previously published approaches is presented based on a large number of Monte Carlo simulations. The proposed model is applied to four locations on the French Atlantic and Channel coasts. Results indicate that the proposed model is more reliable and accurate than previously proposed methods that aim at the integration of historical records in coastal sea level or surge statistical analyses. , Plain Language Summary Coastal facilities must be designed as to be protected from extreme sea levels. Sea levels at high tide are the combination of astronomical high tides, which can be predicted, and skew surges. The estimation of the statistical distribution of skew surges is usually based on the skew surges measured by tide gauges and can be improved with the use of historical information, observations that occurred before the beginning of the tide gauge recordings. Extreme skew surges combined with low or moderate astronomical high tides would not necessarily generate extreme sea levels, and consequently some extreme historical skew surges could be missed. The exhaustiveness of historical information is an essential criterion for an unbiased estimation, but it cannot be guaranteed in the case of historical skew surges. The present study proposes to combine skew surges for the recent period and extreme sea levels for the historical period. The proposed model is compared to previously published approaches and appears to be more reliable and accurate. The proposed model is applied to four case studies on the French Atlantic and Channel coasts. , Key Points The exhaustiveness of historical sea record information is demonstrated based on French Atlantic coast data A comparative analysis of approaches to integrate historical information is carried out The efficiency of a new method for the combination of systematic skew surges and historical records is verified
-
In cold regions, ice jams frequently result in severe flooding due to a rapid rise in water levels upstream of the jam. Sudden floods resulting from ice jams threaten human safety and cause damage to properties and infrastructure. Hence, ice-jam prediction tools can give an early warning to increase response time and minimize the possible damages. However, ice-jam prediction has always been a challenge as there is no analytical method available for this purpose. Nonetheless, ice jams form when some hydro-meteorological conditions happen, a few hours to a few days before the event. Ice-jam prediction can be addressed as a binary multivariate time-series classification. Deep learning techniques have been widely used for time-series classification in many fields such as finance, engineering, weather forecasting, and medicine. In this research, we successfully applied convolutional neural networks (CNN), long short-term memory (LSTM), and combined convolutional–long short-term memory (CNN-LSTM) networks to predict the formation of ice jams in 150 rivers in the province of Quebec (Canada). We also employed machine learning methods including support vector machine (SVM), k-nearest neighbors classifier (KNN), decision tree, and multilayer perceptron (MLP) for this purpose. The hydro-meteorological variables (e.g., temperature, precipitation, and snow depth) along with the corresponding jam or no-jam events are used as model inputs. Ten percent of the data were excluded from the model and set aside for testing, and 100 reshuffling and splitting iterations were applied to 80 % of the remaining data for training and 20 % for validation. The developed deep learning models achieved improvements in performance in comparison to the developed machine learning models. The results show that the CNN-LSTM model yields the best results in the validation and testing with F1 scores of 0.82 and 0.92, respectively. This demonstrates that CNN and LSTM models are complementary, and a combination of both further improves classification.
-
Abstract An intensity–duration–frequency (IDF) curve describes the relationship between rainfall intensity and duration for a given return period and location. Such curves are obtained through frequency analysis of rainfall data and commonly used in infrastructure design, flood protection, water management, and urban drainage systems. However, they are typically available only in sparse locations. Data for other sites must be interpolated as the need arises. This paper describes how extreme precipitation of several durations can be interpolated to compute IDF curves on a large, sparse domain. In the absence of local data, a reconstruction of the historical meteorology is used as a covariate for interpolating extreme precipitation characteristics. This covariate is included in a hierarchical Bayesian spatial model for extreme precipitations. This model is especially well suited for a covariate gridded structure, thereby enabling fast and precise computations. As an illustration, the methodology is used to construct IDF curves over Eastern Canada. An extensive cross-validation study shows that at locations where data are available, the proposed method generally improves on the current practice of Environment and Climate Change Canada which relies on a moment-based fit of the Gumbel extreme-value distribution.
-
Extreme precipitation events can lead to disastrous floods, which are the most significant natural hazards in the Mediterranean regions. Therefore, a proper characterization of these events is crucial. Extreme events defined as annual maxima can be modeled with the generalized extreme value (GEV) distribution. Owing to spatial heterogeneity, the distribution of extremes is non-stationary in space. To take non-stationarity into account, the parameters of the GEV distribution can be viewed as functions of covariates that convey spatial information. Such functions may be implemented as a generalized linear model (GLM) or with a more flexible non-parametric non-linear model such as an artificial neural network (ANN). In this work, we evaluate several statistical models that combine the GEV distribution with a GLM or with an ANN for a spatial interpolation of the GEV parameters. Key issues are the proper selection of the complexity level of the ANN (i.e., the number of hidden units) and the proper selection of spatial covariates. Three sites are included in our study: a region in the French Mediterranean, the Cap Bon area in northeast Tunisia, and the Merguellil catchment in central Tunisia. The comparative analysis aim at assessing the genericity of state-of-the-art approaches to interpolate the distribution of extreme precipitation events.
-
In agricultural fields, tile drains represent potential pathways for the migration of solutes, such as nitrates, in groundwater and surface water bodies. Tile drain flow is controlled by the temporal and spatial dynamics of the shallow groundwater table, which results from complex interactions between climate, topography and soil heterogeneity. Studies on the effect of topsoil heterogeneity on shallow water and drainage dynamics by fully 3D surface water and groundwater flow modeling are limited. The objective of our study is to demonstrate the use of depth specific electrical conductivity (EC) estimates to improve hydrological simulations in a tile-drained field. The model was applied to a field site in Denmark where times series of drainage discharge and water table elevations are available. Clay-rich soil zones were identified in a tile-drained field using depth specific electrical conductivity estimates generated by the inversion of apparent electrical conductivity data measured using an electromagnetic induction instrument. One model that included the low-permeability clayey zones in the soil layers down to a depth of 1.2 m was compared to a simpler model that assumed homogeneous soil layers. Both models simulate drainage discharge that compares well to the observations. However, including the clayey zones improves the simulation of hydraulic heads, and water table fluctuations, and generates flooded areas that are more representative of those observed during the wet seasons. Our results suggest that the simulation of water table fluctuations can be improved when the soil heterogeneity determined from depth specific EC estimates is included in integrated hydrological models. A better representation of the subsurface flow dynamics will also improve subsequent simulations of the transport and fate of agrochemical substances leaching from fields such as nitrate, which may deteriorate the quality of groundwater and surface water bodies.
-
La température extrême de l’eau influence de nombreuses propriétés physiques, chimiques et biologiques des rivières. l ’ évaluation de l ’ Une prédiction précise de la température de l’eau est importante pour impact environnemental. Dans ce cadre, différents modèles ont été utilisés pour estimer les températures de l ’ linéaires simp eau à différentes échelles spatiales et temporelles, allant des méthodes les pour déterminer l’incertitude à des modèles sophistiqués non linéaires. Cependant, cette variable primordiale n’a pas été traitée dans un contexte probabiliste (ou fréquentiste). Donc, l’estimation des évènements extrêmes thermiques à l’aide des approc hes d’analyse fréquentielle locale (AFL) est importante. Lors de l’estimation des extrêmes thermiques, il est crucial de tenir compte de la forme de la distribution de fréquences considérée. Dans la première partie de la thèse , nous nous concentrons sur la sélection de la distribution de probabilité la plus appropriée des températures des rivières. Le critère d critère d ’ ’ information d ’ Akaike (AIC) et le information bayésien (BIC) sont utilisés pour évaluer la qualité de l distributions statis ’ ajustement des tiques. La validation des distributions candidates appropriées est également effectuée en utilisant l ’ approche de diagramme de rapport des L obtenus montrent que la distribution de Weibull (W2) moments (MRD). Les résultats est celle qui semble s’ajuster le données provenant des stations de haute altitude, tandis que les mieux aux séries d’extrêmes provenant des stations situées dans les régions de basse altitude sont bien adaptées avec la distribution normale (N). Ceci correspond au premier article. L a ’ couverture spatiale des données de température des cours d ’ eau est limitée dans de nombreuses régions du monde. Pour cette raison, une analyse fréquentielle régionale (AFR) permettant d estimer les extrêmes de température des rivières sur des sites non jau gés ou mal surveillés est nécessaire. En général, l’AFR inclut deux étapes principales, la délimitation des régions homogènes (DRH) qui vise à déterminer les sites similaires, et l’estimation régionale (ER) qui transfère l’information depuis les sites déte rminés dans la première étape vers le site cible. Par conséquent, le modèle d’indice thermique (IT) est introduit dans le contexte d’AFR pour estimer les extrêmes du régime thermique. Cette méthode est analogue au modèle d ’ indice de crue (IF) largement uti lisé en hydrologie. Le modèle IT incorpore l’homogénéité de la distribution de fréquence appropriée pour chaque région, ce qui offre une plus grande flexibilité. Dans cette étude, le modèle IT est comparé avec la régression linéaire multiple (MLR). Les rés ultats indiquent que le modèle IT fournit la meilleure performance (Article 2) . Ensuite, l’approche d’analyse canonique des corrélations non linéaires (ACCNL) est intégrée dans la DRH, présentée dans le Chapitre 4 de ce manuscrit (Article 3). Elle permet de considérer la complexité des phénomènes thermiques dans l’étape de DRH. Par la suite, dans le but d’identifier des combinaisons (DRH-ER) plus prometteuses permettant une meilleure estimation, une étude comparative est réalisée. Les combinaisons considérées au niveau des deux étapes de la procédure de l’AFR sont des combinaisons linéaires, semi-linéaires et non linéaires. Les résultats montrent que la meilleure performance globale est présentée par la combinaison non linéaire ACCNL et le modèle additif généralisé (GAM). Finalement, des modèles non paramétriques tels que le foret aléatoire (RF), le boosting de gradient extrême (XGBoost) et le modèle régression multivariée par spline adaptative (MARS) sont introduits dans le contexte de l’AFR pour estimer les quantiles thermiques et les comparer aux quantiles estimés à l’aide du modèle semi-paramétrique GAM. Ces modèles sont combinés avec des approches linéaires et non linéaires dans l’étape DRH, telles que ACC et ACCNL, afin de déterminer leur potentiel prédictif. Les résultats indiquent que ACCNL+GAM est la meilleure, suivie par ACC+MARS. Ceci correspond à l’article 4. <br /><br />Extreme water temperatures have a significant impact on the physical, chemical, and biological properties of the rivers. Environmental impact assessment requires accurate predictions of water temperature. The models used to estimate water temperatures within this framework range from simple linear methods to more complex nonlinear models. However, w ater temperature has not been studied in a probabilistic manner. It is, therefore, essential to estimate extreme thermal events using local frequency analysis (LFA). An LFA aims to predict the frequency and amplitude of these events at a given gauged locat ion. In order to estimate quantiles, it is essential to consider the shape of the frequency distribution being considered. The first part of our study focuses on selecting the most appropriate probability distribution for river water temperatures. The Akai ke information criteria (AIC) and the Bayesian information criteria (BIC) are used to evaluate the goodness of fit of statistical distributions. An Lmoment ratio diagram (MRD) approach is also used to validate sui table candidate distributions. The results good fit for extremes data from the highindicate that the Weibull distribution (W2) provides a altitude stations, while the normal distribution (N) is most appropriate for lowaltitude stations. This corresponds to the first article. In many parts of the world, river temperature data are limited in terms of spatial coverage and size of the series. Therefore, it is necessary to perform a regional frequency analysis (RFA) to estimate river temperature extremes at ungauged or poorly monitored sites. Generall y, RFA involves two main steps: delineation of homogenous regions (DHR), which identifies similar sites, and regional estimation (RE), which transfers information from the identified sites to the target site. The thermal index (TI) model is introduced in t he context of RFA to estimate the extremes of the thermal regime. This method is analogous to the index flood (IF) model commonly used in hydrology. The TI model considers the homogeneity of the appropriate frequency distributions for each region, which pr ovides larger flexibility. This study compares the TI model with multiple linear regression (MLR) approach. Results indicate that the TI model leads to better performances (Article 2). Then, the nonlinear canonical correlations analysis (NLCCA) approach is integrated into the DHR, as presented in Chapter 4 of this manuscript (Article 3). It allows considering the complexity of the thermal phenomena in the DHR step. A comparative study is then conducted to identify more promising combinations (DHR RE), that RFA procedure, linear, semilead to best estimation results. In the two stages of the linear, and nonlinear combinations are considered. The results of this study indicate that the nonlinear combination of the NLCCA and the generalized additive model (GAM ) produces the best overall performances. Finally, nonparametric models such as random forest (RF), extreme gradient boosting (XGBoost), and multivariate adaptive regression splines (MARS) are introduced in the context of RFA in order to estimate thermal q uantiles and compare them to quantiles estimated using the semiparametric GAM model. The predictive potential of these models is determined by combining them with linear and nonlinear approaches, such as CCA and NLCCA, in the DHR step. The results indicat e that NLCCA+GAM is the best, followed by CCA+MARS. This corresponds to article 4.
-
Cette thèse traite des aspects de la quantification de l'incertitude dans l'évaluation des ressources éoliennes avec les pratiques d'analyses d'incertitude et de sensibilité. Les objectifs de cette thèse sont d'examiner et d'évaluer la qualité des pratiques d'analyse de sensibilité dans l'évaluation des ressources éoliennes, de décourager l'utilisation d'une analyse de sensibilité à la fois, d'encourager l'utilisation d'une analyse de sensibilité globale à la place, d'introduire des méthodes d'autres domaines., et montrer comment les analyses d'incertitude et de sensibilité globale ajoutent de la valeur au processus d'aide à la décision. Cette thèse est organisée en quatre articles : I. Une revue des pratiques d'analyse de sensibilité dans l'évaluation des ressources éoliennes avec une étude de cas de comparaison d'analyses de sensibilité individuelles et globales du coût actualisé de l'énergie éolienne offshore ; II. Technique Quasi-Monte Carlo dans l'analyse de sensibilité globale dans l'évaluation des ressources éoliennes avec une étude de cas sur les Émirats Arabes Unis; III. Utilisation de la famille de distribution Halphen pour l'estimation de la vitesse moyenne du vent avec une étude de cas sur l'Est du Canada; IV. Étude d'évaluation des ressources éoliennes offshore du golfe Persique avec les données satellitaires QuikSCAT.Les articles I à III ont chacun donné lieu à une publication évaluée par des pairs, tandis que l'article IV - à une soumission. L'article I propose des classifications par variable de sortie d'analyse de sensibilité, méthode, application, pays et logiciel. L'article I met en évidence les lacunes de la littérature, fournit des preuves des pièges, conduisant à des résultats d'évaluation erronés et coûteux des ressources éoliennes. L'article II montre comment l'analyse de sensibilité globale offre une amélioration au moyen du quasi-Monte Carlo avec ses plans d'échantillonnage élaborés permettant une convergence plus rapide. L'article III introduit la famille de distribution Halphen pour l'évaluation des ressources éoliennes. Article IV utilise les données satellitaires SeaWinds/QuikSCAT pour l'évaluation des ressources éoliennes offshore du golfe Persique. Les principales contributions à l'état de l'art avec cette thèse suivent. À la connaissance de l'auteur, aucune revue de l'analyse de sensibilité dans l'évaluation des ressources éoliennes n'est actuellement disponible dans la littérature, l'article I en propose une. L'article II relie la modélisation mathématique et l'évaluation des ressources éoliennes en introduisant la technique de quasi-Monte Carlo dans l'évaluation des ressources éoliennes. L'article III présente la famille de distribution de Halphen, de l'analyse de la fréquence des crues à l'évaluation des ressources éoliennes. <br /><br />This dissertation deals with the aspects of quantifying uncertainty in wind resource assessment with the practices of uncertainty and sensitivity analyses. The objectives of this dissertation are to review and assess the quality of sensitivity analysis practices in wind resource assessment, to discourage the use of one-at-a-time sensitivity analysis, encourage the use of global sensitivity analysis instead, introduce methods from other fields, and showcase how uncertainty and global sensitivity analyses adds value to the decision support process. This dissertation is organized in four articles: I. Review article of 102 feasibility studies: a review of sensitivity analysis practices in wind resource assessment with a case study of comparison of one-at-a-time vs. global sensitivity analyses of the levelized cost of offshore wind energy; II. Research article: Quasi-Monte Carlo technique in global sensitivity analysis in wind resource assessment with a case study on United Arab Emirates; III. Research article: Use of the Halphen distribution family for mean wind speed estimation with a case study on Eastern Canada; IV. Application article: Offshore wind resource assessment study of the Persian Gulf with QuikSCAT satellite data. Articles I-III have each resulted in a peer-reviewed publication, while Article IV – in a submission. Article I offers classifications by sensitivity analysis output variable, method, application, country, and software. It reveals the lack of collective agreement on the definition of sensitivity analysis in the literature, the dominance of nonlinear models, the prevalence of one-at a-time sensitivity analysis method, while one-at-a-time method is only valid for linear models. Article I highlights gaps in the literature, provides evidence of the pitfalls, leading to costly erroneous wind resource assessment results. Article II shows how global sensitivity analysis offers improvement by means of the quasi-Monte Carlo with its elaborate sampling designs enabling faster convergence. Article III introduces the Halphen distribution family for the purpose of wind recourse assessment. Article IV uses SeaWinds/QuikSCAT satellite data for offshore wind resource assessment of the Persian Gulf. The main contributions to the state-of-the-art with this dissertation follow. To the best of author’s knowledge, no review of sensitivity analysis in wind resource assessment is currently available in the literature, Article I offers such. Article II bridges mathematical modelling and wind resource assessment by introducing quasi-Monte Carlo technique to wind resource assessment. Article III introduces the Halphen distribution family from flood frequency analysis to wind resource assessment.
-
Les rivières sont des écosystèmes dynamiques qui reçoivent, transforment, et exportent de la matière organique comprenant du carbone (C), de l’azote (N), et du phosphore (P). De par leur grande surface de contact entre l’eau et les sédiments, elles offrent un potentiel élevé pour les processus de transformation de ces éléments, dans lesquels ils sont souvent conjointement impliqués. Ces transformations peuvent retirer les éléments de la colonne d’eau et ainsi diminuer leurs concentrations pour améliorer la qualité de l’eau. Par contre, les conditions climatiques (débit, température, luminosité), la configuration du territoire (forêt, urbanisation, agriculture), et la durée des activités humaines sur terre affectent la quantité, composition, et proportion de C, N, et P livrés aux cours d’eau receveurs. Dans un contexte où un surplus de nutriments (N, P) peut surpasser la capacité des rivières à retirer les éléments de l’eau, et où les extrêmes climatiques s’empirent à cause des changements climatiques, cette thèse met en lumière le rôle des rivières dans les dynamiques de C, N, et P pour une meilleure compréhension de la réponse des écosystèmes lotiques aux pressions actuelles et futures. La Rivière du Nord draine séquentiellement des régions couvertes de forêt, d’urbanisation, et d’agriculture, et oscille entre quatre saisons distinctes, l’exposant à des utilisations du territoire et conditions climatiques contrastées. Nous avons échantillonné les formes de C, N, et P à 13 sites le long du tronçon principal (146 km), une fois par saison pour trois ans. De façon générale, les concentrations de N et P totaux ont augmenté d’amont vers l’aval, concordant avec l’activité humaine plus importante dans la deuxième moitié du bassin versant, mais les concentrations de C organique total sont restées constantes peu importe la saison et l’année. La stœchiométrie écosystémique du C : N : P était donc riche en C comparé au N et P en amont, et s’est enrichie en nutriments vers l’aval. L’étendue (2319 : 119 : 1 à 368 : 60 : 1) couvrait presque le continuum terre – océan à l’intérieur d’une seule rivière. Des formes différentes de C, N, et P dominaient la stœchiométrie totale dépendamment des saisons et de l’utilisation du territoire. En été, la composition du N était dominée en amont par sa forme organique dissoute et par le nitrate en aval, tandis qu’en hiver, l’ammonium et le P dissous avaient préséance sur l’entièreté du continuum. Malgré une concentration constante, la proportion des molécules composant le C différait aussi selon la saison et l’utilisation du territoire. L’été était dominé par des formes dégradées par l’action microbienne et l’hiver par des formes bio- et photo-labiles. Ceci fait allusion au potentiel de transformation de la rivière plus élevé dans la saison chaude plutôt que sous la glace, où les formes plus réactives avaient tendance de s’accumuler. La composition du C en amont était aussi distincte de celle en aval, avec un seul changement abrupt ayant lieu entre la section forestière et la section d’utilisation du territoire urbaine et agricole. Ces changements de compositions n’étaient pas présents durant le printemps de crue typique échantillonné, mais dans l’inondation de fréquence historique nous avons observés des apports nouveaux de molécules provenant soit des apports terrestres normalement déconnectés du réseau fluvial ou de surverses d’égouts. L’influence des facteurs naturels et anthropiques s’est aussi reflétée dans les flux historiques riverains de C, N, et P (1980 – 2020). La précipitation explique le plus les flux de C et les flux de N dans la section pristine. Les apports historiques au territoire de N anthropique (nécessaires pour soutenir la population humaine et les activités agricoles) expliquent fortement la tendance temporelle à la hausse des flux riverains de N dans la section urbaine. Durant les quatre dernières décennies, un peu plus du tiers des apports de N au territoire sont livrés à la rivière annuellement, suggérant que la source urbaine de N anthropique est encore peu gérée. Le manque de corrélation entre les flux de P dans la rivière et les précipitations ou les apports au territoire de P anthropique peut être expliqué par les usines de traitement des eaux usées installées dans la région vers la fin des années 1990 qui ont fait diminuer presque de moitié le P livré à la rivière. La variation de ces flux s’est reflétée dans la stœchiométrie écosystémique historique, qui varie de 130 : 23 : 1 en 1980 à 554 : 87 : 1 en 2007-08 après l’effet de l’usine d’épuration et du N qui a augmenté. À travers les axes historiques, spatiaux, et saisonniers, cette thèse contribue à la compréhension du rôle des rivières dans la réception, la transformation, et l’export du C, N, et P. Combinée aux concentrations, l’approche de stœchiométrie écosystémique propose une façon d’intégrer apports et pertes des éléments pour les étudier de pair au niveau du bassin versant. Puis, comme certaines formes de C, N, et P sont associées à des sources terrestres spécifiques, ou à certains types de transformations, les inclure dans un cadre conceptuel combinant des extrêmes climatiques et des utilisations du territoire différentes offre un aperçu sur le résultat des sources et transformations des éléments. Enfin, les tendances décennales de C, N, et P riverains montrent l’influence des facteurs naturels et anthropiques sur la stœchiométrie écosystémique historique d’une rivière.
-
RÉSUMÉ : Les flèches littorales sont des environnements naturellement dynamiques modelés par l'apport sédimentaire, les agents hydrodynamiques, les tempêtes et les crues. La plage de la flèche littorale fermant la lagune côtière de Hope Town (baie des Chaleurs, Golfe du St-Laurent) montre des signes d'érosion criants depuis le démantèlement d'une jetée à la fin des années 1960, menaçant l'intégrité de la route traversant la flèche. En 2012, après maints efforts pour stabiliser la flèche comprenant la construction et le prolongement d'un enrochement, une recharge de plage est effectuée et coordonnée à la construction d'un champ d'épis semi-perméables résistant aux conditions hivernales. Ce mémoire explore les impacts d'un champ d'épis sur le comportement morphologique d'une flèche sableuse en climat froid, où les processus glaciels jouent un rôle essentiel sur la dynamique hydromorphologique. L'évolution à long terme de cette région côtière a été analysée de 1963 à 2018 par imagerie aérienne. Des données océanographiques, granulométriques et topographiques ont été relevées de 2017 à 2020 pour étudier les variations morphosédimentaires de la plage. Les résultats montrent que la flèche accuse un taux de retrait moyen de -0,65 m/an, soit nettement supérieur aux secteurs côtiers adjacents. Les taux de recul les plus importants ont été observés durant les 15 ans suivant le démantèlement de la jetée (-1,1 m/an), puis ils ont diminué avant de remonter à -1,07 m/an pour la période 2007-2018 malgré la recharge de 2012. Les modèles d'élévation montrent l'adaptation morphologique saisonnière de la plage aux conditions hydrodynamiques et glacielles (profil d'accumulation l'été et d'érosion l'automne). Les mouvements sédimentaires l'hiver présentent de fortes variations interannuelles : l'impact des tempêtes hivernales est contrôlé par la couverture de glace de mer et la présence d'un pied de glace protégeant la plage, qui varient d'une année sur l'autre. Enfin, malgré la rétention partielle de la dérive littorale grâce aux épis, ces derniers peinent à mitiger l'apport sédimentaire restreint par l'enrochement situé en amont dans le sens de la dérive littorale, ne permettant pas de maintenir sur la plage le volume de recharge initial : les dernières photographies aériennes et les variations récentes de volumes de plage, montrent que la flèche continue à éroder. Ceci soulève l'importance des recharges de plage répétées dans le temps. -- Mot(s) clé(s) en français : Morphodynamique de plage, trait de côte, érosion côtière, flèche littorale, épis, enrochement, recharge de plage, profil de plage. -- ABSTRACT : Littoral spits are naturally dynamic environments modeled by sediment supply, hydrodynamic agents, storm and flood events. The sand spit beach closing the Hope Town coastal lagoon (Chaleur Bay, Gulf of St. Lawrence) shows critical signs of erosion since the dismantlement of a jetty in the late 1960's, endangering the main coastal highway crossing the spit. After several efforts aiming to stabilize the spit including construction and extension of a riprap, a beach nourishment was carried in 2012 coordinated with the construction of a groin field resisting winter conditions. This thesis explores the impact of a groin field on the morphological behavior of a sand spit beach under cold climate, where glacial processes play an essential role on beach morphology and hydrodynamics. Long-term evolution of this coastal region was analysed using aerial imagery from 1963 to 2018. Hydrodynamic, granulometric and RTK-DGPS topographic data were collected from 2017 to 2020 to assess the morphosedimentary variations of the post-nourished beach. Results show the sand spit recorded a mean retreat rate of -0.65 m/year over the studied period, which is much higher than the neighbouring coast segments. Highest retreat rates were observed during the 15 years after the jetty dismantlement (-1.13 m/yr), then they decreased before increasing again to -1.07 m/yr during the 2007-2018 period, despite the 2012-beach nourishment. Elevation models show the seasonal morphological adaptation of the beach to hydrodynamic and glacial conditions (summer accretive profile and fall erosive profile). Sediment movements during winter exhibit important interannual variations as the impact of winter storms is controlled by sea-ice cover and presence of the ice-foot shielding the beach, varying from year to year. Moreover, despite partial longshore drift entrapment by the groins, the structures struggle to mitigate the sediment supply deficit induced by the riprap located updrift, and could not maintain on the beach the sediment volume added by the 2012-nourishment. The latest aerial photographs and recent beach volume variations indeed show the Hope Town sand spit is still eroding. These results highlight the importance of repeated beach feeding operations. -- Mot(s) clé(s) en anglais : Beach morphodynamics, coastline change, erosion, sand spit, groin, riprap, beach feeding, beach profile.
-
The canalized southernmost section of Wonscotonach (the Don River) in Tkarón:to (Toronto), also known as The Narrows, is a highly disturbed urban natural landscape. Following the 1886 Don Improvement Project, the Keating Channel, and today the Port Lands Revitalization and Flood Protection Project, these Lands have been harnessed and developed through settler colonization to tame and control the once-winding river. This research-creation—in the form of a curated online exhibition and written thesis—presents a critical (re)reading of the notion of improvement, becoming allied to the pre-colonial landscape and the knowledge it carried. This exhibition and thesis develop the concept of the meander, inspired by the non-linear trajectory of the pre-canalized Don River, as a model for the curatorial. The curatorial process of improvement becomes a wall, and the river meanders still began before the global COVID-19 pandemic and, subsequently, was derailed in March 2020. The exhibition’s final form was unknowable throughout much of the curatorial process. Thus, following the meander as a research-creation technique, the curatorial process, exhibitionary structure, and content had to adapt through lingering uncertainty. This thesis, contributing to the theoretical and practical knowledge of research-creation, looks to intersections with the curatorial following the theoretical underpinnings of Erin Manning and Brian Massumi, Natalie Loveless and Stefanie Springgay and Sarah E. Truman. As a project untethered from institutional timelines and normative requirements to ‘know a project in advance,’ as well as the conventions of a physical exhibition, this research-creation manifested through process-led, creative and exploratory techniques (such as walking and drawing) and slowed pace allowed by the COVID-19 pandemic’s reframing of time. This research-creation exhibition and written thesis develop a responsive and resilient curatorial process deeply indebted to Land-based knowledge.
-
RÉSUMÉ : Pour atténuer les risques d'inondation au Québec mais aussi partout dans le monde, plusieurs organismes gouvernementaux et des organismes privés, qui ont dans leurs attributions la gestion des risques des catastrophes naturelles, continuent d'améliorer ou d'innover en matière d'outils qui peuvent les aider efficacement à la mitigation des risques d'inondation et aider la société à mieux s'adapter aux changements climatiques, ce qui implique des nouvelles technologies pour la conception de ces outils. Après les inondations de 2017, le ministère de l'Environnement et de la Lutte contre les changements climatiques (MELCC) du gouvernement du Québec, en collaboration avec d'autres ministères et organismes et soutenu par Ouranos, a initié le projet INFO-Crue qui vise d'une part, à revoir la cartographie des zones inondables et, d'autre part, à mieux outiller les communautés et les décideurs en leur fournissant une cartographie prévisionnelle des crues de rivières. De ce fait, l'objectif de notre travail de recherche est d'analyser de façon empirique les facteurs qui influencent l'adoption d'un outil prévisionnel des crues. La revue de la littérature couvre les inondations et les prévisions, les théories et les modèles d'acceptation de la technologie de l'information (TI). Pour atteindre l'objectif de recherche, le modèle développé s'est appuyé particulièrement sur le modèle qui combine les concepts de la théorie unifiée de l'acceptation et l'utilisation des technologies (UTAUT) de Venkatesh et al. (2003) avec le concept « risque d'utilisation ». Afin de répondre à notre objectif de recherche, nous avons utilisé une méthodologie de recherche quantitative hypothético-déductive. Une collecte de données à l'aide d'une enquête par questionnaire électronique a été réalisée auprès de 106 citoyens qui habitent dans des zones inondables. L'analyse des résultats concorde avec la littérature. La nouvelle variable « risque d'utilisation » rajoutée au modèle UTAUT a engendré trois variables qui sont : « risque psychologique d'utilisation »; « risque de performance de l'outil » et « perte de confiance ». Pour expliquer l'adoption d'un nouvel outil prévisionnel des crues, notre analyse a révélé que cinq variables à savoir : « l'utilité perçue », « la facilité d'utilisation », « l'influence sociale », « la perte de confiance » et « le risque psychologique » sont des facteurs significatifs pour l'adoption du nouvel outil prévisionnel. -- Mot(s) clé(s) en français : Inondation, Prévision, UTAUT, Adoption de la technologie, Risque perçu d'utilisation, facteurs d'adoption, Projet INFO-Crue. -- ABSTRACT : With the aim of mitigating flood risks in Canada as well as around the world, several government and private organizations that have the responsibility of natural hazard risk management, are working hard to improve or innovate the flood mitigation approaches that can help effectively reducing flood risks and helping people adapt to climate change. After the 2017 floods, the Ministry of the Environment and the Fight against Climate Change (MELCC) of the Government of Quebec, in collaboration with other ministries and organizations and supported by Ouranos, initiated the INFO-Crue project which aims at reviewing the mapping of flood zones and providing communities and decision-makers with a forecast mapping of river floods. In this context, the objective of our research is to analyze the factors that may influence the adoption of a flood forecasting tool. The literature review covers flood and forecasting, as well as technology adoption models. To achieve the goal of our research, a conceptual model that combines the Unified Theory of Acceptance and Use of Technology (UTAUT) of Venkatesh et al. (2003) with perceived use risk was developed. A quantitative research methodology was used, and we administrate an electronic questionnaire survey to 106 citizens who live in flood-plain area. Results analysis show that the new variable "perceived use risk" introduced in the model generates three variables which are: "psychological risk"; "performance risk" and "loss of trust". To explain the adoption of a new forecasting tool, our analysis revealed that the following five variables which are "perceived usefulness", "ease of use", "social influence", "loss of trust" and "psychological risk" are significant factors for the adoption of the new forecasting tool. -- Mot(s) clé(s) en anglais : Flood, Forecasting, UTAUT, Technology Adoption, perceived Risk of use, adoption factors, INFO-Crue project.
-
Compte tenu de la nécessité de mettre à jour les cartes d'inondation et de minimiser les coûts associés (collecte de données et ressources humaines), il existe un besoin de méthodes alternatives simplifiées ne reposant pas sur la modélisation hydrodynamique classique. L'une des méthodes simplifiées répondant à ce besoin est HAND (Height Above the Nearest Drainage), une approche qui requiert uniquement un modèle numérique d'altitude (MNA) et un réseau hydrographique. Celle-ci a été mise en œuvre dans PHYSITEL, un système d’information géographique SIG spécialisé pour les modèles hydrologiques distribués. Ainsi, pour une hauteur d’eau donnée dans plusieurs tronçons de rivière, il est possible de faire une délimitation de première instance de la surface inondée le long du réseau hydrographique d’un bassin versant. Par ailleurs, l'utilisation des informations fournies par HAND et l'application de l'équation de Manning permettent également de construire une courbe de tarage synthétique pour tout tronçon de rivière en l’absence de données bathymétriques. Ce mémoire présente l’application de cette approche, qui a été validée précédemment en partie sur de grands bassins, sur deux petits bassins, ceux de la rivière à La Raquette, d’une superficie de 133 km², et de la rivière Saint Charles, d’une superficie de 552 km². Trois stations de jaugeage dans chaque bassin ont fourni les informations de base nécessaires au processus de calage de l’approche. L’efficacité et l’adaptabilité de cette approche ont été évaluées dans ce projet en fonction des données disponibles, du temps de calcul et de la précision mesurée par le biais et l’erreur quadratique moyenne. Les incertitudes et sensibilités de l’approche ont été analysées en tenant compte de la résolution spatiale et du manque de données bathymétriques. De plus, des analyses innovatrices ont été produites dans l’application de HAND. Tels qu’une analyse de sensibilité globale pour informer le processus de calage ainsi que l’application d’un critère basé sur le nombre de Froude afin de permettre de valider le respect des hypothèses sous-jacentes à l’application de l’approche sur chaque tronçon de rivière d’un bassin. En utilisant des MNA à haute résolution(<5 m/pixel), des courbes de tarage synthétiques ont été produites avec des biais inférieurs à ±20 % par rapport à des courbes de tarage in-situ. De plus, la détermination d'un critère de sélection des courbes dans un biais de ± 5% par rapport à la courbe de tarage observée a permis d'obtenir des courbes de tarage synthétiques avec des erreurs quadratiques moyennes normalisées comprises entre 0,03 et 0,62. Ainsi, cette approche a été validée pour dériver des courbes de tarage synthétiques et, par conséquent, pour soutenir la délimitation des zones à risque d'inondation dans les petits bassins versants en tenant compte des incertitudes associées à l'application d'une approche de faible complexité. <br /><br />Given the emergent need to update flood inundation maps and minimize associated financial costs (data collection and human resources), simplified alternative methods to the classical hydrodynamic modelling method, are being developed. One of the simplified methods built to fulfill this need is the terrain-based Height Above the Nearest Drainage (HAND) method, which solely relies on a digital elevation model (DEM) and a river network. This approach was implemented in PHYSITEL, a specialized GIS for distributed hydrological models. For a given river reach and water height, HAND can provide a first-hand delineation of the inundated areas within a watershed. In addition, coupling the information provided by HAND and the Manning equation allows for the construction of a synthetic rating curve for any homogeneous river reach where bathymetric data are not available. Since this synthetic rating curve approach has been validated in part for large watersheds, this study tested this approach onto two small watersheds: the 133- km² La Raquette River watershed and the 552-km² Saint Charles River watershed. Three gauging stations on each basin provided the basic data to perform the calibration process. The effectiveness and adaptability of the approach was assessed as a function of available data, computational time, and accuracy measured using the bias and root mean squared error (RMSE). The uncertainties were quantified in terms of spatial resolution and lack of bathymetry data. In addition, innovative analyses were made on the application of the HAND-synthetic rating curve approach. First, a global sensitivity analysis was done to inform the calibration process, and then a Froude number-based criterion was applied to validate the application of the Manning equation on any river reach of a watershed. Using high-resolution DEMs (<5 m/pixel), we obtained synthetic rating curves with bias less than 20% when compared to in-situ rating curves. Finally, a curve selection criterion was applied to identify those curves having a bias of ± 5%. The selected synthetic rating curves had normalized mean squared errors between 0.03 and 0.62. Thus, the proposed approach was deemed appropriate to derive synthetic rating curves and support the delineation of flood risk areas in small watersheds all the while considering the uncertainties associated with applying a low complexity model.