Votre recherche
Résultats 39 ressources
-
Le territoire de la vallée du Gave de Gavarnie a connu un épisode d’inondation/crue particulièrement catastrophique en 2013, ayant entrainé de forts dégâts matériels et des pertes humaines. Dans ce contexte, la culture du risque est un enjeu tant pour les acteurs de la gestion de ce territoire que pour les citoyens, d’autant plus que les risques présents y sont multiples (avalanches, glissements de terrain et séismes). Dans cette perspective, l’école peut jouer un rôle déterminant à travers la mise en place de projets d’éducations au(x) risque(s). Ce type d’éducation doit commencer par la perception et la conscience du (des) risque(s), rendues possibles par le vécu et/ou par la culture du groupe dans lequel l’élève vit. Cette étude a pour objectif d’examiner les représentations et la perception du risque des élèves d’une école élémentaire française située sur une commune fortement impactée par cette crue, et l’évolution de ces représentations et cette perception un an après la mise en œuvre du projet éducatif. Les résultats montrent une représentation plurielle du risque par les élèves avec des différences entre classes. La classe de CP-CE (enfants âgés de 6 à 8 ans) associe essentiellement le risque à l’aléa naturel (avalanche, inondation…) alors que les élèves en CM (enfants âgés de 9 à 10 ans) sont centrés sur ce qui pourrait leur arriver (accident, maladie…). Le risque inondation/crue est dans un premier temps très peu évoqué dans les représentations des élèves, mais lorsque les activités pédagogiques permettent de contextualiser cette notion sur leur territoire, il est alors plus fortement perçu.
-
Les inondations de 2017 et 2019 au Québec ont affecté respectivement 293 et 240 municipalités. Ces inondations ont généré une cascade d’évènements stressants (stresseurs primaires et secondaires) qui ont eu des effets sur la santé mentale de la population et retardé le processus de rétablissement des individus. Cette période de rétablissement peut s’échelonner sur plusieurs mois voire plusieurs années. Cette étude s’inscrit dans la spécificité de la recherche mixte mise de l’avant à travers trois stratégies de recherche, réalisées de façon séquentielle : 1) sondage populationnelle réalisé auprès de 680 personnes, 2) analyse de documents produits par les organisations participant au processus de rétablissement social des sinistrés, ou sur des analyses externes portant sur ces interventions de rétablissement et 3) entrevues semi-dirigées auprès de 15 propriétaires occupants ayant complété une demande d’indemnisation à la suite des inondations de 2019 et auprès de 11 professionnels et gestionnaires participant au processus de rétablissement social. Les entrevues semi-dirigées et les questionnaires complétés par les personnes sinistrées lors des inondations de 2019 démontrent que les principales sources de stress ayant des impacts sur la santé et le bien-être des répondants sont : 1) l’absence d’avertissement et la vitesse de la montée des eaux; 2) l’obligation de se relocaliser et la peur d’être victime de pillage; 3) le manque de solidarité et d’empathie de la part de certains employés du MSP; 4) la gestion des conflits familiaux; 5) la gestion de problèmes de santé nouveaux ou préexistants; 6) la complexité des demandes d’indemnisation; 7) la lourdeur et les délais des travaux de nettoyage ou de restauration; 8) les indemnités inférieures aux coûts engendrés par l’inondation; 9) les pertes matérielles subies, particulièrement ceux d’une valeur de plus de 50 000 $; et 10) la diminution anticipée de la valeur de sa résidence. À cela s’ajoute l’insatisfaction à l’égard du programme d’indemnisation du gouvernement du Québec (PGIAF) qui fait plus que doubler la prévalence des symptômes de stress post-traumatique. Les inondations entraînent également une perte de satisfaction ou de bien-être statistiquement significative. La valeur monétaire de cette perte de jouissance peut être exprimée en équivalent salaires. En moyenne, cette diminution du bien-être équivaut à une baisse de salaire de 60 000$ pour les individus ayant vécu une première inondation et à 100 000$ pour les individus ayant vécu de multiples inondations. Ces résultats suggèrent que les coûts indirects et intangibles représentent une part importante des dommages découlant des inondations. Ce projet de recherche vise également à analyser l’application du PGIAF et son influence sur les stresseurs vécus par les sinistrés dans le contexte de la pandémie de COVID-19. La principale recommandation de cette étude repose sur une analyse de documents, un sondage populationnel et des entrevues semi-dirigées. Ainsi, s’attaquer à la réduction de principaux stresseurs nécessite 1) d’améliorer la gouvernance du risque d’inondation, 2) d’intensifier la communication et le support aux sinistrés, et 3) de revoir les mécanismes d’indemnisation existants.
-
RÉSUMÉ: Les courbes Intensité-Durée-Fréquence (IDF) sont l’outil mathématique principalement utilisé par les ingénieur(-e)s pour la modélisation des précipitations extrêmes à un endroit donné. Pour obtenir des courbes IDF fiables, des méthodes statistiques robustes sont nécessaires. L’utilisation de modèles d’échelle est indiquée pour estimer de façon plus précise les courbes IDF en réduisant le nombre de paramètres nécessaires pour modéliser le comportement ex-trême du processus de pluie. Un modèle d’échelle suppose l’existence d’une relation entre les distributions des maxima annuels d’intensité pour les différentes durées d’accumulation. Il existe différentes relations d’échelle possibles, donnant naissance à une variété de modèles. Dans ce mémoire, une procédure de test statistique est développée pour décider si un modèle d’échelle fixé est pertinent pour construire les courbes IDF à un endroit donné, basé sur les observations des maxima annuels historiques d’intensité de précipitations à cet endroit. Le test développé est une extension du test d’adéquation d’Anderson-Darling. Il implique de séparer la base de données en ensembles d’entraînement et de validation. L’ensemble d’entraînement est utilisé pour estimer les paramètres du modèle d’intérêt, et l’ensemble de validation est utilisé dans le calcul de la statistique. La distribution asymptotique de la statistique de test sous l’hypothèse nulle est établie dans un cadre général. Les quantiles de cette distribution théorique peuvent être approximés, ce qui permet de calculer analytiquement la région de rejet ainsi que la valeur-p pour le test. Dans le cas des courbes IDF, l’hypothèse nulle statue qu’un modèle d’échelle d’intérêt est adéquat. Les données sont des maxima d’intensité de précipitations. Les données correspondant à une durée d’accumulation fixée par l’utilisateur(trice) sont sélectionnées pour constituer l’ensemble de validation. Lorsque la durée choisie est la plus petite durée, les performances du test sont validées par une étude de simulation. Sous l’hypothèse nulle, le test rejette au taux nominal même pour des petits échantillons. Sous une hypothèse alternative (c’est-à-dire lorsque le modèle d’échelle utilisé pour générer les données s’écarte du modèle d’intérêt), le taux de rejet augmente avec la distance entre les modèles ainsi qu’avec la taille d’échantillon. Sur des données réelles, le test conduit à utiliser des modèles d’échelle différents à l’aéroport international Pierre-Elliott Trudeau de Montréal et à l’aérodrome Harbour de Vancouver. ABSTRACT: IDF curves are the primary mathematical tool used by engineers for modeling extreme precipitation at a given location. Reliable IDF curves require robust statistical methods. The use of scaling models allows for more precise estimations of IDF curves by reducing the num-ber of parameters needed to model the extreme behavior of the rainfall process. A scaling model assumes the existence of a relationship between the distributions of the annual inten-sity maxima accross the various accumulation durations. Diverse scaling relationships exist, giving rise to a variety of models. In this master thesis, a statistical testing procedure is developed to determine if a scaling model is suitable for constructing IDF curves at a given location, based on historical annual rain intensity maxima observed at that location. The developed test is an extension of the Anderson-Darling goodness-of-fit test. It involves splitting the database into training and validation sets. The training set is used to estimate the parameters of the model of interest, and the validation set is used in the calculation of the test statistic. The asymptotic distribution of the test statistic under the null hypothe-sis is established in a general framework. Quantiles of this theoretical distribution can be approximated, allowing for the analytical calculation of the rejection region as well as the p-value for the test. In the case of IDF curves, the null hypothesis states that a target scaling model is adequate. The data consist of precipitation intensity maxima. Data corresponding to a duration fixed by the user are selected to constitute the validation set. When the chosen duration is the smallest duration, the performances of the test are validated through a simulation study. Under the null hypothesis, the test maintains the nominal rejection rate even for small samples. Under an alternative hypothesis (i.e., when the scaling model used to generate the data deviates from the target model), the rejection rate increases with the discrepancy between the models as well as with the sample size. When applied to historical data, the test suggests the use of different scaling models at the Montréal Pierre-Elliott Trudeau international airport and at the Vancouver Harbour aerodrome.
-
La quatrième de couverture indique : "L'hydrologie est la science qui étudie les eaux terrestres, leur origine, leur mouvement et leur répartition sur notre planète, leurs propriétés physiques et chimiques, leurs interactions avec l'environnement physique et biologique, et leur influence sur les activités humaines. Au sens plus strict, c'est la science qui étudie le cycle de l'eau dans la nature. Elle examine la distribution géographique et temporelle de l'eau dans l'atmosphère, en surface et dans le sol et le-sous-sol. Hydrologie - Cheminements de l'eau, deuxième édition, permet à l'hydrologue moderne d'explorer les volets scientifique et technique de l'hydrologie. Une description scientifique des phénomènes hydrologiques est offerte afin de proposer une motivation à leur étude, d'identifier les observations requises et d'assurer une compréhension de chaque étape du cycle de l'eau. Les éléments de chacune des situations d'apprentissage sont intégrés dans des modèles théoriques et d'application, et de nombreuses méthodes et techniques pour la résolution de problèmes hydrologiques sont présentées. En plus de fournir une description universelle de l'hydrologie, il couvre de multiples sujets dont l'estimation statistique des débits, l'exploitation des eaux, les systèmes d'information géographique et la télédétection. Il comporte, en outre, de nombreuses figures qui permettent d'en illustrer le propos, une bibliographie substantielle et quelque cent cinquante exercices. Ce livre s'adresse particulièrement aux étudiants de premier cycle universitaire en génie civil, forestier ou agricole, ainsi qu'à ceux de géographie physique, de géologie ou des sciences de l'environnement, mais aussi aux ingénieurs-conseils, au personnel des agences gouvernementales confronté à différents aspects de l'hydrologie et aux professeurs."
-
Les récentes découvertes d’épaves de barges fluviales gallo-romaines à Lyon au Parc Saint-Georges, en 2003, et à Arles à partir de 2002, ont non seulement attiré l’attention sur la batellerie fluviale gallo-romaine mais aussi porté au premier plan des recherches le bassin rhodanien et le midi de la Gaule jusque-là peu présent ou même totalement absent du débat. Ce volume est issu d'une rencontre sur le thème de la batellerie gallo-romaine à la lumière de ces découvertes récentes organisée à Aix-en-Provence dans le cadre des Séminaires de recherche en archéologie maritime méditerranéenne du Centre Camille Jullian.
-
L'ouvrage fait le point sur les développements de la méthode mise au point dans les années 1980 et présentée en détail pour la première fois en 1996. Il s'organise en deux grandes parties : la présentation de la méthode hydrogéomorphologique de détermination des zones inondables et les applications de cette méthode. La première partie justifie d'abord la nécessité de mettre au point et d'utiliser une nouvelle méthode face aux insuffisances des méthodes hydrologiques-hydrauliques utilisées en France (et très généralement dans le monde) pour la prévision et la prévention des risques d'inondation.Elle présente ensuite les principes de la méthode (chapitre II). C'est ainsi qu'elle consacre un long développement au rôle fondamental de la géomorphologie, tout particulièrement aux quatre lits qu'un cours d'eau peut occuper en fonction de son débit, lits déterminés par l'analyse de la microtopographie de la plaine alluviale fonctionnelle complétée par leur caractérisation sédimentologique. L'influence de la lithologie et de la tectonique est ensuite évoquée. Un deuxième sous-chapitre présente les critères complémentaires : la couverture végétale naturelle et l'occupation humaine au travers de la localisation des constructions, des vestiges historiques et archéologiques, de l'adaptation de l'activité agricole aux caractéristiques de la plaine alluviale et de la structure du parcellaire. Un troisième sous-chapitre regroupe les facteurs de variation : les grandes zones climatiques et les facteurs anthropiques (travaux et ouvrages hydrauliques, pratiques agricoles, imperméabilisation des sols due à l'urbanisation). Enfin, l'évolution au cours de la période historique des unités hydrogéomorphologiques principales, lit mineur et lit majeur, est présentée.Le court chapitre III met en relation l'hydrogéomorphologie et le fonctionnement hydraulique à l'échelle des unités hydrogéomorphologiques puis au niveau de la modélisation. La deuxième partie présente les trois principales applications de la méthode : la cartographie des zones inondables, la méthode intégrée et l'aménagement. La cartographie des zones inondables est actuellement la principale application, grâce à son intégration dans la politique de prévision et de prévention des risques d'inondation en France depuis 1995. Le chapitre qui lui est consacré s'articule en trois ensembles. Le premier est un rappel critique des moyens techniques d'acquisition des données : cartes, photographies aériennes, imagerie satellite en plein développement, données relatives aux crues historiques, observations de terrain. Le deuxième sous-chapitre détaille la cartographie des données sous la forme de la carte hydrogéomorphologique ou carte d'inondabilité hydrogéomorphologique en faisant l'historique et la critique de la légende proposée par le Ministère de l'Écologie français, puis en traitant plusieurs problèmes de cartographie : l'exhaussement du lit majeur, l'adoucissement du talus externe de la plaine alluviale fonctionnelle par le ruissellement diffus, le recouvrement du talus de la terrasse alluviale par le colluvionnement, la représentation du lit majeur exceptionnel et de la terrasse alluviale holocène, le cas spécifique des vallons secs. Enfin, les premières cartographies réalisées à l'étranger sont présentées. Un court dernier sous-chapitre traite de l'interprétation, qualitative et semi-quantitative, de la carte hydrogéomorphologique.La méthode intégrée, qui reste pour l'essentiel au stade expérimental, est présentée dans le chapitre II : d'abord ses origines, puis ses principes, puis ses premières applications prometteuses en France.Le chapitre III regroupe les potentialités, importantes mais peu exploitées, de la méthode hydrogéomorphologique pour l'aménagement des plaines alluviales, en insistant sur deux points : les conséquences de l'exhaussement des lits majeurs et le fonctionnement des cours d'eau pendant les crues exceptionnelles. La conclusion générale insiste sur l'efficacité de cette méthode, née de la problématique des risques naturels et hors du champ académique, ainsi que sur sa fécondité, en particulier la découverte de nouveaux objets géomorphologiques comme le lit majeur exceptionnel et de nouveaux concepts comme celui de débit hydrogéomorphologique.
-
RÉSUMÉ : Les relocalisations de populations et les démolitions de bâtiments sont des moyens pour réduire les risques associés aux inondations, dont ceux pour la santé humaine. Au Québec, l’usage de ces mesures pourrait s’accroître avec les changements climatiques. En Chaudière-Appalaches, au moins 404 bâtiments ont été démolis à Sainte-Marie et 88 à Scott après les inondations de 2019. L’expérience de démolition de domiciles post-inondation est toutefois peu documentée au Québec et encore moins selon le point de vue des personnes touchées, particulièrement chez les hommes. Ce mémoire présente les résultats d’une étude ayant documenté cette expérience auprès de treize hommes propriétaires d’un domicile dans la MRC Nouvelle-Beauce à partir d'entretiens semi-dirigés (méthode photo-élicitation) et d’un groupe de discussion. Cette étude repose sur l’expérience clinique de l’étudiante-chercheuse qui a constaté la présence de détresse chez la population masculine touchée par ce phénomène et sur la littérature scientifique qui démontre une plus faible propension à l’usage de services psychosociaux et de santé chez les hommes. À partir d’une analyse thématique inspirée du cadre théorique « Psychological Processes That Influence Adaptation to and Coping With Climate Change » de Reser et Swim et d’une perspective écosystémique, quatre nouvelles phases ont été dégagées soient : l’inondation, les démarches administratives, la démolition et la relocalisation. Chacune est caractérisée par des besoins et des impacts psychosociaux systémiques, l’usage de stratégies adaptatives spécifiques et des moments critiques pour la santé et le bien-être des hommes. Les résultats suggèrent que des impacts et besoins individuels et collectifs peuvent se cumuler et se prolonger dans le temps comme des manifestations anxio-dépressives ou traumatiques, de la détresse, une désaffiliation sociale ainsi qu’une modification de projets de vie. Une réduction de l’exposition aux inondations et une augmentation du bien-être et de la sécurité ressortent également. La proactivité, les pensées axées sur l’autonomie et le recours au soutien informel sont apparues comme des stratégies aidantes comparativement au repli sur soi et au surinvestissement dans le travail. Les résultats permettent d’exposer des pistes de réflexion et d’action favorisant le bien-être des hommes et d’autres pertinentes pour le travail social. Parmi celles-ci se trouvent d’encourager les hommes touchés par la démolition de leur domicile post-inondation à s’investir dans leur nouveau milieu de vie pour favoriser son appropriation et sa personnalisation ainsi que des recommandations pour le travail social de prendre en compte le genre dans la compréhension des problèmes socioenvironnementaux. -- Mot(s) clé(s) en français : Inondation, chez-soi, hommes, changements climatiques, travail social, désastre, besoins psychosociaux, adaptation, mesures d’atténuation du risque, événements météorologiques extrêmes. -- ABSTRACT : Population relocation and building demolition are ways of reducing the risks associated with flooding, including those to human health. In Quebec, the use of these measures could increase with climate change. In Chaudière-Appalaches, at least 404 buildings were demolished in Sainte-Marie and 88 in Scott after the 2019 floods. However, the experience of post-flood home demolition is poorly documented in Quebec, and even less so from the perspective of those affected, specifically men. This memoir presents the results of a study that documented this experience with thirteen male homeowners in the Nouvelle-Beauce MRC using semi-directed interviews (photo-elicitation method) and a focus group. This study is based on the student-researcher's clinical experience of distress among the male population affected by this phenomenon, and on scientific literature demonstrating a lower propensity to use psychosocial and health services among men. Based on a thematic analysis inspired by the Reser and Swim’s theoretical framework, the Psychological Processes That Influence Adaptation to and Coping With Climate Change, and an ecosystem perspective, four new phases were identified: flooding, administrative procedures, demolition and relocation. Each is characterized by systemic psychosocial needs and impacts, the use of specific adaptive strategies and critical moments for men's health and well-being. The results suggest that individual and collective needs and impacts can accumulate and extend over time, such as anxio-depressive or traumatic manifestations, distress, social disaffiliation and changes in life plans. A reduction in exposure to flooding and an increase in well-being and safety also stand out. Proactivity, autonomy-oriented thinking and reliance on informal support emerged as helpful strategies compared to withdrawal and over-investment in work. The results provide food for thought and action to promote men's well-being, and others relevant to social work. These include encouraging men affected by the demolition of their post-flood home to get involved in their new living environment to promote its appropriation and personalization and taking gender into account in understanding socioenvironmental problems. -- Mot(s) clé(s) en anglais : Flooding, home, men, climate change, social work, disaster, psychosocial needs, adaptation, risk mitigation measures, extreme weather events.
-
La température extrême de l’eau influence de nombreuses propriétés physiques, chimiques et biologiques des rivières. l ’ évaluation de l ’ Une prédiction précise de la température de l’eau est importante pour impact environnemental. Dans ce cadre, différents modèles ont été utilisés pour estimer les températures de l ’ linéaires simp eau à différentes échelles spatiales et temporelles, allant des méthodes les pour déterminer l’incertitude à des modèles sophistiqués non linéaires. Cependant, cette variable primordiale n’a pas été traitée dans un contexte probabiliste (ou fréquentiste). Donc, l’estimation des évènements extrêmes thermiques à l’aide des approc hes d’analyse fréquentielle locale (AFL) est importante. Lors de l’estimation des extrêmes thermiques, il est crucial de tenir compte de la forme de la distribution de fréquences considérée. Dans la première partie de la thèse , nous nous concentrons sur la sélection de la distribution de probabilité la plus appropriée des températures des rivières. Le critère d critère d ’ ’ information d ’ Akaike (AIC) et le information bayésien (BIC) sont utilisés pour évaluer la qualité de l distributions statis ’ ajustement des tiques. La validation des distributions candidates appropriées est également effectuée en utilisant l ’ approche de diagramme de rapport des L obtenus montrent que la distribution de Weibull (W2) moments (MRD). Les résultats est celle qui semble s’ajuster le données provenant des stations de haute altitude, tandis que les mieux aux séries d’extrêmes provenant des stations situées dans les régions de basse altitude sont bien adaptées avec la distribution normale (N). Ceci correspond au premier article. L a ’ couverture spatiale des données de température des cours d ’ eau est limitée dans de nombreuses régions du monde. Pour cette raison, une analyse fréquentielle régionale (AFR) permettant d estimer les extrêmes de température des rivières sur des sites non jau gés ou mal surveillés est nécessaire. En général, l’AFR inclut deux étapes principales, la délimitation des régions homogènes (DRH) qui vise à déterminer les sites similaires, et l’estimation régionale (ER) qui transfère l’information depuis les sites déte rminés dans la première étape vers le site cible. Par conséquent, le modèle d’indice thermique (IT) est introduit dans le contexte d’AFR pour estimer les extrêmes du régime thermique. Cette méthode est analogue au modèle d ’ indice de crue (IF) largement uti lisé en hydrologie. Le modèle IT incorpore l’homogénéité de la distribution de fréquence appropriée pour chaque région, ce qui offre une plus grande flexibilité. Dans cette étude, le modèle IT est comparé avec la régression linéaire multiple (MLR). Les rés ultats indiquent que le modèle IT fournit la meilleure performance (Article 2) . Ensuite, l’approche d’analyse canonique des corrélations non linéaires (ACCNL) est intégrée dans la DRH, présentée dans le Chapitre 4 de ce manuscrit (Article 3). Elle permet de considérer la complexité des phénomènes thermiques dans l’étape de DRH. Par la suite, dans le but d’identifier des combinaisons (DRH-ER) plus prometteuses permettant une meilleure estimation, une étude comparative est réalisée. Les combinaisons considérées au niveau des deux étapes de la procédure de l’AFR sont des combinaisons linéaires, semi-linéaires et non linéaires. Les résultats montrent que la meilleure performance globale est présentée par la combinaison non linéaire ACCNL et le modèle additif généralisé (GAM). Finalement, des modèles non paramétriques tels que le foret aléatoire (RF), le boosting de gradient extrême (XGBoost) et le modèle régression multivariée par spline adaptative (MARS) sont introduits dans le contexte de l’AFR pour estimer les quantiles thermiques et les comparer aux quantiles estimés à l’aide du modèle semi-paramétrique GAM. Ces modèles sont combinés avec des approches linéaires et non linéaires dans l’étape DRH, telles que ACC et ACCNL, afin de déterminer leur potentiel prédictif. Les résultats indiquent que ACCNL+GAM est la meilleure, suivie par ACC+MARS. Ceci correspond à l’article 4. <br /><br />Extreme water temperatures have a significant impact on the physical, chemical, and biological properties of the rivers. Environmental impact assessment requires accurate predictions of water temperature. The models used to estimate water temperatures within this framework range from simple linear methods to more complex nonlinear models. However, w ater temperature has not been studied in a probabilistic manner. It is, therefore, essential to estimate extreme thermal events using local frequency analysis (LFA). An LFA aims to predict the frequency and amplitude of these events at a given gauged locat ion. In order to estimate quantiles, it is essential to consider the shape of the frequency distribution being considered. The first part of our study focuses on selecting the most appropriate probability distribution for river water temperatures. The Akai ke information criteria (AIC) and the Bayesian information criteria (BIC) are used to evaluate the goodness of fit of statistical distributions. An Lmoment ratio diagram (MRD) approach is also used to validate sui table candidate distributions. The results good fit for extremes data from the highindicate that the Weibull distribution (W2) provides a altitude stations, while the normal distribution (N) is most appropriate for lowaltitude stations. This corresponds to the first article. In many parts of the world, river temperature data are limited in terms of spatial coverage and size of the series. Therefore, it is necessary to perform a regional frequency analysis (RFA) to estimate river temperature extremes at ungauged or poorly monitored sites. Generall y, RFA involves two main steps: delineation of homogenous regions (DHR), which identifies similar sites, and regional estimation (RE), which transfers information from the identified sites to the target site. The thermal index (TI) model is introduced in t he context of RFA to estimate the extremes of the thermal regime. This method is analogous to the index flood (IF) model commonly used in hydrology. The TI model considers the homogeneity of the appropriate frequency distributions for each region, which pr ovides larger flexibility. This study compares the TI model with multiple linear regression (MLR) approach. Results indicate that the TI model leads to better performances (Article 2). Then, the nonlinear canonical correlations analysis (NLCCA) approach is integrated into the DHR, as presented in Chapter 4 of this manuscript (Article 3). It allows considering the complexity of the thermal phenomena in the DHR step. A comparative study is then conducted to identify more promising combinations (DHR RE), that RFA procedure, linear, semilead to best estimation results. In the two stages of the linear, and nonlinear combinations are considered. The results of this study indicate that the nonlinear combination of the NLCCA and the generalized additive model (GAM ) produces the best overall performances. Finally, nonparametric models such as random forest (RF), extreme gradient boosting (XGBoost), and multivariate adaptive regression splines (MARS) are introduced in the context of RFA in order to estimate thermal q uantiles and compare them to quantiles estimated using the semiparametric GAM model. The predictive potential of these models is determined by combining them with linear and nonlinear approaches, such as CCA and NLCCA, in the DHR step. The results indicat e that NLCCA+GAM is the best, followed by CCA+MARS. This corresponds to article 4.
-
Cette thèse s’inscrit dans le champ des études sur les fictions de la fin du monde. J’y explore la question suivante : pourquoi existe-t-il autant de romans et de films racontant la fin d’un monde, et si peu la fin du monde ? En effet, la plupart des fictions dites de « fin du monde » mettent en scène la menace d’une catastrophe évitée, ou une destruction partielle, ou encore un univers post-apocalyptique habité de survivants. L’anéantissement total et définitif de l’espèce humaine, quant à lui, constitue rarement le dénouement de ce type d’œuvres. Ce déséquilibre s’explique en partie par le fait que ces œuvres représentent davantage le renouvellement du monde que sa disparition. Mon hypothèse est que nombre de ces récits de la fin héritent d’un imaginaire, d’une structure, de thèmes, de motifs, etc., provenant du mythe du déluge tel qu’il s’est développé dans l’Antiquité (entre autres dans sa version biblique), lequel symbolise la refondation et la transmission, et non l’anéantissement. Dans le premier chapitre, je propose une exploration de différents concepts et théories permettant de mieux définir les romans et les films de la fin du monde : les dispositif et contre-dispositif de Giorgio Agamben ; la conception des mythes de René Girard (principalement pour les notions d’indifférenciation et de bouc émissaire) ; le décalage prométhéen de Gunther Anders ; le catastrophisme éclairé de Jean-Pierre Dupuy ; les deux raisonnements mythologiques opposés identifiés dans les récits antiques de la fin du monde par Christine Reungoat-Dumas. Dans le deuxième chapitre, j’étudie d’abord comment le thème de la transmission s’articule dans quelques mythes antiques du déluge, avant de proposer un canevas général des mythèmes constituants. À partir de cette délimitation, je procède ensuite à l’analyse de trois mythèmes (la crise indifférenciatrice ; l’abri ; le lâcher d’oiseaux) dans un corpus de romans et de films des 20e et 21e siècles. Cette analyse permet de faire ressortir l’importance du thème de la transmission (de gènes et de mèmes, donc de réplicateurs). La transmission reflète un besoin de transcendance qui définit, oriente, ou du moins colore, pratiquement toutes les œuvres de la fin du monde. Dans ce contexte, la littérature, objet de transmission, peut être appréhendée comme une « arche métaphorique ». Le troisième chapitre se concentre sur l’analyse d’une œuvre, la trilogie MaddAddam (Oryx and Crake ; The Year of the Flood ; MaddAddam) de Margaret Atwood. J’y avance que cette œuvre prend la forme d’une épopée, dans laquelle on assiste à la mise en scène de sa propre écriture. Cette mise en abyme démontre bien que la trilogie, tout en étant une œuvre de fin du monde, raconte également la naissance d’un nouveau monde : l’épopée intradiégétique qui s’y compose tente d’immortaliser une partie du passé et d’orienter le futur. La littérature, sous la forme de cette épopée, figure ainsi une arche qui relie les mondes pré-apocalyptique et post-apocalytique de l’œuvre d’Atwood.
-
Les rivières sont des écosystèmes dynamiques qui reçoivent, transforment, et exportent de la matière organique comprenant du carbone (C), de l’azote (N), et du phosphore (P). De par leur grande surface de contact entre l’eau et les sédiments, elles offrent un potentiel élevé pour les processus de transformation de ces éléments, dans lesquels ils sont souvent conjointement impliqués. Ces transformations peuvent retirer les éléments de la colonne d’eau et ainsi diminuer leurs concentrations pour améliorer la qualité de l’eau. Par contre, les conditions climatiques (débit, température, luminosité), la configuration du territoire (forêt, urbanisation, agriculture), et la durée des activités humaines sur terre affectent la quantité, composition, et proportion de C, N, et P livrés aux cours d’eau receveurs. Dans un contexte où un surplus de nutriments (N, P) peut surpasser la capacité des rivières à retirer les éléments de l’eau, et où les extrêmes climatiques s’empirent à cause des changements climatiques, cette thèse met en lumière le rôle des rivières dans les dynamiques de C, N, et P pour une meilleure compréhension de la réponse des écosystèmes lotiques aux pressions actuelles et futures. La Rivière du Nord draine séquentiellement des régions couvertes de forêt, d’urbanisation, et d’agriculture, et oscille entre quatre saisons distinctes, l’exposant à des utilisations du territoire et conditions climatiques contrastées. Nous avons échantillonné les formes de C, N, et P à 13 sites le long du tronçon principal (146 km), une fois par saison pour trois ans. De façon générale, les concentrations de N et P totaux ont augmenté d’amont vers l’aval, concordant avec l’activité humaine plus importante dans la deuxième moitié du bassin versant, mais les concentrations de C organique total sont restées constantes peu importe la saison et l’année. La stœchiométrie écosystémique du C : N : P était donc riche en C comparé au N et P en amont, et s’est enrichie en nutriments vers l’aval. L’étendue (2319 : 119 : 1 à 368 : 60 : 1) couvrait presque le continuum terre – océan à l’intérieur d’une seule rivière. Des formes différentes de C, N, et P dominaient la stœchiométrie totale dépendamment des saisons et de l’utilisation du territoire. En été, la composition du N était dominée en amont par sa forme organique dissoute et par le nitrate en aval, tandis qu’en hiver, l’ammonium et le P dissous avaient préséance sur l’entièreté du continuum. Malgré une concentration constante, la proportion des molécules composant le C différait aussi selon la saison et l’utilisation du territoire. L’été était dominé par des formes dégradées par l’action microbienne et l’hiver par des formes bio- et photo-labiles. Ceci fait allusion au potentiel de transformation de la rivière plus élevé dans la saison chaude plutôt que sous la glace, où les formes plus réactives avaient tendance de s’accumuler. La composition du C en amont était aussi distincte de celle en aval, avec un seul changement abrupt ayant lieu entre la section forestière et la section d’utilisation du territoire urbaine et agricole. Ces changements de compositions n’étaient pas présents durant le printemps de crue typique échantillonné, mais dans l’inondation de fréquence historique nous avons observés des apports nouveaux de molécules provenant soit des apports terrestres normalement déconnectés du réseau fluvial ou de surverses d’égouts. L’influence des facteurs naturels et anthropiques s’est aussi reflétée dans les flux historiques riverains de C, N, et P (1980 – 2020). La précipitation explique le plus les flux de C et les flux de N dans la section pristine. Les apports historiques au territoire de N anthropique (nécessaires pour soutenir la population humaine et les activités agricoles) expliquent fortement la tendance temporelle à la hausse des flux riverains de N dans la section urbaine. Durant les quatre dernières décennies, un peu plus du tiers des apports de N au territoire sont livrés à la rivière annuellement, suggérant que la source urbaine de N anthropique est encore peu gérée. Le manque de corrélation entre les flux de P dans la rivière et les précipitations ou les apports au territoire de P anthropique peut être expliqué par les usines de traitement des eaux usées installées dans la région vers la fin des années 1990 qui ont fait diminuer presque de moitié le P livré à la rivière. La variation de ces flux s’est reflétée dans la stœchiométrie écosystémique historique, qui varie de 130 : 23 : 1 en 1980 à 554 : 87 : 1 en 2007-08 après l’effet de l’usine d’épuration et du N qui a augmenté. À travers les axes historiques, spatiaux, et saisonniers, cette thèse contribue à la compréhension du rôle des rivières dans la réception, la transformation, et l’export du C, N, et P. Combinée aux concentrations, l’approche de stœchiométrie écosystémique propose une façon d’intégrer apports et pertes des éléments pour les étudier de pair au niveau du bassin versant. Puis, comme certaines formes de C, N, et P sont associées à des sources terrestres spécifiques, ou à certains types de transformations, les inclure dans un cadre conceptuel combinant des extrêmes climatiques et des utilisations du territoire différentes offre un aperçu sur le résultat des sources et transformations des éléments. Enfin, les tendances décennales de C, N, et P riverains montrent l’influence des facteurs naturels et anthropiques sur la stœchiométrie écosystémique historique d’une rivière.
-
Les instances responsables d’assurer la gestion des risques d’inondations reliés aux embâcles de glace sont toujours à la recherche d’outils visant à prévenir les risques et réduire les conséquences sur les populations et les infrastructures. Grâce à la modélisation de certains paramètres jouant un rôle dans la formation des embâcles de glace comme la prédisposition géomorphologique et les conditions hydrométéorologiques, la prévention de ceux-ci s’est grandement améliorée. Les modèles axés sur la force de mobilisation de la rivière et sa capacité à contraindre l’écoulement gagnerait en pertinence s’ils pouvaient inclure la résistance du couvert de glace. Les outils de télédétection sont une manière efficace de connaitre l’état du couvert de glace tant sur l’ensemble de la rivière qu'à différents endroits ciblés. Ceux-ci peuvent générer différents produits cartographiques utiles avant, pendant et après les événements. La présente thèse vise à intégrer le suivi du couvert de glace dans les méthodes de prévention des embâcles à l’aide d’outils provenant de la télédétection. Pour ce faire, quatre sous-objectifs ont été accomplis 1) créer une approche de suivi du couvert de glace à grande échelle en exploitant les données de télédétection optique, radar et acquises par drone, 2) développer une méthode de cartographie automatique du type de glace par estimation d’ensemble à partir d’imagerie radar, 3) concevoir un modèle de détection automatique des lieux à risque de débâcle en utilisant les connaissances de personnes expertes pour interpréter les cartes du type de glace et 4) intégrer les outils développés aux autres modèles conçus dans le cadre de DAVE (Dispositif d’alertes et de vigilance aux embâcles). Les contributions originales découlant de cette thèse touchent plusieurs aspects du suivi du couvert de glace. Elles incluent la démonstration de la pertinence des indicateurs de suivi de la glace par la télédétection, la conceptualisation d’une méthode de segmentation de la rivière en secteurs de production, transport et accumulation de la glace, l’élaboration d’un modèle de cartographie du type de glace par estimation d’ensemble plus performant et polyvalent que les classificateurs originaux, la construction d’une base de données de dégradation du couvert de glace à partir des connaissances de personnes expertes en cartographie de la glace et un modèle de classification de la dégradation du couvert de glace. Cette thèse se conclut par l’intégration conceptuelle à l’aide d’une analyse multicritères hiérarchique des différents outils développés au sein de DAVE. <br /><br /> The authorities responsible for ice jam flood risk management are always looking for tools to prevent harm and reduce consequences on populations and infrastructure. Ice jam prevention has been greatly improved by modelling certain parameters—such as geomorphic predispositions and hydrometeorological conditions—that are central to ice jam formation. These models focusing on the strength of the river current and its ability to constrain the flow would gain in relevance if they could include ice cover strength. Remote sensing tools are an effective way of knowing the state of the ice cover over the whole river and at different target locations. These can be used to generate different map products to include in monitoring before, during and after hazard events. This dissertation therefore aims to integrate ice cover monitoring into ice jam prevention methods using remote sensing tools. To do so, three main sub-objectives were accomplished: 1) to create a large-scale ice cover monitoring approach using remote sensing data such as optical, radar and drone images, 2) to develop a method for automatic mapping of ice type by ensemble estimation from radar imagery, 3) to design an automatic detection model for breakup risk locations using ice type maps and expert judgment and 4) to integrate the tools developed with other models created within the Dispositif d’alertes et de vigilance des embâcles de glace (DAVE). The original contribution from this work covers multiple aspects of ice cover monitoring. This dissertation demonstrates the relevance of direct indicators of ice monitoring by remote sensing, conceptualizes a method for river segmentation into areas of ice production, transport and accumulation, develops an ensemble-based estimation ice type mapping model more efficient and versatile than the original algorithms, constructs an ice cover degradation database derived from the knowledge of ice mapping experts, and proposes a classification model of ice cover degradation. This dissertation concludes with the conceptual integration by analytic hierarchy process of the different tools developed within DAVE.
-
En étant nécessaire à la vie humaine, l’eau est également nécessaire au fonctionnement des économies. Pour qu’elle soit utile à la société, l’eau doit être disponible en quantité et en qualité adéquates, caractéristiques qui ne sont pas toujours disponibles dans la nature. Ainsi, trop ou pas assez d’eau entraînerait des inondations ou des sécheresses, tandis qu’une eau contaminée pourrait être le vecteur de maladies contagieuses mortelles, chacun de ces fléaux entraînant des dommages économiques. Cette thèse est organisée en trois chapitres traitant de thématiques liées aux investissements dans les infrastructures d'eau et à la gestion des maladies infectieuses. Le premier chapitre étudie comment les améliorations apportées aux réseaux d’égouts atténuent les impacts économiques des inondations provoquées par la pluie. Pour estimer l’effet causal de ces investissements, ce chapitre utilise un resserrement inattendu du financement fédéral américain en faveur des réseaux d’égouts, à la suite de l’amendement de 1977 à la politique du Clean Water Act. L'analyse empirique combine un nouveau modèle statistique du risque d'inondation induit par la pluie avec des données horaires sur la quantité de pluie dans les comtés et les codes postaux américains de 1996 à 2019. Les résultats indiquent que des investissements plus importants dans les réseaux d'égouts ont conduit à des réductions substantielles des inondations locales. Les bénéfices de ces investissements sont supérieurs à leurs coûts, économisant près de 23 millions de dollars pour le comté moyen. Dans l’ensemble, ces résultats mettent en évidence à quel point la détérioration des infrastructures publiques peut exacerber les conséquences du changement climatique. Le deuxième chapitre étudie le rôle des épidémies locales de maladies infectieuses dans l'adoption de systèmes centralisés d'approvisionnement en eau dans les premières villes américaines au XIXe siècle. À l’aide d’un vaste corpus de données provenant d’archives de journaux de 1800 à 1896, je construis un nouvel indicateur capturant les épidémies de fièvre jaune, de choléra et de fièvre typhoïde au niveau des villes. Les résultats indiquent que (1) les épidémies locales de maladies infectieuses ont entraîné une augmentation du nombre systèmes d'approvisionnement en eau construits par les villes et ont joué un rôle crucial dans la décision de construire environ 12% des ouvrages d’adduction d’eau en activité en 1897 ; (2) La réponse des villes aux épidémies de typhoïde a été deux fois plus importante que celle qui a suivi les épidémies de fièvre jaune ou de choléra. (3) Les entreprises privées ont construit davantage de nouveaux réseaux d’adduction d’eau après les épidémies locales, tandis que les gouvernements locaux ont procédé à davantage d’améliorations et d’extensions des réseaux d’adduction d’eau publics existants ainsi qu’à des rachats de sociétés d’eau privées. Enfin, je discute du rôle potentiel de divers facteurs sociodémographiques. Le troisième chapitre étudie les coûts économiques associés à une stratégie utilisée pour gérer les épidémies locales lors de la récente pandémie de COVID-19. Dans ce travail en collaboration avec Jian Tang, nous quantifions les effets de la politique ‘zéro-COVID’ à l’aide d’un riche ensemble de données sur les confinements au niveau des comtés en Chine et d’images satellitaires nocturnes. Nous constatons que des confinements plus stricts induisent une forte baisse de la luminosité nocturne au cours de la même période, suivie d’une lente reprise, qui se produit au moins deux trimestres après l’instauration du confinement. En l’absence de contagions généralisées, un comté soumis à un confinement total subit en moyenne une perte de PIB de 6% par rapport aux comtés non confinés. L’effet négatif est particulièrement persistant dans les zones où la production est dominée par les services, par opposition aux zones où la production est dominée par l’activité manufacturière. L’on note par ailleurs la présence d’effets d’entraînement à proximité des comtés confinés, mais ces effets sont de courte durée.
-
Les débits reconstitués pour le nord-ouest du Québec démontrent une augmentation de la fréquence et de la magnitude des crues printanières en lien avec l’augmentation des précipitations nivales depuis le début du XIXe siècle. Autour du lac Duparquet, une migration des peuplements de frêne noir (Fraxinus nigra Marsh.) vers l’intérieur des terres en réponse à ces changements a été rapportée. Pour anticiper la réponse des frênaies noires du lac Duparquet face aux changements climatiques et hydrologiques à venir, cette étude décrit les conditions favorisant la présence de F. nigra et la structuration des peuplements en lien avec la dynamique des crues printanières depuis le début du XXe siècle. L’étude se structure autour des objectifs suivants : i) déterminer la composition et l’organisation des communautés végétales associées à F. nigra le long du gradient d’élévation; ii) déterminer les facteurs limitant l’expansion des frênaies noires dans les basses et hautes plaines alluviales; et iii) déterminer les fréquences d’occurrence des crues printanières le long du gradient d’élévation des plaines alluviales et identifier les fréquences de retour des crues printanières associées à chaque groupement floristique. Vingt-quatre frênaies noires du lac Duparquet et de ses affluents ont été échantillonnées durant l’été 2022 en utilisant un échantillonnage par stratification verticale de la végétation le long de transects perpendiculaires à la rive, avec mesure de variables environnementales et écologiques. Une analyse par regroupement hiérarchique associée à une analyse d’espèces indicatrices a permis d’identifier des communautés végétales associées aux frênaies noires et notamment trois communautés distribuées le long des gradients d’élévation et de distance à la rive depuis la plaine alluviale basse (communauté i) frênaie à Onoclea sensibilis L.), moyenne (communauté ii) frênaie à Rhamnus alnifiolia L’Her.), et haute (communauté iii) frênaie à Athyrium filix-feminina (Linn.) Roth). Les structures de diamètre révèlent que les zones des basses et hautes plaines alluviales sont moins denses en F. nigra et composées d’arbres plus jeunes. Les analyses des cernes de crues montrent une diminution significative de la fréquence d’occurrence des crues printanières de faible et forte intensité entre les groupements floristiques depuis les basses vers les hautes plaines inondables. Les fréquences moyennes d’occurrences des crues le long du gradient d’élévation participent donc à expliquer la structure des frênaies noires du lac Duparquet. Cette recherche fournit des paramètres écologiques de base, essentiels pour maintenir un équilibre dynamique dans les frênaies noires, notamment en cas de modifications des débits des cours d'eau, comme celles induites par des aménagements hydroélectriques ou de futurs changements climatiques.
-
RÉSUMÉ : Le fjord du Saguenay est une vallée glacière de 110 km de long et de 280 m de profondeur maximale qui relie la rivière Saguenay à sa tête à l'estuaire du Saint-Laurent à son embouchure. La bathymétrie du fjord est caractérisée par 3 seuils : le seuil peu profond (~ 20 m) à l'embouchure, un seuil intermédiaire (60 m) à 20 km en amont et un seuil profond (120 m) à 35 km en amont. Ces seuils séparent le fjord en 3 bassins : le bassin extérieur, le bassin intermédiaire et le bassin intérieur. La circulation dans le fjord est forcée par l'apport d'eau douce de la rivière Saguenay à sa tête, de grandes marées (jusqu'à 6 m de marnage) à son embouchure qui apportent de l'eau salée ainsi que par le vent. La circulation à grande échelle a été caractérisée par trois régimes saisonniers au cours desquels les eaux profondes, intermédiaires et de sous-surface du bassin intérieur sont renouvelées respectivement au début de l'hiver, en été et à la fin de l'hiver. Des indications indirectes suggèrent que ces régimes sont déterminés par des processus turbulents qui se produisent localement à chacun de ces trois seuils. Ici, nous présentons les résultats des expériences de terrain que nous avons menées qui visaient à étudier plus directement la dynamique des processus de seuil induits par les courants de marées ainsi que les modifications de masse d'eau qui surviennent aux seuils. À ce jour, nos mesures fournissent la description la plus précise et la plus complète des structures d'écoulement de marée stratifié autour des seuils internes du fjord du Saguenay. Nous avons également observé qu'un ressaut hydraulique interne semble se former lors de chaque marée descendante en aval du seuil intermédiaire, mais pas lors des marées montantes. Des recherches sont toujours en cours pour mieux comprendre cette asymétrie, mais notre hypothèse est que la présence d'une masse d'eau plus salée en amont du seuil intermédiaire empêche la formation d'un ressaut hydraulique, un processus qui pourrait être similaire à celui documenté à Knight Inlet (Colombie-Britannique, Canada). -- Mot(s) clé(s) en français : Fjord du Saguenay, Estuaire du St-Laurent, Processus de Seuil, Mélange Turbulent, Océanographique Côtière. -- ABSTRACT : The Saguenay Fjord is a 110 km long and 280 m deep (max depth) multi-silled glacial valley that connects the Saguenay River at its head with the St. Lawrence Estuary at its mouth. The bathymetry is characterized by 3 sills : a shallow 20-m deep sill at the mouth, an intermediate 60-m deep sill 20 km up-fjord and a deep 120-m sill 35 km up-fjord. These sills separate 3 basins, the outer, the intermediate and the inner basins. The circulation in the fjord is forced by the Saguenay River at its head that brings freshwater, large tides (up to 6 m range) at its mouth that brings salt water and by wind. The large-scale circulation has been characterized by four seasonally dependent regimes during which the deep, intermediate and subsurface waters of the inner basin are being renewed, respectively, during early winter, summer and late winter. There are indirect indications that those regimes are determined by turbulent processes occurring locally at each of these three sills. Here, we carried out field experiments to more directly investigate the detailed dynamics of tidally-driven sill processes and water mass modifications occurring across these three sills. Our measurements provide to date the most accurate and complete description of the stratified tidal flow structures around these sills. We also found that an internal hydraulic jump seems to form every ebb tide on the down-fjord side of the intermediate sill but not during flood tide on the up-fjord side. Research is ongoing to better understand this asymmetry but our hypothesis is that it is the presence of a salty pool up-fjord of the sill that prevents the formation of a hydraulic jump, a process that may be similar to that documented in Knight Inlet (British Columbia, Canada). -- Mot(s) clé(s) en anglais : Saguenay Fjord, St-Lawrence Estuary, Sill Processes, Turbulent Mixing, Coastal Oceanography.
-
Compte tenu de la nécessité de mettre à jour les cartes d'inondation et de minimiser les coûts associés (collecte de données et ressources humaines), il existe un besoin de méthodes alternatives simplifiées ne reposant pas sur la modélisation hydrodynamique classique. L'une des méthodes simplifiées répondant à ce besoin est HAND (Height Above the Nearest Drainage), une approche qui requiert uniquement un modèle numérique d'altitude (MNA) et un réseau hydrographique. Celle-ci a été mise en œuvre dans PHYSITEL, un système d’information géographique SIG spécialisé pour les modèles hydrologiques distribués. Ainsi, pour une hauteur d’eau donnée dans plusieurs tronçons de rivière, il est possible de faire une délimitation de première instance de la surface inondée le long du réseau hydrographique d’un bassin versant. Par ailleurs, l'utilisation des informations fournies par HAND et l'application de l'équation de Manning permettent également de construire une courbe de tarage synthétique pour tout tronçon de rivière en l’absence de données bathymétriques. Ce mémoire présente l’application de cette approche, qui a été validée précédemment en partie sur de grands bassins, sur deux petits bassins, ceux de la rivière à La Raquette, d’une superficie de 133 km², et de la rivière Saint Charles, d’une superficie de 552 km². Trois stations de jaugeage dans chaque bassin ont fourni les informations de base nécessaires au processus de calage de l’approche. L’efficacité et l’adaptabilité de cette approche ont été évaluées dans ce projet en fonction des données disponibles, du temps de calcul et de la précision mesurée par le biais et l’erreur quadratique moyenne. Les incertitudes et sensibilités de l’approche ont été analysées en tenant compte de la résolution spatiale et du manque de données bathymétriques. De plus, des analyses innovatrices ont été produites dans l’application de HAND. Tels qu’une analyse de sensibilité globale pour informer le processus de calage ainsi que l’application d’un critère basé sur le nombre de Froude afin de permettre de valider le respect des hypothèses sous-jacentes à l’application de l’approche sur chaque tronçon de rivière d’un bassin. En utilisant des MNA à haute résolution(<5 m/pixel), des courbes de tarage synthétiques ont été produites avec des biais inférieurs à ±20 % par rapport à des courbes de tarage in-situ. De plus, la détermination d'un critère de sélection des courbes dans un biais de ± 5% par rapport à la courbe de tarage observée a permis d'obtenir des courbes de tarage synthétiques avec des erreurs quadratiques moyennes normalisées comprises entre 0,03 et 0,62. Ainsi, cette approche a été validée pour dériver des courbes de tarage synthétiques et, par conséquent, pour soutenir la délimitation des zones à risque d'inondation dans les petits bassins versants en tenant compte des incertitudes associées à l'application d'une approche de faible complexité. <br /><br />Given the emergent need to update flood inundation maps and minimize associated financial costs (data collection and human resources), simplified alternative methods to the classical hydrodynamic modelling method, are being developed. One of the simplified methods built to fulfill this need is the terrain-based Height Above the Nearest Drainage (HAND) method, which solely relies on a digital elevation model (DEM) and a river network. This approach was implemented in PHYSITEL, a specialized GIS for distributed hydrological models. For a given river reach and water height, HAND can provide a first-hand delineation of the inundated areas within a watershed. In addition, coupling the information provided by HAND and the Manning equation allows for the construction of a synthetic rating curve for any homogeneous river reach where bathymetric data are not available. Since this synthetic rating curve approach has been validated in part for large watersheds, this study tested this approach onto two small watersheds: the 133- km² La Raquette River watershed and the 552-km² Saint Charles River watershed. Three gauging stations on each basin provided the basic data to perform the calibration process. The effectiveness and adaptability of the approach was assessed as a function of available data, computational time, and accuracy measured using the bias and root mean squared error (RMSE). The uncertainties were quantified in terms of spatial resolution and lack of bathymetry data. In addition, innovative analyses were made on the application of the HAND-synthetic rating curve approach. First, a global sensitivity analysis was done to inform the calibration process, and then a Froude number-based criterion was applied to validate the application of the Manning equation on any river reach of a watershed. Using high-resolution DEMs (<5 m/pixel), we obtained synthetic rating curves with bias less than 20% when compared to in-situ rating curves. Finally, a curve selection criterion was applied to identify those curves having a bias of ± 5%. The selected synthetic rating curves had normalized mean squared errors between 0.03 and 0.62. Thus, the proposed approach was deemed appropriate to derive synthetic rating curves and support the delineation of flood risk areas in small watersheds all the while considering the uncertainties associated with applying a low complexity model.
-
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec.
-
Le stress prénatal maternel (SPM) est un concept largement étudié et ce, autant par de méthodes objectives que subjectives. Certains chercheurs évaluent les symptômes d’anxiété et de dépression des femmes au cours de leur grossesse alors que d’autres préfèrent mesurer les niveaux de cortisol des femmes enceintes. Pour cette thèse, le SPM a été mesuré par deux méthodes différentes, soit l’exposition des femmes enceintes à une catastrophe naturelle et l’exposition des mêmes femmes enceintes à des événements de vie stressants plus courants. Puisqu’il est bien établi que ce type de stress engendre des répercussions négatives sur la femme enceinte ainsi que sur le développement de l’enfant, il est désormais d’intérêt d’accentuer les recherches sur les moyens qui permettent d’atténuer les conséquences d’un tel stress. Dans les études auprès des animaux, nous savons que les conditions de maternage ainsi que l'enrichissement environnemental semblent renverser les effets du SPM, mais nous ne savons pas si, chez les humains, un bon encadrement parental, c’est-à-dire un cadre structuré avec des règles prévisibles et consistantes, peut protéger les enfants des effets du SPM. L’objectif de cette thèse est donc d’augmenter notre compréhension sur l’effet protecteur de l’encadrement parental dans le développement d’enfants qui ont été exposés à différents types de SPM. Cet objectif pourra être atteint grâce à une collaboration internationale initiée par la Dre Suzanne King suite aux inondations qui se sont produites en 2008 dans l'état d'Iowa. Suite à la catastrophe, la Dre King est entrée en contact avec le Dr O’Hara afin d'évaluer la sévérité du stress dû aux inondations chez les femmes enceintes et pour déterminer les effets de ce stress sur leur enfant. Trois types de stress ont été évalués: le degré objectif de difficulté (p. ex., pertes financières), l'évaluation cognitive de la catastrophe en tant qu'expérience négative, neutre ou positive, et la détresse subjective causée par l'inondation (p. ex., symptômes de TSPT). Suite au recrutement des mères, les enfants de l'échantillon ont été évalués à l’âge de 2, 4, 5 et 7 ans. La présente thèse est composée de trois études. La première étude porte sur l’effet modérateur de l’encadrement parental sur les associations entre le SPM causé par les inondations d’Iowa et les problèmes comportementaux chez les enfants âgés de sept ans. Les résultats indiquent qu’un encadrement parental où la discipline est consistante protège les garçons qui ont été exposés au SPM objectif contre différents symptômes de problèmes internalisés et externalisés. La deuxième étude se penche également sur la question de l’effet protecteur de l’encadrement parental sur les associations entre le SPM et les problèmes comportementaux chez les enfants âgés de sept ans. Toutefois, cette étude s’est plutôt penchée sur l’influence du SPM lorsque celui-ci est causé par des événements de vie qui sont plus communs qu’un désastre naturel. De nouveau, les résultats de cette étude nous révèlent qu’un encadrement parental consistant joue le rôle de facteur de protection, chez les garçons qui ont été exposés au SPM causé par des événements de vie stressants, mais seulement en ce qui concerne les problèmes de comportement externalisés. La troisième étude vient reconsidérer l’effet protecteur de l’encadrement parental sur les liens entre le SPM et les problèmes comportementaux des enfants qui ont été exposés à un désastre naturel. Cependant, pour cette étude, les comportements des enfants n’ont pas été évalués par un questionnaire, mais plutôt par une méthode observationnelle (tâche de frustration). Toutefois, dans cette étude, il n’est ressorti aucun effet significatif de l’encadrement parental comme variable modératrice. En somme, nos résultats rapportent que l’implantation d’un cadre structuré et consistant peut venir pallier et même renverser les conséquences du SPM sur le comportement des garçons.
-
La perchaude est un poisson qui pond ses œufs sur les végétaux submergés dans le littoral du lac Saint-Pierre lors de la crue printanière. Cependant, les pratiques agricoles actuelles sur le littoral laissent souvent un sol nu à l'automne, ce qui cause la diminution des habitats de ponte des poissons. Ainsi, l'objectif de cette étude est d'évaluer des cultures de couverture (CC) de pleine saison qui pourraient servir de substrats potentiels pour la ponte des poissons au printemps et qui seraient compétitives envers les adventices. Un dispositif en tiroir systématique avec quatre blocs a été implanté à quatre années-sites. En parcelles principales, six traitements de CC ont été étudiés : le ray-grass vivace (Lolium perenne L.), le seigle d'automne (Secale cereale L.), un mélange de seigle d'automne et de trèfle rouge (Trifolium pratense L.), un mélange de seigle d'automne et de vesce velue (Vicia villosa Roth), un mélange d'avoine (Avena sativa L.), vesce velue et lin (Linum usitatissimum L.), et le témoin sans CC. Le facteur testé en sous-parcelle était le désherbage ou non des parcelles. Le mélange d'avoine, vesce velue et lin a produit le plus de biomasse aérienne (2,5 à 4,9 Mg ha⁻¹) tout en réduisant l'incidence des adventices de 33 à 82 % en comparaison avec le témoin non désherbé. Il est également le seul traitement pour lequel une partie de la biomasse aérienne est restée érigée après la crue à chaque année-site. Ainsi, ce type de CC pourrait constituer un substrat potentiel pour la ponte des perchaudes au printemps mais ce serait à confirmer par des mesures fauniques faites au printemps durant l'inondation. Avec un coût d'implantation peu élevé, le mélange avoine, vesce velue et lin est avantageux à la fois pour les agriculteurs et pour l'environnement.
-
RÉSUMÉ: Les événements de submersion sont en augmentation sur les côtes du fleuve Saint-Laurent en raison des tempêtes, de la hausse du niveau marin et de la diminution de la glace de mer. À ce jour, le Québec ne possède pas de zonage de la submersion. Dans le cadre de cette thèse, une approche de cartographie de la submersion est développée en intégrant les vagues, les niveaux d'eau et la morphologie des plages de l'estuaire et du golfe du Saint-Laurent (EGSL). Deux types d'approches cartographiques ont été comparés : la simulation empirique qui projette un niveau total statique sur le territoire (niveau d'eau observé + effet des vagues sur la côte, le jet de rive ou runup), et le modèle numérique XBeach en mode surfbeat. Ces deux approches nécessitent une surface topo-bathymétrique précise et actualisée de la plage. Grâce au développement d'un réseau de suivi des plages par vidéo, nous évaluons dans un premier temps l'efficacité d'une méthode de topographie intertidale par vidéo par rapport à des levés LiDAR terrestres, et améliorons sa performance en intégrant les niveaux d'eau près de la plage au module d'élévation des lignes d'eau. Ce projet a permis la création de surfaces topographiques à précision centimétrique comparable au LiDAR et d'y extraire des paramètres morphologiques, comme la pente de la plage, nécessaire aux modèles empiriques de niveaux d'eau. La capacité des deux approches de cartographie à simuler la submersion du 6 décembre 2010 au Bas-Saint-Laurent a ensuite été analysée en comparant les surfaces inondées. La correspondance spatiale entre les simulations et les observations de submersion a été évaluée. Il en ressort que malgré la complexité du modèle XBeach et une légère surprédiction du modèle empirique (36%), les surfaces submergées obtenues par les deux approches sont similaires et correctement prédites à hauteur de 66-78%. Dans le cadre d'une troisième étude, XBeach a également été utilisé dans la baie des Chaleurs pour évaluer l'impact d'un événement extrême pour l'horizon 2100 sur l'aléa de submersion. Les simulations montrent que les débordements côtiers ont été engendrés par des vagues de relativement faible amplitude à la côte (Hs < 1 m) et que malgré des profondeurs d'eau avoisinant 1,2 m, des vitesses de courants élevées se sont produites dans les espaces urbanisés (U > 2 m/s). L'analyse de la cartographie de la submersion à Maria suggère qu'en 2100, l'impact de la hausse du niveau marin sur les communautés riveraines du Saint-Laurent pourrait provoquer des submersions plus vastes avec des profondeurs d'eau et vitesses de courants plus élevées, ce qui pourraient intensifier l'aléa auquel fait face la population. Même si les simulations numériques permettent de comprendre comment les phénomènes physiques engendrent la submersion, l'intérêt de la méthode statique réside dans sa rapidité d'application, mais son efficacité est fonction de la validité et l'applicabilité des modèles empiriques de runup utilisés. Ainsi, le dernier volet de la thèse porte sur le paramétrage d'un modèle empirique de runup adapté à l'EGSL. L'observation du runup (et de ses composantes moyenne et haute fréquence, le setup et le swash) par vidéo réalisée sur 5 plages couvre un large spectre de paramètres environnementaux et de types de côte sur une période de 3 ans. Des analyses de corrélation entre les niveaux d'eau à la côte et les caractéristiques de vagues au large et la pente de plage ont été réalisées. Les résultats montrent que l'influence des paramètres hydrodynamiques sur le runup, setup, et swash est paramétrée de façon similaire. Le rôle de la morphologie de la plage sur le setup est par ailleurs paramétré par une fonction inverse de la pente, alors que le swash est fonction de la racine carrée de la pente. Avec une erreur moyenne de 23 cm et un biais de 2 cm, l'équation de runup proposée offre un fort potentiel d'estimation des niveaux d'eau totaux sur les environnements côtiers diversifiés à fetch limité. Les résultats de la thèse montrent qu'il apparaît pertinent d'utiliser une approche statique p ur identifier les zones les plus vulnérables à la submersion, en autant que l'équation utilisée soit validée sur le type d'environnement en question. En combinant cette approche à des modélisations numériques en zones à forte concentration d'enjeux, il sera possible d'instaurer un premier zonage de la submersion au Québec. -- Mot(s) clé(s) en français : Cartographie de la submersion, Runup, Topographie par vidéo, Vagues infragravitaires, XBeach. -- ABSTRACT: Coastal flood events are increasing on the shores of the St. Lawrence River due to storms, rising sea levels and decreasing sea ice. To date, the province of Québec does not have a coastal flood mapping guideline. In this thesis, a coastal flood mapping approach is developed by integrating waves, water levels and beach morphology of the Estuary and Gulf of St. Lawrence (EGSL). Two types of cartographic approaches were compared: the empirical simulation that projects a static total level overland (observed water level + wave effect on the coast, known as wave runup), and the numerical model XBeach in surfbeat mode. These two approaches require a precise and updated topo-bathymetric surface of the beach. Through the development of a shore-based video monitoring network, we first evaluate the effectiveness of a video intertidal topography method against terrestrial LiDAR surveys, and improve its performance by integrating water levels near the beach as a proxy to beach contour elevetion. This project enabled the creation of centimeter-scale topographic surfaces comparable to LiDAR and the extraction of morphological parameters, such as the beach slope, necessary for empirical runup models. The ability of both mapping approaches to simulate the flood of December 6, 2010 in Bas-Saint-Laurent was analyzed by comparing flooded areas. Spatial correspondence between simulations and the observed flood extent was evaluated. Despite the complexity of XBeach and a slight over-prediction of the empirical model (36%), the flooded areas obtained by the two approaches are similar and correctly predicted by 66-78%. In a third study, XBeach was also used in the Chaleur Bay to assess the impact of an extreme event for the 2100 horizon on coastal flood hazards. The simulations show that the overland flow was generated by waves of relatively low amplitude at the coast (Hs <1 m) and that despite water depths close to 1.2 m, high current velocities occurred in the urbanized areas (U> 2 m/s). The analysis of the flood maps in Maria suggests that by 2100, the impact of sea level rise on coastal communities in the St. Lawrence could lead to larger flooded areas, with deeper water depths and higher flow velocity, intensifying the risk to the population. Although numerical simulations offer an understanding of the physical phenomena that cause coastal flooding, the interest of the static method lies in its convenience, but its effectiveness depends on the validity of the empirical runup models employed. Thus, the last part of the thesis deals with the parameterization of an empirical runup model in the EGSL. Video-based wave runup observations (and of its mean and high frequency components, setup and swash, respectively) on 5 beaches was carried out on a broad spectrum of environmental parameters and coast type over a period of 3 years. Correlation analyzes between coastal water levels (runup, setup, and swash) and offshore wave characteristics and beach slope were performed. The results show that the influence of the hydrodynamic parameters on wave runup, setup, and swash is similarly parameterized. The role of the morphology of the range on the setup is however parameterized by an inverse function of the slope, while the swash is a function of the square root of the slope. With an average error of 23 cm and a 2 cm bias, the original runup equation offers a high potential for estimating total water levels over diverse fetch-limited coastal environments. This thesis shows that it seems appropriate to use a static approach to identify the areas most vulnerable to coastal flooding, as long as the equation used is validated on the specific coastal environment. By combining this approach with numerical modeling in coastal hotspots with multiple issues at stake, it will be possible to introduce a first coasta flood zoning in the province of Québec. -- Mot(s) clé(s) en anglais : Coastal flooding, Runup, Video-derived topography, Infragravity waves, XBeach.