Votre recherche
Résultats 94 ressources
-
L’estimation du débit en rivières est un paramètre clé pour la gestion des ressources hydriques, la prévention des risques liés aux inondations et la planification des équipements hydroélectriques. Lorsque le débit d’eau est très élevé lors d'évènements extrêmes, les méthodes de jaugeage traditionnelles ne peuvent pas être utilisées. De plus, les stations du réseau hydrométrique sont généralement éparses et leur répartition spatiale n’est pas optimale. Par conséquent, de nombreuses sections de rivières ne peuvent être suivies par des mesures et observations du débit. Pour ces raisons, pendant la dernière décennie, les capteurs satellitaires ont été considérés comme une source d’observation complémentaire aux observations traditionnelles du niveau d’eau et du débit en rivières. L’utilisation d’une telle approche a fourni un moyen de maintenir et d’étendre le réseau d'observation hydrométrique. L’approche avec télédétection permet d’estimer le débit à partir des courbes de tarage qui met en relation le débit instantané (Q) et la géométrie d’une section transversale du chenal (la largeur ou la profondeur effective de la surface d’eau). En revanche, cette méthode est associée à des limitations, notamment, sa dépendance aux courbes de tarage. En effet, en raison de leurs natures empiriques, les courbes de tarage sont limitées à des sections spécifiques et ne peuvent être appliquées dans d’autres rivières. Récemment, des techniques d’apprentissage profond ont été appliquées avec succès dans de nombreux domaines, y compris en hydrologie. Dans le présent travail, l’approche d’apprentissage profond a été choisie, en particulier les réseaux de neurones convolutifs (CNN), pour estimer le débit en rivière. L’objectif principal de ce travail est de développer une approche d’estimation du débit en rivières à partir de l’imagerie RADARSAT 1&2 à l’aide de l’apprentissage profond. La zone d’étude se trouve dans l’ecozone du bouclier boréal à l’Est du Canada. Au total, 39 sites hydrographiques ont fait l’objet de cette étude. Dans le présent travail, une nouvelle architecture de CNN a été a été proposée, elle s'adapte aux données utilisées et permet d’estimer le débit en rivière instantané. Ce modèle donne un résultat du coefficient de détermination (R²) et de Nash-Sutcliffe égale à 0.91, le résultat d’erreur quadratique moyenne égale à 33 m³ /s. Cela démontre que le modèle CNN donne une solution appropriée aux problèmes d’estimation du débit avec des capteurs satellites sans intervention humaine. <br /><br />Estimating river flow is a key parameter for effective water resources management, flood risk prevention and hydroelectric facilities planning. In cases of very high flow of water or extreme events, traditional gauging methods cannot be reliable. In addition, hydrometric network stations are often sparse and their spatial distribution is not optimal. Therefore, many river sections cannot be monitored using traditional flow measurements and observations. For these reasons, satellite sensors are considered as a complementary observation source to traditional water level and flow observations in the last decades. The use of this kind of approach has provided a way to maintain and expand the hydrometric observation network. Remote sensing data can be used to estimate flow from rating curves that relate the instantaneous flow (Q) to the geometry of a channel cross-section (the effective width or depth of the water surface). On the other hand, remote sensing is also associated with limitations, notably its dependence on the rating curves. Indeed, due to their empirical nature, rating curves are limited to specific sections and cannot be applied in other rivers. Recently, deep learning techniques have been successfully applied in many fields, including hydrology. In the present work, the deep learning approach has been chosen, in particular convolutional neural networks (CNN), to estimate river flow. The main objective of this work is to develop an approach to estimate river flow from RADARSAT 1&2 imagery using deep learning. In this study, 39 hydrographic sites of the Boreal Shield ecozone in Eastern Canada were considered. A new CNN architecture was developed to provide a straightforward estimation of the instantaneous river flow rate. The achieved results demonstrated a coefficient of determination (R²) and Nash-Sutcliffe values of 0.91, and a root mean square error of 33m³ /s. This indicates the effectiveness of CNN in automatic flow estimation with satellite sensors.
-
La température extrême de l’eau influence de nombreuses propriétés physiques, chimiques et biologiques des rivières. l ’ évaluation de l ’ Une prédiction précise de la température de l’eau est importante pour impact environnemental. Dans ce cadre, différents modèles ont été utilisés pour estimer les températures de l ’ linéaires simp eau à différentes échelles spatiales et temporelles, allant des méthodes les pour déterminer l’incertitude à des modèles sophistiqués non linéaires. Cependant, cette variable primordiale n’a pas été traitée dans un contexte probabiliste (ou fréquentiste). Donc, l’estimation des évènements extrêmes thermiques à l’aide des approc hes d’analyse fréquentielle locale (AFL) est importante. Lors de l’estimation des extrêmes thermiques, il est crucial de tenir compte de la forme de la distribution de fréquences considérée. Dans la première partie de la thèse , nous nous concentrons sur la sélection de la distribution de probabilité la plus appropriée des températures des rivières. Le critère d critère d ’ ’ information d ’ Akaike (AIC) et le information bayésien (BIC) sont utilisés pour évaluer la qualité de l distributions statis ’ ajustement des tiques. La validation des distributions candidates appropriées est également effectuée en utilisant l ’ approche de diagramme de rapport des L obtenus montrent que la distribution de Weibull (W2) moments (MRD). Les résultats est celle qui semble s’ajuster le données provenant des stations de haute altitude, tandis que les mieux aux séries d’extrêmes provenant des stations situées dans les régions de basse altitude sont bien adaptées avec la distribution normale (N). Ceci correspond au premier article. L a ’ couverture spatiale des données de température des cours d ’ eau est limitée dans de nombreuses régions du monde. Pour cette raison, une analyse fréquentielle régionale (AFR) permettant d estimer les extrêmes de température des rivières sur des sites non jau gés ou mal surveillés est nécessaire. En général, l’AFR inclut deux étapes principales, la délimitation des régions homogènes (DRH) qui vise à déterminer les sites similaires, et l’estimation régionale (ER) qui transfère l’information depuis les sites déte rminés dans la première étape vers le site cible. Par conséquent, le modèle d’indice thermique (IT) est introduit dans le contexte d’AFR pour estimer les extrêmes du régime thermique. Cette méthode est analogue au modèle d ’ indice de crue (IF) largement uti lisé en hydrologie. Le modèle IT incorpore l’homogénéité de la distribution de fréquence appropriée pour chaque région, ce qui offre une plus grande flexibilité. Dans cette étude, le modèle IT est comparé avec la régression linéaire multiple (MLR). Les rés ultats indiquent que le modèle IT fournit la meilleure performance (Article 2) . Ensuite, l’approche d’analyse canonique des corrélations non linéaires (ACCNL) est intégrée dans la DRH, présentée dans le Chapitre 4 de ce manuscrit (Article 3). Elle permet de considérer la complexité des phénomènes thermiques dans l’étape de DRH. Par la suite, dans le but d’identifier des combinaisons (DRH-ER) plus prometteuses permettant une meilleure estimation, une étude comparative est réalisée. Les combinaisons considérées au niveau des deux étapes de la procédure de l’AFR sont des combinaisons linéaires, semi-linéaires et non linéaires. Les résultats montrent que la meilleure performance globale est présentée par la combinaison non linéaire ACCNL et le modèle additif généralisé (GAM). Finalement, des modèles non paramétriques tels que le foret aléatoire (RF), le boosting de gradient extrême (XGBoost) et le modèle régression multivariée par spline adaptative (MARS) sont introduits dans le contexte de l’AFR pour estimer les quantiles thermiques et les comparer aux quantiles estimés à l’aide du modèle semi-paramétrique GAM. Ces modèles sont combinés avec des approches linéaires et non linéaires dans l’étape DRH, telles que ACC et ACCNL, afin de déterminer leur potentiel prédictif. Les résultats indiquent que ACCNL+GAM est la meilleure, suivie par ACC+MARS. Ceci correspond à l’article 4. <br /><br />Extreme water temperatures have a significant impact on the physical, chemical, and biological properties of the rivers. Environmental impact assessment requires accurate predictions of water temperature. The models used to estimate water temperatures within this framework range from simple linear methods to more complex nonlinear models. However, w ater temperature has not been studied in a probabilistic manner. It is, therefore, essential to estimate extreme thermal events using local frequency analysis (LFA). An LFA aims to predict the frequency and amplitude of these events at a given gauged locat ion. In order to estimate quantiles, it is essential to consider the shape of the frequency distribution being considered. The first part of our study focuses on selecting the most appropriate probability distribution for river water temperatures. The Akai ke information criteria (AIC) and the Bayesian information criteria (BIC) are used to evaluate the goodness of fit of statistical distributions. An Lmoment ratio diagram (MRD) approach is also used to validate sui table candidate distributions. The results good fit for extremes data from the highindicate that the Weibull distribution (W2) provides a altitude stations, while the normal distribution (N) is most appropriate for lowaltitude stations. This corresponds to the first article. In many parts of the world, river temperature data are limited in terms of spatial coverage and size of the series. Therefore, it is necessary to perform a regional frequency analysis (RFA) to estimate river temperature extremes at ungauged or poorly monitored sites. Generall y, RFA involves two main steps: delineation of homogenous regions (DHR), which identifies similar sites, and regional estimation (RE), which transfers information from the identified sites to the target site. The thermal index (TI) model is introduced in t he context of RFA to estimate the extremes of the thermal regime. This method is analogous to the index flood (IF) model commonly used in hydrology. The TI model considers the homogeneity of the appropriate frequency distributions for each region, which pr ovides larger flexibility. This study compares the TI model with multiple linear regression (MLR) approach. Results indicate that the TI model leads to better performances (Article 2). Then, the nonlinear canonical correlations analysis (NLCCA) approach is integrated into the DHR, as presented in Chapter 4 of this manuscript (Article 3). It allows considering the complexity of the thermal phenomena in the DHR step. A comparative study is then conducted to identify more promising combinations (DHR RE), that RFA procedure, linear, semilead to best estimation results. In the two stages of the linear, and nonlinear combinations are considered. The results of this study indicate that the nonlinear combination of the NLCCA and the generalized additive model (GAM ) produces the best overall performances. Finally, nonparametric models such as random forest (RF), extreme gradient boosting (XGBoost), and multivariate adaptive regression splines (MARS) are introduced in the context of RFA in order to estimate thermal q uantiles and compare them to quantiles estimated using the semiparametric GAM model. The predictive potential of these models is determined by combining them with linear and nonlinear approaches, such as CCA and NLCCA, in the DHR step. The results indicat e that NLCCA+GAM is the best, followed by CCA+MARS. This corresponds to article 4.
-
Cette thèse s’inscrit dans le champ des études sur les fictions de la fin du monde. J’y explore la question suivante : pourquoi existe-t-il autant de romans et de films racontant la fin d’un monde, et si peu la fin du monde ? En effet, la plupart des fictions dites de « fin du monde » mettent en scène la menace d’une catastrophe évitée, ou une destruction partielle, ou encore un univers post-apocalyptique habité de survivants. L’anéantissement total et définitif de l’espèce humaine, quant à lui, constitue rarement le dénouement de ce type d’œuvres. Ce déséquilibre s’explique en partie par le fait que ces œuvres représentent davantage le renouvellement du monde que sa disparition. Mon hypothèse est que nombre de ces récits de la fin héritent d’un imaginaire, d’une structure, de thèmes, de motifs, etc., provenant du mythe du déluge tel qu’il s’est développé dans l’Antiquité (entre autres dans sa version biblique), lequel symbolise la refondation et la transmission, et non l’anéantissement. Dans le premier chapitre, je propose une exploration de différents concepts et théories permettant de mieux définir les romans et les films de la fin du monde : les dispositif et contre-dispositif de Giorgio Agamben ; la conception des mythes de René Girard (principalement pour les notions d’indifférenciation et de bouc émissaire) ; le décalage prométhéen de Gunther Anders ; le catastrophisme éclairé de Jean-Pierre Dupuy ; les deux raisonnements mythologiques opposés identifiés dans les récits antiques de la fin du monde par Christine Reungoat-Dumas. Dans le deuxième chapitre, j’étudie d’abord comment le thème de la transmission s’articule dans quelques mythes antiques du déluge, avant de proposer un canevas général des mythèmes constituants. À partir de cette délimitation, je procède ensuite à l’analyse de trois mythèmes (la crise indifférenciatrice ; l’abri ; le lâcher d’oiseaux) dans un corpus de romans et de films des 20e et 21e siècles. Cette analyse permet de faire ressortir l’importance du thème de la transmission (de gènes et de mèmes, donc de réplicateurs). La transmission reflète un besoin de transcendance qui définit, oriente, ou du moins colore, pratiquement toutes les œuvres de la fin du monde. Dans ce contexte, la littérature, objet de transmission, peut être appréhendée comme une « arche métaphorique ». Le troisième chapitre se concentre sur l’analyse d’une œuvre, la trilogie MaddAddam (Oryx and Crake ; The Year of the Flood ; MaddAddam) de Margaret Atwood. J’y avance que cette œuvre prend la forme d’une épopée, dans laquelle on assiste à la mise en scène de sa propre écriture. Cette mise en abyme démontre bien que la trilogie, tout en étant une œuvre de fin du monde, raconte également la naissance d’un nouveau monde : l’épopée intradiégétique qui s’y compose tente d’immortaliser une partie du passé et d’orienter le futur. La littérature, sous la forme de cette épopée, figure ainsi une arche qui relie les mondes pré-apocalyptique et post-apocalytique de l’œuvre d’Atwood.
-
Les modèles hydrologiques traditionnels n’imposent pas la contrainte de conservation d’énergie à la surface. Lorsque soumis à des températures plus élevées, ils ont le potentiel de surestimer l’évapotranspiration. Le modèle de surface physique CLASS est couplé au modèle de routage RAPID, basé sur la méthode de Muskingum, pour former un modèle hydrologique plus robuste en contexte de réchauffement global. CLASS-RAPID est implanté sur le bassin versant du Haut-Montmorency (47.4°N, 71.1°O). CLASS est calibré et validé à l’aide d’observations hydrométéorologiques à la Forêt Montmorency ; RAPID est optimisé d’après les observations de débits de la Direction d’expertise hydrique du Québec. Des projections climatiques provenant des modèles CanESM2, CNRM-CM5, GFDL-ESM2M et MPI-ESM du Projet d’intercomparaison des modèles couplés et des scénarios climatiques RCP 4.5 et RCP 8.5 sont fournies en entrées à CLASS-RAPID afin de réaliser des simulations hydrologiques pour la période future de 2041 à 2070. Des projections climatiques provenant des mêmes modèles pour la période de référence de 1981 à 2005 sont également utilisées par CLASS-RAPID afin de générer une séquence de débits pouvant être comparée à celle de la période future. CLASS-RAPID obtient un score de NSE = 0, 66 au critère de performance de Nash-Sutcliffe. Le modèle reproduit fidèlement la séquence des évènements hydrologiques, mais sous-estime systématiquement les pointes de crue. Les simulations de CLASS-RAPID réalisées en condition de changements climatiques projettent que les crues printanières se produisent plusieurs dizaines de jours à l’avance pour la période future de 2041 à 2070 en comparaison à la période de référence. Pour les quatre modèles à l’étude, les simulations en condition de changements climatiques permettent de prévoir une diminution moyenne des débits d’étiage d’été de 40% pour le scénario climatique RCP 4.5 et de 50% pour le scénario climatique RCP 8.5. Pour les mêmes scénarios climatiques, l’Atlas hydroclimatique du Québec, qui repose sur une modélisation hydrologique traditionnelle, prévoit une diminution des débits de respectivement 37% et 45%.
-
L’objectif du projet est d’évaluer les effets causés par l’implantation de sites de pavages perméables (PP) sur les bassins versants (BV) urbanisés. La méthodologie de cette étude se décline en cinq étapes, soit : (i) caractériser la capacité d’infiltration de cinq sites de PP de la grande région de Montréal; (ii) récolter des données de pluie et de débit au site de l’usine Stonedge à Chambly; (iii) modéliser le fonctionnement hydrologique de ce site à l’aide du Storm Water Management Model (SWMM), dont les paramètres sont calés à partir des données d’observations à Stonedge; (iv) créer un modèle amélioré d’unité de PP; et (v) évaluer, par modélisation SWMM, l’effet de l’implantation de sites de PP sur les dysfonctionnements hydrauliques et les rejets de réseaux de BV urbains réels. Les tests de capacité d’infiltration ont démontré une très grande capacité d’infiltration des sites de PP, sans égard à la saison ni à l’usage du site. Les observations de pluie et de débits ont été récoltées à Chambly sur une période de 24 mois. Leur analyse a permis de constater, à l’échelle du site, une diminution du volume de ruissellement de 6 à 12 mm par événement de pluie et un décalage de la pointe du débit allant jusqu’à 3 h. Le bilan hydrologique réalisé sur le site indique une réduction du ruissellement, les fractions ruisselées varient de 2% à 75%. Le modèle de PP du site de Stonedge a servi de base pour l’évaluation de l’impact des sites de PP à l’échelle de quatre BV urbains, drainés par des réseaux séparés (2) et unitaires (2). Cet impact se traduit par des réductions, pour les réseaux unitaires : du nombre de surverses jusqu’à 100%, du volume de surverse de 19% à 100%, et de la durée de surverse de 16% à 100% annuellement. Une réduction moyenne de la durée d’inondation de 71% pour les secteurs industriels (réseaux séparés) et de 30% pour les secteurs en réseau unitaire a aussi été constatée. Finalement, une réduction de 30 % des volumes et de 7% à 34% des débits de pointe envoyés au cours d’eau pour les deux secteurs drainés par des réseaux séparés a été observée.<br /><br /> The objective of this project was to evaluate the effects of the installation of permeable pavement (PP) sites on urbanized watersheds. The methodology of this study included five work packages: (i) characterize the infiltration capacity of five PP sites in the greater Montreal area; (ii) collect rain and flow data at the Stonedge plant site in Chambly; (iii) model the hydrological behavior of this site using the Storm Water Management Model (SWMM), whose parameters were calibrated from observation data at Stonedge; (iv) create an improved model of PP unit; and (v) evaluate, using SWMM , the effect of developing a PP site on hydraulic malfunctions and discharges of actual urban watershed networks. The infiltration capacity tests demonstrated a very high infiltration capacity of the PP sites, regardless of the season or land use. Rainfall and flow observations were collected at Chambly over a 24-month period. Their analysis found a site-wide decrease in runoff volume of 6 to 12 mm per rainfall event and a peak flow delay of up to 3 hours. The water balance for the site indicates a reduction in runoff, with fractions of the runoff ranging from 2% to 75%. The PP model of the Stonedge site served as a basis for evaluating the impact of PP sites at the scale of four urban watersheds, drained by separate (2) and combined (2) networks. This impact meant reductions of up to 100% in the number of combined sewer overflows, 19% to 100% of their volume, and 16% to 100% of their duration, annually. There was also an average reduction in surface flood duration of 71% for the industrial sectors (separate networks) and 30% for the combined sectors. Finally, there is also a 30% reduction in volumes and from 7% to 34% of the peak flows discharged to the watercourse for the two sectors drained by separate networks.
-
Les changements climatiques sont un défi mondial imminent, dont les conséquences sont déjà observées. On sait que ces effets s’intensifieront, entraînant une augmentation de la fréquence et de la gravité des événements météorologiques extrêmes, une perturbation substantielle de la production alimentaire et le déplacement de dizaines de millions de personnes en raison de vagues de chaleur mortelles et de sécheresses. La question est donc : que peut-on y faire ? Dans cette thèse, nous faisons des changements climatiques notre objet central et explorons les voies par lesquelles la recherche en apprentissage profond peut contribuer à son atténuation. Un obstacle connu à des politiques climatiques ambitieuses est le manque de soutien et de demande populaires. Cela peut être attribué, en partie, aux causes et conséquences extrêmement complexes et imbriquées des changements climatiques. Une mauvaise conception courante est qu'ils affecteront principalement d’autres personnes que soi-même, des personnes éloignées dans le temps ou l’espace. Pour y remédier, la recherche a montré que présenter aux gens des \textit{images} authentiques, locales et pertinentes d'un concept les aide à mieux comprendre et appréhender ce qui est en jeu. Dans notre première contribution, nous explorons donc comment les récentes avancées en apprentissage profond pour la vision par ordinateur et les réseaux antagonistes génératifs peuvent être utilisées pour générer des images \textit{personnalisées} représentant les impacts du changement climatique. Notre objectif avec \textit{ClimateGAN} est de visualiser à quoi pourrait ressembler une inondation d’un mètre à n’importe quelle adresse, indépendamment de son risque réel d’inondation sous l’effet des changements climatiques. Cette approche vise à susciter l’empathie en rendant les impacts abstraits du changement climatique plus tangibles et personnalisés. En utilisant une image de Google Street View et en la traitant avec \textit{ClimateGAN}, nous générons des images d’inondation physiquement plausibles et visuellement réalistes basées sur l’adaptation de domaine à partir d’un environnement simulé, la prédiction de profondeur et la segmentation sémantique. Ce modèle a été déployé sur un site web dans le but de sensibiliser et d’engager l’action en faveur des changements climatiques. En plus d’aider les gens à mieux visualiser à quoi pourrait ressembler un avenir climatique hors de contrôle, nous étudions également dans cette thèse comment l’apprentissage profond peut améliorer les technologies existantes. Un domaine majeur de recherche dans cette direction est la recherche de nouveaux matériaux. Dans cette thèse, nous explorons plus particulièrement la prédiction des propriétés des matériaux comme moyen d’accélérer la découverte d'électro-catalyseurs, une famille de matériaux impliqués dans le stockage d’énergie à base d’hydrogène. Nous présentons deux contributions, \textit{PhAST} et \textit{FAENet}, qui se concentrent sur l’amélioration du compromis performance/scalabilité dans les réseaux de neurones géométriques de graphe (GNN). Avec \textit{PhAST}, nous introduisons un ensemble de méthodes pour adapter la procédure GNN classique--de la création du graphe d’entrée aux prédictions d’énergie et de forces de sortie--à la tâche spécifique de prédire l’énergie d’un système atomique adsorbant-catalyseur relaxé. Nous démontrons comment, en plus d’améliorer les performances, ces modifications améliorent l’efficacité et permettent un entraînement compétitif des GNN dans des environnements CPU. Dans \textit{FAENet}, nous présentons un nouveau GNN efficace pour les prédictions équivariantes E(3). En particulier, nous transposons la charge de l’équivarience sur la représentation des données afin de réduire les contraintes sur le modèle lui-même. Cette approche nous permet d’introduire une nouvelle architecture légère et expressive visant à faire des prédictions meilleures et plus rapides de diverses propriétés des matériaux. Enfin, nous examinons de manière critique notre propre domaine et discutons des impacts environnementaux associés aux technologies de l’IA. Nous nous penchons sur la façon dont les praticiens peuvent estimer leurs émissions de carbone, quelles mesures ils peuvent prendre aujourd’hui pour les réduire, et quelles autres étapes sont nécessaires pour des déclarations et responsabilités environnementales plus précises.
-
Les rivières sont des écosystèmes dynamiques qui reçoivent, transforment, et exportent de la matière organique comprenant du carbone (C), de l’azote (N), et du phosphore (P). De par leur grande surface de contact entre l’eau et les sédiments, elles offrent un potentiel élevé pour les processus de transformation de ces éléments, dans lesquels ils sont souvent conjointement impliqués. Ces transformations peuvent retirer les éléments de la colonne d’eau et ainsi diminuer leurs concentrations pour améliorer la qualité de l’eau. Par contre, les conditions climatiques (débit, température, luminosité), la configuration du territoire (forêt, urbanisation, agriculture), et la durée des activités humaines sur terre affectent la quantité, composition, et proportion de C, N, et P livrés aux cours d’eau receveurs. Dans un contexte où un surplus de nutriments (N, P) peut surpasser la capacité des rivières à retirer les éléments de l’eau, et où les extrêmes climatiques s’empirent à cause des changements climatiques, cette thèse met en lumière le rôle des rivières dans les dynamiques de C, N, et P pour une meilleure compréhension de la réponse des écosystèmes lotiques aux pressions actuelles et futures. La Rivière du Nord draine séquentiellement des régions couvertes de forêt, d’urbanisation, et d’agriculture, et oscille entre quatre saisons distinctes, l’exposant à des utilisations du territoire et conditions climatiques contrastées. Nous avons échantillonné les formes de C, N, et P à 13 sites le long du tronçon principal (146 km), une fois par saison pour trois ans. De façon générale, les concentrations de N et P totaux ont augmenté d’amont vers l’aval, concordant avec l’activité humaine plus importante dans la deuxième moitié du bassin versant, mais les concentrations de C organique total sont restées constantes peu importe la saison et l’année. La stœchiométrie écosystémique du C : N : P était donc riche en C comparé au N et P en amont, et s’est enrichie en nutriments vers l’aval. L’étendue (2319 : 119 : 1 à 368 : 60 : 1) couvrait presque le continuum terre – océan à l’intérieur d’une seule rivière. Des formes différentes de C, N, et P dominaient la stœchiométrie totale dépendamment des saisons et de l’utilisation du territoire. En été, la composition du N était dominée en amont par sa forme organique dissoute et par le nitrate en aval, tandis qu’en hiver, l’ammonium et le P dissous avaient préséance sur l’entièreté du continuum. Malgré une concentration constante, la proportion des molécules composant le C différait aussi selon la saison et l’utilisation du territoire. L’été était dominé par des formes dégradées par l’action microbienne et l’hiver par des formes bio- et photo-labiles. Ceci fait allusion au potentiel de transformation de la rivière plus élevé dans la saison chaude plutôt que sous la glace, où les formes plus réactives avaient tendance de s’accumuler. La composition du C en amont était aussi distincte de celle en aval, avec un seul changement abrupt ayant lieu entre la section forestière et la section d’utilisation du territoire urbaine et agricole. Ces changements de compositions n’étaient pas présents durant le printemps de crue typique échantillonné, mais dans l’inondation de fréquence historique nous avons observés des apports nouveaux de molécules provenant soit des apports terrestres normalement déconnectés du réseau fluvial ou de surverses d’égouts. L’influence des facteurs naturels et anthropiques s’est aussi reflétée dans les flux historiques riverains de C, N, et P (1980 – 2020). La précipitation explique le plus les flux de C et les flux de N dans la section pristine. Les apports historiques au territoire de N anthropique (nécessaires pour soutenir la population humaine et les activités agricoles) expliquent fortement la tendance temporelle à la hausse des flux riverains de N dans la section urbaine. Durant les quatre dernières décennies, un peu plus du tiers des apports de N au territoire sont livrés à la rivière annuellement, suggérant que la source urbaine de N anthropique est encore peu gérée. Le manque de corrélation entre les flux de P dans la rivière et les précipitations ou les apports au territoire de P anthropique peut être expliqué par les usines de traitement des eaux usées installées dans la région vers la fin des années 1990 qui ont fait diminuer presque de moitié le P livré à la rivière. La variation de ces flux s’est reflétée dans la stœchiométrie écosystémique historique, qui varie de 130 : 23 : 1 en 1980 à 554 : 87 : 1 en 2007-08 après l’effet de l’usine d’épuration et du N qui a augmenté. À travers les axes historiques, spatiaux, et saisonniers, cette thèse contribue à la compréhension du rôle des rivières dans la réception, la transformation, et l’export du C, N, et P. Combinée aux concentrations, l’approche de stœchiométrie écosystémique propose une façon d’intégrer apports et pertes des éléments pour les étudier de pair au niveau du bassin versant. Puis, comme certaines formes de C, N, et P sont associées à des sources terrestres spécifiques, ou à certains types de transformations, les inclure dans un cadre conceptuel combinant des extrêmes climatiques et des utilisations du territoire différentes offre un aperçu sur le résultat des sources et transformations des éléments. Enfin, les tendances décennales de C, N, et P riverains montrent l’influence des facteurs naturels et anthropiques sur la stœchiométrie écosystémique historique d’une rivière.
-
Les biotechnologies constituent aujourd'hui un secteur d'activités dynamique offrant de nouvelles perspectives d'innovations. Ces connaissances, permettant d'allier deux entités jusqu'ici traitées séparément, la technique et le vivant, sont en proie de révolutionner notre rapport au monde à de nombreux égards. La présente étude a plus spécifiquement vocation à se pencher sur les innovations biologiques produites à partir d'éléments extraits du corps humain, tels que les cellules souches et les gènes. La biologie cellulaire et le génie génétique se sont imposés comme des secteurs phares des biotechnologies en raison des progrès significatifs qu'ils pourraient permettre pour le traitement de certaines maladies génétiques rares. Toutefois, la protection juridique devant être octroyée à ce type de créations suscite un flot de réactions souvent très partagées au sein de l'opinion publique. Si le brevet est reconnu comme l'outil de propriété industrielle privilégié pour protéger efficacement les inventions, son application au domaine du vivant, et qui plus est au corps humain, demeure plus délicate et controversée. L'inadéquation des critères de brevetabilité aux inventions biotechnologiques fait aujourd'hui obstacle à la prise en considération de ces nouvelles formes de créations par la propriété intellectuelle. Ce projet de recherche s'inscrit dans une perspective globale et transversale, visant à comprendre en quoi le domaine brevetable est influencé par une série de considérations éthiques et par la superposition d'intérêts économiques et sociaux divergents. Il s'agit ainsi de tenter de clarifier les délimitations de l'objet brevetable et de réfléchir à l'opportunité de nouvelles admissions dans le champ de la brevetabilité tout en maintenant certains garde-fous essentiels à la protection des droits fondamentaux individuels. Dès lors, cette étude s'intéresse aux outils et stratégies disponibles afin de renforcer la coopération entre les acteurs impliqués dans ce débat et d'assurer un meilleur équilibre entre les différents intérêts en présence.
-
Les instances responsables d’assurer la gestion des risques d’inondations reliés aux embâcles de glace sont toujours à la recherche d’outils visant à prévenir les risques et réduire les conséquences sur les populations et les infrastructures. Grâce à la modélisation de certains paramètres jouant un rôle dans la formation des embâcles de glace comme la prédisposition géomorphologique et les conditions hydrométéorologiques, la prévention de ceux-ci s’est grandement améliorée. Les modèles axés sur la force de mobilisation de la rivière et sa capacité à contraindre l’écoulement gagnerait en pertinence s’ils pouvaient inclure la résistance du couvert de glace. Les outils de télédétection sont une manière efficace de connaitre l’état du couvert de glace tant sur l’ensemble de la rivière qu'à différents endroits ciblés. Ceux-ci peuvent générer différents produits cartographiques utiles avant, pendant et après les événements. La présente thèse vise à intégrer le suivi du couvert de glace dans les méthodes de prévention des embâcles à l’aide d’outils provenant de la télédétection. Pour ce faire, quatre sous-objectifs ont été accomplis 1) créer une approche de suivi du couvert de glace à grande échelle en exploitant les données de télédétection optique, radar et acquises par drone, 2) développer une méthode de cartographie automatique du type de glace par estimation d’ensemble à partir d’imagerie radar, 3) concevoir un modèle de détection automatique des lieux à risque de débâcle en utilisant les connaissances de personnes expertes pour interpréter les cartes du type de glace et 4) intégrer les outils développés aux autres modèles conçus dans le cadre de DAVE (Dispositif d’alertes et de vigilance aux embâcles). Les contributions originales découlant de cette thèse touchent plusieurs aspects du suivi du couvert de glace. Elles incluent la démonstration de la pertinence des indicateurs de suivi de la glace par la télédétection, la conceptualisation d’une méthode de segmentation de la rivière en secteurs de production, transport et accumulation de la glace, l’élaboration d’un modèle de cartographie du type de glace par estimation d’ensemble plus performant et polyvalent que les classificateurs originaux, la construction d’une base de données de dégradation du couvert de glace à partir des connaissances de personnes expertes en cartographie de la glace et un modèle de classification de la dégradation du couvert de glace. Cette thèse se conclut par l’intégration conceptuelle à l’aide d’une analyse multicritères hiérarchique des différents outils développés au sein de DAVE. <br /><br /> The authorities responsible for ice jam flood risk management are always looking for tools to prevent harm and reduce consequences on populations and infrastructure. Ice jam prevention has been greatly improved by modelling certain parameters—such as geomorphic predispositions and hydrometeorological conditions—that are central to ice jam formation. These models focusing on the strength of the river current and its ability to constrain the flow would gain in relevance if they could include ice cover strength. Remote sensing tools are an effective way of knowing the state of the ice cover over the whole river and at different target locations. These can be used to generate different map products to include in monitoring before, during and after hazard events. This dissertation therefore aims to integrate ice cover monitoring into ice jam prevention methods using remote sensing tools. To do so, three main sub-objectives were accomplished: 1) to create a large-scale ice cover monitoring approach using remote sensing data such as optical, radar and drone images, 2) to develop a method for automatic mapping of ice type by ensemble estimation from radar imagery, 3) to design an automatic detection model for breakup risk locations using ice type maps and expert judgment and 4) to integrate the tools developed with other models created within the Dispositif d’alertes et de vigilance des embâcles de glace (DAVE). The original contribution from this work covers multiple aspects of ice cover monitoring. This dissertation demonstrates the relevance of direct indicators of ice monitoring by remote sensing, conceptualizes a method for river segmentation into areas of ice production, transport and accumulation, develops an ensemble-based estimation ice type mapping model more efficient and versatile than the original algorithms, constructs an ice cover degradation database derived from the knowledge of ice mapping experts, and proposes a classification model of ice cover degradation. This dissertation concludes with the conceptual integration by analytic hierarchy process of the different tools developed within DAVE.
-
RÉSUMÉ : Pour atténuer les risques d'inondation au Québec mais aussi partout dans le monde, plusieurs organismes gouvernementaux et des organismes privés, qui ont dans leurs attributions la gestion des risques des catastrophes naturelles, continuent d'améliorer ou d'innover en matière d'outils qui peuvent les aider efficacement à la mitigation des risques d'inondation et aider la société à mieux s'adapter aux changements climatiques, ce qui implique des nouvelles technologies pour la conception de ces outils. Après les inondations de 2017, le ministère de l'Environnement et de la Lutte contre les changements climatiques (MELCC) du gouvernement du Québec, en collaboration avec d'autres ministères et organismes et soutenu par Ouranos, a initié le projet INFO-Crue qui vise d'une part, à revoir la cartographie des zones inondables et, d'autre part, à mieux outiller les communautés et les décideurs en leur fournissant une cartographie prévisionnelle des crues de rivières. De ce fait, l'objectif de notre travail de recherche est d'analyser de façon empirique les facteurs qui influencent l'adoption d'un outil prévisionnel des crues. La revue de la littérature couvre les inondations et les prévisions, les théories et les modèles d'acceptation de la technologie de l'information (TI). Pour atteindre l'objectif de recherche, le modèle développé s'est appuyé particulièrement sur le modèle qui combine les concepts de la théorie unifiée de l'acceptation et l'utilisation des technologies (UTAUT) de Venkatesh et al. (2003) avec le concept « risque d'utilisation ». Afin de répondre à notre objectif de recherche, nous avons utilisé une méthodologie de recherche quantitative hypothético-déductive. Une collecte de données à l'aide d'une enquête par questionnaire électronique a été réalisée auprès de 106 citoyens qui habitent dans des zones inondables. L'analyse des résultats concorde avec la littérature. La nouvelle variable « risque d'utilisation » rajoutée au modèle UTAUT a engendré trois variables qui sont : « risque psychologique d'utilisation »; « risque de performance de l'outil » et « perte de confiance ». Pour expliquer l'adoption d'un nouvel outil prévisionnel des crues, notre analyse a révélé que cinq variables à savoir : « l'utilité perçue », « la facilité d'utilisation », « l'influence sociale », « la perte de confiance » et « le risque psychologique » sont des facteurs significatifs pour l'adoption du nouvel outil prévisionnel. -- Mot(s) clé(s) en français : Inondation, Prévision, UTAUT, Adoption de la technologie, Risque perçu d'utilisation, facteurs d'adoption, Projet INFO-Crue. -- ABSTRACT : With the aim of mitigating flood risks in Canada as well as around the world, several government and private organizations that have the responsibility of natural hazard risk management, are working hard to improve or innovate the flood mitigation approaches that can help effectively reducing flood risks and helping people adapt to climate change. After the 2017 floods, the Ministry of the Environment and the Fight against Climate Change (MELCC) of the Government of Quebec, in collaboration with other ministries and organizations and supported by Ouranos, initiated the INFO-Crue project which aims at reviewing the mapping of flood zones and providing communities and decision-makers with a forecast mapping of river floods. In this context, the objective of our research is to analyze the factors that may influence the adoption of a flood forecasting tool. The literature review covers flood and forecasting, as well as technology adoption models. To achieve the goal of our research, a conceptual model that combines the Unified Theory of Acceptance and Use of Technology (UTAUT) of Venkatesh et al. (2003) with perceived use risk was developed. A quantitative research methodology was used, and we administrate an electronic questionnaire survey to 106 citizens who live in flood-plain area. Results analysis show that the new variable "perceived use risk" introduced in the model generates three variables which are: "psychological risk"; "performance risk" and "loss of trust". To explain the adoption of a new forecasting tool, our analysis revealed that the following five variables which are "perceived usefulness", "ease of use", "social influence", "loss of trust" and "psychological risk" are significant factors for the adoption of the new forecasting tool. -- Mot(s) clé(s) en anglais : Flood, Forecasting, UTAUT, Technology Adoption, perceived Risk of use, adoption factors, INFO-Crue project.
-
En étant nécessaire à la vie humaine, l’eau est également nécessaire au fonctionnement des économies. Pour qu’elle soit utile à la société, l’eau doit être disponible en quantité et en qualité adéquates, caractéristiques qui ne sont pas toujours disponibles dans la nature. Ainsi, trop ou pas assez d’eau entraînerait des inondations ou des sécheresses, tandis qu’une eau contaminée pourrait être le vecteur de maladies contagieuses mortelles, chacun de ces fléaux entraînant des dommages économiques. Cette thèse est organisée en trois chapitres traitant de thématiques liées aux investissements dans les infrastructures d'eau et à la gestion des maladies infectieuses. Le premier chapitre étudie comment les améliorations apportées aux réseaux d’égouts atténuent les impacts économiques des inondations provoquées par la pluie. Pour estimer l’effet causal de ces investissements, ce chapitre utilise un resserrement inattendu du financement fédéral américain en faveur des réseaux d’égouts, à la suite de l’amendement de 1977 à la politique du Clean Water Act. L'analyse empirique combine un nouveau modèle statistique du risque d'inondation induit par la pluie avec des données horaires sur la quantité de pluie dans les comtés et les codes postaux américains de 1996 à 2019. Les résultats indiquent que des investissements plus importants dans les réseaux d'égouts ont conduit à des réductions substantielles des inondations locales. Les bénéfices de ces investissements sont supérieurs à leurs coûts, économisant près de 23 millions de dollars pour le comté moyen. Dans l’ensemble, ces résultats mettent en évidence à quel point la détérioration des infrastructures publiques peut exacerber les conséquences du changement climatique. Le deuxième chapitre étudie le rôle des épidémies locales de maladies infectieuses dans l'adoption de systèmes centralisés d'approvisionnement en eau dans les premières villes américaines au XIXe siècle. À l’aide d’un vaste corpus de données provenant d’archives de journaux de 1800 à 1896, je construis un nouvel indicateur capturant les épidémies de fièvre jaune, de choléra et de fièvre typhoïde au niveau des villes. Les résultats indiquent que (1) les épidémies locales de maladies infectieuses ont entraîné une augmentation du nombre systèmes d'approvisionnement en eau construits par les villes et ont joué un rôle crucial dans la décision de construire environ 12% des ouvrages d’adduction d’eau en activité en 1897 ; (2) La réponse des villes aux épidémies de typhoïde a été deux fois plus importante que celle qui a suivi les épidémies de fièvre jaune ou de choléra. (3) Les entreprises privées ont construit davantage de nouveaux réseaux d’adduction d’eau après les épidémies locales, tandis que les gouvernements locaux ont procédé à davantage d’améliorations et d’extensions des réseaux d’adduction d’eau publics existants ainsi qu’à des rachats de sociétés d’eau privées. Enfin, je discute du rôle potentiel de divers facteurs sociodémographiques. Le troisième chapitre étudie les coûts économiques associés à une stratégie utilisée pour gérer les épidémies locales lors de la récente pandémie de COVID-19. Dans ce travail en collaboration avec Jian Tang, nous quantifions les effets de la politique ‘zéro-COVID’ à l’aide d’un riche ensemble de données sur les confinements au niveau des comtés en Chine et d’images satellitaires nocturnes. Nous constatons que des confinements plus stricts induisent une forte baisse de la luminosité nocturne au cours de la même période, suivie d’une lente reprise, qui se produit au moins deux trimestres après l’instauration du confinement. En l’absence de contagions généralisées, un comté soumis à un confinement total subit en moyenne une perte de PIB de 6% par rapport aux comtés non confinés. L’effet négatif est particulièrement persistant dans les zones où la production est dominée par les services, par opposition aux zones où la production est dominée par l’activité manufacturière. L’on note par ailleurs la présence d’effets d’entraînement à proximité des comtés confinés, mais ces effets sont de courte durée.
-
Les débits reconstitués pour le nord-ouest du Québec démontrent une augmentation de la fréquence et de la magnitude des crues printanières en lien avec l’augmentation des précipitations nivales depuis le début du XIXe siècle. Autour du lac Duparquet, une migration des peuplements de frêne noir (Fraxinus nigra Marsh.) vers l’intérieur des terres en réponse à ces changements a été rapportée. Pour anticiper la réponse des frênaies noires du lac Duparquet face aux changements climatiques et hydrologiques à venir, cette étude décrit les conditions favorisant la présence de F. nigra et la structuration des peuplements en lien avec la dynamique des crues printanières depuis le début du XXe siècle. L’étude se structure autour des objectifs suivants : i) déterminer la composition et l’organisation des communautés végétales associées à F. nigra le long du gradient d’élévation; ii) déterminer les facteurs limitant l’expansion des frênaies noires dans les basses et hautes plaines alluviales; et iii) déterminer les fréquences d’occurrence des crues printanières le long du gradient d’élévation des plaines alluviales et identifier les fréquences de retour des crues printanières associées à chaque groupement floristique. Vingt-quatre frênaies noires du lac Duparquet et de ses affluents ont été échantillonnées durant l’été 2022 en utilisant un échantillonnage par stratification verticale de la végétation le long de transects perpendiculaires à la rive, avec mesure de variables environnementales et écologiques. Une analyse par regroupement hiérarchique associée à une analyse d’espèces indicatrices a permis d’identifier des communautés végétales associées aux frênaies noires et notamment trois communautés distribuées le long des gradients d’élévation et de distance à la rive depuis la plaine alluviale basse (communauté i) frênaie à Onoclea sensibilis L.), moyenne (communauté ii) frênaie à Rhamnus alnifiolia L’Her.), et haute (communauté iii) frênaie à Athyrium filix-feminina (Linn.) Roth). Les structures de diamètre révèlent que les zones des basses et hautes plaines alluviales sont moins denses en F. nigra et composées d’arbres plus jeunes. Les analyses des cernes de crues montrent une diminution significative de la fréquence d’occurrence des crues printanières de faible et forte intensité entre les groupements floristiques depuis les basses vers les hautes plaines inondables. Les fréquences moyennes d’occurrences des crues le long du gradient d’élévation participent donc à expliquer la structure des frênaies noires du lac Duparquet. Cette recherche fournit des paramètres écologiques de base, essentiels pour maintenir un équilibre dynamique dans les frênaies noires, notamment en cas de modifications des débits des cours d'eau, comme celles induites par des aménagements hydroélectriques ou de futurs changements climatiques.
-
RÉSUMÉ : Le fjord du Saguenay est une vallée glacière de 110 km de long et de 280 m de profondeur maximale qui relie la rivière Saguenay à sa tête à l'estuaire du Saint-Laurent à son embouchure. La bathymétrie du fjord est caractérisée par 3 seuils : le seuil peu profond (~ 20 m) à l'embouchure, un seuil intermédiaire (60 m) à 20 km en amont et un seuil profond (120 m) à 35 km en amont. Ces seuils séparent le fjord en 3 bassins : le bassin extérieur, le bassin intermédiaire et le bassin intérieur. La circulation dans le fjord est forcée par l'apport d'eau douce de la rivière Saguenay à sa tête, de grandes marées (jusqu'à 6 m de marnage) à son embouchure qui apportent de l'eau salée ainsi que par le vent. La circulation à grande échelle a été caractérisée par trois régimes saisonniers au cours desquels les eaux profondes, intermédiaires et de sous-surface du bassin intérieur sont renouvelées respectivement au début de l'hiver, en été et à la fin de l'hiver. Des indications indirectes suggèrent que ces régimes sont déterminés par des processus turbulents qui se produisent localement à chacun de ces trois seuils. Ici, nous présentons les résultats des expériences de terrain que nous avons menées qui visaient à étudier plus directement la dynamique des processus de seuil induits par les courants de marées ainsi que les modifications de masse d'eau qui surviennent aux seuils. À ce jour, nos mesures fournissent la description la plus précise et la plus complète des structures d'écoulement de marée stratifié autour des seuils internes du fjord du Saguenay. Nous avons également observé qu'un ressaut hydraulique interne semble se former lors de chaque marée descendante en aval du seuil intermédiaire, mais pas lors des marées montantes. Des recherches sont toujours en cours pour mieux comprendre cette asymétrie, mais notre hypothèse est que la présence d'une masse d'eau plus salée en amont du seuil intermédiaire empêche la formation d'un ressaut hydraulique, un processus qui pourrait être similaire à celui documenté à Knight Inlet (Colombie-Britannique, Canada). -- Mot(s) clé(s) en français : Fjord du Saguenay, Estuaire du St-Laurent, Processus de Seuil, Mélange Turbulent, Océanographique Côtière. -- ABSTRACT : The Saguenay Fjord is a 110 km long and 280 m deep (max depth) multi-silled glacial valley that connects the Saguenay River at its head with the St. Lawrence Estuary at its mouth. The bathymetry is characterized by 3 sills : a shallow 20-m deep sill at the mouth, an intermediate 60-m deep sill 20 km up-fjord and a deep 120-m sill 35 km up-fjord. These sills separate 3 basins, the outer, the intermediate and the inner basins. The circulation in the fjord is forced by the Saguenay River at its head that brings freshwater, large tides (up to 6 m range) at its mouth that brings salt water and by wind. The large-scale circulation has been characterized by four seasonally dependent regimes during which the deep, intermediate and subsurface waters of the inner basin are being renewed, respectively, during early winter, summer and late winter. There are indirect indications that those regimes are determined by turbulent processes occurring locally at each of these three sills. Here, we carried out field experiments to more directly investigate the detailed dynamics of tidally-driven sill processes and water mass modifications occurring across these three sills. Our measurements provide to date the most accurate and complete description of the stratified tidal flow structures around these sills. We also found that an internal hydraulic jump seems to form every ebb tide on the down-fjord side of the intermediate sill but not during flood tide on the up-fjord side. Research is ongoing to better understand this asymmetry but our hypothesis is that it is the presence of a salty pool up-fjord of the sill that prevents the formation of a hydraulic jump, a process that may be similar to that documented in Knight Inlet (British Columbia, Canada). -- Mot(s) clé(s) en anglais : Saguenay Fjord, St-Lawrence Estuary, Sill Processes, Turbulent Mixing, Coastal Oceanography.
-
Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives.
-
Au Québec, les conditions printanières extraordinaires de 2017 et 2019 ont incité le gouvernement provincial à commander une mise à jour des cartes des zones inondables. La plupart des cartes existantes ne reflètent pas adéquatement l’aménagement actuel du territoire, ni l’aléa associé. Généralement, pour la cartographie, les modèles hydrodynamiques tel que HEC-RAS sont utilisés, mais ces outils nécessitent une expertise significative, des données hydrométriques et des relevés bathymétriques à haute résolution. Étant donnée la nécessité de mettre à jour ces cartes tout en réduisant les coûts financiers associés, des méthodes conceptuelles simplifiées ont été développées. Ces approches, y compris l’approche géomatique HAND (Height above the nearest drainage), qui reposent uniquement sur un modèle numérique d’élévation (MNE), sont de plus en plus utilisées. HAND permet de calculer la hauteur d’eau nécessaire pour inonder chaque pixel du MNE selon la différence entre son élévation et celle du pixel du cours d’eau dans lequel il se déverse. Les informations sur la géométrie hydraulique dérivées par HAND ainsi que l’application de l’équation de Manning permettent la construction d’une courbe de tarage synthétique (CTS) pour chaque tronçon de rivière homogène. Dans la littérature, cette méthode a été appliquée pour établir une cartographie de la zone inondable de première instance de grands fleuves aux États-Unis avec un taux de correspondance de 90% par rapport à l’utilisation de HEC-RAS. Elle n’a toutefois pas été appliquée sur de petits bassins versants, car ceux-ci engendrent des défis méthodologiques substantiels. Ce projet s’attaque à ces défis sur deux bassins versants Québécois, ceux des rivières à la Raquette et Delisle. Les conditions frontières des modèles sont dérivées d’un traitement statistique empirique des séries de débits simulés avec le modèle hydrologique HYDROTEL. Étant donnée l’absence de stations météorologiques sur le territoire à l’étude, des chroniques du système Canadien d’Analyse de la précipitation (CaPA) ont été utilisées pour cette modélisation hydrologique. Les résultats de ce projet pointent vers des performances satisfaisantes de l’approche géomatique HAND-CTS en comparaison avec le modèle hydrodynamique HEC-RAS (1D/2D et 2D au complet), avec des taux de correspondance entre les étendues des inondations supérieurs à 60 % pour les bassins versants de Delisle et à la Raquette. Les comparaisons étaient effectuées sur une gamme de débit allant d’un débit de période de retour de 2 ans jusqu’à un débit de plus de 350 ans. On notera que l’application sur la rivière à la Raquette a été développée dans les règles de l’art, incluant un processus de calage développé dans le cadre d’un projet de maitrise en sciences de l’eau connexe à ce mémoire, relativement à la longueur du tronçon, le calage vertical de la CTS en considérant la hauteur d’eau présente dans le cours d’eau lors du relevé LiDAR et sa précision verticale. Les résultats ont montré que le coefficient de précision globale le plus bas était de 98 % pour un débit de 350 ans, avec une précision de plus que 99 % pour les autres périodes de retour, ce qui représente une très bonne performance du modèle. Et par ailleurs, le coefficient de Kappa conditionnel humide variait entre 58 % et 28 %. Alors, que pour la rivière Delisle, l’application se veut naïve, c’est-à-dire sans calage préalable de la méthode HANDCTS. La précision globale a varié entre 83 % et 96 %, ce qui est considéré comme "très approprié" et une variation du coefficient Kappa conditionnel humide de 35,2 à 64,3 %. Alors que pour une différence d’élévations d'eau entre les élévations de référence et simulées, la performance était quantifiée par un RMSE qui variait pour les périodes de retour de 100 ans et de 350 ans respectivement de 4,5 m et de 7,1 m. Enfin, la distribution spatiale des différences d’élévations montre une distribution gaussienne avec une moyenne qui est à peu près égale à 0 où la plupart des erreurs se situent entre -0,34 m et 1,1 m La cartographie des zones inondables dérivée de HAND-CTS présente encore certains défis associés notamment à la présence d’infrastructures urbaines complexes (ex. : ponceaux, ponts et seuils) dont l’influence hydraulique n’est pas considérée. Dans le contexte où l’ensemble du Québec (529 000 km²) dispose d’une couverture LiDAR, les résultats de ce mémoire permettront de mieux comprendre les sources d’incertitude associées à la méthode HAND-CTS tout en démontrant son potentiel pour les bassins versants dépourvus de données bathymétriques et hydrométéorologiques. <br /><br />The 2017 and 2019 extraordinary spring conditions prompted the Quebec government to update flood risk maps, as most of them do not adequately reflect current land use and associated hazard. Generally, hydrodynamic models such as HEC-RAS are used for flood mapping, but they require significant expertise, hydrometric data, and high-resolution bathymetric surveys. Given the need to update these maps while reducing the associated financial costs, simplified conceptual methods have been developed over the last decade. These methods are increasingly used, including HAND (height above the nearest drainage), which relies on a Digital Elevation Model (DEM) to delineate the inundation area given the water height in a river segment. Furthermore, the river geometry derived from HAND data and the application of Manning’s equation allow for the construction of a synthetic rating curve (SRC) for each homogeneous river segment. In the scientific literature, this framework has been applied to produce first-instance floodplain mapping of large rivers. For example, in the Continental United States 90% match rates were achieved when compared to the use of HEC-RAS. However, this framework has not been validated for small watersheds, as substantial methodological challenges are anticipated. This project addresses these underlying challenges in two Quebec watersheds, the à la Raquette and Delisle watersheds. The boundary conditions of the HECRAS models were derived from an empirical statistical treatment of flow time series simulated by HYDROTEL, a hydrological model, using Canadian Precipitation Analysis Product (CaPA) time series. The results of this project point towards satisfactory performances, with match rates greater than 60 % for both watersheds. It should be noted that the application on the Delisle River is naive, that is without prior calibration of the HAND-SRC method. The overall accuracy ranged from 83.4 % to 96.2 % while the water surface elevation difference was quantified by an RMSE that was for the 100-year and 350-year return periods of 4.5 m and 7.1 m respectively and where most errors are between -0.34 m and 1.1 m representing a very good model comparing to similar studies. For à la Raquette, the application showed an overall accuracy coefficient of 98 % for a 350-year flow, with an accuracy of over 99 % for other return periods. The mapping of flood risk areas using HAND-SRC still faces certain challenges, notably the presence of complex urban infrastructures (e.g., culverts, bridges, and weirs) whose hydraulic influences are not considered by this geomatic approach. Given that most of Quebec (529,000 km²) topography has been digitized using LiDAR data, the results conveyed in this MSc thesis will allow for a better understanding of the sources of uncertainty associated with the application of the HAND-SRC method while demonstrating its potential for watersheds lacking hydrometeorological and high-resolution bathymetric data.
-
Compte tenu de la nécessité de mettre à jour les cartes d'inondation et de minimiser les coûts associés (collecte de données et ressources humaines), il existe un besoin de méthodes alternatives simplifiées ne reposant pas sur la modélisation hydrodynamique classique. L'une des méthodes simplifiées répondant à ce besoin est HAND (Height Above the Nearest Drainage), une approche qui requiert uniquement un modèle numérique d'altitude (MNA) et un réseau hydrographique. Celle-ci a été mise en œuvre dans PHYSITEL, un système d’information géographique SIG spécialisé pour les modèles hydrologiques distribués. Ainsi, pour une hauteur d’eau donnée dans plusieurs tronçons de rivière, il est possible de faire une délimitation de première instance de la surface inondée le long du réseau hydrographique d’un bassin versant. Par ailleurs, l'utilisation des informations fournies par HAND et l'application de l'équation de Manning permettent également de construire une courbe de tarage synthétique pour tout tronçon de rivière en l’absence de données bathymétriques. Ce mémoire présente l’application de cette approche, qui a été validée précédemment en partie sur de grands bassins, sur deux petits bassins, ceux de la rivière à La Raquette, d’une superficie de 133 km², et de la rivière Saint Charles, d’une superficie de 552 km². Trois stations de jaugeage dans chaque bassin ont fourni les informations de base nécessaires au processus de calage de l’approche. L’efficacité et l’adaptabilité de cette approche ont été évaluées dans ce projet en fonction des données disponibles, du temps de calcul et de la précision mesurée par le biais et l’erreur quadratique moyenne. Les incertitudes et sensibilités de l’approche ont été analysées en tenant compte de la résolution spatiale et du manque de données bathymétriques. De plus, des analyses innovatrices ont été produites dans l’application de HAND. Tels qu’une analyse de sensibilité globale pour informer le processus de calage ainsi que l’application d’un critère basé sur le nombre de Froude afin de permettre de valider le respect des hypothèses sous-jacentes à l’application de l’approche sur chaque tronçon de rivière d’un bassin. En utilisant des MNA à haute résolution(<5 m/pixel), des courbes de tarage synthétiques ont été produites avec des biais inférieurs à ±20 % par rapport à des courbes de tarage in-situ. De plus, la détermination d'un critère de sélection des courbes dans un biais de ± 5% par rapport à la courbe de tarage observée a permis d'obtenir des courbes de tarage synthétiques avec des erreurs quadratiques moyennes normalisées comprises entre 0,03 et 0,62. Ainsi, cette approche a été validée pour dériver des courbes de tarage synthétiques et, par conséquent, pour soutenir la délimitation des zones à risque d'inondation dans les petits bassins versants en tenant compte des incertitudes associées à l'application d'une approche de faible complexité. <br /><br />Given the emergent need to update flood inundation maps and minimize associated financial costs (data collection and human resources), simplified alternative methods to the classical hydrodynamic modelling method, are being developed. One of the simplified methods built to fulfill this need is the terrain-based Height Above the Nearest Drainage (HAND) method, which solely relies on a digital elevation model (DEM) and a river network. This approach was implemented in PHYSITEL, a specialized GIS for distributed hydrological models. For a given river reach and water height, HAND can provide a first-hand delineation of the inundated areas within a watershed. In addition, coupling the information provided by HAND and the Manning equation allows for the construction of a synthetic rating curve for any homogeneous river reach where bathymetric data are not available. Since this synthetic rating curve approach has been validated in part for large watersheds, this study tested this approach onto two small watersheds: the 133- km² La Raquette River watershed and the 552-km² Saint Charles River watershed. Three gauging stations on each basin provided the basic data to perform the calibration process. The effectiveness and adaptability of the approach was assessed as a function of available data, computational time, and accuracy measured using the bias and root mean squared error (RMSE). The uncertainties were quantified in terms of spatial resolution and lack of bathymetry data. In addition, innovative analyses were made on the application of the HAND-synthetic rating curve approach. First, a global sensitivity analysis was done to inform the calibration process, and then a Froude number-based criterion was applied to validate the application of the Manning equation on any river reach of a watershed. Using high-resolution DEMs (<5 m/pixel), we obtained synthetic rating curves with bias less than 20% when compared to in-situ rating curves. Finally, a curve selection criterion was applied to identify those curves having a bias of ± 5%. The selected synthetic rating curves had normalized mean squared errors between 0.03 and 0.62. Thus, the proposed approach was deemed appropriate to derive synthetic rating curves and support the delineation of flood risk areas in small watersheds all the while considering the uncertainties associated with applying a low complexity model.
-
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec.
-
Depuis de nombreuses années, les chercheurs dans le domaine du stress maternel prénatal (SMP) associé à des catastrophes naturelles cumulent des données probantes suggérant un effet de ce type de stresseur sur le développement de l’enfant. Plusieurs obstacles freinent cependant le transfert de ces connaissances (TC) à leurs potentielles bénéficiaires, les femmes enceintes. Un premier obstacle est qu’il n’existe pas de synthèse de connaissances quantifiant l’effet du SMP sur les différentes sphères de développement de l’enfant. De plus, les besoins informationnels des femmes enceintes à ce sujet ne sont pas connus. Ensuite, d’un point de vue éthique, il est difficile de se positionner quant à la meilleure stratégie de TC à employer pour informer les femmes enceintes sans leur imposer un stress additionnel. Cette thèse vise donc à déterminer comment informer les femmes enceintes au sujet des conséquences du stress pendant la grossesse sans les stresser davantage. Pour ce faire, une revue méta-analytique de l’effet du SMP associé à des catastrophes naturelles sur le développement de l’enfant a été réalisée pour quantifier cet effet. Par la suite, un questionnaire a été élaboré pour sonder les femmes issues de deux cohortes distinctes, une première ayant été exposée aux feux de forêt de Fort McMurray pendant la grossesse, puis une seconde localisée à Montréal et n’ayant pas été exposée à une catastrophe naturelle au cours de la grossesse. Les items du questionnaire cherchaient à déterminer leurs connaissances au sujet du SMP ainsi que leur désir d’en avoir su davantage à ce propos au cours de leur dernière grossesse. Une grille d’entretien originale a ensuite permis d’interviewer un sous-échantillon des femmes de la cohorte de Montréal pour préciser leurs besoins informationnels et les paramètres qui devraient guider un processus de TC à cet effet. Cette dernière étude a cependant été interrompue en raison de la pandémie de COVID-19 et seuls les résultats préliminaires en sont ici présentés. Plusieurs constats sont ressortis des méta-analyses et des méta-régressions. D’abord, le SMP a un effet, petit, mais durable, sur l’ensemble des sphères de développement de l’enfant. Ensuite, les difficultés objectives et la détresse psychologique sont les composantes du SMP pour lesquelles les plus grands effets ont été trouvés. Il semble également que l’exposition à une tempête de verglas affecte encore plus le développement de l’enfant que celle à une inondation. Les résultats au questionnaire des deux cohortes de femmes a permis de lever le voile sur le manque de connaissances à combler chez ces dernières concernant principalement les conséquences concrètes du SMP sur le développement de l’enfant, puis d’établir que les deux cohortes de femmes auraient majoritairement voulu en savoir davantage à ce sujet au cours de leur dernière grossesse. Enfin, les données complémentaires issues des entretiens avec les femmes de la cohorte de Montréal indiquent que les professionnels de la santé seraient les utilisateurs de connaissances à privilégier et que l’approche à employer pour faire ce TC devrait être empathique, non culpabilisante, centrée sur la femme dans sa globalité et ajustée à son style de recherche d’informations. De prochaines études dans le domaine du SMP pourront venir pallier certaines limites de cette thèse. Les équipes de recherche pourront utiliser le questionnaire et la grille d’entretien pour évaluer les besoins informationnels des femmes au sujet du SMP dans différents contextes (p.ex. pandémie de COVID-19). Maintenant qu’il a été déterminé que le SMP a un effet sur le développement de l’enfant, il serait utile de réaliser une revue de littérature pour recenser les interventions permettant d’estomper cet effet afin de bien outiller les femmes enceintes. Finalement, connaissant désormais les besoins informationnels des femmes enceintes, l’organisation d’un atelier délibératif avec les professionnels de la santé permettrait de mettre au point une stratégie de TC prenant également en compte leur réalité. En conclusion, cette thèse a permis de jeter les bases d’une stratégie de TC qui pourrait informer les femmes enceintes au sujet des conséquences du SMP associé aux catastrophes naturelles sans les stresser davantage.
-
Le stress prénatal maternel (SPM) est un concept largement étudié et ce, autant par de méthodes objectives que subjectives. Certains chercheurs évaluent les symptômes d’anxiété et de dépression des femmes au cours de leur grossesse alors que d’autres préfèrent mesurer les niveaux de cortisol des femmes enceintes. Pour cette thèse, le SPM a été mesuré par deux méthodes différentes, soit l’exposition des femmes enceintes à une catastrophe naturelle et l’exposition des mêmes femmes enceintes à des événements de vie stressants plus courants. Puisqu’il est bien établi que ce type de stress engendre des répercussions négatives sur la femme enceinte ainsi que sur le développement de l’enfant, il est désormais d’intérêt d’accentuer les recherches sur les moyens qui permettent d’atténuer les conséquences d’un tel stress. Dans les études auprès des animaux, nous savons que les conditions de maternage ainsi que l'enrichissement environnemental semblent renverser les effets du SPM, mais nous ne savons pas si, chez les humains, un bon encadrement parental, c’est-à-dire un cadre structuré avec des règles prévisibles et consistantes, peut protéger les enfants des effets du SPM. L’objectif de cette thèse est donc d’augmenter notre compréhension sur l’effet protecteur de l’encadrement parental dans le développement d’enfants qui ont été exposés à différents types de SPM. Cet objectif pourra être atteint grâce à une collaboration internationale initiée par la Dre Suzanne King suite aux inondations qui se sont produites en 2008 dans l'état d'Iowa. Suite à la catastrophe, la Dre King est entrée en contact avec le Dr O’Hara afin d'évaluer la sévérité du stress dû aux inondations chez les femmes enceintes et pour déterminer les effets de ce stress sur leur enfant. Trois types de stress ont été évalués: le degré objectif de difficulté (p. ex., pertes financières), l'évaluation cognitive de la catastrophe en tant qu'expérience négative, neutre ou positive, et la détresse subjective causée par l'inondation (p. ex., symptômes de TSPT). Suite au recrutement des mères, les enfants de l'échantillon ont été évalués à l’âge de 2, 4, 5 et 7 ans. La présente thèse est composée de trois études. La première étude porte sur l’effet modérateur de l’encadrement parental sur les associations entre le SPM causé par les inondations d’Iowa et les problèmes comportementaux chez les enfants âgés de sept ans. Les résultats indiquent qu’un encadrement parental où la discipline est consistante protège les garçons qui ont été exposés au SPM objectif contre différents symptômes de problèmes internalisés et externalisés. La deuxième étude se penche également sur la question de l’effet protecteur de l’encadrement parental sur les associations entre le SPM et les problèmes comportementaux chez les enfants âgés de sept ans. Toutefois, cette étude s’est plutôt penchée sur l’influence du SPM lorsque celui-ci est causé par des événements de vie qui sont plus communs qu’un désastre naturel. De nouveau, les résultats de cette étude nous révèlent qu’un encadrement parental consistant joue le rôle de facteur de protection, chez les garçons qui ont été exposés au SPM causé par des événements de vie stressants, mais seulement en ce qui concerne les problèmes de comportement externalisés. La troisième étude vient reconsidérer l’effet protecteur de l’encadrement parental sur les liens entre le SPM et les problèmes comportementaux des enfants qui ont été exposés à un désastre naturel. Cependant, pour cette étude, les comportements des enfants n’ont pas été évalués par un questionnaire, mais plutôt par une méthode observationnelle (tâche de frustration). Toutefois, dans cette étude, il n’est ressorti aucun effet significatif de l’encadrement parental comme variable modératrice. En somme, nos résultats rapportent que l’implantation d’un cadre structuré et consistant peut venir pallier et même renverser les conséquences du SPM sur le comportement des garçons.
-
La perchaude est un poisson qui pond ses œufs sur les végétaux submergés dans le littoral du lac Saint-Pierre lors de la crue printanière. Cependant, les pratiques agricoles actuelles sur le littoral laissent souvent un sol nu à l'automne, ce qui cause la diminution des habitats de ponte des poissons. Ainsi, l'objectif de cette étude est d'évaluer des cultures de couverture (CC) de pleine saison qui pourraient servir de substrats potentiels pour la ponte des poissons au printemps et qui seraient compétitives envers les adventices. Un dispositif en tiroir systématique avec quatre blocs a été implanté à quatre années-sites. En parcelles principales, six traitements de CC ont été étudiés : le ray-grass vivace (Lolium perenne L.), le seigle d'automne (Secale cereale L.), un mélange de seigle d'automne et de trèfle rouge (Trifolium pratense L.), un mélange de seigle d'automne et de vesce velue (Vicia villosa Roth), un mélange d'avoine (Avena sativa L.), vesce velue et lin (Linum usitatissimum L.), et le témoin sans CC. Le facteur testé en sous-parcelle était le désherbage ou non des parcelles. Le mélange d'avoine, vesce velue et lin a produit le plus de biomasse aérienne (2,5 à 4,9 Mg ha⁻¹) tout en réduisant l'incidence des adventices de 33 à 82 % en comparaison avec le témoin non désherbé. Il est également le seul traitement pour lequel une partie de la biomasse aérienne est restée érigée après la crue à chaque année-site. Ainsi, ce type de CC pourrait constituer un substrat potentiel pour la ponte des perchaudes au printemps mais ce serait à confirmer par des mesures fauniques faites au printemps durant l'inondation. Avec un coût d'implantation peu élevé, le mélange avoine, vesce velue et lin est avantageux à la fois pour les agriculteurs et pour l'environnement.