Votre recherche
Résultats 14 ressources
-
Orages violents, pluies diluviennes, records battus à Québec comme à Montréal: l'été 2025 rappelle combien les prévisions météo sont essentielles. Selon des experts, les récentes coupes budgétaires dans les agences américaines pourraient être de mauvais augure chez nous.
-
Les inondations de 2017 et 2019 au Québec ont affecté respectivement 293 et 240 municipalités. Ces inondations ont généré une cascade d’évènements stressants (stresseurs primaires et secondaires) qui ont eu des effets sur la santé mentale de la population et retardé le processus de rétablissement des individus. Cette période de rétablissement peut s’échelonner sur plusieurs mois voire plusieurs années. Cette étude s’inscrit dans la spécificité de la recherche mixte mise de l’avant à travers trois stratégies de recherche, réalisées de façon séquentielle : 1) sondage populationnelle réalisé auprès de 680 personnes, 2) analyse de documents produits par les organisations participant au processus de rétablissement social des sinistrés, ou sur des analyses externes portant sur ces interventions de rétablissement et 3) entrevues semi-dirigées auprès de 15 propriétaires occupants ayant complété une demande d’indemnisation à la suite des inondations de 2019 et auprès de 11 professionnels et gestionnaires participant au processus de rétablissement social. Les entrevues semi-dirigées et les questionnaires complétés par les personnes sinistrées lors des inondations de 2019 démontrent que les principales sources de stress ayant des impacts sur la santé et le bien-être des répondants sont : 1) l’absence d’avertissement et la vitesse de la montée des eaux; 2) l’obligation de se relocaliser et la peur d’être victime de pillage; 3) le manque de solidarité et d’empathie de la part de certains employés du MSP; 4) la gestion des conflits familiaux; 5) la gestion de problèmes de santé nouveaux ou préexistants; 6) la complexité des demandes d’indemnisation; 7) la lourdeur et les délais des travaux de nettoyage ou de restauration; 8) les indemnités inférieures aux coûts engendrés par l’inondation; 9) les pertes matérielles subies, particulièrement ceux d’une valeur de plus de 50 000 $; et 10) la diminution anticipée de la valeur de sa résidence. À cela s’ajoute l’insatisfaction à l’égard du programme d’indemnisation du gouvernement du Québec (PGIAF) qui fait plus que doubler la prévalence des symptômes de stress post-traumatique. Les inondations entraînent également une perte de satisfaction ou de bien-être statistiquement significative. La valeur monétaire de cette perte de jouissance peut être exprimée en équivalent salaires. En moyenne, cette diminution du bien-être équivaut à une baisse de salaire de 60 000$ pour les individus ayant vécu une première inondation et à 100 000$ pour les individus ayant vécu de multiples inondations. Ces résultats suggèrent que les coûts indirects et intangibles représentent une part importante des dommages découlant des inondations. Ce projet de recherche vise également à analyser l’application du PGIAF et son influence sur les stresseurs vécus par les sinistrés dans le contexte de la pandémie de COVID-19. La principale recommandation de cette étude repose sur une analyse de documents, un sondage populationnel et des entrevues semi-dirigées. Ainsi, s’attaquer à la réduction de principaux stresseurs nécessite 1) d’améliorer la gouvernance du risque d’inondation, 2) d’intensifier la communication et le support aux sinistrés, et 3) de revoir les mécanismes d’indemnisation existants.
-
L'ouvrage fait le point sur les développements de la méthode mise au point dans les années 1980 et présentée en détail pour la première fois en 1996. Il s'organise en deux grandes parties : la présentation de la méthode hydrogéomorphologique de détermination des zones inondables et les applications de cette méthode. La première partie justifie d'abord la nécessité de mettre au point et d'utiliser une nouvelle méthode face aux insuffisances des méthodes hydrologiques-hydrauliques utilisées en France (et très généralement dans le monde) pour la prévision et la prévention des risques d'inondation.Elle présente ensuite les principes de la méthode (chapitre II). C'est ainsi qu'elle consacre un long développement au rôle fondamental de la géomorphologie, tout particulièrement aux quatre lits qu'un cours d'eau peut occuper en fonction de son débit, lits déterminés par l'analyse de la microtopographie de la plaine alluviale fonctionnelle complétée par leur caractérisation sédimentologique. L'influence de la lithologie et de la tectonique est ensuite évoquée. Un deuxième sous-chapitre présente les critères complémentaires : la couverture végétale naturelle et l'occupation humaine au travers de la localisation des constructions, des vestiges historiques et archéologiques, de l'adaptation de l'activité agricole aux caractéristiques de la plaine alluviale et de la structure du parcellaire. Un troisième sous-chapitre regroupe les facteurs de variation : les grandes zones climatiques et les facteurs anthropiques (travaux et ouvrages hydrauliques, pratiques agricoles, imperméabilisation des sols due à l'urbanisation). Enfin, l'évolution au cours de la période historique des unités hydrogéomorphologiques principales, lit mineur et lit majeur, est présentée.Le court chapitre III met en relation l'hydrogéomorphologie et le fonctionnement hydraulique à l'échelle des unités hydrogéomorphologiques puis au niveau de la modélisation. La deuxième partie présente les trois principales applications de la méthode : la cartographie des zones inondables, la méthode intégrée et l'aménagement. La cartographie des zones inondables est actuellement la principale application, grâce à son intégration dans la politique de prévision et de prévention des risques d'inondation en France depuis 1995. Le chapitre qui lui est consacré s'articule en trois ensembles. Le premier est un rappel critique des moyens techniques d'acquisition des données : cartes, photographies aériennes, imagerie satellite en plein développement, données relatives aux crues historiques, observations de terrain. Le deuxième sous-chapitre détaille la cartographie des données sous la forme de la carte hydrogéomorphologique ou carte d'inondabilité hydrogéomorphologique en faisant l'historique et la critique de la légende proposée par le Ministère de l'Écologie français, puis en traitant plusieurs problèmes de cartographie : l'exhaussement du lit majeur, l'adoucissement du talus externe de la plaine alluviale fonctionnelle par le ruissellement diffus, le recouvrement du talus de la terrasse alluviale par le colluvionnement, la représentation du lit majeur exceptionnel et de la terrasse alluviale holocène, le cas spécifique des vallons secs. Enfin, les premières cartographies réalisées à l'étranger sont présentées. Un court dernier sous-chapitre traite de l'interprétation, qualitative et semi-quantitative, de la carte hydrogéomorphologique.La méthode intégrée, qui reste pour l'essentiel au stade expérimental, est présentée dans le chapitre II : d'abord ses origines, puis ses principes, puis ses premières applications prometteuses en France.Le chapitre III regroupe les potentialités, importantes mais peu exploitées, de la méthode hydrogéomorphologique pour l'aménagement des plaines alluviales, en insistant sur deux points : les conséquences de l'exhaussement des lits majeurs et le fonctionnement des cours d'eau pendant les crues exceptionnelles. La conclusion générale insiste sur l'efficacité de cette méthode, née de la problématique des risques naturels et hors du champ académique, ainsi que sur sa fécondité, en particulier la découverte de nouveaux objets géomorphologiques comme le lit majeur exceptionnel et de nouveaux concepts comme celui de débit hydrogéomorphologique.
-
L’estimation du débit en rivières est un paramètre clé pour la gestion des ressources hydriques, la prévention des risques liés aux inondations et la planification des équipements hydroélectriques. Lorsque le débit d’eau est très élevé lors d'évènements extrêmes, les méthodes de jaugeage traditionnelles ne peuvent pas être utilisées. De plus, les stations du réseau hydrométrique sont généralement éparses et leur répartition spatiale n’est pas optimale. Par conséquent, de nombreuses sections de rivières ne peuvent être suivies par des mesures et observations du débit. Pour ces raisons, pendant la dernière décennie, les capteurs satellitaires ont été considérés comme une source d’observation complémentaire aux observations traditionnelles du niveau d’eau et du débit en rivières. L’utilisation d’une telle approche a fourni un moyen de maintenir et d’étendre le réseau d'observation hydrométrique. L’approche avec télédétection permet d’estimer le débit à partir des courbes de tarage qui met en relation le débit instantané (Q) et la géométrie d’une section transversale du chenal (la largeur ou la profondeur effective de la surface d’eau). En revanche, cette méthode est associée à des limitations, notamment, sa dépendance aux courbes de tarage. En effet, en raison de leurs natures empiriques, les courbes de tarage sont limitées à des sections spécifiques et ne peuvent être appliquées dans d’autres rivières. Récemment, des techniques d’apprentissage profond ont été appliquées avec succès dans de nombreux domaines, y compris en hydrologie. Dans le présent travail, l’approche d’apprentissage profond a été choisie, en particulier les réseaux de neurones convolutifs (CNN), pour estimer le débit en rivière. L’objectif principal de ce travail est de développer une approche d’estimation du débit en rivières à partir de l’imagerie RADARSAT 1&2 à l’aide de l’apprentissage profond. La zone d’étude se trouve dans l’ecozone du bouclier boréal à l’Est du Canada. Au total, 39 sites hydrographiques ont fait l’objet de cette étude. Dans le présent travail, une nouvelle architecture de CNN a été a été proposée, elle s'adapte aux données utilisées et permet d’estimer le débit en rivière instantané. Ce modèle donne un résultat du coefficient de détermination (R²) et de Nash-Sutcliffe égale à 0.91, le résultat d’erreur quadratique moyenne égale à 33 m³ /s. Cela démontre que le modèle CNN donne une solution appropriée aux problèmes d’estimation du débit avec des capteurs satellites sans intervention humaine. <br /><br />Estimating river flow is a key parameter for effective water resources management, flood risk prevention and hydroelectric facilities planning. In cases of very high flow of water or extreme events, traditional gauging methods cannot be reliable. In addition, hydrometric network stations are often sparse and their spatial distribution is not optimal. Therefore, many river sections cannot be monitored using traditional flow measurements and observations. For these reasons, satellite sensors are considered as a complementary observation source to traditional water level and flow observations in the last decades. The use of this kind of approach has provided a way to maintain and expand the hydrometric observation network. Remote sensing data can be used to estimate flow from rating curves that relate the instantaneous flow (Q) to the geometry of a channel cross-section (the effective width or depth of the water surface). On the other hand, remote sensing is also associated with limitations, notably its dependence on the rating curves. Indeed, due to their empirical nature, rating curves are limited to specific sections and cannot be applied in other rivers. Recently, deep learning techniques have been successfully applied in many fields, including hydrology. In the present work, the deep learning approach has been chosen, in particular convolutional neural networks (CNN), to estimate river flow. The main objective of this work is to develop an approach to estimate river flow from RADARSAT 1&2 imagery using deep learning. In this study, 39 hydrographic sites of the Boreal Shield ecozone in Eastern Canada were considered. A new CNN architecture was developed to provide a straightforward estimation of the instantaneous river flow rate. The achieved results demonstrated a coefficient of determination (R²) and Nash-Sutcliffe values of 0.91, and a root mean square error of 33m³ /s. This indicates the effectiveness of CNN in automatic flow estimation with satellite sensors.
-
La température extrême de l’eau influence de nombreuses propriétés physiques, chimiques et biologiques des rivières. l ’ évaluation de l ’ Une prédiction précise de la température de l’eau est importante pour impact environnemental. Dans ce cadre, différents modèles ont été utilisés pour estimer les températures de l ’ linéaires simp eau à différentes échelles spatiales et temporelles, allant des méthodes les pour déterminer l’incertitude à des modèles sophistiqués non linéaires. Cependant, cette variable primordiale n’a pas été traitée dans un contexte probabiliste (ou fréquentiste). Donc, l’estimation des évènements extrêmes thermiques à l’aide des approc hes d’analyse fréquentielle locale (AFL) est importante. Lors de l’estimation des extrêmes thermiques, il est crucial de tenir compte de la forme de la distribution de fréquences considérée. Dans la première partie de la thèse , nous nous concentrons sur la sélection de la distribution de probabilité la plus appropriée des températures des rivières. Le critère d critère d ’ ’ information d ’ Akaike (AIC) et le information bayésien (BIC) sont utilisés pour évaluer la qualité de l distributions statis ’ ajustement des tiques. La validation des distributions candidates appropriées est également effectuée en utilisant l ’ approche de diagramme de rapport des L obtenus montrent que la distribution de Weibull (W2) moments (MRD). Les résultats est celle qui semble s’ajuster le données provenant des stations de haute altitude, tandis que les mieux aux séries d’extrêmes provenant des stations situées dans les régions de basse altitude sont bien adaptées avec la distribution normale (N). Ceci correspond au premier article. L a ’ couverture spatiale des données de température des cours d ’ eau est limitée dans de nombreuses régions du monde. Pour cette raison, une analyse fréquentielle régionale (AFR) permettant d estimer les extrêmes de température des rivières sur des sites non jau gés ou mal surveillés est nécessaire. En général, l’AFR inclut deux étapes principales, la délimitation des régions homogènes (DRH) qui vise à déterminer les sites similaires, et l’estimation régionale (ER) qui transfère l’information depuis les sites déte rminés dans la première étape vers le site cible. Par conséquent, le modèle d’indice thermique (IT) est introduit dans le contexte d’AFR pour estimer les extrêmes du régime thermique. Cette méthode est analogue au modèle d ’ indice de crue (IF) largement uti lisé en hydrologie. Le modèle IT incorpore l’homogénéité de la distribution de fréquence appropriée pour chaque région, ce qui offre une plus grande flexibilité. Dans cette étude, le modèle IT est comparé avec la régression linéaire multiple (MLR). Les rés ultats indiquent que le modèle IT fournit la meilleure performance (Article 2) . Ensuite, l’approche d’analyse canonique des corrélations non linéaires (ACCNL) est intégrée dans la DRH, présentée dans le Chapitre 4 de ce manuscrit (Article 3). Elle permet de considérer la complexité des phénomènes thermiques dans l’étape de DRH. Par la suite, dans le but d’identifier des combinaisons (DRH-ER) plus prometteuses permettant une meilleure estimation, une étude comparative est réalisée. Les combinaisons considérées au niveau des deux étapes de la procédure de l’AFR sont des combinaisons linéaires, semi-linéaires et non linéaires. Les résultats montrent que la meilleure performance globale est présentée par la combinaison non linéaire ACCNL et le modèle additif généralisé (GAM). Finalement, des modèles non paramétriques tels que le foret aléatoire (RF), le boosting de gradient extrême (XGBoost) et le modèle régression multivariée par spline adaptative (MARS) sont introduits dans le contexte de l’AFR pour estimer les quantiles thermiques et les comparer aux quantiles estimés à l’aide du modèle semi-paramétrique GAM. Ces modèles sont combinés avec des approches linéaires et non linéaires dans l’étape DRH, telles que ACC et ACCNL, afin de déterminer leur potentiel prédictif. Les résultats indiquent que ACCNL+GAM est la meilleure, suivie par ACC+MARS. Ceci correspond à l’article 4. <br /><br />Extreme water temperatures have a significant impact on the physical, chemical, and biological properties of the rivers. Environmental impact assessment requires accurate predictions of water temperature. The models used to estimate water temperatures within this framework range from simple linear methods to more complex nonlinear models. However, w ater temperature has not been studied in a probabilistic manner. It is, therefore, essential to estimate extreme thermal events using local frequency analysis (LFA). An LFA aims to predict the frequency and amplitude of these events at a given gauged locat ion. In order to estimate quantiles, it is essential to consider the shape of the frequency distribution being considered. The first part of our study focuses on selecting the most appropriate probability distribution for river water temperatures. The Akai ke information criteria (AIC) and the Bayesian information criteria (BIC) are used to evaluate the goodness of fit of statistical distributions. An Lmoment ratio diagram (MRD) approach is also used to validate sui table candidate distributions. The results good fit for extremes data from the highindicate that the Weibull distribution (W2) provides a altitude stations, while the normal distribution (N) is most appropriate for lowaltitude stations. This corresponds to the first article. In many parts of the world, river temperature data are limited in terms of spatial coverage and size of the series. Therefore, it is necessary to perform a regional frequency analysis (RFA) to estimate river temperature extremes at ungauged or poorly monitored sites. Generall y, RFA involves two main steps: delineation of homogenous regions (DHR), which identifies similar sites, and regional estimation (RE), which transfers information from the identified sites to the target site. The thermal index (TI) model is introduced in t he context of RFA to estimate the extremes of the thermal regime. This method is analogous to the index flood (IF) model commonly used in hydrology. The TI model considers the homogeneity of the appropriate frequency distributions for each region, which pr ovides larger flexibility. This study compares the TI model with multiple linear regression (MLR) approach. Results indicate that the TI model leads to better performances (Article 2). Then, the nonlinear canonical correlations analysis (NLCCA) approach is integrated into the DHR, as presented in Chapter 4 of this manuscript (Article 3). It allows considering the complexity of the thermal phenomena in the DHR step. A comparative study is then conducted to identify more promising combinations (DHR RE), that RFA procedure, linear, semilead to best estimation results. In the two stages of the linear, and nonlinear combinations are considered. The results of this study indicate that the nonlinear combination of the NLCCA and the generalized additive model (GAM ) produces the best overall performances. Finally, nonparametric models such as random forest (RF), extreme gradient boosting (XGBoost), and multivariate adaptive regression splines (MARS) are introduced in the context of RFA in order to estimate thermal q uantiles and compare them to quantiles estimated using the semiparametric GAM model. The predictive potential of these models is determined by combining them with linear and nonlinear approaches, such as CCA and NLCCA, in the DHR step. The results indicat e that NLCCA+GAM is the best, followed by CCA+MARS. This corresponds to article 4.
-
Les modèles hydrologiques traditionnels n’imposent pas la contrainte de conservation d’énergie à la surface. Lorsque soumis à des températures plus élevées, ils ont le potentiel de surestimer l’évapotranspiration. Le modèle de surface physique CLASS est couplé au modèle de routage RAPID, basé sur la méthode de Muskingum, pour former un modèle hydrologique plus robuste en contexte de réchauffement global. CLASS-RAPID est implanté sur le bassin versant du Haut-Montmorency (47.4°N, 71.1°O). CLASS est calibré et validé à l’aide d’observations hydrométéorologiques à la Forêt Montmorency ; RAPID est optimisé d’après les observations de débits de la Direction d’expertise hydrique du Québec. Des projections climatiques provenant des modèles CanESM2, CNRM-CM5, GFDL-ESM2M et MPI-ESM du Projet d’intercomparaison des modèles couplés et des scénarios climatiques RCP 4.5 et RCP 8.5 sont fournies en entrées à CLASS-RAPID afin de réaliser des simulations hydrologiques pour la période future de 2041 à 2070. Des projections climatiques provenant des mêmes modèles pour la période de référence de 1981 à 2005 sont également utilisées par CLASS-RAPID afin de générer une séquence de débits pouvant être comparée à celle de la période future. CLASS-RAPID obtient un score de NSE = 0, 66 au critère de performance de Nash-Sutcliffe. Le modèle reproduit fidèlement la séquence des évènements hydrologiques, mais sous-estime systématiquement les pointes de crue. Les simulations de CLASS-RAPID réalisées en condition de changements climatiques projettent que les crues printanières se produisent plusieurs dizaines de jours à l’avance pour la période future de 2041 à 2070 en comparaison à la période de référence. Pour les quatre modèles à l’étude, les simulations en condition de changements climatiques permettent de prévoir une diminution moyenne des débits d’étiage d’été de 40% pour le scénario climatique RCP 4.5 et de 50% pour le scénario climatique RCP 8.5. Pour les mêmes scénarios climatiques, l’Atlas hydroclimatique du Québec, qui repose sur une modélisation hydrologique traditionnelle, prévoit une diminution des débits de respectivement 37% et 45%.
-
Les changements climatiques sont un défi mondial imminent, dont les conséquences sont déjà observées. On sait que ces effets s’intensifieront, entraînant une augmentation de la fréquence et de la gravité des événements météorologiques extrêmes, une perturbation substantielle de la production alimentaire et le déplacement de dizaines de millions de personnes en raison de vagues de chaleur mortelles et de sécheresses. La question est donc : que peut-on y faire ? Dans cette thèse, nous faisons des changements climatiques notre objet central et explorons les voies par lesquelles la recherche en apprentissage profond peut contribuer à son atténuation. Un obstacle connu à des politiques climatiques ambitieuses est le manque de soutien et de demande populaires. Cela peut être attribué, en partie, aux causes et conséquences extrêmement complexes et imbriquées des changements climatiques. Une mauvaise conception courante est qu'ils affecteront principalement d’autres personnes que soi-même, des personnes éloignées dans le temps ou l’espace. Pour y remédier, la recherche a montré que présenter aux gens des \textit{images} authentiques, locales et pertinentes d'un concept les aide à mieux comprendre et appréhender ce qui est en jeu. Dans notre première contribution, nous explorons donc comment les récentes avancées en apprentissage profond pour la vision par ordinateur et les réseaux antagonistes génératifs peuvent être utilisées pour générer des images \textit{personnalisées} représentant les impacts du changement climatique. Notre objectif avec \textit{ClimateGAN} est de visualiser à quoi pourrait ressembler une inondation d’un mètre à n’importe quelle adresse, indépendamment de son risque réel d’inondation sous l’effet des changements climatiques. Cette approche vise à susciter l’empathie en rendant les impacts abstraits du changement climatique plus tangibles et personnalisés. En utilisant une image de Google Street View et en la traitant avec \textit{ClimateGAN}, nous générons des images d’inondation physiquement plausibles et visuellement réalistes basées sur l’adaptation de domaine à partir d’un environnement simulé, la prédiction de profondeur et la segmentation sémantique. Ce modèle a été déployé sur un site web dans le but de sensibiliser et d’engager l’action en faveur des changements climatiques. En plus d’aider les gens à mieux visualiser à quoi pourrait ressembler un avenir climatique hors de contrôle, nous étudions également dans cette thèse comment l’apprentissage profond peut améliorer les technologies existantes. Un domaine majeur de recherche dans cette direction est la recherche de nouveaux matériaux. Dans cette thèse, nous explorons plus particulièrement la prédiction des propriétés des matériaux comme moyen d’accélérer la découverte d'électro-catalyseurs, une famille de matériaux impliqués dans le stockage d’énergie à base d’hydrogène. Nous présentons deux contributions, \textit{PhAST} et \textit{FAENet}, qui se concentrent sur l’amélioration du compromis performance/scalabilité dans les réseaux de neurones géométriques de graphe (GNN). Avec \textit{PhAST}, nous introduisons un ensemble de méthodes pour adapter la procédure GNN classique--de la création du graphe d’entrée aux prédictions d’énergie et de forces de sortie--à la tâche spécifique de prédire l’énergie d’un système atomique adsorbant-catalyseur relaxé. Nous démontrons comment, en plus d’améliorer les performances, ces modifications améliorent l’efficacité et permettent un entraînement compétitif des GNN dans des environnements CPU. Dans \textit{FAENet}, nous présentons un nouveau GNN efficace pour les prédictions équivariantes E(3). En particulier, nous transposons la charge de l’équivarience sur la représentation des données afin de réduire les contraintes sur le modèle lui-même. Cette approche nous permet d’introduire une nouvelle architecture légère et expressive visant à faire des prédictions meilleures et plus rapides de diverses propriétés des matériaux. Enfin, nous examinons de manière critique notre propre domaine et discutons des impacts environnementaux associés aux technologies de l’IA. Nous nous penchons sur la façon dont les praticiens peuvent estimer leurs émissions de carbone, quelles mesures ils peuvent prendre aujourd’hui pour les réduire, et quelles autres étapes sont nécessaires pour des déclarations et responsabilités environnementales plus précises.
-
RÉSUMÉ : Pour atténuer les risques d'inondation au Québec mais aussi partout dans le monde, plusieurs organismes gouvernementaux et des organismes privés, qui ont dans leurs attributions la gestion des risques des catastrophes naturelles, continuent d'améliorer ou d'innover en matière d'outils qui peuvent les aider efficacement à la mitigation des risques d'inondation et aider la société à mieux s'adapter aux changements climatiques, ce qui implique des nouvelles technologies pour la conception de ces outils. Après les inondations de 2017, le ministère de l'Environnement et de la Lutte contre les changements climatiques (MELCC) du gouvernement du Québec, en collaboration avec d'autres ministères et organismes et soutenu par Ouranos, a initié le projet INFO-Crue qui vise d'une part, à revoir la cartographie des zones inondables et, d'autre part, à mieux outiller les communautés et les décideurs en leur fournissant une cartographie prévisionnelle des crues de rivières. De ce fait, l'objectif de notre travail de recherche est d'analyser de façon empirique les facteurs qui influencent l'adoption d'un outil prévisionnel des crues. La revue de la littérature couvre les inondations et les prévisions, les théories et les modèles d'acceptation de la technologie de l'information (TI). Pour atteindre l'objectif de recherche, le modèle développé s'est appuyé particulièrement sur le modèle qui combine les concepts de la théorie unifiée de l'acceptation et l'utilisation des technologies (UTAUT) de Venkatesh et al. (2003) avec le concept « risque d'utilisation ». Afin de répondre à notre objectif de recherche, nous avons utilisé une méthodologie de recherche quantitative hypothético-déductive. Une collecte de données à l'aide d'une enquête par questionnaire électronique a été réalisée auprès de 106 citoyens qui habitent dans des zones inondables. L'analyse des résultats concorde avec la littérature. La nouvelle variable « risque d'utilisation » rajoutée au modèle UTAUT a engendré trois variables qui sont : « risque psychologique d'utilisation »; « risque de performance de l'outil » et « perte de confiance ». Pour expliquer l'adoption d'un nouvel outil prévisionnel des crues, notre analyse a révélé que cinq variables à savoir : « l'utilité perçue », « la facilité d'utilisation », « l'influence sociale », « la perte de confiance » et « le risque psychologique » sont des facteurs significatifs pour l'adoption du nouvel outil prévisionnel. -- Mot(s) clé(s) en français : Inondation, Prévision, UTAUT, Adoption de la technologie, Risque perçu d'utilisation, facteurs d'adoption, Projet INFO-Crue. -- ABSTRACT : With the aim of mitigating flood risks in Canada as well as around the world, several government and private organizations that have the responsibility of natural hazard risk management, are working hard to improve or innovate the flood mitigation approaches that can help effectively reducing flood risks and helping people adapt to climate change. After the 2017 floods, the Ministry of the Environment and the Fight against Climate Change (MELCC) of the Government of Quebec, in collaboration with other ministries and organizations and supported by Ouranos, initiated the INFO-Crue project which aims at reviewing the mapping of flood zones and providing communities and decision-makers with a forecast mapping of river floods. In this context, the objective of our research is to analyze the factors that may influence the adoption of a flood forecasting tool. The literature review covers flood and forecasting, as well as technology adoption models. To achieve the goal of our research, a conceptual model that combines the Unified Theory of Acceptance and Use of Technology (UTAUT) of Venkatesh et al. (2003) with perceived use risk was developed. A quantitative research methodology was used, and we administrate an electronic questionnaire survey to 106 citizens who live in flood-plain area. Results analysis show that the new variable "perceived use risk" introduced in the model generates three variables which are: "psychological risk"; "performance risk" and "loss of trust". To explain the adoption of a new forecasting tool, our analysis revealed that the following five variables which are "perceived usefulness", "ease of use", "social influence", "loss of trust" and "psychological risk" are significant factors for the adoption of the new forecasting tool. -- Mot(s) clé(s) en anglais : Flood, Forecasting, UTAUT, Technology Adoption, perceived Risk of use, adoption factors, INFO-Crue project.
-
RÉSUMÉ: Les événements de submersion sont en augmentation sur les côtes du fleuve Saint-Laurent en raison des tempêtes, de la hausse du niveau marin et de la diminution de la glace de mer. À ce jour, le Québec ne possède pas de zonage de la submersion. Dans le cadre de cette thèse, une approche de cartographie de la submersion est développée en intégrant les vagues, les niveaux d'eau et la morphologie des plages de l'estuaire et du golfe du Saint-Laurent (EGSL). Deux types d'approches cartographiques ont été comparés : la simulation empirique qui projette un niveau total statique sur le territoire (niveau d'eau observé + effet des vagues sur la côte, le jet de rive ou runup), et le modèle numérique XBeach en mode surfbeat. Ces deux approches nécessitent une surface topo-bathymétrique précise et actualisée de la plage. Grâce au développement d'un réseau de suivi des plages par vidéo, nous évaluons dans un premier temps l'efficacité d'une méthode de topographie intertidale par vidéo par rapport à des levés LiDAR terrestres, et améliorons sa performance en intégrant les niveaux d'eau près de la plage au module d'élévation des lignes d'eau. Ce projet a permis la création de surfaces topographiques à précision centimétrique comparable au LiDAR et d'y extraire des paramètres morphologiques, comme la pente de la plage, nécessaire aux modèles empiriques de niveaux d'eau. La capacité des deux approches de cartographie à simuler la submersion du 6 décembre 2010 au Bas-Saint-Laurent a ensuite été analysée en comparant les surfaces inondées. La correspondance spatiale entre les simulations et les observations de submersion a été évaluée. Il en ressort que malgré la complexité du modèle XBeach et une légère surprédiction du modèle empirique (36%), les surfaces submergées obtenues par les deux approches sont similaires et correctement prédites à hauteur de 66-78%. Dans le cadre d'une troisième étude, XBeach a également été utilisé dans la baie des Chaleurs pour évaluer l'impact d'un événement extrême pour l'horizon 2100 sur l'aléa de submersion. Les simulations montrent que les débordements côtiers ont été engendrés par des vagues de relativement faible amplitude à la côte (Hs < 1 m) et que malgré des profondeurs d'eau avoisinant 1,2 m, des vitesses de courants élevées se sont produites dans les espaces urbanisés (U > 2 m/s). L'analyse de la cartographie de la submersion à Maria suggère qu'en 2100, l'impact de la hausse du niveau marin sur les communautés riveraines du Saint-Laurent pourrait provoquer des submersions plus vastes avec des profondeurs d'eau et vitesses de courants plus élevées, ce qui pourraient intensifier l'aléa auquel fait face la population. Même si les simulations numériques permettent de comprendre comment les phénomènes physiques engendrent la submersion, l'intérêt de la méthode statique réside dans sa rapidité d'application, mais son efficacité est fonction de la validité et l'applicabilité des modèles empiriques de runup utilisés. Ainsi, le dernier volet de la thèse porte sur le paramétrage d'un modèle empirique de runup adapté à l'EGSL. L'observation du runup (et de ses composantes moyenne et haute fréquence, le setup et le swash) par vidéo réalisée sur 5 plages couvre un large spectre de paramètres environnementaux et de types de côte sur une période de 3 ans. Des analyses de corrélation entre les niveaux d'eau à la côte et les caractéristiques de vagues au large et la pente de plage ont été réalisées. Les résultats montrent que l'influence des paramètres hydrodynamiques sur le runup, setup, et swash est paramétrée de façon similaire. Le rôle de la morphologie de la plage sur le setup est par ailleurs paramétré par une fonction inverse de la pente, alors que le swash est fonction de la racine carrée de la pente. Avec une erreur moyenne de 23 cm et un biais de 2 cm, l'équation de runup proposée offre un fort potentiel d'estimation des niveaux d'eau totaux sur les environnements côtiers diversifiés à fetch limité. Les résultats de la thèse montrent qu'il apparaît pertinent d'utiliser une approche statique p ur identifier les zones les plus vulnérables à la submersion, en autant que l'équation utilisée soit validée sur le type d'environnement en question. En combinant cette approche à des modélisations numériques en zones à forte concentration d'enjeux, il sera possible d'instaurer un premier zonage de la submersion au Québec. -- Mot(s) clé(s) en français : Cartographie de la submersion, Runup, Topographie par vidéo, Vagues infragravitaires, XBeach. -- ABSTRACT: Coastal flood events are increasing on the shores of the St. Lawrence River due to storms, rising sea levels and decreasing sea ice. To date, the province of Québec does not have a coastal flood mapping guideline. In this thesis, a coastal flood mapping approach is developed by integrating waves, water levels and beach morphology of the Estuary and Gulf of St. Lawrence (EGSL). Two types of cartographic approaches were compared: the empirical simulation that projects a static total level overland (observed water level + wave effect on the coast, known as wave runup), and the numerical model XBeach in surfbeat mode. These two approaches require a precise and updated topo-bathymetric surface of the beach. Through the development of a shore-based video monitoring network, we first evaluate the effectiveness of a video intertidal topography method against terrestrial LiDAR surveys, and improve its performance by integrating water levels near the beach as a proxy to beach contour elevetion. This project enabled the creation of centimeter-scale topographic surfaces comparable to LiDAR and the extraction of morphological parameters, such as the beach slope, necessary for empirical runup models. The ability of both mapping approaches to simulate the flood of December 6, 2010 in Bas-Saint-Laurent was analyzed by comparing flooded areas. Spatial correspondence between simulations and the observed flood extent was evaluated. Despite the complexity of XBeach and a slight over-prediction of the empirical model (36%), the flooded areas obtained by the two approaches are similar and correctly predicted by 66-78%. In a third study, XBeach was also used in the Chaleur Bay to assess the impact of an extreme event for the 2100 horizon on coastal flood hazards. The simulations show that the overland flow was generated by waves of relatively low amplitude at the coast (Hs <1 m) and that despite water depths close to 1.2 m, high current velocities occurred in the urbanized areas (U> 2 m/s). The analysis of the flood maps in Maria suggests that by 2100, the impact of sea level rise on coastal communities in the St. Lawrence could lead to larger flooded areas, with deeper water depths and higher flow velocity, intensifying the risk to the population. Although numerical simulations offer an understanding of the physical phenomena that cause coastal flooding, the interest of the static method lies in its convenience, but its effectiveness depends on the validity of the empirical runup models employed. Thus, the last part of the thesis deals with the parameterization of an empirical runup model in the EGSL. Video-based wave runup observations (and of its mean and high frequency components, setup and swash, respectively) on 5 beaches was carried out on a broad spectrum of environmental parameters and coast type over a period of 3 years. Correlation analyzes between coastal water levels (runup, setup, and swash) and offshore wave characteristics and beach slope were performed. The results show that the influence of the hydrodynamic parameters on wave runup, setup, and swash is similarly parameterized. The role of the morphology of the range on the setup is however parameterized by an inverse function of the slope, while the swash is a function of the square root of the slope. With an average error of 23 cm and a 2 cm bias, the original runup equation offers a high potential for estimating total water levels over diverse fetch-limited coastal environments. This thesis shows that it seems appropriate to use a static approach to identify the areas most vulnerable to coastal flooding, as long as the equation used is validated on the specific coastal environment. By combining this approach with numerical modeling in coastal hotspots with multiple issues at stake, it will be possible to introduce a first coasta flood zoning in the province of Québec. -- Mot(s) clé(s) en anglais : Coastal flooding, Runup, Video-derived topography, Infragravity waves, XBeach.
-
Les variabilités et changements climatiques et les incapacités pour faire face à leurs risques, à leurs effets et, plus précisément, à gérer les catastrophes hydrométéorologiques (inondation et sécheresse) qui les accompagnent, viennent en ajouter aux vulnérabilités et aux problèmes, qui sont déjà une préoccupation en Afrique Subsaharienne et au Bénin. Face à leurs manifestations de plus en plus récurrentes – la faiblesse des systèmes de financement local de la gestion des catastrophes et le déficit des systèmes de protection sociale, qui témoignent des limites des capacités de transfert des risques de catastrophe – cette étude a identifié la structure (gouvernance-ressources), comme le problème essentiel de la gestion des catastrophes au Bénin. Une étude synthétique, étude de cas multiples avec trois niveaux d’analyse imbriqués, dans une approche qualitative, a permis de mieux comprendre comment, dans un contexte de pauvreté, l’intégration de la micro assurance climatique, modifie la structure, le processus et le résultat de la gestion des catastrophes et assure la performance du système et la résilience des populations. Elle a documenté les différents aspects de la structure et des vulnérabilités des systèmes et des populations et a identifié l’absence d’intégration de la micro assurance climatique aux systèmes de gestion des catastrophes, comme un problème au coeur de la complexité des déterminants de la résilience, aussi confrontée à une autre complexité, celle de la diversité des interconnexions entre les différentes catégories de risques, qui place la santé au coeur de tous les risques. La nécessité d’une gestion holistique du risque global, ou d’une gestion tout risque, telle que retenue par le Cadre d’Action de Hyōgo et le Cadre d’Action de Sendai; et l’importance d’apporter une réponse en accord au contexte et à son profil de risques, qui prend l’option pour la "démocratisation" d’une micro assurance climatique, gouvernée sur la base de fondements idéologiques d’équité et d’efficience, cette recherche a préconisé – pour une gestion plus rationnelle, pertinente, efficace et efficiente des catastrophes – une intégration de trois systèmes : le système de la gestion des catastrophes; le système de protection sociale, y compris celui de la micro assurance climatique, et le système de la santé; tous reconnus outillés pour la gestion des risques. Elle a retenu, qu’une telle approche saurait aussi assurer une gestion efficace du changement qu’induirait l’intégration de la micro assurance climatique à la gestion des catastrophes; de ii même qu’une meilleure utilisation des outils et méthodes de sensibilisation, de prévention, de prévision et d’évaluation des risques et des dommages dont recèlent les pratiques en micro assurance climatique. Elle constate que la réussite de l’intégration de la MAC et son développement sont essentiellement plus déterminés par les acteurs et leurs intérêts, que par les ressources financières, même si elles sont aussi indispensables. Cette recherche préconise qu’à partir de choix de modèles et de modes d’intégration bien étudiés, son intégration ou sa prise en compte dans les différents programmes d’aide et de protection sociale mis en oeuvre au Bénin pourrait être, à travers les subventions de l’État, un moyen de mobilisation de fonds en faveur de son financement et de sa viabilité/durabilité. Ce financement pourra aussi s’appuyer sur les mécanismes traditionnels de financement de l’assurance, de la micro assurance, des changements climatiques et de la réduction des risques de catastrophe au Bénin, en Afrique et dans le monde. C’est pourquoi, en termes de gouvernance, ce travail soutien une restructuration avec une gestion entièrement centrée sur les communes, dans une approche des services de première ligne avec les réseaux de services ; en termes de ressources, il a aussi analysé les conditions et les possibilités de développement d’une micro assurance climatique, qui dépend avant tout de la qualité de la gestion des catastrophes (capacités à réduire les risques et limiter les pertes ou capacités à induire la résilience des systèmes et des populations). Cette approche puise dans les réalités et pratiques endogènes de gestion des catastrophes et surtout de protection sociale ou de transfert de risques ; elle s’inspire des bonnes pratiques d’ailleurs ; elle contribue à instaurer l’équité, comme principe de la gestion intégrée des catastrophes et, au-delà de la résilience, à susciter une convergence des efforts pour l’autonomisation de la structure et des populations, face aux manifestations catastrophiques des inondations et de la sécheresse. Cette recherche pense qu’il faut oser la micro assurance universelle pour la gestion des catastrophes hydrométéorologiques; qu’elle est réalisable ou faisable, même en contexte de pauvreté; et qu’il est aussi possible de combiner micro assurance climatique universelle et assurance médicale universelle, dans une dynamique qui mobilise des approches efficientes et les intérêts.
-
RÉSUMÉ : Bien que représentant la majorité des réseaux hydrographiques à l’échelle mondiale, les petits cours d’eau de tête sont souvent mis de côté dans les analyses abordant les impacts qu’auront les changements climatiques sur leur régime hydrologique. Pourtant, ils sont d’une importance capitale pour la qualité des eaux de surface et des habitats en plus de représenter la source principale de sédiments contribuant au dynamisme des rivières qu’ils alimentent. Ce mémoire vise à utiliser des données météorologiques actuelles et de projections climatiques pour mieux comprendre la réponse hydrologique des petits bassins versants nord gaspésiens lors d’événements hydrologiques d’importance (torrentialité, crue printanière). En développant un seuil intensité – durée de déclenchement d’aléas hydrogéomorphologiques adapté au nord de la Gaspésie et en calculant des tendances climatiques, il a été observé que les événements surpassant le seuil seraient de 2 à 3 fois plus fréquents en 2100 qu’en 2011 selon les scénarios RCP4.5 et RCP8.5. Les résultats de ces analyses ont initié une réflexion sur les impacts morphologiques potentiels à prendre en compte dans une optique de gestion et d’utilisation du territoire dans une région où les cours d’eau sont particulièrement dynamiques et sensibles au déclenchement d’aléas hydrogéomorphologiques. La hausse de la fréquence des événements surpassant le seuil, le comportement hydrologique du cours d’eau instrumenté lors d’événements de crue connus et documentés et le modèle conceptuel proposé mettent en relation les changements climatiques projetés, les impacts sur la réponse hydrologique et les ajustements morphologiques qui pourraient survenir à l’intérieur des petits cours d’eau, sur leurs cônes alluviaux et dans les rivières principales dans lesquelles ils se jettent. -- Mot(s) clé(s) en français : changements climatiques, hydrogéomorphologie, petits cours d’eau, pluies torrentielles, Gaspésie, aléas. -- ABSTRACT : Even though they represent over 70% of stream length in drainage networks at the global scale, small headwater streams are often sidelined when evaluating climate change impacts on the hydrological regime of rivers. Yet, they are of capital importance in maintaining surface water and habitat quality for ecological and resource management purposes. Furthermore, they represent the main source of sediments for downstream fluvial systems, being the main contributor to their dynamics. This thesis aims to use historical meteorological data and climate projections to better understand the hydrological response of small gaspesian headwater streams to important flood events. By developing a triggering intensity – duration rainfall threshold for hydrogeomorphological hazards adapted to the region and extracting trends from precipitation projections, it has been observed that the annual number of events surpassing the threshold would at least double in 2100 in comparison to 2011. Those results initiated a reflection on potential morphological adjustments to consider for land use and management in a region where rivers are particularly mobile and sensitive to the triggering of hydrogeomorphological hazards. The increase in the frequency of triggering rainfall, the hydrological behavior of the instrumented stream during known and documented flood events and the proposed conceptual model help explain potential climate change effects on the hydrological response and morphological adjustments that could happen inside headwater streams, on their alluvial fan and in the main rivers they feed. -- Mot(s) clé(s) en anglais : climate change, hydrogeomorphology, headwater streams, torrential rainfall, Gaspesie, natural hazards.
-
Les inondations présentent une grande menace à la sécurité humaine et matérielle. Les effets associés à ces phénomènes naturels risquent d'augmenter encore plus avec les tendances liées aux changements climatiques. Il est donc important de disposer d'outils de prévision et de prévention des crues fiables afin de mitiger les conséquences dévastatrices reliées. La mise en œuvre de ces outils implique des processus physiques assez complexes et nécessite beaucoup de données avec toute l'incertitude associée. Dans cette thèse, on explore les différentes sources d'incertitudes liée à la détermination des niveaux d'eau en rivières principalement dans un contexte de prévision où l'incertitude liée aux données de forçage est très importante. Les analyses conduites sont appliquées à la rivière Chaudière au Québec. En premier lieu, nous avons exploré les différentes sources paramétriques d'incertitude associées à la modélisation hydraulique dans un contexte de simulation avec un accent sur l'amélioration de la calibration du modèle hydraulique. Par la suite, dans un contexte de prévision opérationnel, on a évalué la propagation des sources d'incertitude de la prévision atmosphérique au modèle de rivière en passant par les prévisions hydrologiques avec des techniques probabilistes d'ensemble. La quantification de l'incertitude a montré que les données de forçage sont celles qui contribuent le plus à la description de l'incertitude dans la détermination des niveaux d'eau. L'incertitude paramétrique, dans un contexte de prévision, est quant à elle négligeable. Le recours à des prévisions d'ensemble a permis de produire une prévision de niveau d'eau assez fiable et a montré que celle-ci est fortement liée à la qualité des données qui proviennent de la chaine de prévision hydrométéorologique à l'amont du système de prévision proposé.
-
Dans le contexte du réchauffement planétaire, la relation de Clausius Clapeyron (CC) est utilisée comme un indicateur de l’évolution des précipitations extrêmes. Parmi les théories proposées, nous utilisons dans notre recherche une relation exponentielle qui fait le lien entre l’évolution des centiles les plus extrêmes des précipitations et le changement de la température ΔT dans le climat actuel. Selon cette théorie, les précipitations augmentent au même rythme que la capacité de rétention d'humidité dans l’atmosphère, expliquée par la relation de CC, avec un taux de changement d'environ 7 % par degré Celsius pour des valeurs de température et de pression près de la surface. Ainsi, le présent travail vise à vérifier l’existence de liens physiquement plausibles dans la relation entre les précipitations extrêmes et la température de l’air pour la région du Bassin Versant de la Rivière des Outaouais (BVRO) sur la période 1981-2010, à l’aide des simulations du Modèle Régional Canadien du Climat (MRCC) (versions 5 et 6), développé au centre ESCER, et de deux produits de réanalyses du Centre Européen pour les prévisions météorologiques à moyen terme (CEPMMT) à différentes résolutions spatiales. En général, les précipitations quotidiennes suivent un taux de changement inférieur à celui de CC ; tandis que les précipitations horaires augmentent plus rapidement avec la température. Dans ce dernier cas, pour la simulation du MRCC5 à plus haute résolution spatiale, des taux de changement supérieurs à CC ont même été produits, jusqu’à 10,2 %/°C. Ce travail a également mis en évidence qu’au-delà du seuil de 20°C, la capacité de rétention d'humidité de l’atmosphère n’est pas le seul facteur déterminant pour générer des précipitations extrêmes, et que d’autres facteurs sont à considérer, comme la disponibilité de l'humidité au moment de l'événement de précipitation et la présence de mécanismes dynamiques qui favorisent les mouvements verticaux ascendants. Un comportement sous forme de crochet, qui décrit une augmentation des précipitations jusqu'à un seuil de température, est observé dans la saison estivale avec le MRCC5, mais il a disparu avec les simulations du MRCC6, ce qui pourrait être une conséquence d’avoir seulement une année de simulation disponible ou bien d’une conséquence de la très haute résolution du modèle sur les intervalles de température et sur les effets locaux. En conclusion, l'applicabilité de la relation de CC ne doit pas être généralisée quant à l’étude des précipitations extrêmes, il est également important de considérer l'échelle temporelle, la résolution du modèle utilisé et la saison de l'année. L’évolution de cette relation de CC devrait être évaluée avec des simulations à très haute résolution spatiale (version en développement au centre ESCER), et pour d’autres zones climatiques, sachant que les intervalles de températures et les effets locaux exercent un rôle majeur sur les occurrences et les intensités des fortes précipitations. Ces éléments sont essentiels à intégrer dans le contexte des changements climatiques, en raison des conséquences associées aux fortes précipitations, notamment sur l’occurrence des inondations. _____________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Clausius-Clapeyron, évènements extrêmes, aléas météorologiques, risques d’inondation, changements climatiques
-
L’objectif de cette recherche est d’identifier les stratégies d’adaptation qui sont requises et du ressort d’une municipalité régionale de comté face aux inondations. Le réchauffement global des températures soulève plusieurs inquiétudes quant à la modification du cycle hydrologique. Les inondations figurent en tête de liste des enjeux de sécurité civile des municipalités riveraines. Au Québec, on prévoit une augmentation des précipitations printanières, automnales et hivernales, ainsi que des débits hivernaux plus élevés et un devancement des crues printanières. Des projections qui peuvent influencer l’approche de gestion des barrages, bien que le contrôle des niveaux d’eau ne soit pas une panacée vis-à-vis des inondations. Il suppose une gestion intégrée de l’eau parfois complexe. Aussi, les administrations locales ne siègent pas toujours aux comités responsables de la régularisation des cours d’eau. Celles-ci se retrouvent sur la ligne de front sans pour autant avoir le pouvoir et les ressources financières pour y faire face. Les crues exceptionnelles de 2017 et 2019 ont conduit la Municipalité régionale de comté de Vaudreuil-Soulanges à mettre à jour ses plans d’urgence et à mettre en place une cellule de crise. Elle applique une stratégie d’adaptation correspondant aux 4 axes du Plan de protection du territoire face aux inondations du ministère des Affaires municipales et de l’Habitation. Ces outils enrichissent leur capacité d’adaptation par l’acquisition de nouvelles connaissances et d’une nouvelle cartographie des zones inondables. Les vulnérabilités qui résultent de contraintes liées à l’aménagement du territoire, ainsi que d’enjeux réglementaires posent un défi pour le développement du territoire et la relocalisation de résidences inondées. Il convient de sonder la population sur sa vision de la résilience afin d’assurer une meilleure acceptabilité sociale des décisions à venir. Une vulnérabilité importante réside dans les écarts de perception du risque entre les municipalités et entre les individus ; ce qui engendre des enjeux de sécurité, de communication et de gouvernance. Les instances locales peuvent miser sur leurs habiletés de mobilisation pour réunir la communauté autour du développement d’un plan d’adaptation aux changements climatiques et ainsi harmoniser les perceptions. Finalement, l’épuisement des ressources humaines des municipalités inondées à répétition est à considérer. Il appert qu’il est essentiel d’identifier et de mettre en place les outils et ressources pour les soutenir.