UQAM logo
Page d'accueil de l'UQAM Étudier à l'UQAM Bottin du personnel Carte du campus Bibliothèques Pour nous joindre

Service des bibliothèques

Veille bibliographique sur les inondations
UQAM logo
Veille bibliographique sur les inondations
  • Bibliography
  1. Vitrine des bibliographies
  2. Veille bibliographique sur les inondations
  3. Résultats
Veille bibliographique sur les inondationsVeille bibliographique sur les inondations
  • Bibliography

Votre recherche

Réinitialiser la recherche

Aide

L’interface de recherche est composée de trois sections : Rechercher, Explorer et Résultats. Celles-ci sont décrites en détail ci-dessous.

Vous pouvez lancer une recherche aussi bien à partir de la section Rechercher qu’à partir de la section Explorer.

Rechercher

Cette section affiche vos critères de recherche courants et vous permet de soumettre des mots-clés à chercher dans la bibliographie.

  • Chaque nouvelle soumission ajoute les mots-clés saisis à la liste des critères de recherche.
  • Pour lancer une nouvelle recherche plutôt qu’ajouter des mots-clés à la recherche courante, utilisez le bouton Réinitialiser la recherche, puis entrez vos mots-clés.
  • Pour remplacer un mot-clé déjà soumis, veuillez d’abord le retirer en décochant sa case à cocher, puis soumettre un nouveau mot-clé.
  • Vous pouvez contrôler la portée de votre recherche en choisissant où chercher. Les options sont :
    • Partout : repère vos mots-clés dans tous les champs des références bibliographiques ainsi que dans le contenu textuel des documents disponibles.
    • Dans les auteurs ou contributeurs : repère vos mots-clés dans les noms d’auteurs ou de contributeurs.
    • Dans les titres : repère vos mots-clés dans les titres.
    • Dans les années de publication : repère vos mots-clés dans le champ d’année de publication (vous pouvez utiliser l’opérateur OU avec vos mots-clés pour trouver des références ayant différentes années de publication. Par exemple, 2020 OU 2021).
    • Dans tous les champs : repère vos mots-clés dans tous les champs des notices bibliographiques.
    • Dans les documents : repère vos mots-clés dans le contenu textuel des documents disponibles.
  • Vous pouvez utiliser les opérateurs booléens avec vos mots-clés :
    • ET : repère les références qui contiennent tous les termes fournis. Ceci est la relation par défaut entre les termes séparés d’un espace. Par exemple, a b est équivalent à a ET b.
    • OU : repère les références qui contiennent n’importe lequel des termes fournis. Par exemple, a OU b.
    • SAUF : exclut les références qui contiennent le terme fourni. Par exemple, SAUF a.
    • Les opérateurs booléens doivent être saisis en MAJUSCULES.
  • Vous pouvez faire des groupements logiques (avec les parenthèses) pour éviter les ambiguïtés lors de la combinaison de plusieurs opérateurs booléens. Par exemple, (a OU b) ET c.
  • Vous pouvez demander une séquence exacte de mots (avec les guillemets droits), par exemple "a b c". Par défaut la différence entre les positions des mots est de 1, ce qui signifie qu’une référence sera repérée si elle contient les mots et qu’ils sont consécutifs. Une distance maximale différente peut être fournie (avec le tilde), par exemple "a b"~2 permet jusqu’à un terme entre a et b, ce qui signifie que la séquence a c b pourrait être repérée aussi bien que a b.
  • Vous pouvez préciser que certains termes sont plus importants que d’autres (avec l’accent circonflexe). Par exemple, a^2 b c^0.5 indique que a est deux fois plus important que b dans le calcul de pertinence des résultats, tandis que c est de moitié moins important. Ce type de facteur peut être appliqué à un groupement logique, par exemple (a b)^3 c.
  • La recherche par mots-clés est insensible à la casse et les accents et la ponctuation sont ignorés.
  • Les terminaisons des mots sont amputées pour la plupart des champs, tels le titre, le résumé et les notes. L’amputation des terminaisons vous évite d’avoir à prévoir toutes les formes possibles d’un mot dans vos recherches. Ainsi, les termes municipal, municipale et municipaux, par exemple, donneront tous le même résultat. L’amputation des terminaisons n’est pas appliquée au texte des champs de noms, tels auteurs/contributeurs, éditeur, publication.

Explorer

Cette section vous permet d’explorer les catégories associées aux références.

  • Les catégories peuvent servir à affiner votre recherche. Cochez une catégorie pour l’ajouter à vos critères de recherche. Les résultats seront alors restreints aux références qui sont associées à cette catégorie.
  • Dé-cochez une catégorie pour la retirer de vos critères de recherche et élargir votre recherche.
  • Les nombres affichés à côté des catégories indiquent combien de références sont associées à chaque catégorie considérant les résultats de recherche courants. Ces nombres varieront en fonction de vos critères de recherche, de manière à toujours décrire le jeu de résultats courant. De même, des catégories et des facettes entières pourront disparaître lorsque les résultats de recherche ne contiennent aucune référence leur étant associées.
  • Une icône de flèche () apparaissant à côté d’une catégorie indique que des sous-catégories sont disponibles. Vous pouvez appuyer sur l’icône pour faire afficher la liste de ces catégories plus spécifiques. Par la suite, vous pouvez appuyer à nouveau pour masquer la liste. L’action d’afficher ou de masquer les sous-catégories ne modifie pas vos critères de recherche; ceci vous permet de rapidement explorer l’arborescence des catégories, si désiré.

Résultats

Cette section présente les résultats de recherche. Si aucun critère de recherche n’a été fourni, elle montre toute la bibliographie (jusqu’à 20 références par page).

  • Chaque référence de la liste des résultats est un hyperlien vers sa notice bibliographique complète. À partir de la notice, vous pouvez continuer à explorer les résultats de recherche en naviguant vers les notices précédentes ou suivantes de vos résultats de recherche, ou encore retourner à la liste des résultats.
  • Des hyperliens supplémentaires, tels que Consulter le document ou Consulter sur [nom d’un site web], peuvent apparaître sous un résultat de recherche. Ces liens vous fournissent un accès rapide à la ressource, des liens que vous trouverez également dans la notice bibliographique.
  • Le bouton Résumés vous permet d’activer ou de désactiver l’affichage des résumés dans la liste des résultats de recherche. Toutefois, activer l’affichage des résumés n’aura aucun effet sur les résultats pour lesquels aucun résumé n’est disponible.
  • Diverses options sont fournies pour permettre de contrôler l’ordonnancement les résultats de recherche. L’une d’elles est l’option de tri par Pertinence, qui classe les résultats du plus pertinent au moins pertinent. Le score utilisé à cette fin prend en compte la fréquence des mots ainsi que les champs dans lesquels ils apparaissent. Par exemple, si un terme recherché apparaît fréquemment dans une référence ou est l’un d’un très petit nombre de termes utilisé dans cette référence, cette référence aura probablement un score plus élevé qu’une autre où le terme apparaît moins fréquemment ou qui contient un très grand nombre de mots. De même, le score sera plus élevé si un terme est rare dans l’ensemble de la bibliographie que s’il est très commun. De plus, si un terme de recherche apparaît par exemple dans le titre d’une référence, le score de cette référence sera plus élevé que s’il apparaissait dans un champ moins important tel le résumé.
  • Le tri par Pertinence n’est disponible qu’après avoir soumis des mots-clés par le biais de la section Rechercher.
  • Les catégories sélectionnées dans la section Explorer n’ont aucun effet sur le tri par pertinence. Elles ne font que filtrer la liste des résultats.
Type de ressource
  • Thèse
Année de publication
  • Entre 2000 et 2025
    • Entre 2020 et 2025
      • 2020

Résultats 5 ressources

Recently addedDate décroissanteDate croissanteAuteur A-ZAuteur Z-ATitre A-ZTitre Z-A
Résumés
  • Talbot-Lanciault, A. (2020). Modélisation hydrologique CLASS-RAPID sous changement climatique sur le bassin versant du Haut-Montmorency. https://hdl.handle.net/20.500.11794/66429

    Les modèles hydrologiques traditionnels n’imposent pas la contrainte de conservation d’énergie à la surface. Lorsque soumis à des températures plus élevées, ils ont le potentiel de surestimer l’évapotranspiration. Le modèle de surface physique CLASS est couplé au modèle de routage RAPID, basé sur la méthode de Muskingum, pour former un modèle hydrologique plus robuste en contexte de réchauffement global. CLASS-RAPID est implanté sur le bassin versant du Haut-Montmorency (47.4°N, 71.1°O). CLASS est calibré et validé à l’aide d’observations hydrométéorologiques à la Forêt Montmorency ; RAPID est optimisé d’après les observations de débits de la Direction d’expertise hydrique du Québec. Des projections climatiques provenant des modèles CanESM2, CNRM-CM5, GFDL-ESM2M et MPI-ESM du Projet d’intercomparaison des modèles couplés et des scénarios climatiques RCP 4.5 et RCP 8.5 sont fournies en entrées à CLASS-RAPID afin de réaliser des simulations hydrologiques pour la période future de 2041 à 2070. Des projections climatiques provenant des mêmes modèles pour la période de référence de 1981 à 2005 sont également utilisées par CLASS-RAPID afin de générer une séquence de débits pouvant être comparée à celle de la période future. CLASS-RAPID obtient un score de NSE = 0, 66 au critère de performance de Nash-Sutcliffe. Le modèle reproduit fidèlement la séquence des évènements hydrologiques, mais sous-estime systématiquement les pointes de crue. Les simulations de CLASS-RAPID réalisées en condition de changements climatiques projettent que les crues printanières se produisent plusieurs dizaines de jours à l’avance pour la période future de 2041 à 2070 en comparaison à la période de référence. Pour les quatre modèles à l’étude, les simulations en condition de changements climatiques permettent de prévoir une diminution moyenne des débits d’étiage d’été de 40% pour le scénario climatique RCP 4.5 et de 50% pour le scénario climatique RCP 8.5. Pour les mêmes scénarios climatiques, l’Atlas hydroclimatique du Québec, qui repose sur une modélisation hydrologique traditionnelle, prévoit une diminution des débits de respectivement 37% et 45%.

    Consulter sur hdl.handle.net
  • Sohrabi Molla Yousef, S. (2020). Using a stochastic weather generator to account for climate non-stationarity in extended streamflow forecasts [Phd, École de technologie supérieure]. https://espace.etsmtl.ca/id/eprint/2644/

    Reliable long-term streamflow forecast is essential in water resources management and plays a key role in reservoir management and hydropower generation. Properly framing the uncertainty is the key issue in providing a reliable long-term streamflow forecast, and probabilistic forecasts have been used to this effect. In a probabilistic approach, each observed historical data is taken as a possible realization of the future. Non stationarity of hydrometeorological variables, either due to the climate internal variability or anthropogenic change, is another important problem for long-term streamflow forecasts as it is becoming increasingly clearer that past historical data may not adequately represent the current climate. Therefore, there is a need to develop flexible approaches taking into account non-stationarity for long-term streamflow forecasts. Resampling past historical time series is the main approach used for probabilistic long term streamflow forecasts. However, non-stationarity is a key issue of resampling approaches. One possible approach is to make use of a stochastic weather generator coupled to a hydrological model to generate long-term probabilistic streamflow forecasts. Weather generators can easily be modified to account for climatic trends and therefore have the potential to take non-stationarity into account. However, before weather generators can be modified to account for climate non-stationarity, it is first necessary to evaluate whether the modeling chain consisting of a stochastic weather generator and a hydrological model can generate probabilistic streamflow forecasts with a performance similar to that of more traditional resampling approaches. The first objective of this study is therefore, to compare the performance of a stochastic weather generator against that of resampling historical meteorological time series in order to produce ensemble streamflow forecasts. Results indicate that while there are differences between both methods, they nevertheless largely both perform similarly, thus showing that weather generators can be used as substitutes to resampling the historical past. Based on these results, two approaches for taking non-stationarity into account have been proposed. Both approaches are based on a climate-based perturbation of the stochastic weather generator parameters. The first approach explored a simple perturbation method in which the entire length of the historical record is used to quantify internal variability, while a subset of recent years is used to characterize mean climatic values for precipitation, minimum and maximum temperatures. Results show that the approach systematically improves long-term streamflow forecasts accuracy, and that results are dependent on the time window used to estimate current mean climatic estimates. The second approach conditioned the parameters of a stochastic weather generator on largescale climate indices. In this approach, the most important climate indices are identified by looking at yearly correlations between a set of 40 indices and precipitation and temperature. A linear model is then constructed to identify precipitation and temperature anomalies which are then used to induce perturbations in the stochastic weather generator. Five different time windows are defined to determine the optimal linear model. Results show that temperatures are significantly correlated with large-scale climate indices, whereas precipitation is only weakly related to the same indices. The length of the time window has a considerable impact on the prediction ability of the linear models. The precipitation models based on short-duration time windows performed better than those based on longer windows, while the reverse was found for the temperature models. Results show that the proposed method improves long-term streamflow forecasting, particularly around the spring flood.

    Consulter sur espace.etsmtl.ca
  • Jacquier, P. (2020). Deep learning methods for high-dimensional fluid dynamics problems : application to flood modeling with uncertainty quantification [Masters, École de technologie supérieure]. https://espace.etsmtl.ca/id/eprint/2533/

    While impressive results have been achieved in the well-known fields where Deep Learning allowed for breakthroughs such as computer vision, its impact on different older areas is still vastly unexplored. In Computational Fluid Dynamics and especially in Flood Modeling, many phenomena are very high-dimensional, and predictions require the use of numerical simulations, which can be, while very robust and tested, computationally heavy and may not prove useful in the context of real-time predictions. This issue led to various attempts at developing Reduced-Order Modeling techniques, both intrusive and non-intrusive. One recent relevant addition is a combination of Proper Orthogonal Decomposition with Deep Neural Networks (POD-NN). Yet, to our knowledge, little has been performed in implementing uncertainty-aware regression tools in the example of the POD-NN framework. In this work, we aim at comparing different novel methods addressing uncertainty quantification in Neural Networks, pushing forward the POD-NN concept with Deep Ensembles and Bayesian Neural Networks, which we first test on benchmark problems, and then apply to a real-life application: flooding predictions in the Mille-Iles river in Laval, QC, Canada. Building a non-intrusive surrogate model, able to know when it doesn’t know, is still an open research area as far as neural networks are concerned.

    Consulter sur espace.etsmtl.ca
  • Didier, D. (2020). Développement et analyse d’une méthode de cartographie de la submersion côtière dans l’estuaire et le golfe du Saint-Laurent, Qc [Phd, Université du Québec à Rimouski]. https://semaphore.uqar.ca/id/eprint/1840/

    RÉSUMÉ: Les événements de submersion sont en augmentation sur les côtes du fleuve Saint-Laurent en raison des tempêtes, de la hausse du niveau marin et de la diminution de la glace de mer. À ce jour, le Québec ne possède pas de zonage de la submersion. Dans le cadre de cette thèse, une approche de cartographie de la submersion est développée en intégrant les vagues, les niveaux d'eau et la morphologie des plages de l'estuaire et du golfe du Saint-Laurent (EGSL). Deux types d'approches cartographiques ont été comparés : la simulation empirique qui projette un niveau total statique sur le territoire (niveau d'eau observé + effet des vagues sur la côte, le jet de rive ou runup), et le modèle numérique XBeach en mode surfbeat. Ces deux approches nécessitent une surface topo-bathymétrique précise et actualisée de la plage. Grâce au développement d'un réseau de suivi des plages par vidéo, nous évaluons dans un premier temps l'efficacité d'une méthode de topographie intertidale par vidéo par rapport à des levés LiDAR terrestres, et améliorons sa performance en intégrant les niveaux d'eau près de la plage au module d'élévation des lignes d'eau. Ce projet a permis la création de surfaces topographiques à précision centimétrique comparable au LiDAR et d'y extraire des paramètres morphologiques, comme la pente de la plage, nécessaire aux modèles empiriques de niveaux d'eau. La capacité des deux approches de cartographie à simuler la submersion du 6 décembre 2010 au Bas-Saint-Laurent a ensuite été analysée en comparant les surfaces inondées. La correspondance spatiale entre les simulations et les observations de submersion a été évaluée. Il en ressort que malgré la complexité du modèle XBeach et une légère surprédiction du modèle empirique (36%), les surfaces submergées obtenues par les deux approches sont similaires et correctement prédites à hauteur de 66-78%. Dans le cadre d'une troisième étude, XBeach a également été utilisé dans la baie des Chaleurs pour évaluer l'impact d'un événement extrême pour l'horizon 2100 sur l'aléa de submersion. Les simulations montrent que les débordements côtiers ont été engendrés par des vagues de relativement faible amplitude à la côte (Hs < 1 m) et que malgré des profondeurs d'eau avoisinant 1,2 m, des vitesses de courants élevées se sont produites dans les espaces urbanisés (U > 2 m/s). L'analyse de la cartographie de la submersion à Maria suggère qu'en 2100, l'impact de la hausse du niveau marin sur les communautés riveraines du Saint-Laurent pourrait provoquer des submersions plus vastes avec des profondeurs d'eau et vitesses de courants plus élevées, ce qui pourraient intensifier l'aléa auquel fait face la population. Même si les simulations numériques permettent de comprendre comment les phénomènes physiques engendrent la submersion, l'intérêt de la méthode statique réside dans sa rapidité d'application, mais son efficacité est fonction de la validité et l'applicabilité des modèles empiriques de runup utilisés. Ainsi, le dernier volet de la thèse porte sur le paramétrage d'un modèle empirique de runup adapté à l'EGSL. L'observation du runup (et de ses composantes moyenne et haute fréquence, le setup et le swash) par vidéo réalisée sur 5 plages couvre un large spectre de paramètres environnementaux et de types de côte sur une période de 3 ans. Des analyses de corrélation entre les niveaux d'eau à la côte et les caractéristiques de vagues au large et la pente de plage ont été réalisées. Les résultats montrent que l'influence des paramètres hydrodynamiques sur le runup, setup, et swash est paramétrée de façon similaire. Le rôle de la morphologie de la plage sur le setup est par ailleurs paramétré par une fonction inverse de la pente, alors que le swash est fonction de la racine carrée de la pente. Avec une erreur moyenne de 23 cm et un biais de 2 cm, l'équation de runup proposée offre un fort potentiel d'estimation des niveaux d'eau totaux sur les environnements côtiers diversifiés à fetch limité. Les résultats de la thèse montrent qu'il apparaît pertinent d'utiliser une approche statique p ur identifier les zones les plus vulnérables à la submersion, en autant que l'équation utilisée soit validée sur le type d'environnement en question. En combinant cette approche à des modélisations numériques en zones à forte concentration d'enjeux, il sera possible d'instaurer un premier zonage de la submersion au Québec. -- Mot(s) clé(s) en français : Cartographie de la submersion, Runup, Topographie par vidéo, Vagues infragravitaires, XBeach. -- ABSTRACT: Coastal flood events are increasing on the shores of the St. Lawrence River due to storms, rising sea levels and decreasing sea ice. To date, the province of Québec does not have a coastal flood mapping guideline. In this thesis, a coastal flood mapping approach is developed by integrating waves, water levels and beach morphology of the Estuary and Gulf of St. Lawrence (EGSL). Two types of cartographic approaches were compared: the empirical simulation that projects a static total level overland (observed water level + wave effect on the coast, known as wave runup), and the numerical model XBeach in surfbeat mode. These two approaches require a precise and updated topo-bathymetric surface of the beach. Through the development of a shore-based video monitoring network, we first evaluate the effectiveness of a video intertidal topography method against terrestrial LiDAR surveys, and improve its performance by integrating water levels near the beach as a proxy to beach contour elevetion. This project enabled the creation of centimeter-scale topographic surfaces comparable to LiDAR and the extraction of morphological parameters, such as the beach slope, necessary for empirical runup models. The ability of both mapping approaches to simulate the flood of December 6, 2010 in Bas-Saint-Laurent was analyzed by comparing flooded areas. Spatial correspondence between simulations and the observed flood extent was evaluated. Despite the complexity of XBeach and a slight over-prediction of the empirical model (36%), the flooded areas obtained by the two approaches are similar and correctly predicted by 66-78%. In a third study, XBeach was also used in the Chaleur Bay to assess the impact of an extreme event for the 2100 horizon on coastal flood hazards. The simulations show that the overland flow was generated by waves of relatively low amplitude at the coast (Hs <1 m) and that despite water depths close to 1.2 m, high current velocities occurred in the urbanized areas (U> 2 m/s). The analysis of the flood maps in Maria suggests that by 2100, the impact of sea level rise on coastal communities in the St. Lawrence could lead to larger flooded areas, with deeper water depths and higher flow velocity, intensifying the risk to the population. Although numerical simulations offer an understanding of the physical phenomena that cause coastal flooding, the interest of the static method lies in its convenience, but its effectiveness depends on the validity of the empirical runup models employed. Thus, the last part of the thesis deals with the parameterization of an empirical runup model in the EGSL. Video-based wave runup observations (and of its mean and high frequency components, setup and swash, respectively) on 5 beaches was carried out on a broad spectrum of environmental parameters and coast type over a period of 3 years. Correlation analyzes between coastal water levels (runup, setup, and swash) and offshore wave characteristics and beach slope were performed. The results show that the influence of the hydrodynamic parameters on wave runup, setup, and swash is similarly parameterized. The role of the morphology of the range on the setup is however parameterized by an inverse function of the slope, while the swash is a function of the square root of the slope. With an average error of 23 cm and a 2 cm bias, the original runup equation offers a high potential for estimating total water levels over diverse fetch-limited coastal environments. This thesis shows that it seems appropriate to use a static approach to identify the areas most vulnerable to coastal flooding, as long as the equation used is validated on the specific coastal environment. By combining this approach with numerical modeling in coastal hotspots with multiple issues at stake, it will be possible to introduce a first coasta flood zoning in the province of Québec. -- Mot(s) clé(s) en anglais : Coastal flooding, Runup, Video-derived topography, Infragravity waves, XBeach.

    Consulter sur semaphore.uqar.ca
  • Abdelhalim, M. (2020). Estimating flood impact on residential values (housing price) : the case of Laval (Canada), 1995-2007. https://hdl.handle.net/20.500.11794/66335

    Cette thèse vise à améliorer notre compréhension du modèle hédonique et de son application sur les données des biens immobiliers afin d'étudier l'impact d'un événement / externalité / environnementale liée à la présence d'inondation sur la valeur des propriétés résidentielles. Étant donné que les données immobilières sont réparties dans l'espace et dans le temps, des "corrections" temporelles et spatiales sont nécessaires dans le processus de modélisation économétrique. La recherche prend appui sur l’équation de prix hédonique. L’analyse empirique recours également à l’estimateur de type différence de différences spatio-temporelles (STDID) afin d’étudier l’effet d’une inondation survenue en 1998 sur le prix des résidences dans la ville de Laval au Canada entre 1995-2007. Les résultats suggèrent que l’utilisation des informations sur les zones inondables dans le but d’évaluer l’impact des inondations sur les valeurs résidentielles n’est pas une approche nécessairement appropriée. Les conclusions suggèrent que la grande hétérogénéité des résultats notés dans la littérature n’est probablement pas étrangère à la façon de définir les résidences touchées par les inondations. Cela signifie que les recherches empiriques sur les effets des inondations sur la valeur immobilière mesurent en réalité la valeur liée à la perception du risque d'inondation et non l’effet réel de l'inondation. Les résultats suggèrent que les applications futures dans la littérature devront porter une attention particulière à la manière de définir les zones inondables et d’identifier les résidences réellement touchées.

    Consulter sur hdl.handle.net
RIS

Format recommandé pour la plupart des logiciels de gestion de références bibliographiques

BibTeX

Format recommandé pour les logiciels spécialement conçus pour BibTeX

Flux web personnalisé
Dernière mise à jour depuis la base de données : 2025-06-16 06 h 56 (UTC)

Explorer

Type de ressource

  • Thèse

Année de publication

  • Entre 2000 et 2025
    • Entre 2020 et 2025
      • 2020

Langue de la ressource

  • Anglais (3)
  • Français (2)

Explorer

UQAM - Université du Québec à Montréal

  • Veille bibliographique sur les inondations
  • bibliotheques@uqam.ca

Accessibilité Web