Votre recherche
Résultats 41 ressources
-
Climate change has a significant influence on streamflow variation. The aim of this study is to quantify different sources of uncertainties in future streamflow projections due to climate change. For this purpose, 4 global climate models, 3 greenhouse gas emission scenarios (representative concentration pathways), 6 downscaling models, and a hydrologic model (UBCWM) are used. The assessment work is conducted for 2 different future time periods (2036 to 2065 and 2066 to 2095). Generalized extreme value distribution is used for the analysis of the flow frequency. Strathcona dam in the Campbell River basin, British Columbia, Canada, is used as a case study. The results show that the downscaling models contribute the highest amount of uncertainty to future streamflow predictions when compared to the contributions by global climate models or representative concentration pathways. It is also observed that the summer flows into Strathcona dam will decrease, and winter flows will increase in both future time periods. In addition to these, the flow magnitude becomes more uncertain for higher return periods in the Campbell River system under climate change.
-
The Canadian Sea Ice and Snow Evolution (CanSISE) Network is a climate research network focused on developing and applying state of the art observational data to advance dynamical prediction, projections, and understanding of seasonal snow cover and sea ice in Canada and the circumpolar Arctic. Here, we present an assessment from the CanSISE Network on trends in the historical record of snow cover (fraction, water equivalent) and sea ice (area, concentration, type, and thickness) across Canada. We also assess projected changes in snow cover and sea ice likely to occur by mid-century, as simulated by the Coupled Model Intercomparison Project Phase 5 (CMIP5) suite of Earth system models. The historical datasets show that the fraction of Canadian land and marine areas covered by snow and ice is decreasing over time, with seasonal and regional variability in the trends consistent with regional differences in surface temperature trends. In particular, summer sea ice cover has decreased significantly across nearly all Canadian marine regions, and the rate of multi-year ice loss in the Beaufort Sea and Canadian Arctic Archipelago has nearly doubled over the last 8 years. The multi-model consensus over the 2020–2050 period shows reductions in fall and spring snow cover fraction and sea ice concentration of 5–10% per decade (or 15–30% in total), with similar reductions in winter sea ice concentration in both Hudson Bay and eastern Canadian waters. Peak pre-melt terrestrial snow water equivalent reductions of up to 10% per decade (30% in total) are projected across southern Canada.
-
The Penman-Monteith reference evapotranspiration (ET0) formulation was forced with humidity, radiation, and wind speed (HRW) fields simulated by four reanalyses in order to simulate hydrologic processes over six mid-sized nivo-pluvial watersheds in southern Quebec, Canada. The resulting simulated hydrologic response is comparable to an empirical ET0 formulation based exclusively on air temperature. However, Penman-Montheith provides a sounder representation of the existing relations between evapotranspiration fluctuations and climate drivers. Correcting HRW fields significantly improves the hydrologic bias over the pluvial period (June to November). The latter did not translate into an increase of the hydrologic performance according to the Kling-Gupta Efficiency (KGE) metric. The suggested approach allows for the implementation of physically-based ET0 formulations where HRW observations are insufficient for the calibration and validation of hydrologic models and a potential reinforcement of the confidence affecting the projection of low flow regimes and water availability.
-
Abstract In water resources applications (e.g., streamflow, rainfall‐runoff, urban water demand [UWD], etc.), ensemble member selection and ensemble member weighting are two difficult yet important tasks in the development of ensemble forecasting systems. We propose and test a stochastic data‐driven ensemble forecasting framework that uses archived deterministic forecasts as input and results in probabilistic water resources forecasts. In addition to input data and (ensemble) model output uncertainty, the proposed approach integrates both ensemble member selection and weighting uncertainties, using input variable selection and data‐driven methods, respectively. Therefore, it does not require one to perform ensemble member selection and weighting separately. We applied the proposed forecasting framework to a previous real‐world case study in Montreal, Canada, to forecast daily UWD at multiple lead times. Using wavelet‐based forecasts as input data, we develop the Ensemble Wavelet‐Stochastic Data‐Driven Forecasting Framework, the first multiwavelet ensemble stochastic forecasting framework that produces probabilistic forecasts. For the considered case study, several variants of Ensemble Wavelet‐Stochastic Data‐Driven Forecasting Framework, produced using different input variable selection methods (partial correlation input selection and Edgeworth Approximations‐based conditional mutual information) and data‐driven models (multiple linear regression, extreme learning machines, and second‐order Volterra series models), are shown to outperform wavelet‐ and nonwavelet‐based benchmarks, especially during a heat wave (first time studied in the UWD forecasting literature). , Key Points A stochastic data‐driven ensemble framework is introduced for probabilistic water resources forecasting Ensemble member selection and weighting uncertainties are explicitly considered alongside input data and model output uncertainties Wavelet‐based model outputs are used as input to the framework for an urban water demand forecasting study outperforming benchmark methods
-
Abstract Groundwater quality modelling plays an important role in water resources management decision making processes. Accordingly, models must be developed to account for the uncertainty inherent in the modelling process, from the sample measurement stage through to the data interpretation stages. Artificial intelligence models, particularly fuzzy inference systems (FIS), have been shown to be effective in groundwater quality evaluation for complex aquifers. In the current study, fuzzy set theory is applied to groundwater-quality related decision-making in an agricultural production context; the Mamdani, Sugeno, and Larsen fuzzy logic-based models (MFL, SFL, and LFL, respectively) are used to develop a series of new, generalized, rule-based fuzzy models for water quality evaluation using widely accepted irrigation indices and hydrological data from the Sarab Plain, Iran. Rather than drawing upon physiochemical groundwater quality parameters, the present research employs widely accepted agricultural indices (e.g., irrigation criteria) when developing the MFL, SFL and LFL groundwater quality models. These newly-developed models, generated significantly more consistent results than the United States Soil Laboratory (USSL) diagram, addressed the inherent uncertainty in threshold data, and were effective in assessing groundwater quality for agricultural uses. The SFL model is recommended as it outperforms both MFL and LFL in terms of accuracy when assessing groundwater quality using irrigation indices.
-
AbstractIn this time of a changing climate, it is important to know whether lake levels will rise, potentially causing flooding, or river flows will dry up during abnormally dry weather. The Great Lakes region is the largest freshwater lake system in the world. Moreover, agriculture, industry, commerce, and shipping are active in this densely populated region. Environment and Climate Change Canada (ECCC) recently implemented the Water Cycle Prediction System (WCPS) over the Great Lakes and St. Lawrence River watershed (WCPS-GLS version 1.0) following a decade of research and development. WCPS, a network of linked models, simulates the complete water cycle, following water as it moves from the atmosphere to the surface, through the river network and into lakes, and back to the atmosphere. Information concerning the water cycle is passed between the models. WCPS is the first short-to-medium-range prediction system of the complete water cycle to be run on an operational basis anywhere. It currently produces ...
-
AbstractThe Canadian Land Data Assimilation System (CaLDAS) has been developed at the Meteorological Research Division of Environment Canada (EC) to better represent the land surface initial states in environmental prediction and assimilation systems. CaLDAS is built around an external land surface modeling system and uses the ensemble Kalman filter (EnKF) methodology. A unique feature of CaLDAS is the use of improved precipitation forcing through the assimilation of precipitation observations. An ensemble of precipitation analyses is generated by combining numerical weather prediction (NWP) model precipitation forecasts with precipitation observations. Spatial phasing errors to the NWP first-guess precipitation forecasts are more effective than perturbations to the precipitation observations in decreasing (increasing) the exceedance ratio (uncertainty ratio) scores and generating flatter, more reliable ranked histograms. CaLDAS has been configured to assimilate L-band microwave brightness temperature TB ...
-
Abstract This paper focuses on evaluating the uncertainty of three common regionalization methods for predicting continuous streamflow in ungauged basins. A set of 268 basins covering 1.6 million km 2 in the province of Quebec was used to test the regionalization strategies. The multiple linear regression, spatial proximity, and physical similarity approaches were evaluated on the catchments using a leave‐one‐out cross‐validation scheme. The lumped conceptual HSAMI hydrological model was used throughout the study. A bootstrapping method was chosen to further estimate uncertainty due to parameter set selection for each of the parameter set/regionalization method pairs. Results show that parameter set selection can play an important role in regionalization method performance depending on the regionalization methods (and their variants) used and that equifinality does not contribute significantly to the overall uncertainty witnessed throughout the regionalization methods applications. Regression methods fail to consistently assign behavioral parameter sets to the pseudoungauged basins (i.e., the ones left out). Spatial proximity and physical similarity score better, the latter being the best. It is also shown that combining either physical similarity or spatial proximity with the multiple linear regression method can lead to an even more successful prediction rate. However, even the best methods were shown to be unreliable to an extent, as successful prediction rates never surpass 75%. Finally, this paper shows that the selection of catchment descriptors is crucial to the regionalization strategies' performance and that for the HSAMI model, the optimal number of donor catchments for transferred parameter sets lies between four and seven. , Key Points Uncertainty can be limited in regionalization Physical similarity method is best, followed by spatial proximity Regression‐augmented methods can yield better performance
-
AbstractA new land surface scheme has been developed at Environment and Climate Change Canada (ECCC) to provide surface fluxes of momentum, heat, and moisture for the Global Environmental Multiscale (GEM) atmospheric model. In this study, the performance of the Soil, Vegetation, and Snow (SVS) scheme in estimating the surface and root-zone soil moisture is evaluated against the Interactions between Soil, Biosphere, and Atmosphere (ISBA) scheme currently used operationally at ECCC within GEM for numerical weather prediction. In addition, the sensitivity of SVS soil moisture results to soil texture and vegetation data sources (type and fractional coverage) has been explored. The performance of SVS and ISBA was assessed against a large set of in situ observations as well as the brightness temperature data from the Soil Moisture Ocean Salinity (SMOS) satellite over North America. The results indicate that SVS estimates the time evolution of soil moisture more accurately, and compared to ISBA, results in highe...
-
L'ouvrage fait le point sur les développements de la méthode mise au point dans les années 1980 et présentée en détail pour la première fois en 1996. Il s'organise en deux grandes parties : la présentation de la méthode hydrogéomorphologique de détermination des zones inondables et les applications de cette méthode. La première partie justifie d'abord la nécessité de mettre au point et d'utiliser une nouvelle méthode face aux insuffisances des méthodes hydrologiques-hydrauliques utilisées en France (et très généralement dans le monde) pour la prévision et la prévention des risques d'inondation.Elle présente ensuite les principes de la méthode (chapitre II). C'est ainsi qu'elle consacre un long développement au rôle fondamental de la géomorphologie, tout particulièrement aux quatre lits qu'un cours d'eau peut occuper en fonction de son débit, lits déterminés par l'analyse de la microtopographie de la plaine alluviale fonctionnelle complétée par leur caractérisation sédimentologique. L'influence de la lithologie et de la tectonique est ensuite évoquée. Un deuxième sous-chapitre présente les critères complémentaires : la couverture végétale naturelle et l'occupation humaine au travers de la localisation des constructions, des vestiges historiques et archéologiques, de l'adaptation de l'activité agricole aux caractéristiques de la plaine alluviale et de la structure du parcellaire. Un troisième sous-chapitre regroupe les facteurs de variation : les grandes zones climatiques et les facteurs anthropiques (travaux et ouvrages hydrauliques, pratiques agricoles, imperméabilisation des sols due à l'urbanisation). Enfin, l'évolution au cours de la période historique des unités hydrogéomorphologiques principales, lit mineur et lit majeur, est présentée.Le court chapitre III met en relation l'hydrogéomorphologie et le fonctionnement hydraulique à l'échelle des unités hydrogéomorphologiques puis au niveau de la modélisation. La deuxième partie présente les trois principales applications de la méthode : la cartographie des zones inondables, la méthode intégrée et l'aménagement. La cartographie des zones inondables est actuellement la principale application, grâce à son intégration dans la politique de prévision et de prévention des risques d'inondation en France depuis 1995. Le chapitre qui lui est consacré s'articule en trois ensembles. Le premier est un rappel critique des moyens techniques d'acquisition des données : cartes, photographies aériennes, imagerie satellite en plein développement, données relatives aux crues historiques, observations de terrain. Le deuxième sous-chapitre détaille la cartographie des données sous la forme de la carte hydrogéomorphologique ou carte d'inondabilité hydrogéomorphologique en faisant l'historique et la critique de la légende proposée par le Ministère de l'Écologie français, puis en traitant plusieurs problèmes de cartographie : l'exhaussement du lit majeur, l'adoucissement du talus externe de la plaine alluviale fonctionnelle par le ruissellement diffus, le recouvrement du talus de la terrasse alluviale par le colluvionnement, la représentation du lit majeur exceptionnel et de la terrasse alluviale holocène, le cas spécifique des vallons secs. Enfin, les premières cartographies réalisées à l'étranger sont présentées. Un court dernier sous-chapitre traite de l'interprétation, qualitative et semi-quantitative, de la carte hydrogéomorphologique.La méthode intégrée, qui reste pour l'essentiel au stade expérimental, est présentée dans le chapitre II : d'abord ses origines, puis ses principes, puis ses premières applications prometteuses en France.Le chapitre III regroupe les potentialités, importantes mais peu exploitées, de la méthode hydrogéomorphologique pour l'aménagement des plaines alluviales, en insistant sur deux points : les conséquences de l'exhaussement des lits majeurs et le fonctionnement des cours d'eau pendant les crues exceptionnelles. La conclusion générale insiste sur l'efficacité de cette méthode, née de la problématique des risques naturels et hors du champ académique, ainsi que sur sa fécondité, en particulier la découverte de nouveaux objets géomorphologiques comme le lit majeur exceptionnel et de nouveaux concepts comme celui de débit hydrogéomorphologique.
-
Les variabilités et changements climatiques et les incapacités pour faire face à leurs risques, à leurs effets et, plus précisément, à gérer les catastrophes hydrométéorologiques (inondation et sécheresse) qui les accompagnent, viennent en ajouter aux vulnérabilités et aux problèmes, qui sont déjà une préoccupation en Afrique Subsaharienne et au Bénin. Face à leurs manifestations de plus en plus récurrentes – la faiblesse des systèmes de financement local de la gestion des catastrophes et le déficit des systèmes de protection sociale, qui témoignent des limites des capacités de transfert des risques de catastrophe – cette étude a identifié la structure (gouvernance-ressources), comme le problème essentiel de la gestion des catastrophes au Bénin. Une étude synthétique, étude de cas multiples avec trois niveaux d’analyse imbriqués, dans une approche qualitative, a permis de mieux comprendre comment, dans un contexte de pauvreté, l’intégration de la micro assurance climatique, modifie la structure, le processus et le résultat de la gestion des catastrophes et assure la performance du système et la résilience des populations. Elle a documenté les différents aspects de la structure et des vulnérabilités des systèmes et des populations et a identifié l’absence d’intégration de la micro assurance climatique aux systèmes de gestion des catastrophes, comme un problème au coeur de la complexité des déterminants de la résilience, aussi confrontée à une autre complexité, celle de la diversité des interconnexions entre les différentes catégories de risques, qui place la santé au coeur de tous les risques. La nécessité d’une gestion holistique du risque global, ou d’une gestion tout risque, telle que retenue par le Cadre d’Action de Hyōgo et le Cadre d’Action de Sendai; et l’importance d’apporter une réponse en accord au contexte et à son profil de risques, qui prend l’option pour la "démocratisation" d’une micro assurance climatique, gouvernée sur la base de fondements idéologiques d’équité et d’efficience, cette recherche a préconisé – pour une gestion plus rationnelle, pertinente, efficace et efficiente des catastrophes – une intégration de trois systèmes : le système de la gestion des catastrophes; le système de protection sociale, y compris celui de la micro assurance climatique, et le système de la santé; tous reconnus outillés pour la gestion des risques. Elle a retenu, qu’une telle approche saurait aussi assurer une gestion efficace du changement qu’induirait l’intégration de la micro assurance climatique à la gestion des catastrophes; de ii même qu’une meilleure utilisation des outils et méthodes de sensibilisation, de prévention, de prévision et d’évaluation des risques et des dommages dont recèlent les pratiques en micro assurance climatique. Elle constate que la réussite de l’intégration de la MAC et son développement sont essentiellement plus déterminés par les acteurs et leurs intérêts, que par les ressources financières, même si elles sont aussi indispensables. Cette recherche préconise qu’à partir de choix de modèles et de modes d’intégration bien étudiés, son intégration ou sa prise en compte dans les différents programmes d’aide et de protection sociale mis en oeuvre au Bénin pourrait être, à travers les subventions de l’État, un moyen de mobilisation de fonds en faveur de son financement et de sa viabilité/durabilité. Ce financement pourra aussi s’appuyer sur les mécanismes traditionnels de financement de l’assurance, de la micro assurance, des changements climatiques et de la réduction des risques de catastrophe au Bénin, en Afrique et dans le monde. C’est pourquoi, en termes de gouvernance, ce travail soutien une restructuration avec une gestion entièrement centrée sur les communes, dans une approche des services de première ligne avec les réseaux de services ; en termes de ressources, il a aussi analysé les conditions et les possibilités de développement d’une micro assurance climatique, qui dépend avant tout de la qualité de la gestion des catastrophes (capacités à réduire les risques et limiter les pertes ou capacités à induire la résilience des systèmes et des populations). Cette approche puise dans les réalités et pratiques endogènes de gestion des catastrophes et surtout de protection sociale ou de transfert de risques ; elle s’inspire des bonnes pratiques d’ailleurs ; elle contribue à instaurer l’équité, comme principe de la gestion intégrée des catastrophes et, au-delà de la résilience, à susciter une convergence des efforts pour l’autonomisation de la structure et des populations, face aux manifestations catastrophiques des inondations et de la sécheresse. Cette recherche pense qu’il faut oser la micro assurance universelle pour la gestion des catastrophes hydrométéorologiques; qu’elle est réalisable ou faisable, même en contexte de pauvreté; et qu’il est aussi possible de combiner micro assurance climatique universelle et assurance médicale universelle, dans une dynamique qui mobilise des approches efficientes et les intérêts.
-
Evaluating the historical contribution of the volume loss of ice to stream flow based on reconstructed volume changes through the Little Ice Age (LIA) can be directly related to the understanding of glacier-hydrology in the current epoch of rapid glacier loss that has disquieting implications for a water resource in the Cordillera Blanca in the Peruvian Andes. However, the accurate prediction of the future glacial meltwater availability for the developing regional Andean society needs more extensive quantitative estimation from long-term glacial meltwater of reconstructed glacial volume. Modeling the LIA paleoglaciers through the mid-19th century (with the most extensive recent period of mountain glacier expansion having occurred around 1850 AD) in different catchments of the Cordillera Blanca allows us to reconstruct glacier volume and its change from likely combinations of climatic control variables and time. We computed the rate and magnitude of centennial-scale glacier volume changes for glacier surfaces between the LIA and the modern era, as defined by 2011 Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER) Global Digital Elevation Model Version 2 (GDEM V2) and 2008 Light Detection and Range (LiDAR) data. The model simulation showed good agreement with the observed geomorphic data and the volume and surface area (V-S) scaling remained within the 25% error range in the reconstructed simulation. Also, we employed a recently demonstrated approach (Baraër, M. et al.) to calculate meltwater contribution to glacierized catchment runoff. The results revealed multiple peaks of both mean annual and dry season discharge that have never been shown in previous research on the same mountain range.
-
The slide of granular material in nature and engineering can happen under air (subaerial), under a liquidlike water (submerged), or a transition between these two regimes, where a subaerial slide enters a liquid and becomes submerged. Here, we experimentally investigate these three slide regimes (i.e., subaerial, submerged, and transitional) in two dimensions, for various slope angles, material types, and bed roughness. The goal is to shed light on the complex morphodynamics and flow structure of these granular flows and also to provide comprehensive benchmarks for the validation and parametrization of the numerical models. The slide regime is found to be a major controller of the granular morphodynamics (e.g., shape evolution and internal flow structure). The time history of the runout distance for the subaerial and submerged cases present a similar three-phase trend (with acceleration, steady flow, and deceleration phases) tough with different spatiotemporal scales. Compared to the subaerial cases, the submerged cases show longer runout time and shorter final runout distances. The transitional trends, however, show additional deceleration and reacceleration. The observations suggest that the impact of slide angle, material type, and bed roughness on the morphodynamics is less significant where the material interacts with water. Flow structure, extracted using a granular particle image velocimetry technique, shows a relatively power-law velocity profile for the subaerial condition and strong circulations for the submerged condition. An unsteady theoretical model based on the µ(I) rheology is developed and is shown to be effective in the prediction of the average velocity of the granular mass.
-
Summary Probable maximum snow accumulation (PMSA) is one of the key variables used to estimate the spring probable maximum flood (PMF). A robust methodology for evaluating the PMSA is imperative so the ensuing spring PMF is a reasonable estimation. This is of particular importance in times of climate change (CC) since it is known that solid precipitation in Nordic landscapes will in all likelihood change over the next century. In this paper, a PMSA methodology based on simulated data from regional climate models is developed. Moisture maximization represents the core concept of the proposed methodology; precipitable water being the key variable. Results of stationarity tests indicate that CC will affect the monthly maximum precipitable water and, thus, the ensuing ratio to maximize important snowfall events. Therefore, a non-stationary approach is used to describe the monthly maximum precipitable water. Outputs from three simulations produced by the Canadian Regional Climate Model were used to give first estimates of potential PMSA changes for southern Quebec, Canada. A sensitivity analysis of the computed PMSA was performed with respect to the number of time-steps used (so-called snowstorm duration) and the threshold for a snowstorm to be maximized or not. The developed methodology is robust and a powerful tool to estimate the relative change of the PMSA. Absolute results are in the same order of magnitude as those obtained with the traditional method and observed data; but are also found to depend strongly on the climate projection used and show spatial variability.
-
Les printemps 2017 et 2019 auront frappé l’imaginaire collectif en raison de l’ampleur des crues ayant touché de nombreuses rivières du Québec et des dommages qui leur sont associés. En 2019, près de 6700 résidences localisées dans 51 municipalités et distribuées dans presque toutes les principales régions du Québec ont été inondées, sans compter les nombreuses autres résidences qui se sont retrouvées isolées en raison de routes submergées et de glissements de terrain. Le bilan en 2017 était similaire, avec 5371 maisons inondées dans 261 municipalités et 4066 personnes évacuées. Les débits dans plusieurs rivières ont excédé les valeurs mesurées depuis que les stations de jaugeage ont été installées. À titre d’exemple, en 2019, le débit journalier dans la rivière Rouge à la hauteur du Barrage de la Chute-Bell, où Hydro-Québec a craint pour la stabilité de l’ouvrage, a atteint 975 m3/s, la plus forte valeur jamais enregistrée depuis 1964. Une analyse statistique révèle qu’un tel débit a une chance d’être dépassé en moyenne une fois tous les 175 ans. Il s’agit d’un événement exceptionnel. Pourtant, un autre événement extrême se produisait au même endroit en 1998, cette fois-ci avec un débit maximal journalier de 914 m3/s. Deux crues printanières majeures en 20 ans : est-ce la conséquence des changements climatiques ? Cet article propose une genèse des événements hydrologiques extrêmes, puis présente des projections climatiques aux horizons 2050 et 2080 pour différentes rivières au Sud et au Nord du fleuve Saint-Laurent. Puis, est exposée la démarche générale employée pour caractériser le régime hydrologique des bassins versants en climat futur.
-
Soil moisture is often considered a direct way of quantifying agricultural drought since it is a measure of the availability of water to support crop growth. Measurements of soil moisture at regional scales have traditionally been sparse, but advances in land surface modelling and the development of satellite technology to indirectly measure surface soil moisture has led to the emergence of a number of national and global soil moisture data sets that can provide insight into the dynamics of agricultural drought. Droughts are often defined by normal conditions for a given time and place; as a result, data sets used to quantify drought need a representative baseline of conditions in order to accurately establish a normal. This presents a challenge when working with earth observation data sets which often have very short baselines for a single instrument. This study assessed three soil moisture data sets: a surface satellite soil moisture data set from the Soil Moisture and Ocean Salinity (SMOS) mission operating since 2010; a blended surface satellite soil moisture data set from the European Space Agency Climate Change Initiative (ESA-CCI) that has a long history and a surface and root zone soil moisture data set from the Canadian Meteorology Centre (CMC)’s Regional Deterministic Prediction System (RDPS). An iterative chi-squared statistical routine was used to evaluate each data set’s sensitivity to canola yields in Saskatchewan, Canada. The surface soil moisture from all three data sets showed a similar temporal trend related to crop yields, showing a negative impact on canola yields when soil moisture exceeded a threshold in May and June. The strength and timing of this relationship varied with the accuracy and statistical properties of the data set, with the SMOS data set showing the strongest relationship (peak X2 = 170 for Day of Year 145), followed by the ESA-CCI (peak X2 = 89 on Day of Year 129) and then the RDPS (peak X2 = 65 on Day of Year 129). Using short baseline soil moisture data sets can produce consistent results compared to using a longer data set, but the characteristics of the years used for the baseline are important. Soil moisture baselines of 18–20 years or more are needed to reliably estimate the relationship between high soil moisture and high yielding years. For the relationship between low soil moisture and low yielding years, a shorter baseline can be used, with reliable results obtained when 10–15 years of data are available, but with reasonably consistent results obtained with as few as 7 years of data. This suggests that the negative impacts of drought on agriculture may be reliably estimated with a relatively short baseline of data.