Date post: | 06-Feb-2023 |
Category: |
Documents |
Upload: | khangminh22 |
View: | 0 times |
Download: | 0 times |
1
Chapitre 14 – ANALYSE STATISTIQUE DES FLUX
14.1 Concepts et objectifs des modèles probabilistes
14.2 Les outils de la description statistique en hydrologie
14.2.1 Lois de probabilité des débits moyens annuels et mensuels
14.2.2 Analyse des structures des séries chronologiques en hydrologie
14.2.3 Les structures spatiales de phénomènes hydrologiques
14.3 Les modèles stochastiques des processus hydrologiques unidimensionnels
14.3.1 Les modèles à chronologie fixée
14.3.2 Les modélisations à seuil de débit fixé
14.4 Les modèles stochastiques des processus hydrologiques multidimensionnels
14.4.1 La modélisation des processus conjoints à 2 sites
14.4.2 Les modèles multisites
14.5 La description statistique des crues
14.5.1 Les méthodes des débits maximaux annuels
14.5.2 Les méthodes de dépassement de seuils
14.5.3 Les méthodes hydrométéorologiques
14.5.4 Portée et limites des méthodes d’estimation statistiques des crues
Bibliographie
14.1 Introduction : concepts et objectifs des modèles probabilistes
L'hydrologie est une science d'observation des phénomènes naturels; elles se fondent
essentiellement sur 1'interprétation des séries d'observation portant sur les phénomènes
mesurables ou non, qui caractérisent le cycle de l'eau dans la nature. Ce sont notamment les
mesures de précipitations, d'infiltration, de ruissellement, d'évaporation et de débits des cours
d'eau qui fournissent 1'information de base de l'hydrologie. On conçoit donc que cette science
soit tributaire des méthodes statistiques de traitement de séries chronologiques et des
échantillons de données numériques.
Le calcul des probabilités fournit alors des modèles adéquats pour la description des
processus hydrologiques. Ce n'est pas que les phénomènes en jeu soient régis par le hasard.
Le débit d'une rivière est sous la dépendance de facteurs divers parfaitement déterminés les
uns fixes, comme l'étendue, 1a forme, la déclivité du bassin versant, la nature du sous-sol, le
profil en long et en travers du lit, les autres variables, comme la végétation, les stocks en eau
et en neige, les précipitations, la température, le vent, le degré hygrométrique de l'air etc.,,
Une telle énumération n'est certes pas exhaustive. Ainsi ces facteurs sont en si grand nombre
et leurs interactions si complexes qu'il semble vain d'espérer en connaître le mécanisme
détaillé quels que soient l'importance de 1'information et le nombre d'observations recueillies.
Les résultats, c'est-à-dire les processus de débit apparaissent alors comme des réalisations de
processus aléatoires.
2
D'un point de vue opérationnel, il ne s’agit pas de savoir si les phénomènes
hydrologiques sont de nature intrinsèquement aléatoire ou déterministe, ce qui est un
problème d'ordre philosophique, il s'agit de faire des prévisions en probabilité sur des
phénomènes dont on ne peut appréhender directement le mécanisme. C'est E. Halphen (1945)
qui, à propos de ses travaux en hydrologie pouvait affirmer "Les probabilités sont des mesures
de 1'ignorance humain et la statistique est ce qui tient lieu de science aux ignorants que nous
sommes".
·Dans la suite de ce chapitre nous traiterons uniquement des flux d'écoulement c'est-à-
dire des séries chronologiques de débits des rivières. L'analyse statistique des précipitations
est exposée dans le chapitre 3.
Les données hydrologiques, matériau de base de toute analyse statistique des débits
d'un cours d'eau observés à un station donnée contrôlant un bassin versant donné, représentent
généralement sous la forme de séquences x1, x2, …, xi, …, xn de n observations d'une
grandeur hydrologique X bien définie. Selon l'échelle de temps à laquelle on se place, la
définition de la variable X peut être adaptée à la description du comportement du cours d'eau
en crue, en étiage ou en apports moyens. Ainsi pourra-t-on distinguer :
a) A l'échelle journalière : le débit moyen journalier ou le débit instantané observé à heure
fixe;
b) A l'échelle mensuelle : les débits moyens mensuels, chaque mois pouvant donner lieu ou
non à la définition d'une variable X spécifique. Dans le premier cas les xi sont des
observations annuelles successives du même mois;
c) A l'échelle annuelle : une multiplicité d'indicateurs hydrologiques adaptés tels que :
- le module (ou débit moyen annuel)
- le débit maximal annuel (généralement noté QM) : maximum instantané ou maximum des
365 débits moyens journaliers d'une année particulière
- le débit minimum annuel Qm
- le débit caractéristique de N jours (DCN) : atteint ou non dépassé pendant N jours chaque
année, consécutifs ou non
- le débit moyen minimal de plusieurs jours (généralement 10 jours: Q10, parfois 20: Q20,
sinon 30 jours: Q30) c'est-à-dire la moyenne mobile sur 10, 20 ou 30 jours consécutifs la plus
faible de l'année
Une telle liste n'est certes pas exhaustive, nous en verrons des illustrations plus loin.
Notons également que l'information de base peut être constituée d'observations d'une variable
X (X1, X2, … , Xj , … , Xk) multidimensionnelle dont chaque coordonnée Xj représente la
grandeur relative à une station j d'un ensemble de k stations.
Décrire statistiquement de tels ensembles de données hydrologiques c'est les
représenter par des caractéristiques globales synthétiques, de façon à mettre en évidence des
traits de régime par comparaison avec d'autres données ou à dégager les fluctuations de telles
années ou telles séries d'années particulières.
Rappel de quelques définitions et illustrations
Revenons au cas d'une variable hydrologique unidimensionnelle X. Soit la fréquence
3
expérimentale p d’un interval1e ]a,b] de valeurs de X calculé sur l’échantillon
d’observations : x1, … , xi, … , xn,
𝑝 =𝑟
𝑛 (14.1)
avec r, effectif de la classe, nombre d'observation de l'échantillon ou l'événement a < X < b a
été observé. L’ensemble des observations de l'échantillon peut être reparti en k classes,
recouvrant l'étendue de la variable étudiée. L'ensemble ordonné des classes, associées à leurs
fréquences expérimentales représenté sur graphique, constitue le polygone de fréquence. La
figure 14.1 montre un exemple de polygone de fréquence, celui des modules (débits moyens
annuels) du Rhin à Bale de 1808 à 1960 exprimé ici en effectifs ri.
Dans le contexte probabiliste où on se place ici, l'échantillon est considéré comme tiré
au hasard dans une population hypothétique de valeurs de X représentable par une loi
statistique (fiche C). Par exemple étudions 1'ajustement de la loi normale à la distribution des
modules du Rhin à Bale. Pour chaque intervalle [a,b] la probabilité:
𝑃(𝑎, 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥𝑏
𝑎
=1
𝜎√2𝜋∫ 𝑒𝑥𝑝 [−
(𝑥 − 𝜇)2
2𝜎2] 𝑑𝑥
𝑏
𝑎
(14.2)
est estimée par la fréquence r/n d'une part, par la probabilité estimée �̅�(𝑎, 𝑏) obtenue en
remplaçant μ et σ2 par leur estimations m'1 et m2 d'autre part. Dans le cas du Rhin on a sur la
période 1808-1960 :
m'1 = 1005 m3/s
m2 = 127,5 m3/s
La figure (14.1) permet de comparer effectifs empiriques rj et "effectifs théoriques" νj
définis par les espérances mathématique 𝑛�̅�(𝑎𝑗 , 𝑏𝑗) pour chaque classe ]aj,bj]. I1 est possible
ici de vérifier l'ajustement par un test du χ2 (fiche A).
Dans le cas, fréquent en hydrologie, où l'échantillon est trop limité pour répartir les
observations par classes d'effectifs rj suffisamment grands, on associe à chaque réalisation xi
de l'échantillon ordonné par valeurs croissantes de X, une fréquence de non dépassement
estimée pi. Plusieurs méthodes d'estimation sont possibles pour les pi. Parmi les plus utilisées
citons :
𝑝𝑖∗ = 1𝑖 (𝑛 + 1)⁄ (𝐹𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒 𝑊𝑒𝑖𝑏𝑢𝑙𝑙) (14.3)
𝑝𝑖∗ = (𝑖 − 0,3) (𝑛 + 0,4) (𝐹𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒 𝐶ℎ𝑒𝑔𝑜𝑑𝑎𝑦𝑒𝑣) (14.4)⁄
𝑝𝑖∗ = (𝑖 − 0,5) 𝑛⁄ (𝐹𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒 𝐻𝑎𝑧𝑒𝑛) (14.5)
avec i nombre de réalisations de l'échantillon inférieure ou égales à xi*.
Le report graphique des pi* en fonction des xi* fournit une courbe de fréquence
cumulée, estimation empirique de la fonction de répartition :
4
𝐹(𝑥𝑖∗) = ∫ 𝑓(𝑥)𝑑𝑥
𝑥𝑖∗
−∞
(14.6)
Cette méthode est intéressante lorsque, par un choix convenable d'échelle la fonction
de répartition théorique ajustée peut être représentée par une droite. C'est le cas de la loi
normale car la formule (14.6) peut s'écrire dans ce cas :
𝐹(𝑥𝑖∗) = 𝐺(𝑡𝑖) =
1
√2𝜋∫ 𝑒𝑥𝑝 [−
𝑡2
2] 𝑑𝑡 (14.7)
𝑡𝑖
−∞
avec
𝑡𝑖 = (𝑥𝑖∗ − 𝑢) 𝑢⁄ (14.8)
Si 1'échelle graphique des ordonnées par exemple est graduée en probabilités G(ti)
suivant une échelle proportionnelle aux ti obtenue par la relation (14.6) indépendantes des
paramètres μ et σ, une loi normale de paramètres μ et σ quelconques sera représentée par une
droite d'équation (14.8). Le report des courbes de fréquences
Ligne manquante
comme de l'ajustement effectué par la loi théorique, cette vérification peut souvent être
beaucoup p1us efficace et sensible qu'un test numérique comme le test du χ2 dont l’arbitraire
du découpage en classes peut diminuer 1a puissance comme cela est souligné dans la fiche A.
La loi log-normale peut bénéficier d'une représentation graphique analogue puisque la
relation linéaire (14.8) est simplement remplacée par une relation logarithmique:
𝑡𝑖 = [𝐿𝑜𝑔(𝑥∗ − 𝑎) − 𝜇] 𝜎⁄ (14.9)
Si a est connu ou estimé, une échelle logarithmique des abcisses en Log (xi*-a) permet
donc une représentation linéaire de la loi log-normale.
La figure 14.2 donne un exemp1e d'ajustement de la loi-normale aux débits mensuels
de juin de la Loire à Blois observés de 1879 à 1973. Ici a est arbitrairement choisi égal à 0.
Les moyennes et variances empiriques des logarithmes figurent sur le graphique. Le χ2
calculé sur 10 classes d'amplitude égales en probabilité (c'est-à-dire te11e que νj = n/10)
donne le résultat :
𝜒2 = ∑10
𝑛(𝜈𝑗 −
𝑛
10)
2
𝑗
= 7,0 (14.10)
valeur qui d'après une table du χ2 et pour 10 - 2 - 1 = 7 degrés de liberté, a presque 50 chances
sur 100 d'être dépassée. Le résultat indique un bon ajustement conforté par la représentation
graphique 14.2.
La figure 14.3 montre la répartitions saisonnière des différents quantiles xp de débits mensuels
de la Garonne à Portet relatifs aux probabilités respectives p = 10 %, 25 %, 50 %, 75 % et
90 %. Rappelons qu'un quantile xp est défini à partir de la fonction de répartition F :
𝐹(𝑥𝑝) = 𝑝 (14.11)
5
Dans ce graphique les quantiles ont été estimés par ajustement de lois log-normales
aux débits mensue1s de la période 1920-1959. Une telle représentation, qu'utilisent les
anciens annuaires hydrologiques de la société hydrotechnique de France, permet une
description particulièrement claire du régime moyen aussi bien que de la variabilité d'un cours
d'eau : elle permet également de caractériser les fréquences d'occurrence saisonnières d'années
particulières comme 1962 sur le graphique et dont l'étiage apparaît particulièrement sévère en
été.
Remarques importantes
On devra se souvenir que remplacer une fréquence observée par une probabilité
estimée va bien au-delà d'une simple description de données d'observation, c'est déjà un
jugement prévisionnel sur ce que sera l'écoulement d'une rivière dans 1'avenir. Mais le
passage de la fréquence à la probabilité n'est possible que sous des hypothèses précises dont le
calcul des probabilités rend compte, notamment :
- 1'indépendance des réalisations successives (observations) de l'échantillon ;
- 1'appartenance de ces réalisations à une même population (caractérisée par 1a même
loi F(x), en particulier invariante dans le temps). Les hypothèses peuvent être soumises à
certaines vérifications mais les conclusions tirées de ces vérifications ne peuvent être
complètement certaines. Il y a 1à une source d'incertitude importante inhérentes à tout
traitement de données d'observation. I1 ne faut pas oublier que l'hydrologie n'est qu’une
science d'observation dont les résultats sont essentiellement tributaires des ensembles de
données, d’où l’importance des techniques statistiques. A cet égard le terme de loi statistique
peut être fallacieux, on devrait plutôt parler de distribution statistique, car la notion de loi, en
hydrologie physique notamment, implique 1'assurance d’une validité et d'une fiabilité que
n’ont pas les distributions statistiques. I1 n'existe aucune connaissance physique a priori qui
permette de nous assurer que telle distribution est la "vraie loi statistique" d'une variable
aléatoire hydrologique, les choix effectués résultant seulement du plus ou moins bon
ajustement aux observations. Les applications multiples et extensives de modèles
probabilistes effectuées depuis longtemps ont toutefois permis de dégager certaines règles
empiriques pour guider les choix, mais il ne faut jamais exclure la possibilité de choix erronés,
source d'incertitudes que l'on appelle généra1ement erreurs d'adéquation.
14.2 Les outils de 1a description statistique en hydrologie
Dans le paragraphe (14.1) précédent nous avons introduit quelques principes et
méthodes d'analyse statistiques illustrés sur des exemples hydrologiques. Les fiches annexes
présentent de façon plus systématique un certain nombre d'outils généraux : lois statistiques
(fiche C), krigeage (fiche F), méthodes multivariées (fiche G), analyse spectrale (fiche J). Le
présent paragraphe est destiné à illustrer leurs applications à 1a représentation probabiliste
des débits des rivières ainsi que leurs portées et limites. Le point de vue adopté ici est
uniquement de descriptif ; leurs usages en liaison avec les objectifs opérationnels
(prédétermination, prévision, simulation, transfert d'information) seront pris en compte dans
les paragraphes suivants.
14.2.1 Lois de probabilité des débits moyens annuels et mensuels
La représentation probabiliste des débits moyens est un vieux problème en hydrologie
6
statistique mais le choix des lois théoriques reste toujours empirique après confrontation avec
la distribution de fréquence des observations.
a) La loi normale : Bien que les polygones de fréquence soient souvent dissymétriques,
contrairement à la forme de la densité de la loi normale, cette loi n'est pas systématiquement à
rejeter. Les cas où elle peut s'appliquer concernent des débits moyens pris sur des périodes
assez longues (les modules par exemple), des surfaces de bassin importantes (à régime
climatique donné), des bassins dont certaines parties sont d’altitude élevée où les influences
nivo-glaciaires apportent une certaine régularisation du régime. Les modules du Rhin à Bâle
(figure 14.1) fournissent une bonne illustration de l'ajustement par la loi normale.
b) La loi log-normale ; Cette loi prend bien en compte la dissymétrie des polygones de
fréquence des débits. On a déjà vu un exemple d'ajustement à des débit mensuel (Juin pour la
Loire à Blois figure 14.2). Notons toutefois que l'estimation du troisième paramètre à savoir a
(formule 14.8) peut s'avérer quelques fois difficile et fournir une valeur supérieure à des
débits observés, ce qui est gênant pour une limite inférieure. Par ailleurs la décroissance
souvent lente de la densité log normale pour les grandes valeurs du débit peut être en
désaccord avec l'observation.
c) Les lois de Pearson et log-Pearson type III : Ces lois et notamment la loi log-
Pearson III ont un statut quasi-officiel aux Etats-Unis parce qu'elles ont été recommandées par
le Conseil des ressources en eau pour un emploi systématique. Plus spécialement réservées
aux débits de crues (paragraphe 14.5.1) elles peuvent également s'appliquer aux débits
moyens avec les méthodes d'estimation décrites dans la fiche C. Dans la mesure où elles
dépendent de trois paramètres elles peuvent paraître s’adapter plus aisément aux diverses
distributions de divers régimes hydrologique par la prise en compte du coefficient d'asymétrie
CS en particulier. Toutefois on notera que, outre le paramètre α et le paramètre λ de
comportement asymptotique pour les grands débits, le troisième paramètre m caractérise une
limite inférieure ou supérieure dont l'estimation est délicate et qui n'a d'ailleurs pas
d'interprétation hydrologique très claire.
d) Les lois d’Halphen : Les distributions théoriques précédentes, classiques en
statistiques mathématiques ont été développées hors du champ de l'hydrologie où elles ont
cependant trouvé des applications fructueuses. Il n'est pas sans intérêt de rappeler ici d'autres
familles de distributions théoriques spécifiquement développées pour des besoins
hydrologiques, les lois d’Halphen (Morlat, 1956). Les travaux d’Halphen (1941 à 1954) ont
porté sur la recherche de lois destinées à représenter les débits mensuels de l'ensemble des
rivières françaises. Les objectifs étaient d'obtenir des lois à trois paramètres (Pour représenter
la diversité des régions possibles) avec une décroissance exponentielle pour les grands débits
(comme la loi de Pearson) mais aussi pour les petits débit (afin d'éliminer le problème délicat
de l'estimation d'une limite inférieure). Trois types de distributions d'Halphen ont ainsi été
proposées :
- les lois du type A, de densité :
𝑓(𝑥) =1
2𝜇𝐾𝑗(𝑎)𝑒𝑥𝑝 [−
𝑎
2(
𝑥
𝜇+
𝜇
𝑥)] 𝑥𝛾−1 (14.13)
où Kj(a) est la fonction de Bessel-Basset d'ordre j.
7
- les lois du type B, de densité :
𝑓(𝑥) =2
𝜈2𝑒𝑓𝛼(𝑏)𝑒𝑥𝑝 [− (
𝑥
𝜈)
2
+ 𝑏𝑥
𝜈] 𝑥2𝛼−1 (14.14)
où efα(b) est la fonction d'Hermitte.
- les lois du type B-1 telles que la variable inverse y = 1/x est distribuée selon une loi de
type B.
Comme le système classique des lois de Pearson, les lois d'Halphen forment un
ensemble complet de distributions repérables par deux paramètres, ici :
le coefficient de variation : Cv = m2 / m'1 et le paramètre : λ0 = (m1-mg) / m2
où mg est 1a moyenne géométrique dont le logarithme est égale à la moyenne des logarithmes
des débits.
La figure 14.4 donne 1'abaque de correspondance entre ces paramètres de forme et les
lois d'Halphen caractérisés par (a,γ) ou (b,α). Les paramètres μ et ν sont des paramètres
d'échelle dont le Cv et le λ0 sont indépendants. Parmi les lois d'Halphen de type A, un rôle
privilégié fut donné à la loi A0, pour x=0, dite loi harmonique, dont on trouvera un abaque
(figure 14.5) permettant de calculer les probabilités en fonction de la variable réduite 𝑥=x/μ
pour des valeurs d'un paramètre de dispersion relative exprimé soit par le Cv, soit par λ avec :
𝜆 = 𝑚1′ /ℎ
où h est la moyenne harmonique (dont 1'inverse est égale à la moyenne des inverses des
débits) et le paramètre μ qui s'interprète comme la médiane de la distribution s'écrit:
μ = m’1 h
Pour utiliser cette loi, il suffit donc d'estimer les paramètres λ et μ par les movennes
arithmétiques et harmoniques empiriques m’1 et h d’employer l'abaque avec la variable réduite
x/μ.
Exemple
La figure (14.6) présente, avec une ordonnée en échelle normale et une abscisse en
échelle logarithmique, 1'ajustement de la loi log-normale (avec a = 0) aux débits mensuels de
septembre de la Loire à Blois.
Le χ2 (fiche A) calculé avec 10 classes d'amplitudes égales en probabilité est égal à:
𝜒2 = 15,2
ce qui pour 7 degrés de liberté est légèrement supérieur au seuil χ20,95 de signification du test
pour un risque d'erreur de première espèce à 5%. D'ailleurs 1a vérification graphique (figure
14.6) montre un ajustement médiocre pour les grands et les petits débits (queues de
distributions).
8
Pour cette série de données, les estimations des paramètres Cv et λ0 sont :
𝐶𝑣 = 0,72; 𝜆0 = 0,27
ce qui dans l'abaque (14.5) donne un point pratiquement sur 1a courbe représentative de la loi
harmonique A0.
Par ailleurs, on a :
𝑚1′ = 131,1 𝑚3𝑠−1; ℎ = 87,2 𝑚3𝑠−1
.
ce qui donne les estimations, d'après (14.17) et (14.18) :
𝜇 = 107,3 𝑚3𝑠−1; 𝜆 = 1,29
La loi harmonique ainsi ajustée a été tracée en utilisant l’abaque 14.5 sur le même
système de coordonnées que la loi log-normale (figure 14.6). On constate que l'adéquation est
sensiblement améliorée pour les grands et les petits débits, là où la loi log-normale présentait
des déviations notables à la courbe des fréquences empiriques.
Dans la pratique hydrologique actuelle le problème du choix des lois du débit moyen
est trop souvent considéré comme résolu. On utilise quasi systématiquement la loi log-
normale ou quelquefois la loi de Pearson (paragraphe 14.3.1). Les travaux d’Halphen malgré
leur ancienneté ont montré que ce choix pouvait ne pas être judicieux lorsqu'on examinait le
comportement systématique d'un ensemble de stations. Après des débuts prometteurs, les
utilisations hydrologiques des lois d’Halphen n’ont pas été poursuivies, par le manque de
tables extensives de ces lois à l’époque. Les moyens de calcul modernes pourraient permettre
de remettre à l’honneur les lois d’Halphen car elles comblaient, et elle comblent toujours, un
manque dans la solution des débits moyens, problème trop rapidement supposé résolu
actuellement (1).
14.2.2 Analyse des structures des séries chronologiques en hydrologie
Dans ce paragraphe nous nous attacherons non pas à décrire les distributions de
probabilité précises de chaque variable chronologique datée X(t) mais surtout à caractériser
les structures probabilistes des séries chronologique :
𝑋(𝑡0), 𝑋(𝑡0 + 𝛥𝑡), … , 𝑋(𝑡0 + 𝑖 𝛥𝑡), 𝑋(𝑡0 + (𝑖 + 1)𝛥𝑡) …
c'est-à-dire à dégager les différences et les interrelations entre les divers éléments successifs
d'une telle séquence.
En hydrologie ces structures dépendent étroitement du pas de temps Δt : que celui-ci
soit journalier, mensuel, annuel, les « corrélations » et « non-stationnarités » qui apparaîtront
1 La famille des distributions de Halphen a fait depuis l’écriture de ce chapitre l’objet de
nouvelles études. On consultera en particulier l’ouvrage de Salaheddine El Adlouni et
Bernard Bobée : Halphen Distribution Family with application in hydrological frequency
analysis (2017) Water Resources Publications, LLC, Highlands Ranch, Colorado (USA).
9
auront des formes et des intensités différentes, caractéristiques de chaque échelle de temps.
Quelques définitions préalables sont nécessaires :
Pour tout ensemble d’époques (t1, t2, … , tn) on considère une collection de variables
aléatoires généralement de même nature mais définies à des instants différents :
Ces variables possèdent pour chaque n, une distribution de probabilités conjointe :
𝐹𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ ) = 𝑃𝑟𝑜𝑏[𝑋1 ≤ 𝑥1 𝑒𝑡 𝑋2 ≤ 𝑥2 𝑒𝑡 … 𝑋𝑖 ≤ 𝑥𝑖 𝑒𝑡𝑐 … ]
appelée loi temporelle du processus associée à sa densité de probabilité (14.19) :
𝑓𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ ) =𝜕𝑛𝐹𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ )
𝜕𝑥1𝜕𝑥2 … 𝜕𝑥𝑛 (14.20)
Les distributions sont caractérisées par :
- Les moments du premier ordre (espérances)
𝑚1(𝑡) = 𝐸[𝑋(𝑡)] = ∫ 𝑥 𝑓1(𝑥, 𝑡) 𝑑𝑥 (14.21)+∞
−∞
- Les moments du second ordre (variances et covariances)
Les variances (ou moments centrés du second ordre)
𝑚2(𝑡) = 𝐸[[𝑋(𝑡) − 𝑚1(𝑡)]2] = ∫ [𝑥 − 𝑚1(𝑡)]2𝑓2(𝑥)𝑑𝑥+∞
−∞
(14.22)
et pour tout couple t1,t2, la covariance (ou autocovariance)
𝛾𝑋𝑋(𝑡1, 𝑡2) = 𝐸[[𝑋(𝑡1) − 𝑚1(𝑡1)][𝑋(𝑡2) − 𝑚1(𝑡2)]]
= ∫ ∫ [𝑥1 − 𝑚1(𝑡1)][𝑥2 − 𝑚1(𝑡2)]𝑓(𝑥1, 𝑥2 𝑡1, 𝑡2⁄ )𝑑𝑥1𝑑𝑥2
+∞
−∞
(14.23)+∞
−∞
qui, normalisée, fournit le coefficient d'autocorrélation :
𝜌𝑋𝑋(𝑡1, 𝑡2) = 𝛾𝑋𝑋(𝑡1, 𝑡2) √𝑚2(𝑡1) 𝑚2(𝑡2)⁄ (14.24)
On peut généraliser ces notions à des moments d'ordre r quelconques en prenant en
compte des puissances jusqu’à l'ordre r de la variable et des produits (en nombre r) de
variables x(ti) à des époques différentes ou identiques.
a) La stationnarité des processus hydroloqiques
Un processus stochastique est dit strictement stationnaire si sa loi temporelle (équation
14.24) ne varie pas lorsque toutes les époques t1, t2, … , tn sont translatées arbitrairement dans
le temps et prises égales à t1 + T, t2 + T, … , tn + T (pour tout T). Une telle propriété est
10
difficile à vérifier en pratique. On se contente généralement de prendre en compte la
stationnarité du second ordre relative au moment du premier et second ordre soit :
m1 ( t ) = m1 ( t + T )
m2 ( t ) = m2 ( t + T ) (14.25)
γXX ( t1 , t2 ) = γXX ( t1 + T, t2 + T )
Les figures (14.7) et (14.8) illustrant les moyennes et écart-types empiriques des débits
journalier de chaque jour calendaire estimés sur 46 ans à 1a station de Vieille Brioude sur
l'Allier montrent à l'évidence le caractère non-stationnaire des processus hydrologiques à
l'échelle journalière. La figure (14.3) donnant le quantile des lois normales ajustées sur des
débits moyens de la Garonne à Portet est révélatrice des effets saisonniers, facteurs d’une
non-stationnarité à l’échelle mensuelle. A l ‘échelle annuelle et au delà, les séries
hydrologiques telles que les modules sont généralement supposées stationnaires; la
vérification en est délicate compte tenu de l’information nécessairement limitée à cette
échelle. En dehors des hétérogénéités dans les séries dues aux changements artificiels de
l’environnement et qu’on peut détecter par les méthodes décrites au chapitre 15, des études
ont quelquefois mis en doute cette stationnarité sur des résultats qui apparaissent non
significatifs. A cet égard, on peut citer, surtout pour mettre en garde le lecteur, certains
travaux apparaissant généralement après des catastrophes naturelles comme les grandes
sécheresses, qui mettent en avant des changements cycliques à grande échelle dans les
variables hydrologiques. Ces études reposent sur l’idée d’une représentation du processus X(t)
sous la forme :
𝑋(𝑡) = ∑ 𝛼𝑖 𝑠𝑖𝑛2𝜋𝑡
𝜔𝑖+ 𝜀(𝑡) (14.26)
𝑖
où les composantes cycliques, prépondérantes vis-à-vis du résidu aléatoire ε(t), permettraient
une prédiction à long terme des débits.
La recherche des périodicités (amplitude αi et périodicité ωi) peut-être basée sur
l’analyse spectrale (voire plus loin) mais un procédé largement utilisé par les chercheurs de
périodes a été la méthode des moyennes mobiles. Pour réduire l’effet des aléas et mettre en
évidence les régularité dans une série x1, x2,…, xt, … , xn on remplace chaque valeur xt par
une moyenne 𝑥�̅� = ∑ 𝑥𝑗 (2𝑘 + 1)⁄𝑖=𝑡+𝑘𝑖=𝑡−𝑘 calculée sur des valeurs voisines et centrées sur xt.
Les graphiques de la figure 14.9 extraits de Bernier (1965) montrent les courbes
chronologiques de moyennes mobiles sur 5 et 10 ans calculées sur des relevés annuels sur 160
ans. Des cycles dont les périodes avoisinnent 10 ans et 40 ans apparaissent sur ses graphiques.
Or les données de base ne sont pas des valeurs hydrologiques réelles mais des nombres au
hasard indépendants et stationnaires par construction. Ceci est une illustration de « l’effet
Slutsky » du nom du mathématicien qui a démontré que certaines manipulations statistiques
(telles que les moyennes mobiles) introduisaient nécessairement des périodicités fictives dans
les séries. Aussi l’utilisation de ce type de méthodes peut être complètement fallacieuse.
b) La mémoire des processus hydrologiques
La mémoire d’un processus caratérise la dépendance probabiliste entre la réalisation
11
présente (à l'époque t) et les réalisations antérieures (antécédentes à t).
L'absence de mémoire est mathématiquement traduite par l’hypothèse d'indépendance
exprimée par la condition suivante sur les fonctions de répartition du processus :
𝐹𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ ) = 𝐹1(𝑥1 𝑡1⁄ ). 𝐹1(𝑥2 𝑡2⁄ ). … . 𝐹1(𝑥𝑛 𝑡𝑛⁄ ) (14.27)
Cette hypothèse d’indépendance est généralement admise pour les variables
hydrologiques annuelles (modules, débits maximaux ou minimaux annuels, etc…). C’est une
hypothèse pratique et commode bien qu’en toute rigueur elle puisse être mise en doute
quelquefois ; en effet :
- L'existence de mémoire à une échelle plus courte que l'année induit nécessairement une
mémoire, mais d'intensité plus faible et souvent négligeable à l'échelle annuelle.
- Certains travaux semblent mettre en évidence une mémoire du très long terme (voir ci-après
la description du phénomène de Hurst).
L'hypothèse de structure de dépendance la plus simple est l'hypothèse de Markov
(fiche E). Traduite en mots elle s'énonce : la distribution de probabilité conditionnelle de x(t) :
𝑓(𝑥𝑛; 𝑡𝑛 𝑥1, … , 𝑥𝑛−1; 𝑡1, … , 𝑡𝑛−1⁄ )
à l’époque t=tn connaissant les états antérieurs, ne dépend effectivement que de la réalisation
de X(t) à l’époque immédiatement antérieure à tn soit :
𝑓(𝑥𝑛; 𝑡𝑛 𝑥1, … , 𝑥𝑛−1; 𝑡1, … , 𝑡𝑛−1⁄ )= 𝑓(𝑥𝑛; 𝑡𝑛 𝑥𝑛−1; 𝑡𝑛−1⁄ ) (14.28)
Nous verrons ultérieurement (paragraphe 14.3) des exemples de modèles linéaires markoviens.
Le coefficient d'autocorrélation ρxx (t , t-1) fonction uniquement de 1'écart de temps τ, si le
processus est stationnaire, permet de mesurer 1'intensité de la mémoire du processus. Pour un
tel procesus stationnaire l'estimation classique des coefficients d'autocorrélation ρk entre les
variables xt et xt-k sur une séquence de réalisations observée à pas de temps constant est :
𝑟𝑘 =∑ 𝑥𝑖𝑥𝑖+𝑘
𝑛−𝑘𝑖=1 −
1𝑛 − 𝑘
∑ 𝑥𝑖𝑛−𝑘𝑖=1 ∑ 𝑥𝑖
𝑛𝑖=𝑘+1
√[∑ 𝑥𝑖2𝑛−𝑘
𝑖=1 −1
𝑛 − 𝑘(∑ 𝑥𝑖
𝑛−𝑘𝑖=1 )
2] [∑ 𝑥𝑖
2𝑛𝑖=𝑘+1 −
1𝑛 − 𝑘
(∑ 𝑥𝑖𝑛𝑖=𝑘+1 )2]
(14.29)
La fonction exprimant les variations de ρk (ou de son estimation rk) en fonction de k
s'appelle autocorrélogramme (théorique ou estimé). La figure (14.10) montre à titre d'exemple
l'autocorrélogramme estimée des débits moyens journaliers de l’Allier à Vieille Brioude. Pour
eliminer autant que possible l'effet de la non-stationnarité des débits journaliers, le coefficient
rk n’a pas été calculé directement sur les débits mais sur les débits journaliers centrés réduits
xi obtenus en posant :
𝑥𝑖 = (𝑞𝑖 − 𝑞�̅�) 𝑠𝑖⁄ (14.30)
où 𝑞�̅� et si sont respectivement les moyenne et écart-type des débits qi de chaque jour
calendaire sur les 46 années.
12
Une telle procédure implique l'hypothèse que la non-stationnarité ne joue pas sur les
autocorrélations, hypothèse qui peut être mise en doute dans de nombreux cas (mais on verra
ultérieurement des exemples au niveau de la modélisation des structures de débits mensuels).
L'hypothèse markovienne implique la propriété suivante pour les processus linéaires
stationnaires (fiche E) :
𝜌𝑘 = 𝜌1𝑘 = 𝑒− 𝑎 𝑘 (14.31)
avec
𝑎 = −𝐿𝑜𝑔 𝜌1
Il en résulte alors une décroisssnce exponentielle en fonction de k. L'allure des
graphiques (14.10) montre que 1a décroissance du corrélogramme semble beaucoup plus lente
que le prototype exponentiel ce qui traduit une structure de mémoire beaucoup plus complexe.
Il faut noter que, vis-à-vis de l'estimation du coefficient d'autocorrélation théorique ρk,
rk est soumis à des erreurs d'échantillonnage assez grandes, notamment pour les valeurs
élevées de k. La caractérisation de ces erreurs d'échantillonnage est en dehors du domaine de
ce manuel. Nous renvoyons le lecteur soit à des ouvrages de statistique généraux tels que
(Hannan, 1960) ou à des ouvrages spécialisés à l'hydrologie (Yevjevich, 1972) pour des
détails sur ces problèmes importants.
Un autre moyen de caractériser 1a mémoire d'un processus hydrologique utilise
1'analyse spectrale. Etant donné un processus stationnaire de fonction d'autocorrélation
ρXX(t) la fonction de densité spectrale (ou spectre) s'écrit :
𝑆𝑋𝑋(𝑓) = √𝑚2 ∫ 𝜌𝑋𝑋(𝑡) 𝑒−2 𝑖 𝜋 𝑓 𝑡𝑑𝑡
+∞
−∞
(14.32)
avec 𝑖 = √−1 dans cette formule, dont une méthode d’estimation générale est donnée par la
formule :
𝐽𝑋𝑋̅̅ ̅̅ (𝑓) √𝑚2⁄ = 2 [1 + 2 ∑ 𝑟𝑋𝑋(𝑘) 𝑊(𝑘) cos 2 𝜋 𝑓 𝑘
𝐿−1
𝑘=1
] (14.33)
pour 0 ≤ f ≤ 1 / 2, où le nombre L et 1a "fenêtre de pas" W(k) sont choisis de façon à obtenir
un compromis acceptable entre deux exigences contradictoires (un biais d’estimation faible et
une variance d'échantillonnage faible). On trouvera dans la fiche J des détails sur le choix de
L et de la fenêtre de pas.
Pour un processus périodique avec une période ω/2π équivalente à une fréquence
f=2π/ω, le spectre présente généralement un pic à cette fréquence. Considérons par exemple le
spectre des débits mensuels de 1a Dore à Giroux (figure 14.11). On remarque le pic très
prononcé à la fréquence correspondante à la périodicité annuelle. Si on élimine ces
périodicités, en utilisant par exemple des données dessainnalisées, homogénéisées par des
transformations du type de la formule (14.35) le spectre peut donner des informations sur la
13
structure du processus et petaettrel 1a validation de certains modèles. La figure 14.11 illustre
la comparaison entre spectre observé et spectre calculé dans une série simulée avec un modèle
de Thomas-Fiering que nous verrons plus loin, pour ce qui concerne les débits mensuels de la
Dore à Giroux.
Un autre exemple (figure 14.12) est celui des débits mensuels de la Sioule à Pont du
Bouchet (Delleur, 1970) sur les données homogénéisées, centrées, réduites (formule 14.30)
par rapport à leurs moyennes et écart-type de chaque mois. La décroissance du spectre est
compatible avec l'allure du spectre théorique réultant d'un modèle linéaire markovien
stationnaire :
𝑥𝑡 − 𝜇 = 𝜌1(𝑥𝑡−1 − 𝜇) + 𝜀𝑡 (14.34)
qui a pour spectre théorique :
𝑆𝑋𝑋(𝑓) = 𝜎2 1 + 𝜌12 − 2 𝜌1 cos 2𝜋𝑓 (14.35)⁄
où σ2 est la variance du résidu εt, supposè être un "bruit blanc", c'est-à-dire un processus tel
que les réalisations successives de ε sont indépendantes en probabilité.
Si généralement on peut, au moins théoriquement, ajuster des formules théoriques
telles que (14.35) aux spectres estimés, les méthodes d'ajustement sont cependant délicates et
l'analyse spectrale reste malgré tout un outil exploratoire ne permettant de mettre en évidence
que 1es grandes lignes des processus de débits : périodicités, contribution des hautes
fréquences pour des structures de mémoire complexes, contribution des basses fréquences
pour 1a mémoire au long terme et les tendances (ainsi une tendance à la croissance ou à la
décroissance se traduit-elle par une ordonnée à l'origine du spectre).
c) Analyse des mémoires au long terme (Le phénomène de Hurst)
Une méthodologie issue des travaux de Hurst (1951) et appliquée à l'étude des
séquences d'indicateurs hydrologiques annuels a suscité certains doutes sur l'hypothèse
d'indépendance pratiquement adoptée pour les modules, les débits de crue maximaux annuels
etc…
Soit donc : x1, x2, … , xn une séquence de réalisations chronologiques de tels
indicateurs :
𝑥𝑡∗ = ∑ 𝑥𝑢
𝑡
𝑢=1
(14.36)
alors
�̿�(𝑡, 𝑠) = [𝑥𝑡+𝑠∗ − 𝑥𝑡
∗] 𝑠⁄ (14.37)
est la moyenne des observations du sous-échantillon de t+l à t+s.
𝑆2(𝑡, 𝑠) =1
𝑠∑ 𝑥𝑢
2
𝑡+𝑠
𝑢=𝑡+1
− [1
𝑠∑ 𝑥𝑢
𝑡+𝑠
𝑢=𝑡+1
]
2
(14.38)
14
est la variance de ce sous-échantillon.
Soit :
𝑅(𝑡, 𝑠) = Max0<𝑢<𝑠
[𝑥𝑡+𝑈∗ − 𝑥𝑡
∗ − 𝑢 �̿�(𝑡, 𝑠)] − Min0<𝑢<𝑠
[𝑥𝑡+𝑈∗ − 𝑥𝑡
∗ − 𝑢 �̿�(𝑡, 𝑠)] (14.39)
Si les xi sucessifs sont supposés être les apports successifs dans un réservoir, R(t,s) a
une interprétation phénoménologique importante ; il représente la capacité que devrait avoir le
réservoir supposé plein à l'époque t, pour assurer sans défaillance sur la période [t, t+s] la
satisfaction d'une demande d'eau constante égale à �̿�(𝑡, 𝑠). Si le processus est stationnaire, les
propriétés probabilistes du rapport 𝑅(𝑡, 𝑠) 𝑆(𝑡, 𝑠)⁄ ne sont fonctions que de s.
Des travaux théoriques (Anis et Lloyd, 1976) ont montré que l'espérance
mathématique du rapport précédent avait 1a propriété suivante :
𝐸 [𝑅(𝑡, 𝑠)
𝑆(𝑡, 𝑠)] = 𝐾 𝑠0,5 (14.40)
pour s grand, propriété valable aussi bien pour les processus indépendants que pour ceux à
mémoire courte (processus de Markov par exemple). Or Hurst a montré que pour le modules
d'un grand nombre de rivières dans le monde, on obtient :
𝐸 [𝑅(𝑡, 𝑠)
𝑆(𝑡, 𝑠)] = 𝐾 𝑠𝐻 𝑎𝑣𝑒𝑐 𝐻 > 0,5 (14.41)
Les figures (14.13) et (14.14) présentent deux graphiques logarithmiques de log (R/S)
en fonction de s pour les débits maximaux annuels du Rhin à Bale et de la Loire à Montjean;
pour chaque s le nuage de points correspond à diverses valeurs de t. L'estimation de H peut
poser des problèmes délicats (Mandelbrot et Wallis, 1969). Dans le cas présent, la méthode
suivante a été utilisée :
- Pour chaque s, 1a valeur moyenne des différents log [R(t,s) / S(t ,s)] a été calculée,
soit les R/S (points représentés par un ☐ sur les graphiques).
La valeur H a été estimée par la pente de la droite de régression de log 𝑅 𝑆⁄̅̅ ̅̅ ̅̅ ̅̅ ̅̅ . Par ce
procédé on trouve :
H = 0,55 pour le Rhin
H = 0,70 pour la Loire
Mandelbrot et Wallis ont montré qu'une interprétation possible du phénomène de
Hurst, c'est-à-dire d'un H supérieur à 0,5, était la présence d'une très longue mémoire
entraînant une persistance illustrée par des successions de longues périodes de hauts débits
suivies de périodes de bas débits (Effet Joseph).
Pour ce proessus à très longue mémoire, où finalement 1'indépendance est remise en
cause, le spectre devrait présenter une asymptote à l'origine :
15
lim𝑓→0
𝑆(𝑓) = +∞
mais il apparaît que la méthode basée sur le rapport R/S est plus sensible et efficace pour la
mise en évidence possible du phénomène de Hurst que 1'analyse spectrale.
L'exemple des crues de la Loire et du Rhin montre que cet effet n'est pas seulement
détectable sur les débits moyens annuels et est un facteur de régime de certains cours d'eau. A
cet égard, on notera la différence du comportement de la Loire d'un côté et du Rhin de l'autre.
On a déjà noté le facteur régularisant des influences nivales et glaciaires sur le débit du Rhin ;
on connaît par ailleurs le régime des crues particulièrement variables de la Loire et
1'irrégularité notable de ce régime traduite effectivement par des périodes de très grandes
crues au cours du siècle dernier et suivie par des périodes où le débit a été beaucoup moins
important. Notons toutefois que certains auteurs (Klemeš, 1971) ont montré que des valeurs
de H supérieures à 0,5 pourraient également s'expliquer par des non-stationnarités dans les
tendances centrales des processus hydrologiques (moyenne évoluant avec le temps par
exemple). Il semble également que des modèles à mémoire courte, finie, puissent également
rendre compte du phénomène de Hurst.
14.2.3 Les structures spatiales de phénomènes hydrologiques
Il a été vu au chapitre 3 que 1a précipitation, comme d'ailleurs tous les flux
météorologiques (températures, etc…) avaient des structures spatiales assez étroites, traduites
par des corrélations, des dépendances statistiques à l'échelle de surface souvent assez vastes
pour englober plusieurs bassins. Il en résulte une dépendance statistique entre les débits de ces
bassins même si ceux-ci ne sont pas reliés entre eux par le réseau hydrographique. Bien
entendu dans le cas de bassins imbriqués dans le même réseau, contrôlés par des stations
reliées d’amont en aval par exemple, cette dépendance viendra renforcer la dépendance
purement hydraulique.
Les outils permettant la description de ces dépendances et structures spatiales sont les
méthodes régressives (fiche D) et multivariées (fiche G). L'exemple suivant donne une
illustration, parmi d'autres, des applications possibles des méthodes régresssives.
La figure 14.15 montre la droite de régression entre les modules de l'Aube à
Blaincourt et la Seine à Bar (bassins voisins mais reliés par le réseau hydrographique à 1'aval
de ces deux stations seulement). Les paramètres statistiques (moyennes, écart-types s et
coefficients de corrélation statistiques sont donnés sur le graphique). On notera la valeur
élevée du coefficient de corrélation traduisant la liaison étroite des modules de ces deux
bassins.
L'équation de la droite de régression estimée est :
𝑦𝐴 = 𝜃0 + 𝜃1 𝑥𝑆 (14.42)
avec
𝜃1 = 𝑟 𝑠𝐴 𝑠𝑆 = 0,762⁄
𝜃0 = 𝑦𝐴̅̅ ̅ − 𝜃1𝑥�̅� = −0,058
16
l’écart-type résiduel étant :
𝜎 = 𝑠𝐴 1 − 𝑟2 = 1,103⁄
La station de Bar a été mise en service en 1950, on y dispose donc de 17 années
d'observations supplémentaires antérieures à 1967, les modules correspondants sont portés sur
1'abscisse du graphique (14.15). On peut songer à utiliser la liaison étroite entre modules pour
reconstituer des valeurs de modules yA concomittantes aux valeurs xS complémentaires en
utilisant la régression (14.47). Cette méthode est fallacieuse car elle néglige la dispersion
résiduelle des yA autour de la droite de régression qui, même pour une liaison très forte, n’est
pas négligeable si l’on onsidère l’estimation σ de l’écart-type résiduel. En toute rigueur il
faudrait ajouter à yA estimé par (14.47) un résidu aléatoire simulé que l'on peut obtenir par
tirage au sort dans la loi de probabilité des résidus ε.
Mais dans le contexte statistique, on peut s'intéresser directement à certains paramètres
statistiques comme l'espérance μy et de la variance ν2y de la variable y. Dans ce cas on peut
obtenir des estimations directes μy et ν2y déduites de l’information complémentaire. De façon
générale :
𝜇𝑦 = 𝑦𝑘̅̅ ̅ − 𝜃1(𝑥𝑘̅̅ ̅ − 𝑥𝑁̅̅̅̅ ) (14.43)
𝜈𝑦2 = 𝑠𝑦,𝑘
2 − 𝜃1̅̅ ̅2
(𝑠𝑥,𝑘2 − 𝑠𝑥,𝑁
2 ) (14.44)
où les indices x et y représentent les variables hydrologiques des séries "longue" et …
Ligne manquante
… indice ces nombres répèrent les paramètres statistiques, moyenne et variance de chaque
série. Dans notre exemple particulier, on obtient :
𝜇𝑦𝐴 = 16,2 𝑚3 𝑠⁄
Ici nous avions pris arbitrairement une période commune de 10 ans. En fait la station
de Blaincourt a été observée depuis 1954. Les moyennes et écart-types empiriques calculés
sur la série complète sont en fait :
�̅�𝐴 (1954 − 1976) = 16,6 𝑚3 𝑠⁄
𝑠𝐴 (1954 − 1976) = 5,78 𝑚3 𝑠⁄
Les estimations précédentes sont donc très proches de ces valeurs; ceci n'est pas
étonnant compte tenu de la très forte corrélation entre les stations.
L'estimation μy est intéressante à comparer à la moyenne �̅�𝑘 du point de vue des
erreurs d'échantillonnage caractérisées par les variances.
𝑉𝑎𝑟(�̅�𝑘) =𝜈𝑦
2
𝑘 (14.45)
17
𝑉𝑎𝑟(𝜇𝑦) =𝜈𝑦
2
𝑘{1 −
𝑁 − 𝑘
𝑘[1 − (𝑘 − 2)𝜌2
𝑘 − 3]} (14.46)
où ρ est le coefficient de corrélation théorique (estimé par r). Le rapport de ces deux variances
permet de mesurer l'augmentation de précision apportée par la connaissance de l'information
complémentaire sur x. L'efficacité de l'estimation de μy sera donc exprimée par le rapport :
𝐸 = 1 −𝑁 − 𝑘
𝑘[1 − (𝑘 − 2)𝜌2
𝑘 − 3] (14.47)
Dans notre exemple précédent avec ρ estirmé par r, on trouve E=0,394.
Le rapport K/E (25,3 dans notre exemple) donne, du point de vue des critères
d'échantillonnage sur 𝜇𝑦 , le nombre d'observation y équivalent à l'information
complémentaire sur x prise en compte dans la corrélation. Cette méthodologie d’amélioration
des estimations par les modèles régressifs peut être appliquée pour toute variable x explicative
comme les précipitations ou les débits pour autant que la précision soit augmentée, c'est-à-
dire E < 1, ce qui implique :
𝜌2 > 1 (𝑘 − 2)⁄
La validité des formules d'estimation sur 𝜇𝑦 ne préjuge aucune forme de distribution
statistique des variables x et y. Par contre la formule d'estimation de la variance 𝜈𝑦2 suppose
que les résidus ε de la régression sont distribués selon une loi normale. Si les variables x et y
sont elles-même normales alors les formules (14.48) et (14.49) fournissent les estimations du
maximum de vraisemblance.
Extension sur régressions multiples
La méthode précédente peut être généeralisée au cas de la prise en compte
d'informations complémentaires sur plusieurs chroniques explicatives "longues"
(précipitations, débits, températures, etc…) soit l'équation de régression :
𝑦 = 𝜃0 + 𝜃1𝑥1 + 𝜃2𝑥2 … + 𝜃𝑟𝑥𝑟 (14.48)
Des formules généralisant les précédentes sont :
𝜇𝑦 = �̅�𝑘 − 𝜃𝑘𝑇(�̅�𝑘 − �̅�𝑁) (14.49)
𝜈𝑦 = 𝑠𝑦,𝑘2 − 𝜃𝑘
𝑇(𝑆𝑥𝑥,𝑘 − 𝑆𝑥𝑥,𝑛)𝜃𝑘 (14.50)
ou
𝑠𝑦,𝑘2 : variance empirique des y sur la série courte de longueur k,
�̅�𝑘 : moyenne empirique des y sur la série courte.
et les notations matricielles suivantes sont utilisées :
�̅�𝑘 et �̅�𝑛 représentent les vecteurs des r moyens calculés sur les séries courtes et
18
longues des x.
𝑆𝑥𝑥,𝑘 − 𝑆𝑥𝑥,𝑛 les matrices de covariance empirique calculées sur les séries courtes et
longues.
θk (dont le transposé est 𝜃𝑘𝑇) est le vecteur des coefficients de régression estimé sur la
série courte des y et x (fiche D).
La formule (14.51) donnant le rapport E mesurant l'augmentation de précision est
alors :
𝐸 = 1 +𝑁 − 𝐾
𝑁[𝑟 − (𝑘 − 𝑟 − 1)𝑅2
𝑘 − 𝑟 − 3] (14.51)
où R est le coefficient de corrélation multiple de y en fonction des x (fiche D).
Les méthodes régressives à r dimensions sont des cas particuliers de méthodes
multivariées. On peut appliquer à l'étude conjointe d’un ensemble de variables de débits
relatives à un ensemble de stations de jaugeage des méthodes comme d'analyse en
composantes principales ou le krigeage pour mettre en évidence les relations spatiales
intrinsèques entre les stations (Villeneuve et al., 1979). Mais ces techniques ont trouvé, en
matière de débits, un champ moins favorable à des applications extensives que dans le
domaine des précipitations.
14.3 Les modèles stochastiques des processus hydrologiques unidimensionnels
Nous avons vu au paragraphe précédent que des techniques statistiques adaptées
comme les analyses spectrales ou d’autocorrélation mettaient en évidence des structures
temporelles très fortes des séries chronologiques de débits de rivières. Quel que soit le pas de
temps que l'on choisisse (annuel et surtout mensuel et journalier). Il existe des dépendances
probabilistes souvent étroites entre les débits successifs, c’est-à-dire que les distrihutions
marginales des écoulements, pour chaque période (mensuelle par exemple) isolée de son
contexte chronologique, ne suffisent pas à la description des processus stochastiques
hydrologiques et surtout à leur simulation. Il importe de modéliser ces structures.
Pour effectuer cette modélisation la considération des pas de temps est essentielle. A
l'échelle annuelle l'hypothèse d'indépendanc peut être pratiquement admise entre les modules
successifs dans la plupart des cas; alors les lois marginales des modules décrites dans le
paragraphe (14.2.1) suffisent à la modélisation des processus de débits annuels. Cette
indépendance peut quelquefois être mise en question, mais la mise en œuvre de modèles
concurrents éventuellement plus réalistes pose des problèmes sur le plan pratique ; nous y
reviendrons.
Généralement la complexité et l’intensité de 1a structure de dépendance croissant à
mesure que 1'on descend dans 1'échelle des pas de temps :
saisonnier mensuel journalier
I1 est de pratique courante d'utiliser des modèles adaptés aux pas de temps particuliers
pour les problèmes opérationnels étudiés comme la gestion de réservoirs saisonniers pour
lesquels le pas de temps mensuel peut suffire par exemple. Des structures simples
représentées par des modèles markoviens sont alors adéquates à ce niveau. Le problème de la
19
cohérence structurelle des modèles ajustés indépendamment sur différentes échelles de temps
peut être posé dans la mesure où l'estimation et 1a vérification de ces modèles ont porté sur
des données différentes. Ce souci de cohérence et aussi celui de présenter des modèles à
usages multiples "passe partout" a poussé certains hydrologues à proposer des modèles de
simulation de débits à l’échelle 1a plus fine, la journalière le plus souvent, présumés capables
de décrire les chroniques à des échelles de temps plus larges en s'appuyant sur le principe "qui
peut le plus, peut le moins". Ces types de modèles peuvent être très fallacieux; d'une part la
modélisation des débits à l'échelle journalière est très complexe et ne semble pas avoir reçu de
solution complètement satisfaisante à ce jour, d'autre part les critères d'ajustement peuvent
être incompatibles selon les diverses échelles de temps et une bonne adéquation adaptée aux
débits journaliers ne peut bien souvent se faire qu'au détriment de 1'adéquation aux échelles
de temps supérieures.
Là encore, c'est le point de vue opérationnel de choix d'un modèle adapté au pas de
temps et aux critères opérationnels choisis ainsi qu'aux données disponibles qui doit primer ce
souci de cohérence structurelle. Dans 1a revue des modèles qui suit, nous préciserons chaque
fois les échelles des temps auxquelles ils sont les mieux adaptés. Il existe toutefois une
approche permettant de contourner le dilemme des pas de temps, c'est celle qui consiste à
prendre en compte des seuils de débits fixés et à modéliser les chroniques de surplus et
déficits; nous y consacrerons un paragraphe important.
14.3.1 Les modèles à chronologie fixée
a) Les modèles markoviens et autorégressifs (Fiche E)
Considérons les débits moyens observés à une station de jaugeage donnés au cours de
période de temps successives : … , t – 1, t, t + 1, … etc. Le modèle le plus largement utilisé
pratiquement en hydrologie est le modèle markavien ou autorégressif d'ordre 1 :
𝑋𝑡+1 = 𝜇𝑡+1 + 𝛽𝑡+1(𝑋𝑡 − 𝜇𝑡) + 𝜀𝑡+1 (14.52)
où Xt est soit le débit de la période t, soit toute transformation de seuil de débit permettant de
représenter la distribution de εt+1 par une loi simple (par exemple Xt =log Qt).
- 𝜇𝑡 est l’espérance de Xt pour la période t.
- les 𝜀𝑡sont supposés d'espérance nulle, de variance ν2t et mutuellement indépendants
au cours des périodes successives.
Les coefficients βt et les variances ν2t peuvent être calculés de façon à reconstituer
d'une part les coefficients de corrélation ρt,t+1 entre les variables Xt et Xt+1 successives et les
variances ν2t de chaque Xt. On a les expressions :
𝛽𝑡+1 =𝜎𝑡+1
𝜎𝑡𝜌𝑡,𝑡+1 (14.53)
𝜈𝑡+12 = 𝜎𝑡+1
2 (1 − 𝜌𝑡,𝑡+12 ) (14.54)
Dans un modèle autorégressif du premier ordre, on peut montrer que les coefficients
de corrélation entre les variables Xt +k et Xt de deux périodes séparées par k périodes
intermédiaires doivent vérifier la relation (fiehe E) :
20
𝜌𝑡+𝑘,𝑡 = 𝜌𝑡+𝑘,𝑡+𝑘−1 𝜌𝑡+𝑘−1,𝑡+𝑘−2 … 𝜌𝑡+1,𝑡 (14.55)
généralisant la relation simple
𝜌𝑡+2,𝑡 = 𝜌𝑡+2,𝑡+1 𝜌𝑡+1,𝑡 (14.56)
Cette structure simple, en fait la plus simple des structures de dépendance, permet
généralement de représenter les chroniques de débits à l'échelle mensuelle mais difficilement
aux échelles inférieures.
A cette échelle mensuelle, le caractère saisonnier, non stationnaire, du processus est
pris en compte par des coefficients 𝜇𝑡, 𝜎𝑡2, 𝜌𝑡,𝑡+1 (et donc 𝛽𝑡 et 𝜈𝑡
2 ) prenant des valeurs
périodiques, de périodes égales à 12 mois. En d'autres termes1'espérance 𝜇𝑡 et la variance 𝜈𝑡2
sont spécifiques à chaque mois calendaire et les correlations 𝜌𝑡+1,𝑡 représentent les liaisons
entre janvier et février, février et mars, etc …
Si les εt sont disttibuées selon la loi normale, les lois statistiques marginales des Xt
sont également normales. Dans la mesure où la loi log-normale est souvent réaliste pour
représenter les débits mensuels (figure 14.2) le modèle markovien (14.57) est alors appliqué
aux logarithmes des débits.
Fiering (1967) a développé des formules permettant de traiter le cas où le "résidu" εt
est distribué selon une loi proche de la loi Pearson type III en effectuant une transformation
sur et qui conserve les trois premiers moments de la distribution des variables Xt prises égales
ici aux débits Qt :
𝜀𝑡
𝑉𝑡=
2
𝛾𝑡[1 +
𝛾𝑡
6𝜈𝑡 −
𝛾𝑡2
36]
3
−2
𝛾𝑡 (14.57)
avec
𝛾𝑡 =𝑔𝑡 − 𝜌𝑡,𝑡−1
3 . 𝑔𝑡−1
[1 − 𝜌𝑡,𝑡−12 ]
3 2⁄
où 𝛾𝑡, 𝑔𝑡, 𝑔𝑡−1, sont les coefficients d'asymétrie (fiche C) respectivement de εt, Qt, Qt-1 et νt
est une variable normale centrée réduite. Cette forrnule est appelée transformation de Wilson-
Hilferty.
Le modèle (14.52) est généralement attribué à Thomas et Fiering (1962). Cependant, il
était largement utilisé en France avant cette date. Halphen (1941) a présenté une application
aux débits mensuels du Rhin à Bale et de la Dordogne à Bort dans l'annuaire de la SHF de
1941. La figure 14.16 illustre la variation saisonnière mensuelle des paramètres du modèle
ajusté aux débits mensuels de la Dore à Giroux. On remarquera l'effet saisonnier très notable
sur 1e coefficient de corrélation entre mois successifs ce qui montre que la série
chronologique des apports mensuels ne saurait être comparée complètement transformée en
utilisant une transformation du type (14.30).
Sous la forme (14.57) le modèle markovien est utilisable en simulation. Partant d'une
21
valeur initiale X0, les Xt sont générés en séquence à partir d'une suite de réalisations de
variables normales indépendantes εt qui peuvent être calculées à partir de réalisations
normales centrées réduites Ut en utilisant la relation :
𝜀𝑡 = 𝑉𝑡. 𝑈𝑡
Les séquences de réalisations Ut sont générées par des méthodes de Monte Carlo
standards (Hammersley et Handscomb, 1965). La figure (14.17) présente les caractéristiques
de dispersion d'une série de débits moyens mensuels fictifs de 500 années pour 1a Dore à
Giroux en utilisant la méthode de simulation décrite ci-dessus. On se reportera également aux
spectres de la figure (14.11).
A cet égard quelques mots sont nécessaires pour préciser la portée et les limites des
méthodes de simulation (à partir du modèle markovien ou de tout autre modèle d'ailleurs). Les
séries de débits fictifs ont des propriétés statistiques qui ressemblent à celles des séries
naturelles dans la mesure où le modèle de génération et les paramètres de ce modèle ont été
choisis et estimés sur les données réelles. Or générer 500 années fictives n'accroît pas
l'information constituée par les débits réels mais permet d'obtenir, par un battage de cartes
hydrologiques, des séquences de confirmations hydrologiques diverses (succession de
périodes sèches ou humides par exemple) plus nombreuses et variées que celles que l’on
observe sur les données réelles et qui restent compatibles avec elles dans la mesure où le
modèle est réaliste. Ces battages de cartes sont essentiels pour le test de systèmes comme les
réservoirs sur ces données. Halphen (1945) a ainsi présenté une étude de dimensionnement
d’un système de réservoirs et centrales hydroélectriques utilisant une simulation des apports
mensuels d’un ensemble de rivières françaises basée sur le modèle (14.57). Dans le cadre de
ce modèle, Halphen utilisait dès cette époque une méthode originale en prenant pour variabIe
Xt des variables normales transformées des débits mensuels par "anamorphose normale" de la
loi harmonique (paragraphe 14.2) ajustée à ces débits mensuels.
- Rappel de définition
On rappelle que si une variable aléatoire Q est distribuée selon la loi de fonction de
répartition F(Q), l'anamorphose normale est la transformation qui à tout Q fait correspondre
lav aleur X telle que :
𝐺(𝑋) = 𝐹(𝑄) (14.58)
où G(X) est la fonction de répartition de la loi normale centrée réduite.
- Modèles autorégressifs
Pour les applications à des débits moyens sur des pas de temps inférieurs au mois il
importe de prendre en compte des structures plus complexes que celles décrites par le modèle
(14.57) en généralisant celui-ci par la considération des modèles autorégressifs à coefficients
non stationnaires :
𝑋𝑡+1 = 𝑏0(𝑡+1)𝑋𝑡 + 𝑏1
(𝑡+1)𝑋𝑡−1 + ⋯ + 𝑏𝑘(𝑡+1)𝑋𝑡−𝑘 + 𝜀𝑡+1 (14.59)
- Les modèles ARMA et ARIMA
22
Depuis certains travaux de statistiques (Box et Jenkins, 1976) les modèles ARMA sont
très populaires en hydrologie comrne ent témoignent des ouvrages récents comme ceux de
Kottegoda (1980) ou Salas et al. (1980). Il importe toutefois d’en analyser la portée et les
limites.
Soit un processus stochastique stationnaire (Xt) représentant une séquence de débits ou
de transformations de débits comme dans (14.52). Les processus ARMA (p,q),
(AutoRegressive And Moving Average en anglais), se mettent sous la forme :
𝑋𝑡 = ∑ 𝛼𝑗 𝑋𝑡−𝑗
𝑝
𝑗=1
− ∑ 𝜃𝑗 𝜀𝑗
𝑞
𝑗=0
𝑎𝑣𝑒𝑐 𝜃0 = −1 (14.60)
La première somme, correspondant à la partie autorégressive d'ordre p est analogue à
(14.52); la seconde somme (moyenne mobile) est une moyenne de q variables aléatoires
indépendantes εj centrdées réduites, qu'en pratique on considère généralement comme des
variables normales. On sera donc amené à distinguer les modèles AR (p,0), autorégressifs, les
modèles MA (0,q), moyennes mobiles, et les modèles ARMA (p,q), généraux. Une
interprétation phénoménologique, très sommaire, est quelquefois donnée à ces modèles
appliqués aux débits où la partie autorégressive correspondrait au tarissement du bassin et la
partie moyenne mobile aux apports aléatoires des pluies. En fait il serait très fallacieux de se
laisser guider par une telle interprétation pour estimer les coefficients αj et θj.
Revenons à la partie "moyenne mobile" seule. Pour simuler le processus, il est
nécessaire de ramener l'équation du modèle MA (o,q) sous la forme :
𝑋𝑡 = 𝛹0 + 𝛹1𝑋𝑡−1 + 𝛹2𝑋𝑡−2 + ⋯ + 𝛹𝑘𝑋𝑡−𝑘 + ⋯ (14.61)
où Xt s'exprime en fonction du "passé" non limité à une mémoire k finie sinon ce processus
serait équivalent à un AR (k,0).
Pour être faisable, 1'inversibilité des processus MA, représentée par (14.61), impose
certaines conditions aux coefficients θj. De même les coefficients αj de la partie
autorégressive doivent remplir certaines autres conditions pour que le processus soit
stationnaire (Salas et al.,1980) sinon il présente des varitions systématiques non cycliques.
Les modèles ARMA sont stationnaires par construction ; leur utilisation pourt
représenter les cycles saisonniers des débits notamment passe nécessairement par une
homogénéisation de ces débits en utilisant des variables réduites du style de (14.30) par
exemple. Nous avons vu que ce type de transformation pouvait ne pas faire disparaître la
structure non stationnaire des corrélations; en première approximation il peut cependant être
utilisé.
Mais il existe des généralisations des modèles ARMA prenant en compte des
périodicités, il s'agit des modèles ARIMA (AutoRegressive Integrated Moving Average
processes).
Considérons la première différence :
23
∇𝑋𝑡 = 𝑋𝑡 − 𝑋𝑡−1
la différence seconde,
∇2𝑋𝑡 = ∇𝑋𝑡 − ∇𝑋𝑡−1 la différence d'ordre d
∇𝑑𝑋𝑡 = ∇𝑑−1𝑋𝑡 − ∇𝑑−1𝑋𝑡−1 (14.67)
On appelle processus ARIMA (p,d,q) un processus ARMA (p,q) appliqué aux
différences ∇𝑑𝑋𝑡.
Si un processus Xt-1, Xt, Xt+l …, présente une périodicité d'ordre k c'est-à-dire si la loi
temporelle du processus ne varie pas lorsqu'on translate tous les instants d'un pas égal à K,
alors l'application d'une Kième différence ∇𝑘𝑋𝑡 rend le processus stationnaire. Delleur (1978)
cite des exemples d'application de modèles ARIMA avec d = 12 à des chroniques de débits
mensuels où la périodicité annuelle est éliminée mais où le procédé de différentiation
introduit des distorsions sur les covariances entre débits mensuels successifs. La procédure
ARIMA ne semble donc pas complètement satisfaisante pour la représentation des processus
de débits saisonniers.
La mise en application des modèles ARMA, les méthodes d'identifications des
modèles basées sur les autocorrélations des Xt ou des résidus εt, les méthodes d'identification
des paramètres (maximum de vraisemblance) et les tests de validité des ajustements
demandent des procédures assez lourdes en calcul mais qui ont été systématiquement
programmées sur ordinateurs. Des langages informatiques simples permettent d'utiliser en
routine ces programmes et en facilitent grandement les applications. On trouvera dans Delleur
(1978) des illustrations de l'application de ces modèles à des processus de débits mensuels et
journaliers. Notons que l'adéquation des modèles ARMA semble beaucoup plus satisfaisante
à l'échelle mensuelle qu'à l'échelle journalière ou des ARMA (1,1) sur débit homogénéisé par
exemple ne semblent pas respecter la structure de dépendance très complexe des débits à cette
échelle.
b) Les modèles structuraux
L'application des divers modèles précédents au cas des débits journaliers pose le
problème de la représentation des "résidus" εt par des variables aléatoires continues telles des
variables normales avec lesquelles la simulation ne peut donner des trajectoires de débits
réalistes. C'est notamment le cas de trajectoires de débits résultant de bassins soumis à des
influences uniquement pluviales. En effet celles-ci (figure 14.18) présentent en général des
évolutions déterministes, notamment en période de tarissement, lorsque le bassin n'est plus
alimenté par les préciritations. Le débit évolue alors selon une loi de vidange particulière à ce
bassin. On ne peut donc espérer obtenir des modèles réalistes à l’échelle fixe qu'en s’appuyant
sur une schématisation du mécanisme de genèse des débits à partir des facteurs qui les
conditionnent notamment les précipitations dont le processus d’occcurence est une succession
de périodes sèches et pluvieuses alternées. Si dans la représentation (14.60) les "résidus" εt
peuvent être assimilés à des pluies, ils devraient pouvoir prendre des valeurs nulles avec des
probabilités finies différentes de 0 pour représenter les périodes sèches contrairement au cas
des variables contiues où la probabilité de valeur nulle est strictement nulle. Une modélisation
basée sur ces principes a été suggérée par Bernier (1969). Weiss (1973) puis Treiber et Plate
(1977) ont développé des modèles structuraux sur ces principes. Les modèles d'intervention
24
de Hepel, Lennon, Unny et MacLeod (1975) sont batis sur des idées analogues.
Dans la littérature de langue française, il est intéressant de mentionner le modèle
DEJOREG de Tiercelin et Leviandier (1978) qui schématise le processus des débits
journaliers de la façon suivante (figure 14.19) :
- on superpose un débit de base Q et des réactions (crue + décrue) ;
- au cours d'une réaction de durée Ti, le débit de base évolue linéairement à partir d'un débit
initial Qi ;
- la réaction est représentée par un hydrogramme triangulaire entièrement caractérisée par la
durée Ti et le volume de réaction Vi ;
- le processus est donc entièrement décrit par le chronologue de l'ensemble des trois séries de
variables ( Qi , Vi , Ti ) représentées par des modèles autorégressifs respectant des liaisons
entre ces variables, soit pour la même réaction, soit pour une réaction et la suivante.
Dans ce modèle, la schématisation des hydrogrammes peut paraître sommaire à
l’échelle journalière mais la simplicité de mise en œuvre permet d'estimer les paramètres du
modèle pour le caler de façon réaliste sur les propriétés statistiques du processus à l’échelle de
temps souhaitée celle-ci pouvant aller de quelques jours à quelques mois.
c) Portée et limites des modèles de processus stochastiques des débits à chronologie fixe.
Nous avons déjà souligné la difficulté de disposer de modèles permettant de décrire
l'ensemble de diverses échelles de temps d'un processus de débits.
Aux courtes échelles de temps (de l'ordre du jour) il apparaît que les modèles
structuraux peuvent seuls permettre la représentation réaliste des fluctuations des successions
de crues, décrues, tarissements, contrairement aux modèles linéaires (Markovien, ARMA).
Mais les exemple connus sont trop complexes (Treiber-Plate) soit traitent des cas particuliers
(Weiss) et ne constituent que des applications académiques. Seul le modèle DEJOREG
semble conçu très simplement et avoir été effectivement utilisé pour des applications
opérationnelles.
Aux échelles de temps intermédiaires (mois ou saison) les modèles ARMA et surtout
markoviens semblent adéquats. Mais une difficulté apparait. Le modèle markovien, comme
tous les modèles à mémoire courte (au niveau mensuel), ne peut représenter les
caractéristiques des fluctuations au long terme des écoulements. Ainsi la fréquence des
longues sécheresses (non pas de quelques mois, mais celles dépassant l’année), est sous-
estimée par le modèle markovien qui, de plus, ne peut prendre en compte des phénomènes du
type Hurst (paragraphe 14.2.3). On retrouve ici le problème de la cohérence entre pas de
temps. Valencia et Schaake (1973) ont développé des modèles de désagrégation permettant de
représenter le processus d'une chronique à l’échelle longue (par exemple celle des débits
annuels), puis de désagréger la série simulée par ce premier modèle en ses constituants à
échelle plus courte (par exemple les débits mensuels) en respectant à la fois les relations
physiques déterministes entre eux et les caractéristiques statistiques (moyennes, variances et
covariances) à chaque échelle de temps. Nous décrirons plus avant ces modèles dans le
paragraphe (14.4). Il apparaît toutefois des difficultés liées à la multiplication du nombre de
paramètre nécessaires pour représenter ces caractéristiques ce qui peut nuire à la fiabilité des
modèles. Nous y reviendrons plus loin.
25
A l'échelle de temps annuelle, l'hypothèse la plus courante est l'indépendance des
modules successifs. Notons tout de suite que cette indépendance est strictement incompatible
avec l'hypothèse markovienne des débits mensuels qui implique (Halphen, 1941) une liaison
en chaîne des modules toutefois assez faible. Cette liaison représentable par un modèle
autorégressif d'ordre 1 est insuffisante pour expliquer certains aspects des fluctuations au long
terme, succession de sécheresses, effet Joseph, phénomène de Hurst, qui apparaissent
quelquefois. La littérature technique abonde en propositions de modèles de débits annuels
permettant de représenter ces aspects. On en trouvera un inventaire assez complet dans
Lawrence et Kottegoda (1977). L'ensemble de ces modèles souffre toutefois d’un défaut
notable : leur calage nécessite souvent de trop nombreux paramètres. Or le choix d'un modèle
stochastique applicable aux phénomènes hydrologiques doit être guidé par un principe
d’économie quant à sa souplesse et au nombre de paramètres qui le déterminent. Le nombre
de ceux-ci doit être égal au minimum nécessaire pour rendre compte de l'information réelle
contenue dans les observations disponibles qui sont souvent limitées en quantité et en qualité.
14.3.2 Les modélisations à seuil de débit fixé
Il y a deux approches générales d'analyse statistique des séquences hydrologiques. La
première, illustrée dans le paragraphe précédent, s'intéresse à des variables définies par un
découpage chronologique. C'est 1'approche classique qui a tiré bénéfice de la panoplie
importante des outils probabilistes et statistiques développés à ce jour, et dont on n'a présenté
dans ce chapitre qu'un aperçu très limité des applications hydrologiques. La seconde approche
s'intéresse à des séquences de variables ou d'évènement définis par un découpage par seuils
du domaine de la variable hydrologique étudiée, en l'occurrence le débit moyen journalier
pour fixer les idées dans le présent paragraphe (mais toute autre variable définie sur un pas de
temps court pourrait être prise en compte ici).
Considérons alors une courbe chronologique de débits moyens journaliers Qt telle que
présentée dans la figure (14.20).
Fixer un seuil de débit q0 est le moyen de définir de nouvelles séquences de variables :
- des variables associées aux surplus successifs (périodes de temps continues où le débit est
supérieur au seuil q0)
les durées de ces surplus :
𝑇𝑠,1, … , 𝑇𝑠,𝑖, 𝑇𝑠,𝑖+1, …
les volumes de ces surplus :
𝑉𝑠,1, … , 𝑉𝑠,𝑖, 𝑉𝑠,𝑖+1, …
- des variables associées aux déficits successifs (périodes de temps continues où le débit est
inférieur au seuil q0)
les durées de s déficits :
𝑇𝑑,1, … , 𝑇𝑑,𝑖, 𝑇𝑑,𝑖+1, …
26
les volumes de ces déficits :
𝑉𝑑,1, … , 𝑉𝑑,𝑖, 𝑉𝑑,𝑖+1, …
D'un point de vue opérationnel, la considération de ces variables est directement reliée
à la notion de bilan ressources en eau-besoins. La durée et le volume des déficits peuvent en
effet s'interpréter comme les durées et les volumes de défaillances vis-à-vis d'une de demande
en eau quantifiée par le débit q0.
La détermination des caractéristiques probabilistes des surplus et des déficits (durée et
volume) associées aux processus chronologiques décrits dans le paragraphe précédent est
parfaitement possible. Des résultats analytiques exacts peuvent être obtenus pour des
processus de variables Xt (fonction des débits Qt) indépendantes ou même possédant des
structures markoviennes simples. On pourra consulter à cet égard le livre de Yevjevich (1972).
Pour des processus à structure plus complexe, des simulations de séquences de débits fictifs
permettent d'obtenir "expérimentalement" les caractéristiques recherchées. Toutefois à cette
approcbe indirecte nous préférons la méthode directe de modélisation des séries ''observées"
de surplus et déficits calculés directement sur les données disponibles. La raison en est
toujours la même : tous les modèles stochastiques, en particulier ceux décrivant les variables à
chronologie fixée, ne peuvent prétendre représenter avec réalisme que les distributions de
variables sur lesquelles ils ont été directement estimés et vérifiés et n’ont pas de valeur
universelle, singulièrement pour la description d'indicateurs particulièrement sensibles
comme les durées de déficit et de surplus.
Du point de vue de 1a modélisation des durées successives de surplus et de déficits, la
considération d'un seuil transforme la chronologie des débits en processus intermittents c'est-
à-dire des processus d'occurrence d’évènements ponctuels séparés par des périodes aléatoires
d'absence d'évènement. On notera au paragraphe 14.5 qu'en matière d'analyse des crues les
méthodes de dépassements de seuil sont également basées sur des processus intermittents
analogues. La littérature scientifique récente relevant du calcul des probabilités et de la
statistique abonde en présentations de modèles descriptifs de ces processus intermittents :
processus ponctuels poissonniens (Snyder, l973) ou non-poissonniens (Lewis, 1972),
processus de renouvellement (Cox et Lewis, 1969), etc… L'hydrologie n'a pas encore profité
complètement de la richesse des outils développés dans le cadre de ces études probabilistes.
Les illustrations présentées ci-après ne peuvent donner qu'un aperçu très partiel des
possibilités incomplètement explorées de ces modélisations.
- Les courbes intensité-durée-fréquence
L'analyse décrite ici a été particulièrement développée par J. Miquel et Phiem Boupha
(1978) sous le nom de "modèle TEMPETIAGE". Elle s'intéresse aux périodes de basses eaux.
Si la méthodologie générale peut s'appliquer à tout seuil de débit, les distributions des durées
ont été surtout validées pour des seuils caractéristiques des saisons d'étiage des rivières.
Pour tout seuil q0 fixé, on peut selon les problèmes opérationnels définir diverses
durées.
- soit la durée τ individualisée d'une période continue quelconque où le débit reste inférieur
ou égal à q0. On obtient ces durées et leur polygone de fréquence correspondant en
répertoriant toutes les périodes (d'une saison d'étiage définie a priori) où le débit n'a pas
27
dépassé q0.
- soit la durée maximale annuelle τm, maximum des durées précédentes pour chaque année.
- soit la durée totale annuelle τT, somme des durées pour chaque année.
Pour chacune de ces différentes variables, un modèle probabiliste adéquat est fourni
par la loi de Pearson type III (ou la loi de Gumbel pour τm en particulier). Ces lois seront
d’autant mieux ajustées que le seuil q0 sera bas. En effet pour des seuils élevés, τm et surtout τT
peuvent atteindre des valeurs proches de la durée constante fixée de la saison d'étiage prise en
compte de telle sorte que cette durée constante introduit une limite supérieure dont les lois
citées ne tiennnent pas compte. Cette analyse est donc plus particulièrement adaptée à la
description des débits d’étiage.
Considérons la Garonne à Lamagistère que nous a déjà servi d'exemple. La figure
14.21 présente la distribution des durées individualisées pour un seuil q0 égal à 70 m3/s avec
un système d'échelle logarithmique pour les probabilités (ou les durées de retour). La méthode
de positionnement des probabilités empiriques pour chaque valeur ordonnée est celle de la
formule 14.3 (Formule de Weibull).
La loi de Pearson type III ajustée est telle que m = o, c'est en fait une loi gamma
d'après la terminologie de la fiche C.
En utilisant la méthode des moments, on obtient :
𝑚′ = 5,05 𝑗𝑜𝑢𝑟𝑠 𝑒𝑡 √𝑚2 = 6,91 𝑗𝑜𝑢𝑟𝑠
ce qui donne les estimations
𝛼 = 0,106 𝜆 = 0,53
d'où la probabilité de non dépassement
𝑝(𝑡) = ∫𝑒−𝑡𝑡𝜆−1
𝛤(𝜆)
𝛼𝜏
0
𝑑𝑡 (14.63)
- Remarque importante
On aura noté que l'échelle des ordonnées du graphique (14.21) est graduée en durées
de retour annuelles.
On rappelle que (paragraphe 14.5.2)
Si les variables probabilisées sont annuelles (durées totales ou maximales), alors :
𝑇(𝜏) = 1 [1 − 𝑃(𝜏)] (14.64)⁄
ou P(τ) est la probabilité de non dépassement.
Si les variable probabilisées peuvent apparaître plusieurs fois par an (exemple des durées
individualisées), alors :
28
𝑇(𝜏) = 1 [�̅�(1 − 𝑃(𝜏))]⁄ (14.65)
où �̅� est le nombre moyen annuel des variables prises en compte. Cette expression est valable
lorsque P(τ) est assez grand (supérieur à 0,8 ou 0,9 par exemple).
Chaque ajustement de ce type est relatif à un seuil de débit q0, on obtient donc une
famille de courbes T = T(τ, q0) appelées courbes intensité-durée-fréquence dont la figure
(14.22) présente une illustration pour la Garonne à Lamagistère. En fait à chaque seuil de
débit porté en abscisse correspond une durée en ordonnée associée à une durée de retour fixe,
indexant chaque courbe. Une telle présentation est particulièrement démonstrative si on fait
figurer la courbe débit-durée d'une année particulière.
Pour terminer la description du modèle TEMPETIAGE, il faut noter que les
ajustements effectués fournissent une collection de paramètres d'ajustement tels les triplets
(m’1, m2, μ) ou (α, γ, N) pour chaque seuil. Pour synthétiser l'ensemble de ces résultats, il est
nécessaire de déterminer la loi de variation de ces paramètres en fonction du seuil. La loi la
plus couramment utilisée par les auteurs est la suivante :
𝛾(𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒) = 𝑎 𝑞0𝑏𝑒−𝑐𝑞0 (14.66)
- Portée, limites et généralisations
Les limitations de la méthode précédente sont celles de toute analyse statistique de
données hydrologiques limitées en qualité et en quantité. Les erreurs d'échantillonnge peuvent
être importantes mais 1a méthode peut en tenir compte comme le montre le calcul des
l’intervalles de confiance sur la figure (14.21). Les erreurs d'adéquation peuvent être
quelquefois plus gênantes. Notons en particulier que la méthode ne tient pas compte de l'effet
saisonnier sur les durées individualisées notamment, ce qui peut introduire une hétérogénéité
des observations de durée. Ceci peut aboutir à une inadéquation de la loi de Pearson : il
semble aussi que les transitions saisonnières entre hautes et basses eaux modifient les
probabilités; c'est une raison supplémentaire pour ne pas appliquer la méthode à des seuils
trop élevés.
La prise en compte d'un effet saisonnier passe visiblement en hydrologie par un
découpage arbitraire du temps; s'agissant d'étudier des durées, un tel découpage pose le
problème de l'affectation de chaque durée observée à une saison ce qui n'est pas sans
ambiguité pour les longues durées. Peut être vaut-il mieux prendre en compte une variation
saisonnière continue en fonction du temps ? Ce point de vue amène à modéliser les séquences
des époques de surplus et de déficits au moyen de processus stochastiques intermittents non
stationnaires. L'analyse des processus hydrologiques intermittents a été notamment proposée
par Yevjevich et appliquée à l'étude des précipitations (Yevjevich, 1972). Astier (1968) et
plus récemment North (1981) ont appliqué cette approche aux processus hydrologiques,
rendus artificiellement intermittents par le choix d’un seuil q0 définissant ainsi des processus
alternés, un état 1 (déficit) succédant à un état 2 (surplus) avec leurs durées respeetives
enchainées.
La séquence des durées est alors entièrement caractérisée par la série des époques de
rupture de type 1 (passage de 1 à 2) et de type 2 (passage de 2 à l) telles que la figure (14.23)
les présente soient :
29
𝜆1 = lim𝛥𝑡→0
[𝑃𝑟𝑜𝑏{𝑅𝑢𝑝𝑡𝑢𝑟𝑒 𝑑𝑒 𝑡𝑦𝑝𝑒 1 𝑒𝑛𝑡𝑟𝑒 𝑡 𝑒𝑡 𝑡 + 𝛥𝑡}/𝛥𝑡] (14.67)
𝜆2 = lim𝛥𝑡→0
[𝑃𝑟𝑜𝑏{𝑅𝑢𝑝𝑡𝑢𝑟𝑒 𝑑𝑒 𝑡𝑦𝑝𝑒 2 𝑒𝑛𝑡𝑟𝑒 𝑡 𝑒𝑡 𝑡 + 𝛥𝑡}/𝛥𝑡] (14.68)
L'effet saisonnier peut être pris en compte par des taux de rupture λ1 et λ2 fonctions, du
temps t seul (processus sans mémoire), ou fonction du temps et du passé du processus, par
exemple la durée x de l'état 1 ou 2 avant l'époque t (processus avec mémoire). Si alor x1 et x2
sont les durées respectives d'états 1 et 2 et u1 et u2 sont les époques de début de chaque état,
on a :
𝑃𝑟𝑜𝑏[𝑋1 < 𝑥 𝑈1 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆1(𝑡) 𝑑𝑡𝑢+𝑥
𝑢
]
𝑃𝑟𝑜𝑏[𝑋2 < 𝑥 𝑈2 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆2(𝑡) 𝑑𝑡𝑢+𝑥
𝑢
]
ou, puisque t-u = x
𝑃𝑟𝑜𝑏[𝑋1 < 𝑥 𝑈1 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆1(𝑡, 𝑡 − 𝑢) 𝑑𝑡𝑢+𝑥
𝑢
]
𝑃𝑟𝑜𝑏[𝑋2 < 𝑥 𝑈2 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆2(𝑡, 𝑡 − 𝑢) 𝑑𝑡𝑢+𝑥
𝑢
]
Ces formules permettent le calcul des lois de probabité des durées de chaque type,
connaissant les taux de rupture.
North (1980) a développé des méthodes d'estimations originales des fonctions λ1 et λ2
et des méthodes de simulation des durées successives x1et x2 à partir de fonctions de
répartition précédentes. La figure (14.29) présente l'estimation de λ1 et λ2 obtenue pour quatre
seuils de débits de la Loire à Blois.
Dans le cas du processus sans mémoire, il est possible, pour chaque état 1, d’effectuer
un changement d'horloge en transformant le temps t en un temps théorique θ tel que :
𝜃 − 𝜃0 = ∫ 𝜆𝑖(𝑢) 𝑑𝑢𝑡
𝑡0
(14.71)
auquel cas le processus des époques transformées est homogénéisé, c'est-à-dire rendu tel que
λi = constante (indépendante de t ou θ). North a démontré que cette homogénéisation était
possible pour des processus avec mémoire tels que :
𝜆(𝑡, 𝑥) = �̅�(𝑡)𝛹(𝑥′)
le taux de rupture se factorisant en un produit de fonction du temps t seul �̅�(𝑡) (estimée en
superposant sur une même année toutes les époques de ruptures), et une fonction antécédente
Ψ(x') de la durée de déficit (ou surplus) antécédente x’ homogénéisée c'est-à-dire obtenue
après changements d'horloge définis par les �̅� (t). Un tel modèle s'est avéré réaliste pour la
30
description et la simulation des étiages de la Loire à Blois. Les figures (14.24) et (14.25)
montrent les résultats de l'application de ce modèle pour les durées de surplus (seuil de 100
m3/s). La référence au modèle gamma alterné dans ces figures signifie que les durées
homogénéisées de surplus et déficits ont été ajustées à une loi gamma.
14.4 Les modèles stochastiques des processus hydrologiques multidimensionnels
Les modèles stochastiques unidimensionnels décrits au paragraphe précédent tendent à
préserver, si on les utilise en prévision ou en simultion, la structure temporelle des séquences
de débits observés en chaque station de jaugeage prise isolément. Mais si, à l'échelle spatiale,
on suit conjointement les chroniques hydrologiques de plusieurs stations, il importe également
de préserver, lorsqu'on modélise ces chroniques, les structures spatiales souvent étroites
(paragraphe 14.2.3). La combinaison des dimensions spatiales et temporelles pose des
problèmes difficiles qui, malgré quelques essais d'applitations de processus ARMA
généralisés, ou sur le plan pratique d'extension à plusieurs dimensions du modèle DEJOREG,
(Leviandier et al., 1980), n'ont été abordés systématiquement qu'à partir de modèles
markoviens généralisés. Nous nous limiterons ici à ce type de modèles.
Considérons les chroniques de débits moyens observés à deux stations de jaugeage au
cours de périodes de temps successives de l'ordre du mois ou des saisons de l'année (domaine
de validité des modèles marrkoviens). Comme dans 14.3.1 on appellera X1t et X2
t les débits
ou des transformations adéquates de ces débits pour les stations l et 2. Un modèle
bidimensionnel généralisant naturellement l’équation (14.52) peut être écrit :
𝑋𝑡+11 = 𝜇𝑡+1
1 + 𝛽𝑡+111 (𝑋𝑡
1 − 𝜇𝑡1) + 𝛽𝑡+1
12 (𝑋𝑡2 − 𝜇𝑡
2) + 𝜀𝑡+11
(14.72)
𝑋𝑡+12 = 𝜇𝑡+1
2 + 𝛽𝑡+121 (𝑋𝑡
1 − 𝜇𝑡1) + 𝛽𝑡+1
22 (𝑋𝑡2 − 𝜇𝑡
2) + 𝜀𝑡+12
formule où apparaissent non seulement les liaisons en chaîne temporelles (coefficients
𝛽𝑡+111 et 𝛽𝑡+1
22 ) mais aussi les liaisons spatiales (coefficients 𝛽𝑡+112 et 𝛽𝑡+1
21 ).
Si les variables « résidus » 𝜀𝑡+11 et 𝜀𝑡+1
2 sont conjointement indépendantes des résidus
antérieurs 𝜀𝑡1 et 𝜀𝑡
2 etc…, elles peuvent ête mutuellement dépendantes entre elles, intégrant
ainsi une part de la dépendance spatiale de 𝑋𝑡+11 et 𝑋𝑡+1
2 .
On appellera 𝜎𝑡11, 𝜎𝑡
22, 𝜎𝑡12 les variances et les covariances respectives des variables 𝑋𝑡
1
et 𝑋𝑡2. Par ailleurs 𝑉𝑡
11, 𝑉𝑡22 et 𝑉𝑡
12 seront les caractéristiques analogues pour 𝜀𝑡1 et 𝜀𝑡
2.
Il existe des relations de cohérence entre ces paramètres et ceux du modèle (14.72)
généralisant les formules (14.53) et (14.54), soit :
𝛽𝑡+111 𝜎𝑡
11 + 𝛽𝑡+112 𝜎𝑡
21 = 𝜎𝑡,𝑡+111
𝛽𝑡+111 𝜎𝑡
12 + 𝛽𝑡+112 𝜎𝑡
22 = 𝜎𝑡,𝑡+112
(14.73)
𝛽𝑡+121 𝜎𝑡
11 + 𝛽𝑡+122 𝜎𝑡
21 = 𝜎𝑡,𝑡+121
𝛽𝑡+121 𝜎𝑡
12 + 𝛽𝑡+122 𝜎𝑡
22 = 𝜎𝑡,𝑡+122
31
et d’autre part :
𝛽𝑡+111 𝜎𝑡,𝑡+1
11 + 𝛽𝑡+112 𝜎𝑡,𝑡+1
12 + 𝑉𝑡11 = 𝜎𝑡+1
11
𝛽𝑡+121 𝜎𝑡,𝑡+1
21 + 𝛽𝑡+122 𝜎𝑡,𝑡+1
22 + 𝑉𝑡22 = 𝜎𝑡+1
22 (13.74)
𝛽𝑡+111 𝜎𝑡,𝑡+1
12 + 𝛽𝑡+122 𝜎𝑡,𝑡+1
22 + 𝑉𝑡12 = 𝜎𝑡+1
12
Nous verrons ultérieurement le mode de calcul de ces relations. En fait pour chacune
des équations (14.73) la méthode d'estimation des β et des V n'est pas autre chose que la
méthode de calcul de la régression de la variable expliquée (à t+1) en fonction des deux
variables explicatives (à t) (fiche D).
Il est donc possible de déterminer par ces relations les paramètres de β et V d'un tel
modèle markovien à 2 sites de façon à préserver l'ensemble des caractéristiques temporelles et
spatiales du second ordre représentées par les variances et covariance σ.
- Mise en œuvre du modèle multidimensionnel
Considérons le cas le plus courant où ce type de modèle peut être appliqué, celui des
débits mensuels. A cette échelle le processus est périodique, de période égale à 12 mois. Ainsi
les espérances 𝜇𝑡 et variance 𝜎𝑡11sont spécifiques à chaque mois calendaire et les covariances
𝜎𝑡𝑖𝑖 ou 𝜎𝑡,𝑡+1
11 représentent les liaisons entre stations pour le même mois ou les liaisons entre
mois adjacents.
Les formules (14.73) et (14.74) sont utilisables pour caler le modèle en estimant les
paramètres μt par les moyennes empiriques de chaque mois et les paramètres β et V à partir
des variances et covariances empiriques mensuelles calculées sur les échantillons observés.
Cette méthode d'estimation est optimale (maximum de vraisemblance) si les résidus ε sont
distribués selon des lois normales bi et multidimensionnelles car les distributions normales
multidimensionnelles sont les seules à pouvoir être traitées relativement facilement sur le plan
pratique notamment en simulation. On s'y ramenera donc soit directement sur les débits, soit
sur des transformations de ces débits (exemple des débits logarithmiques ou des
anamorphoses normales des distributions d'Halphen – cf paragraphe 14.3.1b).
Une remarque importante doit maintenant êtrefaite. On sait que le modèle markovien
unidimensionnel a été employé etvérifié dans de nombreux cas. Il reste à savoir si la
généralisation markovienne bidimensionnelle est compatible avec le modèle unidimensionnel
c'est-à-dire si chaque variable prise séparément (chaque marge) obéit au modèle (14.52). Ce
n'est généralement pas le cas. Chaque 𝑋𝑡+1𝑖 des formules (14.57) obéira à un modèle
markovien si :
𝛽𝑡+112 = 𝛽𝑡+1
21 = 0
Dans ce cas la liaison entre les débits des deux stations est prise en compte
uniquement par la correlation éventuelle des deux résidus 𝜀𝑡+11 et 𝜀𝑡+1
2 .
Ce type de modèle à marges markoviennes a été proposé par Fiering (1961). Est-il
réaliste ? On devrait répondre par l'affirmative si on accorde une confiance absolue aux tests
statistiques de vérification du modèle unidimensionnel. On notera toutefois que les tests ne
32
permettent d'accepter un modèle que dans la mesure où rien dans l'information (ici
unidimensionnelle) ne permet de l'infirmer. Cela n'exclut pas un résultat un négatif si une
information complémentaire multidimensionnelle le montre. En fait certaines applications
montrent que les coefficients 𝛽𝑡+1𝑖𝑖 ne sauraient être nuls dans les cas étudiés.
14.4.2 Les modèles multisites (Matalas, 1967; Bernier 1971)
Sous la forme multidimensionnelle, le modèle markovien s'écrit :
𝑋𝑡+11 = 𝜇𝑡+1
1 + ∑ 𝛽𝑡+1𝑖𝑗
(𝑋𝑡𝑗
− 𝜇𝑡𝑗) + 𝜀𝑡+1
1
𝑘
𝑗=1
…
𝑋𝑡+1𝑖 = 𝜇𝑡+1
𝑖 + ∑ 𝛽𝑡+1𝑖𝑗
(𝑋𝑡𝑗
− 𝜇𝑡𝑗) + 𝜀𝑡+1
𝑖𝑘𝑗=1 (14.75)
…
𝑋𝑡+1𝑘 = 𝜇𝑡+1
𝑘 + ∑ 𝛽𝑡+1𝑘𝑗
(𝑋𝑡𝑗
− 𝜇𝑡𝑗) + 𝜀𝑡+1
𝑘
𝑘
𝑗=1
C'est bien un modèle markovien portant sur le vecteur des k variables des débits ou
des transformations des débits {𝑋𝑡1, … , 𝑋𝑡
𝑖 , … , 𝑋𝑡𝑘} relatives à k stations étudiées dans leur
ensemble. Ce modèle sera à marges markoviennes pour autant que :
𝛽𝑡+1𝑖𝑗
= 0
pour tout couple i, j tels que i ≠ j.
Pour simplifier l'écriture nous utiliserons dorénavant les notations matricielles en
utilisant les variables réduites :
𝑌𝑡𝑖 = (𝑋𝑡
𝑖 − 𝜇𝑡𝑖) √𝜎𝑡
𝑖𝑖⁄
Les formules suivantes seront écrites en prenant une période arbitraire pour origine,
c’est-à-dire en posant t=1.
L’ensemble des équations (14.75) est donc représenté par l'équation matricielle :
𝑌2 = 𝐵21𝑌1 + 𝜀2 (14.77)
où Y1 et Y2 sont les vecteurs de coordonnées {𝑌𝑡𝑖}et {𝑌𝑡+1
𝑖 } respectivement, ε2 un vecteur de
résidu, indépendant de Y1 et des ε précédents, B21 une matrice de coefficients (différents des β
de la formule (14.75). On notera : Σ11 = 𝐸[𝑌1𝑌1𝑇] et Σ21 = 𝐸[𝑌2𝑌2
𝑇] les matrices de variances
et covariances, espérances des produits des vecteurs centrés réduits Y par leur transposés YT
et Σ(ε) les matrices de covariance des ε. Les formules de cohérence généralisant les relations
(14.73) et (14.74) sont les suivatntes :
𝐵21 = Σ21Σ11−1 (14.78)
33
Σ(𝜀2) = Σ22 − 𝐵21Σ12 = Σ22Σ11−1Σ11 (14.79)
Ces formules permettent l'estimation des paramètres B21 et Σ(ε2) en utilisant les
matrices de covariances empiriques S12, S11, S22 déduites des observations. On notera que si
les vecteurs Y dans leur ensemble sont markoviens, il existe des relations de récurrence sur
les structures de corrélation généralisant l'équation (14.56) sur les coefficients de corrélation à
trois pas de temps successifs soit :
Σ31 = Σ32Σ22−1Σ21 (14.80)
- Valeur intrinsèque du modèle à marge non-markovienne
Si l'hypothèse 𝛽𝑡𝑖𝑗
= 0 caractéristique des marges markoviennes doit être abandonnée,
une difficulté apparaît : si un modèle (14.75) est utilisé avec k stations, chaque variable Xit
doit suivre un modèle marginal dont la structure d'autocorrelation dépend de cette valeur k qui
n'est pas intrinsèque au modèle mais est fonction du nombre parfaitement arbitraire des
stations analysées par ce modèle. En fait cette difficulté n'est qu’apparente car les liaisons
spatiales entre les stations sont assez étroites et on ne change rien à multiplier le nombre de
stations. Il importe donc de faire apparaître les liaisons spatiales dans le modèle. Celui-ci peut
être exprimé par deux niveaux :
- un premier niveau exprimant les variables Xit ou Yi
t en fonction d'un nombre fixé, constant,
inférieur à k de composantes Zt intrinsèques à l'ensemble de base étudié :
𝑌𝑡 = 𝐴𝑡𝑍𝑡 + 𝜂𝑡 (14.81)
- un second niveau exprimant les liaisons temporelles en chaîne de Markov des composantes
régionales Zt par un modèle analogue à (14.77).
𝑍𝑡+1 = 𝐵𝑡+1,𝑡𝑍𝑡 + 𝜀𝑡 (14.82)
Une méthode propre à la recherehe des variables régionales Zt (pour chaque période t)
et à l'estimation des matrices At, est la méthode des composantes principales (voir fiche G)
tirées de 1'analyse pour chaque t, des matrices de covariance Σ11. Pour la modélisation selon
(14.81) on se borne à retenir les p premières composantes de variances λi) les plus fortes telles
que le rapport
𝑅 = ∑ 𝜆𝑖
𝑝
𝑖=1
∑ 𝜆𝑖
𝑘
𝑖=1
⁄
soit suffisamment prochede 1.
- les Zt étant ainsi déterminés avec toutes leurs caractéristiques statistiques, il est loisible de
leur appliquer le modèle multidimensionnel (14.75) ou (14.77).
- Les modèles de désagrégation
Nous avons reporté dans ce paragraphe un exposé des modèles de désagrégation de
Valencia et Schaake (1973) car leurs principes sont plus aisés à exposer dans le cadre
34
multidimensionnel même s'ils peuvent s'appliquer à la simulation des débits en un seul site.
Nous utiliserons ici la forme plus générale due à Mejia et Rousselle (1976). Rappelons que
l'objectif de ces modèles est de désagréger des séquences de débits annuels en séquences de
valeurs mensuelles successives en respectant à la fois les structures algébriques (valeurs
annuelles égales à une moyenne pondérée de valeurs mensuelles relatives à la même année) et
les structures statistiques représentées par les covariances.
Le modèle général s'écrit sous la forme :
𝑌𝑡 = 𝐴𝑋𝑡 + 𝐵𝑍𝑡 + 𝜀𝑡 (14.83)
avec
• Xt vecteur des débits annuels de k stations pour 1'année ;
Yt vecteur des 12 k débits mensuels correspondant aux k stations pour l'année t ;
Zt vecteur des k débits mensuels de l'année t - 1, intervenant dans la liaison en chaîne des
débits mensuels des k stations pour le premier mois de l'année t (exemple des débits de
décembre de t – 1 dans le cas de l'année calendaire, t commençant en janvier) ;
• εt vecteur de variables résiduelles de la matrice de variances et covariances
Les relations structurelles entre les X et les Y sont exprimées par :
𝑋𝑡 = 𝐷𝑌𝑡 (14.84)
représentent, par exemple pour chaque station i, une relation du type :
𝑋𝑡𝑖 = ∑
𝑦𝑡𝑖,𝑗
12
12
𝑘=1
si on néglige les diffdrences entre les durées des mois. Dans ces relations les dimensions des
matrices A, B, C, D sont adaptées aux dimensions des vecteurs pour que les produits
matriciels aient un sens.
Etant donné les matrices de variances et covariances des X, Y, Z, on peut obtenir des
relations de cohérence entre les paramètres, sait :
Σ𝑌𝑋 = 𝐴𝑋𝑋 + 𝐵 Σ𝑍𝑋 (14.85)
Σ𝑌𝑍 = 𝐴Σ𝑌𝑍 + 𝐵Σ𝑍𝑍 (14.86)
Σ𝑌𝑌 = 𝐴Σ𝑋𝑋𝐴𝑇 + 𝐴Σ𝑋𝑍𝐵𝑇 + 𝐵Σ𝑍𝑋𝐴𝑇 + 𝐵Σ𝑍𝑍𝐵𝑇 + Σ(𝜀) (14.87)
On peut exprimer les εt en fonction de variables indépendantes u d'espérance nulle et
de variances égales à 1, soit :
𝜀 = 𝐶 𝑢
de telle sorte que :
Σ(𝜀) = 𝐶 𝐶𝑇
35
En utilisant les relations (14.85) à (14.88) il est possible de déterminer (Valencia et
Schaake, 1973) les matrices A, B, C telles que la relation de cohérence structurelle (14.84)
soit respectée. Bien entendu la même procédure s’applique si K=l (modèle unisite). On
trouvera dans ce cas une application récente de cette procédure dans Delleur et Karamouz
(1982). La principale difficulté pour l'applicabilité de ce modèle et la fiabilité des
prédéterminations et simulations qui en résultent est la multiplicité des paramètres en regard
de 1'information limitée. Une procédure propre à réduire notablement le nombre de ces
paramètres pourrait être l'application préalable d’analyses en composantes principales
séparément sur les vecteurs Xt, Yt et Zt et la lise en œuvre de modèles markoviens sur les
composantes. Il reste que des relations structurelles du type de (14.84) ne sont plus induites
sur ces composantes. De plus, ces relations structurelles linéaires ne sont plus valables si on
utilise des transformations de débits mensuels du type logarithmique par exemple pour ajuster
des lois normales aux résidus. D'ailleurs le modèle (14.83) les respecte automatiquement
parce qu'elles sont en fait intégrées dans les covariances ΣXY. En pratique, il nous semble
préférable d'utiliser les modèles linéaires (14.83) sur des transformations de débits qui
permettent 1'ajustement de lois statistiques réalistes sur les εt sans vouloir respecter de façon
précise des relations structurelles (14.81) qui apparaissent secondaires dans une simulation
statistique.
14.5 La description statistique des crues
L'analyse statistique des débits de crue est fort ancienne en hydrologie puisque les
premières études fréquentielles remontent à Hazen (1930). L'estimation de crues de
probabilité fixée est le prototype des problèmes de prédétermination directement reliés aux
décisions de dimensionnement d'ouvrages hydrauliques de protection contre les crues qui sont
généralement basées sur la notion de crue de projet. Quelles que soient les caractéristiques de
cette crue, on ne peut exclure l'éventualité future d'un dépassement des caractéristiques de
projet par celles d'une crue réelle et les conséquences dommageables qui peuvent en découler.
Il en résulte qu'un problème essentiel est le contrôle de ces risques qu'on ne peut écrire qu'en
termes de probabilité. Nous ne considérons ici que le cas où la crue de projet n'est décrite que
par le seul débit maximal, laissant de côté la prise en compte d'autres caractéristiques comme
le volume, la durée, etc… (J. Bernier, 1979).
Donc, à chaque année est associée une réalisation du débit maximal annuel QM dont la
fonction de répartition s'écrit :
𝐺(𝑞) = 𝑃𝑟𝑜𝑏[𝑄𝑀 < 𝑞] = 𝑝 (14.89)
Une analyse complète du choix de la probabilité de dépassement 1- p associée au débit
Q (l–p) de la crue de projet devrait être basée sur une évaluation des dommages résiduels.
Cependant la quantification de ces dommages, notamment sur le plan économique,
quelquefois entreprise (Bernier et Miquel, 1977) est très difficile et souvent imprécise. La
procédure pratique généralement préférée est de choisir (1 – p) forfaitairement en la fixant à
des niveaux acceptables (1/10, 1/100, 1/1000 ou moins) selon le degré de risques encourus.
Notons qu'au niveau 1/1000 ou moins, la probabilité (1 – p) est difficilement interprétable en
termes de fréquence annuelle. On peut cependant la considérer d'une autre façon comme
fixant les conditions d'un pari que le projeteur doit accepter pour prendre se décision. Cette
conception opérationnelle des probabilités hydrologiques des crues est à la base de
développements nouveaux dans les problèmes de dimensionnement (Applications de la
36
théorie de la décision ; Davis et al., 1972; Bernier et Miquel, 1977).
En hydrologie, l'interprétation concrète de (1 – p) est souvent basée sur la notion de
durée de retour T = 1 / (1 - p). C'est la valeur moyenne du nombre d'années séparant deux
occurrences successives d'un débit maximal annuel supérieur à Q (l–p). A T = 10, 100 ou 1000
ans sont associés ainsi les débits de crues dits décennal, centennal ou millennal. Il importe de
souligner que cette notion n'implique pas une régularité d'occurrence des débits
correspondants. Le nombre d'années N séparant deux occurences successives de l'événement
QM > q est une variable aléatoire exponentielle dont la loi s'écrit pour (1 – p) petit :
𝑃𝑟𝑜𝑏[𝑁 < 𝑛] = 1 − 𝑒−𝑛 (1−𝑝)⁄ (14.90)
Certes l'espérance mathématique de N est égale à T, mais N peut être très dispersé
autour de cette valeur moyenne. Ainsi pour T = 100, il y a pratiquement 10 chances sur 100
pour que N soit inférieur ou égal à 10 ans, 40 chances sur 100 pour que N < 50 ans et 63
chances sur 100 pour que N < 100 ans.
14.5.1 Les méthodes des débits maximaux annuels
Le principe de ces méthodes est l'estimation directe de la distributiong G(q) des débits
maximaux annuels d'un cours d'eau observés à une station de jaugeage à partir d'un
échantillon de réalisations de cette variable, c'est-à-dire de séries plus ou moins longues de
débits maximaux annuels observés. On ajuste alors aux courbes de fréquences empiriques
déduites de ces observations une loi statistique choisie parmi un ensemble assez large. Nous
allons inventorier les principales distributions utilisées.
Comme le montre le polygone de fréquences (figure 14.26) des débits maiximaux
annuels de la Garonne au Mas d'Agenais les lois de probabilités utilisables pour les crues
doivent avoir une densité de probabilité de dissymétrie positive. La densité de la loi normale,
symétrique, n'a pas cette propriété. Par contre il est possible d'ajuster la loi log-normale qui
s’applique couramment aux crues avec les méthodes d'ajustement décrites dans la fiche C. La
figure 14.27 illustre cet ajustement sur mes mêmes données de la Garonne.
Les lois des extrêmes [Gumbel–Fréchet]
On trouvera en fiche C la présentation de la distribution de Gumbel. On remarquera
que la fonction de répartition (C.29) peut s'écrire en utilisant les notations G et q à la place de
Fet y.
𝐺(𝑞) = 𝑒𝑥𝑝[−𝑒𝑦] avec y = α (q - β) (14.91)
Ainsi en posant la transformation linéaire (14.91) on peut écrire la fonction G sous
une forme indépendantes des paramètres α et β. C'est dire que la loi de Gumbel jouit d'une
représentation graphique analogue à celle de la loi normale. Si l'échelle linéaire des ordonnées
proportionnelle à la variable y est graduée en probabilité selon la loi (14.91) et si le débit q est
porté en abscisse, cette loi de Gumbel est représentée par une droite. La figure (14.28) montre
l'ajustement de cette loi de Gumbel aux débits maximaux annuels de la Garonne à Mas
d'Agenais, ajustement obtenu en estimant les paramètres α et β par la méthode des moments
(paragraphe C.8.1).
37
Il est quelquefois intéressant d'employer une autre distribution, dite loi de Fréchet
dont la fonction de répartition s'écrit sous la forme (14.91) mais avec la transformation :
𝑦 = 𝛼(log 𝑞 − 𝛽) (14.92)
Autrement dit, c'est le logarithme du débit qui est distribué selon la loi de Gumbel.
Les lois de Gumbel et Fréchet ont souvent joui en hydrologie d'une grande faveur en
raiso d'une "apparente justification théorique". En effet si théoriquement on considère la plus
grande valeur XN d'un échantillon de N observations indépendantes obéissant à la même
fonction de répartition F, alors :
𝑃𝑟𝑜𝑏[𝑋𝑁 < 𝑥] = [𝐹(𝑥)]𝑁 (14.93)
Sous certaines hypothèses les lois de Gumbel et Fréchet se présentent comme les
forme limites de la loi de Xn pour N très grand.
Il pouvait être tentant d'appliquer cette théorie au débit maximal annuel, maximum des
365 débits journaliers d'une année. Cependant on a observé depuis longtemps que les débits
journaliers ne sont pas indépendants entre eux, que 365, taille de l'échantillon annuel n'est pas
un très grand nombre et que la loi de probabilité des débits journaliers varie avec la saison.
Ces justifications théoriques sont donc fallacieuses. Seules des considérations
empiriques appuyées par des tests statistiques de plus ou moins bon ajustement au
observations peuvent guider le choix de la distribution des crues. On notera en comparant les
figures 14.27 et 14.28 que l'ajustement par Gumbel n'est pas meilleur que celui de la loi log-
normale.
Loi de Pearson type 3 et log-Pearson type 3
Certains spécialistes, notamment aux Etats-Unis et au Canada (Benson, 1968; Bobée,
1976) ont reproché à la loi de Gumbel de ne pas prendre en compte la variation du coefficient
d’asymétrie Cs (paragraphe C.2) avec les stations. En effet, la valeur théorique de ce
coefficient est constante (Cs = 1,139) pour la loi de Gumbel. Dans une analyse des données de
19 stations canadiennes, Bobée (1976) a obtenu des valeurs de Cs allant de 0 à plus de 3. Il
semblait donc opportun d'utiliser des distributions à 3 paramètres d'ajustement comme les lois
de Pearson type 3 et log-Pearson type 3 décrites aux paragraphes C.6 et C.7 avec leurs
méthodes d'estimations (moments ou maximum de vraisemblance). La figure (14.29) montre
l’ajustement obtenu par Bobée de la loi de Pearson type 3 aux débits maximaux annuels de la
station de Vijayawa sur la rivière Krishna en Inde. On notera que le graphique présenté utilise
la transformation d'échelle des probabilités en abscisse par la loi normale (formules 14.7 et
14.8). Bien entendu, dans un tel graphique la loi de Pearson type ajustée n'est plus représentée
par une droite. La figure (14.30) montre, avec le même système d’échelles, un exemple
d'ajustement de la loi log-Pearson type 3 sur les données de la station indienne précédente
avec le tracé des intervalles de confiance dont l'un (Courbes en tiretés) résulte de la méthode
décrite dans la fiche C; l'autre intervalle de confiance a été calculé par une méthode
particulière décrite par Bobée et Korin (1973).
14.5.2 Les méthodes des dépassements de seuils
38
Les méthodes des débits maximaux annuels peuvent soulever un certain nombre de
difficultés. En premier lieu elles traitent une information généralement limitée, ce qui peut
augmenter les effets des erreurs d'échantillonnage (singulièrement avec 3 paramètres
d'ajustement). Mais le problème essentiel est celui des erreurs d'adéquation. La difficulté
première de l'extrapolation des lois de probabilité des crues pour les petites valeurs de (1 –p)
(formule 14.89) a été décrite par M. Pardé, en termes suggestifs : "Est-on sûr que les
possibilités de tous les cours d’eau, en ce qui concerne les grandes inondations, sont intégrées,
inscrites, comme sont semés des germes, dans les parties basses des courbes de fréquence
expérimentales ? ".
Ces incertitudes doivent inciter l'hydrologue à augmenter son information pour tenter
d'intégrer le maximum de types de crue possibles, associés aux divers mécanismes de genèse
de ces crues. La méthode des débits maximaux annuels peut entraîner de notables erreurs
d'adéquation dans la mesure où on y traite de façon conjointe de débits de crue engendrés par
des mécanismes hétérogènes. Le souci de réduire les diverses sources d'erreurs amène donc à
utiliser éventuellement une information hydrométrique plus complète, à incorporer les
données pluviométriques (Voir le paragraphe consacré aux méthodes hydrométéorologiques)
et à tenir compte de 1'information spatiale et des facteurs de variabilités systématiques
résultant de la géomorphologie des bassins.
Dans le cadre du premier principe posé ci-dessus, Shane (1966) puis Todorovic (1978),
ont proposé une méthode qui, parallèlement, a été extensivement étudiée et utilisée en France
et dont on retrouvera un exposé complet orienté vers les applications pratiques dans le "Guide
d'estimation des probabilités des débits de crue par J. Miquel (1984) :
En se fixant un seuil de débit q0, on peut sélectionner toutes les crues dont le débit
maximal Qi dépasse ce seuil ayant choisi une période de référence t (année ou saison
homogène à l'intérieur de l'année, on étudie séparement (figure 14.31). La distribution du
nombre k de crues supérieures au seuil par saison et la distribution conditionnelle de toutes les
crues Qi sélectionnées sachant donc que ces Qi sont supérieures au seuil q0.
Etant admises les deux hypothèses suivantes : l'indépendance mutuelle de tous les Qi
et l'appartenance à une même loi statistique de tous ces Qi, on peut montrer que la fonction de
répartition du maximum Qt annuel ou saisonnier (sur la période t) des Qi sélectionnés, s’écrit :
𝐺𝑡(𝑞) = 𝑃𝑟𝑜𝑏[𝑄𝑡 < 𝑞] = ∑ 𝑃(𝑘)[𝐹(𝑞)]𝑘
∞
𝑘=0
(14.94)
soit
𝐺𝑡(𝑞) = 𝐼(𝐹) (14.95)
où :
- P (k) est la probabliité de dépasser k fois le seuil surt t ( K=k );
- F (q) est la probabilité de non-dépassement de q sachant qu'on a dépassé le seuil q0 :
- I est la fonction dite génératrice de la distribution des P (k) c'est-à-dire, par définition :
39
𝐼(𝑢) = ∑ 𝑃(𝑘)
∞
𝑘=0
𝑢𝑘
Une expression approchée valable pour les grandes valeurs de q pour lesquelles F(q)
est voisin de 1 est la suivante ;
𝐺𝑡(𝑞) = 1 − 𝐸(𝑘) [1 − 𝐹(𝑞)]
de telle sorte que pour le maximum annuel, si t est l'année, la période de retour T (q) associée
à q sera :
𝑇(𝑞) =1
𝐸(𝐾)[1 − 𝐹(𝑞)] (14.96)
- Remarque : La vérification de 1'indépendance des Qi impose des précautions pour la
sélection. Ainsi, ne doit-on pas prendre en compte les maximas secondaires de certaines crues
comme la deuxième de notre figure (l4.31). Une méthode objective de sélection doit être
utilisée, par exemple en imposant une limite inférieure de 1'intervalle de temps séparant deux
maximas prls en compte. Il importe également de pratiquer l'essai de plusieurs seuils.
- Les distributions statistiques utilisées
- Distribution des P (k) : Bien que la formule approchée (14.96) ne nécessite que l'estimation
de E (k ), il est généralement utile d'ajuster une loi théorique aux fréquences observées ; les
lois les plus courantes sont :
- la loi de Poisson : 𝑃(𝑘) = 𝑒−𝜇 𝜇−𝑘
𝑘! (14.97)
- la loi binomiale négative : 𝑃(𝑘) = (𝑘 + 𝛾
𝑘) 𝛼𝛾(1 − 𝛼)𝑘 (14.98)
dépendant de deux paramètres γ et α.
- Distribution F (q) des Qi
Diverses lois statistiques peuvent être utilisées. En France (Miquel, 1984) la loi la plus
généralement usitée est la distributrice de Weibull :
𝐹(𝑞) = 1 − 𝑒−𝜌(𝑞−𝑞0)𝑝 (14.99)
dépendant de deux paramètres ρ et p et dont un cas particulier pour p = 1 fournit la loi
exponentielle assez souvent obtenue dans les ajustements.
En revenant à la formule (14.94) on peut montrer que, si P (k) est distribuée selon la
loi de Poisson et F (q) selon la loi exponentielle, on obtient pour la distribution du maximum
annuel :
𝐺(𝑞) = 𝑒𝑥𝑝[−𝑒−𝜌(𝑞−𝑞0)] (14.100)
40
c'est-à-dire une loi de Gumbel tronquée à la valeur q = q0.
- Estimation des paramètres
En ce qui concerne les distributions de Poisson et binomiale négative la méthode des
moments fournit les estimations :
�̅� =1
𝑁∑ 𝑘𝑗 = �̅� (14.101)
𝑁
𝑗=1
�̅� =�̅�
𝑠2 , �̅� =
�̅��̅�
1 − �̅� (14.102)
où les kj sont les nombres (annuels ou saisonniers) de crues sélectionnées ( > q0) observées
sur N années; �̅� est leur moyenne et s2 leur variance empirique.
En ce qui concerne la distribution de Weibull, la nécessité d'estimer le paramètre p très
sensible, impose généralement l'utilisation de la méthode du maximum de vraisemblance.
Dans ce cas :
�̅� =𝐾𝑇
∑ (𝑄𝑖 − 𝑞0)𝑝𝐾𝑇𝑖=1
(14.103)
où 𝐾𝑇 = ∑ 𝑘𝑗𝑁𝑗=1 le nombre total de Qi sélectionnés et p est solution de l’équation suivante :
𝐾𝑇
𝑝+ ∑ 𝑙𝑜𝑔(𝑄𝑖 − 𝑞0)
𝐾𝑇
𝑖=1
− 𝐾𝑇
∑ (𝑄𝑖 − 𝑞0)𝑝𝐾𝑇𝑖=1
∑(𝑄𝑖 − 𝑞0)𝑝
𝐾𝑇
𝑖=1
𝑙𝑜𝑔(𝑄𝑖 − 𝑞0) = 0 (14.104)
dont la solution est obtenue par approximations successives.
Le report de ces estimations (14.101) (14.103) et (14.104) dans la formule approchée
(14.100) fournit une estimation de la période de retour ou, en inversant la formule, une
estimation du débit de crue de période de retour T fixée :
𝑞𝑇 = 𝑞0 + [𝐿𝑜𝑔 𝜇𝑇
𝑝]
1 𝑝⁄
(14.105)
On trouvera dans Miquel (1983) le mode de calcul, assez complexe, des intervalles de
confiance sur QT. Les figures (14.32) et (14.33) illustrent des applications de cette méthode.
- Possibilités d’extension de la méthode des dépassements de seuils
Une propriété particulièrement importante de la méthode est la relative facilité avec
laquelle on peut prendre en compte l’information "historique" c'est-à-dire les renseignements
sur des crues anciennes particulièrement fortes au cours des 100 ou même 200 dernières
années. Cette information peut être notamment plus utile que la série des observations
régulières pour donner un support d’extrapolation valable des lois de probabilité dans la zone
41
des fortes durées de retour et aussi elle permet de diminuer les erreurs d’adéquation. Bien
entendu, les données sur ces crues historiques, hauteurs ou a fortiori débits peuvent être très
incertaines. Il faut une analyse critique serieuse mais en fait l’expérience a montré que les
incertitudes ne sont souvent pas si graves au niveau des estitations finales. La méthode
permettant la prise en compte de ces informations historiques a été décrite dans Bernier et
Miquel (1977). La figure (14.34) illustre une application aux crues de la Moselle à
Hauconcourt où 6 crues historiques sur 100 ans conjointement aux observations régulières sur
20 ans ont notablement réduit (de moitié) les intervalles de confiance.
Une autre extension utile est le modèle non stationnaire de M. North (1980). Ce
modèle utilise l'hypothèse de base de l'indépendance des crues supérieures au seuil mais par
contre abandonne l'hypothèse d'une même distributriee des Qi au cours de la saison de l'année
au profit d'une distribution variable représentée par la loi exponentielle où le paramètre varie
avec le temps. Parallèlement le processus des époques de dépassement de seuil est modélisé
par un processus de Poisson non stationnaire. Ce modèle est particulièrement intéressent pour
analyser la variation saisonnière des risques de crues.
14.5.3 Les méthodes hydrométéorologiques
Les méthodes hydrométéorologiques tendent à établir un transfert entre les lois de
probabilité des débits de crue et celles des précipitations génératrices. La mobilisation
de1'information pluviométrique a fait l'objet de quelques études notamment en France
(Jacquet et Bernier, 1967). Toutefois, dans ce domaine, la méthode la plus connue et la plus
utilisée est celle du Gradex due à P. Guillot et D. Duband (Guillot et Duband, 1962; Guillot,
1980; Ministère de l'agriculture, 1972). Considérons un bassin versant de l'ordre du millier de
km2 et des chroniques de débits moyens journaliers Q à l'exutoire et de pluies moyennes
journalières P concomitantes sur le bassin. Un raisonnement simple permet d'obtenir la
fonction de répartition de Q pour un couple P, Q donné sous la forme :
𝐺(𝑞) = ∫ 𝑑𝑄
𝑞
0
∫ 𝑔𝑝(𝑞)
∞
0
𝑑𝐹(𝑝) (14.106)
où F(p) est la function de répartition des pluies et gp (q) est la densité de probabilité
conditionnelle de débit q pour P=p fixé. Le calcul de G(p) par cette formule ne peut être fait
que par des méthodes numériques. Toutefois une conséquence importante peut en être déduite
si deux hypothèses sont remplies :
a) la décroissance de la fonction de répartition de P est à variation exponentielle pour les
fortes valeurs de p :
𝐹(𝑝) = 1 − 𝑒−𝑝−𝑝0
𝑎 (14.107)
au delà d’un certain seuil p0.
Beaucoup de distributions statistiques ont un comportement asymptotique exponentiel.
C'est le cas de la loi de Gumbel de telle sorte que la loi (14.107) peut être représentée
linéairement sur le papier à probabilité de Gumbel. La figure (14.35) illustre donc une
vérification de cette hypothèse par le comportement "gumbelien" et exponentiel des pluies
maximales mensuelles de 2 jours (on notera que la fonction de répartition d'un maximum
42
semestriel, égal à F6 si les maximas mensuels sont indépendants, est obtenue par translation
parallèle à l'axe des probalilités, égale à log 6 pour la variable réduite y). Cette hypothèse
exponentielle a été assez largement vérifiée dans de nombreuses applications.
b) La seconde hypothèse, fondamentale, stipule que, au-delà d'un certain seuil de
précipitation généralement supérieur à p0 la rétention du sol atteint une limite et que
tout supplément de pluie provoque un supplément égal d’écoulement. S'appliquant à
un bilan d’écoulement, cette hypothèse concerne le rendement de 1'averse sur une
période de temps au moins égale au temps de concentration du bassin. Elle est ainsi à
l'origine de la limitation à 1000 km2 du bassin versant pour que l'échelle journalière
soit représentative. On peut cependant appliquer la méthode à des bassins plus étendus
à conditions qu'ils soient homogènes et de prendre des périodes unitaires de temps
plus longues que le jour. Dans tous les cas cependant, il sera nécessaire de revenir au
débit maximal de points instantané des crues par l'application d'un coefficient
déterminé R au débit moyen calculé sur la période de temps choisie. Toutefois, il est
prudent de s'en tenir à des bassins versants inférieurs à 10 000 km2.
Il résulte des hypothèses précédentes qu'il n'est pas nécessaire de faire le calcul
complet de G(q) par la formule (14.106) mais que pour les grandes crues telles que p>p0, la
courbe représentative de G(q) se déduit de la courbe représentative de F(p) par simple
translation suivant l'axe des variables et donc qu'au-delà d'un seuil de débit q0.
𝐺(𝑞) = 1 − 𝑒−𝑞−𝑞0
𝑎 (14.108)
Il y a égalité entre le gradex des pluies et le gradex des débits moyens. Le seuil q0
pratiquement adopté est souvent voisin du débit décennal. Ceci suppose bien entendu que
pluie et débit soient exprimés avec la même unité de mesure, par exemple en mm de hauteur
d'eau. Le résultat s'applique donc aux pluies maximales et débits maximaux mensuels,
annuels, etc. Sur le plan pratique, on utilise souvent les maximas mensuels de précipitation
pour estimer le gradex des pluies comme le montre la figure (14.35). La figure (14.36) illustre
l'application de la méthode pour l’extrapolation de la distribution des débits maximaux
annuels à Myon sur Lison (bassin versant de l'ordre de l’ordre de 240 km2) à partir du seuil q0
égal à la crue décennal. En deça de ce seuil, on utilise généralement l'ajustement aux débits
d'une loi type Gumbel. On notera que le coefficient R appliqué aux débits moyens pour passer
au débit de pointe revient à multiplier le gradex des débits moyens par le même coefficient.
14.5.4 Portée et limites des méthodes d'estimation statistiques des crues
Dans les problèmes de dimensionnement des ouvrages de protection contre les crues,
les méthodes statistiques décrites précédemment sont souvent mises en concurrence avec une
méthode dite de la crue maximale probable (PMF : Probable Maximum Flood), développée
par les météorologistes américains et fortement recommandée par l'OMM (Organisation
Méréorologiste Mondiale). Cette méthode, de philosophie déterministe, cherche à évaluer la
limite supérieure d'eau de ruissellement de crue sur un bassin. Nous ne décrivons pas cette
méthode pour laquelle un certain nombre d'objections de principe peuvent être soulevées. Le
tabeau (14.1) montre une comparaison synthétique selon 9 critèrese des 3 méthodes
statistiques décrites précédemment et de la méthode PMF. Pour nous limiter aux méthodes
statistiques, hydrométriques ou hydromtéorologiques, il importe de faire quelques mises en
garde. Les méthodes hydrométriques (maximas annuels et dépassements de seuil) sont
soumises à toutes les sources d'erreurs inventoriées dans le tableau 14.1 et les erreurs
43
d'adéquation peuvent être notables. On tend cependant à réduire ces erreurs par l'utilisation la
plus complète de toute l'information disponible surtout avec la méthode des dépassements de
seuils mobilisant les données historiques. Malgré tout, l'information traitée est essentiellement
limitée et laisse des incertitudes résiduelles de diverses natures d'autant plus notables que
l'extrapolation est poussée plus loin vers les faibles probabilités de dépassement. Il en résulte
une limite pratique pour les niveaux de probabilités estimables par ces méthodes qu'il semble
prudent de fixer à quelques 10-3/an ou 10-4/an dans quelques cas particuliers.
La méthode du gradex est-elle mieux placée à cet égard ? Les auteurs (Guillot, 1980)
donnent le débit décamillénal comme objectif de la méthode. Cependant, elle est soumise aux
mêmes types d'incertitudes. Les hypothèses de base sur le rendement des averses sont
difficiles à vérifier et sujettes à caution pour des bassins même moyennement étendus où les
natures de sols peuvent être diverses et les pluies variables spatialement. Notons aussi que le
problème de l'extrapolation des lois de probabilité des pluies et l'estimation du gradex
nécessitent l'utilisation de l'information pluviométrique la plus complète possible et non pas
seulement 10 ou 20 ans de pluies journalières comme le recommandent quelquefois les
auteurs. Il en résulte de toutes les incertitudes résiduelles que la méthode du gradex ne semble
pas avoir de limite d'extrapolation des probabilités essentiellement différente de celles des
méthodes hydrométriques.
Références bibliographiques
Anis, A.A. et Lloyd, E.H. (1976) The expected value of the adjusted rescaled Hurst range of
independant normal deviates, Biometrika, 63-1, 111-116.
Annuaire de la société hydrotechnique de France – 1962.
https://www.shf-hydro.org/index.php?page=73
Astier, J. (1967) Essai de construction de modèles probabilistes sur les étiages, Rapport du
laboratoire national d'hydraulique, 41-67.
Berger, J.O. (1980) Statistical decisien theory – Foundation concepts and method, Springer-
Verlag, 618 p.
Bernier, J. (1965) Sur les probabilités d'occurrence des sécheresses et des étiages, Bulletin du
centre de recherches de Chatou, n°11, 3-12.
Bernier, J. (1969) Inventaire des modèles de processus stochastiques applicables à la
description des débits journaliers des rivières, Congrès de 1'institutut international de
Statistique, Londres, Rev. de l’institut international de Statistique, 1970, 38-1, 49-61.
Bernier, J. (1971) Modèles probabilistes à variables hydrologiques multiples et hydrologie
synthétique, Symposium sur les modèles mathématiques en hydrologie, Varsovie, IAHS Publ.
n°199, 333-342.
Bernier, J. (1979) Sur la nature aléatoire du coût des dommages provoqués par les crues, La
Houille blanche, n°1-1979, 11-20.
Bernier, J. et Miquel, J. (1977) Exemple d'application de la théorie de la décision au
dimensionnement d'ouvrages hydrauliques ; prise en compte de l'information hétérogène, 17e
44
congrès de 1'AIRH, Baden Baden.
Bernier, J. et Miquel, J. (1979) Incertitude de l'information et décision en situation de risque.
Cas de problèmes de protection contre les crues, La Houille Blanche n°4/5-1979, 251-258.
Bernier, J. et Véron, R. (1964) Sur quelques difficultées rencontrées dans l'estimation d'un
débit de crue de probabilité donnée, Revue de statistique appliquée, 12-1, 25-48.
Bobée, B. (1976) Contribution à l'étude statistique des débits maximaux annuels de crue par
les distributions Pearson type 3 et log-Pearson type 3, Thèse de l’Université de Toulouse.
Bobée, B. et Morin, G. (1973) Détermination des intervalles de confiance de la loi de Pearson
III par la statistique d'ordre, J. of Hydrology, 20, 137-153.
Bogardi, I., Duckstein, L. et Szidaroysky (1982) Bayesian analysis of underground flooding,
W.R.R., 18-4, 1110-1116.
Box, G.E.P., Jenkins, G.M. (1976) Time Series Analysis. Forecasting and Control, Holden-
Day.
Davis, O.R., Kisiel, C. et Duckstein, L. (1972) Bayes decision theory application to design in
hydrology, W.R.R., 8-1, 33-41.
Delleur, J.W. (1978) Les processus du type ARIMA pour la prévision et la simulation en
hydrométéorologie, La Houille Blanche, 6-1978, 390-400.
Delleur, J.W. (1970) Développements récents en matière d'analyse des chroniques
d'évènement hydrologiques : liaisons en chaîne et analyse spectrale, Société hydrotechnique
de France, Journée sur les modèles mathématiques en hydrologie de surface, Paris.
Delleur, J.W. et Karamouz, M. (1982) Uncertainty in reservoir operation, IAHS Symposium
on optimal allocation of water resources, Exeter, IAHS Publ. n°135, 7-16.
Fiering, M.B. (1961) Multivariate techniques for synthetic hydrology, J. of Hydraul. Div.,
A.S.C.E., 90 HYJ, 43-60.
Fiering, M.B., Jackson, B.B. (1971) Synthetic streamflow, A.G.U. Water Resources Monog.
n°1.
Guillot, P. (1980) Débits et pluies extrêmes, La météorologie, VIe série n°20, 65-72.
Guillot, P. et Duband, D. (1968) La méthode du Gradex pour le calcul de la probabilité des
crues à partir des pluies, IAHS Colloque int. sur les crues et leur évaluation, Leningrad, AISH
Publ. n°84, 560-569.
Halphen, E. (1941) Etudes statistiques des débits du Rhin à Bâle, Annuaire hydrologique de
1941 de la Société hydrotechnique de France.
Halphen, E. (1945) Un exemple d'application des méthodes statistiques : le problème
du plan de développement de la production d'énergie électrique, Annuaire hydrologique
45
de la Société hydrotechnique de France.
Hammerstley, J.M. et Handscome, D.C. (1965) Monte Carlo methods, Methuen's monographs
in applied probability and statistics, 188 p.
Hannan, E.J. (1960) Time Series Analysis, Chapman and Hall, Londres, 152 p.
Hazen, A. (1930) Floods Flow. A Study of Frequencies and Magnitude, John Wiley and Sons,
New York.
Hipe, K.W., Lennox, W.C., Unny, T.E. et MacLeod, A.I. (1975) Intervention analysis in
water resources, W.R.R., 11-6, 855-861.
Hurst, H.E. (1951) Long term capacity of réservoirs, Trans. ASCE, 116-1, 770-799.
Jacquet, J. et Bernier, J. (1967) Détermination du débit maximum de crue et de sa probabilité
de dépassement dans le cas d'information incomplète, Colloque AISH de Léningrad, IAHS
Pub n°84, 419-431.
Klemeš, V. (1974) The Hurst phenomenon – a puzzle ? W.R.R., 10-4, 675-688.
Kottegoda, N.T. (1980) Stochastic water resources technology, Mac Millan, London, 384 p.
Lahrance, A.J. et Kottegoda, N.T. (1978) Stochastic modelling of river flow time series, J.
Roy. Statist. Soc., A, n°240, part l, 1-31.
Leviandier, T. et Vannier, P. (1981) Un exemple de test de gestion de ressources en eau au
moyen d'un modèle de simulation de débits journaliers, La technique de l'eau et de
l'assainissement, n°41.
Mandelbrot, B.B. et Wallis, J.R. (1969) Computer experiments with fractionnal gaussian
noises, W.R.R., 5-1, 248-241.
Matalas, N.C. (1968) Mathematical assesment of synthetic hydrology, W.R.R., 3-4, 937-942.
Méthodes d’études régionales des ressources en eau (1973) – dit Atlas de l'Allier. Etude
DGRST-LNH.
Ministère de l'agriculture (1972) L'application de la méthode du Gradex à l'estimation des
crues de faible probabilité. Note technique du CTGREF (Centre technique du génie rural et
des eaux et forêts), 19 p.
Miquel, J. et Phien Bou Phai, B. (1978) TEMPETIAGE, un modèle d'estimation des risques
d'étiage, XIe Journée de l’hydraulique, SHF.
Miquel, J. (1981) Guide d'estimation des probabilités de crues, Collection de la Direction des
études et recherches d’EDF, Eyrolles.
Mejia, J.M. et Rousselle, J. (1976) Disaggregation models in hydrology revisited, W.R.R., 12-
2, 185-186.
46
Morlat, G. (1956) Les lois de probabilités de Halphen, Revue de statistique appliquée, 4-3,
21-46.
North, M. (1980) La simulation de processus hydrologiques intermittents par des modèles
alternés inhomogènes, Bulletin de 1'AISH, 25-1, 5-12.
North, M. (1980) Processus time dependant stochastic models of floods, Journal of the
hydraul. Div., ASCE, 106, n°HY5.
North, M. (1981) Processus hydrologiques intermittents. Etude de modélisation stochastique
et applications, Thèse Ecole polytechnique fédérale de Lausanne.
Organisation météorologique mondiale (1963) Estimation of maximum floods, WMO, n°233,
TP 116, 288 p.
Shane, M. et Lynn, R. (1961) Mathemetic model for flood risk evaluation, Journal of hydraul.
div. ASCE, 90, n°HY6.
Salas, J.D., Delleur, J.W., Yevjevich, V. et Lane, W.L. (1980) Applied modeling of
hydrologic time series, Water resources public., Littleton (CO).
Thomas, H.A. et Fiering, M.B. (1962) Mathematical synthesis of stream flows sequences for
the analysis of river basins by simulations, Chap 12 de « Design of water Resources
Systems » par Mass et al., .Harvard Univ. Press, Cambridge, USA.
Tiercelin, L.J. et Leviandier, T. (1978) Un modèle pour la simulation des débits journaliers :
le modèle DEJOREG, La technique de l'eau et de 1'assainisement n°377.
Todorovic, P. (1978) Stochastic models of floods, W.R.R., 14-2, 345-356.
Treiber, B. et Plate, J. (1977) A stochastic model for the simulation of daily flows, IAHS
Hydrol. Sciences Bull., 22-1, 175-192.
Ulmo, J. et Bernier, J. (1973) Eléments de décision statistique, Presses universitaires de
France, Paris.
Villeneuve, J.P., Morin, G., Bobée, B., Leblanc, D. et Delhomme, J.P. (1979) Kriging in the
design of streamflow sampling networks, W.R.R., 15-6, 1833-1840.
Weiss, G. (1977) Shot noise models, W.R.R., 13-1, 101-108.
Yevjevich, V. (1972) Stochastic processes in hydrology, Water resources Publ., Fort Collins,
Colorado, USA.
(Correction 6 Décembre 1984)
(Mise en forme Janvier 2020)