+ All Categories
Home > Documents > Chapitre 14 – ANALYSE STATISTIQUE DES FLUX

Chapitre 14 – ANALYSE STATISTIQUE DES FLUX

Date post: 06-Feb-2023
Category:
Upload: khangminh22
View: 0 times
Download: 0 times
Share this document with a friend
46
1 Chapitre 14 ANALYSE STATISTIQUE DES FLUX 14.1 Concepts et objectifs des modèles probabilistes 14.2 Les outils de la description statistique en hydrologie 14.2.1 Lois de probabilité des débits moyens annuels et mensuels 14.2.2 Analyse des structures des séries chronologiques en hydrologie 14.2.3 Les structures spatiales de phénomènes hydrologiques 14.3 Les modèles stochastiques des processus hydrologiques unidimensionnels 14.3.1 Les modèles à chronologie fixée 14.3.2 Les modélisations à seuil de débit fixé 14.4 Les modèles stochastiques des processus hydrologiques multidimensionnels 14.4.1 La modélisation des processus conjoints à 2 sites 14.4.2 Les modèles multisites 14.5 La description statistique des crues 14.5.1 Les méthodes des débits maximaux annuels 14.5.2 Les méthodes de dépassement de seuils 14.5.3 Les méthodes hydrométéorologiques 14.5.4 Portée et limites des méthodes d’estimation statistiques des crues Bibliographie 14.1 Introduction : concepts et objectifs des modèles probabilistes L'hydrologie est une science d'observation des phénomènes naturels; elles se fondent essentiellement sur 1'interprétation des séries d'observation portant sur les phénomènes mesurables ou non, qui caractérisent le cycle de l'eau dans la nature. Ce sont notamment les mesures de précipitations, d'infiltration, de ruissellement, d'évaporation et de débits des cours d'eau qui fournissent 1'information de base de l'hydrologie. On conçoit donc que cette science soit tributaire des méthodes statistiques de traitement de séries chronologiques et des échantillons de données numériques. Le calcul des probabilités fournit alors des modèles adéquats pour la description des processus hydrologiques. Ce n'est pas que les phénomènes en jeu soient régis par le hasard. Le débit d'une rivière est sous la dépendance de facteurs divers parfaitement déterminés les uns fixes, comme l'étendue, 1a forme, la déclivité du bassin versant, la nature du sous-sol, le profil en long et en travers du lit, les autres variables, comme la végétation, les stocks en eau et en neige, les précipitations, la température, le vent, le degré hygrométrique de l'air etc.,, Une telle énumération n'est certes pas exhaustive. Ainsi ces facteurs sont en si grand nombre et leurs interactions si complexes qu'il semble vain d'espérer en connaître le mécanisme détaillé quels que soient l'importance de 1'information et le nombre d'observations recueillies. Les résultats, c'est-à-dire les processus de débit apparaissent alors comme des réalisations de processus aléatoires.
Transcript

1

Chapitre 14 – ANALYSE STATISTIQUE DES FLUX

14.1 Concepts et objectifs des modèles probabilistes

14.2 Les outils de la description statistique en hydrologie

14.2.1 Lois de probabilité des débits moyens annuels et mensuels

14.2.2 Analyse des structures des séries chronologiques en hydrologie

14.2.3 Les structures spatiales de phénomènes hydrologiques

14.3 Les modèles stochastiques des processus hydrologiques unidimensionnels

14.3.1 Les modèles à chronologie fixée

14.3.2 Les modélisations à seuil de débit fixé

14.4 Les modèles stochastiques des processus hydrologiques multidimensionnels

14.4.1 La modélisation des processus conjoints à 2 sites

14.4.2 Les modèles multisites

14.5 La description statistique des crues

14.5.1 Les méthodes des débits maximaux annuels

14.5.2 Les méthodes de dépassement de seuils

14.5.3 Les méthodes hydrométéorologiques

14.5.4 Portée et limites des méthodes d’estimation statistiques des crues

Bibliographie

14.1 Introduction : concepts et objectifs des modèles probabilistes

L'hydrologie est une science d'observation des phénomènes naturels; elles se fondent

essentiellement sur 1'interprétation des séries d'observation portant sur les phénomènes

mesurables ou non, qui caractérisent le cycle de l'eau dans la nature. Ce sont notamment les

mesures de précipitations, d'infiltration, de ruissellement, d'évaporation et de débits des cours

d'eau qui fournissent 1'information de base de l'hydrologie. On conçoit donc que cette science

soit tributaire des méthodes statistiques de traitement de séries chronologiques et des

échantillons de données numériques.

Le calcul des probabilités fournit alors des modèles adéquats pour la description des

processus hydrologiques. Ce n'est pas que les phénomènes en jeu soient régis par le hasard.

Le débit d'une rivière est sous la dépendance de facteurs divers parfaitement déterminés les

uns fixes, comme l'étendue, 1a forme, la déclivité du bassin versant, la nature du sous-sol, le

profil en long et en travers du lit, les autres variables, comme la végétation, les stocks en eau

et en neige, les précipitations, la température, le vent, le degré hygrométrique de l'air etc.,,

Une telle énumération n'est certes pas exhaustive. Ainsi ces facteurs sont en si grand nombre

et leurs interactions si complexes qu'il semble vain d'espérer en connaître le mécanisme

détaillé quels que soient l'importance de 1'information et le nombre d'observations recueillies.

Les résultats, c'est-à-dire les processus de débit apparaissent alors comme des réalisations de

processus aléatoires.

2

D'un point de vue opérationnel, il ne s’agit pas de savoir si les phénomènes

hydrologiques sont de nature intrinsèquement aléatoire ou déterministe, ce qui est un

problème d'ordre philosophique, il s'agit de faire des prévisions en probabilité sur des

phénomènes dont on ne peut appréhender directement le mécanisme. C'est E. Halphen (1945)

qui, à propos de ses travaux en hydrologie pouvait affirmer "Les probabilités sont des mesures

de 1'ignorance humain et la statistique est ce qui tient lieu de science aux ignorants que nous

sommes".

·Dans la suite de ce chapitre nous traiterons uniquement des flux d'écoulement c'est-à-

dire des séries chronologiques de débits des rivières. L'analyse statistique des précipitations

est exposée dans le chapitre 3.

Les données hydrologiques, matériau de base de toute analyse statistique des débits

d'un cours d'eau observés à un station donnée contrôlant un bassin versant donné, représentent

généralement sous la forme de séquences x1, x2, …, xi, …, xn de n observations d'une

grandeur hydrologique X bien définie. Selon l'échelle de temps à laquelle on se place, la

définition de la variable X peut être adaptée à la description du comportement du cours d'eau

en crue, en étiage ou en apports moyens. Ainsi pourra-t-on distinguer :

a) A l'échelle journalière : le débit moyen journalier ou le débit instantané observé à heure

fixe;

b) A l'échelle mensuelle : les débits moyens mensuels, chaque mois pouvant donner lieu ou

non à la définition d'une variable X spécifique. Dans le premier cas les xi sont des

observations annuelles successives du même mois;

c) A l'échelle annuelle : une multiplicité d'indicateurs hydrologiques adaptés tels que :

- le module (ou débit moyen annuel)

- le débit maximal annuel (généralement noté QM) : maximum instantané ou maximum des

365 débits moyens journaliers d'une année particulière

- le débit minimum annuel Qm

- le débit caractéristique de N jours (DCN) : atteint ou non dépassé pendant N jours chaque

année, consécutifs ou non

- le débit moyen minimal de plusieurs jours (généralement 10 jours: Q10, parfois 20: Q20,

sinon 30 jours: Q30) c'est-à-dire la moyenne mobile sur 10, 20 ou 30 jours consécutifs la plus

faible de l'année

Une telle liste n'est certes pas exhaustive, nous en verrons des illustrations plus loin.

Notons également que l'information de base peut être constituée d'observations d'une variable

X (X1, X2, … , Xj , … , Xk) multidimensionnelle dont chaque coordonnée Xj représente la

grandeur relative à une station j d'un ensemble de k stations.

Décrire statistiquement de tels ensembles de données hydrologiques c'est les

représenter par des caractéristiques globales synthétiques, de façon à mettre en évidence des

traits de régime par comparaison avec d'autres données ou à dégager les fluctuations de telles

années ou telles séries d'années particulières.

Rappel de quelques définitions et illustrations

Revenons au cas d'une variable hydrologique unidimensionnelle X. Soit la fréquence

3

expérimentale p d’un interval1e ]a,b] de valeurs de X calculé sur l’échantillon

d’observations : x1, … , xi, … , xn,

𝑝 =𝑟

𝑛 (14.1)

avec r, effectif de la classe, nombre d'observation de l'échantillon ou l'événement a < X < b a

été observé. L’ensemble des observations de l'échantillon peut être reparti en k classes,

recouvrant l'étendue de la variable étudiée. L'ensemble ordonné des classes, associées à leurs

fréquences expérimentales représenté sur graphique, constitue le polygone de fréquence. La

figure 14.1 montre un exemple de polygone de fréquence, celui des modules (débits moyens

annuels) du Rhin à Bale de 1808 à 1960 exprimé ici en effectifs ri.

Dans le contexte probabiliste où on se place ici, l'échantillon est considéré comme tiré

au hasard dans une population hypothétique de valeurs de X représentable par une loi

statistique (fiche C). Par exemple étudions 1'ajustement de la loi normale à la distribution des

modules du Rhin à Bale. Pour chaque intervalle [a,b] la probabilité:

𝑃(𝑎, 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥𝑏

𝑎

=1

𝜎√2𝜋∫ 𝑒𝑥𝑝 [−

(𝑥 − 𝜇)2

2𝜎2] 𝑑𝑥

𝑏

𝑎

(14.2)

est estimée par la fréquence r/n d'une part, par la probabilité estimée �̅�(𝑎, 𝑏) obtenue en

remplaçant μ et σ2 par leur estimations m'1 et m2 d'autre part. Dans le cas du Rhin on a sur la

période 1808-1960 :

m'1 = 1005 m3/s

m2 = 127,5 m3/s

La figure (14.1) permet de comparer effectifs empiriques rj et "effectifs théoriques" νj

définis par les espérances mathématique 𝑛�̅�(𝑎𝑗 , 𝑏𝑗) pour chaque classe ]aj,bj]. I1 est possible

ici de vérifier l'ajustement par un test du χ2 (fiche A).

Dans le cas, fréquent en hydrologie, où l'échantillon est trop limité pour répartir les

observations par classes d'effectifs rj suffisamment grands, on associe à chaque réalisation xi

de l'échantillon ordonné par valeurs croissantes de X, une fréquence de non dépassement

estimée pi. Plusieurs méthodes d'estimation sont possibles pour les pi. Parmi les plus utilisées

citons :

𝑝𝑖∗ = 1𝑖 (𝑛 + 1)⁄ (𝐹𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒 𝑊𝑒𝑖𝑏𝑢𝑙𝑙) (14.3)

𝑝𝑖∗ = (𝑖 − 0,3) (𝑛 + 0,4) (𝐹𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒 𝐶ℎ𝑒𝑔𝑜𝑑𝑎𝑦𝑒𝑣) (14.4)⁄

𝑝𝑖∗ = (𝑖 − 0,5) 𝑛⁄ (𝐹𝑜𝑟𝑚𝑢𝑙𝑒 𝑑𝑒 𝐻𝑎𝑧𝑒𝑛) (14.5)

avec i nombre de réalisations de l'échantillon inférieure ou égales à xi*.

Le report graphique des pi* en fonction des xi* fournit une courbe de fréquence

cumulée, estimation empirique de la fonction de répartition :

4

𝐹(𝑥𝑖∗) = ∫ 𝑓(𝑥)𝑑𝑥

𝑥𝑖∗

−∞

(14.6)

Cette méthode est intéressante lorsque, par un choix convenable d'échelle la fonction

de répartition théorique ajustée peut être représentée par une droite. C'est le cas de la loi

normale car la formule (14.6) peut s'écrire dans ce cas :

𝐹(𝑥𝑖∗) = 𝐺(𝑡𝑖) =

1

√2𝜋∫ 𝑒𝑥𝑝 [−

𝑡2

2] 𝑑𝑡 (14.7)

𝑡𝑖

−∞

avec

𝑡𝑖 = (𝑥𝑖∗ − 𝑢) 𝑢⁄ (14.8)

Si 1'échelle graphique des ordonnées par exemple est graduée en probabilités G(ti)

suivant une échelle proportionnelle aux ti obtenue par la relation (14.6) indépendantes des

paramètres μ et σ, une loi normale de paramètres μ et σ quelconques sera représentée par une

droite d'équation (14.8). Le report des courbes de fréquences

Ligne manquante

comme de l'ajustement effectué par la loi théorique, cette vérification peut souvent être

beaucoup p1us efficace et sensible qu'un test numérique comme le test du χ2 dont l’arbitraire

du découpage en classes peut diminuer 1a puissance comme cela est souligné dans la fiche A.

La loi log-normale peut bénéficier d'une représentation graphique analogue puisque la

relation linéaire (14.8) est simplement remplacée par une relation logarithmique:

𝑡𝑖 = [𝐿𝑜𝑔(𝑥∗ − 𝑎) − 𝜇] 𝜎⁄ (14.9)

Si a est connu ou estimé, une échelle logarithmique des abcisses en Log (xi*-a) permet

donc une représentation linéaire de la loi log-normale.

La figure 14.2 donne un exemp1e d'ajustement de la loi-normale aux débits mensuels

de juin de la Loire à Blois observés de 1879 à 1973. Ici a est arbitrairement choisi égal à 0.

Les moyennes et variances empiriques des logarithmes figurent sur le graphique. Le χ2

calculé sur 10 classes d'amplitude égales en probabilité (c'est-à-dire te11e que νj = n/10)

donne le résultat :

𝜒2 = ∑10

𝑛(𝜈𝑗 −

𝑛

10)

2

𝑗

= 7,0 (14.10)

valeur qui d'après une table du χ2 et pour 10 - 2 - 1 = 7 degrés de liberté, a presque 50 chances

sur 100 d'être dépassée. Le résultat indique un bon ajustement conforté par la représentation

graphique 14.2.

La figure 14.3 montre la répartitions saisonnière des différents quantiles xp de débits mensuels

de la Garonne à Portet relatifs aux probabilités respectives p = 10 %, 25 %, 50 %, 75 % et

90 %. Rappelons qu'un quantile xp est défini à partir de la fonction de répartition F :

𝐹(𝑥𝑝) = 𝑝 (14.11)

5

Dans ce graphique les quantiles ont été estimés par ajustement de lois log-normales

aux débits mensue1s de la période 1920-1959. Une telle représentation, qu'utilisent les

anciens annuaires hydrologiques de la société hydrotechnique de France, permet une

description particulièrement claire du régime moyen aussi bien que de la variabilité d'un cours

d'eau : elle permet également de caractériser les fréquences d'occurrence saisonnières d'années

particulières comme 1962 sur le graphique et dont l'étiage apparaît particulièrement sévère en

été.

Remarques importantes

On devra se souvenir que remplacer une fréquence observée par une probabilité

estimée va bien au-delà d'une simple description de données d'observation, c'est déjà un

jugement prévisionnel sur ce que sera l'écoulement d'une rivière dans 1'avenir. Mais le

passage de la fréquence à la probabilité n'est possible que sous des hypothèses précises dont le

calcul des probabilités rend compte, notamment :

- 1'indépendance des réalisations successives (observations) de l'échantillon ;

- 1'appartenance de ces réalisations à une même population (caractérisée par 1a même

loi F(x), en particulier invariante dans le temps). Les hypothèses peuvent être soumises à

certaines vérifications mais les conclusions tirées de ces vérifications ne peuvent être

complètement certaines. Il y a 1à une source d'incertitude importante inhérentes à tout

traitement de données d'observation. I1 ne faut pas oublier que l'hydrologie n'est qu’une

science d'observation dont les résultats sont essentiellement tributaires des ensembles de

données, d’où l’importance des techniques statistiques. A cet égard le terme de loi statistique

peut être fallacieux, on devrait plutôt parler de distribution statistique, car la notion de loi, en

hydrologie physique notamment, implique 1'assurance d’une validité et d'une fiabilité que

n’ont pas les distributions statistiques. I1 n'existe aucune connaissance physique a priori qui

permette de nous assurer que telle distribution est la "vraie loi statistique" d'une variable

aléatoire hydrologique, les choix effectués résultant seulement du plus ou moins bon

ajustement aux observations. Les applications multiples et extensives de modèles

probabilistes effectuées depuis longtemps ont toutefois permis de dégager certaines règles

empiriques pour guider les choix, mais il ne faut jamais exclure la possibilité de choix erronés,

source d'incertitudes que l'on appelle généra1ement erreurs d'adéquation.

14.2 Les outils de 1a description statistique en hydrologie

Dans le paragraphe (14.1) précédent nous avons introduit quelques principes et

méthodes d'analyse statistiques illustrés sur des exemples hydrologiques. Les fiches annexes

présentent de façon plus systématique un certain nombre d'outils généraux : lois statistiques

(fiche C), krigeage (fiche F), méthodes multivariées (fiche G), analyse spectrale (fiche J). Le

présent paragraphe est destiné à illustrer leurs applications à 1a représentation probabiliste

des débits des rivières ainsi que leurs portées et limites. Le point de vue adopté ici est

uniquement de descriptif ; leurs usages en liaison avec les objectifs opérationnels

(prédétermination, prévision, simulation, transfert d'information) seront pris en compte dans

les paragraphes suivants.

14.2.1 Lois de probabilité des débits moyens annuels et mensuels

La représentation probabiliste des débits moyens est un vieux problème en hydrologie

6

statistique mais le choix des lois théoriques reste toujours empirique après confrontation avec

la distribution de fréquence des observations.

a) La loi normale : Bien que les polygones de fréquence soient souvent dissymétriques,

contrairement à la forme de la densité de la loi normale, cette loi n'est pas systématiquement à

rejeter. Les cas où elle peut s'appliquer concernent des débits moyens pris sur des périodes

assez longues (les modules par exemple), des surfaces de bassin importantes (à régime

climatique donné), des bassins dont certaines parties sont d’altitude élevée où les influences

nivo-glaciaires apportent une certaine régularisation du régime. Les modules du Rhin à Bâle

(figure 14.1) fournissent une bonne illustration de l'ajustement par la loi normale.

b) La loi log-normale ; Cette loi prend bien en compte la dissymétrie des polygones de

fréquence des débits. On a déjà vu un exemple d'ajustement à des débit mensuel (Juin pour la

Loire à Blois figure 14.2). Notons toutefois que l'estimation du troisième paramètre à savoir a

(formule 14.8) peut s'avérer quelques fois difficile et fournir une valeur supérieure à des

débits observés, ce qui est gênant pour une limite inférieure. Par ailleurs la décroissance

souvent lente de la densité log normale pour les grandes valeurs du débit peut être en

désaccord avec l'observation.

c) Les lois de Pearson et log-Pearson type III : Ces lois et notamment la loi log-

Pearson III ont un statut quasi-officiel aux Etats-Unis parce qu'elles ont été recommandées par

le Conseil des ressources en eau pour un emploi systématique. Plus spécialement réservées

aux débits de crues (paragraphe 14.5.1) elles peuvent également s'appliquer aux débits

moyens avec les méthodes d'estimation décrites dans la fiche C. Dans la mesure où elles

dépendent de trois paramètres elles peuvent paraître s’adapter plus aisément aux diverses

distributions de divers régimes hydrologique par la prise en compte du coefficient d'asymétrie

CS en particulier. Toutefois on notera que, outre le paramètre α et le paramètre λ de

comportement asymptotique pour les grands débits, le troisième paramètre m caractérise une

limite inférieure ou supérieure dont l'estimation est délicate et qui n'a d'ailleurs pas

d'interprétation hydrologique très claire.

d) Les lois d’Halphen : Les distributions théoriques précédentes, classiques en

statistiques mathématiques ont été développées hors du champ de l'hydrologie où elles ont

cependant trouvé des applications fructueuses. Il n'est pas sans intérêt de rappeler ici d'autres

familles de distributions théoriques spécifiquement développées pour des besoins

hydrologiques, les lois d’Halphen (Morlat, 1956). Les travaux d’Halphen (1941 à 1954) ont

porté sur la recherche de lois destinées à représenter les débits mensuels de l'ensemble des

rivières françaises. Les objectifs étaient d'obtenir des lois à trois paramètres (Pour représenter

la diversité des régions possibles) avec une décroissance exponentielle pour les grands débits

(comme la loi de Pearson) mais aussi pour les petits débit (afin d'éliminer le problème délicat

de l'estimation d'une limite inférieure). Trois types de distributions d'Halphen ont ainsi été

proposées :

- les lois du type A, de densité :

𝑓(𝑥) =1

2𝜇𝐾𝑗(𝑎)𝑒𝑥𝑝 [−

𝑎

2(

𝑥

𝜇+

𝜇

𝑥)] 𝑥𝛾−1 (14.13)

où Kj(a) est la fonction de Bessel-Basset d'ordre j.

7

- les lois du type B, de densité :

𝑓(𝑥) =2

𝜈2𝑒𝑓𝛼(𝑏)𝑒𝑥𝑝 [− (

𝑥

𝜈)

2

+ 𝑏𝑥

𝜈] 𝑥2𝛼−1 (14.14)

où efα(b) est la fonction d'Hermitte.

- les lois du type B-1 telles que la variable inverse y = 1/x est distribuée selon une loi de

type B.

Comme le système classique des lois de Pearson, les lois d'Halphen forment un

ensemble complet de distributions repérables par deux paramètres, ici :

le coefficient de variation : Cv = m2 / m'1 et le paramètre : λ0 = (m1-mg) / m2

où mg est 1a moyenne géométrique dont le logarithme est égale à la moyenne des logarithmes

des débits.

La figure 14.4 donne 1'abaque de correspondance entre ces paramètres de forme et les

lois d'Halphen caractérisés par (a,γ) ou (b,α). Les paramètres μ et ν sont des paramètres

d'échelle dont le Cv et le λ0 sont indépendants. Parmi les lois d'Halphen de type A, un rôle

privilégié fut donné à la loi A0, pour x=0, dite loi harmonique, dont on trouvera un abaque

(figure 14.5) permettant de calculer les probabilités en fonction de la variable réduite 𝑥=x/μ

pour des valeurs d'un paramètre de dispersion relative exprimé soit par le Cv, soit par λ avec :

𝜆 = 𝑚1′ /ℎ

où h est la moyenne harmonique (dont 1'inverse est égale à la moyenne des inverses des

débits) et le paramètre μ qui s'interprète comme la médiane de la distribution s'écrit:

μ = m’1 h

Pour utiliser cette loi, il suffit donc d'estimer les paramètres λ et μ par les movennes

arithmétiques et harmoniques empiriques m’1 et h d’employer l'abaque avec la variable réduite

x/μ.

Exemple

La figure (14.6) présente, avec une ordonnée en échelle normale et une abscisse en

échelle logarithmique, 1'ajustement de la loi log-normale (avec a = 0) aux débits mensuels de

septembre de la Loire à Blois.

Le χ2 (fiche A) calculé avec 10 classes d'amplitudes égales en probabilité est égal à:

𝜒2 = 15,2

ce qui pour 7 degrés de liberté est légèrement supérieur au seuil χ20,95 de signification du test

pour un risque d'erreur de première espèce à 5%. D'ailleurs 1a vérification graphique (figure

14.6) montre un ajustement médiocre pour les grands et les petits débits (queues de

distributions).

8

Pour cette série de données, les estimations des paramètres Cv et λ0 sont :

𝐶𝑣 = 0,72; 𝜆0 = 0,27

ce qui dans l'abaque (14.5) donne un point pratiquement sur 1a courbe représentative de la loi

harmonique A0.

Par ailleurs, on a :

𝑚1′ = 131,1 𝑚3𝑠−1; ℎ = 87,2 𝑚3𝑠−1

.

ce qui donne les estimations, d'après (14.17) et (14.18) :

𝜇 = 107,3 𝑚3𝑠−1; 𝜆 = 1,29

La loi harmonique ainsi ajustée a été tracée en utilisant l’abaque 14.5 sur le même

système de coordonnées que la loi log-normale (figure 14.6). On constate que l'adéquation est

sensiblement améliorée pour les grands et les petits débits, là où la loi log-normale présentait

des déviations notables à la courbe des fréquences empiriques.

Dans la pratique hydrologique actuelle le problème du choix des lois du débit moyen

est trop souvent considéré comme résolu. On utilise quasi systématiquement la loi log-

normale ou quelquefois la loi de Pearson (paragraphe 14.3.1). Les travaux d’Halphen malgré

leur ancienneté ont montré que ce choix pouvait ne pas être judicieux lorsqu'on examinait le

comportement systématique d'un ensemble de stations. Après des débuts prometteurs, les

utilisations hydrologiques des lois d’Halphen n’ont pas été poursuivies, par le manque de

tables extensives de ces lois à l’époque. Les moyens de calcul modernes pourraient permettre

de remettre à l’honneur les lois d’Halphen car elles comblaient, et elle comblent toujours, un

manque dans la solution des débits moyens, problème trop rapidement supposé résolu

actuellement (1).

14.2.2 Analyse des structures des séries chronologiques en hydrologie

Dans ce paragraphe nous nous attacherons non pas à décrire les distributions de

probabilité précises de chaque variable chronologique datée X(t) mais surtout à caractériser

les structures probabilistes des séries chronologique :

𝑋(𝑡0), 𝑋(𝑡0 + 𝛥𝑡), … , 𝑋(𝑡0 + 𝑖 𝛥𝑡), 𝑋(𝑡0 + (𝑖 + 1)𝛥𝑡) …

c'est-à-dire à dégager les différences et les interrelations entre les divers éléments successifs

d'une telle séquence.

En hydrologie ces structures dépendent étroitement du pas de temps Δt : que celui-ci

soit journalier, mensuel, annuel, les « corrélations » et « non-stationnarités » qui apparaîtront

1 La famille des distributions de Halphen a fait depuis l’écriture de ce chapitre l’objet de

nouvelles études. On consultera en particulier l’ouvrage de Salaheddine El Adlouni et

Bernard Bobée : Halphen Distribution Family with application in hydrological frequency

analysis (2017) Water Resources Publications, LLC, Highlands Ranch, Colorado (USA).

9

auront des formes et des intensités différentes, caractéristiques de chaque échelle de temps.

Quelques définitions préalables sont nécessaires :

Pour tout ensemble d’époques (t1, t2, … , tn) on considère une collection de variables

aléatoires généralement de même nature mais définies à des instants différents :

Ces variables possèdent pour chaque n, une distribution de probabilités conjointe :

𝐹𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ ) = 𝑃𝑟𝑜𝑏[𝑋1 ≤ 𝑥1 𝑒𝑡 𝑋2 ≤ 𝑥2 𝑒𝑡 … 𝑋𝑖 ≤ 𝑥𝑖 𝑒𝑡𝑐 … ]

appelée loi temporelle du processus associée à sa densité de probabilité (14.19) :

𝑓𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ ) =𝜕𝑛𝐹𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ )

𝜕𝑥1𝜕𝑥2 … 𝜕𝑥𝑛 (14.20)

Les distributions sont caractérisées par :

- Les moments du premier ordre (espérances)

𝑚1(𝑡) = 𝐸[𝑋(𝑡)] = ∫ 𝑥 𝑓1(𝑥, 𝑡) 𝑑𝑥 (14.21)+∞

−∞

- Les moments du second ordre (variances et covariances)

Les variances (ou moments centrés du second ordre)

𝑚2(𝑡) = 𝐸[[𝑋(𝑡) − 𝑚1(𝑡)]2] = ∫ [𝑥 − 𝑚1(𝑡)]2𝑓2(𝑥)𝑑𝑥+∞

−∞

(14.22)

et pour tout couple t1,t2, la covariance (ou autocovariance)

𝛾𝑋𝑋(𝑡1, 𝑡2) = 𝐸[[𝑋(𝑡1) − 𝑚1(𝑡1)][𝑋(𝑡2) − 𝑚1(𝑡2)]]

= ∫ ∫ [𝑥1 − 𝑚1(𝑡1)][𝑥2 − 𝑚1(𝑡2)]𝑓(𝑥1, 𝑥2 𝑡1, 𝑡2⁄ )𝑑𝑥1𝑑𝑥2

+∞

−∞

(14.23)+∞

−∞

qui, normalisée, fournit le coefficient d'autocorrélation :

𝜌𝑋𝑋(𝑡1, 𝑡2) = 𝛾𝑋𝑋(𝑡1, 𝑡2) √𝑚2(𝑡1) 𝑚2(𝑡2)⁄ (14.24)

On peut généraliser ces notions à des moments d'ordre r quelconques en prenant en

compte des puissances jusqu’à l'ordre r de la variable et des produits (en nombre r) de

variables x(ti) à des époques différentes ou identiques.

a) La stationnarité des processus hydroloqiques

Un processus stochastique est dit strictement stationnaire si sa loi temporelle (équation

14.24) ne varie pas lorsque toutes les époques t1, t2, … , tn sont translatées arbitrairement dans

le temps et prises égales à t1 + T, t2 + T, … , tn + T (pour tout T). Une telle propriété est

10

difficile à vérifier en pratique. On se contente généralement de prendre en compte la

stationnarité du second ordre relative au moment du premier et second ordre soit :

m1 ( t ) = m1 ( t + T )

m2 ( t ) = m2 ( t + T ) (14.25)

γXX ( t1 , t2 ) = γXX ( t1 + T, t2 + T )

Les figures (14.7) et (14.8) illustrant les moyennes et écart-types empiriques des débits

journalier de chaque jour calendaire estimés sur 46 ans à 1a station de Vieille Brioude sur

l'Allier montrent à l'évidence le caractère non-stationnaire des processus hydrologiques à

l'échelle journalière. La figure (14.3) donnant le quantile des lois normales ajustées sur des

débits moyens de la Garonne à Portet est révélatrice des effets saisonniers, facteurs d’une

non-stationnarité à l’échelle mensuelle. A l ‘échelle annuelle et au delà, les séries

hydrologiques telles que les modules sont généralement supposées stationnaires; la

vérification en est délicate compte tenu de l’information nécessairement limitée à cette

échelle. En dehors des hétérogénéités dans les séries dues aux changements artificiels de

l’environnement et qu’on peut détecter par les méthodes décrites au chapitre 15, des études

ont quelquefois mis en doute cette stationnarité sur des résultats qui apparaissent non

significatifs. A cet égard, on peut citer, surtout pour mettre en garde le lecteur, certains

travaux apparaissant généralement après des catastrophes naturelles comme les grandes

sécheresses, qui mettent en avant des changements cycliques à grande échelle dans les

variables hydrologiques. Ces études reposent sur l’idée d’une représentation du processus X(t)

sous la forme :

𝑋(𝑡) = ∑ 𝛼𝑖 𝑠𝑖𝑛2𝜋𝑡

𝜔𝑖+ 𝜀(𝑡) (14.26)

𝑖

où les composantes cycliques, prépondérantes vis-à-vis du résidu aléatoire ε(t), permettraient

une prédiction à long terme des débits.

La recherche des périodicités (amplitude αi et périodicité ωi) peut-être basée sur

l’analyse spectrale (voire plus loin) mais un procédé largement utilisé par les chercheurs de

périodes a été la méthode des moyennes mobiles. Pour réduire l’effet des aléas et mettre en

évidence les régularité dans une série x1, x2,…, xt, … , xn on remplace chaque valeur xt par

une moyenne 𝑥�̅� = ∑ 𝑥𝑗 (2𝑘 + 1)⁄𝑖=𝑡+𝑘𝑖=𝑡−𝑘 calculée sur des valeurs voisines et centrées sur xt.

Les graphiques de la figure 14.9 extraits de Bernier (1965) montrent les courbes

chronologiques de moyennes mobiles sur 5 et 10 ans calculées sur des relevés annuels sur 160

ans. Des cycles dont les périodes avoisinnent 10 ans et 40 ans apparaissent sur ses graphiques.

Or les données de base ne sont pas des valeurs hydrologiques réelles mais des nombres au

hasard indépendants et stationnaires par construction. Ceci est une illustration de « l’effet

Slutsky » du nom du mathématicien qui a démontré que certaines manipulations statistiques

(telles que les moyennes mobiles) introduisaient nécessairement des périodicités fictives dans

les séries. Aussi l’utilisation de ce type de méthodes peut être complètement fallacieuse.

b) La mémoire des processus hydrologiques

La mémoire d’un processus caratérise la dépendance probabiliste entre la réalisation

11

présente (à l'époque t) et les réalisations antérieures (antécédentes à t).

L'absence de mémoire est mathématiquement traduite par l’hypothèse d'indépendance

exprimée par la condition suivante sur les fonctions de répartition du processus :

𝐹𝑛(𝑥1, 𝑥2, … , 𝑥𝑛 𝑡1, 𝑡2, … , 𝑡𝑛⁄ ) = 𝐹1(𝑥1 𝑡1⁄ ). 𝐹1(𝑥2 𝑡2⁄ ). … . 𝐹1(𝑥𝑛 𝑡𝑛⁄ ) (14.27)

Cette hypothèse d’indépendance est généralement admise pour les variables

hydrologiques annuelles (modules, débits maximaux ou minimaux annuels, etc…). C’est une

hypothèse pratique et commode bien qu’en toute rigueur elle puisse être mise en doute

quelquefois ; en effet :

- L'existence de mémoire à une échelle plus courte que l'année induit nécessairement une

mémoire, mais d'intensité plus faible et souvent négligeable à l'échelle annuelle.

- Certains travaux semblent mettre en évidence une mémoire du très long terme (voir ci-après

la description du phénomène de Hurst).

L'hypothèse de structure de dépendance la plus simple est l'hypothèse de Markov

(fiche E). Traduite en mots elle s'énonce : la distribution de probabilité conditionnelle de x(t) :

𝑓(𝑥𝑛; 𝑡𝑛 𝑥1, … , 𝑥𝑛−1; 𝑡1, … , 𝑡𝑛−1⁄ )

à l’époque t=tn connaissant les états antérieurs, ne dépend effectivement que de la réalisation

de X(t) à l’époque immédiatement antérieure à tn soit :

𝑓(𝑥𝑛; 𝑡𝑛 𝑥1, … , 𝑥𝑛−1; 𝑡1, … , 𝑡𝑛−1⁄ )= 𝑓(𝑥𝑛; 𝑡𝑛 𝑥𝑛−1; 𝑡𝑛−1⁄ ) (14.28)

Nous verrons ultérieurement (paragraphe 14.3) des exemples de modèles linéaires markoviens.

Le coefficient d'autocorrélation ρxx (t , t-1) fonction uniquement de 1'écart de temps τ, si le

processus est stationnaire, permet de mesurer 1'intensité de la mémoire du processus. Pour un

tel procesus stationnaire l'estimation classique des coefficients d'autocorrélation ρk entre les

variables xt et xt-k sur une séquence de réalisations observée à pas de temps constant est :

𝑟𝑘 =∑ 𝑥𝑖𝑥𝑖+𝑘

𝑛−𝑘𝑖=1 −

1𝑛 − 𝑘

∑ 𝑥𝑖𝑛−𝑘𝑖=1 ∑ 𝑥𝑖

𝑛𝑖=𝑘+1

√[∑ 𝑥𝑖2𝑛−𝑘

𝑖=1 −1

𝑛 − 𝑘(∑ 𝑥𝑖

𝑛−𝑘𝑖=1 )

2] [∑ 𝑥𝑖

2𝑛𝑖=𝑘+1 −

1𝑛 − 𝑘

(∑ 𝑥𝑖𝑛𝑖=𝑘+1 )2]

(14.29)

La fonction exprimant les variations de ρk (ou de son estimation rk) en fonction de k

s'appelle autocorrélogramme (théorique ou estimé). La figure (14.10) montre à titre d'exemple

l'autocorrélogramme estimée des débits moyens journaliers de l’Allier à Vieille Brioude. Pour

eliminer autant que possible l'effet de la non-stationnarité des débits journaliers, le coefficient

rk n’a pas été calculé directement sur les débits mais sur les débits journaliers centrés réduits

xi obtenus en posant :

𝑥𝑖 = (𝑞𝑖 − 𝑞�̅�) 𝑠𝑖⁄ (14.30)

où 𝑞�̅� et si sont respectivement les moyenne et écart-type des débits qi de chaque jour

calendaire sur les 46 années.

12

Une telle procédure implique l'hypothèse que la non-stationnarité ne joue pas sur les

autocorrélations, hypothèse qui peut être mise en doute dans de nombreux cas (mais on verra

ultérieurement des exemples au niveau de la modélisation des structures de débits mensuels).

L'hypothèse markovienne implique la propriété suivante pour les processus linéaires

stationnaires (fiche E) :

𝜌𝑘 = 𝜌1𝑘 = 𝑒− 𝑎 𝑘 (14.31)

avec

𝑎 = −𝐿𝑜𝑔 𝜌1

Il en résulte alors une décroisssnce exponentielle en fonction de k. L'allure des

graphiques (14.10) montre que 1a décroissance du corrélogramme semble beaucoup plus lente

que le prototype exponentiel ce qui traduit une structure de mémoire beaucoup plus complexe.

Il faut noter que, vis-à-vis de l'estimation du coefficient d'autocorrélation théorique ρk,

rk est soumis à des erreurs d'échantillonnage assez grandes, notamment pour les valeurs

élevées de k. La caractérisation de ces erreurs d'échantillonnage est en dehors du domaine de

ce manuel. Nous renvoyons le lecteur soit à des ouvrages de statistique généraux tels que

(Hannan, 1960) ou à des ouvrages spécialisés à l'hydrologie (Yevjevich, 1972) pour des

détails sur ces problèmes importants.

Un autre moyen de caractériser 1a mémoire d'un processus hydrologique utilise

1'analyse spectrale. Etant donné un processus stationnaire de fonction d'autocorrélation

ρXX(t) la fonction de densité spectrale (ou spectre) s'écrit :

𝑆𝑋𝑋(𝑓) = √𝑚2 ∫ 𝜌𝑋𝑋(𝑡) 𝑒−2 𝑖 𝜋 𝑓 𝑡𝑑𝑡

+∞

−∞

(14.32)

avec 𝑖 = √−1 dans cette formule, dont une méthode d’estimation générale est donnée par la

formule :

𝐽𝑋𝑋̅̅ ̅̅ (𝑓) √𝑚2⁄ = 2 [1 + 2 ∑ 𝑟𝑋𝑋(𝑘) 𝑊(𝑘) cos 2 𝜋 𝑓 𝑘

𝐿−1

𝑘=1

] (14.33)

pour 0 ≤ f ≤ 1 / 2, où le nombre L et 1a "fenêtre de pas" W(k) sont choisis de façon à obtenir

un compromis acceptable entre deux exigences contradictoires (un biais d’estimation faible et

une variance d'échantillonnage faible). On trouvera dans la fiche J des détails sur le choix de

L et de la fenêtre de pas.

Pour un processus périodique avec une période ω/2π équivalente à une fréquence

f=2π/ω, le spectre présente généralement un pic à cette fréquence. Considérons par exemple le

spectre des débits mensuels de 1a Dore à Giroux (figure 14.11). On remarque le pic très

prononcé à la fréquence correspondante à la périodicité annuelle. Si on élimine ces

périodicités, en utilisant par exemple des données dessainnalisées, homogénéisées par des

transformations du type de la formule (14.35) le spectre peut donner des informations sur la

13

structure du processus et petaettrel 1a validation de certains modèles. La figure 14.11 illustre

la comparaison entre spectre observé et spectre calculé dans une série simulée avec un modèle

de Thomas-Fiering que nous verrons plus loin, pour ce qui concerne les débits mensuels de la

Dore à Giroux.

Un autre exemple (figure 14.12) est celui des débits mensuels de la Sioule à Pont du

Bouchet (Delleur, 1970) sur les données homogénéisées, centrées, réduites (formule 14.30)

par rapport à leurs moyennes et écart-type de chaque mois. La décroissance du spectre est

compatible avec l'allure du spectre théorique réultant d'un modèle linéaire markovien

stationnaire :

𝑥𝑡 − 𝜇 = 𝜌1(𝑥𝑡−1 − 𝜇) + 𝜀𝑡 (14.34)

qui a pour spectre théorique :

𝑆𝑋𝑋(𝑓) = 𝜎2 1 + 𝜌12 − 2 𝜌1 cos 2𝜋𝑓 (14.35)⁄

où σ2 est la variance du résidu εt, supposè être un "bruit blanc", c'est-à-dire un processus tel

que les réalisations successives de ε sont indépendantes en probabilité.

Si généralement on peut, au moins théoriquement, ajuster des formules théoriques

telles que (14.35) aux spectres estimés, les méthodes d'ajustement sont cependant délicates et

l'analyse spectrale reste malgré tout un outil exploratoire ne permettant de mettre en évidence

que 1es grandes lignes des processus de débits : périodicités, contribution des hautes

fréquences pour des structures de mémoire complexes, contribution des basses fréquences

pour 1a mémoire au long terme et les tendances (ainsi une tendance à la croissance ou à la

décroissance se traduit-elle par une ordonnée à l'origine du spectre).

c) Analyse des mémoires au long terme (Le phénomène de Hurst)

Une méthodologie issue des travaux de Hurst (1951) et appliquée à l'étude des

séquences d'indicateurs hydrologiques annuels a suscité certains doutes sur l'hypothèse

d'indépendance pratiquement adoptée pour les modules, les débits de crue maximaux annuels

etc…

Soit donc : x1, x2, … , xn une séquence de réalisations chronologiques de tels

indicateurs :

𝑥𝑡∗ = ∑ 𝑥𝑢

𝑡

𝑢=1

(14.36)

alors

�̿�(𝑡, 𝑠) = [𝑥𝑡+𝑠∗ − 𝑥𝑡

∗] 𝑠⁄ (14.37)

est la moyenne des observations du sous-échantillon de t+l à t+s.

𝑆2(𝑡, 𝑠) =1

𝑠∑ 𝑥𝑢

2

𝑡+𝑠

𝑢=𝑡+1

− [1

𝑠∑ 𝑥𝑢

𝑡+𝑠

𝑢=𝑡+1

]

2

(14.38)

14

est la variance de ce sous-échantillon.

Soit :

𝑅(𝑡, 𝑠) = Max0<𝑢<𝑠

[𝑥𝑡+𝑈∗ − 𝑥𝑡

∗ − 𝑢 �̿�(𝑡, 𝑠)] − Min0<𝑢<𝑠

[𝑥𝑡+𝑈∗ − 𝑥𝑡

∗ − 𝑢 �̿�(𝑡, 𝑠)] (14.39)

Si les xi sucessifs sont supposés être les apports successifs dans un réservoir, R(t,s) a

une interprétation phénoménologique importante ; il représente la capacité que devrait avoir le

réservoir supposé plein à l'époque t, pour assurer sans défaillance sur la période [t, t+s] la

satisfaction d'une demande d'eau constante égale à �̿�(𝑡, 𝑠). Si le processus est stationnaire, les

propriétés probabilistes du rapport 𝑅(𝑡, 𝑠) 𝑆(𝑡, 𝑠)⁄ ne sont fonctions que de s.

Des travaux théoriques (Anis et Lloyd, 1976) ont montré que l'espérance

mathématique du rapport précédent avait 1a propriété suivante :

𝐸 [𝑅(𝑡, 𝑠)

𝑆(𝑡, 𝑠)] = 𝐾 𝑠0,5 (14.40)

pour s grand, propriété valable aussi bien pour les processus indépendants que pour ceux à

mémoire courte (processus de Markov par exemple). Or Hurst a montré que pour le modules

d'un grand nombre de rivières dans le monde, on obtient :

𝐸 [𝑅(𝑡, 𝑠)

𝑆(𝑡, 𝑠)] = 𝐾 𝑠𝐻 𝑎𝑣𝑒𝑐 𝐻 > 0,5 (14.41)

Les figures (14.13) et (14.14) présentent deux graphiques logarithmiques de log (R/S)

en fonction de s pour les débits maximaux annuels du Rhin à Bale et de la Loire à Montjean;

pour chaque s le nuage de points correspond à diverses valeurs de t. L'estimation de H peut

poser des problèmes délicats (Mandelbrot et Wallis, 1969). Dans le cas présent, la méthode

suivante a été utilisée :

- Pour chaque s, 1a valeur moyenne des différents log [R(t,s) / S(t ,s)] a été calculée,

soit les R/S (points représentés par un ☐ sur les graphiques).

La valeur H a été estimée par la pente de la droite de régression de log 𝑅 𝑆⁄̅̅ ̅̅ ̅̅ ̅̅ ̅̅ . Par ce

procédé on trouve :

H = 0,55 pour le Rhin

H = 0,70 pour la Loire

Mandelbrot et Wallis ont montré qu'une interprétation possible du phénomène de

Hurst, c'est-à-dire d'un H supérieur à 0,5, était la présence d'une très longue mémoire

entraînant une persistance illustrée par des successions de longues périodes de hauts débits

suivies de périodes de bas débits (Effet Joseph).

Pour ce proessus à très longue mémoire, où finalement 1'indépendance est remise en

cause, le spectre devrait présenter une asymptote à l'origine :

15

lim𝑓→0

𝑆(𝑓) = +∞

mais il apparaît que la méthode basée sur le rapport R/S est plus sensible et efficace pour la

mise en évidence possible du phénomène de Hurst que 1'analyse spectrale.

L'exemple des crues de la Loire et du Rhin montre que cet effet n'est pas seulement

détectable sur les débits moyens annuels et est un facteur de régime de certains cours d'eau. A

cet égard, on notera la différence du comportement de la Loire d'un côté et du Rhin de l'autre.

On a déjà noté le facteur régularisant des influences nivales et glaciaires sur le débit du Rhin ;

on connaît par ailleurs le régime des crues particulièrement variables de la Loire et

1'irrégularité notable de ce régime traduite effectivement par des périodes de très grandes

crues au cours du siècle dernier et suivie par des périodes où le débit a été beaucoup moins

important. Notons toutefois que certains auteurs (Klemeš, 1971) ont montré que des valeurs

de H supérieures à 0,5 pourraient également s'expliquer par des non-stationnarités dans les

tendances centrales des processus hydrologiques (moyenne évoluant avec le temps par

exemple). Il semble également que des modèles à mémoire courte, finie, puissent également

rendre compte du phénomène de Hurst.

14.2.3 Les structures spatiales de phénomènes hydrologiques

Il a été vu au chapitre 3 que 1a précipitation, comme d'ailleurs tous les flux

météorologiques (températures, etc…) avaient des structures spatiales assez étroites, traduites

par des corrélations, des dépendances statistiques à l'échelle de surface souvent assez vastes

pour englober plusieurs bassins. Il en résulte une dépendance statistique entre les débits de ces

bassins même si ceux-ci ne sont pas reliés entre eux par le réseau hydrographique. Bien

entendu dans le cas de bassins imbriqués dans le même réseau, contrôlés par des stations

reliées d’amont en aval par exemple, cette dépendance viendra renforcer la dépendance

purement hydraulique.

Les outils permettant la description de ces dépendances et structures spatiales sont les

méthodes régressives (fiche D) et multivariées (fiche G). L'exemple suivant donne une

illustration, parmi d'autres, des applications possibles des méthodes régresssives.

La figure 14.15 montre la droite de régression entre les modules de l'Aube à

Blaincourt et la Seine à Bar (bassins voisins mais reliés par le réseau hydrographique à 1'aval

de ces deux stations seulement). Les paramètres statistiques (moyennes, écart-types s et

coefficients de corrélation statistiques sont donnés sur le graphique). On notera la valeur

élevée du coefficient de corrélation traduisant la liaison étroite des modules de ces deux

bassins.

L'équation de la droite de régression estimée est :

𝑦𝐴 = 𝜃0 + 𝜃1 𝑥𝑆 (14.42)

avec

𝜃1 = 𝑟 𝑠𝐴 𝑠𝑆 = 0,762⁄

𝜃0 = 𝑦𝐴̅̅ ̅ − 𝜃1𝑥�̅� = −0,058

16

l’écart-type résiduel étant :

𝜎 = 𝑠𝐴 1 − 𝑟2 = 1,103⁄

La station de Bar a été mise en service en 1950, on y dispose donc de 17 années

d'observations supplémentaires antérieures à 1967, les modules correspondants sont portés sur

1'abscisse du graphique (14.15). On peut songer à utiliser la liaison étroite entre modules pour

reconstituer des valeurs de modules yA concomittantes aux valeurs xS complémentaires en

utilisant la régression (14.47). Cette méthode est fallacieuse car elle néglige la dispersion

résiduelle des yA autour de la droite de régression qui, même pour une liaison très forte, n’est

pas négligeable si l’on onsidère l’estimation σ de l’écart-type résiduel. En toute rigueur il

faudrait ajouter à yA estimé par (14.47) un résidu aléatoire simulé que l'on peut obtenir par

tirage au sort dans la loi de probabilité des résidus ε.

Mais dans le contexte statistique, on peut s'intéresser directement à certains paramètres

statistiques comme l'espérance μy et de la variance ν2y de la variable y. Dans ce cas on peut

obtenir des estimations directes μy et ν2y déduites de l’information complémentaire. De façon

générale :

𝜇𝑦 = 𝑦𝑘̅̅ ̅ − 𝜃1(𝑥𝑘̅̅ ̅ − 𝑥𝑁̅̅̅̅ ) (14.43)

𝜈𝑦2 = 𝑠𝑦,𝑘

2 − 𝜃1̅̅ ̅2

(𝑠𝑥,𝑘2 − 𝑠𝑥,𝑁

2 ) (14.44)

où les indices x et y représentent les variables hydrologiques des séries "longue" et …

Ligne manquante

… indice ces nombres répèrent les paramètres statistiques, moyenne et variance de chaque

série. Dans notre exemple particulier, on obtient :

𝜇𝑦𝐴 = 16,2 𝑚3 𝑠⁄

Ici nous avions pris arbitrairement une période commune de 10 ans. En fait la station

de Blaincourt a été observée depuis 1954. Les moyennes et écart-types empiriques calculés

sur la série complète sont en fait :

�̅�𝐴 (1954 − 1976) = 16,6 𝑚3 𝑠⁄

𝑠𝐴 (1954 − 1976) = 5,78 𝑚3 𝑠⁄

Les estimations précédentes sont donc très proches de ces valeurs; ceci n'est pas

étonnant compte tenu de la très forte corrélation entre les stations.

L'estimation μy est intéressante à comparer à la moyenne �̅�𝑘 du point de vue des

erreurs d'échantillonnage caractérisées par les variances.

𝑉𝑎𝑟(�̅�𝑘) =𝜈𝑦

2

𝑘 (14.45)

17

𝑉𝑎𝑟(𝜇𝑦) =𝜈𝑦

2

𝑘{1 −

𝑁 − 𝑘

𝑘[1 − (𝑘 − 2)𝜌2

𝑘 − 3]} (14.46)

où ρ est le coefficient de corrélation théorique (estimé par r). Le rapport de ces deux variances

permet de mesurer l'augmentation de précision apportée par la connaissance de l'information

complémentaire sur x. L'efficacité de l'estimation de μy sera donc exprimée par le rapport :

𝐸 = 1 −𝑁 − 𝑘

𝑘[1 − (𝑘 − 2)𝜌2

𝑘 − 3] (14.47)

Dans notre exemple précédent avec ρ estirmé par r, on trouve E=0,394.

Le rapport K/E (25,3 dans notre exemple) donne, du point de vue des critères

d'échantillonnage sur 𝜇𝑦 , le nombre d'observation y équivalent à l'information

complémentaire sur x prise en compte dans la corrélation. Cette méthodologie d’amélioration

des estimations par les modèles régressifs peut être appliquée pour toute variable x explicative

comme les précipitations ou les débits pour autant que la précision soit augmentée, c'est-à-

dire E < 1, ce qui implique :

𝜌2 > 1 (𝑘 − 2)⁄

La validité des formules d'estimation sur 𝜇𝑦 ne préjuge aucune forme de distribution

statistique des variables x et y. Par contre la formule d'estimation de la variance 𝜈𝑦2 suppose

que les résidus ε de la régression sont distribués selon une loi normale. Si les variables x et y

sont elles-même normales alors les formules (14.48) et (14.49) fournissent les estimations du

maximum de vraisemblance.

Extension sur régressions multiples

La méthode précédente peut être généeralisée au cas de la prise en compte

d'informations complémentaires sur plusieurs chroniques explicatives "longues"

(précipitations, débits, températures, etc…) soit l'équation de régression :

𝑦 = 𝜃0 + 𝜃1𝑥1 + 𝜃2𝑥2 … + 𝜃𝑟𝑥𝑟 (14.48)

Des formules généralisant les précédentes sont :

𝜇𝑦 = �̅�𝑘 − 𝜃𝑘𝑇(�̅�𝑘 − �̅�𝑁) (14.49)

𝜈𝑦 = 𝑠𝑦,𝑘2 − 𝜃𝑘

𝑇(𝑆𝑥𝑥,𝑘 − 𝑆𝑥𝑥,𝑛)𝜃𝑘 (14.50)

ou

𝑠𝑦,𝑘2 : variance empirique des y sur la série courte de longueur k,

�̅�𝑘 : moyenne empirique des y sur la série courte.

et les notations matricielles suivantes sont utilisées :

�̅�𝑘 et �̅�𝑛 représentent les vecteurs des r moyens calculés sur les séries courtes et

18

longues des x.

𝑆𝑥𝑥,𝑘 − 𝑆𝑥𝑥,𝑛 les matrices de covariance empirique calculées sur les séries courtes et

longues.

θk (dont le transposé est 𝜃𝑘𝑇) est le vecteur des coefficients de régression estimé sur la

série courte des y et x (fiche D).

La formule (14.51) donnant le rapport E mesurant l'augmentation de précision est

alors :

𝐸 = 1 +𝑁 − 𝐾

𝑁[𝑟 − (𝑘 − 𝑟 − 1)𝑅2

𝑘 − 𝑟 − 3] (14.51)

où R est le coefficient de corrélation multiple de y en fonction des x (fiche D).

Les méthodes régressives à r dimensions sont des cas particuliers de méthodes

multivariées. On peut appliquer à l'étude conjointe d’un ensemble de variables de débits

relatives à un ensemble de stations de jaugeage des méthodes comme d'analyse en

composantes principales ou le krigeage pour mettre en évidence les relations spatiales

intrinsèques entre les stations (Villeneuve et al., 1979). Mais ces techniques ont trouvé, en

matière de débits, un champ moins favorable à des applications extensives que dans le

domaine des précipitations.

14.3 Les modèles stochastiques des processus hydrologiques unidimensionnels

Nous avons vu au paragraphe précédent que des techniques statistiques adaptées

comme les analyses spectrales ou d’autocorrélation mettaient en évidence des structures

temporelles très fortes des séries chronologiques de débits de rivières. Quel que soit le pas de

temps que l'on choisisse (annuel et surtout mensuel et journalier). Il existe des dépendances

probabilistes souvent étroites entre les débits successifs, c’est-à-dire que les distrihutions

marginales des écoulements, pour chaque période (mensuelle par exemple) isolée de son

contexte chronologique, ne suffisent pas à la description des processus stochastiques

hydrologiques et surtout à leur simulation. Il importe de modéliser ces structures.

Pour effectuer cette modélisation la considération des pas de temps est essentielle. A

l'échelle annuelle l'hypothèse d'indépendanc peut être pratiquement admise entre les modules

successifs dans la plupart des cas; alors les lois marginales des modules décrites dans le

paragraphe (14.2.1) suffisent à la modélisation des processus de débits annuels. Cette

indépendance peut quelquefois être mise en question, mais la mise en œuvre de modèles

concurrents éventuellement plus réalistes pose des problèmes sur le plan pratique ; nous y

reviendrons.

Généralement la complexité et l’intensité de 1a structure de dépendance croissant à

mesure que 1'on descend dans 1'échelle des pas de temps :

saisonnier mensuel journalier

I1 est de pratique courante d'utiliser des modèles adaptés aux pas de temps particuliers

pour les problèmes opérationnels étudiés comme la gestion de réservoirs saisonniers pour

lesquels le pas de temps mensuel peut suffire par exemple. Des structures simples

représentées par des modèles markoviens sont alors adéquates à ce niveau. Le problème de la

19

cohérence structurelle des modèles ajustés indépendamment sur différentes échelles de temps

peut être posé dans la mesure où l'estimation et 1a vérification de ces modèles ont porté sur

des données différentes. Ce souci de cohérence et aussi celui de présenter des modèles à

usages multiples "passe partout" a poussé certains hydrologues à proposer des modèles de

simulation de débits à l’échelle 1a plus fine, la journalière le plus souvent, présumés capables

de décrire les chroniques à des échelles de temps plus larges en s'appuyant sur le principe "qui

peut le plus, peut le moins". Ces types de modèles peuvent être très fallacieux; d'une part la

modélisation des débits à l'échelle journalière est très complexe et ne semble pas avoir reçu de

solution complètement satisfaisante à ce jour, d'autre part les critères d'ajustement peuvent

être incompatibles selon les diverses échelles de temps et une bonne adéquation adaptée aux

débits journaliers ne peut bien souvent se faire qu'au détriment de 1'adéquation aux échelles

de temps supérieures.

Là encore, c'est le point de vue opérationnel de choix d'un modèle adapté au pas de

temps et aux critères opérationnels choisis ainsi qu'aux données disponibles qui doit primer ce

souci de cohérence structurelle. Dans 1a revue des modèles qui suit, nous préciserons chaque

fois les échelles des temps auxquelles ils sont les mieux adaptés. Il existe toutefois une

approche permettant de contourner le dilemme des pas de temps, c'est celle qui consiste à

prendre en compte des seuils de débits fixés et à modéliser les chroniques de surplus et

déficits; nous y consacrerons un paragraphe important.

14.3.1 Les modèles à chronologie fixée

a) Les modèles markoviens et autorégressifs (Fiche E)

Considérons les débits moyens observés à une station de jaugeage donnés au cours de

période de temps successives : … , t – 1, t, t + 1, … etc. Le modèle le plus largement utilisé

pratiquement en hydrologie est le modèle markavien ou autorégressif d'ordre 1 :

𝑋𝑡+1 = 𝜇𝑡+1 + 𝛽𝑡+1(𝑋𝑡 − 𝜇𝑡) + 𝜀𝑡+1 (14.52)

où Xt est soit le débit de la période t, soit toute transformation de seuil de débit permettant de

représenter la distribution de εt+1 par une loi simple (par exemple Xt =log Qt).

- 𝜇𝑡 est l’espérance de Xt pour la période t.

- les 𝜀𝑡sont supposés d'espérance nulle, de variance ν2t et mutuellement indépendants

au cours des périodes successives.

Les coefficients βt et les variances ν2t peuvent être calculés de façon à reconstituer

d'une part les coefficients de corrélation ρt,t+1 entre les variables Xt et Xt+1 successives et les

variances ν2t de chaque Xt. On a les expressions :

𝛽𝑡+1 =𝜎𝑡+1

𝜎𝑡𝜌𝑡,𝑡+1 (14.53)

𝜈𝑡+12 = 𝜎𝑡+1

2 (1 − 𝜌𝑡,𝑡+12 ) (14.54)

Dans un modèle autorégressif du premier ordre, on peut montrer que les coefficients

de corrélation entre les variables Xt +k et Xt de deux périodes séparées par k périodes

intermédiaires doivent vérifier la relation (fiehe E) :

20

𝜌𝑡+𝑘,𝑡 = 𝜌𝑡+𝑘,𝑡+𝑘−1 𝜌𝑡+𝑘−1,𝑡+𝑘−2 … 𝜌𝑡+1,𝑡 (14.55)

généralisant la relation simple

𝜌𝑡+2,𝑡 = 𝜌𝑡+2,𝑡+1 𝜌𝑡+1,𝑡 (14.56)

Cette structure simple, en fait la plus simple des structures de dépendance, permet

généralement de représenter les chroniques de débits à l'échelle mensuelle mais difficilement

aux échelles inférieures.

A cette échelle mensuelle, le caractère saisonnier, non stationnaire, du processus est

pris en compte par des coefficients 𝜇𝑡, 𝜎𝑡2, 𝜌𝑡,𝑡+1 (et donc 𝛽𝑡 et 𝜈𝑡

2 ) prenant des valeurs

périodiques, de périodes égales à 12 mois. En d'autres termes1'espérance 𝜇𝑡 et la variance 𝜈𝑡2

sont spécifiques à chaque mois calendaire et les correlations 𝜌𝑡+1,𝑡 représentent les liaisons

entre janvier et février, février et mars, etc …

Si les εt sont disttibuées selon la loi normale, les lois statistiques marginales des Xt

sont également normales. Dans la mesure où la loi log-normale est souvent réaliste pour

représenter les débits mensuels (figure 14.2) le modèle markovien (14.57) est alors appliqué

aux logarithmes des débits.

Fiering (1967) a développé des formules permettant de traiter le cas où le "résidu" εt

est distribué selon une loi proche de la loi Pearson type III en effectuant une transformation

sur et qui conserve les trois premiers moments de la distribution des variables Xt prises égales

ici aux débits Qt :

𝜀𝑡

𝑉𝑡=

2

𝛾𝑡[1 +

𝛾𝑡

6𝜈𝑡 −

𝛾𝑡2

36]

3

−2

𝛾𝑡 (14.57)

avec

𝛾𝑡 =𝑔𝑡 − 𝜌𝑡,𝑡−1

3 . 𝑔𝑡−1

[1 − 𝜌𝑡,𝑡−12 ]

3 2⁄

où 𝛾𝑡, 𝑔𝑡, 𝑔𝑡−1, sont les coefficients d'asymétrie (fiche C) respectivement de εt, Qt, Qt-1 et νt

est une variable normale centrée réduite. Cette forrnule est appelée transformation de Wilson-

Hilferty.

Le modèle (14.52) est généralement attribué à Thomas et Fiering (1962). Cependant, il

était largement utilisé en France avant cette date. Halphen (1941) a présenté une application

aux débits mensuels du Rhin à Bale et de la Dordogne à Bort dans l'annuaire de la SHF de

1941. La figure 14.16 illustre la variation saisonnière mensuelle des paramètres du modèle

ajusté aux débits mensuels de la Dore à Giroux. On remarquera l'effet saisonnier très notable

sur 1e coefficient de corrélation entre mois successifs ce qui montre que la série

chronologique des apports mensuels ne saurait être comparée complètement transformée en

utilisant une transformation du type (14.30).

Sous la forme (14.57) le modèle markovien est utilisable en simulation. Partant d'une

21

valeur initiale X0, les Xt sont générés en séquence à partir d'une suite de réalisations de

variables normales indépendantes εt qui peuvent être calculées à partir de réalisations

normales centrées réduites Ut en utilisant la relation :

𝜀𝑡 = 𝑉𝑡. 𝑈𝑡

Les séquences de réalisations Ut sont générées par des méthodes de Monte Carlo

standards (Hammersley et Handscomb, 1965). La figure (14.17) présente les caractéristiques

de dispersion d'une série de débits moyens mensuels fictifs de 500 années pour 1a Dore à

Giroux en utilisant la méthode de simulation décrite ci-dessus. On se reportera également aux

spectres de la figure (14.11).

A cet égard quelques mots sont nécessaires pour préciser la portée et les limites des

méthodes de simulation (à partir du modèle markovien ou de tout autre modèle d'ailleurs). Les

séries de débits fictifs ont des propriétés statistiques qui ressemblent à celles des séries

naturelles dans la mesure où le modèle de génération et les paramètres de ce modèle ont été

choisis et estimés sur les données réelles. Or générer 500 années fictives n'accroît pas

l'information constituée par les débits réels mais permet d'obtenir, par un battage de cartes

hydrologiques, des séquences de confirmations hydrologiques diverses (succession de

périodes sèches ou humides par exemple) plus nombreuses et variées que celles que l’on

observe sur les données réelles et qui restent compatibles avec elles dans la mesure où le

modèle est réaliste. Ces battages de cartes sont essentiels pour le test de systèmes comme les

réservoirs sur ces données. Halphen (1945) a ainsi présenté une étude de dimensionnement

d’un système de réservoirs et centrales hydroélectriques utilisant une simulation des apports

mensuels d’un ensemble de rivières françaises basée sur le modèle (14.57). Dans le cadre de

ce modèle, Halphen utilisait dès cette époque une méthode originale en prenant pour variabIe

Xt des variables normales transformées des débits mensuels par "anamorphose normale" de la

loi harmonique (paragraphe 14.2) ajustée à ces débits mensuels.

- Rappel de définition

On rappelle que si une variable aléatoire Q est distribuée selon la loi de fonction de

répartition F(Q), l'anamorphose normale est la transformation qui à tout Q fait correspondre

lav aleur X telle que :

𝐺(𝑋) = 𝐹(𝑄) (14.58)

où G(X) est la fonction de répartition de la loi normale centrée réduite.

- Modèles autorégressifs

Pour les applications à des débits moyens sur des pas de temps inférieurs au mois il

importe de prendre en compte des structures plus complexes que celles décrites par le modèle

(14.57) en généralisant celui-ci par la considération des modèles autorégressifs à coefficients

non stationnaires :

𝑋𝑡+1 = 𝑏0(𝑡+1)𝑋𝑡 + 𝑏1

(𝑡+1)𝑋𝑡−1 + ⋯ + 𝑏𝑘(𝑡+1)𝑋𝑡−𝑘 + 𝜀𝑡+1 (14.59)

- Les modèles ARMA et ARIMA

22

Depuis certains travaux de statistiques (Box et Jenkins, 1976) les modèles ARMA sont

très populaires en hydrologie comrne ent témoignent des ouvrages récents comme ceux de

Kottegoda (1980) ou Salas et al. (1980). Il importe toutefois d’en analyser la portée et les

limites.

Soit un processus stochastique stationnaire (Xt) représentant une séquence de débits ou

de transformations de débits comme dans (14.52). Les processus ARMA (p,q),

(AutoRegressive And Moving Average en anglais), se mettent sous la forme :

𝑋𝑡 = ∑ 𝛼𝑗 𝑋𝑡−𝑗

𝑝

𝑗=1

− ∑ 𝜃𝑗 𝜀𝑗

𝑞

𝑗=0

𝑎𝑣𝑒𝑐 𝜃0 = −1 (14.60)

La première somme, correspondant à la partie autorégressive d'ordre p est analogue à

(14.52); la seconde somme (moyenne mobile) est une moyenne de q variables aléatoires

indépendantes εj centrdées réduites, qu'en pratique on considère généralement comme des

variables normales. On sera donc amené à distinguer les modèles AR (p,0), autorégressifs, les

modèles MA (0,q), moyennes mobiles, et les modèles ARMA (p,q), généraux. Une

interprétation phénoménologique, très sommaire, est quelquefois donnée à ces modèles

appliqués aux débits où la partie autorégressive correspondrait au tarissement du bassin et la

partie moyenne mobile aux apports aléatoires des pluies. En fait il serait très fallacieux de se

laisser guider par une telle interprétation pour estimer les coefficients αj et θj.

Revenons à la partie "moyenne mobile" seule. Pour simuler le processus, il est

nécessaire de ramener l'équation du modèle MA (o,q) sous la forme :

𝑋𝑡 = 𝛹0 + 𝛹1𝑋𝑡−1 + 𝛹2𝑋𝑡−2 + ⋯ + 𝛹𝑘𝑋𝑡−𝑘 + ⋯ (14.61)

où Xt s'exprime en fonction du "passé" non limité à une mémoire k finie sinon ce processus

serait équivalent à un AR (k,0).

Pour être faisable, 1'inversibilité des processus MA, représentée par (14.61), impose

certaines conditions aux coefficients θj. De même les coefficients αj de la partie

autorégressive doivent remplir certaines autres conditions pour que le processus soit

stationnaire (Salas et al.,1980) sinon il présente des varitions systématiques non cycliques.

Les modèles ARMA sont stationnaires par construction ; leur utilisation pourt

représenter les cycles saisonniers des débits notamment passe nécessairement par une

homogénéisation de ces débits en utilisant des variables réduites du style de (14.30) par

exemple. Nous avons vu que ce type de transformation pouvait ne pas faire disparaître la

structure non stationnaire des corrélations; en première approximation il peut cependant être

utilisé.

Mais il existe des généralisations des modèles ARMA prenant en compte des

périodicités, il s'agit des modèles ARIMA (AutoRegressive Integrated Moving Average

processes).

Considérons la première différence :

23

∇𝑋𝑡 = 𝑋𝑡 − 𝑋𝑡−1

la différence seconde,

∇2𝑋𝑡 = ∇𝑋𝑡 − ∇𝑋𝑡−1 la différence d'ordre d

∇𝑑𝑋𝑡 = ∇𝑑−1𝑋𝑡 − ∇𝑑−1𝑋𝑡−1 (14.67)

On appelle processus ARIMA (p,d,q) un processus ARMA (p,q) appliqué aux

différences ∇𝑑𝑋𝑡.

Si un processus Xt-1, Xt, Xt+l …, présente une périodicité d'ordre k c'est-à-dire si la loi

temporelle du processus ne varie pas lorsqu'on translate tous les instants d'un pas égal à K,

alors l'application d'une Kième différence ∇𝑘𝑋𝑡 rend le processus stationnaire. Delleur (1978)

cite des exemples d'application de modèles ARIMA avec d = 12 à des chroniques de débits

mensuels où la périodicité annuelle est éliminée mais où le procédé de différentiation

introduit des distorsions sur les covariances entre débits mensuels successifs. La procédure

ARIMA ne semble donc pas complètement satisfaisante pour la représentation des processus

de débits saisonniers.

La mise en application des modèles ARMA, les méthodes d'identifications des

modèles basées sur les autocorrélations des Xt ou des résidus εt, les méthodes d'identification

des paramètres (maximum de vraisemblance) et les tests de validité des ajustements

demandent des procédures assez lourdes en calcul mais qui ont été systématiquement

programmées sur ordinateurs. Des langages informatiques simples permettent d'utiliser en

routine ces programmes et en facilitent grandement les applications. On trouvera dans Delleur

(1978) des illustrations de l'application de ces modèles à des processus de débits mensuels et

journaliers. Notons que l'adéquation des modèles ARMA semble beaucoup plus satisfaisante

à l'échelle mensuelle qu'à l'échelle journalière ou des ARMA (1,1) sur débit homogénéisé par

exemple ne semblent pas respecter la structure de dépendance très complexe des débits à cette

échelle.

b) Les modèles structuraux

L'application des divers modèles précédents au cas des débits journaliers pose le

problème de la représentation des "résidus" εt par des variables aléatoires continues telles des

variables normales avec lesquelles la simulation ne peut donner des trajectoires de débits

réalistes. C'est notamment le cas de trajectoires de débits résultant de bassins soumis à des

influences uniquement pluviales. En effet celles-ci (figure 14.18) présentent en général des

évolutions déterministes, notamment en période de tarissement, lorsque le bassin n'est plus

alimenté par les préciritations. Le débit évolue alors selon une loi de vidange particulière à ce

bassin. On ne peut donc espérer obtenir des modèles réalistes à l’échelle fixe qu'en s’appuyant

sur une schématisation du mécanisme de genèse des débits à partir des facteurs qui les

conditionnent notamment les précipitations dont le processus d’occcurence est une succession

de périodes sèches et pluvieuses alternées. Si dans la représentation (14.60) les "résidus" εt

peuvent être assimilés à des pluies, ils devraient pouvoir prendre des valeurs nulles avec des

probabilités finies différentes de 0 pour représenter les périodes sèches contrairement au cas

des variables contiues où la probabilité de valeur nulle est strictement nulle. Une modélisation

basée sur ces principes a été suggérée par Bernier (1969). Weiss (1973) puis Treiber et Plate

(1977) ont développé des modèles structuraux sur ces principes. Les modèles d'intervention

24

de Hepel, Lennon, Unny et MacLeod (1975) sont batis sur des idées analogues.

Dans la littérature de langue française, il est intéressant de mentionner le modèle

DEJOREG de Tiercelin et Leviandier (1978) qui schématise le processus des débits

journaliers de la façon suivante (figure 14.19) :

- on superpose un débit de base Q et des réactions (crue + décrue) ;

- au cours d'une réaction de durée Ti, le débit de base évolue linéairement à partir d'un débit

initial Qi ;

- la réaction est représentée par un hydrogramme triangulaire entièrement caractérisée par la

durée Ti et le volume de réaction Vi ;

- le processus est donc entièrement décrit par le chronologue de l'ensemble des trois séries de

variables ( Qi , Vi , Ti ) représentées par des modèles autorégressifs respectant des liaisons

entre ces variables, soit pour la même réaction, soit pour une réaction et la suivante.

Dans ce modèle, la schématisation des hydrogrammes peut paraître sommaire à

l’échelle journalière mais la simplicité de mise en œuvre permet d'estimer les paramètres du

modèle pour le caler de façon réaliste sur les propriétés statistiques du processus à l’échelle de

temps souhaitée celle-ci pouvant aller de quelques jours à quelques mois.

c) Portée et limites des modèles de processus stochastiques des débits à chronologie fixe.

Nous avons déjà souligné la difficulté de disposer de modèles permettant de décrire

l'ensemble de diverses échelles de temps d'un processus de débits.

Aux courtes échelles de temps (de l'ordre du jour) il apparaît que les modèles

structuraux peuvent seuls permettre la représentation réaliste des fluctuations des successions

de crues, décrues, tarissements, contrairement aux modèles linéaires (Markovien, ARMA).

Mais les exemple connus sont trop complexes (Treiber-Plate) soit traitent des cas particuliers

(Weiss) et ne constituent que des applications académiques. Seul le modèle DEJOREG

semble conçu très simplement et avoir été effectivement utilisé pour des applications

opérationnelles.

Aux échelles de temps intermédiaires (mois ou saison) les modèles ARMA et surtout

markoviens semblent adéquats. Mais une difficulté apparait. Le modèle markovien, comme

tous les modèles à mémoire courte (au niveau mensuel), ne peut représenter les

caractéristiques des fluctuations au long terme des écoulements. Ainsi la fréquence des

longues sécheresses (non pas de quelques mois, mais celles dépassant l’année), est sous-

estimée par le modèle markovien qui, de plus, ne peut prendre en compte des phénomènes du

type Hurst (paragraphe 14.2.3). On retrouve ici le problème de la cohérence entre pas de

temps. Valencia et Schaake (1973) ont développé des modèles de désagrégation permettant de

représenter le processus d'une chronique à l’échelle longue (par exemple celle des débits

annuels), puis de désagréger la série simulée par ce premier modèle en ses constituants à

échelle plus courte (par exemple les débits mensuels) en respectant à la fois les relations

physiques déterministes entre eux et les caractéristiques statistiques (moyennes, variances et

covariances) à chaque échelle de temps. Nous décrirons plus avant ces modèles dans le

paragraphe (14.4). Il apparaît toutefois des difficultés liées à la multiplication du nombre de

paramètre nécessaires pour représenter ces caractéristiques ce qui peut nuire à la fiabilité des

modèles. Nous y reviendrons plus loin.

25

A l'échelle de temps annuelle, l'hypothèse la plus courante est l'indépendance des

modules successifs. Notons tout de suite que cette indépendance est strictement incompatible

avec l'hypothèse markovienne des débits mensuels qui implique (Halphen, 1941) une liaison

en chaîne des modules toutefois assez faible. Cette liaison représentable par un modèle

autorégressif d'ordre 1 est insuffisante pour expliquer certains aspects des fluctuations au long

terme, succession de sécheresses, effet Joseph, phénomène de Hurst, qui apparaissent

quelquefois. La littérature technique abonde en propositions de modèles de débits annuels

permettant de représenter ces aspects. On en trouvera un inventaire assez complet dans

Lawrence et Kottegoda (1977). L'ensemble de ces modèles souffre toutefois d’un défaut

notable : leur calage nécessite souvent de trop nombreux paramètres. Or le choix d'un modèle

stochastique applicable aux phénomènes hydrologiques doit être guidé par un principe

d’économie quant à sa souplesse et au nombre de paramètres qui le déterminent. Le nombre

de ceux-ci doit être égal au minimum nécessaire pour rendre compte de l'information réelle

contenue dans les observations disponibles qui sont souvent limitées en quantité et en qualité.

14.3.2 Les modélisations à seuil de débit fixé

Il y a deux approches générales d'analyse statistique des séquences hydrologiques. La

première, illustrée dans le paragraphe précédent, s'intéresse à des variables définies par un

découpage chronologique. C'est 1'approche classique qui a tiré bénéfice de la panoplie

importante des outils probabilistes et statistiques développés à ce jour, et dont on n'a présenté

dans ce chapitre qu'un aperçu très limité des applications hydrologiques. La seconde approche

s'intéresse à des séquences de variables ou d'évènement définis par un découpage par seuils

du domaine de la variable hydrologique étudiée, en l'occurrence le débit moyen journalier

pour fixer les idées dans le présent paragraphe (mais toute autre variable définie sur un pas de

temps court pourrait être prise en compte ici).

Considérons alors une courbe chronologique de débits moyens journaliers Qt telle que

présentée dans la figure (14.20).

Fixer un seuil de débit q0 est le moyen de définir de nouvelles séquences de variables :

- des variables associées aux surplus successifs (périodes de temps continues où le débit est

supérieur au seuil q0)

les durées de ces surplus :

𝑇𝑠,1, … , 𝑇𝑠,𝑖, 𝑇𝑠,𝑖+1, …

les volumes de ces surplus :

𝑉𝑠,1, … , 𝑉𝑠,𝑖, 𝑉𝑠,𝑖+1, …

- des variables associées aux déficits successifs (périodes de temps continues où le débit est

inférieur au seuil q0)

les durées de s déficits :

𝑇𝑑,1, … , 𝑇𝑑,𝑖, 𝑇𝑑,𝑖+1, …

26

les volumes de ces déficits :

𝑉𝑑,1, … , 𝑉𝑑,𝑖, 𝑉𝑑,𝑖+1, …

D'un point de vue opérationnel, la considération de ces variables est directement reliée

à la notion de bilan ressources en eau-besoins. La durée et le volume des déficits peuvent en

effet s'interpréter comme les durées et les volumes de défaillances vis-à-vis d'une de demande

en eau quantifiée par le débit q0.

La détermination des caractéristiques probabilistes des surplus et des déficits (durée et

volume) associées aux processus chronologiques décrits dans le paragraphe précédent est

parfaitement possible. Des résultats analytiques exacts peuvent être obtenus pour des

processus de variables Xt (fonction des débits Qt) indépendantes ou même possédant des

structures markoviennes simples. On pourra consulter à cet égard le livre de Yevjevich (1972).

Pour des processus à structure plus complexe, des simulations de séquences de débits fictifs

permettent d'obtenir "expérimentalement" les caractéristiques recherchées. Toutefois à cette

approcbe indirecte nous préférons la méthode directe de modélisation des séries ''observées"

de surplus et déficits calculés directement sur les données disponibles. La raison en est

toujours la même : tous les modèles stochastiques, en particulier ceux décrivant les variables à

chronologie fixée, ne peuvent prétendre représenter avec réalisme que les distributions de

variables sur lesquelles ils ont été directement estimés et vérifiés et n’ont pas de valeur

universelle, singulièrement pour la description d'indicateurs particulièrement sensibles

comme les durées de déficit et de surplus.

Du point de vue de 1a modélisation des durées successives de surplus et de déficits, la

considération d'un seuil transforme la chronologie des débits en processus intermittents c'est-

à-dire des processus d'occurrence d’évènements ponctuels séparés par des périodes aléatoires

d'absence d'évènement. On notera au paragraphe 14.5 qu'en matière d'analyse des crues les

méthodes de dépassements de seuil sont également basées sur des processus intermittents

analogues. La littérature scientifique récente relevant du calcul des probabilités et de la

statistique abonde en présentations de modèles descriptifs de ces processus intermittents :

processus ponctuels poissonniens (Snyder, l973) ou non-poissonniens (Lewis, 1972),

processus de renouvellement (Cox et Lewis, 1969), etc… L'hydrologie n'a pas encore profité

complètement de la richesse des outils développés dans le cadre de ces études probabilistes.

Les illustrations présentées ci-après ne peuvent donner qu'un aperçu très partiel des

possibilités incomplètement explorées de ces modélisations.

- Les courbes intensité-durée-fréquence

L'analyse décrite ici a été particulièrement développée par J. Miquel et Phiem Boupha

(1978) sous le nom de "modèle TEMPETIAGE". Elle s'intéresse aux périodes de basses eaux.

Si la méthodologie générale peut s'appliquer à tout seuil de débit, les distributions des durées

ont été surtout validées pour des seuils caractéristiques des saisons d'étiage des rivières.

Pour tout seuil q0 fixé, on peut selon les problèmes opérationnels définir diverses

durées.

- soit la durée τ individualisée d'une période continue quelconque où le débit reste inférieur

ou égal à q0. On obtient ces durées et leur polygone de fréquence correspondant en

répertoriant toutes les périodes (d'une saison d'étiage définie a priori) où le débit n'a pas

27

dépassé q0.

- soit la durée maximale annuelle τm, maximum des durées précédentes pour chaque année.

- soit la durée totale annuelle τT, somme des durées pour chaque année.

Pour chacune de ces différentes variables, un modèle probabiliste adéquat est fourni

par la loi de Pearson type III (ou la loi de Gumbel pour τm en particulier). Ces lois seront

d’autant mieux ajustées que le seuil q0 sera bas. En effet pour des seuils élevés, τm et surtout τT

peuvent atteindre des valeurs proches de la durée constante fixée de la saison d'étiage prise en

compte de telle sorte que cette durée constante introduit une limite supérieure dont les lois

citées ne tiennnent pas compte. Cette analyse est donc plus particulièrement adaptée à la

description des débits d’étiage.

Considérons la Garonne à Lamagistère que nous a déjà servi d'exemple. La figure

14.21 présente la distribution des durées individualisées pour un seuil q0 égal à 70 m3/s avec

un système d'échelle logarithmique pour les probabilités (ou les durées de retour). La méthode

de positionnement des probabilités empiriques pour chaque valeur ordonnée est celle de la

formule 14.3 (Formule de Weibull).

La loi de Pearson type III ajustée est telle que m = o, c'est en fait une loi gamma

d'après la terminologie de la fiche C.

En utilisant la méthode des moments, on obtient :

𝑚′ = 5,05 𝑗𝑜𝑢𝑟𝑠 𝑒𝑡 √𝑚2 = 6,91 𝑗𝑜𝑢𝑟𝑠

ce qui donne les estimations

𝛼 = 0,106 𝜆 = 0,53

d'où la probabilité de non dépassement

𝑝(𝑡) = ∫𝑒−𝑡𝑡𝜆−1

𝛤(𝜆)

𝛼𝜏

0

𝑑𝑡 (14.63)

- Remarque importante

On aura noté que l'échelle des ordonnées du graphique (14.21) est graduée en durées

de retour annuelles.

On rappelle que (paragraphe 14.5.2)

Si les variables probabilisées sont annuelles (durées totales ou maximales), alors :

𝑇(𝜏) = 1 [1 − 𝑃(𝜏)] (14.64)⁄

ou P(τ) est la probabilité de non dépassement.

Si les variable probabilisées peuvent apparaître plusieurs fois par an (exemple des durées

individualisées), alors :

28

𝑇(𝜏) = 1 [�̅�(1 − 𝑃(𝜏))]⁄ (14.65)

où �̅� est le nombre moyen annuel des variables prises en compte. Cette expression est valable

lorsque P(τ) est assez grand (supérieur à 0,8 ou 0,9 par exemple).

Chaque ajustement de ce type est relatif à un seuil de débit q0, on obtient donc une

famille de courbes T = T(τ, q0) appelées courbes intensité-durée-fréquence dont la figure

(14.22) présente une illustration pour la Garonne à Lamagistère. En fait à chaque seuil de

débit porté en abscisse correspond une durée en ordonnée associée à une durée de retour fixe,

indexant chaque courbe. Une telle présentation est particulièrement démonstrative si on fait

figurer la courbe débit-durée d'une année particulière.

Pour terminer la description du modèle TEMPETIAGE, il faut noter que les

ajustements effectués fournissent une collection de paramètres d'ajustement tels les triplets

(m’1, m2, μ) ou (α, γ, N) pour chaque seuil. Pour synthétiser l'ensemble de ces résultats, il est

nécessaire de déterminer la loi de variation de ces paramètres en fonction du seuil. La loi la

plus couramment utilisée par les auteurs est la suivante :

𝛾(𝑝𝑎𝑟𝑎𝑚è𝑡𝑟𝑒) = 𝑎 𝑞0𝑏𝑒−𝑐𝑞0 (14.66)

- Portée, limites et généralisations

Les limitations de la méthode précédente sont celles de toute analyse statistique de

données hydrologiques limitées en qualité et en quantité. Les erreurs d'échantillonnge peuvent

être importantes mais 1a méthode peut en tenir compte comme le montre le calcul des

l’intervalles de confiance sur la figure (14.21). Les erreurs d'adéquation peuvent être

quelquefois plus gênantes. Notons en particulier que la méthode ne tient pas compte de l'effet

saisonnier sur les durées individualisées notamment, ce qui peut introduire une hétérogénéité

des observations de durée. Ceci peut aboutir à une inadéquation de la loi de Pearson : il

semble aussi que les transitions saisonnières entre hautes et basses eaux modifient les

probabilités; c'est une raison supplémentaire pour ne pas appliquer la méthode à des seuils

trop élevés.

La prise en compte d'un effet saisonnier passe visiblement en hydrologie par un

découpage arbitraire du temps; s'agissant d'étudier des durées, un tel découpage pose le

problème de l'affectation de chaque durée observée à une saison ce qui n'est pas sans

ambiguité pour les longues durées. Peut être vaut-il mieux prendre en compte une variation

saisonnière continue en fonction du temps ? Ce point de vue amène à modéliser les séquences

des époques de surplus et de déficits au moyen de processus stochastiques intermittents non

stationnaires. L'analyse des processus hydrologiques intermittents a été notamment proposée

par Yevjevich et appliquée à l'étude des précipitations (Yevjevich, 1972). Astier (1968) et

plus récemment North (1981) ont appliqué cette approche aux processus hydrologiques,

rendus artificiellement intermittents par le choix d’un seuil q0 définissant ainsi des processus

alternés, un état 1 (déficit) succédant à un état 2 (surplus) avec leurs durées respeetives

enchainées.

La séquence des durées est alors entièrement caractérisée par la série des époques de

rupture de type 1 (passage de 1 à 2) et de type 2 (passage de 2 à l) telles que la figure (14.23)

les présente soient :

29

𝜆1 = lim𝛥𝑡→0

[𝑃𝑟𝑜𝑏{𝑅𝑢𝑝𝑡𝑢𝑟𝑒 𝑑𝑒 𝑡𝑦𝑝𝑒 1 𝑒𝑛𝑡𝑟𝑒 𝑡 𝑒𝑡 𝑡 + 𝛥𝑡}/𝛥𝑡] (14.67)

𝜆2 = lim𝛥𝑡→0

[𝑃𝑟𝑜𝑏{𝑅𝑢𝑝𝑡𝑢𝑟𝑒 𝑑𝑒 𝑡𝑦𝑝𝑒 2 𝑒𝑛𝑡𝑟𝑒 𝑡 𝑒𝑡 𝑡 + 𝛥𝑡}/𝛥𝑡] (14.68)

L'effet saisonnier peut être pris en compte par des taux de rupture λ1 et λ2 fonctions, du

temps t seul (processus sans mémoire), ou fonction du temps et du passé du processus, par

exemple la durée x de l'état 1 ou 2 avant l'époque t (processus avec mémoire). Si alor x1 et x2

sont les durées respectives d'états 1 et 2 et u1 et u2 sont les époques de début de chaque état,

on a :

𝑃𝑟𝑜𝑏[𝑋1 < 𝑥 𝑈1 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆1(𝑡) 𝑑𝑡𝑢+𝑥

𝑢

]

𝑃𝑟𝑜𝑏[𝑋2 < 𝑥 𝑈2 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆2(𝑡) 𝑑𝑡𝑢+𝑥

𝑢

]

ou, puisque t-u = x

𝑃𝑟𝑜𝑏[𝑋1 < 𝑥 𝑈1 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆1(𝑡, 𝑡 − 𝑢) 𝑑𝑡𝑢+𝑥

𝑢

]

𝑃𝑟𝑜𝑏[𝑋2 < 𝑥 𝑈2 = 𝑢⁄ ] = 1 − 𝑒𝑥𝑝 [− ∫ 𝜆2(𝑡, 𝑡 − 𝑢) 𝑑𝑡𝑢+𝑥

𝑢

]

Ces formules permettent le calcul des lois de probabité des durées de chaque type,

connaissant les taux de rupture.

North (1980) a développé des méthodes d'estimations originales des fonctions λ1 et λ2

et des méthodes de simulation des durées successives x1et x2 à partir de fonctions de

répartition précédentes. La figure (14.29) présente l'estimation de λ1 et λ2 obtenue pour quatre

seuils de débits de la Loire à Blois.

Dans le cas du processus sans mémoire, il est possible, pour chaque état 1, d’effectuer

un changement d'horloge en transformant le temps t en un temps théorique θ tel que :

𝜃 − 𝜃0 = ∫ 𝜆𝑖(𝑢) 𝑑𝑢𝑡

𝑡0

(14.71)

auquel cas le processus des époques transformées est homogénéisé, c'est-à-dire rendu tel que

λi = constante (indépendante de t ou θ). North a démontré que cette homogénéisation était

possible pour des processus avec mémoire tels que :

𝜆(𝑡, 𝑥) = �̅�(𝑡)𝛹(𝑥′)

le taux de rupture se factorisant en un produit de fonction du temps t seul �̅�(𝑡) (estimée en

superposant sur une même année toutes les époques de ruptures), et une fonction antécédente

Ψ(x') de la durée de déficit (ou surplus) antécédente x’ homogénéisée c'est-à-dire obtenue

après changements d'horloge définis par les �̅� (t). Un tel modèle s'est avéré réaliste pour la

30

description et la simulation des étiages de la Loire à Blois. Les figures (14.24) et (14.25)

montrent les résultats de l'application de ce modèle pour les durées de surplus (seuil de 100

m3/s). La référence au modèle gamma alterné dans ces figures signifie que les durées

homogénéisées de surplus et déficits ont été ajustées à une loi gamma.

14.4 Les modèles stochastiques des processus hydrologiques multidimensionnels

Les modèles stochastiques unidimensionnels décrits au paragraphe précédent tendent à

préserver, si on les utilise en prévision ou en simultion, la structure temporelle des séquences

de débits observés en chaque station de jaugeage prise isolément. Mais si, à l'échelle spatiale,

on suit conjointement les chroniques hydrologiques de plusieurs stations, il importe également

de préserver, lorsqu'on modélise ces chroniques, les structures spatiales souvent étroites

(paragraphe 14.2.3). La combinaison des dimensions spatiales et temporelles pose des

problèmes difficiles qui, malgré quelques essais d'applitations de processus ARMA

généralisés, ou sur le plan pratique d'extension à plusieurs dimensions du modèle DEJOREG,

(Leviandier et al., 1980), n'ont été abordés systématiquement qu'à partir de modèles

markoviens généralisés. Nous nous limiterons ici à ce type de modèles.

Considérons les chroniques de débits moyens observés à deux stations de jaugeage au

cours de périodes de temps successives de l'ordre du mois ou des saisons de l'année (domaine

de validité des modèles marrkoviens). Comme dans 14.3.1 on appellera X1t et X2

t les débits

ou des transformations adéquates de ces débits pour les stations l et 2. Un modèle

bidimensionnel généralisant naturellement l’équation (14.52) peut être écrit :

𝑋𝑡+11 = 𝜇𝑡+1

1 + 𝛽𝑡+111 (𝑋𝑡

1 − 𝜇𝑡1) + 𝛽𝑡+1

12 (𝑋𝑡2 − 𝜇𝑡

2) + 𝜀𝑡+11

(14.72)

𝑋𝑡+12 = 𝜇𝑡+1

2 + 𝛽𝑡+121 (𝑋𝑡

1 − 𝜇𝑡1) + 𝛽𝑡+1

22 (𝑋𝑡2 − 𝜇𝑡

2) + 𝜀𝑡+12

formule où apparaissent non seulement les liaisons en chaîne temporelles (coefficients

𝛽𝑡+111 et 𝛽𝑡+1

22 ) mais aussi les liaisons spatiales (coefficients 𝛽𝑡+112 et 𝛽𝑡+1

21 ).

Si les variables « résidus » 𝜀𝑡+11 et 𝜀𝑡+1

2 sont conjointement indépendantes des résidus

antérieurs 𝜀𝑡1 et 𝜀𝑡

2 etc…, elles peuvent ête mutuellement dépendantes entre elles, intégrant

ainsi une part de la dépendance spatiale de 𝑋𝑡+11 et 𝑋𝑡+1

2 .

On appellera 𝜎𝑡11, 𝜎𝑡

22, 𝜎𝑡12 les variances et les covariances respectives des variables 𝑋𝑡

1

et 𝑋𝑡2. Par ailleurs 𝑉𝑡

11, 𝑉𝑡22 et 𝑉𝑡

12 seront les caractéristiques analogues pour 𝜀𝑡1 et 𝜀𝑡

2.

Il existe des relations de cohérence entre ces paramètres et ceux du modèle (14.72)

généralisant les formules (14.53) et (14.54), soit :

𝛽𝑡+111 𝜎𝑡

11 + 𝛽𝑡+112 𝜎𝑡

21 = 𝜎𝑡,𝑡+111

𝛽𝑡+111 𝜎𝑡

12 + 𝛽𝑡+112 𝜎𝑡

22 = 𝜎𝑡,𝑡+112

(14.73)

𝛽𝑡+121 𝜎𝑡

11 + 𝛽𝑡+122 𝜎𝑡

21 = 𝜎𝑡,𝑡+121

𝛽𝑡+121 𝜎𝑡

12 + 𝛽𝑡+122 𝜎𝑡

22 = 𝜎𝑡,𝑡+122

31

et d’autre part :

𝛽𝑡+111 𝜎𝑡,𝑡+1

11 + 𝛽𝑡+112 𝜎𝑡,𝑡+1

12 + 𝑉𝑡11 = 𝜎𝑡+1

11

𝛽𝑡+121 𝜎𝑡,𝑡+1

21 + 𝛽𝑡+122 𝜎𝑡,𝑡+1

22 + 𝑉𝑡22 = 𝜎𝑡+1

22 (13.74)

𝛽𝑡+111 𝜎𝑡,𝑡+1

12 + 𝛽𝑡+122 𝜎𝑡,𝑡+1

22 + 𝑉𝑡12 = 𝜎𝑡+1

12

Nous verrons ultérieurement le mode de calcul de ces relations. En fait pour chacune

des équations (14.73) la méthode d'estimation des β et des V n'est pas autre chose que la

méthode de calcul de la régression de la variable expliquée (à t+1) en fonction des deux

variables explicatives (à t) (fiche D).

Il est donc possible de déterminer par ces relations les paramètres de β et V d'un tel

modèle markovien à 2 sites de façon à préserver l'ensemble des caractéristiques temporelles et

spatiales du second ordre représentées par les variances et covariance σ.

- Mise en œuvre du modèle multidimensionnel

Considérons le cas le plus courant où ce type de modèle peut être appliqué, celui des

débits mensuels. A cette échelle le processus est périodique, de période égale à 12 mois. Ainsi

les espérances 𝜇𝑡 et variance 𝜎𝑡11sont spécifiques à chaque mois calendaire et les covariances

𝜎𝑡𝑖𝑖 ou 𝜎𝑡,𝑡+1

11 représentent les liaisons entre stations pour le même mois ou les liaisons entre

mois adjacents.

Les formules (14.73) et (14.74) sont utilisables pour caler le modèle en estimant les

paramètres μt par les moyennes empiriques de chaque mois et les paramètres β et V à partir

des variances et covariances empiriques mensuelles calculées sur les échantillons observés.

Cette méthode d'estimation est optimale (maximum de vraisemblance) si les résidus ε sont

distribués selon des lois normales bi et multidimensionnelles car les distributions normales

multidimensionnelles sont les seules à pouvoir être traitées relativement facilement sur le plan

pratique notamment en simulation. On s'y ramenera donc soit directement sur les débits, soit

sur des transformations de ces débits (exemple des débits logarithmiques ou des

anamorphoses normales des distributions d'Halphen – cf paragraphe 14.3.1b).

Une remarque importante doit maintenant êtrefaite. On sait que le modèle markovien

unidimensionnel a été employé etvérifié dans de nombreux cas. Il reste à savoir si la

généralisation markovienne bidimensionnelle est compatible avec le modèle unidimensionnel

c'est-à-dire si chaque variable prise séparément (chaque marge) obéit au modèle (14.52). Ce

n'est généralement pas le cas. Chaque 𝑋𝑡+1𝑖 des formules (14.57) obéira à un modèle

markovien si :

𝛽𝑡+112 = 𝛽𝑡+1

21 = 0

Dans ce cas la liaison entre les débits des deux stations est prise en compte

uniquement par la correlation éventuelle des deux résidus 𝜀𝑡+11 et 𝜀𝑡+1

2 .

Ce type de modèle à marges markoviennes a été proposé par Fiering (1961). Est-il

réaliste ? On devrait répondre par l'affirmative si on accorde une confiance absolue aux tests

statistiques de vérification du modèle unidimensionnel. On notera toutefois que les tests ne

32

permettent d'accepter un modèle que dans la mesure où rien dans l'information (ici

unidimensionnelle) ne permet de l'infirmer. Cela n'exclut pas un résultat un négatif si une

information complémentaire multidimensionnelle le montre. En fait certaines applications

montrent que les coefficients 𝛽𝑡+1𝑖𝑖 ne sauraient être nuls dans les cas étudiés.

14.4.2 Les modèles multisites (Matalas, 1967; Bernier 1971)

Sous la forme multidimensionnelle, le modèle markovien s'écrit :

𝑋𝑡+11 = 𝜇𝑡+1

1 + ∑ 𝛽𝑡+1𝑖𝑗

(𝑋𝑡𝑗

− 𝜇𝑡𝑗) + 𝜀𝑡+1

1

𝑘

𝑗=1

𝑋𝑡+1𝑖 = 𝜇𝑡+1

𝑖 + ∑ 𝛽𝑡+1𝑖𝑗

(𝑋𝑡𝑗

− 𝜇𝑡𝑗) + 𝜀𝑡+1

𝑖𝑘𝑗=1 (14.75)

𝑋𝑡+1𝑘 = 𝜇𝑡+1

𝑘 + ∑ 𝛽𝑡+1𝑘𝑗

(𝑋𝑡𝑗

− 𝜇𝑡𝑗) + 𝜀𝑡+1

𝑘

𝑘

𝑗=1

C'est bien un modèle markovien portant sur le vecteur des k variables des débits ou

des transformations des débits {𝑋𝑡1, … , 𝑋𝑡

𝑖 , … , 𝑋𝑡𝑘} relatives à k stations étudiées dans leur

ensemble. Ce modèle sera à marges markoviennes pour autant que :

𝛽𝑡+1𝑖𝑗

= 0

pour tout couple i, j tels que i ≠ j.

Pour simplifier l'écriture nous utiliserons dorénavant les notations matricielles en

utilisant les variables réduites :

𝑌𝑡𝑖 = (𝑋𝑡

𝑖 − 𝜇𝑡𝑖) √𝜎𝑡

𝑖𝑖⁄

Les formules suivantes seront écrites en prenant une période arbitraire pour origine,

c’est-à-dire en posant t=1.

L’ensemble des équations (14.75) est donc représenté par l'équation matricielle :

𝑌2 = 𝐵21𝑌1 + 𝜀2 (14.77)

où Y1 et Y2 sont les vecteurs de coordonnées {𝑌𝑡𝑖}et {𝑌𝑡+1

𝑖 } respectivement, ε2 un vecteur de

résidu, indépendant de Y1 et des ε précédents, B21 une matrice de coefficients (différents des β

de la formule (14.75). On notera : Σ11 = 𝐸[𝑌1𝑌1𝑇] et Σ21 = 𝐸[𝑌2𝑌2

𝑇] les matrices de variances

et covariances, espérances des produits des vecteurs centrés réduits Y par leur transposés YT

et Σ(ε) les matrices de covariance des ε. Les formules de cohérence généralisant les relations

(14.73) et (14.74) sont les suivatntes :

𝐵21 = Σ21Σ11−1 (14.78)

33

Σ(𝜀2) = Σ22 − 𝐵21Σ12 = Σ22Σ11−1Σ11 (14.79)

Ces formules permettent l'estimation des paramètres B21 et Σ(ε2) en utilisant les

matrices de covariances empiriques S12, S11, S22 déduites des observations. On notera que si

les vecteurs Y dans leur ensemble sont markoviens, il existe des relations de récurrence sur

les structures de corrélation généralisant l'équation (14.56) sur les coefficients de corrélation à

trois pas de temps successifs soit :

Σ31 = Σ32Σ22−1Σ21 (14.80)

- Valeur intrinsèque du modèle à marge non-markovienne

Si l'hypothèse 𝛽𝑡𝑖𝑗

= 0 caractéristique des marges markoviennes doit être abandonnée,

une difficulté apparaît : si un modèle (14.75) est utilisé avec k stations, chaque variable Xit

doit suivre un modèle marginal dont la structure d'autocorrelation dépend de cette valeur k qui

n'est pas intrinsèque au modèle mais est fonction du nombre parfaitement arbitraire des

stations analysées par ce modèle. En fait cette difficulté n'est qu’apparente car les liaisons

spatiales entre les stations sont assez étroites et on ne change rien à multiplier le nombre de

stations. Il importe donc de faire apparaître les liaisons spatiales dans le modèle. Celui-ci peut

être exprimé par deux niveaux :

- un premier niveau exprimant les variables Xit ou Yi

t en fonction d'un nombre fixé, constant,

inférieur à k de composantes Zt intrinsèques à l'ensemble de base étudié :

𝑌𝑡 = 𝐴𝑡𝑍𝑡 + 𝜂𝑡 (14.81)

- un second niveau exprimant les liaisons temporelles en chaîne de Markov des composantes

régionales Zt par un modèle analogue à (14.77).

𝑍𝑡+1 = 𝐵𝑡+1,𝑡𝑍𝑡 + 𝜀𝑡 (14.82)

Une méthode propre à la recherehe des variables régionales Zt (pour chaque période t)

et à l'estimation des matrices At, est la méthode des composantes principales (voir fiche G)

tirées de 1'analyse pour chaque t, des matrices de covariance Σ11. Pour la modélisation selon

(14.81) on se borne à retenir les p premières composantes de variances λi) les plus fortes telles

que le rapport

𝑅 = ∑ 𝜆𝑖

𝑝

𝑖=1

∑ 𝜆𝑖

𝑘

𝑖=1

soit suffisamment prochede 1.

- les Zt étant ainsi déterminés avec toutes leurs caractéristiques statistiques, il est loisible de

leur appliquer le modèle multidimensionnel (14.75) ou (14.77).

- Les modèles de désagrégation

Nous avons reporté dans ce paragraphe un exposé des modèles de désagrégation de

Valencia et Schaake (1973) car leurs principes sont plus aisés à exposer dans le cadre

34

multidimensionnel même s'ils peuvent s'appliquer à la simulation des débits en un seul site.

Nous utiliserons ici la forme plus générale due à Mejia et Rousselle (1976). Rappelons que

l'objectif de ces modèles est de désagréger des séquences de débits annuels en séquences de

valeurs mensuelles successives en respectant à la fois les structures algébriques (valeurs

annuelles égales à une moyenne pondérée de valeurs mensuelles relatives à la même année) et

les structures statistiques représentées par les covariances.

Le modèle général s'écrit sous la forme :

𝑌𝑡 = 𝐴𝑋𝑡 + 𝐵𝑍𝑡 + 𝜀𝑡 (14.83)

avec

• Xt vecteur des débits annuels de k stations pour 1'année ;

Yt vecteur des 12 k débits mensuels correspondant aux k stations pour l'année t ;

Zt vecteur des k débits mensuels de l'année t - 1, intervenant dans la liaison en chaîne des

débits mensuels des k stations pour le premier mois de l'année t (exemple des débits de

décembre de t – 1 dans le cas de l'année calendaire, t commençant en janvier) ;

• εt vecteur de variables résiduelles de la matrice de variances et covariances

Les relations structurelles entre les X et les Y sont exprimées par :

𝑋𝑡 = 𝐷𝑌𝑡 (14.84)

représentent, par exemple pour chaque station i, une relation du type :

𝑋𝑡𝑖 = ∑

𝑦𝑡𝑖,𝑗

12

12

𝑘=1

si on néglige les diffdrences entre les durées des mois. Dans ces relations les dimensions des

matrices A, B, C, D sont adaptées aux dimensions des vecteurs pour que les produits

matriciels aient un sens.

Etant donné les matrices de variances et covariances des X, Y, Z, on peut obtenir des

relations de cohérence entre les paramètres, sait :

Σ𝑌𝑋 = 𝐴𝑋𝑋 + 𝐵 Σ𝑍𝑋 (14.85)

Σ𝑌𝑍 = 𝐴Σ𝑌𝑍 + 𝐵Σ𝑍𝑍 (14.86)

Σ𝑌𝑌 = 𝐴Σ𝑋𝑋𝐴𝑇 + 𝐴Σ𝑋𝑍𝐵𝑇 + 𝐵Σ𝑍𝑋𝐴𝑇 + 𝐵Σ𝑍𝑍𝐵𝑇 + Σ(𝜀) (14.87)

On peut exprimer les εt en fonction de variables indépendantes u d'espérance nulle et

de variances égales à 1, soit :

𝜀 = 𝐶 𝑢

de telle sorte que :

Σ(𝜀) = 𝐶 𝐶𝑇

35

En utilisant les relations (14.85) à (14.88) il est possible de déterminer (Valencia et

Schaake, 1973) les matrices A, B, C telles que la relation de cohérence structurelle (14.84)

soit respectée. Bien entendu la même procédure s’applique si K=l (modèle unisite). On

trouvera dans ce cas une application récente de cette procédure dans Delleur et Karamouz

(1982). La principale difficulté pour l'applicabilité de ce modèle et la fiabilité des

prédéterminations et simulations qui en résultent est la multiplicité des paramètres en regard

de 1'information limitée. Une procédure propre à réduire notablement le nombre de ces

paramètres pourrait être l'application préalable d’analyses en composantes principales

séparément sur les vecteurs Xt, Yt et Zt et la lise en œuvre de modèles markoviens sur les

composantes. Il reste que des relations structurelles du type de (14.84) ne sont plus induites

sur ces composantes. De plus, ces relations structurelles linéaires ne sont plus valables si on

utilise des transformations de débits mensuels du type logarithmique par exemple pour ajuster

des lois normales aux résidus. D'ailleurs le modèle (14.83) les respecte automatiquement

parce qu'elles sont en fait intégrées dans les covariances ΣXY. En pratique, il nous semble

préférable d'utiliser les modèles linéaires (14.83) sur des transformations de débits qui

permettent 1'ajustement de lois statistiques réalistes sur les εt sans vouloir respecter de façon

précise des relations structurelles (14.81) qui apparaissent secondaires dans une simulation

statistique.

14.5 La description statistique des crues

L'analyse statistique des débits de crue est fort ancienne en hydrologie puisque les

premières études fréquentielles remontent à Hazen (1930). L'estimation de crues de

probabilité fixée est le prototype des problèmes de prédétermination directement reliés aux

décisions de dimensionnement d'ouvrages hydrauliques de protection contre les crues qui sont

généralement basées sur la notion de crue de projet. Quelles que soient les caractéristiques de

cette crue, on ne peut exclure l'éventualité future d'un dépassement des caractéristiques de

projet par celles d'une crue réelle et les conséquences dommageables qui peuvent en découler.

Il en résulte qu'un problème essentiel est le contrôle de ces risques qu'on ne peut écrire qu'en

termes de probabilité. Nous ne considérons ici que le cas où la crue de projet n'est décrite que

par le seul débit maximal, laissant de côté la prise en compte d'autres caractéristiques comme

le volume, la durée, etc… (J. Bernier, 1979).

Donc, à chaque année est associée une réalisation du débit maximal annuel QM dont la

fonction de répartition s'écrit :

𝐺(𝑞) = 𝑃𝑟𝑜𝑏[𝑄𝑀 < 𝑞] = 𝑝 (14.89)

Une analyse complète du choix de la probabilité de dépassement 1- p associée au débit

Q (l–p) de la crue de projet devrait être basée sur une évaluation des dommages résiduels.

Cependant la quantification de ces dommages, notamment sur le plan économique,

quelquefois entreprise (Bernier et Miquel, 1977) est très difficile et souvent imprécise. La

procédure pratique généralement préférée est de choisir (1 – p) forfaitairement en la fixant à

des niveaux acceptables (1/10, 1/100, 1/1000 ou moins) selon le degré de risques encourus.

Notons qu'au niveau 1/1000 ou moins, la probabilité (1 – p) est difficilement interprétable en

termes de fréquence annuelle. On peut cependant la considérer d'une autre façon comme

fixant les conditions d'un pari que le projeteur doit accepter pour prendre se décision. Cette

conception opérationnelle des probabilités hydrologiques des crues est à la base de

développements nouveaux dans les problèmes de dimensionnement (Applications de la

36

théorie de la décision ; Davis et al., 1972; Bernier et Miquel, 1977).

En hydrologie, l'interprétation concrète de (1 – p) est souvent basée sur la notion de

durée de retour T = 1 / (1 - p). C'est la valeur moyenne du nombre d'années séparant deux

occurrences successives d'un débit maximal annuel supérieur à Q (l–p). A T = 10, 100 ou 1000

ans sont associés ainsi les débits de crues dits décennal, centennal ou millennal. Il importe de

souligner que cette notion n'implique pas une régularité d'occurrence des débits

correspondants. Le nombre d'années N séparant deux occurences successives de l'événement

QM > q est une variable aléatoire exponentielle dont la loi s'écrit pour (1 – p) petit :

𝑃𝑟𝑜𝑏[𝑁 < 𝑛] = 1 − 𝑒−𝑛 (1−𝑝)⁄ (14.90)

Certes l'espérance mathématique de N est égale à T, mais N peut être très dispersé

autour de cette valeur moyenne. Ainsi pour T = 100, il y a pratiquement 10 chances sur 100

pour que N soit inférieur ou égal à 10 ans, 40 chances sur 100 pour que N < 50 ans et 63

chances sur 100 pour que N < 100 ans.

14.5.1 Les méthodes des débits maximaux annuels

Le principe de ces méthodes est l'estimation directe de la distributiong G(q) des débits

maximaux annuels d'un cours d'eau observés à une station de jaugeage à partir d'un

échantillon de réalisations de cette variable, c'est-à-dire de séries plus ou moins longues de

débits maximaux annuels observés. On ajuste alors aux courbes de fréquences empiriques

déduites de ces observations une loi statistique choisie parmi un ensemble assez large. Nous

allons inventorier les principales distributions utilisées.

Comme le montre le polygone de fréquences (figure 14.26) des débits maiximaux

annuels de la Garonne au Mas d'Agenais les lois de probabilités utilisables pour les crues

doivent avoir une densité de probabilité de dissymétrie positive. La densité de la loi normale,

symétrique, n'a pas cette propriété. Par contre il est possible d'ajuster la loi log-normale qui

s’applique couramment aux crues avec les méthodes d'ajustement décrites dans la fiche C. La

figure 14.27 illustre cet ajustement sur mes mêmes données de la Garonne.

Les lois des extrêmes [Gumbel–Fréchet]

On trouvera en fiche C la présentation de la distribution de Gumbel. On remarquera

que la fonction de répartition (C.29) peut s'écrire en utilisant les notations G et q à la place de

Fet y.

𝐺(𝑞) = 𝑒𝑥𝑝[−𝑒𝑦] avec y = α (q - β) (14.91)

Ainsi en posant la transformation linéaire (14.91) on peut écrire la fonction G sous

une forme indépendantes des paramètres α et β. C'est dire que la loi de Gumbel jouit d'une

représentation graphique analogue à celle de la loi normale. Si l'échelle linéaire des ordonnées

proportionnelle à la variable y est graduée en probabilité selon la loi (14.91) et si le débit q est

porté en abscisse, cette loi de Gumbel est représentée par une droite. La figure (14.28) montre

l'ajustement de cette loi de Gumbel aux débits maximaux annuels de la Garonne à Mas

d'Agenais, ajustement obtenu en estimant les paramètres α et β par la méthode des moments

(paragraphe C.8.1).

37

Il est quelquefois intéressant d'employer une autre distribution, dite loi de Fréchet

dont la fonction de répartition s'écrit sous la forme (14.91) mais avec la transformation :

𝑦 = 𝛼(log 𝑞 − 𝛽) (14.92)

Autrement dit, c'est le logarithme du débit qui est distribué selon la loi de Gumbel.

Les lois de Gumbel et Fréchet ont souvent joui en hydrologie d'une grande faveur en

raiso d'une "apparente justification théorique". En effet si théoriquement on considère la plus

grande valeur XN d'un échantillon de N observations indépendantes obéissant à la même

fonction de répartition F, alors :

𝑃𝑟𝑜𝑏[𝑋𝑁 < 𝑥] = [𝐹(𝑥)]𝑁 (14.93)

Sous certaines hypothèses les lois de Gumbel et Fréchet se présentent comme les

forme limites de la loi de Xn pour N très grand.

Il pouvait être tentant d'appliquer cette théorie au débit maximal annuel, maximum des

365 débits journaliers d'une année. Cependant on a observé depuis longtemps que les débits

journaliers ne sont pas indépendants entre eux, que 365, taille de l'échantillon annuel n'est pas

un très grand nombre et que la loi de probabilité des débits journaliers varie avec la saison.

Ces justifications théoriques sont donc fallacieuses. Seules des considérations

empiriques appuyées par des tests statistiques de plus ou moins bon ajustement au

observations peuvent guider le choix de la distribution des crues. On notera en comparant les

figures 14.27 et 14.28 que l'ajustement par Gumbel n'est pas meilleur que celui de la loi log-

normale.

Loi de Pearson type 3 et log-Pearson type 3

Certains spécialistes, notamment aux Etats-Unis et au Canada (Benson, 1968; Bobée,

1976) ont reproché à la loi de Gumbel de ne pas prendre en compte la variation du coefficient

d’asymétrie Cs (paragraphe C.2) avec les stations. En effet, la valeur théorique de ce

coefficient est constante (Cs = 1,139) pour la loi de Gumbel. Dans une analyse des données de

19 stations canadiennes, Bobée (1976) a obtenu des valeurs de Cs allant de 0 à plus de 3. Il

semblait donc opportun d'utiliser des distributions à 3 paramètres d'ajustement comme les lois

de Pearson type 3 et log-Pearson type 3 décrites aux paragraphes C.6 et C.7 avec leurs

méthodes d'estimations (moments ou maximum de vraisemblance). La figure (14.29) montre

l’ajustement obtenu par Bobée de la loi de Pearson type 3 aux débits maximaux annuels de la

station de Vijayawa sur la rivière Krishna en Inde. On notera que le graphique présenté utilise

la transformation d'échelle des probabilités en abscisse par la loi normale (formules 14.7 et

14.8). Bien entendu, dans un tel graphique la loi de Pearson type ajustée n'est plus représentée

par une droite. La figure (14.30) montre, avec le même système d’échelles, un exemple

d'ajustement de la loi log-Pearson type 3 sur les données de la station indienne précédente

avec le tracé des intervalles de confiance dont l'un (Courbes en tiretés) résulte de la méthode

décrite dans la fiche C; l'autre intervalle de confiance a été calculé par une méthode

particulière décrite par Bobée et Korin (1973).

14.5.2 Les méthodes des dépassements de seuils

38

Les méthodes des débits maximaux annuels peuvent soulever un certain nombre de

difficultés. En premier lieu elles traitent une information généralement limitée, ce qui peut

augmenter les effets des erreurs d'échantillonnage (singulièrement avec 3 paramètres

d'ajustement). Mais le problème essentiel est celui des erreurs d'adéquation. La difficulté

première de l'extrapolation des lois de probabilité des crues pour les petites valeurs de (1 –p)

(formule 14.89) a été décrite par M. Pardé, en termes suggestifs : "Est-on sûr que les

possibilités de tous les cours d’eau, en ce qui concerne les grandes inondations, sont intégrées,

inscrites, comme sont semés des germes, dans les parties basses des courbes de fréquence

expérimentales ? ".

Ces incertitudes doivent inciter l'hydrologue à augmenter son information pour tenter

d'intégrer le maximum de types de crue possibles, associés aux divers mécanismes de genèse

de ces crues. La méthode des débits maximaux annuels peut entraîner de notables erreurs

d'adéquation dans la mesure où on y traite de façon conjointe de débits de crue engendrés par

des mécanismes hétérogènes. Le souci de réduire les diverses sources d'erreurs amène donc à

utiliser éventuellement une information hydrométrique plus complète, à incorporer les

données pluviométriques (Voir le paragraphe consacré aux méthodes hydrométéorologiques)

et à tenir compte de 1'information spatiale et des facteurs de variabilités systématiques

résultant de la géomorphologie des bassins.

Dans le cadre du premier principe posé ci-dessus, Shane (1966) puis Todorovic (1978),

ont proposé une méthode qui, parallèlement, a été extensivement étudiée et utilisée en France

et dont on retrouvera un exposé complet orienté vers les applications pratiques dans le "Guide

d'estimation des probabilités des débits de crue par J. Miquel (1984) :

En se fixant un seuil de débit q0, on peut sélectionner toutes les crues dont le débit

maximal Qi dépasse ce seuil ayant choisi une période de référence t (année ou saison

homogène à l'intérieur de l'année, on étudie séparement (figure 14.31). La distribution du

nombre k de crues supérieures au seuil par saison et la distribution conditionnelle de toutes les

crues Qi sélectionnées sachant donc que ces Qi sont supérieures au seuil q0.

Etant admises les deux hypothèses suivantes : l'indépendance mutuelle de tous les Qi

et l'appartenance à une même loi statistique de tous ces Qi, on peut montrer que la fonction de

répartition du maximum Qt annuel ou saisonnier (sur la période t) des Qi sélectionnés, s’écrit :

𝐺𝑡(𝑞) = 𝑃𝑟𝑜𝑏[𝑄𝑡 < 𝑞] = ∑ 𝑃(𝑘)[𝐹(𝑞)]𝑘

𝑘=0

(14.94)

soit

𝐺𝑡(𝑞) = 𝐼(𝐹) (14.95)

où :

- P (k) est la probabliité de dépasser k fois le seuil surt t ( K=k );

- F (q) est la probabilité de non-dépassement de q sachant qu'on a dépassé le seuil q0 :

- I est la fonction dite génératrice de la distribution des P (k) c'est-à-dire, par définition :

39

𝐼(𝑢) = ∑ 𝑃(𝑘)

𝑘=0

𝑢𝑘

Une expression approchée valable pour les grandes valeurs de q pour lesquelles F(q)

est voisin de 1 est la suivante ;

𝐺𝑡(𝑞) = 1 − 𝐸(𝑘) [1 − 𝐹(𝑞)]

de telle sorte que pour le maximum annuel, si t est l'année, la période de retour T (q) associée

à q sera :

𝑇(𝑞) =1

𝐸(𝐾)[1 − 𝐹(𝑞)] (14.96)

- Remarque : La vérification de 1'indépendance des Qi impose des précautions pour la

sélection. Ainsi, ne doit-on pas prendre en compte les maximas secondaires de certaines crues

comme la deuxième de notre figure (l4.31). Une méthode objective de sélection doit être

utilisée, par exemple en imposant une limite inférieure de 1'intervalle de temps séparant deux

maximas prls en compte. Il importe également de pratiquer l'essai de plusieurs seuils.

- Les distributions statistiques utilisées

- Distribution des P (k) : Bien que la formule approchée (14.96) ne nécessite que l'estimation

de E (k ), il est généralement utile d'ajuster une loi théorique aux fréquences observées ; les

lois les plus courantes sont :

- la loi de Poisson : 𝑃(𝑘) = 𝑒−𝜇 𝜇−𝑘

𝑘! (14.97)

- la loi binomiale négative : 𝑃(𝑘) = (𝑘 + 𝛾

𝑘) 𝛼𝛾(1 − 𝛼)𝑘 (14.98)

dépendant de deux paramètres γ et α.

- Distribution F (q) des Qi

Diverses lois statistiques peuvent être utilisées. En France (Miquel, 1984) la loi la plus

généralement usitée est la distributrice de Weibull :

𝐹(𝑞) = 1 − 𝑒−𝜌(𝑞−𝑞0)𝑝 (14.99)

dépendant de deux paramètres ρ et p et dont un cas particulier pour p = 1 fournit la loi

exponentielle assez souvent obtenue dans les ajustements.

En revenant à la formule (14.94) on peut montrer que, si P (k) est distribuée selon la

loi de Poisson et F (q) selon la loi exponentielle, on obtient pour la distribution du maximum

annuel :

𝐺(𝑞) = 𝑒𝑥𝑝[−𝑒−𝜌(𝑞−𝑞0)] (14.100)

40

c'est-à-dire une loi de Gumbel tronquée à la valeur q = q0.

- Estimation des paramètres

En ce qui concerne les distributions de Poisson et binomiale négative la méthode des

moments fournit les estimations :

�̅� =1

𝑁∑ 𝑘𝑗 = �̅� (14.101)

𝑁

𝑗=1

�̅� =�̅�

𝑠2 , �̅� =

�̅��̅�

1 − �̅� (14.102)

où les kj sont les nombres (annuels ou saisonniers) de crues sélectionnées ( > q0) observées

sur N années; �̅� est leur moyenne et s2 leur variance empirique.

En ce qui concerne la distribution de Weibull, la nécessité d'estimer le paramètre p très

sensible, impose généralement l'utilisation de la méthode du maximum de vraisemblance.

Dans ce cas :

�̅� =𝐾𝑇

∑ (𝑄𝑖 − 𝑞0)𝑝𝐾𝑇𝑖=1

(14.103)

où 𝐾𝑇 = ∑ 𝑘𝑗𝑁𝑗=1 le nombre total de Qi sélectionnés et p est solution de l’équation suivante :

𝐾𝑇

𝑝+ ∑ 𝑙𝑜𝑔(𝑄𝑖 − 𝑞0)

𝐾𝑇

𝑖=1

− 𝐾𝑇

∑ (𝑄𝑖 − 𝑞0)𝑝𝐾𝑇𝑖=1

∑(𝑄𝑖 − 𝑞0)𝑝

𝐾𝑇

𝑖=1

𝑙𝑜𝑔(𝑄𝑖 − 𝑞0) = 0 (14.104)

dont la solution est obtenue par approximations successives.

Le report de ces estimations (14.101) (14.103) et (14.104) dans la formule approchée

(14.100) fournit une estimation de la période de retour ou, en inversant la formule, une

estimation du débit de crue de période de retour T fixée :

𝑞𝑇 = 𝑞0 + [𝐿𝑜𝑔 𝜇𝑇

𝑝]

1 𝑝⁄

(14.105)

On trouvera dans Miquel (1983) le mode de calcul, assez complexe, des intervalles de

confiance sur QT. Les figures (14.32) et (14.33) illustrent des applications de cette méthode.

- Possibilités d’extension de la méthode des dépassements de seuils

Une propriété particulièrement importante de la méthode est la relative facilité avec

laquelle on peut prendre en compte l’information "historique" c'est-à-dire les renseignements

sur des crues anciennes particulièrement fortes au cours des 100 ou même 200 dernières

années. Cette information peut être notamment plus utile que la série des observations

régulières pour donner un support d’extrapolation valable des lois de probabilité dans la zone

41

des fortes durées de retour et aussi elle permet de diminuer les erreurs d’adéquation. Bien

entendu, les données sur ces crues historiques, hauteurs ou a fortiori débits peuvent être très

incertaines. Il faut une analyse critique serieuse mais en fait l’expérience a montré que les

incertitudes ne sont souvent pas si graves au niveau des estitations finales. La méthode

permettant la prise en compte de ces informations historiques a été décrite dans Bernier et

Miquel (1977). La figure (14.34) illustre une application aux crues de la Moselle à

Hauconcourt où 6 crues historiques sur 100 ans conjointement aux observations régulières sur

20 ans ont notablement réduit (de moitié) les intervalles de confiance.

Une autre extension utile est le modèle non stationnaire de M. North (1980). Ce

modèle utilise l'hypothèse de base de l'indépendance des crues supérieures au seuil mais par

contre abandonne l'hypothèse d'une même distributriee des Qi au cours de la saison de l'année

au profit d'une distribution variable représentée par la loi exponentielle où le paramètre varie

avec le temps. Parallèlement le processus des époques de dépassement de seuil est modélisé

par un processus de Poisson non stationnaire. Ce modèle est particulièrement intéressent pour

analyser la variation saisonnière des risques de crues.

14.5.3 Les méthodes hydrométéorologiques

Les méthodes hydrométéorologiques tendent à établir un transfert entre les lois de

probabilité des débits de crue et celles des précipitations génératrices. La mobilisation

de1'information pluviométrique a fait l'objet de quelques études notamment en France

(Jacquet et Bernier, 1967). Toutefois, dans ce domaine, la méthode la plus connue et la plus

utilisée est celle du Gradex due à P. Guillot et D. Duband (Guillot et Duband, 1962; Guillot,

1980; Ministère de l'agriculture, 1972). Considérons un bassin versant de l'ordre du millier de

km2 et des chroniques de débits moyens journaliers Q à l'exutoire et de pluies moyennes

journalières P concomitantes sur le bassin. Un raisonnement simple permet d'obtenir la

fonction de répartition de Q pour un couple P, Q donné sous la forme :

𝐺(𝑞) = ∫ 𝑑𝑄

𝑞

0

∫ 𝑔𝑝(𝑞)

0

𝑑𝐹(𝑝) (14.106)

où F(p) est la function de répartition des pluies et gp (q) est la densité de probabilité

conditionnelle de débit q pour P=p fixé. Le calcul de G(p) par cette formule ne peut être fait

que par des méthodes numériques. Toutefois une conséquence importante peut en être déduite

si deux hypothèses sont remplies :

a) la décroissance de la fonction de répartition de P est à variation exponentielle pour les

fortes valeurs de p :

𝐹(𝑝) = 1 − 𝑒−𝑝−𝑝0

𝑎 (14.107)

au delà d’un certain seuil p0.

Beaucoup de distributions statistiques ont un comportement asymptotique exponentiel.

C'est le cas de la loi de Gumbel de telle sorte que la loi (14.107) peut être représentée

linéairement sur le papier à probabilité de Gumbel. La figure (14.35) illustre donc une

vérification de cette hypothèse par le comportement "gumbelien" et exponentiel des pluies

maximales mensuelles de 2 jours (on notera que la fonction de répartition d'un maximum

42

semestriel, égal à F6 si les maximas mensuels sont indépendants, est obtenue par translation

parallèle à l'axe des probalilités, égale à log 6 pour la variable réduite y). Cette hypothèse

exponentielle a été assez largement vérifiée dans de nombreuses applications.

b) La seconde hypothèse, fondamentale, stipule que, au-delà d'un certain seuil de

précipitation généralement supérieur à p0 la rétention du sol atteint une limite et que

tout supplément de pluie provoque un supplément égal d’écoulement. S'appliquant à

un bilan d’écoulement, cette hypothèse concerne le rendement de 1'averse sur une

période de temps au moins égale au temps de concentration du bassin. Elle est ainsi à

l'origine de la limitation à 1000 km2 du bassin versant pour que l'échelle journalière

soit représentative. On peut cependant appliquer la méthode à des bassins plus étendus

à conditions qu'ils soient homogènes et de prendre des périodes unitaires de temps

plus longues que le jour. Dans tous les cas cependant, il sera nécessaire de revenir au

débit maximal de points instantané des crues par l'application d'un coefficient

déterminé R au débit moyen calculé sur la période de temps choisie. Toutefois, il est

prudent de s'en tenir à des bassins versants inférieurs à 10 000 km2.

Il résulte des hypothèses précédentes qu'il n'est pas nécessaire de faire le calcul

complet de G(q) par la formule (14.106) mais que pour les grandes crues telles que p>p0, la

courbe représentative de G(q) se déduit de la courbe représentative de F(p) par simple

translation suivant l'axe des variables et donc qu'au-delà d'un seuil de débit q0.

𝐺(𝑞) = 1 − 𝑒−𝑞−𝑞0

𝑎 (14.108)

Il y a égalité entre le gradex des pluies et le gradex des débits moyens. Le seuil q0

pratiquement adopté est souvent voisin du débit décennal. Ceci suppose bien entendu que

pluie et débit soient exprimés avec la même unité de mesure, par exemple en mm de hauteur

d'eau. Le résultat s'applique donc aux pluies maximales et débits maximaux mensuels,

annuels, etc. Sur le plan pratique, on utilise souvent les maximas mensuels de précipitation

pour estimer le gradex des pluies comme le montre la figure (14.35). La figure (14.36) illustre

l'application de la méthode pour l’extrapolation de la distribution des débits maximaux

annuels à Myon sur Lison (bassin versant de l'ordre de l’ordre de 240 km2) à partir du seuil q0

égal à la crue décennal. En deça de ce seuil, on utilise généralement l'ajustement aux débits

d'une loi type Gumbel. On notera que le coefficient R appliqué aux débits moyens pour passer

au débit de pointe revient à multiplier le gradex des débits moyens par le même coefficient.

14.5.4 Portée et limites des méthodes d'estimation statistiques des crues

Dans les problèmes de dimensionnement des ouvrages de protection contre les crues,

les méthodes statistiques décrites précédemment sont souvent mises en concurrence avec une

méthode dite de la crue maximale probable (PMF : Probable Maximum Flood), développée

par les météorologistes américains et fortement recommandée par l'OMM (Organisation

Méréorologiste Mondiale). Cette méthode, de philosophie déterministe, cherche à évaluer la

limite supérieure d'eau de ruissellement de crue sur un bassin. Nous ne décrivons pas cette

méthode pour laquelle un certain nombre d'objections de principe peuvent être soulevées. Le

tabeau (14.1) montre une comparaison synthétique selon 9 critèrese des 3 méthodes

statistiques décrites précédemment et de la méthode PMF. Pour nous limiter aux méthodes

statistiques, hydrométriques ou hydromtéorologiques, il importe de faire quelques mises en

garde. Les méthodes hydrométriques (maximas annuels et dépassements de seuil) sont

soumises à toutes les sources d'erreurs inventoriées dans le tableau 14.1 et les erreurs

43

d'adéquation peuvent être notables. On tend cependant à réduire ces erreurs par l'utilisation la

plus complète de toute l'information disponible surtout avec la méthode des dépassements de

seuils mobilisant les données historiques. Malgré tout, l'information traitée est essentiellement

limitée et laisse des incertitudes résiduelles de diverses natures d'autant plus notables que

l'extrapolation est poussée plus loin vers les faibles probabilités de dépassement. Il en résulte

une limite pratique pour les niveaux de probabilités estimables par ces méthodes qu'il semble

prudent de fixer à quelques 10-3/an ou 10-4/an dans quelques cas particuliers.

La méthode du gradex est-elle mieux placée à cet égard ? Les auteurs (Guillot, 1980)

donnent le débit décamillénal comme objectif de la méthode. Cependant, elle est soumise aux

mêmes types d'incertitudes. Les hypothèses de base sur le rendement des averses sont

difficiles à vérifier et sujettes à caution pour des bassins même moyennement étendus où les

natures de sols peuvent être diverses et les pluies variables spatialement. Notons aussi que le

problème de l'extrapolation des lois de probabilité des pluies et l'estimation du gradex

nécessitent l'utilisation de l'information pluviométrique la plus complète possible et non pas

seulement 10 ou 20 ans de pluies journalières comme le recommandent quelquefois les

auteurs. Il en résulte de toutes les incertitudes résiduelles que la méthode du gradex ne semble

pas avoir de limite d'extrapolation des probabilités essentiellement différente de celles des

méthodes hydrométriques.

Références bibliographiques

Anis, A.A. et Lloyd, E.H. (1976) The expected value of the adjusted rescaled Hurst range of

independant normal deviates, Biometrika, 63-1, 111-116.

Annuaire de la société hydrotechnique de France – 1962.

https://www.shf-hydro.org/index.php?page=73

Astier, J. (1967) Essai de construction de modèles probabilistes sur les étiages, Rapport du

laboratoire national d'hydraulique, 41-67.

Berger, J.O. (1980) Statistical decisien theory – Foundation concepts and method, Springer-

Verlag, 618 p.

Bernier, J. (1965) Sur les probabilités d'occurrence des sécheresses et des étiages, Bulletin du

centre de recherches de Chatou, n°11, 3-12.

Bernier, J. (1969) Inventaire des modèles de processus stochastiques applicables à la

description des débits journaliers des rivières, Congrès de 1'institutut international de

Statistique, Londres, Rev. de l’institut international de Statistique, 1970, 38-1, 49-61.

Bernier, J. (1971) Modèles probabilistes à variables hydrologiques multiples et hydrologie

synthétique, Symposium sur les modèles mathématiques en hydrologie, Varsovie, IAHS Publ.

n°199, 333-342.

Bernier, J. (1979) Sur la nature aléatoire du coût des dommages provoqués par les crues, La

Houille blanche, n°1-1979, 11-20.

Bernier, J. et Miquel, J. (1977) Exemple d'application de la théorie de la décision au

dimensionnement d'ouvrages hydrauliques ; prise en compte de l'information hétérogène, 17e

44

congrès de 1'AIRH, Baden Baden.

Bernier, J. et Miquel, J. (1979) Incertitude de l'information et décision en situation de risque.

Cas de problèmes de protection contre les crues, La Houille Blanche n°4/5-1979, 251-258.

Bernier, J. et Véron, R. (1964) Sur quelques difficultées rencontrées dans l'estimation d'un

débit de crue de probabilité donnée, Revue de statistique appliquée, 12-1, 25-48.

Bobée, B. (1976) Contribution à l'étude statistique des débits maximaux annuels de crue par

les distributions Pearson type 3 et log-Pearson type 3, Thèse de l’Université de Toulouse.

Bobée, B. et Morin, G. (1973) Détermination des intervalles de confiance de la loi de Pearson

III par la statistique d'ordre, J. of Hydrology, 20, 137-153.

Bogardi, I., Duckstein, L. et Szidaroysky (1982) Bayesian analysis of underground flooding,

W.R.R., 18-4, 1110-1116.

Box, G.E.P., Jenkins, G.M. (1976) Time Series Analysis. Forecasting and Control, Holden-

Day.

Davis, O.R., Kisiel, C. et Duckstein, L. (1972) Bayes decision theory application to design in

hydrology, W.R.R., 8-1, 33-41.

Delleur, J.W. (1978) Les processus du type ARIMA pour la prévision et la simulation en

hydrométéorologie, La Houille Blanche, 6-1978, 390-400.

Delleur, J.W. (1970) Développements récents en matière d'analyse des chroniques

d'évènement hydrologiques : liaisons en chaîne et analyse spectrale, Société hydrotechnique

de France, Journée sur les modèles mathématiques en hydrologie de surface, Paris.

Delleur, J.W. et Karamouz, M. (1982) Uncertainty in reservoir operation, IAHS Symposium

on optimal allocation of water resources, Exeter, IAHS Publ. n°135, 7-16.

Fiering, M.B. (1961) Multivariate techniques for synthetic hydrology, J. of Hydraul. Div.,

A.S.C.E., 90 HYJ, 43-60.

Fiering, M.B., Jackson, B.B. (1971) Synthetic streamflow, A.G.U. Water Resources Monog.

n°1.

Guillot, P. (1980) Débits et pluies extrêmes, La météorologie, VIe série n°20, 65-72.

Guillot, P. et Duband, D. (1968) La méthode du Gradex pour le calcul de la probabilité des

crues à partir des pluies, IAHS Colloque int. sur les crues et leur évaluation, Leningrad, AISH

Publ. n°84, 560-569.

Halphen, E. (1941) Etudes statistiques des débits du Rhin à Bâle, Annuaire hydrologique de

1941 de la Société hydrotechnique de France.

Halphen, E. (1945) Un exemple d'application des méthodes statistiques : le problème

du plan de développement de la production d'énergie électrique, Annuaire hydrologique

45

de la Société hydrotechnique de France.

Hammerstley, J.M. et Handscome, D.C. (1965) Monte Carlo methods, Methuen's monographs

in applied probability and statistics, 188 p.

Hannan, E.J. (1960) Time Series Analysis, Chapman and Hall, Londres, 152 p.

Hazen, A. (1930) Floods Flow. A Study of Frequencies and Magnitude, John Wiley and Sons,

New York.

Hipe, K.W., Lennox, W.C., Unny, T.E. et MacLeod, A.I. (1975) Intervention analysis in

water resources, W.R.R., 11-6, 855-861.

Hurst, H.E. (1951) Long term capacity of réservoirs, Trans. ASCE, 116-1, 770-799.

Jacquet, J. et Bernier, J. (1967) Détermination du débit maximum de crue et de sa probabilité

de dépassement dans le cas d'information incomplète, Colloque AISH de Léningrad, IAHS

Pub n°84, 419-431.

Klemeš, V. (1974) The Hurst phenomenon – a puzzle ? W.R.R., 10-4, 675-688.

Kottegoda, N.T. (1980) Stochastic water resources technology, Mac Millan, London, 384 p.

Lahrance, A.J. et Kottegoda, N.T. (1978) Stochastic modelling of river flow time series, J.

Roy. Statist. Soc., A, n°240, part l, 1-31.

Leviandier, T. et Vannier, P. (1981) Un exemple de test de gestion de ressources en eau au

moyen d'un modèle de simulation de débits journaliers, La technique de l'eau et de

l'assainissement, n°41.

Mandelbrot, B.B. et Wallis, J.R. (1969) Computer experiments with fractionnal gaussian

noises, W.R.R., 5-1, 248-241.

Matalas, N.C. (1968) Mathematical assesment of synthetic hydrology, W.R.R., 3-4, 937-942.

Méthodes d’études régionales des ressources en eau (1973) – dit Atlas de l'Allier. Etude

DGRST-LNH.

Ministère de l'agriculture (1972) L'application de la méthode du Gradex à l'estimation des

crues de faible probabilité. Note technique du CTGREF (Centre technique du génie rural et

des eaux et forêts), 19 p.

Miquel, J. et Phien Bou Phai, B. (1978) TEMPETIAGE, un modèle d'estimation des risques

d'étiage, XIe Journée de l’hydraulique, SHF.

Miquel, J. (1981) Guide d'estimation des probabilités de crues, Collection de la Direction des

études et recherches d’EDF, Eyrolles.

Mejia, J.M. et Rousselle, J. (1976) Disaggregation models in hydrology revisited, W.R.R., 12-

2, 185-186.

46

Morlat, G. (1956) Les lois de probabilités de Halphen, Revue de statistique appliquée, 4-3,

21-46.

North, M. (1980) La simulation de processus hydrologiques intermittents par des modèles

alternés inhomogènes, Bulletin de 1'AISH, 25-1, 5-12.

North, M. (1980) Processus time dependant stochastic models of floods, Journal of the

hydraul. Div., ASCE, 106, n°HY5.

North, M. (1981) Processus hydrologiques intermittents. Etude de modélisation stochastique

et applications, Thèse Ecole polytechnique fédérale de Lausanne.

Organisation météorologique mondiale (1963) Estimation of maximum floods, WMO, n°233,

TP 116, 288 p.

Shane, M. et Lynn, R. (1961) Mathemetic model for flood risk evaluation, Journal of hydraul.

div. ASCE, 90, n°HY6.

Salas, J.D., Delleur, J.W., Yevjevich, V. et Lane, W.L. (1980) Applied modeling of

hydrologic time series, Water resources public., Littleton (CO).

Thomas, H.A. et Fiering, M.B. (1962) Mathematical synthesis of stream flows sequences for

the analysis of river basins by simulations, Chap 12 de « Design of water Resources

Systems » par Mass et al., .Harvard Univ. Press, Cambridge, USA.

Tiercelin, L.J. et Leviandier, T. (1978) Un modèle pour la simulation des débits journaliers :

le modèle DEJOREG, La technique de l'eau et de 1'assainisement n°377.

Todorovic, P. (1978) Stochastic models of floods, W.R.R., 14-2, 345-356.

Treiber, B. et Plate, J. (1977) A stochastic model for the simulation of daily flows, IAHS

Hydrol. Sciences Bull., 22-1, 175-192.

Ulmo, J. et Bernier, J. (1973) Eléments de décision statistique, Presses universitaires de

France, Paris.

Villeneuve, J.P., Morin, G., Bobée, B., Leblanc, D. et Delhomme, J.P. (1979) Kriging in the

design of streamflow sampling networks, W.R.R., 15-6, 1833-1840.

Weiss, G. (1977) Shot noise models, W.R.R., 13-1, 101-108.

Yevjevich, V. (1972) Stochastic processes in hydrology, Water resources Publ., Fort Collins,

Colorado, USA.

(Correction 6 Décembre 1984)

(Mise en forme Janvier 2020)


Recommended