Td corrigé Processus Stochastiques pdf

Processus Stochastiques

Stationnarité. Ergodicité. Processus Gaussiens. Processus Markoviens. Théorème de Mercer, représentation de Karhunen-Loève. Représentation spectrale.




part of the document



mple on considère un processus aléatoire défini à partir d'une seule variable aléatoire EMBED Equation  uniformément distribuée en [0,1], de la façon suivante:
EMBED Equation 
où EMBED Equation  est le résultat de la division entière de a par b, et EMBED Equation  est un nombre irrationnel.
La figure suivante illustre une des réalisations possibles de ce processus.

Le caractère aléatoire du processus est plus clairement mis en évidence par la figure suivante, où sont représentées trois réalisations du processus, obtenues à partir de trois conditions initiales différentes:

Exemple
Dans cet exemple, on présente un processus qui est plus naturellement modélisé comme un ensemble de variables aléatoires indexées.
Considérons le procéssus aléatoire discret EMBED Equation 
EMBED Equation 
où les variables aléatoires EMBED Equation  sont iid, gaussiennes, de moyenne nulle et variance EMBED Equation .
La figure suivante illustre quelques réalisations de ce processus.




1.2 Caractérisation statistique

1.2.1 Caractérisation d'ordre N
La caractérisation d'ordre N d'un processus aléatoire consiste à spécifier la densité de probabilité conjointe de tous les ensembles EMBED Equation , EMBED Equation :
EMBED Equation 

Exercice: Déterminer la caractérisation d'ordre 1 des processus des exemples 1 et 2.
Déterminer la caractérisation d'ordre 2 du processus de l'exemple 2.

1.2.2 Caractérisation complète
La caractérisation complète d'un processus consiste à spécifier sa caractérisation d'ordre N pour toutes les valeurs de N finies (EMBED Equation ).

1.2.3 Caractérisation partielle
Au lieu de spécifier une densité de probabilité, on défini certaines caractéristiques de la densité conjointe. On utilisera surtout la caractérisation partielle d'ordre deux, qui fait intervenir seulement deux variables aléatoires, EMBED Equation .

1.3 Moments
Moment d'ordre 1 (moyenne)
EMBED Equation 
On notera que la moyenne d'un processus aléatoire, définie comme la valeur moyenne de chacune des variables aléatoires qui constituent le processus, est une fonction déterministe de variable réelle.

Moments d'ordre 2 (auto-corrélation et covariance)

La fonction d'auto-corrélation est le moment non-centré d'ordre deux du p.s.:
EMBED Equation 
Propriétés
1. Une fonction d’auto-corrélation est définie non-négative, c’est à dire,
 EMBED Equation.3 
De la même façon, si R(t,s) est une fonction définie non-négative, on peut toujours trouver un processus d’ordre deux (c.a.d, de valeur moments d’ordre deux finis), dont la fonction d’auto-corrélation est R(t,s).
2. Une fonction d’auto-corrélation est symétrique (pour variables réelles) :
 EMBED Equation.3 
Ceci découle directement de la définition.
3. Inégalité de Schwarz
 EMBED Equation.3 .

4. Fermeture
Si R(t,s) et P(t,s) sont des fonctions d’auto-corrélation, alors
R(t,s)+P(t,s) est aussi une fonction d’auto-corrélation
R(t,s)P(t,s) est aussi une fonction d’auto-corrélation
Si a,b>0, alors aR(t,s)+bP(t,s) est encore une fonction d’auto-corrélation
Formes bilinéaires
Pour toute fonction f(t), R(t,s) =f(t)f(s) est une fonction d’autocorrélation.

La fonction de covariance est le moment centré d'ordre deux:
EMBED Equation 

On défini encore le coefficient de corrélation, qui est une mesure normalisée de la corrélation statistique entre les variables correspondantes aux deux instants du temps, t et u:
EMBED Equation 
Le module du coefficient de corrélation est toujours inférieur à 1 (vérifier cette affirmation).

On remarque que les trois fonctions qu'on vient de définir sont des fonctions réelles (déterministes) de deux variables réelles.

Exercice: Déterminer la caractérisation partielle d'ordre deux du procéssus de l'exemple de la page 29.

1.3.1 Moments croisés de deux processus
De la même façon qu'on a défini la distribution conjointe deux variables aléatoires, on peut aussi considérer la distribution conjointe de deux processus. Les processus sont alors caractérisés par les distributions conjointes de leurs respectives variables aléatoires. Soient EMBED Equation  et EMBED Equation  deux processus conjointement distribués. Leur densité conjointe d'ordre N est
EMBED Equation .

La corrélation croisée des processus EMBED Equation  et EMBED Equation  est le moment croisé (non-centré) d'un pair de variables prises chacune dans un des processus aléatoires:
EMBED Equation 

De la même façon, la covariance croisée est le moment centré correspondant:
EMBED Equation 

1.3.2 Processus Orthogonaux
On dit que deux processus sont orthogonaux quand leur fonction de corrélation est identiquement nulle:
EMBED Equation 

On établi par la suite l'analogie entre cette notion d'orthogonalité (statistique) et la notion géométrique d'orthogonalité de vecteurs dans un espace Euclidean de dimension finie. Soient x et y deux vecteurs en Rn, et représentons leur produit scalaire (ou produit interne) par . On dit que les vecteurs sont orthogonaux (au sens géométrique, c'est à dire qu'ils forment entre eux un angle de 90o) si leur produit interne est nul:
EMBED Equation .

Considérons maintenant la condition de orthogonalité statistique,
EMBED Equation 
Admettons, pour simplifier, qu'il s’agit de deux processus qui prennent valeurs dans deux ensembles finis,
EMBED Equation 
et soit EMBED Equation la probabilité conjointe des deux processus. Alors la valeur moyenne de l'équation antérieure peut s'écrire
EMBED Equation .
Admettons que l'on fait N tirages au sort des variables aléatoires EMBED Equation  et EMBED Equation  et construisons deux vecteurs aléatoires X et Y, de dimension N:
EMBED Equation ,
où EMBED Equation  est la paire de valeurs obtenues dans le i-ièmme tirage.
Selon la loi des grands nombres, on doit avoir EMBED Equation  et EMBED Equation  un nombre de fois égal à EMBED Equation . La somme de l'expression antérieure est donc égale a
EMBED Equation 
qui est bien l'expression du produit interne des deux vecteurs, reliant ainsi les notions de orthogonalité statistique et de orthogonalité géométrique.

1.3.3 Processus non-correlés
Deux processus sont non correlés si leur fonction de covariance est identiquement nulle:
EMBED Equation 

Notons que non-corrélation n'implique pas, en général, orthogonalité. On peut démontrer que
EMBED Equation .
On peut donc avoir corrélation nulle sans que les processus soient orthogonaux. Cependant, pour des processus de moyenne zéro, les deux conditions sont, évidemment, équivalentes.

1.4 Processus indépendants
Deux processus aléatoires sont indépendants si n'importe quel ensemble de variables aléatoires prises dans les deux processus sont indépendantes. Cela veut dire que, EMBED Equation  , la densité conjointe des variables aléatoires EMBED Equation  de EMBED Equation , et EMBED Equation  de EMBED Equation , factorise de la façon suivante:
EMBED Equation 


1.5 Processus stationnaires
On dit qu'un processus est stationnaire si ses caractéristiques ne varient pas avec la définition de l'origine du temps, ou, encore, si ses caractéristiques statistiques ne varient pas le long du temps. On défini plusieurs types de stationnarité.

Stationnarité au sens strict
Un processus est stationnaire au sens strict si pour toute valeur de N, sa caractérisation d'ordre N est invariante par rapport à une translation de l'axe des temps:
EMBED Equation 

Exemple.
Considérer le processus défini dans la page 28. Montrer qu'il s'agit d'un processus stationnaire.

Stationnarité au sens large (ou de deuxième ordre)
Un processus aléatoire est stationnaire au sens large si sa moyenne est constante,
EMBED Equation ,
et sa fonction d'auto-covariance ne dépend pas de l'origine du temps. Comme EMBED Equation  ne dépend que de deux instants du temps, la condition précédante est équivalente à
EMBED Equation .

Processus conjointement stationnaires
Deux processus sont conjointement stationnaires si
a) chacun est stationnaire considéré d'une façon isolée, et
b) leur corrélation croisée EMBED Equation  dépend seulement de la différence EMBED Equation :
EMBED Equation 
On notera que dans ce cas, leur covariance croisée dépend également uniquement de la différence des instants de temps considérés.

Processus cyclo-stationnaires
Un processus est cyclo-stationnaire au sens strict si ses statistiques sont des fonctions périodiques du temps (de période T).

Théorème
Si EMBED Equation  est un processus cyclo-stationnaire au sens strict et EMBED Equation  est une variable aléatoire uniforme en EMBED Equation , alors EMBED Equation  est un processus stationnaire au sens strict.

Un processus est cyclo-stationnaire au sens large si ses moments d'ordre 1 et 2 sont des fonctions périodiques :
EMBED Equation 

Théorème
Si EMBED Equation  est un processus cyclo-stationnaire au sens large et EMBED Equation  est une variable aléatoire uniforme en EMBED Equation , alors EMBED Equation  est un processus stationnaire au sens large, et
EMBED Equation 

1.6 Ergodicité
La propriété d'érgodicité lie les moyennes statistiques (effectuées sur l'espace des réalisations sous-jacent à la définition des variables aléatoires qui constituent le processus) et les moyennes temporelles (effectuées sur les fonctions du temps qui sont les réalisations du processus).

Un processus aléatoire est ergodique si ses moments peuvent être obtenus comme des moyennes à partir d'une seule de ses réalisations. Ceci doit être vrai en particulier pour les moments d'ordre 1 et 2:
EMBED Equation 

Si l'on examine la première équation, on se rend compte que le membre gauche ne dépend pas du temps, et donc que pour que cette équation puisse être vérifiée, il faut que le processus ait une moyenne constante. De la même façon, pour que la deuxième équation soit possible le procéssus doit être stationnaire au sens large, on aura alors
EMBED Equation 
On peu donc affirmer que pour qu'un processus soit érgodique, il doit nécessairement être stationnaire:

ergodicité EMBED Equation  stationnarité


L'affirmation contraire est fausse, comme le montre l'exercice suivant.

Exercice. Soient X et Y deux processus stationnaires et ergodiques. A partir de ces deux processus on construit un troisième processus de la façon suivante. On lance une pièce et si le résultat est face on observe le processus X : EMBED Equation ; en cas contraire on observe le processus Y: EMBED Equation . Montrer que le processus Z est stationnaire, mais pas ergodique.

Exercice. Montrer que le processus introduit dans l'exemple 1 est ergodique. Vérifier ceci en comparant (utiliser Matlab) l'histogramme d'une réalisation EMBED Equation  (utiliser plusieurs valeurs de N) avec la densité d'ordre 1 obtenue théoriquement.

Exemple. Considérer le processus aléatoire stationnaire EMBED Equation  de moyenne nulle et de fonction d’auto-covariance
EMBED Equation 
Soit EMBED Equation  la moyenne temporelle de EMBED Equation  calculée sur l'intervalle [-T,T]:
EMBED Equation .
On peut conclure facilement que la valeur moyenne de la variable aléatoire EMBED Equation  est aussi zéro:
EMBED Equation 
Le calcul de la covariance de EMBED Equation  peut être fait à partir de la définition de covariance:
EMBED Equation 
L'intégrale de l'équation précédante peut être simplifiée. Si on définie EMBED Equation , on voit que la fonction qui est intégrée est constante selon les lignes indiquées sur la figure suivante:
EMBED MSDraw \* MERGEFORMAT
On effectue la transformation de variables suivante:
EMBED Equation 
dont le Jacobien est
EMBED Equation 
L'intégrale peut donc s'écrire, d'une façon équivalente,
EMBED Equation 

Si on utilise maintenant la définition de EMBED Equation ,
EMBED Equation 
La limite quand EMBED Equation de cette expression est 0, et donc la variable aléatoire EMBED Equation  -- la valeur moyenne temporelle -- tend en probabilité vers la valeur moyenne statistique, ce qui montre que le processus est ergodique pour la moyenne.
Cet exemple montre que l'ergodicité pour la moyenne correspond à une condition sur le moment d'ordre deux du processus. On peut vérifier facilement que l'ergodicité pour l'auto-correlation conduit à une condition sur un moment d'ordre quatre du processus.

On vient d'introduire un ensemble de définitions qui caractérisent statistiquement un processus stochastique. Dans le reste de ce cours, on utilisera souvent la fonction de corrélation, la covariance croisée, etc., et on aura occasion de faire référence à des propriétés comme stationnarité ou ergodicité. Les caractérisations des signaux aléatoires que l'on vient de présenter sont bien différentes de celles qui sont utilisées pour les signaux déterministes, et qui consistent, par exemple, à donner une formule analytique qui décrit sont évolution, spécifier leur spectre, où encore à les décrire comme la sortie d'un système linéaire. Comme on discutera dans une section postérieure, des représentations équivalentes existent aussi pour certains processus aléatoires.

1.7 Processus Gaussiens
Il y a plusieurs façons de définir un processus Gaussien. On présente ici deux de ces définitions:

Un p.s. est Gaussien si toute combinaison linéaire (de coefficients qui ne sont pas identiquement nuls) est une variable aléatoire gaussienne.

Un p.s. est Gaussien si ses densités d'ordre n sont conjointement gaussiennes, pour toutes valeurs de n.

Exercice.
Un p.s. discret, EMBED Equation  , est Gaussien, de moyenne nulle. Soit EMBED Equation . Montrer que le processus est stationnaire ssi EMBED Equation  dépend uniquement de EMBED Equation .

1.8 Processus de Markov
Les processus de Markov jouent un rôle important dans la théorie du traitement du signal, parce qu'ils conduisent, dans beaucoup de circonstances, à des filtres de mémoire finie. On présente ici uniquement la définition pour des processus discrets (ensemble T dénombrable).

Définition.
Un processus EMBED Equation  est de Markov si
EMBED Equation .

L'équation précédente décrit de façon formelle la propriété suivante: le futur et le passé sont conditionnellement indépendants, étant donné le présent.

Exemple
Soient EMBED Equation  des variables aléatoires iid, et S le processus défini par ses sommes partielles
EMBED Equation .
Montrer que S est un processus de Markov (noter que ce processus a été introduit dans l'exemple de la page 29).

Quand les variables aléatoires  EMBED Equation.3 sont discrètes, définies dans un même ensemble dénombrable  EMBED Equation.3 , on appelle le processus de Markov une chaine de Markov. Le processus  EMBED Equation.3 étudié dans l’appendix du Chapitre 1 est un exemple d’une chaine de Markov, qui prend des valeurs dans les entiers. Ces processus sont complètement caractérisés par
la distribution de leur valeur initiale
 EMBED Equation.3 
l’ensemble de probabilités conditionnelles
 EMBED Equation.3 
On doit avoir, évidemment,
 EMBED Equation.3 

Si les probabilités  EMBED Equation.3  ne dépedent pas de l’instant k considéré, on dira qu’il s’agit d’une chaine de Markov de probabilité de transition stationnaire. Par la suite, on considere uniquement ce type de chaines.

La probabilité pour que la chaine prenne la valeur  EMBED Equation.3  à l’instant k, sachant que sa valeur à l’instant n est  EMBED Equation.3  est donnée par
 EMBED Equation.3 
où r est un instant quelconque pris entre k et n. Cette formule est connue par le nom d’équation de Chapman Kolmogorov, et joue un rôle fondamentale dans l’étude des processus Markov.
Pour des chaines avec des transitions stationnaires, la probabilité dépend uniquement de la distance entre les deux instants considérés :
 EMBED Equation.3 
En définissant m=k-r et s=r-n (et donc k-n=m+s), on obtient
 EMBED Equation.3 

Considérons maintenant le cas où l’ensemble de valeurs prises par la chaine est fini, c’est à dire  EMBED Equation.3 . Soit P la matrice MxM dont les entrées sont les valeurs de la probabilité de transition de la chaine
 EMBED Equation.3 
Alors, on peut montrer que la densité de transition en n steps,  EMBED Equation.3 , formée par les valeurs de la probabilité de transition en n steps, est donnée par le puissance n de la matrice P :
 EMBED Equation.3 

Notons que les équations précédantes permettent le calcul de la loi de probabilité pour n’importe quel instant du temps :
 EMBED Equation.3 
et si on défini  EMBED Equation.3  comme le vecteur
 EMBED Equation.3 
on a l´équation
 EMBED Equation.3 

1.8.1 Fermeture et ensembles fermés
On dit que l’état  EMBED Equation.3 peut être atteint à partir de l’état  EMBED Equation.3 s’il existe un  EMBED Equation.3  tel que  EMBED Equation.3 .

Définition
Un sous-ensemble C de l’espace d’états  EMBED Equation.3  est fermé si aucun état en dehors de C peut être atteint à partit d’un état dans C. Soit B un sous-ensemble arbitraire de  EMBED Equation.3 . On appelle fermeture de B le plus petit sous-ensemble de  EMBED Equation.3  contenant B qui est fermé. Si la fermeture d’un élément  EMBED Equation.3 de  EMBED Equation.3 coincide avec  EMBED Equation.3 , alors on dit que l’état  EMBED Equation.3  est absorbant.
Une chaine de Markov est irréductible si le seul sous-ensemble fermé de  EMBED Equation.3  est  EMBED Equation.3 .
Il est évident que C est fermé si et seulement si  EMBED Equation.3 . Dans ce cas, on peut éliminer toutes les lignes et colonnes correspondantes aux états en dehors de C, et la matrice résultante est encore une probabilité de transition pour une chaîne réduite, qui a pour espace d’états  EMBED Equation.3 .

Exemple
Considérons une chaîne avec la matrice de transition suivante
 EMBED Equation.3 
Remarquons d’abord que l’état 7 ne peut conduire qu’à lui même. Il s’agit donc d’un état absorbant : si la chaîne rentre dans cet état, elle y restera toujours.
L’état 6 peut conduire à lui même où a l’état 7. Donc,  EMBED Equation.3 est un ensemble fermé.
On remarque aussi que l’état 1 ne peut conduire qu’à l’état 4, et que celui-ci ne peut conduire qu’à 1 de nouveau ou à 9. Finalement, l’état 9 peut de nouveau conduire à 1 ou rester dans le même état. L’ensemble  EMBED Equation.3 constitue donc un ensemble fermé.
L’état 2 ne peut conduire qu’aux états 6 ou 7.  EMBED Equation.3  est donc aussi un ensemble fermé.
On reconnaitera facilement les autres ensembles fermés de cette chaine :  EMBED Equation.3 ,  EMBED Equation.3 .
Notez qu’une renumérotation des états (6,7,2,5,3,8,1,4,9) permet d’écrire la matrice de transition de cette chaîne de la forme suivante :
 EMBED Equation.3 

Comme l’exemple pécédent montre, si une chaîne a un sous-ensemble fermé de dimension r, alors on peut toujours re-ordonner les états de façon à écrire sa matrice de transition dans la forme
 EMBED Equation.3 
où la matrice Q est de dimension rxr et V est une matrice carrée de dimension M-r. Dans ce cas, on vérifie facilement que
 EMBED Equation.3 

Ceci indique qu’on peut étudier séparemment l’évolution des états dans un ensemble fermé et
dans son complément.

Définition
Un état  EMBED Equation.3  a période t>1 si  EMBED Equation.3 , et t est le plus grand entier avec cette propriété.

Définitions
Soit  EMBED Equation.3 la probabilité pour que depuis létat i le premier retour à l’état j soit obtenu après n steps. Par définition,  EMBED Equation.3 . Alors, la probabilité pour que la chaîne retourne à i après avoir passé par j est donnée par
 EMBED Equation.3 
et le nombre moyen de steps nécessaires (temps moyen de recurrence) pour y retourner est
 EMBED Equation.3  EMBED Equation.3 
Quand  EMBED Equation.3 =1, les  EMBED Equation.3  EMBED Equation.3 sont une loi de probabilité, et on l’appelle la distribution du premier temps de passage.

Définition
Un état  EMBED Equation.3  est persistant si  EMBED Equation.3 =1 et transitoire si  EMBED Equation.3