Td corrigé intro géné - TEL (thèses pdf

intro géné - TEL (thèses

L'hétéroscédasticité conditionnelle. ...... d'effectuer des tests de persistance et qui corrige certains biais de l'analyse graphique de l'exposant de HURST.




part of the document



teur
Professeur à l'Université d'Orléans, Pré-rapporteur
Professeur à l'Université de Bourgogne

UNIVERSITÉ DE BOURGOGNE
FACULTÉ DE SCIENCES ÉCONOMIQUE ET DE GESTION






L'EFFICIENCE BRUITÉE.
UNE ANALYSE NON LINÉAIRE
DU MARCHÉ FRANÇAIS DES ACTIONS







Thèse présentée par

Hervé ALEXANDRE


en vue de l'obtention du

Doctorat ès Science de Gestion
Mention Finance






5 Janvier 1994


Jury :
M. Gérard CHARREAUX
M. Patrice FONTAINE
M. Georges GALLAIS-HAMONNO
Mlle Marie-Claude PICHERYProfesseur à l'Université de Bourgogne, Directeur de thèse
Professeur à l'Université de Grenoble II, Pré-rapporteur
Professeur à l'Université d'Orléans, Pré-rapporteur
Professeur à l'Université de Bourgogne
“La faculté n'entend donner aucune approbation ni improbation aux opinions émises dans les thèses : ces opinions doivent être considérées comme propres à leurs auteurs.”
Remerciements











Je tiens à remercier vivement le Professeur Gérard CHARREAUX pour son enthousiasme et pour avoir suivi et souvent précédé mon travail par la recherche constante de nouvelles idées, de nouveaux articles.


Toute ma reconnaissance va au Professeur Marie-Claude PICHERY qui a suivi avec une attention toute particulière la partie économétrique de cette thèse.


Je souhaite également témoigner ma reconnaissance au Professeur Herman VAN DIJK (Université de Rotterdam) dont les commentaires et les conseils m'ont été très précieux lors de l'utilisation des réseaux de neurones.


Enfin, je remercie François LONGIN et Cem ERTUR qui m'ont permis de mieux profiter de l'intérêt de leurs travaux au cours de discussions et d'échanges d'idées, ainsi que mes collègues doctorants pour l'aide qu'ils n'ont pas hésiter à m'apporter.















à Marie-Pierre
RÉSUMÉ

L'introduction récente, dans la littérature financière, d'agents aux comportements imparfaits permet une représentation des marchés d'actions plus proche de la réalité. Nous pensons surtout au concept de bruiteurs qui insiste sur l'impuissance de certains agents rationnels à posséder et utiliser toute l'information disponible et pertinente. Cette thèse consiste en une description de l'impact de ces agents sur les marchés financiers et la recherche d'outils adéquats pour mesurer les conséquences de leur présence sur l'efficience des marchés.
La première vision théorique des marchés financiers composés de froids calculateurs parfaitement rationnels et homogènes laisse la place à l'intégration d'agents aux anticipations hétérogènes. Les changements intervenant dans les hypothèses de comportements se sont accompagnés d'une modification du modèle testable dérivé (marche aléatoire, martingale). Mais tout cela s'effectue au sein de ce que nous appelons le paradigme probabiliste de l'investisseur rationnel même si l'introduction de modèles non linéaires (ARCH ...) permet une avancée significative.
Le chaos déterministe offre une autre voie de développement de la non linéarité qui permet en plus de se libérer de la contrainte inhérente à l'emploi de modèles probabilistes. Nous montrons qu'une révision des tests d'efficience découle de ces techniques du chaos avec notamment l'emploi du test BDS que nous interprétons ici comme un test de l'efficience “classique” des marchés contre une hypothèse que nous appelons Efficience Bruitée.
L'Efficience Bruitée définit un marché où coexistent agents rationnels parfaitement informés et bruiteurs. L'étude empirique menée sur le marché français des actions semble confirmer le bien fondé de notre concept. Elle met à jour les insuffisances des tests et modèles qui reposent sur la linéarité pour décrire la grande diversité des investisseurs présents sur les marchés financiers.

Mots-clés : Efficience des marchés financiers, bruiteurs, test BDS, chaos déterministe, processus ARCH.

 TOC \f \n SOMMAIRE





 TOC \f INTRODUCTION. 1

PREMIÈRE PARTIE : LE PARADIGME PROBABILISTE DE L'INVESTISSEUR RATIONNEL 9

 TOC \f CHAPITRE 1 : DE L'HYPOTHESE DE RATIONALITE AU MODELE TESTABLE.  PAGEREF _Toc503000153 \h 12
Section 1. Comportements et mécanismes.  PAGEREF _Toc503000154 \h 12
I. Les comportements.  PAGEREF _Toc503000155 \h 17
1. L'investisseur rationnel.  PAGEREF _Toc503000156 \h 17
2. L'investisseur irrationnel.  PAGEREF _Toc503000157 \h 18
II. Les mécanismes d'évolution des prix.  PAGEREF _Toc503000158 \h 22
1. Analogie avec un marché de concurrence pure et parfaite.  PAGEREF _Toc503000159 \h 23
2. L'impossibilité du profit par arbitrage.  PAGEREF _Toc503000160 \h 26
3. Anomalies et irrationalité collective.  PAGEREF _Toc503000161 \h 27
4. Et pourtant, on parle toujours d'efficience.  PAGEREF _Toc503000162 \h 32
Section 2. L'analyse statistique des marchés.  PAGEREF _Toc503000163 \h 34
I. Une question de loi.  PAGEREF _Toc503000164 \h 35
1. Le modèle de OSBORNE (1964).  PAGEREF _Toc503000165 \h 35
2. Abandon de la normalité.  PAGEREF _Toc503000166 \h 36
A. Lois stables : description et caractéristiques.  PAGEREF _Toc503000167 \h 37
B. Tests sur la nature de la loi stable.  PAGEREF _Toc503000168 \h 38
II. Un modèle pour les cours boursiers.  PAGEREF _Toc503000169 \h 42
1. La marche aléatoire.  PAGEREF _Toc503000170 \h 42
2. La martingale.  PAGEREF _Toc503000171 \h 44
3. La sous-martingale.  PAGEREF _Toc503000172 \h 45
4. Test de la marche aléatoire.  PAGEREF _Toc503000173 \h 46
5. Test de la martingale.  PAGEREF _Toc503000174 \h 49
III Les modèles de variance.  PAGEREF _Toc503000175 \h 51
1. Modèles de HSU (1977).  PAGEREF _Toc503000176 \h 51
2. Variances markoviennes.  PAGEREF _Toc503000177 \h 52
Section 2. L'analyse statistique des marchés.  PAGEREF _Toc503000178 \h 54
I. Une question de loi.  PAGEREF _Toc503000179 \h 55
1. Le modèle de OSBORNE (1964).  PAGEREF _Toc503000180 \h 55
2. Abandon de la normalité.  PAGEREF _Toc503000181 \h 57
A. Lois stables : description et caractéristiques.  PAGEREF _Toc503000182 \h 57
B. Tests sur la nature de la loi stable.  PAGEREF _Toc503000183 \h 59
II. Un modèle pour les cours boursiers.  PAGEREF _Toc503000184 \h 62
1. La marche aléatoire.  PAGEREF _Toc503000185 \h 62
2. La martingale.  PAGEREF _Toc503000186 \h 64
3. La sous-martingale.  PAGEREF _Toc503000187 \h 66
4. Test de la marche aléatoire.  PAGEREF _Toc503000188 \h 66
5. Test de la martingale.  PAGEREF _Toc503000189 \h 69
III Les modèles de variance.  PAGEREF _Toc503000190 \h 71
1. Modèles de HSU (1977).  PAGEREF _Toc503000191 \h 72
2. Variances markoviennes.  PAGEREF _Toc503000192 \h 73
CHAPITRE 2 : BRUIT, SPECULATION ET SPECIALISTES.  PAGEREF _Toc503000193 \h 75
Section 1. Une grande diversité de comportements.  PAGEREF _Toc503000194 \h 76
I. L'arbitragiste.  PAGEREF _Toc503000195 \h 76
II. Le spéculateur.  PAGEREF _Toc503000196 \h 79
III. Le bruiteur.  PAGEREF _Toc503000197 \h 83
1. Les règles de décisions.  PAGEREF _Toc503000198 \h 84
2. Le mimétisme.  PAGEREF _Toc503000199 \h 85
3. Les bruiteurs  PAGEREF _Toc503000200 \h 86
Section 2. Un modèle de comportement avec bruit.  PAGEREF _Toc503000201 \h 92
I. Hypothèses du modèle.  PAGEREF _Toc503000202 \h 92
II. Détermination du prix d'équilibre.  PAGEREF _Toc503000203 \h 93
III. Différence de rentabilité selon la stratégie.  PAGEREF _Toc503000204 \h 97
IV. Les bruiteurs et l'évolution des prix.  PAGEREF _Toc503000205 \h 100
V. Ouvertures statistiques possibles du modèle de DSSW.  PAGEREF _Toc503000206 \h 100
VI. Quelle stratégie adopter en présence de bruiteurs ?  PAGEREF _Toc503000207 \h 102
CHAPITRE 3 : DE NOUVELLES VOIES STATISTIQUES DE MODELISATION DES MARCHES FINANCIERS.  PAGEREF _Toc503000208 \h 106
Section 1. Dépendance de long terme.  PAGEREF _Toc503000209 \h 107
I. La persistance et la statistique R/S.  PAGEREF _Toc503000210 \h 108
1. Exposant de HURST.  PAGEREF _Toc503000211 \h 108
2. H et le rejet de l'efficience.  PAGEREF _Toc503000212 \h 111
3. Révision de l'analyse R/S.  PAGEREF _Toc503000213 \h 112
4. Des cycles non périodiques  PAGEREF _Toc503000214 \h 115
II. Le retour en espérance.  PAGEREF _Toc503000215 \h 117
1. Modèle de retour en espérance.  PAGEREF _Toc503000216 \h 117
2. Etude empirique et implications.  PAGEREF _Toc503000217 \h 120
Section 2. L'hétéroscédasticité conditionnelle.  PAGEREF _Toc503000218 \h 122
I. Le modèle ARCH.  PAGEREF _Toc503000219 \h 124
II. Modèles dérivés et applications.  PAGEREF _Toc503000220 \h 127
III. La théorie des valeurs extrêmes.  PAGEREF _Toc503000221 \h 131
1. Distribution des valeurs extrêmes.  PAGEREF _Toc503000222 \h 132
2. Distribution de la série  PAGEREF _Toc503000223 \h 133
CONCLUSION DE LA PREMIÈRE PARTIE  PAGEREF _Toc503000224 \h 137
CHAPITRE 4 : REPRESENTATION DETERMINISTE DU MONDE  PAGEREF _Toc503000225 \h 143
Section 1. Le déterminisme représenté par des probabilités  PAGEREF _Toc503000226 \h 143
I. Déterminismes et notion de cause.  PAGEREF _Toc503000227 \h 144
1. Le causalisme leibnizien.  PAGEREF _Toc503000228 \h 144
2. Déterminisme et libre arbitre.  PAGEREF _Toc503000229 \h 146
3. Le déterminisme méthodologique.  PAGEREF _Toc503000230 \h 146
II. Le désordre : probabilités ou déterminisme  PAGEREF _Toc503000231 \h 148
1. Les probabilités comme description du déterminisme.  PAGEREF _Toc503000232 \h 148
2. Le désordre ordonné.  PAGEREF _Toc503000233 \h 150
Section 2. Le chaos déterministe.  PAGEREF _Toc503000234 \h 152
I. Analyse géométrique des systèmes.  PAGEREF _Toc503000235 \h 154
1. Définitions.  PAGEREF _Toc503000236 \h 154
2. Différentes voies vers le chaos.  PAGEREF _Toc503000237 \h 157
II. Chaos déterministe et attracteurs étranges.  PAGEREF _Toc503000238 \h 160
1. Définition du chaos.  PAGEREF _Toc503000239 \h 160
2. Les attracteurs apériodiques.  PAGEREF _Toc503000240 \h 163
Section 3. Mesure de la dimension des attracteurs.  PAGEREF _Toc503000241 \h 164
I. Les objets fractals.  PAGEREF _Toc503000242 \h 164
II Mesure de la dimension fractale.  PAGEREF _Toc503000243 \h 171
1. Dimension d'un objet fractal.  PAGEREF _Toc503000244 \h 171
2. Reconstruction de l'attracteur.  PAGEREF _Toc503000245 \h 174
Conclusion.  PAGEREF _Toc503000246 \h 175
CHAPITRE 5 : UN NOUVEAU TEST DE LA MARCHE ALEATOIRE.  PAGEREF _Toc503000247 \h 177
Section 1. Test BDS (BROCK, DECHERT et SCHEINKMAN, 1987).  PAGEREF _Toc503000248 \h 178
I. Le test.  PAGEREF _Toc503000249 \h 179
II. Conditions d'utilisations.  PAGEREF _Toc503000250 \h 180
Section 2. Non stationnarité et racine unitaire.  PAGEREF _Toc503000251 \h 183
I. Deux types de non stationnarité et premiers tests.  PAGEREF _Toc503000252 \h 184
1. Non stationnarité déterministe.  PAGEREF _Toc503000253 \h 185
2. Non stationnarité stochastique.  PAGEREF _Toc503000254 \h 185
3. Test de LJUNG-BOX (1978).  PAGEREF _Toc503000255 \h 187
II. Tests de DICKEY et FULLER (1979).  PAGEREF _Toc503000256 \h 188
1. Elaboration du test.  PAGEREF _Toc503000257 \h 188
2. Les différents modèles et les tests associés.  PAGEREF _Toc503000258 \h 189
3. Stratégies de tests.  PAGEREF _Toc503000259 \h 190
Section 3. Processus stochastiques non linéaires.  PAGEREF _Toc503000260 \h 191
I. Différents modèles.  PAGEREF _Toc503000261 \h 192
III. Test du moment de troisième ordre.  PAGEREF _Toc503000262 \h 193
Section 4. Le chaos déterministe.  PAGEREF _Toc503000263 \h 195
I. Le plus grand exposant de LYAPUNOV.  PAGEREF _Toc503000264 \h 196
II. Algorithme de WOLF.  PAGEREF _Toc503000265 \h 199
III. Les réseaux de neurones.  PAGEREF _Toc503000266 \h 201
Conclusion.  PAGEREF _Toc503000267 \h 206
CHAPITRE 6 : MODELES DE MARCHÉ FINANCIER AVEC BRUIT.  PAGEREF _Toc503000268 \h 208
Section 1. Les bruiteurs comme cause de persistance  PAGEREF _Toc503000269 \h 210
I. Les difficultés d'une représentation non stationnaire de l'innovation.  PAGEREF _Toc503000270 \h 210
II. La persistance fractale.  PAGEREF _Toc503000271 \h 213
1. Les mouvements browniens fractals.  PAGEREF _Toc503000272 \h 213
2. Le cœfficient de HURST comme signal des bruiteurs.  PAGEREF _Toc503000273 \h 214
Section 2. La non linéarité stochastique pour décrire le bruit.  PAGEREF _Toc503000274 \h 216
I. D'où provient l'effet GARCH ?  PAGEREF _Toc503000275 \h 217
II. Modélisation des bruiteurs et processus ARCH.  PAGEREF _Toc503000276 \h 221
1. Hypothèses sur le comportement des investisseurs.  PAGEREF _Toc503000277 \h 221
2. Stratégie des investisseurs.  PAGEREF _Toc503000278 \h 223
3. Evolution du prix et de l'innovation.  PAGEREF _Toc503000279 \h 224
Section 3. Les bruiteurs génèrent du chaos.  PAGEREF _Toc503000280 \h 226
I. Différents investisseurs  PAGEREF _Toc503000281 \h 227
1. Les fondamentalistes (investisseurs að)ð.  PAGEREF _Toc503000282 \h 228
2. Les bruiteurs (investisseurs bð).  PAGEREF _Toc503000283 \h 229
3. Les contrepartistes.  PAGEREF _Toc503000284 \h 231
II. Evolution du prix des actifs  PAGEREF _Toc503000285 \h 232
Conclusion.  PAGEREF _Toc503000286 \h 238
CHAPITRE 7 : TESTS CLASSIQUES ET NOUVELLE STRATEGIE DU TEST D'EFFICIENCE.  PAGEREF _Toc503000287 \h 247
Section 1. Des tests classiques d'efficience...  PAGEREF _Toc503000288 \h 248
Section 2. ... au test du Bruiteur Détecté Statistiquement.  PAGEREF _Toc503000289 \h 251
CHAPITRE 8 : DESCRIPTION DES BRUITEURS.  PAGEREF _Toc503000290 \h 256
Section 1. Test de persistance.  PAGEREF _Toc503000291 \h 256
I. Tests de racine unitaire.  PAGEREF _Toc503000292 \h 256
II. Test de dépendance de long terme.  PAGEREF _Toc503000293 \h 258
Section 2. Test de non linéarité stochastique.  PAGEREF _Toc503000294 \h 259
I. La modélisation ARCH.  PAGEREF _Toc503000295 \h 261
II. La modélisation GARCH.  PAGEREF _Toc503000296 \h 265
Section 3. Le bruit est-il chaotique ?  PAGEREF _Toc503000297 \h 267
I. Dimension et reconstruction de l'attracteur.  PAGEREF _Toc503000298 \h 268
II. Exposant de LYAPUNOV.  PAGEREF _Toc503000299 \h 270
1. Algorithme de WOLF.  PAGEREF _Toc503000300 \h 271
2. Méthode des réseaux de neurones.  PAGEREF _Toc503000301 \h 271
Conclusion.  PAGEREF _Toc503000302 \h 274
CHAPITRE 9 : L'EFFICIENCE BRUITEE A LA BOURSE DE PARIS.  PAGEREF _Toc503000303 \h 276
Section 1. Les bruiteurs et le marché boursier français.  PAGEREF _Toc503000304 \h 276
I. Que nous disent les résultats ?  PAGEREF _Toc503000305 \h 277
II. La non linéarité comme signal offert par les bruiteurs.  PAGEREF _Toc503000306 \h 279
Section 2. Une nouvelle vision de l'efficience.  PAGEREF _Toc503000307 \h 282
I. L'Efficience Bruitée  PAGEREF _Toc503000308 \h 283
II. L'apport du test BDS.  PAGEREF _Toc503000309 \h 285
Conclusion.  PAGEREF _Toc503000310 \h 286



TABLEAUX


Tableau 1.1. Valeurs seuils du test de LO page 94
Tableau 1.2. Valeurs de H et durée moyenne des cycles
sur le marché américain des actions page 96

Tableau 2.1. Tests de DICKEY et FULLER page 169

Tableau 3.1. Tests d'autocorrélations linéaires page 227
Tableaux 3.2.a-3.2.e. Test BDS page 231
Tableaux 3.3. Tests de racine unitaire page 235
Tableaux 3.4. Test de LO page 237
Tableau 3.5. Test de HSIEH page 239
Tableau 3.6. Kurtosis des rentabilités page 240
Tableau 3.7. Tests ARCH page 241
Tableau 3.8. Régressions ARCH page 242
Tableau 3.9. Régressions GARCH (1,1) page 243
Tableau 3.10. Dimensions des attracteurs page 246
Tableau 3.11. Exp de LYAPUNOV (algorithme de WOLF) page 249
Tableau 3.12. Exposants de LYAPUNOV
(algorithme de KAASHOEK et VAN DIJK) page 251
GRAPHIQUES


Graphique 2.1. Corrélogramme de la fonction logistique page 133
Graphique 2.2. Avant la bifurcation page 135
Graphique 2.3. Après la bifurcation page 135
Graphique 2.4. La poussière de CANTOR page 146
Graphique 2.5. Le flocon de neige de VON KOCH page 146
Graphique 2.6. Attracteur de LORENZ page 148
Graphique 2.7. Attracteur de HENON page 149
Graphique 2.8. Configuration d'un réseau de neurones page 181
Graphique 2.9. Un exemple de prix simulé
par le modèle de DAY et HUANG page 212
Graphique 2.10. Innovation par le modèle de DAY et HUANG page 213
Graphique 2.11. Distribution de l'innovation du processus page 214
Graphique 2.12. Attracteur de l'innovation en dimension deux page 214

Schéma 3.1. Stratégie de test del'Efficience Bruitée page 224
Graphique 3.1. Deux caractéristiques financière et économique
des cinq sociétés page 230
Graphique 3.2.a - 3.2.e. Corrélogrammes des carrés des rentabilités page 240
Graphique 3.3. Dimensions de corrélation page 247
ANNEXES


Annexes 1. Fractals
a. Volutes
b. Vaguelettes
c. L'ensemble de MANDELBROT
d. Le pont

Annexes 2. Stratégies de tests de racine unitaire (ERTUR, 1991)

Annexes 3. Principales fonctions de transfert des réseaux de neurones

Annexes 4. Graphiques des rentabilités quotidiennes
a. Accor
b. Carnaud MetalBox
c. Lafarge Coppée
d. Peugeot SA
e. Valéo

Annexes 5. Calcul de la dimension de corrélation. Log(C(r)) / Log(r)
a. Accor
b. Carnaud MetalBox
c. Lafarge Coppée
d. Peugeot SA
e. Valéo

Annexes 6. Convergence des algorithmes de calcul de l'exposant de LYAPUNOV
a. Accor
b. Carnaud MetalBox
c. Lafarge Coppée
d. Peugeot SA
e. Valéo

















INTRODUCTION




Chassez l'intrus parmi les mots proposés ci-après :
“spéculateur”, “bon père de famille”, “groupe financier”, “organisme de placement collectif”, “comportement animal”, “chevalier blanc”, "chevalier noir”, “arbitragiste”, “contrepartiste”, “investisseur rationnel”, “gourous”.
Ce petit jeu est malheureusement sans solution car les expressions proposées sont issues d'un même univers qui est celui de la finance, des marchés boursiers. Elles représentent des noms ou surnoms donnés à différents intervenants sur les marchés financiers. Ils ont tous en commun le désir de vouloir réduire l'incertitude entourant l'avenir et surtout l'envie de réaliser des profits justifiant leur présence à la Bourse, de rémunérer le risque qu'ils prennent en investissant sur les marchés financiers.
De ce fait, l'évolution du prix des actifs cotés en Bourse intéresse de nombreuses personnes qui peuvent être classées en deux catégories différentes. Cette distinction s'effectue selon la raison qui les pousse à analyser toute information, quelle soit économique, financière, politique ou statistique.
La première est composée des acteurs mêmes du marché financier qui cherchent à comprendre cette évolution pour l'intégrer dans leurs prévisions afin de réaliser des gains lors de transactions avec les autres acteurs. Le but est généralement d'estimer l'évolution future des cours et ainsi de se placer sur le marché pour en tirer un profit et ce sur la base d'informations passées et présentes. Cette catégorie, très hétérogène, regroupe aussi bien des investisseurs institutionnels que des petits porteurs en passant par toute une gamme d'individus dont les motifs sont la rémunération de leurs placements.
La seconde catégorie regroupe surtout les chercheurs qui tentent de déterminer la manière dont les prix transmettent l'information par l'intermédiaire des investisseurs présents sur le marché. Ils cherchent à élaborer des modèles qui leur permettront de comprendre l'évolution des cours boursiers, et éventuellement de tester certaines hypothèses. Les investisseurs présents sur le marché ont longtemps été supposés tous rationnels. Ces travaux théoriques (par opposition à la finalité pratique des recherches effectuées par la première catégorie) utilisent tests, modèles et hypothèses de comportement des investisseurs.
Une autre différence entre les “praticiens” et les “théoriciens” des marchés financiers est que la seconde catégorie a longtemps considéré les investisseurs comme homogènes au sens où ils réalisent tous les mêmes anticipations. A l'inverse, les praticiens constatent qu'il est nécessaire, pour qu'un échange existe, que les anticipations des agents divergent les uns par rapport aux autres.
Notre travail va tenir compte de cette différence possible d'anticipations, sans abandonner la rationalité, qui est une hypothèse importante en finance comme en toute science humaine, afin d'apporter un éclairage nouveau sur l'étude formalisée des marchés financiers. Nous pensons que la rationalité des investisseurs n'est plus un concept monolithique, et que seuls de nouveaux outils statistiques et mathématiques vont permettre d'appréhender ces diverses rationalités dont la plus intéressante nous semble être celle présente chez les bruiteurs.

Bruiteurs et rationalité

Le débat concernant les comportements théoriques des investisseurs sur les marchés financiers a longtemps été restreint à l'opposition rationalité “parfaite” et irrationalité (chapitre 1). Il s'agissait notamment de savoir si les sociétés de Bourse analysent correctement les données fondamentales concernant une entreprise et son environnement socio-économique, financier et politique. La rationalité selon les “fondamentalistes” était donc la possibilité qu'avait un investisseur de connaître toute l'information nécessaire et de pouvoir prédire alors la variation future du prix de l'action de l'entreprise concernée. Le temps que mettait le prix à atteindre la valeur fondamentale était un indicateur de la rationalité des investisseurs présents sur le marché.
Les techniciens, qu'ils soient théoriciens ou acteurs du marché financier, n'existent que parce qu'ils supposent plus ou moins implicitement que les cours des actifs financiers n'intègrent que très lentement l'information. Ils pensent alors pouvoir en profiter par une analyse, parfois graphique, de l'évolution passée du prix de ces actifs. Leurs méthodes, plus ou moins complexes, sont aujourd'hui encore utilisées sans qu'il ait été apporté la preuve de leur fiabilité.
A l'inverse, les quantitativistes défendent une vision rationaliste des marchés financiers dans laquelle l'information est intégrée immédiatement dans les prix par l'ensemble des acteurs du marché financier. Les agents rationnels qui composent ce marché, forment tous des anticipations homogènes. Seule une information nouvelle, inconnue jusqu'alors, peut faire varier ces anticipations. Il découle de ce schéma une évolution aléatoire des cours des actifs financiers.
Cette opposition quelque peu manichéenne a longtemps dominé la théorie des marchés financiers et ce n'est que depuis peu qu'une vision différente intègre d'autres types de rationalité et la cohabitation possible de différents agents sur les marchés financiers.
La discussion de la rationalité a évolué quelque peu en parallèle avec celle d'efficience des marchés financiers. FAMA (1970) définit l'efficience comme la propriété qu'aurait un marché dans lequel les prix intégreraient complètement et simultanément toute l'information disponible et pertinente. La généralité de cette définition pose le problème de pouvoir dériver une hypothèse testable cohérente qui permette sa vérification par des études empiriques. JENSEN, en 1978, donne une définition de l'efficience plus compatible avec la réalité. L'efficience est alors vérifiée si une information oubliée par les investisseurs ne permet pas la réalisation d'un profit suffisant pour couvrir les coûts d'information et de transaction. Cette définition, si elle est plus souple que la précédente ne facilite guère l'analyse empirique. De plus, l'opposition brutale entre tenants et opposants de l'hypothèse de rationalité parfaite des investisseurs accentue ces problèmes.
Une alternative structurée à l'hypothèse de rationalité à été élaborée par BLACK (1986) avec l'introduction du concept de bruiteurs (chapitre 2). SHLEIFER et SUMMERS (1990) nous montrent les multiples facettes des bruiteurs et l'intérêt de ce concept. Cela permet, en effet, de regrouper une grande diversité d'investisseurs sur le seul critère commun d'une utilisation non parfaite de l'information. En effet, les bruiteurs sont des investisseurs qui ne répondent pas au schéma classique du froid calculateur parfaitement informé qu'est l'investisseur rationnel classique. Leur particularité réside dans l'utilisation qu'ils font de l'information dont ils disposent. Il semble possible d'effectuer une analogie avec la classification de SIMON (1978). Les investisseurs rationnels classiques posséderaient une rationalité substantielle alors que l'action des bruiteurs qui maximisent également leur espérance de rentabilité serait mue par une rationalité de type procédurale. Les limites des bruiteurs à la perfection sont internes : même s'ils disposent de toute l'information possible, ils sont dans l'incapacité de l'exploiter complètement. D'ailleurs, il est peu probable qu'ils puissent disposer de toute l'information disponible et pertinente. Cette vision ne doit pas nous limiter à n'envisager que la “veuve de Carpentras” comme agents bruiteurs. Nous montrerons que le comportement bruiteur est multiple ; il peut être celui, par exemple, d'un gros investisseur dont les nécessités professionnelles obligent à limiter le champ d'information et à faire juste aussi bien que les autres : comme certains gestionnaires de SICAV dont le but est avant tout de ne pas faire pire que les concurrents avec les outils disponibles.

Probabilité ou chaos

Le formalisme des travaux théoriques en finance, outre l'abstraction qu'il permet, est dû aux premiers articles traitant du problème et dans lesquels les mathématiques et les statistiques ont une place importante. Nous consacrerons la première partie (chapitre un, deux et trois) de ce travail à développer cette méthodologie dominante issue des travaux de BACHELIER (1900) sur ce qui deviendra plus tard mouvement brownien. Repris par OSBORNE en 1964, cette modélisation statistique des cours va être rapidement liée à l'hypothèse selon laquelle les investisseurs sont rationnels et le marché efficient. Le débat va alors porter, à travers différents modèles, sur l'opposition entre des investisseurs rationnels et d'autres dont l'irrationalité entraîne un dysfonctionnement important et continu du marché qui est décelable par l'analyse probabiliste. Cette opposition est le cadre de nombreuses discussions existant à l'intérieur de ce que nous appellerons maintenant le paradigme probabiliste de l'investisseur rationnel. Les désaccords sont nombreux au sein de ce paradigme, et portent autant sur les hypothèses de comportement que sur des résultats statistiques. Cependant, la question de la pertinence de l'utilisation des probabilités pour décrire les cours boursiers n'est que très rarement discutée.
Notre travail va consister à montrer que la présence de bruiteurs sur un marché financier n'est pas obligatoirement perceptible avec l'utilisation des outils statistiques permettant jusqu'alors de classifier les marchés selon qu'ils sont ou non efficients. En d'autres termes l'efficience des marchés, au sens statistique, est elle réellement le signal de la rationalité des investisseurs ?
Pour répondre à cette question, nous nous appuierons en partie sur les travaux de PETERS (1991) qui remettent en cause la méthodologie inhérente au paradigme probabiliste. Une brève revue historique permet en effet de montrer que l'investisseur rationnel classique est façonné de manière à justifier l'emploi des statistiques. Ces dernières ne sont donc pas la résultante de l'élaboration d'un modèle testable issu d'une description économique des marchés. Aussi, dans la deuxième partie, nous envisagerons la possibilité d'une analyse déterministe des marchés financiers afin de nous libérer de la contrainte imposée par l'emploi des statistiques. Cela n'est rendu possible que depuis les travaux de RUELLE et TAKENS (1971) qui introduisent le chaos déterministe et de MANDELBROT (1975) qui définit la notion d'objets fractals. Le chaos déterministe permet notamment de modéliser des phénomènes complexes à l'aide de modèles déterministes très simples. Il constitue une révolution scientifique (au sens donné par KUHN) et permet une méta-analyse des comportements en s'interrogeant maintenant sur le caractère aléatoire ou déterministe de l'évolution du prix des actifs financiers. Cette distinction ne doit pas être confondue avec la partie déterministe qu'il est possible d'extraire d'un phénomène supposé aléatoire en utilisant des méthodes de régression. Le déterminisme doit être vu ici comme l'explication exhaustive du phénomène. Mais il se distingue fortement du déterminisme newtonien trop lisse et avide de régularités séculaires et qui est aujourd'hui profondément remis en cause. Le chaos déterministe va permettre une représentation a priori simple de phénomènes accidentés et irréguliers (le désordre apparent est le reflet de l'ordre sous-jacent ). Il peut aider à décrire des évolutions là où les probabilités étaient un palliatif de notre incapacité à comprendre le monde. Cette vision des probabilités comme science de l'ignorant est celle de LAPLACE pourtant créateur de concepts fondamentaux en probabilité mais “déterministe” convaincu. Notre deuxième partie sera donc consacrée à la présentation du chaos et des propriétés mathématiques et statistiques qu'il possède. Nous pourrons alors proposer différentes modélisations du comportement des bruiteurs et de leur impact sur l'évolution des marchés financiers à l'aide du chaos déterministe. Nous utiliserons également des outils probabilistes récents que nous ne devons pas négliger et qui reposent sur les phénomènes non linéaires. En effet, le fait d'introduire la possibilité d'une étude déterministe des marchés financiers ne doit pas nous faire oublier l'intérêt du recours aux modèles statistiques. Il s'agit notamment des modèles de type ARCH dont l'intérêt en finance provient en grande partie de leur plus grand réalisme dans l'appréhension des caractéristiques vérifiées empiriquement de nombreuses fois sur de multiples séries financières. Nous envisagerons également la dépendance de long terme et la persistance qui permettent de ne pas limiter l'étude des cours et des rentabilités aux seules relations temporelles de court terme.
Dans une dernière partie, nous réaliserons une étude empirique concernant plusieurs actions cotées sur le marché boursier français. Nous utiliserons pour cela l'importante base de données AFFI-SBF qui porte sur une période allant de 1977 à 1991. La description du marché français des actions à partir de cette base de données a déjà été très importante à la suite des travaux de HAMON et JACQUILLAT (1992). Nous espérons, à partir de données quotidiennes portant sur vingt-quatre actions cotées à la bourse de Paris, compléter cette analyse en vérifiant la présence éventuelle des bruiteurs sur le marché français dont nous chercherons alors à détecter l'impact.
Ainsi, ce travail se donne pour objectif d'utiliser de nouvelles techniques statistiques et mathématiques pour mettre à jour l'existence de bruiteurs sur le marché français des actions. Nous voulons surtout montrer que ces agents, possédant une rationalité procédurale, ne génèrent pas une inefficience marquée du marché. L'insuffisance des tests classiques dans l'étude des séries financières, présentées dans la première partie, nous oblige à envisager une autre méthodologie pour l'étude des bruiteurs. Nous emploierons pour cela le test BDS de BROCK, DECHERT et SCHEINKMAN (1987) que nous rebaptisons pour l'occasion test du Bruiteur Détecté Statistiquement. L'emploi de ce test va nous permettre d'apporter un éclairage nouveau sur la modélisation des marchés financiers. Nous allons l'utiliser comme un test de l'efficience des marchés contre l'hypothèse alternative de marché caractérisé par la présence de bruiteurs.
Les modélisations alternatives proposées par le test BDS comprennent notamment le chaos déterministe et les processus de type ARCH. L'imprévisibilité inhérente à ces deux représentations nous conduit à envisager la possibilité d'un marché bruité mais efficient. En effet, si les bruiteurs génèrent une mauvaise intégration de l'information dans les prix, leur caractère rationnel doit quand même transparaître dans la manière de modéliser leur comportement. En allant plus loin, nous définirons notre concept d'Efficience Bruitée. Nous entendons par là, un marché sur lequel des bruiteurs sont présents mais sur lequel il est impossible de profiter des biais qu'ils entraînent dans la fixation du prix. Ainsi, nous serions en présence d'agents rationnels (ce qui implique l'Efficience...) mais dont les caractéristiques en termes d'analyse de l'information rendent le marché imparfait (...Bruitée).
L'intérêt de notre étude empirique va être de vérifier la possibilité qu'une modélisation intégrant les bruiteurs soit cohérente avec les tests et mesures que nous effectuerons sur les rentabilités quotidiennes de plusieurs actions. Les bruiteurs ont été surtout envisagés par le biais de la représentation théorique. Nous nous appuyons bien entendu sur ces acquis théoriques mais nous cherchons à développer une stratégie d'analyse empirique des bruiteurs. Cette stratégie nécessite le recours à des méthodes récentes tant en statistique (tests BDS, modèles ARCH...) qu'en mathématiques (exposants de LYAPUNOV, réseaux de neurones...). Nous espérons néanmoins que la complexité des outils utilisés laissera la possibilité d'intégrer correctement les caractéristiques récemment envisagées des marchés financiers et ne se révélera pas une sophistication gratuite de l'étude formalisée des séries financières.
La notion d'Efficience Bruitée va donc nous permettre d'offrir, grâce à l'emploi de modèles non linéaires, une prise en compte des bruiteurs sur le marché français des actions qui soit cohérente avec la rationalité procédurale qui les caractérise.

















PREMIERE PARTIE

LE PARADIGME PROBABILISTE
DE L'INVESTISSEUR RATIONNEL

La question de l'efficience des marchés financiers alimente depuis longtemps une part importante de la littérature théorique financière. Le débat reste ouvert et d'actualité car chaque accident boursier fait rejaillir cette problématique. Le problème de la nature de l'évolution du prix des actifs financiers découle du comportement supposé des investisseurs (sont-ils ou non rationnels?) et des mécanismes qui, déduits de ces comportements, engendrent la variation des prix. Depuis le début du siècle et l'article de BACHELIER (1900) l'analyse repose en majeure partie sur des modèles probabilistes plus ou moins complexes. C'est ce schéma intégrant Comportement, Mécanisme et Probabilité qui a servi de paradigme-étalon à toute la littérature financière concernant l'efficience. Cependant le contenant de chacune des trois composantes de ce cadre d'étude est à présent remis en cause.
Cette partie se propose donc de reprendre, dans un premier temps, l'historique de la notion d'efficience des marchés financiers. Cette hypothèse, centrale en finance, est liée à celle de rationalité des investisseurs. Nous voulons donc restituer l'évolution parallèle de ces deux concepts et leur lien avec la construction de modèles testables qui sont généralement la marche aléatoire et la martingale. Cette hypothèse a subi de nombreuses critiques qui visent plus ou moins directement l'hypothèse de rationalité. Cependant de nombreux obstacles sont venus atténuer les conclusions et nous obligent à nous interroger aujourd'hui encore. En effet, ces problèmes sont issus de critiques méthodologiques concernant la validité du lien entre l'hypothèse testée et le modèle utilisé et également le manque de réalisme d'une description des marchés financiers fondée sur l'homogénéité des anticipations des investisseurs.
Une des manières les plus probantes d'intégrer différents comportements sur un marché financier est développée par BLACK (1986) avec l'introduction du concept de “noisy investors” que nous avons traduit par “bruiteurs”. Le chapitre deux de cette partie sera alors consacré à la présentation de ce type d'agent. Nous aurons auparavant présenté un rapide survol de la littérature concernant les spéculateurs afin de pouvoir bien mettre en avant les spécificités des bruiteurs. En effet, ces agents sont définis comme étant rationnels mais n'utilisant pas parfaitement toute l'information. Le modèle de DELONG, SHLEIFER, SUMMERS et WALDMANN (1990) formalise l'action des bruiteurs sur les prix des actions. Il est un des premiers à intégrer ces agents dans l'étude statistique des marchés. Cependant leur modèle ne permet pas de distinguer les bruiteurs rationnels des agents irrationnels tels qu'ils sont classiquement définis.
Pour cette raison nous présenterons de nouvelles techniques de test et de modélisation (chapitre trois) qui ouvrent une première voie de réponse. Il s'agit notamment de l'utilisation des processus de type ARCH (ENGLE, 1982) et des phénomènes de persistance et de dépendance de long terme (SUMMERS, 1986, FAMA et FRENCH, 1988). Ces outils vont permettre de modéliser des comportements qui ne répondent pas aux critères de rationalité tel qu'ils ont été définis jusqu'alors. Ils vont surtout rendre possible la modélisation des comportements bruiteurs en les différenciant de ceux des agents irrationnels.

CHAPITRE 1 : DE L'HYPOTHESE DE RATIONALITE AU MODELE TESTABLE. TC "CHAPITRE 1 : DE L'HYPOTHESE DE RATIONALITE AU MODELE TESTABLE." \l 1 


Nous présentons, dans ce premier chapitre, l'évolution, depuis BACHELIER (1900), des travaux sur l'efficience des marchés financiers. Nous effectuons cet historique en parallèle à l'analyse du comportement des agents financiers car c'est l'interaction des divers acteurs qui crée un mécanisme d'évolution des prix. L'ensemble est alors étudié et testé, ainsi que les hypothèses qui l'ont engendré, par des modèles probabilistes.
La première section est consacrée à l'étude des comportements et des mécanismes d'évolution des prix qui en découlent, alors que la section suivante est une présentation de la traduction probabiliste de ces phénomènes.


Section 1. Comportements et mécanismes. TC " Section 1. Comportements et mécanismes." \l 1 

L'étude de l'évolution des prix des actifs financiers est, à ses débuts, surtout une analyse en termes de statistiques suite aux travaux de BACHELIER (1900). Mais ses travaux sont oubliés jusque dans les années trente (WORKING, 1934). Durant ces années, et notamment en 1936, KEYNES évoque le marché financier comme étant une sorte de gigantesque Casino. Dans cette description du marché, des acteurs à “l'esprit animal” jouent en réponse à certaines pulsions plus qu'ils n'agissent de manière rationnelle. Cette vision, certes caricaturale car négligeant le lien bourse-monde économique, permet néanmoins d'ouvrir le débat sur le thème fondamental des travaux sur l'efficience : les agents financiers sont-ils ou non rationnels ?
Il nous paraît nécessaire, avant de continuer, de définir exactement ce que nous entendons par rationalité des investisseurs. Nous nous référerons pour cela à la définition traditionnellement utilisée en finance.
L'agent rationnel est celui qui maximise son espérance d'utilité sur la base des informations dont il dispose.
Cette définition nécessite d'être précisée et nous nous référons pour cela à la distinction élaborée par SIMON en 1978 entre la rationalité substantive et la rationalité procédurale. La première suppose une information parfaite ainsi qu'une utilisation optimale de cette information du fait d'une capacité infinie de connaissance de tous les états futurs possibles du monde. Un tel individu est alors capable de classer les conséquences de chacun de ses choix possibles et de sélectionner celui qui lui est le plus profitable, ici au sens de la maximisation de son espérance d'utilité. La rationalité procédurale s'appuie sur le fait que l'individu agit sur la base d'un processus de décision approprié mais ayant des limites internes à l'élaboration de son processus de décision. Il ne peut pas utiliser l'ensemble de l'information dont il dispose. Dans le cas de la finance, il peut s'agir d'un investisseur qui maximise son espérance d'utilité (processus de décision correcte) mais avec une utilisation insuffisante de l'information pour aboutir à une solution optimale au sens de la rationalité substantive. Nous considérerons l'investisseur comme agissant dans le cadre de la rationalité procédurale s'il élabore des choix en fonction du caractère raisonnable qu'il impose à sa procédure de décision. Son incapacité à utiliser l'ensemble de l'information fait qu'il ne connaît pas complètement l'impact qu'aura son choix sur sa richesse future. Cependant il agit dans un but de maximisation en utilisant des mécanismes et des logiques de décisions appropriés à son incapacité à utiliser toute l'information.
La vision keynésienne de la bourse assimilée à un casino suppose des agents n'agissant avec aucune des rationalités prédéfinies. En effet cela implique que les agents manquent d'information et ne cherchent pas à en acquérir. De plus ils sont définis comme visant à réaliser des gains supérieurs aux autres mais faciles, sans chercher à mesurer l'impact sur leur richesse finale. Une des principales activités de ces agents irrationnels peut être d'essayer de copier certains autres intervenants. ORLEAN (1989) définit ainsi le mimétisme irrationnel. L'irrationalité provient du fait que rien ne garantit l'exactitude des informations dont dispose l'investisseur copié. Peut-être a-t-il lui même copié un autre investisseur dont il ne sait rien ? Un tel marché devient rapidement irrationnel.
Le débat sur les comportements des investisseurs oppose à l'origine les fondamentalistes et les techniciens. Il porte déjà sur une opposition quelque peu manichéenne entre les défenseurs d'un comportement rationnel des investisseurs et les techniciens, défenseurs d'une logique selon laquelle la bourse est le lieu d'agissements d'agents non rationnels. La différence majeure entre ces deux groupes consiste en l'information qu'un investisseur rationnel devrait utiliser pour battre le marché. Les fondamentalistes estiment qu'il faut une analyse complète des valeurs fondamentales de la société cotée (endettement, croissance, étude des bilans et des comptes de résultats) : les techniciens pensent qu'une étude ,parfois graphique de l'évolution passée des cours suffit à pouvoir battre le marché.
Durant les années cinquante, un troisième groupe est reconnu : les quantitativistes, héritiers des travaux de BACHELIER. Ils défendent une vision rationaliste des agents financiers mais s'opposent aux fondamentalistes sur de nombreux points. Les quantitativistes insistent notamment sur l'évolution aléatoire des cours dans le temps et vont promouvoir l'utilisation intensive des modèles probabilistes. Pour eux les investisseurs sont rationnels et forment des anticipations identiques quant à l'évolution future des actifs.
Le problème de la rationalité va s'avérer être un débat sur la manière dont les investisseurs recherchent et utilisent l'information pour agir. Une définition classique de l'efficience est donnée par FAMA (1970) pour qui :
Un marché financier sera efficient s'il intègre simultanément et complètement toute l'information disponible et pertinente
ROGER (1988) analyse les problèmes liés au caractère trop général de cette formule. Tout d'abord, cela oblige FAMA à établir plusieurs niveaux de caractérisation des marchés efficients qui différent selon la nature de l'information considérée. Il distingue alors trois formes d'efficience qui sont :
- Marché faiblement efficient
Un marché sera faiblement efficient si aucun investisseur ne peut battre le marché avec une stratégie basée uniquement sur les cours passés.
- Marché à efficience semi-forte
C'est un marché sur lequel il est impossible de réaliser des profits supérieurs en utilisant une stratégie tenant compte des cours passés de l'actif et de toute l'information publique disponible. Le problème ici réside dans l'absence d'une définition stricte de l'information publique.
- Marché fortement efficient
Sur un tel marché les prix intègrent même l'information privée. Cette information est celle possédée par les dirigeants d'entreprise, les contrepartistes et les gérants de portefeuille d'OPCVM d'après ROGER.
Cette distinction crée un premier degré de précision par rapport à la définition originelle de FAMA et un pas vers une plus grande testabilité, mais une carence demeure. En effet, comment vérifier la bonne intégration de l'information alors considérée dans les prix ? JENSEN (1978, page 96) apporte une première réponse en donnant une autre définition de l'efficience qui englobe celle de FAMA, ou plus exactement qui intègre mieux les possibilités des investisseurs sur un marché financier :
 Un marché est efficient, au regard de l'ensemble d'information Qðt, s'il est impossible de réaliser des profits économiques en agissant sur la base de cet ensemble d'information Qðt .
Cette définition répond au problème des coûts de transaction en les intégrant implicitement. En effet, le profit économique est le gain issu des transactions net de tout coût qu'il soit d'information ou de transaction. Ainsi avant de juger une stratégie a priori profitable, il faut retirer les coûts de transaction qu'elle a engendré. FAMA, en 1991, reprend la définition de JENSEN en la considérant comme “économiquement plus raisonnable”. Les résultats de nombreuses études empiriques concernant l'efficience faible montrent qu'une part des rentabilités futures est explicable par les rentabilités passées. Cependant, FAMA (1991), s'appuyant sur la définition donnée par JENSEN, insiste surtout sur la très faible part des rentabilités futures qu'expliquent les rentabilités passées et présentes dans ces travaux empiriques. Il est alors impossible de battre le marché compte tenu des coûts d'information et de transaction. L'hypothèse d'efficience est ainsi respectée.
Le problème de savoir s'il est possible ou non de réaliser des profits nets et donc de battre le marché va être en fait lié étroitement au problème concernant le comportement des investisseurs. L'ensemble des investisseurs est-il rationnel auquel cas il est impossible de réaliser ces profits nets de tout coût, ou bien au contraire existe-t-il une irrationalité générale de la part de ces investisseurs dont il est possible de profiter ? ROGER (1988) souligne l'incompatibilité de cette description avec la réalité où des agents aux comportements et aux anticipations hétérogènes se rencontrent quotidiennement sur les marchés financiers. Pourtant, en reprenant FAMA (1991), nous utilisons encore cette définition théorique de l'efficience comme étant une description étalon à partir de laquelle il est possible d'élaborer différentes descriptions des marchés financiers.
La présence d'agents aux comportements particuliers engendre-t-elle une évolution des prix qui diffère fortement de celle que l'efficience suppose ? Nous allons, d'ailleurs, maintenant aborder rapidement la question du comportement telle qu'elle est considérée dans les différents courants de théorie financière.



I. Les comportements. TC " I. Les comportements." \l 1 

1. L'investisseur rationnel. TC " 1. L'investisseur rationnel." \l 1 

L'investisseur rationnel est une personne qui agit sur la base de toute l'information nécessaire qu'il sait interpréter à l'aide de probabilités objectives et subjectives établies de manière non biaisée, et concernant les différents états futurs de la nature. Son objectif lors de ce programme est la maximisation de son espérance d'utilité.
Supposons un actif dont le prix est aujourd'hui de 150 francs. L'investisseur rationnel connaît les scénarios possibles concernant l'évolution future de cet actif. Il existe d'après lui deux états possibles de la nature : bon ou mauvais. Si demain l'état de la nature est bon, l'actif cotera 161 francs, sinon il cotera 146 francs. Il sait affecter à ces différents états de la nature des probabilités de réalisation qui sont ici par exemple de 40% pour la première possibilité et 60% pour la seconde. La valeur future anticipée est alors de 0,4*161+0,6*146 = 152 francs. Anticipant donc le passage du prix de l'actif de 150 à 152 francs, l'investisseur achète l'actif afin de réaliser un profit de 2 francs auquel il faut cependant déduire les frais de transactions dus à cette opération.
Cet exemple illustre la logique de l'investisseur rationnel. Cependant, la théorie du portefeuille et l'analyse des comportements en termes d'espérance-variance (MARKOWITZ, 1952, 1959) vont donner à l'investisseur un autre rôle que celui de gérer selon la stratégie naïve décrite précédemment. Un actif, selon cette théorie, est caractérisé par son espérance de rendement et la variance de ce rendement qui représente le risque encouru par sa possession. L'investisseur, sous l'hypothèse qu'il est risquophobe, va donc construire un portefeuille composé de différents actifs afin de minimiser le risque encouru pour une espérance donnée.
LEROY (1989) rappelle le rôle de l'agent financier qui va se limiter à gérer ce portefeuille. Cela se compose de deux tâches qui sont la diversification et l'adaptation au risque. La diversification consiste à acheter un nombre important d'actifs différents afin d'éliminer le risque spécifique. L'adaptation au risque fait revoir la composition du portefeuille afin de garder constant le niveau de risque souhaité du portefeuille. Le rôle de l'analyste ici se réduit à intégrer dans sa stratégie des variables économiques et politiques non pour battre le marché mais pour aider à l'adaptation du portefeuille aux conditions fluctuantes du marché. Il semble que dans un marché où les cours intègrent l'information de manière efficace, les agents soient relativement passifs en termes de stratégie. Leur rôle se limite à suivre le marché, ou plus exactement à se confondre à ce marché sans pouvoir le dominer.
Cette vision de l'investisseur n'est pas sans rappeler celle de l'homo œconomicus tant critiqué par nombre d'auteurs, et ce depuis la naissance de la science économique. MINGAT, SALMON et WOLFELSPERGER (1985, pages 412-433) donnent une vision globale de cette notion. Ce n'est pas tant son caractère égoïste (SMITH, 1776) ou sa motivation uniquement pécuniaire (MILL, 1844) qui nous intéresse ici, mais plutôt son rôle dans l'élaboration d'une théorie testable. Ce “calculateur froid” aurait d'ailleurs été introduit en théorie financière plus pour appuyer l'utilisation des modèles probabilistes par les quantitativistes que pour fonder la théorie de l'efficience (PETERS, 1991). Cependant, et pour reprendre l'argument de FAMA (1991, page 1575), la rationalité, et avec elle l'efficience du marché, est un excellent repère pour des travaux ultérieurs tentant de cerner les comportements sur les marchés financiers. De plus, si les coûts de transactions et d'information couvrent le profit que génère la connaissance d'une information supplémentaire, alors l'efficience est vérifiée au sens de JENSEN. Le but des opposants à cette vision des marchés financiers est de montrer qu'en postulant la non rationalité des investisseurs, il est possible de définir un modèle dont le pouvoir prédictif est supérieur à celui qui suppose la rationalité.

2. L'investisseur irrationnel. TC " 2. L'investisseur irrationnel." \l 1 

Les travaux de BACHELIER ayant été ignorés pendant un peu plus de trente ans, la vision de l'investisseur est, au début du siècle, plus proche de celle défendue par KEYNES (1936). Il n'est pas encore défini d'homo-financius à l'instar de l'agent économique des auteurs classiques. Les agents financiers sont incapables d'utiliser correctement toute l'information pertinente (c'est à dire pouvant avoir un impact effectif sur le prix de l'actif) et il est alors possible à l'investisseur averti de profiter de ce mauvais fonctionnement du marché. Le débat porte alors sur la manière dont le dysfonctionnement est repérable et dont il est possible d'en tirer profit. Il oppose les techniciens et les fondamentalistes qui se basent notamment sur l'article de WILLIAMS (1938).
Les techniciens supposent que cette imperfection du marché va entraîner un trend dans la série des prix de l'actif et qu'il sera alors possible d'anticiper l'évolution future des cours par une simple étude, statistique ou graphique, des cours passés. ALEXANDER (1961) définit une stratégie du filtre qui utilise finalement cette caractéristique du marché de posséder un trend. Considérons par exemple, un filtre à x%. L'investisseur achète si le cours augmente de x% et ne revendra que lorsque le cours diminue de x%. Il n'agit pas pour des variations cumulées d'ordre inférieur à x%. ALEXANDER teste sa technique pour des filtres allant de 5 à 50 %. Les résultats sont peu concluants. FAMA (1965) montre que si l'on intègre les coûts de transactions, une stratégie fondée sur le filtre est un échec comparé à une technique naïve.
Une autre méthode utilisée par les techniciens est celle de la moyenne mobile. La moyenne mobile Mt(k) d'un cours Ct au temps t se construit par simple moyenne arithmétique des k cours passés. Un exemple simple de stratégie consiste à acheter l'actif quand son cours franchit à la hausse la moyenne mobile calculée sur les k valeurs antérieures et à vendre lorsque le cours franchit la moyenne mobile à la baisse. Les techniciens élaborent des techniques plus complexes par confrontation de différentes moyennes mobiles d'ordres différents. Le croisement du cours avec une moyenne mobile de long terme est alors toujours interprété comme un signal d'achat ou de vente. Mais cela dépend également d'une moyenne mobile de court terme et de son positionnement par rapport à la moyenne mobile de long terme. Le problème de ces techniques est l'importance trop grande donnée au seul indicateur moyenne mobile qui est une estimation sommaire de la valeur fondamentale de l'actif.
Enfin, une des méthodes les plus connues parmi celles employées par les techniciens est le chartisme. Cette méthode consiste en une analyse graphique, plus ou moins complexe, de l'évolution des cours grâce à laquelle il est possible de déceler les tendances. Le chartisme fonctionne énormément aussi avec le principe des moyennes mobiles.
Que ce soit avec la méthode du filtre, des moyennes mobiles ou l'analyse chartiste, les techniciens remettent en cause l'efficience à son niveau le plus faible. En effet ils fondent toutes leurs stratégies sur la possibilité de trouver dans les cours passés, une information dont l'utilisation engendre des profits significatifs.
Les fondamentalistes postulent eux aussi l'existence d'un trend, significatif de l'inefficience du marché. Ils travaillent sur les caractéristiques des marchés et postulent que des informations fondamentales d'une entreprise permettent d'aider à la prévision des cours. Il existe, selon eux, pour chaque actif une valeur fondamentale autour de laquelle évolue le prix ; cette valeur intrinsèque est égale à la somme actualisée des dividendes auxquels donne droit cet actif. Cependant les investisseurs n'utilisent pas de manière correcte toute l'information économique (macro-économique ou liée à la firme) et politique qui permet de déterminer cette valeur fondamentale d'un actif vers laquelle le prix va inéluctablement tendre. Une étude de ces variables omises permet alors de battre régulièrement le marché. Il suffit d'acheter lorsque le prix est inférieur à la valeur fondamentale et de vendre lorsque l'inverse se produit.
Parmi les travaux les plus récents des fondamentalistes, il y a ceux de OU et PENMAN qui, en 1989, établissent une mesure basée sur l'analyse financière et qui permet de réaliser des bénéfices que ne justifie pas uniquement la rémunération du risque. Cette mesure notée Pr est censée indiquer l'évolution des bénéfices de la société cotée et déterminer alors la stratégie à entreprendre. OU et PENMAN établissent la règle de décision suivante :
(1) Choisir par simple corrélation et sur la base d'une période passée et présente les variables permettant de connaître l'évolution à un an des bénéfices. Ces variables sont sélectionnées parmi celles qui sont susceptibles d'influencer les bénéfices d'une entreprise (stock, chiffre d'affaires, ratio d'endettement ...);
(2) Déterminer alors, à partir de cette information, la probabilité que les bénéfices annuels prochains augmentent ou diminuent. OU et PENMAN utilisent un modèle Logit de la forme :
 (1.1)

Xit est le vecteur des informations choisies lors de l'étape (1) au temps t et pour la société i.
B est le vecteur des cœfficients inconnus à estimer
Prit est la probabilité que les bénéfices de la société i augmentent en t+1;
(3) Calculer, après estimation des paramètres du modèle de l'étape (2), une probabilité de hausse des bénéfices pour chaque firme à l'horizon d'un an;
(4) La stratégie proposée par OU et PENMAN est de prendre une position longue lorsque  est supérieure à 0,6 et courte lorsque  est inférieure à 0,4. C'est à dire qu'en suivant cette stratégie, il faut acheter l'action cotée lorsque la probabilité de hausse des bénéfices à l'horizon d'un an est supérieure à 0,6.
Cette stratégie est typique de celles développées par les fondamentalistes. Elle suppose que l'information liée aux bénéfices est insuffisamment prise en compte par les investisseurs et qu'il est possible de réaliser des gains importants en l'intégrant dans sa stratégie. Implicitement, les auteurs supposent que le prix va tendre vers la valeur fondamentale déterminée en majeure partie par l'évolution des bénéfices (postulat majeur chez les fondamentalistes). STOBER (1992) conforte les travaux de OU et PENMAN en les comparant aux prévisions réalisées par les analystes disponibles sur I/B/E/S. Cependant, cette mesure est rapidement critiquée puisque GREIG (1992) conteste la méthodologie employée par OU et PENMAN et conclut au risque que la mesure Pr ne soit rien d'autre qu'une mesure de l'effet taille de l'entreprise. Une prise en compte de la taille de l'entreprise réduit, voir annule, le rôle de la mesure Pr dans la réalisation de gains d'investissement.
SHILLER (1984) et SUMMERS (1986) montrent que le prix peut diverger durablement de la valeur fondamentale. Une telle situation rend alors inopérante une stratégie qui mise sur un retour assez proche du prix vers la valeur. Une autre critique faite aux fondamentalistes en général correspond à la difficulté d'estimer sans biais la vraie valeur fondamentale. Cependant cette difficulté est inhérente au caractère fluctuant de l'économie et de la finance et justifie ainsi l'existence d'analystes financiers. Le rôle de ces derniers est d'interpréter l'information spécifique afin de pouvoir donner, sans erreur, la valeur intrinsèque de l'actif et de permettre l'élaboration d'une stratégie.
Il existe donc des professions (chartistes, analystes) au sein desquelles on essaie, grâce à des techniques plus ou moins complexes, d'anticiper les cours et de réaliser des profits fructueux sur la base de la méconnaissance des autres investisseurs. Cela suppose une vision selon laquelle les financiers sont considérés comme agissant de manière hétérogène et désordonnée. En effet, s'ils avaient agi selon une stratégie commune, ils constateraient rapidement les gains supérieurs des techniciens et des fondamentalistes et intégreraient cela dans leur propre stratégie.
Ces comportements induisent, comme nous l'avons entrevu précédemment, un mécanisme d'évolution des prix par les échanges d'actifs auxquels ils aboutissent. Selon la nature supposée des investisseurs, il en découle un comportement en rapport avec un marché de concurrence pure et parfaite, ou bien à l'inverse, un marché où des irrégularités dans l'évolution des prix vont être décelables.

II. Les mécanismes d'évolution des prix. TC " II. Les mécanismes d'évolution des prix." \l 1 

La question de la rationalité des investisseurs concerne également les mécanismes conduisant à l'évolution des prix constatée empiriquement sur les marchés. L'hypothèse longtemps dominante est celle d'un fonctionnement similaire à celui d'un marché des biens de concurrence pure et parfaite. Appliquée à la finance, cette hypothèse empêche quiconque de battre le marché. Une grande majorité des travaux liés à l'efficience des marchés va s'attacher à découvrir des imperfections qui remettent en cause ce modèle idéal. Mais le lien avec l'idée communément admise en économie d'existence d'un équilibre stable fait que le débat reste ouvert et l'efficience possède encore beaucoup de défenseurs.

1. Analogie avec un marché de concurrence pure et parfaite. TC " 1. Analogie avec un marché de concurrence pure et parfaite." \l 1 

La science économique développe le modèle du marché de concurrence pure et parfaite très tôt. Ce modèle repose sur six axiomes que le marché financier vérifie complètement et dont le principal est celui d'atomicité qui permet d'expliquer de quelle manière la rationalité de chacun permet d'aboutir à la fixation du prix à son équilibre. SAMUELSON (1965) évoque un marché où les agents ont des préférences communes et constantes dans le temps, calculent des probabilités communes et sont neutres face au risque. Le très grand nombre d'acheteurs et de vendeurs qui agissent chaque jour en Bourse sont donc supposés émettre des anticipations communes. Cette atomicité garantit la rationalité de l'ensemble par le principe du “Safety in numbers” comme l'explique PETERS (1991). La présence d'un grand nombre d'acteurs garantit une rationalité collective en ce sens qu'il paraît impossible qu'un si grand nombre d'agents se trompe. Et dans le cas où certains commettent régulièrement des erreurs, ils sont alors éliminés du marché. La rationalité collective est donc implicitement liée à la rationalité individuelle. Les investisseurs arrivent à fixer le prix à son équilibre par leurs actions communes. Cette dernière propriété est la suite logique du caractère rationnel des agents. En effet si chacun sait, sans erreur, interpréter l'information disponible, les résultats sont identiques pour tous les investisseurs. Comme le souligne LEROY (1984), la théorie de l'efficience est une extension de la concurrence pure et parfaite appliquée à la finance. La bourse permet donc d'atteindre un équilibre concurrentiel avec des agents rationnels. Le problème est de savoir de quel équilibre il s'agit.
Les fondamentalistes défendent l'idée selon laquelle le prix d'équilibre est celui qui égalise l'offre et la demande sur la base de toute l'information économique et politique utilisable. Le prix tend donc à être simplement la valeur fondamentale. Si cette dernière varie dans le temps (univers économique changeant), il y aura adaptation des anticipations et donc des périodes transitoires de déséquilibre qui dépendront de l'état du marché autant que des conditions économiques (BEJA et GOLDMAN, 1980). L'état du marché va déterminer la rapidité avec laquelle l'information va être intégrée au cours de l'actif. Plus cela se fait rapidement, plus vite le marché peut être défini comme à l'équilibre. Le problème soulevé par les fondamentalistes vis-à-vis de l'efficience du marché est la lenteur éventuelle de l'ajustement du prix à l'information et donc du rapprochement entre le prix et la valeur.
Ce sont les quantitativistes qui imposent la condition de rapidité comme possible et nécessaire à l'efficience du marché. Ils justifient cela par le fait que sur un marché efficient il doit être impossible d'effectuer des arbitrages générateurs de profits réguliers. Les travaux de WORKING (1934) confirmés par KENDALL (1953) ont montré le caractère aléatoire de l'évolution des prix. L'article empirique de KENDALL effectué sur 22 séries de prix hebdomadaires (séries allant de 1928 à 1938) et mensuelles (1883-1934 et 1816-1951) met à jour une composante aléatoire importante dans l'évolution de ces séries. Il appuie cela par la faible autocorrélation constatée dans les prix. A partir de là, le caractère aléatoire de l'évolution des prix des actifs financiers est établi. ROBERTS (1959) fournit ensuite une justification théorique à ce caractère aléatoire. D'abord il détruit l'argumentation des techniciens en montrant qu'une série générée de manière aléatoire peut présenter elle aussi un caractère se prêtant aux multiples interprétations chartistes. Cependant, la méfiance des financiers vis-à-vis du caractère aléatoire de l'évolution des prix rend ROBERTS prudent et le pousse à envisager la possibilité de réaliser des prédictions : “It might be still possible to attain a degree of predictability better than that given by knowledge of past relative frequencies”. De plus comment justifier la rationalité des investisseurs en prônant une évolution non contrôlée ?
La réponse est que les cours intègrent l'information si rapidement que seule une nouvelle information non déjà prise en compte peut générer un mouvement futur des prix. L'évolution aléatoire des prix est donc la preuve d'une parfaite efficience des marchés. En effet s'il était possible d'utiliser une part même infime de l'information passée dans la stratégie de prévision élaborée aujourd'hui, ce serait le fait d'une irrationalité de la part des investisseurs dans leur ensemble.
Rappelons cependant que BROWN, HARLOW, TINIC (1988) développent un modèle (Uncertain Information Hypothesis) où la rationalité ne suppose pas obligatoirement une intégration immédiate de l'information dans les prix. Ils posent quatre hypothèses à leur théorie :
- les investisseurs sont rationnels et forment des anticipations rationnelles;
- ils sont risquophobes;
- le marché intègre toute l'information utile rapidement;
- les surprises les plus importantes sont classées comme bonnes ou mauvaises mais leur impact complet sur les prix est incertain.
Une mauvaise nouvelle provoquera ce qui semble être une surréaction, alors qu'une bonne nouvelle fera croire à une sous-réaction. Dans les deux cas l'actif sera sous-coté par rapport à l'influence normale que devrait avoir l'information. Une mauvaise information fait peur et une bonne information est intégrée, mais avec méfiance. Or, à la différence de DEBONDT et THALER (1985), il n'est pas question ici de surréactions régulières imputables à l'inefficience du marché. Dans le modèle de DEBONDT et THALER, le marché surévalue l'impact d'une bonne nouvelle (le prix est alors trop élevé) comme d'une mauvaise nouvelle (le prix est alors trop bas). Un rattrapage s'opère ensuite pour effacer cette première surréaction. Dans le modèle de BROWN, HARLOW et TINIC, il s'agit simplement d'une variation du risque systématique induite par le caractère incertain de l'information. Cette augmentation du risque entraîne une hausse de la rentabilité requise par les investisseurs de nature risquophobe. Le prix évolue alors jusqu'à retrouver le niveau qui aurait dû être le sien si l'information n'avait pas été incertaine. Le problème de ce modèle est qu'il suppose un délai dans l'analyse de l'information par les investisseurs. Et en supposant la rationalité de ces derniers, comment une information même incertaine peut-elle enrayer leurs calculs ?
Le paradigme dominant reste le modèle d'un marché de concurrence pure et parfaite où agissent une infinité d'agents rationnels qui forment des anticipations homogènes.

2. L'impossibilité du profit par arbitrage. TC " 2. L'impossibilité du profit par arbitrage." \l 1 

Une des caractéristiques d'un marché efficient est l'impossibilité de réaliser des profits d'arbitrage sans risque. Autrement dit, il n'est pas envisageable de battre le marché en profitant d'une information dont le marché n'a pas eu connaissance. Dans le cas inverse cela signifierait que l'ensemble du marché ignore une information excepté l'arbitragiste qui va alors en profiter. L'information regroupe ici différents contenus selon la nature de l'efficience étudiée (faible, semi-forte ou forte). Cette possibilité d'arbitrage est parfaitement contraire à l'hypothèse d'efficience.
MANDELBROT (1971) définit les conditions nécessaires à l'existence d'un marché parfaitement arbitré. Pour cela il suppose que P0(t), la série des prix résumant les effets de l'offre et de la demande en l'absence d'arbitrage, est un processus stationnaire à variance finie. Cette série est même supposée suivre une martingale. Le but de l'arbitrage est, d'après MANDELBROT, de remplacer P0(t) par une série P(t) qui est aussi une martingale et qui possède la propriété que |P0(t) - P(t)| est bornée. De plus, la variance de cette différence est également bornée et aussi petite que possible et P(t) est liée linéairement à P0(t). Avec cela une condition suffisante à l'existence de P(t) (donc la possibilité d'un arbitrage efficient) est que la dépendance statistique entre P0(t) et P0(t+s) décroisse rapidement. La série des prix non arbitrés est inobservable. MANDELBROT montre qu'il suffit que les variations de la série des prix arbitrés soit non corrélées pour que la martingale soit acceptée. Sous une autre forme, on retrouve ici le fait que sur un marché efficient, l'arbitrage doit se faire sans permettre de profit et que la série des prix doit présenter une corrélation s'annulant très rapidement. Autrement dit l'information doit être intégrée dans les prix immédiatement. Cependant GROSSMAN et STIGLITZ (1976) soulèvent le problème du coût de l'arbitrage. Ils déduisent que l'arbitrage n'est en effet possible que s'il est gratuit. Nous préférons nous référer à la définition de JENSEN (1978) pour qui un marché efficient est celui pour lequel le coût de la recherche d'information supplémentaire est égal au gain qui en découle.
Un marché efficient tel qu'il est décrit suppose qu'aucune information n'est utilisable pour battre le marché. La critique de l'efficience va se faire justement sur cette recherche d'une information non prise en compte.

3. Anomalies et irrationalité collective. TC " 3. Anomalies et irrationalité collective." \l 1 

Les mécanismes par lesquels les transactions des investisseurs transmettent des informations reflétées par les prix ont été explicités dans le cas d'investisseurs rationnels. De nombreux chercheurs cependant ont voulu établir l'éventuel biais de cette théorie de l'efficience des marchés. LEROY (1989) souligne d'ailleurs le problème méthodologique qui consiste à publier surtout des travaux falsifiant, au sens poppérien du terme, une théorie établie plutôt que des travaux la confortant. Malgré ce biais, il semble nécessaire d'effectuer une étude succincte de ces critiques qui, comme l'élaboration même de l'efficience, sont constructives (FAMA, 1991).
Ces anomalies par rapport au schéma idéal du marché efficient sont de deux types. Les premières s'appuient sur les variables économiques qui semblent ne pas être prises en compte par les investisseurs. Les secondes relatent les effets particuliers constatés dans l'évolution du prix des actifs et qui sont le symbole d'une imperfection du marché. Nous nous situons ici plus particulièrement dans ce que FAMA (1991) appelle les tests pour la prédictabilité des taux de rendements dans sa nouvelle classification des tests d'efficience. Nous verrons très rapidement un exemple de critiques de l'efficience basées sur l'étude événementielle.
Il est cependant difficile de conclure à partir de ces travaux car ils supposent qu'une information n'est pas prise en compte à partir du moment où elle provoque un rendement anormal par rapport à un taux de rendement espéré. BROWN et WARNER (1980) définissent différentes  rentabilités anormales en insistant sur les différentes formes existantes de rentabilités normales. Un tel test sera donc basé sur l'équation :
Rt = Et-1 (Rt) + eðt (1.2)
Cette équation compare un taux de rentabilité espéré a priori à un taux effectif connu a posteriori. L'hypothèse de taux de rendement anticipé constant (Rt = r + eðt) étant très peu utilisée, on définit un modèle d'évolution de ce taux.
 Rentabilités ajustées au risque et au marché
L'espérance de rentabilité a priori est établie le plus souvent sur la base du MEDAF (Modèle d'Equilibre Des Actifs Financiers) de SHARPE (1964) et LINTNER (1965) qui est de la forme :
E(Rit) = rf + bð [E(Rmt)-rf] (1.3)

rf : taux sans risque
Rmt : taux de rentabilité du portefeuille de marché
Rit : taux de rentabilité de l'actif i au temps t
bð : CSfficient de sensibilité
L'emploi de ce modèle suppose que le bð est la seule mesure du risque nécessaire pour expliquer l'espérance de rentabilité. Or STAMBAUGH (1982) sur le NYSE de 1953 à 1976 puis FAMA et FRENCH (1991) sur le NYSE, l'AMEX et le NASDAQ de 1963 à 1990 constatent un très faible pouvoir explicatif du bð sur la rentabilité moyenne.
 Rentabilités ajustées au marché
Cet ajustement est un cas particulier du précédent qui suppose que le bð, cSfficient de volatilité, est égal à un pour tous les actifs i.
E(Rit) = E(Rmt) (1.4)
 Modèle APT (ROLL et ROSS, 1980)
 (1.5)
Dans le cas présent, l'espérance de rentabilité est fonction linéaire de plusieurs facteurs (fi) économiques et financiers notamment, et de gði qui sont les poids du facteur i dans l'explication de l'espérance de rentabilité. Ces facteurs explicatifs de l'espérance de rentabilité peuvent prendre en compte le risque mais également d'autres informations déterminées par une analyse factorielle (critiquée par SHANKEN, 1982), une analyse de variance ou la théorie financière. Cependant FAMA (1991) souligne qu'il est impossible de déterminer a priori le nombre de facteurs à inclure dans le modèle.
CHEN, ROLL et ROSS (1986) comparent les deux approches et constatent que l'inclusion du bð dans un modèle à plusieurs facteurs n'apporte pas beaucoup et que le poids explicatif du bð reste très faible. Cependant FAMA (1991, page 1595) s'interroge sur la fiabilité du modèle à plusieurs facteurs développé par CHEN, ROLL et ROSS et qui n'a malheureusement pas été testé hors de son échantillon d'estimation.
 Efficience faible
Pour un test d'efficience faible, il faut supposer implicitement que l'espérance de rentabilité est nulle donc que E(Rt)=0. Le test porte sur la nature du résidu d'un modèle qui s'écrit alors Pt = Pt-1 + eðt  où Pt est le prix de l'actif.
L'analyse des séries financières et plus particulièrement le test d'efficience semi-forte consiste en l'étude du comportement des prix comparativement à un modèle censé donner une représentation exhaustive de l'information publique. Cela permet d'étudier l'évolution du cours de l'actif une fois retirés les effets communs à toutes les actions. Nous sommes donc en présence d'un test joint qui, lorsqu'il réagit négativement, rejette soit l'efficience, soit le modèle d'évaluation, soit les deux. Toute conclusion est alors sujette à caution, et ne permet pas véritablement de clore le débat.
Jusqu'en 1970 les critiques portées à la théorie des marchés efficients cherchaient surtout à mettre à jour la possibilité de prévoir les cours futurs sur la base des cours passés de l'actif. Depuis, de nombreux travaux tentent de prouver l'inefficience des marchés financiers par la non intégration dans les cours d'une information liée à certaines variables économiques ou par l'existence de saisonnalités qui ne semblent pas arbitrées puisque toujours présentes. Nous donnons ici quelques exemples de ces travaux contredisant l'efficience et les débats qu'ils ont créés. Ces exemples sont issus d'une littérature très riche sur le sujet qui nous empêche toute tentative d'exhaustivité.

Le ratio prix/bénéfice (PER).
BASU (1977) constate sur le NYSE que les actions d'entreprises présentant un ratio PER faible ont un rendement significativement supérieur aux actions d'entreprises ayant un ratio élevé. Il conclut à une imperfection du marché qui n'intègre l'information liée au ratio que progressivement. Cela est vrai même lorsque les rentabilités sont ajustées au risque par un modèle d'évaluation de type MEDAF ou APT. DEBONDT et THALER (1985) confirment ces résultats et développent l'idée selon laquelle cet effet serait en grande partie le résultat d'un effet Janvier. Nous avons également déjà envisagé les travaux de OU et PENMAN pour lesquels le bénéfice (et les informations qui y sont liées) permettent d'obtenir de meilleures prévisions sur l'évolution du prix de l'actif.
HAMON et JACQUILLAT (1992) réalisent, entre autres, des tests pour mesurer cet effet PER sur le marché boursier parisien. Ils constatent un effet Bénéfice/Prix quel que soit le niveau de la capitalisation de l'actif. Des portefeuilles constitués d'actifs à ratio B/P important ont une rentabilité plus élevée que des portefeuilles à faible ratio B/P.
La taille de l'entreprise.
BANZ (1981) montre que les petites firmes ont des taux de rentabilité ajustés au risque plus élevés que les grandes firmes. Il constate un problème de spécification car l'effet taille n'est pas linéaire. Pour lui, l'effet P/B ne signale en fait rien d'autre que l'effet taille. En effet, les firmes de petite taille génèrent moins d'information donc plus d'incertitude. Il s'ensuit un risque plus grand, donc une meilleure rentabilité. REINGANUM (1981) confirme cette dernière hypothèse et pense que les deux effets sont le signal d'un même ensemble de variables oubliées.
HAMON et JACQUILLAT mettent en évidence la présence d'un effet taille sur le marché français. Les entreprises de petite taille (faible capitalisation) ont une rentabilité plus forte que les entreprises de grande taille : est-ce la rémunération du risque ? Il faut souligner que contrairement à ce qui se passe sur le marché américain ce rapport est inversé en début d'année en France. Les entreprises à forte capitalisation présentent une plus forte rentabilité sur les cinq premières séances de l'année.

Les dividendes.
Une manière de tester le manque de réaction du marché à une information est l'étude événementielle (FAMA, 1991). Il s'agit d'observer la réaction des cours à une annonce ou un événement particulier. C'est dans cette classe que se situe l'article de CHAREST (1978). Son étude révèle une réaction étalée dans le temps à l'annonce des dividendes par la société cotée en bourse. Il rejette l'efficience sur le New-York Stock Exchange pour la période 1947-1967. D'autres travaux utilisant différentes mesures du risque confortent la lenteur du NYSE à assimiler l'information liée aux dividendes. FAMA et FRENCH (1988a) travaillent aussi sur cette idée en insistant sur le fait que le ratio de dividende (Div(t)/Prix(t) ou Div(t)/Prix(t-1)) a une influence croissante sur les cours au fur et à mesure que l'horizon augmente. Ils vérifient que les dividendes aident à prévoir, sur le NYSE de 1927 à 1986, 20 à 25 % du taux de rendement de l'indice pour un horizon de quatre ans. Or ce taux n'est que de 2 à 3 % pour la prévision mensuelle.
HAMON et JACQUILLAT constatent également la présence de cet effet sur le marché français par une étude événementielle. Le jour du paiement du dividende la rentabilité est “en excès de 0,548 % en règlement mensuel et de 0,467 % au comptant”. Ils réalisent ce calcul sur la base de 4812 versements de dividendes et ces rentabilités en excès sont significativement non nulles.

Les saisonnalités.
Nous passons ici rapidement en revue quelques uns des nombreux effets saisonniers présents dans la littérature financière. Le plus important est sans doute l'effet janvier mis en avant par KEIM (1983) et ROLL (1983). Les actions d'entreprises à faible capitalisation ont un rendement plus fort en janvier que les autres mois. DEBONDT et THALER (1985) confirment cela et le lient à l'effet taille. Citons également l'effet lundi (FRENCH, 1980) à cause duquel les rentabilités sont négatives le lundi et positives les autres jours.
Sur le marché français HAMON et JACQUILLAT montrent que la probabilité d'un détachement de coupon le lundi est supérieure à celle des autres jours (38,5 % contre 17,37 % en moyenne les autres jours). En mesurant l'effet lundi sur un indice avec dividendes réinvestis, l'effet lundi s'il n'est pas annulé est fortement réduit. Dans le cas de l'indice équipondéré il serait nécessaire d'effectuer un test supplémentaire afin de s'assurer que cet effet est bien significatif. En effet, dans le tableau de la page 173 de leur livre, HAMON et JACQUILLAT donnent comme cœfficient 0,083 au lundi et 0,117 au mardi dans l'équation ayant les rentabilités de l'indice équipondéré avec réinvestissement de dividendes comme variable expliquée. Ces cœfficients sont certes significativement non nuls mais aucun test ne précise s'ils sont significativement différents l'un de l'autre.
Ces effets, pour autant qu'ils soient présents dans la littérature financière, ne proposent pas réellement de justifications théoriques à ce qu'ils mettent à jour. Il s'agit de critiques d'un modèle établi sans que des modèles théoriques alternatifs soient présentés.

4. Et pourtant, on parle toujours d'efficience. TC " 4. Et pourtant, on parle toujours d'efficience." \l 1 

Malgré la multitude d'anomalies détectées, l'efficience reste un paradigme dominant en finance. Premièrement, les tests utilisés sont des tests joints. Le rejet de l'hypothèse nulle d'efficience des marchés n'est donc jamais certain quel que soit le résultat du test. KLEIDON (1988) montre que ces résultats ne signifient pas obligatoirement inefficience. En effet, la distorsion des prix par rapport à un modèle d'évaluation devrait surtout remettre en cause le modèle plutôt que l'hypothèse d'efficience. Dans les travaux sur les anomalies, le modèle de SHARPE-LINTNER utilisé s'avère biaisé car le bð (cSfficient de sensibilité) est un facteur de détermination de la rentabilité espérée insuffisant. Par exemple, BASU (1983) met à jour un lien entre le ratio prix/bénéfices et l'espérance de rentabilité que le bð ðne prend pas en compte. Ces remises en cause ont constitué une part importante des contradictions apportées au modèle d'évaluation idéal. Et pourtant elles ne sont pas concluantes. Progressivement, d'ailleurs, les critiques se sont portées sur d'autres terrains.
Partant du schéma de l'investisseur rationnel situé sur un marché de concurrence pure et parfaite, le marché financier semblait sinon une description parfaite, au moins une très bonne approximation de la réalité. De multiples travaux vont tenter d'affecter à une variable particulière, ou à un événement, un pouvoir prédictif sur les cours futurs et donc de mettre à jour différentes imperfections du marché. Nous avons jusqu'alors présenté (de manière non exhaustive) celles que FAMA (1970) classe parmi les contradictions à l'efficience semi-forte. Cette définition est la plus testée, celle à laquelle nombre d'auteurs s'attaquent sans succès définitif. Ces auteurs peuvent être rattachés à l'école fondamentaliste par leur volonté de lier les imperfections du marché à une mauvaise prise en compte de l'information économique affectant la valeur de l'actif. De nombreux travaux ont également porté sur l'efficience faible. Celle-ci s'appuie sur l'impossibilité pour un investisseur de réaliser des profits en utilisant une stratégie basée uniquement sur l'étude des cours passés. Les critiques portées à l'efficience faible sont généralement fondées sur une vision technique des marchés financiers. En effet les chartistes, par exemple, pensent qu'une étude graphique de l'évolution des prix dans le temps, où les cours passés constituent la seule information, permet de battre le marché. Ces différentes critiques de l'efficience des marchés se heurtent à l'impact véritable de ces imperfections. En effet, permettent-elles vraiment d'élaborer une stratégie profitable, même en tenant compte des coûts de transactions et d'information ?
Outre le fait qu'ils permettent d'apporter une première réponse à ce débat, les modèles statistiques ont toujours été très liés au problème de la description des comportements et des mécanismes sur le marché financier. Pour cette raison ils requièrent donc une section à part dans ce chapitre.


Section 2. L'analyse statistique des marchés. TC " Section 2. L'analyse statistique des marchés." \l 1 

L'étude des comportements et des mécanismes boursiers s'est toujours réalisée à l'aide d'outils statistiques et probabilistes. C'est pour cette raison que nous consacrons une section aux outils utilisés et à leur lien avec les hypothèses présentées dans la première section.
La première des études modernes sur l'évolution du prix des actifs est celle de BACHELIER (1900). OSBORNE (1964) reprend et développe ce modèle mathématique. C'est sur ces bases que va progresser l'étude statistique des cours. Le modèle de OSBORNE a été affiné ou contredit, mais toujours dans une optique probabiliste avec l'idée de mouvements aléatoires. Ce modèle, et tous ses dérivés, constituent le moyen d'apporter un éclairage à la question de l'efficience.
Le modèle de base autour duquel évoluent les travaux sur la nature des marchés financiers est le suivant. Soit Xt le cours (ou son logarithme) d'un actif au temps t. L'étude va se focaliser sur l'innovation eðt c'est à dire sur la différence absolue ou relative (si les cours sont exprimés en logarithme) des prix de l'actif.
eðt = Xt - Xt-1 ou eðt = ln(Xt/Xt-1)(1.6) Le marché financier idéal, au sens de l'efficience faible, suppose une innovation aléatoire puisque les cours intègrent rationnellement l'information dès sa parution. Le seul prédicteur fiable pour la prévision de Xt est Xt-1. Les caractéristiques statistiques de l'innovation vont être établies par OSBORNE en 1964 qui conceptualise ce que BACHELIER avait analysé dans un premier temps. De critiques en affaiblissements, plusieurs voies de recherche se sont développées. Le trait d'union de tous ces travaux est de déterminer la nature aléatoire ou non de l'évolution des cours. A quelle loi statistique se rattacher ? Quel modèle utiliser ? Quels tests prendre en compte ? Pour vérifier quelle hypothèse exactement ?

I. Une question de loi. TC " I. Une question de loi." \l 1 

1. Le modèle de OSBORNE (1964). TC " 1. Le modèle de OSBORNE (1964)." \l 1 

Dans ce modèle, l'innovation des prix est décrite par un mouvement brownien. OSBORNE développe plusieurs hypothèses qui, outre le caractère aléatoire de cette innovation, mettent l'accent sur son caractère gaussien. Ces hypothèses, au nombre de sept, sont :
(1) Les prix varient par unité minimale d'un huitième de dollar;
(2) Il y a un nombre fini et entier de transactions se déroulant par unité de temps;
(3) Par analogie à la loi de WEBER et FECHNER, OSBORNE postule que le prix stimule la sensation objective de la valeur dans l'esprit de l'investisseur comme l'intensité acoustique stimule une sensation chez l'être humain. Toujours par analogie avec les sciences physiques, OSBORNE pose qu'une variation du prix correspond à une variation égale de la valeur. C'est l'argument de ROBERTS (1959) pour lequel une évolution aléatoire serait le summum de l'efficience car le prix intègre immédiatement l'information (liée à la valeur ou autre). Le prix évoluerait de concert avec la valeur fondamentale. Cela va donc plus loin que l'idée défendue par les fondamentalistes;
(4) Une décision sera logique si entre deux actifs l'investisseur choisit celui présentant l'espérance de rentabilité la plus élevée. L'analyse en termes d'espérance-variance n'intervient pas ici;
(5) Ni les acheteurs ni les vendeurs n'ont d'avantage les uns par rapport aux autres en termes d'espérance de gain. Il y a donc un prix d'équilibre lors de l'échange;
(6) Sous les hypothèses précédentes il suit que la distribution de l'innovation (Log(Pt+tð/Pt)) est gaussienne d'espérance nulle et de variance sðeð2. Cette variance croît avec l'intervalle tð et est de la forme  ;
(7) Supposons que eði soit l'innovation pour un temps très court, séparant par exemple deux échanges. Posons alors l'innovation quotidienne comme la somme de ces innovations eði définies pour un temps infiniment petit. Par le théorème central limite, il est montré que l'innovation quotidienne est distribuée selon une loi normale.
Le modèle de OSBORNE confirme le fait que l'innovation des cours sur un marché boursier est un processus aléatoire. Afin de rendre l'étude de ce processus possible, OSBORNE spécifie la loi statistique de distribution de cette innovation. Dans son article il justifie l'utilisation de la loi normale comme résultat logique des hypothèses qu'il a posées.
Cependant l'hypothèse de normalité de l'innovation est rapidement critiquée puisqu'un an auparavant, deux articles mettaient en avant le caractère erroné de cette hypothèse de normalité.

2. Abandon de la normalité. TC " 2. Abandon de la normalité." \l 1 

MANDELBROT (1963) et FAMA (1963) remettent en cause le caractère gaussien de l'innovation en s'appuyant notamment sur des études empiriques. MANDELBROT (1963) constate que le caractère leptokurtique des séries financières empêche d'utiliser sans biais la loi normale. L'histogramme de la distribution des changements mensuels de cotation des prix du coton de 1890 à 1937 montre une différence flagrante par rapport à la distribution théorique gaussienne notamment en ce qui concerne le cœfficient d'aplatissement. Il propose alors l'utilisation de la loi stable de PARETO décrite en 1925 par LEVY. Cette dernière présente une distribution unimodale, en forme de cloche mais avec un aplatissement pouvant être plus ou moins important. Elle a entre autres avantages d'être une généralisation de la loi de Gauss qu'elle englobe comme un cas particulier. Les lois stables possèdent la propriété d'invariance en loi par l'addition comme la loi normale qui est en revanche la seule loi connue à posséder cette propriété avec une variance finie. En effet, comme nous allons le voir avec les travaux de FAMA, les lois stables peuvent n'avoir ni deuxième ni premier moment fini. En 1963, FAMA donne une description détaillée des lois stables avec leurs principales caractéristiques puis, en 1965, il propose des tests permettant d'établir une discrimination entre la loi normale et les autres lois stables.

A. Lois stables : description et caractéristiques. TC " A. Lois stables : description et caractéristiques." \l 1 

Une loi stable (appelée également loi de PARETO-LEVY) est une loi statistique telle que le logarithme de sa fonction caractéristique est donné par l'équation suivante :
Log f(t) = i dð ðt - gð ð|t|að [1-i bð ð( |t| / t) w(t,að)] (1.7)
avec w(t,að) = tg pðað/2 si að`"1
w(t,að) = 2/pð ðlog|t| sinon
i : le nombre imaginaire
La distribution d'une loi Pareto stable se définit par quatre paramètres fondamentaux qui sont að, bð, dð, gð.
L'exposant caractéristique (0 0, il y a asymétrie à droite
- Pour bð 1, dð est l'espérance de la distribution
- Pour að û) ®ð (û/U1)-að û>0
Pr(u0 (1.92)
Cov (Xt-Xt-1,Xt+tð-Xt+tð-ð1ð) = 0 pour tout t et tð >0 (1.93)
Or, dans un modèle où l'innovation est un processus ARCH la première condition est vérifiée de par la nullité en espérance non conditionnelle d'un ARCH. La nullité de la covariance se vérifie aisément aussi. Une telle modélisation enrichit l'étude du phénomène sans être en opposition avec la notion d'efficience des marchés. Cette modélisation va permettre de respecter les propriétés d'un marché efficient (QMA) tout en donnant une représentation plus réaliste de la variance conditionnelle. Cela est visible dans la prévision où nous montrons que, si elle reste la même qu'avec le modèle de marche aléatoire, son intervalle de confiance varie dans le temps et est un signal de l'état de nervosité du marché. De plus, tout en respectant l'hypothèse d'efficience des marchés l'utilisation des modèles ARCH peut guider lors de certaines stratégies d'utilisation des options où le niveau de variation compte plus que le sens de la variation (ALEXANDRE, 1992). La notion de QMA permet un plus grand réalisme des tests d'efficience des marchés financiers en ne cloisonnant pas les tests par une spécification trop restrictive des phénomènes statistiques.

II. Modèles dérivés et applications. TC " II. Modèles dérivés et applications." \l 1 

Le succès des processus ARCH a amené de nombreux chercheurs à développer des modèles permettant de généraliser cette notion. Nous présentons rapidement ici les principaux modèles dérivés de ARCH qui sont utilisés en finance.

Processus GARCH.
Ce processus a été introduit par BOLLERSLEV (1986) et constitue une “Généralisation” du processus ARCH. Un processus eðt sera un GARCH (p,q) si :
eðt /It1 ~ N(0,ht2)
avec
 (1.94)
Si q = 0, eðt est un processus ARCH(p); si p = q = 0, eðt est un bruit blanc. Dans tous les autres cas, il s'agit d'un GARCH(p,q). La variance conditionnelle inclut le carré des p erreurs précédentes et les q variances conditionnelles passées ; elle évolue de période en période et intègre les erreurs les plus récentes de manière à constituer un mécanisme adaptatif. L'estimation du modèle est faite en employant l'algorithme de BERNDT, HALL, HALL et HAUSMAN (1974), basé sur le principe du maximum de vraisemblance.
Le modèle GARCH possède des propriétés similaires à celles d'un ARCH quant à ses propriétés adaptables à la finance. Il pourra être appliqué dans une étude de l'efficience des marchés. BOLLERSLEV et ENGLE (1986) utilisent un GARCH (1,1) pour modéliser la prime de risque sur le marché des taux de change. Cependant BLACK (1976) avait mis à jour la corrélation négative existant entre les taux de rentabilité avec les changements de volatilité. Cette dernière augmente après une mauvaise nouvelle et diminue en cas de bonne nouvelle.
Malheureusement, une modélisation GARCH de l'innovation ne rend compte que de l'amplitude et aucunement du signe du lien éventuel entre volatilité et rentabilité. En effet, dans un GARCH (comme dans un ARCH d'ailleurs) la modélisation de la variance conditionnelle fait apparaître les innovations passées élevées au carré, donc sans tenir compte du signe de cette dernière. De plus les modèles GARCH imposent des contraintes de positivité sur les coefficients að et bð de la variance conditionnelle. NELSON (1991) définit le processus GARCH Exponentiel (EGARCH) qui permet de combler ces lacunes.

GARCH Exponentiel
Un processus {eðt} sera un EGARCH si :
eðt /It1 ~ N(0,ht2)
avec
 (1.95)
Ce modèle permet à la variance conditionnelle d'être à la fois fonction de l'importance et du signe de l'innovation. NELSON (1991) teste EGARCH sur la période de Juillet 1962 à Décembre 1987 pour des données quotidiennes de la base du CRSP. Il vérifie l'asymétrie préconisée par BLACK dans la réaction en termes de volatilité des cours à une bonne ou mauvaise nouvelle. Ce modèle introduit une source supplémentaire de non linéarité qui permet de mieux prendre en compte les phénomènes complexes de finance. En outre, il ne nécessite pas de contraintes de positivité sur les paramètres ce qui simplifie le programme d'optimisation utilisé lors de l'estimation des paramètres.

ARCH in Mean (ENGLE, LILIEN, ROBINS, 1987)
Il peut s'avérer utile d'inclure la volatilité du processus (définie par un ARCH) comme une variable explicative dans l'équation structurelle. Par exemple, il est possible de définir la rentabilité d'un actif comme fonction du risque en ayant modélisé ce dernier comme un processus ARCH. Un tel modèle appelé ARCH-M se définit comme suit.Soit une équation de la forme eðt = zð'tb + ut au temps t. Le processus {ut/It1} d'erreur définie conditionnellement à l'information passée est de la forme :
ut/It1 ~ N(0,ht2)
Le processus eðt sera un ARCH-M si :
eðt = zð'tb + ’() + ut (1.96)
où ut est un ARCH.
ƒ(.) est une fonction quelconque.
Il est toujours tenu compte de l'hétéroscédasticité conditionnelle mais en plus l'expression de l'espérance conditionnelle inclut la variance conditionnelle. Ce processus peut être très utilisé en finance où il paraît logique de supposer que les cours boursiers sont fonction de leur volatilité. Comme, outre les informations économiques et générales, l'étude des cours passés de la série permet d'aider certains investisseurs à la prévision, la volatilité est également une information qui peut les guider dans le choix de leur stratégie. Elle représente la nervosité du marché qui anticipe, par exemple, un retournement de tendance. Le processus GARCH-M est défini de la même manière avec comme seule différence que ut est un GARCH au lieu d'être un ARCH.

GARCH-Difference in Mean
Un problème similaire au précédent peut se poser à la différence près que la rentabilité soit fonction de la différence de volatilité entre deux périodes plutôt que de la volatilité même. Il faudra alors utiliser un processus nommé GARCH-DM, défini en 1990 par COCCO et PARUOLO. Un tel processus sera de la forme :
eðt = zð'tb + dð ð( ht2  ht-12 )+ ut (1.97)
où ht2 est la variance conditionnelle de ut qui est un processus GARCH classique. Il s'agit donc d'un raffinement du modèle GARCH-M présenté auparavant.

GARCH-Distributed Lag in Mean
Pour exprimer une variable en fonction de plusieurs réalisations de sa volatilité passée, il faut utiliser le processus GARCH-DLM (COCCO, PARUOLO, 1990) défini à partir d'un processus {Yt} et représenté à la période t par l'équation suivante :
 ut/It-1 ~ N(0,ht2) (1.98)
Il existe donc une gamme assez importante de dérivés du modèle ARCH initial qui permettent de moduler la modélisation en fonction des phénomènes étudiés.

Integrated GARCH
Il peut arriver que le processus GARCH soit impossible à définir. C'est à ce problème que répondent les processus IGARCH.
eðt/It-1 ~ N(0,ht2)
 (1.99)
Si að1 + bð1 = 1, alors la variance non conditionnelle sð2 n'existe pas ; il s'agit d'un processus caractérisé par le fait que le dénominateur de sð2 est nul. Dans cette situation, l'expression de la variance conditionnelle est la suivante :
 (1.100)
 (1.101)
Ces différents modèles permettent de donner à la volatilité des marchés une part plus importante et moins passive dans l'étude des cours boursiers. Depuis les travaux de MARKOWITZ (1952) le risque sur l'actif est une composante majeure de l'élaboration de stratégie en finance. Une prise en compte réelle de la volatilité s'imposait donc. Les modèles plus anciens de variance présentés au premier chapitre étant trop restrictifs, les processus ARCH marquent un progrès réel par la souplesse avec laquelle ils permettent de modéliser la volatilité des marchés. Mais un nombre quasi infini de lois stables possèdent également ces propriétés (notamment la kurtosis). Comment distinguer alors s'il faut employer plutôt une loi stable ou un processus de type ARCH ? La théorie des valeurs extrêmes permet de distinguer entre ces deux ensembles de lois, et parmi d'autres encore. Nous reprendrons pour cela l'article de LONGIN (1992a) qui décrit cette théorie permettant d'effectuer des tests afin de choisir la meilleure spécification.

III. La théorie des valeurs extrêmes. TC " III. La théorie des valeurs extrêmes." \l 1 

Une des discussions les plus âpres sur les statistiques des séries financières concerne la nature des queues de distributions. Le caractère mésokurtique semble nettement remis en cause et, comme nous l'avons déjà vu, différentes hypothèses ont été proposées notamment les lois stables et les processus de type ARCH. La théorie des valeurs extrêmes va nous permettre de déterminer la distribution des valeurs extrêmes d'une série et de là, il sera possible de déterminer la distribution de la série dans son intégralité.

1. Distribution des valeurs extrêmes. TC " 1. Distribution des valeurs extrêmes." \l 1 

Soit {eðt} le processus d'innovation d'un phénomène boursier c'est à dire la différence entre Xt et Xt-1 qui sont les cours (ou le logarithme) d'un actif aux temps t et t-1. Appelons Yn le maximum des n variables aléatoires eð1, ..., eðn. Alors la relation entre les fonctions de répartition est :
 (1.102)
Les propriétés statistiques des valeurs extrêmes sont donc liées à celles de la série elle-même. C'est à partir de cette constatation qu'il va être possible de déterminer la loi de la série.
La théorie des valeurs extrêmes repose sur quatre hypothèses :
(1) Les variables eð1, ..., eðn sont aléatoires;
(2) Elles sont indépendantes;
(3) Elles sont identiquement distribuées;
(4) Il existe une suite de cSfficients an et bn tels que la distribution limite de (Yn-bn)/an est non dégénérée (c'est à dire de variance non nulle).
LONGIN présente les trois seules distributions limites possibles pour les valeurs extrêmes et l'écriture générale de ces trois distributions :
Distribution de Gumbel (type 1)
FY(y) = exp (-e-y) y un réel quelconque (1.103)
Distribution de Fréchet (type 2)
FY(y) = 0 si yd"0 (1.104)
= exp [-y-k] si y>0 (k>0)
Distribution de Weibull (type 3)
FY(y) = exp [-(-y)k] si y0) (1.105)
= 1 si ye"0
Sous l'hypothèse selon laquelle il existe an positif et bn tels que la distribution de (y-bn)/an soit non dégénérée, alors une distribution limite permet de caractériser les trois précédentes comme trois cas particuliers :
FY(y) = exp [-(1-tð y)1/tð] (1.106)
Nous retrouvons les trois distributions précédentes selon le signe de tð ð:
tð0 distribution de Weibull

2. Distribution de la série TC " 2. Distribution de la série" \l 1 

Il est possible de déterminer la distribution de la série de l'innovation en connaissant la distribution limite de ces valeurs extrêmes. En effet si cette dernière est une distribution de Gumbel alors la distribution de la série sera celle d'une loi normale ou du mélange de plusieurs lois normales. Dans le cas d'une distribution de Weibull, la série est distribuée selon une loi uniforme.
Le cas qui nous intéresse ici plus particulièrement est celui où les valeurs extrêmes possèdent une distribution de Fréchet. Dans ce cas la série est leptokurtique, ce qui est empiriquement dominant en finance. Le critère déterminant ici va être le positionnement de la valeur de tð autour de -0,5. Si tð est inférieur à -0,5, alors l'hypothèse de distribution parétienne (lois stables) peut être acceptée. En revanche si tð est compris entre -0,5 et 0, en étant significativement différent de 0, l'hypothèse de loi de Student ou de processus ARCH pour la distribution de l'innovation peut être acceptée. Ce critère est discriminant pour le choix entre les processus de type ARCH et les lois stables. Il faut donc maintenant estimer tð afin de pouvoir effectuer un test et conclure sur la nature de la série.
Nous supposons que l'échantillon disponible de la série {eð} est de taille nN. De là, le sous-échantillon eð1, ..., eðn est extrait et plus particulièrement la valeur maximale. Il faut alors répéter cette opération pour les N sous-échantillons de taille n disponibles et classer ensuite la série de ces valeurs maximales par ordre croissant pour obtenir alors une série y1, ..., yN. Nous calculons ensuite FY(ym) (pour m allant de 1 à N) qui est une variable aléatoire de distribution :
 (1.107)
L'espérance de la mième fréquence est :
 (1.108)
Il est alors possible d'écrire :
 (1.109)
Il faut ensuite prendre deux fois consécutivement le logarithme de FY et de E(FY) et en transformant yn en (yn-bn)/an il vient :
 (1.110)
C'est à partir de cette équation que LONGIN présente différentes manières d'estimer, de calculer tð.

Détermination graphique
Il est possible de résoudre graphiquement le problème en représentant à l'aide d'un repère cartésien -Log[-Log(m/(n+1))] contre ym. La courbe obtenue permet de conclure quant à la distribution des valeurs extrêmes. Elle sera une droite dans le cas d'une distribution de Gumbel, convexe pour une distribution de Weibull et concave dans le cas d'une distribution de Fréchet.

Estimation non paramétrique
Cette méthode de détermination de tð ðse fait par la formule suivante :
 (1.111)


Le problème de cette méthode est que le choix de m est arbitraire. LONGIN conseille l'emploi de simulations de Monte-Carlo pour déterminer la valeur de m.

Estimation à partir de la distribution
A l'instar de LONGIN, nous explicitons uniquement l'exemple de la distribution de Fréchet qui est le cas qui nous intéresse ici. Précédemment le modèle estimable avait pour forme générale l'équation (1.110). Une estimation des paramètres de cette équation nous permet, entre autres, d'obtenir une estimation de tð ðqui permet de connaître la nature de la distribution des valeurs extrêmes. Selon le résultat obtenu, on peut alors estimer les paramètres de cette distribution des extrêmes. Si tð