Theorie Des Probabilites
Transcript of Theorie Des Probabilites
Ftça:
---' _ -- t-r,r.r,]l
1l
école notionole supérieure du pétrole et des moteurs
Ph. TASSI et S. LEGAIT
théoriedes probabilitésen vue des applicationsstatistiques
ffi?.$ffiffi
,dffifl,:*- ,, i -l
,tri'[e;Ë t" .',:
o)6{)o=oLoo.co
f
o.c(DEo.ooaafo-
/ .. tj.i.'
rll:-9.:l:11 .\
,#fr.&TfrIr
.ri'*1H1i*'r
*;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*
TUTIONS TECHNIP
-lI
i3
I
III
I
IIII
I
I
, ll'i:
,t**jt-"\{u ':, :'r- Q''|ra
1lilitfiil
5l-9.21-:3il352
i-IlI
TAS
, .r - I r' .- "l f
{,1' ù '') '-' i 't
519. ?1-:3il TASAR?
INSTITUT FRANÇAIS DU PETROLE
École Nationale Supérieuredu Pétrole et des Moteurs
Centre d'études supérieuresd'économie et gestion
Théoriedes probabilités
en vue des applications statistiques
Philippe TassiDirecteur scientifique de Médiamétrie
Professeur à I'ENSPM et à I'ENSAE
Sylvia LegaitAttaché de t'INSEE
Éotnorus rEcHNtp27, rue Giroux75737 Paris Cedex 15
@ lgg0. Editions Technip, Paris
et Institut Frmtçais du Pétrole, Rueil-Malmaison
tsBN 2-7108-0582-OrssN 0758-147X
Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soilest rigouretnement interdite par les lois en vigueur
AVANT-PROPOS
déjà longue histoire des méthodes scientifiques montre que la principalevictoire du chercheur, du praticien, de |ingénieur, esi t;upprànt,.s"ge du doute. Lescientifique éclairé remprace de prus en prùs fréquemmenio"" uttirrations comme"le résultat est ...> par des interrogations : *queile est ra probabirité pour que rerésultat soit ..". Le calcul et la théàrie des probabilités jouent, et joueront un rôlefondamental dans ra démarche scientifique, d'une part en raison de ra nature aréa_toire de la plupart des problèmes réels, d""utr" part grâce à la nécessité de recouriraux méthodes statistiques de traitement de donnée-s sans cesse plus nombreuseset complexes à analyser.
Le déterminisme étant souvent une réduction hâtive de la réalité, il n'est plus,maintenant, d'ingénieur chimiste. physicien, fiabiriste, astronome, sans parrer biensûr des spéeialistes de ra gestion, d" i'é"onornie et prus généràtement des sciencessociales et humaines, qui n'aient à manipurer res "onË"pt,
ài r"" modères de raprobabilité et de la statistique. Mentionnons, à titre 0,""".pie, ra physique desparticules : les électrons ne décrivent pas des trajectoires autour du noyau commele font les planètes autour du soleil. Les particules obéissent en effet aux lois de lamécanique quantique, et la notion de trajectoire doit être abandonnée. De manièregénérale, la seure chose qu'ir est possiÉre de connaître est la probabilité de pré_sence d'une particule en un point donné et à un instant donné.
, .L',ouvrage propose une introduction aux principales notions des probabilitésdont le praticien sera amené à se servir. ll est rédigé pour des lecteurs déjà familia-risés avec un certain bagage mathématique en anaryse et en argèbre. En effet,l'usage de plus en plus repându des méthodes proba'bilirt""-I qui ira encore engrandissant de par re déveroppement de rogiciers adaptés - montre qu'une mau-vaise connaissance des propriétés fondamentares des techniques est à r,origined'interprétations parfois aberrantes des résultats. ll nous apparaît donc importantd'insister sur les bases, afin de faciliter la compréhension des méthodes. La rédac-tion fait en outre appel à de nombreux exemples d'applications et exercices résolusou à résoudre.
. Le chapitre 1 présente les concepts probabilistes usuels selon I'axiomatique.maintenant classique, de Kormogorov. il'contient égarement res résurtats sur reconditionnement er [indépendanCe. et le célèbre théJrème dû à Thomas Bayes, ditde nprobabilité des causes>
chapitre 2 pronge re carcur des probabirités dans ra théorie. prus générare,de la mesure et présenre res principaux étéments de rintàgr"tion générarisée ausens de Lebesgue, dont ra pubrication, au début du 2o'"siècre, a permis une
PH. TASSi - S. LEGAIT
AVANT PROPOS
approche unifiée des probabilités. Nous avons adopté cette démarche car elleapparaît pédagogiquement intéressante, de par l'unification du langage qu'ellepermet et la portée des propriétés qu'elle engendre.
Dans le troisième chapitre sont regroupés les principaux résultats sur les varia-bles aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des casparticuliers de ceux obtenus au chapitre 2.
Le chapitre 4 est important pour le praticien: il fournit les définitions et pro-priétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applica-tions. ll donne également les principes des papiersfonctionnels adaptés à la déter-mination d'une loi de probabilité au vu des données, ainsi que des éléments sur lagénération d'échantillons aléatoires souvent utilisés en simulation.
Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoirdonné une représentation géométrique de certains des outils de la statistique des-criptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et larégression.
Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsquel'on veut connaître la loi d'une somme de variables ou étudier les comportementsasymptotiques : il s'agit de la fonction caractéristique.
Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreu-ses applications statistiques sont fondées sur des propriétés (aux limites,, autori-sant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'undes indices les plus utilisés en statistique est le nornbre des observations: lorsqu'ilest impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorisel'usage de résultats approximés.
Un certain nombre de compléments et d"approfondissements font l'objet duchapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance,existant entre deux lois de probabilités. ou entre des observations et un modèlethéorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.
L'observation de données aléatoires fait parfois apparaître un ordre naturel :
ainsi un phénomène qui va en s'amplifiant donnera naissance à des données ran-gées en ordre croissant. En outre, depuis quelques années, on voit se développer'des méthodes statistiques utilisant des observations ordonnées, méthôdes dont lespropriétés de stabilité sont du plus haut intérêt. Le clrapitre 9 est donc consacréaux résultats probabilistes particuliers à ce type de modèle ordonné.
Enfin, les chapitres 10 et 11 portent sur les processus, c'est-à-ciire une géné-ralisation des variables aléatoires. Leur domaine d'utilisation le plus fréquent estcelui des séries temporelles, dont l'observation varie non seulement en fonction del'individu observé mais aussi selon l'instant d'observation. Le chapitre 1O fournitdes résultats probabilistes sur les proeessus, et le chapitre 1 1 présente des exem-ples de processus, en particulier les processus autorégressifs et moyenne mobiletrès répandus en automatique et en prévision.
Les auteurs
PH. TASSI S. LEGAIT
TABLE EES MATIERES
AVANT PROPOSTABLE DES MATIERES
Chapitre 1 : LES eONCEPTS pROBAB|L|STES1 Espace probabitisable
1 .1 Ëxpérience aléatoire1.2 Evénement
2 Propriétés des tribus3 Ouelques tribus particulières
3.1 Exemples "...3.2 Tribu engendrée3.3 Tribu borélienne
4 Probabilité sur un espace probabilisable4.1 Définirion d'une probabiliré4.2 Propriétés d'une probabilité
Fonction de répartitionProbabilité conditionnelle, indépendance d,événernents
6.1 Probabilité conditionnelle .6.2 lndépendance . .
6.3 Théorème de BayesExercices
Chapitre 2 : PROBAB|L|TE, MESURE, tNTEGRAT|ON1 La théorie de la mesure : histoire et apport aux probabilités2 Notion de mesure
2.1 Déf initions2.2 Propriétér . ::::' '
2.3 Meiure.iriin, sii ".:: :.:. :::::::.'3 Mesurabilité
3
5
11
121212
13
161616
5
6
17
181821
22
2323
3.1 Application mesurable3.2 Mesure-image3.3 Tribu-produit .
242729
33
33
35353739404A4344464648
4lntégration ...4. 1 lntégration des fonctions mesurables étagées positives4.2 lntégration des fonctions mesurablei positives
PH TASSI . S. TEGAIT
TABLE DFS MATIERES
4.3 Fonctions intégrables4.4 Propriétés de l'intégrale4.5 Généralisation4.6 Exemples ...
5 Négligeabilité .
5.'l Définitions5.2 Propriétés
6 Mesure définie Par une densité
7 lntégration par rapport à une mesure-image
8 lntégration par rapport à une mesure-produit8.1 Mesure-produit8.2 lntégration
Exercices
Chapitre 3 : LES VARIABLES ALEATOIRES
1 Caractéristiques des variables aléatoires réelles (unidimensionnelles)
1.1 Fonction de répartition . . ' .
1.2 Densité de probabilité . . ' .
1.3 Moments ...1.4 Fractiles1.5 Changement de variables
2 Vecteurs aléatoires2.1 Fonction de répartition2.2 Densité de probabilité . . ' .
2.3 Moments ...2.4 Changement de variables2.5 Lois marginales2.6 lndépendance2.7 Lois conditionnelles
Exercices
Chapitre 4 : LES LOIS DE PROBABILITE USUELLES
1 Les lois discrètes . . " .
1.1 La loi de Dirac1.2 Loi indicatrice (ou loi de Bernoulli) .. .'1.3 Loi de Poisson1 .4 Loi binomiale1.5 Loi multinomiale . . .
1,6 Loi hypergéométrique1.7 Loi binomiale négative
2 Les lois continues elassiques2.1 Loi uniforme2.2 Loi gamma
50515253
545455
59
61
646465
67
71
727273757778
8080808285868791
103
107
107107108109110110113115
1161161171192.3 Loi de Weibull
PH TASSI S. LEGAII
TABLE D.ES MATIERES
2.42.52.62.72.82.92.102.11
Loi bêta
Loi normale unidimensionnelleLoi normale multidimensionnelle
Loi de Gumbel
Loi log-normaleLoi du khi-deuxLoi de Student
121124124131135136138140
142143143147
148148150152154158
165
165165rob169
171171174175180
185
185185187190
191
Loi de Fisher-Snedecor
Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES ...1 Espaces de variables aléatoires
1.1 Les espaces 9, elL. . . _. '
1.2 Lesespaces7jett'. -._. ' "1 .3 Les espaces 9É et I
z - ' '
Un peu de géométrie2 1 Statistiqu" J"""riptlu"'d",;l,;q;;' : : : : :. : : : : : : : : :. :. : : :. : : : :2.2 Géométrie dans.L,
3 I ltry"'jmarion.daÀ's L, ....... : :...
3 Les papiers fonctionnels3 1 Principe des papiers fonctionnels:.: _,,,,v,r/ç uçù pcrpters toncltonnels3.2 txemples de construction de papier fonctionnel3.3 Cas de variables discrètes
4 Divers4.1 Création de lois de probabilité4.2 Les coefficients de symétrie et d.ailaiissement11 Y:" srrucrure générâre , ra tamiirËïfànentierre4.4 Génération d'éôhantillons aléatoires
Exercices
2.4 lnterprétation des tois?u tni_oeux Liïe Stuoent
Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE1 Définition et propriétés d,une fonction caractéristique
1.1 Définition ...1 .2 Propriétés1 3 Un "^".ft"
j" i"i'jËii"i;;;, ;;i;'2 Fonctions caractéristiques des lois de probabilité usuelles
2.1 Loi de Dirac ....2.2 Loi de Bernoulli2.3 Loi binomiale2.4 Loi de Poisson2.5 Loi uniforme continue2.6 Loi gamma2.7 Loi normale2.8 Loi du khi-deux2.9 Loi de Cauchy
191191191191192192192192192
1PH TASSI . S. LFGAIT
TABLE DFS MATIERES
2.10 Loi de Laplace 192
2.11 Loinormale multidimensionnelle 193
2.l2Loimultinomiale.'. 193
3 Applications de la fonction caractéristique
3.1 Loi d'une somme de vecteurs aléatoires3.2 Caractérisation de l'indépendance de3.3 Obtention des moments non centrés . .
4 Seconde fonction caractéristique . . . .
4.1 Définitionsetpropriétés '. """":4.2 Applications aux développements d'Edgeworth et de
Gram-Charlier ...Exercices
Chapitre 7 : I-ES GoNVERGENcES DE VARIABLES ALEAToIRES
3.1 Définition de la convergence en loi
3.2 Caractérisation de la convergence en
Comportements asymptotiquement gausslens
Application aux lois de probabilité classiques
aléatoires
'roi".:::::.::::::.::::::: î12
227
231
deux vecteurs
194194195196
199199
202
206
207
247'! Convergence Presque sûre .
2 Gonvergeneeenprobabilité .""! 209
2.1 Cas des variables aléatoires réelles 209212
2132.2 Cas des vecteurs aléatoires . . ' . .
3 Convergence en loi . . .
4 Relations entre les diverses formes de convergence
4.1 lmplicationsdiverses ..'.4.2 Théorèmes de combinaison . '
Les lois des grands nombres
218218221
223
231232234235
236238
241
241
241242243244
5
6
77.1 Loi de Poisson7.2 Loi binomiale7.3 Loi gamma7.4 Loi du khi-deux7.5 Précision de l'approximation gaussienne donnée par le théorème
central limite
Exercices
chapitre 8 : COMPLEMENTS ET APPROFONDISSEMENITS SUR LES
LOIS DE PROBABILITE
tr Les distances,1 La distance de Paul LévY2 La distance en variation.3 La distance de Hellinger.4 La distance de LiPschitz
PH TASSI , S. LEGA]T
TABLE DES MATIFBFS
La distance de prohorovComparaison de distancesAutres indicateu rs ci'écartRetour sur les convergences
Application à la fonction de répartition empirique2.1 Propriétés à distance finie2.2 Propriétés asymptotiques2.3 Vitesse de convérgence : loi du logarithme itéré2.4 lndicateurs de proiimité avec Fn . " . .-. .
3 Ordres sur les variables aléatolres
Chapitre 9 : OBSERVATTONS OFDONNEES1 Loi de l'échantillon ordonné
1.1 Définition de la staristique d,ordre1.2 Loi de la statistique d,ordre
3 Comportement asyrnptotique3.1 Convergence d'un fractile empirique3.2 Convergences des valeurs exirêmes
2 Lois particulières de l'échantillon srdonné . . . . 263?1L"' de X1r1
2632.2 eas partiiulier des valeurs extrêmes 2662.3 Loijointe d,un couple (X1py X1l/ 2672.4 Catcutdesmomenrs ..'.':..':'......:.:::.:.:.:::.:::.. 268
1.51.61.71.8
244245246249
251252252253254
258
261
26a,
261262
3.3 Les lois des extrêmes3.4 Eléments sur la démonstration des convergences en loi 6e Xlny
4 La loi de l'étendue4.1 'Résultar
général4.2 L'étendue W
Chapitre't 0 : NOTTONS ELEMENTATRES SUR LES PROCESSUS .....1 Définition d'un processus aléatoire
1.1 Définition d'un processus1.2 Processus équivalent
2 Processus stationnaires . .
2.1 Stationnarité stricte2.2 Stationnarité faible2.3 Remarques diverses sur la stationnarité
3 Corrélation et corrélogramme3.1 Le coeff icient d'autocorrélation3.2 Exemples de corrélogrammes
PH.TASSI .S LEGAIT
273273275276280
284284286
289
289289290
291291292293
296296298
TABLE DES MATIEBES
4 Fonction d'autocorrélation partielle . . .
4.1 Définition générale4.2 Le théorème de Frisch et Waugh ' .. . . . '4.3 Système de dé4.4 Un exemple
termination de (h)
5 Les opérateurs B et F
Chapitre 11 : EXEMPLES DE PROCESSUS ' ' ' 3O7
1 Le processus de Poisson 3O7
1.1 Les processus à accroissements indépendants 3O7
1.2 Le processus de Poisson 308
Les processus de vie et de mort 310
311
311311312
Le mouvement brownien
302
302302303304
304
2
3
4 Les processus autorégressifs4.1 Définition .. .
4.2 Etude du modèle AR(P) .
5 Les processus moyenne mobile 319
5.1 Définition ... 319
5.2 ProPriétés d'un MA(q) 319
5.3 Remarque sur le lien'entre AR et MA ' : ' ' ' ' 320
BIBLIOGRAPHIE . 323
TABLES NUMERIOUES 327
INDEX 355
1CPI'J. TASSI - S. LEGAIT
Chapitre 1
Les concepts probabilistes
Dans de nombreux domaines relevant ou non de I'expérimentation scientifi-que' le langage courant fait de plus en plus appel au vocabulàir.e probabiliste. engen-rant d'ailleurs de nombreux barbarismes ou'impropriétés o,usàge. on parlera ainsid'événement (plus que probabreu ; un match de sérection en rugoy opposera resupossiblesn contre les uprobabres) ; une situation à venir sera décrite comme <pos_sible. sinon probable, I etc.
De telles expressions, mQme impropres, montrent que rincertain, r,aréatoire,prennent le pas sur le déterminisme.'Raison supplémeniaire pour fonder sur desbases solides la théorie et le calcul des probabilités. développer son enseignementet vulgariser ses résultats
si le concept des probabirités remonte aux Egyptiens et aux Grecs, ra probabi-f ité en tant que nombre compris entre o et r #Àuià
"pp"Ëitr" au 17. siècre.Fermat et Pascal connaissent implicitement l'axiome o'aâ'oitivite et la notion deprobabilité conditionnelle. Dès ta iin oe ce siècre ""irt"niià"pLrance, tes tois desgrands nombres de Bernoulli. Le 18" siècle voit se développài'le conoitionnement,la formule de Bayes, ra théorie asymptotique,.et |usage des probabirités en physi_que et en astronomie. ce^s applications aux science. "i."t". ôt àrr sciences socia-
[:f;":"rr.uivent au 19" siècte, sous t,imputsion de A"fàrann, Laplace, Ouétef"t,
De nombreuses approches du concept de probabirité ont été proposées : onpeut citer, par exempre, r'interprétation fréqueniiste tIàprace, von Mises) fondéesur la norion d'expériences répétées, ta pronaoitite;;t;;;ri;;(Keynes, Koopman),la théorie logique (carnap), la'formaiisaiion suolective ioe rinetïi, savage), t,appro-che purement mathématique (Kolmogorov).
Le lecteur intéressé par l'étude comparative de ces diverses fondations desprobabilités pourra se reporter à r'ouvrage de T. Fine- p* il;iË#;Ëï;;avons choisi la présentation abstraite deé axiomes oe ror,.nogolJu,
"ouu"nt apperée(point de vue de ra théorie de ra mesure>, comme nous re verrons au chapitre 2.cette approche définit une structure purement mathématique, peu interprétable apriori
.en pratique. Elle n'est cependant pas sans liaison "u""
i;int"rprétation fré-quentiste, mais ne la requiert point. On gardera néanmoins en mémoire cette der-nière, pour la facilité de compréhension.
PH TASSI - S. LEGAIT 1 1
LES CONC EPTS PFOBABILISTES
1 ESPACE PROBABILISABLE
1.1 Expérience aléatoire
En guise d'introduction, nous allons considérer I'expérience physique qui
consiste à .esuret la différence de potentiel U s'exerçant entre les bornes d'un
circuit de résistance R: 1O ohms et dans lequel circule un courant d'intensité| : 2 ampères. Si le montage de l'expérience est parfait, le voltmètre indiquera une
d.d.p. U : Rl : 20 volts. Tôutes choses égales par ailleurs, les mêmes conditionsd'eipérience conduiront toujours au même résultat de 2O volts. Ce type d'expérience
sera qualifiée de déterministe, le résultat étant parfaitement déterminé par laconnaissance des paramètres qui la régissent (résistance. intensité).
par opposition, une expérience sera dite aléatoire si son résultat ne peut être
prévu a priori.
On note par Q I'ensemble de tous les résultats possibles pour une expérience
donnée ; Q esi le référentiel, ou l'espace fondamental de l'expérience. Un élément
a,l de O est dit résultat élémentaire.
Exemples
a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé
régulier ; le résultat du lancer prend ses valeurs dans Q : {1 , 2,3, 4, 5' 6 }'
b) Soit l'expérience consistant à tirer au hasard un individu dans une popu-
lation de taille N, représentée par un identifiant s, d : 1 à N ; O : {1, "' N} S!
l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé
d'individus tous différents, l'ensemble des résultats possibles Q est l'ensemble des
Cff échanti llons potentiels.
1.2 Evénementll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements)
élémentaires : on peut concevoir sanS difficulté un oévénement complexe> compre-
nant plusieurs résultats élémentaires, dont on peut dire, une fois l'expérience effec-
tuée, s'il a été réalisé ou non. Ainsi, dans l'épreuve du lancer d'un dé' si O est
l;ensemble t1,2,3,4, 5. 6] des résultats numériques possibles, un événement telque *le résultat d'un lancer est pair, est un événement aléatoire complexe, com-josé des résultats élémentaires {2, 4,6}. De même. si un individu d'identifiant
I lf < t ( N) est donné, on peut considérer l'événement complexe E défini comme
tous les échantillons de taille n contenant l'individu L Cet événement E est donc la
réunion O"s Ci-] échantillons vérifiant cette propriété.
A un événement E (complexe), peuvent donc être associés tous les événe-
ments élémentaires qui le définissent'; si l'un d'entre eux est réalisé iors de l'expé-
rience, l'événement E le sera également.
12 PH. TASSI S. LEGAIT
LES C ONC EPTS PROBABITISTES
Notons ,41'ensemble de tous les événements aléatoires ; en |,absence de touteidée a priori sur res événements susceptibres d'intéresser i,""perir*nt;Ë;,;;pourra prendre .& : g (A), ensemble des parties Oe O. - - - -
Historiquement, des conditions de manipulation des événements ont conduità doter -4 d'une structure d'algèbre, c'est-à-dire que .4"rt-un" crasse de parties,de Q, contenant Q, et stabre pa'. intersection et comprémentation (et donc par réu_nion) ; sont vérifiées les conditions suivantes :
oQtr-'.r4o A€ ,tC., B€.4+ A)B€.&c A € .4 + Ae u4 Â désigne le complémentaire de A dans e).Cependant' dans une structure d'algèbre, la stabilité par réunion ou inter-section dénombrabtes n'est pas assurée ; àinsi, si (A"t ; à rfi,
"st une suite crois_
sante d'événements de ,4, c'est-à-dire une suite te'ile que An C An*r,de rimiteo: Y An: lim / An,il n'y a aucune raison pour que A soit un événement, oun
I e e; de même pour la limite d'une suite décroissante. cette non-stabilité <auxlimites" a conduir natureilemenr à munir ,4 a'""e sii"cilàê,riu", ou a-argèbre.
Définition 1
Une tribu (ou o-argèbre) sur |espace fondamentar e est une crasse .dl departies de e vérifiant ;
o Q€,"r/o,-4 est stable par complémentation, i.e. :A Ç .4+Ae .&.,(/ eststable par réunion dénombrable : Ane .il,yn€ lN +
n !,* Ona,
Le couple &, ,',/7 est apperé espace probabirisabre (on dit aussr espace mesu-rable) ; un élément de -4 est un événement.
Remarque : la théorie des probabirités a son vocabulaire propre ; ainsi deux évé_nements A et B sont dits incompatibles si A O B: e,
2 PROPRIETES DES TRIBUS
cette partie est composée de rappers mathématiques sur res tribus, et peutêtre omise par le lecteur bien au fait des propriétés de ces structures. Certainesdémonstrations font l'objet d'exercices simples.
Propriété I
Une tribu est stable par intersection dénombrable.
PH. TASSI - S. LEGAIT
LES CONCEPTS PROBABILISTES
En effet, (An)ne ru
étant une suite d'éléments de ''&' on a:
ô An= (uA").nn
Or UÂ e.& d'après b et c. et (U4) €.& d'après b ; le résultat est établi.n.n
Propriété 2
Q€.&.
Propriété 3
A,B€ ,'4, avecACB: B-AÇ"'('Cela découle de B - A : B Ct Â.
Propriété 4
Soit (An)n61*,An € ,&,Vn € lN, une suite d'événements de '4: on définit
timinf À"-: I "!*
AnetlimsupAn:1n9* An;alorsliminf Anet
lim sup An sont des événem ents de "4'
L.événement lim inf An est réalisé si tous les événements An sont réalisés
sauf un nombre fini. De même, lim sup An est réalisé si une infinité d'événements
An est réalisée.
Théorème 1
soit ,-& une algèbre de parties de Q ; -4 est une tribu sur O si et seulement
si- L& est rn" .i"r." stable par limite monotone (croissante ou décroissante' au
choix).
Démonstration
o CN:,.4estunetribu.Soit (An)n une suite croissante d'événements de ''&' et notons par A la
lim/An;onsaitqueA : Y
On, or U An e "{puisque .&estunetribu;
.4, est donc stable par limite croissante'
o CS : .& est une algèbre stable par limite croissante'.& étant une algèbîe, on sait que O € ''4'et que '4' est stable par complé
mentation. é"iiâoti'Àn) une suite d'événements ; a-t-on nE,*
On e '4 ?
PH TASSI . S. LEGAIT
LES CONC EPTS PROBABILISTES
. . to::l. Bn :
_ 9^ A. i Bn € ,,4 puisque ,_& est une algèbre donc stable parréunion finie : m(n
Y on : lim '/ Bn
..,
''
Par construction, (B j est une suite croissante d'éréments de ,-4. puisque .&est stable, par passage à la limite croissante, u An e ,,&. .Oest une tribu.
Théorème 2
:::A.4,e r. I C lN, une famille de tribus sur e; .& - n ,4,esl une tribui€l '
Démonstration
o ViC l, O € &i - Oe ,-&o A€ .4 e Vi€1, Ae,-&i <+Vi, € &, o Ae -4o Soit (AJne
h{ une suite d'événements ae k:vi e t, (Anl €. &i
ce qui implique que, pour tout i €', y O" e &, et donc U Ane ,,&.
Théorème 3
Soit .& une tribu sur e, O.C O.La classe 9n, : {ClC : Ann,, A4_,,4}est unetribu surO., appeléetrace de ,,4 sur e,.
Démonstration
o O' : OnO';comme Ae. ,&, e,e Ga,o soit c e Gn,; en notant, pour distinguer, par * ra comprémentation par
rapport à O' et par - la complémentation par rapport à O, on a :
..* - lCA appartena ntà ,4,c* est."nI-A!O'
: A o o'
Soit (Cjn61, une suite d.éléments de 6n; on peut écrire:
et : cn: An o Q' Pour tout n€ lN
Y t" : ,Y o",ÔQ' ; uAnc ,'4,doncYa"a Ga,
ll en résulte que la classe G * est une tribu sur e,.
PH TASSI - S. LEGATT 1 b
l
l
i
I
I
I
LES CONC EPTS PBOBABILISTES
Corollaire; si f)' € &, G n, = { C/C e .4, e
Théorème 4
Considérons une partition finie (A'), i :n: A, = O; la classe .4: { I Ati:f i€lest une tribu sur O'
Dérnonstration
R
oO:.>.Aieill: I
c(I A.,) : >-4e.t/i€! i€l
c Soit (l*) une suite cje parties de { 1, ..., n }'
U(: A') : : Aie",k i€lk i€u lk
dsnc .& est une tribu sur O'
3 OUELOUES TRIBUS PARTICULIERES
3,I ExemPles
o I : \ A, Alest de façon évidente une tribu, appelée tribu grossière' I est
la tribu la plus fruste sur O.
.9p., ensemble des parties de o, est également une tribu. appelée tribu
discrète, la plus fine existant sur Q.
o soit A e g@l; 9= {Q, A,A, O } est une tribu sur Q, dite tribu oengendréen
par A.
3.2 Tribu engendrée
Supposonsmaintenantque,-pouruneexpérience-donnée'seulesquelquespartiei d" n, torrunt rn"
"iu.i "'G a" g @'), soient intéressantes en tant qu'évé-
nements. plutôt que de munir O de la tribu a'événements la plus gross.e, c'e:l-È
dïe g{Ol, on prè{ér"ra définir -4 comme étant la plus petite tribu contenant v'Montrons qu'une telle définition est admissible'
c o'].
1 à n, de f), telle que :
te g (11,2,. , n])]
16PH TASSl S, LEGAIT
LES CONC EPTS PROBABILISTES
i € t. :;"l"ffnrrU,",us" de parries de O, et considérons toutes tes tribus (.4,),
- il existe au moins une tribu contenant G, c,est g @) ; donc I * e- d'après re théorème ,,? o,est une tribu qui, "n
àuii", contient G, et estcontenue dans chaque tribu .&i, i e l.
Définition 2
on appelle tribu engendrée par une crasse G rJe parries de e ra prus petitetribu contenant G-, c'est-à-dire I'intersection de toutes les tribus contenantG. On ta note o (Gl.
Exemples
o G: [Q]:a(G):tA,A1o G : {A} avec A + e et A * e : o(Gl :{@.A.À,A}
oG:[Ar,...,An] où I A, :e:i:1
o(4t,...,An) : {.I. A,, I e gU1, ., n})}i€t
En effet, o (At,....An) étant une tribu contenant chacun des événe_ments A, :
vte g({1,.... n}),ie I
A' e o (Ar' "'' An)
donc: {,è, o,, t€g({1,...,n})} Ca(A1,...,An)
ona monrré(théorème4)que{ r Ai.rÇ g({1. .,n})} éraitunetribu;elle contient chacun des A,. oonc eltJFJn,,"nt la prus petite des tribus contenantles A, :
er iAr, ...,An) c I I. Ai, I Ç g{i1, .. , n}}}it-t
L'inclusion étant étahrie erans les deux sens, re résurtat est démontré.
3.3 TrËbu borcéEiemme
[-es notions d"aigèbre ou de tribu oni été définies jusqu,à présent sur desesBaces f,) amorBhes, c'est-à-dire sans aucune référence à i'eirr toporogie. i\éen_rnoins, dans les situations usuelles elassiqures, fl est iR, ou lRp, au z, au lf{. ll est
PH. TASSI S. LEGAIT 17
LES CONC EPTS PROBABILISTES
donc fréquent de supposer qLle Q est un espace topologique, et même métrique ; ilest alors cohérent de souhaiter disposer d'une tribu d'événements compatible avec
la topologie de Q. Plus précisément, on imposera que les ouverts et les fermés pour
la topologie de O soient des événements.
Définition 3
soit Q un espace topologique ; on appelle boréliens les éléments de la tribuengendrée par la famille O des ouverts de Q :
I : o(Ol
ll est évident que fi est également engendrée par la classe ,9 des fermés de
A; I s'appelle la tribu borélienne.
Eans le cas particulier usuel où O est lR, la tribu borélienne, notée 9l estengendrée par les diverses classes des intervalles :l* co, x1, l- -, xl, lx, + -1,1x, + -[, [x, y], [x, yt, ]x, y[. x et y étant deux réels tels que x < y. La classe des
ouverts { l- -, x[ ] iouera par la suite un rôle privilégié.
De même, sur lRp, la tribu borélienne frP est engendrée, entre autres, par laclasse des pavés ouverts ]- -, xt I x .." x ]- -, xp[.
Remargue.' on notera ,4 l" t ibu borélienne de lR.
4 PROBABILITESUR UN ESPACE PROBABILISABLE
Comme nous I'avons annoncé dans l'introduction, la présentation de la pro-
babilité adoptée est celle de A. Kolmogorov (1933). Celui-ci propose une axiomati-que cohérente au niveau du langage mathématique, fondée sur la notion de ome-
sur" norrnaliséeo (cf. chapitre 2) et la théorie des ensembles, mais dans laquelle
l'interprétation concrète des concepts n'apparaît pas. Les hypothèses portant sur
les événements ont été énoncées dans les paragraphes précédents. Suivent les
axiomes portant sur la probabilité elle-même.
4.1 Définition d'unc Probabilité
Définition 4
Soit un espace probabilisable (O, .41. On appelle probabilité sur (O, .41l'application P : ,-4' - tO. 1 l, telle que :
a) P{O) : 1
1B PH TASSI - S. LEGAIT
tES CONC EPTS PROBABILISTES
b) Si (An)est une suite d,événements disjoints :
p( ; A.) : ; p(A-)n:1 " r"i:l n'
Les conditions a et b portent respectivement les noms d'axiomes de normalisationet de a-additivité.
Définition 5
Soit un espace probabirisabre (o, &). on appeile probabirité sur (e, .41l'application p : ,r/ - IO, 1l telle que :
a) P(Q) = 1
c) Ae .&, Be e,llB: e: p(A+B) : p(A)+p(B)d) soit une suite d'événements (Anldécroissant uér" @',ii, \ p (An) : o.
Les conditions c et d portent respectivement les noms d'axiomes d'additivité, decontinuité monotone. Au plan des notations, I'intersection A O B de deux événe-ments sera aussi notée AB.
ll est aisé de montrer que res définitions 4 et 5 sont équivarentes :
oor|.,1"l:o9ï::; :i" 'u condition (b) soit vérifiée' Alors. en prenant An : a
P(A., + Arl : P(A1)+ p(Az)
D'autre part, soit une suite (An) décroissant vers @ :
æAn: _r- (A.n-Ar*1),
m=nce qui implique :
P(An) : _I- p(An.,-A',*r).m:n
P (An) est alors le reste d'ordre n de ra série u, - p (A, -Ar*1) eui estune série convergente car :
I. u.: -:.
P(Ar-Ar*1): P(A')m: I m:1ll s'ensuit que lim \ p (An) : O.
PH. TASSI - S. LEGAIT19
LES C ONC EPTS PROBABILISTES
b) Supposons vraies (c) et (d), et soit (Aj une suite d'événements disjoints ;
on note :
A- ; An,Ae-on:1
Soit Bn : a A.; par construction, la suite Bn converge en croissant versm<n
A, A : lim / Bn. La suite {Bn - A) converge donc en décroissant vers @ ; I'axiome(d) implique que P (Bn - A) converge vers O quand r * oo.
D'autre part, si let J sont deux événements de .& tels que lC J, on peutécrire J : I + (J - l), avec I et J - I disjoints. L'axiome(e) implique que :
P (J - l): P (J)- P (l)ll s'ensuit :
Vn. P (Bn-A) : P (Bn) - P(A)
En outre, en étendant l'axiome (c) à un nombre fini d'événements :
'|
P (Bn) : >. P (Am)m:l
et par conséquent :
æoolimP(Bn) : >_ p(Am) :p(A) :p(n m:1 m=1
Exemple: Supposons Q fini, ç : {cdr, .... ,r,r }, où tous les "individus, de Q sont
discernables par un indice identifiant s, a : 1à N. telle une population de person-nes physiques identifiées par leur numéro nSécurité Socialeu ou une populationd'entreprises identifiées par leur numéro SIRENE. A toute partie A de O, on associela fonction f définie par :
A * f 1R1 : cardinal de A
N
Montrons que f est une probabilité sur P, g@l).ll est évident que l'on a :
o f (Q) : 1
o A€ g (al, Be g(al, AnB - e: I (A+B) : f (A)+f (B).
91A1 elant fini, ces deux conditions suffisent à montrer que f, à valeurs danst0, 1 l, est bien une probabilité.
20 PH. TASSI S. LEGAIT
LES CONCEPTS PROBABILISTES
4.2 Propriétés d'une probabilité
Les démonstrations sont, en général, immédiates.
Propriété 5
P(@) : 0
Propriété 6
A,Be .4: ACB;alors p(B-A) : p(B)-p(A) > O.
Propriété 7 (probabilités totales)
P(AUB) + P(AnB) = p(A)+p(B).
Démonstration
AB
On peut écrire :
AUB:A+(BoÂ),B:(BoA)+(BnÂ).
D'après l'axiome (c) :
P(AUB):P(A)+p(BnÂ)P(B):P(AnB)+p(BnÀ).
En éliminanr p (B n Â;, on obtient le résultar.
Généralisation : formule de poincaré
P(A1 uAzU..'uA") : r.!r P(Ak)-,Ii ,(A,ôA,)+...+
(-1)n+1 p(Arn...nAn)
Propriété 8 (sous a-additivité)
t'?o"' =; P(An)
Démonstrafron.'soit (Bn) la suite d'événements définie de la façon suivante :
Br : A' Bz : AzO Â,,, ..., Bn: An O An_t a ... n Â1
PH. TASSI - S. LEGAIT
LES CONC EPTS PFOBABILISTES
Les événements(Bn) sont 2 à 2 disjoints et U Bn : Y
On
Comme, pour tout n. Bn C An, on a P (Bn) < P (An).
ll s'ensuit :
P(U An) : P(UB.) : _>" P(Bn) ( > P(An)n"'nà1 n
Remarques
1) Si (An) est une suite décroissante d'événements de limite A, alors
P (A)= lim \ P (An)'
2) Si (An) est une suite croissante d'événements de limite A, alors
P(A) : lim/P(An)'
Pour démontrer 1), il suffit de se ramener à la condition (d) en écrivantBn : An - A. Bn \ @ donc P (Bn) \ 0 et par conséquent P (An) \ P (A). De la mêrne
façon. on écrit Bn = A - An.
Définition 6
Le triplet (A, ,-4, P) porte le nom d'espace probabilisé.
5 FONEflON DE REPARTITION
Soit P une probabilité définie sur l'espace probabilisable (lR, fr'l; on sait que
fr, contienl en particulier tous les intervalles de type l- -' x[.
Définition 7
On appelle fonction de répartition de P l'application F : lR - tO, 1l définie
Par : vx € lR, F (x) : P (l- -' x[)
Remargue
On trouve fréquemment, en particulier dans les ouvrages anglo-saxons, la
définition F (x) : P (l- -, xl). La différence entre les deux définitions dépend de
P ({x}), probabilité de l'événement élémentaire {x}.
Les propriétés de F résultent pour la plupart des propriétés 5 à 8.
Propriété 9
La fonction F est croissante.
PH. TASSI - S. LEGAIT
LES C ONC EPTS PROBABILiSTES
En effer, soirx( y;l_æ, xlcl_ *, y[; ta propriété 6 étabtir te résutrat.
Propriété 1O
La fonction F est continue à gauche.
Soit (xn) une suite de points de lR telle que lirn , ^n:x; alors la suite (J__, xn[)
converge en croissant vers'- -. x[) et donc p(]_;, xn[) = F (xn) converg" àncroissant vers P(l- oo, x[): F (x).
Propriété 11
e lim F (x)= 1
X*+oo.
o lim F (x)= Ox--oo.
Ces résultats proviennent de p (lR) = 1 et p (el : O.
Remargue
De façon analogue on définirait la fonction_de répartition d'une probabilitédéfinie sur lRp. muni de sa tribu d,événements æ n """;;;';x. x1--
^oti ,
' trrwuuEverrerlrenrs ,j7''Pconlenantlespavés(J--, x,|[
f (xr, . xo) : P (l-oo, xl [x ... x]--, ;o 1;
6 PROBABILITE CONDITIONNELLE,IN DEPE N DANCE D'EVENT rVr ÈrVrS
L'axiomatique de Kolmogorov contient une spécification de la probabilité d'unévénement conditionnellemeni a ,n uutià.
6.1 Probabilité conditionnelle
Définition 8
Soit un espace probabilisé p, .4, p) et_B e,r/tetque p(B) ) O. On appelteprobabilité de A conditionneilemeni a a, o, p.ooutiùté tonortionnele de Asachant que B va être réalisé (ou est réalisé) le'nombre :
P(AnB)P (AiB) :
P (B)
PH TASSI - S LEGAII ..
L.ES CONC EPTS PBOBABILISTES
Vérifions que la fonction ainsi définie est bien une probabilité sur Q, *41:
O < P(A/B) < 1, VA e .& car AaBCB
P(Q'B) : P(OîJL : P(B) :1P (B) P (B)
Soit (An) une suite d'événements disjoints. Comme les événements (An n B)
sont aussi disjoints, on a :
P (U An,/B) :n
P ((U An)a B) P (U (An n B)) : P (Ann B)
nnnP (B) P (B) P (B)
P(AnaB):
n P(B) n
P l\./Bl est bien une probabilité sur (A, .el
Remargue
En écrivant P (B/A), et en tenant compte du fait que P (A Ô B) = P (B n A) par
commutativité, on établit :
P(A/Bl.P(B) : P(B/A) .P(A)
La définition de la probabilité conditionnelle peut être généralisée à un nom-bre fini d'événements :
P(An B n C) :P lA/Bn C) . P(B a C)
= P (A/Ba c) . P (B/C) . P (C).
Soit (A,), i : 1 à n, une famille finie d'événements; on établit aisément :
nnnP(.n. An) : PlA,/ et A,).P(A"/ n A').......P(An)
r:r i:2 ' 'i:3
6.2 lndépendance
Définition 9
Deux événements A et B sont dits indépendants si :
P(AnB):P(A) .P(B)
24 PH, TASS1 ' S' LEGAIT
tES CONC EPTS PROBABILISTES
Remargues
o L'indépend3lq" esr une propriété des événements er de ra probabirité.o si P (A) et p (B) sont tous d'eux strictemeni poriiil., porturer que A er B sontindépendants revient à imposer :
P (B/A): P (B) ou P (A,zB) : p (A)
<L'information> apportée sur l'événement conditionné par l,événement ucondi-tionnant" est nulle.
Définition 1O
i"i[J:":ii!".Ji"'" e rarmée des n événemenrs A,, ..., Ao ; ,e est dite
ko,Air ... rl (Aik) : ,!,
p (Aii)
pour tout k, pour toute suite (i1. .... ik) de (1, ..., n).
Remarques
_""",it,3,1 dit parfois que tes événemenrs A1, ..., An sont uindépendants dans teur
b) Pour savoir si ra famiile .gest indépendante. ir faut donc vérifier :
ci* . * cl : 2"- c3- cl : 2n - n- 1 retations.
Exemple
Soit l'expérience consistant au lancer de deux dés;
Q:{(i, j), i:1à6, j:1à6}On considère les événements :
A:(iest impair). B:(jest impair), e:(i+ jest impair).
On vérifie facilement :
P(A) : P(B) : P(C): 172P(AB) = P(AC) : P(BC) :1/4P (ABC) : 9.
Les événements A, B et c sont indépendants 2 à 2, mais ra famiile (A. B, c) n,estpas indépendante.
PH TASSI - S LFGATT 25
LES CONC EPTS PROBABILISTES
Dé{inition 1 1
(An)ne N*
est une suite d'événements indépendants si :
kvk € tN* v (ir, ..., ik), P (Ai1 n ... n o,J
i!,, t(o,/
Propriétés 12
1)Si A et B sont deux événements indépendants alorsA et B le sont aussi,
ainsi que A et B.
2) Si (A^) est une suite d'événements indépendants, on obtient encore une' suiiet'éuénurn"nts indépendants en remplaçant un nombre quelconque
de A' Par leurs comPlémentaires.
Démonstration
P(AnB) : PtA-AnBl: P(A)-P(AnB)
= P(A)-P(A)P(B) : P(A)(1 -P(B)) : P(A)P(B)
P(ÂnB) = t -P(AUB) = 1-P(A)-P(B)+P(AÔB)
- 1-P(A)-P(B)--P(A)P(B) = (1 -P(A))(1 -P(B)): P (Â)P (B)
Propriété 13
Soit (An)neru* une suite d'événements indépendants; on a :
P( n An) : n P(A")n€lN* neN* rr
Démonstrationkk
P( n An) : n_P(An)n:1 " n:l
k-Comme n An est une suite d'événements décroissant vers Ô
" An' on a :
n=1 " n=1
kooP( a A^)\P( n An)
n:1 " n:1 "
d'oùt : æt<kæP( n A.) : lim P( n An) =.lim n. P(An) = n. P(An)
'n= 1 n' k-cê n:1 " k-æ n:1 n= 1
zo PH. TASSI - S. LEGAIT
LES CONC EPTS PROBABILISTÊS
Définition 12 : Généralisation
Soit (Q, .4, el un espace probabitisé et soit {G,, 1 ( i (n} une famiile departies de ,*/. Les parties ? ,, 14 i ( n, sont indépendantes si :
ko ,Air ... a Aik) :
,! ., e tR,)
wur Lou| k, pour toute suile (i1, ..., ik) de (1, ..., n) et pour tout événement A,de-ijJ
Définition 13
Dans le cas particurier où res G,sontdes sous-tribus de .4, res G,, l <i<n,sont indépendantes si :
P(A A,) : ti p(A,)i=1 i-l '
pour tout Ai appartena nt à G,.
. Le théorème qui suit propose une condition suffisante d'indépendance de tri-bus engendrées.
Théorème 5
Pjl'_!{t 1=.i s n} une famiile de parties de .dreile que ,g,soitsrabre partntersection finie, pourtout 1 ( i ( n :
o ( 9,1, 1< i < n, indépendantes <ê g,, 1{ i s< n. indépendantes.
6.3 Théorème de Bayes
Théorème 6
soient A et B deux événements de probabirité strictement positive ; on a :
P(A/B) - P(B/A) P(A)
P (B/AI. P(A) + P(B/À). P(À)Démonstration
ll suffit d'écrire l'événement B sous la forme :
B : (BaA) U (BnA)d'où :
p(A/Bt- P(AnB) : P(B/A]P(A)
PH TASSI . S. LEGAIT
P(B) PB/AIP(A) + P(B/Â)P(A)
LES CONC EPTS PBOBABILISTES
Généralisation
Soit A.,, Ar, ..., An, n
V1 <i(n. F(A,))O:P (B/Ai) P (Ai)
P (4,,/B) =
P (B/Ai) P (Ai)
Exemple
On dispose de 3 pièces de monnaie : la première est parfaitement équilibrée.la seconde a 2 côtés npilen, la troisième est truquée de façon que la probabilité
d'obtenir.pileo soit de 1/4. On tire une pièce au hasard. on la lance et elle donne
"pilen. Ouelle est la probabilité d'avoir lancé la deuxième pièce ?
B l'événement (obtenir pile", et A, l'événement <tirer et lancer la ième
1,2, 3.
P (B/A2l P (A2l
P (Ar/Bl :P (B/A1) P (A1) + P (B/A2l P (42) +
1x1/3
P (B/A3) P (43)
1/2x1/3+ 1 x1/3+ 1/4x1/3 7
L'importance du théorème de Bayes dépasse très largement le simple énoncédu théorème 6. et porte sur les concepts. En effet, s'il existe un lien de type causalentre A et B, c'est-à-dire si B est, en un certain senS, une <cause> de A, le principe
bayésien revient à calculer P (A/B) à partir de probabilités portant sur B, sur la cause.
d'où son interprétation cornme nthéorème sur la probabilité des causes> très impor-
tante pour l'étude de l'environnement causal B d'un phénomène observé A. ll exis-
tera done des rnéthodes statistiques bayésiennes liées aux probabilités bayésiennes.
événements formant une partition de Q, tels que
n:j:1
Soitpièce, i =
4
2B PH.TASSI -S LEGAIT
EXEREICES
1'1 un facteur doit distribuer n letlres dans n boîtes aux leftres dont on a retiré les plaques, les rendantindiscernables.
Comme les n lettres portent n noms différents, le facteur suppose qu'il y a une lettre et une seule àdistribuer dans chaque boîte et il dispose donc les lettres au hasard.
calculer la probabilité qu'une lettre au moins soir distribuée à son destinataire réel. calculer salimite quand n croît.
lndication
1l.t:t: -A l'événemenl ,,;. 1ème leftre est distribuée à son desrinataire réei>. 0n chercheP(ArUAzU...UAn).0na:
n
P ( U A,) :2 p (A,)- tr p (A. n A.)+ ... +i:1 ' '' i<j 'r I
(- l;t'*t > . p (A, t...o A,;+...+ (- l)n*iR 1R, n... a An)(i1'..., ik) '1 rk'
Ce résultat est connu sous le nom de formule de poincaré.
L'ensemble o des résultats possibles de l'expérience est l'ensemble des permutations de{1, .... n}. 0n te munir de ia piobabitiré :
VA€ 3 (ni, p(A) : ##P(A a...fiA.): ln-k) !
'l ,k' t ' Vk€ {1'2' ',nld'où :
llre1.Û.n,1 :n ' -r:
(n-2) I
+ ... + (- l)k+l çk (n - k) !
i:l ' n n nl n nl
+..+ (-l)n'l -1- = i (-l)k*, .t. ------> t-e-rnl k:l ' ' k! n-oo
PH, IASSI S. LEGAIT
LES CONCEPTS PROBABILISTES
1.2 soir Q : { 1, 2, ..., nl (n } 1).
I1) Délinir une probabilité P sur O telle que:Vi€ Q, P ({i}) :;
2) Trouver une condition nécessaire et suffisante sur n pour que :
: (A, B) e g (al - t@, a], A et B indépendants,
3) 0n note :
Vp € Q A- : {i€Q/pdivise i}, K: {p, p diviseurpremier de n}'p
I (n) = Card {q e Q/q est premier avec n }'
a) Montrer que si p,, ..., pk sont élérnents de K alors Oo',, ',, Oo* sont indépendants.
Ib) MontrerquerP(n) : n l'l (l--)'
p€K P
lndications
Card AllLafonctionV:91A1-t0,11,P(A):estuneprobabilitésurO(cf.4.1)et
vérifie:Vi€O P({i}): I '
n
n
2) S'il existe A et B indépendants (A et B non égaux à @ ou O) alors on a ;
n Card A f-l B: Card A x Card B.
Card Adivise n (CardAn B< Card A) doncn estnonpremier. Réciproquementsi n estnon
premier, 1 k> 2 et p2 2, n : kp. Soit A : {1, 2, ...,k} et B : {k, k + 1, ..., k + p - 1 } ;
onabienP(AnB) : P(A) P(B)
3)a) Sipdivisen, lk€O, n:kp et Ao: {p,2p,...,kp} d'où;
kklPiAi: -:-= -'p' n kp p
p {Ao' n ... n Apk} : P (Ao' oJ car les p, sont premiers
1: _ car Pt '.. Pn divise n
Pr " Pr
k: n PlAl. P:'
l- I I
30 PH TASSI - S. LEGAIT
LES CONCEPTS PROBABILISTES
b) Soit B : [q € Q/q est premier avec n].
$: nd'où: P€K
P(B) =?(n) = n PtÀIn p€K p'
puisque les Ào sont indépendants.
Àp
:np€K
1(1--)p
PH. IASSI S. LEGAIT
Chapitre 2
Probabilité, mesure, intégration
L'axiomatique de Kormogorov (1933) qui a servi de base pour re chapitre précé-dent repose sur des concepts mathématiqués générau^ qr" uJni les mesures et l,in_tégrale par rapport à une mesure. Le déveroppement de ra notion de mesure de rafin du 19" siècle et du début du 20' siècle donne naissance à une théorie dont laprobabilité ne peut que profiter, celle-ci en étant un cas purti.rri"r. ce chapitre, quipeut être omis en première lecture, fournit aux lecteurs familiarisés
"u". unu ;r;;J;-tation mathématique abstraite. les principaux résultats rattachés au concept de me-sure, et qui seront repris et utilisés dans la suite de l'ouvrage pour les probabilités.
1 LA THEORIE DE LA MESURE :HISTOIRE ET APPORT AUX PROBABILITES
Les fondements de ra probabirité mathématique présentés au chapitre précé_dent, dus à. Kolmogorov (1933), ne marquent, bien sûr, ni I'achlvement ni les débutsde cette science. Les premiers écrits sur le calcul des probabilités semblent remon-ter à 1525 (cardano) ; Huyghens, en 16s7, présente un ensembre cohérent deconcepts probabilistes, reprenant nombre de résultats obtenus par Blaise pascal etPierre de Fermat. Huyghens définit, en particurier, r'espéranc" j,rn" variabre aréa_toire prenant ses valeurs sur un nombre fini de points.
Le 18" siècle est marqué par la contribution de la famille Bernoulli -Jacques,Nicolas, Jean, Daniel - ; Jacques Bernoulli. dans son -Àr, "oni""tandi,
publié en1718 énonce la loi des grands nombres. En 1733, de Moivre obiient la loi normale(ainsi qu'elle sera dénommée bien plus tard par poincaré) en approfondissant lescalculs de la loi des grands nombres et en utirisant |approximation asympotique den ! trouvée auparavant par rui-même et stirling ; it Éùntie egaiement ra premièreforme du théorème central limite. Autre personnalité importaîte : pierre Simon deLaplace; commencés en 1778, ses travàux servent de référence jusqu'à ra fin du19" siècle et au début du 20' siècle.
Citons Jean Dieudonné : n... le cercle vicieux de la définitionfd'une probabititélen termes de cas équipossibtes, I'apparition de variables aléatoires discrètes mais ànombre infini de valeurs possibles, telles que celles de Poisson, et des variablesaléatoires à loi absolument continue telles que des variables aléatoires nor-atii.
PH TASSI S LEGA]T aa
PROBABILITE MESUFF, lNTEGRATION
ont amené graduellement à une idéatisation mathématique qui engloberait toutes
ces possibilités,. Le développement de la théorie de la mesure va y contribuerfortement.
En 1881, A. Harnack introduit la notion d'ensemble discret, puis, en 1882,
celle *d'égalité en général,, qui anticipe le concept d'égalité presque sûre du para-
graphe 5. La nmesure, d'un ensemble apparaît ensuite dans de nombreux travaux ;
ies définitions sont différentes selon les auteurs (Cantor, 1884; Peano, 1887;Jordan, 1892). Mais c'est Emile Borel qui va introduire la notion d'ensemble de
mesure nulle (1894), et la théorie des ensembles mesurables (1897). Travaillant
sur lR, et, plus précisément sur [0, 1 ], il privilégie la classe des ensembles ouverts,
qu'il .mesure, à partir de la longueur des intervalles; il montre que l'on peut définirsur cette classe {qui portera plus tard le nom de classe nboréliennen) une <mesure>
p vérifiant les propriéiés, vues au premier chapitre, de s - additivité et de différence:
(ACB:s(B-A) : s(B) - s(A))
La théorie de la mesure de Borel va alors ouvrir la voie à l'intégrale de Lebes-
gue, ou intégrale généralisée. qui va permettre à I'intégrale de Riemann et aux
[robabilités Oe Oépasser certaiRs contre-exemples gênants. En effet. jusqu'à la fin
du 19" siècle. la seule façon de déf inir l'intégraie d'une fonction f sur un segment
Ia, b]consistait à utiliser les sommes de Riemann-Darboux. Néanmoins, à partir de
tgZO, t'integrale de Riemann s'était vu opposer des particularités où elle était
inemployable, comme les cas où f- converge simplement vers f, f n intégrable au
sens de Riemann pour tout n, f norlnleman-n-intégrable.
En 1901, H. Lebesgue donne une théorie de l'intégration plus générale que
Riemann, à partir ciu concept de mesure introduit par Borel. C'est cette construc-
tion de l'intégrale de Lebesgue qui est présentée dans ce chapitre, ainsi que ses
applications. -Sous
l'impulsion de J. Radon, les concepts de mesure et d'intégrationqlitt"tont vite IR et lRn; ainsi apparaîtra la théorie de la mesure abstraite définie
,ur un ensemble Q quelconque muni d'une tribu (1913)' C'est cette notion de
mesure absiraite qui a permis le développement de la théorie mathématique des
probabilités. Par exemple, pour définir dans tous les cas I'espérance E (X) d'une
variable aléatoire X, il fallait l'intégrale de Lebesgue et ses extensions. L'achève-
ment de la construction des théories de la mesure et de l'intégration peut être daté
de 1g30, avec les théorèmes de décomposition de Lebesgue-Nikodym et l'existence
des densités.
Ainsi. la théorie de la mesure et de l'intégration ont jeté les bases d'une
formalisation homogène et cohérente des probabilités, en y introduisant la rigueur
du raisonnement mathématique ; rappelons en effet que Keynes, en 1921, écrivait
À propo, des probabilités que ./es savants y décèlent un relent d'astrologie ou d'al-
chimie,, et que von Mises est encore plus direct en affirmant (1919) que n/e calcul
des probabilités n'est pas une discipline mathématique"'
La probabilité étant un cas particulier de mesure se voit donc, à partir des
années trente, appliquer une grande partie des résultats de mesure et d'intégration'
PH, TASSI - S. LEGAIT
PROBABILIIE, MESURE, INTEGRATION
2 NOTION DE MESURE
2.', Définitions
Définition 1
soit (Q' 4 un espace mesurabre..on appere mesure positive sur (Q, .4)toute appticarion 1u définie sur "4 a u"ràlis Oa;;"iRî-: [0, + oo] vérifianrl'axiome de a_additivité :
Pour toute suite (An) d'éléments de .r/, n € lN*, deux à deux disjoints :
tr(;_A^) :; p(A-)n=1 n' n=1 ' '"n'
Remargues
a) Par la suite, on dira mesure pour mesure positive.
u*",:)"u?"?.l:l?il;;;1""* d'une mesu re p te nombre (positif) p (a);p (Q) peut être
c) Une probabilité est une mesure de masse 1.
Définition 2
Le triplet (o, 'i/, !r) est appelé espace mesuré (ou probabilisé si g est uneprobabitité).
Une autre définition de la mesure peut être donnée
Définition 3
soit (Q' '''/y un espace mesurabre. une apprication lr défini e sur .4à vareursdans lR*, non identiqu"r"nreô"i"'à-+ *, est une mesure si ;
1) g est addirive
V(A, B) e ,,æ, AnB :e, tt(AUB):1l(A)+s{B)
(ouvA,,...,Andeuxàdeuxdisjoints u \Q. AJ : .! gfn,ttt:l i_1 ,
2) V (An) suite croissante d,éléme nts de ,4,
lim i g(A^) : g (tim 1 A )n"n
PH. TASSI - S., LEGAIT 35
I
PROBABILITE, MESURE, INTEGFATION
Montrons que les définitions 1 et 3 sont équivalentes :
a) La a-additivité entraîne I'additivité de façon triviale'
De plus, si An 1 A, alors;
A : A., + (Az-A.,) +... + (An-An-r) +'..
avec Vn, An - An-,r éléments de ,'4, deux à deux disjoints ; d'où :
s(A) : s(A.,) + nlru(An-An-')
: n'A nl,
ll(An-An-,r) + l(Al)
or:/(An-An- tl : u(An) - p(An-r) car An-r C An
et donc :
An-1 +(An-An_r) :An
d'où :
g (A) = lim Ét (Ar)k*oo
b) Réciproque :
Soit (An) une suite d'éléments de ,'4, deux à deux disjoints'
n.-B = U A, est une suite croissante d'éléments de ,4 dont la limite est U AL'en -
tI t ^k vvt v,,s Ju,.e v, v,ooq
k= 1 tr
Ona:
lim 1p(Bn) : g(lim l Bn) : ll(U Ak)
c'est-à-dire' ,irn r s r*1,, ont : /(uAk)
Or / est additive donc :
et. en passant à la limite :
nn1l(U Au) : I_P(An)
k:1 ^ k=1
n!' '(Ar.) : p (u Ak)
36 PH. TASSI - S. LEGAIT
PFUUAUTLl' L \ltSuRL TNTFGFAIIO\
Définition 4
Une mesure g sur (o. 4 sera dite a-finie si Q est réunion dénombrabred'événements(An), n € tN. tetsquepÀJ <** v n. ïi ulôr (+oo. ta mesure1r est dite finie, e 1It P:
g(cD Pestuneprobabilité.
Exemple
Soit a.r € e. On définit l,application 6.upar:
V A€.4, ô,,(A)=1siar€Aô, (A)-f si u É A
ô, est une mesure (c'est même une probabilité). dite mesure de Dhac au point ar.
Définition S
o on appete mesure discrète s,ur (1: ,*/7 to_ute mesure / tete qu,ir existe rdénombrabte appartenant à _dvéiitiant p @ _ti : ô-et V A e,,4,s(A) :Ér(AOl) = : p({ull
o on dit que 1, est concentrée sur r. al€Aôl
Exempte.'l : { 1,2, ..., n}
V1 <i(n pUit) =].tt(l):1
g est appelée probabilité uniforme sur { 1, 2, ..., n}.
2.2 Propriétés
Propriété 1
s'il existe au moins un événement A ter que / (A) < + oc, (c'est-à-dire siTl est non dégénérée), p (e) = O.
En effet :s (A U e) : p (A) + p @1.
Propriété 2
V(A,B) e &,p(AUB) :p(Al+u a) _s(AnB)
PH. TASSI. S. LEGAIT 37
PROBABILITE, MESURE, INTFGFATION
Propriété 3
ACB + ll(A)( s (B).
Propriété 4
s(UAn) (Ig(An).nn
Propriété 5
soit (An) suite décroissante d'éléments de ,4 de limite A ; on suppose qu',il
existek'telque p(An) . + -.Alors lim\g(An) : l(A)'
En effet, V n ) 1, (Ar - An)/ (Ak - A).
ll s'ensuit : rr (Ak - An) / p (An - Al
+ s(A*) - p(An) / 1t(Anl - lt(A)
La condit'ion g (Ak) < + oo fait que l'on peut simplifier. Remarquons que
pour une probabilité. la ôondition 3 k : g (An) est f inie, est toujours vérifiée.
Propriété 6 : Composition de mesures
Soit (gn), n e lN, une suite de mesures sur (O, '*/7 et (in), n C lN' une suite
de réeià positifs; alors P : > ,1n /n est une mesure sur 1A' '41' ,n
Démonstration ' ,
soit à établir la o-additivité de g :
æ
u( : A ):I Ànqn (IAr)' 'n.'':1 m' n " " m
nm- t : Ànln (An.')
mn: I p (A.).
m
En particulier, si (Pn) est une suite de probabilités sur (o,,-41 et si2 ^
n:,1,,^n :.'alors p : LÀ^ P^ est une probabilité sur @, ,,4\ Cette propriété permettra la
Iàî.tir"ti* o"''tnisuiàs ou oË pronabilités.
PF], .IASSI , S. LEIGAIT
PROBABITITE, MESURE, INTEGRATION
Théorème 1 ; Egalité de deux mesures
. };t: A,,47 un espace mesurabre ter que -4. estengendrée par une famiile17 de parries .ç( - mesurabtes de e, stàote pur. intàrrËiion tini".
o si g et v sont deux mesures a-finies sur (e. ,,4) co:incidant sur G, arorselles coincident su( ,,4.
En particulier, si deux mesures finies sur (lR, &) co'incident sur les intervalles,alors elles sont égales.
2.3 Mesures sur (lR, gî/l
Définition 6
on appelle mesure continue sur (rR. fr') toute mesure p vérifiant :
Vx€ lR. p({x}) : O
a) Mesure de Lebesgue
On appelle mesure de Lebesgue sur (lR, fr.y la mesure i définie par :
i(la,bl) - b-a, Va,b.a < b
on admettra I'existence et l'unicité d'une telle mesure. La mesure,À prolongela notion de longueur, et est continué.
- -
Propriétés
1) .à est a-finie :
tR: 9_ln,n+11et,tr'n,n+tl) : in€Z
2) Y aC lR,,À ({aJ) : O donc,À est une mesurecontinue.
3) Va, b, .à (la, bl) : ,a (ta, bl) = ,i fla, b[) : i (ta, b]y.
Remarque
De la même façon, on définit Àu. mesure de Lebesguq sur (lïk, frly:
!kpin(,!. la,,b,J) :.t-t. À JaLb,l) : n (b,-ai)t=l i:l r r i:l 'l
PH. TASSI - S. LEGAIT39
PROBABILITE, MFSUBE, lNTEGRATION
b) Mesure de comptag" * *On définit sur (lN, g lNll l'ètre p" : : ô . 6 masse de Dirac en x,
x:o x' x
x C lN . gc est une mesure d'après la propriété 6. Si A € g (N ), gc (A) est égalau nombre d'éléments de A. La mesure p^ s'appelle la mèsure de comptage. C'estune mesure discrète sur (lR, frl puisque boncentrée sur lN.
3 MESURABILITE
3.1 Application mesurable
Définition 7
Soient (O, .&l et (O', ,,4,'lrdeux espaces mesurables. Une application f :Q -O' est dite mesurable si :
v A' e -4', f' iA'l e ,4.
ou: r' 1.&'y c,4
Définition 8
f-1 1,4i : {f-1 (A'), A' € .4.' } est une tribu ; c'est la plus petite triburendant f mesurable, dite tribu engendrée par f, notée a (f).
Propnélé 7
Soit A C O : A e ,4'e 1o est mesurable de lA, ,'&) dans (lR, g,L
Démonstration
Soit A e ,,&.Montronsque loestmesurable. SoftBe &:oSi BcontientOetl 1;1 (B) :Qe .&
o Si B ne contient ni O ni 1 l;t (B) : Q e .4
r Si B contient O er pas 1 l;t te) : A e .4
o Si B contient 1 et pas 0 1;1 {B) : A € .4
DoncVB e &,1;1 (B) e ,,4 et 1o estmesurable.Réciproquement:si loestmesurable, alors 111 ({1}} : A e -4..
40 PH, TASSI - S. LEGAIT
PFOBABILITE, MESURE, INTFGRATION
Vocabulaire; Si A e ,,&, on dit que A esl -ol-mesurable.
Propriété 8
Soient @, ,r/)et (O', .&'y Ae,2<espaces mesurables oit .d,, est engendrée paruneclasse G'departiesde e', etf :e * A,;ators, --
o (l-' (G')l : f' (,4'l : t-, @ (G)lDémonstration
. G' C.4+ 1-' (G'l C t' (,,&')
+ o(f-, (G,l) c o1t1 1.4,y1 : I-, (.&,)puisque f' (,,4,1 est une tribu.
o Soit 8r: {A' C e,/f A,) € o(t-1 (çqTton montre facirement gue fi rest une tribu, dite tribu induite de o 1f-1 1G,ypar f. En outre, 8, contient G, ..
VA.€ G't-, (A,) € r, (G) C o6-1 1G,yd'où: o(G')C8,
f-'(o( G'D C tn ( g) C o(f-1 1G,y1 pardéfinition de fir.Propriété 9 : Critère de mesurabilité
Soitf : (O,.4) -.@',^.4'l où.4, : o(6,1, G, C A,.f mesurable <+ f-' ( G,y C ,,4
Démonstration
o Si f esr mesurable,. f-1_-1 ,,4,) C -4 et o (t-1 ( G)l C ,d. @,après lapropriété B)d'où t1 1G;1 C .4.
o Réciproquemenr : si f-' ( G,) C,4, o g-i ( ç6,)l C,-4, donc f1 1,,4,y c,4(propriéré 8). f est mesurable.
Exemple
!1e aoolication f : (o, .r/7 - 1n, â) est mesurable si et seutement si v a € tR,1 (J - *, all est ./-mesurabre. En effet ,4 est engendrée par ra crasse desintervalles l--,a1.Théorème 2
Soit Q et Q' deux es^paces topologiques, ,-4 et ,,&, leurs tribus boréliennes.Touteapplicationf :O - O'contiÀue est mesurable.
PH. TASSI - S. LEGAIT
PROBABILITE, ]VESURE, INTEGRAT1ON
Démonstration
On note / l'ensemble des ouverts de O et O' l'ensemble des ouverts de O' :
.04 : o(O) et "4' : o(O'lf est continue de Q dans O' <+ f-l @'l C O
=+ f-' @') c o @l : -4.=à f mesurable (d'après la propriété 9).
Théorème 3
Soient trois espaces mesurables (O, .rl), (A', .r4, P", .4:'l et deux applicationsf :O-Q'et g:Q'-O":
t-' (a (g)) : a (gof)
et si f et g sont mesurables alors gof est mesurable.
Démonstration
a(gof) - (gof)-' G&"1 : f-l [g-t (4"11: f-l (e,(S))
Si f et g sont mesurables s" k&"1 C .&' et ï1 G4'l C .4, donc (sofl-1 G.4"1c f1 G'{') C .4' et gof est mesurable.
Propriété 1O : Critère de mesurabilité
Soit (Ei, ,/),1, i € l, une famille d'espaces mesurables et (f i)i€, des fonctionsde Q'dans E. On munit Q'de la tribu engendrée par les (fi). i € l, c'est-à-direde a p us o"n"I?":ïH,lËï.:":,il;:l:l.ul,
i€l I I
f : (A, .47 - @', "4'l est mesurable <+ V i € l, f of est mesurable.
Démonstration
Vi e l, f of est mesurabte <+ Vi € I (f of)-x (fi il C .&o .9. (f
, of)-1 ç4 il C .d
tel<+ f-' [ !, [' ç4 ill c -4
i€te ol'f-'',!, [' Ftgil]l c '4<+ f-' [a( !. q' çni)l] c,t{
iel l
o 11 ç&'7 c '4'<+ f est mesurable.
42 PH, TASSI - S. LFGA]T
PROBABII ITE, MESURE, iNTEGRATION
Théorème 4
a) si f et g sont deux apprications me_surabres de (e, .d,r - (rR, fr,r arors f + g,fg sont mesurabtes de e, 4 _ (tR, fr) "- \--' v? t
O) Si (fn)ne rN est une suite d,applications mesurables de (O, ,4) * lR, g.)
alors supf n, inf fn. rim sup f n, rim inf fn sont mesurabres à condition qu,eilesne prennent pas des valeurs infinies. En particulier, si lim fn : f existe,alors f est mesurable.
Définition 9 : Variable aléatoire
soit (o, .&, p) un espace probabirisé, er (a', -{') un espace probabirisabre. onappelle variable aléatoire une application mesurabte i oetinie s", ta, kl'ivaleurs sur (e' , _{,) ,.
v A' e ,4' x-1 A') Ç -4
Notations
o si (o" ,r/r : (rR, &7,X est une variabre aréatoire réeile, ou unidimensionneile,ou univariée (v.a.r.)
o Si (O', ."1'l : (R", 9."1, X est une variable aléatoire n_dimensionnelle, oun-variée, ou un vecteur aléatoire de dimension no si(Q', ,rl') esttout ou partie de (2, g1zy,X est une v.a.r. discrète.
3.2 Mesure-image
soient @, '4' ') un espace mesuré, f une apprication mesurabre de (o, .4rdans (o" ,/'t. oo oerinit ""àï""ii"" J l'", k; i"{,"--''-" " 'vi
V A' € .&', pf (A') : p{f-, (A,)}
gf est une mesure sur .4;,dite mesure-image depparf. En effet:c pl a un sens puisque t-1 (A,,) e .4. pf est à valeurs dans IR* par constructiono Soit (A'n) une suite disjointe d,événem ents de .d,
sr (:A'J : p{f-1 (:A.n)}: tt{> f-1 (A,n)}:zp{f_1 (A.n)}
PH TASST - S LFGA|T 43
PROBABILITE, MESURE, INTEGRATION
Application : Loi d'une variable aléatoire
Définition 1O
o Soient @, ,,4, P) un espace probabilisé , @', ,,4' ) un espace probabilisable,
X une v.a. définie sur (Q' .4'1à valeurs dans (O', ''4'l
o on appelle loi de probabilité de la v.a. X la probabilité image de P par X
notée Px.V A, e .4;, px (A') : p (X-1 (A'))
Notations
X-t (R') : {u € A / x(ar) € A'} : {X € A'}
o On écrira souvent :
px (A,) : p(X € A')
o On donnera fréquemment à une variable aléatoire le nom de sa loi de
probabilité, Par abus de langage.
3.3 Tribu-Produit
Définition 1 1
o Soient (O, .&i), i € l, (l quelconque inclus dans lN), des espaces mesurables.
o On note n : ,!,
n,"t Pn,l" projection de O sur Q,:
(r.r;);e r _ @i
o La tribu-produit des ,,4 , notée @ &, est la tribu engendrée par les (pn ),
iel. ' icl
@ il. : o ( l) ,-' 1..0(,lli€l ' i€l ..l
Théorème 5 : Cas d'un produit fini de tribus
o Soient LQr&rl, i:1àn, nespacesmesurablestelsque &r: o1 G,leta € G..'
oonnote' .,=knE: 1,,=T=" A'AeG i
PH. TASSI S. LEGAIT
PROBABILITE, MESURE, INTEGRATION
Alors :
A ,,4.=o ( n e,ll(i(n ' 'l(i(n
' En particulier :
@ ,-4.: o ( n ,,4.11(i(n ' l(i(n t'
on dit que ra tribu-produit est engendrée par res pavés mesurabres.
Démonstration
Soit :
nA e Gi,,I. A, : ,*2n p; (Ai) .
,*T*n -,donc :
nn G,C a ,-{.
i:1 " 1=<i(n I
oou:
no( n G) C a ,,4
i:l 1(i(n I
Réciproquement, montrons que Vi : 1 à n
np-; G{t) C o ( n 61"i ' i:1 t'
nVi:1àn.VA.€G..oi,te1 :Ai X.l.O, e o( n G,)I r )rt , i:1 |
donc:n
o-l lG,) C o ( n c1,.i , .i: 1
'etnp-; ç4à) - oâ, @(G)t - s(nrli rc1 c r t,!. c,
t- |
donc: n8 &i: o (,8, o-l t-d,ll . " ,,!., G,l
PH. TASSI - S, LEGAIT
PROBABILITF, MESURE, INTEGRATION
corallaire g n.g.e g,: fr'z el A fi'ni- fi:1
1<i<dThéorème 6 : Mesurabilité des applications à valeurs dans un espace produit
Une application f : (O,.&) * (fl Qi, .9,il),, - (fi (ar))ie r est mesurableiet
si et seulement si V i € I f. est mesurable.
ll suff it d'appliquer la propriété 10 aux fonctions pn.
4 INTEGRATION
On se place, dans tout le paragraphe, dans un espace mesuré @, &, pl'
4.1 Intégration des fonctions mesurables étagéespositives
Définition 12
On appelle fonctiotr étagée une fonction mesurable f définie sur (O, ,4 a
valeurs dans (lR, fr.1, ne prenant qu'un nombre fini de valeurs x,, i : 1 à n.
Notations
Soit : n
Ai : f-l ({x,})' A' e -4 ' f : ,-r. ^' 1o,I- |
6* est I'ensemble des fonctions étagées positives'
Théorème 7 (sans démonstration)
Toute fonction numérique positive est mesurable si et seulement si elle est
limite croissante d'une suite de fonctions étagées positives'
Définition 13
Soit :
r e é*, f :,_t, *, to, (x, ) o)l: I
46 PH. TASSI - S. LEGAIT
PROBABILITE, MESURE, INTEGRATION
On définit :
I ldp : I x, ll(A,)i:1 | r.
La quantité J f Op est appelée intégrale de f par rapport à p.
Remargues
1)Si A €,,4, p(A) : ! 1a dp
2) On fait la convention 0 X (+ -) - O
fl ryl3) si f =,1', "' to' :,1., uj lri
1t-1rs : x, l(A,) - :yj l(B,). cequi donne un sens à ta notation I I a a,dont ta
définition est intrinsèque au s'ens où elle ne dépend pas de la spécification choisiepour f.
n4) Onnote J fdp: ! 1ofd1t:,:r,, x, l(A, O A)
Propriété 1 1
1) Soit f e 8*, ge 8*, atorsf +ge g* etJ(f +g) dp : !tap + lsdttSi .À€lR,ators
^f e 8* et J(,f fldp: À jlaU
2) f € 8*, ge 6*,sif (g ators !f dp (.l"Sdp.
Démonstration
1) f :. ). *, to, n:,],, y, 1r,t- |
On suppose, sans perte de généralité, que :
,r. A, = Q:l:l j:1 I
On peut alors écrire que :
PH. TASSI - S. LEGAIT
A, :' i:1 J :-r I IJ-r t-t
d'où :
or:
d'où
PROBABILITE, MESURE, INTEGRATION
f +g: (x,+Y;) oo, n t,
I 4*,rt(Ai nBj) +> lrtuln nB,)ij 'rtt tap + "[ sdll
s -f € 6., I gdtt : I ldtt + -i (g -fl dP
"i(s-ïdtt2O
J sdtl21ldp
nm
i:1 j:1
f (f + g)d/
2l g: f +g-f
Exempte: On munit (lR, g'l de la mesure de Lebesgue i'Soit : n
t : ,I.,
f (ti) I rti- 1, ril' t € lR*' t'- ',
<t
alors :
J fdÀ:,I., f (ti) i(lti-r,t,l) :,j1 t(ti) (ti-ti-1)
ce qui revient à calculer une intégrale de Riemann'
4.2 lntégration des fonctions mesurables positives
On note ,tt* l'ensemble des fonctions mesurables positives'
4BPH. TASSI _ S. LEGAIT
PROBABILITF, MESURF, INIEGRAT|ON
Définition 14
Soit f une fonction mesurable positive.
On définit t tdp : sup _f gdrrg€8*s<f
Théorème 8 (Beppo-Levi)
soit (fn), n € IN. une suite croissante de fonctions de "lt teile que rim l tne ,.1(,*alorsJlim lfndg = lim I ! fnd1t.
En particulier, d'après le théorème 7, si f e ,,/(,*, I (fn)ne ru
e g*,croissante,f : lim 1 fn alors :
I lap : lim 1 Jfn dp
Propriétés 12
1)Vf e ,/(*, g€ "(/,., l(f+g) dp:ltdp+lgfpV.À e R. J (nll dp: À I tdp
2)îe "4L*, ge,tr,, f ( g + [ fdp( .1" sd1,r
Propriété 13
Si (fn)ne rrv est une suite de fonctions de ,/L*
r; r^ dtt: ; lr-artn:O n n=O "
'n -r
cette propriété est une apprication directe du théorème g de Beppo-Levi à rasuite de fonctions croissantes :
n
9n: : f-p:o p
Lemme de Fatou
Si (fn)ne rru est une suite de fonctions mesurables positives alors :
liminf fn:tim I inf f_€,.4L*i o_æ p>n p
et:
J (tim inf fn) dp ( tim inf (,ifn ds)
PH TASSI - S LEGAIT 49
PROBABILITE, MESURF, INTEGFATION
Démonstration
Par application du théorème 8 (Beppo-Levi),
| (tim t inf f^) dl/ : lim 1 "i ( 'If fo) dln pln ' Pàn
"i ( ilf fo) dr ç Jfo dtt, vp 2 npàn
+J(inf f^) dp( inf lr^dpp>n ' P2n '
d'où :
J (lim inf f^) d/ ( lim 1 inf I 1^ dp: lim inf J fn dgn'np>nPn
4.3 Fonctionsintégrables
Définition 15
soit f une fonction mesurable définie sur (o. ,,41à valeurs dans B, fr.|. ondéfinit les fonctions :
f* = f .i{rro}et:
f_ _ _f .l{r*o}f* et f - sont mesurables puisque les ensembles {f } 0} et {f < 0} sont,/-mesurableset f : f* - f-.
f est dite intégrable (ou g-intégrable) si :
11*dg<+oôetJf-dp1+æonPosealors:
Itatt: îr* dp- Jr att
Définition 16
f mesurableestintégrablesi J ltl dg < + æ'
En remarquant que lfl : f* + f-, on r;1on[;" que les deux définitions sont
équivalentes.
Propriété 14
On note î (O, ,,&,g) l'ensemble des fonctions intégrables définies sur lQ, ,'41.
1, @, ,'4,11) est un espace vectoriel sur lR et la fonction de 'C (O, "4, p) dans lR'
f * I Idp est une fonction linéaire'
PH TASSI - S. LEGAIT
PROBABITITE, MESURE, INTEGRATION
Cas des variables aléatoires réelles
Définition 17
SoitX:(A,.,4, p) - !n,8,y unev.a. p_intégrabte(i.e. -i lXl dp < +*) .
on appelle espérance de X la quantité :
E(X) : -lXoP
4.4 Propriétés de l,intégrale
Propriété 15
Soient f et g deux fonctions mesurables telles quelil < S ; si g est intégrable,alors f est intégrable.
ll suffitderemarquerquef* ( g et f- ( S donc:
et: I f* dp ( -f sd1r ( +oo
J {- dp ( "i gdrr ( +æ
Propriété 16
Sif est intégrabte,ll +apl < "i ltl ap.
En effet :
II tapl : l"f f*dp - I f-dpl < .f ftdp + ! r-dp : I ltl dp
Propriété 17 : Inégalité de Cauchy_Schwarz
Soient f, g mesurables. de carré intégrable, alors :
("i f sds)' < (1 t" aû (1 s" ap)
ll suffit d'écrire que, pour tout réel ,À,
!(t+lg)'dtt>o
Propriété 18
Soit f une fonction mesurable intégrable ;
st{lfl )a}t< 1rildpa
PH. TASSI - S, LEGAIT 51
PROBABII ITF, MESUBE, INTEGRATION
Démonstration
J lrl os
d'où :
: Jrl,lrur lfl ds + J1lrl<ar lfl ds >'l rlrl>ut lfl
,l ltl os >- a l1{l,l=u} dp: ap({lfl > a})
dtt
Propriété 19 : lnégalité de Bienayrné-Tchebychev
sa première démonstration est due à Tchebychev et date de 1863.
Soit une v.a. X telle que (X - E {X))'soit intégrable'
À,r., r/v\l \.t - E(X-Eg))2
P(lx-E(x)l > t) +E2
Démonstration
llsuffitd'utiliserlapropriétél8avecf : (X-E(X))', a: €2 et g: P'
Propriété 2O : lnégalité de Jensen
soit p : lR * lR une fonction convexe, X une v.a.r. telle que X et (p (x) soienl
intégrables; alors :
É {P(x))> P (E(x))
4"5 Généralisation
Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn;
ll .ll désigne une norme sur lRn (toutes les normes sont, rappelons-le, équivalentes)'
o Une fonction f mesurable @, .&,l/)-* (1R", fr,n1 sera dite intégrable si :
"l llfll ds ( +oo \
o UnebasedelRnayantétéchoisie.onécrit f : (f,), i: 1 à n;alors:
I f dtt: (J fidp) (i : 1 à n)
o X: (Q,i:1
.il, p\ * (1R". fr)1 étant un vecteur aléatoire de coordonnées (X')'
àn:
/*'\l\X:l I\1\x I\ n,/
52 PH- TASSI S, LEGAIT
X est intégrabte si J I X,l Oe < + oo,donc :
PROBABILITF, ]\IESURF, lNTEGRATION
l=
E(X) :
1 à n. Le vecteur-esBéranee est
J x., on\\
I
II x"ae 1
Bour tout
('"
\. ,,",
4.6 Exemples
a) lntégration par rapport à une mesure discrète
Soit un espace T":yr.é LO, { , /) ret que g est discrète, c.est_à_dire f I dénom_brable, élément de ay', VAe -d,
s(A) : : p({a})ar€Atll
Alors :
vf e "u,* lfap: : f(u)p({wllar€l
et toute fonction f mesurabre est intégrabre si ra série r r (4 p (uil estabsolument convergente u€lApplication à la mesure de comptage sur ( IR, gt1
:
F": : ô-n:O n
Une fonction mesurable réelle f est /c_intégrable si :
J lrl cs. : i^ tr(n)l < +- \- n:0
c'est-à-dire si la série de terme générar f (n) est absorument convergente.On a alors :
I rdp": i- ,,n,- n:ob) lntégration pat rapport à ta mesure de Lebesgue sur (lR, fr)
on peut montrer que si une fonction f est intégrabre au sens de Riemann surun intervalle Ia, b], arors f est intégrabre par rapport à ra ,.nesure de Lebesgue et :
PH TASSI - S. LEGAIT 53
PROBABILITF. MESUFE, lNTEGRATION
J1a, bl f d : -i3 tl*t o"
De même sur la, b[ {- oo
absolument convergente , on montre que f est intégrable par rapport à la mesure
de Lebesgue et :
J, .. IdÀ: J!t1^1 or: lim ,i3tl^t o*lir,'l-
:r|,
5 NEGLIGEABILITE
C'est une notion cousine de "l'égalité en généralo citée au paragraphe 1 ; en
1882, Harnack définit l'égalité en général de deux fonctions f et g si, pour tout € > O,
{x/lf (x)- S (x)l > e} esl un ensemble discret. L'apparition quelques années après
de la mesure conduit assez naturellement à la négligeabilité.
5.1 Définitions
Soit (Q, .&, pl un espace mesuré.
Définition 18
Un ensembleAest ditg-négligeablesi f Be ,t4, AC B et,t,r(B) : 0.
Définition 19
une propriété n définie sur o sera dite vérifiée /-presque-partout (/-p.p.) si
I'ensemble des ar € Q pour lesquels elle est fausse est pr-négligeable.
Définition 2O
Une fonction mesurable réelle estp-négligeable si :
{ol Î(ul + o}est g-négligeable, i.e.
tt{ul Î(al * 0} : 0
Remargue
Dans le cadre d'un espace probabilisé P,,,4, P), on emploie le qualificatif npres-
que sûrement" (p.s.).
54 PH' TASSI - S' LEGA1T
PROBABILITE, MESURF, }NTEGRATION
Propriété 21
soient f et g deux fonctions mesurabres. on définit la reration * par f * g sif : g /r-p.p. c'est une relation d'équivaience sur l,ensemble des fonctionsmesurables.
Propriété 22
soient (fn)ne ru et (gn)n€N, deux suites de fonctions réeiles mesurabres ; sifn : 9n g-p.p.Vn, alors :
o Sup f n : srjp gn /-p.p.o inf fn = inf gn g_p.p.
o lim sup fn : lim sup gn /_p.p.o lim inf fn = lim inf gn p_p.p.
o lim gn : lim fng-p.p. (à condition queVc.r, lim fn (r.,)existe).n
5.2 Propriétés
Propriété 23
soit f une fonction mesurabre réeile intégrabre définie sur (o, &, pr.Arors fest finie g-p.p.
Démonstration
On suppose que f ) O.
Soit:M: {c.rlf (ar) :1*1.Vn ) 1 ng(M) : .[n1* dp < lldp( +oo
car :
d'où: nlt ( f
p(M) : oPour une fonction intégrabrequerconque, I : f* - f-, ir suffit de considérerles deux ensembles :
et M* : trl f' (c.r) : + -1
M- - {arl f- (ar) : + oo1
Propriélé 24
1) Sif €,/(.*, J,tdp : O e> f : O g-p.p.
PH. TASSI S. LEGAIT55
PROBABII IIF. ML SURF, I\ ILCFATION't
2) Si f est une fonction réelle mesurable
f :O /_p.p.<+Jlfl ds:O
3) Si f est une fonction réelle mesurable et Ae ,t4
g(A) : I + Jofds: O
4) Si f est une fonction mesurable
f : O Ë_p.p. + JfOg : IDémonstration
1) Si hێi*: h- I x, 1^i:1 | Ai
si h: Op-p.p.alors:n
-lno/:: x, rr(A;) :Oi:1
si| e .,U* .
lfdtt : sup{-fhdpr, h e 6*, O < h < f}
orsi 0 ( h ( f:.. f : O g-p.p. + h : O /-p.p. + Jhdp : Q
d'où :
Jfdg : o
Réciproquement, si Jfdp: O:
Vn)1o<ttLf>tI:-f r , dlt(nJfdPn tr< rt
n
1donc: Vn ) 1 p lI )-l: o
rtlt+ol: É, t ; tt >1tt < ; tt 1, >!1n: 1 I'l n:1 n
d'où: f :O P-P.P.
2) lmmédiatcar f : O g-p.p. <â lfl : O /-p.p.
3) Si f e "4f et 1r(A) : O alors f .ln : O ,u-p.p.:
en effet . {co/ (f . 1^l@l+O\:{coeA/I (ul+O} CA
donc: ltlu/f .1^+ 0l:0 etf .1A: O/-t-p.p.
PH TASSI S. LEGA]T
PROBABILITF, N/ESURE, INTEGRAIION
D'après 1) eela entraîne alors que :
Pourf : fo * f-,î1.7a dÉr : O : IOtau
lotaa=Lt.d/r-âf-dp:q4) SoirA : {f + o}, u(A) : O.
Îldp: lOtau: lUtau: JU fdg:9 (f : O surÀy
Propriétés 2S
t, :,""'rïl
f et g deux apptications mesurabtes positirres, teiles que f : g Ér_p.p.;
Jtap: jsdp2) Soit f intégrabre, g mesurabre. teiles gue f : g p-p.B. Arors g est intégrâbre,etJgds = jfdi.
3) Sip est o-f inie,
f : g s_p.p. <+ VA € ,* la tdp : f, sal
Démonstration
1) Soit A: {f + s}, p (A) : O
I tap: lotau + IUtau: lUtau:.! sdr:.f, odr + fi sdr : J gdrt
2) llsuffitdeposer f = fn - f- et g: g* _ g erd,appliquerl).
3) f : gp-p.p. è VA e ,t( lo.f : 1A.g /./_p.p.
- lotau: .f, odl d'après2)
Réciproquemenr : VA = , lO ldp : 1O OdU.
Notons que l'on peut supp.oser f à g sans perte de généralité. pour montrerf : g p-p.p., ilsuffit d'avoir, "
f 1{rtn} : I 1{r"n} lr-P'P'
f f tt,=nt =91{,<n} lt-P'P'f et g jouant un rôle symétrique, on montre simplement que ;
PH TASSI S. LEGAIT
t 't urn, : 9 l ti>nJ P-P'P'
57
PROBABILITE, MESURE, INTEGRATION
onnote: F:f.l{r"n} etG:9.1{t"n}
(F>GI
i ro ror : Lnlr>n] rdP : lon{r=n} sds : L oou
et il s'agit de montrer que F : G lJ-p.p-
Supposonsdoncque f 2 S : g étanta-finie :
f An € &,An C An*r et o : limlAn, /(An) < +-
On pose :
Bn: An n {s(n}:Bn C Bn+l,et limlBn:liml {g(n}: [g<+-]
Yu / lim 1 Bn,g(ar) : +oo : f(t^r) puisque f 2 g
ll faut montrer que Vn, f I Bn : I l Bn
g-p.p.
ttrn ,ilen glBn) *nlsn
où:tt'n gÎ'n ) o
trn tou : -i(f trn - g lBn) dg * Jrn gdl
Jrn odl = Jrn ndg : ng(Bn) < + oo
On simplifie et :
-i(f len - glBn) dlt: o = 1len = 9lrn A-P'P'
d'après la proPriété 24.1).
limlf lBn = liml glrn /-P.P.
f 1,,r,rn : g 1,'r,rn l/-P'F'
d'où: f :g p-p.p.
PH. TASSI S. LEGAIT
PROBABILITE, MESURE, INTEGRATION
Théorèrne g (dit de Lebesgue ou de la convergence dominée ; 1gO3)
soit fn une suite de fonctions mesurabres et g une fonction intégrabre.
onsupposequeVn,lf"l < g p_p.p.et fn 1Ër
p_p.p.
Alorsfn etf sontintégrablesetJlf. - fl du * O (n_oo;
6 MESURE DEFINIE PAR UNE DENSITE
Définition 21
soit (ô, "{tp unespace mesuré etf € "r(,* @,-{,É/).on définit |appricationv:.r/ * lR'par:
VA e .4, y(A) : lOtauv est une mesure dite absorument continue au sens fort par rapport à g, et dedensité f par rapport à p.
On note : v : f .p; v définit bien une mesure sur (e,,,41 :
' (nio An) : J l:nn tdlt : J nlo (lon f) drr
: ; Jl^ fdp:rv(A)d'après la propriété 13. n:o ^n n n'
Remarques
1) Sif : I' p-p.p., VA C ,lOfdp = lOfaU doncyestdéfinieparuneclasse d'équivalence de densités, égales g_p.p.
Notationf e dv
dp
2l si f est intégrabre, on peut de cette façon engendrer une probabirité sur@,.r/l en écrivant:
vA e .4 p(A) = +#PH. TASSI - S, LEGAIT
59
PROBABILITE, MESURF, INTEGRATION
ExemPle v:oe-exl,p-(x) .i
est une probabilité sur (lR, fr'1ae densité :
f (x) : 0e-0* 1,..(x)
Théorème 1O
Soit g une fonction mesurable;g esiv-intégrable <+ gf est g-intégrable ; on a alors :
"f Sdv: Jgfd/
Démonstratian
cSi g:1A,Ae.4l
J 1o dv : v (A) : JO fOl : .l'1 af dp : ! gldU
oSig € 8* g: I x 1^i Aie '&
-isdv : I ^i
v(A,) : I x, to, tou : J> x 1o. fdg : lgldlt
o Si g e"ht) g : liml gn, gn € d*
.igdv : lim 1-igndv : lim 1 Jgnfdg : Jlim 1 gnfdl(Beppo-Levi)
: ! gfd!
o Sig : g* - g-
(-in. ov ( + oo {ln. fdg ( + oc
sestv-intésrable e irn_ o, < * _
o lrn- rou < + oo
<+ gf estg-intégrable
Théorème 11
Soit v une mesure de densité f par rapport à trr'
,s(A) :0 + Y(A) : O
D'après la proPriété 24.31:
g(A) :O-lOldg:v(A) :O
60 PH' TASSI - S. LEGAIT
PFOBABILITF, MÊSURE, INTEGRATION
Définition 22
Une mesure v quelconque sur (O, ,.r4) est dite absolument continue au sensfaible par rapport à une mesure l.{ sur (A,,,Ol "i:VA € &, p(A) : O =+ v(A) : O
On notera v < p Ur domine u).
on voit donc d'après ra définition 21 et re théorème 11 que toute mesureabsolument continue au sens fort I'est au sens faible.
En pratique. il est fréquent de travailler sur (lR, g,'), (n", fl.n1ou(N, .7(N)),munis de lois de probabirité qui seront dominés par,i. môsurÉ.,0" L"b""gue sur rR,'Àn, mesure de Lebesgue sur rRn, os rtc, mesure discrète de comptage sur rN;ceslois admettront donc des densité" p", r.àpport à À, Ànou lt".
Les théorèmes suivants énoncent des conditions générales d'existence dedensités.
Théorème 12 (Radon-Nikodym ; 1930)soit g une mesure a-finie sur (e. .4'y et v une mesure sur @,.q absorumentcontinue au sens faibre par rapport à g. Arors ir existe une ctasse un,qi"-Gde foncrions mesrrabres positives @,.ta) - (rR*, fr;i,-eô'"1." rr-p.p.,teiles quev : r.p v f € G. en outre, ces fonctions f sonr g-p.p. iinies si et seurementsi v est o-finie, et eiles sont intégrabres si et seurement si v est finie.
Définition 23
v est dite étrangère à p si :
lN €.il, u(N) : O et v(N; = 6Les mesures g et y sont donc presque partout à supports disjoints.
Théorème 1 3 (Lebesgue-Nikodym ; l93O)soient deux mesures g et v sur (e, -tJl, p o-Iinie. il existe une unique crassede foncrions mesurabtes positives f :iO, ,_41 I ffil,' g,.y, eg"r""r_p.p.,Liune unique mesure v, étrangère à p, telles que :
v:f.!+v'
7 INTEGRATIONPAR RAPPORT A UNE MESURE-IMAGE
Soit un espace mesuré @,.d, p), etlt une application mesurable :
e,.tll - 1c:,.e)
PH TASSI - S LEGAIT 61
PROBABILITE, IVESURE, INTEGRATION
Théorème 14 (Théorème de transfert)
Soit f une application mesurable ', (O','&'l - (lR' fr'\'f.est intégrable par
rapport a t" r"suie i;";; gi si et Leulement si I'application mesurable foT :
@,:.4,) - (lR, fr'1 est intégrable par rapport à lr ; en outre :
I tapt:3 foTdgo'oDémonstration
oSi f e 6* n
f:,Ir*, 1o,A,e.z/'l:l
n
.l foTOg : J : X' 1o. oT dg-O O i:1 "'l
:; xl 1^oTdPi:1 r-o Ai
n: ,It *, ln t1r-'{n;)} d/
n: ; x, Érlr-t (Ai)l = r *, gT(A,) : -l- fdgr
,=t l'- i I o'
o Sif € Jf, f = limlfn où fn € é*
foT: limlfnoT
On utilise le théorème 8 de Beppo-Levi :
In tor dP : lim ' ln tn oT dg : lim t ln, tn dltr : Jn' togr
o Pour f quelconque. on pose f : f* - f-'
Application
SoitXunev.a.de(Q,.'4,Pldans(1R,8'l,etguneapplicationmesurable:i,^,' n) j
ffn,-'&.1. Ani" goX est p-intégrable si et seulement si g est
Px-intégrable; on a alors :
E (goX) : Jç goX dP : J,^ I dPx
PH' TASSI S' LEGAITôl
PROBABILITF, MESURE, INTEGRATION
En particulier :
E (X) : J,, r oex
où I est I'application identité de lR dans lR.
o si Px < À (,r mesure de Lebesgue sur rR). pX admet une densité f parrapportàÀet:
E(x) = IttdÀ: J]: xf (x) dx
o Si Px 4 F" (tt"mesure de comptage sur (lN, g W)l
+oog":
^lo ô,
il existe une densité f telle que pX : f .pc; en posant p, : f (x) (*probabilité del'observation x"), on a :
+æE(X) : ltfdp":' x:O x
Exemples
1) Une v.a.r X est dite suivre une loi de poisson si :
*æpx- : e-.À ^x ô
x:0 x! x
E(X) :-itop*: ni xe-i À':À
x:O x!2) Si px : e-" l,r_ (x) .,1 :
E(X2) = |nX, Ot : Jn x" dpX - JJ x, e-, dx : l-(3; : ,
Théorème 15 (Changement de variable)
soit T un difféomorphisme (c'est-à-dire ung application inversible, continûmentdifférentiable ainsi que son inverse) de * :- 9,.t, g'éorun ouvert de lRn?j^U : T (#) un ouvert de tRn; alors;n etant'taï"rr"rL o" Lebesgue surlRn:
11t.Ànlt = 1s.lL{t-rll .In
PH TASSI - S LEGAIT 63
PROBABILITE, MESURF, INTEGRATION
où J 11-1) est le jacobien-de T-1, c'est-à-dire le déterminant de la matriee des
dérivées Premières de T-'.
Rappelons que, sous les conditions usuelles de régularité' on a :
J (T-') - 1
J {T)
Corollaire
Soit g une mesure admettant une densité I pt' r^gPport à^1 g" ^
n
(gl ouvert de lRn). et soir T un difféomorphirt" de fr sur U : F 19(l ; aloré
trrT admet une densité par rapport à i n donnée par :
Pr : 1 s/.lJ(T-'\l foT-'' Àn
8 INTEGRATIONPAR RAPPORT A UNE MESURE.PRODUIT
8.1 Mesure-Produit
Théorème 16
Soient l}r &i, lr,) n esPaces mesurés (i : 1 à n) tels gue li a-finies'
On note' n nn :
,!,, o,
"' * = ,9,''
ll existe une unique mesure / appelée mesure-produit sur @, ,-o\telle que :
nnVA €,,4,,p ,11 A,) : n lr(A,)-''i : ,' '- 'i-1 '' i:1 '
NotationlJ: A Fi
1(i(n
Théorème 17
Si n : 2, la mesure-produit g est définie par :
VA € &.,8 &r,! (A) :Joz tt1(Ar2l dltr(url - Jnr tt2l{rll dpr(utl
64 PH' TASSI - S. LEGAIT
PROBABILITE, À/ESURF, INTEGRATION
où:or., : {^z € Qr/ (c't' o,rr) e A}
orr: {rt e Q,/ (t't' torl e A}
, . 1", (resp. Arr) est appelée section de A en a,1 (resp. en ur) et est .& r-mesu-raDle (resp. ..{ ,, -mesurable).
Remarques
1) On vérifie aisément Ou" Aarl est ..{r_mesurable :
larr(l"or): 1 <+ (a, olrl e A <+ 1o(u' cl r): 1
. t' on no," F,1 I'application de O, dans ()1 X f)2 : u2 * @,, ur), po,t est
,d r-mesurable puisque ses 2 composantes le sont (théorème 6).
On " lAot : 1A o Fr,, donc tor, uut .rlr-mesurable et par là-même o.r= &r.
2) SiA: At X Az A, e &r,A2e .il2
f o,' : A, si a'r, € A',
lO"':@si ,r/e,d'où :
s(A) : ,n, u, (A,,,) dt,, : L.,
p2 (A2l dttl p2 (A2l p1 (A1)
Exemple : Mesure de Lebesgue
Vk, k' .Àk Llk, : ik*k.
8.2 lntégration
Théorème 18 (Fubini)
Soient (Qt, .ilt, ttr) et (Qz, &2, lt2) deuxespaces mesurés, /r, et tt2a-finies. On note ! : F1 E /r, sur (er x er, &., 9.421. Soit X une
fonction mesurable positive ou intégrable définie sur (o.t x er, &1 a .421.
PH. TASSI - S LEGAIT 65
PROBABILITF, MESURE, INTEGRATION
Ona:tn' * nr*ou : tn., ttn, * @,, url dttrl 61tt
: tn, ttn1 * 1u| url dtt,tl dP2
Remargue
LorsqueX : 1o avec A e .41 Lt42
'n., * nr
to dlt : lt (A) : Jn,, tt' (A'rl dtt'
: tn' t\ 1a,., drzJ dP, : fo' [Jn, ln dPz] dttt
Exemple
Soit (X, Y) un couple de v.a.r. de densité f par rapport à i, : p(x' Y) : f i,E (XY) : Jn xvoe : J J,*, xydp(x' Y): J J,*, xv f (x, v) dx dv
: J,, [J,^ xY f (x. Y) dx] dY
66 PH. TASSI - S. LEGAIT
EXERCICES
2'l Soit lA' e' g) un espace mesuré, f une fonction réelle définie sur O 1u-négligeable et g unefonction réelle quelconque. Montrer que fg est g_négligeable.
lndication
{u/f (u) s(al + 0} C {u/r@l + 0}
2'2 0n appelle fonction de répartition sur lR. toute fonction de lR dans lR croissante au sens large etcontinue à gauche.
Montrer qu'il existe une biiection entre l'ensemble des mesures g finies sur lB et l'ensemble desfonctions de répartition définies à une c0nstante additive près. 0uelle est la fonction de répartitionconespondant à la mesure de Lebesgue,.À ?
lndication..A partir d'une mesure p on définit Fu par :
Vx ) a Fa {x) : tt (Ia, xîl
Vx ( a Fa (x) : -p ([x, a[]
0n vérifie que F. est bien une fonction de répartition et:
Vx € lR, Fb (x) : Fu (x) + constanre
D'autre part, on construit à partir d'une fonction de répartition F la mesure définie par :
tt (la, x[l : F (x) - F (a), Vx ) a
A la mesure de Lebesgue correspond la fonction de répartition : F(x) : x (+ constante).
2'3 En se servant des résultats du 2.2, on cherchera une condition nécessaire et suffisante pour qu,unemesure soit continue sur lR.
lndication
Une mesure est continue si g ([x]] = 0 Vx e H.
0r: s({x}) : p([a,x])-([a,x[): F1x*;-r1x1donc une mesure est continue si et seulement si sa fonction de répartition est continue.
PH. TASSI S. LEGAIT 6l
PROBABILITE, MESURE, INTEGBATION
2.4 Soit @, ,-4, glun espace mesuré, (fn)n>t une suile de fonctions réelles positives intégrables
vérifiant :
f- --->
f p-p.p.Ir n-co
!lndtt' lrdpoù f est positive et intégrable.
Montrerque Jlfn-fl dg * 0 quandn*oo.
lndication.'ll suffit d'écrire :
"ilf-fnl dl = -i(r-rn)* ds + "f(f-fn)- dl
Comme :
-f (f -f.) dp: I {f.-fn)* dp - t (f -fn)- apn*a 0
par hypothèse il reste à prouver que :
-f(f-f-)'dg-. o.. r' n**
(f -fn)* (f, f intégrable
(f -fn)* - o g-p,p.
-l(r-rJ* dp * o
2.5 Calculer en utilisant le théorème de Lebesgue :
et:
donc :
d'après le théorème L
lndication
lim .+ æ n2 , "-n2
x'
n*oôJa .'_l dx (a>o)
f+ oo n2 * r-n'xz , : l*- [,e-u'J a ---- ^ dx J na ---------- du1+x2 uzl+n-
f+ æ u g-u'- Jg 1- . {u} -----2 - du
lna'+æ1 " 1+ +n
PH. TASSI - S, LEGAIT6B
PROBABITITE, N/ËSURE, INTEGRATION
Soit :
2
u e-ufn (u) : ltnr, * *1(r) ,z1+ --^
nz
lorsque n * -, 1[nr, *_J (u) - 0,
donc :
0r:
lf, (u)l k ue-"et:
Jfr- ,r-'" u, : JË- f, u' o, :* ( +oo
donc: rim Jf, (u) du : on-æ
fn(u)-0
PH. TASSI - S. LEGAIT
Chapitre 3
Les variables aléatoires
Ce chapitre est consacré à l'étude des variables aléatoires définies sur unespace probabilisé. Outre les principales caractéristiques des variables aléatoiresréelles (fonction de répartition, densité, moments, etc.), le chapitre présentera resvariables multidimensionnelles et traitera des liens entie variables : indépendance,conditionnement, etc. lr fera référence, autant qu,ir sera possible de le faïre, a rup_plication statistique de la théorie des probabilités.
RAPPEL DES DEFINITIONS
Nous regroupons ici res isurtats
vus dans res chapitres précédents :
Définition 1
@,,-4., P) et .(A',.,,&,1 étant respectivement un espace probabilisé et unespace probabilisable, on appelle variabte atéatoire tv.â.ixiout" "ppti""tiànmesurable X: (Q, ,d1 - @,,,r/,1.
Définition 2
on appelle loi de probabirité de la v.a. X ra probabirité image de p par X, notéePx, définie sur (O'. &,1,
VA, € ,,4.,, px(A,) : p(X_l (A,)) : p{X€A,}
Langage et notations
Si (O', ,,&'l est (tR, g,) (resp. ( tïp, &pD, X est une v.a. réeile, notée v.a.r.(resp. vecteur aléatoire de dimension p).
o Ayant muni (rR, &) (resp. ( rïp, g,p}), de ra mesure de Lebesgue i, (resp.'10), une.,v.a.r. (resp. vecteur aréatoire) sera dite absorument continue si px<<,À
fffi"jj " io) ; on dira, de façon usueile er par abus de rangage que x est
PH. TASSI - S. LEGAIT
LES VARIAB tFS ALEATOIRES
. De même, si X prend ses valeurs dans tout ou partie de(2, 9(Z)l,Xestune v.a. discrète et PX << gc quand @, g (ZDest muni de la mesure de comptage
lJ c.
o Les lettres rondes désigneront I'espace des valeurs prises par la variable ;
ainsi ,% est X (O).
Exemple '' A partir de l,expérience consistant à lancer un dé parfaitement
équilinré, on peut àétinir une v.a. discrète : la valeur du point amené par le dé
(t : ti, z, s,4, 5, 6]), ou une v.a continue : la distance entre le centre de gravité
du dé pàr rapport à unâ origine liée à un repère 'fixé (fi : lR1)'
Remargue: Dans la pratique statistique. il est parfois difficile d'avoir des obser-
vationS d'une v.a. continue, et on Sera Souvent amené à la odiscrétiSer' AinSi les
démographes utilisent des classes d'âge, les économistes des tranches de revenus,
etc.
Dans la Suite, et sauf mentioh expresse, les v.a. seront toutes définies sur un
même espace Q,,4,P\.
1 CARACTERISTIOUESDES VARIABLES ALEATOIRES REELLES
(u NIDIM ENSION N ELLES)
1 ,1 Fonction de réPartition
partant de la définition, de la fonction de répartition d'une probabilité (cha-
pitre 1) :
Définition 3
soit X une v.a. à valeurs dans tout ou partie de (lR, fr) rce qui inclut les
variables odiscrètes,).
on appelle fonction de répartition (f.r.) de X la fonction de répartition de la
probabilité P^ :
Vx € lR, F(x) : Px (l--, x[)
F(x) :P{t';/X(.,l<xl\notéefréquemment F(x) : P(X < x)'
Notation
Par la suite, lorsqu'on aura besoin d'identifier la f.r. cl'une v.a. X, on utilisera F*'
12 PH. IASS] -S LEGAIT
LES VAR]AB LFS ALEATOI RES
Propriétés : Elles sont identiques à celles vues au chapitre 1 :
o F est continue à gauche
e F est une application croissantee lim F(x) : 1
x*+oo
o lirrr F (x) : IX--oo
Remarque : Si X est une v.a. continue, F est en plus eontinue à droite et dérivable.
1.2 Densité de probabilité
Définition 4
soit X une v.a. absorument continue par rapport à,1. on sait qu,ir existe unefonction mesurable f déf inie sur (lR, &.,1, posi,tr", teile que :
Px: f .,Àf étant la densité de probabilité de X.
Remarques
1) Par définition. une densité sera donc à valeurs sur rR+. Toute densité f,égale à h pourx CA er nullesurÀ, A€ 4.,sera écrite :
f (x) : h (x). to(x)Ainsi,parexemple,radensitéf (x) d'uneroi uniforme %ro,,r neserapasécrite:
f t,^, : 1 si o ( x -< 1
{r1^1 : 6 sinon,
mais :
f (x) : tto,r1(^)
2) Soit unev.a. discrète:PX <<É/" où !": Z ô", xdécrivant l,ensembledénombrabl" u'
^'oo* e g,r*11*1y : > pxu.rl ,xeI ^
on retrouve donc I'anarogie avec re cas continu : ici pX - 1 . Fc où yx Ç gl:,t (x) -
px ({*}). En calcul del probabilités, on n'emploie pas le terme de densitépour f (x) mais celui de probabilité élémentaire.
PH. TASSI - S. LEGAIT l3
LES VARIABLES ALEATOIRES
Ainsi, comme on l'a vu au chapitre 1, les cas discret et continu se traitent dela même façon : par exemple, ointégrer, consistera, pour le premier, à sommer unesérie, pour le second à calculer une intégrale de Riemann (dans les cas usuels), ouune intégrale généralisée comme vu au chapitre 2.
Liaison entre densité et fonction de répartition
Théorème I
soit (lR, fr./ muni de la mesure de Lebesgue i, X une v.a. absolument conti-nue, de densité f i-presque partout continue, de f.r. F : alors F est dérivableÀ-presque partout, et :
lim F(x+6; - F(x) d: d,
F(x) : f (x)
Démonstration
Sous les hypothèses du théorème. on a :
F (x): {n 1,__, ",dp*
: JR 1 ]- -, x{f (t) d,À (t)
: Jr- f (t)dt'
Remargues
1) Retrouver la densité f par dérivation de F ou F par intégration de f n'a doncde sens que pour les v.a. continues.
2) Ona:Jrn f (t)dx: 1
Cela correspond à la propriété P(O) : 1 : F(+oo) ; en effet :
{n f (^tdx: PX(IR) : P(Q) : 1
Pour une v.a. discrète, de probabilité élémentaire f, on a :
Z f (x) : 1
x€9[
sf Jf t (t) dt : F (b)- F (a)
dx-Odx
PH. TASSI S. LEGAIT
LES VARIAB LES ALEATOIRES
1 .3 Moments
, D"n: tout ce qui suit, res diverses intégrares et sommes sont écrites sousréserve d'existence, en utirisant re symbore d;intégration sans orstinguer v.a. dis_crète ou continue.
Définition 5
on appelle moment non centré d'ordre k de ra v.a.r. X ra quantité :
rr. : Jo xk op
En passant dans l'espace-image :
r* : JIR xk dpx 1x1
Si PX admet une densité f par rapport à une mesure p sur lR, on a :
rr : JtR xk i 1x; cp 1x;
Si X est absolument continue :
rr, : f I ^k t1"; 0,,
Si X est discrète ;
-n: ^èuxk
Px (lxl)
Pour k : 1, .t n'est autre que l,espérance E (X).
Définition 6
On appelle moment centré d,ordre k de la v.a.r. X la quantité ;
ttr. : 1e tX - E (X)lk dp
lrr : JtR (x - m.,)k opx (x)
Pour k :2, le moment p2porte lenomdevariancedeX.notéeV(X) :
V(X) :E(X-E(X))2
PH TASSI S LEGATT t5
LES VARIABLES ALEATOI RES
Par simple développement, on établit le résultat suivant, conRu sous le nom
de théorème de KOENIG :
V(X) : E(X2) - E2(X) : mz- m|
La quantité a (X) : firc s'appelle écart-type de X. Elle est mesurée avec
la même unité que X.
Définition 7
Onappellemomentfactorield'ordrekdelav'a'Xlaquantité:
/[r]: Etx(x-1) '.. (X-k + 1)l
Propriété 1
Soit I I'ensemble des fonctions mesurables déf inies sur (Q, .4 ' Pl à valeurs
dans (lR, fr,1, intégrables. I est un espace vectoriel sur lR ; pour (X' Yl € 92'ona:
r E(X+Y) : E(X) + E(Y)
o Va € IR E(aX) : aE(X) et V(aX) : a2 v(x)'
Ces résultats découlent directement de la linéarité de l'intégrale.
Propriété 2 : Inégalité de Bienaymé-Tchebichev'
Pllx-al > si < **, v€ > o, Va € rR
Preuve
E(X- a\2: lA (X-a)2 dP
E(x- al2 : I (X-a)21t1*-al < €) dP + -l(X-a)2 ltl*-ul>eldP
En minorant la première intégrale par 0, on a :
E(x- alz 2 Î(X-a)21t1*- al> eldP > ! t' ltlx-al)e1 dP
d'où: E(x- a\2 > e2 P{lx- al>El
corollaires.. lls varient selon le choix de a et de la v.a. considérée.
a) Pour a :0, on obtient :
P(lxl >rr .3t'
16PH TASSI , S. LEGAIT
LES VARIABLES ALEATOIFES
b) Pour a : E (X), on obtient ra formure *crassique,. déjà vue au chapitre 2,de Bienaymé-Tchebichev :
P(lx-E(x)l > 6) < v(x)
E,
cette formule donne une majoration de ra probabirité pour que X prenne desvaleurs hors de t'inrervaile lE (X) - €, E (X) + e[. Le principe ÀCrn" de ta démons_tration donne une idée de la qualité de cette majoration. Par exemple. si X suit uneloi binomiale g fiOOO,+), on montre (cf. chapirre 4) que E (X) : bOO et2V(X):250;pourr.: b: p(lX-bOOl > 5) << tO,cedontonsedoureapriori,puisqu'une probabilité est à valeurs sur [0, I ].
Supposons que X suive une loi uniforme à valeurs sur [0, 1 ]. %rc, r1, d"densité f (x) : 1to, r 1
(*) ; on montre (chapitre 4) que :
E(x) :] "t v(X) : 1
L'inégalité de Bienaymé-Tchebicheu f?urnit. pou, ; 12
1_111, :t, p(lx -11 >T) <E
P(lx-]t "1,
: o2', 2
alors qu'il est trivial que :
1.4 Fractiles
Définition 8
On appelle fractile d'ordre a de la loi de X {O < a <que :
xd : sup {x,zF" (x) < a}
1) le nombre réel xo tel
PH, TASSI . S
LES VARIABLES ALEATOIRES
Dans le cas d'une v.a.r. X continue, F* est strictement croissante et continue.et donc xo est l'unique nombre tel que :
F*(x/:aExemple d'une v.a. discrète
Soit X à valeurs dans (lN, 9l(lN))de loi de Poisson de paramètre 3 (cf. chapi-tre 4) : X - > I (Sl. ta lecture de la table 4 nous f ournit les valeurs de F", et doncson graphe: _
Ainsi pourO < x ( 1 F*(x) : P(X<1) : P(X:O) =a: O,5, ontrouveXo,s: 3 ; poura: 0,1992, lefractilevautl.
Notations :
X
0,0498. Pour
o Pour a:0,5, xa estappelémédiane;poura: O,25 (resp.0,75). xoestle premier (resp. troisième) quartile
o Pour a : k/10 (k entier de 1 à 9), x^ est un décileo Pour s : k/lOO (k entier de 1 à gg),"xo est un centile.
1.5 Changement de variables
Théorème 2
o Soit X une v.a.r. absolument continue, de densité f . 1 g par rapport à À, gétant un ouvert de lR"
o Soit g,une application g; - g (g étant un autreouvertde lR), inversi-ble, continÛment différentiable ainsi que son inverse (9 est undifféomorphisme).
o Y: po X est une v.a.r. absolument continue, de densité g par rapport à i :
0,1992
0,0498
18
g (y) : focp-' (y).l(e-')' 1v)1 . 1 7(y)
PH, TASSI S LEGA]T
LES VARIABLES ALEATOI RES
Exemples
a) X suit une loi exponentielle de densité :
f (x) : e-x 1 ,*_ (x)
On considère la v.a. y : r,&, par l,application g de lRi - lRi définie pare fu) = r,6. tr est évident que g vérifie les hypothèses du théorème 2.
d'où: u:lRi' (ç-'|(v):2v
g (y) = 2y e-v, l rn; (V)
b) soit X une v.a. suivant une roi uniforme sur lo, 1 [ de densité :
f (x) = IIo,,,t(*).
soit p:x--xtdel0, tI dans ]0, 1[ uneapprication inversibre,continûmentdifférentiable, ainsi que son inverse e-, :x * ,,,& de lO, rIoans tô, ii . y: i;'a pour densité :
1g(y) : Z6- 1ro,r1(v)
c) ll est parfois possibre de déterminer ra roi de y : 9 (X) par re carcur directde la fonction de répartit'on de y,
Soit X de loi normate N (0, 1) (cf. chapirre 4), et y = g(X) = {2
Fy(Y) : P(Y < Y) = O si y ( O
Fy(y) :P(Y<y) :P(X'<ZVl si y)O: p(-,/2y < x < \/2y) : Fx tt/Wl _ Fxî\6)
Par dérivation, on obtient la densité f, de y :
J'ry (y) :
.,Æ t* 6/2y y t,^. (v)
,n1f. (y) : -IY " Vil 6 "-Y
lR. (Y) : + Y-1/2 e- ' 1,n; (v)
PH. TASSI . S. LEGAIT 79
LES VARIAB LES ALEAIOI RES
2 VECTEURS ALEATOIRES
Soit X : (A, .4, P) * (lïp, g.p) ; on notera par X, ;" |ème coordonnée du
vecteurX(i : 1àp).
On munit lRo, 8,o7 de la mesure de Lebesgue iD ou éventuellement, dans lecas discret, de la mesure de comptage-produit.
2.1 Fonction de répartition
La f.r. de X est une application de lRp dans [0, 1 ] définie par :
F (x'' ' xo)
: :';" .::_,ï'. ", l-,; :':,, , xp (",) . "o]
P {X., < x,. ..., Xp . *o}
2.2 Densité de probabilité
Si X : (Xr, ...,X0) est un vecteur aléatoire absolument continu par rapport à
À0, il existe une fonction mesurable positive f :(lRp, n'pl'1lR*, fr'*l telle que
PX : f . Àr;f est la densité de probabilité de X.
Théorème 3 : Lien entre densité et fonction de répartition
ôP F (x'. ..., xo)f (xr, ...,^o) : :----:-. P ôx, ôx, ... ôx,
Ainsi, dans le cas n : 2, la f.r. au point (xl, x2) est l'intégrale de la densité surle Pavé D : l- -, x, I X ]- -, xz[ soit :
BO
F {x,, xr) : Jlo f (u. v) du dv
PH TASSI . S. LEGAIT
LES VARIABLES ALEATOIRES
Exemple
Soit (X, y)de densité f (x, y) : + to (x, v)x"Aoù:
A : {(x,Vl;x 2 l,y 2 O,y ( x}
On définit les domaines suivants :
B : {(x,y) ; x ( 1 ou y < O}
c: {(x,Yl; x} l,y ) x}
D: {(x,yl x21,0 < y ( 1}; E: A-DF est définie par :
F (x' Y) : "lâ i r- -, xlxr - -. yl
o V(x,y) € B
F(x,y) : g
o Soit (x, y) € D
F(x,y) : 4 # r{ out o, :o Soit (x, y) e E
1-;- du dv
ir-I,F(x,y) :d'jï#our ov+{'{#dur dv
F(x,y) - I - t- - t
2x' 2v
PH. IASSI - S. LEGAITB1
LES VAFIAB LES ALEATOIFES
. Soit (x, Y) € C
F(x,y) :4
-1
Remargues
'Jï#duldv.{l{#duldv1
;
a) Jpn f (xr, .... xo) dx, ... dxo : 1
b) si (Xr, ..., Xo) est un p-uple de variables aléatoires discrètes, sa loi est
définie par la donnée des valeur" P,., . . ,0, P,, . ;o € JO, 't 1 :
P,,, ... io : P [Xr = *t,r, *, :
^2i2, Xp : xlp]
avec :
Xr (O) : {^1. ; i. c ljlJ'i r
:i1€11 io€lo rl "rP
On appelle espérance de X : (Xt, ..., Xo). le vecteur
/ e rx.r\/'\E(x) : [ . I
\ e x'r/où E (X,) : lO X, dP sous réserve que l'intégrale existe'
et:
2.3 Moments
a) Espérance
b) Covariance
Définition 9
soient X et Y deux v.a.r. ; on appelle covariance entre X et Y, notée Cov (X' Y)
la quantité :
B2 PH. TASSI - S, LEGAIT
LES VARIABLES ALEATOIRES
cov(X, y) : lo tx- E (x)lly- E (y)l dp ={*z tx_ E (x)l tv_ E (y)l 6p(x,y)ou
Cov(X, Y) : E {tX - E (X)1. ty- E (y)l}
Remarque.' Dans le cas discret
Cov(X,Y) : \^" !-. (^-E(X)) (v-E(y))p[N:x ; y:y]xe# yeU
Propriété : On montre aisément que :
o Cov (X, Y) : E (Xy) - E (X) E (y)
o V (X 1Y) : V (X)+ V (Y)+ 2 Cov (X, y)
c a et b étant des réels quelconques :
Cov (aX, bY): ab Cov (X, y)
Théorème 4 : (Cauchy-schwarz)
X et Y étant deux v.a.r. p-intégrables :
E'(xy) < E(x.).E(yr)Démonstrafi'on : sous réserve d'existence des intégrares, pour a € rR querconque,E(X+6Y12 2 L
E(X+6yl2 : E(X') +2aE(Xy)+a2 g1yz;
ne sera positif que si le discriminant de l'équation du second degré en a est négatifou nul :
e2(xy) - E(x').E(yr) < o
Corollaire
En appliquant I'inégalité de cauchy-schwarz, non pas à X et y mais à x - E (x)et Y - E (Y), on trouve :
cov2 1x.y) ( v(x).v(y)Définition 1O
on appelle coefficient de corrélation linéaire entre x et y la quantité :
Cov (X, Y)P(x'Y) : o(x).o(î
Du corollaire du théorème 4, on déduit :
-1<p(X,Y) (1
PH, TASSI - S. LEGAITB3
LES VARIAB LES ALEATOIRES
c) Matrice de variances-covariances
Définition 11
On appelle matrice de variances-covariances du vecteur X la matrice (p, p) determe général a,, :
o,j [(Xi- E (Xi)) . (Xj- E (Xj))]
I peut donc s'écrire :
r : E {tx- r (x)lttx- E (x)1}
Remarque
La diagonale de I est composée des variances V (X,), ..., V (Xp).
Propriétés
Soient u et v deux vecteurs quelconques de lRp, X un vecteur aléatoiie'.dedimension p; on a :
o E(tuX) : E(tXu) : tu.E(X) : telX;.uoV(tuX) :tuIuo I est une matrice définie positive
o Cov (tuX, tvXl : tu I v
Démonstrations
Elles sont fort simples. Ainsi :
V ('iuX) : '1':,; l::1,, ,,T1îriJ;":',:'lu - e ..xu)r]
Remarguep
V(> X,) :i:1
v (xi) Cov (X,, X,)
Corollaire
Soit T une application linéaire de lRp dans lRq, représentée par une matriceA (q, p) ; Y : AX désigne le vecteur de dimension q transformé de X par l'application.Alors :
E(AX) : AE(X)
V(AX) : AV(X)tA : R>tn
p:
i:1+Z I
iii+j
B4 PH, TASSI - S. LEGAIT
LFS VAFIABLES ATEATOIRES
. En particulier, puisque I est définie-positive. I-1 Jlest aussi, et on sait ou,ilexiste une matrice symétrique Ç^telle que'c2 : r-1 lc sera note'f.Èj ;;;"];;faisant le choix A:\-t./2, V 12-ttz .Il : lo,et le vectew y - fl.e ,"'.rlàj"irlia toutes ses composantes non corrélées. I
2.4 Changement de variables
Théorème 5
o Soit X: (Xr, ....Xo) un vecteur aléatoire : (A,.4, p)- (tRp, ge.pldedensitéf .1 g par rapport
^ o, # étant un ouvert de lRp;
o soit(p: g - g c Rq - g ouvertdeRq - inversibre.continûmentdifférentiable ainsi que son inverse. Arors : y : eox est un vecteuraléatoire de dimension q, de densité par rapport à ,Ào :
g (y) : tocp-. (yl lJ (p-t)l l srr (vl
où J (p-1) est le jacobien de rp-t, c'est-à-dire le déterminant de la matrice desdérivées premières.
Rappelons que J (rp-1) n'est autre que J-1 (rp).
Exemple
Soit (X, Y) un couple de v.a. de densité
f (x,y) : À2 e-À(x+v) l*îxFî (x,y)
ondéfinit lesv.a. u : X+y et V:X-y. oueileest ra roi de(U,v)ZL'application ç (x, ù: (x + y, x - y) est de classe cr, ainsi que son inverse p-,:
_i u+v u_ve'(u,vl:( z_, 2 |
J (p-') :1/2 1/2
1/2 -1/2
(p (lRi x lR|) : {(u,v)/v } - u er v( u} : D
1
2
et:
d'où :1
2
PH. TASSI - S. LEGAIT
g(u,v):^2
e-^u io(u,v)
B5
LES VABIABLES ALEATOI FFS
Remargue : Méthode de la fonction muette
Soit X un vecteur aléatoire à valeurs dans (lïp, g.pl et p une application delRp dans lRq. On pose Y : g (X). S'ii existe une application f de Rq dans lR telleque pour toute fonction muette mesurable positive h (sous réserve d'existence desintégrales) :
Eth(p(X))l : J_^ h(p(x)) dPx(x) :.1_^ h(y) f (y) diq (y)tRp lRq
alors f est la densité de Y par rapport à io.
2.5 Lois n'larginales
Soit X de dimension p. On appelle loi marginaie la loi de tout sous-vecteur(Xr, ..., Xq) (q < p) extrait de X. ll existe donc C1 : o lois marginales d'ordre 1
(correspoîoant à q : il.C: hcis marginates d'orcife z, àrc.; au total, un vecteur de
dimension p permet d'eng'endrer 2p - 2lois marginales. Les plus utilisées sont leslois marginales d'ordre 1.
Le calcul de la densité marginale de (X.,. ...,Xr) n'est qu'un cas particulier du
2.4, où g est une application de lRp dans Rq définie par :
ç (Xt, ..., XJ : (X1, ..., Xq)
Théorème 6
Si f est la densité par rappoft à Ào d'un vecteur X: (Xr, ....Xo), alors (X.,. ..., Xo)
(q < p) est un vecteur aléatoire admettant par rapport à io la densité :
g (x1,...,r0) : J,*o_o f (*.,,..., xo) dxoo, ... dxo
Démonstration
Soit h une fonction muette :
J h (ç(xt,..., xo)) f (xr....,x0) dx,, ...d"0 : J,*oh (*,,,....n0)lRp
tJ,*o-o f (xr' "" tof d*o*, "' dxoJ dx,, " dxo
d'où le résultat.
Application : loi d'une somme de v.a"
p
Soit à déterminer la loi de la v.a. Y : ,1,
X,, où (X,,, ...,X0) sont p v.a.r.
PH TASSI - S, LEGA1T
lRp - 1 pour
probabilisé
Une méthode usuelle eonsiste à définir l,application p : Rn * fin
/*'\ l*, \l\/\lJ'-{l\ l- \',-'/\*o/ \v IAyant calculé la loi de p (Xt,....X^),il suffit alors d,intégrer surobtenir la loi marginale de y. t t)'
2.6 lndépendance
Définition 12
lj't (),1 ..., Xn) n vecteurs aléatoires où X est défini sur un espace@,.4, P)et à vateurs dans (lRPi, fipi).(X'), <,<n est une famiile de vecteurs aréatoires indépendants si :
1Y,t {&p\1.,<i<n est une famille de tribus indépendantes.
D'après la définition 13 du chapitre r, res (X,)sont indépendants si :
vAe &p,,p(xr€A1,...,Xn€A") : rl p(x, €Ai)." i=1 |
LFS VARIAB LES ALEATOIRES
nP(Xt:"t,...,Xn:xn) :.fl . p(Xi :xi)t-l
Théorème 7'
X1, ..., Xn sont n vecteurs aléatoires indépendants o p(Xt,...,Xn) _
PH. TASSI - S. LEGAIT
Remargue
supposons que les v.a. X1, ..., Xn soient toutes des variabres réeiles discrètes;en prenant A, : {x,}, on obtient sous i,hypothèse d'indépenejance :
ô pxii:1
LES VARIABLES ALEATOIBES
Démonstration :
On considère la classe :
D'après lethéorème4du chapitre 2 : A gBoi : slGl' 1(i (n
De plus, G eststable par intersection finie. Soient X1, ..., Xn n vecteurs aléatoires
I indépendants.
ll suff it de montrer que Pfit' " ' Xn) et â Pxi coÏncide nl sur G '
G-I,i,^'nezaef
donc :
i:1n
p(xr, ',*") t fi A,) : p(Xr € A1,..., xn€An)i-i ' i=lt- I
: 'Î
pxi 141 = Ë pxi t 11 A,)i:f i:1 i:1
,(x1, ..., X6) - â pxi (théorème 1, chapitre 2)
Réciproquement, si , ': t
P(xl' ...' xn) - Ë Pxi
i:1ona:
vAi € glip(Xr € A1,...,xn € An) : P(Xt' ''xn) (,i., o,,
: â p*, r rl A,) : 'Î
Pxi(A,)i:1 i=1 i-1
n:
'!, P(xi € Ai)
Théorème 8
on note par F, la f.r. de X,et Ral-1, la densité de X,lorsqu'elle existe; F (resp. f)
est la f.r. (resp. densité)dè X: (X;, ... Xn) n
X,....Xn sontindépendants <+ F(xr,...,^n) :1!., F'(",)
BBPH, TASSI - S, LEGAIT
LES VARiABLES ALEATOI RES
ll est clair que [imprication + est une conséquence de ra définition en pre_nant pour A l'intervaile ou re pavé ouvert étémentaiàJ" rnor" "
l- -.^,, [x ... x] - *, *0,[
On admettra la réciproque.
Théorème 9
Si les v a. (X'), i : 1 à n, sont continues par rapport aux mesures de Lebesgueio,' on a :
a)f désignant la densité de X. par rapport à io
X1, ..., Xn indépendants =à f (x,, .,., xn) : ti f,(x,).i:1 r'r'
nb) o f (x.,, ..., "n)
: ,1., s,{^,)
o g densité de probabilité(i :1àn)
+ X1, ..., Xn sont indépendants et
pXi : q..,ÀP;
Remargues
a) Ceci n'est bien sûr réalisé que si les densités f sont définies sur tout lRpi.Ainsi, pour des v.a.r. X et Y, la densité f (x, y) : 2 e-' (x+y) 1,.. \^r n,est oasséparable, c'est-à-dire ne peut être mise sous ra forme d'un orotJ;'iii^I ;iri;;les v.a. X et Y ne sont pas indépendantes.
b) La densité d'un n-upre (x., ..., X-) de v.a.r. indépendantes n'est donc que reproduit des densités des v.a.r. x.' Le caÊur de ra roi oe'ta somme de v.a.r. est arorssimplifié.
Exemple
Montrons que si X et y sont deux v.a.r. indépendantes suivant res rois gammay (p,0) eT y @, d)de densités respectives (cf. chapitre 4) :
1
f.,. (x) : _ e-d* x p-' op 1 -. (x)^ l-(p) ,H;'''
fy(v) : + e-ov yq-'dq I,n- (y)
alors X+ Y suit une loi y b + q, 0)
PH TASSI -S TEGAIT
Démonstration
f 11' Y;(x' v) :
Soit T :
1
er (p) r (q)
/x\(,j
On en déduit la loi du couPle (U, V) :
1
f 1r,r,
yy(u, v) : r (r) r (q)
d'où :
r(p).r(q)
Posons I : u/v'.
fu (v) :
d'où :
LES VARIABLES ALEATOI RES
?P+q 1Ri x Ri (x, y)
"-vd uP-l (v - Ll;o-t eP+q 1{v)u)o}
-d(x+y) 1n-1 UO-1
/tt : x \(u: *-r)
fu(v) : là t,r,v1 (u, v) du, Vv ) o
e-ve |p+q
{ uo-t (v - u)a-1 6u
dp+q vp+q-1 "-v0
rtp).r(q) Jl ,o-t (1 - tlc-r 6,
: B (p, q) e-vavp+q-1 dp+q
r (p) r (q)
B (p, q) : 1[ tn-t (1 - t1o- t6,
B(p,q) : I*f#1
fv (v) : |- ,, _ d "-dv
uP+Q-1 ap+qlR* (v)
Théorème 1O
Soient n v.a.r. (Xr, ..., Xn) indéPendantes, définies sur (O, '4, gl, intégrables'
Alors: n
E (Xr,...,Xn) : ,!,,
, {*,t
où:
Or:
90 PH. TASSI - S. LEGAIT
LES VARIABLES ALEATOI BFS
Démonstration (n: 2)
E(X1 X2) : JX'Xrdp: -f-i xr x, f ,, (x,,) f, (xr) dx., dx,: J xr f ., (x.,)dx., . I xzf zgr) dx.-
: E(X1).E(X2)
Corollaire ISoient X et Y deux v.a.r. indépendantes ; alors Cov (X, y) : O (et doncr (X, Y1 : g;.
Remargue
La réciproque est fausse en général. Ainsi, soit X une v.a.. discrète de loi :
px{-Z} : px{- 1} : px{1} : px {2} : 1/+Y : X2 suit la toi pY{1} : pY {4} : 1/Z
donc: E(X) :0 E(XY) : E(X3) : O
E(XY) - E(X) E(Y) :0Or X et Y ne sont manifestement pas indépendantes.
Corollaire 2
. Soient n v.a.r (Xr, ...,Xn) indépendanres, définies sur (e, .4, p), intégrables;alors:
nV (X., + ... + Xn) : .I. V (X,)
Corollaire 3
si X : (Xr, ..., X/ est composé de p v.a.r. indépendantes, ra matrice de variances-covariances de X est diagonale.
2.7 Lois conditionnelles
1 Présentation
Nous allons adopter une présentation simple et intuitive en reprenant la défi-nition d'une probabilité conditionnelle (cf. chapitre 1). Nous considérerons succes-sivement le cas de deux variables discrètes puis de deux variables continues. puis
PH. TASSI - S. LEGAIT91
LES VARIABLES ALEATOIRES
nous présenterons une formalisation plus théorique d'une loi conditionnelle, qui
pourra être omise en première lecture.
soit un couple de v.a.r. (X, Y). Le principe est de connaître. la loi de Y sachant
qu'rnl-re"tisation de la v.a. i a fourni ie résuttat x, dite loi conditionnelle YIX : x'
a) Cas de deux v.a. discrètes
on suppose que la loi du couple (X, Y) est connue. D',après la définition du
chapitre 1. on a :
P[X:x et Y:y]P[{Y:y}l{X:x}]: ----.-P [X: x]
La variable YIX: x est donc une v.a. discrète dont la loi est parfaitement connue'
Application aux tableaux statistiques
Soient X et Y deux variables statistiques discrètes prenant les valeurs {x.', "', xn}
pour X et {Yr. ..., Yo} pour Y. Observant sur une population Q de N individus les
valeurs prises par les deux variables, on peut constituer le tableau de contingence
suivant, qui donne la Structure de la population selon les deux critères X et Y :
On note : n,, le nombre d'individus tel que X prend la valeur x,, Y la valeur Y, :
nppn* :
'], jIr n'i;ni : jIt n'iini ilt n'i
Xvj Total
X.I
n..U
n.l.
Total n.j N
PH TASS1 S, LEGA1T
LES VARIAB LFS ALFATOIRES
tuOt"jult quantités {n., 1 ( i( n} er {n , I < j< p} consrituent tes marges du
La loi du couple (X, Y) est connue puisque lon sait carcurer res probabirités :
P{X:*i,y:yj} : pij : * ,t < i < n, I ( j < p)
Les lois marginales de X et y sont déterminées de la façon suivante :
V1 < i( n, p(x:*i) = Fi.:,Ë. 0,, :.9. p(X:"i,y:yj)j:l '' j:1
v1 < j( p, P(Y:yj) : pj :,!., 0,, :,!., ,(*:^i,y:yj)
P (Y: v.. X : x.)p(y:y,lX:x,): ')' (
P (X: x,)
P (Y :yjlX: x,) : P'i : n'j
Pi ni.
Cette expression n'a de sens que si p (X : x,) # O.
On trouverait de même :
P(X:xlY:y,) : P'j : n'j (p,+O)
' P.j n.j l
Remargue.' Si les variables X et y sont indépendantes, alors :
P[X :x. Y:y] : P[X:x]. P[Y:y]et;
P[Y:yl X:x]: PIY:yl
La probabilité de l'événemenr {y : y} ne dépend pas de la réalisation del'événement {X: x}.
PH. TASSI - S. LEGAIT 93
LES VARIABLES ALEATOI FES
Exemple numérigue (E)
On a, par exemple, la loi marginale de X :
P(X:1) :0,48, P(X:21 : 0,195, P(X:3) :0,32S
La loi marginale de XIY: 1 est :
9 18 22P(X:1lY:1) : ;;, P(X:2lY:1) : -t-_ ,, (X:3lY:1]l:
49
On remarque aussi :
31 65 55P (X: 3, Y: 2l :
2OO+ P (X: 3) . P lY :2) :
-2OO -2OO
Les événements {Y: 2} et {X: 3} sont donc dépendants.
Réflexions sur l'indépendance
En analyse statistique. au vu d'un tableau répartissant une population Q de
taille N selon les variables X et Y, on se pose souvent la question de savoir si ces
critères sont indépendants ou non.
X
II 2 3 4 n.
L
1 9 21 35 31 96
2 18 3 8 10 39
3 22 31 9 3 65
n 49 55 52 44 N :200
PH TASS]-S LEGAT
LES VARIABLES ALEATOI RES
A côté du tableau. observé, o, à n rignes et p coronnes, que [on peut assimirerà une matrice (n. p) d'élément courant-n 1o, p,, : n,,./N si on travaille en fré_quence), on constitue le tableau théoriquàl T qu"''l,on onli"noruit sous lhypothèsed'indépendance, d'élément courant :
n. n.nll : Pi. F.j : -fi
ou:pij : pi pj
Si X et Y sont indépendantes, res tabreaux T et o seront identiques. En prati-que, les deux tableaux ne seront jamais égaux, et on utilisera un critère d,écartô (T, o) entre le tableau théorique ét le tableau observé. on peut penser. par exem_ple, à :
npô(T.Q) :
i:l j:lou bien :
n1.U
ce dernier indicateur a en prus ra propriété d'avoir une roi rimite connue etfixe lorsque [\ * oo, la loi du khi-deux (cf. chapitre 4).
b) Cas de deux variables continues
Soit (X, Y) un couple de v.a. continues, de densité f (x, y) par rapport à lamesure de Lebesgue ÀreT soir f, ra densité (marginare) oe x.'Là roi J"ïix: ^admet pour densité :
npô(T,Q; : :
i :1 j:1
f (ylx) : f (x' Y)
f* (x)
lntuitivement, on écrit :
Or:
F(yl x(X<x+dx) :
f (ylx) : |;n'r f (ylx ( X < x+dx)dx*0
P{Y<y, x<X<x+d1}P{x(X<x+dx}
Ft*, 1(^ + dx, y) - F1x, y1(r. v)
PH TASSI . S. LFGAIT
F" (x + dx) - F" (x)
LES VABIAB LES ALEATOI RE S
a
ôvFr*,y(* + dx, y)- # F(x.ï (x, y)
f (ylx) : limdx*O F* (x + dx) - F* (x)
àâu, l^ F(x'Y) dxl
: limdx-O F" (x + dx) - F" (x)
fx,l (", y)
f* (x)
x
et
I
I
I
I
L-
Remarque
Si on note 7/ l'ensemble des valeurs possibles pour le couple lX,Yl, '//xla section
de T par x, valeur fixée de X :
f (x, v)
96
f" (x) : lr^1 (x, v\ dy f (ylx) :lr^t (x,vl av
PH TASSI - S. LEGAIT
LES VAFIABTES ALEATOIRES
Formule de Bayes: en écrivantf (x, y):f (ylx). f"(x) : f (xly).f"(y), on a:
f (x I y) fu(v) f (x I y) fu (v)f(ylx) :-- --l--:
f* (x) îy f (xly') f, (v)dv
Remargue
ll est clair que les résultats énoncés pour des v.a.r. (pour faciliter l'écriture)sont généralisables à un vecteur (X, y) de lRpx lRq:dans ie cas continu, on aurapar exemple :
2 Définition générale d'une loi conditionnelle
Définition 13
On considère un c_ouple de v.a.r. (X, y) : @,,rd,p) - (lRr, fr.21. Onnels p(x,y)la loi de (X, Y) et px la loi de X; supposons qu,il existe une application :
P];Ox,t(-tO,iltelle que :
o Vr^r € O, Pt (ar, .)est une probabitiré sur (O,,dl. VA € .4,rL (.. A)est une appticarion mesurable définie sur (e,.dyo p(X€A1' y€A2) : p(x,v) 1A1 xA2) : _r^ pLg,A2l dpx(x).
Ators on note pl (x, Ar) : pY/x: * tnr) Lt pytv -x esr appetée loiconditionnelle de y sachant X: x.
Application
I Lorsque X et Y sont discrètes, en considérant les événements A,, : {x} etAr: {v}, on retrouve ;
P{X:x; t: yJ : 7Y/x:x{Y:y}. P{X:x}: P(Y:yl X:x) P(X:x)
o Lorsque X et Y sont continues, on peut écrire :
P[x € A,;Y€A2]: Jo., "o,f
(x.y)dxou:JAr ,tort(x,y)dyl dx
PH TASS] S. LEGAIT 91
LES VARIAB L tS ALEATOIRTS
Or:Ptx €A1 ; Y =or,
I to1 t"'x-* (Az) oPx(x)
Jo, ,",x = * (Az) f" (x) dx
d'où :
"|". t"i^ f(x,y)dyl dx:,1^ pYlx:* (Ar)f*(x)dxA1 A2 At
et ce quel que soit A1q- ,tq on en déduit (cf. propriéIé 25.3, chapitre 2) :
f {xtYl esr ta densité
"1"^ f (x, y) dy - PYI x:
" (Az) f* (x), À presque partout donc : i" A, 2' ^' " f*(x)par'rapport à .À de la loi de YIX: x.
3 Espérance conditionnelle
Soit le couple de v.a.r. (X, Y). de loi P ; on notera Px et PY les lois marginales
de X et Y, pYlx et PxlY les lois conditionnelles de YIX : x et XIY : y.
Définition 14
Si l'express'on J,* y dPYlx existe, on l'appelle espérance conditionnelle de Y
sachant X: x. On la note E (YlX: x).
Exemples
a) Lorsque X et Y sont discrètes :
E(Ylx:"i) : iË,,
,, P(Y:v,lX:"J :ï I u, 0,, : + ] u, n,,
b) Si Yl X : x est une v.a. continue de densité f (ylx) :
E(YlX-x) : Jyf (ylx)dy
Remarque; E (YlX : x) est une fonction de x.
Théorème 11
Si g est une application de lR2 dans lR et sous réserve d'existence des inté-grales, on a :
98 PH' TASSI S' LEGAIT
LES VARIABLES ALEAIOI RES
E (ç (x, y)) : -i I I ç (x, y) opvlx = " (y)l oex 1x;
E (p (x, Y)) : "[ Ê (p (x, y)l x : x) dpx (x)
On note de façon mnémotechnique :
E (p (X, Y)) : Ex E (p (X, y)lX)
En particulier. E {y) : E* E(yjX), ce qui permet de calculer E (y) en passantpar un conditionnement bien choisi, puisque X dépend de rutirisateur.
Application au tableau statistique précédent (E) :
Le calcul direct donne :
E(Y) 1 - 4g1:rOO @9 + Zx 55 + 3 x 52 + 4x 44): à
Utilisons la formule de décomposition :
E(Y) : EX E(YIX)
E(YlX:t; 1:;t,t x9+2 x21 +3x3s+4x31y : JPde même, -" 96
E(ylx = 2) :#. E(ylx:3) :#1
E(Y)= IOO
(96 E(YlX: t)+39 E(yl X:2)+6s E(ylX:3))
1: -l:- (2go + gg + 1 231 : 491200 ._-,
200On retrouve, bien sûr, le même résultat ; notons cependant que nous avonsobtenu les moyennes partieiles
"eton tà"-u"reurs de X, ce qui peut fournir uneinformation intéressante. Par exempre, si v est te sataiie o ïrn" nomencratured'activité socio-professionnete, on à ié saraire ,"t;;;;r;roi"rrron, qui permerdes analyses et des comparaisons plus approfonOies.
Définition 1S
on appelre courbe de régression de la v.a.r. y en la v.a.r. X ra courbe :
{(x, fl: Y: E (YlX: x)l
PF TASSI-S LÊcAlI uo
L ES VARIABLFS ALEATOIFES
4 Formule de la variance
X et Y étant deux v.a.r. définies sur (Q, *41, soit à calculer V (Y) ; P désignantla loi du couPle on a :
v (Y) = "1"(v - E (Y))2 dP (x. v)
: J,u t J,* (v - E (ï)2 dpYlx (y)l oPx 1x1
Or: y- E (Y): y- E (YlX1+ E (YlX)- E (Y)
ll s'ensuit :
I ly- E(ï)2:(y- E (YlX))2+(E(Ylx)- E (Yll2+2(v- E (YlX) (E(YlX)- E(Y))
,l-(v - E (Y))2 opYlx (y) : -i (v - E (YlX))2 oRYlx 1t1
+ -[ (E (Y I x) - E (ï)2 dPY lx (y)
+ 2 ! (y - E (Ylx)) (E (Ylx) - E (Y)) deYlx 1u;
Comme E (YlX) est une fonction de x, cette dernière intégrale est nulle après
factorisation de E (Y I X) - E {Y) qui est indépendant de y. D'où :
' .'-0 :-f t-i (v - E (Y I x))2 cpvlx (y)l dPx (x) + .f (E (Y I X) - E (Y))2 dex 1x;v0
v (Y) : -t v (Ylx) dPx (x) + -[ (E (Ylx) - Ex (E (Yln))2 dPx 1x1
soit :
v (Y) : Extv (Ylx)l + vx tE (Ylx)l
Lorsque X et Y sont discrètes, on dit que I'on décompose la variance de Yselon les strates {X: x,}. Pour chaque strate, on note :
1PVi : E(YlX: *i) : ^ ,t., n'j Y'j
' ni. J:ltP
o'i : V (YlX: x,) : j . i. n,, (V;1* 1)2
'' n,. j:1
On a, de Plus :
1np1!E(Y) :V:*,r,,
,:,, n'i u,, : ,:1n'.v,
1oo PH TASSI - s LEGAIT
LES VARIABLES ALEATOIRES
La formule de la variance donne :
lnlnv(Y) : -=N i:1 I r N i:t
'' "i
V (Y) : variance ointra-strates> + variance <inter-strates>: moyenne des variances + variance des moyennes
Application au tableau statistique précédent (E)
. o1 : V(YIX: 1)
1 ..^ 28A2 8384: ;: (1 X9+ 4x21 +9X35+ 16X31)- (: )Yo 96 9 2i2
De même :
o'r: v(ylx : ,l :#, o3: V(ylx - 3) : #La formule de décomposition donne :
1 . 8 384 2474 2746 1 78400\_/lV\ -_ I ! r \r rr_200 96 39 65 ' 200 ' 96
7 774 15 129 491 2
T
--
l-t _- ,39 65 200
1 ^__. 491 " 1 44t 491 ' ql 11g' zoo ' 2oo -( zoo )
: 4oooo
:1'18
Définition 16
On appelle rapport de corrélation cje y en X la quantité :
, vtE(Ylx)l'tY x \//v\
PH. TASSi - S. LEGAIT
V (Y)
LES VAÊIABLES ALFATOIFES
Remargues:
a) Ce coefficient n'a pas de liaison avec le coefficient de corrélation linéairep (x, Y).
b) Ona:e < nï*< 1
c) Si Y et X sont indépendants, la loi conditionnelle de YIX est identique à laloi de Y, et E (YlX) : E (Y), et donc : vtE (YlX)l : VIE (Y)l est la variance d'uneconstante; X X
4ï": o
102 PH. TASSI - S, LEGAIT
EXERCICES
3'1 Soit X une variable aléatoire réelle absolument continue de densité f et de f.r. F strictementcroissante. Ouelle est la loi de F (X) ?
lndication
P tF (x) < yl : v donc ta densité de F (X) est fr1x1 (v) : rlo, r1
(y) (roi uniforme sur [0, r ]).
3'2 soit X une v.a.r. absolument continue de densité f* et de f.r. Fr. soit y la v.a. définie par:
Y:X si X)x0
Y:x- siX(xUODonner la loi de Y. Calculer E (y).
lndication
Y: X l{*:'ro} + xo'lfr=xo1;donc Y: sup (X, xo)
0n dit que Y possède une masse de Dirac au point xo.
+ooE(Y) :
{( x f, (x) dx + xoP{X(xol
3.3 Soient X, Y, Z trois v.a. réelles,rttrroqu, ,
o X suit une loi uniforme surl0, l[, de densité :
f (x) : lto. r1
(r)
r la loi conditionnelle de y pour X : x fixé admet pour densité :
fvlx:, (y) : (y-x)e-(v-*) 11x,+_1 (y)
o la loi conditionnelle de Z pour (X, y) : (x, y) fixé admet pour densiré :
Fzlrx, vt= 1r. r1 (z) : (y - x) e- z (v -') 1,*- {z)
1) Calculer la densité du tripler lX,y,Zl.
2) calculer la densité de Z et celle de la loi conditionnelle de (X, y) sachant Z : z.
3) Calculer :
PH. TASSI S. TEGAIT
E(VY-XlZ:zl er rlv{-xt
LE S VARIAB LES ALEATOI RES
0n donne :
1+ær(7) : Jo
4) 0n pose u: Y - X et V: Z (Y - X). Montrer que les trois variables X, U, V sont
mutuellement indépendantes et exprimer les densités de U et de V.
lndications
1) f1y,v1{x,v):(Y-x) s-(v-x)10(x,v)
frx,v,z) ('' Y'zl: (y-x)' s-(v-x) {1+z) 1ot,r* (x'y'z)
1
tJ t e- udu : Vn
2l frQl: ii rl-- (t,-')t g-(v-x)(t*') dt,l d'
f (z) : i..1,^*(z)
f(x,vtlz=, (x, vI : f, t'+ z)t (t, - xl" e- (v-x) (1*4 1o (x' v)
3)
E (/t- xlZ:zl:
E1 1Æ-T1 :
1-i I I
ot/ r^ tt+ i)3 (v - *)' u
EztE/T-l 7ll : Ez (*
15 ,["(y-xl {z*lldxdv - '' --' 16 Vz+1
J V7rt-,4{"_--
\/z+ 1
144 PH TASSI S. LEGAIT
LES VARIABLES ALFATOIFES
4) Changement de variables :
A $,v,2) : (y -x, z(y-x),x):{u,v,w) J(p-t) : 1-U
La densité de (y - X, Z (y - X), X) esr :
g(u,v,w) : u2e-'-u I 1^ (u,v,w)U.
où: A: {(u,v,w)/u } 0;v } 0 et 0 <w<1}g(u,v,w) : ue ,llo,*_1 (ule-u llo,**1(v) 110,'|1wy
d'où l'indépendance de U, V et W: X et:
fu (u) : u e-'1 ,0, * _1 (u), fv (v) : ,-n t,o, * _1 (v)
3'4 Soit X une v.a. réelle continue représentant la mesure d'un phénomène physique dans une unitédonnée. 0n donne sa densité g (x):
^ e- À*, x) 0,,À ) 0. 0r ra donnée observée est en
réalité [X], où [.] désigne la parrie enrièrc de X.
1) 0n pose Y : Ix]. Donner ra roi de y, son espérance et sa variance.
2) Oue dire lorsque ra donnée observée est, cette fois, r'entier re prus proche ?
lndication
1 ) Y est une v.a. discrète où :
Vne IN P{Y:n} : p{n(X(n+1}: d*1 g(r)dx:e-na11 -s-a1n
E(Y) : i nP{Y:n}:J-n:0 e'' - I
,Àv (Y) :
('l _ 1r
2) Pourtxl <X<[X]+0,b, onobserveZ:[X], er pourtXl+O,S<X<[X]+ t, onobserve Z: [X] + t
^P(Z:0):1-e 7^^n*0, P(Z: n): P(n-0,5(X<n+ 0,b):r-rn1r7 - u-a I
À e-^E(Z):2sh-.-- 2 (1 -e- ÀY
PH.IASS] S LEGAIT
LES VARIAB LES ALEATOIRES
3.5 Soient X et Y, deux v.a. indépendantes de densilés respectives f et g et de f.r. respectives F et G.
Donner les densités de U : Sup (X, Y) et V: lnf (X, Y).
0énéralisation
Soient X,,, ...,Xn n v.a. indépendantes, de même loi, de densité:
f (x)= t,o.,, (x).
Ecrire les densités de Un: l:ltn
X, et U, :
'='Én
*,
lndication
Fu(u):P(U(u): P(X(u et Y<u): F(u).G(u)
d'où :
fu(u):f (u) G (u) + F (u) g (u)
De même :
Fv(v) : I -P(V2ul : 1 -P(XlvetY2ul : I -(1 -F(v)) (l -G(v))
d'où: fv(v): f(v)(1-G(v))+s(v) (1-F(v))
0n en déduit :
Fun(u) : Fn(u) où F (u) : u 1to,,l(u)* 1lr,*-1(u)
est la f.r. des X,. Donc :
Fun (u) : un I 10. rJ
(u) + 1 lr, * -tet:
flr (u) : n un- 1 1lo,,t (r)
De même:
Fvn (u) : (1 - (l - uln) I to, ,1
(u) + 1,', * -1 (u)
fvn(u) : n (1 - uln-1 1,0,,, {u)
et:
106 PH. TASSI - S. LEGAIT
Les lois de probabilité usuelles
La pratique des probabilités dansvent par une parfaite connaissance desen effet besoin :
- d'identifier la ou lesnées observées
ôu(x) : 1
ôu(x) :0La loi de Dirac est la
mène déterministe X dont
PH, TASSI S. LEGAIT
Chapitre 4
* de connaître et interpréter leurs caractéristiques fondamentales (espérance,écart-type , médiane, etc.) en fonction des paramètres qui interviennent dans l,ex-pression des densités ou des fonctions de répartition
- de pouvoir approximer ces lois par des comportements asymptotiques limi-tes apparaissant dans un certain nombre de situations.
ce chapitre répond à querques-uns de ces objectifs. La partie asymptotiquesera vue ultérieurement au chapitre 7, car elle néceisite des outits mathématiquessuppiémenta ires.
LES LOIS DISCRETES
la modélisation statistique passe très sou-lois usuelles ; le probabiliste-statisticien a
lois de probabilité des variables engendrant les don_
ses valeurs sur unde probabilité d'une
On rappelle qu'une v.a. est dite discrète si elle prendensemble fini ou dénombrable de points. par extension, la loiv.a. discrète sera dite également discrète.
1.1 La loi de Dirac
Définition 1
soit a e R, un point fixé. on appeile roi de Dirac au point a ra probabirité ôadéfinie sur lR par :
SI X:A
si x*aplus simple probabilité existante, associée à un phéno-le résuitat de toute expérience est a. C'est, par exemple,
141
LES LOIS DF PROBABIL]TE USUELLES
à la pétanque, la loi de probabilité de la variable X mesurant la distance entre unebouie visée et le point d'impact de la bouie tirée, lorsque le tireur ne fait que des<carreaux> : X suit une loi ô-.
Application
Soient n réels distincts fixés (a',. ..., an)et n réels (pr, ..., pn)tels que :
nO<pi<1, i: 1 àn, et.t. O,: t
l:l
On sait. d'après le chapitre 2, que la combinaison linéaire :
n
,f ', o' ô',
est une probabilité P associée à une v.a. discrète prenant ses valeurs sur {ar, '..,
an], et telle que :
P (X: a,) : p;
1
Si p, : -, pour tout i. la loi de X est dite uniforme.'nMoments
E(X) : a, V(X1 :9
1.2 Lci indicatrice (ou loi de Bernoulli)
Définition 2
On appelle variable indicatrice X la variable à valeurs dans {0, 1 } telle que :
tx1t1: o
Px{o}: q(q:1-P)(p € t0, 1l)
On note :Â 11,p) la loi de la variableX et on I'appelle loi indicatrice ou loi de
Bernoulli de paramètre p. Par extension, la loi de Bernoulli est la loi du résultatd'une expérience ne pouvant prendre que deux résultats possibles {a, b} quantita-tifs ou qualitatifs:une porte est ouverte ou fermée, une lumière allumée ou
éteinte, etc.
MomentsE(X):p V(X):pq
108 PH' TASSI - S. LEGA]T
L[S LOIS DE PROBABILITE USUELLES
1.3 Loi de Foisson
Définition 3
La v.a. X suit une roi de poisson de paramètre À (À i o) si o : rN er:
Vx € lN px1x1 - s-a ^xx!
On nore :X -) .4 (^1.
comme nous re verrons dans re chapitre consacré aux processus, ra roi dePoisson apparaît, sous certaines hypothèses, dans les phénoÀènes de comptagàd'événements pouvant survenir Bendant une unité de temps donnée: nombre devoitures passant devant un observateur, nombre d'entrées ou de sorties d'une salled'attente, etc.
Moments
E(x) : i r"-^1:^ î "-o À'.' :À î "-olrx:0 x! x:1 (x_1)! " yIO - yi
E(X) :2Plus généralement, carcurons re moment factorier d'ordre k :
/rr.l: E (X (X - 1) ". (X - k + 1))
: ; x(x-1)...(x-k*1)e-^ ix:0 xl
æ :X k oo
ik ; e-À À ' : Ànx:k (x-k) ! U:O
- yl
/1L1 : ,1 k
D'où :
Ft2t: E(X(X-1)) : E(Xt)-E(X1:22
E(X2l : ^2+Àet donc :
v (X): 2
ll convient de remarquer que la loi de Poisson est la seule loi discrète à avoirl'espérance égale à la variance, quelle que soit la valeur de,À. La table 4 donne lesvaleurs des probabilités d'une loi de poisson.
PH,TASS] -S LEGAIT109
LFS LOIS DE PROBABIL]TE USUELLES
1.4 Loi binomialeOn considère n tirages équiprobables, indépendants dans une population
composée de deux types d'éléments, le premier (l) en proportion p, le second (ll) enproportion q : 1 - p. Soit X le nombre d'éléments du premier type présents dansl'échantillon de taille n ainsi obtenu ; X est une variable aléatoire à valeurs dans
{0, 1, ., n}. La loi de X est appelée loi binomiale de paramètres n et p, et est notée!4 (n, pl.
Supposons qu'à l'individu no i de l'échantillon (i : 1 à n) on associe la v.a. Y'qui prend la valeur 1 si le ième individu est du type l. et 0 sinon :
P(Y, :1) si i€(l)
P(Y, :O) si i€(ll)
Alors, il est évident que le nombre X d'individus du type (l) dans l'échantillon vérif ie :
nX_: Yi
i:1
Comme Yi -) gJ (1, p), on peut écrire que la loi binomiale !/J (n. p) est lasomme de n lois de Bernoulli indépendantes. ll s'ensuit :
E(X) : : E(Y')' V(X) : : V(Y')i:f i:1
soit :
E(X) :np, V(X) :np(1 -p)Une définition explicite de la loi JJ (n,pl est la suivante:
Définition 4
Une v.a. X suit une loi binomiale de paramètres n et p si :
Px 1x1 : Cx p" (1 - p)n-x pour x e {0, 1, ..., n}'
La table 3 est consacrée aux probabilités élémentaires d'une loi binomiale.
1 .5 Loi multinomiale
ll s'agit d'une généralisation de la loi binomiale. Considérons une population
composée d'éléments de m types, chaque type j en proportion :
mpi, 1(j(m, Pi)0, t. o,:1
j:1 l
110 PH, TASSI - S. LEGAiT
LES LOIS DE PROBABILITE USUELLES
.
On tire, dans cette population, de façon équiprobable et indépendante, unéchantitton de taite n, et on définit ra varia'bre arà"ioii"ï, tr iik-ïi,;;;;;;dg,ns {9, 1,...., n }, représentanr re nombre J'étéments oé tvpJ i iigrr"n, dans r,échan_tillon' on dit que re ve*eur(N,, :..,^f ,.,,')suir une roi murtinom,rî,É'i" oiil;!il'Jl,pr, ..., p,n, notée .t/ (n, pr. ..j, nn.t. nrr3'"rticitemenr, on a ;
Définition 5
Le vecteur aréatoire 1= (Nt, .... N.n) suit une roi murtinomiare de paramètres :
mn,pr pr;pj >0, V j=1,...,r,,In pj :1si: J-l
Px(n.,.... n ) =tm,
m
j:1 ):n,
j:1 t
n!
n' | ... n.!est le nombre de (n.,. nr. ..., nr) - partages d'un ensemble de n éléments, avec:
m
iIr îi :D
Propriété 1 : La loi marginale de N est une loi gB h, p).En effet, un érément tiré est soit du type i (avec ra probabirité p,), soit non
!1 - pi) ; te nombre totar d'éréments du iype j aans r,échantiron;;l; jdil;;;'i;;binomiale 4 h, p;). Retrouvon.
""ie*rili par re carcur. soit r,événement A. définipaf : t - vvr(rsr I
R, : [(n,,, .... nj_.,,nj*.,, ..., n.,n), ,ij
Di : tr: n - n,]
nl
ou:
p (N, : n,)
nl n.
;r il*un jr(1"*t
nfr o-."A.
J
- Pi)n -n.J>
n.!...n !tmm
oft... on'
(n - n,)!
A; nr l...nj-r ln,*.1 !...n,,nlnr n,," n
Pr' ...p ill p.'(1 - pj)n-nj
PH, TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
ll s'ensuit :
P {Nj: n,): cll eli 1t - pj)n - nj
Conséquence
E(Nj) : nFj (Ni) : npi(l -pi)
lntuitivement, il n'y a aucune raison pour que les v.a. N, et N, (i + U soientnon corrélées, a fortiori indépendantes; calculons Cov (Ni, Nl). Comme auparavant,(N, N1) suit une loi multinomiale de dimension 3 (une l'oi .trinomials") puisqu'unélément tiré est soit de type j (pj), soit de type I (p,,), soit non (1 - pr - pi) :
(N, Nr) -> "U, (n : pl p/
n!E (NjNr) :
(nj, nrl
nj+nt(n
d'où :
Cov (N,, N/: - n Fj p,
La loi multinomiale en statistique :
Soit Y une v.a.r. continue, I son espace de valeurs. (f (y) sa densité,(Yr, ...,Yn) un échantillon de n observations de Y. ll est très fréquent (tranches dei"ù"nr, ti"âncnes d'âge)de partitionner U enclasses.C,, i : 1 à K :
Kg - : C.. la classe C. déterminée par C, : [e _,,, e,[i:1 r' I
(ni- )!(nr- 1)!(n - n,- nr) !
:n(n-1)pipr
4, oi, t'' - pi- pr)n-nj-nr
r (v)
112 PH. TASSI . S. LEGAIT
LES LOIS DE PROBABILITE USUETLFS
on définit les K v.a. Ni.i: 1 à K, où N, dénombre res points de (y.,, ....yn)dans C,.
Le vecteur (Nr. .... N*) suit une loi multinomiale 'b 1n ) pt, ..., F*) avec :
o,: Jj,,_., f (v)dv
1 .6 Loi hypergéométrique
on considère un tirage équiprobable sans remise de n éléments dans unepopulation de taille N (n ( N) ;on s'intéresse à un type donné (l)d'éléments de lapopulation, que I'on supposera être en proportion p (Np est donc entier). soit X lenombre d'éléments du type étudié, présents dans l'échantillon de taille n obtenu.La loi de X est appelée loi hypergéométrique de paramètres N, n, p, et est notée-Jf,(N, n, pl.
Une définition explicite de la loi J(1N, n, p)est la suivante, à partir du dénom-brement "cas favorables./cas possibles, :
Définition 6
X suit une loi hypergéométrique de paramètres N, n et p, si :
'x /'n-x
Px (x) - tNP uNq
cftpour Max(O. n - Nq)(x( Min(n, Np), avecq : 1 - F.
MomentsE (X): nP
N-nV (X): npqN-1
Démonstration
Soiteo, a:1
(I
t
PH TASSI - S. LEGAIT
à N, la v.a. associée à tout individu a de la population telle que :
Eo:1 si a appartient à l'échantillon
ro: O sinon.
LES LOIS DE PROBABILITE USUELLES
Comme il y a Cft-11 échantillons de taille n contenant l'individu
échantillons possibles de taille n :
cil-l nP (eo: 1)
On peut écrire :
x- : Yoroa:1
où Yo prend la valeur 1 si a est de type (l), Y : O sinon.
NE(X) = I YoE(eo)
a:'lNn
:a:1 aN
Npuisque : Y- : Np, nombre d'individus de type (l)dans la population.
d:l
De même:
NV(X) :
G:l aTp
EEoe,.\:P (toeO: 1) : P(€a: 1, eO: 1l
- P (€o: 1). P(c, : 1,/to: 1l
n(n-1)N(N-1)
n(n-1) n' n(n-N)Covrc.E-l:
-:N(N-1) N2 N'z(N-1)
V(sa) : Ele'?al_ Ez leol:+ - ÉnN
t >. YJt: N'P':q:r a:l " a*Ê
Cfi
a, et Cfi
En outre
PH. TASSI . S. LEGAIT
LES LOIS DE PROBAEILITE USUELLES
D'où :
nV(X): N (1 *
NEn remarquant que : y?
q:1 a
V (X):
^ n{n-N}Y'+ r'r,N - t)
(Nt Pt -
Yo : Np, on obtient :
pz*Nprffi # (l
N: Y2,
a:1 al
nN-)N a:1
n
*)l
N::a:1
: lll-r*, p,_ Ll,l-.N) pN-1 N-ld'où :
v(x): N-n nooN-1
. 9n constate que, en notant Vn (resp. Vr) ra variance de X seron ra roi hyper-géométrique (resp. loi binomiale), oria :
V, N-nÇ: N-1 <1 dèsque n)l
En particulier, si n -- æ, [\ -* *, n V,N -O;
Ë-1;souscesconditions, les
tirages avec remise et sans remise sont équivalents en terme de variances de X.
1 .7 Loi binomiale négative
on considère une popuration dont une proportion p est composée d.érémentsd"un type I donné. on désire obtenir n érémenis du "; ifi";n procédant à unesuite de tirages équiprobables et indépendants. Soit Y la variable aléatoire dési-gnant le nombre de tirages nécessaires pour obtenir les n éléments voulus. La loi deX: Y - n est apperée roi binomiare négative de paramètres n er B, ".tÀi g tÂ,ilDe manière plus explicite, on a ;
Définition 7
X suit une loi binomiale négative de paramètres n et p si ;
PH. IASSI - S. LEGAIT
Px(x; : CII_. pn q* pourx € lNnf x- | '
1t5
LES LOIS DE PROBABILITE USUELLES
La forme de Px (x) est obtenue en remarquant que {X : x} signifie que
x tirages ont donné un élément d'un type différent de (l), n tirages (dont le dernier)ont dônné un élément du type l. Sous l'hypothèse d'indépendance, la probabilité
d'un tel événement est qx pn, et il faut multiplier par le nombre de tels échantillons
de taile n + x soit C[l_,1 .
Remargue
L'analogie avec le schéma binomial est intéressante. Dans celui-ci, le nombre
de tirages esi tlxé, et c'est le nombre d'individus de type I qui est aléatoire. Dans la
loi binàmiale négative. ou, plus exactement pour la loi de Y, c'est le nombre d'élé-ments de type I qui est fixé et donc la taille de l'échantillon global qui est aléatoire.De telles approches sont parfois utilisées en statistique, notamment en théorie des
sondages [6], en biométrie. épidémiologie et essais thérapeutiques.
Momentsoq
E(X) : n - V(X) : n-;pp-Cas particuliers : dans le cas n: 1, la loi de la variable Y désignant le nombre
de tirages effectués jusqu'à l'obtention du premier élément du type désiré porte lenom dà loi de Pascal, ou loi géométrique de paramètre p. Sa définition explicite
estPY(y):pqY-1 poury e N - {0}
Ses moments sont :
E(Yl : 17, V (Yl : q/p2
2 LES LOIS CONTINUES
2.1 Loi uniforme
CLASSIOUES
Définition IX suit une loi uniforme sur le segment Ia, b].par :
a ( b, si sa densité est donnée
1
f (x) :.-b-a
€ [a. b].
PH. TASSI - S. LEGAIT
1t., ul (*)
x-apour x
b-a
116
On note * -, *r",u1i la f.r. est F (x)
Remargue
En faisant lechangementdevariables x * x-4, on est ramené à une loib-a
uniforme sur le segment [0, 1 ], de densité g (x): l,o, ,,, (x).
Graphes
Moments
.%rc,tj, E(x) : +t v(x) : +
.%r^,ntt E(X)= +,V(x) : \{Rappelons (cf. chapitre 3, exercice 3.,l)que l'image par sa propre f.r. de toute
v.a.r. continue X est une v.a.r. de loi Ql.ro, r1. cette propriété est très utile poursimuler - ou engendrer - des échantillons extraits de la loi de X (cf. 4.4).
2.2 Loi gamma
LES LOIS DE PROBABILIIE USUELLES
Définition 9
X suit une loi gamma de paramèrres p et 0, p) O, e> O. notée y (p, d), si sadensité est :
f (x) : j= "-,, xp-i 1n + (x)
PH, TASSI - S. LEGAIT
LES LOIS DE PROBABILITF USUELLES
e-x xp-1 dx
Remargues
a) Si le paramètre d'échelledest égalà'1, on écriray (p, 1)ou f (p);si 0+1,la v.a. Y : dX suit r (p). La densité d'une loi r (p)est :
1
f (x) : =i- e-^ "n-1 1,r* 1x)r (p)
b) Si p:1, la loi gamma Y .1, d) porte le nom de loi exponentielle de
paramètre 0; saI.r. est F (x) - 1 - "-0x.
Forme de la densité de y (p)
Propriétés de I- (p)
l-(p) : (p-1) I-(p-1), Vp ) 0 (parintégrationparparties)
l-(p) : (p* 1) !, Vp € lN - {0}
ou:+co
r(p) :.f0
T (1/21 : GDo 1
l-(p+1) -(-l't/2rP (1 +- )(P-.+-)e tzp
o<p<1
1<p<2
PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELTES
Moments
SiX suir une loi y (p, 0), on a:
E (X') : l- (p + r")
o'f (pl
On en déduit :
Démonstration
+cÔE (Xr) = J"
0
E (Xl : p/0 V (Xl: p/Ê
0P - .** 0p u;;l e- ëx xr+p-l dx : -[ 1 e- ur(p) - ^ v^ o r(p) (71
E(Xr) : 1 1
ot ffi r(n+r1
r+p-l 1
du0
Dans le cas de la loi exponentielle, on a :
E(X) : 1 et vrXl :l0ËLe paramètre d est donc interprétabre comme |inverse de ra vareur moyenne de Xou l'inverse de son écart-type. ceci donne naissance à une forme régèrementdifférente de ta cjensité, parfois utirisée, où d esr o,r""tÀ*"nii,e1per"n"" ou r,écart_type :
I (x,0) : I u-.rt ,,0" (*)
ou plus généralement :
I (x, 0, pl : J= e-x/s 0-p xp -t I _ (x)t (p) R; '"'
2.3 Loi de Weibuil
Cette loi est due au mathématicien suédois W. Weibull t211.
Définition 1O
X suit une loi de weibuil de paramètresûet 0, a) o, e>0, si sa densité estdonnée par :
f (x) : a0 xa-1 e-o^o 1,*. (x)
PH. TASSi - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Fonction de réPartition
. Fr(x) = 1-e-o^o
La forme de la f.r. donne une idée intuitive de I'origine de la loi de Weibull. En
effet, si a : 1, on retrouve la loi exponentielle Y (, 0l dont la f.r. est 1 - e-dx, soit
p (X ) x) : e-d*. Pour décrire des phénomènes dont l'ordre de grandeur
d'apparition d'événements extrêmes du type {X ) x} est beaucoup plus faible que
e-dx, on est conduit assez naturellement à étudier leS exponentielles e-0^q.
Remargue
La variable Xa suit la loi y (1, 0l; la loi de weibull se déduit donc de la loi
exponentielle par le changement de variable '1 **1 /a.
Moments
rt1 +1)r 1x1 :----- o -
Q1 /a
2^1l-(1 +-) - l-'(1 +-)
a.av(x) =
62/a
Démonstration
+oo +oo
E (X) : J' x a0 xa-1 e-e ^a dx = .f e-d ** dx en intégrant par parties'
oo^t- 1 .r.L-" 1 1 1 1 - 1
E(X) :J e-'^ (;) o du
Oaqaf/aqag1/ad
+æ -- +oo
E (X2y : l' *" a0xa-1 e-d"od* : 2 t x e-d*' dx
oo: 2 rt?l- 1 ,1',*Zl
o g2/a a g2/a d
2^1t-(1 +-l - r' 1t +-)
aa
d'où :
V(X) :02/a
PH, TASSI . S, LEGAIT
LES LOIS DE PROBABILITE USUELLES
2.4 Loi bêta
Soient X et Y deux variables aléatoires indépendantes suivant respectivementf (p)et f (q). p ) 0, q ) 0. Nous allons chercher ta loi de ta variabte Z:X/y.
La loi du couple (X. Y) a pour densité :
f,r,", (',y) : ;;+ e*(x+v) xp-1 yq-1 1,^. ".(x,y)r (p) r (q) IR; x il,+
Considérons la transformation g : lR* x lR+ * lR+ x .lR;- definie-paï :
/x\ s lu:X \\rl-\r:*,r)
Le jacobien J (S-t)de la transformation g-t est u/22 ; d'où la densité du couple(U, Z), d'après le théorème 5 du chapitre 3 :
frr,r1(u, z) : --j- e-u 1r * |t up-l (l lo-t -y-r(p) r(q) z z'
f (p) f (q) zq+l
Pour obtenir la loi de Z, il suffit d'intégrer par rapport à u :
ce qui conduit à :
On pose :
d'où :
B (p, q) - rlP) ' r (q)
r(p+q)
f-121 :L' ' B (P, q) (1 + 210*e rR* ' '
PH TASSI - S. LEGAIT
LFS LOIS DE PROBABILITE USUELLES
Délinition 11
Z suit une loi bêta ,sur lR* de paramètres p et q, dite loi bêta de secondeespèce. On la note É (p; q).
Rappels
+ æ xp-lB(P,q) : J --dxO (1 + 11n+o
B(p,q) : B(q.p) ;
Définition 12
La variable aléatoire f : -!- suit une loi bêta É (p, q)sur [0. 1] dite loi bêta1+Z
de première espèce de paramètres p et q, p > 0, q ) O.
T est une v.a. à valeurs dans t0, 1 I En faisant le changement de variabledans f, (z), on trouve facilement la densité de T :
fr(t) : ,.hrn-r 11 -t)q 11ro..,r(t)
La loi bêta sur [0, 1 ] est extrêmement utilisée, car pouvant être définie surtout intervalle Ia, b] par le changement de variables Y: a + bT.
Remargue
Dans le cas p: 1 et q :1,f r(t) : lto, 1l (t) : P (1,1) : %rc, tl.
Forme de la densité de T :
Elle varie selon les valeurs des paramètres p et q (voir les graphes pagesuivante).
Moments
E (Tr) : B (P + r' q) E rzr\:
B]gj::f: tt
B (p, q) B (p, q)
1: J" x.P- 1
0
11B (-, -)22
(1 - x)a-1 6*
:7f
En effet :
E(rl : J"10
tr+p-1 (1 _ t)q-1 B(P+r'q;dt:
B (p, q)
122
B (p, q)
PH. TASSI - S, LEGAIT
LES LOIS DE PROBABILITE USUELLES
De même pour E (Zr), à condition que q ) r afin d'assurer |existence del'intégrale.
On en déduit :
E(T) : p
p+q
oE(zl : -- (q> t)q- |
(p+q)'(p+q-1)p(p+q- 1):--_____-____;_DOUr(q
(q - 1)'(q - 2) '
pqV(T) :
v (z) >2)
La variable Z n'a donc de moments d,ordre 1 et 2 que pour q ) 2.
Théorème 1
Soient X et Y deux v.a. indépendantes suivant respectivement f (p) et f (q).
p ) 0, q ) O. Alors ta variabte ï: i- suit une toi bêta É (p, q)de premièreespèce. X + Y
Le résultat est immédiat; il suffit d'écrire T sous la forme X/Yles définitions qui précèdent.
PH. TASSI - S. LÊGAIT
et utiliser
p>1q)1
1+X/Y
142
LES LOIS DE PBOBABILITE USUFLLES
2.5 Loi de Gumbel
Définition 13
X suit une loi de Gumbel si sa densité est :
f" (x) : exp (x - ex), x € lR
Sa fonction de répartition est :
Fx (x) : 1 - exp (- ex)
E(X) : -0,57722 V(X)2
Tr
6
où O,57722 est la constante d'Euler.
Remargue
La loi de Y - - X porte aussi parfois le nom de loi de Weibull, à ne pas
confondre avec la loi étudiée au paragraphe2.3. La densité et la fonction de répar-tition de Y sont :
fy(y) : exp(-y-e-Y) Yc lR
Fy (y) : exP (- e- Y)
2.6 Loi normale unidimensionnelle
Moments
Définition 14
X suit une loi normalepar :
de paramètres m et o (o) O) si la densité est donnée
2(x-m)
t*(xt :;fr"-T (x € rR)
On note X -) N (m. a).
Les paramètres m et a sont aisément interprétables. En effet, calculons E (X) :
2(x-m)- -------r-2o dx
124
1 ^*æE{X):----- J xeo t/2t - oo
PH. TASSI - S. LEGAIT
o-
E(x): ^ -=-f*-, "-u"/2du:mVZlr - æ
car la fonction à intégrer est impaire.
De même :
(x-m)^1^+æE (Xz) :- l' xt e
o \f27r "- *zo2
: mt+ 2^o !** -5- " u'/2 6u * L J**
- æ :/2r ,/Zo - oc
^ 2o2 ^+æ: m'+ ----=-- J v1l2 e-udvt/r o
o20'3= m- + ----/_ l- (= )t/n 2
LES LOIS DE PROBABILITE USUELLES
x-mon obtient :
En posant u :
Comme:
ona:
Les paramètres m ettype de X.
dx
_2Uz
"-u /2 6u
_3 1 1| (t) :t , (t
v(x) : o.2
a représentent respectivement I'espérance et l,écart_
,,Ft-
2
Loi normale centrée réduite
. X-mLa v'a' u -
-
suit une roi normare d'espérance nuile et de variance 1,
notée N (0, 1), dite loi normale centrée réduite de densité :
2
1 -ufr,(u) :p(u) : ,:e 2 (ue lR)" r/2r
PH. TASSi S. LEGAIT 125
LES LOIS DE PROBABILITE USUELLES
La f.r. de U est notée O, et définie par :
^u1o(u) : J__ Wsont données à la table 1 ; la
"- t'/2 dt
Les valeurs de <D
la loi N (0,1).
Forme de la densité
table 2 fournit les fractiles de
Cette forme est celle d'une courbe en oclocheo.
Remarque
La loi normale N (m, o) converge vers la loi de Dirac au point m lorsque a tendvers O.
Approximations
De nombreuses approximations de la f.r. <D (x) ont été données dans la lit.tera-ture. L'une des plus précises (erreur de I'ordre de 1O-5) est :
O(x1 : 1 - ç(x) (au + bu2 + cut)
(x)O)1 + 0,33267 x
a : 0,4361836
Plus simples sont :
b - - o,'t201676 c : 0,937298O
0,5 (x)O)
PH. TASSI - S. LEGAIT126
O1x1 : 1-(1 + ax + b x2 + c x3 + d xo)o
LES LOIS DE PROBABILITE USUELLES
avec une erreur de l'ordre de 2,5. lO-a et :
a:0.196854 b:0.11b194 c: O,OOO344 d:0,019527
1Q8l:;+b;-cxndf (x ) o)
avec une erreur de l'ordre de 2 . 1O-3 et :
a : 2,490895 b= 1.466003 c : 0,024393 d : O.t7gZS7
Théorème 2
1_La v.a. ; U'suit une loi y (1/2,1).
2
Démonstration
En appliquant, par exemple, la technique de la fonction muette, on a :
1 ^+oo u' -i ft ^** u' -+'JGI_-h(;) e 2du :Jîto h(it" 2du
: ,8.t"*- n (y) e- t #1 +æ: ,fr lo h (Y) Y- 1t2 u-Y (Y
: {- + y-1/2 e-y h(y) dy" r(t)
On en déduit :
r+1
E(!u'f/':" ''--2 r(1),2
(d'après le paragraph e 2.2).
PH TASSI S. LFGAIT
LES LOIS DE PROBABILITE USUELLES
D'où :
E (lul') - 2r/2
Les moments de U et de X s'en déduisent :
o Vr e N, impair:
r+1.r( z )
1r (tl
E(Ur) : E(X-m)':0
oVr € lN,pair: 2r/2 r+1
E(U') :Trl Z I
or 2r/2 r+1E(X-m)':-G-r( Z I
Polynômes de Hermite
Partant de la densité g (x) de la loi N (0,1), on a :
9'8):-x9(x)e., Vl : (x, _ 1) p (x)
g,.,(^) : -(x.-3x) 9(x)
Un simple raisonnement par récurrence permet d'établir que la dérivée d'or-dre n de p (x)se met sous la forme d'un produit de rp (x) par un polynôme de degrén, noté Pn (x), et que pour n pair (resp. impair), Pn (x) ne comporte que des puis-sances paires (resp. impaires) de x :
,ln)1x) : pn (x) o (x)
Définition 15
On appelle polynôme de Hermite d'ordre n le polynôme Hn (x)défini par :
,tn) 1x) : (_ 1 )n H n
(x) rl (x)
c'est-à-dire, avec les notations précédentes :
Hn (x) = (- 1)n Pn (x)
Par convention, on pose Ho (x) : 1.
128 PH, TASSI S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Exemple
H,(x) = x, Hr(x) : xt-1, H.(x) :x.-3x, Ho(x) :xo-6x2+3
Hu(x) :xu - 10x3+ 1S, H6(x) :xt- 1s xa+45 x.- 1s, etc.
Propriélé 2
u'un LIX-
-Hn (x) est le coefficient de I dans le développement de e 2
n!
Démonstration
Soit u un réel quelconque :
1 - {.;d u,.- {9(x-u) :
-Jrr" 2 : p(x) e 2
co , irn:
n:O n!
æun: :
-Hn(x) p(x)
n:O n! |
en faisant un développement de Taylor et en utilisant la définition 15. on endéduit :
2u^^
"'^--, : ; un
H (x)n:O n! n. ,
2u
ll s'ensuit que Hn (x) est le coefficient o" 4 dans le développement de "" - 7
.
n!Remargue
u"ux- --Dérivons e 2 par rapport à x; on obtient :
,r-i æ un+t æ rr^ue 2 -
n:O n! n' ' n:O nl
PH. TASSI - S. LÊGAIT 129
LES LOIS DE PROBABILITE USUELLES
En égalant les coefficients de un, on a :
Fl (x) : n Hn*., (x)
De même, en dérivant par rapport à u, on a :
Hn(x)-xHn_1 (x)+(n- 1)Hn_Z(x) : 0
En multipliant cette dernière égalité par n et en remarquant que :
on a, pour n22:Hn(x) : n(n-1; Hn_r(x)
H"(x) - xFl.,(x) .' nHn(x) : O
Propriété 3
Soient Hn et Hn deux polynômes de Hermite, Hn (X) et Hn (X) les v.a. images de
X par Hn et Hk, X de loi N (0,1); on a :
E(H^(X)) :0
V(Hn(X)) : n!
Cov (Hn(X), Hr(X)) : 0
u
(x-u) e 2 =
d'où, en égalant les termes en un-1 :
Hn (x)
-^(n-1)!
æ Un-1
n:1 (n-1)! n"
Hn-r (x) Hn-z(x)(n-1)! (n-2) !
{* o(n){") o"
t-l)" {n Hn(x) o(x) dx
(- 1)n E (Hn (X))
Démonstration
a) g[{* e(x)dx] : o:dxn
PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILITF USUELTFS
^^-.,:) l_n._o.n. uk, n : l* tn (x) Hn (x) p (x) dx avec k ( n. En intégrant par
parttes, on a :
uk, n : (- 1)n "i Hn {x) e(n) {x) dx
f -l +-: (- 1'" Ltn(x)
p(n-tl tx!__ * (- 1;n*r j,, tn (x) 9(n-r)1x;dx
: o+(- î1n*t O l,* tn_r (x) p(n-r) 1x; dx
: k ,k-r, n-l
ll s'ensuit :
.uc " : kl uo, n-n
Si k <n:
uo,n-k:.f Hn_r(x) p(x) dx: O et uk,n: Cov (Hn(X), Hk(X)) : O
Si k: n,
uo,o:1 et un,n:V(H.(X)) :n!
2.7 Loi normale multidimensionnelle
Soit X un vecteur aléatoire de (lRp, fr.o1, ae coordonnée courante X., i : 1 à p.
Définition 16
Soit u : 1 Ït \ un vecteur quetconque de tRp.
\,0/X est un vecteur normar (ou gaussien) si, vu, u'X est une v.a.r. normare.
Remarques
a) on en déduit que si A est une application linéaire de lRp dans lRd, et si xest normaldans (Rn, 9/l9l, alors AX est normal dans(lRd, fr,d1.
PH TAsst - s. LEGAIT 131
LES LOIS DE PBOBABILITE USUELLES
b) Si u, : 1 et ,j : o, j+i, xiest unev'a'r' normale'
La loi normale multidimensionnelle peut être également définie par sa densité :
Définition 17
Soit m € lRp et I une matrice (p. p) réelle symétrique positive. X est un vec-
teur normal de dimension p si sa densité est donnée par :
(2rP/2 \6AtPropriété 4
E (X) est le vecteur espérance m et > est la matrice de variance-covariance et
on note la loi de X : N (m, I).
Démonstration
I étant une matrice réelle symétrique et positive, il existe une matrice ortho-gonale S et une matrice diagonale D telle que :
ts>s:D
Si af, .. , af Oesignent les valeurs propres positives de I (non nécessairement
toutes différentes), D : Diag 1oi, , oil
Effectuons le changement de variables défini pat Q i
": (x1,..:,xrl4> y: (y1,...,y0) : tSx
g-1 (y) : sy car tS : S-t (S est orthogonale);
lJ(p-')l :lDetSl :t
On note :
1. I
s-2 '{"-m) r ' (x-m)f" (x) :
g: tsm;t(*-m) >-t (x-m) : t(y - g)ts >-1 S (y - rr)
: t(v- ti D-1 (y-p)
p1:,I, 7 lv'-u')'
132 PH TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
d'où :
I p 0i-u)2
g (y1' ..., yn) = e- 2 ti'' ,1u (2ùe/276-1 Ni- u)2
s (v1, ..., yoi : f, --! "- T
"1' i-1 Vzroi
donc Y.,, ..., Yo sont indépendantes et suivent respectivement N (g,, a;).
On note : Y: (Y.,, .... yO).
Ona:E(Y) : 1r et V(Y) : D
où V (Y) désigne la matrice cJe variance-covariance de y, d'où :
E(X) = E(SY) = SP: m
V(X) : V(SY) : SV(Y) tS: SD tS: X
Propriété 5
Vu € lRP, tu X -> N (tum, tulu)
ce résultat vient directement des propriétés du paragraphe 2.3 du chapitre 3.
En particulier :
V (Z u X,) : I u, u, E (Xi- mi)(Xj- mj) : tu V (X) ut,l
Définition 18
La loi t\ (O, lD) est appelée loi normale (multidimensionnelle) centrée etréduite, de den'sité :
1 (t2l2x11 (xr, ..., Xn) :
--e(2rlPtz
Théorème 3
Soit X: (X' Xz) un couple gaussien à valeurs dans lRz. X., et X, sontindépendantes <+ Xr et X2 sont non corrélées.
PH.TASSI -S LEGAIT 133
LES LOIS DF PROBABILITE USUELLES
Démonstration
Si X, et X. sonl indépendantes, alors X., et X. sont non corrélées, quelle quesoit la loi de X, et X2 (cf. chapitre 3, théorème 10). La réciproque est fausse engénéral mais est vérifiée dans le cas gaussien.
En effet supposons que :
X-)Nc'est-à-dire que Cov (X.,. Xr) : O.
La densité de X s'écrit :
1
f(xr,xr) : ^ -
explz7r o1 o2
_ I (*.,-m.,)' _1 (*.-Ti)',o1r"Z
[;r ) (r3,)]
1:_ô',/z' o',
2(xr - mr)
2o't 1
1/2t o,
(x2 - m2)
111l:;;Ple:-1]:-22
1-t 2C2
1-n
On conclut que X., et X2 sont indépendantes et suivent respectivement les lois
N (m,, af let N (mr, o7l.
Remargue
Deux variables gaussiennes non corrélées ne sont pas forcément indépen-dantes : pour cela, elles doivent nécessairement constituer un couple gaussien.
Exemple
Soit X de loi N (0, 1) et une v.a. c définie par P {c =telle que X et c soient indépendantes. On pose Y: e X.
donc Y -> N (0. 1)
134
FY(Y) : P{Y<": ;i;.;", ::'1,..i:-:i; ll ,,
P{X>-y1:F*(y)11: i ,*(vl+ ,
PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Cov(X,Y):E(XY)-E(X) E(y) : E(Xy) : E(cX2) : E(e)E(X2;:6
donc X et Y sont non corrélées.
supposons que X et y soient indépendantes ; arors re coupre (X, y) seraito
gaussien de loi N ((^), lz)er X + y suivrait ators une loi N (0, vâ).oOr:
P{X+Y:}: P{e:-1}: 1
2ce qui est absurde puisque la loi N (o, \/r) est continue. Donc X et y ne sont pasindépendantes tout en étant pourtant non corrélées.
ll conviendra par ra suite de ne pas confondre deux variabres gaussiennesavec un couple gaussien.
2.8 Loi log-normale
Définition 19
Soit Y une variable aléatoire suivant une loiFar X: exp Y suit une loi log-normale.
La densité de X esr :
normale N (m, o). La v.a. X définie
fx (x) : =:-
exp (- (L"gl=ry' I 1 (x)o x \/27r 20' R+
I
La densité de X se déduit de celle de y par le changement de variables : y - ey
Forrne de la densité
PH. TASSI _ S. tFGAlT 135
LES LOIS DE PROBABILITE USUELLES
Moments
Ê (X) = "^*o"
/2
V (X) : "2^nc2
1so' - 17
En effet :
+oo 1 - latr-rrtYr )o 1, E (Xr) : E (erY) : .[ ^!- srvs 2o' ' dy
t/2ro
+co 1 - fu rr-(+ ,rto"l' *t+-,P- *E(Xr) : f_*àe 2o'
o" ,"
E (Xr) : "t'*
l-
2.9 La loi du khi-deux
On considère n v.a. (Xr, ...,Xn) indénendantes suivant toutes la loi normaleN (0, 1).
Définition 2O
nLa variable aléatoire U- :liberté, notée X2 (n). " i: 1 '
1^1Déterminons sa densité:on sait que t Xf suit une loi , (1 , 1) (cf :
paragraphe 2.6). Or la somme de deux v.a.r indépendantes suivant respectivement
f h, 0l et f (q, d) suit une loi f b + q, 0) (la démonstration de ce résultat estproposée au chapitre 6, paragraphe 3.1).
1n^nDonc,engénéralisantàunesommedenv.a.r.'- I Xf suit r ( ,,ll
On en déduit la densité Ùn : 2 i:1
r.. trt : --f "-i **-' lrR. (x)un
Z"rrf (t I
136 PH TASS] -S LEGA]T
LES LOIS DE PFOBABITITE USUETLES
Théorème 4
soir un vecreur aréatoir.ex dg (rRp, /tÊp), de roi : N (m, r). La v.a. y: \x - m)I- t (X - m) suir une toi Ou X, (p).
on peut se limiter au cas m : 0 : ir suffit de centrer re vecteur. Avec iesmêmes notations qu'au paragraphe2.T :
tX:-t X: tXSD-ttSX
On note Z - tS X ; Z est un vecteur gaussien d,espérance nulle et dematrice de variances-covariances D : Diag @?, , oft, ot, o? : y (2,1.
tx :-' x : 9_ 1 "uit par définirion une toi yz (p).i:l oi
. La loi du x2 possède une interprétation géométrique : soit X un vecteur nor-mal de dimension p, M le point (aléatoire) danJRp de co'ordonnées (X.,. ..., Xoi: -
D
llOwll' : t X|, carré de ta distance ài:l I
suit une loi du y2 à p degrés de liberté.
PH TASSI -S. LEGAIT
l'origine du point aléatoire normal M,
131
tES LOIS DE PROBABILITE USUELLES
Forme de la densité
Moments
De la relation existant entre les lois;2 (n) et y (n/2l1, on déduit :
E(Uj) :r''(t*'lr (+)
d'où :
E(Un) :n V(Un) =2nLes fractiles de la loi du khi-deux sont donnés à la table 5.
2.1O Loi de Student
Définition 21
Soient X et Y deux variables aléatoires indépendantes suivant respectivementN (0, 1) et x2 (n).
On appelle loi de Student à n degrés de liberté la loi suivie par le rapport :
Cette loi est notée Tn
X?_
/YV;
n:2n:1
PH TASSI . S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Densité
Pour trouver la densité,
rapport de deux variables X
1nz
il suffit de remarquer qus Ë : { est aussi teYNYet t indépendantes et suivant respectivement
r(vlety(rl.
T2n suit donc une loi bêta
nTn est :
n
^ ) de seconde espèce. La densité de2
1P(t'
1f. (x) :'n
"6 e tl,
(1 +
Forme de la densité
La courbe représentative de la fonction frn (x) est symétrique par rapport àl'axe des ordonnées, de forme (en croche> eomme pour ra roi normare.
Moments
E (Tn) : 0 (symétrie) (n > 1)
nv(Tn) :
"_2 (n)2)
Les moments s'obtiennent à partir de ceux de la loi bêta de seconde espèce(cf.2'41' d'où les conditions d'existence sur le degré de liberté n. Les fractiles sontdonnés à la table 6.
2 n+lx - -=---)
zni;t
PH. TASSI - S. TEGAIT 1?O
LES LOIS DE PROBABILITE USUELLES
Cas particulier : loi de Cauchy
Pour n = 1, T, : -+- où X et Y suivent indépendamment, respectivementN (0, 1iàt x'tr t. ' VY
La loi suivie par T1 porte le nom de loi de Cauchy ; c'est aussi la loi du rapport
de deux v.a. normales c'entrées réduites indépendantes (cf. exercice 4.2).
Sa densité est :
fr' (x) :n(1 +xzl
Tf suit une loi p (+ , ll O" deuxième espèce et les conditions d'existence des
moments de la loi bêta de seconde espèce font que T., ne possède aucun moment,donc, a fortiori, ni espérance, ni variance. Sa f.r. F est donnée par :
2.11
F(x) :t *; Arctgx
Loi de Fisher-Snedecor
nX/2n-- F - suit une loi É (7
Définition 22
Soient X et Y deux v.a. indépendantes suivant respectivement
x2 (m).X/n
La variable F : ,^ suit une loi de Fisher-Snedecor à
de liberté notée Fn, ,.
les lois x' (n) et
n et m degrés
m
-)2 de seconde espèce.
La densité de F s'en déduit :
1 *n/2 - 1
1,** {*)m7t
f, (x) :r(+
nn/2 ^m/2
(m + nx)
n+m
PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Forme de la densité
V(F'n,ml
Propriété 6
On note fo (n, m) le fractile d'ordre a de
Ona:t" (m. n) :t-a'
la loi F (n, m)
1
fo (n, m)
Remarque
Tl, carré d'une variable de student à n degrés de liberté. suit une loi deFisher-Snedecor à 1 et n degrés de liberté.
Moments
E (F- -) : -!(m > 2)'n'm' m-z
2m2(n +m-2)-----im>4,n(m-4]l (m-212
Démonstration
Nous aurions pu définir, à partir des v.a.r. X et y de roisyr 1n; ety, 1m; 1it n,ya aucune raison de privilégier X comme numérateur) la variablé'V par :
Y/ml,
-' - x/nPar définition, V suit une loi de Fisher Fn.'', n. ll est
avec U -) Fn,* et V-) F.,n ; U et 1./Vontdonc
P(F_ _<f-(n,m)) : a'n,m q'
PH. TASSI S tEGA]T
évident que I'on a UV :même loi.
LES LOIS DE PROBABILITE USUETLES
Ona:1
P(- <f-(n, m)) : a'F a
d'où :
1P(F <_):1_a'm,n fo(n,m) '
ft -o(m' n) : f"(n, n-')
Les fractiles de la loi de Fisher-Snedecor sont en table 7.
Exemple
Soit Fu,, dont on cherche le fractile d'ordre 0,05.
Ona:
fo,os (5,8) : 1
fo,e5 (8,5)
On lit sur la table f.,ss (8,5) : 4,82 et donc fo,ob (5,8) : O,2O7 .
3 LES PAPIERS FONCTIONNELS
Les deux paragraphes précédents ont présenté diverses lois de probabilités etleurs propriétés. Toutefois. lorsqu'on dispose d'un échantillon (X,,..., Xn) d'unev.a. X, c'est-à-dire d'une suiie d'expériences indépendantes où X, est le résultat defexpérience no i, t" toi p Oe X n'est, a priori, pa,
"onnre, même si farfois le contexte
de l'étude peut guider le statisticien-probabiliste vers tel ou tel type de loi deprobabilité.
ll importe donc d'utiliser au mieux un certain nombre de pratiques de la statis-tique descriptive afin d'orienter le statisticien à spécifier I'hypothèse que P est uneloi bien définie ; il s'agit là d'un problème d'adéquation à une loi de probabilité,pour lequel existent des outils relevant de la statistique mathématique (cf. par
exemple [ 19] ou [20]).
Cependant, en première approche, un diagramme en bâtons, un histogramme,le graphe de la fonction de répartition empirique, et surtout l'usage d'un bon papierfonctionnel peuvent être des auxiliaires précieux.
142 PH. TASSI - S, LEGAIT
LES LOIS DE PROBABILITE USUELLFS
3.1 Principe des papiers fonctionnels
Soient X.,, ..., Xn, n v.a.r. indépendantes représentant n réalisations d,unev.a. X continue de loi p, de fonction de répartition F.
Fn désigne la fonction de répartition empirique :
Fn(x) :+ :,, r,*,.*,
proportion observée du nombre de réalisations dans (Xr....,Xj strictement infé_rieures à x, introduite au chapitre 3.
ll arrive fréquemment que lespace .w des vareurs de X soit partitionné. parexemple par l'usage d'une nomenclature (tranches d'âge, de revenu, etc.), tel què :
s- j c,j:1 '
C,de limites de classe (e,-,', e,). La fonction Fn est alors évaluée en e,,l: 1 à k.
L'idée est de faire apparaître une relation détermiste simple entre F (x) et x,caractéristique de la loi p; dans la plupart des cas, on cherche ùne relation de typelinéaire entre des fonctions h (F (x)) et g (x), h et g à déterminer :
h (F (x)) : g (x)
Dans un repère arithmétique usuer, si.ln nole s (e,) en abscisses et h (Fn (e,))en ordonnées, le nuage de points (c (e,), h (Fn (ej))) aura à peu près ra forme d;unedroite.
si, au lieu d'utiliser un repère arithmétique, on emploie des axes cléjà graduéspar g en abscisses et h en ordonnées, re nuage de poinis (e,, F^ (e,)) aurà rà mêmeforme tinéaire. Le papier ainsi gradué par reè fonciions s'di hi;dilJË r; ;;;i;;fonctionnel (h, g) adapré à la loi È.
. cetlg propriété permet alors, quand on dispose de n réalisations d.une expé-rience aléatoire, d'indiquer, selon la forme du nuage si ces réalisations ";i;;chance de provenir du modèle probabiliste représenté par le papier fonctionnel. Cetindicateur d'adéquation à la loi doit être ensuite infirmé ou contirmé par la théorie
des tests d'adéquation non paramétriques de la statistique mathématique ([1 1]).
3.2 Exemples de construction de papier fonctionnela) La loi normale : droite de Henry
ll s'agit de l'exemple le plus célèbre. soit X de loi N lm, o), de densité et defonction de répartition :
PH, TASSI - S. TEGAIT 143
f (x) :
LFS LOIS DE PBOBABILITE USUELLES
(x-m)1 - ^,
--=:- e zo
x-mF(x) : O(---)
o
- x-m<D- ' 1F 1x;1 :
o
o1Fzn
F (x) f (t)dt
En notant par Ô la fonction de répartition de la loi N (0,1 ) :
X:J-oô
qui conduit à :
ll existe donc une relation linéaire entre :
h (F (x)) : Ô- 1 (F (x))et s (t) :.I-Jr_t
OrF(x) € tO,1l et <D-'(f (*))n'estautrequelefractileur,",d'ordreF(x)delaloiN (0,1).
Le nuage de points (t, ur (r)) sera donc représenté par une droite dans un
repère arithmétique usuel ; si, pour simplifier, on gradue I'axe des ordonnées par lafonction O-', le nuage (x, F (x)) aura pour image la même droite. Ce papier à échellearithmétique en abscisse et gradué par O-' en ordonnée est appelé papier gausso-arithmétique : un échantillon donné aura de fortes chances de provenir d'une loi
normale si le graphe du nuage (e,, Fn (e,)) est ajusté sur une droite dans un papier
gausso-arithmétique (voir page suivante). Cette droite porte le nom de droite deHenry.
b) Loi exponentielle
Xsuit la loi r (1, 01, dedensitéf (x) : 0 e-tu(x)0, d>o) ; F (x) : 1 - e-tu.
1-F(x) : "-tuLog(1 -F(x)) : -6t
ll existe une relation linéaire entre h (F (x)) : Log (1 - F (x))et x; le nuage depoints (e,, Log (1 - Fn (e,))) sera représenté par une droite dans un repère arithméti-
que ; le nuage ("1 1 Fn (e,)) aura pour image la même droite dans un repère
arithmétique en abscisse et gradué par la fonction Log en ordonnée. Le papier
fonctionnel adapté à la loi exponentielle sera donc log-arithmétique, dit papier
semi-logarithmique.
1
PH TASSI - S. TEGAIT
LES LOIS DE PROBABILITE USUFLLES
ol.g.oEs.ÈL(o
oô-cuJ
ob'o
aaqv,
aù)
oa.(ù
a_
E E = FFËHE=F =
E S=ËÈ=o o o d-dSè'co- o- - ----é=-;-
qræ rr)oO O)orJ or)O)C o)-o) srqC oo- o'o
6.O=OaaO(t'LIJ c')
PH. TASSI - S. LEGAIT
LËS LOIS DE PROBABILITE USUELLES
Remarque
Le papier serni-log sert également à identifier un modèle multiplicatifX- : m. s. r. dans une décomposition tendance-saisonnalité-aléa d'une série
tetmporellè. ôuÀt ,n" telle échelle, on voit apparaître alors un graphe analogue à
un modèle additif à saisonnalité stable.
c) Application nurnérique
Les températures relevées à 1O heures, sous abri, en mars 1953, à la station
météorologique du Parc Montsouris (Paris, 14e arrondissement) sont fournies ci-
après. L'unité est le degré Celsius, avec deux décimales'
0.60 0.1 9 6.44 1 .74 0'A2 2 34
4.OB O.17 1 .16 1 .23 1 '74 0.55
o.25 3.43 1.64 5.32 3.80 1'27
0.68 2.22 2]7 2.85 3.67 0'26
2.48 4.08 1.23 0.35 5.05 3.22
o.00
Soit X la v.a. i'eprésentant la température précédemment déf inie. Peut-on faire
l'hypothèse, grâce aux données fournies. que X suit une loi exponentielle ?
On trace, sur papier semi-logarithmique, le nuage de points (";, 1 Fn (e,)) où
les e, sont les ertrémités des classes choisies : tO ; 0,5[, [0,5 ; 1t, i1 ; 1 ,51,11,5 ;21'
12;2,51,12,5;31, t3 ; 3,5t, t3,5 ; at, ft;4,51, [4.5 ; 5[, [5 ; + oo['
Le nuage s'ajuste sur une droite. On peut done penser que le modèle dont
sont issues lès données est une loi exponentielle de paramètre égal à la pente de la
droite en valeur absolue.
1-F en échelle logai'ithmique1
0,90,80,70,6
0,5
0,4
0,3
0,2
1,5 2 2,5 3 3,5
(Echelle arithmétique)4,5 5
PH. TASSI . S, LEGAIT
LES LOIS DE PROBABILITE USUETLFS
3.3 Cas de variables discrètes
Lorsque X est une v.a. discrète, on peut rechercher des relations caractéristi-ques vérifiées pour une loi bien définie, et étudier dans quelle mesure les donnéesobservées satisfont à cette relation. Nous allons citer deui exemples.
a) Loi binomiale
On sait que siX suit une loi fi fi, pl:P(X:x) : CIP" (1 -P;n-*
ll s'ensuit :
P(X:x+1)P(X=x)
x:0, 1,...,n
:h(x) - P -.il-x1-P *; (o(x(n-1)
si X suit une loi binomiale 9l fi,p), le graphe de h (x) en fonction dex est larestriction à {0, ... n - 1 } de t'hyperbole :
p(n-x)(1 -p)(x+ 1)
b) Loi de Poisson
Soit X de loi I e) :
P (X: x) ^:h(x) : x_1 , x€lN
si X est une v.a. suivant une loi g6y, te graphe de h {x) en fonction de x sera
la restriction à lN de l'hyperbolex+ 1
En pratique, si (a.,....,u") sont les K valeurs entières prises par X, et sif1 Û : t à K) est la fréquence relative d'apparition de a dans l'échantillon observé(Xr, ...,Xn), on porte en ordonnées :
f.'j _ 1
t'*'' h (aj)
et a. en abscisses. Si les données proviennent d'une loi de poisson, le nuage det1points (a,, .7) est à peu près linéaire; comme :r h (a,) 1 - r*1
h (x)^^
À peut être approximé par l'inverse de la pente de la droite.
PH, TASSI - S. LEGAIT
LES LO S DE PF]OBAB]LITE USUFTLES
4 DIVERS
4.1 Création de lois de probabilité
Toutes les lois de probabilité usuelles n'ont pas été présentées dans les para-
graphes qui précèdent ou dans les exercices. ll en existe de nombreuses autres, et
ie tbcteui iniéressé pourra se reporter, si besoin est, à l'ouvrage de référence de
l'ingénieur statisticien qu'est [8].
Peut-on dégager une préseniation synthétique des lois de probabilité ? En
première approximation, trois modes de génération semblent exister :
a) Schéma d'urne
ll s'agit de définir des v.a. en faisant référence à un schéma de tirage du type
nbouleS danS une Urne>, selon diverseS modalités : tirage avec ou Sans remise,
nombre de tirages fixé ou non, nombre de résultats d'un type donné fixé ou non'
Les lois binomùle, binomiale négative, multinomiale, hypergéométrique sont des
exemples de ce mode de définition.
b) Variabtes données par une caractéristique (densité, fonction de répartition)
ll s'agit des définitions les plus fréquemment utilisées, en particulier pour les
v.a. continues. Ces variables sont souvent en liaison avec un problème physique
concret : ainsi, la loi normale relève historiquement de la théorie des erreurs de
mesure en astronomie, la loi exponentieile apparaît dans les temps d'attente, la loi
de Weibull en fiabilité, la loi log-normale dans les études économiques sur les
revenus, etc. Dans cette classe prendront place les lois définies par leur fonction
caractéristique (chaPitre 6).
cJ Variabtes définies comme fonction d'autres variables
C'est une façon très fréquente d'engendrer des lois de probabilité. Nous I'avons
utilisée, par exemple, pour les lois log-normale, du khi-deux, de Student, de Fisher-
Snedecor.
Cette rapide classification mériterait d'être affinée. Par exemple, nous verrons
au chapitre 5 que les lois de Student ou de Fisher ont des fondements géométri-
qr"r. Èn outre, il semble a priori très simple d'engendrer des lois de probabilité; il
suffit de considérer une fonction f positive, suffisamment régulière (chapitre 2) ;
alors :
f (x)
I f E) d-"IR
148 PH TASSI - S. LEGA T
LES LOIS DE PROBABITITE USUELLES
est une densité de probabilité d'une v.a. continue. De même, sous réserve d'exis-tence, toute fonction f développable en série entière à termes positifs :
f(?l.:x€lN x
peut être utilisée pour donner naissance à une loi discrète :
P(X:^1 : -u-" -r (0)
De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans lesmodélisations probabilistes des phénomènes physiques, socio-économiques ouautres ?
Exemple
Considérons le développement en série des fonctions ch et sh :
oo U2nchu:n:g (2n) !
oo ,2n+1
n:g (2n + 1) !
1-
On peut donc définir deuxY, définies respectivement surentiers impairs, par :
P(X:y) :
P(Y:Y) :
En outre :
oo1
ch u (2n) !
,2n+ 1
:n-O shu (2n+1)!
lois de probabilité discrètes associées aux v.a. X et9, ensemble des entiers pairs, et J. ensemble des
ch .À
1
(x€0),.ÀctR*
sh,À yl(y € J). ,l € lRi
^x
On a donc:
d'où :
PH. TASSi - S. LEGAIT
ôo 1 U2n1-n:0
Àx
x!
^v
E(X) : :xeA
=zx€J
ch .l
^
x!
^xch,À x!
E(X) : ^rhÀ
149
LES LO]S DE PROBABILITE USUELLES
Une telle construction n'a de sens statistique que si la loi engendrée peut êtremise en liaison avec une réalité. lci, X (resp. Y) est la restriction de la loi de PoissonI (l) à l'ensemble des entiers pairs (resp. impairs).
4.2 Les coefficients de symétrie et d'aplatissement
X étant une v.a.r., nous noterons respectivement par mk et /k les momentsnon centrés et centrés de X.
a) Les coefficients de Pearson
u^n-Pt- 3u^
A-FqP2 2lJz
Lorsqu'une distribution est symétrique, les moments centrés d'ordre impairsont nuls ; É.' est donc nul. Le coefficient P1. dit coefficient de symétrie (on emploietrès fréquemment le terme anglais de oskewness,) est un indicateur de symétrie de
la loi de X.
Le coeff icient B, représente le degré d'aplatissement ("kurtosis,) de la loi de Xen un sens précisé ci-après.
b) Les eaefficients de Fisher
Les coefficients de Pearson sont moins utilisés que les coefficients de Fisher,
Y1 el Yr:
Y,, : JB, Yr: Bz-3
L'interprétation de f1 est identique à celle de É., (skewness). La définition du
coefficient de kurtosis fait référence à la loi normale. Calculons F"pour N (0,1).
On sait que :
E (X2$ : 2n
lJa : Âa: 4
rt**pl
r ttt_.5.I lZ) _^_J
r tttet donc :
150
Fr: 3
PH. TASSI - S. LEGAIT
LES tOIS DE PROBABILITE USUFL-LES
d'aplatissement de Pearson. pour une loi no?male N (0, 1 ) :
Y1:Y2:O
c) Valeurs de y., et yzgour quelques lois usuelles
o Loi binomiale
q-P 1-6Pq/2:
-
t't \,6pq npq
La distribution est symétrique (r., : o) si p : q : +, résurtat d,ailleursintuitif. 2'
e Loi de Poisson
Y':,r,D Y": ^
On remarque que, si ,À - + co, les coefficients de Fisher de g (,1 )tendentvers O, c'est-à-dire ceux de N (0, 1).
o Loi log-normale
En notant ar : exp or, on obtient:
\/,r 1Y, : -r*2- y": eo + 2u3 + 3u2 -6
o Loi gamma y (p, tl
26Yt : -7- Yz:
-vP - p
o Loi bêta É (p, q)
\/:I2
2(q-p)v[;l-Jp+q+2
3(p+q +11 t2(p+q)'+ pq(p+q-6)l
PH TASSI -S LEGAIT
Yz: pq(p+q+2) (p+q+3)
151
LES tOIS DE PROBABILITF USUELLES
Loi uniforme
Y't:O
Loi de Fischer F (n, m)
Yz: -1'2
2n+ m_"2 (m)6)m-6
121|m - 2l' (m - 4l + n (n + m - 2) (5m - 22ll
n(m-6) (m-8) (n+m-21.
Yz:
IBn
Yt:
Yz: (m>8)
Loi de Student Tn
y.,:O (n)4)n*4
o Loi du x2 (n)
Y'r :
4.3 Une structure générale : la famille exponentielle
De nombreuses lois de probabilité, discrètes ou continues, prennent place
dans une vaste famille de lois, dite famille exponentielle (à ne pas confondre avec
la loi exponentielle vue en 2.2).
Définition 23
Une loi de probabililé P0,.0 e O ensemble des paramètres de P, est dite
appartenir à la famille exponentielle s'il existe une mesure p o-linie, des fonc-tions réelles c (d), b (x), a, (d), T, (x), b (x) et T, (x) mesurables, telles que la
densité f (x, 8) de P, par rapport à g vérifie :
I a; (d) T, (x)
l(x,01 :c(d) b(x)sj:1 ' )
rLogf(x, 0l : y(d)+P(x) + I a,(d)T,(x)
j:1 ) )
12Yz
8(m-4)n(m+n-2)
PH. TASSI S LEGAIT
LES LOIS DE PROBABILITE USUELTES
Exemples
r Loi binomiale
f (x, p) : CX p" {1 - p;n-x
f (x, p) : cX (1 -p)n( . o )*: cI (1 -p)n e^t"n J;" 1-p n'
d'où :
T(x) : x
h(x) : Cf
c(p) : (1 -p)na(p) : f-og lLr-p
o Loi de Poisson
f (x,'À) : e-i ^xx!
c(,1) :"-'r h(x; :1. a(,À) :Log,À T(x) :xx!
o Loi normale :
(x-m)
f (x, m, a) : -!o-t e 2o2
t/2t ^' ^" mx
o-, e ;7 "-
;7. 7
T,(x) :x2 T2(x) :x h(x) :1 c(m,a) -o-1 e-m2/2o2
1ma., (m, o) : - 2", ar(m, "l
: 7
r Loi exponentielle :
rg,0,pl:-fro "-dx "P-1 I,** (x)
PH, TASSI S LEGAIT ] 53
1
x/2n
LES LOIS DE PROBABILlIE USUELL ES
0pTr(x) :* Tz(x) :Logx h(x) :1,r.(x) c(d,p) : r(r)
a,(0,o1 --0 ar(0,o1 :P-1
e Loi uniforme :
1
'f (x,ol : i , to, rt (*)
Elle ne se met pas sous la forme exponentielle.
o Loi de Cauchy:
Ladensité: 1 1
t(x,01 :- T;S_6ne se met pas sous la forme exponentielle.
4.4 Génération d'échantillons aléatoires
Nous avons vu que, si X est une v.a.r. continue de f.r. F continue strictementcroissante, la v.a.r. Y: F (X) suit une loi uniforme %ro,r,.
Propriété 7
Soit xo (resp. y/ le fractile d'ordre a de X (resp. Y) ; alors :
Yo : F (xo)
Démonstration
P(Y< Yol : a: P(F(x) < YJ : P(X<F-t (YJ)
d'où : Xo : F-1 (vol, vo: F (xo)
L'une des applications de ces résultats est la génération d'échantillons aléa-
toires suivant une loi donnée de f.r. F continue Strictement monotone.
Supposons que l'on dispose d'un échantillon (y.,. ..., Yn) d'une loi uniforme sur
tO, ,l1, on peut en déduire l'échantillon (xr. ...,xn)Qui est régi par la loi de fonction
de répartition F, avec xi : F-' (yi).
'I h4 PH' TASSI - S' LEGAIT
L'obtention d'un échantillon extrait d'une roi %ro, ,lest possible par l'utilisa-tion des tables de nombres au hasard (cf. table B). Ces tables, dont un extrait estreproduit ci-après, vérifient la propriété d'uniformité au sens où :
1P(x) : 10,x:oàg
P (xy) : xy: OOà99
xyz : 0OO à 999, etc.p (xyz)
49943 30139 0793271 559 30728 8349975500 16143 7902859894 59543 1 366829757 26942 08736
0,4994 0,3301
ll suffit ensuite de transformer par F-1
Exemple fSoit X de loi exponentielle :
LES LOIS DE PROBABILITE USUETLES
29267 01 934 19584 13356 35803 90284 9756565977 37442 72526 53123 99948 59762 1995281 790 57747 87972 54981 10079 17490 1521527197 51979 38403 23989 38549 82968 53300'15184 73650 51 130 59160 89866 06030 88929
1
100II:-
1 000
Pour obtenir une réalisation d'une loi uniforme sur [0, 1], on fait le choixd'une précision et on normalise les chiffres regroupés selon cette précision ; ainsi,si l'on souhaite 4 chiffres après la virgule, on regroupe les éléments de la table parpaquets de 4, qui constituent la partie décimale :
0,3907 0,9322 etc.
: F-r (y,i
PH.TASSI -S LEGAIT
F(x) : 1 - e-^ F-t 1x; : 1-nn 1-x
r55
LES LOIS DE PROBABlLITE USUELLES
Echantillon uniforme (x) Echanti llon exponentiel
o,49940,3301
0,3907o,9322
0,69190,4006o,49542,6912
Exemple 2
Si X suit une loi normale N (0.1), de f.r. Q, (y., ..., y^)désignant n réalisationsd'une loi uniforme sur [0, 1], (O-t (v.,), ..., O-' (ir")) esi un échantillon de la loinormale centrée réduite. De telles tables ont été calculées ; celles qui suivent sontissues d'une publication de la Rand Corporation [ 1B].
.661- .654- .379- .759- .804 .282 1 .317- .219- .318- .580-1 .231 .337- J25- 1 .373- .535- .1 1 9 .775 .254- .598 1 .2001.117- .871- .187- .543- .421 .311 .493 .574 j45- 2.332-.551 .335 1.746- .235 1.455 .251 1.024 .062 .O09 .676
.743 1.076 .766 .O52- 1j94 .517 .401- 1.292 .280- .540
.329- .2771.264- .9702.092- 1.6101.447- .154.018 .533
1.445- 1.357.002 1.537.576 1.201-.1 08 .385-.233 1.043-
1.239- .155.928- .802.670- .821-.643 1.339
2.503 .162-
.895 2.238-
.070- 1.367-
.891 .903-1.170 .340-.130 .205
156
1.736 .175 .401-.639- .761- .502-
1.423- 1.O71- .6421.464 .O32 .1076-.558 .593 .737-
1.657- .837- 1.417-.113 1.008- 1.080.108- .334 .659.228 .1 66 1 .1 69-.852 .746- .046
.090 1.130 2.623
.043- .463- .9851.092- 1.062 .601
1.287 .446 .O42-1.125 1.241- 2.226
1.7't1 .640 .067-.659- 1.025- .475.213- 1,847 .223.295- .451 1.081
.665 .306 .790
.665 .479 1.322 .O72 .867-1.559- .249 .1 19 .065- .812-.759- 2.276- .133 .976- 1.506
.327 .378- .055 .521- 1.404-
.189 1.876- .140- 1.380- .303-
.548 .423- .398 .167 .147
.772- .368- .290- 2.146 .539-1 .192 .1 1 9 1 .861 .856 .O18-1.099 .914- .462- 1.132 .266-.395 .735 1.526- 1.065 1.450
.81 1 1.372- .647 .858 .740-
.395- .386 .465 .372- .278-2.509 1 .557- .814- .220- .019-.593 .366 .640 .850- .847
1.063 .085 .016 .786 .766-
.o88- .031-o.59 .792-
1.640- .772-1.073- .073.851- .935
1 .1 84 1 .550 .417.468 .284 .185-.324 .O13- 1.757.477- .397 1.282-.502- .650 .254
PH. TASSI - S. LEGAIT
.591 1.342- 1.194 1.428 1.470_
.487- ' .792- 1.453 1.465- .3901.048- 2.550- .241- .109_ 1.385_.984 .357 .563 1.177_ .371't.217 .976 1.516- .737_ .O18
1.008- .849- 1.272- .903.596- .219- .726- .417_.315- .999- 1.788 .592
1.441- 1.171 .192- .315_.413 .269- .602 .O85
tES LOIS DE PROBABILITE USUELLES
1.202- .450-.796 2.186-.066- 2.523-.624- .614-.768- .712
.668- .212 1.161
.461 .848 .236-1.270 .914 .157-.566 1.292 .776
1.O01- .O12 .456-
1.192- 2.081- .157 .708.214- .625 .699- .276.640 .677 .965- 1.066
1.714 1.131 .OO1- .342-.848- .207- .396 2.358-
2.132- .297-1.505 .6721 .189- .657.039 1.486.045- .087-
Si X suit une loi N (m, a), l'échantillon gaussien sera :
(m +ao-' (yr). ..., m + o o-t (yJ)
De tels échantillons nau hasard non uniforme> sont fréquemment utilisés poursimuler des comportements aréatoires. on pourra se reporter, par exempre, à t9]pour des applications de la simulation et à [b] pour un
""poré irès détailié ,rr.'i"J
nombres aléatoires.
PH. TASSI - S. LEGAIT
EXERCICES
4.1 Génération de la loi logistique
Soient X et Y deux v.a. indépendantes suivant chacune une loi de Gumbel (cf. 2.5). Donner la loi de
Z:X- Y, dite loilogistique. En déduire E (Z)et V (Z).
lndication.'changement de variables : S (x, y) : (x, x - y) : (u, 4.
ftu, ry
(u, z) : exP l2u - z - e' (1 + e-t)l
,(zl : e-z Jf eu
'u-eu {1 + e-')1 du
En posant t: eu (1 + e z) : e_z
Remarque
La loi de la dilférence de deux v.a. indépendantes suivant la loi de Weibull, au sens où elle a été
définie dans la remarque du paragraphe 2.5, suit également une loi logistique puisque cette dernière
est paire ;
e-z ez
(1 + 9-212 (1 + szl2
tz?l :
f, est la densité d'une loi logistique.
E(Z) : g
4.2 Lol de Cauchy
Soient X et Y deux v.a. indépendantes de loi
'l) Exprimer la densité de la loi de Z, dite loi
de Cauchy et de la loi N (0, 1 ).
2) La loi de Z admet-elle des moments ?
(1 + s-212Vz €lR
er v(Z) :2
7T
3
XN (0, 1). 0n définit la u.a. Z : - .
de Cauchy. Comparer les positions respectives de la loi
3) Calculerla densité de lav.a. U : 0+ oZ (d€ IR,a)0)?
lndication
1) 0n effectue le changement de variables: h (x, y): (x, z) où
158
X
v
PH. IASSI - S. LEGAIT
LES LOIS DE PFOBABITITE USUETLES
l.r 1n-r11 - l4 et
z
d'où :
f(*, z)
(*' t) :1-
-- tx +2'
.1^0lr(zl: - 2"r, J__ *tx' 1l + 1+-
dx + ---- ^ f xe2r z' -0
I
L ,-i2r
2x,l lxlz"
2z
[^" + y"l
sont indéfinies.
3)
PH TASSI - S. LEGAIT
ftr, ,r (*' Yl :
fr(u) : "l,-.æ;A
I
2r
I^,
z
_l2
_12
,"1t*11zdx
t, (zl : --l--' n (z'+ 1)
Pour comparer les positions respectives de Ia roi de cauchy et de N {0, r), on compare p {z > l }etP{X)1}.
P(z> 1) : l:* -: ^ dz: o,2s1 n 1z'+ 11
P (X> l) : 0,1587 (cf. table 1).
0n dit que la loi de Cauchy est <à queue plus épaisse> que N (0, l).
2) La loi de Cauchy n'admet aucun moment car les intégrales :
^*æ zkJ -. ,. dz (k211-æ n(z'+11
1/\En
LES LOIS DE PROBABILITE USUELLES
4.3 Montrer que si X et Y sont deux v.a. indépendantes de loi N (m, a) alorsX+ Y etX- Y sont
indépendantes.
lndication
(;t;):(t;)(i)donc (X + Y, X - Y) est un couple gaussien.
ll suffit de prouver que X + Y et X - Y sonl non conélées pour assurer I'indépendance.
E((X+Y) (X-Y)) : E(X2)-E(Y21 : g
E(X+Y; :2t et E(X-Y1 :gDonc Cov(X+Y, X-Y): 0
4.4 Loi de laplace
_ I'lSoit f (x) : k e 0,0êlantunparamètreréel strictementpositif.
1) Déterminer K de façon que f soit la densité de probabilité d'une v.a.r. X.
X2) 0n pose , : 7 .Déterminer la loi de Y. appelée loi de Laplace normalisée.
3) Calculer E (Yr), Vr € lN*. En déduire E (Y) et V (Y).
lndications
^+oo -4 I1) J'_Kr e dx:l + K- n2) La densité de Y s'écrit:
1
s (y) :7 e-lvl
3) E (Yr) : d:+ ,r ,-lvr 6v
-æ L
Si r est impair, la fonction à intégrer sur lR est impaire et donc E (Yr) : 0. Si r est pair, la fonction
à intégrer est paire et :
^* oo
E(Y') : JO yr e-Y dy: l-(r+1) : r!
d'où: E(Y) :0 et V(Y) :2
160 PH TASST _ S LEGATT
LES LOIS DE PROBABILITE USUETLES
loi de Pareto
La v.a. X suit une loi de pareto si sa densité est donnée par :
f (x) = a0a
= ,r-,
114*-1(t) (a)o'd)o)
l) Calculer E (Xk) en précisant les conditions d,existence,
2) Déterminer le mode et la médiane de X.
lndication
r)dxE (Xk; : l)* o e,
n'existe que si a- k+ I > l, c,est_à_dire si k<a.
Alors :
E(Xk) : a1o[- 1 I
(a - k) xa_k
d'où:
E(x) ::. o@)t) et v{X) :q_l
2) Le mode est en d.
+oolg -
o,oka-k
Ê @>zl
Vx)d:F(X) agd 0 adr : I _(_)
1a+1 X
=$
I
-(è1:2F(x) :
4.6 toi du khi-deux décentrée
21/a 6 donc la médian e est en 21/a 0
soit x : (xJ,:, ,n, un vecteur aréatoire gaussien de dimension n, de roi N (0, rJ. soit d : (d;);:16n
un vecteur de lRn, 0n définit la variable aléatoire :
n
i:l
(a-21@-11"
PH TASSI S LFGAIT
Y: llX+0ll'= (x. + 0il2
LES LOIS DE PROBABILITE USUELLES
Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou de
décentrage) :
n
^- t Ê,:ll0ll'
i:l I
0n la note : X' 1n, À1.
1) Montrer que la loi de Y ne dépend que de la norme de d et non de d lui-même.
2) Calculer son espérance et sa variance.
3) Si (X;);=16n sont n v.a. indépendantes de lois respectives N (m,, a,). 0n dit que U: I X]suir
une loi du khi-deux décentrée généralisée. Calculer E (U) et V (U).
lndication
1) Soient 0:10.1,-'un et d' : (dilt:,.n deuxvecteurs de lRntels que lldll : ll0'll
Soit Z:X+0: Z-> N(d,ln)
z' : x + 0' .. z' -> N(d" ln)
Montrons que llZ ll 2 et llZ'll2 ont môme loi.
lld ll : lld' ll = f Anrn orthogonale telle que 0' : A0
d'où :
llZll': llAZll2 : llAX+AAll'? : llAX+0'll"
0r:AX -> N (0, l.) ; AX + â', -> N (4" ln)
Z' et AX + d' ont même loi, donc llZ ll2 et llZ'll 2
ont même loiX'? (n, lle li'?).
zl E(Y) : J. r1x]f + 2ï. 0 E(X,) + 1. s2 : n+ Àt:l I I
V(Y) : vt i- lx? +27iXill: : tV(Xlt+ 40?ulxil+4d,Cov(XÎ,Xi)li:l I I' i:l '
V(Y) : V(IXÎ) +4À:2n+4À
PH.TASSI .S LEGAIT
t
I
II
162
LES LOIS DE PROBABITITE USUELLES
3) E(u) =.{, tu(X,) + E21x,}J: zo2 + 2m2t-l
v (u) : i . tt tx]t - r' txJti:lComme :
X,-fi,( --) suit y= 111, on déduit E (Xi- mi)4 - 3 oai
d'où : I
nnV(U) : : l3oa+6n'.o7 *r1 @1,+n?y21 : t Zo:,@?,* 2n1J
i:l ' I I I i:l
4.7 soient n v.a. indépendantes (x,) de densité f.. 0n définit les probabilités :
X.p, :
{' t, {t) dt
Montrer que P : - i 2 Log p suir une loi y2 (2n).i:l '
lndication
P, .1, F (X,)donc P, -? Aro.r, (cf. exercice 3.1, chapitre 3). 0n effectue le changement devarraDle:9lx'l : - 2Logx.'
La densité de - 2 Log P s'écrit :
s (t,) : I ,- "' 1i0, * -J (v)
2
donc - 2 Log P -) X" el; les X sont indépendantes. les p aussi, donc:
n
i:1
. PH TASSI S. LEGAITI 163
Chapitre 5
Géométrie des variables aléatoires
Ce chapitre aborde deux aspecis différents des variables aléatoires. Le premierest relatif aux propriétés des v.a. admettant espérance et variance ; le second établitles bases de la géométrie des v.a. ayant une variance finie, et les approximationsde v.a. qui engendreront la régression statistique.
1 ESPACES DE VARIABLES ALEATOIRES
Dans ce paragraphe, nous ne considérerons que des espaces probabilisés ; laformulation la plus générale fait référence aux espaces mesurés (voir, par exemple,t 16l)
1 .1 Les espa ces 9 t et L1
Soit un espace probabilisé (O, u4, P) ;on note 9., (A, .nl,Pl- ou 9., siaucune ambiguïté n'existe sur I'espace probabilisé - l'espace des v.a. réelles, inté-grables, définies sur (Q, .&1. On sait par ailleurs (chapitre 2)que la relation oéga-lité P - presque sûrement, est une relation d'équivalence sur 9.,.
Définition 1
On appelle L.' (Q, ué, pl l'espace quotient de 9., par la relation d'égalitéP -ps.
L, (Q, ol , e) est donc l'ensemble des classes d'équivalence de 9., par larelation d'égalité P - presque sûrement. On le notera L, par la suite. En assimilantv.a. et classe de v.a., L1 est l'ensemble des (classes dei; v.a. admettant une espé-rance. Par exemple, la loi de Cauchy (cf. chapitre 4) n'appartient pas à L,.
Théorème 1
Ll est un espace vectoriel sur lR normé par :
llxlll : Jlxl dP: E(lxl)
PH TASS] - S LEGA T 165
GEOMETRIE DES VARIABLES ALEATOIRES
Notons que J XOp a un sens pour X € Ll ; on fait la confusion de symboleentre X et sa classe d'équivalence, car si X et Y sont dans la même classe, on a :
E(X) : E1Y1
ll est facile de montrer que L., est un espace vectoriel. En outre :
o vÀ € rR llixll, : l,1l . llxll,
.llx+Yll,: -ilx*vl op<"flxl dP+Jlvl up:llxlll + llYlll
o llXll., : 0 <+ X : O; en effet, on a vu (chapitre 2) qu'une CNS de
négligeabilité de X est E (lXl) : 0.
On peut alors introduire une notion de convergence dans L.,.
Définition 2
Soit (Xn) une suite de v.a. de L.,. On dit que Xn converge vers X au sens de L.,
L-(noté Xn + X) si :
llX--Xll, : -llX--Xl dP----> 0 (n*-1
Remargue f
lJ xn on - J xdPl : l-f (Xn - x) dPl < "f lx^ - xl dP
d'où :
L.Xn-) x '+ E (Xn)
-> E (x)
Remarque 2
Plus généralement. on peut montrer que l'espace L1 (O, e' p) est un espacede Banach, c'est-à-dire un espace vectoriel normé complet. Ce résultat est connusous le nom de théorème de Fisher-Riesz.
1 .2 Les espa ces I z et L2
Définition 3
On note 9r(Q,.4, n l'espace des v.a. réelles de carré intégrable. L2(A,,t4, Pl
est l'espacè quotient de 9, par la relation d'égalité P - presque sûrement.noté Lr.
166 PH TASSI -S LEGAIT
GEOMETRIE DES VARIABTES ALEATOI RES
. L" est donc l'ensemble des (classes de) v.a. admettant un moment non centréd'ordre 2 (v.a. de second ordre) :
E(X2; : Jx2op < æ
Théorème 2
L, est un espace préhilbertien. c'est-à-dire un espace vectoriel sur lR surlequel I'application L2 X L2 ----> lR définie par :
(x, Y)-> <x, Y> : E (XY) : J XY dp
est un produit scalaire.
ll est faciie de montrer à partir des propriétés de l'intégrale que la forme<x, Y> est bilinéaire symétrique strictement positive, c'est-à---dire eit un produitscalaire.
Conséguence
La norme au sens de L, est notée llX ll, et définie par :
llxllS: JX'?dP ou llxlir: Glx'tLa notion de convergence dans L, s'en déduit :
Définition 4
soit (Xn) une suite de v.a.r. de Le ; Xn converge vers ra v.a.r. X au sens de L,L^
(noté Xn é) X)si :
llXn - X ll, -----> O
i.e E(Xn-X)2-> O (n*-)
Très utilisé en statistique, ce type de convergence porte aussi re nom deconvergence en moyenne quadratique (m.q.).
Exemple
soit Xn (n ) 1)une suite <Je v.a. de loi binomiale B (n, p).on définit, pourchaque n, la variable aléatoire ofréquence empirique, :
X-n
PH TASSI S. LEGAIT 167
GEOMÉTRIE DES VAR ABLÊS A,LEATOIRES
x_ ^ 1 . 1 p(1 -p)t(ï-p)':Ër,*"-np)': , V(Xn) :}:
Fn converge vers p au sens de Lr.
Considérons le cas particulier où la limite est une v.a. constaRte a :
E(Xn al' : E(Xn-E(Xn)+E(Xn)-a)2
: V (Xn) + 1E (Xn)- al2
Une C.S. de convergence dans L, de Xn vers a sera :
( ri,.n E(X") :alnlI
I lt'.n V(Xn) :o(n
Théorème 3 (Cauchy-Schwartz)
Soient X et Y deux v.a.r de L, ; on a :
llxY ll, < llx ll, llY lln
Théorème 4 (Minkowski)
Soient X et Y deux v.a.r. de L, ; on a :
llx+Yll, < llxll, + llYll,
Les démonstrations des théorèmes 3 et 4 seront abordées dans un cadregénéral en 1.3.
Remarques
a) Dans le théorème 3, si l'on prend Y : 1 (ps)' on obtient :
llxll, < llxll,Donc L, C L, et toute v.a.r. admettant un moment non centré fini E (X2) pos-
sècle une espérance finie;L, est l'espace des v.a.r. ayant espérance et variancef inies.
b) Si, dans le théorème 2, on remplace X et Y par X-E (X) et Y-E (Y), on
obtient :
<X-E(X), Y-E{Y)> : Cov(X,Y)
PH, TASSI S. LEGA1T
GEOMETRIE DES VAR]AB LES ALEATOIRFS
c) Plus généralement, on peut démontrer que L, est complet, c,est-à-direpossède une structure d'espace de Hilbert.
1 .3 Les espa ce g ^ et L_pp
Définition 5
ge(A, u(, n désignant t'espace des v.a.r teiles que E (lXpl)< * (1 ( p < -),Lo est l'espace quotient de 9
rpar la relation d'égalité p-ps.
La norme sur L est :p
llx ll p : (-f lxl P dP)t to
Les trois propriétés suivantes sont classiques et généralisent celles qui ontété énoncées ci-dessus.
Théorème 5 (croissance)
X <Y =à llxll p < llyllp
Ce résultat est issu de la croissance de l,intégrale.
Théorème 6 {inégaiité de Hotder)
p ) 1, q ) 1, 1/p + 1/e: 1 :ilXyli,<llxllp llyllq
Démonstration
i) Soita ) 0, /3 > O, a + p - 1.
Montrons que pour f et g mesurables déf inies sur (O, ,rl , pl, on a :
I fo gÊ dp ( I"l" tdttlol! sdpll
Si J fdp : -, l'inégalité est triviale ; de même si I tdp : O, alors f estg-négligeable, donc fa gÉ également, et I'inégalité est vérifiée à l'égalité. Considé-rons le cas général 0 < J fdg ( *. On sait que, par ia concavité de la fonction Log :
Ya ) 0, b > 0 Log(aa + Bblè a Log 6+pLogb
our sa + Êb2 a"bB
PH TASSI S LEGAIT 169
GEOMETRIE DES VARIABLES ALEATOIRES
Posons :
lrdp
fd gP.----\u
I jrdpY ll sdttlq
En intégrant par rapport à p, on obtient :
-[sds
f *B g
lrdp l sdp
1r" sB ds ( (a + pl I l fdpl" t-l"sdplq
d'où le résultat annoncé puisque a + F : 1.
ii) Prenons p: P, t: IXIP, s: lvlq, o: +, P: +; onobtient:
J lxYl dP < t"i lxlp dP11/p t"i lYlq dPltzo
Cas particulier
Soit p : 2, q : 2: on retrouve llxYlltI'i négalité de Cauchy-Schwarz.
Théorème 7 : (inégalité de Minkowski)
Yp21 ilx+Yll <llxll +llYllp " "p " "p
Démonstration.
i) Pour p = 1, on retrouve E(lX+Yl) < E(lxl) + E(lYl).
ii) Soitl<P(oo:
lX+ylo : lX+YI .lX+YIe
< (lxl +lYl).lX+vln-1
: lxl .lx + vlo-1 + lYl .lx + Y;n-t
En prenant I'espérance :
Jlx+vlpdP < "f lxl lX+Ylp dP + -f IYI lX+Ylp-'oP
Or, d'après le théorème 6 :
"ilxl lx+Ylp dP : llx.(x+Yl)p-'ll, < llxllp. ll(x+Y1o-11;o
110 PH. TASSI S. TEGAIT
avec :
d'où :
Or:
GEOMETRIE DES VAÊIABt ES ALEATOIRES
"l"lYl lX*yle dp< llyllp.tl(X+y)p lltq
11 p_+__1,soit Q:_q p p-l
Jlx+vlpdP: llx+yllB < |lxllp + llyllp) il(X+y;o-1110
ll(X+ Y)P-1 ll! : J llx + y11 (o-l)a 6p
: -f lX+YlPdP
ll(X+y)p- t ll o : llX+y1;n-i
r.e.
Soit :
et donc :
llX+ YitB < |lxll p+ llyll J. llX +y11 0-t
llx+Yllp < llxllp+ llYlle
2 UN PEU DE GEOMETRIE
Le fait que L. ait une structure d'espace de Hilbert, c'est-à-dire qu'il existe unproduit scalaire. l'orthogonalité, etc., peut nous autoriser à y faire de la géométrie.Avant de travailler sur I'espace des variables aléatoires du second ordre, nôus allonsrappeler l'interprétation géométrique de quelques-uns des concepts de la statisti-que descriptive.
2.1 Statistique descriptive géométrique
soit une variable réelle quantitative X dont on possède n réalisations (x,, .... xn).
La statistique descriptive propose un certain nombre d'indicateurs résumant l'in-formation contenue dans l'échantillon, en particulier :
I la moyenne quadratique
PH.TASSI -S LFGAIT 171
GEOMEIRIE DES VARIABLES ALEAIOIRES
o la moyenne arithmétique :
X:
. la variance empirique :
I(x -i)2
o la variance empirique modifiée
1n :x.n i:1 |
s,r- 1
n
st :-i . r(x -x)2n-1 |
n^n-1
Si sur le même échantillon, on a les réalisations (y.,,...,yn).d'une secondevariable Y, on peut calculer le coefficient de corrélation linéaire empirique :
I (xi i) (yi - V)
r(X,Y) :
ll existe de nombreux autres indicateurs de tendance centrale ou de disper-
sion:lamédiane, lernode, lesfractiles. l'écartabsolumoyenl tf*i-il, l'éten-n
due, les intervalles interfractiles, etc. Nous ne présentons ici que ceux qui ont unei nterprétation géométrique.
A noter également que i, S'2 ou r ne sont que l'espérance, la variance ou lacorrélation linéaire théoriques de X (ou (X, Y))calculées par rapport à la loi discrèteuniforme :
P-n
nommée loi empirique.
Dans lRn, l'échantillon (x', ...,xn)(resp. (yr, ...,v])est représenté par un point
X (resp. ï ; Ë désigne le vecteur bissecteur, de coordonnées (1 , ..., 11.
Soit H (resp. O) la projection orthogonale de X (resp. Y) sur le sous-espace de
dimension 1 engendré par Ë. Le produit scalaire. Ol,a ) est égal à :
<o1" Ë> : r*, : oX..v6 cosa
OHaveccosa:
-,d'où:OX
1nn i:1 xi
112
I*, : OH.\Â; Ott: 16 i
PH TASSI . S. TFGAIT
coordonnées :Dans lRn,
La moyen
pointHadoncpour
/,\H-t.l\ "/
quadratique q est, à
GEOMETRIE DES VARIABLES ALEATOIRES
,i.e. OH:i.Ë
1
- --Vnprès, la longueur OX:
- nq'n
OX' : : x'.i:l I
1a:.16 oX
Comme OX > OH. on en déduit : q ) i.La variance (ou l'écart-type) est également facilement interprétable :
XH2 : : (xi i)t : ns,t : (n _ 1) 52
XH : .16. S,ou:
PH TASSI S. LEGAIT 113
GEOMETBIE DES VARIABLES ALEATOIFES
Calculons maintenant <HX, OY) :
<HX, OY> - > (xi- x) (yi- i): .6s; . .v6s; cos a
où Si et Sidésisnent les écarts-types empiriques de (xr, .. ,xn)et (y.,, ...,yn) :
> (xi i) (vi - v)cosd: ffi : r(X,Y)
Le coefficient de corrélation linéaire empirique n'est autre que le cosinus del'angle entre les vecteurs associés aux variables X et Y centrées en leurs moyennesrespectives.
2.2 Géométrie dans L,
Plaçons-nous dans l'espace des variables aléatoires réelles de carré intégra-ble L, (Q, .4, gl, muni du produit scalaire de la covariance :
<x,Y>: JxYdP: E(XY)
On désigne pare lavariablealéatoiretelleque e(<..r):1 Va.r €A, P1R):1 '
e engendre le sous-espace de dimension 1 des v.a. constantes, inclus dans Lr.
On sait : E(X-E(X)) :0
E(X-E(X)) : <X-E(X), e):0 + X-E(X) Iell en résulte que E (X) est la projection orthogonale de X sur e.
Remargue
Soit X telle que E (X)
114
: O; alors x I e.
PH. TASSI S, LEGAIT
GEOMÊTRIE DES VARIABLES ALEATOI RES
comme dans le paragraphe 2.1 , on peut interpréter géométriquement un cer-tain nombre de concepts probabilistes.
V(X) : E(X-E(X))': llx-E(X)ll;L'écart-type a (X) est donc ra rongueur (dans Lr) du vecteur x - E (x).
Si Y est une autre v.a. ;
<X-E(X), Y-E(Y)>:Cov(X.y) : o(Xl .o(Y).cosdoù dest I'angle formé par les vecteurs X- E (X) et y- E (y).
Ona:Cov (X. Y)
cosd = o(X.Y)o(Xl .o(Yl
coefficient de corrélation linéaire entre X et y.
2.3 Approximation dans L,
a) Approximation par une v.a. constante
Soit Y une v.a.r. de loi connue ; peut-on I'approcher au mieux (au sens de Lr)par une v.a. constante ?
PH TASSI. S, LEGAIT 115
(x)
GEOMETRIE DES VARIABLES ALEATOIRES
Soit donc à chercher une constante k minimisant le carré de la distance entreY et k. llY - k ll; : E (Y - k)t. Le calcul peut être fait directement :
Min E(Y-k)'<+ Min k2-2k E(Y) + E(Y2;+ k: E(Y)kk
La constante approchant de façon optimale Y est son espérance E (Y).
Géométriquement, la constante la plus proche de Y est la projection orthogo-nale de Y sur le sous-espace des v.a. constantes engendré par e ; en utilisaFtI'interprétation géométrique précédente, k : E(Y).
b) Approximation par une v.a. guelcongue
Soit (X, Y) un couple de v.a.r. On cherche à approcher Y par une variableproportionnelle à X, I : kX. On considère le s.e.v. engendré par X.
X
La variable kX la plus proche deécrivons que Y-iO( est orthogonal à X.
E ((Y - kX)X) =
Y est la projection orthogonale de'Y sur X :
o: E(xY)-ke(xt)
d'où :
E (XY)
176
k-E (X')
PH. TASSI S, LEGAIT
GEOMFTRIE DES VARIABLES ALEATOI RES
E (XY)X : * . X est la meilleure "explication lin€laire, de Y par une v.a. colinéaire à X.E (X')
Nous n'avons fait a priori aucune hypothèse. L'examen du résultat montrequ'il faut connaître au moins E (x2) et E (Xy) pour résoudre le problème.
c) Approximation affine
soit (X. Y) un couple de v.a.r. on cherche à expliquer y de façon affine parune v.a. appartenant au sous-espace engendré par e et X, L, (e, X). cela revient àchercher des constantes â et b telles que la distance ent-re y et âe + bX soitminimale.
ll est clair que Î : âe + bX, projection orthogonale de y sur L, (e, X), est lepoint de L. (e, X) le plus proche de Y. Les paramètres â et b sont leJcoordonnéesde Y sur e et X (pour que le problème ne se ramène pas au cas précédent, il fautsupposer X non colinéaire à e, c'est-à-dire X non constante).
Ecrivons que Y - î -J- e, et y - 1-J_ X :
E(Y-âe-bX1 :9E((Y-ae-ôXlX) :0
â+b e(X) : E(Y)âE (X) + br (X') : E (XY)
La résolution de ce système en â et b conduit à
E(X'?) E(Y) -E(X) E(XY)
L, (e, X)
PH TASSI S LEC:AIT
a:V (X}
GEOMETRIE DÊS VARIABLES ALEATOI RES
^ Cov (X, Y) o (Y)u: wR :
ooa) P(x'Y)
Cov (X, Y)Y : E (Y) *
V (X) (X - E (X))est la meilleure approximation affine de Y.
Remarque
ll faut, ici, supposer connus au moins E (X), V (X), E (Y). E ff'?), E (XY).
Approfondissement : qualité de l'approximation
lntuitivement. la qualité de I'approximation de Y par un élément de Lr (e, X)est d'autant meilleure que Y est proche de L, (e, |). Cette proximité est mesuréepar le coefficient de gétermination R' égal à cos' 0, 0 étant l'angle formé par lesvecteurs Y - E (Y) et Y - E (Y).
E (1 par application du théorème des trois per-
rrÎ- E llrrÎ
ilY_E(ïil3
en Ë (X) et menons de l'origine le vecteur équipollent à
théorème de Thalès, la parallèle à e menée de Y coupeet doncl- e 1Ît : b (X- E (X))
Remarquons que E (Y) :pendiculaires.
R2
Projetons X sur eX - E (X). Alors, par lex-E(x)enb(x-E(x)).
ll s'ensuit :
R2: b2 V(X)
V (Y)
Appliquons le théorème de Pythagore au triangle rectangle ff,1, E ff)) :
llY-E(ïil3: ilÎ-Et?ttt3 + llY-Î11;
Or llY - E (Y)ll! est la variance V (Y), dite variance totale, llÎ - E (Î)ll3 est ta
variance de ?, Oite variance expliquée par l'approximation affine.
Ën remarquant que, avecZ: y - Î, E lzl: o, llY - ?1; ! est la variance de Z,
dite variance résiduelle. On obtient alors la célèbre formule de décomposition dited'analyse de la variance :
Variance totale : variance expliquée + variance résiduelle.
Le coefficient R2 mesure donc la part de variance totale expliquée par la
variance de l'approximation Y :
variance expliquée V (V)R2
variance totale V (Y)
PH. TASSI . S. LEGA]T
GEOMETBIE DES VARIABTES ALEATOI RES
L'approximation affine sera d'autant meilleure que V (î) est proche de V (y),c'est-à-dire R2 proche de 1, c'est-à-dire d proche de O.
Généralisation
on peut chercher à approximer une v.a. y par une v.a. située dans le sous-espace de Hilbert L engendré par (e. x1, ..., xe), où X,, ..., Xo sont des v.a. telles queL est de dimension p + 1, c'est-à-dire que, quel que soit i : 1 à p, X. n'est pas uneconstante et, quels que soient i et j, X. et X, ne sont pas proportionnelles.
9, la meilleure approximation de Y dans L, est telle que :
î:âo*,Ë., ,, *,
où les paramètres âo,âr,..., âo sont calculés en écrivant que :
v-?reY-îrx Vi : 1àp
' En écrivant Q la matrice (p + 1. p + 1) de terme général :
@k,n:E(XkXn)où k, n : 0 à p, avec la convention Xo : e, et en notant ;
/:.\ lEn\ /"\â-ltil o:/elx,v1 I *:/{,\q-['[,1"1,/\ â / \E(xDy) / \x_ I\ e/ \ / \"r/
PH. TASSI S. LEGAII 119
d'où :
GEOMETRIE DES VARIABLES ALEATOIRFS
Oâ: b
â: Q-l b,
1:t"Q-tb
2.4 lnterprétation des lois du khi-deux et de Student
Soient X', ..., Xn, n v.a. indépendantes de même loi N (0,1); le point X de
coordonnées "cartésienneso (X.,, ..., X") se déplace dans lRn de façon aléatoire, chaquecoordonnée étant au uhasard gaussiënu.
Avec les notations précédentes, la coordonnée de H sur e est X, de loi1
N (0, + ) ; la longueur OH : r,6 X suit donc une loi normale N (0,1).vn
nLa position de X étant aléatoire, OX2 : ,:. X1 est une v.a. dite, par définition,
t- |
suivre une loi du khi-deuxxt (n) (ct. chapitre 4).
Le vecteur Èl ".t de coordonnée courante X, - *, i : 1 à n ; il estfacile de
voir que X,- i suit une loi normale N (0, / ); en effet :
180 PH, TASSI - S, LEGAIT
GEOMETRIE DES VARIABLES ALEATOIRFS
. E (X -X) : O car Ë estorthogonal au sous-espacede dimension n - lcontenant H1
o V(X,-X) : V(X;)+V(X) - 2Cov(X,.X)
121+ ; - ; (u(Xi) + (n- 1) Cov(Xi, Xj))
-1- 1
n
Pour la même raison d'orthogonalité :
Cov(i, X,-x; : g Vi : 1àn
a) Loi de f; : nSlSçz
Lemme préliminaire
Soient X,, ..., In n variables aléatoires telles que Cov (X,, X,) : O Vi, j, i+ jet v (xi) : o'vi. on effectue un changement de base orthogonar, et on note(Y,. , Yj les transformés de (X,, .... Xj ainsi obtenus.Alors:Cov(Y,,y,) : O Vi, i i +j.
Démonstration
soient fr, ... f^ les vecteurs de la nouvelle base. Dans l'ancienne base, la I
matrice F du changément de base représente la transformation orthogonale :
/n' rnr\t: :\F- [ t,, rr, I\: .l
\ t.," ,
^^,/Alors X : FY où F est une matrice orthogonale (rappelons qu'une transformationest orthogonale si le système d'axes orthonormés initial est transformé en unsecond système également orthonormé), et donc Y : F'X.
ft'\ : (l; l:\ ft'\\'/ \,^, ,.",/ \-^/
PH, TASSI S. LEGAIT 181
GEOMETRIE DES VARIABLES ALEAIOIRES
.nY-' k:1
Cov (Y,, Y,) : Cov tn !., f ,n Xn,
,1,, t,, *,1
Or : Cov (Xn, X,) : O Vk ;r 1
Cov(yyl : >>f.f,, Cov(Xk,Xt)'r't' k I'n: > f f . V(Xk)
k'*JK: o't f..f..
k rKlK:o
d'après les propriétés des matrices orthogonales.
Théorème de Fisher
Soient n variables aléatoires (X.,,...,Xn) suivant indépendamment la loi nor-male N (0,1).
nLes variables 16 Xn et t . (xi - X)t : (n - 1) Si - nS;' sont
l: I
indépendantes et suivent respectivement N (0,1 I et X'(n - 1)
Démonstration
Soient (e.,, ...,en) la base de départ, (f1, ..., fn) la nouvelle base orthonormée.n
Le vecteur unité Ë peut s'écrire I ei.i:1 |
X représentant le poinr t(x.,, ....Inl,on sait que <On, é/\6> : 16 Xn. \Æ Xn
est donc la coo-rdonnée de X sur le vecteu, + unitaire.Vn
Effectuons alors le changement de base tel que f^ : +'nVn
Nous avons '. "
nX- j:1 I t
182 PH, TASSI S. LEGAIT
GEOMETRIE DES VARIAB LES ALEATOIRES
X-Ynfn : X-.6 *"t" : :!] t,t,J- |D'autre part :
D'où :
n-1
'-6 ol
-X ten'l
nX-VnX-t:: X.e' n n -'-i-l:l
n:i:1 |
1
--F-Vn
n
i:1 |
n _ n-1: (X,*X)e:
i:1 | n' ' j:1 I l
Les variables (Xr, ...,Xn) étant non corrélées, le lemme préliminaire permetd'affirmer que les variables"(y.,,...,y^) sont non corrélées. comme images de(Xr,, ,Xn) .normales
par une appricatiori linéaire, y,, ...,yn sont des v.a.r. normaleset donc iôdépendantes.
-,^^^,111'", lesX suivantN(O,t),onvoitaisémenrquey ->N(0,1),Vj : t à n. 1
s ensutt :
. Yn : n6 X" suit N (0,1), résultat que nous connaissons déjà.
o Yn est indépendant de Yr, ...,yn_r et par conséquent, est indépendant de :
n-1
j:l l
. . I _ YÎ suit, par déf inirion, une loi du ;2 (n - 1).j:l '
r L'application orthogonale conservant,les distances ;
n-l n
j:l r i:1n
et donci:1 |
une loi N (m, a) :
Corollaire
Soit (X,, ..., Xn) n v.a. de même loi N (m, a), indépendantes ; alors :
t6 (Xn - t)
"t rn -rt 5oo,suivent indépendamment une loi N (0. 1)et une loi X2 (n - 1).
PH TASSI S LEGAIT
GEOMETRIE DES VARIABLES ALEAIOIRES
Démonstration
ll suffit de se ramener aucentrées et réduites :
l'appliquant aux variables
b)
théorème de Fisher en
X.-mw-lt-to
lnterprétation de la loi de Student
soit X,, ..., Xn, de loi N (m, a). on a :
(X -m),6 'n
->N(0,1)o
S2n-o"
Donc, la v.a.r. :
.,6 (x. - r)U
suit le rappor:! d'une loi.N (0,1) sur une loi
teur étant indépendants (cf. chapitre 4).
[Vt" -tt. /- . numérateur et dénomina-V n-1
-l x2$-1rn-1
S:n
t
n
Où la loi de Student intervient-elle géométriquement ? D'après le théorèmede Fisher, HX2 : (n - 1) Sl suit une loi X' F - 1). On a, en revenant à la figureprécédente :
D'où : .u6 (x. - rn)-)T(n-1)
cotg a
d'où : N (0,1)\Â-lcotga-) : T(n-1)
L'interprétation de y2 etI est simple : si X varie aléatoirement et <normale-mento dans I'espa"", s"s coordonnées polaires également : la loi de p2 : OX2
s'appelle la loi du X2, celle de vGJ cotg d, où a est l'angle (OA, Ë) suit la loi deStudent.
OH: -
suitHX
184 PH. TASSI - S, LEGAIT
Chapitre 6
Un outil : la fonction caractéristique
Le calcul des probabilités repose essentiellement sur l'étude des variablesaléatorres. Les chapitres 3 et 4 ont présenté un ensemble..de définitions et depropriétés; d'autres' comme.les convergences, seront vues dans le chapitre suivant.Ce chapitre est consacré à la présentalion d'un outil extrêmement pratique pourétudier le comportement des v.a. (somme, indépendance. limitéi: la fonction caracté-ristique (f.c.).
1 DÉFINITIoN ET PRoPnIÉrÉsD'UNE FONCTION CARACTÉRISTIOUE
1.1 DéfinitionDéfinition 1
Soit P une probabilité définie sur (lRo,;fo) ; on appelle transformée de Fourier deP l'application g, : lRn --+ 0 définie par :
pp(u) = J "it'*
6P 1*1
Remargue
- Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0.1). Néanmoins, raconfusion avec la fonction caractéristique ne saurait exister.soit P de densité f par rapport à ra mesure de Lebesgue i. p". extension. on appeiletransformée de Fourier de f la quantité :
er(u) = -i eiu" t(x) d,i (x)
ll en est de même si f est une apprication intégrabre à vareurs réeiles.
Remarque
Sous réserve d'existence, on montre aisément en intégrant par partie :
PH.TASSI -S LEGAIT
er(rl(u) = (-1)k (iu)k <pt(u) pour k > 1
185
UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE
Définition 2
Soit X un vecteur aléatoire (A,,il , P)'-+ (Ro,,l/? o) : on appelle fonction caractéris-tique de X, la transformée de Fourier de Px:
çx(u) = çpx(u) = Jsitux 6px (x) = E lsituxl
Avec des notations évidentes, on a :
(i Ë ,, x,)
91 (u1, .'.'uo)= E e j=1
En particulier, si X est une v.a.r. définie sur (Q.,4,P\,
v u elR, <px(u) = E 1eiux1 : J siux dPx (x)
Remarque.'Y = tu X est une v.a.r. dont la f.c. est:
çy(v) = E (e'uY) = E (evtuxl
La f.c. de X vérifie donc : q (u) = etul(1).
Exemples
a) Soit X une variable aléatoire à valeurs dans (lN, cl (lN)) :
tpx(u) = 2siuxP{x="} .u€lRx€N
Ainsi. si X est à valeurs sur {1. ..., n} et uniforme :
n
çx(u) = x eiuxx=1 n
n
1 x (eiu1xn x:1
n-1: e'u t (e,u)*
l'l x =O
= eiu 1-"iunn 1-eru
b)Soit X une v.a.r. absolument continue de densité
186
f (x) = À e- À' lRi (x)
PH. TASSI - S. LEGAIT
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE
On montre, en utilisant l'intégration dans le plan complexe que :
çx(t)= 1
1-ÀitUn cas particulier : la fonction génératrice
Soit X une v.a.r. discrète à valeurs non négatives ; on appelle fonction généra-trice de X la fonction :
Gx (u)= E (ux) = "3*u*
p(X = x)
définie pour tout u € O, lu I < t.
On a I u* PX = x)l < | u l*, et la série de terme général u" p(X = x)est doncabsolument et uniformément convergente pour u appartenant au disque unité.
La définition de G* revient à remplacer formellement eiu par u dans la fonctioncaractéristique de X : tpx (u) = Gx (eiu).
En pratique, néanmoins, les utilisations de G* (u) seront faites avec u réel,- 1 < u < 1. On remarque en outre que G* (1)= 1
Exemples
a)Si X suit une loi de Poisson de paramèrre À : p [X = *]: "-i ^ix!
G"(u) : i u*e-i Àx-"-iuu,i:s.À(u-1)x=O x !
çxft)=ei(eit-1)b)six est discrète uniforme à valeurs sur [1, .... n]. le calcul du a)montre que :
G*(u)=u(1 -un)n(1 -u)
1.2 Propriétés
Théorème 1
Soit X une v.a.r. de f.c. ç, on a :
a) <p(o):1
b) lç (u)l < 1
PH TASS S LEGAIT
UN OUIIL LA FONCTION CARACTÉR ST OUE
c) q(-u)= tpGr)
où la barre horizontale désigne la conjugaison dans C.
Ces trois résultats sont immédiats, et généralisables sans difficulté au cas devecteurs aléatoires.
Théorème 2
Soit X une v.a.r. de f.c. g ; g est continue.
Eléments de démonstration
I ç (u +h)-q (u)l = I r ("i"x 1"ir,x - t1)l <r (leinx - t l)
gl. l"ftrx - 1l= 2lsin hXlO'o,i te résultat, généralisable au cas vectoriel.2
Par ailleurs. suriR, il est possible d'établir la continuité uniforme de rp ([16]).
Théorème 3QaX + b (u) : eiun çx (au)
En effet,gaX+b (u)= E (siu (aX + b\ = siub E (ei(au)x1
Théorème 4 (injectivité)Si P et O sont deux probabilités définies sur (F.0, ,1lol :
9P= 9O <=> P= O
Si X et Y sont deux vecteurs aléatoires : (Q,,r/, P) + ( 13o,7/?v1
9x= Qv <> Px: PY
Voir la démonstration en [16].
Le théorème 4 établit une liaison biunivoque entre f.c. et lois de probabilité.Néanmoins, si, possédant une loi, on peut déterminer sa f.c., le problème inverse estdigne d'intérêt : peut-on trouver une probabilité (par sa densité, ou sa f.r.) lorsquel'on possède une fonction caractéristique ? Le théorème 5 répond en partie à cetteinterrogation.
Théorème 5 (inversion)
Si X est un vecteur aléatoire à valeurs dans (lRP,,îel, de f.c. ç (u)intégrablepar rapport à À o. la loi de X possède une densité continue f (x) définie par :
188
f (x) : (2 î)-P -ç s-itux ç (u) d o (u)
PH TASS - S LEGA T
UN OUTIL : LA FONCT]ON CARACTÉF]STIOUE
En particulier, pour une v.a.r. :
alors ç est la f.c. d'une v.a.r. X absolument continue.
PH. TASSI S. LEGAIT
f(x)= 1 I e-i,"p1u;du2n _*
Dernier point que nous aborderons : comment savoir si une fonction com-plexe d'une variable réelle est ou n'est pas une fonction caractéristique ? plusieursrésultats existent à ce propos.
Théorème 6 (Bochner,1932; t13l)
Une condition nécessaire et suffisante pour qu'une fonction ç; lR -+ c soitune f.c. est que soient vérifiées :
a) ç (u) continue
b)Y N ; V (u,, ..., us) € RN, V (21. ..., zx) € CN :
NNX X p(ui -u.)2,2,
i= 1 j= 1
est réelle et non négative.
c) ç(0)= 1
Le théorème de Bochner est d'une application peu aisée. on pourra luipréférer une condition suffisante, par exemple :
Théorème 7 (Palya, t 93a ; It 3l )
Soit I (u) une fonction continue. définie pour tout u réel.
Si q (u) satisfait aux conditions :
a) ç(0) = 1
b) .p(-u) : ç(u)
c) - g (u) convexe pour u ) O
d) lim ç (u)= 0
r89
UI\ OUTIL : LA FONCTIOI\ CARACTÉR|SIIOUE
1.3 Un exemple de loi définie par sa f.c.
Nous allons utiliser le théorème 5 pour engendrer une famille de lois de
probabilité définie par sa fonction caractéristique.
En 1925, Paul Lévy [12] définit la loiappelée par la suite loide Paul Lévy par:
BGou: [- 1, 1], y € lR*, ô
Its+qpourc*1,J'[ +t"nlulpou,o=
Log s (u) = iôu -y lulo [1 + i Bù* (u, a)]
u e lO,21, € iR.
w (u, a)=
On remarque que :
a) pour a= 2,8= o, r = +, ô= o:Log ç(u)= - {,rfu\= e-uzrz
La loi de Paul Lévy se ramène alors à la loi N (0. 1). (cf. 2.7).
b)pour u= 1, B= O, y = 1, ô = O: Log ç (u)= - lu I
On retrouve la loi de Cauchy.
Détermination de la densité
Les conditions du théorème 5 étant réunies, en notant f (x, e. B, y' ô) ladensité de la v.a. de f.c. 9 :
f (x, a, B, y, ô) : î; J__ e-i'* ,p (u)du
En développant, on a :
f (x, c, B,y, ô) = * çeil(ô-x)u -Bv luloËlwlu' al e-rlulao,
+æ
- 1 Jo --cos
t(ô - x) u - By w (u' a) ,'1 s-Yue du1\
Pour a = 1, on obtient donc :
f (x. c, B.y, ô) - I li-cos [(x- ô)u +BY uotg qn ]e-vuddu11 .
PH TASSI . S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE
Particularités de la densité
c f (x + ô, a. B, y, ô) : f (x, a, B, y, 0) ; on peut prendre ô = 0, par simple changementd'origine.
o f (x. a, B. y)= f (- x, o,- B.y).
c f (x, a, B, y) = \- 1/" f (-j-, a, B, 1)\ t/o
o f (x, a, B, y) = (3- 1/o f (di, a, B, y /t3)
o f (x. a. B. y) = (By)- t/c f (x/(By)1/u, a, B, 1/{3)
On peut standardiser la loi de Paul Lévy en prenant ô: 0 et y = 1. La densité estalors :
f (x, c. B)= I f *-"o,
(xu + B uo tg -qI)e-uo du.7Io2
2 FONCTIONS CARAETÉRISTIOUESDES LOIS DE PROBABILITÉ USUELLES
2.1 Loi de DiracOn établit immédiatement : çd-a (u) : eiua
2.2 Loi de BernoulliSi x ->y4 (1, p) :
px (u)= p . eiu + q . 6iuo= p ei' + q
qx(u) = Peiu+q
2.3 Loi binomialenn
ox(u)= x^ uiuxçxp*(1 -p)n-^ = t C|(peiul*qn-xx=0 x=O
ax (u) = (pei' + q)n
2.4 Loi de Poissonsi x -)901:
çx(u) = i uiux Àxe-À -eÀr (Àeiu) *-e-ÀeÀ"i'
x=o x! - x x!
ç1 (u) = "
'l {eiu - 1}
PH. TASS] S. LFGAII 191
UN OUTIL : LA FONCTION CAFACTÉFISTIOUE
2.5 Loi uniforme continuesi x -)?/ p, 1: çx (u) =
g-IU
2.6 Loi gamma y (p, O)
çx (u)= (1 - Oiu)-P
2.7 Loi normale
Si U -> N (0, 1) : qu (u)= e-'2/2
Si X->N(m,cr): X= m+oU:gx (u) = E (siu (m +au)) = sium gu (uo)= dum u*u2 2/2
2.8 Loi du x 2 (n)
six->x2(n) ' çr(u)=_4r^ r'' ftziu)tz
2.9 Loi de CauchySi X est de derrsité f (x)= -l--:n (1 +xz)
9x(u)= s-lul
2.1O Loi de LaplaceSoit X de densité f (x) = + e- l* l, x € iR
.px(u)= * |o-"-(1+iu)dx.{ J]-"-x(1 -iu)6*' 2 20
1 l*- +@
= i to [e-"(t+iu) as-x(1 -iu)1 dx= Jo cosux.e-xdx
En intégrant par parties :
çx(u) = [-e-*cos ux]fr-u Ji sin uxe-xdx
= 1-u "f sinux.e-xdx0
1
L
i
Ii
t
192 PH. TASSI S. tEGA]T
UN OUTIL : LA FONCTION CAFACTERIST|OUE
= 1 + u [e-x sin ux]f- - u2 { cos ux. e-x dx
= 1-u2çx(u)d'où : ex (u) = 1
1+u2
2.71 Loi normale multidimensionnetleSoit X à valeurs dans lRp, de loi N (m, X) ; u étant un vecteur de Rp, tuX une
v.a.r. de loi N (tum, tu Xu). La f.c. de tu X est :
gtu* (v) = siv fum) s-(u Eulv2/2
d'où . qx (u) : çtux(1)= situm s-ruDu/2
2.',2 Loi multinomiale
Soit X = t(Nr. ...., Nr) un v.a. de dimension k de loi multinomialet6h: p1. ...., pp) (chapitre 4); la f.c. de :
ktuX: t uj Nj
est: j=1
9t,* (v) = x ---J-]-_ -- pÎ, plk eiu,=51,,"
où la somme porte sur tous les k-uples (nr, ....,nn)vérifiant I n, : n.j=1
Qt,* (v)= x o'fî
(p1 eiu'')n'.." (ppeiu'r'1nt
k
= ( t pj eivur )nj=1
Env= 1: k
9x (u):( X pi ei'i ;nt=1
PH. TASSI S. LEGAIT 1 93
Ù\ OIJTIL : LA FONCTION CAFACTÉRISTIOÙE
3 APPLICATIONS DE LA FONCTION CARACTÉRISTIOUE
Outre son utrlisation dans le cadre de la convergence en loi, qui sera étudiéeau chapitre 7, la f .c. aide à établir un certain nombre de résultats parfois laborieuxà démontrer par usage direct des définitions. Nous en développerons trois.
3.1 Loi d'une somme de vecteurs aléatoires
Théorème ISoient X et Y deux vecteurs aléatoires indépendants à valeurs dans (Rp,;4p),de f.c. respectives ex et gr:
Çx n y (u) = çx (u) çv (u)
Démonstration :
gx *y (u) = E (situ (x*YD = E (eitux situvl
Par séparaton des
i"iii:;i:i:il l',1,i,"1 ;:iïiiff'Cette propriété se généralise sans difficulté au cas de n vecteurs aléatoires
indépendants. Si (X,), i = 1 à n, sont indépendants. qi étant la f.c. de X', alors :
qlu) = ftçi (r)Xxi i=1
Exemples:
a) Les calculs faits en 2.3 et 2.4 montrent qu'une v.a. de loi binomialel3F, ù est la somme de n v.a. indépendantes suivant la loi de Bernoulli.'/(1, p). Demême :
7Bb, pl + ,/J (, p) = J3 (n + 1, p)
b) Si X et Y suivent deux lois de Poisson indépendantes de paramètresrespectifs À et p, alors :
Qx * v (u) : çx (u) çv (u) = u( À + u) lsiu -11
qui est la f.c. d'une loi 9(À+p). D'après le théorème d'injectivité, si X et Ysuivent indépendan"rment des lois de Poisson g(
^) el 3(pl, alors X + Y suit la loi
,?(À+ p).
c) Soient X et Y deux v.a.r. indépendantes de lois respectives v (p. 0 ) et
y (q, g ). La v.a. X +Y suit la loi y (p + q. A ).
En effet:ex*y(u)= (1 - I iu)-p.(1 -0iu)-a: (1 -diu)-n-cqui est l'expression
de la f.c. d'une loi Y (P + q, 0 l.
PH TASS1 .S LEGAIT
UN OUTIL : LA FONCTION CARACTÉRIST|OUE
d) Soient X et Y deux v.a.r. suivant indépendamment des lois normales
N (mr.or)et N (mr,o2). Alors X + Y suit une loi N (mt, mr, -r/"1 *"| I.
En effet :
gx * v (u) - giuml en'41' gium2 grz o:l' : giu(m1 + m2) e42 (t * 4)l'
e) Soient X et Y deux variables aléatoires indépendantes suivant respective-ment deux lois du x2ànet m degrés de liberté. Lav.a. X+ysuit une loi 12(n + m).
3.2 Caractérisation de I'indépendance de deux vecteursaléatoires
Théorème 9
Soient Xt et X, deux vecteurs aléatoires à valeurs respectivement dans(lR?.r'tn\ et (tR9rdq). On note:
x _,x..,X, ,
dedimensionp+q.
a)V (u.,. u2)€ lRp x lRq, ex, (u1)= ex (u1. 0)et O1, (u2)= Ox (0, u2).
b)X' et X, sont indépendants si et seulement si V (u1, u2) e lRp x lRq, gx(u.,, u2) = ex, (u1) e1, (u2).
Démonstration
a) 9x (u1, u2) = E (si(tutxt +tu2x2))
çx (ur, 0): r (eitutxt;= ex' (u1)
ex (0. u2) = E (eituzxzl = ex, (u2)
b) Si X1 et X, sont indépendants alors :
gx (u1, u2)= E (situtXt ,itu2x21= E (eiturxr; E (eituzxz;
= e1' (ur) e1, (u2)
Réciproquement, on suppose eue gx (u1. u2): ex., (ur) ex, (u2).
PH TASSI - S. LEGAIT
et
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Pour montrer.que X, et X, sont alors indépendants, il suffit de prouver quePx = Pxt @ Pxz fl-héoième dè FuOlnl, chapitre 2).
Calculons la transformée de Fourier de P = Px1 @ Px2 '
gp (u1, ur) = J "i[tu1x1
+tu2x2l dP (x1, x2)
= J silturxr + tu2x2l d (px1 @ px2) (x1, x2)
= J siturxr dpxl k1) J situzxz dpx2 k2)
:9x., (ur) ex, (u2)
donc ç, = ,po*, ce qui entraîne P = Px d'après la propriété d'injectivité et X1 et X2sont indépendants.
3.3 Obtention des moments non centrés
Théorème 1O
Soit X une v.a.r. appartenant à Ln (Q, ,v/ , Pl, c'est-à dire :
Vk<n,E(lXlr)<-
Alors rpx, f.c. de X, est dérivable au moins jusqu'à l'ordre n et, pour toutk,k=0àn:
,pj[)(o)= ik E Xk)
Démonstration
Pourtoutk,k= 1àn:
.pl[) (u) = # çx (u) : o*4 S. siux 6pX = i, # siux 6pX
= J ,'i "k
siux 6PX
En effet, la fonction (u, x) --+ siux ss1 continue sur lR x lR ; elle admet pour dérivéed'ordre k:
_9!eiu* - ;k 1k "iux
auk
qui forme une suite de fonctions continues sur lR x lR.
1 96 PH. IASSI S. LEGA T
UN OUTIL : LA FONCTION CABACTÉRIST]OUE
En outre, ik .l _ xk "iux
6pX est uniformément convergente sur lR car :R
| .f xk ei,* dPx I < E (lxlk)< -et on peut donc permuter les opérations d'intégration et de dérivation. ll suffit alorsde prendre u = 0 pour obtenir :
.pjf)(o)= ik E fik)
Remarque
Réciproquement. si ex admet des dérivées en o jusqu'à l'ordre n, alors Xadmet des rnoments non centrés au moins jusqu'à I'ordre n.
Exemple
Soit X une v.a.r. suivant une loi normale N (m, a), de densité
f (x) = 1 s- $ -ml2/o 2
t /ZiOn sait que :
9x (u) = sium - o2 u212
ç* (u) = (im - ua 21 sium - o2 u212
ç; (u) = - 02 sium - o2 u2/2 + (im - uo212 sium - o2 u2/2
D'où : ç; (o)= im er E x)= m
q; (O) : - 02'ri2 *2 = i2 92+ m2)et E X2): q 2 + m2,soir V Vl= o2.
Remarque ILe théorème 1O peut être étendu aux vecteurs aléatoires X = t(Xr. ..., Xo)de
dimension p :
p
avec X &:: î.i=1 l
PH TASS] . S. LËGAIT
1a"ç (ur,..., uo)\=
," r XT' .xfiot,I aurol .... ,lo /,0, . , o,
191
UN OUT L -A IONCTION LARACILR S] OUL
Remarque 2
Un résultat analogue existe pour les v.a.r. à valeurs entières non négatives enconsidérant leur fonction génératrice. En effet :
6{r<)(u)= ;.(x-1)... (x-k+ 1)ux-kp(X: x)x= k
et donc 6(k) 1r)donne le moment factoriel d'ordre k.
F1r.1 : E (X (X - 1) (X - k + 1))
Exemple 1
Pour X de loi de Poisson ;" ( ^),
G" (u) : "
,r(u - 1), et donc :
C,[t]1u1:À ke.r(u-1)
F1r.1 : G[)(1)= i k (résultat établi par le calcul direct au chapitre 4).
Exemple 2k
SiX -> "//(n; p1, ...., pp)de f.c. çx (u)-(x pr eiui)n
1=1
en utilisant les propriétés liant les moments aux dérivées de çx en O, on peutretrouver la matrice des variances-covariances de X :
ôpx (u) = n (x pj eiuj)n-l ip, ei,i
à'i j
Enu- O.ona' u**(o) = inp, = iE(Nr),ôuj
E (N,) : nR,
a2ç_x (u) : n (n _ 1\i2 ple2iui(I p; "iu;;n
- 2
uzui )
+ n i2 pj ",
(l p, eiuiln - t
?' q* (o)= - n (n - 1) p3 - n p,,a2u)
d'où : E 621 : np, (1 + (n - 1) pi)
et V(X)=nBi (1 -pi).
1 98 PH TASSI - S. LEGA]T
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Enfin ;
a3f ,lyl = n (n - 1) iz pj pr ei,j eiur 1I pj eiuj)nZuratt= /'
j
= i2EXj Xr)
d'où : E (X; Xr )= n (n - 1)pt p
et Cov (X,. X, )= _ n p; p
Nous conclurons sur un dernier exemple d'aide que peut apporter la f.c..pourtant non conforme à sa définition. Considérons une ù.a.'X de loi log-normaleLN (m, a),.c'est-àdire X = eY, y de loi normale N (m, o), û cherchons â calculerE X) = E (eY). On peut procéder à un calcul direct lifrapitre 4).- Or .
rpy (u) = E (eiuv1 = 6ium "-u2t212
Pour retrouver E (X). on "fait " u = - i et E (X) = um+o212.De même :
E6z; : E(ezv1;avecu= -2i,E(x2)= s2m e2o2,soitv(x)= s2m+t2@o2 _l).ll est clair que ceci n'est que mnémotechnique, puisque u est réel, et ne peut êtrepriségal à-iou-2i.
4 SECONDE FONCTION CARACTÉRISTIOUE
4.1 Définition et propriétés
Définition 3
On appelle seconde fonction caractéristique du vecteur aléatoire X l'applica-tion de lRp dans C définie par :
ue lRp-wx(u):Logçx(u)
on considère par la suite u réel. on sait que I'on a, d'après le théorème 1o :
ex (u): r . "i, *.ï1 ,"
oùmn=E(Xn).
Auvoisinagedeu:0, +k(r) : Log (, *"f, *la ," )esrdéveloppabte,
PH. TASSI . S, I FGAIT 199
UN OUTIL : LA FONCTION CARACTÉR]STIOUE
et on peut écrire :
wx(u)= x ry Kkk=r k! K
ona: Ë**=vp(o)
Définition 4
La quantité Kn s'appelle le cumulant d'ordre k.
On obtient aisément les expressions liant Kp aux moments :
vx (u)= "?,,
Tlmn -( "?, Hmn)2 + (
,'?, H mn )3+ . .
=ium1 - 'æ (mz-mf1 + +f (ms-3m1 m2+2m!)+...
On en déduit :
Kr = mr Kz= mz- m? = pz
Ks= ps Kc= Vc-gp|Exemple.- pour une v.a. X de loi N (m, o ), on a :
v* (u) : ium - u' ?'2
et donc :
Kr=m=E(X) Kz=02=Vfi)Kr= 0pourk)3
Au même titre que les moments non centrés, les cumulants caractérisent unedistribution de probabilité. lls seront donc des outils précieux.
Propriétés des cumulants
Les cumulants possèdent diverses propriétés intéressantes :
a) Soit a une constante réelle quelconque : on sait Que gx * u (u) : uiuu qx (r)et donc :
t#y*"(u)= iua+w"(u)
PH. TASSI S LEGAIT
UN OUTIL : LA FONCTION CARACTÉFISTIOUE
En désignant par Kn fi + a) le cumulant d'ordre k de X + a et Kr fi)celui deX,ona:K1 (X+a)= KrX)+a;KpX+a)= Krfi) pourk>2
b) Soient deux v.a.r. indépendantes X et Y, de fonctions caractéristiques g*et çy:
V1*y(u)= W*(u)+Wy(u)
et, avec des notations claires :
Kp (X + y) = Kr 1X)+ Kp (y)
c)soit X une v.a.r. de densité f(x), K* son cumulant d'ordre k; a est un réelquelconque ; le symbole d désigne la dèrivation, dk est l'opérateur " dérivéek ième ".
On définit la fonction g(x) par :
sk)= [exP(-t)-#] tk) (k€ lN)
L'opérateur g(- 1)kaak/tl représente :
; (- t;;n 3+j=o j !(k l)r
On a donc :
s (x) = f (x) - " f(k) (x) * a2 f(2k) (x)v\"' '\"/ " k! 2l (k!)2
En notant Far gr (resp çs) la fonction caractéristique de f (resp. s) on a, parlinéarité :
on (u) = ç, (r) - fr arrrl (u) . a*. ,p,''*' (u; -....2t 1u1z
Or on a vu que: rp4ry(u)= (- 1lk (iu}k çr (u). et on peut écrire:
ps (u) = er (u) f ; ---3i- (iu)lt 1
i=o j!kl)j '-' r
= Ar (u) ea (iu)k,/k I
wn (u)= w, (u) + _Â (iu)k
PH TASSI S, LEGA|T
PH TASSI -S LEGAIT
UN OUTIL : LA FONCTJON CARACTÉR]STIOUE
ll s'ensuit que le coefficient O" (! l)n dans le développement de en (u) estk!
égal à Kr+a; avec des notationsévidentes, Kk(s)= Kp0+a.
d) Plus généralement, soit une densité (x), Kç(f)son cumulant d'ordre k, (ar.),
k>'1, une suite de réels. On définit g (x)par:
s 8): h [f (x)]
où h est l'opérateur exp t ; ap (- 1)k dklk I lk=l
æ
g (x)s'écrit sous la forme s (x) = ) 'l r.f(k\x)' avec Ào = 1'k=o
On a, par un calcul analogue au cas (c) :
Kk (g) = Kp (f) + aç. Pour tout k > 1
4.2 Application aux développements d'Edgeworthet de Gram-Charlier
On souhaite approximer une densité g (x), de cumulants connus, à l'aided'une densité.connue.f (x).et de ses dérivées, c'est-à-dire rechercher un développe-ment de la forme :
g(x):f(x)+ À 1 f'(x)+ À 2f" (x)+ ...
où les coefficients À't, À 2,... sont connus.
Supposons qu'une telle expression de g (x) existe. En notant Kp (f) (resO. Kp
(g)) le cumulant d'ordre k de f (resp. g). âvêc âp = fo (S) - Kk 0' on peut écrireformellement :
s (x)= exp. I i un t- 1)k dklk lF (x)k= l
soit: a? +a^s (x) = f (x)- a' f' (x) . # f" (x)
t_"? -_3r, "*_". ) fl3)(x)3!
_ ( aI + 6a1 ar+ 4a, at+ ao ) it+l1xy+...* ------- 4 |
242
UN OUT|L : LA FONCTION CARACTÉRIST]OUE
Les coefficients i ,, À r, de l'expression recherchée de g (x) dépendent dea1' 42, ..' :
^1 : - at, À z=
u? !^u, , "r".2
La correspondance entre les an et lesÀn est biunivoque.
Si on travaille sur des variables centrées et réduites, alors a., : ar: O, onobtient un développement simplifié de g (x):
s(x) =rt") - # fl3)ft)+ hOo,(x)+..J!
Application au cas gaussien
Le cas historiquement le plus étudié correspond au choix f (x) = ç (x), densitéde la loi normale centrée réduite. On cherche alors à écrire une densité g(x) decumulants connus (associée éventuellement à une variable centrée et réduite) enfonction de la densité ç(x) et de ses dérivées.
Théorème 11
soit g (x)une densité sur lR supposée admettre un développement selon ç (x)et ses dérivées :
g (x): ; Às çk)ft)k =o
Alors :
,^k: J s (x) Hp (x) dx
Démonstration
D'après la définition des polynômes de Hermite,
et g (x) s'écrit :
PH IASSI -S IEGA]T
*tr) (x)= (- 1)t nn {x) e (x)
x (- 1)k À r Hr (x) ç(x)k=0
(- 1)k
kl
203
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE
Pour un indice j donné, on a :
sk)Hi 14= ; (-1)kiuH,(x) Hnk) e(x)k =o
et, en intégrant et d'après la propriété 3 du chapitre 4
t__r(x) H; (x)dx= (-1) Àj j!
À j= (,1)'l-Lr"r H;k)dxt.
Remarque:
Ce théorème permet, au vu des données (xr, ...,xn) d'un échantillon, d'unevariable de densité g (x), d'approximer les coefficients i u.
;,.,Ainsi, H1 (x)= x et Ài = - Jx g (x)dx sera estimé par - --1-' ;
i"3demême.
^z= L,f k2* 1)s(x)dxseraestimépar i=-1 -
1 ' etc'- 2 2n 2
Revenons à l'expression générale de g (x) selon rp (x) et ses dérivées. Si lesdonnées sont centrées et réduites, a1 = az= O,comme en outre t<n (O) = 0 pourk > 3, on obtient :
s 8)= q (x)- +(|)- *(s)fi). *â,f, e(a)(x)+ ...
Or. d'après la définition des polynômes de Hermite,
*(n) (x): (_ 1)n Hn (x) e k)
d'où le développement d'Edgeworth de g (x) :
s (x): q (x) t'' . oâï) k2 - 1). oâ'l' (xa - 6x + 3)+..'l
s(x)=q(x) tt+ lsjg) F2-1) - r^'Z\ ka-ox+3)+...1
PH. TASSI _ S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE
comme pour ra loi g. p1 (s) = o et pz (u) = 1, on a p3 (o)= /ilb) et p+ (9)
= 82 (S). B.' et B, étani les coefficients de Pearson d'asymétrie et d'aplatissement deg ; ceia donne (cf. chapitre 4), en utilisant la notation /., et / , des coefficients deFisher :
s(x)= ç(x) t1 (x3 - 3x) + (xa - 6 x2 + 3)+ ... l
Par intégraticn, on obtient une approximation de la fonction de répartition G (x):
G(x)= o(x)-ç(x) t+1xz-1) +rt'V3 -3x)1x5-10x3+ 15x) *... l
Avant de conclure, notons qu'il est imBortant de remarquer que si l'on peutéerire une densité g ou une fonction de répartition comme somme infinie cie ô, ç,ou ses dérivées, c'est plutôt le problème de l'approximation par une somme finie determes qui est utile en pratique. Malheureusement, rien n'assure que l'approxima-tion de g donnée par un nombre fini de termes soit positive en tous points, et quela qualité de l'approximation augmente avec le nombre d'éléments retenus.
Pour terminer, nous avons supposé a priori que g (x) admettait un dévelop-pement en termes de tp (x) et de ses dérivées. H. Cramer a montré, en 1926, quesi g (x)est telle que g'(x)et g"(x)existenr, si t'intégrate I tS"gll, exz/z dx"onu"rge,et si lim S k) = lim g (x) = 0. ators g (x) peut êrie développé en :
T+ Yt-6-
Y?+-72
avec
g(x)= t ar qk)1x1k=o k !
âr = Is (x) Hk (x) dx
Cette série est absolument et uniformément convergente pour x € [--, *1.
PH TASSI S LÊGAIT
UN OJIIL . LA FONCTION CARACTER|STIOUE
EXERCICES
6.1 : X suit une loi N (0, o). Trouver la f.c. de Y = Log I X I
Indication
9v (u)1
o l2n
2
otfZn
1
lzi
S lxliu e-^2no2 dx
lR
5x'u e-r2/2o2 dx
lR*
avec À2 =
n
F
@tEP r tl-tt
6.2: (X,, ,.., Xn)sont n v.a.r. indépendantes, telles que Xlsuit N (m;, 1), j= 1 à n.
n
Déterminer la f.c. de Y = E Xi.j=1 '
lndication
iumf
9xz (u) = (1 - 2 iu)- t/z 't
-ziu, ,,,
çv (u) = (1 - ziul- ntz s1 :2iu
mf ;on sait (cf. exercice 4.6, chapitre 4)que Y suit une loiduX 2 non centrée.
luo PH. TASSI S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
Xn-â:+r(n) (Xn-a).r(n,
D'après le théorème 17, b) :
(n) (Xn _ a)l9j X
1___*0
d'où Xn ! a, d'après le théorème 16.
+ (Xn - a) !91 O,
5 LES LOIS DES "GRANDS NOMBRES"
Ces lois établissent des propriétés de stabilité des sommes ou des moyennescumulées de v.a. dans une succession d'expériences, stabilité au sens de lâ limiteen convergencg el probabilité (on parle alors de loi faible) ou en convergencepresque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giandsnombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn) , n 21, une suite de v.a.r. indépendantes et de même loi,appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :
n1 :.x, :xnI mn l:l
En particulier :
Théorème 20 (D. Bernoulli)
Soit (An) , n2 1, une suite d'événements indépendants de même probabilitép ; on considère la v.a. sn comptant le nombre d'événements réalisés parmi(4., , ..., An) :
Démonstration
9ot on
Remarque
Ces deux théorèmes établissent des lois faibles, puisque les limites sont enprobabilité. Le théorème 20 justifie l'approche fréquentisie des probabilités, laprobabilité d'un événement étant la limite (en probabilité) de la fréquence empi-rique de son nombre d'observations dans une suite d'expériences inôépendantès.
PH. TASSI S. LEGAIT ZZJ
LES CONVERGENCES DE VARIABLES ALEATOIRES
Démonstration
puisqueXnl m o Xn !9i *, rontrons la convergence en loi. Notons par Ila f.c. de Xn , pour tout n.
9=(u) :ç>x; (u) :c2x,(9) :[.r(9) ]nxn
Comme les v.a.r. appartiennent à L1 , E(Xn)existe. donc a'(0) aussi, ç' (0) :im.
e(t) :1*imt+qt)e(g) :1*im9+o(9) ,nnn
ç_(u) :[1 *im9+O(q) ]n,wîn
lim9- (u) :ei tu'nXn
Or on sait gLle ei m u est la f.c. de ôn,. Frobabilité de Dirac en m. D'après le
théorème 9, Xn lo! m, d'où le résultat.
Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r.(Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont
indépendantes et vérifient :
Ecrivons :
Sn - XXi désigne alors la fréquence empirique, ou probabilité empirique.nn
Théorème 21 (Loi des grands nombres dans L2)
soit (Xn), n)- 1, une suite de v.a.r. deL2,de même loi et non corrélées. on
note m: E(X6) ' 02 -- V(Xn) , pour tout n. Alors:
Itt*":1]:ptt{*"-oJ :1-p.
224
I
Xn?m.
PH TASSI - S. LEGAIT
LES CONVFRGFNCES DË VAFIABLES ALEATOIRES
Démonstration
1>txin
,(;r-J,\n /
-1 no2n2
02 I
n (n-æ1
2ll X^-mll 2: :e( -m) )2
Théorème 22 lLoi forte des grands nombres)(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :
o si Xn € Lr , m désignant E(Xn), pour tout n :Xn 4s ilr si Xn Ç t-, (e I Xn | : + -) :Xn est p.s. non borné.
Ces lois des grands nombres justifient, en terme de probabilité, I'utilisationde la moyenne empirique comme indicateur de tendance centrale en statistiquedescriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenneempirique basée sur le n-échantillon converge vers une constante qui est I'espé-rance de la loi dont sont issus les n résultats de l'expérience. ll en est de même dela variance empirique.
Théorème 23
Soit (Xn) , n )- 1, une suite de v.a.r. de L2, indépendantes et de même loi,avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :
c,2 -sn (xi - xn)2
Alors :
Démonstration
et
(loi faible appliquée à
q.2! oz.
Xn ! . =t X-n)2! m2 (théorème 6)
x?I E(xz) - m2 + o2
la suite (Xl)), Oonc :
8,2 ! "z
13n i:1
sn2:11xi-Xn)?n i:1
13n i:1
PH. TASSI - S, LEGAIT 225
LES CONVERGENCES DE VARIABLES ALEATOIRES
Se trouve ainsi justifié le choix de la variance empirique comme indicateurclassique de dispersion en statistique descriptive.
Remarques
Dans la démonstration du théorème 23, nous avons appliqué la loi faible à
rIl- > X? . En effet, puisque Xn e L2 , E(Xfi)existe, et on est dans les conditions duI1 i:1 |
théorème 19 pour la suite de v.a.r. (Yn) , n 2'l , avec Yn : Xn2. Ceci entraîne deux
remarques importantes :
a) soit mp le moment non centré d'ordre k d'une v.a.r. X :
mr: E(Xk)'
(Xr, ..., Xn,...r)désignant une suite d'observations indépendantes de la v.a. X,le moment emprnque est :
m1 (n) :1i-x1n l:l
Sous réserve d'existence de E( I X I k ) :
mk 1n;! m*
b) De même, le moment centré empirique 1rr (n) converge en probabilité vers
/r.: E(X - E(X))k. En effet, 1lr (n): 1 3 fX, -X)k s'écrit en fonction des rnoments" ni:1non centrés m; (n), j : 1 à k :
k r-i1lr (n) : > q (-1)k-j mr '(n) m; (n)
J:O
c) Plus généralement, si h est une fonction réelle telle que E( I h(X)l ) existe :
13 n1x,1 eE(h(x))'n i:1
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a' X de loi de
Poisson CI ()'l ;
226 PH TASSI - S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
l3 1 pEr 1 rn i:11 * X, \l + X,
e/ 1_t: i tr e-ÀÀ" -9-^ int : 1-e-À\1+Xt x:01 *x x! À y:1y! À
6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSTENSLa no'tation N(0, >)désigne, dans cette partie, autant la loi normale que tout
vecteur aléatoire suivant cette loi.
Théorème 24 (théorème central limite multivarié)
soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fipl, indépen-dants et de même loi, tels que g : E(Zn) et L matrice de variance-covariancede Zn existent. Alors :
'rn En - r/)lg N(0, >).
En particulier :
Théorème 25 (théorème central limite unidimensionnel)
(Xn), n ) 1, est une suite de v.a.r. indépendantes, de même loi, et apparte-nant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
On définit la v.a.r. :
v^ - (èIJ__11l : /_n_frn__rln- æ o
Alors :
vn loj ru 10, r 1.
Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème24.
a) Théorème 25
On peut écrire :
Yn : rÆ I 3 tl---l) : 1 i f{,--qfni:1 ' o JÂi:1' o
PH TASSI - S. LEGAIT 227
LES CONVERGENCES DE VARIABLES ALEATOIFES
Soit e la f.c. de X:---I , indépendante de i ; la f.c. de Yn s'en déduit :
cyn(u) :[*(Ji) ]"
Comme E(H-)- O et E(Ii--I)'? - 1, en développant e à I'ordre 2, on
obtient :
e(t) : t -r!+ott)soit: cyn(u) :[1- i1+o (r=l ]"
et : ,'il *"n (ul: s-u2 / 2.
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9, Yn !9 rtftO, f t.
b) Théorème 24
Posons Xn^: ty ?n pour u € lRp ; alors Xn est une suite de v'a.r. indépen-
dantes et de même loi, avec :
E(Xn) : tu ,u et V(Xn) : tu I u,
et : ''/; fr" -'u /,,) l9j ruto, tu I u)
d'où : tu /Ï (Zn - p)19 tu N(0, :) vu € IRP
et, d'après le théorème 10 :
JÂ En - /) lg N(0, >).
Remarque
De la même façon que pour le théorème 23, les théorèmes 24 el25 peuvent
se généraliser à toute moyenne empirique l- I f"',tX,l. sous réserve d'existence den i:1
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergeRce eR loi de lavariance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien lagénéralité du résultat), 02 = V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observationsindépendantes de X :
Ç2:li-xrt-x-n)2,n l:l
v(x1) : E(x1) - E, (x1) - m4 - ^3: mq - oa
228 PH, TASSI , S. LEGAIT
J-n t! I *, - rrxzttq!gj_4 - rn i:1 ' ''
- {_!-6dJ n.4=;-4 Jn@l Jn@l
D'après le rhéorème centrat limite, appliqué n l,ir*1 ,
n/Â(: x?-E(x2))ni:1 ' _LolrutO,fl.
/TmEn outre :
* ;;r:: ï Ë :i: ï,îï:"ïT:"',
I ES CONVERGENCES DE VAR]ABLES ALEATOIRES
Considérons la quantité :
./ n çXnf "E o,D'où, par le théorème 17
et:Jl (q2 - o2) loj ru(0, t).J^æ
Pour E(X) * 0, on obtiendra :
Cls="'?) !9,! ru(0, rr./ p;-
Théorème 26
Soit r : lN * lR- telle que lim r(n) : * oo. a une constante réelle, et (Xn),
n )- 1, une suite o" u.".r.n*îitiunt ,
r(n) (Xn - a) !g N(0, o).
Soit g:lR *lR, dérivable.
Alors : r(n) (g(X.) - s(a))
g *,0, o I g' (a) l).
PH TASSI - S. LEGA]T 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES
Démonstration
Considérons le développement de g à l'ordre 1 au voisinage de a :
S(x) - g(a) : (x - a) S'(a) * (x - a) R(x),
où:
c'est-à-dire :
d'où :
{l Xn - a I ( o } C {l R(Xn)l ( e },
P{l xn - a I < a } ( P( I R(xn)l ( e ).
Or, d'après le théorème 18, Xn ! a, et donc :
lim P{l Xn - al (o } : 1 + lim P{l R(Xn)l <e1 : 1,n
R(Xn)! O.
ll s'ensuit :
(n) (g(X.) - s(a)) : r(n) (Xn - a) s' (a) -F (Xn - a) (n) R(Xn).
D'après le théorème 17, (n) (Xn - a) R(Xn)! O, et r(n) (Xn - a) g'(a)
I *,0, I s' (a) | o), d'où le résultat recherché.
Très utile en statistique mathématique lors de l'étude de comportementsasymptotiques, ce théorème est aisément généralisable au cas multidimen-sionnel :
Théorème 27
Soit r:lN -lR* telle que,l'g rtnl : -Fæ, a un vecteur delRp.
(Xn). n ) 1, une suite de vecteurs de lRp tels que :
r(n) (Xn - a) !g N(0, >).
Soit g : lRp - lRq différentiable, G sa matrice (q, p) des dérivées premières :
lim R(x) :0'x-a
Ve)O, 3o)0 : I x_al (o + I R(x)l (e,
c'est-à-dire :
230 PH. TASSI S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
Alors :
(n) (g(Xn
Exemple
soit X une v.a.r. de loi de Poisson q)i, xnl, n2 1 , une suite d'observations1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :P(X : 0).
On sait que :X-n P À (loi faible des grands nombres).
Par le théorème central limite :
fi-fr-n - À) lg N(o, /r)Soit g : lRl - lR] définie par u * g(u)_: e-u. Par le théorème 6 :
e-Xn p e-À .
En outre :
/ôv dsr\| ôÇ tÇ\:l::l\ qg" d3" I\ Uu,' a"p /
) - s(a))E *,o, G(a) r tG(a)).
/î (sfr-") - s(À)!g N(0, .^-l - e-À | )
6 ("-"- - "-^)lgj nto, e-r ../ r).
7 APPLICATION AUX LOIS DE PROBABILITE CTASSIOUES
7.1 Loi de Poisson
Théorème 28
Soit X une v.a. suivant une loi de poisson I (xl. Alors la variable y - X - À
converge en loi vers N(0, 1), lorsque À tend vers l'infini. JT
Démonstration
Soit la v.a. Y - ,(r_J)\
PH. TASSI . S. LEGAIT
/xJ ),,
231
LFS CONVERGENCES DE VABIABLES ALEATOIRES
tr lsitl - t;çY(t) :"-it'Æu
çv (t) - "- it '/-r eÀ(+ it'l/À -t2/z)'l
d'où : 1,11_
py (t) : u-t2/2
Or e- t 2/2 est la f.c. de N(0, 1), et donc :
X-À loi'H::N(0' 1).
Flemarque.' On écrira I 1x:r - N(À, ./À).
7.2 Loi binomiale
Théorème 29 : loi binomiale et loi de Poisson
Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses :
. p est fonction de n
olimnP(n) =À(À>0)n
ona: xn9g\,l.
Démonstration
a) Calcul direct
Sous les hypothèses : p(n) : 1 (n p(n)) ;= O.
n
P(X: x) : CI P'(1 - P)n - x -
.n(n-1)...(n-x*1) Px (1 -p)n.x I (1 - p)"
P(X:x) (nP)te-nP À'e-À,n*oo Xt n-*co Xt
d'où le résultat. nP*À nP-À
232 PH, TASSI. S' LEGAIT
IIIII
I
I
II
!
LES CONVERGENCES DÊ VARIABLES ALEATOIBES
b) Utilisation des f.c.
cyn(u) :[1-B(1 -ei
u) ]n;Log eXn (u) - - np(1 - ei ') (p -* 0),
et: lim çx^(u) :e-À(1-eiu).l"l -+oo
np*À
On reconnaît la f.c. de g ()rl.
La loi de Poisson est souvent appelée "loi des événements rares", car loilimite du comptage du nombre de réalisations d'un événement donné, de probabi-lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi dePoisson dans des cas particuliers de processus où elle n'apparaît plus comme loilimite mais comme loi exacte.
Théorème 30 : loi binomiale et loi norrnale
soit Xn une v.a. suivant une loi binomiaie lE (n, p). Pour p fixé, lorsquen-**æ:
I!---!q l9j r'rto, r I/ nqp
Démonstration
On aru (chapitre 4) que la loi binomiale.4(n, p) est la somme de n lois deBernoulli #{'1, pl indépenciantes.
En écrivant , n
Xn : I Yi,Yi->g(1, p) Vi = 1 à n,i:1
on a, d'après le théorème central limite :
n! Y;-np-_h_9ru(o,rr
Remarque
En pratique. on pourra approximer laloig(n, p) par la loi N(np, /n ptt - p[,bien que cette écriture n'ait pas de sens mathématique.
PH, TASSI - S. LEGAIT z-1-)
LES CONVERGENCES DE VARIABLES ALEATOIRES
Exemples
a) Soit X de loi g (9l.Par lecture de table de la loi de Poisson :
P(X < 18) :9,9t't,.
Par l'approximation normale :
P(X < 18) : P1P,o, 1) < ,!9,9,
: o(3) : 0,9987.
b) Soit X de loi 9(5O;0,01). Par lecture directe de la table de la loi binomiale:
P(X : O) :0,6O50.
Par l'approximation de Poisson g(O,51et lecture de la table correspondante :
P(X:0) : 0,6065'
c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :
P(X<5) :0'4312'
Par l'approximation gaussienne :
P(x<5) :P(-!-1-(o) :0,5./50fr.J - oZ
L'approximation gaussienne sera d'autant meilleure que l'on s'écarte desconditions du théorème 29.
7.3 Loi gamma
Théorème 31
Soit X une v.a.r. de loi gamma, ilp, 1). Lorsque p tend vers I'infini, on a :
{--p-toj N(0, 1).
"/nDémonstration
La v.a. Y - X
- /p admet pour f.c. :
/p
çy (u) : s- iu /F çx (l-)
PH TASSI . S, LEGAIT
LES CONVERGENCËS DE VARIABLES ALEATOIBES
:s_iu ah _iU_\-p\c/- e- iu /F
leiu ,rp - u2lzy
lim çv (u) : e- u 2tz , f .c. de N(0, 1).p*èo
7.4 Loi du X (n)
Plusieurs approximations en loi existent lorsque n tend vers l'infini pour lav.a. Un de loi{2 (n).
a) Théorème central limite
Par définition, Un: 3 X], où (Xi), i) 1, est une suite de v.a.r.i:'l
indépendantes et de loi N(0, 1). Alors, par le théorème central limite :
Un - E(un) : t]_n_= n loi rrrto, rt.wrù;i /ÂEn effet, E(X?) :1, et E(Un) : n; de même,
V(Un : n v(X]) : ntE(X1) - 11.
On a vu au chapitre 4 :
rrt-L ',lr
E (X4,) - 24/2' 2' - 4.q. 1: 3,' f(b 222
d'où :
V(Un) : 2n.
b) Approximations de Fisher
La plus utilisée est la suivante :
JM - lTÂ lo! ru(0, r).
PH TASSI - S. LEGAIT 235
LES CONVFRGENCFS DE VARIABLES ALEATOIRËS
On trouve également la convergence ci-après, que I'on montre moins rapideque la précédente :
/zu" - rq;toi N(0, 1).
c) Approximation de Wilson-Hilferty
fi:L'i^)!g ruro, rr----E--./ gn
On peut établir que la meilleure approximation asymptotique est cettedernière, suivie par la première approximation de Fisher, qui est pourtant celleusuellement employée dans les tables numériques de la loi de X'.
Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loivers la loi N(0, 'l) lorsque n tend vers l'infini.
Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.
7.5 Précision de l'approximation gaussienne donnée parle théorème central limite
Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observationsindépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui nerestreint en rien la généralité de l'étude).
Si ç(u) désigne la f.c. de X. on sait que :
rt(u) : Log e1r1 : l 1 1iu! ç,j:2 jl
où K, est le cumulant d'ordre j de X.
{nSoit Yn: y'nXn:+.:.Xi . Si cn désigne la f.c. de Yn, on a:
y'n l:l
ûn(u) : Log çn(u) : n Log çlu/JÂl
oo
:nI (iu)J Ki
i:2il nitz
--\2 + 1 (iu)3K.+ 1(i,)ar+*'.'2 srJ; - 4!n
130 PH. TASSI S EGAIT
tES CONVERGENCES DE VARiABLES ALEATOIRES
On constate au passage que le cumulant d'ordre jde yn est K, n1-jl2.
Comme qn(u) : eÛn(u). on a :
en(u) : "-u2t2 [ 1 +
=!iu)3K. + ftiu)+ro + ]-(iu)oK! + ... I' 3l/n - 4!n 72n
En utilisant la formule d'inversion (théorème 1s, chapitre 6) et la remarquesuivant la définition 1 du chapitre 6, la densité fn de yn est :
fn (x) : ! f "-,u**n (u) du
2tr u
: ç(x)- t *rr,., (*) + J- Kaçtat t*) + lKl çlot (x) + ...6/n - 24n 72n'
En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), onobtient :
rn(x):ç(x) [1.Ks*3;3-Wfou.
fn(x) = ç(")[ 1 * Ks ({ =gx) *ovn
r3*o+(gr. -rs r3)*+ + (+sr3 - rar*)*, + gr. - rsr31
72n
. .. Par intégration, on obtient une approximation de la fonction de répartition FndeYn:
Fn(x): otx) [&Hz=!r) * 3If1. f-r . t3tlr.l1t o'.Æ- 72n
PH. TASSI - S. LEGA1T 231
LES CONVERGENCES DE VARIABLES ALEATOIBES
EXERCIOES
7.1 * Soustraclion , de khi-dsux
SoientXetY.deuxv'a.r.suivantrespectivementleslorsxz(p)etX2(q)(p>q)'SoitZffii:d. irioopËnoânte de-V' telle qué x : Y + 7'
Montrer que Z suit une loiX2 (P - q)
lndication"'u'bsuw" çx (t) : cy $) cz (t) en raison de l'indépendance entre Y et Z.
çz $) :(] = ?'lli'i è z t x2 (p - q)
(1 - 2it)Prz (1 _ Zitlp-A/2
7.2 Loi hYpergêomêtrique
Montrer que sr X suit une loi hypergéométrique Je (ru, n, p), X converge en loi vers la loi
g(n, p\ quand N tend vers + æ, n et p Ïlxes'
tndication Cto ,fti ., _ n t (Np)* (Nq)no - Cl px qn - x.px (x) :-q- N -- xJ(n _ x) I N. -r
7.3 Soit (Xn)n 6N.,
ufle suite de v.a' indépendantes, de même loi de densité :
f(x) : s- t'' e\ 1rc,a- 1 (x), 0 > 0'
1) Donner la loi de t, : .,Iiln *'
2) Montrer que Yn converge en probabilité et en moyenne quadratique (12) vers a'
3) Vers quelle loi converge la v'a. n(Yn - 0) ?
lndication
1) Fyn 0) - 1 - (1 - F(ï)n oÙ F est la f'r' de Xn'
VY>0,F(Y) :1-e-(Y-e)
d'où :
rrn (v) : (1 - g- (v-o)^)116, + -1 (Y)
frn (Y) : n e-(Y - o)n 1td,1-1 (V)
2) P{ I Yn - g I <.1 : Fyn (0+.) - Fvn (0-')
- 1 - g-(d+ t-o)n - 1 - 0-'n' 1
lorsque [ - æ, d'où Yn! o .
23A PH TASSI S LEGAIT
LES CONVEFGENCES DÊ VARIABLES ALEATOIFÊS
Démonstration
Xn-a:+r(n) (Xn-a).r(n)
D'après le théorème 17, bl :
r(n) (Xn - a) !9j x
1---:- - 0
d'où Xn ! a, d'après le théorème 16.
+ (Xn - a)!9 o,
5 LES LOIS DES "GRANDS NOMBRES''
Ces lois établissent des propriétés de stabilité des sommes ou des moyennescumulées de v.a. dans une succession d'expériences, stabilité au sens de la limiteen convergence el probabilité (on parle alors de loi faible) ou en convergencepresque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giandsnombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn) , i )- 1, une suite de v.a.r. indépendantes et de même loi,appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :
nI :-x, :xn! mn l:l
En particulier :
Théorème 20 (D. Bernoulli)
Soit (An) , n21. une suite d'événements indépendants de même probabilitép ; on considère la v.a. Sn comptant le nombre d'événements réalisés parmi(4,, , ..., An) :
9ot on
Remarque
Ces deux théorèmes établissent des lois faibles, puisque les limites sont enprobabilité. Le théorème 20 justifie l'approche fréquentiste des probabilités, laprobabilité d'un événement étant la limite (en probabilité) de la fréquence empi-rique de son nombre d'observations dans une suite d'expériences indépendantes.
PI, TASSI - S. LEGAIT 223
LES CONVERGENCES DE VARIABLES ALEAÏOIRES
Démonstration
puisqueXn! m o Xn lol r, rontrons la convergence en loi. Notons par Ila f.c. de Xn , pour tout n.
e.(u) :ç>x; (u) :v;x,(1) :[9(9) ]nxnn
comme les v.a.r. appartiennent à L1 , E(Xn) existe, donc a'(o) aussi, ç'(0) :im.
Ecrivons'. e(t) :1*imt*O(t)
e(9) :1*im9+o(1) ,nnnç_(u) :[1 *im9+O(q) ]n,tnnn
limg- (u) :ei tu'nXn
or on sait que ei m u est la f.c. de ô., probabilité de Dirac en m. D'après le
théorème 9, Xn lo! m, d'où le résultat.
Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r.(Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont
indépendantes et vérifient :
( P{xn: 1} : pIttt*^-o]:1-p'
Sn - IXi désigne alors la fréquence empirique, ou probabilité empirique.nn
Théorème 21 (Loi des grands nombres dans L2)
Soit (Xn) , n21, une suite de v.a.r. de L2, de même loi et non corrélées. On
note m : E(Xn) , o2 : V(Xn) , pour tout n' Alors :
x"km.
224 PH, TASSI - S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
Démonstration
llx. - = e (lx(Xi - m) )2n
Théorème 22 (Loi forte des grands nombres)(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :
o si Xn € Lr , m désignant E(Xn), pour tout n :X; LS m ;
r si Xn S t-, (e I Xn I : + -) :Xn est p.s. non borné.
Ces lois des grands nombres justifient, en terme de probabilité, l'utilisationde la moyenne empirique comme indicateur de tendance centrale en statistiquedescriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenneempirique basée sur le n-échantillon converge vers une constante qui est I'espé-rance de la loi dont sont issus les n résultats de l'expérience. ll en est de même dela variance empirique.
Théorème 23
Soit (Xn) , n 2 1, une suite de v.a.r. de L2, indépendantes et de même loi,avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :
(Xi -Xn)2.
2mll 2:E
3*, \+-^)'
:1 no2n2
-!2 -
n (n-oo1
c'z:13Tt-4
n i:1Alors :
Démonstration
et
(loi faible appliquée à
ç,,2 p 02.+t-
.n9.,2:L: x]-x-")?
n i:1
Xn ! t - X-n)2! m2 (théorème 6)
x?! efiz) - m2 + o2
la suite (Xfr)), oonc :
9'2 ! "z
r_3n i:1
PH. IASS] . S. LEGAIT 1aÈ
LES CONVERGENCES DE VARIABLES ALEATOIFES
Se trouve ainsi justifié le choix de la variance empirique comme indicateurclassique de dispersion en statistique descriptive.
Remarques
Dans la démonstration du théorème 23, nous avons appliqué la loi faible à
rIl: > X1 . En effet, puisque Xn € L2 , EfiÎ)existe, et on est dans les conditions duni:1 I
théorème 19 pour la suite de v.a.r. (Yn), n 21, avec Yn : Xl.Ceci entraîne deux
remarques importantes :
a) soit m1 le moment non centré d'ordre k d'une v.a.r. X :
mr : E(Xk)'
(Xr, ...,Xn, ...)désignant une suite d'observations indépendantes de la v.a. X,le moment empirique est :
m1 (n) :13.x1n l:l
Sous réserve d'existence de E( I X I k ) :
mk 1n1! m*
b) De même, le moment centré empirique /r (n) converge en probabilité vers
.nlrr : E(X - E(X))k. En effet, /r. (n) - I.I -(Xt -X)k s'écrit en fonction des moments" ni:1non centrés m; (n), j : 1 à k :
k/.rr (n) : ! q t-t)t-j 'l-j(n)
m; (n)
J:O
c) Plus généralement, si h est une fonction réelle telle que E( I h(x)l ) existe :
-nI ! ntx't!E(h(x)).n i:l
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a. X de loi de
Poisson Q 6l :
226
!4.
PH. TASSI - S, LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
li 1 pe/ 1 rn i:11 -r X, \1 + x/
tr r 1 \ i 1 o-ÀÀx e-À i,rt 1-e-ÀLr_r:Ë_:_:\1+X, x:01 *x x! À y:1y! À
6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSIENSLa notation N(0, >) désigne, dans cette partie, autant la loi normale que tout
vecteur aléatoire suivant cette loi.
Théorème 24 (théorème central limite multivarié)
Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fiPl, indépen-dants et de même loi, tels que pr : E(zn) et E, matrice de variance-covariancede Zn existent. Alors :
,rn En - ll) lg N(0, :).
En particulier :
Théorème 25 (théoràme central limite unidimensionnel)
(Xn), n ) 1, est une suite de v.a.r. indépendantes, de même loi, et apparte-nant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
On définit la v.a.r. :
y- - (:Xi) - nm. : /_n_frn__rl
..n:__m o
Alors :
Yn lo! ru (0, t )'
Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème24.
a) Théorème 25
On peut écrire :
Yn:,/nl3 èl--t) : 1 31Ir--llyni:l ' o fii:1 ' o
PH TASSI S LEGAT 221
LES CONVERGENCES DE VARIABTES ATEATOIRES
Soit ç la f.c. de L t , indépendante de i ; la f.c. de Yn s'en déduit :
ovyn(u) =[*(r*) ]"
obtient :
soit :
et:d'où :
comme E(XL- rl) - o et E(LI)'? - 1, en développant e à l'ordre 2, on
ç(t) : t-Ï+o(t)2
cyn(u) :[1-u'+o(*l ]"
et : "f trn (ul: s-uz / 2.
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9. Yn !91 r,rtO, I t.
b) Théorème 24
Posons Xn : tu Zn pour u € lRp ; alors Xn est une suite de v.a.r. indépen-dantes et de même loi, avec :
E(Xn) : tu g et V(Xn) : tu E u,
fi fr-n - tu /r) I *,0, tu r u)
tu fi (7n - p)!9j tu N(0, >) vu € IRP
Ç2:13.x1 -fr-n)2,n l:l
v(x1) : E(x1) - E2 (x2il - m4 - ^7: ^o - 04
et, d'après le théorème 10 :
,/Â 1Zn - s)lg N(0, :).
Remargue
De la même façon que pour le théorème 23, les théorèmes 24 et 25 peuvent
se généraliser à toute moyenne empirique 1 3 frX,i, sous réserve d'existence den i:l
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergence en loi de lavariance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien lagénéralité du résultat), 02: V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observationsindépendantes de X :
228 PH, TASSI - S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIFES
Considérons la quantité :
JÂ t! 3 *, - E(x2)|
Gl93-41 - -'ni:l ' '-6-6rE/ n4 - o-4 dn$ J-v1xzy
D'après le théorème central limite, appliqué a ]- 3 xU ,
ni:1 |
n,/i t: : x? - E(x2))ni:1 ' -9r.rlo,
lt./Tm
En outre :
* i;r:: ï Ë :: ï,î:::"ïi:.,,/î1Xnp ! o,
D'où, par le théorème 17 :
et:
{T $"2 - o2t !91 rrrfo, r t.l^;---7Pour E(X) * 0, on obtiendra :
/-_ni$3-g1 !9 r'rto, rr/ u_ _;n
Théorème 26
Soit r : lN * lR- telle que lim r(n) : * *, a une constante réelle, et (Xn),
n 2 1, une suite d" u.u.r.nGïfirnt ,
(n) (Xn - a)lg N(0, o).
Soit g :lR - lR, dérivable.
Alors : (n) (s(X.) - s(a))
g ,,n, o I g' (a) l).
PH.TASSI -S LEGAIT 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES
Démonstration
Considérons le développement de g à l'ordre 1 au voisinage de a :
S(x) - g(a) : (x - a) g'(a) * (x - a) R(x),
où : lim R(x) : g,x-a
c'est-à-dire :
ve)0, 3a )0 : I x-al (a = I R(x)l (e,
d'où :
{l Xn - a I ( o } C {l R(Xn)l ( e },
P{l xn - a I <a } ( P(l R(xn)l ( e ).
Or, d'après le théorème 18, Xn ! a, et donc :
lim P{ I Xn - a I ( o } : 1 + lim P{ I R(Xn) I ( e 1 : 1,nn
c'est-à-dire :
R(Xn)I O.
ll s'ensuit :
(n) (g(x") - s(a)) : r(n) (Xn - a) s'(a) * (Xn - a) (n) R(Xn)'
D'après le théorème 17, r(n) (Xn - a) R(Xn)-B O, et r(n) (Xn - a) s'(a)
loi ru(0, I s' (a) I o), d'où le résultat recherché.
Très utile en statistique mathématique lors de l'étude de comportementsasymptotiques, ce théorème est aisément généralisable au cas multidimen-sionnel :
Théorème 27
soit r:lN -lR'telle que,l'A tt"l : *oo, a un vecteur delRp'
(Xn), n ) 1, une suite de vecteurs delRp tels que :
r(n) (Xn - a)!g N(0, >).
soit g : lRp * lRq différentiable, G sa matrice (q, p) des dérivées premières :
230 PH. TASSI . S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
Alors :
Exemple
(n) (g(X.)
Soit X une v.a.r. de loi de Poisson qù, Vn), n) 1, une suite d'observations1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :P(X : 0).
On sait que : Xn ! À (loi faible des grands nombres).
Par le théorème central limite :
vG fr-" - À)lgJ N(0, /r)Soit g : lRl -* lR] définie par u * g(u)_= e-u. Par le théorème 6 :
e-xn ! e-À .
En outre t ,/Â (sx-"t - s(À)!g N(0, /À | - e-À | )
G (" xn - "-n)!9j ruto, e-r /T).
7 APPLICATION AUX LOIS DE PROBABILITE CLASSIOUES
7.1 Loi de Poisson
Théoràme 28
Soit X une v.a. suivant une loi de Poisson g 15,. Ators la variable y: X - À
converge en loi vers N(0, 1), lorsque À tend vers I'infini. JT
Démonstration
Soit la v.a. Y -
PH TASS] S. LEGAIT
G-
/ ôst dgr \lôÇ 4\l::l\ô-s" ful\ uu' a"p /
- s(a)) !9 ruto, G(a) x tG(a)).
{-}=I--J),/T J\
LES CONVERGENCFS DE VAFIABLES ALEATOIRES
I lsitl/f - 11
çv (t) : u- lt '/f, u
çv (t) - "- it "Â eÀ(+ itl\^ -tz/zltl
d'où : i.I}* çv (t) : .-t2/2
Or e- t 2/2 est la f.c. de N(0, 1), et donc :
X-À loi'Ë5N(0, 1).
Remargue.' On écrira I 1x:r: N(À, /À).
7.2 Loi binomiale
Théoràme 29 : loi binomiale et loi de Poisson
Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses :
. p est fonction de n
rlimnP(n) :À(À>0)n
ona: xn9g\\|.
Démonstration
a) Calcul direct
Sous les hypothèses : p(n) : 1 (n p(n))n= O.n
P(X:x) =CXP'(1 -P)n-":
n(n-1)...(n-x*1) px (1 -p)n.xt (1 -P)'
P(X:x) (Ue-nP À'e-À,n*æ Xt n-oo x!
d'où re résurtat. nP-À nP-À
232 PH' TASSI 'S LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
b) Utilisation des f.c.
cxn(u) :[1-B(1 -ei ') ]n;
Log eXn (u) - - np(1 - ei ') (p * 0),
et: lim çx^(u) :e-À(1'eiu).h*conp*À
On reconnaît la f.c. de g ()rl.
La loi de Poisson est souvent appelée "loi des événements rares", car loilimite du comptage du nombre de réalisations d'un événement donné, de probabi-lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi dePoisson dans des cas particuliers de processus où elle n'apparaît plus comme loilimite mais comme loi exacte.
Théoràme 30 : loi binomiale et Ioi normale
Soit Xn une v.a. suivant une loi binomiale g (n, p). Pour p fixé, lorsquen*+æ:IL- ,g 19,! rrrto, tlf,qp
Démonstration
On a1'u (chapitre 4) que la loi binomiale %ln, p) est la somme de n lois deBernoulli vd(1, pl indépenclantes.
En écrivant , n
Xn : I Yi,Yi->g(1, p) Vi = 1 à n,i:1
on a, d'après le théorème central lirnite :
nL Y,-noi:l ' I
l'/ ^pq
? tttto' r t'
Remargue
En pratique, on pourra approximer laloig(n, p) par la loi N(np, /n p(1 - p)),bien que cette écriture n'ait pas de sens mathématique.
PH, TASSI S LEGAIT IJJ
LES CONVEBGENCES DE VARIABLES ALEAIOIFES
Exemples
a) Soit X de loi g (91 Par lecture de table de la loi de Poisson :
P(X<18; :g'gnt,.
Par l'approximation normale :
P(X < 18) : P1P,o, 1) < l9,9, : a(3) : o,9e87.
b) Soit X de loi 9(5O;0,O1). Par lecture directe de la table de la loi binomiale:
P(X=O) :0'6050'
Par l'approximation de Poisson g(O,51et lecture de la table correspondante :
P(X:O) :0'606S'
c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :
P(X < 5l: 0,4312'
Par l'approximation gaussienne :
P(x<5) :P(.-!_-1- (o) = s,5.'/sox0,1 x0,4
L'approximation gaussienne sera d'autant meilleure que I'on s'écarte desconditions du théorème 29.
7.3 Loi gamma
Théorème 31
Soit X une v.a.r. de loi gamma, y(p, 1). Lorsque p tend vers I'infini, on a :
I--tloj N(0, 1).
/pDémonstration
La v.a. Y - X
- ./p admet pour f.c. :
Jp
çv (u) = g-iu /0.rx tf)
PH. TASSI S, LEGAII
LES CONVERGENCES DE VARIABLES ALEATOIRES
-e-iuAh-i ,\-P\yo/
: s- iu /F leiu '5 - u2tZy
lim çv (u) : e- u 2tz , '1.c. de N(0, 1).p*oo
7.4 Loi du X (n)
Plusieurs approximations en loi existent lorsque n tend vers l'infini pour lav.a. Un de loiX2 (n).
a) Théorème central limite
Par définition, Un: i X], où (Xi), i) 1, est une suite de v.a.r.i:1
indépendantes et de loi N(O, 1). Alors, par le théorème central limite :
grlg!.1-: 9n--.lt !9 ruto, rt.@J JT;
En effet, E(X?) : 1, et E(Un) : n ; de même,
V(Un : n v(X]) : ntE(X1) - 11.
On a vu au chapitre 4 :
rÉ + '!tE(X4,) -24/2 2 '_ 4.9.1: g,
' f(b 222
d'où :
V(Un) : 2n.
b) Approximations de Fisher
La plus utilisée est la suivante :
Jzvn - JTti -Tlol ru(o, r ).
PH, TASSI - S. LEGAIT attr
3Æ - tt -2_lV n \ 9n/ to! ru(0, t).---T--t/ gn
On peut établir que la meilleure approximation asymptotique est cettedernière,
'suivie par la première approximation de Fisher, qui es! pourtant celleusuellement employée dans les tables numériques de la loi de X''
Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loivers la loi N(0, 1) lorsque n tend vers l'infini.
Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.
l
7.5 Précision de l'approximation gaussienne donnée par, le théorème central limiteI Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations
indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui neI restreint en rien la généralité de l'étude).
I Si 9(u) désigne la f.c. de X. on sait que :
ii-1t, ,lt(u) : Log ç(u) : .I^ l. (iu)t K1t', t:, t,
où K, est le cumulant d'ordre j de X.
{nSoit Yn = ./n Xn : ' I Xi . Si .rn désigne la f.c' de Yn, on a :
Jn i:1
ûn(u) : Log qn(u) : n Log çfu/Jnl
oo
: n I- (iu)r.- Kj
i:21 nltz
--!2 * 1 (iu)3K"+ 1(i')ar4+"'2 St,/i - 4!n
LES CONVERGENCES DF VARIABLES ALEATOIFES
On trouve également la convergence ci-après, que I'on montre moins rapideque la précédente :
/4 - J^to! N(0, 1).
c) Approximation de Wilson-Hilferty
236 PH. TASSI - S. LFGAIT
LES CONVERGENCES DE VAF|ABLES ALEATOIRES
On constate au passage que le cumulant d'ordre j de Yn est K, n1-ll2.
Comme pn(u) : eÛn(u), on a :
en(u) : "-u2/2 [1+=!iu)3K. 1-1-1iu1+ro+J-(iu)6r!+.
1' 3l/n ' 4ln 72n
En utilisant la formule d'inversion (théorème 15, chapitre 6) et la remarquesuivant la définition 1 du chapitre 6, la densité fn de Yn est :
fn (x) : ! f "-,u^*n (u) du
2tr u
: ç(x)--1- rrrtst (x) + ^l- K4ç,@t t*) + =!Kl e(o) (x) + ...6Ji - 24n ' 72n é
En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), onobtient :
trn(x) -ç(x) [1-[*3.Wt
ou:
fn(x) : ç(*)[ 1 * Kg (t:;g^) *
r3"o+(sr. -rs r3)r+ + (+sr3 - rar.)r, + gr* - rsr321
72n
. .. Par intégration, on obtient une approximation de la fonction de répartition FndeYn:
Fn(x) : o{x) [[elf$ . try*fuf
PH TASSI - S, LEGAIT
IES CONVFRGFNCES DE VARIABLES ALEATOIRFS
EXERCICES
7.l " Soustraction ' de khl'deux
soient X et Y, deux v.a.r. suivant respectivement les lois x2 (p) et X2 (q) (p > q). Soit Z
ùili.â. irioepènoante de Y. telle què X : Y + z'
Montrer que Z suit une loiX2 (P - q).
lndicationçx (t) : çv $) çz(t) en raison de I'indépendance entre Y eTZ'
c7 $l : (t' - ?'llX',l : => z - x2 (P - q)
(1 - 2i11orz (1 _ Zi11p-a/2
7.2 Loi hypergéométrique
Montrer que si X suit une loi hypergéométrique J0 1ft, n, p), X converge en loi vers la loi
fi(n, p) quand N tend vers + -, r et p fixés'
lndication qo Cfti ., _ n ! (Np)r_(!',lq)n-' - Cl px qn - x.
Px (x) :-q * -- rl (n;i r,lrl -l
7.3 Soit (Xn)n 6N.,
ufle suite de v.a. indépendantes' de même loi de densité :
l(x) : s- tt - a) 1te, +* i (x), 0 > 0'
1) Donner la loi de t. : .,Plln t'
2) Montrer que Yn converge en probabilité et en mgyenne quadratique (12) vers O.
3) Vers quelle loi converge la v.a. n(Yn - 0) ?
lndication
1) Fyn (Y) - 1 - (1 - F(ï)n où F est la f'r. de Xn'
VY>o,F(Y) :1-e-(Y-o)
d'où :
rrn (v) : (1 - s- (v-a) n) 116, + -1 (Y)
frn (Y) : n e- (Y - u)n 1l u,1 -1 (V)
2) P{ I Yn - 0 I (e 1 : Fyn (0+.) - Fyn (0-.)
:'l -g-(o+e
-o)n:'l -0-'n--1
lorsque n - æ, d'où YnI o .
238 PH' TASS] S. LEGAIT
\r
LES CONVERGENCFS DE VARIABLES ALEATOIRES
E(Yn - ul, : iî (v - o)2 n e- (v - a)n f,y : !* i; ,, ,-, O,
:1r(r) :? -on2 n2
lorsque n - æ, d'où Yn L2 6 .
mq
3) Soit Zn : n(Yn - o). La densité de Zn est :
g(z) :e-t110,+q(z).La loi de Z est indépendante de n.
PH. TASSI S, LEGAIT t20
Chapitre 8
Compléments et approfondissementssur les lois de probabilité
Le chapitre précédent a montré I'importance du concept de convergenceappliqué à des variables aléatoires, à leurs fonctions de répartition, à leursdensités, à leurs fonctions caractéristiques, ou à leurs lois de probabilité ; laconvergence suppose implicitement la notion de distance entre les divers élé-ments dont on étudie le comportement asymptotique.
Nous nous proposons dans ce chapitre d'étudier plus formellement lesdistances pouvant exister sur l'espace des v.a. ou de leurs caractéristiquesassociées ; nous introduirons également un ordre sur les lois de probabilité.
LES DISTANCES
Dans tout le paragraphe.'l'espace probabilisable de réféi'ence est (0, .c/l oit 0est un espace topologique muni d'une distance d, complet, séparable (il contientun sous-ensemble dénombrable dense), :/ est la tribu borélienne de {1. I désignel'ensemble convexe de toutes les probabilités sur ({-1, dl, I est l'ensemble desfonctions de répartition associées.
1.1 La distance de Paul Lévy
On prend 0: lR.
Définition 1
La distance de Paul Lévy entre deux fonctions de répartition F et G de I estdéfinie par :
dL (F, G) : inf{e > O / Vx F(x - e) - e ( G(x) ( F(x * e) * e}.
241PH. TASSI - S. LFGAIT
CON/PLEN4ENTS ÊT APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
F(x)
F(x - e)
x-É x x*e
dL (F, G) est donc la plus petite valeur de 6 telle que G(x) va, pour tout x,appartenir au "tube" ainsi engendré autour de F.
1.2 Distance en variation
Définition 2
Soient P et O deux probabilités de I de densités respectives f et g parrapport à une mesure p o-finie.
La distance en variation entre P et O est définie par :
du (P, o) : fdp lP(A) - o(A) I
ll est clair que du prend ses valcurs sur [0, 1]. On établit les relations :
a) dv(P,O) -1-(P^O) ({))
où P Â O : Min (P, O), i.e. est la mesure qui admet Min(f, g) pour densité parrapport à É{.
b) 2dvP, O) :-[ldP-dOl
Exemple
On prend. sur lR, pour P la loi exponentielle 7(1, de densité f(x) : s- x. 1,^ + (x),
et pour O la loi uniforme%ro,,,1sur [0. 1], de densité g(x) : 1,0,,,, (x).
242 PH TASSI - S. LEGAIT
COMPLEMENIS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBAB{L|TE
2 du 0(l,oUto, rl: JR+ I t(*) - s(x)l dx
2 du : Ji tt - "-x1 dx + f,- e-x dx :
du (z(1)!Ùp, rl : t_e
: 0,3679.1
Remarque
Considérons sur lR la restriction de la distance en variation à la elasse'€desintervalles ouverts de la forme ]--" x[. Alors la distance en variation n'est autreque sup I ptt- -, x[) - o(]--. xt)l : Sup I r(x) - G(x)l , rlresp. G) désignant la
XXfonction de répartition de P(resp. O) ; cette distance porte le nom de distance deKolmogorov dK (F, G).
Sur I'exemple proposé, on a F(x) : (1 - e-x). 11p+ (x) et G(x) : ^
1to, rl (r) +
1t,, * -1(*). 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et qfo,
11
est égale à !.e
1.3 La distance de HellingerDéfinition 3
La distance de Hellinger H(P, O) entre deux probabilités P et O de I estdéfinie par :
H2 (p, o) : -i (/æ - faoyz
Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel,ona:
H2 (P, o) : -[ (fi - 'u[,12 dp: 2(1 - I lfr apl.
Définition 4
On appelle affinité entre P et Q la quantité :
a(P, O) : I 1tg7t/2 dU
ll est immédiat que 0 ( a(P. O) < 1.
H2 s'écrit : tl2|, O) : 2(1 - a(P, O)),
et: o<H2(P,O) <2
2e
PH. TASSI . S. LEGAIT 243
COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
Exemple
H2 (z('t ),%to, ,l : 2(1 _Jô /""- dxl -- 2 tfr- u
H(v(1), qro, ,11: 0,6528'
1.4 Distance de LipschitzOn suppose que la distance d sur () est majorée par 't ; si ce n'est pas le cas,
,.don munit () de la distance d' : 1 + d '
Définition 5
On appelle distance de Lipschitz entre deux éléments P et O de9la quantitédLi (P, O) définie par :
d., (P, O) : ryp-l J ,/dP - -f ,/dO I
lreyoù 9: { r/ : 0 - lR / I,l t*l - û (V) I < O(*, y) }, ensemble des fonctionsréelles lipsch itziennes.
1.5 La distance de Prohorovlntroduite en 1956, elle est définie sur 9. A étant un sous-ensemble non
vide de 0, et e un réel strictement positif, on appelle e-voisinage fermé de A lesous-ensemble A€ de 0 tel que :
A':{x€0l inf d(x,y) (e }.v€A
Définition 6
Soient P et O deux éléments de @. La distance de Prohorov entre P et O estdéfinie par :
dp (P,O) :inf{e >O/ P(A) <O(A€) +e,YA€.d\.
Une seconde définition, équivalente à la première mais plus facile à utiliser, peutêtre ainsi énoncée :
Définition 7
Soit A un événement quelconq ue de s{. On définit I'application p : -û * lR+par :
p(A) :inf{e)O:P(A) (O(A') *e}.
Alors : dp (P, O) : .S_up-p(A).' A-.-.il
244 PH. TASSI - S. LEGAIT
COMPLEMENTS ETAPPROFONDISSEMENIS SUR LES LOIS DE PBOBABILITE
ll existe peu de résultats sur le calcul exact de la distance de Prohorov. ll estnéanmoins quelques cas où l'on peut trouver l'événement Ao tel que d, (P. O) =p(Ao). Le calcul de la distance de Prohorov se ramène alors à la recherche de Ao.
Exemple ISoient P:ô,,et O:ôr, x(y; il estévidentque l'on ne peutconsidérer
que des événements A de la forme {u}.
Pouru#x,p(A) :0.Soit Ao : {x} ; alors la relation P(Ao )< O(,S) * e s'écrit :
1<0*e ou e21et donc dp (ôx, ôr): 1
Exemple 2
Nous admettrons le résultat suivant : soient P et O deux probabilités, dedensités f et g. On suppose f définie sur [0, a], a ) O, éventuellement + oô, gdécroissante sur lRr, et, sur t0, al, f ) g. Alors :
dp(P, O) : p([0, a]).
Soit par exemple :
P:,7/p, 11 et O : ill\P et O admettent pour densités :
f(x) :1t0, tt (x) ig(x) : e-x 1'*. (x)
dp (P, O) : p([0, 1])
=inf(e)0:P([0, 1]) <O(tO, 1*el) +e).
OrP(tO, 1l) :tetO([0. 1+€]) :-[J*'e-xdx*1-s-(1 te) .
Le réel e vérifie donc l'inéquation :
1<1-9-(1 *e) 1. <+ ,sl *'t;>-1
Cela permet de déterminer la valeur de € pour laquelle e el * e : 1 :
p([0, 1l) : d, (P, O) :0,2466.
1.6 Comparaison de distancesll est possible d'établir des inégalités portant sur les distances précédem-
ment définies.
PH, TASSI S. LÊGAIT 245
COMPLEMENTS ET APPROFONDISSEIVENTS SUR LES LOIS DE PROBABILITE
Pour 0 : lR, on établit :
dL<dP<dv
dL<dK<dv
Pour O quelconque, on a :
d3(dr,(2d.H2<2du(H /4-H'z<2H.
1.7 Autres indieateurs d'écartUn grand nombre de méthodes usuelles de la statistique mathématique sont
fondées sur des indicateurs d'écart, ou de proximité, entre v.a. ou lois. Cesindicateurs ne sont pas des distances au sens mathématique du terme, dans lamesure où les propriétés de symétrie ô(X, Y) : ô(Y, X) et d'inégalité triangulaireô(X, Y)< ô(X, Zl + ô(2, Y) ne sont pas systématiquement vérifiées. Cependant, cesindicateurs sont d'utilisation fréquente car possédant une interprétation statisti-que intuitive, et ils sont souvent appelés n distances o par abus de langage. Par lasuite. nous les nommerons proximités. lls vérifient cependant. en général, lesconditions de régularité suivantes :
{otx,X) :oilotx,Y) >o
a) Proximité au sens de L, sur Iô (F, G) = J [F(x) - G1x;12 dx
Dans le cas discret, on aura :
kiô(F,G) : > (
i:1j:1 ' '
ll existe une version sur I'espace des densités :
ô (f, s) : J [f(x) - g(x)]2 dx
kô(f,g) : : (pi -ei )2
t- |
Remarque :
ll est parfois d'usage de considérer des versions de ces indicateurs deproximité pondérées par une fonction w à valeurs dans lR+ ; par exemple :
ô(F, G) : J tF(x) - G(x)12 w(x) dx
ou
246 PH TASSI -S LEGAIT
COIVPLEMFNIS FTAPPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
b) Proximité de Cramer-Von Mises
Elle est définie sur .?; on appelle proximité de Cramer - Von Mises entredeux f.r. F et G, centrée en F la quantité :
ô(F, c) : -i [F(x) - G(x)12 dF(x) : E, (F(x) - G(x))2
E, (.) reRrésentant l'espérance prise par rapport à la loi de f.r. F.
Remarque .' sur l'espace des densités, on pourra étudier :
ô(f. g) : "l tf(x) - g(x)12 f(x) dx
Les versions discrètes de ces indieateurs seront :
kiô(F, c) :
i:l j:1 ' r
kô(f. g) : 2 o, (R, - c,)2i:1
c) Proximité de Karl Pearsen
Egalement appelé indicateur du X2, il est donné sur l'espace des densitésdans sa définition centrée sur f par :
ô(r, s) : f t{!---91!Ê dx - E. t1 - s(x\zf(x) f(x)
Sa version discrétisée est :
ô(f.g) : i (pi -q,)2i-1 P;
On peut remarquer que la proximité de Pearson n'est qu'un cas particulierde I'indicateur au sens de L, pondéré par w(x) : 1,zf(x) ou 1/S(xl.
ll existe un indicateur du y2 dit modifié, qui n'est autre que ô(f, g)centré surs.
d) Proximité de Wolfowitz
Elle est définie sur t par :
ô(F,G) :JlF(x) -G(x) | dx
ll s'agit de la norme au sens de L,, de F - G. En discret, elle est donnée par :
kiô(F,c) : : | : (pi -q, )li:1 j:1 ' '
PH. TASSI - S. LEGAIT 247
COIVPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
Définie sur les densités, la proximité de Wolfowitz est :
ô(f,g) :Jlf-gldxsoit le double de la distance en variation entre les probabilités P et O de densitésrespectives f et g (cf. 1.2).
e) Proximité de Kullback-Leibler
ô(F, G) : -l Los f(x) ar(x)s(x)
pour I'indicateur centré sur F. Sa version discrète est :
kp,ô(F,G) : : p, Log''
i:1 Q;
Notons que la proximité de Kullback-Leibler ne vérifie pas ô(F, G) > O VF, VG'
Des précautions sont à prendre lors du calcul de ces divers indicateurs, ets'assurer en particulier de leurs conditions d'existence.
Exemple
on prend pour F la loi uniforme sur [0, 1] et pour G la loi exponentielle
il1, 1l,.
a) Aucun problème n'existe pour les indicateurs de type Lr, sur les f .r. comme surles densités f et g :
ô(F,G) :Jf t^-1+ e-^12 dx+Jl(1 -1*e-x)2dx
:5:-J2: o,oe76e
ô(f, g) : J[ tr - e-')2 dx + J] (O - e- x126*
:!-3:0,236.2e
b) Proximité de Cramer-Von Mises
L'indicateur de Cramer-Von Mises calculé sur les f.r. et centré sur'2/ro, tl "st ,
ôF(F,c) :Jf tx-1+e-*)2 dx
:q-2-- 1 :o.o3o6e2e2
248 PH TASSI - S. LEGAIT
COMPLEMENTS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBABILITE
Centré sur 7(1, 1), cet indicateur prend la valeur :
ôG (F, G): Jl t"- 1 + e-')2 e-xdx+"iî e 2x "-x6*
-'17 -'- - '=: 2'o3o'6e2e2
c) Proximité de Pearson
L'indicateur de Pearson centré sur(2p,11 n'a pas de sens. puisque f(x) :9pour x ) 1. Sa restriction à [0, 1] est:
o, (r, s) : Jl tl - e-')2 dx :r-:- #: 1,e6.
Centré sur 7(1, 1). il vaut :
on (f, o) : Jl tl - e-x)2 ex dx + 4* e-x dx : e - 2 : A,718.
d) Proximité de Wolfowitz
Aucun problème d'existence n'apparaît pour cet indicateur ; en outre,Vx, F(x) ) G(x), d'où :
ô(F, c) : Jl fx- 1 + "-x1
dx + 1"î "' d*: 21
e) Proximité de Kullback-Leibler
Aucune version de cet indicateur n'existe puisque f(x) : 6 pour x ) 1.Cependant, sa restriction à [0, 1] peut être calculée :
Centrée sur Q/p, l:ô(F, c) : J[ Log e' dx : l.
Centrée sur 7(1, 1) :
ô(F, G) : J[ (t-og er) e-x dx : -? + 1 : 0,264.
1.8 Retour sur les convergences
Ainsi qu'il I'a été fait au chapitre 5, on peut associer une notion deconvergence à chacune des mesures de distance ou de proximité qui viennentd'être définies.
PH. TASSI - S. LFGAIT 249
COMPLEMENTS ET APPROFONDISSEIVENTS SUB LES LOIS DE PROBABILITE
Soit ô un indicateur de proximité, (X"), n21, une suite de v.a.r. et X unev.a.r., de f.r. respectives (Fn), n21, et F. Nôus dirons que Xn converge au sens deô vers X si lim ô(F", F) : 0.
n-æExemple
^ Soit (Xn), n ) 1, une suite de v.a.r. de loi'Z/p,1 + 11, et X une v.a.r. de loitùro, ,r' n
Considérons l'indicateur de Wolfowitz sur les densités :
ô(fn, f) : ll fn - t llr :.f I fn - f I dÀ
en notant Far fn et f les densités des lois de Xn et X.
nfn (x) :
" * ,, 1t0.,1 * 5 (x) ;f(x) :1t0, rt (x)
ô(fn, f) : Jl tt - --n-l ox + J]
On remarque que lim ô(fn. f) : O, et donc Xndensités. n
De même, un calcul simple montre que l'indicateur de Wolfowitz sur les f.r. vaut1
2n
Remarque
ll peut être parfois intéressant sur le plan statistique. particulièrement enthéorie des tests, d'introduire la notion contraire à la convergence qu'est la
séparabilité asymptotique;soient (Fn) et (Gn), n ) 1, deux suites de fonctions de
répartition. De façon générale. ayant fait le choix d'une mesure de proximité ô
prenant ses valeurs sur [0. M], M éventuellement infini, nous dirons que les suites(Fn) et (Gn) se séparent asymptotiquement au sens de ô si :
lim ô(Fn. Gn) : M
Ainsi, si ô est la distance de Hellinger, F^ et G- se séparent asymptoti-quement au sens de Hellinger si lim H(Fn, Gn) :,/2, ô;r si lim a(Fn, Gn) : O.
De même, il y aura séparation asymptotique au sens de la distance envariation du si :
tim du (Pn, On) : 1
où Pn et On sont les probabilités auxquelles sont associées les f.r. Fn et Gn.
1n dx-nn*1 n*1* X au sens de Wolfo..nritz sur les
254 PH. TASSI S. LEGAiT
COMPLEIVENTS ET APPROFONDISSEMENTS SUR tES LO]S DE PFOBABILITE
Les inégalités de comparaison des diverses mesures de distance (1.6)permettent partiellement de classer les convergences ou les séparations asympto_tiques associées.
Exemple
Ona:
o<H2(2du <H/4- t42
^^^^.?î::^î'^ll--"1 On sont deux suites de probabitités de f.r. Fn er Gn, onconstate lactlement que ;
,'fl O" (Pn, On) : O <+ iim H(pn , On) : O
De même ' ,',T H(pn, On) : Æ + "fl
du(pn, On) : 1.
Si lim du(Pn,On) = 1, alors, en posant h: lim H(pn, On), on doit avoir:h2<2<n/+-R
soit: t,2(4- h2) __ 4- _ (h2_ 2)z>Oce qui n'est réalisé que pour h : ,/2.
Les indicateurs do et H sont équivaients pour ra convergence et ra séparationasymptotique.
2 APPLICATION A LA FONETIONDE RÉPNRTITION EMPIRIOUE
si x., ...., xn est un échantiilon de n réarisations indépendantes d,une v.a.r. deloi de probabilité P, on définit ta quanriré :
p":1 ! ô"nt:1 xi
où ô. (x) vaut 1 pour x: a et o aiileurs. pn est apperée loi de probabilitéernpirique, distribution uniforme sur (X,,,...,Xn) puisque pn ({x,}) : L, i:1 à n.
non lui associe la fonction de répartition empirique Fn définie par :
x € lR, Fn (x) : pn {l- -, x[] : I i . 11_ _, ,,1 (x,).
ni:1 r '^L
PH. TASSI S. LEGAIT251
CO[/PLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
2.1 Propriétés à distance finiePar construction, F^ (x) est égale à la proportion d'observations de l'échan-
tillon strictement inférieu'res à x; Fn est une fonetion toujours discontinue. La v.a.
n F^ (x), nombre d'observations avâht x, suit une loi binomiale 0(n,F(xll puisque
un 'foint xi est soit avant x, soit après, et par conséquent :
E[Fn (x)] : F(x) et vlFn t*)l : I F(x) t1 - F(x)l
Fn (x) converge donc en probabilité vers F(x).
On peut égalenrent calculer la covariance entre Fn (x) et Fn (V) :
n1 s 1t--
Fn(x) Fn(v) :-riit
n_1 [.I.1r_
l: Inz
n
",(x;) . r" 1t--,q(x;)
l: I
, Min(x, ylt (xi )
nTj:1
+jX. la
I
n+
i:1i
1l- -, 4 (x,) 1p -, q (x;) ).
v.a. de loi P associée à la 1ème 166;156tion x,,D'où, eni:1àn:E(Fn (x) Fn (y))
notant par
et:
: l- e(t r- -, Min(x, vx (Xr t) + tl E(l1- -, ,.1 (X.,) 1t- -, yt (x2))
nn: I r1uin1*, y)) + l--l- F (x) F(v)
nncov(Fn (x), Fn tvtt : | [F(Min(x, v)) - F(x) F(v)].
2.2 Propriétés asymPtotiques
Puisque n Fn (x) suitS(n, F(x)). en appliquant la convergence en loi de la loi
binomiale lorsqué n tend vers l'infini, on a :
n Fn (x) - n F(x) Yn (Fil*): J9 !9! ru to, r I_:--
GTiili -m /Tixif--EiiComme Fn (x) I F (x), on a également :
uzn (Fn (x) - F(x))
/ r.{x) 11 - Fn(x))
N (0, 1)
PI TASSI S. LEGAIT
COMPTEMENTS ET APPROFONDISSEN/ENTS SUR tES LO]S DE PROBABILITE
Exemple :On sait que P(-
0,95 :
ou encore :
1,96 < N(0,
P(- 1,96 <
1)< 1,961 :6,9U,u/n (Fn (x) - F(x))
soit :
0,95 : P(Fn(x)- 1,96V
,/F;xiTrm)-< 1,96)
p.s
n
Si F(x) est inconnue, on a construit un intervalle connu ayant une probabilitédonnée 0,95 de contenir la vraie valeur de F au point x.
La convergence en loi vers la normalité peut être étendue au cas multieJi-mensionnel.
Théorème 1
Soit F la f.r. continue d'une v.a.r. X, pour tous réels (u, , ..., u,.1, le vecteuraléatoire {-/n (F^(u,) - F(u,)} (i : 1 à k) converge en loi vers unè loi normaleN(O, :), où I e'st [a matrice carrée d'ordre k d'élément courant (i, j), 1 < i,j(t<:
o,, : min (F(u,), F(u,)) - F(u,) . F(u,)
2"3 Vitesse de convergence : loi du logarithme itéréDans ce chapitre et ceux qui précèdent, nous avons abordé un cerîain
nombre de notions de convergence portant sur des suites de v.a., de probabilités,de f.r., etc. Un élément important pour le praticien est la 'ritesse à laquelle a lieucette convergence vers la limite. Nous allons donner un résultat général complé-tant le chapitre 7.
Théorème 2 : loi du logarithme itéréSi (Xi), i > 1, est une suite de v.a.r. indépendantes et identiquementdistribuées (i.i.d.), d'espérance m et d'écart-type o. o 1æ, alors :
limn..-oo
/nfin-rn)
" ,Æ Log Log nLa loi du logarithme itéré complète le théorème central limite en précisant la
vitesse de convergence de :
.,/n (Xn - m)
Appliqué à la fonction de répartition empirique, le théorème du logarithmeitéré devient :
/n (Fn(x) - F(x)) 1lim
n-æ
PH.TASS] .S LEGAIT
vGFj-il-- Hx-D ,Æ Los Los n-1 p.s.
253
COMPTEIVENTS ET APPROFOND]SSFMENTS SUR LES LO S DE PFOBABILITE
2.4 lndicateurs de proximité avec F"
L'un des problèmes fondamentaux de la statistique mathématique est laconnaissance de la loi P, de f.r. F, d'une v.a.r. X dorrt on possède une suite finie(X., ..., X-) d'observations indépendantes. lntuitivement, ayant fait choix d'unindicateur"de proximité ô, si on postule pour F une loi donnée F., on auratendance à accepter ceite hypothèse si l'approxinration de F fournie par Fn est( proche ,, de Fo, c'est-â-dire si ô(Fn, Fn) est u petit u. Parmi les indicateursprésentés au paragraphe 1, les plus fréquemment utilisés sont ceux de Kolmogo-rov, Pearson, Cramer-Von Mises.
a) Proximité de Kolmogarov
Soit d* (Fn. F) : Sïo I F" (x) - F(xll' pour une f'r. F définie surlR'
Théorème 3
ll existe une constante C, C ) 0, indépendante de F, telle que, pour d ) O:
P(dK(Fn,F) >d) ç6"-2nd2 vn)1Ce résultat, établi en 1956, est souvent utilisé sous la forme :
P('/n dK (Fn, F) > d) < C e- 2 d2
æ
Soit la quantité : - P(dK (Fn, F) ) d) :
n:loo oo r ^_2d2: p(dK(Fn,F) >d) <c :_(e-2d2ln: ce-'" 4"o
n:1 n:i 1- e- 2d2
Du chapitre 7 on déduit :
Théorème 4
dK (Fn, F) : SuP I Fn(x) - F(x) | P'co' O'
Ceci implique ia convergence presque sûre, et en probabilité, de d* (Fn, F)
vers 0.
A.N. Kolmogorov a établi en 1933 [10] la loi asymptotique de do (Fn, F).
Théorème 5
Si F est la f.r. d'une v.a.r., F étant continue, alors la v.a. 6 d* (Fn, F)
converge en loi vers la v.a. O, indépendante de F, définie pour y ) O par :
P(O<yl:1- 2 i (-t1r'+r s-2u2t2k:1
?54 PH.TASSI -S LEGAIT
COMPTEMENIS ET APPFOFONDISSEMENTS SUR LES LOIS DE PROBABITITE
b) Proximité de pearson
Envisageons tout d'abord le contexte statistique. -fl espace des valeurs de lav'a r' continue X dont on possède res réarisations'rnoàfenïantes (X,,, -..,\t;rlpartitionné en classes Cj. j : 1 à k : kg'- : c
c'est souvent re,cas en pratique, jÀjr,"'"'nsi de crasses d,âge, de tranchesde revenu, etc. Soir alors le vecteur aléatoire y: r(Nr, ._,ï_iài, la v.a. N, comptele nombre d'observations parmi (xr, ...,xn) appartenânt à tâ ctà's;;'c;; ;'L-ï ii,:
La loi de N, est une loi binomiale g (n, p,) oit :
pj : P(X € Cj) : J.- t1x; Ox,
f désignant la densité de F. plus généralement. y suit une loi murtinomiale,// (n;p1, ..., p1), en référence au schéma exposé au chapitre 4.
Les fréquences f, : \, j : 1 à k. définissent la loi empirique desobservations regroupéeJ 0"r. "î"r."s,
que |on notera p; res constantes (0,,,..., oo)en fournissent ra roi théorique déduite de F - ra roi vraie -, représentéesymboliquement par p.
L'indicateur de pearson entre il et p centré en p sera :
ô(È.p) : I $,-p,)2j:1 pj
on utilise fréquemment une forme pondérée de rindicateur de pearson :
i tl{A-S$3 w(x) dx
avec w(x) : n, qui conduit ici à : f(x)
ô*(È, p) : n
Théorème 6
ô*(È, p) t2Lx, (k - 1)
Démonstration
Définissons le vecteur Z de coordonnées :
k:j:1
(n--)
N, - no.z,- t 'r,j-' rnq
PH. TASSI . S. LEGAIT
1àk;
atrÊ
COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DF PROBABILITE
On a: E(Zjl:O.V(Zj) - 1-pjCov(7r,Z1l:-,m U+U
On vérifie aisément que le déterminant de la matrice de variances-cova-riances de Z est nul, puisque celui de Y I'est aussi, on se restreint au plus grandvecteur régulier r(Zt, ...,2n_,1 : Z*.
Partant de la f.c. d'une loi multinomiale,
kçry(u1,...,ur) :(. >. pj eiuj)n
l- |
on déduit la f.c. de t(Nr, ..., No-l) :
k-1
ç(ut,..., ur.-r): cy(u.,, ...,uk-1, O) : t1 + >. pj(eiui - 1)lnJ- |
Du théorème 3 au chapitre 6. on tire :
k-1
- i/n > u. '/d k-1
e7* lu,, ..., uk-1): e j-1 t '111 *.r" p,(eiu/Jrwi - 1In'.l- |
i u. u.2Or: siuy''/rtpi- 1-*-r"
k-1 k-1 iu, u,2.
. I p,(ei'izlnF; - 1) : . >. (+ /q - +j:1 t j:1 Jn ' 2n
et : k-1 k-1 . k-l
- i/ô I u, ./Fl i/i- I u, '/o] - 1 : ,'2
a7-tr,,...,un-,):e '
i:r-j ie j:t' 'e 2i:t )
-Lort",: e 2j:t
Z* suit donc approximativement une loi normale centrée réduite de dimen-sion k - 1, et ô- (È, p) converge en loi vers une loi X2 (k - 1).
256 PH' TASSI S. LEGAIT
COMPLEMENTS ET APPROFONDISSEMENTS SUB LES LOIS DE PROBABILITE
Remarque
Ce résultat peut être retrouvé par le calcul direct; notant par P la probabilitéélémentaire de Y en (nr, ..., nn), on a :
n! - nn * rt "- " ,/2Tr (formule de Stirling)
P- nn * rL e- n ,/Ztr n1 nk
n.*1 -n.IJ(n, t 'e t,/-Zrl)
P1 "' Pp
no. n, 1P - II1" 'j1 | 2 à une constante multiplicative près
jnik
Logp-K* : (n,* SLognPij:1 ' 2 nj
N -no.A partir deZ, : |'t,on a N, - n pl lZrJ6,ou :' 'Æq '
N. Z.I _1 , I
"q- -/"qk.z
LogP-K- j:E.,
(*, *rlLoo(1 +-1)
Faisons un développement limité du deuxième ordre :
Log (1 + 1-l - zi
-"i@i /q 2npj
k.z.z?LogP-K-
j:1 ' 2 @, 2npj
nzz2.+t+2, '/nL) (J - I
)2 ' "Æq
2npj
nr,>. (2, /nn + tl
j:1 t t 2
kLogP-K-
J:1
PH. TASSI S. LEGAIT
LogP-K-
COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABITITE
Or 2 7,/nq: I (Ni nPj) =n-n:O.j:1 t ' j:1z?D'où: LogP-K->--l2
1 < z.oP;=T; c'e -;1't' '
La loi limite de la loi multinomiale est une loi normale de dimension k - 1
(tout Z, pouvant s'exprimer en fonction des k - 1 autres), et on en déduit :
I (Ni - nPj)2 roi. yz 11 - 1)
i: 1 npj
3 ORDRES SUR LES VARIABLES ALEATOIRESL'idée de classer - ou d'ordonner - des v.a. ou leurs lois de probabilité est
fort ancienne. Par exemple, on peut comparer deux v.a. X et Y par I'intermédiaired'un indicateur de tendance centrale (espérance, médiane, milieu de l'étendue),ou bien par un indicateur de dispersion (écart-type, étendue, intervalle inter-quartiles), ou bien encore par les cæfficients de Fisher d'asymétrie ou d'apla-tissement (chapitre 4).
Nous nous proposons, dans ce paragraphe, de donner quelques élémentssur les comparaisons possibles de v.a. par I'intermédiaire de relations d'ordrepartiel ; dans tout ce qui suit, X et Y seront des v.a.r. de lois P* et P". de f.r. respectivesFetG.
Définition IX est dite stochastiquement plus petite que Y (noté X (, Y) si :
Vx € lR F(x) ) G(x)
Cette définition. due à H. Mann et D. WhitneV (947l,, est, historiquement, lapremière notion d'ordre partiel sur des v.a.r. [14].
Supposons X et Y telles que F et G soient continues et strictement croissan-tes surlR ;on a:
F(x)) G(x) <) O- t 1r1x)) ) x
En notantR:G-1 FetÀ- R- l(létant I'application identité), onobtient :
F(x) )G(x) <> R(x) )x e À(x) )0 Vx€lR
258 PH. TASSI S, LFGAIT
COMPLEMENTS EI APPFOFONDISSEMFNIS SUF LES LOIS DË PROBABII ITF
Remarque
Considérons la v.a.r. Z : R(X).
P(Z1z): P(R(X) ("zl: P(X < F- 1 C(t)) = F(F- 1 C(r)) : G(z).
La loi de R(X) est identique à cetle de Y.
Définition 9
soient a et b deux réels ; X est dite plus concentrée autour de a que y I'estautour de b si :
P(l x-al(x) > p(l y-blSx) vx)0.En pratique, on prendra fréquemment pour a (resp. b) l'espérance ou la
médiane de X (resp. Y), ou bien le centre de symétrie s'il y a lieu.
Si l'on se restreint au cas de lois symétriques, prenant alors a: b: O, onétablit les résultats suivants [1] :
Théorème 7
soient X et Y deux v.a.r. indépendantes absolument continues, de f.r.respectives F et G. de densités f et g, telles que :
(i) f(x) : i1- x) ; g(x) : g(- x) Yx € lR,
(ii) f et g sont décroissantes (au sens large) sur lR*
(iii) X est plus concentrée autour de 0 que y.
Alors, si (X',, ...,Xn) et (Y1, ....Y") sont deux suites finies de v.a.r. indépen-dantes de même loi que X et Y, on a :
rlpa) . : . X, est plus concentrée autour de 0 que : yi ii:1, n i:lb)Xn:
nl:lOn peut établir que la définition 9 est équivalente à la suivante, a priori plus
générale :
Définition 1O
X est plus concentrée autour de a que Y autour de b si :
E(h(l Y - bl ) > E(h( I x - a I ))
pour toute fonction h non décroissante, sous réserve d'existence desespéra nces considérées.
En particulier, en prenant pour h la fonction identité, on a :
E(lx-al)<E(lY-bl)PH TASSI - S LEGA]T 25g
CoMPLEMENTSETAPPFOFoNDISSEMENTSSURLFSLOISDEPRoBABIL|TE
et, pour a : E(X). b : E(X) et h(u) : u2 i
v(x) < v(Y)
ll est enfin possible de définir un ordre fondé sur la différence interquartiles,pour des v.a.r. absolument continues :
Définition 11
Soient a et B, a I B, deux réels appartenant à lO, 1[ ; la loi de X est dite plusétalée autour de a que Y l'est autour de b si :
F- 1 ffi) - F- 1 ("1>c- 1 ffi)-c- 1 (")
Exemples
a) SoitF(x) :1-e-À*,G(y) -1-s-9v, À<8.
r-1(x) :-lLog(1 -x),G-1(v)
:-lLog(1 -v)À0F- 1 19) - F-1 (o) : 1r-os 1--g
À 1-B
d.où : F- 1 (B) - F- 1 (d) :g> I
c-r (B) _c-1(d) À
La loi 7(1. À) est plus étalée que la loi 7(1,0), pour À < 0.
b) Soit X une v.a.r. absolument continue, de f.r. F, À ) 1 un réel quelconque. Ondéfinit la v.a. Y : ÀX, de f.r. G.
G(Y) : P(Y < Y) : P(X < 4 : r(Y)ÀÀ
G- 1 (y) : {z/G(zl: y}: {z/FÉl: y} : {z/z: À F- 1 (y)},À
d'où: G-1:ÀF-1
PourO(a(P<1,ona:
r-t(B) -r-t(a):l<rc_r ffi) _c-1(d) À
et donc Y : À X est plus étalée que X, pour À ) 1.
260 PH, TASSI . S. LEGAIT
Chapitre 9
O bservations ordonnées
ll arrive fréquemment que. possédant une suite finie d'observations indé-pendantes (Xr, ...,Xn) d'une v.a.r. X, on s'intéresse plutôt au n-uple ordonné ensens croissant ou décroissant. C'est ainsi le cas dans les méthodes statistiquescherchant à détecter des valeurs éventuellement aberrantes; en outre, le phé-nomène étudié peut parfois être tel que les observations vont naturellement encroissant : part de. marché cumulée conquis semaine après semaine, par exemple.
Dans tout le chapitre, X désignera une v.a.r. de loi px, F sa fonction derépartition, f sa densité.
1 LOI DE L'ECHANTILLON ORDONNEon considère une suite finie (Xr,...,Xn) de n observations indépendantes
de X.
1.1 Définition de la statistique d'ordreDéfinition 1
on appelle transformation ordonnée ou statistique d'ordre l'applicationmesurableT : (lR, fr1" - lR,,q.l"classant les(X,), i : 1 à n, dans l,ordrecroissa nt :
avec: (Xr, ...Xn) - (X(r), ..., X(n))
Xt.,t ( Xrrl (...(X1n)
Remargues
a) En toute rigueur, la notation X1ç, n'a de sens que pour n donné. "t
X(o)devrait être écrit X(r;n).cependant, lorsqu'il n'y aura pas de confusion possiblà,nous utiliserons la notation allégée X1p1.
b) Si la loi de Ia variable X est absolument continue par rapport à i, onpeut se limiter à des inégalités strictes car :
p (Xrr)
PH, TASSI . S LFGAIT 261
OBSE FVATIONS ORDONNE ES
En effet :
p [{Xrrrt+l t+l
Or la loi de X, - X,, pour i # j, est elle aussi absolument continue par rapportà la mesure de Lebesgûe et donc :
.I Pt[Xi-Xi:01): o
,"r. .onrr", si X est ,"j11r,"0," oir"rete, it peut y avoir des ex aequo, et tesformules deviennent rapidement complexes. Sauf exception, nous supposerons Xcontinue par la suite.
1.2 Loi de la statistique d'ordre
Théorème 1
La loi Pr de la statistique d'ordre est définie par la densité :
fr(x.,, ..., xn) : n' ,i" t (x,). Î"n (x,. .... xn)i:l
où : Cn : [(xr, ..., xn) € lRn ./ x., < x2<... < *n]
Démonstration
En notant 9nl'ensemble de toutes les permutations r de n éléments, et B unévénernent quelconque de fr,n,la probabilité pr(g) peut être écrite :
Pr1A1:P1 U E(r)l: : P(E(r))r€,Vn re9n
où E (r)désigne l'événement :
{Xr(1)<....Xr(n} et (Xr(1), ,X'(n)) € B}
P (E (r)) : JlRn 1"n (*.,, ..., xn) 1, (^r, ...,xn) dPxt(1)' "'xr(n)
où pxt (11' ''xr (n) symbolise la loi du n-uple (Xr (1), . ,X.1ny).
Or, les v.a.r. (X,), i: 1 à n, étant indépendantes, la loijointe de (XrtrI ...,Xrtnl)est le produit des lois des Xrliy soit :
nP (E (r)) : J,*n l cn (*,, ..., xn) 1, (*r, ..., *n)
,! ., f (x,) dx., ... d*n.
zoz PH. TASSi . S. LEGAIT
OBSE FVATIONS ORDONNEES
On remarque que P {E (r) ) ne dépend pas de r, donc :
nPr1B1 : P {(Xtr, ... , X1n1)€ B} : nt Ju lcn (x,, ..., *"'
,! 1 f (^i)dx, ... dxn
lls'ensuit que, sur lRn, (Xfrl ...,Xtn/ : T(Xr, ..., Xn)admet la densité;
nn
' l cn (xr, ..., xn) .l-l ,
f (x,)
Théorème 2
La loi marginale de (Xtr), ...,X(k/, k ( n, admet la densité :
n! .{! \ **(n-k),- ltn (x'' '"n' (,,!,, t''Jr) u"* t(x)dxln-k
La démonstration de ce résultat est tout à fait analogue à celle du théorème 1,à la nuance près que les événements E (r) ne sont pas forcément disjoints. En effet,lesévénements E (r) et Ë (a) seront identiques si r(i) :ali), i:1 à k;sinon ilsscnt disjoints. ll convient alors de définir sur 9n la relation d'équivalence :
o-r<+o(il:r(i) i:1àkAlors, en notant A une parTie de,9n contenant un eî un seul élément de
chacune des classes d'équivalence de{?n/-, on a:
P {(X11r, ...,xrx/ c B} : .!o
e {E (r)}
Le nombre d'éléments de A est égal au nombre de permutations divisé par lenombre d'éléments de chaque classe, ce dernier étant égal au nombre de permuta-
tions de gntellesque (r(1), ..., r (k)) est fixé, soit : ;{.(n-k)!
2 LOIS PARTIC|.JLIERESDE L'ECHANTILLON ORDONNE
2.1 Loi de X1p1
La densité marginale fo (x) de la coordonnée X1s1 (k : 1 à n) de l'échantillonordonné s'obtient aisément en intégrant ia densité de (X11), ...,X(n/:
fk{x):; --aL.t Fk-1 (x)(1 -F(x))n-kf (x)(n-k)l(k- 1)!
PH TASSI -S TEGAIT 263
OBSEFVATIONS ORDONNEES
Le calcul de la fonction de répartition Fn de X1r1 est immédiat. En considérant
la v.a.Z comptant le nombre de points X, tels gue X, ( x, on a :
Fk(x) : P (X1r1<x) : P (z>kl
Z suivant une loi binomiale ,/) 1n, F (x)), on obtient :
nFk (x) :
,Io Ç F'(x) [1 - F (x)]n-'
Remarque
Cette expression de Fn(x) ne nécessite que la connaissance de la {.r. F de X;elle est vraie quelle que soit la nature de la v.a. X, discrète ou continue. Dans le premiercas, la odensité" de X1r1 sera donnée par f
n (x) : Fu (x + 1) - Fn (x). Dans le second, il
suffit de dériver pour retrouver f n
(x).
Intégrale bêta incomplète
Soit alors b (t, p, q) la densité d'une loi bêta définie sur [0, 1 ], de paramètresp et q (chapitre 4) :
b(t,p,q) : -: .,n-111 -t)q-1ts (p, q)
où B (p, q) est I'intégrale bêta, constante de normalisation de la densité :
1
B (p, q) - JO tn 1 (1 - t1c-1 6,
Définition 2
On appelle intégrale bêta incomplète la quantité :
lu(R,c) :=; . -il,o-1 (1 -11a r dt,o=<u(1" B(p,q) -o
Considérons lr 1*1{k,
n - k + 1}, intégrale bêta incomplète tronquée en F (x). En
intégrant par parties, on établit aisément :
Fn(x) :1.1*1 {k,n-k+1)
La loi bêta incomplète est tabulée, et cette relation permet de calculer numé-riquement la fonction de répartition, et donc les f ractiles, d" X(n) (voir nTables of the
264 PH TASSI S. LEGA]T
OB SF RVATIONS O RDONNE ES
incomplete beta-functionu, éditées par Karl pearson, Cambridge University press,1934).
u ru (23.8)
.71
.72
.73
.74
.75
.76
.77
.78
.79
.80
.0546 337
.0679 478
.0837 364
.1022 621
.1237 678
.1484 637
.1765128
.2080152
.2429 931
.2813 767
.3229 920
.3675 521
.4146 528
.4637 746
.5142 gOO
.5654 792
.6165 525
.6666 799
.7150 262
.7607 906
Exemple
Soit X une v.a.r.^de loide Gumbel(chapitre 4)de densité f 1x; : exp (x - e"),dont on possède n = 30 réarisations indépendantes. carcurons e ix,rr, <oi'
La f.r. cie X est :
F(x) : 1 -e-""; donc F(O)- 0,6921.Comme:
F23 (O) : P (Xtz3) q 0) : lF (o)(23. 30 - 23 + 1)
il suffit de lire dans la table ci-dessus la valeur d"lo,osz(23,8), soit, après interpola-tion P (X12s1< o)- o,og74.
Théorème 3
La variable aléaroire Yr: F (X11/ suit une loi bêta É (k, n - k + 1).
PH TASSI . S. TEGAIT 2b5
OBSE RVAIIONS ORDONNETS
Démonstration
Notons g la densité de Yo. Par le changement de variables y : F (x) dans fn (x) :
s(Y) n!:
(n - k) | (k - 1) | vk-l (1 - v)n-k 11s' 11(v)
L ur<-1 11 - y)n-k 1,^,, (y)B(k,n-k+1) Y \r tt '[o'1]\]
Remarques
a) Rappelons que Fn (X1p/ suit une loi uniforme sur [0, 1 ], comme toute imaged'une v.a.r. par sa propre fonction de répartition.
b) Le calcul explicite des caractéristiques de X,u, que sont I'espérance, lavariance, la médiane et le mode dépend de la loi originêlle F.
Exemple
Soit X de loi 'A'ro,r 1.
On a :
fo(x):--+" - ^t-1 11 -x)n-k1ro,r1(*)(n-k)!(k-1)!
X1n, suit donc une loi É (k. n - k + 1), et les résultats du chapitre 4 permettentd'écrire :
6(X1r1) : ,i
2.2 Cas particulier des valeurs extrêmes X,n, et Xlnt
a) Lois
On trouve, à partir des résultats généraux précédents :
F,(x) :.!- a;ri(x) (r-F(x))n-i -1-cl(1 -F(x))nl:l
F1 (x) : 1-(1 -F(x))nf1 (x) :nf(x) (1 -F(x))n 1
De même, pour X,n1 :
Fn (x) : Fn (x)
fn (x) : n f (x) Fn-1 (x)
266 PH TASSI .S IFGAIT
OBS E RVATIONS ORDONN EES
De façon évidente, notons que le sup (ou l'lnf) d'un échantillon indépendantextrait d'une loi F ne suit pas cette loi. ceci n'a rien d'intuitif, et mérite d,être noté.
Remargue
Supposons que le support de la loi p soit lR, c"est-à-dire Otout x réel. Alors :
F(Xrnl ) O) : t -Fn(O) : 1-Fn{o) ; trm p(Xfnt )De même:
P(Xtr) q O) : t -(t -F(O))n ; tim p(x111 < O)
X,n, (resp. X1,,,) est asymptotiquement positif (resp. négatif).
b) Médianes
i1 et in désignent respectivement les médianes 6e X1r1"t X(n) ; l'équation de défini-tion de i., est :
-1Flry(i.,) : t :1-(1 -F(;1))n
Ln2
F(x.,) : 1-e n
< F(x) ( l Pour
o) :1
-1 I
qui conduit à :
De même: Ln2
F(iJ:e n:t-F(i.,)
2.3 Loi jointe d'un couple (Xtn), Xtrl)
Soit un couple (Xtnf Xtr/ avec 1 =<
k < I ( n :
Par intégration de la densité 6e (X111, .., X1n1), on obtient :
fr,r(u,v) : C(n,i,k) f (u) f (v) rk-r (u) (F(v)-F(uy;i-t-t
t1 - F (v)ln-1 11r=u1(u, u).
La constante de normallsation est :
PH. TASSI - S, LEGAIT
n!: B(k,r-k).8(l,n-j+t)
OBSE RVATION S ORDONNEES
La loi de (X1r.y X1l1) permet de déterminer la loi de fonctions de (X11y X11,), et,
en particulier celle des espacements ou mailles de la forme X1t1 - X111.
Pourk: 1 et l: n, onobtient la loi jointede(Xtrt, X(nt)'
f.,.n (u,v) : n(n-1) f (u).f (v).tF(v)-F(u)ln-2 ltr=u1(u,v)
2.4 Calcul des moments
Le calcul des moments, particulièrement E (X(k)), V (X(k)) et Cov (X1p1, Xtrl),
dépend bien évidemment des caractéristiques de la loi de X. c'est-à-dire de la fonc-tion de répartition F et. si elle existe, de la densité f.
a) Résultats généraux
Théorème 4
Si E (X) existe, alors E (X1n,) existe également.
Démonstration
On saitquelE(X)l < E (lXl); l'existencede E(X), c'est-à-dire E (X)<+æ, estassurée dès que E (lXl ) est f inie. On a ici :
lE(X(k))l = J,*lxl fn{x) dx: E(lx(k}l)
Or:fo(x) : " cl-] Fk 1(") (1 -F(x))n-n t(*) < n cl ] rt*t
pursque :
ll s'ensuit :
Fk-1 (^) (1 - F (x))n-k < t
lEtx111)l ç E(lx(kll)< ".x-] E(lxl)
Donc si X est intégrable, c'est-à-dire si E (lXl)existe et est finie. E (lX,n,i)etE (X(k)) existent et sont finies.
Remarquons qu'inversement I'existence de E (X111) n'implique pas celle de
E(X). Pour la loi de Cauchy, par exemple. E (X1s1) existe pour 2 < k < n - 1, alorsque E (X) n'existe pas.
268 PH. TASSI ' S. LEGAIT
OBSE RVATION S ORDONNEES
Théorème 5
Soit nfixé;on note, sous réserved'existence. m: E(X) eta2 : V(X).
Alors:n
k:1
n
k:1
n
k:1
nT
k:1
Démonstration
De façon évidente, on a :
E(X(k)) : nE(X)
E(X21*y) : nE{X2)
n
lll E(Xrnt Xtrr) : nE(X') + n(n-1) m2
n
"I- Cov(X*y Xrrr) : na"f:l
nf ., xinr :
oI., 4' oout tout réelj
En faisant j : 1 et en prenant I'espérance :
n
r.1,, t(X1p1) : nm
Avecj :2,onobtient
E(xÎk)) : nE(X2)
En élevant au carré l'égalité :
et en intégrant :
*_)
n
k:1
(nE(
\ k:1
nnnf ,,
(xrnr : nI,' "o
(nEI\t:t
PH. TASSI - S. LEGAIT
*,0) :
269
E(x1p1 x1r1) : nE(x2)+:+> E(xk
: nE(X')+n(n-1)m2
Enfin, en remarquant que :
n
n:., (x,n, - E(x(k))) :
nI., (Xu- m)
on a, en élevant au carré et en prenant l'espérance:
nn
k:1 l:1 '
Remargues
a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v.a.
X, discrète ou continue.
b)-Soit X de loi N (0, 1) ; on sait que X et X, - * sont indépendantes pour touti, donc X et Xlpy - X le sont aussi.
ll s'ensuit :
d'où :
soit .
E (x (x(k)- x)): o
E (X x(k)) : E (X') : v (X) :
E (nX X(k)) E (X1p1 X111) : 1
sort :
Xr)nn
k:1 i:1
OBSE RVATION S ORDONNE ES
1, F (x) : xsi O(x(1.Onavu
1
n
ln \ n: E(rf ,, x,,,(*),n/:,Il
Exemple
Soit X de loi uniforme %p, r 1
: f (x) :précédemment :
270
E (X(k)) :n+1
PH. TASSI , S. LEGAIT
OBSERVATIONS ORDONNEES
De même:
v(x(k)) - k(n--k+1)(n+1)2(n+2)
et, en remarquant que fn, t (u. v) : (v _ u)n-2 (u s< v), on en déduit :
çov (X1p1. Xcr) : +#" * , r ( k, 1( n
b) Calcul approché des moments
On sait que Yn : F (X1) suit une loi bêta Ê (k, n_ k + 1) (théorème 3).
On déduit des propriétés de la loi bêta :
E (Y[) :
E (Y[) :
B(k+r, n-k+1)B(k,n-k+1)(k+r-1)lnt
D'où les deux premiers moments de yn:
E (Yk) : ;+1 v (Yk) :Remarque
- Si F est l'application identité. c'est-à-dire si la loi originelle de X est la loiuniforme sur [0, t J, E (xtr./ : E (yç). on retrouve bien les iésurtats de l,exempreprécédent. cependant, prus générarement, queile que soit ra roi de x, E (F (X,p,))estégal à l'espérance de la v.a. Urot qri serait obtenue en appriquant ra statistiqued'ordre à un échantillon (U,,, , Un)extrait d,une loi %ro, rr.
En effet. on peut représenter de la façon suivante les divers modèles inter-venant :
(k-1)!(n+r)!
Statistique d'ordre
(Xrry...,X,n,
I
lrt
F (X,o/ de toi
Fk,n-k+1)Yr : F (Xtrr), ..., Yn : F(X1n/
Xdeloi P:(xr, ..., xn)
I
FI+
F (X)de to, %ro, r,
Ur : F(Xr), ..., Un : F (Xn)
PH TASSI - S. LEGAIT
'aa
OBSÊ RVATION S OBDON NE ES
La fonction F étant croissante, U1Ly : F (X1n,) : yn.
Le calcul approché des moments de la statistique d'ordre est fait en utilisantun développement de la fonction F-1 1Yn) au voisinage de E (Yn) :
F- 1 (y(k/: F-' (E (y(k/)+ ,j.,
ffn - E (yk)), t # r-' (u)lu:E(yp)
Or, F-1 (Yr) : Xlry ; en notant pr: E (Yn), et t : F-t :
X(o) : /(no) + ,j,, ffn-no)i /(i) {Ru)
Le calcul Oe E (X11/. V (Xtr/, Cov (X1py X11/ déRend de l'ordre auquel on arrêtele développement, c'est-à-dire du degré d'approximation. A l'ordre 4, on obtient lesformules approchées suivantes (il suffit de remplacer E (Yp par les formules précé-demment établies à partir de la loi bêta de Yn) :
e (xrr/ : e bnt - +*# 4t" (ont
on(1 -R1.) [1-Zon .{3), nn(1 -Rn) ,ét,...l- ("-2f L . /'"'(on) * t /'''ton)-l
v (xk)) : &5U ttt'' (on) -ffi o
avec :
A:2(1 -2pr.) r/t'(ovl Q"$nl - pk(1 -pk) ('/'bv) V"(pn) . + 4t"(oo)1"
cov(Xrrr Xrn/ : "*+
r/'(on) Q'b,l + ï=fl tavec ;
B : (1 -2pkl e" bn) Q'b,) + (1 -2pl t" $fi e'bnl
1 ,, 1* t on(1 -pr) t'bp) t'"' (pn) *; pr(1 -n/ /'(nn) t'"'loll
1*t on(l - p/ e" bn) t" $lDes tables numériques des moments de la statistique d'ordre existent pour
certaines lois, en particulier pour la loi normale N (0.1). Ces dernières sont repro-duites en tables 10 et 1 1 .
272 PH. TASSI - S. LEGAIT
OBSE RVATIONS ORDONNF ES
3 COMPORTEMENT ASYMPTOTIOUE
Si les résultats à distance finie rattachés à un échantillon ordonné sont impor-tants, la théorie des valeurs extrêmes a été considérablement utilisée dans desdomaines d'application tels que la fiabilité, le contrôle de qualité, etc. ce paragrapheaborde la loi asymptotique d" X(n) et les lois limites des valeurs extrêmes d'unéchantillon ordonné.
Remarquons tout d'abord qu'un simple changement de variables permet depasser de la loi d" X(n)à celle 6e Xlty; en effet :
Min (X.,, ..., XJ : - Max (- X1, ..., - Xn)
on obtiendra la loi o" *,,1,.0"r le changement y - - y dans la roi de X,n,. plusgénéralement, cette remarqub'jouera pour étudier les comportements oes U]â. auxrôles symétriques Xlpy
"t X(n _ n * r I
Lorsque n tend vers l'infini, deux possibilités existent pour k :
a) soit k est f ixé, et, compte tenu de la liaison entre X1p1 et X1n _ k + 1y on étudie
le comportement asymptotique d'un rang donné ; le rapport ! t"na alors versn
0 ou 1. Ce cas correspond en particulier aux valeurs extrêmes, k : 1 ou n.
b) soit k tend vers l'infini, alors que le rapport i ,"nO vers û, O < a < 1.n
Cette situation est celle d'un fractile empirique d'ordre a (chapitre 3).
on peut synthétiser les deux types de comportements asymptotiques enécrivant:
lim -1&,
0(a(1l"l-æ n
Si a:0 ou a: 1. on étudie un rang fixé (valeur extrême) ; si O < a < j,on étudie alors un fractile empirique.
3.1 Convergence d'un fractile empirique
Théorèrne 6
Si F est continue et strictement croissante, et si O I a 11, alors :
PXr*t * xo
où xo est le fractile d'ordre a de X.
PH. TASSI - S. LEGA]T z/J
OB SE FVATIONS O RDONNEES
Démonstration
kLe rapport - convergeant vers d, on ne restreint pas la généralité de la
ndémonstration en écrivant k : Ina] + 1. D'après la définition de la fonction derépartition empirique Fn donnée au chapitre 3 :
Fn(X11noJ*r1) : Ina]n
r (xtrt)- F (xJ : F (X111)- Fn(X111)+ Fn(X111)- F (xa)
I na]: F (X111)- Fn (X(k)) * --
d
On sait (voir chapitre 8)que :
Pdk (Fn, F) : Sup I F (x) - Fn (x)l O
Pd'où: F(X1py) -F(x/* 0
F étant continue et strictement croissante, on conclut en composant par F-1 :
PXtnl * xolorsquen*co.
Le théorème qui suit. établi par Pearson, Smirnoff et Mosteller, fournit laconvergence en loi de X,u,. ll est énoncé sans démonstration approfondie, celle-cipouvant être trouvée par ëkemple en [17] ou en [2].
Théorème 7
Soient (X(nr), ...,Xtnr.l) k variables ordonnées (k < n) extraites de la statistiqued'ordre (X(1I ..., X(n)).
On suppose :
11;
n.*æ, hi*- etliml : at O a o, 1. i : 1 à k.
Le fractile d'ordre a. est noté xo. (i : 1 à k).
Si 0 < f (xo.) < co, i : 1àk:/X, - x \|"(n1l "al \
Vn I : | - N(0,:)\ X,-,-x^ I loi\ tnk) ak ./
PH, TASSI . S. LFGAIT21 4
OBSE FVATIONS O RDONNEES
I étant d'élément courant :
o,,: Jl? (1 < i< j< k)'t l(Xo) f (xo)
Eléments de démonstration
L'idée est de remarquer que I'on peut écrire :
F- (x_) - a,X(ni) : *oi - -1ffi* *",
où Rn converge en probabilité vers zéro.
La loijointe de (vG (Xtnr)- ^o), r,6 {X1nn1- xoo)) est identique à ceile de :
( . , (a,, - Fn (xo.,) _ (ar - Fn (xo,)) \I r/n\" f (xo.,) ,...,J" -::d, al
Or, n Fn (xo ) suit une loi gJ g, a), et, pour i ( j :
nCov(Fn(xo,). Fn(xo,)) : ai-q,dj: oi(-qjl.Le résultat s'en déduit immédiatement.
Remargue
Pour une coordo knnéeX1py avec lim- : d, on a:
r {x,0, - ^; L N (0, ao)
^ a(l -a)oâ: t\^^l
3.2 Convergences des valeurs extrêmes
Onseplaceici danslecaskfixé,soita:0 ou a: 1.
Soit : Yr: F(X,n,), et Go: nYn.
On suppose n -* oo, k restant fixé
PH. TASSI - S. LEGAIT
OBSÉ RVATION S OFDON NE FS
Théorème 8
ck t; y (k, 1)
Ce résultat provient du comportement asymptotique de la loi nÉ (k, n-k+1).qui converge en loi vers une loi gamma y (k, 1). En effet, par définition d'une loi psur [0, 1]. Gr. peut être mis sous la forme :
nA Auk - A+B A B
;*;oùAetBsontdesv.a.r.indépendantes,deloisrespectivesyk,lletf(n-k+1,1).
Ona:/n\ r< /n\ kEl-l:-etvl-l:,\n/ n \n/ n'
Adonc - converge en probabilité vers 0. De même :
n/B\ n-k+1 / B\ n-k+1
Ë -
v [ -l- 2\n/ n \n/ n
Bet - converge en probabilité vers 1. En vertu du théorème 16 du chapitre 7,n
Gn converge en loi vers la loi de A, c'est-à-dire f (k, 1).
3.3 Les lois des extrêmeslntéressons-nous plus particulièrement aux (vrais> extrêmes, correspondant à
k: 1 :X11y et X,n,. Compte tenu de la remarque faite en début de paragraphe, on
se limitera à l'étude 6e X1n;.
Définition 3
On appelle loi asymptotique des extrêmes, ou plus simplement, loi des ex-trêmes, la loi de la variable Y telle eue X(n)
l; Y quand n - æ.
a) Les trois formes asymptotiques
Le comportement asymptotique de la loi de X1n; dépend de la distributioninitiale F de X. Fisher et Tippet (1928) ont établi I'existence de trois seules lois limitespossibles.
276 PH. TASSI - S. LEGAIT
OBSE RVATIONS ORDONNEES
Loi du type I
La loi du type I est définie par sa fonction de répartition :
/ ,l\| -t r
F.,(v,^,r) :exp\-e u )o€R,1l)O
on notera Ft (y) la valeur de F., (v, o, 1)correspondant à la variable stan-Y -,Àdardisée cette loi est appelée généralement loi de Gumbel ou double-
lJexponentielle.
Loi du type ll
Elle est définie par sa fonction de répartition :
lr y-^
)- eFr(y, l,p,Êl:e I P I .ltr,*-1(y)
.l € lR, p >O, p>O
Cette loi est parfois associée aux noms de Fréchet, plus rarement à Fisher et
Tippett. On notera Fr(V, Êl la fonction de répartition F, (y, O, 1, F) de Y - 'À
lJ
Loi du type lll
Elle est définie par sa fonction de répartition :
- / i-v\PFs(y,i,p,Êl:11,r,**1(y)+e I s ) .11--,21(y)
(,À € lR. p )O, p>0)
cette troisième forme de comportement asymptotique est du type weibull (onretrouve cette loi en faisant le changement y * - y). sur un support borné.
On notera F"(V, h la fonction de répartition Fg (y. O, 1, P) de'la variable stan-Y-^
dardiséelJ
On remarquera que les lois du type ll et lll sont des lois tronquées ; seule la loidu type I est définie sur lR, de façon non triviale.
En outre, les lois du type ll et du type lll peuvent être ramenées à la loi du typeI respectivement par les transformations :
Z:Log(Y-À) et T: -Log(À-Y)
PH TASSI - S TEGAIT l/ /
OB SE RVATIONS ORDONNEES
Par exemple :
P(Z<zl: P (Y<i1e') : exp(- UB s-9z1
Z est donc de la forme utype lo avec i : Log lr el pt = 1-
.
pb) Propriétés
Nous ne considérerons par la suite que des variables standardisées :
Typel : Fr (y):exp(-"-v1 y€ lR
TYPe ll : Fr(V, Êl : s-(v)-É y € R*
(e-t-vÉ y€rRType lll : F3 (y, Bl : (V, Fl : {
( 1 ye lR*
Propriété 1
Soit Y une v.a. de type I ; la v.a. X : e-Ysuit une loi exponentielle f (1.'l).
Propriété 2
Soient deux v.a. X et Y, indépendantes, suivant une loi de type I. La v.a.U : X - Y suit une loi logistique.
Démonstration (cf . exercice 4.1, chapitre 4).
c) Calcul des moments
Le calcul des moments des lois des extrêmes n'est pas toujours aisé. Cepen-
dant,si Ysuituneloi dutypelstandardisée, X:e-Ylcasstandardisé) suituneloiy (1, 1l,. ll est donc possible de calculer la fonction caractéristique g" de Y :
gY(r) : E(eitY) : E(X-it)
Or, pour une loi y (1, 1l:
E(Xr) : F(r+1)pour tout r, d'où :
zyftl: r(1 -it)d) Génération de lois des extrêmes
Théorème 9
Soit (Yn), n 2 1, une suite de v.a. indépendantes identiquement distribuées,de loi exponentielle, et N une v.a. suivant une loi de Poisson tronquée en {O}.Alors X : Sup (Y,,, ...,Y*)suit une loi du type L
218 PH, TASSI _ S. LEGAIT
OBSE RVATIONS ORDONNFES
Démonstration
En décomposant :
{X:x} : i {X:xn N : n}, ona:n:1
æf*(x) : I- f*(x,/N: n) p(N:n)
n:l
= i ne-x11 -e-")n-1 1si-ry-r ].n=1 n I
_ À "-" i [,1 (1 _e-x)]t
ei-1 k:O klôtx x\ Àe^
= -
".Â(1
'e- r - g-x-,Àe-xei-1 e^-1
e) Relations entre les lois asymptotigues de Xfr)"t X(n)
ll existe entre les lois asymptotiques d" X(n) et de X111 des relations aisé-ment démontrables par changement de variables. on notera par F] la f.r. de la loilimite de X,.,, (i : 1,2,3).
Ainsi, soit Y de type l, et faisons la transformation Z - - y.
FzEl : P (Z<z) : p(-y< zl : 1 - F"(-z)
- 1-F,(-2,À,Ulf f x-(-^) \\
-1-exP[-exp I ' 'll\ \ u ))
: Fi(x.-À,pl
Nous noterons :
_YF.,(., À, pl * Fi (., - À, pl
On démontre de façon analogue les propriétés suivantes :
Fz ('' À' u' Pl : rË t'' - À' P' Ê)
Fs (.. i, p, p) : .Fât., - À, p, Ft
PH, TASSI S LFGAIT 279
OB SE RVATIONS ORDONNE ES
Y-1Fr(., O, tt, pl '- Fâ t., O, tt'-' , Bl
Y-1F. (., O, p, Êl '- Fâ (., o, rt-', Pl
e-,À ,F, (., l, ttl
" - FË 1., O,
"- o, t,-')
Fâ (. o. r.,, pl L\Y F{ (., Ln p, Ê-'l
Fl (., o, u, Pl L\Y
F., (.' Ln P, B-')
F. (.. o, r, r, - Ll (-J
F, (., Ln u, Ê-')
De même, les relations inverses entre F et F* existent. par exemple :
Fâ (.. o, ^,
p, Ê) - t ,,(., -
^, r.t, Êl
L'ensemble de ces relations peut être résumé par le diagramme suivant :
LnY
F3_FâY-1
3.4 Eléments sur la démonstration des convergences enloi de X1n1
L'idée de base, due à Fréchet (1927iret à Fisher et Tippett (1928), consiste àdécouper l'échantillon de taille n en k sous-échantillons de taille m, k : nm ; notons(X,), i : 1 à n, l'échantillon initial, et (Xj), j : 1 à k et I : 1 à m, les élémentsdechaque sous-échantillon. ll est évident que :
Fi
e-Y
F1
F2
28A
Sqp Xi : Sqp Sço Xlt.l t
PH, TASSI - S. LEGAIT
OBSE RVATIONS OBDONNEES
Faisons tendre m vers l'infini pour k fixé ; soit G la fonction de répartitionla loi limite d" X(nI n * æ. A une transformation affine de ra variabre près,coefficients dépendant de k, on aura l'identité de Gk et de G :
Gk1x1 : G(an x + bn; (s)
La relation (s) traduit ce que I'on appelle le principe de stabilité, et estl'équation fonctionnelle définissant toutes les lois limites possibles pow i,n,. L",constantes an et bn sont des constantes de normalisation, réelles et indépendantesde x.
Définition 4
Une fonction de répartition G est dite stable (sous-entendu.pour un maxi-mum,) s'il existe des suites (an), an ) O, et (bn) telles que :
Gn1xl : G(anx+bn)pour tout x réel.
Remarque
Plus généralement, si F, et F2 sont deuxfonctions de répartition, F, et F2 sontdites de même type s'il existe deui constantes a (a ) o) et b telles que :
F, (x) : F,, (ax + [)pour tout x réel. Sur l'ensemble I des fonctions de répartition sur lR, la relation Onêtre de même type> est une relation d'équivalence. ôn appelle type une classed'équivalence, c'est-à-dire un élément de l,espace quotient
'g/e.
La résolution de l'équation (s), que nous n'aborderons pas, conduit au théo-rème suivant, dû à Gnedenko :
Théorème 1O
Soit G une fonction de répartition stable. Alors G appartient nécessairement àl'un des types suivants :
TYPe | : F, (y) : exp (- e- Y)
Type ll : F
" (V, Êl: exp (- U- É1 t ,r* (V)
Type lll : F. (y, É) : 1 ,** (y) + exp (- (- v)Éy t,*_ (V)
(B paramètre strictement positif.)
Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêtpropre, il est important d'essayer d'identifier. si possible, vers quel type de loi vaconverger X1n, selon sa loi initiale F.
dede
PH TASSI -S LEGA]T ?Ê 1
OBSE BVATIONS ORDONNEFS
Définition 5
On appelle domaine d'attraction de F,(i : 1,2,3) l'ensemble g ffil des lois
de probabilité F pour lesquelles (X',, ..,,Xn) étant un échantillon extrait de la loi
F, Xrn) : sup X, va converger en loi vers la loi des extrêmes de type F,.
i:1 à n
Nous allons donner maintenant des conditions suffisantes de stabilité permet-tant de préciser le domaine d'attraction de chacun de ces types.
Définition 6
Soit G une fonction de répartition sur lR; une fonclion de répartition F seradite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an),
an ) 0. et (bn) telles que :
lim Fn(anx+bn):G(x)n*oo
pour tout x point de continuité de G.
Remarque
Si G est stable, alors G e g G) eT 9t (Gl est non vide. En outre, on peutmontrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attrac-tion d'une et une seule fonction G, représentant d'un type"
Les caractéristiques des domaines d'attraction sont établies dans les théo-rèmes suivants :
Théorème 11
Soit F une f.r. de densité f positive admettant une dérivée f'négative sur (u, v),
f étant nulle sur [v, + -1 (v fini ou non) ; si
tim f'(x) (1 -F(x)) __1x Îv f' (x)
alorsFeQç.,t.
Théorème 12
Soit F une f.r. de densité positive f sur Iu, + æ[; si :
rim xf(x) :É>ox-+oo 1-F(x)
alors F € 9l ffzl, Pl).
282 PH, TASS . S. IEGAIT
OBSE RVATIONS ORDONN EES
Théorème 13
soit F une f.r. de densité f positive sur un intervalle (u, v). et nulle sur lv, + -1 .
si :
,., (v - x)f (x) _,xlv 1-F(x)
alorsF€gFs(.,p1).L'ensemble des démonstrations peut être trouvé en IS], [7] ou t 1 Sl.
Exemples
a) SoitX -) y (1),toiexponenrieltededensité f (x) : e-xi,^*(x).
La fonction de répartition Fn de Xlny u.t ,
Fn (x) : (1 - e- x;n 1,0* (x)
Soit :
Zn:X(n) -Lnn
1F,(z): Fn(z+Lnn) :(1 -- e-z)n*exp(-e-z)'n
quand n*æ. n
L'appartenance de la loi r (1, 1) au domaine d'attraction de F., peut êtreretrouvée à I'aide de la condition du théorème I 1 ; en effet, pour x)O :'
f'(x) (1 - F (x)) e-" e-"f1^)-:- 1"-"Y
:-i
b) Soit X de loi togistique, de f.r. F teile que :
F(x) :1 + e-x
La f.r. de Xlny est Fn (x) : (1 + e-")- n. Soit Zn: X(n) - Ln n ;
Fr_(x) : Il +e:(r*tnn) ]-n : (1 * 1 "-r)-n-exp(-e-.)'nn
quand n - æ.
De même que pour l'exemple a) :
f'(x) (1 -F(x)) :e_*_1__1ft (^)
quandx-+æ. '\"/
PH TA,SSI - S. LEGAIT 283
OBSERVATION S ORDONNEES
c) Soit X suivant une loi de Cauchy de densité :
1
f (x) = * "t)
Xxf(x)
-=
1-F(x)
7r (1
pourx) 0
(1 + x2) + -Arctgx) (1 + x2)Ar"tg a
rim xi(x) - rim x
= :1x*+oo 1-F(x) x-+co 1+x'
La loide Cauchy appartient à g F2(.,1)1.
d) On établit que la loi y (p, 1) et la loi N (0, 1) appartiennent à Q ç.,7, et laloi uniforme %ro,r)à g Fs(.,1]l1.
Remarque
On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction.Ainsi, pour F' (y):
f'(v) (1 - F, (y))L ey+e-Y (1t" (vl
: gY 19* e-Y
Or: e"-Y - 1 - e-Y quand y -* + -, et donc :
_ e- "-Y) (e- v _ 1)
- 1) {e-v - l1
f'(y) (1 - F' (y)) *-1
quand Y*+oo
4 LA LOI DE L'ETENDUE
4.1 Résultat général
Un cas particulier de fonction des extrêmes très utilisé en statistique descrip-tive est l'étendue W I Xtnt - Xt'f ou plus généralement les quasi-étendues de laforme X11y- X(k) (t > k).
284 PH. TASSI - S. LEGAIT
r'(y)
OBSERVATIONS ORDONNEES
Soit la v.a. Zn, r : X(l) - Xrul. A partir de la loi du couple (Xtrrr Xril établie auparagraphe 2, on cherche la loi marginale d"zt,t après avoirfait le changement devariables :
(*,-, ) (u) -(*,u, \\*,,, / \.,,n/ \x(rt-x$t)
La loi jointe du coupre (rJ,zt,k) s'obtient simprement, en remarguant que ravaleur absolue du jacobien du chaËfement de variabres est 1 :
Qfu,z): B(k,i-k) B(r,n-l*1) f (u) f (u+z) Fk-1 (u)
[1 - F 1u + z11n-1 [F (u + z)- f 1u;11-k-t
En intégrant par rapport à u, on obtient la densité e1,pe) deZr,n:
Q1,pQ): J,r rn-t(u) t1-F(u+z)ln-l
lF(u+z)-r1uy1l-k-t t(r) f (u+z)du
A titre de cas particulier, considérons la longueur des mailles, c,est-à-direl'écart entre deux coordonnées successive. Zk*1,k 1[: 1 à n _ 1) :
ekri,uLzr : ffi J,* rn-t (u)
[1-F(z+u;]n-k-t.f (u) f (u+z)du
En calculant E (Zx*t,u),on obtient après changement de variables ;
E(zx*r,r,.): cl Jn t1-F(v)ln k rk1v1 ov
Exemple:
Soit X de loi exponentielle ), (1).
eu*t,ut.t :6 *îil+, (1 -g-u;k-t
"-(n-k-1)(z+u) "-u "-(z+u) 6u
PH. TASSI - S, LEGAIT 285
OBSE RVATI ONS O RDONNE ES
n ' "-
(n-k)z ,1 (1 _ t)k 1 ,n_k 6,(k-1)l(n-k-1)!
en posant t: e-u; cette dernière intégrale n'est autre que B (n - k + 1, k), etdonc :
Q*+1,k(z) : (n - k) s- n-k z
Zk*1,u-y(1,n-k)
1
E(Zn*1,1) : n_k
1
V (Zk.1,k) : (" _ kf
4.2 L'étendue W
a) Loi de W
Pour obtenir la loi de l'étendue W :X(n)- Xf,,f il suffit de faire I : n et k : 1
dans gr,o (z).
La densité en, t de W est donnée par :
pn,1(w) : n(n-t) Jn [F(w+u)-F(u)]n-2 t(r) f (w+u)du.
Sa fonction de répartition Fn,,, (w) est :
.^wFn,
1 (w) : J'o e n,1Ql dz
: d: n(n-lf fJ[ fr(z+u)-F(u)]n-2 f (u) f (z+u)dz) du
: d: n(n-1) f (u) du (JT** tF(v)-F(u)ln-2 f (v)dv)
: d: nlF(u1w)-F(u)ln 1 orluy
b) Espérance de l'étendue
286
E(W) :E(X1n1) -E(X(1))
PH IASSI - S. LEGA]T
OBSERVATIONS ORDONNEES
Avec les notations précédentes :
n-1 n-1E(W) :
k:1 E(zr,*t,n) :
ol r Jn cl (1 - F(v))n-k Fk(v) dv
E (w) : t^ ;: t
c5 tr - F (v))n-k rklv; dv
que l'on peut écrire :
E(W) : J,* tt -tl-F(v)ln - Fn(v)l ov
en utilisant :
! cT (1 - F)n-m pm - ',
m:oExemple
Soit X de loi uniforme sur tO. 1 I. La densité de W : X(n) - X111 est :
pn,,, (w) = n (n - t) "f; - * [(u + w)- u]n-2 du
: n (n - 1) (1 - w) y7n-2 tto,r1 (*)
E(W) : ll f r -(1 -w)n-wnl dw:++Remarque
Soit X suivant une loi d'écart-type a; considérons la v.a.r. R cléfinie par:
1WR: il
(Xtn)_Xt,t) : O
où la constante dn est. par définitionl égale à , -n
/x,. x.. \E( ,n, _ rrr
!
\o o /Par construction, on a E (R) : o. Cette propriété est fort utile en statistique,
et les constantes dn ont été calculées pour la loi normale.
c) Contenance de l'étendue
Partons de la densité de la loi de (X,,,,. X,n/ :
fn,r (u,v) : n(n- 1) tF(v)-F(u)ln-2f (u) f (v) 11,.u1
PH. TASSI - S. LEGAIT 287
OBSERVATIONS ORDONNEES
Procédons au changement de variables :
(",,,\ /'\ : (*u, \\*,",/ \"/
: \rrx,",r -F(x(1//
Son jacobien est :
: f (X1n/
d'où la densiré de (2, nl :
fr,o(.,Trl: n(n-1) rn-2 l(.1 1r_,p_111 _.oy1el
La loi marginale de rr est :
fr(nl : îL-" n(n- 1l rn-z da avec a : Flz)
f 7r0r) : n (n - 1) (1 - r) rn'2 1to,r1 (n)
ll s'ensuit que n, qui représente la probabilité que X soit dans l'étendueobservée, suit une loi bêta F 6 - 1 ,2).
Soit alors ), € [0, 1]. ta probabilité P {r } y} : P (f) est ta probabilitépour que 1oo y o/o au moins de la population soit dans l'étendue observée (Xtrr Xtn/.
P(trln: fy f ,(tr) dr - 1 - n yn-1 + (n- 1) rn
P(yl:1-nyn-1 +(n-1Jy"On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre
d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de lapopulation soit dans l'étendue d'un échantillon observé.
1
_ i (xrr/
0
f (x(n/
28B PH, TASSI S. LEGAIT
Chapitre 10
Notions élémentaires sur les processus
_ Ce chapitre se propose de montrer comment le temps est introduit dans leséléments classiques du calcul er de la théorie des probabiliiés.
1 DEFINITION D'UN PROCESSUS ALEATOIRE
Soit (Q, ,4, P1 un espace probabilisé. On rappelle (cf. chapitre 3) qu.une varia_ble aléatoire X est une application définie sur (e, ,41, à valeurs dans un espacequelconque (o', -r/') oit ,,4'est la tribu des événements de e", X possédant lapropriété de mesurabilité ;
V A' e .4' x-1 1p-'l e ,slLa loi de probabirité de X est [image de p par X, notée px, définie par :
V A'€_ ,t4' px(A') : p(X-1 (A'))
1.1 Définition d'un processus
Soit (T, G7 un espace quelconque, G étant la tribu des événements de T.
Définition 1
On appelle processus aléatoire l'application X :
@, .vll x $, Gl - (a',,&,1qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t e rfixé, X, est une v.a. sur (Q, ,,4,p).
Par extension, on écrira un processus sous la forme d'une suite de v.a.indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant unegrandeur aléatoire varia'nt dans le temps.
Remarques
- U -Si ,o', ,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou
(lRn, g,nl, le processusx est réel ou multidimensionnel ;on dira plutôt univarié oumultivarié de dimension n ; si A' C Z le processus est à espace d,états discret.
PH. TASSI . S, LEGAIT 289
NOTIONS ELEMENTAIRES SUF LES PROCESSUS
2) Pour c.r € Q fixé, X, (ar) est la trajectoire de X pour l'individu ar,
3) Si T : lR. on parle de processus continu.
4) Si T : Z, on parle de processus discret, noté (Xt, leZ).
5) L'espace des indices T est fréquemment assimilé au temps, t étant I'instantd'observation de la v.a. X sur I'individu a.r. Mais T n'a pas forcément une valeurtemporelle ; ainsi X (r,r, t) peut être, par exemple, la concentration en uraniumd'une carotte rocheuse dans une exploitation en un point a-r et à la profondeur t.
Définition 2
On appelle loi du processus PX. loi image de P parVt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre guepondante extraite de P^.
1.2 Processus équivalent
Xla
; on en déduit que,loi marginale corres-
Définition 3
Soient deux processus X et X* admettant le même ensemble des temps T etmême espace d'états (A', .4'), définis respectivement sur @, .4, P) et (Q*,,.il*, p*|.
Ces deux processus seront dits équivalents si la relation R suivante :
P(Xtl € Br,...,X,n € BJ - p"(Xir e 8.,,...,Xin € Bn) (R)
est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et departies Br. ..., Bn extraites de ..n('.
Remarque
Un processus stochastique est une représentation mathématique d'un "sys-tème, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le"hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un trèsgrand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la
valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuellement avec n grand, pour être dans les conditions d'application des lois des grandsnombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'auphénomène étudié est associé une classe d'équivalence de processus plutôt qu'unproeessus. Le probabiliste aura donc la liberté de choisir dans une classe deprocessus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarcheest analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur desclasses de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. cha-pitre 3).
PH, TASSI S. LEGAIT
NOTIONS ELTMENTAIRES SUR LES PROCESSUS
2 PROCESSUS STATIONNAIRES
Dans l'étude des processus stochastiques, une place particulièrement impor-tante est tenue par les processus dont les lois de probabiiité présentent une inva-riance pour toute translation dans le temps (on considère ici que l,ensemble desindices qui caractérisent le processus est l'ensemble des temps). Cette propriétéd'invariance temporelle est couramment utilisée en économétrie, en théorie desfiltres, en analyse statistique des séries temporelles à I'aide de processus auto-régressifs- moyennes mobiles (ARMA).
2.1 Stationnarité stricte
Définition 4
Le processus réel (X,, t e r) est dit strictement stationnaire si, pourtout n-uple de temps tt < tzT, et pour tout temps h appartenant à T avec ti + h C T, Vi : 1, ..., n,la suite(X,,, * n, ..., Xtn * 5) a la même loi de probabilité que la suite (Xrt, ..., Xin)
px,t' ' *,n - p*r, + h' ,Xtn + h
Remarque
Puisqu'une distribution de probabilité est déterminée par sa fonction de répar-tition, la définition précédente est équivalente à : pour tous x1, x2, ..., xn, toustl,tz, ...,tn et tout h :
P (Xtr < "1,
...,X,n ( xn) : p (X,,,
En particulier pour n : 1 :
P(Xt<x) : P(Xtnr. (
* h ( x1, ..., Xtn* r,
( xn)
En effet, d'après la définition 4,pour toutchoixd'événementsA,,..., An, on a:
P(Xr1 €A1,...,X,ne An) : p(*,1 *n € A,'...,Xtn*5 e An)
ll suffit de prendre A, : J- *, x,[.
PH. TASSI - S. LEGAIT
x),Vh€T
NOTIONS ELEMENTAIRES SUR LES PI]OCESSUS
Théorème 1
Si{Xfl t € T) (avec T : lR, lN ou Z) est stationnaire, alors on a en particulier:
(i) E(X,) :m Yt€T(ii) Var {X,) : o2 Vt € T
(iii) Cov (X,, Xr) : r (lt - sl) V (t, s) € T'?.
Démonstration
(i) et (ii) sont évidents ; (iii) Ccv (X,. Xr) existe si e (X'?,) et E tx'?.) { - d'aprèsl'inégalité de Schwarz :
lE (xrxs)l < 1e 1x]))"' 1e 1x!))"'
D'après la définition, il est clair qu'en prenant deux temps t et s, et h untemBs quelconque de T :
Cov(Xrnh,Xr*6) : Cov(Xt, Xs) Vh € T
Notons / (t, s) cette covariance :
f (t. s) : Cov (Xr _ s, Xd en posant h : -s: Cov (Xo, Xs_t) en posant h : - t
Donc la covariance ne dépend que de la valeur absolue de la différence destemps et de la loi de Xo ; dans ce cas, on notera cette covariance f (lt - sl ).
Ces propriétés conduisent à une définition plus faible du concept de station-narité.
2.2 Stationnarité faible
Définition 5
Le processus (X,, t € T) est dit faiblement stationnaire ou stationnaire audeuxième ordre s'il satisfait aux propriétés suivantes :
E(X,) : m Yt € T
Var (Xr) : o2 Vt € T
Cov (X,, X, u 6) : r (h) V (t. h) € T'z
Définition 6
;r {hr} porte ie norn de fonction d'autocovariance eiu processus.
292 PH TASSI S. LFGA]T
NOTIONS ELEMENTAIÊES SUR tES PROCESSUS
La condition de stationnarité au deuxième ordre est plus faible que la condi-tion de stationnarité (stricte). Cette stationnarité faible est très souvent utilisée enéconomie. Par abus de langage. nous appellerons par la suite série stationnaireune série temporelle stationnaire au sens faible; il convient de remarquer qu,im-poser l'espérance et la fonction d'autocovariance indépendantes de t est une condi-tion très difficile à remplir dans la réalité des séries économiques. Néanmoins, ainsique nous le verrons par la suite, les processus stationnaires présentent un grandnombre d'avantages. L'une des préoccupations du statisticien sera donc de usta-tionnariser, les séries dont il dispose.
Propriété 1
f (h) est une fonction paire.
Soitt* : t+h
r (h) : Cov (Xr Xt * 1.,) : Cov (Xt* _ h, Xt*)
: Cov (Xt_, Xr* _ n) : y (- h)
2.3 Remarques diverses sur la stationnarité
a) Exemple de processus non stationnaire
considérons le processus X, : at + b + r- où la suite des e. est indéoendanteet identiquement distribuée (i.i.d.)'d'espérance riulle et de varianc'e ar. Le processusX, n'est pas faiblement stationnaire car :
E(X,) : at+bPour le "stationnarisero, considérons maintenant le processus *différence
premièreo Y, :
Yr: Xr-X,_, : a*tr-€t_lE (Yr) : a pour tout t
Var(Y,) : var(er-st_1) : var(c,) +var(st _1) = 2o2
d'après les hypothèses sur rt.
cov(Y'' Y'*n) : Il,:;;;1.;:*:-::]l ,,*h *,,_, 6,_,*6)
- *E(rr r,_1+fl - E(er_,, er*n)
d'après les hypothèses sur rr.
PH TASSI . S. LEGAIT
NOTIONS ELEMENTAIRES SUR LES PROCESSUS
Le processus (Y,) est donc faiblement stationnaire.
b) Processus stationnaire
ll est fréquent d'assimiler la notion de processus stationnaire à celle de pro-cessus maîtrisable. régulier, "sympathiquen. ll n'en est rien, et les trois exemplessuivants sont à retenir :
Exemple I
Soit le processus X, à valeurs sur {- 1, + 1}, tel que :
1P(Xt: 1) : P(Xt -- 1) :;, pourtoutt.
Ona:E(X*) : o
1^1V(Xt) :(-1f.
z*lf . t -1et pour h*O:
y(h) : E(Xr Xt*6) : 1 + -2î11
Le graphe du processus est, par exemple :
?-+-1
Cov (Y,, Y, * n) :
( -o"^si h: -1| -o'si h : 1
{ o si h€ z-(-1,0, 1)
-o11- +1. -44
,tlrrlr1i\
294 PH. TASSI . S. LEGAIT
NOTIONS ELEMENTAIRES SUR LES PROCESSUS
La meilleure prévision de X, par une constante est E (X,) : o (cf. chapitre 5),qui n'appartient pas à l'espace des valeurs de X,; le processus X, est bien station-naire, mais oimprévisible> au sens propre du ternie.
Exemple 2
on corrsidère le processus X, eui, à la date t (T € lN - {o}), prend les valeurs :
I O avec la probabilité 1 - 1/t
*, : I tï avec la Probabilité +t I - .,Æ avec ta probabitité +
- t/l tftE(X.) : + -0'2t21V(Xt) : E(X? : ;t: + j. : t2t 2t
Cov (X,, X,) : E (Xr Xr,)
o
- y\ Jl' avec la probabilité -]-2tt'
v\ v\' avec la probabilité -:-2tt'
X, X,, :
d'où E (X, X,.) : O.
X, est donc stationnaire au sens faible.
PH. TASSI S. LEGAIT 295
NOTIONS ELEl\IENTAIBES SUR LES PROCESSUS
Plus t augmente. plus X, prend des valeurs nulies sauf, avec une probabilité
de plus en plus faible, des valeurs t Vt qui tendent vers I'infini. Le processus X,est stationnaire, et pourtant est susceptible d'engendrer des points oaberrants,.
Exemple 3
Soient les processus X, : €t et Yr : (- 1)t er où e, est un processus
stationnaire, E (€t) : O, V ltr) : o", E (e, e,.) : 0.
S, : X, + Y, est tel que :
I
^ |2r, sitestpaira5.:(t i o sinon
\
o E(S,) : O
I
I q o' si r est pairr V(S,) :
{
( O si t est impair
S, est non stationnaire ; la somme de deux séries stationnaires n'a doncaucune raison d'être stationnaire.
3 CORRELATION ET CORRELOGRAMME
3.1 Le coefficient d'autoccrrélation
Définition 7
Soit le processus (Xt, t C T) ; on appelle coefficient d'autocorrélation pour les
temps t et s, la valeur :
Cov (X' X")ut\..Al -' ' I s' lv (xr)lt" lv (xr)1"'
Si le processus est faiblement stationnaire, p lXt, X, o r,) est défini pour lestempstett+hpar:
p(h) :p(XrXt-n) :+I V (Xt)1"' 1V (X1 * 6)1"'
296 PH, TASS] - S. LFGAIT
NOTIONS ELEMENTAIFES SUR LES PROCESSUS
et, puisque V (Xr) : V (X, * 6) :
p{h) :
p(n) :
b ez)
T-hZ- (xt-xr) (x,*h-xT)
ï:l
-"2- Xr)
r(0):
r (h)
r (0)
Propriété du coefficient d'autocorrélation
Si le processus est faiblement stationnaire, alors. puisque y (h) est une fonc-tion paire :
p(h) : p(-h)
Pour les calculs effectifs, p (h) est estimé de la façon suivante ; si l'on disposedes observations (xr, ..., xr) du processus, on estime p (h) par :
Z) l'applicationnction s'appellepropriété précé-
X" "', X, * t' on..., X, * p) (donc
I
I
I
)
(xt, t €cette fotu de la
= tN.
notées; de (X.
' P (t't
i
i.... p il )
"'... 1
Définition 8
On appelle fonction d'autocorrélation d'un processus ()Z * l- 1, + 1l définie par h * p (h). Le graphe de cl'a utocorrélogra m me (ou corrélogramme). Compte ten(dente, le corrélogramme est en général tracé pour h eSoient alors (k + 1) valeurs successives du processus, r
appelle matrice de Toeplitz la matrice des autocorrélationssymétrique):
a 1. p(1t.t'...| '...I P(t) """'l:t:t:i:\.- p ik) .. .. p (1i""
Tt (x,
+- 1i- I
T4t
297PI-1, TASSI - S. TEGAIT
NOTIONS ETEMENTAIFES SUR LES PROCESSUS
3.2 Exemples de corrélogramrnes
L'examen purement descriptif du corrélogramme fournit souvent d'intéressantsrenseignements quant au processus étudié.
Examinons quelques cas, la pratique montrant qu'existent des formes relati-vement standard.
Exemple 1
L'autocorrélation devient rapidement "statistiquement> nulle, puisque seulsp (1) et p (2) sont différents de zéro. (Les droites horizontales représentent les limitesde la région d'acceptation de I'hypothèse (Hj p (h) : 0 : si â(rr) est entre ces deuxlimites, on accepte Ho.) lci seuls p (1) et p (2) sont significativement différents de
zéro, p (1].- O,lZ et p 12):0,38 ; bien sûr p (O) : 1, ce qui n'apporte aucuneinformation. X, est donc corrélé linéairement avec X, _ ,l et avec X, _ 2 ; aucuneautre observation du passé du processus n'est liée de façon linéaire à X,.
Exernple 2
Dans cet exemple. p (h) décroît lenternent vers zéro. On verra plus loin quec'est une caractéristique des séries non stationnaires. ll s'agit ici du corrélogrammede:
où eo -) N (0,1).
298
4a...a a aaaa....
a. aa aaaaaaaaa.taaa a.a.a
O)æF(otf)+cY)
N
o.Ncr)+r.c)
(of-æO)
I
Xr: at+b+st
PI_i.TASSI S LEGAIT
NOTIONS ELEMENTAIFES SUR LES PROCESSUS
Exemple 3
NOIIONS ELEMENTAIRES SUR LES PROCESSUS
Le processus représenté est :
7TT 7TTX, : 0,51+5+4 (3sin 6 -cos
-)+e,s, -) N (O,2)
Exemple 4
Les corrélations p (h) sont toutes nulles, sauf p (12) et p (241; X, est donccorrélé avec Xr_ 12 et Xt ,o. Ceci laisse présager une saisonnalité de période 12(saisonnalité annuelle si X, est une observation mensuelle). Pour une série trimes-trielle, on aurait p (4) - O.
ll semblerait donc suffisant d'extraire la saisonnalité pour obtenir une sériestationnaire, en étudiant la série X, - X, _ , r.
Exemple 5
La série analysée présente là encore un phénomène saisonnier de période12, mais également un grand nombre de corrélations non nulles hors des picssaisonniers. Le processus est a priori non stationnaire et saisonnier. Le corrélogrammeest celui de la série représentée ci-après. qui est le trafic aérien des lignes exté-rieures. graphe dont le simple examen révèle la non-stationnarisation (tendance detype exponentiel) et la saisonnalité (pics et creux réguliers) ; remarquons que cettesaisonnalité se déforme.
o)æF(o|r)stcf)(\
oC\,1
cf)<trf)(oFcoo)
I
PH. TASSI S. LEGAII
NOI]ONS ELEMENTAIRES SUR LES PROCESSUS
ar"a a.a aaa aaaa a.a
a
n
al
I
/\ AA /\ A r{, ,[,
|{
1963 1964 1965 't966 1967 1968 1969 1970
301PH TASSI- S. LFGAIT
NOTIONS ELEMENTAIFES SUF LES PFOCESSUS
4 FONCTION D'AUTOCORRELATION PARTIELLE
4.1 Définition générale
Donnons tout d'abord une définition générale. Soient deux v.a.r. Y., et Yr, et nv.a.r. Zr, ...,2n admettant toutes des variances finies. On note Y] (i : 1,21 la
régression de Y, sur les variables 2.,, ...,Zn, 1 (régression affine, avec termeconsta nt).
On appelle corrélation partielle de Y, et Yrpar rapport à2r, ..., Zn le coeffi-cient de corrélation linéaire entre les parties de Y, et Y, non "expliquéesn par Y{ etY), soit :
Cov (Y., - Yi. Y, - Yà)PY.,Yr/2.,,...,2n: m
Par exemple. pour trois v.a. Y,, Y, et Y.. on trouve le classique coefficient decorrélation partielle de la statistique descriptive :
Ptz- Pts PzzP'rzts : r.--..-.-2: r:--_2_Vl-Prs \/t-Qzs
4.2 Le théorème de Frisch et Waugh
Nous énonçons maintenant sans démonstration un théorème fort utilisé enéconométrie.
Théorème 2
Le coefficient de corrélation partielle de Y, et Y, par rapport à2.,, ..., Zn n'estautre que le coefficient de Y. dans la régression affine de Y., sur 21, ...,2n,Y2.
Plaçons-nous alors dans le cadre d'un processus (Xt, t e Z) réel, stationnaire,du second ordre.
Définition 9
Soit la séquence X,, n, X, h + 1. ...,X, extraite du processus (X,, t e 7Z).On
notera, comme précédemment, Xi et Xi _ n les régressions affines de X, etXr nsurXr_h+ 1, ..., Xt-t.
302 PH. TASSI S. LEGAIT
NOTIONS ELEMENTAIRES SUR LFS PROCESSUS
On appelle coefficient d'autocorrélation partielle d'ordre h du processus lacorrélation partielle de X, et X,_n par rapport à X,_,, ..., X,_n*,, soit :
r(h) : P*,, x, -h/xt-1 ....,Xt-h+1
_ Cov(X,-Xi, X,_n-Xi_n)
Le processus étant stationnaire, on a :
r(h) : Cov (X, - Xi, X, _ r, - X*t _ r,)
v (xt - xi)
En vertu du théorème 2 de Frisch et waugh, r (h) est donc le coefficient deXr_n dans la régression affine de X, sur X, _ .,, ..., X, _ ,.,
:
Ona:an: r(h).
4.3 Système de détermination de r (h)
Soit le processus X, et sa régression (l ) :
hXr: âo a, Xr_, + e,
Vj :1àh: r:rh
E(xr.xr_j) : a0 E(Xt_,) *,I1 u, E(xt_i.xt_j)
hE(Xt).E(Xt_i) : [ao *,],, a, E(X,_i)l E(Xr_j)
On en déduit:hyU): cov(X,,X,_j) :
i]t ", y(_l
PH TASSI - S. LEGAIT
D'où. en divisant par y (Ol, on obtienr les équations (2) :
(21 P{j) : ! a,e(i_j) (.i :1àh)i:1
Les équations (2) peuvent s'écrire matriciellement :
f rrrr \ ( 1 p(t p(h- 1ù G,\tlllllittttI I I p(1t I I I
(3) I . i:l : : ll-llllll:l| | i p(1) I I itlt\rir't 7 \ot'-tt ptlt 1 ) ttan s'obtient dorrc. une fois calculé le corrélogramme, à partir d'un système linéairede h équations à h inconnues.
4.4 Un exemple
Soit ie processLts déflni par l'équation de régression :
Xr: 0,5 X, _ r - 0.25 Xr _ 2+ €t
avec par exemple, r, -) N (0,1). (C'est ce qu'on appellera un processus autoré-gressif d'ordre 2.)
D'après l'équation, r (21 : -A,25; en outre, en écrivant le système(3) pourh : "l . on obtient le résultat général :
p(1):(1).r(1)p(1) : r(1)
ll ne reste donc plus qu'à calculer I'estimation de p (1 ) pour connaître r (1 ), cequi peut être fait sans difficulté à partir des observations du processus"
NOTIONS ELEMENTAIFES SUR LES PFOCESSUS
5 LES OPERATEURS B ET F
Ce paragraphe a pour objet de définir des êtres mathérnatiques dont nousferons un usage fréquent dans le chapitre 1 1
304 PH TASSI - S, TEGAIT
NOTIONS ETEMENTA]RES SUR LES PROCFSSUS
Soit (X,, t € Zl un processus.
On appelle opérateur oretard, (ou nbackwardn) l'opérateur B qui, à X. associeBX, : Ir,l. On appelle opérateur (avance> (ou oforwardo) I'opérateur F qui, à X'associe FX. : X,*,.
ces opérateurs B et F peuvent opérer sur autre chose que des séries tempo-relles: ainsi, si Pn (x) est un polynôme de degré n en la variable réelle x:
BPn(x) : Pn(x- 1) et Fpn(x) : pn(x+ 1)
on peut définir également, à partir des opérateurs de décalage B et F, lesopérateurs "différence premièreo :
V: l-B (nnabla,)
A: F-l ("delta")
(l représentant l'opérateur neutre : lX, : Xr).
VX, : Xt-Xt_t
AX, : Xt*t -Xt
Ces opérateurs permettent de générer tous les opérateurs Vd, Ad ( d e lN),dont l'expression s'obtient par la formule du binôme :
Vd: t-clB+...+ {-1)d ad
La puissance d'ordre k de B ou de F n'est autre que l'opérateur de décalageopérant k fois :
BkX, : X, n
Fk X, : Xr-P
ll est évident que :
BF:FB:In*1
-o -FF-1:B
On peut remarquer que les opérateurs V et A opérant sur un polynôme p^ (x)de la variable x de degré n réduisent le degré du polynôme : Vp^ (x)et Ap_ (xlsbntdes polynômes en x de degré n - 1 ; Vk et ak transforment un [orynôme'Èn {*) enun polynôme de degré n - k si n ) k, en 0 si n < k.
PH TASSI S. LEGAIT 305
NOTIONS ELEMFNTAIRES SUR LES PROCESSUS
Enfin, il est possible de donner un sens au développement en série de laquantité:
1
1-iB1
1ou-silÀl <11-ÀF
:1+ ^B+^,
B"+...
=1+^F+^'F"+...
1-.ÀB
1
1-ÀF
PH. TASSI - S. LEGAIT
Chapitre 1 1
Exemples de processus
ll existe dans la littérature probabiliste un grand nombre de processus, cer-tains d'entre eux étant adaptés à une situation bien définie. comme les processusétudiant l'évolution d'une population. Sans prétendre à l'exhaustivité. ce chapitre apour principal objectif la présentation de quelques processus probabilistes impor-tants dans l'analyse statistique des séries temporelles.
Pour mémoire, le processus le plus simple consiste en la donnée d'une suitedev,.a,!X,, \e Zltelteque E{Xt) : OgtV_(X.l : o",Cov (X,. X1*6) = Opourroutt et h. Un tel processus porte le hom de bruit 6lanc.
1 LE PROCESSUS DE POISSON
1.1 Les processus à accroissements indépendants
Définition 1
Le processus (X,, t € T) est dit à accroissements indépendants si pour toutn-uple de temps t., { t, ... a tn les v.a.r. Xr,, Xr, - Xtl X,n - X,n_' sontindépendantes.
Définition 2
Le processus (X,, t € T) est dit à accroissements indépendants stationnairessi, de plus, la loi-de Xt*h - Xt, h € T, ne dépend pas de t.
Remargue
Pour de tels processus, on peut montrer à partir de la fonction caractéristiqueQx\ *,n (u,, ..., un) de (X,,, .... Xrn) que la loi du n-uple de v.a.r. est parfaitement
déterminée si I'on connaît les lois de X, et X, - X..
Un bruit blanc est, de façon évidente, un processus stationnaire à accroisse-ments indépendants stationnaires.
PH. TASSI . S. LEGAIT 307
EXËMPLES DE PÊOCESSUS
1.2 Le processus de Poisson
a) Définition et hypothèses
Soit un processus (X-, t € lR) à temps continu et espace d'états discrets (parexemple,()'C lN), que l'oh supposera être un processus de dénombrement ou decomptage car, un événement étant choisi. il comptabilise le nombre (aléatoire) deréalisations de cet événement dans l'intervalle de temps [0, t[. Ainsi X, Fourracompter le nombre de voitures passant devant un observateur durant un intervalle[0, t[, ou bien le nombre de clients entrant dans un magasin, etc.
On fait les hypothèses suivantes :
r H1 : Le processus (X,) est à accroissements indépendants: Vto, .... tn € lR,
to(t1v.a. indépendantes.
o H2 : Le processus (X,) est homogène : Vt, t' (t > t'), X, - X, ne dépend quedet-t'etnondetett'.
o H3 : La probabilité P (dt) pour qu'un événement se réalise entre t et t + dtest :
P (dt) : ndr + o (dt) (À > o; tim j9 : oldr -o dt
o H4 La probabilité pour que 2 événements ou plus se produisent entre t ett + dt est négligeable à l'ordre 1 en dt.
b) Loi du processus
Soit pn (t) : P (Xt : n) ; à l'ordre 1, on peut écrire :
pn (t + dt) : pn (r) (1 - ^
dt) + pn_r (r) . .Àdt
pn(t+dt) - pn(t) _ _dr ipn(t) + ÀPn-1 (t)
En faisant dt * O :
(1) P',n (r) : - i Pn (r) + ,1pn*, (t)
D'autre part, on a à I'origine
po (t + dt) : po (t) (1 - ,À dt)
p;(t):-ipo(t)
po(t) : e-i' car. pn(O) : o Vn € lN.
308 PH. TASSI - S. LEGAIT
EXEMPLES DE PROCESSUS
Posons Qn (t) = "it Fn (t). L'équation différentielle (1) devient :
(2| q'n(r) : Àqn_, (t) Yn à 1
ll s'ensuit ;
qi(t) : À + qr(t) :it
q, (t) : i qr (t) + Qe (t) : ('1t)'
2
Q'n(t) : iqn-, (t) e qn(r) :-_]41)nnl
et donc :
(3) P (Xt : n) : s-it !+n!
X, suit une loi de Poisson de paramètre .Àt.
c) Lien avec le temps d'attente
soit T la v.a. représentant le temps d'attente du prochain événement, lors-qu'on est à la date t.
P(T>s) : P(X": O) : s-'1s (s>O)
d'où: P(T<s) : 1-e-it.T est donc une v.a. de densité
^ e-isl r- (s), soit T -) f ,1,
À).
Soit alors (Tn), n )- 1 , la suite de variables aléatoires telle que Tn est le tempss'écoulant entre la réalisation des événements n et n + 1. une origine o étantchoisie. notant ti la date de l'événement i. on â Tn : t6a1 - tn.
on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépen-dantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1.
Remargue
Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:
Sk : To*... +Tk-r
La loi de Sn est donc une loi gamma y (k, ^1.
PH. TASSI - S. LEGAIT 309
EXEMPLÊS DE PROCESSUS
2 LES PROCESSUS DE VIE ET DE MORT
lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvantsubir des événements de type "naissance". entrée dans le système, ou "mort,. sortiedu système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre deojobs, en attente dans un système informatique, l'évolution démographique d'unezone géographique peuvent être de bons exemples d'une telle modélisation.
Soit donc un processus (Xfl t € lR) à temps continu et espace d'états discret.On fait les hypothèses suivantes:
o H1 : (Xr) est à accroissements indépendants.
c H2 : On appelle "événementu soit une naissance. soit une mort. Le systèmeétant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort)survienne entre t et t + dt est i n dt (resp. pn dt).
o H3 : La probabilité pour que surviennent deux événements ou plus entre tet t + dt est un o (dt).
Modélisation
Posons pn(t) : P(Xt: n) ;pourn21,ona:pn(t+dt) : pn(t) (1 -,^ndt) (1 -gndt)
* Pn-, (t) in-, dt (1 -gn-1 dt)
* Pn+r (t) /n+1 dt (1 - in*1 dt)
En supprimant les termes d'ordre 2 et plus en dt, et en procédant commepour l'équation fondamentale du processus de Poisson, on trouve :
p'(t) : -(in+gn)pn(t)+Àn_l pn_1 (t) * !n+.r on*,(t) (n ) 1)
A l'origine :
po(t+dt) : po(t) (1 -iodt)(1 -Podt) + pl (t) g1 dt
d'où : p; (t) : - io po (t) + p, p, (t)
Enfin :
on (O) : 1 si Xo - n, Pn (O) : 0 sinon.
En résumé :
p;(t) : -(in*//J pn(t) + in_, pn_1 (t) * /n+r pnr (t) (n ) 1)
p; (t) : - io Fo (t) + p, p, (r)
on (0) : î[xo: n]
310 PH. TASSI - S. LEGAIT
EXEIVPLES DE PROCESSUS
Remarque
Les cas les plus fréquents sont les suivants : ' ' t)
" in : ,À : naissance au taux i (souvent Ào : 0)
r in : ni : naissance au taux i par individu présent dans re système. Fn g : mort au taux U Uto : O)
. Un : n/_/ : mort au tauxg par individu présent.
3 LE MOUVEMENT BROWNIEN
Le processus (X,, t € lR+) est dit brownien ou de Wiener_Lévy si :
(i) le processus est initialisé en t: O
p(Xo: O) : l(ii) le processus est à accroissements indépendants stationnaires(iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une roinormale d'espérance nulle et de variànce br lt _ s1 :
X, - X. -> N (0, a r,4:SP (Xt - X, € A) : ;#6-J Oe-
*'t2o'(t -,)dx
4 LES PROCESSUS AUTOREGRESSIFS
. Dans cette partie, on ne considérera que des processus réers discrets dudeuxième ordre.
4.1 Définition
soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p, notéX, -) AR (p), si :
pX, : .r- gi Xt-i+ tr- i:1
PH, TASSI - S, LEGAIT
EXEMPLES DE PROCESSUS
cr est un bruit blanc :
E(st) :O,V(e,) :02, E(e,e,.) :O (T+t'l
Remarques
a) En faisant intervenir l'opérateur B, on peut écrire :
(-Qt B-...-9oBo) X,: t,.soit<D(B) Xr: ttavec le polynôme :
<D1e; = l-9', B QrB'de degré p.
b) Sous sa forme la plus générale, un processus AR (p) peut contenir un termeconstant do:
pX. : do *
,Z-, 'tXt-i+ Et
c) Supposons E (X,) : m, constante Vt. Alors, m vérifie :
pm(1 - I e,l:A
l:l
psi 1+
i:1ô {z) (ce que nous supposerons par la suite), m : O.
4"2 Etude du modèle AR (p)
a) Inversibilité du processus AR (p)
Soit <D (71 : I - e,,7.... - çpZp le polynôme caractéristique du processusAR (p) ô (B)X,: e,.
Soient 2.,,"..,7p1es racines de <D (Z) dans C, et notons Zr, ...,Zr les r racines de
module supérieur à 1, Zr+1, ..., Zo les p-r racines de module inférieur à 1. (Notons
que le produit 2., ...2, : 1.1
On peut écrire :
elzy: ti rr-4i fi r-4ti:1 Li j:r+1 Lj
312 PH. TASSI S, TEGAIT
EXEMPLES DE PROCESSUS
Par analogie, on a :
<D1a; : ti (1 - t', fi lr--1ri:1 Zi j:r+1 Zj'
où 1 représente ici l'opérateur identité.
Soit :
o,qey :5f (t- 3, ",ô,(B) : fi rr-3ti:l li j:r+1 Zj'
@, (B) peut se transformer, en factorisant B, en :
Qr(B) : (- 1;P-r 3n-r fi )g -r,rlet donc:
j:r+1 lj '
vPx, : [(- 1)0-r fl . - z, Fp-' o,t (B) o;t (F)] €tj:r+1 '
avec :
pOo(F) : n f-Z;FIj:r+1
X, est donc une combinaison linéaire d'ordre infini des c, :
+oôXr: : Qi r,*i
l:-oo
On retrouve :
E(X,) : O Vt
Remarque importante
supposons,l: p, c'êst-à-dire que toutes les racines sont de module supérieurà 1, Xt : .Di' (S) e,. Alors, en décomposant en éléments simples, puis endéveloppant en série :
pb,=t
^^-L' i:l . B I
zi
pæBkX,: : b,(: . )e.' i:1 'k:O Z*, t
PH. TASSI - S. LEGA|T
EXEMPLES DE PROCFSSUS
oc F b'X.- : (> . )B*s,' k: O i:l Z\,
l- P b;x.-, k:O i:1 Z\ t-K
Soit: X,: i ^tiEr-it:(J
X, n'est donc fonction, dans ce cas, que des (e,) du passé ; on dit alors que le
processus X, est inversible. En outre, on a :
E (e, X,_n) : O (k > 1)
Le bruit stest orthogonal au passé Xr_.,, Xt_2, ...du processus. Dans l'équa-tion de définition de I'AR (p), e, est donc orthogonal au sous-espace de Hilbert
pengendré par (X,_.,, ..., X,,J; la relation X, :
iIf qi Xr_, + st est alors
l'équation de la régression de X, sur Xt_r, ...,X,_o (chapitre 5).
Exemple î
Soit X, le processus de Markov AR (1) défini par :
Xr: O,4 X,_1 * t,
Ô121 :1-O,42
Le polynôme a pour racine 2., : 2,5 supérieur à 1.
On peut écrire :
x, - 1-r-' 1-0,48 t
X, : (1 + 0,4 B + (0,412 82 + ...) st
X, : €, + O,4 et- 1 + ... + (0,4)k tr-k * ...
On a inversé le processus AR (1). On remarque par ailleurs que E (e, Xr-o) : O,
(k > 1), et que le bruit est non corrélé avec les observations passées du processus.
314 PH. TASSI - S, LEGAIT
EXEN/PLES DE PFOCESSUS
Exemple 2
Soit: X,: 2Xt_t + €t
(1 -28) X, : €,
v1^t - l--lt rt
Or, le développement de t 1ou
-11-,ÀB ' 1-,îF)n'adesensquesil',al < 1.
On peut écrire :
1 r _F1-28 F-2 2(1 _O,sFt
et donc :
X, : -0.5F (1 + O,S F + (O,S)2 F2 +...) e,
X, : -0,5 e,*r -(O,S). €t+2-... -(O,S)k €t*k_,..
X, s'exprime en fonction des vareurs à venir du bruit e, ; re processus n.est pasinversible.
Contrairement à I'exemple précédent. E (c, Xr_p) n,est pas nul :
E (e, X,_u) : - 1O,S)k o2et rr est corrélé avec le passé du processus.
Exemple 3
Soit le processus de yule AR (2) défini par ;
Xr: -1,5 Xr_1 + Xt_2 + rtO1a; : l+1,5 B-82
e1z1 = t + 1.5 z_22: (1 _ O,sz) (1 +22)Ona:
(1 -0.58) (1 +28) X,: e,
2B(1 -O,Uqt (1 +0,5F) X,:e,
PH. TASSI - S, LEGAIT315
(1 - 0,5 B) Xr
EXEMPLES DE PROCESSUS
0,5 F
-Ë^
1 + 0,5F ',
0,5 F (1 - 0,5 F +...+ (- l)k (0,5)k Fk + ...) €t
+oo
K LÎKK- |
avec :
D'où :
Or:
X,:
:
ûk:
,l
1-0,58
æ: (o.s/j:oco
k:l K'
(- t)k-1 (o,slk
r.I r Gk 6t*k
BI : d.t,k:1 K r+K
+ôo
.:^ (0,5)j €t*r_i)I:U
b) Stationnarité
Compte tenu de ce que nous venons de voir quant à la valeur de E (e, Xr_o).la stationnarité d'un AR (p) n'est pas toujours établie.
Ona:
V(Xt) : E(X'?r)
pE (e. X.) :L I
i:l
pE(Xt.( Z- 9, Xr_, + er))
l:l
p
.2- ç, E(Xt Xt_i) + E(e,X1l:l
p
i:1
e, E(e, Xr-J + E (s1)
Premier cas : Le processus est inversible, c'est-à-dire toutes les racines de tD (Z)
sontsupérieuresà 1 en module; alors E(e,Xr-) : O et E(erXr) : o2.
316 PH. TASSI . S. LEGAIT
FXEÀ.,1PLFS DE PROCESSUS
D'où :
pr(o) :
i:"1
pr(O) : r(o) r
l:l
r(0) : V(Xr) :
Y$!+s2
Qi Pfiil + q2
êp
1- > (p,p(ilt- I
V (X,) est indépendante de t : le processus est faiblement stationnaire.
Deuxième cas ; Les racines de <D {Z) ne sont pas toutes supérieures à 1 en module.
Nous nous contenterons d'énoncer le résultat : on peut toujours supposer queles racines du polynôme <D (z) sont de rnodule plus grand qu" i, en remplaçant leprocessus S (BlXt : €t par le processus o" {b} xf : a,. où ô* te) s.ôntilnt eÀrernpiaçant, cians s (B), les racines inférieures à 1 en nrodule par leur inverse, a,étant un nouveau bruit blanc.
e) Fonction d'autocarrélation partielle
Vh > p, on peut écrire:p
X_ TI ._4
gi Xr_i * 0.Xt_p_1 +..+0.X,_h + €r
avecE(er) :0, V{rr) : sn, E{er.X,_p} : Opourk:,! àh.C,estdoncl'équation de la régression de X, sur X,-r, ....X,*n et r (h), coefficient de X,_n, estnul.
Ceci est une caractéristique des AR (p) :
Vh > p r(h) : 0
d) Fonction d'autocorrélation
Pi xr i X, r, * et Xt-l-,
aiyh-ù
ei ph-ù
Vh > O:Xr. Xt-h : gi:'lp
r(h) : zi:'l
p=' p(h) I ,_I,
(4)
PH TASSI , S. LEGAIT
EXEMPLES DE PROCESSUS
On peut écrire les équations (4) sous forme matricielle pour h : 1 à p :
La relation matricielle
Exemple
Soit le processus :
xr
Ona:
1 p (1) ........ p (p - 1)
p(11 .
.
: p(1t
p(p-1) ......... plll 1
(5) s'appelle système de Yule-Walker.
: 0,5 X,_, - O,25 Xr_, + e,
p(3) = A1 pQl * e"p (1) : - 0,125
p(41 : A1 ppl + ezp (2) : -O,OS
(5)
1"
ipr
p
p
(;r) : [],, '.'1) (::,)P (11 : o,5 - o,25 P (1)
p (21 : o,5 p (1)- 0,25
D'où :
p (11 : 0,4 et p (2) : - 0,05.
Pour avoir p (3ll, p (4) etc.. on utilise les relations (4) :
etc.
3'1 B PH. TASSI . S. LEGAIT
EXEMPLES DE PFOCESSUS
c) Fonction d'autocovariance
Soit à calculer E (X, . X,_r,)
E (Xt. Xt_h) : E [(rt - 0., €t-., - ... - 9o e,_o)
(€t-6 - dr tt-h-., da t,-q-6)J
e Si h ) q : E(X,.X,_') : 0
c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo'
Le processus est donc stationnaire (au sens faible) et on en déduit la fonctiond'autocorrélation :
P(h) : O Vh ) q
-0,+0.0, +...+0 ep(h) :#si h(q.
1+01+ .*eZ
Le calcul de r (h) ne présente pas de particularité, et est exécuté selon lesystème décrit au chapitre 10.
ll résulte des calculs précédents qu'un processus moyenne mobile est toujoursstationnaire (au sens faible), ce qui n'était pas le cas pour un processus auto-régressif quelconque.
Conclusion
Le problème de l'identification d'un processus MA (q), c'est-à-dire la déter-mination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).
5.3 Remarque sur le lien entre AR et MA
La démonstration de l'inversibilité d'un AR et les exemples 1,2 et 3 du para-graphe 4 laissent apparaître une équivalence entre AR (p) et MA (oo). En pratique.on peut approximer au sens de la moyenne quadratique (donc dans Lr) un proces-susAR (p) par un MA d'ordre fini. Considérons, par exemple, un processusAR (1)défini par :
Xr:p X, ., * r,
E(€r) : O, V(e,) : o', Cov(e., er*n) :0 (h + O)
324 PH TASS1 S. LEGAIT
EXEMPLFS DE PROCESSUS
Par substitutions successives, il est clair que :
X, : €, + p €t_t +...+ pq tr_o * pe*t X,_.q*,
E,*, - ,!o
pi ,, jl, : p"e*" E (x1_q_1)
supposons que (X1 est faiblement stationnaire, centré, de variance v: E (X'zr)pour tout t (nous ne démontrerons pas la stationnarité d'un tel processus). L
Alors :
e (Xt - 9 ^ ri r,-j)" : p'q*' vj:o
et E(X,-Y,,')t -_ O quandq ----> +ôo, en notanty,,, : 9 ,t cr-,. La suitej:0 '[rde v.a. (Yr,o) converge donc en moyenne quadratique vers la v.a. Xr.
DH T^qst S IFCAIT
I
i
321
BIBLIOGRAPHIE
I REFERENCES CITEES DANS LE TEXTE
I 11 Z. BIRNBAUM (1948) : On random variables with comparable peakedness,Ann. Math. Statisr., 19, pp. 76-81.
I 2l H. DAVID (1981): Order staristics, Witey.
t 3l L. DEVROYE (1986): Non-uniform random variate generation, Springer-Verlag,New York.
t 4l B. GAREL (1982) : La distance de Prokhorov, rapport de recherche no 288,Université de Savoie et Laboratoire IMAG, Grenoble.
t 51 B. GNEDENKO (1943) : Sur la distribution limite du terme'maximum d'unesérie aléatoire, Ann. Marh,44, pp.423-453.
t 6l J.M. GROSBRAS (1987) : Méthodes statistiques des sondages, Economica.Paris.
I 7) L. de HAAN (1976) :Sample extremes: an elementary introduction, Statis-tica Neerlandica, 30, pp.161-172.
t 8l N. JOHNSON et S. KOTZ (1969, 1970) : Distriburions in statistics,Miffin et Wiley.
Houghton-
t 91 A. KAUFMANN (1968) :Méthodes et modèles de la recherche opération-nelle, Dunod, Paris.
t10l A. KOLMOGOROV (1933) : Sulla determinazione empirica di una tegge didistribuzione. Giorn. lnst. ltal. Attuari, 4, pp. 83-91.
t 1 1 I J.P, LECOUTRE et P. TASSI (1987) : Statistique non paramétrique et robustesse,Economica, Paris.
112l P. LEVY (1925) : Calcul des probabilités, Gauthier-Villars, Paris.
t1 3l E. LUKACS (1960) : Characteristic functions, Griffin, Londres.
[14] H. MANN et D. WHITNEY (1967) : On a rest of whether one of two randomvariables is stochastically larger than the other, Ann. Math. Statist., 18,pp. 50-60.
PH, TASSI - S. LFGAIT ,) 2.1
BIB LIOG RAPH IE
t15l R. von MISES (1935) : La disrribution de la ptus grande de n vateurs, inSelected Papers ll (Ann. Math. Soc.), pp.271-2g4.
t16l A. MONFORT (1980) : Cours de probabitités, Economica, paris.
l17l F' MOSTELLER (1946) :On some useful inefficient statistics, Ann. Math.Statist., 17, pp. 377 -4O8.
tlBl RAND coRPoRAT|oN (1955) :A miilion random digits with tooooo nor-mal deviates. The Free Press. Glencoe, lllinois.
t 191 G. SAPORTA (1978) : Théorie er méthodes de ta statistique, Technip, paris.
t20l P. TASSI (1985) : Méthodes statistiques, Economica. paris.
l21l W. WEIBULL (1951) : A statistical distribution function of wide appticabiliry,Journalof Applied Mechanics, 18.
II AUTRES REFERENCES GENERALES
J. BASS (1967) :Elémenrs de catcut des probabitités théorique et appliquée,Masson, Paris.
P. BILLINGSLEY (1968) : Convergence of probability measures, Wiley.
N. BOULEAU (1986): Probabilités de l'ingénieur, Hermann, paris.
P. BREMAUD (1984) : lntroduction aux probabitités, Springer-Vertag.
G. CALOT (1967) : Cours de catcut des probabitités, Dunod, paris.
G. CALOT (1971) : Exercices de cale ul des probabilités, Dunod, paris.
D' CARTON (1975) : Processus aléatoires utilisés en recherche opérationnelle,[Vlasson, Paris.
D. CORNUEL et P. DERREUMAUX (1976) :Calcul des probabilités. exercices cor-rigés et rappels de cours, Sirey, paris.
J.L. DOOB (1953) : Stochastic Processes, Witey.
M. corrRELL, c. DUHAMEL, v. GENoN-cATALor (1980) : Exercices de probabi-lités avec rappels de cours, Dia, Belin, paris.
W. FELLER (1966) : An introduction to probability theory and its applications, Wiley,New York.
T. FINE (1973) : Theories of probability. Academic press, New york.
P. HALMOS (1950) : Measure theory, Van Nostrand.
324 PH. TASSI . S. LEGAIT
BIB LIOG RAPH IE
P.L. HENNEOUIN et A. TORTRAT (196b) :Théorie des probabitirés er quetquesapplications, Masson, Paris.
A. JACOUARD (1974) : Les probabitités, pUF, Coil. Oue sais-je ?, paris.
B, de JEKHOWSKY (1977) : Eléments de statistique à t'usage des géologues,Technip, Paris.
A. KRIEF et s. LEVY (19721: calcul des probabilités, exercices, Hermann, paris.
M. LOEVE (1960) : Probability rheory, Van Nostrand.
M. METIVIER (1968) : Notions fondamentales de la théorie des probabilités, Dunod,Paris.
J. NEVEU (1964) : Bases mathématiques du calcul des probabilités, Masson, Paris.
PARTHASARATHY (1967) : Probabitity on metric spaces, Academic press.
J. PELLAUMAIL (1986) : Probabilirés, statistiques, f ites d'artente. Dunod, paris.
A. RENYI(1966) : Calculdes probabitités, Dunod, paris.
s. Ross (1987) : lnitiation aux probabilités, presses polytechniques romandes,Lausanne.
Y. ROZANOV (1975) : Processus aléatoires, Editions de Moscou.
A. TORTRAT (1971) :Calcul des probabilités et introduction aux processus aléa-toires, Masson, Paris.
K. VO KHAC (1984) :Théorie des probabitités, Eilipses, paris.
PH. TASSI - S, LEGAIT 325
TABLES NUMERIOUES
Les tables I à I sont reproduites avec I'aimable autorisation duCERESTA: lo, rue Bertin Poirée - 75001 Paris. Elles sont extraitesde I'Aide-mémoire pratique des techniques statistiques, qui constitueun numéro spécial du volume XXXIV de la Revue de statistigueappliquée, 1986.
Les tables I à I I sont extraites du livre Statistique non paramétriqueet robustesse, de Jean-Pierre l-ecoutre et Philippe Tassi, Economica,Paris, 1987.
PH. TASSI S. LEGAIT
TABLES NTJMEFIOTJES
Table no 1
FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE
cette table donne, pour u >- 0, la valeur p : F(u) de la fonction de répartition de la loinormale réduite telle que
P : Fttt) : f' L "-5 a,J--/2n
Pourr < 0: P: F(u) - I - F(-r).u 0,00 0,01 0.02 0,03 0,04 0.05 0.06 0,07 0.08 0,09
0,00,1n)0,30,4
0,50,60,70,80,9
1,0I,lt,21,3t,4
1,51,6I,'l1,81,9
2,02,1'\1Z,J2,4t<2,62,72,8)o3,03,1J.t113,4
1S3,63,73,83,9
0,50000,53980,57930,6 t 790,6554
0,69150,725'70,75800,788 I
0,8 l 59
.q,-q4!]0,86430,88490,90320,9192
0,93320,94520,95540,964 I0,97 l3
0,97720,98210,98610,98930,9918
0,99380,99530,99650,99740,9981
0,99870,9r030,gr3l0,9'520.9r66
0,9^770,9'940.9'89 l
0,9'2g i
0,9"52 |
0,50400,54380,58320,62170,6591
0,69500,72910,76 I I
0,79 I 00,8 186
0,84380,86650,88690,90490,9207
0,93450,94630,95640,96490,97 r9
0,97780,98260,98640,98e60,9920
0,99400,99550,99660,997 50,9982
0,99870,9r060,93340,9'530,9r68
0,9r780,9r950,93g00,9'3 |
0,9454
0,50800,54'780,58710,62550,6628
0,69850,73240,76420,79390,82t20,84610,86860,88880,90660,9222
0,93570,94'74ô s5710,96560,9726
0,97830,98300,98680,98980,9922
0,994 I0,99560,99670,997 60,9982
0,99870,9r l00,93360,9r550,9r6g
0,gr7g0,9r850,94000,9"330,9056
0,5 l 200,55 r70,59100,62930,6664
0,70 l90,73570,'76730,79670,8238
0,84850,87080,89070,90820,9236
0,93700,94840,95820,96640,9'732
0,97880,98340,98710,99010,9925
0,99430,99570,99680997'70,9983
0,99880,9r l30,9r390,9r570,9170
0,9r790,9r860,9'040,9'360,9'59
0,5 I 600,5 5 570,59480,633 I0,6700
0,70540,73890,77040,79950,8264
0,85080,87290,89250,90990,925 l
0,93820,94950,95910,967 l0,9738
0,97930,98380,98750,99040,9927
0,99450 qssq
0,99690,997'70,9984
0,99880,gr l60,9r400,9r590,9r71
0,9r900,9r860.90080,90390,9t59
0,5 I 990,55960,59870,63680,6736
0,70880,74220,77340,80230,8289
0,853 I
0,87 490,89440,91 l 50,9265
0,93940,95050,95990,96780,9744
0,97980,98420,98780,99060,9929
0,99460,99600,99700,99780,9984
0,99890,gr lga,91420,9r600,91'r'2
0,grg I
0,93970,9'120,914l0.9161
0,52390,56360,60260,64060,6772
0,71230,'t4540,7'7640,805 l0,8315
0 85540,87 700,89620,9r3l0,9279
0,94060.95 l50,96080,96860,9750
0,98030,98460,98810,99090,9.93 I
0,99480,996 I
0,99710,99'190,9985
0,99890,gr2l0.9r440,91610,9r73
0,g3g l0,9r970,90l50,94430.9'63
0,52790,56750,60640,64430,6808
4,7 t5'70,7 4860,77940.80780,8340
0,85 770,87900,89800,9t474,9292
0,94180,95250,96160,96930.97 56
0,98080,98500,98840,991 I
0,9932
0,99490,99620.99720,99790,9985
0,99890,9'240,9r460 q'6)0,9\7 4
0,9r920,9rgg0.9'l g
0.91460,9'64
0,53 l90,51t40,61030,64800,6844
0,71900,'7 5 t70,78230,8 1060,8365
0,85990,88 l00,89970,9t620,93060 s4)s0 s51s0,96250,96990,976 I
0,98120,98540,98870,99 r30,9934
0,995 I
0,99630.99730,99800,9986
0,99900,9r260,9r490,9r640.9r7 5
0,grg30,9rgg0,90220,9'490,9'66
0 5'l5a0,57530,6 l4l0,65170,6879
0,72240,75490,7 8520,8 l 330,83 89
0,862 l0,88300,901 5
0,9t770,93 r9
0,94410,95450,96330,97060,9767
0,98170,985 70,98900,99 I60,9936
0,99520,99640.997 40,998 I
0,9986
0,99900,gr2g0,9r500,9r650,9r76
0,93830,9'990,94250,91500.9067
N.B. l. La notation 0,9J03, par exemple, équivaut à 0,999032. Pour les valeurs de r > 3,99, on pourra utiliser I'approximation suivante (à l0-r près)
u)
F(u):t-e 2 (t--t 3 15 los\' urt7-x\' ;*,i- n* ,i)
PH IASSI S. LEGAIT 2to
TABLES NUMERIOUES
Table no 2
FRACTILES DE LA LOI NORMALE REDUITE
Cette table donne les valeurs absolues des fractiles, nr de la loi normale réduite tels que
î,P , -!'F1u,l: I +e--ldu:PJ__lztt
Pour P < 0,5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs.
Pour P > 0,5 (colonne de droite et ligne inférieure) les fractiles up sont positifs.
P 0.000 0.001 0.002 0.003 0.004 0,005 0,006 0,007 0,008 0,009 0,010
0,000,0 r
0,020,030,04
0,050,060,070,080,09
0, l00,1 I0, l20, l30,14
0,150, l60,1 7
0,r80, l90,200,21
0,220,230,24
0,2s0,260,270,280,29
2,32632,053'71,8808I,7 507
t,6M9I,5548I,4758I,405 Il,3408
I ,28 l6|,22651,1750|,1264I,0803
t,03640,99450,95420,91 540,8179
0,84160,80640,77220,73880,7063
0,67450,64330,61 28
0,s8280,5534
3,09022,29042,0335I,8663t,'t392
I,63521,5464I,4684I,3984|,3346
I,27 59t,2zlzI,t700I,t2t7I,0758
|,43220,99040,95020,91160,8742
0,83810,80300,76880,73560,7031
0,67130,64030,60980,57990,5505
2,87822,257 |2,01411,8522|,72'79
r,6258l,5382I ,461 II,39t7l,3285
t,2702I,2r60I,1650I ,l 170
l,0714
|,02790,98630,94630,90780,8705
0,83450,79950,76550,73230,6999
0,66820,63720,60680,57 690,5476
2,74'182,2262I,9954I,8384t,7 t69
|,6164l,530 r
I,4538l,38521,3225
1,2646|,2t07I , l60lI,l 123
l,0669
1,02374,98220,94240,90400,8669
0,83 10
0,796 l0,762t0,72900,6967
0,66510,63410,60380,57400,5446
2,65212,19731,977 41,8250l,7060
I,6012t5220t,4466t,3787I ,3165
I,259tI,20551,1 552|,1077I,0625
I ,0 194
0,97820,93850,90020,8633
0,82740,79260,75880,72570,6935
0,66200,631l0,60080,57100,5417
2,57 58
2,t7011,9600l,8ll9|,6954
l,5982l,5141I,4395|,37221,3 106
t,25361,2004I,1 503I,l03 lI,0581
l,01520,91410,93460,89650,8596
0,82390,78920,7 5540,72250,6903
0,65880,62800,59780,568 I
0,5388
z,5t2l2,1u4t,943tI,7991I,6849
I,5893I,50631,4325I,3658|,3047
I ,248 r
I,19521,1 455l,0985I,0537
I ,01 l00,970 I0,93070,89270,8560
0,82040,78580,7 5210,7 t920,6871
0,65570,62500,59480,565 l0.5359
2,45732,12011,9268l,7866I,67 47
l,5805l,49851,4255l,3595I,2988
|,2426I,l90lt,t407l,0939I,0494
l,00690,96610,92690,88900,8524
0,8 169
0,78240,74880,7 I 600,6840
0,65260,62t90.59 l 80,56220.5330
2,40892,0969I ,91 l0|,'77 44|,6646
l,5718I,4909I ,41 87
r,3532t,2930
t,2372l, I 8501,1 359r,0893I,0450
I,00270,962t09na0,88530,8488
0,8 l 340,77900,7 4540,7 t280,6808
0,64950,61 890,58880,55920.5302
2,36562,0749I,8957t,1624t,6546
I,5632l,4833l,4l l81,34691,2873
I,2319I,1 800l,l3 I Il,0848I,0407
0,99860,95810,91920,88 l60,8452
0,80990,1'7560,74210,70950,6176
0,64640,61 58
0,58580,55630.5273
2,32632,0537l,88081,7 507
|,6449
I,5548l,4758r,4051l,3408I ,28 l6I,2265I,1 750t,t2641,0803r,0364
0,99450,95420,91 544,87790,84 I 6
0,80640,'77220,73880,70630,67 45
0,64330,61280,5 8280 st140.5244
0,990,980,970,960,95
0,940,930,920,9 r
0,90
0,890,880,870,860,85
0,840,830,820,810,80
0,790,780,7'7
0,760,75
0,7 40,'t30,720,710,70
0,010 0,009 0.008 0,007 0,006 0,005 0,004 0,003 0.002 0,001 0,000 P
JJU PH TASSI S, LEGAIT
TABLES NUMERIOUES
Table no 2 (suite)
FRACTILES DE LA LOI NORMALE REDUITE
Grandes valeurs de u
P 0,000 0,001 0.002 0.003 0,004 0,005 0.006 0.007 0.008 0,009 0.010
0,300,310,320,330,34
0,350,360,370,380,39
0,400,410,420,430,44
0,450,460,470,480,49
0,52440,49590,467',l0,43990,4125
0,38530,35850,33 t 90,30550,2793
0,25330,22750,20190, I 7640,1510
0,125'10, I 0040,07530,05020.0251
0,52 I 5
0,49300,46490,43720,409'7
0,38260,3s580,32920,30290,2767
0,25080,22s00, l 9930, I 7380,1484
0,12310,09790,07280,04760,0226
0,5 1870,49020,46210,43440,4070
0,37990,35310,32660,30020,2741
0,24820,22240,19680,17130,1459
0, l 2060,09540,07020,04510,020 l
0,5 I 580,48'140,45930,43 l60,4043
0,37720,35050,32390,29760,2715
0,24560,2 198
0,t9420, I 6870,t434
0,1 l8 l0,09290,06770,04260,0175
0,51290,48450,45650,42890,40 l60,3'7450,34780,32 l30,29500,2689
0,24300,21'730,t9170,16620, I 408
0,1 156
0,09040,06520,040 l0,01 50
0,5 l0 l0,48170,45380,42610,3989
0,37 t90,34510,3 186
0,29240,2663
0,24040,21470,18910, l 6370, l 383
0,1 r300,08780,06270,03760.0125
0,50720,4'7890,45 l0a,42340,396 l0,36920,34250,3 160
0,28980,263't
0,23780,2t210, l 8660, l6l I0, I 358
0,1 105
0,08530,06020,03510.01 00
0,50440,476t0,44820,42070,3934
0,36650,33980,3 134
0,287 |0,261I
0,23530,20960, l 8400, l 5860,t332
0, I 0800,08280,05170,03260,0075
0,50 I 50,47330,44540,4t790,3907
0,36380,33720,3 107
0;?8450,2585
0,23270,20'100,l8l50, l 5600, I 307
0,10550,08030,05520,030 I0,0050
0,49870,47054,442'70,4t520,3880
0,361l0,33450,308 I0,28190,25s9
0,230 l0,20450, r 7890, I 5350,1282
0, I 0300,07780,05270,02'160,0025
0,49590,46770,43990,41250,3853
0,35850,33 l90,3055{27930,2533
0,22750,20 l 9
0,17640,1 5 10
0,1257
0,10040,07530,05020,025 l0,0000
0,65
0,640,630,620,6 r
0,60
0,590,580,570,560,55
0,540,530,520,510.50
0,690,680,670,66
0.010 0,009 0,008 0,007 0,006 0.005 0.004 0,003 0,002 0,00 r 0.000 P
P l0-" l0-5 l0 -o l0 -' l0 -Et 0-'q
uP 3.7 190 4,2649 4,1534 5. l 993 5,6 120 5,9978
PH, TASSI - S, LEGAIT 331
TABLFS NUMEBIOUES
Table no 3
LOI BINOMIALE - PROBABILITES CUMULEES
n c
t-.Probabilités cumulées Pr (& < c) : I Cl po (l - p)
t_0
p: l% P:2ol p:3% p:4% P: 5ok P : 60l p:'7% P:8% p :9% p : t09
5
I
2
34
0,95 l00,9990I
0,90390,9962I
0,8 5 87
0,99150,9997I
0,81530,98520,9994I
0,77380,97'7 40,9988I
0 Tttq0,96810,9980I
0,69510 q575
0,99690,9999I
0,659 I0,94560,99550,9998I
0,62404,93260,99370,999'7I
0,59050,91850,99t40,9995I
0
I
2
J
4
5
6
0,90440,99570,9999I
0,81710,983 8
0,999 I
I
0,73'740,96550,99720,9999I
0,66480,94180,99380,9996I
0,59870,9 r 39
0,98850,99900,9999
I
0,53860,88240,98 12
0,99800,9998
I
0,48400,84830,911 ,1
0,99640,9997
I
0,43440,8l2l0,9599o os4,0,9994
1
0,38940,77 460,94600,99120,9990
0,9999I
0,34860,73610,92980,98720,9984
0,9999I
l5
0
I
2J
4
5
6'1
0,860 l0,99040,9996I
0,73860,96470,99700,9998I
0,63 33
4,92700,99060,99920,9999
I
0,542t0,88090,97970,997 60,9998
l'
0,46330,82900,96380,99450,9984
I
0,39530,'77380,94290,98960,9986
0,9999l
0,33670,7 l 680,91 7 l0 sR2t0,9972
0,9997I
0,28630,65970,88700,97270,9950
0,99930,9999I
0,24300,60350,853 I0,960 I0,9918
0,99870,9999I
0,99780,9997I
0,20590,54900,8 r 594,94r'.5o sÂ71
20
0
I2
3
4
5
6
7
8
9
0,81790,983 I0,99901
0,66760,940 l0,99294,9994I
0,54380,88020,97900,99730,9997
I
0,41200,8 103
0,95610,99260,9990
0,9999I
0,35 850,735 8
0,924s0,98410,997 4
0,9997I
0,290 l0,66050,88500,97100,9944
0,99910,9999I
0,23420,58690,83900,95290,9893
0,99810,9997I
0, I 8870,5 169
0,78790,92940,981 7
0,99620,99940,9999I
0,15160,45 l60,13340,90070,97 l0
0.99320,99870,9998I
0,12160,39170,67690,86700,9568
0,98870,99760,99960,9999I
30
0
I)3
4
5
6
7
8
9
l0n
0,73970,96390,99670,99980,9999
I
0,54550,87940,97830,99710,9996
I
0,40 l00,7'7310,93990,98810,9982
0,9997I
0,29390,66t20,883 I0,96940 qs17
0,99890,9999I
0,2r460 5s1s
0,81220,93920,9844
0,99670,99940,9999I
0, I 5630,45550.73240,89740,9685
0,99210,99830,99970,9999I
0,1 1 340,36940,64880,84500,9447
0,983 8
0,99600,9992.0,9999I
0,08200,29580,56540,78420,9126
0,97070,99180,99800,99960,9999
I
0,05910,23430,485 5
0,717 5
0,8723
0,95 r 9
0,9848n ooss0,991 0
0,9998
I
0,04240, l 8370,41t40,647 40,8245
0,92680,91420 ss?)0,99800,9995
0,9999I
332 PH. TASS S LEGA]'I
TABLES NUMERIOUES
Table no 3 (suite)
LOI BINOMIALE - PROBABILITES CUMULEES
n
Probabilirés cumulées Pr (k < c) :
p: l% P:20Â P:30/o P : 40Â P: 5o/o P : 60/o P:70/o P:80/o P:9% l0 0t
40
0
I2
3
4
5
6
7
89
l0llt2l3
0,66900,93930,992s0,9993I
0,44570,80950,95430,99 r 8
0,9988
0,9999I
0,29570,661 5
0,88220,96860,9933
0,99880,9998I
0. l 9540,52 l 00,78550,92520,9790
0,99510,99900,9998I
0, I 2850,399 I0,67 670,86190,9520
0,986 I0,99660,99930,9999I
0,08420,29900,56650,78270,9104
0,969 I0,99090,99770,99950,9999
I
0,05490,22010,46250,69370,8546
0,94t90,980 l0,99420,99850,9997
0,9999I
0,03560, I 5940,36940,60070,7868
0,90330,96240,98730,99630,9990
0,9998I
0,02300,1 140
0,28940,50920,7 103
0,85350,936 l0,97580,99200,9976
0,99940,9999I
0,01480,08050,22280,42310,6290
0,79370,90050,958 l0.98450,9949
0,99850,99960,99991
50
0I2
3
4
5
6
7
8
9
l0llt2l3t4l5
0,60500,91060,98620,99840,9999
I
0,36420,735 8
0,92160,98220,9968
0,99950,9999I
0,2 I 8lo 5ss'l
0,8 l 060,93720,9832
0,99630,99930,9999I
0,12990,40050,67670,86090,95 l0
0,98560,99640,99920,9999I
0,0'7690,27940,54050,76040,8964
0,96220,98820,99680,99920,9998
I
0,04530, r 9000,41620,64730,8206
0,92240,971 l0,99060,99730,9993
0,9998I
4,02660,t2650,3 108
0,53270,7290
0,86500,94t70,97800,99270,9978
0,99940,9999I
0,01550,08270,22600,42530,6290
0,79190,898 I0,95620,98340,9944
0,99830,99950,9999I
0,00900,05320, r 6050,33030,527',|
0,70720,84040,9232t,96't20,9875
0,99570,99870,99960,9999I
0,00520,03380,1 I l70,25030,43t2
0,61610,77020,87790,94210,9755
0,99060,99680,99900,999'70,9999I
PH. TASSI S. LEGAIT ??2
TABLES NUMERIOUES
Table no 4
LOI DE POISSON PROBABILITES CUMULEES
(
Probabilités cumulées Pr (/< < c) - 'i' "-^ ^rÏ^ kt.
m-0,1 m-0.2 n-0,1 m-0,4 m-0,5 m-0,6 m_0,7 m-0,8 m-0,90It34
5
6
0,90480,99530,9998I
0,81870,98250,99880,9999I
0,74080,96310,99640,9997I
0,67030,93840,9920o,99920,9999
I
0,60650,90980,98560,99820,9998
I
0,54880,87810,97690,99660,9996
1
0,49660,84420,96590,99420,9992
0,9999I
0,44930,80880,95260;9e0e0,9986
0,9998I
0,40660,77250,93720,98660,9977
0,9997,l
c
Probabilités cumulées Pr (k < c) - 'i' "-^ ^*Ê" ft!
m-1,0 m-1,5 m-2,0 m-2,5 m-3,0 m-3,5 m-4,0 m-4,5 m-5,00I7
3
4
5
6
7
8
9
l0l1t2l3l4
l5l6
0,36790,73580,91970,98100,9963
0,99940,9999I
0,22310,55780,80880,93440,9814
0,99550,99910,9998I
0, I 3530,4060a,67670,85710,9473
0,98340,99550,99890,9998I
0,08210,28'tt0,54380,75't60,8912
0,95790,98580,99580,99890,9997
0,9999I
0,04980,199i0,42320,64720,8 r 53
0,91610,96650,988 1
0,99620,9989
0,99970,9999I
0,03020, l 3590,32080,53660,7254
0,85760,93474,97330,99010,9967
0,99900,99970,9999I
0,01830,09160,23810,43350,6288
0,78510,88930,94890,97860,9919
0,99720,9991099970,9999I
0,01l I0,06110,1 7360,14230,532 l
0,70290,831 1
0,91340,9s970,9829
0,99330,99't60,99920,99970,9999
I
0,0067O,MM0,12470,26500,4405
0,61600,76220,86660,93190,9682
0,98630,99450,99800,99930,9998
0,9999I
334 PH. TASSl - S. LEGAIT
TABLES NUMERIOUES
Table no 4 (suite)
LOI DE POISSON - PROBABILITES CUMULEES
Probabilités cumulées Pr (k < ,, : ti"u^
#
0,00010,00080,00420,01490,0403
0,08850,16490,26870,39180,521 8
0,64530,'15200,83640,898 I0,9400
0,96650,98230,991I0,99570,9980
0,99910,99960,99980,99991
0,00020,00190,00930,03010,0746
0,14960,25620,38560,52310,6530
0,'16140,84870,90910,94860,9726
0,98620,99t40,99700,99870,9995
0,99980,99991
0,00010,00120,00620,02120,0550
0,1 1 57
0,2068a32190,45570,5874
0,70600,80300,87580,92610,9585
0,97800,98890,99470,99760,9989
0,99960,99980,9999I
0,00030,00300,01380,04240,0996
0,l9l20,31340,45300,59250,7166
0,81590,888 I
0,91620,96580,9827
0,99180,99630,99840,99930,9997
0,9999I
0,00060,00470,02030,05910,1 32 1
0,24140,37820,52460,66200,7764
0,86220,92080,95730,97840,9897
0,99540,99800,99920,99970,9999
I
0,00090,00730,02960,08180, r730
0,30070,44970,59870,'12910,8305
0,90150,94660,97300,98720,9943
0,99760,99900,99960,9999I
0,00150,01130,04300,1 I l80,22!7
0,36900,52650,67280,79160,8774
0,93320,966 I0,98400,99290,9970
0,99880,99960,9998I
0,00410,02660,08840,201'70,3575
0,52890,68600,80950,90440,9462
0,97 470,98900,99550,9983o,9994
0,99980,9999I
0,00250,01740,06200,15 I 2
0,2851
0,44570,60630,74400,84720,9161
0,95'740,97990,99120,99640,9986
0,99950,9998I
I'l
3
4
5
67
8
9
llt213
l4
l5
t7l8l9
23
24
PH. TASSI - S. LEGAIT22Â
TABTES NUMERIOUES
Table no 4 (suite)
LOI DE POISSON - PROBABILITES CUMULEES
c
Probabilités cumulées Pr (k < ,) :'t u-^ 4io kt
m:10 m:ll m:12 m:13 m:!4 m:15 m:16 m:17 m:180
I2
34
5
6
7
I9
20
22
23
24
252627
2829
l0lltl
13
t4
l516
l7l8l9
303l32
33
34
3536
0,00050,00280,01040,0293
0,06710, l 3020,22430,33290,4580
0,583 l0,69680,79 I 6
0,86450,9 r 66
0,95 l30,97300,98570,99280,9965
0,99840,99930,999'7û,9999I
0,00020,00120,00490,0151
0,03750,07860,14320,23200,3405
0,45990 57S1
0,68870,78 I 3
0,8541
0,90750,94420,96790,98240,9908
0,99540,99780,99900,99960,9999
I
0,00010,00050,00230,0076
0,02030,04580,08950, I 5500,2424
0,34720,46160,57600,68 l60,7721
0,84450,89880,93710,96260,9787
0,98840,99390,99690,99850,9993
Q,99970,9999I
0,00020,00100,0037
0,01070,02590,05400,09970, I 658
0,25 l70,3s320,463 t
0,57300,6751
0,76360,83550,89050,9302c,9514
0,97510,98600,99250,99620,9982
0,99920,99970,9999I
0,00010,00050,001 8
0,00550,01420,03160,06200, l 093
0, l 7560,26000,35844,46440,5704
0,66930,75590,82720,88260,9235
0,952t0,97120,98330,99070,9950
0,99740,99870,99940,99970,9999
I
0,00020,0009
0,00280,00760,0 r 800,03740,0698
0,1 1 840, I 8470,26'760,36220,4656
0,56800,66400,7 487
0,81930,875 l
0,91690,94680,96720,98050,9888
0,99380,99670,99830,99920,9996
0,99980,9999I
0,00010,0004
0,00140,00400,0 100
0,02200,0433
0,077 40,t2700,19310,27450,3675
0,46670,56590,65930,7423a,8tzz
0,868 I0,91070,96t70,96330,917'7
0,98690,99260,99600,99790,9989
0,99950,99980,9999I
0,0002
0,00070,00210,00540,01260,026 l
0,04910,08470, l 3500,20090,2808
0,37 t40,46770,54400,65500,7363
0,80550,861 5
0,90480,93670,9593
0,97480,98480,99t20,99500,9973
0,99860,99930,99960,99980,9999
I
0,000 I
0,00030,00100,00290,00710,0154
0,03040,05490,09 r 7
0,t4260,2081
0,28670,37500,46860,56220,6509
0,73070,79910,855 I
0,89890,93 l3
0,95540,97 l80,9E270,98970,9941
0,99670,99820,99900,99950,9998
0,9999I
336 PH. TASSI . S. LEGAIT
TABLES NUMEFIOUES
Table no 5
FRACTILES DE LA LOI DE x'z(u)
N.8. Pour v > 30, on pourra utiliser I'approximation sulvante
xirvt:"(r-z*,,,f!*)'où t" est le fractile d'ordre P de la loi normale réduite'
PH. TASSi S. LEGAIT
29,6
31,332,934,536, I
37,'7
1q140,842,3
43,845,3
46,848,349,'7
51,252,6
54, I
s5 5
56,9sR159.'l
62,565,268,070,713.4
86,799,6
I 12,3
124,8t3'7,2t49.4
7,8810,612,8
14,9
t6,7
I 8,5
20,322,023,6)( t
26,828.3
5 r,0s) 1
t1 l56,359,06l ,664,266,8
79,592,0
t 04,2116,3
128,3
140,2
26,227,729, l30,6
32,033,434,836,23"1 ,6
38,940,3
6,619,21l r,313,3
I 5,1
16,818,5
20, I
21,'71L t
4l ,643,044,3
45,64',1 ,048,349,650,9
51 5
56, l
58,66t,263,7
'76,2
88,4100,4112,3
t24,1r 35.8
zl,923,324,126,1)? <
28.830,23 r,51?q34,2
1( S
5,02?1Rs 15
ll,lI 2,8
t4,416,017,5
19,0
20,5
36,838, I
39,440,6
4l ,91J,L
44,5
45,7
4'7,O
49.5
52,054,456,959,3'7 t,483,395,0
106,6I l8,lt29,6
2,114,61
6,257,789,24
10,6r 2,013,4
t4,7
35,636,'7
31 ,939, I
40,3
42,644,94'7,2
49.55l,863,27 4,485,596,6
107,6I18.5
2l ,022,4)2,1)5 0
26,32'7,6
28,930, I
31,4
7)'l
1R4
5,997,81
9,49I I,lt2,614, Irs 5
16,9
I 8,3
t9,1
11S'l{ )36.437,1
38,940, I
4l ,3
42,643,8
46,2
48,651,053,455,8
61 ,5'7 9,1
90,5101,9ll3.l124.3
3,494,t14,8'7
5,586,307,047,798,55
9,3110,I
0,0160,21 I
0,5841,06
I ,61
2,202.83
10,9
ll,7t2,4
t3,214,0
14,8
t5,116,5
t? 1
18, I
18,9
10,3
I 1,3
t2,313,3
14,3
15,3
16.3
17,3
18,3
19,3
20.3
0,455r,392,373,364,35
s 1s
6.357,148,349,34
)l 1
))723,324,3
)5 1
26,321 ,328,329,3
3 1.3
15 1
17 1
4,405,01
5,636,26
6,917,568,238,91ass
10,3
0,0010,0510,2r60,4840,831
|,241,69
2,r82,103,25
3,82
18,3
19,8
2t,322,924,4
32,440,548,8{1 t65,6
{ 11
5Rg6,57'7,26
't,96
8,679,3910, I
r 0,9
I 1,6
12,3
13, I
13.8
0,0040,1 030,3520,71 I
I,r5|,642,t12,131'111S4
4.51
r 4,6
15,416,2
16,9
t'7,'7
18,5
20,l2t,-l23,324,926,5
2,092,56
1051574,l l4,665,23
5,81
6,417,01
0,0200,1150,2910,554
0.8'721,24I,65
7,638,26
8,909,5410,210.9l1,5rl t
t2,913,614,3
oto0,0720,2010,412
0,6760,989
1,34l .73
|,2il,8r) 5
r 3,l13,8
15,I16,5
t'7,919,3)î'1
I,l5I,48
l,832,21
2,623,043,48
3,944,424,905,41
5,92
0,0120,0240,0910,2 l0
0,3810,5980,857
6,456,98? {18,088,65
9,229,8010,4I 1,0
I 1,6
12,814,I
I
2
3
45
6
1
8
9
t0
llt2l3t4l5
t6l'll8l920
2l22
23
2425
26
27
28
2930
32
343638
40
50
60708090
r00
aal
TABLES NUMERIOUES
Table no 6
FRACTILES DE LA LOI DE STUDENT
Cette table donne les valeurs des fractiles 1r(v) de la loi de Student pour P> 0,60.Pour fes valeurs P( 0,40, on a tp(v) : - t,, e(v).
y'V.8. Pour v > 40, on pourra utiliser I'approximarion suivante
tp(v)-ue*(u)r+u"\/4v
où ur est le fractile d'ordre Pde Ia loi normale réduite.
338
1Pv\ 0,60 0,70 0,80 0,90 0,95 0,975 0,990 0,995 0,999 0,9995
I2345
6789
l0llt2I3t4l5l6l'7l8l920
2t22232425
262'7282930
3234363840
5060708090
r00200500
0,3250,2890,2770,27 t0,267
0,2650,2630,2620,26t0,260
0,2600,2590,2590,2580,258
0,2580,2s70,2570,2570,257
0,2570,2560,2560,2560,256
0,2560,2s60,2560,2560,256
0,2560,2550,2550,2550,255
0,2550,2540,2540,2s40,254
0,2540,2540,2530,253
0,7270,6170,5840,5690,559
0,5530,5490,5460,5430,542
0,5400,5390,5380,53 7
0,536n 51t0,5340,5340,5330,533
0,s320,5320,5320,53 I
0,53 l
0,5310,5310,5300,5300,530
0,5300,5290,5290,5290,s29
0,5260,5250,5250.524
0,5280,5270,5270,s27a.526
I,3'16I ,0610,9780,9410,920
0,9060,8960,8890,8830,879
0,8760,8730,8700,8680,866
0,8650,8630,8620,8610,860
0,8590,8580,8580,8570,856
0,8560,8550,8550,8540,854
0,8530,8520,8520,8510,851
0,8490,8480,8470,8460.846
0,8450,8430,8420.842
,440,4t5,39'l,383-3tt
,078,886,638,533,416
,363,356,350,J45.341
11?
,333,330,328,325
,323,32t,3 r9,3 l8,3 l6
,315,3 l4,3 l3,31 I
.3 l0,309,307,306,304,303
,298,296,294,292,29t,290,286,283.282
5,3t42,9202,3 532,t322,015
1.9431,8951,860I,8331,812
t,7961,782t,77 tI,761I,753
|,746I,740t,7 34t,729I,725
I,72tt,7 t7t,7 14t,7l It,708
I,706I,703t,701t,699t,697
I,694r,691r,688t,6861,684
t,676t,67 I
t,667t,664t,662
t,660t,653t,648r.645
t2,714,3033,1 822,7762,571
2,4472,3652,3062,2622,228
2,20t2,t792,1602,t452,131
2,t202,1 l02,r012,0932,086
2,0802,0742,0692,0642,060
2,0562,0522,0482,0452.042
2,03'12,0322,0282,0242,02t
2,0092,000I,994i,990I,987
I,984I,972I,9651.960
3 1,826,9654,5413,7473,365
3,1432,9982,8962,8212,764
2,7 t82,6812,6502,6242,602
2,5 832,56't2,5522,5392,s28
2,5 r82,5082,5002,4922,485
2,4'192,4732,46'72,4622,457
2.4492,4412,4342,4292,423
2,4032,3902,3812,37423682,3652,3452,3342.126
63,669,9255,84 r
4,6044,032
3,7073,4991 15S
3,2503,t69
3,r0610s53,0t22,9772,947
2,9212,8982,8782,86 I
2,845
2,8312,8 l92,80'72,7972,787
2,7792,7't t
2,7632,7562;750
2,7382,7282,7 t92,7 t22,704
2,6'782,6602,6482,6392,632
2,6262,6012,5862,576
3r8,322,33t0,227,t735,893
5,2084,'t854,5014,2974,t444,0253,9303,8523,7871 711
3,6863,6463,61 l3,5793,55 2
3,s273,5053,4853,46'73,4501 dl{3,4213,4083,3963,385
3,3653,3483,3333,3191 1n7
3,26r3,2323,2n3,1953,1 83
3,1743,13 1
3,1 063,090
636,631,60t2,948,61 06,859
5,9595,4055,0414,7814,587
4,43't4,3 l84,2214,1404,073
4,0r53,9653,9223,8833,850
3,8 l93,'t923,7673,7453.725
3,4963,4603,4353,4r53,402
3,3893,3393,3 l03,29t
3,7073,6903,67 43,6593,646
3,6223,6013,5823,5663,551
PH, TASSI . S. LEGAIT
TABLES NUMERIOUES
Table no 7
FRACTILES DE LA LOI F (uI, uz\ P:0,95
N VrDEGRÉS DE LIBERTÉ DU NUMÉRATEUR
2 3 4 5 6 7 8 9 l0 t2 t4
d,f,(r]F
=
z.(Jl
f,
.IJ.]
F
{!
:q.)
th.[]d,()g
!
I
z3
45
6
7
8
9l0
llt2l3l4l5
l6t7l8l920
2t2223
2425
262728
2930
5Z
34363840
5060708090
100
l6lr 8,510, r
7,71
6,61
5,995,595 1t5,t24,96
4,844,7 54,674,604,54
4,494,454,4t4,384,35
4,324,304,284,264,24
4,234,2t4,204, l84,t7
4,l54,t34,l l4,l04,08
4,034,003,98'l s63.95
3,943.84
20019,0s 55
6,945?0
5,t 4
4,7 4
4,464,264, l0
3,983,893,81
3,143,68
3,633,591553,s23,49
11711s3,343,333,32
3,293,283,263,243,23
3,l83, t53, l33,l l3, l0
3,093.00
1413,443,423,403.39
2t6t9,29,286,595,41
4,7 6
4,354,0'l3,863,71
3,593,493,413,343,29
3,243,203, l63, l33, l03,0'l3,053,033,0 r
2,99
2,982,962,952,932,92
2,902,882,872,852,84
2,792,762,741 11
11t
2,702.60
22519,2
9,t26,395,l9
4,534,123,841613.48
3,01
2,962,932,902,87
2,842,822,802,782,76
2,14)112,7 t
2,702,69
2,672,652,632,622,6t
2,562,532,502,492,47
3,363,263,l83,l l
3,06
2,462,37
23019,3
9,016,265,05
4,391473,693,48111
3,203,il3,032,962,90
2,852,8 I
2,772,7 4
2,7 t
2,682,662,642,622,60
2,592,572,56) {<2,53
2,5t2,492,482,462,45
2,402,37z,3s2,332,32
2,3t) )t
21419,3
8,946, t64,95
4,283,873,5 81173,22
2,7 42,702,662,632,60
t<?, {(2,532,5t2,49
2,4'7
2,462,452,432,42
2,402,382,362,352,34
2,292,252,23') t!
2,20
2,t92, l0
3,093,002,922,852.79
4,21
3,793,503,293, l4
3,01
2,912,832,762,7 t
2,662,61
2,5 8
2,542,51
2,492,462,442,422,40
2,392,i72,362,35
2,31))o2,282,26t 1<
2,20', l1
2,142,t32,n2, l02,01
237t9,48,896,094,88
23919,4
8,856,044,82
4,l51713,M3,233,07
2,952,8 5) 11
2,702,64
2,592,552,5t2,482,45
2,422,402,372,362,34
2322,3t))o2,28))1
2,24))12,2t2,t92, r8
2,t32, l02,072,062.04
2,031.94
241t9,48,81
6,004,77
4, l03,683,393,l83,02
2,902,801?r
2,652,59
2,542,492,462,422,39
2372,342,322,302,28
))1))\2,24f f t
2,2t
2,192,1"t2,t52,t42,t2
2,0'l2,042,022,001,99
I,97r .88
24219,4
8,795,964,7 4
4,063,643,3 5
3, l42,98
2,85) 7(2,672,602,54
2,492,452,4t2,382,3s
)1)2,30))1)')<2,241 11
2,202,t92,r82,t6
2,t42,t22,12,092,08
2,03r,99I,911,95
t,94
1,93
1.83
244t9,48,745,91
4,68
4,003,573,283,072,9t
2,792,692,602,s32,48
2,422,3 8
2,342,3t2,28
I l<2,232,202,l82,t6
2,152,t32,122, l02,09
2,072,052,032,022,00
t,95t,921,89
l,88.r,86
I ,85t,7 5
245t9,48,71
5,874,64
J,963,533,243,032,86
2,742,642,552,482,42
2,372,332,292,26) )',
2,202,t72,t5z,t32,n2,092,082,062,0s2,04
2,01
I,99l,98I,96I,95
1,89
1,86
1,84
r,821.80
t,791.69
Pour les valeurs de Fcomprises entre 0 et l, on a:
F,-r(v,, vz): I
F, (vr' v'\
PH TASSI - S. LFGAIT 339
TABLES NUI\IEBIOUES
Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uz) P:0.95
Pour vr et vz ) 30, une bonne approximation est donnée par la formule:
f'. (v,, v:) : exP lÆ - l'5681 tu-' - ,t llLy'(vr '+ v;'\- -0,475 I
DEGRÉS DE LIBERTÉ DU NUMÉRATEUR: y. "'/l6 l8 20 22 24 26 28 30 40 60 100
246t9,48,695,844,60
3,923,493,202,992,83
2,702,602,5t2,442,38
2,332,292.252,212,l8
2,t62,t32,n2,092,07
2,0s2,042,022,01
l,99
t,97I,95l,931,92
I,90
l ,85l,82|,79I,'7'lt,76
1,7 5
I,64
247t9,48,675,824,58
3,903,473,t72,962,80
2,6"1)\12,482.4t2,35
2,302,26)))2, l82,t5l rt2,t02,0'l2,052,04
2,022,00I,99|,97I,96
t,94|,921,901,88
I,87
l,81I,78t,7 5
t,73I,72
I ,71I,60
248t9,48,665,804,56
3,873,443, r52,941 a1
2,652,542,462,39, 11
2,28z,z)2,t92,t62,t2
2,t02,072,052,032,01
t,99|,971,96
t,94I,93
I ,911,89
I ,87I ,851,84
1,78
t,7 5
I,72l,70t,69
1,68
t,57
249t9,5i,65t,79J,54
],86t,43i,l31,92)7{
t,63| <r
1,44
t,37t,3 l
) r<t,2ll,t7I,l3I,l0,.,07
t,05t,02r,00
,98q7
st,93,92,91
,88,86,85,83,81
,76,72,70,68,66
,65.54
24919,5
8,645714,51
3,843,41
3,122,902,7 4
2,61
2,51
2,422,35,to2,242,t92,152,1I2,08
2,052,032,00l,981,96
I,95l,93I,911,90
1,89
1,86
l,84I,82I,81I,79
I,741,70
t,671,65
t,64
I,63|,52
24919,5
8,635,76A\)
3,833,403, r02,89', 1)
2,592,492,4t2,332,21
)))2,t72,t32,102,07
2.042,01
l,991,97
1,95
I,93I ,911,90
1,88
I ,87
I ,851,82
I ,81t,'19t,77
I,721,68
1,65
1,63
t,62
I ,611.50
25019,5
8,625 ?S
4,50
3,821103,092,872,7 t
2,5 8
2,482,392,322,26
2,2t2,162,t22,082,05
2,022,00|,97I,95I,93
I ,911,90
1,88
1,87
1,85
l,831,80
I,79I,77t,76
l,701,66
t,64t,62I,60
I,59I,48
25019,5
8,625,7 5
4,50
3,8 r
3,383,082,862,70
)<12,472,3 8
2,3tt')<
2,192,t52,lt2,072,04
2,01
I,981,96
1,94
I,92
1,90l ,881,87
1,85
1,84
1,82
l,801,78
I,76t,7 4
1,69
1,65
I,621,60
I,59
|,57t,46
251t9,51,59i ?,t,46
\'1'7I lr'.1,04)R1
1,66
) s1,-,43
t,34, 11
t,2a
I, l5I, l01,06)n11,99
,96,94,91
,89,87
RS
,84,82,8119
,1',l
,75,73,7t,69
,63,59,5'7
,5451
5).39
252r9,5157
',691,43
t,'74t10|,0 r
t,79
t,62
t,491,3 8
1,30t))
l,l9l,llt,061,02
,98,95
,92
,89,86,84,82
,80,'79
,'77
,'7 5
.'74
,'7 I
,69,6'7
,65,64
,5851
,50,48,46
,45.32
25319,5
3,5 5
i,66+,41
,,7 t
t,27)q72,7 6){o2.,46)'t52,26
z, l9't,t2
2,07) (\)
1,98
1,94
l,9l1,88
I ,85I ,82r,80I ,78
I,76t,74l,'71t,71.r,70
t,67t,651,62
r,6l5q
t,52r,48t,45r,43t,4l
t,39I,24
,.s4
9,5
,53,63,37
,67,21,93,7t,54
,401n
,2t,13
,07
,0i,96,92,88,84
,81
,78,76?1
,'7 I
,69,67,65
,64,62
,59,5755
51
,5 I
,4410
151',)
,30
,28,00
I
2
3
45
6'1
8
9
l0
llt2l3t4l5
l6t7l8l920
2t22
23
2425
2627
28
29
30
)23436J640
5060708090
100
rn
varJ.(,
arJ
-t!fa
-Jlr)'
Ëc
tr.z
=z-lrne:
340 PH TASSI - S. TEGAIT
TABLES NUMEFIOUES
Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uzl P : 0,975
NopcnÉs oe lrnenrÉ ou NuvÉnettuR Vt
I 2 3 4 5 6 7 8 9 l0 t2 l4
;fglF
z
z.t!Uf,
.t!Ftrlco
Irrl!
.qld,Uqla
I
2
3
45
67
8
9
l0llt2l3t4l5
l6t'll8t920
2t2223
2425
262'7
28
2930
323436J64A
5060708090
100
6483 8,5t7,4t2,210,0
8,8 t
8,07't \17,2t6,94
6,726,556,4t6,306,20
6,t26,045,98<o)5,87
5,835,',l9575<1)5,69
5,665,615,61s5s557
5 S',l
5,505,475,455,42
5,345,29{ ts<))5,20
5,l85.02
80039,016,010,68,43
7,266,546,065,7 |
5,46
5,265,t04,974,864,76
4,694,624,564,5 I
4,46
4,424,384,354324,29
4,274,244,224,204,18
4,l54,t24,094,074,05
3,981S13,893,863,84
1 R1
3.69
86439,215,49,987,76
6,605,895,425,084,83
4,614,474,354,244,15
4,084,011053,903,86
3,823,783,7 5
3,723,69
3,673,653,633,6115S
3,563,533,5 I
3,483.46
1 '1S
1143,3 I
3,28J,27
3,753,t2
9C0
39,2t5,r9,607,39
6,235 5'5,054,124,47
4,284,124,003,893,80
17'l3,663,6 r
3,563,5 l
3,483,443,41
3,381 1s
3,333,3 lt?s1)13,25
3,223, l93,t13, 15
3, 13
3,063,01
2,982,952,93
2,922.79
9221S1t4,99,367,1 5
5,995,294,824,484,24
4,041,89),773,663,5 8
3,503,M3,383,331?q
1ts3,223,l83,l53, ll3, l03,083,063,043,03
3,002,972,942,922,90
2,832,79) ?<
,'712.7 t
2,10)\1
93739,3t4,79,206,98
5,825,t24,654,324,07
3,881 71
3,603,503,41
3,093,053,022,992,9'7
2.942,92)9n2,882,87
2,842,81
2,192,'162,7 4
2,612,632,60)<17 5t
2,542.4t
3,343,287))3,173,r3
94839,414,6
9,076,85
5,704,994,534,203,95
3.763,61
3,483,3 8
3,29
1, ))3,l63, l01053,01
2,972,932,902,872,8s
2,822,802,782,76-) ?(
) 1)2,692,662,642,62
2,552,51
2,482,452,43
2,42))a
95739.414,5
8,986,7 6
5,604,904,434, l03,85
3,663,51
3,393,29J,20
3,l23,063,012,962,9t
2,8'l) F,4
2,81
2,78t ?(
2,732,7 |
2,692,6'l2,65
2,622,59){77 55) {1
2,462,4t2,382,362,34
) lt2.19
96339,4r4,58,906,68
5 5)4,824,364,033,78
3,593,443,31
3,Zl3,12
3,052,982,932,882,84
2,802,762.732,702,68
2,652,612,6t){of <1
2,54) {t2.492,472,45
2,3 8) 11
2,302,882,26
2,242.r I
969)9,414,4
8,846,62
5,464"164,303,96?.1')
1s11171 ){3,r53,06
2,992,922,872,821 11
2,732,'102,672,642,61
2,592,57
2,55, (1
2,5t
2,482,452,432,4t2,39
)11
2,242,2t2.t9
2, l82.05
9771S414,3
8,756,52
5,374,674,203,873,62
3,433,283,1 5
3,052,96
?Rq2,822,',771 11
2,68
2,642,60)<12,542,51
2,492,47
2,452,432,41
2,382,352,332,3t2,29
)))) 1'1
2,t4'2,n
2,09
2,081.94
98339,414,3
8,696,46
5,104,604,l33,803,55
3,363,21
3,082,982,89
2,82) l52,702,652,60
?.562,s32,502,472,44
2,42?102,372,362.34
2,3t2,28) ){t tt2,2t
2,142,092,062,032,02
2,00l .87
PH. TASSI - S. LEGAIT
TABLES NUMERIOUES
Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uz) P:0,975
Pour yr ct yr > 30, une bonne approximation est donnée par la formule:
4o,s (v,, y:) - exp l:-2lll!- - 1.948 (";, - ur,)l' [r|(t;r+ û1-1 -î37 ' 'J
DECRÉS DE LIBERTÉ DU NUMÉRATEUR: V ,,,//vtl6 l8 20 22 24 26 l6 30 40 60 100
98'l39,4t4,28,646,4t
5,254,544,083,743,50
3,303,l53,032,922,84
2,762,702,642,592,55
2,51
2,472,42,4t2,38
2,362,342,322,302,28
))<)J)
2,202,t72,t5
2,082,032,00t,971,95
1,94l,80
99039,4t4,28,606,37
5,2t4,504,033,70145
3,263,1 I2,982,882,79
2,722,652,602,552,50
2,462,432,392,362,34
2,3t2,29aa1
2,25114
2,202,t'l2,t52,t32,tt2,03l,981,95
l,93l,9lI,89|,75
3,233,072,952,842,76
99339,4t4,28,566,33
5,t74,474,003,673,42
2,682,622,562,5t2,46
2,t62,t32,n2,092.07
2,422,392,362,332,30
2,28iJ<t t2
2,212,20
t,99t,94I ,91l,88I,86
I,85I,71
99539,514,I8,536,30
3,203,042,922,8t2,73
2,652,592,532,482,43
2,392,362,332,302,27
2,24,1a
2,202,l82,t6
2,t32, l02,082,052,03
t,96I,91r,88l,85I,83
5, l44,443,973,643,39
I,81t,6'7
99739,514, I
8,51
6,28
5,124,423,9s3,61117
3,t73,022,892,792,70
2,632,562,502,452,41
2,372,332,30
2,24J1)2,t92,t72,t52,14
2, l02,072,052,032,01
I,93l,88l,85l,82l,80
l,78I,U
99939,5t4,t8,496,26
5, l04,393,933,593,34
3,l53,002,872,772,68
2,602,542,482,432,39
2,342,3t2,28))<141
2,t92,t7î r<
2,t32,tl2,082,052,032,00l,98
I,91I,861,82
I,79I,77
t,76I,61
1000
39,514,I8,486,24
5,084,383,81
3,58
3, 13
2,982,85'r 7<
2,66
2,582,s22,462,4t2,37
2,332,292,262,232,20
2,t72,152,t32,n2,09
2,062,032,00I,981,96
l,88l,83r,80I,77t,7 5
t,741.59
100 I
39,514,l8,466,23
5,074,363,893,563,3 l
3,t22,962,842,732,64
2,572,502,442,392,35
2,3t2,272,242,2t2,t8
2,t62,t32,tl2,092,07
2,042,0tI,99l,96t,94
I,87t,82I,781,7 5
I,73
t,7l1.57
1006
39,514,0
8,41
6,18
5,014,3r3,843,5 I
3,26
3,062,9t2,782,672,58
2,5t2,442,3 8
2,332,29
2,252,21
2, l82,t52,t2
2,092,072,052,032,0t
I,981,95
I,92l,90r,88
I,80I,74I,7 t
1,68
1,66
t,64t.48
l0l039,s14,0
8,366,t2
4,964,253,781r'S
3,20
3,002,8571)2,6t2,52
2,452,J82,32111'1 )')
2,t82,142,lt2,082,0s
2,032,00r,98I,96I,94
I ,91I,88l,85I,82l,80
t,72t,67l,63I,601,58
I,56I,39
l0l339,5t4,08,326,08
4,924,211,7 43,403,15
2,962,802,6'7
2,562,47
2,40?112,2'l111
2,t7
2,t32,092,062,022,00
1,97
1,94
I,92I,90l,88
I ,85l,82I,79t,761,74
t,66I,60I,56l,53I,50
I,48I.30
l0l839,513,9
8,266,02
4,854,t43,673,333,08
2,881 11
2,602,492,40
2,32', )<2,t92,132,09
2,042,00|,97I,94l,9ll,88l ,851,83
l,81I,79
t,7 5
I,72I,69t,66t,64
r ,55l,48t,44I,40I,37
r ,35l,00
I
2
3
45
6
7
8
9
l0
llt2l3t4I5
l6t7l8l920
)l22t12425
2627282930
3234363840
5060708090
100
Urî,ôFfll.(t
Uln
Ic!rrlF-tln.l-
eF
11.zoEz-lrnCv
342 PH, TASSI . S, LEGAIT
TABLES NUMERIOUES
Table no INOMBRES AU HASARD
t3407 6289950230 6323784980 6245822lL6 3364668645 15068
26518 39t2236493 4166677402 1299483679 971s471802 39356
57494 72484'73364 38416tu99 8396540747 0308442237 59t22
32934 6022705764 t428432706 9487922190 2'755981616 t5641
26099 6580171874 61692087'74 2968937294 9202833912 37996
63610 6147501570 4t70224t59 7778792834 5294116178 60063
81808 3298028628 8207262249 657578454t 9989189052 39061
43645 8923261618 1927s68136 0654674005 3455854437 88825
0r990 9476202404 4240859253 7t53520471 t391465946 60766
00939 47818499s2 29t2317328 7073219420 702t5t9l2l 4l t90
't8937 9052594083 9363409703 7839717545 3132156898 87A2t
96561 560042787t 7t32959892 855814034t 8474102981 89107
22676 443t193128 t029775403 180020'1734 8894092855 62097
58707 4485873069 8083093188 6604995668 532619492t 959',70
69870 844468000t 2143042245 5190356850 8338078967 5720t
26980 2380430282 5464738973 8217888301 22t2759284 t62'79
80660 9839104854 52809122'73 9t26101585 967119981 I 69831
00384 1085840744 2248204029 4'194693779 96t200'7943 81795
89926 847646798t 4368426149 3562999330 3793874084 22484
75949 4470745950 6757846319 269sO90476 7640049t45 05373
25033 563587t652 0265666t79 46982657'72 86s06401 15 27524
50260 68648692t2 5793270823 5333808967 7328779788 51330
15356 05348I l4l9 8293745068 s425788722 857t781276 06318
36081 7998tt723t 4293625988 466562t676 9894363506 22007
58248 2128202305 5974169179 966820s9t2 2983066916 73998
54972 7206806077 2935446802 9024523459 4022948003 44634
62243 t967886608 6801796983 15082297t2 0287'747234 93263
21789 1409312424 98601t9526 2'1t2201695 477203t709 13358
t9159 9535555467 4703087t2^7 4558169649 57964495t4 89820
49105 0677713524 03023t9037 0283151553 1215800755 t78t7
78902 47008 72488 5794957532 60307 91619 48916676t9 39254 90763 740560981 l 82848 922n 5t 17842221 88293 67592 06430
85596 83979 09041 6235065281 57233 07732 5843934405 67080 16568 0085494952 59008 95774 4492737129 31898 3401 I 43304
03582 66183 68392 8684484389 88273 96010 0984318085 92626 6091 I 3913773810 79866 84853 6864781607 00565 56626 77422
01291 68707 45427 82t45484'.12 t8782 st646 3756435365 13800 83745 4014143618 42n0 93402 9399729966 38tM 62556 07864
56938 54729 6775'7 684t234262 15157 27545 1452291819 60812 4763t 5060937612 15593 73198 9928754289 07t47 84313 51939
19403 53756 0428t 9802295704 75928 2l8l I 8827401805 23906 96559 0678574678 2t859 98645 7238808623 32752 40472 05470
39551 18398 36918 43543l l 120 28638 72850 0365083851 77682 81728 52t4770955 59693 26838 9601 I47386 17462 18874 742t006268 46460 97660 2349019089 53166 41836 28205425t5 55048 239t2 81 10588&6 73520 40050 9055304626 64838 92133 44221
982t3 t7704 47400 3083742545 43920 I I 199 3652100185 0104t 46662 9889797149 4t628 78664 8072741310 19722 07045 28808
31998 79942 98351 t026518046 '15287 74989 5815236558 82712 05590 6494114668 15656 37895 9455922757 76116 76977 945't0
PH, TASSI - S. LEGAIT 343
TABTES NUMER]OUES
Table no 9
NOMBRES AU I-IASARD GAUSSIEN N (0,1)
l.slg- .00{- t.3?r-2.033- "620 .256.866- .a23- I.878.683 .392 .o53-.24t 1.650 .?o3
.7L6 .997 .a2ol. 136- .169 "t06.{61- .390 .63?.986- .305- t.02{
.686 1.036- .980
.393- 1.190- 1.sto2.155- .2A7- .216
.?65- 1.135 1.1022.161- 1.84? .s2a1.302- 1.?81 .{58-
_.986- -.a36 .50a .82t- 1.169 L.162 .063_r.335 r.rsz .elo- 1.22. r.ssl- i-iià rlàÀi-r.!19- _.?9? t.os3 .3rt .rrg r.aoi- -.iôô_.!?l- t..oq- .640- .s63_ .s21. .zrr- :ié,.226 .1zs- ..86- t.rgs l.oss .ase 1:ôàè
r.!19- l.g?l t.5?1. .s8e- 2.0?6 .o28- .65{.223 1.E65 .060- .112 l.069 r.tee t-rii-1.166- .O42- 1..192- .,1,t3 .31O -ZSZ- t-zrt-l.??\- .5ol l.3ll l.tts- l...l.r- .eos :it5-r.6sr .6s5- 1.126 .680- .o2z_ .zse :aaô.q91 .gl? t"t75- .086 .?e2- .oe3 l.t:.E
_.199- .llq- .e3?- l.o3e .r2s- .zzg- r.i6s-r.ll! -.?19 .522 .e68- .o{t .zsz- r.srt.?-4?- r.g?5- .o3r- .71L t.tzz- z.qea r:?46.589 .t71 1.4?8- .225- .606_ 2.619- .zsn-
r.qq! l.qlg- .7L!- .lqq- .89?- .66e_ .38? .16? 1.6?3 1.1ôo-.999- .t?9- .?s! .7o-2- .7e7 r.rss- .sss- :ti1 -:tià_ -:âôô.Z16-- .9i9 .03?- .l9g r.zos- z.ore- g.rzo- .eas- .zos- :i6a-,!?6-- .??7 2.222 r.el! r.!l? r.o12- .orr .ose r.oii :iat.rs2- .{86 l.o3?- 1.320 .968- .ssr .aaz_ z.ezs i-.oéi- :iû_
.374- L.279 .17O-
.025 t.711- .a8a
.710 1.203-.lal
.347- .2L6 1.1721.075- .681- .o31-
.531- .112- 2.2571.89? .936- .O2t-
. l6a 1.8,t3 l. 862-
.908 .251 .25O
.{59- .302- .762-
.29L 1.489 t..05t
.a56 .569- .t771.Ol,t- 1.088- .853.85{- 2.102 .s9l.80?- .a3l 2.078
.2tq- .53?- 1.235- .326- .449 l.l?o- 1.172.011- .37O .441- 2.680- l.6,trl- 1.916- .Alg-.?qc- ..9I- .56t- .99s- .,r15- 1.585 .5?8__.276- 1.19? 1.603- .9O7- .8,13- Jeg- z.gel1.251 .35?- .387 .922- .6,19- .958- .ZSS-
.7!1. .!06- .2o8- .231- t.l8o L.127- .oo.- .2rO- l.6rto- .Brl--.91! -.199- 2.!?i -.?99 .628- 1.5?o r.zsg- r.glr .zas :iaô-2.991 l.!lq- .?9q- l.6E!- .?8?- 2.003- t:?o?- .oer .oos- :é{i-.?3_? .qqg .r53- 1.219- .075- .ers- .srs .5?O- 1.682- .zet_.3Tt .6rl .o{9- .Bs8- .ls? .985- .eze .osr- .zto_ :æé-
.961 -l.?aa1.826-.7lo-.t57-
1.830.776
t.821l.0l 9-l. 73a
.291 1.o03- .o{9 1.610,227- .17A t.O2g .67?.060- .709 .88?- -A231.t63- .6?0- .100- .327.228- 1.012- 1.a50 t.22L-
344 PH TASSI , S. LEGAIT
TABLLS NUIVERIOUES
Table no 1O
ESPERANCE DE LA STATISTIOUE D'ORDRE
_.Cette table fournit E (X,,,), où X,,, est I'observation de rang i lorsque léchantillon
(X,, .. ' xn) extrait d'une loi normale N (0, l) est classé pu, o.J.. décroissant:X,u ),X,r, )- ...2 X,,t ) ...) X,", ; n varie de 2 à 50. par symétrie, E (Xrrr :-E(X," -',)
2
I 0.5642? -0.564234
3
0.E4630.oooo
-0.846t
1.0296 r.1630 t.26720.2970 0.4950 0.6418
-o.29t0 0.0000 0.2015-1.o29ô -0.4950 -0.2015
4s6 7Er.!522 1.42360.1574 0.e5220.3527 0,4728
_0"0000 0. L525
t4 15
1.70t4 t.7t591.20t9 1,24190.901r o,94770.66IE 0.tr490.4556 0.5157
9l0ltt2uI t.4850 1.5388 t.5864 t.6292 r.66S02 0.9323 l.ool4 l.06 l, t. lr57 r. r64t3 0.5720 o.6t6r 0.7286 0"7928 0.84984 0.2145 0.J756 0.4620 0.5]68 0.60285 0.0000 0.t227 0.22{9 0.3t22 o.3ss36 -0.2''45 -O.t22t o.ooq) 0.1026 o.t9o5 0,26:/3 0.3351t -0.5720 -0.3758 -O,2249 -o.1026 o.oooo o.os82 0.1653
16 t7 lE r9 20 21 22
I t.76602 r.284t3 0.990!4 0.75325 0.5700
r.7939 [email protected] r.3to[1.0295 l.o65t0.E074 0.t4810.6r95 0.664to.ôJu 0.tot60.2952 0.350s0.1460 0.207t0.æ00 0.6S!
-0.1460 -0.06s!
-0.2952 -o.20r,
1.841.5 1.8675t.3799 [email protected] l. u090.E85t 0.92t00.7066 0.74'É0.y77 0.59030.4016 0.44330.2537 0.3r490. uot 0. 18700.0000 0.0620
-0.Llot -0.0620
67
t9
l0
ll
0.39620.233E0.07t3
-0.07tt-0.z3tt-0.3t62
1.9292 r,%7t1.4€14 r.5034t"2144 1.23921.0u6 t.o4090.8470 0.!t68
0.t012 0.733t0.t690 [email protected] 0.68390.329t 0.37050.21t5 0.2616
0.108 r 0.1558o.(xn, 0.0518
-0. l08l -0.0t!t.0.2rtt -0. r35C
1.9653 1.9E22l.t2(! t.*21.2626 t.2t5lI .0'66t I .091ô0.9050 0.9tr7
0.t64t 0.t9290.6369 0.66790.519t 0.5t2t0.4096 o.t t l.40.t0lt 0.34t0
0.2001 0.2(130.0995 0.r4!90.0000 0.0478
-0.0995 -0.0{t8
r.E892 1.9097r.4336 1.45S2l. r60t t. rE820.9538 0.98460.7E15 0.E153
0.629E O.66670.4915 0.53160.3620 0.ré560.2384 0.2r580.1184 0.rt00
0.0000 0.0564
1.99E3 2.0U7 2.0285r.5633 t"5815 l.r9E9r.3064 1.326t r.3462l. rl47 l. t3t0 1.15E:0.9570 0.9812 1.00ôl
0.8202 0.8461 0.87080.6973 0,7251 0.75t50.t84t 0.6138 0.64200.4780 0.5098 0.5t980.37t r 0.4u0 0.(430
0.2798 0.3160 0.3t010. r852 0.2239 0.26020.0922 0.tit36 0.t7240.0000 0.0444 0.0859
23 24 2' 26 2t 2E Le
I2345
6ItI
t0
tll2lfl4
TABLES NUMERIOUES
Table no 1O (suite)
ESPERANCE DE LA STATISTIOUE D'ORDRE
t0 31 32 33 34 35 36
6II9
l0
nt213
l4l5
r6l?t8
I 2.0428 2.05652 r.6156 r.63173 r.3648 t.38274 l. 1786 1.19805 1.026t l.o47t
2,0697 2,08241.64.7 r 1.6620t.3999 1.41641.2167 r.234''1.0672 1.0865
0.9384 0.95900.8236 0.84550.rt8t o"74200.6213 0.64600.5294 0.5555
0.4418 0,t6940.3575 0.386to.2751 0.!0650.1957 0.22830. t169 0. 1515
0.0389 0.0755-0.0389 0.0000-0"1169 -0.0755
0.89t4 0.91690.7767 0.E0070.6688 0.69440.5683 0.59550.a733 0.5021
0"3824 0.41290.2915 0.32690.2088 0.24320. l24r 0.16u0.0415 0.0804
-0.04r5 0.0000-o.L241 -0.0804-0.20EE -0. t6 ul
r 2.u93 2.lrol 2.1506 2.t60E2 1.7166 r.7291 1.74L1 1.75313 l.{768 1.4906 r.5040 r,5r704 r.3002 r.3r5t r.3296 r.34375 1.1568 r.1728 l.tEEt 1.2033
6 1.0339 1.0509 r.0674 r.0833t 0.9250 0.9&30 0.9604 0.97728 0.8260 0.8451 0.8634 0.6Ell9 0.7316 0,754'' O.71tû 0.7926
r0 0.6490 0.6701 0.6904 0.7099
ll 0.5679 0.5900 0.6113 0.6318t2 0.4904 0. t 136 0.5359 0.357413 0.4158 0.rlol 0./635 0.485914 0.3434 0.3669 0.3934 0.4 169t5 0.2'127 0.2995 0.3252 0.3198
16 0.2014 0.2316 0.2585 0.2A42l7 0. 135 r 0. 1647 0 . l 929 0 .2 199l8 0.0674 0.0985 0.1282 0.156419 0.0000 0.0328 0.0610 0.091620 -0.067ô -0.0328 0.0000 0.03u2l -0.1351 -0.0985 -0.06ro -0.0312
2.0947 2. 1066 2 . r r8 t1.6764 1.6902 1.70361.432t t.tA75 t.tÂ241.2520 r.2666 t.28471.1051 l.1229 t.1402
0.9789 0.9979 1.01620.â666 0.8E68 0.90620.t643 0.7857 0.80630.6695 0.592r 0.7r380.5804 0.6043 0.6271
0.4957 0.5208 O.W90.4144 0.4409 0.tû620.3358 0.3637 0.39030.2592 0.2886 0.3 166
0.1842 0.2152 0.2tA6
0.1101 0. 1426 0.17390.0366 0.0712 0.1040
-0.0366 0.0000 0.0346
2.L707 2.r80! 2.18971.76/+6 1.7757 1.7865r.5296 r.5419 1.5s38t.3573 1.3705 1.38331.2178 r.Èr9 r.2456
r.0967 1.t136 l.t28t0.9935 1.0092 1.02450.E983 0.9r48 0.93080.8106 0.8279 0.W70.7287 0.7tÉ9 0.7645
0.6515 0.6705 0.6EE90.5780 0.59t9 0.6 r7 l0.5075 0.5283 0.54830.4394 0.46 lt 0.ô8200.3734 0.3%0 0.4176
0.3089 0.3326 0.35530.2457 O,2704 O.29t 20.1835 0.2093 0.23410. t2r9 0.1490 0.17490.0608 0.0e92 0. l16l
0.0000 0.029? 0.0580
37 38 39 tâ 41 42 43
346 PH TASSI . S. LEGAIT
TABLES NUMEBIOUES
Table no 10 (suite)
ESPERAI\CE DE I-A STATISTIOUE D'ORDRE
I2
34t61
€I
t0
ilt2r3t4l5
l6ltItl920
2t222l242t
2. l98t 2.207t1.797t 1.80131.5653 t.57661.395t 1.407E1.2588 t.27rtl.t42t l"t55E1.0392 t.05360.9I'63 0. 96 140.86 t0 0.876t0.7E15 0.t979
0.7067 0.t2380.6356 0.65350.5616 0.58630.5022 0.52170.4t89 0.4591
0.37t, 0.!9S!0.!rto 0,3!900.257' 0.28080.r9rt 0.22360.1422 0. t67l0.0851 0.tllt0.02tt 0.0155.0.02tt 0.0000
-0.0851 -0.05t5-0.1422 -0. lllr
2.2164 2,2249r.8u3 l.E27l1.5875 1.59821.4196 l.(3ur.2842 1.2964
l.1690 l. lsl,l.067t t.08100.9760 0.99020.8920 0.90680.8139 0.t294
0.7405 0.tt660.6t09 0.68?t0.60rÉ 0.62190.5405 0.55860.478t 0.4975
0.418t 0.43630.t602 0.t8060.10t9 0.324t0.2455 0.26360.1910 0.et40
0.u60 0.1t990.081ô 0.10640.0271 0.053r
-0.0271 [email protected] -0.05t1
2.2331 2.24t2 2.249r1.8366 1.8458 r.8549t.6oE6 l.6rE7 t.62E5l.tA22 t.453t 1.463?1.3083 l.3r9E r.3lut.1944 !.2066 r.2r851"0942 !..1070 r. ll95l.0o4o _ r.0174 l.g3o40.9212 0.93s3 0.94s90.c,uA 0.8590 0.E732
0.172t 0,78750.7040 0.71980.6368 0.65520.5763 0.59330.5159 0.53t6
0.ao220.735 t0.67 rt0.60990.5t08
0.45tt o.4't5, 0.49350.4{x)t 0.4191 0.43790.3t'46 o.tê,tA 0.!tt60.2899 0.trot 0.!!oa0.2361 0.25t5 0.2761
0.t830 0.2051 0.22650. u03 0.1534 0.17560.0781 0. t020 0. u5r0.0260 0.0509 0.0749
-0,0260 0.00co 0.0250
PH. TASSI . S, LEGAIT 347
TABLES NUMERIOUES
Table no 11
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
X, , représente l'observation de rang i dans un échantillon (X,, .. X") extrait d'une loiN (0, l) classé par ordre décroissant : X,,, > ...2 X,",. Cette table iournit, par n allant cie 2 à20.iesvaleursdeV(X,,,)etCov(X(i),X,;,).OnaCov(X,,,,X,;,) = Cov(X,",*,r,X1" 1*,r).
Â{
g-9
Â3
!-7
!I
Lz
5t0 I
LI 0.53 1'2 0.3 U32 0.6t17I 0.55952 0.275t3 0.1649, g.tÆ1I 0.ô9172 0.24553 o.ljto4 0.10ô72 1r.36053 0.2359I O.t{?52 0.22ô!3 g.lt{ I4 0. t05r5 0.07{22 0.3115, 0.20844 0.1499! 0.2868I 0..u92 0.1085I 0.11944 0.10245 0.07146 0.05612 0.27963 o.uto4 0.13975 0.10593 0.2662I 0. lrttI 0.!9192 0.19623 0.t!2I4 0.09E5t 0.07666 0.05997 0.O4/.E2 0.25673 0. lt494 0. Ll075 0.10205 0.0Ê30
L! 0.2197{ 0.16565 0. t:lt64 0.2104i 0.J7292 o.18633 0.1260a 0.094?5 0.07lrt6 0.0602t 0.0451t 0.036E2 0.239tt 0.1632a 0. t2335 0.09766 0.0787t 0.06323 0.20084 0. u2ô5 0.ut06 0.09784 0.16725 0.1492I 0.35742 0. lTElI 0. uota 0.09L1t 0.07276 0.0595? 0.q91t 0.0401, 0"03112 0.225't 0. l54l4 0.ltt0t 0.09t46 0.076tt 0.0632E 0.051,! 0.1E6{4 0.t4215 0.1!!E6 0.09t{r 0.0?724 0,1706
l.5 0. ul706 0.lt2tt 0.1661I 0.34432 0.ltlt3 0. l16lt 0.08825 0.070t6 0.0584t 0.04ê9e 0.04ItI 0.03ré
l0 0.02672 0.2145! 0.1466a 0. ut?5 0.089tô 0.07427 0.0é22! 0.05239 0.0434t 0. l7r0ô 0. l3t85 0.l0rt6 0.0ô92t 0.0?ô9I 0.0630a 0.ur95 0. u7t6 0.105tt 0.08695 0.15116 0. u56I 0.3!322 0.1654t 0.1u4a 0.065tt 0.068E6 0.0572t 0.o4t4t 0.04 u9 0.03t1
l0 0.0294ll 0.023tI 0.2052! 0. raoS
2ll
24t
36l
att
5
ll I
348 PH TASSI - S. LEGAIT
TABLES NUMERIOUES
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
Lll
J
4 0.t0715 0.08646 0.c719t 0.05098 0.05209 0.0443
l0 0.0371I 0.16574 0.1:lr0t 0.10266 0.0E59t 0.0725E 0.05199 0.052e4 0.1$0J 0. lr996 0.loæ7 0.oE{9t 0.0725t 0. u966 0. 1167? 0.09926 0. ljtr2I 0.32362 0. t6023 0. t0c9ô 0.0tll5 0.06716 0.05ro7 0.0477t 0.0ct0t 0.0354
l0 0.0305ll 0.025tll 0.02062 0. tr?3! 0. lJ{9( 0.1032t 0.or3t6 0.06967 0.05 9rt 0.0512I 0.O.i3
l0 0.0361ll 0.03Ët 0. u60
J
a 0.12t25 0.09E36 0.08227 0.07016 0.06049 0.052!
l0 0.04504 0.u9r5 o. tt366 0.0952t 0.0612ô 0.07019 0.0607t 0. tito66 0.10967 0.09378 0.08096 0.12667 0.10E4I 0.31522 0.155t3 0.10594 0.06095 0.065t6 0.0548? 0.0459t 0.066I 0.0354
l0 0.0t09I I 0.0269t2 0.0229Li 0.01842 C.1904J 0. L'024 0.09975 0.08096 0.0ô747 0.0tr0t 0.05039 0.0439
l0 0.ct84ll 0.0!tt12 0.02tô3 0. l5l4ô 0. u6!5 0.094t
J
6 0.07937 0.0679t 0.05899 0.0514
l0 0.0{50u 0.0J914 0. Lt30t 0.108Jô 0.0910? 0.0780t 0.06779 0.0592
t0 0.05175 0.12336 0.10377 0.0890E 0.07i49 0.0ô766 0.11837 0. 1017t 0.0886? 0. u6EI 0.307t2 o.ut?3 0.10324 0.07895 0.06(06 0.05377 0.0461t 0.0rot9 0.0352
l0 0.0310n 0.0273u 0.0219u c.020514 0.0t662 0.tt44I 0.I26ta 0.0967t 0.07856 0.0660t 0.056tt 0.049{9 0.043ô
lo 0.0382ll 0.0337
!3
o
12
t2
L!t
!3
7
14 I
6
tit I
512 I
PH TASSI . S. LEGAIT 349
TABLES NUMERIOUFS
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
a
l5
r-Âut
2
L1142
3
Lu 0.0295lJ 0.02533 0.t45t4 0.1u0t 0.0il1t 0.0t6t? 0.065,I o.otraI 0.050t
lo 0.0445ll 0.0392tl 0.0r4ta 0. uttt o. tott6 0.0ttat 0.0t5tt 0.06tt9 0.05t6
lo 0.0t0tl! 0.0{4t5 0. u7t6 0.096Et 0.0t51I 0.07ô2t 0.o65t
lo 0.0516ô o.uut 0.0t61t 0.0t40t o.0tl9t 0. to90t 0.095tI O.tOUt2 o.t.tlI 0.100t4 0.0t7tI 0.06266 0.052tt 0.o4ttt 0.0t969 0.0t4t
t0 0.0110tt 0.0275U 0.014/alJ 0.02ut{ 0.01t5
Llt 0.0ut2 0.lt9rt 0. u2ô{ 0.09tt5 0.07646 0.o64t7 0.0t5{t 0.0414, 0.042t
lo 0.03tttl 0.03ttu 0.0299u 0.0263t4 0.022tt o.laota o.rort5 0.0æ2ô 0.074tt 0.0641t 0.05609 0.or94
l0 0.o6t9ll 0.0!90u 0.0]atu 0.0æ5a 0.1.it12t 0.09t73 0.oE42t 0.0716t 0.061tt 0.0561
l0 0.o49Eu 0.o{4tu o.0t9at 0.1119é 0.0945t 0.ocr6I 0.071(I 0.06t1
l! 0.0561ll 0.0{996 0. 1059r 0.0tut 0.0ælI 0.0t09
lo 0.0630
Lt o. t02t! 0.09009 0.0t97t 0. t0t7I 0.29502 0. 1449I 0.09E5ô 0.0ttaI 0.06136 0.0517t 0.0446t 0.0t90I 0.014t
lo 0.030t11 0.02?tu 0.02t6u 0.0220la 0.0195u 0.016ttô 0.0Lrt2 0.174{t 0. t19la 0.0il{t 0.074,6 0.06æt 0.0542t 0.0475I 0.0421
l0 0.0tr5ll 0.03t6u o.0to0u 0.0t6tl4 0.023tu 0.0206t 0. Ll6la 0.104t5 0.0ttt6 0.0722, o,o6ut 0.054t9 0.011ô4
l0 0.0{t2ll o.o3ô,12 0.0146Lt 0.0309tô 0.02t4
I7
t16 I
.,
!.t I
350 PH, TASSI . S. LEGAIT
TABLES NUMERIOUES
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
D
l6
Ls 0.11795 0.09636 o.08Lt7 0.0703t 0.0617I 0.05at
t0 0.oagall 0.0437rt 0.0t9tll 0.0!495 0. to746 0.0roat 0.0tEtI 0.06t99 0.0611
l0 0.05a6lt 0.ûtr9u o.o(tr6 0. !0r0t 0.0875E 0.076t9 0.0682
lo 0.0609ll 0.0145? o,o974! 0.06569 0.07æ
l0 0.0679t 0.0t5t9 0.0850I 0.21952 0. tatt! 0,0965a 0.0t395 0.06016 0.050tt 0.043tt 0.03E59 0.0tôt
l0 0.0ætll 0.027at2 0.0247tt 0.022tl{ 0.02mrt 0.017t16 0.0155
Ll7 0.01272 0.170t3 0. lt62ô 0.or925 0.072t6 0.0614t 0.0531t 0.0466I 0.o4la
lo 0"0170ll 0.0t3!u 0.0toou 0.02?0rÔ 0.02{2u 0.021t16 0.0utI 0. u2{a 0. trl95 0.ot3l6 0.070t7 0.o60tt 0.05t49 0.0475
10 0.042tll 0.0382u 0.034au 0.011014 0.02ttu 0.02ôta o.ltao5 0.09326 0.078t7 0.0562t 0.0ôoot 0.053!
lo 0.o4ttll 0.0429u 0.036tu 0.0t49la 0.031;,5 0. t0'46 0.06167 0.07J9t 0.066t9 0.0r9t
lo 0.0531
l-ll o.utEL2 0.0{31lJ 0.03Eâ6 0.09697 0.oô{ô5 0.073'9 0.o65t
l0 0.05E9tl 0.05!{,12 0.047tt 0.0929E o.oEut 0.072t
10 0.o65tlt 0.05E!6 0.0st9 0.oa0E
l0 0.07259 0.09001 0.?84t2 0. u93t 0.09a54 0.072t5 0.05906 0.0499t 0.&31t 0.0t79t 0.033t
l0 0.030!ll 0.0273u 0.0247Ll o,at2416 0.020t15 0.01E2t6 0.0t6tr7 0.0r€lt 0.0rD2 0. r66tI 0. 1135ô 0.o€t25 0.0?u6 0.0601t 0.0520r 0.045t9 0.o40t
l0 0.036t
a
I
2
!4
B
l7
Ll7
!5
9Itl
3
rt I
PH TASSI -S LFGAIT 351
TABLES NUMERIOUES
Table no 11 (sufte)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
Ll8
!2
J
ll 0.033012 0.029813 0.027014 0.0245t5 0.022116 0.0197l7 0.01723 0. l2t9a 0.09925 0.0t106 0.06157 0,059{I 0.05229 0.0a6J
lo 0.o4ttlt 0.037712 0.0341lJ 0.0309l{ 0.02t015 0.025216 0.02254 0. l1065 0.09046 0.0766t 0.0664t 0.05ô4I 0.0520
lg 0.0rri6?tt 0.(xt2u 0.0112lJ 0.0346l( 0.03Ltu 0.02E35 0.09996 0.0847? 0.0734t 0.06ô79 0.0577
t0 0.051tlt 0.o46tu 0.(x2lll 0.038{l4 0.0tl!6 0.09327 0.0609I 0-07Lt
J
9 0.0636l0 0.0571t1 0.05t6u 0.0467Lt 0.O42t7 .0.08 90t 0.07E59 0.0700
!0 0.062tll 0.0569u 0.05ut 0.oEô59 0.0172
l0 0.069ôtl 0.06279 0.0653
l0 0.076tI 0.27992 0.Lt6t3 0.0929a 0.07 u5 0.05806 0"04907 0.0425t 0.0314I 0.0333
lo 0.030011 0.02ttl2 0.026lj! 0.0124l{ 0.020{u 0.0u516 0.016tl7 0.0150u 0.0132lt 0.0t092 0.161ôt 0. nlla 0.08535 0.06966 0.0569t 0.0510t 0.0(50r 9-9401
l0 0.0360ll 0.0326
J
t2 0.029613 0.02t014 0.0246u 0.02È16 0.0202t? 0.0181lE 0.0u93 0.12574 0.09675 0.07906 0.06697 0.0580t 0.05ut 0.0456
l0 0.0410tl 0.0371u 0.033tu 0.0307ll 0.02t0u 0,025415 0.0230l, 0.0206a 0. t075t 0.06796 0.07411 0.o64t6t 0.0570t 0.0509
l0 0.o{5Ell 0.o4tô!:l 0.0376lJ 0.034314 0.031t5 o.o2E416 0.025t5 0.096t6 0.0t217 0.071tt 0.06299 0.0561
l0 0.0505ll 0.95t12 0.041613 0.037 9la 0.0345u 0.0314
t-t9
s-l8
!6
1
2
t9
352 PH. TASSI - S, LEGAIT
TABLES NUMER1OUES
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
n
l9
J
6 0.0900, 0.0782E 0.06909 0.0616
t0 0.0555ll 0.050212 0.0457tjt 0.041614 0.03797 0.0E56E 0.07569 0.067t
t0 0.0608ll 0.055112 0.0501l3 0.o45tt 0.062t9 0.07/€
l0 0.0667tl 0.060412 0.05509 0.06u
t0 0.07ttll 0.066tl0 0.080tt 0.2t5?2 0. ui45! 0.0911a 0.07005 0.05t16 0.04Et? 0.0418t 0.03699 0.0329
l0 0.0297u 0.0269t2 0.0245l! 0.0224l4 0.020515 0.01E716 0.0ltl17 0.0155It 0.01J I19 0.0t2120 0.01022 0.1J96
J.3 0. l08t4 0.083ô5 0.06t26 0.057E7 0.0501t 0.0442I 0.0395
l0 0.0396lr o.0t22L2 0.029413 0.0268t{ 0.02{515 0.022516 0.0205t7 0.0u6It 0.0167t9 0.01473 0. u2ta 0.094t5 0.01726 0.06557 0.056t6 0.0501I 0.044t
t0 0.o{oltt 0.036612 0.0ltttt 0.0305l4 0.0279t5 0.0255t6 0.023317 0.0211u 0.01904 0.10475 0.08566 0.0726t 0.06315 0.05579 0.049E
l0 0.0]148ll 0.0ro712 0.0171lJ 0 .0319l4 0.0310u 0.0284t6 0.0259
t
lt 0.02355 0.o9lo6 0.0794? 0.069!t 0.06119 0.054t
lo 0.0491ll 0.o44tt2 0.olo8Ll 0.0373l4 0.0341rJ 0.03ut6 0.02E56 0.08727 0.075Et 0.06709 0.0599
t0 0.05{0lt 0.04æ12 0.04{7u 0.olÉ8la 0.037415 0.0342? 0.0E26E 0.07309 0.065!
I0 0.0589tl 0.053512 0.046Eu 0.0446la 0.0tot8 0.07969 0.07 13
l0 0.0641tl 0.0564l2 0.0533lJ 0.O4o,9 0.0778
l0 0.0703ll 0.063E12 0.05E2l0 0.0?69ll 0.0699
!6
l020 I
L20
E
2
L!204
5
PH TASSI . S, LEGAIT
I
INDEX
A
Absolue coniinuité, bg, 7,l.Accroissements indépendants, 307.Affinité, 243.Algèhre, 13.
Approximation, 115, 214, 236.Attraction, 282.Autocorrélation, 2g6.Autccorrélation partielle, 3 02.Autocovarianc e, 292.Autorégressif. 31 l.
B
Banach. I 66.Bayes (théorènel, 27.Beppo-l-evi, 49.Bienaymé-Tchebichev, EZ, 76.Bochner. I 89.Borélien" 18.
Brownien, 31 1 .
c
Cauchy-Schwarz. Sl,83, I 69.Centile, 78.
Gentral limite (théorènel, 227.Goefficient de corrélation, gJ, 1iZ.Coefficient de détermination, I 7g.Gomptage (mesure), 40.Convergence dans [r, 166.Convergence dans l-a,
,|67.
Convergence dominée (théorème), bg.Convergence en loi, 2.l3.Convergence en probabilité, 20g.Gonvergence presque sûre, 207.Corrélogramm e, 297 .
eovariance, S2.
Cramer-von Mises, 247.Cramer-Wold, 217.
PH TASSI - S. LEGAIT
D
Décile, 78.
Densité, 59, 73, 80.Dirac (mesure), 37.Distance de lipschitz, 244.0istance d'Hellinger, 243.Distance de Paul Léuy,241.Distance de Frohorov, 244.Distance en uaùation, 242.Domaine d'attraction, 282.
E
Ecart-type, 76.Echantillon, 154.Espace mesurable. .l3,
3b.Espace mesuré, 3b.Espace probabilisable, I 3.Espace probabiiisé, 22.Espérance, 51, 53, 7b.Espérance conditionnelle, g8.
Etagée (fonct!on),46.Etendue, 284.Evénement, 12.Expérience, I 2.
Extrême, 266.
F
Famille exponentielle, 1 b2.Fisher (coefficienrs), 1 50.Fisher (théorème), I 82.Fonction caraetéristique, I 86.Fonction de répartition, 22, 72, 80.Fonetion de répartition empirique, 2S1.Fonction génératrice, 187.Fonetion intégrahle, 50.Fonction mesurable, 40.Fonction muette, 56.
INDEX
Fractile,77.Fractile empirique, 273.Frisch-Waugh, 302.Fubini (théorènne), 65.
G
Gnedenko, 281.Grands nombres (loil, 223.
H
llellinger (distance), 243.Hermite, 128.
Henry (droite), 143.
Hilbeit (espace), 169.Holder (inégalité), 1 69.
I
lndépendance, 24, 87, 195.lnjectivité, 188.
lntégrale bêta incomplète, 264.lntégration, 46, 6 1 .
lnversion, I 88.
Jensen,52.
K
Khintchine,223.Kofmogorov, 18,243.Kuf lback-Leiblet, 248.
tlebesgue (mesure), 39.lebesgue-Nikodym, 6 1 .
Lebesgue (théorème), 59
lévy Paul (distance), 241.lévy Paul (lois), 190.
lévy Paul (théorème), 217
356
Logarithme itété,253.loi conditionnelle, I1.Loi d'une u.a., 44, 71.loi des extrêmes, 276.loi du type l, 277.Loi du gpe ,4, 277.Loi du type all, 277.Loi marginale, 86.lois usuelles :
Bernoulli, 108.
Bêta,121.Binomiale, 1 :10.
Binomiale négative, 1 15.
Cauchy, 140.
Dirac, 107.Exponentielle, 1 1 8.
Fisher-Snedecor, 140.
Gamma, 1 17.
Géométrique, 1 16.
Gumbel, 124.Hypergéométrique, I 13.
lndicatrice, 1 08.Khi-deur 136, 255.laplace, I 92.log-normale, 135.
Multinomiale, 1 10.
Itlormale unidimensionn elle, 1 24.ltlormale multidimensionnelle, 1 31.Pascal, 1 16.
Poisson, 1 09.
Student, I 38.Uniforme, 1 16.
Weibull, 1 19.
M
Markov, 31 4.
Masse, 35.Médiane, 78.
Mesurable (application), 40.Mesure, 35.Mesure discrète, 37.Mesure étrangère, 61.
PH, TASSI - S. LEGAIT
INDEX
Mesure image, 43.Mesure produit 64.Mesure o-linie, 37.Minkowski, 168, 1 70.Moment 75,82,271,Mouvement brownien, 3l I .
Moyenne arithmétique, I 72.Moyenne quadratique, I 71.
N
ilégligeabilité, 54.
0
0pérateur, 304.0rdre, 258.0rdre (statistique), 26 1.
P
Papier fonctionnel, 1 42.Pearson (coefficients), 1 50.Pearson (distance), 247.Poincaré (formule), 21.Polya (théorème), 189.Presque partout, 54.Presque sûrement 54.Probabilité, 18.Probabilité conditionnelle, 23.Processus, 289.Processus autorégressif, 31 1.
Processus de Poisson, 307.Processus de vie et de mort, 310.Processus équivalent, 2 g0.
Processus moyenne mobile, 3l g.
Processus stationnaire, 291.Prohorov, 244.Proximiré, 246,253.
0uartile, 78.
Ouasi-étendue, 2 84.
PH TASSI - S. LEGAIT
R
Radon-Nikodym, 6 1.
Happort de corrélation, 1 01.Référentiel, 12.Bésulrar, 12.
s
Slutsky (théorème), 21 1, 21 4.Somme (de v.a.), 194.srabiliré, 281.Stationnarité, 2 9 1 .
Stationnarité laible, 2gZ.Stationnarité stricte, 2gl.Statistique descriptive, 1 71.Statistique d'ordre, 261.
T
Tableau statistique, 92.Trajectoire, 290.Translert (théorème), 62.Tribu, I3.Tribu borélienne, 1 7.
Tribu engendrée, 1 6, 40.Tribu produit, 44.Type,281.
V
Valeur extrêm e, 266, 278.Variable aléatoire, 43, 71.Variance, 75.Variances-Covariances (matrice), 84.Vitesse de convergence, 2b3.
W
Woltowitz,247.
Yu|e,315,318.
lmprimé àI'INSTITUT FRANCAIS DU PETROLE
B.P. 31192506 RUEIL-MALMAISON CEDEX
FRANCE
Achevé d'imprimer en janvier 199ONo d'ordre éditeur : 8O5
Dépôt légal :
1"'trimestre 1990
r/
lsBN 2.7 108-0582-0