Estimation : chapitre 10

38
1 ESTIMATION PONCTUELLE ………………….……………… 7 méthode de vraisemblance maximale ………………………….. méthode de moments ……………………………………………… FORMULAIRE ..…. 9-10 ESTIMATION: INTERVALLES CONFIANCE ….…………………….. 11-12 FORMULAIRE …… 13-15 Intervalle de confiance pour la moyenne μ …..…………….....16 Calcul de la taille échantillonnale n ………………………….. 17 Interprétation intervalle confiance : simulation ……………….. 18 Estimation : différence entre 2 moyennes μ 1 - μ 2 …………… 22 Estimation : variance σ 2 / écart type σ ………………………... 27 Estimation du paramètre θ (ou p) : distribution binomiale … 30 Différence θ 1 - θ 2 entre 2 distributions binomiales (10,3,5) : hors programme Estimation : chapitre 10 (ed2 HMGB) Bernard CLÉMENT, PhD Intervalle de prévision pour une observation future ………. 34 Intervalle de tolérance pour un pourcentage distribution …… 35 Rappel : terminologie statistique - résultats…………………… 2-6

Transcript of Estimation : chapitre 10

Page 1: Estimation : chapitre 10

1

ESTIMATION PONCTUELLE ………………….……………… 7 méthode de vraisemblance maximale ………………………….. méthode de moments ………………………………………………

FORMULAIRE ..…. 9-10ESTIMATION: INTERVALLES CONFIANCE ….…………………….. 11-12

FORMULAIRE …… 13-15

Intervalle de confiance pour la moyenne μ …..…………….....16 Calcul de la taille échantillonnale n ………………………….. 17 Interprétation intervalle confiance : simulation ……………….. 18

Estimation : différence entre 2 moyennes μ1 - μ2 …………… 22

Estimation : variance σ2 / écart type σ ………………………... 27

Estimation du paramètre θ (ou p) : distribution binomiale … 30

Différence θ1 - θ2 entre 2 distributions binomiales (10,3,5) : hors programme

Estimation : chapitre 10 (ed2 HMGB)

Bernard CLÉMENT, PhD

Intervalle de prévision pour une observation future ………. 34 Intervalle de tolérance pour un pourcentage distribution …… 35

Rappel : terminologie statistique - résultats…………………… 2-6

Page 2: Estimation : chapitre 10

2Bernard CLÉMENT, PhD

Méthodes statistiques- description / visualisation : données Y (ch8)- estimation : paramètres distribution (ch9-10)- tests statistiques : prise de décision (ch11-12)- modélisation Y = f(X) f = fonction de transfert (ch13)

processussystème

Y : variable de réponse

X : variablesexplicatives

Variable Y - plusieurs cas- mesure : variable continue - distribution normale N(μ, σ2) … autre

- classement 0 ou 1 : variable qualitative - distribution Bernoulli Ber(θ)

- comptage 0,1,2,.. : variable entière - distribution Poisson Poi (λ)

Variables X - catégoriques / continues / une ou plusieurs

Page 3: Estimation : chapitre 10

• les populations statistiques sont modélisées par des lois de probabilitésdont les paramètres sont toujours inconnus;

• le mieux que l’on puisse faire: estimer les paramètres avec desdonnées (observations ) provenant de la distribution (population)

• données (Y1, Y2, …) sont transformées en statistique W par une fonction hW = h (Y1, Y2 ,…. ) W est une variable aléatoire

choix de h : dépend de l’application envisagée (ESTIMATION ou TEST)loi de probabilité de W s’appelle distribution d’échantillonnageexemple : 2 échantillons de taille n provenant de la même population

(Y1, Y2, …,Yn) et (Y1’, Y2’ , ….., Yn’) auront une moyenne (Ybar),différente, un écart type s différent, un histogramme différent : c’est l’influence de la variabilité de l’échantillonnage

• on dispose toujours que d’un seul échantillon de taille n pour mettreen œuvre une procédure statistique : ESTIMATION ou TEST

• paramètre statistique ξ : toute quantité associée à une loi de probabilitéex. ξ = μ : moyenne distribution normale

ξ = σ : écart type distribution quelconqueξ = θ : moyenne distribution Bernoulli ( θ)

3

Terminologie statistique

Bernard CLÉMENT, PhD

Page 4: Estimation : chapitre 10

4

terminologie statistique

Échantillon aléatoire : un ensemble de variables aléatoires Y 1 , Y 2 , , Y ntelles que (a) les variables sont soumises à une même distribution f(y)

(b) les variables sont indépendantesloi conjointe : g (Y1, Y2, …, Yn) = f(Y1)* f(Y2) * …* f(Yn)

Statistique : toute fonction W calculée sur les données de l’échantillonW = h (Y1 , Y2 , …., Y n ) remarque : W est une variable aléatoire

Estimateur : une statistique particulière conçue de façon à fournirune estimation d’un paramètre d’une loi de probabilité

Estimation ponctuelle d’un paramètre ξ : est la valeur numérique ξprise par un estimateur sur la base d’un échantillon (y1, y2,…, yn)

ξ = h(y1, y2, … , yn ) Estimation par intervalle d’un paramètre statistique ξ est un intervalle

(a, b) dont les valeurs a et b dépendent de l’échantillon (Y1, Y2,…, Yn)et une probabilité spécifiée 1 - α = coefficient de confiancede telle sorte que : P ( a ≤ ξ ≤ b) = 1- α

a = h1(Y1, Y2,.., Yn) = ? b = h2(Y1, Y2,.., Yn) = ?

Bernard CLÉMENT, PhD

Page 5: Estimation : chapitre 10

5

Distribution d’échantillonnage : concept fondamentaltout estimateur ξ possède une distribution de probabilité appelée distribution d’échantillonnage ; l’étude des propriétés de l’estimateurrepose sur l’étude des propriétés de cette distribution.

Estimateur sans biais (sans erreur systématique) : estimateur dont la moyenne est égale au paramètre à estimer : E( ξ ) = ξ

ξ

ξ

distribution d’échantillonnage

E( ξ )n1

n2 > n1n2

Résultat : sous certaines conditions très générales : la distribution d’échantillonnage est approximativement en forme de cloche

(normale) et sa dispersion (variance) diminue lorsque n augmente ET ( ξ ) = constante / √ n

Erreur Quadratique Moyenne = EQM = Var ( ξ ) + ( E( ξ ) – ξ )2

« meilleur » estimateur : EQM minimumsi ξ sans biais ……. minimum EQM = minimum Var ( ξ )

Bernard CLÉMENT, PhD

Page 6: Estimation : chapitre 10

6

Résultat 1 Soit Y 1 , Y 2,, ….. , Y n des v. a. indépendantes telles que E(Yi ) = μi et Var (Yi ) = σi

2 i = 1, 2, …, nsoient a 1, a 2,, …. , a n des constantes etW = ∑ ai Yi une combinaison linéaire des Yi

Alors E(W) = μW = ∑ ai μi et Var (W) = σw2 = ∑ ai

2 σi2

remarque 1 : aucune hypothèse est nécessaire sur les lois des Yiremarque 2 : si les Y sont normales alors W est normale

Résultat 3 Si les Xi sont gaussiennes Xi ~ N (μ , σ2 )

alors X est gaussienne N (μ , σ2 / n )

Résultat 2 Soit ai = 1 / n E(Yi) = μ Var(Yi) = σ2 alors i = n

W = Y = Ybar = ∑ (1/n ) Yi vérifie E(Y) = μ et Var(Y) = σ2 / ni = 1

Bernard CLÉMENT, PhD

R A P P E L S (chapitre vecteurs aléatoires)

Résultat 3 Si les Yi sont normales Yi ~ N (μ , σ2 )

alors Y est normale N (μ , σ2 / n )

Résultat 4 Si les Yi sont distribuées quelconques E(Yi ) = μ Var(Yi) = σ2

alors Y est approximativement normale N (μ , σ2 / n )

Page 7: Estimation : chapitre 10

7Bernard CLÉMENT, PhD

méthode 2

moments

méthode 1

vraisemblance

maximale

méthode: vraisemblance maximaleEstimation ponctuelle

fonction de vraisemblance L

L(θ1, θ2, θ3,…, θk) = π f Y (y i ; θ1, θ2, θ3,…, θk)

f Y (y i ; θ1, θ2, θ3,…, θk) : distribution de Y

θ1, θ2, θ3,…, θk : paramètres inconnus

déterminer les valeurs de θ1, θ2, θ3,…, θk

qui maximise L(θ1, θ2, θ3,…, θk)

résoudre les k équations ∂ L ∂ θ i

solutions θ i = h i ( y1, y2,…, y n ) estimateurs à VM

remarqueen général, il plus facile de d’utiliser le log de Lpour trouver les estimateurs

log(L(θ1, θ2, θ3,…, θk)) = ∑ log f Y (y i ; θ1, θ2, θ3,…, θk)

= 0

i = 1

n

i = 1, 2,.., k

Page 8: Estimation : chapitre 10

8Bernard CLÉMENT, PhD

Estimation à vraisemblance maximale : étapes

Dans certains cas, l’estimateur à vraisemblance maximal n’est pas obtenu par dérivation.Par exemple, lorsque la fonction de vraisemblance est maximale à la frontière de l’espace.

NOTATION

dans l’encadré

la variable X

représente

une variable

de réponse

Page 9: Estimation : chapitre 10

9

estimateurs à vraisemblance maximale

Page 10: Estimation : chapitre 10

10

estimateurs à vraisemblance maximale

Page 11: Estimation : chapitre 10

11Bernard CLÉMENT, PhD

Estimation méthode des moments: étapes

Page 12: Estimation : chapitre 10

12

Estimation méthode des moments: exemple

Page 13: Estimation : chapitre 10

13Bernard CLÉMENT, PhD

TABLEAU - différents cas d’intervalle de confianceCAS PARAMÈTRE CONDITIONS NOMBRE ÉCHANT.A moyenne μ normale N(μ, σ2) σ2 connu 1B moyenne μ normale N(μ,σ2) σ2 inconnu 1C moyenne μ quelconque n > 30 σ2 inconnu 1D μ1 - μ2 normales variances σ2

1 σ22 connues 2

E μ1 - μ2 normales variances σ21 σ2

2 inconnues 2σ1

2 = σ22 = σ2

F μ1 - μ2 normales variances σ21 σ2

2 inconnues 2et inégales

G σ2 normale N(μ, σ2) μ inconnue 1H σ1

2 / σ22 normales moyennes μ1 μ2 inconnues 2

I θ Bernoulli 1J θ1 – θ2 Bernoulli 2

Page 14: Estimation : chapitre 10

14Bernard CLÉMENT, PhD

Tableau intervalles de confiance

Page 15: Estimation : chapitre 10

15Bernard CLÉMENT, PhD

Tableau intervalles de confiance : suite

Page 16: Estimation : chapitre 10

16

Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance

Cas A : population normale et variance σ 2 connue Y ~ N ( μ , σ 2 )

soit Y 1 , Y 2, …, Y n un échantillon de Y alors ( Y - μ ) / ( σ / √ n ) ~ N ( 0, 1 )

alors P ( - z 1 – α / 2 ≤ ( Y - μ ) / ( σ / √ n ) ≤ z 1 – α / 2 ) = 1 - α ( * )

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

N ( 0, 1) :

normale

centrée – réduite

1 - α : coefficient

de confiance

- z 1 – α / 2 0 z 1 – α / 2

α/ 21 - α

Z = ( Y – μ ) / (σ /√ n )

On isole le paramètre μ de l’équation ( * ) pour obtenir l’intervalle de confiance

de μ Y - z 1 – α / 2 σ ≤ μ ≤ Y + z 1 – α / 2 σ

√ n √ n

Bernard CLÉMENT, PhD

Page 17: Estimation : chapitre 10

17

Exemple : supposons que la durée ( heures) de vie X d’ampoules électriques d’unecertaine marque est une loi gaussienne de moyenne μ ( inconnue) et écart type σ = 100 (a) Déterminer un intervalle de confiance avec coefficient de confiance de 0.95 pour μ si

un échantillon de n = 20 ampoules a donné les durées de vie : 1076.2 - 989.2 - 1013.91152.5 - 1076.8 - …… 1028.7 - 946.2 - 1111.8 - 1060.5 de moyenne X = 1028.5 h

(b) Refaire (a) avec une coefficient de confiance de 0.99(c) Combien d’ampoules n doit –on échantillonnées si on veut un intervalle de confiance

à 0.95 de longueur égale à 30 ?Solution : (a) 1028.5 - ( 1.96 * 100 / √ 20 ) ≤ μ ≤ 1028.5 + ( 1.96 * 100 ) / √ 20 )

1028.5 – 43.8 ≤ μ ≤ 1028.5 + 43.8984.7 ≤ μ ≤ 1072.3

(b) avec un coefficient de confiance de 0.99 le percentile 1.96 change pour 2.576et l’intervalle de confiance devient 970.9 ≤ μ ≤ 1086.1

(c) la longueur de l’intervalle en (a) est de 2*43.8 = 87.6 avec n = 20on veut 2 * 1.96 * 100 / √ n = 30 donc n = 171

Détermination de la taille de l’échantillon : calcul de n ( avec σ connu )

on spécifie : coefficient de confiance = 1 - α longueur de l’intervalle = 2Δon connaît σ

n = (z 1 – α / 2 σ / Δ) 2

Bernard CLÉMENT, PhD

Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance

Page 18: Estimation : chapitre 10

18

Exemple : suite de l’exemple - Un deuxième échantillon de 20 ampoules a donné une viemoyenne de 981 h. L’intervalle de confiance à 0.95 est : 937.2 ≤ μ ≤1024.8

Remarque : dans toute étude statistique on a toujours qu’un seul échantillon de taille nqui est prélevé. Toute décision à prendre repose sur cet échantillon uniquement.Dans l’exemple, on a prélevé un deuxième échantillon pour des fins d’illustrationmais si c’était le cas réel, on aurait combiné les deux en un seul échantillon de taille 40.

Interprétation d’un intervalle de confianceLe coefficient de confiance se rapporte à la procédure à long terme : ( 1 - α ) 100% des intervalles calculés avec la formule génèrent des intervalles qui contiendront μ. On ne sait jamais si l’intervalle calculé avec l’échantillon observé contient μ mais notre degré de confiance est de ( 1 - α ) 100% qu’il fait partie de ceux qui contienne μ( les ‘ bons ‘ )L’interprétation peut être comprise et illustrée seulement avec des données simulées provenant d’une population gaussienne dont la moyenne est connue : exemple suivant

Exemple : simulation de 100 échantillons de taille n = 5

provenant d’une population gaussienne μ = 1000 et σ = 1007 échantillons : # 14 – 23 – 25 – 49 – 71 – 73 – 79 ne contiennent pas 1000

graphique: page suivantes

Bernard CLÉMENT, PhD

Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance

Page 19: Estimation : chapitre 10

19

intervalles de confiance : échantillons 1-50 de 5 obs.

moy-de-5750

800

850

900

950

1000

1050

1100

1150

1200

1250

#14 – 23 - 25 – 49 - 71 – 73 - 79 : 7 intervalles sur les 100 calculés

ne contiennent pas 1000

μ =1000

Bernard CLÉMENT, PhD

échantillons 51 à 100 : groupe de 5 obs

moy-de-5750

800

850

900

950

1000

1050

1100

1150

1200

1250

Simulation interprétation intervalle confiance

Page 20: Estimation : chapitre 10

20

Cas B : population normale et variance σ 2 inconnue Y ~ N ( μ , σ 2 = ? )

intervalle de confiance de la moyenne coeff. Conf. = 1 - α

Y - t 1 – α / 2, n - 1 s ≤ μ ≤ Y + t 1 – α / 2, n - 1 s√ n √ n

Exemple : 6 observations de la durée de vie d’ampoules a donné

863.0 - 1016.2 - 945.8 - 992.5 - 943.8 - 1006.4

Y = 961.3 et s = 57.0

Int. confiance avec coeff. conf. = 0.90 = 1 – α pour μ :

t 0,95 , 5 = 2.015 selon table Student avec 5 ddl

961.3 ± 2.015 * 57 / √ 6 = ( 914.4 , 1008.2 )

Bernard CLÉMENT, PhD

Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance

Page 21: Estimation : chapitre 10

21

Estimation de la moyenne μ d’une population : méthode de l’intervalle de confiance

Cas C : population quelconque et n au moins 30 intervalle de confiance approximatif pour la moyenne

Y - z1 – α / 2 s ≤ μ ≤ Y + z1 – α / 2 s√ n √ n

Remarque : la formule repose sur le théorème central - limite

Exemple : la durée de vie de 50 ampoules électriques d’une

certaine marque a donné

Y = 1014 et s = 98.7

Intervalle de confiance à 0.90 pour μ est

1014 ± 1.64 * 98.7 / √ 50

1014 ± 22,9

992.1 à 1036.9

Bernard CLÉMENT, PhD

Page 22: Estimation : chapitre 10

22

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

Résultat : (a) E (Y1 - Y2 ) = μ1 - μ2(b) Var ( Y1 - Y2 ) = σ1

2 / n1 + σ22 / n2

(c) Y1 - Y2 ~ N (μ1 - μ2 , σ12 / n1 + σ2

2 / n2 )(d) (Y1 – Y2) – (μ1 - μ2 ) / (σ1

2 / n1 + σ22 / n2 )0,5 ~ N(0,1)

le résultat (d) est approximatif si n1 et n2 sont plus grands que 30

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

Y11, Y12, … , Y1n1

Y1 ~ N ( μ1, σ12) Y2 ~ N ( μ2, σ2

2)

σ1 σ2

μ1 μ2

Y21, Y22, … , Y2n2

Loi d’échantillonnage de la différence entre 2 moyennes : variances connues

échantillonsindépendants

Y1 = ∑ Y1i / n1 Y2 = ∑ Y2i / n2moyennes

vrai sans aucune hypothèse sur les lois

Bernard CLÉMENT, PhD

X : cas 1 X : cas 2X : facteurcomparaison

Page 23: Estimation : chapitre 10

23

Cas D : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances connues (conséquence de (d) page précédente)

μ1 - μ2 : ( Y1 - Y2 ) ± Z 1 – α /2 [σ12 / n1 + σ2

2 / n2 ] 0.5

Exemple : calculer un intervalle de confiance avec coefficient de confiance 0.95pour la différence de vie ( heures ) moyenne de deux types ( 1 et 2 )

d’ampoules électriques à l’aide des informations suivantes :

type1 : n = 16 σ = 128 Y1 = 1050

type2 : n = 9 σ = 81 Y2 = 970solution selon la formule ci haut et la table de la gaussienne centrée réduite

1 - α = 0.95 donc 1- α/2 = 0.975 et z 0.975 = 1.96

μ1 - μ2 : (1050 – 970) ± 1.96 ( 1282 / 16 + 812 / 9 )0.5 = 80 ± 82.1 = - 2.1 à 162.9

question les ampoules de type1 durent elles ( en moyenne ) plus longtemps

que les ampoules de type2 ?

Réponse = ?

Bernard CLÉMENT, PhD

Page 24: Estimation : chapitre 10

24

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

Résultat : ( Y1 – Y2 ) - ( μ1 - μ2 )

Sp √ 1/ n1 + 1 / n2

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

Y11, Y12, … , Y1n1

Y1 ~ N ( μ1, σ2) Y2 ~ N ( μ2, σ2)

σ σ

μ1 μ2

Y21, Y22, … , Y2n2

Loi d’échantillonnage différence entre 2 moyennes: variances inconnues égales

échantillons indépendants

Y1 = ∑ Y1i / n1 Y2 = ∑ Yi / n2moyennes

S12 = ∑ Y1i – Y1 ) 2 / ( n1 - 1 ) S2

2 = ∑ (Y2i – Y2 ) 2 / ( n2 - 1 )variances

Sp2 = [ ( n1 -1 ) S1

2 + ( n2 – 1) S22 ] / ( n1 + n2 - 2) « pooled »

= T ~ Student avec n1 + n2 - 2 ddl

Bernard CLÉMENT, PhD MTH2302 Probabilités et méthodes statistiques

Xcas 1 cas 2

Page 25: Estimation : chapitre 10

25

Cas E : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances inconnues mais égalesμ1 - μ2 : ( Y1 – Y2 ) ± t1 – α/2, n1 + n2 - 2 Sp [ 1/ n1 + 1/ n2 ]0.5

Exemple : on a modifié la séquence d’opération pour faire l’assemblage de

plusieurs composants. Les données suivantes furent obtenues pour comparer la

la méthode actuelle et la méthode nouvelle. On croit que la nouvelle méthode

n’affecte pas sensiblement la variabilité (sigma). Déterminer un intervalle de confiance

à 95 % pour la différence de temps moyen d’assemblage entre les 2 méthodes.

données : Y1 méthode actuelle : n1 = 10 Y1 = 55 s1 = 10

Y2 méthode nouvelle : n2 = 12 Y2 = 40 s2 = 7

Solution Sp2 = (9 x 102 + 11 x 72) / 20 = 8.482

t 0.975, 20 = 2.08 selon la table de Student avec 20 ddl

μ1 - μ2 : ( 55 – 40 ) ± 2.08 * 8.48 ( 1 / 10 + 1 / 12 ) 0.5 = 15 ± 3.63 = 11.37 à 18.63

question : la nouvelle méthode réduit- elle le temps moyen d’assemblage ?

Réponse = ?

Bernard CLÉMENT, PhD

Page 26: Estimation : chapitre 10

26

Résultat : si les variances sont inconnues et inégales alors( Y1 – Y2 ) - ( μ1 - μ2 )

√s12 / n1 + s2

2 / n2= T ~ Student avec ν ddl

ν = min (n1-1, n2 -1)

Cas F : intervalle de confiance - différence de 2 moyennes μ1 - μ2variances inconnues et inégales - ν = min ( n1-1, n2 -1)

μ1 - μ2 : ( Y1 – Y2 ) ± t 1 – α/2, ν [ s12 / n1 + s2

2 / n2 ] 0.5

Exemple : comparaison de la force de tension de rupture

( psi x1000) de 2 types d’acier

données acier 1 : n1 = 16 Y1 = 74.6 s12 = 3.5

acier 2 : n2 = 13 Y2 = 70.2 s22 = 19.2

intervalle de confiance à 90% - ν = min ( 15, 12) = 12 t 0.95, 12 = 1.78

μ1 - μ2 : ( 74.6 – 70.2 ) ± 1.78 ( 3.5 / 16 + 19.2 / 13 ) 0.5 = 4.4 ± 2.3 = 2.1 à 6.7

intervalle de confiance à 99% - ν = min ( 15, 12) = 12 t 0.995, 12 = 3.05

μ1 – μ2 : ( 74.6 – 70.2 ) ± 3.05 ( 3.5 / 16 + 19.2 / 13 ) 0.5 = 4.4 ± 4.0 = 0.4 à 8.4

Bernard CLÉMENT, PhD

Page 27: Estimation : chapitre 10

27

Résultat : soit Yi i = 1, 2,…, n un échantillon aléatoire d’une population N( μ, σ2 )

soit S 2 = 1 /( n – 1 ) ∑ ( Y i – Y ) 2 la variance échantillonnale

alors (n-1) S 2 / σ2 = ∑ ( Y i – Y ) 2 / σ2 suit une loi Khi-deux avec (n – 1) ddl

Résultat : E ( S2 ) = σ2 c’est - à- dire S2 est une estimation sans biais de σ2

remarque: ce résultat est la justification du diviseur n – 1 employé

dans la définition de S2

Cas G : intervalle de confiance pour σ2 / coefficient de confiance = 1 - αsoit Y i i = 1, 2,…, n un échantillon aléatoire d’une population N( μ, σ2 )Alors ( n – 1 ) s 2 ≤ σ2 ≤ (n – 1 ) s 2

χ21- α /2, n-1 χ2

α /2, n-1

remarque : cette formule fournit un intervalle de confiance pour σ en prenant les racines carrées

Exemple : un échantillon de 20 ampoules électriques a donné une durée moyenne

de 1014 et une variance échantillonnale de 625. Un intervalle de confiance pour

σ2 et σ avec un coefficient de confiance de 95% est donné par

19 * 625 / 32.85 ≤ σ2 ≤ 19 * 625 / 8.91361.49 ≤ σ2 ≤ 1332.77

19.01 ≤ σ ≤ 36.51

Bernard CLÉMENT, PhD

Page 28: Estimation : chapitre 10

28

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

Résultat ( S12 / σ1

2 ) / (S22 / σ2

2) suit une loi F n1-1 , n2-1

-2 0 2 4 6 8 10 12 14 16 18 20 22 24 26

U

-0.02

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

GAUS

S

Y11, Y12 , … , Y1n1

Y1 ~ N ( μ1, σ12) Y2 ~ N ( μ2, σ1

2)

σ1 σ2

μ1μ2

Y21, Y22 , … , Y2n2

loi d’échantillonnage du quotient de 2 variances

échantillonsindépendants

Y1 = ∑ Y1i / n1 Y2 = ∑ Y2i / n2moyennes

S12 = 1/( n1 – 1 ) ∑ (Y1i – Y1 )2 variances SY

2 = 1/( n2 – 1 ) ∑ ( Y2i – Y2 )2

Bernard CLÉMENT, PhD

xcas 1 Cas 2

Page 29: Estimation : chapitre 10

29

cas H : intervalle de confiance pour le quotient de 2 variances

coeff. conf. = 1 - α

(S12 / S2

2 ) Fα /2, n1 -1, n2 -1 ≤ σ12 / σ2

2 ≤ (S12/S2

2 ) F1 – α /2, n1-1 , n2 -1

remarque : ce résultat fournit l’intervalle de confiance pour le quotient des écart

types σ1 / σ2 en prenant les racines carrées

Exemple : échantillon 1 : n1 = 25 S12 = 0.012

échantillon 2 : n2 = 25 S22 = 0.020

coefficient de confiance = 0.95 F 0.025 , 24 , 24 = 0.44 F 0.975 , 24 , 24 = 2.27

0.60 x 0.44 ≤ σ12 / σ2

2 ≤ 0.6 x 2.27

0.26 ≤ σ12 / σ2

2 ≤ 1.36

0.51 ≤ σ1 / σ2 ≤ 1.17

question : les variances ( ou les écart types ) sont – elles différentes (différents) ?

réponse = ?

Bernard CLÉMENT, PhD

Page 30: Estimation : chapitre 10

30Bernard CLÉMENT, PhD

Cas I : Estimation de θ (p) : population Bernouilli

Page 31: Estimation : chapitre 10

31Bernard CLÉMENT, PhD

Cas I : Estimation de θ : population Bernoulli

Page 32: Estimation : chapitre 10

32Bernard CLÉMENT, PhD

Cas I : Estimation de θ (aussi noté p) : population Bernoulli

Exemple 10.12 et 10.13 p.247 (manuel 1988)

test de n = 75 arbres d’essieu

12 surface trop rugueuse

θ = 12/75 = 0,16

Int. confiance à 95% pour fraction θ population d’essieux

θ : 0,16 ± 1,96 [ 0,16*0,84 / 75 ]0,5 = 0,16 ± 0,08

0,08 ≤ θ ≤ 0,24

n = ? pour avoir erreur 0,05 au lieu de 0,08 avec coef. conf. = 0,95

n = (1,96/0,05)2 * (0,16*0,84) = 207

si pas d’estimation préalable de θ = 0,16 comme cas précédent

n = (1,96/0,05)2 * (0,5*0,5) = 385

Page 33: Estimation : chapitre 10

33Bernard CLÉMENT, PhD

cas J : différence θ1 - θ2 différence 2 populations Bernoulli

section 9.3.6 livre HMGB édition 3 – hors programme

Page 34: Estimation : chapitre 10

34Bernard CLÉMENT, PhD

Intervalle de prévision pour une variable aléatoire

Exemple intervalle prévision à 95%

n = 10 obs. 1,15 1,23 1,56 1,69 1,71 1,83 1,85 1,90 1,91

Xbar = 1,666 s = 0,273

prévision de X : 1,666 ± t 0,025, 9 (0,2732 (1 + 1/10) )0,5

1,666 ± 0,648 1,018 ≤ X ≤ 2,314

remarque: ne pas confondre avec intervalle de confiance pour la moyenne μ

1,166 ± 0,195 ce dernier est plus court

remarquez le multiplicateur

1 + (1/n)

Page 35: Estimation : chapitre 10

35Bernard CLÉMENT, PhD

k constantetable VIII

page suivante

Page 36: Estimation : chapitre 10

36Bernard CLÉMENT, PhD

Tableau

constante k

Intervalle de tolérancebilatéral

HMGB ed 3

p 537

Page 37: Estimation : chapitre 10

37

Bernard CLÉMENT, PhD

Page 38: Estimation : chapitre 10

38Bernard CLÉMENT, PhD