Mickaël ProstLycée Chaptal – [email protected]://www.mickaelprost.fr
Mathématiques
– Résumé de cours PTSI/PT∗ –
ÆÆÆ 2016/2017 ÆÆÆ
« C’est par la logique que nous démontrons, mais c’est par l’intuition que nous découvrons ; sans elle, legéomètre serait comme un écrivain qui serait ferré sur la grammaire, mais qui n’aurait pas d’idées. »
Henri Poincaré (1854–1912)
Chapitre 1 – Algèbre linéaire
A – Matrices
1 – Puissances de matrices
Pour calculer les puissances successives d’une matrice M , on peut, par exemple,• Diagonaliser la matrice M .• Utiliser la formule du binôme de Newton
Si A et B commutent alors M p = (A+ B)p =p∑
k=0
pk
AkBp−k pour p ∈ N quelconque.
• Avoir recours à un polynôme annulateur de M .
2 – Inversion de matrices
Définition 1.1
Une matrice A∈Mn(R) est inversible si et seulement s’il existe une matrice B ∈Mn(R) telle que :
AB = BA= In
Il suffit en fait que AB = In pour que BA= In.
A∈Mn(R) est inversible ⇐⇒ det(A) 6= 0⇐⇒ rg(A) = n
Pour inverser une matrice, on peut, au choix,• Résoudre le système linéaire associé à l’aide du pivot de Gauss.• Appliquer les opérations élémentaires sur la matrice jusqu’à obtenir l’identité.• Utiliser un polynôme annulateur.
3 – Matrices semblables
Définition 1.2
On dit que A, B ∈Mn(R) sont semblables si et seulement s’il existe P ∈ GLn(R) telle que :
B = P−1AP
Deux matrices semblables ont même rang, même trace, même déterminant, même polynôme caractéristiquedonc même valeurs propres. Elles représentent la même application linéaire dans deux bases différentes.
4 – Trace et transposée
Définition 1.3
Soit A∈Mn(K). Tr(A) =n∑
k=1
akk et AT = tA= (a j,i)(i, j)∈¹1,nº2 .
La trace est une forme linéaire sur Mn(K) et Tr(AB) = Tr(BA). La trace est la somme des valeurs propresde A (spectre complexe). Une matrice et sa transposée ont même rang et même déterminant.
1
CHAPITRE 1. ALGÈBRE LINÉAIRE
B – Systèmes d’équations linéaires
On considère le système d’équations linéaires suivant :
a11 x1 + a12 x2 + . . .+ a1p xp = b1
a21 x1 + a22 x2 + . . .+ a2p xp = b2
...
an1 x1 + an2 x2 + . . .+ anp xp = bn
On lui associe la matrice A=
a11 a12 . . . a1p...
......
an1 an2 . . . anp
∈Mn,p(K).
Le système peut se réécrire sous la forme : A
x1...
xp
=
b1...
bn
.
Un tel système admet 0, 1 ou une infinité de solutions.Lorsqu’il n’admet pas de solution, on dit qu’il est incompatible. On dit qu’il est de Cramer lorsque n= p etqu’il admet une unique solution (x1, . . . , xp) ∈Kp.
C – Espaces vectoriels
On considère un K-e.v. E et F ⊂ E.
Définition 1.4
F est un sous-espace vectoriel de E ssi
0E ∈ F
∀x , y ∈ F, ∀λ ∈K, λx + y ∈ F
Quelques exemples classiques d’espaces vectoriels : R,C,Kn,K[X ], Mn,p(K),F (R,R),C∞(R), etc. munisdes lois usuelles. L’intersection de deux sous-espaces vectoriels est un sous-espace vectoriel.
1 – Famille de vecteurs
Soit u1, . . . , un ∈ E. Vect(u1, . . . , un) =
¨ n∑
i=1
αiui | (α1, . . . ,αn) ∈Kn
«
.
C’est le plus petit sous-espace vectoriel contenant u1, . . . , un.
Définition 1.5
On dit que (u1, . . . , un) est une famille génératrice de F si F = Vect(u1, . . . , un).
Autrement dit, pour tout x ∈ F , il existe (α1, . . . ,αn) ∈Kn tel que x =n∑
i=1
αiui .
,→ Existence de la décomposition.
Définition 1.6
On dit que (u1, . . . , un) est une famille libre de F si
∀(λ1, . . . ,λn) ∈Knn∑
i=1
αiui = 0=⇒ α1 = · · ·= αn = 0.
,→ Unicité de la décomposition.
- 2 -
Mickaël PROST Lycée Chaptal – PT*
Une famille de deux vecteurs est libre lorsqu’ils ne sont pas colinéaires. Cette propriété est fausse dès qu’il ya plus de deux vecteurs.Une famille infinie de vecteurs de E est libre ssi toute sous-famille est libre.
Définition 1.7
Soit E un espace vectoriel.• Une base de E est une famille libre et génératrice.• Un espace de dimension finie est un espace qui admet une famille génératrice finie, donc une
base finie.• Toutes les bases d’un espace E de dimension finie ont même cardinal. On l’appelle dimension
de E.
Théorème 1.8
Soit E un espace vectoriel de dimension n et F une famille génératrice de E.• F contient une sous-famille qui est une base de E.• Card(F )¾ n et si Card(F ) = n, c’est une base de E.
Théorème 1.9 : Théorème de la base incomplète
Soit E un espace vectoriel de dimension n et F une famille libre de E.• On peut compléter F en une base de E.• Card(F )¶ n et si Card(F ) = n, c’est une base de E.
Soit F = (u1, . . . , up) une une famille de vecteurs de E. rgF = dimVect(u1, . . . , up).
Théorème 1.10
Soit E un espace vectoriel de dimension n et F = (u1, . . . , up) une famille de p vecteurs de E.• rgF ¶ n et rgF ¶ p.• rgF = n ssi la famille est génératrice.• rgF = p ssi la famille est libre.
Théorème 1.11
Soit E un espace vectoriel de dimension n et (u1, . . . , un) une famille de vecteurs de E.
(u1, . . . , un) est une base de E⇐⇒ rg(u1, . . . , un) = n⇐⇒ det(u1, . . . , un) 6= 0.
2 – Sommes directes
F et G désignent deux sous-espaces vectoriels de E (généralement de dimension finie).
Définition 1.12
On dit que F et G sont supplémentaires dans E si E = F + G et F ∩ G = 0E.On note alors E = F ⊕ G.
Un supplémentaire n’est pas unique. Rappel : dans un espace euclidien E, E = F ⊕ F⊥.On rappelle que dim(E + F) = dim(E) + dim(F)− dim(F ∩ G) lorsque E et F sont de dimension finie.
- 3 -
CHAPITRE 1. ALGÈBRE LINÉAIRE
Théorème 1.13 : Caractérisation des sommes directes en dim. finie
F et G sont supplémentaires dans E si et seulement si l’une des propositions suivantes est vérifiées :• ∀x ∈ E,∃!(x1, x2) ∈ F × G, x = x1 + x2.• dim F + dim G = dim E et F ∩ G = 0E.• dim F + dim G = dim E et E = F + G.
Si E = F ⊕ G et si (e1, . . . , ep) est une base de F , (ep+1, . . . , en) est une base de G, alors (e1, . . . , en) est unebase de E appelée base adaptée à la décomposition E = F ⊕ G.
Définition 1.14 : Somme de p sous-espaces
On appelle somme de F1, . . . , Fp l’ensemble noté F1 + · · ·+ Fp ou bienp∑
i=1
Fi défini par :
F1 + · · ·+ Fp = x1 + · · ·+ xp | (x1, . . . , xp) ∈ F1 × · · · × Fp
Définition 1.15 : Somme directe
Les espaces F1, . . . , Fp sont en somme directe lorsque la décomposition de tout vecteur de F1 + · · ·+ Fp
comme somme de vecteurs des sous-espaces Fi est unique. On la note alorsp⊕
i=1
Fi ou bien F1⊕ · · ·⊕ Fp.
Théorème 1.16 : Caractérisation de la somme directe
Les sous-espaces F1, . . . , Fp sont en somme directe si et seulement si la décomposition du vecteur nulcomme somme de vecteurs des sous-espaces Fi est unique.
La concaténation de bases des espaces Fi est alors de nouveau une base de E.
3 – Hyperplans
Définition 1.17 : Hyperplan
On appelle hyperplan de E tout sous-espace vectoriel de E admettant une droite comme supplémentaire.Autrement dit, si H est un hyperplan de E, il existe u ∈ E non nul tel que E = H ⊕ Vect(u).
Théorème 1.18 : Caractérisation d’un hyperplan en dimension finie
On suppose E de dimension n. H est un hyperplan de E si et seulement si dim(H) = n− 1.
Proposition 1.19 : Intersection de p hyperplans
Soit E un espace de dimension n et p un entier inférieur ou égal à n.
(i) L’intersection de p hyperplans de E est un sous-espace de dimension au moins n− p.
(ii) Tout sous-espace de dimension n− p est l’intersection de p hyperplans de E.
- 4 -
Mickaël PROST Lycée Chaptal – PT*
D – Applications linéaires
1 – Généralités
Soit E et F deux espaces vectoriels sur K.
Définition 1.20
On dit que f est une application linéaire de E dans F si :
∀x , y ∈ E, ∀λ ∈K, f (λx + y) = λ f (x) + f (y).
On note L (E, F) le K-e.v. des applications linéaires de E dans F .
Définition 1.21
• Un endomorphisme de E est une application linéaire de E dans lui-même.On note L (E) l’ensemble des endomorphismes de E.
• Un isomorphisme est une application linéaire bijective.• Un automorphisme est un endomorphisme bijectif.
On note GL(E) l’ensemble des automorphismes de E.• Une forme linéaire est une application linéaire à valeurs dans K.
Définition 1.22
Soit f ∈ L (E, F).• Ker f = x ∈ E | f (x) = 0F= f −1(0F).• Im f = f (E) = y ∈ F | ∃x ∈ E y = f (x)= f (x) | x ∈ E.
Ker f est un s.e.v. de E et Im f un s.e.v de F . Si (e1, . . . , en) est une base de E, Im f = Vect( f (e1), . . . , f (en)).
Théorème 1.23
f est injective ssi Ker f = 0E et f est sujective ssi Im f = F .
Par définition, rg f = dim Im f .
Théorème 1.24 : Théorème du rang
On suppose que E est de dimension finie et f ∈ L (E, F). Alors, dim E = dimKer f + rg f .
Théorème 1.25
Soit f un endomorphisme de E de dimension finie. Alors,
f injective⇐⇒ f sujective⇐⇒ f bijective
Théorème 1.26
Soit f ∈ L (E, F). f est un ismorphisme si et seulement s’il existe une baseB de E telle que f (B) soitune base de F .L’image d’une base de E par f est alors une base de F et dim E = dim F .
- 5 -
CHAPITRE 1. ALGÈBRE LINÉAIRE
2 – Formules de passage et changement de base
Soit B et B ′ deux bases de E. On note P ∈ GLn(K) la matrice de passage de B à B ′ (ses colonnesreprésentent les coordonnées des vecteurs deB ′ dans la baseB).
Théorème 1.27 : Formules de passage
• Soit x ∈ E. On note X (resp. X ′) le vecteur coordonnées de x dans la baseB (resp.B ′).
X = PX ′ i.e. X ′ = P−1X
• Soit f ∈ L (E). On note M (resp. M ′) la matrice de f dans la baseB (resp.B ′).
M ′ = P−1M P
Ne pas oublier que pour déterminer X ′ en fonction de X , on doit inverser un système. D’où la présence deP−1 dans la formule X ′ = P−1X .
3 – Endomorphismes induits
Définition 1.28
Soit E un espace vectoriel de dimension n. On suppose que F est un s.e.v. de E stable par f ∈ L (E),i.e. f (F) ⊂ F . f|F est alors un endomorphisme de F appelé endomorphisme induit.
Si (e1, . . . , ep) est une base de F que l’on complète en une base (e1, . . . , en) de E, on a alors :
Mat( f ) =
Mat f|F ×0 ×
.
Si E = F ⊕ G et si F et G sont stables par f , on aura dans une base adaptée :
Mat( f ) =
Mat f|F 00 Mat f|G
.
4 – Projections et symétries vectorielles
Définition 1.29
Soit E = F ⊕ G. Si x ∈ E, il existe un unique couple (x1, x2) ∈ F × G tel que x = x1 + x2.• On appelle projection sur F parallèlement à G l’application linéaire p vérifiant :
∀x ∈ E, p(x) = x1.
• On appelle symétrie par rapport à F parallèlement à G l’application linéaire s vérifiant :
∀x ∈ E, s(x) = x1 − x2.
Théorème 1.30 : Caractérisation des projecteurs et des symétries
Soit p, s ∈ L (E).• p est une projection vectorielle sur Im p parallèlement à Ker p si et seulement si p p = p.
On a alors E = Im(p)⊕ Ker(p) et Im p = Ker(p− idE).• s est une symétrie vectorielle par rapport Ker(s− idE) parallèlement à Ker(s+ idE) si et seulement
si s s = idE . On a alors E = Ker(s− idE)⊕ Ker(s+ idE).
- 6 -
Mickaël PROST Lycée Chaptal – PT*
Dans une baseB adaptée à E = Im(p)⊕Ker(p) (resp. E = Ker(s− idE)⊕Ker(s+ idE)), la matrice de p (resp.s) est :
MatB(p) =
1...
10
.. .0
et MatB(s) =
1...
1−1
...−1
Si Tr(p) = r alors dim Im p = r, dim Ker p = n− r et χp = (X − 1)r X n−r . p est diagonalisable.Si dimKer(s− idE) = r, dimKer(s+ idE) = n− r et χs = (X − 1)r(X + 1)n−r . s est diagonalisable.
Si E = E1 ⊕ · · · ⊕ En, tout vecteur x de E se décompose de façon unique sous la forme x = x1 + · · ·+ xn oùx i ∈ Ei . Notons alors, pour i ∈ ¹1, nº, pi l’application définie sur E par pi(x) = x i .
Théorème 1.31
Pour tout i ∈ ¹1, nº, pi est la projection vectorielle sur Ei parallèlement àn⊕
k=1k 6=i
Ek. De plus,
p1 + · · ·+ pn = idE et ∀i 6= j pi p j = 0L (E)
- 7 -
Chapitre 2 – Déterminant
A – Déterminant d’une matrice carrée
Définition 2.1
On admet qu’il existe une unique application de Mn(K) dans K, appelée déterminant, telle que :— le déterminant est linéaire par rapport à chacune des colonnes ;— l’échange de deux colonnes a pour effet de multiplier le déterminant par -1 ;— le déterminant de la matrice identité In vaut 1.
On la note det.
Théorème 2.2
Si les colonnes d’une matrice sont liées, alors le déterminant de la matrice est nul.
Parmi les propriétés les plus importantes, on peut citer :
• A∈ GLn(K) si et seulement si det(A) 6= 0. Si c’est le cas, det(A−1) =1
det(A).
• ∀A∈Mn(K), det(AT ) = det(A).
• ∀A, B ∈Mn(K), det(AB) = det(A)× det(B).
• Si A∈Mn(K) et λ ∈K alors det(λA) = λn det(A).
• Deux matrices semblables ont même déterminant.
Soit A= (ai, j) ∈Mn(K). On note Ai, j la matrice obtenue en ôtant la ième ligne et la jème colonne de A.
Théorème 2.3 : Développement par rapport à une ligne / à une colonne
• ∀i ∈ ¹1, nº det A=n∑
j=1
(−1)i+ j det(Ai, j)ai, j (développement / ligne i)
• ∀ j ∈ ¹1, nº det A=n∑
i=1
(−1)i+ j det(Ai, j)ai, j (développement / colonne j)
B – Déterminant d’un endomorphisme
E désigne désormais un K-espace vectoriel de dimension n.
Définition 2.4
Le déterminant d’un endomorphisme f de E est celui de sa matrice dans une base quelconque.
Théorème 2.5
• det(idE) = 1.• det( f g) = det( f )det(g).
• f ∈ GL(E) si et seulement si det f 6= 0. Dans ce cas, det( f −1) =1
det( f ).
Pour calculer un déterminant, on se ramènera toujours à un calcul de déterminant de matrice.
8
Mickaël PROST Lycée Chaptal – PT*
C – Déterminant d’une famille de vecteurs
Définition 2.6
Soient une famille (u1, . . . , un) de vecteurs de E et une base B de E. On appelle déterminant de lafamille (u1, . . . , un) dans la baseB le déterminant de la matrice représentative de la famille (u1, . . . , un)dans la baseB . On le note detB(u1, . . . , un).
Théorème 2.7
SoitB une base quelconque de E.• (u1, . . . , un) liée⇐⇒ detB(u1, . . . , un) = 0 ;• (u1, . . . , un) libre⇐⇒ (u1, . . . , un) base de E ⇐⇒ detB(u1, . . . , un) 6= 0.
D – Orientation de l’espace et produit mixte
Soit (E, (.|.)) un espace euclidien de dimension n. Si B1 et B2 sont deux bases orthonormées de E, lamatrice de passage deB1 àB2 est orthogonale. Si son déterminant vaut +1, on dit queB1 etB2 définissentla même orientation. Orienter E consiste à choisir une base orthonormée privilégiée de E.
Définition 2.8
Soit x1, . . . , xn n vecteurs de E etB une base orthonormée directe de E.On appelle produit mixte de ces n vecteurs le scalaire [x1, . . . , xn] = detB(x1, . . . , xn).Il est indépendant de la base orthonormée directe choisie.
Le déterminant de deux vecteurs ~u, ~v représente en dimension 2 l’aire algébrique du parallèlogramme définipar ~u et ~v. Le déterminant de trois vecteurs ~u, ~v et ~w représente en dimension 3 le volume algébrique duparallélépipède défini par ~u, ~v et ~w.
- 9 -
Chapitre 3 – Réduction d’endomorphismes
A – Éléments propres d’un endomorphisme
1 – Définitions
Définition 3.1
Soit f ∈ L (E) où E est un K-e.v.• On dit que λ ∈K est une valeur propre de f associé au vecteur propre x ∈ E si :
f (x) = λx avec x 6= 0E .
Le spectre de f l’ensemble des valeurs propres de f dans K quand E est de dim. finie.• On appelle sous-espace propre associé à la valeur propre λ l’espace vectoriel Eλ = Ker( f −λidE).
Théorème 3.2
• La somme de sous-espaces propres associés à des valeurs propres deux à deux distinctes sont ensomme directe.
• Toute famille de vecteurs propres associés à des valeurs propres distinctes est libre.
2 – Polynôme caractéristique d’un endomorphisme
On suppose que E est de dimension finie et on considère un endomorphisme f de E.
Définition 3.3
On appelle polynôme caractéristique de f le polynôme χ f = det(X idE − f ).
Théorème 3.4
• λ est valeur propre de f si et seulement si λ est racine de χ f .• χ f est de la forme :
χ f = X n − Tr( f )X n−1 + · · ·+ (−1)n det( f )
La somme des valeurs propres (complexes) vaut Tr( f ) et leur produit det( f ).
Si E est un C-e.v. de dimension n alors f admet exactement n valeurs propres comptées avec leur ordre demultiplicité. Lorsque E est un R-e.v., elle en admet au plus n.
Théorème 3.5
Soit λ une valeur propre de f d’ordre de multiplicité m(λ). Alors,
1¶ dim(Ker( f −λidE))¶ m(λ)
Si λ est racine simple, alors Ker( f −λidE) est de dimension 1.
10
Mickaël PROST Lycée Chaptal – PT*
B – Diagonalisation d’un endomorphisme
Définition 3.6
• Un endomorphisme f de E est dit diagonalisable s’il existe une base de E dans laquelle samatrice est diagonale.
• Une matrice est dite diagonalisable si elle est semblable à une matrice diagonale.
Un endormorphisme est diagonalisable si et seulement s’il existe une base de vecteurs propres de f . Danscette base, la matrice de f est diagonale.
Théorème 3.7 : Conditions nécessaires et suffisantes de diagonalisabilité
f est diagonalisable ⇐⇒ E =⊕
λ∈Sp( f )
Eλ ⇐⇒ dim(E) =∑
λ∈Sp( f )
dim(Eλ)
⇐⇒ χ f est scindé et, pour tout λ ∈ Sp( f ), dim Eλ = m(λ)
Théorème 3.8 : Condition suffisante de diagonalisabilité (1)
Si χ f est scindé et n’admet que des racines simples alors f est diagonalisable.
Théorème 3.9 : Condition suffisante de diagonalisabilité (2)
Une matrice symétrique réelle est diagonalisable au moyen d’une matrice orthogonale.
Plan de diagonalisation (hors cas particuliers) :
• Étude de la diagonalisabilité de f .— On détermine χ f .— Si χ f n’est pas scindé, f n’est pas diagonalisable.— Si χ f est scindé, on compare dim Eλ et m(λ).
À ce stade, on n’a pas besoin de déterminer une base de Eλ.On remarquera que dim Eλ = n− rg(M −λIn). (théorème du rang)
• Diagonalisation de f lorsque c’est possible.On détermine une base de Eλ pour chaque valeur propre en résolvant l’équation MX = λX et onconcatène les bases obtenues.
C – Trigonalisation d’un endomorphisme
Définition 3.10 : Trigonalisabilité
• Un endomorphisme f de E est dit trigonalisable s’il existe une base de E dans laquelle la matricede f est triangulaire supérieure.
• Une matrice est dite trigonalisable si elle est semblable à une matrice triangulaire supérieure.
Théorème 3.11
f est trigonalisable si et seulement si son polynôme caractéristique est scindé.
- 11 -
CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES
Toute matrice est donc trigonalisable dans Mn(C). On a T = P−1M P avec T une matrice triangulairesupérieure dont la diagonale est constituée par les valeurs propres de M .Lorsque n= 2 ou n= 3, on cherchera généralement T sous la forme :
λ1 10 λ2
ou
λ1 × ×0 λ2 10 0 λ3
D – Applications
Il existe de nombreuses applications à la réduction d’endomorphisme :— calcul de puissances ;— résolution de suites récurrentes linéaires ;— résolution de systèmes d’équations différentielles ;— etc.
Voir les exemples du cours.
Théorème 3.12
Soit p ∈ N∗. L’ensemble des suites réelles vérifiant une relation de récurrence de la forme :
∀n ∈ N un+p = ap−1un+p−1 + ap−2un+p−2 + · · ·+ a0un
forme un espace vectoriel.
- 12 -
Chapitre 4 – Polynômes
A – Généralités
1 – Degré d’un polynôme
Si P ∈K[X ], on appelle degré de P =+∞∑
n=0
akX k l’entier maxk ∈ N | ak 6= 0.
Soient P =n∑
k=0
akX k et Q =m∑
k=0
bkX k deux éléments de K[X ].
• deg(P +Q)¶max(deg(P), deg(Q)). Si deg(Q)< deg(P) alors deg(P +Q) = deg(P).
• deg(P ×Q) = deg(P) + deg(Q).
On a en fait : P ×Q =p+q∑
k=0
ckX k avec ck =k∑
i=0
ai bk−i où deg(P) = p et deg(Q) = q.
• deg(P Q) = deg(P)× deg(Q).
2 – Polynômes dérivés
Théorème 4.1 : Formule de Leibniz
Soit P et Q deux polynômes à coefficients dans K. Alors, (PQ)(n) =n∑
k=0
nk
P(k)Q(n−k).
Théorème 4.2 : Formule de Taylor
Soit P un polynôme de degré n et a ∈K. Alors,
∀x ∈K, P(x) =n∑
k=0
P(k)(a)k!
(x − a)k.
B – Racines et factorisation
1 – Généralités
Théorème 4.3 : Division euclidienne
Soit A et B deux polynômes tels que deg(B)¶ deg(A). Alors,
∃!(Q, R) ∈K[X ], A= BQ+ R avec deg(R)< deg(B).
Théorème 4.4 : Théorème de factorisation
Si α1, . . . ,αp sont p racines d’un polynôme P alors :
∃!Q ∈K[X ] P = (X −α1) · · · (X −αp)Q
13
CHAPITRE 4. POLYNÔMES
On dit que P de degré n est scindé sur K (ou dans K[X ]) s’il possède n racines dans K. Si c’est le cas,
P = anX n + · · ·+ a1X + a0 = an(X −α1) · · · (X −αn)
ce qui nous donne n relations entre les racines et les coefficients.
Définition 4.5
Un polynôme P est dit irréductible si :
P =QR avec Q, R ∈K[X ] =⇒Q ou R constant.
2 – Factorisation dans R[X ] et C[X ]
Théorème 4.6 : d’Alembert-Gauss
Un polynôme complexe non constant admet au moins une racine dans C.
Ainsi, tout polynôme P ∈ C[X ] de degré n ¾ 1 admet exactement n racines dans C (comptées avec leurordre de multiplicité) et peut s’écrire sous la forme :
P = λn∏
i=1
(X −αi) αi ∈ C
Soit P ∈ R[X ] et α ∈ C. Si P(α) = 0 alors P(α) = 0. (X −α)(X − α) = X 2 − 2Re(α)X + |α|2 ∈ R[X ]. Toutpolynôme de R[X ] peut donc se factoriser sous forme d’un produit de polynômes de degré 1 et polynômesde degré 2 à discriminant négatif.Dans la pratique, on commencera par le décomposer dans C[X ] et on fera apparaître les facteurs réels enregroupant les racines conjuguées.
Théorème 4.7 : Polynômes irréductibles
Les polynômes irréductibles de C[X ] sont les polynômes de degré 1. Les polynômes irréductibles deR[X ] sont les polynômes de degré 1 et de degré 2 à discriminant négatif.
3 – Racines nièmes de l’unité
Ce sont les n racines simples du polynôme X n − 1 de la forme ωk = ei 2kπn pour k ∈ ¹0, n− 1º.
Leur somme est nulle :n−1∑
k=0
ωk =n−1∑
k=0
ei 2πn
k=
1− ei 2nπn
1− ei 2πn
= 0.
De même, on peut déterminer les racines de X n − a avec a ∈ C.On écrit a = ρeiθ et on trouve αk = ρ
1n ei θnωk.
- 14 -
Chapitre 5 – Espaces préhilbertiens réels
A – Produit scalaire
Définition 5.1
On appelle produit scalaire sur un R-e.v. E toute application ϕ : E × E→ R telle que :• ϕ est une forme bilinéaire :∀x1, x2, y ∈ E, ∀λ ∈ R, ϕ(λx1 + x2, y) = λϕ(x1, y) +ϕ(x2, y).∀x , y1, y2 ∈ E, ∀λ ∈ R, ϕ(x ,λy1 + y2) = λϕ(x , y1) +ϕ(x , y2).
• ϕ est symétrique : ∀x , y ∈ E, ϕ(x , y) = ϕ(y, x).• ϕ est définie positive : ∀x ∈ E, ϕ(x , x)¾ 0 et ϕ(x , x) = 0 si et seulement si x = 0E .
On dit que (E,ϕ) est un espace préhilbertien réel. Si dim E < +∞, on parle d’espace euclidien.
Exemples fondamentaux d’espaces préhilbertiens réels :
— E = Rn muni du produit scalaire usuel défini par (x |y) =n∑
i=1
x i yi .
— E = R[X ] muni du produit scalaire défini par (P|Q) =∫ 1
0
PQ.
— E =C ([a, b],R) muni du produit scalaire défini par ( f |g) =∫ b
af g.
— E =Mn(R) muni du produit scalaire défini par (A|B) = Tr(BT A).
Théorème 5.2 : Inégalité de Cauchy-Schwarz
Soit (E, (·|·)) un espace préhilbertien réel. On a alors :
∀x , y ∈ E |(x |y)|¶ ||x || · ||y||
Il y a égalité si et seulement si x et y sont colinéaires.
Définition 5.3 : Norme euclidienne
Soit (E, (·|·)) un espace préhilbertien réel.On appelle norme (euclidienne) sur E l’application || · || : E→ R+ définie par :
∀x ∈ E ||x ||=Æ
(x |x)
L’application || · || vérifie les propriétés suivantes :
• ||x ||= 0⇐⇒ x = 0E .
• ∀x ∈ E, ∀λ ∈ R, ||λx ||= |λ| · ||x ||.• Inégalité triangulaire : ∀x , y ∈ E, ||x + y||¶ ||x ||+ ||y||.
Identités remarquables vérifiées par la norme euclidienne : (valables pour x , y quelconques)
• ||x + y||2 = ||x ||2 + ||y||2 + 2(x |y).• ||x − y||2 = ||x ||2 + ||y||2 − 2(x |y).• Identité du parallélogramme : ||x + y||2 + ||x − y||2 = 2||x ||2 + 2||y||2.
• Identité de polarisation : (x |y) =14
||x + y||2 − ||x − y||2
.
15
CHAPITRE 5. ESPACES PRÉHILBERTIENS RÉELS
B – Orthogonalité
1 – Familles orthonormales
Définition 5.4
Deux vecteurs x et y sont dits orthogonaux si (x |y) = 0.
Théorème 5.5 : Pythagore
||x + y||2 = ||x ||2 + ||y||2⇐⇒ (x |y) = 0.
Le vecteur nul est le seul vecteur orthogonal à tous les autres.
Définition 5.6 : Familles orthogonales et orthonormales
Soit I un ensemble d’indices fini ou infini.
• Une famille de vecteurs (ei)i∈I de E est dite orthogonale si :
∀(i, j) ∈ I2, i 6= j =⇒ (ei|e j) = 0.
• Elle est dite orthonormale si elle vérifie de plus : ∀i ∈ I , ||ei||= 1.
Cela revient à dire que pour tout (i, j) ∈ I2, (ei|e j) = δi, j .
Théorème 5.7
• Une famille orthogonale constituée de vecteurs non nuls est libre.• Une famille orthonormale est libre.
Théorème 5.8 : Décomposition dans une base orthonormée
Soient E un espace euclidien de dimension n ∈ N∗ et (e1, . . . , en) une base orthonormée de E.
∀x ∈ E, x = (x |e1)e1 + · · ·+ (x |en)en =n∑
i=1
(x |ei)ei
Proposition 5.9
Soient B = (e1, . . . , en) une base orthonormale de E. On considère x , y ∈ E de coordonnées respectivesX = (x1, . . . , xn) et Y = (y1, . . . , yn). On a alors :
(x |y) =n∑
i=1
x i yi =n∑
i=1
(x |ei)(y|ei) = X T Y et ||x ||2 =n∑
i=1
x2i =
n∑
i=1
(x |ei)2 = X T X
−→u1
−→u2
−→e1
−→e2
(−→u2 |−→e1 )−→e1
−→ u 2−(−→ u
2|−→ e
1)−→ e
1
Tout espace euclidien admet une base orthonormale, onpeut en construire une à l’aide de l’algorithme d’orthonor-malisation de Gram-Schmidt.
On part d’une base (u1, . . . , un) quelconque de E et onconstruit pas à pas une base orthonormale (e1, . . . , en) enposant :
e′k = uk −k−1∑
i=1
(uk|ei)ei puis ek =e′k||e′k||
- 16 -
Mickaël PROST Lycée Chaptal – PT*
2 – Orthogonal d’une partie
Définition 5.10 : Orthogonal
Soit F un sous-espace vectoriel de E. On appelle orthogonal de F l’ensemble :
F⊥ = x ∈ E | ∀y ∈ F (x |y) = 0
Théorème 5.11
Soit F un sous-espace vectoriel de dimension finie de E.• u ∈ F⊥⇐⇒ u est orthogonal aux vecteurs d’une base de F .• E = F ⊕ F⊥.• Si dim E = n et dim F = p alors dim F⊥ = n− p.
F⊥⊥= F .
Corollaire 5.12 : Inégalité de Bessel
Soient (e1, . . . , ep) une famille orthonormale de E et x ∈ E. Alorsp∑
i=1
(x |ei)2 ¶ ||x ||2.
Il y a égalité si et seulement si x ∈ Vect(e1, . . . , ep).
3 – Projection orthogonale et distance
Définition 5.13
Soit F un s.e.v. de dimension finie de (E, (.|.)). On a E = F ⊕ F⊥.On appelle projection orthogonale sur F la projection p sur F parallèlement à F⊥.
Théorème 5.14
• p(x) est entièrement caractérisé par : p(x) ∈ F et x − p(x) ∈ F⊥.• Si (e1, . . . , ep) est une base de F alors p(x) = (x |e1)e1 + · · ·+ (x |ep)ep.
Définition 5.15
Soit x ∈ E et F un sous-espace vectoriel de dimension finie de E.On appelle distance de x à F le réel d(x , F) = inf
u∈F||x − u||.
Théorème 5.16
En reprenant les hypothèses précédentes, d(x , F) = infu∈F||x − u||= ||x − p(x)|| où p est la projection
orthogonale sur F .
- 17 -
Chapitre 6 – Isométries d’un espace euclidien
On considère un espace euclidien - espace préhilbertien de dimension finie - (E, (.|.)).
A – Endomorphismes orthogonaux
1 – Matrices orthogonales
Définition 6.1
On dit que M ∈Mn(R) est une matrice orthogonale si et seulement si M T M = M M T = In.On note On(R) l’ensemble des matrices orthogonales.
Une matrice orthogonale est inversible, d’inverse M T et de déterminant ±1. On note SOn(R) l’ensemble desmatrices orthogonales de déterminant 1 (groupe spécial orthogonal). La composée d’isométries (positives)reste une isométrie (positive).
Théorème 6.2 : Caractérisation des matrices orthogonales
Une matrice est orthogonale si et seulement si l’une des deux conditions suivantes est vérifiée :• ses vecteurs colonnes forment une famille orthonormale.• ses vecteurs lignes forment une famille orthonormale.
Une matrice orthogonale s’interprète comme la matrice de passage d’une base orthonormée à une baseorthonormée. Lorsque les bases de départ et d’arrivée ont même orientation, son déterminant vaut +1.
2 – Isométries vectorielles
Définition 6.3
Soit f un endomorphisme de E. Les conditions suivantes sont équivalentes :• f conserve la norme : ∀x ∈ E, || f (x)||= ||x ||.• f conserve le produit scalaire : ∀x , y ∈ E, ( f (x)| f (y)) = (x |y).
On dit alors que f est une isométrie vectorielle de E (ou un endomorphisme orthogonal).
Une isométrie vectorielle est bijective, c’est un automorphisme.
Théorème 6.4
Un endomorphisme est orthogonal si et seulement si l’une des deux conditions suivantes est vérifiée :• l’image d’une base orthonormale est une base orthonormale.• sa matrice dans une base orthonormale est orthogonale.
3 – Symétries orthogonales
Définition 6.5
Soit F un sous-espace vectoriel de E. On a E = F ⊕ F⊥.On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallèlement à F⊥.Si F est un hyperplan de E, on parle alors de réflexion.
18
Mickaël PROST Lycée Chaptal – PT*
Théorème 6.6 : Caractérisation des symétries orthogonales
Une isométrie vectorielle est une symétrie orthogonale si et seulement si sa matrice dans une baseorthonormale est symétrique.
4 – Classification des isométries planes
Théorème 6.7 : Isométries du plan
• M ∈ O2(R)⇐⇒∃θ ∈ R tel que M =
cosθ ∓ sinθsinθ ± cosθ
.
• M ∈ SO2(R)⇐⇒∃θ ∈ R tel que M =
cosθ − sinθsinθ cosθ
.
Classification :
Nature de l’isométrie déterminant spectre s.e. propres matrice dans une b.o.n. qcq
identité 1 1 E1 = R2
1 00 1
- identité 1 −1 E−1 = R2
−1 00 −1
rotation d’angle θ (6= 0,π) 1 ∅ /
cosθ − sinθsinθ cosθ
réflexion d’axe Vect(u) -1 −1,1E1 = Vect(u)
E−1 = E⊥1
cosθ sinθsinθ − cosθ
5 – Classification des isométries dans l’espace
Plan d’identification : Soit f l’endomorphisme canoniquement associée à la matrice A.
• On vérifie que AT A= I3, i.e. A∈ O3(R). f est une isométrie vectorielle.
• On calcule det(A).— Si det(A) = 1, A∈ SO3(R) et f est une rotation d’axe dirigé par u et d’angle θ . (cas 1)— Si det(A) = −1, A∈ O−3 (R) et f est la composée d’une rotation d’axe dirigé par u et d’angle θ et
d’une réflexion par rapport à Vect(u)⊥. (cas 2)
• On détermine l’axe Vect(u) de la rotation en résolvant AX = X (cas 1) ou AX = −X (cas 2).
• L’angle de la rotation est donné par :Tr(A) = 1+ 2cos(θ ) (cas 1) ou Tr(A) = −1+ 2 cos(θ ) (cas 2)sin(θ ) = [u, x , f (x)] avec ||x ||= ||u||= 1 et x ∈ Vect(u)⊥.Dans le deuxième cas, si θ = 0, f est une simple réflexion.
Classification :
Nature de l’isométrie déterminant spectre matrice dans une certaine b.o.n.
identité 1 1
1 0 00 1 00 0 1
demi-tour 1 1,−1
1 0 00 −1 00 0 −1
rotation d’angle θ (6= 0,π) 1 1
1 0 00 cosθ − sinθ0 sinθ cosθ
- 19 -
CHAPITRE 6. ISOMÉTRIES D’UN ESPACE EUCLIDIEN
Nature de l’isométrie déterminant spectre matrice dans une certaine b.o.n.
- identité -1 −1
−1 0 00 −1 00 0 −1
réflexion -1 1,−1
−1 0 00 1 00 0 1
composée rotation/réflexion -1 −1
−1 0 00 cosθ − sinθ0 sinθ cosθ
B – Matrices symétriques réelles
Théorème 6.8 : Théorème spectral
Toute matrice M ∈ Mn(R) symétrique réelle est diagonalisable au moyen d’une matrice de passageorthogonale :
∃P ∈ On(R) P−1M P = PT M P diagonale.
Les sous-espaces propres d’une matrice symétrique réelle sont orthogonaux, toutes ses valeurs propres sontréelles. Si la matrice représentative d’un endomorphisme dans une certaine base est symétrique réelle, alorsil existe une base orthonormale constituée de vecteurs propres de cet endomorphisme.
C – Produit vectoriel
On suppose ici que E = R3 est muni du produit scalaire usuel.
Théorème 6.9 : Propriétés du produit vectoriel
Soit x , y et z trois vecteurs de E.
• (x ∧ y|z) = [x , y, z].
• Si u et v ne sont pas colinéaires, (u, v, u∧ v) est une base directe de E.
• Si (u, v) est orthonormée, (u, v, u∧ v) est une base orthonormée directe de E.
• Identité de Lagrange : (x |y)2 + ||x ∧ y||2 = ||x ||2||y||2.
• Double produit vectoriel : x ∧ (y ∧ z) = (x |z)y − (x |y)z. (1 2 3 = 1 3 2 - 1 2 3)
- 20 -
Chapitre 7 – Continuité et dérivabilité
On considère une fonction f : I → R définie sur un intervalle I de R.
A – Continuité
Définition 7.1
f est dite continue sur I si en tout point x0 ∈ I , limx→x0
f (x) = f (x0), i.e. si :
∀ε > 0, ∃η > 0, ∀x ∈ I |x − x0|< η=⇒ | f (x)− f (x0)|< ε
Théorème 7.2 : Théorème des valeurs intermédiaires
Soit f est continue sur I avec a, b ∈ I vérifiant a < b.Alors pour tout réel y0 compris entre f (a) et f (b), il existe x0 ∈ I tel que f (x0) = y0.
L’image d’un intervalle par une fonction continue est un intervalle. (TVI bis)Une fonction continue qui change de signe sur I s’annule (au moins une fois) sur I .
Théorème 7.3 : Théorème de la borne atteinte
Toute fonction continue sur un segment est bornée et atteint ses bornes.
Autrement dit, l’image d’un segment par une fonction continue est un segment.On remarquera qu’en général, f ([a, b]) 6= [ f (a), f (b)].
Théorème 7.4 : Théorème de la bijection
Si f est continue et strictement monotone sur I alors f réalise une bijection de I sur l’intervalleJ = f (I).De plus, la bijection réciproque f −1 : J → I est continue et de même monotonie que f .
Le graphe de f −1 est symétrique à celui de f par rapport à la première bissectrice.
Définitions et propriétés des fonctions : arccos, arcsin, arctan.
1 2−1−2
π2
−π2
y = arcsin(x)
y = sin(x)
Représentation de la fonction arcsin
La fonction arcsin est définie et continue sur [−1,1] et àvaleurs dans
−π2 , π2
. Elle est dérivable sur ]− 1,1[.
∀x ∈ [−1, 1] sin(arcsin(x)) = x
∀x ∈h
−π
2,π
2
i
arcsin(sin(x)) = x
La fonction arcsin est enfin impaire :
∀x ∈ [−1, 1] arcsin(−x) = −arcsin(x)
21
CHAPITRE 7. CONTINUITÉ ET DÉRIVABILITÉ
La fonction arccos est définie et continue sur [−1,1] et àvaleurs dans [0,π]. Elle est dérivable sur ]− 1,1[.
∀x ∈ [−1, 1] cos(arccos(x)) = x
∀x ∈ [0,π] arccos(cos(x)) = x
La fonction arccos vérifie enfin :
∀x ∈ [−1,1] arccos(−x) = π− arccos(x)1 2 3−1
π
π2
y = arccos(x)
y = cos(x)
Représentation de la fonction arccos
1 2 3−1−2−3
π2
−π2
y = arctan(x)
y = tan(x)
Représentation de la fonction arctan
La fonction arctan est définie et continue sur R et à valeursdans
−π2 , π2
. Elle est dérivable sur R.
∀x ∈ R tan(arctan(x)) = x
∀x ∈i
−π
2,π
2
h
arctan(tan(x)) = x
La fonction arctan est impaire vérifie enfin :
∀x > 0 arctan(x) + arctan
1x
=π
2
B – Dérivabilité
Définition 7.5
f est dite dérivable en x0 ∈ I sif (x)− f (x0)
x − x0possède une limite finie en x0.
Théorème 7.6
Si f est dérivable en x0 alors f est continue en x0. La réciproque est fausse. (x 7→ |x |)
Si f est dérivable en x0, f (x) =x→x0
f (x0) + f ′(x0)(x − x0) + o(x − x0) où également :
f (x0 + h) =h→0
f (x0) + hf ′(x0) + o(h)
fg
′=
g f ′ − f g ′
g2, (g f )′ = f ′.(g ′ f ).
Théorème 7.7 : Dérivabilité de la bijection réciproque
Soit f une fonction continue et strictement monotone sur l’intervalle I et f −1 sa bijection réciproque.Si f est dérivable en x0 et si f ′(x0) 6= 0 alors f −1 est dérivable en y0 = f (x0) et
f −1 ′ (y0) =1
f ′(x0)=
1f ′( f −1(y0))
.
- 22 -
Mickaël PROST Lycée Chaptal – PT*
Les dérivées des fonctions circulaires réciproques sont à connaître.
Une fonction dérivable n’est pas nécessairement de classe C 1, comme par exemple f : x 7→ x2 sin
1x
en
posant f (0) = 0. On a cependant :
Théorème 7.8 : Limite de la dérivée
Si f est continue sur I et dérivable sur I \ x0 et si f ′(x) admet une limite ` ∈ R lorsque x tend versx0 alors f est dérivable en x0, f ′(x0) = ` et f ′ est continue en x0.
Théorème 7.9 : Formule de Leibniz
Soit f et g deux fonctions de classe C n sur I . Alors, f g est également de classe C n sur I et
( f g)(n) =n∑
k=0
nk
f (k)g(n−k).
Théorème 7.10 : Théorème de Rolle
Si f est continue sur [a, b], dérivable sur ]a, b[ et si f (a) = f (b) alors il existe x ∈]a, b[ tel quef ′(x) = 0.
Théorème 7.11 : Accroissements finis
Si f est continue sur [a, b] et dérivable sur ]a, b[ alors il existe c ∈]a, b[ tel que :
f (b)− f (a) = f ′(c)(b− a)
Si | f ′| est majorée par un réel M sur ]a, b[, on a alors (inégalité des accroissements finis) :
∀x , y ∈ I , | f (y)− f (x)|¶ M |x − y|.
Application classique à l’étude des suites du type un+1 = f (un).
Théorème 7.12 : Formules de Taylor
Soit f une fonction de classe C n sur I et a, b ∈ I .• Formule de Taylor avec reste intégral
f (b) =n−1∑
k=0
(b− a)k
k!f (k)(a) +
∫ b
a
(b− t)n−1
(n− 1)!f (n)(t) dt
• Inégalité de Taylor-Lagrange
f (b)−n−1∑
k=0
(b− a)k
k!f (k)(a)
¶ M(b− a)n
n!avec M = sup
[a,b]| f (n)|
• Formule de Taylor-Young
f (b) =n∑
k=0
(b− a)k
k!f (k)(a) + o((b− a)n)
Ces formules sont utiles pour déterminer un développement limité, pour justifier l’existence d’un développe-ment en série entière, etc.
- 23 -
CHAPITRE 7. CONTINUITÉ ET DÉRIVABILITÉ
C – Développements limités et équivalents
Définition 7.13
On dit que f , g : I → R sont équivalentes au voisinage de x0 si :
f (x)g(x)
−−−→x→x0
1
pour g ne s’annulant pas au voisinage de x0, sauf éventuellement en x0.
Définition 7.14
On dit que f est négligeable devant g au voisinage de x0 et on note f (x) =x→x0
o(g(x)) si :
f (x)g(x)
−−−→x→x0
0
pour g ne s’annulant pas au voisinage de x0, sauf éventuellement en x0.
Proposition 7.15 : Lien entre ∼ et o
f (x) ∼x→x0
g(x)⇐⇒ f (x) =x→x0
g(x) + o(g(x)).
Définition 7.16 : Développement limité
On dit qu’une fonction f admet un développement limité à l’ordre n au voisinage de x0 s’il existea0, . . . , an ∈ R tels que :
f (x) = a0 + a1(x − x0) + a2(x − x0)2 + · · ·+ an(x − x0)
n + o((x − x0)n)
À connaître : Opérations usuelles sur les développements limités, intégration terme à terme (sans oublier leterme constant), utilisation de la formule de Taylor-Young...
- 24 -
Chapitre 8 – Suites numériques
A – Suites classiques
• Suite arithmétique de raison r ∈ R :
u0 ∈ Run+1 = un + r
Alors, pour tout n ∈ N, un = u0 + nr.
• Suite géométrique de raison q ∈ R
u0 ∈ Run+1 = qun
Alors, pour tout n ∈ N, un = qnu0.
• Suite arithmético-géométrique
u0 ∈ Run+1 = aun + b (a 6= 1)
On note ` le point fixe de la suite : `= a`+ b donc `=b
1− a.
(un − `) est géométrique de raison a donc un = an(u0 − `) + `.• Suite récurrente linéaire d’ordre 2
u0, u1 ∈ Run+2 = aun+1 + bun
On résout l’équation caractéritique X 2 − aX − b = 0 de discriminant associé ∆.— Si ∆> 0 alors on obtient deux racines réelles distinctes r1 et r2.∃(λ,µ) ∈ R2, ∀n ∈ N, un = λrn
1 +µrn2 .
— Si ∆= 0 alors on obtient une racine double r.∃(λ,µ) ∈ R2, ∀n ∈ N, un = (λ+ nµ)rn.
— Si ∆< 0 alors on obtient deux racines complexes conjuguées ρe±iθ .∃(λ,µ) ∈ R2, ∀n ∈ N, un = ρn(λ cos(nθ ) +µ sin(nθ )).
B – Convergence des suites numériques
Définition 8.1
On dit qu’une suite (un)n∈N converge vers ` ∈ R si,
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n¾ N =⇒ |un − `|< ε
On dit qu’elle diverge vers +∞ si,
∀A> 0, ∃N ∈ N, ∀n ∈ N, n¾ N =⇒ un > A
Rappel : Toute partie non vide et majorée de R admet une borne supérieure.
Théorème 8.2 : Théorème de la limite monotone
Toute suite croissante et majorée converge vers sa borne supérieure.
25
CHAPITRE 8. SUITES NUMÉRIQUES
Une suite croissante et non majorée diverge vers +∞.Une suite convergente est nécessairement bornée mais la réciproque est fausse : ((−1)n)n∈N, (cos(n))n∈N.Outre les théorèmes de comparaison et des gendarmes, les deux théorèmes suivants sont à connaître.
Théorème 8.3 : Suites adjacentes
Soit (un)n∈N et (vn)n∈N deux suites réelles vérifiant :— (un)n∈N croissante et (vn)n∈N décroissante.— un − vn −−−−→n→+∞
0.
Alors (un)n∈N et (vn)n∈N convergent vers la même limite.
Théorème 8.4 : Suites extraites
Si (un)n∈N converge vers ` alors toute suite extraite (du type (uϕ(n))n∈N avec ϕ : N→ N strictementcroissante) converge vers `.
C – Relations de comparaison
Définition 8.5 : Équivalence, négligeabilité et domination
Soient (un)n∈N et (vn)n∈N deux suites numériques où vn 6= 0 à partir d’un certain rang. On dit que :
• (un)n∈N et (vn)n∈N sont équivalentes si limn→+∞
un
vn= 1. Notation : un ∼
n→+∞vn ;
• (un)n∈N est négligeable devant (vn)n∈N si limn→+∞
un
vn= 0. Notation : un =
n→+∞o(vn) ;
• (un)n∈N est dominée par (vn)n∈N siun
vnest borné. Notation : un =
n→+∞O(vn).
Si (un)n∈N converge vers un réel ` et un ∼n→+∞
vn alors (vn)n∈N converge vers la même limite `. De plus, si
deux suites sont équivalentes, les termes généraux sont de même signe à partir d’un certain rang.
Rappelons les résultats classiques dits de « croissances comparées » pour α,β ∈ R∗+ :
lnα(n) =n→+∞
o(nβ); nα =n→+∞
o(eβn) et même pour x > 1, nα =n→+∞
o(xβn)
Théorème 8.6 : Lien entre équivalence et négligeabilité
Pour deux suites (un)n∈N et (vn)n∈N données,
un ∼n→+∞
vn ⇐⇒ un =n→+∞
vn + o(vn)
- 26 -
Chapitre 9 – Séries numériques
A – Quelques sommes classiques à connaître
n∑
k=0
k =n(n+ 1)
2et
n∑
k=0
k2 =n(n+ 1)(2n+ 1)
6.
n∑
k=0
qk =1− qn+1
1− qsi q 6= 1. Si q = 1,
n∑
k=0
qk = n+ 1.
(x + y)n =n∑
k=0
nk
xk yn−k. En particulier,n∑
k=0
nk
= 2n.
Pour n ∈ N, xn − yn = (x − y)n−1∑
k=0
xk yn−1−k.
B – Convergence des séries numériques
Définition 9.1
Soit (un)n∈N une suite à valeurs dans K= R ou C.
• On appelle somme partielle au rang n le terme Sn =n∑
k=0
uk.
• On appelle série de terme général un la suite (Sn)n∈N. On la note∑
un.
• Lorsque la suite (Sn) converge, on dit que la série de terme général un converge et on appelle
somme de la série la limite de (Sn)n∈N. Notation : S = limn→+∞
Sn =+∞∑
n=0
un.
• Lorsqu’elle converge, on appelle reste au rang n la différence Rn = S − Sn =∑
k>n
uk.
On ne modifie pas la nature d’une série en modifiant ses premiers termes.Voici les techniques au programme permettant de montrer qu’une série converge/diverge.
1 – Divergence grossière
Théorème 9.2
Si∑
un converge alors un −−−−→n→+∞0. La réciproque est fausse comme le montre l’exemple
∑ 1n .
Ainsi, si (un)n∈N ne converge pas vers 0, la série diverge (de manière grossière).
2 – Calcul direct
Théorème 9.3 : Série géométrique∑
xn converge si et seulement si x ∈]− 1,1[. Dans ce cas, sa somme vaut1
1− x.
On peut également prouver la convergence de séries à l’aide de sommes télescopiques.De plus, la suite (un)n∈N converge si et seulement si la série
∑
(un+1 − un) converge.
27
CHAPITRE 9. SÉRIES NUMÉRIQUES
3 – Cas des séries à termes positifs
Théorème 9.4
On suppose que∑
un est une série à termes positifs.Si la suite (Sn)n∈N est majorée alors la série converge. Sinon, elle diverge vers +∞.
Théorème 9.5 : Comparaison
On suppose qu’à partir d’un certain rang, 0¶ un ¶ vn.•∑
vn converge =⇒∑
un converge.•∑
un diverge =⇒∑
vn diverge.
Théorème 9.6 : Équivalents
On suppose que∑
un et∑
vn sont des séries à termes positifs.Si un ∼
n→+∞vn alors les séries
∑
un et∑
vn sont de même nature.
Théorème 9.7 : Règle de d’Alembert
On suppose que∑
un est une série à termes strictement positifs à partir d’un certain rang et queun+1
un−−−−→n→+∞
`.
• Si ` < 1, la série converge.• Si ` > 1, la série diverge.• Si `= 1, on ne peut rien dire.
Théorème 9.8 : Comparaison séries/intégrales
Soit f une application continue, positive et décroissante sur [a,+∞[.
Alors la série∑
f (n) et
∫ +∞
af (t) dt sont de même nature.
Une application directe de ce théorème nous donne de nouvelles séries de référence.
Théorème 9.9 : Séries de Riemann
Soit α ∈ R.∑ 1
nα converge si et seulement si α > 1.
4 – Convergence absolue
Définition 9.10
On dit que∑
un converge absolument si∑
|un| converge.
- 28 -
Mickaël PROST Lycée Chaptal – PT*
Théorème 9.11 : CV abs =⇒ CV
Une série absolument convergente est convergente.
La réciproque est fausse. On appelle série semi-convergente une série convergente qui n’est pas absolumentconvergente.
Théorème 9.12 : Règles du petit o et du grand O
Soient∑
un une série numérique et∑
vn une série à termes positifs.Si un = O(vn) ou un = o(vn) et si
∑
vn converge alors la série∑
un converge (absolument).
5 – Produit de Cauchy
Théorème 9.13 : Produit de Cauchy
Si∑
un et∑
vn convergent absolument alors leur produit de Cauchy converge (absolument) et :
+∞∑
n=0
wn =
+∞∑
n=0
un
·
+∞∑
n=0
vn
avec wn =n∑
k=0
ukvn−k
- 29 -
Chapitre 10 – Séries entières
Définition 10.1
Une série entière à variable réelle ou complexe z est une série de la forme∑
anzn avec an ∈K.
On appelle domaine de convergence le domaine de définition de la fonction z 7→+∞∑
n=0
anzn.
A – Rayon de convergence
1 – Définition et propriétés
Définition 10.2
On appelle rayon de convergence de la série entière∑
anzn l’élément R ∈ R+ défini par :
R= sup r ¾ 0 | (anrn)n∈N est bornée
Théorème 10.3
Soit∑
anzn une série entière de rayon de convergence R.
• Si |z|< R alors∑
anzn converge absolument.
• Si |z|> R alors∑
anzn diverge grossièrement.
• Si |z|= R alors on ne peut rien dire.
Lorsque z est une variable réelle, on parle d’intervalle ouvert de convergence et lorsque z est une variablecomplexe, on parle de disque ouvert de convergence.
2 – Détermination pratique du rayon de convergence
Théorème 10.4 : Encadrement du rayon de convergence
Soient∑
anzn une série entière de rayon de convergence R et z0 ∈ C.
• Si∑
anzn0 converge, alors |z0|¶ R
• Si∑
anzn0 diverge, alors |z0|¾ R.
• Si∑
anzn0 est semi-convergente, alors |z0|= R. On est sur le cercle de convergence.
Théorème 10.5 : Comparaison
Soient∑
anzn et∑
bnzn deux séries entières de rayon de convergence respectif Ra et Rb telles que|an|¶ |bn| à partir d’un certain rang. Alors, Ra ¾ Rb.
30
Mickaël PROST Lycée Chaptal – PT*
Théorème 10.6 : Équivalent
Soient∑
anzn et∑
bnzn deux séries entières telles que |an| ∼n→+∞|bn| .
Alors elles ont même rayon de convergence.
Théorème 10.7
Les séries∑
anzn et∑
nanzn ont même rayon de convergence.
On appliquera également la règle de d’Alembert (pour une série numérique à termes strictement positifs).
3 – Opérations sur les séries entières
Théorème 10.8
Soient∑
anzn et∑
bnzn deux séries entières de rayon de convergence respectif Ra et Rb.
(i)∑
(an + bn)zn est une série entière de rayon de convergence R avec R=min(Ra, Rb) si Ra 6= Rbou R¾ Ra si Ra = Rb.
(ii)∑
λanzn est une série entière de rayon de convergence Ra si λ 6= 0 ou +∞ si λ= 0.
(iii) Le produit de Cauchy des deux séries est une série entière de la forme∑
cnzn avec cn =n∑
k=0
ak bn−k
et son rayon de convergence R vérifie R¾min(Ra, Rb).
B – Propriétés de la somme d’une série entière réelle
Soit∑
an xn une série entière réelle de rayon de convergence R> 0.
On pose f : x 7→+∞∑
n=0
an xn. La fonction f est définie sur ]− R, R[, ]− R, R], [−R, R[ ou [−R, R].
Théorème 10.9 : Continuité
La fonction f est continue sur l’intervalle ouvert de convergence.
Théorème 10.10 : Dérivation terme à terme
f est de classe C∞ sur ]− R, R[,∑
nan xn−1 est une série entière de rayon de convergence R et :
∀x ∈]− R, R[, f ′(x) =+∞∑
n=1
nan xn−1.
Théorème 10.11 : Intégration terme à terme
On note F une primitive de f .∑ an
n+ 1xn+1 est une série entière de rayon de convergence R et :
∀x ∈]− R, R[, F(x) = F(0) ++∞∑
n=0
an
n+ 1xn+1.
- 31 -
CHAPITRE 10. SÉRIES ENTIÈRES
C – Développements en série entière
Définition 10.12
Une application est développable en série entière sur ]− r, r[ s’il existe une série entière∑
an de rayonde convergence R avec R¾ r telle que :
∀x ∈]− r, r[, f (x) =+∞∑
n=0
an xn.
Théorème 10.13
Si f admet un développement en série entière sur ]− r, r[ alors f est de classe C∞ sur ]− r, r[, son
développement en série entière est unique et est donné par sa série de Taylor :+∞∑
n=0
f (n)(0)n!
xn.
La réciproque est fausse : toute fonction de classe C∞ n’est pas développable en série entière.
Détermination pratique d’un développement en série entière :
• Utilisation des développements usuels. (à connaître par cœur, cf. formulaire)
• Dérivation et intégration terme à terme.
• Utilisation de la formule de Taylor avec reste intégral.
• Décomposition en éléments simples d’une fraction rationnelle.
• Utilisation d’une équation différentielle.
- 32 -
Chapitre 11 – Intégration
A – Intégration sur un segment
1 – Propriétés
On définit l’intégrale de toute fonction f continue sur [a, b] en approchant f par des fonctions en escalier.
Théorème 11.1
Si f est continue sur le segment [a, b] alors
∫ b
af existe.
Quelques propriétés de l’intégrale : ( f , g continues sur [a, b] et λ ∈ R)
• Linéarité :
∫ b
aλ f + g = λ
∫ b
af +
∫ b
ag.
• Relation de Chasles :
∫ b
af =
∫ c
af +
∫ b
cf pour c ∈ [a, b].
• Positivité : f ¾ 0=⇒∫ b
af ¾ 0 (seulement pour a < b)
• Croissance : f ¶ g =⇒∫ b
af ¶
∫ b
ag (seulement pour a < b)
• Inégalité :
∫ b
af
¶∫ b
a| f | (seulement pour a < b)
Théorème 11.2
Soit f une fonction positive et continue sur [a, b].
∫ b
af = 0⇐⇒ f est identiquement nulle sur [a, b].
2 – Primitives
Définition 11.3
Une primitive de f (continue sur un intervalle I) est une fonction F dérivable sur I telle que F ′ = f .
Théorème 11.4
Soient f : I → R continue sur un intervalle I et c ∈ I .
• x 7→∫ x
cf (t) dt est l’unique primitive de f qui s’annule en c.
• Si F est une primitive de f sur I ,
∫ x
cf (t) dt = F(x)− F(c).
33
CHAPITRE 11. INTÉGRATION
3 – Recherche de primitives
Il existe de nombreuses façons de calculer des primitives. En voici quelques unes.• Reconnaissance de formes usuelles.
Ex. : f ′ f α se « primitive » enf α+1
α+ 1si α 6= −1, en ln | f | si α= −1.
• Intégration par parties
Si f et g sont de classe C 1 sur [a, b] alors
∫ b
af ′g = [ f g]ba −
∫ b
af g ′.
• Changement de variables
Si f : J → R est continue et ϕ : [a, b]→ J de classe C 1 alors
∫ ϕ(b)
ϕ(a)f (t) dt =
∫ b
af (ϕ(u))ϕ′(u) du.
• Fractions rationnelles
Intégration directe lorsqu’elles sont du type1
(x − a)n.
Sinon, on peut procéder à une décomposition en éléments simples.• Fractions rationnelles en exp
On pose u= ex .• Produit d’un polynôme par une exponentielle
On effectue des intégrations par parties successives jusqu’à éliminer le polynôme.• Produit d’un polynôme trigonométrique par une exponentielle
On passe en complexe.
4 – Calcul approché d’intégrales
La méthode des rectangles est à connaître.
Théorème 11.5 : Sommes de Riemann
Soit f une fonction de classe C 1 (et même seulement continue) sur [a, b]. Alors,
Sn =b− a
n
n−1∑
i=0
f
a+ ib− a
n
−−−−→n→+∞
∫ b
af (t) dt
Pour a = 0 et b = 1, on trouve :
1n
n−1∑
k=0
f
kn
−−−−→n→+∞
∫ b
af (t) dt
B – Intégrales généralisées
I désigne désormais un intervalle quelconque de R.
1 – Définition
Définition 11.6
Soit f une fonction continue sur [a, b[ avec b ∈ R ou b = +∞.
Si
∫ x
af admet une limite finie lorsque x tend vers b−, on dit que l’intégrale impropre converge et on
note
∫ b
af cette limite. Sinon, on dit qu’elle diverge.
- 34 -
Mickaël PROST Lycée Chaptal – PT*
Il y a deux types d’intégrales impropres : l’intégrale de fonctions non bornées sur un intervalle borné(x 7→ ln x sur ]0,1]) et celle de fonctions continues sur un intervalle non borné (x 7→ e−x sur [0,+∞[).On peut étendre la définition précédente au cas ]a, b] avec a ∈ R ou a = −∞. Lorsqu’on a un intervalle dutype ]a, b[ on découpe l’intégrale en deux.
2 – Étude de la nature d’une intégrale
On peut quelques fois calculer une primitive et passer à la limite pour prouver la convergence/divergence.
•
∫ +∞
1
1tα
dt converge si et seulement si α > 1.
•
∫ 1
0
1tα
dt converge si et seulement si α < 1.
•
∫ +∞
0
e−αt dt converge si et seulement si α > 0.
•
∫ 1
0
ln t dt converge.
Si une fonction f : [a, b[→ R avec b ∈ R est continue sur [a, b[ et prolongeable par continuité en b, alors
l’intégrale
∫ b
af converge et vaut
∫ b
af où l’on a noté f le prolongement de f .
On dispose de plusieurs méthodes lorsque la fonction est positive (ou tout du moins de signe constant).
Théorème 11.7 : Comparaison
Soit f , g : I → R deux fonctions continues sur I telles que 0¶ f ¶ g. Alors,∫
Ig converge =⇒
∫
If converge et
∫
If diverge =⇒
∫
Ig diverge.
Théorème 11.8 : Équivalents
Soit f , g : [a, b[→ R deux fonctions continues sur I , de signe constant au voisinage de b, telles que
f (t) ∼t→b−
g(t). Alors,
∫ b
af et
∫ b
ag sont de même nature.
Théorème 11.9 : Comparaison séries/intégrales
Soit f une application continue, positive et décroissante sur [a,+∞[.
Alors la série∑
f (n) et
∫ +∞
af (t) dt sont de même nature.
Il existe d’autres méthodes lorsque la fonction ne garde pas de signe constant sur I .
Théorème 11.10 : Divergence grossière à l’infini
Soit f : [a,+∞[→ R continue par morceaux.
Si f admet une limite non nulle en +∞ alors
∫ +∞
af (t) dt diverge.
Contrairement aux séries, on ne peut rien dire lorsque la limite n’existe pas.
- 35 -
CHAPITRE 11. INTÉGRATION
Définition 11.11
Soit f : [a, b[→ R continue sur [a, b[.
On dit que
∫ b
af est absolument convergente lorsque
∫ b
a| f | converge.
Si
∫ b
af converge et
∫ b
a| f | diverge, on dit que
∫ b
af est semi-convergente.
Théorème 11.12 : CV absolue =⇒ CV
Une intégrable absolument convergente est convergente.
3 – Calcul intégral
On se placera sur un segment avant d’utiliser une intégration par parties, quitte à passer à la limite.
Théorème 11.13 : Changement de variable sur un intervalle quelconque
Soient f une fonction continue sur ]a, b[ et ϕ :]α,β[→]a, b[ une bijection strictement croissante de
classe C 1, alors les intégrales
∫ b
af (t) dt et
∫ β
α
f (ϕ(u))ϕ′(u) du sont de même nature et en cas de
convergence, elles sont égales.
Un théorème analogue s’applique lorsque ϕ est supposée strictement décroissante.
4 – Fonctions intégrables
Définition 11.14
Soit f : I → K une fonction continue par morceaux sur I est dite intégrable si∫
I f est absolumentconvergente.
Étudier l’intégrabilité de f sur I revient à étudier une intégrale classique sur le segment I ou à étudier laconvergence absolue d’une intégrale impropre.
Théorème 11.15
L’ensemble des fonctions continues et intégrables sur I est un espace vectoriel.
Les propriétés de linéarité, positivité, croissance, relation de Chasles et inégalité triangulaire sont encorevérifiées lorsqu’on travaille avec des fonction intégrables sur un intervalle I quelconque.
Théorème 11.16 : Règle du petit o et du grand O
Soit f , g : [a, b[→ R. On suppose la fonction g continue et intégrable sur [a, b[.
• si f =b−
o(g) alors f est intégrable sur [a, b[ ;
• si f =b−
O(g) alors f est intégrable sur [a, b[.
- 36 -
Mickaël PROST Lycée Chaptal – PT*
C – Intégrales à paramètre
On s’intéresse aux fonctions du type g : x 7→∫
Jf (x , t) dt avec f : I × J → R.
x ∈ Dg ⇐⇒∫
J f (x , t) dt existe. Si J est un segment, il suffira de vérifier que t 7→ f (x , t) est continue.Si l’intégrale est impropre, il faudra s’intéresser à sa convergence.
Théorème 11.17 : Continuité sous le signe∫
Soient I et J deux intervalles de R et f une fonction réelle ou complexe définie sur I × J telle que :
• Pour tout t ∈ J , x 7→ f (x , t) est continue sur I .
• Pour tout x ∈ I , t 7→ f (x , t) est continue sur J .
• Il existe ϕ : J → R+ continue et intégrable sur J telle que :
∀(x , t) ∈ I × J , | f (x , t)|¶ ϕ(t) (hypothèse de domination)
Alors g : x 7→∫
Jf (x , t) dt est définie et continue sur I .
L’hypothèse de domination peut simplement être vérifiée sur tout segment K inclus dans I , i.e. :
∀(x , t) ∈ K × J , | f (x , t)|¶ ϕK(t)
Si J = [a, b] est un segment et si f est continue sur I × [a, b], la domination sur tout segment seraautomatiquement vérifiée (à justifier).
Théorème 11.18 : Dérivabilité sous le signe∫
Soient I et J deux intervalles de R et f une fonction réelle ou complexe définie sur I × J telle que :
• Pour tout t ∈ J , x 7→ f (x , t) est de classe C 1 sur I .
• Pour tout x ∈ I , t 7→ f (x , t) est intégrable et t 7→∂ f∂ x(x , t) est continue sur J .
• Il existe ϕ : J → R+ continue et intégrable sur J telle que :
∀(x , t) ∈ I × J ,
∂ f∂ x(x , t)
¶ ϕ(t)
Alors g : x 7→∫
Jf (x , t) dt est de classe C 1 sur I et
∀x ∈ I g ′(x) =
∫
J
∂ f∂ x(x , t) dt
On peut là encore se contenter d’une domination sur tout segment inclus dans I .L’hypothèse de domination est automatiquement vérifiée lorsque J est un segment.
Extension aux fonctions de classe C k : on opère en plusieurs fois sur f ′, f ′′, . . . ou bien on raisonne parrécurrence.
- 37 -
Chapitre 12 – Équations différentielles
A – Équations différentielles linéaires
1 – Équations différentielles linéaires d’ordre 1
On considère l’équation différentielle linéaire d’ordre 1 suivante et l’équation homogène associés :
a(t)y ′ + b(t)y = c(t) (E) ; a(t)y ′ + b(t)y = 0 (H)
On suppose que a, b, c : I → R sont continues sur un intervalle I de R.
Théorème 12.1 : Problème de Cauchy
Si a ne s’annule pas sur l’intervalle I , le problème de Cauchy
a(t)y ′ + b(t)y = c(t)
y(t0) = y0admet une unique
solution sur I .
Théorème 12.2 : Structure de l’ensemble des solutions
• L’équation homogène y ′ + f (t)y = 0 admet pour solution générale t 7→ λe−F(t) où F est uneprimitive de f sur I et λ ∈ R. L’ensemble SH des solutions de (H) est SH = Vect(t 7→ e−F(t)).
• L’équation y ′ + f (t)y = b(t) admet pour solution générale t 7→ y0(t) +λe−F(t) où y0 est unesolution particulière de l’équation avec second membre.
Plan de résolution :
• Identification de l’équation.
• Mise sous forme résolue en divisant par a(t) sur les intervalles où a ne s’annule pas.
• Résolution de l’équation homogène : y ′ = f (t)y . ( f continue)La solution générale de l’équation homogène est y(t) = λeF(t) où F est une primitive de f sur I et λ ∈ R.
• Résolution de l’équation avec second membre.On recherche pour cela une solution particulière y0 de (E). S’il n’y a pas de solution évidente, on utiliserala méthode de variation de la constante en cherchant y sous la forme y(t) = λ(t)eF(t).La solution générale de l’équation (E) est y(t) = λeF(t) + y0(t).
• Raccordement éventuel des solutions.
• Conditions initiales.
2 – Équations différentielles linéaires d’ordre 2
On considère l’équation différentielle linéaire d’ordre 1 suivante et l’équation homogène associés :
a(t)y ′′ + b(t)y ′ + c(t)y = d(t) (E) ; a(t)y ′′ + b(t)y ′ + c(t)y = 0 (H)
On suppose que a, b, c, d : I → R sont continues sur un intervalle I de R.
Théorème 12.3 : Problème de Cauchy
Si a ne s’annule pas sur l’intervalle I , le problème de Cauchy
a(t)y ′′ + b(t)y ′ + c(t)y = d(t)
y(t0) = y0; y ′(t0) = y ′0admet
une unique solution sur I .
38
Mickaël PROST Lycée Chaptal – PT*
Théorème 12.4 : Structure de l’ensemble des solutions
Lorsque a : I → R ne s’annule pas sur l’intervalle I , l’ensemble SH des solutions de (H) est un planvectoriel. L’ensemble SE des solutions de (E) est un plan affine de direction SH .
Résolution lorsque les coefficients de (H) sont constants :
On résout l’équation caractéristique aX 2 + bX + c = 0 de discriminant associé ∆.• Si ∆> 0, deux racines réelles distinctes r1 et r2. y(t) = λ1er1 t +λ2er2 t avec λ1,λ2 ∈ R.• Si ∆= 0, une racine réelle double r. y(t) = (λ1 +λ2 t)er t avec λ1,λ2 ∈ R.• Si ∆ < 0, deux racines complexes conjuguées α ± iβ . y(t) = (λ1 cos(β t) + λ2 sin(β t))eαt avecλ1,λ2 ∈ R.
On peut déterminer une solution particulière de (E) lorsque le second membre d(t) est de la forme :• d(t) = P(t)emt avec P ∈ R[X ], on cherche y0 sous la forme y0(t) = Q(t)emt avec Q ∈ R[X ]
et deg(Q) = deg(P) + k, k étant l’ordre de multiplicité de m en tant que racine de l’équationcaractéristique.
• d(t) = cos(ωt), on passe en complexe et on retrouve le cas précédent.On pourra utiliser le principe de superposition.
Résolution lorsque les coefficients de (H) ne sont pas constants : (on se laisse guider par l’énoncé)
• Recherche de solutions polynomiales (on commence par l’étude du degré).• Recherche de solutions développables en série entière.• Recherche d’une solution sous la forme y(t) = z(t)y0(t) où y0 est une solution déjà connue (méthode
dite de Lagrange).• Changement de variables ou d’inconnues.
B – Systèmes linéaires à coefficients constants
On considère le système linéaire suivant :
x ′1 = a11 x1 + a12 x2 + . . .+ a1p xp + b1
x ′2 = a21 x1 + a22 x2 + . . .+ a2p xp + b2
...
x ′n = an1 x1 + an2 x2 + . . .+ anp xp + bn
On l’écrit sous la forme X ′ = AX + B avec :
A=
a11 a12 . . . a1n...
......
an1 an2 . . . ann
∈Mn(K), X (t) =
x1(t)x2(t)
...xn(t)
et B =
b1b2...
bn
. X ∈ C 0(I ,Kn)
Théorème 12.5 : Problème de Cauchy
Le problème de Cauchy X ′ = AX + B et X (t0) = X0 pour t0 ∈ I admet une unique solution sur I .
Théorème 12.6 : Structure de l’ensemble des solutions
L’ensemble SH des solutions de X ′ = AX est un sous-espace vectoriel (de dimension n) de C∞(I ,Kn).
Pour résoudre l’équation X ′ = AX , on essaye de diagonaliser A dans Mn(R) ou Mn(C). Si cela ne fonctionnepas, on trigonalise A.
- 39 -
CHAPITRE 12. ÉQUATIONS DIFFÉRENTIELLES
Théorème 12.7 : Structure de l’ensemble des solutions
On suppose que A est diagonalisable dans Mn(R). On note (X1, . . . , Xn) une base de vecteurs propresassociées aux valeurs propres λ1, . . . ,λn et on note P la matrice de passage correspondante. La solutiongénérale de l’équation X ′ = AX est :
X (t) = P
c1eλ1 t
...cneλn t
= c1eλ1 t X1 + . . .+ cneλn t Xn avec c1, . . . , cn ∈ R.
Si A est une matrice réelle et λ ∈ C une valeur propre de A, on écrira les solution sous la forme aRe(eλt Xλ)+bIm(eλt Xλ). À noter, le calcul de P−1 est inutile.
- 40 -
Chapitre 13 – Probabilités discrètes
A – Dénombrement
Définition 13.1
Soient E un ensemble à n éléments et p ∈ ¹0, nº.
• Un p-uplet ou une p-liste de E est une famille de p éléments de E.
• Un arrangement de p éléments de E est un p-uplet constitué d’éléments de E deux à deux distincts.
• Une permutation de E est un arrangement de E à n éléments.
• Une combinaison de p éléments de E est un sous-ensemble de E contenant p éléments.
On modélise souvent les tirages successifs avec remise à l’aide de listes, les tirages successifs sans remiseavec des arrangements et les tirages simultanés avec des combinaisons.
Théorème 13.2
Sous les hypothèses précédentes,
• Il y a np p-listes de E distinctes.
• Il y an!
(n− p)!arrangements distincts de p éléments de E.
• Il y a n! permutations distinctes de E.
• Il y a
np
=n!
p!(n− p)!combinaisons distinctes de p éléments de E.
Proposition 13.3 : Propriétés des coefficients binomiaux
Soit n ∈ N et un entier p ∈ ¹1, nº.
(i)
n0
=
nn
= 1,
n1
= n (ii)
np
=
nn− p
(iii) p
np
= n
n− 1p− 1
(iv)
n− 1p− 1
+
n− 1p
=
np
(v)n∑
k=0
nk
= 2n
B – Probabilités discrètes
1 – Tribus et probabilités
Définition 13.4 : Ensemble dénombrable
Un ensemble E est dit dénombrable s’il existe une bijection entre E et N.Il sera dit au plus dénombrable s’il est fini ou en bijection avec N.
41
CHAPITRE 13. PROBABILITÉS DISCRÈTES
Théorème 13.5
Les ensembles N,N∗,Z,Q et N×N sont dénombrables. Les ensembles R, 0, 1N et NN ne le sont pas.
Définition 13.6
On appelle univers l’ensemble des résultats possibles d’une expérience aléatoire donnée. On le note engénéral Ω. Les éléments de l’univers Ω sont appelés des possibles (résultats possibles). On dit qu’unpossible est réalisé s’il est observé au cours d’une expérience donnée.
Définition 13.7 : Tribu
Soit Ω un ensemble non vide. On appelle tribu sur Ω toute partieA de P (Ω) qui vérifie :
(i) Ω ∈A ;
(ii) Si A∈A alors A∈A (stabilité par passage au complémentaire) ;
(iii) Si (An)n∈N est une suite d’éléments deA alors+∞⋃
n=0
An ∈A (stabilité par réunion dénombrable).
La donnée d’un univers Ω et d’une tribuA définit un espace probabilisable (Ω,A ) ; tout élément deA est appelé événement de Ω.
Définition 13.8 : Système complet d’événements
Soit (Ω,A ) un espace probabilisable. On appelle système complet d’événements toute famille finie oudénombrable (Ai)i∈I d’événements, avec I = ¹1, nº (n ∈ N∗) ou I = N, telle que :
(i) Pour tout couple (i, j) d’éléments distincts, Ai ∩ A j =∅ ;
(ii)⋃
i∈I
Ai = Ω.
Définition 13.9 : Réunion et intersection dénombrables
Soit (An)n∈N une suite de parties d’un ensemble Ω. On définit les ensembles⋃
n∈NAn et
⋂
n∈NAn par :
ω ∈⋃
n∈NAn ⇐⇒ ∃n ∈ N ω ∈ An et ω ∈
⋂
n∈NAn ⇐⇒ ∀n ∈ N ω ∈ An
Définition 13.10 : Probabilité
Soit (Ω,A ) un espace probabilisable.On appelle probabilité sur (Ω,A ) toute application P :A → [0,1] vérifiant :
(i) P(Ω) = 1
(ii) Pour toute suite (An)n∈N d’événements deux à deux incompatibles,
P
+∞⋃
n=0
An
=+∞∑
n=0
P(An) (propriété de σ-additivité)
Le triplet (Ω,A , P) est alors appelé espace probabilisé.
- 42 -
Mickaël PROST Lycée Chaptal – PT*
Théorème 13.11
Soit Ω= ωnn∈N un univers dénombrable et une famille (pn)n∈N de réels.Alors il existe une probabilité P sur (Ω,P (Ω)) telle que pour tout n ∈ N, P(ωn) = pn ssi :
∀n ∈ N pn ¾ 0; la série∑
pn converge et+∞∑
n=0
pi = 1
Quand elle existe, P est unique et pour tout A∈ P (Ω), P(A) =∑
n∈Nωn∈A
pn.
Proposition 13.12
Soient (Ω,A , P) un espace probabilisé et A, B ∈A .
• P(∅) = 0.
• P(A) = 1− P(A).
• Si A⊂ B alors P(A)¶ P(B). (croissance de la probabilité)
• P(A∪ B) = P(A) + P(B)− P(A∩ B).
Proposition 13.13 : Continuité croissante
Si (An)n∈N est une suite croissante d’événements (au sens de l’inclusion) sur un espace probabilisé(Ω,A , P), alors :
P
+∞⋃
n=0
An
= limn→+∞
P(An)
Proposition 13.14 : Continuité décroissante
Si (An)n∈N est une suite décroissante d’événements (au sens de l’inclusion) sur un espace probabilisé(Ω,A , P), alors :
P
+∞⋂
n=0
An
= limn→+∞
P(An)
Proposition 13.15 : Sous-additivité finie
Si (A1, . . . , An) est une famille d’événements sur un espace probabilisé (Ω,A , P), alors :
P
n⋃
k=0
Ak
¶n∑
k=0
P(Ak)
Proposition 13.16 : Sous-additivité dénombrable
Si (An)n∈N est une suite d’événements sur un espace probabilisé (Ω,A , P) et si la série∑
P(An)converge, alors :
P
+∞⋃
n=0
An
¶+∞∑
n=0
P(An)
- 43 -
CHAPITRE 13. PROBABILITÉS DISCRÈTES
2 – Conditionnement et indépendance
Théorème / Définition 13.17 : Probabilité conditionnelle
Soient (Ω,A , P) un espace probabilisé et un A événement tel que P(A) 6= 0. L’application
PA : A −→ R
B 7−→P(A∩ B)
P(A)
est une probabilité sur Ω. On l’appelle probabilité conditionnelle relative à A (ou sachant A).Pour tout événement B, PA(B) – notée encore P(A|B) – est appelée probabilité de B sachant A.
Théorème 13.18 : Formule des probabilités composées
Soit n un entier naturel supérieur ou égal à 2, et (A1, A2, . . . , An) une famille d’événements de l’espaceprobabilisé (Ω,A , P) telle que P(A1 ∩ . . .∩ An−1) 6= 0. Alors,
P(A1 ∩ . . .∩ An) = P(A1)PA1(A2)PA1∩A2
(A3) . . . PA1∩...∩An−1(An)
Théorème 13.19 : Formule des probabilités totales
Soient (Ω,A , P) un espace probabilisé et (An)n∈N un système complet d’événements.Pour tout événement B, la série de terme général P(B ∩ An) est convergente et :
P(B) =+∞∑
n=0
P(B ∩ An) =+∞∑
n=0
P(B|An)P(An)
Théorème 13.20 : Formule de Bayes
Soient (Ω,A , P) un espace probabilisé, A et B deux événements, P(A|B) = P(A)P(B) × P(B|A).
Définition 13.21 : Indépendance de deux événements
Deux événements de l’espace probabilisé (Ω,A , P) sont dits indépendants si P(A∩ B) = P(A) · P(B).
Définition 13.22 : Famille d’événements deux à deux indépendants
On dit des événements A1, . . . , An qu’ils sont deux à deux indépendants si :
∀i, j ∈ ¹1, nº, i 6= j =⇒ P(Ai ∩ A j) = P(Ai)P(A j)
Définition 13.23 : Famille finie d’événements mutuellement indépendants
On dit des événements A1, . . . , An qu’ils sont mutuellement indépendants si :
P(A1 ∩ A2 ∩ . . . An) =n∏
i=1
P(Ai)
L’indépendance mutuelle d’une famille d’événements implique qu’ils sont deux à deux indépendants mais laréciproque est fausse.
- 44 -
Chapitre 14 – Variables aléatoires discrètes
A – Variables aléatoires discrètes
Définition 14.1 : Variable aléatoire discrète
Soit (Ω,A ) un espace probabilisable. On appelle variable aléatoire réelle discrète toute applicationX : Ω→ R telle que :
• X (Ω) est un ensemble fini ou dénombrable ;
• Si x ∈ X (Ω) alors (X = x) ∈A .
(X ∈ A) est alors événement pour tout A⊂ X (Ω).
Théorème 14.2
Soient (Ω,A ) un espace probabilisable et X une variable aléatoire discrète sur cet espace.Avec les notations précédentes, la famille ((X = xn))n∈N est un système complet d’événements.
Définition 14.3 : Loi d’une variable aléatoire
Soit X une variable aléatoire discrète sur un espace probabilisé (Ω,A , P). On appelle loi de probabilitéde X (ou plus simplement loi de X ) et on note PX l’application :
PX : X (Ω) ⊂ R→ Rx 7−→ P(X = x)
Définition 14.4 : Fonction de répartition
Soit X une variable aléatoire discrète sur un espace probabilisé (Ω,A , P). On appelle fonction derépartition de X et on note FX l’application :
FX : R→ Rx 7→ P(X ¶ x)
FX est constante par morceaux, croissante et limx→−∞
FX (x) = 0 et limx→+∞
FX (x) = 1.
B – Moments d’une variable aléatoire
Définition 14.5 : Espérance mathématique
Soit X une variable aléatoire discrète sur l’espace probabilisé (Ω,A , P). On pose X (Ω) = xn | n ∈ N.X est dite d’espérance finie si la série
∑
n∈Nxn · P(X = xn) converge absolument.
Dans ce cas, on appelle espérance de X et on note E(X ) le réel :
E(X ) =+∞∑
n=0
xn · P(X = xn)
L’espérance est linéaire.
45
CHAPITRE 14. VARIABLES ALÉATOIRES DISCRÈTES
Théorème 14.6 : Théorème de transfert
Soient X une variable aléatoire à valeurs finies sur l’espace probabilisé (Ω,A , P) et f : X (Ω)→ R. Onnote X (Ω) = xn | n ∈ N. Alors, f (X ) est d’espérance finie si et seulement si
∑
n∈Nf (xn) · P(X = xn)
converge et, dans ce cas,
E( f (X )) =+∞∑
n=0
f (xn)P(X = xn)
Théorème / Définition 14.7 : Variance
Soit X une variable aléatoire réelle discrète sur un espace probabilisé (Ω,A , P) admettant un momentd’ordre 2. Alors (X − E(X ))2 est d’espérance finie. On appelle variance de X et on note V (X ) le réelpositif :
V (X ) = E
(X − E(X ))2
=∑
x∈X (Ω)
(x − E(X ))2P(X = x)
On appelle écart type de X et on note σ(X ) le réel σ(X ) =p
V (X ).
Proposition 14.8 : Formule de Kœnig-Huygens
Si la variable aléatoire discrète X admet un moment d’ordre 2,
V (X ) = E(X 2)− E(X )2
C – Vecteurs aléatoires discrets
Définition 14.9 : Couple de variables aléatoires
Soit (Ω,A ) un espace probabilisable. On appelle couple de variables aléatoires discrètes toute applica-tion
Z : Ω −→ R2
ω 7−→ (X (ω), Y (ω))
où X et Y sont des variables aléatoires discrètes sur (Ω,A ). On note Z = (X , Y ) ce couple de variables.
Z est une variable aléatoire discrète sur R2.
Définition 14.10 : Loi conjointe
Soit (X , Y ) un couple de variables aléatoires sur un espace probabilisé (Ω,A , P). On appelle loiconjointe de X et de Y (ou loi de probabilité du couple (X , Y )) l’application :
P(X ,Y ) : X (Ω)× Y (Ω) −→ [0, 1](x , y) 7−→ P ((X = x)∩ (Y = y))
Définition 14.11 : Lois marginales
Soit (X , Y ) un couple de variables aléatoires discrètes sur (Ω,A , P).On appelle 1ère loi marginale de (X , Y ) la loi de X et 2ème loi marginale de (X , Y ) la loi de Y .
- 46 -
Mickaël PROST Lycée Chaptal – PT*
Définition 14.12 : Lois conditionnelles
Soit (X , Y ) un couple de variables aléatoires sur (Ω,A , P).
(i) On appelle loi conditionnelle de X sachant (Y = y) l’application x 7→ P(X = x |Y = y) ;
(ii) On appelle loi conditionnelle de Y sachant (X = x) l’application : y 7→ P(Y = y|X = x).
Définition 14.13 : Indépendance de deux variables aléatoires
Deux variables aléatoires réelles X et Y sur (Ω,A , P) sont dites indépendantes si :
∀(x , y) ∈ X (Ω)× Y (Ω) P ((X = x)∩ (Y = y)) = P (X = x)× P (Y = y)
Dans le cas d’indépendance, on peut retrouver la loi conjointe à partir des lois marginales.
Théorème / Définition 14.14
Soit (X , Y ) un couple de variables aléatoires discrètes définies sur un espace probabilisé (Ω,A , P). SiX et Y admettent un moment d’ordre 2, alors la variable aléatoire (X − E(X ))(Y − E(Y )) admet uneespérance. On appelle alors covariance de X et Y le réel noté cov(X , Y ) défini par :
cov(X , Y ) = E((X − E(X ))(Y − E(Y ))
Théorème 14.15 : Formule de Kœnig-Huygens
Sous les hypothèses précédentes, cov(X , Y ) = E(X Y )− E(X ) · E(Y ).
On a cov(X , X ) = V (X ) et E(X Y ) =∑
i∈Ij∈J
x i y j P
(X = x i)∩ (Y = y j)
.
Proposition 14.16
Si X et Y sont deux variables alatoires admettant un moment d’ordre 2 et a, b ∈ R, alors :
V (aX + bY ) = a2V (X ) + b2V (Y ) + 2abcov(X , Y )
Pour a = b = 1, V (X + Y ) = V (X ) + V (Y ) + 2cov(X , Y ).
Théorème 14.17
Si X et Y sont deux variables alatoires admettant un moment d’ordre 2 et indépendantes, alors :
E(X Y ) = E(X )E(Y ); cov(X , Y ) = 0; V (X + Y ) = V (X ) + V (Y )
Définition 14.18
Soient X et Y deux variables aléatoires discrètes définies sur un espace probabilisé (Ω,A , P) etadmettant un moment d’ordre 2. On suppose de plus que leur écart type est non nul.
On appelle coefficient de corrélation linéaire de X et Y le réel ρ(X , Y ) =cov(X , Y )σ(X ) ·σ(Y )
.
ρ(X , Y ) ∈ [−1,1] et ρ(X , Y ) = ±1 si et seulement s’il existe a, b ∈ R tels que Y = aX + b.
- 47 -
CHAPITRE 14. VARIABLES ALÉATOIRES DISCRÈTES
D – Fonctions génératrices
Définition 14.19 : Fonction génératrice
La fonction génératrice de la variable X est définie par :
GX : t 7→ E
tX
=+∞∑
n=0
P(X = n)tn
Proposition 14.20
Le rayon de convergence de la série entière∑
n∈NP(X = n)tn est supérieur ou égal à 1.
Théorème 14.21 : Fonction génératrice de la somme de deux variables indépendantes
Soient X et Y deux variables aléatoires définies sur un espace probabilisé (Ω,A , P) et à valeurs dansN. Notons GX et GY leurs fonctions génératrices de rayon de convergence respectifs RX et RY .Si X et Y sont indépendantes, la fonction génératrice GX+Y de X + Y est définie sur au moins ]− R, R[avec R¾min(RX , RY ) et :
∀t ∈ DX ∩DY GX+Y (t) = E
tX+Y
= E
tX
E
tY
= GX (t)GY (t)
Théorème 14.22 : Fonction génératrice et moments
Soit X une variable aléatoire définie sur un espace probabilisé (Ω,A , P) et à valeurs dans N.
(i) La variable aléatoire X admet une espérance E(X ) si et seulement si GX est dérivable en 1.Si tel est le cas, E(X ) = G′X (1).
(ii) La variable aléatoire X admet une variance si et seulement si GX est deux fois dérivable en 1.
E – Convergence et approximations
Lemme 14.23 : Inégalité de Markov
Soit X une variable aléatoire définie sur l’espace probabilisé (Ω,A , P), à valeurs positives et admettantune espérance.
∀a > 0 P(X ¾ a)¶E(X )
a
Proposition 14.24 : Inégalité de Bienaymé-Tchebychev
Soit X une variable aléatoire définie sur l’espace probabilisé (Ω,A , P) admettant un moment d’ordre 2.
∀ε > 0 P (|X − E(X )|¾ ε)¶V (X )ε2
- 48 -
Mickaël PROST Lycée Chaptal – PT*
Théorème 14.25 : Loi faible des grands nombres
Soit (Xn)n¾1 une suite de variables aléatoires discrètes définies sur un espace probabilisé (Ω,A , P).On suppose toutes les variables indépendantes et de même loi, admettant une espérance m et un écarttype σ. Posons Sn =
∑ni=1 X i . Alors,
∀ε ¾ 0, P
Sn
n−m
¾ ε
−−−−→n→+∞
0
F – Lois usuelles
Nom Notation X(Ω) P(X = k) E(X) V(X) G(t )
Bernoulli B(p) 0; 1
p si k = 0
1− p si k = 1p pq 1− p+ pt
Binomiale B(n, p) ¹0; nº
nk
pkqn−k np npq (1− p+ pt)n
Uniforme U (¹1; nº) ¹1; nº1n
n+ 12
n2 − 112
t − tn+1
n(1− t)
Géométrique G (p) N∗ qk−1p1p
qp2
pt1− qt
Poisson P (λ) N e−λλk
k!λ λ eλ(t−1)
Si X1, . . . , Xn sont n variables aléatoires mutuellement indépendantes suivant des lois binomiales de para-mètres respectifs (m1, p), . . . , (mn, p) alors X1+· · ·+Xn suit une loi binomiale de paramètre (m1+· · ·+mn, p).
La somme de n variables indépendantes suivant une loi de Poisson de paramètres respectifs λ1, . . . ,λn estune variable aléatoire qui suit une loi de Poisson de paramètre λ1 + . . .+λn.
Théorème 14.26 : Approximation d’une loi binomiale par une loi de Poisson
Si pour tout n ∈ N∗, Xn ,→B(n, pn) et si limn→+∞
npn = λ, alors on a :
∀k ∈ N P(Xn = k) −−−−→n→+∞
e−λλk
k!
- 49 -
Chapitre 15 – Norme euclidienne dans Rn
Définition 15.1 : Norme euclidienne
Soit x = (x1, . . . , xm) un vecteur de Rm. On appelle norme euclidienne de x le réel positif ou nul :
||x ||=q
x21 + · · ·+ x2
m =
√
√
√
m∑
k=1
x2i
Voici quelques propriétés classiques vérifiées par la norme euclidienne :
Proposition 15.2
Pour tout x , y ∈ Rm, pour tout λ ∈ R,
• ||x ||¾ 0 et ||x ||= 0⇐⇒ x = 0Rm .
• ||λx ||= |λ| · ||x ||.• Inégalité triangulaire :
||x || − ||y||
¶ ||x + y||¶ ||x ||+ ||y||
B(a, r) = x ∈ Rn | ||x − a||< r est appelée boule ouverte de centre a et de rayon r.B f (a, r) = x ∈ Rn | ||x − a||¶ r est appelée boule fermée de centre a et de rayon r.
Définition 15.3 : Ouverts et fermés de Rm
• Une partie A de Rm est dite ouverte si : ∀x ∈ A, ∃r > 0, B(x , r) ⊂ A.
• Une partie A de Rm est dite fermée si son complémentaire, c’est-à-dire Rm \ A, est ouvert.
Une boule ouverte est un ouvert et une boule fermée est un fermé. Une partie peut être à la fois ouverte etfermée, et, de même, ni ouverte ni fermée.
Ex. : ∅ et Rm sont à la fois ouverts et fermés. [0, 1[ n’est ni un fermé ni un ouvert de R.
Lorsqu’une partie est décrite à l’aide d’inéquations, on regarde si les inégalités sont strictes ou larges.
Définition 15.4 : Partie bornée
Une partie A de Rm est bornée si elle est contenue dans une boule de rayon M .Autrement dit, A est bornée si : ∃M ¾ 0, ∀x ∈ A, ||x ||¶ M .
Définition 15.5 : Point intérieur, point adhérent, point extérieur
Soit A une partie de Rm et x ∈ Rm.
– On dit que x est un point intérieur de A s’il existe r ∈ R∗+ tel queB(x , r) ⊂ A.
– On dit que x est un point extérieur de A s’il existe r ∈ R∗+ tel queB(x , r)∩ A=∅.
– On dit que x est un point adhérent à A si pour tout r ∈ R∗+,B(x , r)∩ A 6=∅.
La frontière de A est l’ensemble des points x tels que toute boule ouverte centrée en x rencontre à la fois Aet son complémentaire.
50
Chapitre 16 – Fonctions de plusieurs variables
A – Généralités
Soit f : Rp→ Rn. On notera indistinctement || · || la norme euclidienne usuelle de Rp et Rn.
On a f : x = (x1, . . . , xp) 7→ ( f1(x), . . . , fn(x)). Les applications fi : Rp → R sont généralement appeléesapplications composantes et x i 7→ f (x1, . . . , xn) applications partielles.
Définition 16.1
• On dit que f est bornée sur une partie A⊂ Rp si : ∃M ¾ 0, ∀x ∈ A, || f (x)||¶ M .• On dit que f admet une limite l ∈ Rn en x0 si :
∀ε > 0, ∃η > 0, ∀x ∈ Rp, ||x − x0||< η=⇒ || f (x)− l||< ε.
• On dit que f est continue en x0 si limx→x0
f (x) = f (x0), i.e. :
∀ε > 0, ∃η > 0, ∀x ∈ Rp, ||x − x0||< η=⇒ || f (x)− f (x0)||< ε.
La somme, le produit et la composée de fonctions continues est une fonction continue.
Théorème 16.2
• f est continue en x si et seulement si pour tout i ∈ ¹1, nº, fi est continue en x .• Si f est continue, les applications partielles sont continues. La réciproque est fausse.• L’image d’un fermé borné (de Rp) par une fonction continue est un fermé borné (de Rn).
Définition 16.3
On dit que f est de classe C k sur un ouvert U de Rp si les dérivées partielles de f à l’ordre k existentet sont continues sur U .
Avec les notations usuelles, on a : d f =∂ f∂ x1
dx1 + · · ·+∂ f∂ xp
dxp.
B – Fonctions de deux variables à valeurs dans R
Théorème 16.4 : Formule de Taylor-Young à l’ordre 1
Si f est de classe C 1 sur un ouvert U de R2 alors pour (x0, y0) ∈ U :
f (x0 + h, y0 + k) =(h,k)→(0,0)
f (x0, y0) +∂ f∂ x(x0, y0) · h+
∂ f∂ y(x0, y0) · k+ o(||(h, k)||)
Si f est de classe C 1 au voisinage de (x0, y0) ∈ U , le plan tangent à la surface au point de coordonnées(x0, y0, z0) avec z0 = f (x0, y0) a pour équation :
z = f (x0, y0) +∂ f∂ x(x0, y0) · (x − x0) +
∂ f∂ y(x0, y0) · (y − y0)
51
CHAPITRE 16. FONCTIONS DE PLUSIEURS VARIABLES
Théorème 16.5 : Condition nécessaire d’existence
Si U est un ouvert de R2 et si (x0, y0) est un extremum local de f :U → R de classe C 1 alors (x0, y0)
est un point critique de f , c’est-à-dire−−→grad f (x0, y0) =
∂ f∂ x(x0, y0),
∂ f∂ y(x0, y0)
=−→0 .
Théorème 16.6 : Théorème de Schwarz
Si f : R2→ R est de classe C 2 sur un ouvert U de R2 alors∂ 2 f∂ x∂ y
=∂ 2 f∂ y∂ x
sur U .
Si f : R2→ R est de classe C 2 sur un ouvert U de R2, la hessienne de f au point (x0, y0) est la matrice :
H =
∂ 2 f
∂ x2 (x0, y0)∂ 2 f∂ x∂ y
(x0, y0)
∂ 2 f∂ x∂ y
(x0, y0)∂ 2 f
∂ y2 (x0, y0)
Théorème 16.7 : Formule de Taylor-Young à l’ordre 2
Soit f : R2→ R est de classe C 2 sur un ouvert U de R2 et (x0, y0) ∈ U . Au voisinage de (x0, y0),
f (x0 + h, y0 + k) = f (x0, y0) + h∂ f∂ x(x0, y0) + k
∂ f∂ y(x0, y0)
+12
h2 ∂2 f
∂ x2 (x0, y0) + 2hk∂ 2 f∂ x∂ y
(x0, y0) + k2 ∂2 f
∂ y2 (x0, y0)
+ o(h2 + k2)
Théorème 16.8 : Extrema locaux
Soit f : R2→ R est de classe C 2 sur un ouvert U de R2 et (x0, y0) ∈ U un point critique de f .
• si det(H)> 0 alors f admet en (x0, y0) un extremum.
• si det(H)< 0 alors (x0, y0) correspond à un point selle.
• si det(H) = 0 alors on ne peut pas conclure.
La trace de H permet de distinguer un minimum d’un maximum.
Théorème 16.9 : Dérivées partielles et composées
Soit f : R2→ R, x , y : R→ R, ϕ,ψ : R2→ R que l’on suppose toutes de classe C 1.
• Si F : t 7→ f (x(t), y(t)) alors F est de classe C 1 sur R et :
∀t ∈ R F ′(t) = x ′(t)∂ f∂ x(x(t), y(t)) + y ′(t)
∂ f∂ y(x(t), y(t))
• Si G : (x , y) 7→ f (ϕ(x , y),ψ(x , y)) alors G est de classe C 1 sur R2 et :
∀(x , y) ∈ R2 ∂ G∂ x(x , y) =
∂ f∂ x(ϕ(x , y),ψ(x , y))
∂ ϕ
∂ x(x , y) +
∂ f∂ y(ϕ(x , y),ψ(x , y))
∂ψ
∂ x(x , y)
∀(x , y) ∈ R2 ∂ G∂ y(x , y) =
∂ f∂ x(ϕ(x , y),ψ(x , y))
∂ ϕ
∂ y(x , y) +
∂ f∂ y(ϕ(x , y),ψ(x , y))
∂ψ
∂ y(x , y)
- 52 -
Chapitre 17 – Géométrie élémentaire
A – Droites et plans
1 – Droites du plan
Paramétrage d’une droite passant par A dirigée par ~u= (α,β) :
x = xA+αt
y = yA+ β t(t ∈ R)
Équation cartésienne : ax + b y + c = 0 où ~n= (a, b) est normal à la droite.
Distance de M
x0y0
à D d’équation ax + b y + c = 0 : d(M ,D) =|ax0 + b y0 + c|p
a2 + b2
2 – Droites de l’espace
Paramétrage d’une droite passant par A dirigée par ~u= (α,β ,γ) :
x = xA+αt
y = yA+ β t
z = zA+ γt
(t ∈ R)
Équations cartésiennes :
ax + b y + cz + d = 0
a′x + b′ y + c′z + d ′ = 0où ~n=
abc
∧
a′
b′
c′
dirige la droite.
Si D est la droite passant par A et dirigée par ~u, d(M ,D) =||−→AM ∧ ~u||||~u||
.
Deux droites D1 et D2 dans l’espace sont non coplanaires, parallèles, sécantes ou confondues.
Si D1 et D2 passent respectivement par A et B et sont dirigées par ~u et ~v, d(D1,D2) =|det(~u, ~v,
−→AB)|
||~u∧ ~v||.
Angle entre deux droites dirigées respectivement par ~u et ~v : ~u · ~v = ||~u|| × ||~v|| × cosθ .
3 – Plans
Paramétrage d’un plan passant par A et dirigé par ~u= (a, b, c) et ~v = (a′, b′, c′) :
x = xA+ at + a′u
y = yA+ bt + b′u
z = zA+ c t + c′u
(t, u ∈ R)
Équation cartésienne : ax + b y + cz + d = 0 où ~n= (a, b, c) est normal au plan.Deux plans sont parallèles, confondus ou sécants en une droite.
Distance de M
x0y0z0
à P d’équation ax + b y + cz + d = 0 : d(M ,P ) =|ax0 + b y0 + cz0 + d|p
a2 + b2 + c2
B – Cercles et sphères
1 – Cercles dans le plan
Équation cartésienne d’un cercle C de centre Ω(a, b) et de rayon R :
(x − a)2 + (y − b)2 = R2
53
CHAPITRE 17. GÉOMÉTRIE ÉLÉMENTAIRE
M appartient au cercle C de diamètre [AB] si et seulement si−→MA.−−→MB = 0.
La tangente à un cercle de centre Ω en un point A est perpendiculaire à la droite (ΩA).
Paramétrage :
x = a+ R cos t
y = b+ R sin t
2 – Sphères
Équation cartésienne d’une sphère S de centre Ω(a, b, c) et de rayon R :
(x − a)2 + (y − b)2 + (z − c)2 = R2
Le plan tangent à une sphère S de centre Ω(a, b, c) en un point A est perpendiculaire à la droite (ΩA).
Paramétrage :
x = a+ R cosθ cosϕ
y = b+ R cosθ sinϕ
z = c + R sinθ
- 54 -
Chapitre 18 – Courbes du plan
On suppose que le plan est muni d’un repère (O,~ı,~) orthonormé direct.
A – Construction d’une courbe paramétrée
On considère la courbe paramétrée par :
x = x(t)
y = y(t)• Domaine de définition D
• Recherche des symétries
• Étude des variations
• Points stationnaires : points où
x ′(t)y ′(t)
s’annule.
Lorsque le point M(t0) est régulier, sa tangente est dirigée par le vecteurd−−→OMdt(t0).
Dans le cas contraire, on effectue un développement limité des deux fonctions coordonnées x et yau voisinage de t0 :
x(t)y(t)
=t→t0
x(t0)y(t0)
+ (t − t0)p
ab
+ · · ·+ (t − t0)q
cd
+
o((t − t0)q)o((t − t0)q)
~Tp
ab
est le premier vecteur non nul du DL et ~Tq
cd
le premier vecteur non colinéaire à ~Tp.
~Tp dirige la tangente au point M(t0). Il y a alors quatre configurations possibles.
X
Y
−→Tp
−→Tq
M(t0)
Point ordinaire (p impair, q pair)
X
Y
−→Tp
−→Tq
M(t0)
Point d’inflexion (p impair, q impair)
X
Y
−→Tp
−→Tq
M(t0)
Point de rebroussement de première espèce(p pair, q impair)
X
Y
−→Tp
−→Tq
M(t0)
Point de rebroussement de seconde espèce(p pair, q pair)
55
CHAPITRE 18. COURBES DU PLAN
• Branches infiniesIl y a une branche infinie si l’une des coordonnées tend vers l’infini lorsque t tend vers t0.Si une seule des coordonnées tend vers l’infini et l’autre admet une limite finie, il y a une asymptotehorizontale ou verticale.
Si les deux coordonnées tendent vers l’infini, on étudie la limite du rapporty(t)x(t)
.
– Si la limite est 0, on dit que l’on a une branche parabolique horizontale.
– Si la limite est infinie, on dit que l’on a une branche parabolique verticale.
– Si on trouve une limite a non nulle, on étudie alors la limite de y(t)− ax(t) :
(a) si cette quantité tend vers ±∞, on dit que l’on a une branche parabolique de direction y = ax .
(b) si on trouve une limite b alors la droite d’équation y = ax + b est asymptote à la courbe.
B – Propriétés métriques des courbes
On considère une application f : t 7→ (x(t), y(t)) de classe C k (avec k ¾ 2) sur I , supposée régulière.
Définition 18.1 : Longueur d’une courbe
Soient a, b ∈ I avec a ¶ b. La longueur de la courbe paramétrée définie par f est le réel positif :
L =
∫ b
a
f ′(t)
dt =
∫ b
a
d−−→OMdt
=
∫ b
a
Æ
x ′(t)2 + y ′(t)2 dt
Définition 18.2 : Abscisse curviligne
On appelle abscisse curviligne de f d’origine t0 ∈ I la fonction s : I → R définie par :
∀t ∈ I s(t) =
∫ t
t0
f ′(t)
dt =
∫ t
t0
d−−→OMdt
=
∫ t
t0
Æ
x ′(u)2 + y ′(u)2 du
Définition 18.3 : Repère de Frenet
On appelle repère de Frenet au point M(t) le repère orthonormé direct (M(t),−→T (t),
−→N (t)).
Théorème / Définition 18.4 : Courbure
En tout point, les vecteursd−→T
dset−→N sont colinéaires.
On appelle alors courbure de f la fonction γ définie par :d−→T
ds= γ ·
−→N .
Théorème 18.5
Il existe une application α de classe C 1 sur I telle que :
∀t ∈ I−→T (t) = cosα(t) ·~ı+ sinα(t) · ~
- 56 -
Mickaël PROST Lycée Chaptal – PT*
Proposition 18.6 : Courbure et formules de Frenet
– La courbure γ est donnée par la formule γ=dαds
– Les formules de Frenet :d−→T
ds=
dαds·−→N et
d−→N
ds= −
dαds·−→T
Le point de paramètre t est dit birégulier si γ(t) 6= 0.
Définition 18.7 : Rayon de courbure, centre de courbure
On suppose que le point M de paramètre t est birégulier.
– On appelle rayon de courbure en M de paramètre t le réel R(t) =1γ(t)
.
– On appelle centre de courbure en M de paramètre t le point C(t) défini par la relation :
C(t) = M(t) + R(t)−→N (t)
– On appelle cercle de courbure en M de paramètre t le cercle de centre C(t) et de rayon |R(t)|.
M(t)
C(t)
−→N (t)
−→T (t)
C – Enveloppe d’une famille de droites et développée
On considère une famille de droites (Dt)t∈I définies chacune par la donnée d’un point A(t) et d’un vecteurdirecteur ~u(t). On suppose que les applications A et ~u sont de classe C 2 sur I .
Définition 18.8 : Enveloppe
On appelle enveloppe de (Dt)t∈I toute courbe Γ de classe C 1 telle que les droites de la famille (Dt)t∈Isoient exactement les tangentes de Γ , c’est-à-dire :
• Quel que soit t ∈ I , Dt est tangente à Γ .
• La courbe Γ admet en chaque point une tangente et celle-ci est une des droites de la famille (Dt)t∈I .
Définition 18.9 : Développée
La développée d’une courbe régulière est l’ensemble de ses centres de courbure.
Théorème 18.10 : Caractérisation
La développée d’une courbe régulière est l’enveloppe des normales à la courbe.
- 57 -
Chapitre 19 – Surfaces
A – Modes de représentation et plan tangent
1 – Nappes paramétrées
Définition 19.1 : Nappe paramétrée
Soit f : (u, v) 7→
x(u, v)y(u, v)z(u, v)
une fonction de classe C k sur un ouvert U de R2.
On appelle nappe paramétrée par f l’ensemble S =
x(u, v)y(u, v)z(u, v)
∈ R3 | (u, v) ∈ U
.
Définition 19.2
Un point M(u, v) de S est dit régulier si la famille
∂−−→OM∂ u
(u, v),∂−−→OM∂ v
(u, v)
est libre.
Sinon, on dit qu’il est stationnaire.
Théorème 19.3 : Plan tangent
Soit M(u, v) est un point régulier de S .
Le plan tangent à S en M(u, v) est alors dirigé par
∂−−→OM∂ u
(u, v),∂−−→OM∂ v
(u, v)
.
∂−−→OM∂ u
(u, v)∧∂−−→OM∂ v
(u, v) est normal au plan tangent.
2 – Surfaces définies par une équation cartésienne
Il s’agit de surfaces définies par des équations du type f (x , y, z) = 0 où f : R3→ R est supposée de classeC 1 sur R. On notera S la surface d’équation f (x , y, z) = 0.
Définition 19.4
On dit que (x0, y0, z0) est un point critique de f si−−→grad f (x0, y0, z0) =
−→0 .
Théorème 19.5 : Plan tangent
Si M(x0, y0, z0) n’est pas un point critique de f , le plan tangent à S admet−−→grad f (x0, y0, z0) comme
vecteur normal. Son équation est :
∂ f∂ x(x0, y0, z0) · (x − x0) +
∂ f∂ y(x0, y0, z0) · (y − y0) +
∂ f∂ z(x0, y0, z0) · (z − z0) = 0
58
Mickaël PROST Lycée Chaptal – PT*
Théorème 19.6
Soit S1 et S2 deux surfaces et C = S1 ∩S2. On considère un point M ∈ C et on suppose que les planstangents P1 et P2 à S1 et S2 en M ne sont pas confondus. Alors la tangente en M à C est P1 ∩P2.
B – Exemples de surface
1 – Surfaces de révolution
Définition 19.7
On appelle surface de révolution la surface S obtenue par rotation d’une courbe Γ autour d’unedroite ∆.
• ∆ est appelée axe de S .
• On appelle parallèles de S les cercles d’axe ∆ et rencontrant Γ .
• On appelle méridienne l’intersection de S avec un plan passant par ∆.
Soit ∆ la droite passant par A
abc
, dirigée par ~u
α
β
γ
et Γ la courbe paramétrée par
x = x(t)
y = y(t)
z = z(t).
Soit S la surface de révolution engendrée par la rotation de Γ (demi-méridienne) autour de ∆.
M ∈ S ⇐⇒ Il existe M0 ∈ Γ tq
M appartient au plan perpendiculaire à ∆ passant par M0
M appartient à une sphère centrée en A et passant par M0
2 – Surfaces réglées
Définition 19.8 : Surfaces réglées
Soit I un intervalle de R et une famille de droites (Dt)t∈I indexée par I .
• On appelle surface réglée engendrée par la famille (Dt)t∈I la réunion des droites Dt .
• Les droites Dt sont appelées génératrices de la surface.
Un point M appartient donc à cette surface s’il existe t ∈ I tel que M ∈ Dt .
Le plan tangent en un point régulier contient la génératrice passant par ce point.
- 59 -
FORMULAIRE
Trigonométrie
Définition
tanθ =sinθcosθ
et cotan θ =1
tanθ=
cosθsinθ
Angles opposés
cos(θ ) = cos(−θ ) = − cos(π− θ )
= − cos(π+ θ ) = sinπ
2− θ
sin(θ ) = − sin(−θ ) = sin(π− θ )
= − sin(π+ θ ) = cosπ
2− θ
tan(θ ) = − tan(−θ ) = − tan(π− θ )
= tan(π+ θ ) = cotanπ
2− θ
Valeurs remarquables
θ 0 π/6 π/4 π/3 π/2
cosθ 1p
3/2p
2/2 1/2 0
sinθ 0 1/2p
2/2p
3/2 1
tanθ 0p
3/3 1p
3 n.d.
Passage polaire/cartésien
z = x + iy = reiθ x = r cosθ y = r sinθ
r =Æ
x2 + y2
si x > 0, θ = arctan y
x
si x < 0, θ = π+ arctan y
x
Complexes
sin2 x + cos2 x = 1 eix = cos x + i sin x
cos x =eix + e−ix
2sin x =
eix − e−ix
2icos nx + i sin nx = (cos x + i sin x)n
Angle double
cos2x = cos2 x − sin2 x
cos2x = 2cos2 x − 1 cos 2x = 1− 2sin2 x
cos2 x =1+ cos2x
2sin2 x =
1− cos 2x2
sin2x = 2 cos x sin x tan 2x =2 tan x
1− tan2 x
Addition des angles
cos(a+ b) = cos a cos b− sin a sin b
sin(a+ b) = sin a cos b+ cos a sin b
cos(a− b) = cos a cos b+ sin a sin b
sin(a− b) = sin a cos b− cos a sin b
tan(a+ b) =tan a+ tan b
1− tan a tan b
tan(a− b) =tan a− tan b
1+ tan a tan b
Addition des fonctions
cos a+ cos b = 2cos
a+ b2
cos
a− b2
cos a− cos b = −2sin
a+ b2
sin
a− b2
sin a+ sin b = 2sin
a+ b2
cos
a− b2
sin a− sin b = 2cos
a+ b2
sin
a− b2
a cos x + b sin x = ρ cos(x −ϕ)
avec ρ =p
a2 + b2, ϕ = arg(a+ ib)
Produit des fonctions
cos a cos b =12
cos(a− b) + cos(a+ b)
sin a sin b =12
cos(a− b)− cos(a+ b)
sin a cos b =12
sin(a− b) + sin(a+ b)
- 60 -
Mickaël PROST Lycée Chaptal – PT*
Dérivées et primitives
Fonction Domaine Dérivée
f + g f ′ + g ′
f g f ′g + g ′ ffg
g f ′ − g ′ fg2
f n nf n−1 f ′
sin( f ) f ′ cos fcos( f ) − f ′ sin fe f f ′e f
ln | f |f ′
fg f (g f )′(x) = f ′(x)g ′( f (x))xn, xα n ∈ N,α ∈ R \N R,R∗+ nxn−1,αxα−1
ax α ∈ R∗+ R ln a ex ln a
px R∗+
12p
x1x
R∗ −1x2
emx m ∈ C R memx
ln |x | R∗1x
cos x , sin x R − sin x , cos x
tan x R \nπ
2+ kπ
o
k∈Z1+ tan2 x =
1cos2 x
arccos x ]−1 ,1 [ −1
p1− x2
arcsin x ]−1 ,1 [1
p1− x2
arctan x R1
1+ x2
ch x , sh x , th x R shx , chx , 1− th2 x
argch x ]1,+∞[1
px2 − 1
argsh x R1
px2 + 1
argth x ]− 1, 1[1
1− x2
Fonction Intervalles Primitive
xn, xα n ∈ N, α ∈ C \ −1 R,R∗+1
n+1 xn+1, 1α+1 xα+1
1x − a
a ∈ R ]−∞ , a [ , ] a ,+∞ [ ln |x − a|1
x2 + a2a ∈ R∗ R
1a
arctan x
a
1(x − a)n
n ∈ N \ 1 , a ∈ R ]−∞ , a [ , ] a ,+∞ [1
−n+ 11
(x − a)n−1
tan x
−π2 + kπ , π2 + kπ
(k ∈ Z) − ln |cos x |1
sin2 x] kπ , (k+ 1)π [ (k ∈ Z) −cotan x
ln x R∗+ x ln x − x
- 61 -
FORMULAIRE
Développements limités
Formule de Taylor à l’ordre n
Soit f une fonction définie sur un intervalle I , avec f de classe au moins C n sur I . Soit a et x deux pointsde I . Il existe alors une fonction ε, ε(x) −−→
x→a0, telle que :
f (x) =n∑
k=0
f (k)(a)k!
(x − a)k + (x − a)nε(x)
= f (a) + f ′(a)(x − a) +12
f ′′(a)(x − a)2 + · · ·+f (n)(a)
n!(x − a)n + o((x − a)n)
Les développements limités suivants sont tous au voisinage de 0 :
DLn ex =n∑
k=0
xk
k!+ o(xn) = 1+ x +
x2
2!+
x3
3!+ · · ·+
xn
n!+ o(xn)
DL2n cos x =n∑
k=0
(−1)kx2k
(2k)!+ o(x2n) = 1−
x2
2!+
x4
4!− · · ·+ (−1)n
x2n
(2n)!+ o(x2n)
DL2n+1 sin x =n∑
k=0
(−1)kx2k+1
(2k+ 1)!+ o(x2n+1) = x −
x3
3!+
x5
5!− · · ·+ (−1)n
x2n+1
(2n+ 1)!+ o(x2n+1)
DL6 tan x = x +x3
3+
215
x5 + o(x6)
DL2n+1 arctan x =n∑
k=0
(−1)kx2k+1
2k+ 1+ o(x2n+1) = x −
x3
3+
x5
5− · · ·+ (−1)n
x2n+1
2n+ 1+ o(x2n+1)
DL2n chx =n∑
k=0
x2k
(2k)!+ o(x2n) = 1+
x2
2!+
x4
4!+ · · ·+
x2n
(2n)!+ o(x2n)
DL2n+1 shx =n∑
k=0
x2k+1
(2k+ 1)!+ o(x2n+1) = x +
x3
3!+
x5
5!+ · · ·+
x2n+1
(2n+ 1)!+ o(x2n+1)
DLn1
1− x=
n∑
k=0
xk + o(xn) = 1+ x + x2 + x3 + · · ·+ xn + o(xn)
DLn1
1+ x=
n∑
k=0
(−1)k xk + o(xn) = 1− x + x2 − x3 + · · ·+ (−1)n xn + o(xn)
DLn ln(1+ x) =n∑
k=1
(−1)k+1 xk
k+ o(xn) = x −
x2
2+
x3
3− · · ·+ (−1)n+1 xn
n+ o(xn)
DLn (1+ x)α = 1+n∑
k=1
α(α− 1) · · · (α− k+ 1)k!
xk+o(xn)
= 1+αx+α(α− 1)
2x2+· · ·+
α(α− 1) · · · (α− n+ 1)n!
xn+o(xn)
DL2p
1+ x = 1+12
x−18
x2+o(x2)
Limites classiques
sin xx−−→x→0
1ln(1+ x)
x−−→x→0
1tan x
x−−→x→0
1
∀α ∈ R,ex
xα−−−−→x→+∞
+∞ ∀α ∈ R∗+, xα ln x −−→x→0
0
e−x xα −−−−→x→+∞
0ln xxα−−−−→x→+∞
0
- 62 -
Mickaël PROST Lycée Chaptal – PT*
Développements en série entière usuels
Rayon Domaine Développement
R= +∞ R ex =+∞∑
n=0
xn
n!
R= +∞ R chx =+∞∑
n=0
x2n
(2n)!
R= +∞ R cos x =+∞∑
n=0
(−1)n x2n
(2n)!
R= +∞ R shx =+∞∑
n=0
x2n+1
(2n+ 1)!
R= +∞ R sin x =+∞∑
n=0
(−1)n x2n+1
(2n+ 1)!
R= 1 ]− 1, 1[ (1+ x)α = 1++∞∑
n=1
α(α− 1) . . . (α− n+ 1)n!
xn (α ∈ R \N)
R= 1 ]− 1, 1[1
1+ x=+∞∑
n=0
(−1)n xn
R= 1 ]− 1, 1] ln(1+ x) =+∞∑
n=1
(−1)n+1
nxn
R= +∞ C ez =+∞∑
n=0
zn
n!
Géométrie
Géométrie dans le plan
Distance du point M(x0, y0) à la droite D d’équation ax + b y + c = 0 : d(M ,D) =|ax0 + b y0 + c|p
a2 + b2
Géométrie dans l’espace
Distance du point M à la droite Dpassant par A et dirigée par −→u :
d(M ,D) =||−→AM ∧−→u ||||−→u ||
Distance du point M(x0, y0, z0) au plan P d’équation ax + b y + cz + d = 0 :
d(M ,P ) =|ax0 + b y0 + cz0 + d|p
a2 + b2 + c2
Distance entre les deux droites non coplanaires D1 et D2 passant respectivement par A et B et dirigéesrespectivement par −→u et −→v :
d(D1,D2) =
det(−→AB,−→u ,−→v )
||−→u ∧−→v ||
- 63 -
FORMULAIRE
Systèmes de coordonnées
Coordonnées cartésiennes
Le repère (O,−→ı ,−→ ,−→k ) est orthonormé et direct.
La position d’un point M est donnée par ses coor-données cartésiennes (x , y, z), et alors
−−→OM = x −→ı + y −→ + z
−→k
Déplacement élémentaire :
d−−→OM = dx−→ı + dy−→ + dz
−→k
Volume élémentaire : dτ= dxdydz
Coordonnées cylindriques
La position d’un point M est donnée par ses coor-données cylindriques (r,θ , z), avec
r ∈ [0 ,+∞ [ , θ ∈ [0 , 2π [ z ∈ R.
On associe au point M le repère orthonormé direct
(O,−→ur ,−→uθ ,−→k ) :
−→ur = cosθ −→ı +sinθ −→ −→uθ = − sinθ −→ı +cosθ −→
On a alors−−→OM = r−→ur + z
−→k .
Passage des coordonnées cylindriques aux co-ordonnées cartésiennes
x = r cosθ y = r sinθ z = z
Déplacement élémentaire :
d−−→OM = dr−→ur + rdθ−→uθ + dz
−→k
Volume élémentaire : dτ= rdrdθdzLes coordonnées cylindriques sont à utiliser quandune direction est privilégiée dans le problème (cesera la direction (Oz)).
Coordonnées polaires C’est un cas particulierdes coordonnées cylindriques (z = 0)On associe au point M le repère orthonormé directplan (O,−→ur ,−→uθ ) :
−→ur = cosθ −→ı +sinθ −→ −→uθ = − sinθ −→ı +cosθ −→
On a alors−−→OM = r−→ur .
x = r cosθ y = r sinθ
Déplacement élémentaire :
d−−→OM = dr−→ur + rdθ−→uθ
Surface élémentaire : dS = rdrdθ .
Coordonnées sphériques
La position d’un point M est donnée par ses coor-données sphériques (r,θ ,φ), avec r ∈ [0 ,+∞ [,
θ ∈ [0 , 2π [ et φ ∈h
−π
2,π
2
i
.
Passage des coordonnées sphériques aux coor-données cartésiennes
x = r cosθ sinφ y = r sinθ sinφ z = r cosφ
Déplacement élémentaire :
d−−→OM = dr−→ur + r sinφdθ−→uθ + rdφ−→uφ
Volume élémentaire : dτ= r2 sinφdrdθdφ.
- 64 -
Mickaël PROST Lycée Chaptal – PT*
Probabilités
Lois usuelles discrètes
Nom Notation X(Ω) P(X = k) E(X) V(X) G(t )
Bernoulli B(p) 0; 1
p si k = 0
1− p si k = 1p p(1− p) 1− p+ pt
Binomiale B(n, p) ¹0; nº
nk
pk(1− p)n−k np np(1− p) (1− p+ pt)n
Uniforme U (¹1; nº) ¹1; nº1n
n+ 12
n2 − 112
t − tn+1
n(1− t)
Géométrique G (p) N∗ (1− p)k−1p1p
1− pp2
pt1− (1− p)t
Poisson P (λ) N e−λλk
k!λ λ eλ(t−1)
Divers
Coefficients binomiaux
np
=n!
p! (n− p)!; p
np
= n
n− 1p− 1
n0
=
nn
= 1;
n1
=
nn− 1
= n
np
=
nn− p
;
np
+
np+ 1
=
n+ 1p+ 1
(x + y)n =n∑
k=0
nk
xk yn−k; (1+ x)n =n∑
k=0
nk
xk
Suites récurrentes linéaires d’ordre 2
u0, u1 ∈ Run+2 = aun+1 + bun
On résout l’équation caractéritique X 2 − aX − b = 0de discriminant associé ∆.• Si ∆ > 0, deux racines réelles distinctes r1 et r2 :∃λ,µ ∈ R, ∀n ∈ N, un = λrn
1 +µrn2 .
• Si ∆= 0, une racine double r :∃λ,µ ∈ R, ∀n ∈ N, un = (λ+ nµ)rn.
• Si ∆< 0, deux racines complexes conjug. ρe±iθ :∃λ,µ ∈ R, ∀n ∈ N, un = ρn(λ cos(nθ) +µ sin(nθ ))
Alphabet grec
α A alpha ν N nu
β B bêta ξ Ξ xi ou ksi
γ Γ gamma o O omicron
δ ∆ delta π Π pi
ε E epsilon ρ P rhô
ζ Z zêta σ Σ Sigma
η H êta τ T Tau
θ Θ thêta υ Υ upsilon
ι I iota φ,ϕ Φ phi
κ K kappa χ X chi
λ Λ lambda ψ Ψ psi
µ M mu ω Ω oméga
- 65 -
Table des matières
1 Algèbre linéaire 1A Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1B Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2C Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2D Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Déterminant 8A Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8B Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8C Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9D Orientation de l’espace et produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Réduction d’endomorphismes 10A Éléments propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10B Diagonalisation d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11C Trigonalisation d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11D Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4 Polynômes 13A Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13B Racines et factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5 Espaces préhilbertiens réels 15A Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15B Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6 Isométries d’un espace euclidien 18A Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18B Matrices symétriques réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20C Produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7 Continuité et dérivabilité 21A Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21B Dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22C Développements limités et équivalents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
8 Suites numériques 25A Suites classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25B Convergence des suites numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25C Relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
9 Séries numériques 27A Quelques sommes classiques à connaître . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27B Convergence des séries numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10 Séries entières 30A Rayon de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30B Propriétés de la somme d’une série entière réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 31C Développements en série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
66
11 Intégration 33A Intégration sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33B Intégrales généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34C Intégrales à paramètre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
12 Équations différentielles 38A Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38B Systèmes linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
13 Probabilités discrètes 41A Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41B Probabilités discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
14 Variables aléatoires discrètes 45A Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45B Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45C Vecteurs aléatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46D Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48E Convergence et approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48F Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
15 Norme euclidienne dans Rn 50
16 Fonctions de plusieurs variables 51A Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51B Fonctions de deux variables à valeurs dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17 Géométrie élémentaire 53A Droites et plans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53B Cercles et sphères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
18 Courbes du plan 55A Construction d’une courbe paramétrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55B Propriétés métriques des courbes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56C Enveloppe d’une famille de droites et développée . . . . . . . . . . . . . . . . . . . . . . . . . . 57
19 Surfaces 58A Modes de représentation et plan tangent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58B Exemples de surface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Formulaire 60
Top Related