0% ont trouvé ce document utile (0 vote)
63 vues208 pages

Resumé de Maths

Le document présente les fonctions hyperboliques, leurs définitions, formules, limites, dérivations, et propriétés des fonctions réciproques. Il traite également des concepts d'injections, surjections, bijections, ainsi que des arrangements et combinaisons. Enfin, il aborde les familles d'éléments et de parties, ainsi que les lois de Morgan.

Transféré par

twavnham
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
63 vues208 pages

Resumé de Maths

Le document présente les fonctions hyperboliques, leurs définitions, formules, limites, dérivations, et propriétés des fonctions réciproques. Il traite également des concepts d'injections, surjections, bijections, ainsi que des arrangements et combinaisons. Enfin, il aborde les familles d'éléments et de parties, ainsi que les lois de Morgan.

Transféré par

twavnham
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

0C - Les fonctions hyperboliques

Définitions et formules principales:


e x + e −x
cosh x =
2
e x − e −x
sinh x =
2
e x = cosh x + sinh x
e − x = cosh x − sinh x
cosh2 x − sinh2 x = 1
sinh x e x − e − x e 2x − 1 1− e −2x
tanh x = = = =
cosh x e x + e − x e 2x + 1 1+ e 2x
cosh x 1
coth x = =
sinh x tanh x

Limites utiles:
lim cosh x = +∞
x →+∞
lim cosh x = +∞
x →−∞
lim sinh x = +∞
x →+∞
lim sinh x = +∞
x →−∞
cosh x
lim = +∞
x →+∞ x
sinh x
lim = +∞
x →+∞ x
lim tanh x = 1
x →+∞
lim tanh x = −1
x →−∞
lim coth x = 1
x →+∞
lim coth x = −1
x →−∞
lim coth x = +∞
x →0
x >0

lim coth x = −∞
x →0
x <0

Dérivation:
cosh′ x = sinh x ∀x ∈R
sinh′ x = cosh x ∀x ∈R
1
tanh′ x = 1− tanh2 x = ∀x ∈R
cosh2 x
1
coth′ x = 1− coth2 x = − ∀x ∈R∗
sinh2 x
Formules diverses de trigonométrie hyperbolique:
cosh(a + b ) = cosha coshb + sinha sinhb
sinh(a + b ) = sinha coshb + sinhb cosha
cosh(a − b ) = cosha coshb − sinha sinhb
sinh(a − b ) = sinha coshb − cosha sinhb
tanha + tanhb
tanh(a + b ) =
1+ tanha tanhb
tanha − tanhb
tanh(a − b ) =
1− tanha tanhb
cosh2a = cosh2 a + sinh2 a = 2 cosh2 a − 1= 2 sinh2 a + 1
sinh2a = 2 cosha sinha
sinh2a 2 cosha sinha 2 tanha
tanh2a = = =
cosh2a cosh2 a + sinh2 a 1+ tanh2 a
cosh2a + 1= 2 cosh2 a
cosh2a − 1= 2 sinh2 a
x
Soit t = tanh .
2
1+ t 2
cosh x =
1− t 2
2t
sinh x =
1− t 2
2t
tanh x =
1+ t 2
cosha coshb = ( cosh(a + b ) + cosh(a − b ))
1
2
sinha sinhb = ( cosh(a + b ) − cosh(a − b ))
1
2
sinha coshb = ( sinh(a + b ) + sinh(a − b ))
1
2
p +q p −q
cosh p + coshq = 2 cosh cosh
2 2
p +q p −q
cosh p − coshq = 2 sinh sinh
2 2
p +q p −q
sinh p + sinhq = 2 sinh cosh
2 2
p −q p +q
sinh p − sinhq = 2 sinh cosh
2 2
0D - Fonctions hyperboliques réciproques

Ensembles de définitions:
D argsinh = R
D argcosh = [1; +∞[
D argtanh = ]−1;1[
D argcoth = ]−∞; −1[ ∪ ]1; +∞[

Propriétés:
cosh(argsinhx ) = x 2 + 1

sinh(argcoshx ) = x 2 − 1

argsinhx = ln x + x 2 + 1

argcoshx = ln x − x 2 − 1

1 1+ x
argtanhx = ln
2 1− x
1 x +1
argcothx = ln
2 x −1

Dérivation:
1
argsinh′ x = ∀x ∈R
x +12

1
argcosh′ x = ∀x ∈ ]1; +∞[
x2 −1
1
argtanh′ x = ∀x ∈ ]−1;1[
1− x 2
1
argcoth′ x = ∀x ∈ ]−∞; −1[ ∪ ]1; +∞[
1− x 2

Limites remarquables:
lim argsinh x = +∞
x →+∞
argsinh x
lim =0
x →+∞ x
lim argcosh x = +∞
x →+∞
argcosh x
lim =0
x →+∞ x
0E - Fonctions circulaires réciproques

Ensembles de définition:
D arcsin = [ −1;1]
D arccos = [ −1;1]
D arctan = R

Propriétés:
cosarcsinx = 1− x 2
sinarccos x = 1− x 2
arccos x + ar cos− x = π
π
arcsinx + arccos x =
2
1 π ε = 1 si x > 0
arctanx + arctan =ε
x 2 ε = −1 si x < 0

Dérivation:
1
arcsin′ x = ∀x ∈ ]−1;1[
1− x 2
−1
arccos ′ x = ∀x ∈ ]−1;1[
1− x 2
1
arctan′ x = ∀x ∈R
1+ x 2
1A - Les applications

f = (E,F ,Γ )

f est une fonction ssi s'il existe au plus un élément y de F en correspondance par f avec x.

f est une application si f est une fonction et si f est telle que Df = E .

Injection, surjection & bijection:


[
f injective ⇔ ∀( x,x ' ) ∈E 2 , (f ( x ) = f ( x ' ) ⇒ x = x ' ) ]
f surjective ⇔ ∀x ∈F ∃x ∈E y = f ( x ) ⇔ f (E ) = F
f bijective ssi f est à la fois injective et surjective.
f bijective ⇔ y ∈F ∃!x ∈E y = f ( x )
f bijective ssi il existe une application g:F → E telle que g o f = I E et f o g = I F

Image directe & image réciproque:


Image directe: f ( A ) = {f ( x ) ∈F ;x ∈A}
Image réciproque: f −1(B ) = {x ∈E;f ( x ) ∈B }
Formules pratiques: ∀y ∈F ; y ∈f ( A ) ⇔ ∃x ∈A y = f (x )
∀x ∈E,x ∈f −1
(B ) ⇔ ∃y ∈B y = f (x )
Propriétés:
Soit ( A, A ′ ) ∈P (E )
2

A ⊂ A′ ⇒ f (A) ⊂ f (A′)
f (A ∩ A′) ⊂ f (A) ∩ f (A′)
f (A ∪ A′) = f (A) ∪ f (A′)
Soit (B,B ′ ) ∈P (F )
2

B ⊂ B ′ ⇒ f −1(B ) ⊂ f −1(B ′ )
f −1(B ∩ B ′ ) = f −1(B ) ∩ f −1(B ′ )
f −1(B ∪ B ′ ) = f −1(B ) ∪ f −1(B ′ )
Soit A = P (E )
A ⊂ f −1(f ( A ))
Soit B = P (F )

( )
f f −1(B ) ⊂ B
Soit B = P (E )
E \ f −1(B ) = f −1(F \ B )
{
Si f est bijective, alors: f −1({y }) = f −1( y ) }
1C - Factorielles et combinaisons

Factorielles:
0! = 1

∀n ∈N ,n! = n (n − 1)L×2 × 1

∀n ∈N, (n + 1)! = (n + 1)n!


u 0 = 1
[∀n ∈N,un = n!] ⇔ ∀n ∈N,u = (n + 1)u n
 n +1

Combinaisons:
∀p > n,0

 n (n − 1)L(n − p + 1)
∀(n,p ) ∈N ,Cn = 
2 p
si 1≤ p ≤ n
 p ( p − 1)L×1
1 si p = 0

n!
∀p ∈ {0,1,K,n },Cnp =
p!(n − p )!
∀(n,p ) ∈N 2 avec p ≤ n,Cnp = Cnn −p
n p −1
∀(n,p ) ∈N 2 avec n ≥ 1 et p ≥ 1,Cnp = C
p n −1
∀(n,p ) ∈N 2 avec n ≥ 1 et p ≥ 1,Cnp = Cnp−1 + Cnp−1
−1

Binôme de Newton:
n

(a + b ) =
n
∑C a
k =0
k
n
n −k
bk

n
= ∑C
p =0
n −p p n −p
n a b

Calcul de la somme des puissances p des premiers termes d'une suite arithmétique:
S p = u 0p + u1p +L+u np−1
p +1

(u 0 + na )p +1 = u 0p +1 + ∑C pk +1a k S p +1−k
k =1
p

Sp = ∑p u
j =0
j p−j j
0 a Σj Σ j = 1j + 2 j +L+ (n − 1)
j
1D - Arrangement & Combinaison

Définitions:
Des ensembles E et F sont équipotents s'il existe au moins une bijection de l'un sur l'autre.
Un ensemble est dénombrable s'il es équipotent à N.
Un ensemble est fini ssi il existe un naturel n tel que E et Nn sont équipotents.

Propriétés:
Des ensembles finis ont le même cardinal ssi ils sont équipotents.

Soient E et F des ensembles finis.


Card (E ∪ F ) = CardE + CardF si E et F sont disjoints.
Card (E ∪ F ) = CardE + CardF − Card (E ∩ F ) de manière générale.
Card (E × F ) = CardE × CardF

Soit E et F des ensembles finis de même cardinal et f ∈F E , alors il y a équivalence entre:


. f est injective
. f est surjective
. f est bijective

Principe des bergers:


Soient E et F des ensembles et f ∈F E surjective, telle qu'il existe un naturel k vérifiant tout
élément y de F a k antécédents par f dans E.
Alors E est fini ssi F est fini et CardE = kCardF

Arrangement:
Soit F un ensemble et p un naturel.
On appelle p-arrangement de l'ensemble F toute injection de Np vers F

Soit (n,p ) ∈N 2 .
0 si p > n
Anp = n (n − 1)L(n − p + 1) si 1≤ p ≤ n
1 si p = 0

F E : ensemble des applications de E (à p éléments) dans F (à n éléments): Card F E = n p


Ap (F ) : ensemble des p-arrangements de F (à n éléments): Card Ap (F ) = Anp
I (E,F ) : ensemble des injections de E (à p éléments) dans F (à n éléments): CardI (E,F ) = Anp
B (E,F ) : ensemble des bijections de E sur F quand Card E = Card F = n : Card B (E,F ) = n!
S (E ) : ensemble des permutations de E (bijection de E dans E): Card S (E ) = n!

Soit E un ensemble fini à n éléments.


C p (E ) : ensemble des p-combinaisons de E: CardC p (E ) = Cnp
P (E ) : ensemble des parties de E: CardP (E ) = 2n
1E - Familles

On appelle famille d'éléments de E indexée par I toute application de I vers E.

{ }
Si I = i 1,i 2 ,K,i p avec p ∈N ∗ , la famille de ( x i )i ∈I peut être identifié au p-uplet x i 1 ,x i 2 ,K,x i p . ( )
Cette famille est finie car I est fini.

On appelle famille de parties de E indexée par I toute famille d'éléments P (E ) indexée par I.
( Ai )i ∈I où Ai ∈P (E )
Définitions:

U A = {x ∈E; ∃i ∈I x ∈A }
i ∈I
i i

I A = {x ∈E; ∀x ∈I x ∈A }
i ∈I
i i

Propriétés:
Loi de Morgan:
E\ U A = IE \ A
i ∈I
i
i ∈I
i

E \ I A = UE \ A i i
i ∈I i ∈I

Soit f ∈F E
 
f


U A  = Uf (A )
i ∈I
i
i ∈I
i

 
f


I A  ⊂ If (A )
i ∈I
i
i ∈I
i Il y a égalité si f injective

Soit (Bi )i ∈I une famille de partie de F


 
f −1


U i ∈I
Bi  =


Uf i ∈I
−1
(Bi )

 
f −1


I i ∈I
Bi  =


If i ∈I
−1
(Bi )

Somme des éléments d'une famille finie de complexes:


si I est vide ∑z = 0 i ∈I
i

si I est non vide ∑ z = z i i1 + z i 2 +L+z i p


i ∈I

Si l'on dispose d'une partition de l'ensemble I: I j ( ) j ∈J

∑z = ∑∑z
i ∈I
i
j ∈J i ∈I j
i
Si I = J × K avec J et K finis non vides

∑z = ∑∑z
j ∈J
jk
j ∈J k ∈K
jk

k ∈K

= ∑∑z
k ∈K j ∈J
jk

( )
Si ∀j ∈J ∀k ∈K z jk = a j bk avec les deux familles de complexe a j
j ∈J
(bk )k ∈K
∑a b = ∑ ∑a b
j ∈J
j k
j ∈J k ∈K
j k

k ∈K

 
= ∑ ∑
j ∈J
aj

bk 
 k ∈K 

= ∑a ∑b j k
j ∈J k ∈K
2A - Loi de composition interne

On appelle LCI toute application T de E × E dans E.

Soit (M,T ) un magma.


Le magma (M,T ) est dit un monoïde ssi T est associative et l'ensemble M admet un élément
neutre pour T dans M.

Un monoïde abélien est un monoïde commutatif.

Théorèmes:
. Pour tout (x,y) de M symétrisables, ( xTy ) = y −1Tx −1
−1

. Tout élément symétrisable est simplifiable


2B - Les groupes

On appelle groupe tout magma (G,T) où T est une LCI sur l'ensemble G telle que:
. T est associative
. G a un élément neutre pour T
. Tout élément de G est symétrisable dans G pour T

Propriétés:
. Un groupe n'est jamais vide
. Il y a un seul élément neutre dans tout groupe
. Tout élément d'un groupe a un seul symétrique
. Tout élément d'un groupe est régulier (simplifiable) pour T

Groupe produit:
Soient (G1,T1) et (G2 ,T2 ) des groupes d'éléments neutres e1 et e 2 .
La loi T est définie sur G1 × G2 par:
∀( x1,x 2 ) ∈G1 × G2 ∀( y1,y 2 ) ∈G1 × G2
( x1,x 2 )T( y1,y 2 ) = ( x1Ty1,x 2 Ty 2 )
T est dite la loi produit.

Généralisation au groupe-produit de n groupes avec n ∈N \ {0,1} .


ex: le groupe abélien Rn ,+ ( )
(a1+L+an ) + (b1+Lbn ) = (a1 + b1,K,an + bn )
2C - Sous-groupe

Définition:
On appelle sous-groupe du groupe G toute partie H de G telle que:
. H est stable pour la loi T de G
. Muni de la loi induite par T, H est un groupe.

Propriétés:
. eH = e G
. Tout élément de H a même symétrique dans G et dans H.
. (G,T) abélien implique (H,TH) abélien (réciproque fausse)

Caractérisation des sous-groupes:


Il y a équivalence entre les assertions suivantes:
(i) H est un sous-groupe de G
(ii) H est une partie de G telle que:
. H est non vide
. H stable pour T
. Pour tout x ∈H, le symétrique de x dans G, x −1, appartient à H
(iii) H est une partie de G non vide telle que:
∀( x,y ) ∈H2 xTy −1 ∈H

Centre d'un groupe:


Z(G) = {a ∈G; ∀g ∈G aTg = gTa} (ensemble des a de G qui commutent avec tout élément de G)
Z(G) est un sous-groupe de G, il est dit le centre du groupe G.
Rem: Z(G)=G équivaut à G abélien

Intersection de sous-groupe:
Soit une famille (Hi )i∈I de sous-groupe d'une groupe G.

Alors IH est un sous-groupe de G.


i∈I
i
2D - Morphisme de groupe

Morphisme de groupe:
Soient (G,T) et (G',T') des groupes.
On appelle morphisme du groupe G vers le groupe G' toute application f de G vers G' telle que:
∀( x,y ) ∈G2 f( xTy ) = f( x )Tf( y )

Si G=G' et T=T', le morphisme est dit endomorphisme.


Si f:G → G' est une bijection de G sur G', le morphisme f est dit isomorphisme du groupe (G,T)
sur (G',T').
Si G=G', T=T' et f:G → G' est une bijection de G sur G', le morphisme f est dit automorphisme du
groupe (G,T).

Propriétés:
. Soient f: (G,T ) → (G′, T ′ ) et g: (G′, T ′ ) → (G′′, T ′′ ) des morphismes de groupes.
Alors g o f: (G,T ) → (G′′, T ′′ ) est un morphisme de groupe.
. Soit f: (G,T ) → (G′, T ′ ) un isomorphisme de groupe.
Alors f −1: (G′, T ′ ) → (G,T ) est un isomorphisme de groupe.
.Soit (G,T) un groupe et Aut(G) l'ensemble des automorphismes du groupe (G,T)
Alors ( Aut(G),o) est un groupe, le groupe des automorphismes G.

Propriétés algébriques des morphismes de groupe:


Soit f: (G,•) → (G′,•) un morphisme de groupe donc ∀( x,y ) ∈G2 f( xy ) = f( x )f( y )
Alors:
(1) f(eG ) = eG′
( )
(2) ∀x ∈G f x −1 = f( x )
−1

( )
(3) ∀( x,y ) ∈G2 f xy −1 = f( x )f( y )
−1

(4) ∀n ∈N∗ ∀( x1,K,xn ) ∈Gn f( x1Lxn ) = f( x1)Lf( xn )


( )
(5) ∀n ∈Z ∀x ∈G f xn = f( x )
n

Soit f: (G,+ ) → (G′,+ )


(1') f(0G ) = 0G′
(2') ∀x ∈G f( −x ) = −f( x )
(3') ∀( x,y ) ∈G2 f( x − y ) = f( x ) − f( y )
(4') ∀n ∈N ∀( x1,K,xn ) f( x1 +L+xn ) = f( x1) +L+f( xn )
(5') ∀n ∈Z f(nx ) = nf( x )

Image directe ou image réciproque d'un sous-groupe par un morphisme de groupe:


Soit f: (G,•) → (H′,•) un morphisme de magmas avec G un groupe et H' un magma.
Soit H un sous-groupe de G.
Alors f(H) est stable pour la loi de H' et muni de la loi induite, f(H) est un groupe.

Soit f:G → G′ un morphisme de groupe.


Pour tout sous-groupe H' de G', son image réciproque f −1(H′ ) est un sous-groupe de G.
Image et noyau du morphisme:
Soit f:G → G′ un morphisme de groupe.
On pose:
Inf = f(G)

(
Kerf = f −1 {eG′ } )
In(f) est un sous-groupe de G' et Ker(f) est un sous-groupe de G.
Le morphisme f est surjectif ssi In(f)=G'.
Le morphisme f est injectif ssi Ker ( f ) = {eG } .
3A - Conjugué & module d'un complexe

Conjugué d'une somme:


Ψ: (C,+ ) → (C,+ )
zaz
Ψ est un automorphisme du groupe (C,+)
Il en résulte:
0=0
∀( z, z ′,z1,K,zn ) ∈Cn+2 n ∈N∗
−z = z
z − z′ = z − z′
z1 +L+zn = z1 +Lzn
∀n ∈Z nz = nz
Im( Ψ ) = C
Ker ( Ψ ) = {0}

Conjugué d'un produit:


( ) (
Ψ ′: C∗ ,• → C∗ ,• )
zaz
Ψ ′ est un automorphisme de groupes.
Il en résulte:
1=1
∀( z, z ′,z1,K,zn ) ∈Cn+2 n ∈N∗

 1 1
 =
 z z
 z z
 =
 z′  z′
z1Lzn = z1Lzn
∀n ∈Z zn = z n
Im( Ψ ′ ) = C∗
Ker ( Ψ ′ ) = {1}

Synthèse:
Ψ est un automorphisme du corps des complexes (C,+,•) .
En outre, il est involutif et Inv( Ψ ) = {z ∈C; Ψ ( z) = z} = R .

Module d'un complexe:


z = zz = Re 2 (z ) + Im2 (z )
z =0⇔z =0
−z = z = z
z ≥ Re( z )
z ≥ Im( z )
z = Re( z ) ⇔ z ∈R
z = Im( z ) ⇔ z ∈iR
:C∗ → R∗
zaz
( ) ( )
est un morphisme du groupe C∗ ,• vers le groupe R∗ ,• .
On en déduit:
1=1
∀( z, z ′,z 1,K,z n ) ∈Cn+2 n ∈N∗
1 1
=
z z
z z
=
z′ z′
z 1Lz n = z 1 L z n
n
∀n ∈Z zn = z

Im( ) = R∗+
Ker ( ) = U U = {z ∈C; z = 1}
3B - Argument d'un nombre complexe

Morphisme surjectif de groupes:


ϕ:R → U
t a e it
ϕ est un morphisme du groupe (R,+) vers le groupe C∗ ,• .( )
Résultats immédiats:
ei 0 = 1
∀(t ,t ′,t 1,K,t n ) ∈R 2 n ∈N∗

e ( ) = it
i −t 1
e
e it
e ( ′ ) = it ′
i t −t
e
i (t 1 +Lt n )
e = e it 1 Le it n

( )
n
∀n ∈Z eint = e it
Im( ϕ ) = U
Ker ( ϕ ) = 2πZ

Argument d'un complexe non nul:


  z 
∀z ∈C∗ argz = ϕ −1  
  z 
3C - Racines n-ièmes d'un complexe

Résolution sur C de l'équation z n = a :


Soit a ∈C∗ & n ∈N∗ .
a admet exactement n racines n-ièmes complexes:
θ 2π 
i  +k 
n n 
zk = n r e
k ∈ {0,1,K,n − 1}
r=a
θ ∈arga

Morphisme de groupes:
Ψ:Z → C∗

ik
k ae n

( )
Ψ est un morphisme du groupe ( Z,+ ) vers le groupe C∗ ,• .
ImΨ = {u k ; k ∈ {0,1,K,n − 1}}
= Un
{
Un = u ∈C; u n = 1n ∈N∗ }
KerΨ = nZ

Somme des puissances p-ièmes des racines n-ièmes de l'unité.



Un = {u 0 ,u1,K,u n −1} n ∈N∗ u k = e
ik
n

S p = u 0p + u1p +L+u np−1


Si p ∈nZ Sp = n
Si p ∉nZ Sp = 0

Corollaire:
Si p ∉nZ
n −1

∑ cos pk 2πn = 0
k =0
n −1

∑ sinpk 2πn = 0
k =0
3D - C et la trigonométrie

Formules:
∀θ ∈R ∀n ∈Z (e ) iθ n
= e inθ
∀θ ∈R,
e iθ + e −iθ
cosθ =
2
e iθ − e −iθ
sinθ =
2i
∀(a,b ) ∈R 2 ,
a +b
i a −b
e ia + e ib = e 2 2 cos
2
a +b
i a −b
e ia − e ib = e 2 2i sin
2

Multiplication des arcs (polynôme de Tchebychev):


n′
cosnx = ∑C
p =0
2p
n ( −1)p cosn −2p x sin2p x n′ = E( n2 )
n ′′
sinnx = ∑C
p =0
2p +1
n ( −1)p cosn −2p −1 x sin2p +1 x n ′′ = E ( n2−1)
n ′′

∑C
p =0
2p +1
n ( −1)p tan2p +1 x
tannx = n′

∑C
p =0
2p
n ( −1)p tan2p x
Polynôme de Tchebychev:
n′
Tn ( X ) = ∑ (−1) C
p =0
p 2p n −2p
n X (1− X )
2 p

Tn ( X ) est de degré n et de coefficient dominant 2n −1 .


cosnx est une expression polynomiale en cosx: cosnx = Tn ( cos x )

Linéarisation:
Si n est impaire:
n −1
2
cosn x =
1
2n −1 ∑C
k =0
k
n cos(n − 2k )x

n −1
n −1
( −1) 2

∑ (−1) C sin(n − 2k )x
2 k
sinn x = k
2n −1
n
k =0
Si n est paire:
n
n
−1
2

∑C
Cn2 1
cosn x = + k
cos(n − 2k )x
2n −1
n
2n
k =0
n
n −1
( −1)
n 2

∑ (−1) C
Cn 2
cos(n − 2k )x
2 k
sinn x = + k
2n −1
n n
2
k =0
4A - Les anneaux

Structure d'anneau:
On appelle anneau tout magma (A,+,•) tel que:
. (A,+) groupe abélien
. la loi • est une LCI sur A associative et distributive par rapport à +
. A a un élément neutre pour •.

Intégrité:
On appelle anneau intègre tout anneau commutatif, distinct de l'anneau nul et sans diviseurs de
zéro.

Anneau produit:
Soient (A,+,•) et (B,+,•) deux anneaux.
On munit A × B des lois + et •.
( A × B,+,•) est un anneau produit si:
∀(a,b ) ∈A × B ∀(a ′, b ′ ) ∈A × B
(a,b) + (a ′,b ′ ) = (a + a ′,b + b ′ )
(a,b)(a ′,b ′ ) = (aa ′,bb ′ )
Règles de calcul dans les anneaux:
Soit (A,+,•) un anneau.
∀( x,y, y ′,y1,K,yn ) ∈A n+3 n ∈N ∀( y,x, x ′,x1,K,xn ) ∈A n+3 n ∈N
x0 A = 0 A 0A y = 0A
x( −y ) = − ( xy ) ( −x )y = −( xy )
x( y − y ′ ) = xy − xy ′ ( x − x ′ )y = xy − x ′y
x( y1 +L+yn ) = xy1 +Lxyn ( x1+L+xn )y = x1y+L+xny
∀n ∈Z x(ny ) = n( xy ) ∀n ∈Z (nx )y = n( xy )

Soit (A,+,•) un anneau.


∀(a,b ) ∈A 2
(a + b)2 = a 2 + ab + ba + b 2
(a − b)2 = a 2 − ab − ba + b 2
(a + b)(a − b) = a 2 − ab + ba − b 2
Soit (A,+,•) un anneau et a et b des éléments de A qui commutent.
n
∀n ∈N (a + b ) =
n
∑C a b
k=0
k k n−k
n

Autres propriétés:
Tout élément de l'anneau (A,+,•) est régulier pour +.
Si (A,+,•) est un anneau intègre, alors tout élément non nul de A est simplifiable pour •.

Morphisme d'anneaux:
Soient (A,+,•) et (B,+,•) deux anneaux.
On appelle morphisme de l'anneau A vers l'anneau B toute application f de A vers B tel que:
∀(a, a ′ ) ∈A 2 f(a + a ′ ) = f(a ) + f(a ′ )

∀(a, a ′ ) ∈A f(aa ′ ) = f(a )f(a ′ )
2


f(1A ) = 1B
Il en résulte toutes les propriétés du groupe (A,+) dont:
f(0 A ) = 0B
∀x ∈A f( −x ) = −f( x )
∀n ∈Z ∀x ∈A f(nx ) = nf( x )
Imf = f( A )
(
Kerf = f −1 {0B } )
f:A → B surjective ⇔ Imf = B
f:A → B injective ⇔ Kerf = {0 A }

f est aussi un morphisme du monoïde (A,•) vers le monoïde (B,•) et:


f(a ) ∈B

∀x ∈A a ∈U( A ) ⇒  −1
( )
( f(a )) = f a
−1

Sous-anneau:
On appelle sous-anneau de l'anneau (A,+,•) toute partie A' de A telle que:
. 1A ∈A'
. A' est stable pour les deux lois
. Muni des 2 lois induites, A' est un anneau.

Définitions équivalentes d'un sous anneau:


1A ∈A'

A' sous-anneau de (A,+,•) ⇔ A' est un sous - groupe de ( A,+)
A' est stable pour •

1A ∈A'

A' sous-anneau de (A,+,•) ⇔ ∀(a',b' ) ∈A' 2 a' −b'∈A'

∀(a',b' ) ∈A' 2 a'b'∈A'

Image homomorphe d'un anneau:


Soit f:A → B un morphisme d'anneau.
. pour tout sous-anneau A' de A, f(A') est un sous-anneau de B.
. pour tout sous-anneau B' de B, f −1(B' ) est un sous-anneau de A.

Idéal d'un anneau:


On appelle idéal de l'anneau (A,+,•) toute partie I de A telle que:
. I est un sous-groupe du groupe (A,+)
. ∀a ∈A ∀i ∈I ai ∈I et ia ∈I

Définitions équivalentes des sous-anneaux:


I ≠ ∅

I idéal ⇔ ∀(i, j) ∈I2 i − j ∈I
∀a ∈A ∀i ∈I ai ∈I et ia ∈I

I ≠ ∅

I idéal ⇔ ∀(i, j) ∈I2 i + j ∈I
∀a ∈A ∀i ∈I ai ∈I et ia ∈I

Théorème:
Soit (A,+,•) un anneau.
Le seul idéal de A, I, tel que 1A ∈I, c'est A lui-même.
Image homomorphe d'un idéal:
Soit f:A → B un morphisme d'anneau.
. Pour tout idéal I de A, f(I) est un idéal de l'anneau Imf = f( A )
. Pour tout idéal J de B, f −1( J) est un idéal de l'anneau A
4B - Les corps

Structure de corps:
On appelle corps tout anneau (K,+,•)
. commutatif
. distinct de l'anneau nul
. tout élément non nul est inversible

Propriétés:
. Tout corps a au moins deux éléments distincts
. Soit (K,+,•) un corps. Alors U(K ) = K \ {0K }
. Tout corps est intègre

Sous-corps:
On appelle sous-corps du corps (K,+,•), tout sous-anneau de K tel que muni des lois induites, il
est un corps.

Caractérisations des sous-corps:


Soit (K,+,•) un corps.
Soit K'∈P(K ) .
K' est un sous - anneau de K
K' sous-corps de K ⇔ 
∀x'∈K' \ {0K } x ∈K'
−1

1K ∈K'

∀(a',b' ) ∈K' a' −b'∈K'
2

K' sous-corps de K ⇔ 
∀(a',b' ) ∈K' a'b'∈K'
2


∀a'∈K' \ {0K } a' ∈K'
−1

Théorème:
Les seuls idéaux d'un corps (K,+,•) sont les idéaux triviaux K et {0K } .

Morphismes de corps:
On appelle morphisme du corps (K,+,•) vers le corps (L,+,•) tout morphisme d'anneau de K
vers L.

Propriétés des morphismes de corps:


. Tout morphisme de corps est injectif
. Soit f:K → L un morphisme de corps, alors Im f est un sous-corps du corps L et
f:K → Imf est un isomorphisme de corps.
5A - Espaces vectoriels et sous-espaces vectoriels

Loi de composition externe:


Soit E un ensemble et F un ensemble.
On appelle loi de composition externe sur E avec F pour ensemble d'opérateurs, toute
application ⊥ définie par:
⊥:F × E → E
( λ,x ) a λ⊥x
Espaces vectoriels:
Soit (K,+,•) un corps, a priori un sous-corps de C.
On appelle espace vectoriel sur le corps K, tout magma (E,+,⊥) tels que:
(1) (E,+) est un groupe abélien (L'élément neutre est dit vecteur nul)
(2) La LCE ⊥ vérifie:
(i) ∀( λ,µ ) ∈K 2 ∀x ∈E ( λ + µ )x = λx + µx
(ii) ∀λ ∈K ∀( x,y ) ∈E2 λ ( x + y ) = λx + λy
(iii) ∀( λ,µ ) ∈K 2 ∀x ∈E λ ( µx ) = ( λµ )x
(iv) ∀x ∈E 1K x = x

Théorèmes:
. Tout corps est un espace vectoriel sur lui-même.
. Tout ensemble E qui est un K-ev est pour tout sous corps K' de K un K'-ev.
. Tout corps est un espace vectoriel sur chacun de ses sous-corps.
. (Mn (K ),+,⊥ ) est un K-ev. C'est le K-ev des matrices carrées d'ordre n à coefficients dans le
corps K.

Espace vectoriel produit:


Soient (E1,+,⊥ )K et (E2 ,+,⊥ )K des K-ev.
On munit E1 × E2 de la LCI + et de la LCE ⊥ telles que:
∀( x1,x 2 ) ∈E1 × E2 ∀( y1,y 2 ) ∈E1 × E2 ∀λ ∈K
( x1,x 2 ) + ( y1,y 2 ) = ( x1 + y1,x 2 + y 2 )
λ ( x1,x 2 ) = ( λx1,λx 2 )
Alors (E1 × E2 ,+,⊥ ) est un K-ev.

Espace vectoriel des applications vers un espace vectoriel:


Soit X un ensemble non vide.
Soit (E,+,⊥) un K-ev.
On munit E X de la LCI + et de la LCE ⊥ définies par:
( )
∀( f,g) ∈ E X
2

f + g:X → E
x a f( x ) + g( x )
λf:X → E
x a λf( x )
(
Alors E X ,+,⊥ )
K
est un K-ev.
Règles de calcul dans les espaces vectoriels:
Soit (E,+,⊥) un K-ev.
∀x ∈E ∀( λ,λ',λ1,Kλ n ) ∈K n+2 n ∈N∗ ∀λ ∈K ∀( x,x',x1,K,xn ) ∈En+2 n ∈N∗
0K x = 0E λ0E = 0E
( −λ )x = −( λx ) λ ( −x ) = − ( λx )
( λ − λ')x = λx − λ' x λ ( x − x' ) = λx − λx'
( λ1+L+λ n )x = λ1x+L+λ nx λ ( x1 +L+xn ) = λx1 +L+λxn
∀n ∈Z (nλ )x = n( λx ) ∀n ∈Z λ (nx ) = n( λx )

∀λ ∈K ∀x ∈E λx = 0E ⇔ λ = 0K ou x = 0E

∀( λ,λ' ) ∈K 2 ∀x ∈E λx = λ' x ⇔ λ = λ' ou x = 0E


∀λ ∈K ∀( x,x' ) ∈E2 λx = λx' ⇔ λ = 0K ou x = x'

Sous-espaces vectoriels:
Soit (E,+,⊥) un K-ev.
On appelle sous-espace vectoriel du K-ev E ou K-sev de E toute partie E' de E:
. stable pour les lois de K-ev de E + et ⊥
. qui munie des lois induites est un K-ev.

Définitions équivalentes des sous-espaces vectoriels:


Soit (E,+,⊥) un K-ev.
Pour toute partie E' de E,
E' sous - groupe de (E,+)
E' est un K-sev de E ⇔ 
E' stable pour la LCE ⊥ de E
E' ⊂ E
E' ≠ ∅

E' est un K-sev de E ⇔ 
∀( x',y' ) ∈E' x' −y'∈E'
2

∀λ ∈K ∀x'∈E' λx'∈E'



E' ⊂ E
E' ≠ ∅

E' est un K-sev de E ⇔ 
∀( x',y' ) ∈E' x' +y'∈E'
2

∀λ ∈K ∀x'∈E' λx'∈E'



E' ⊂ E

E' est un K-sev de E ⇔ E' ≠ ∅

∀( λ,µ ) ∈K ∀( x',y' ) ∈E' λx' +µy'∈E'
2 2
5B - Applications linéaires / Le K-ev L(E,F)

Application linéaire:
On appelle application linéaire du K-ev (E,+,⊥) vers le K-ev (F,+,⊥) toute application u de E vers
F telle que:
∀( x,x' ) ∈E2 ∀λ ∈K
u( x + x' ) = u( x ) + u( x' )
u( λx ) = λu( x )
Définition équivalente: ∀( λ,λ' ) ∈K 2 ( x,x' ) ∈E2 u( λx + λ' x' ) = λu( x ) + λ'u( x' )

Propriétés:
. Image et noyau:
Imu = {u( x ) ∈F;x ∈E}
Imu = F ⇔ u:E → F surjective
( )
Keru = u−1 {0F } = {x ∈E;u( x ) = 0F }
Keru = {0E } ⇔ u:E → F injective
. Propriétés algébriques:
∀( x,x',x1,K,xn ) ∈En+2 n ∈N∗
u(0E ) = 0F
u( −x ) = −u( x )
u( x − x' ) = u( x ) − u( x' )
u( x1 +L+xn ) = u( x1) +L+u( xn )
∀k ∈Z u(kx ) = ku( x )
∀( λ1,K,λ n ) ∈K n ∀( x1,K,xn ) ∈En n ∈N∗
u( λ1x1 +L+λ n xn ) = λ1u( x1) +L+λ nu( xn )

Image directe ou image réciproque d'un sev par une application linéaire:
Soit u ∈L(E,F ) .
. Pour tout sev E' du K-ev E, l'image directe u(E') est un sev du K-ev F.
. Pour tout sev F' du K-ev F, l'image réciproque u−1(F' ) est un sev du K-ev E.

Le K-ev (L(E,F),+,⊥ ):
Soit E et F des K-ev.
L(E,F) est un sev du K-ev FE , d'où le K-ev (L(E,F),+,⊥).

Formes linéaires - Dual d'un K-ev.


Soit (E,+,⊥) un K-ev.
On appelle forme linéaire sur le K-ev E toute application linéaire du K-ev E vers le K-ev K.
Propriétés:
. Toute forme linéaire sur le K-ev E est la forme linéaire nulle ou est surjective.
. Dual du K-ev E:
Soit (E,+,⊥) un K-ev.
On note E∗ et on appelle dual le K-ev L(E,F) des formes linéaires sur le K-ev E.
On dispose du K-ev ( E∗ ,+,⊥).
5C - La K-algèbre (L(E),+,o,⊥)

Structure de K-algèbre:
On appelle K-algèbre tout magma (A,+,•,⊥) tel que:
(1) (A,+,•) est un anneau
(2) (A,+,⊥) est un K-ev
(3) ∀λ ∈K ∀(a,b ) ∈A λ (ab ) = ( λa )b = a( λb )

Propriétés:
Tout corps (K,+,•) est une K'-algèbre pour tout K' sous-corps de K.
( )
Soient (A,+,•,⊥) une K-algèbre et X un ensemble fini, alors A X ,+,o,⊥ est une K-algèbre.

Algèbre produit:
Soient ( A1,+,•,⊥ ) et ( A 2 ,+,•,⊥ ) des K-algèbres.
Alors A1 × A 2 est une K-algèbre.

Sous-algèbres:
On appelle sous-algèbre de la K-algèbre (A,+,•,⊥) toute partie A' de A telle que:
(1) 1A ∈A'
(2) A' stable pour les 3 lois de K-algèbre de A
(3) A' munie des lois induites est une K-algèbre.

Caractérisations des sous-algèbres:


(Assertions équivalentes)
(1) A' est une sous-algèbre de A
A' ⊂ A

(2) A' est un sous - anneau de l'anneau A
A' est stable pour la LCE de A

A' ⊂ A

A' est un sev du K - ev ( A,+,⊥ )K
(3) 
A' est stable pour la LCI • de A
1 ∈A'
A
A' ⊂ A

1A ∈A'

∀(a',b' ) ∈A' a' +b'∈A'
2
(4)

∀(a',b' ) ∈A' a'b'∈A'
2

∀λ ∈K ∀a'∈A' λa'∈A'


Morphisme d'algèbre:
On appelle morphisme de K-algèbre de la K-algèbre (A,+,•,⊥) vers le K-algèbre (B,+,•,⊥) toute
application u:A → B telle que:
∀(a',b' ) ∈A' 2 ∀λ ∈K
u(a + a' ) = u(a ) + u(a' )
u(aa' ) = u(a )u(a' )
u( λa ) = λu(a )
u(1A ) = 1B
La K-algèbre (L(E),+,o,⊥ ):
(L(E),+,o,⊥) est une K-algèbre.
Son vecteur nul est:
0̃:E → E
x a 0E
Son élément unité est:
IdE :E → E
xax
Cette algèbre n'est en général ni commutative ni intègre.

Le groupe (GL(E),o):
(Groupe linéaire du K-ev E)
GL(E)=U(L(E))
5D - Intersection et somme de sous-espaces vectoriels

Intersection d'une famille de sous-espaces vectoriels:


Soit (Ei )i∈I une famille de sev d'un K-ev E.

Alors IE est un sev du K-ev E.


i∈I
i

Sous-espace vectoriel engendré par une partie:


Soit (E,+,⊥) un K-ev.
Soit X une partie quelconque de E.
Soit V(X) l'ensemble des sous-espaces vectoriels E' de E incluant X.
Posons Vect( X ) = IE'
E'∈V ( X )
Théorème:
Soit X une partie d'un K-ev E, alors il existe une partie notée Vect(X) de E telle que:
(1) Vect(X) est un sev du K-ev E
(2) X ⊂ Vect( X )
(3) Pour tout sev E" du K-ev E vérifiant X ⊂ E", Vect( X ) ⊂ E".

Soit X une partie du K-ev E.


Soit V une partie de E.
V sev du K - ev E

Alors V = Vect( X ) ⇔ X ⊂ V
pour tout sev E" de E incluant X, V ⊂ E"

Théorèmes:
. Soit X une partie du K-ev E.
X = Vect( X ) ⇔ X sev du K - ev E
. Soit X une partie non vide du K-ev E.
 n 
Vect( X ) = x ∈E; ∃n ∈N \ {0} ∃( x1,K,xn ) ∈X n ∃(α1,K,α n ) ∈K n x =

∑ α x 
i=1
i i

Somme de deux sous-espaces vectoriels:


Soit E un K-ev.
Soient E1 et E2 des sev du K-ev E.
On pose E1 + E2 = {x ∈E; ∃x1 ∈E1 ∃x 2 ∈E2 x = x1 + x 2 } .
Alors: (1) E1 + E2 est un sev du K-ev E
(2) E1 + E2 = Vect(E1 ∪ E2 )

Cas où la somme est directe:


Soit E un K-ev.
Soient E1 et E2 des sev du K-ev E.
Il y a équivalence entre les assertions suivantes:
(1) ∀x ∈E1 + E2 ∃!( x1,x 2 ) ∈E1 × E2 x = x1 + x 2
(2) ∃!( x1,x 2 ) ∈E1 × E2 0E = x1 + x 2
(2') ∀( x1,x 2 ) ∈E1 × E2 x1 + x 2 ⇒ x1 = 0E et x 2 = 0E
(3) E1 ∩ E2 = {0E }
Sommes de n sous-espaces vectoriels:
Soit n ∈N \ {0,1} .
Soient E1,K,En des sev d'un K-ev E.
n  n 
On pose ∑i=1
Ei = x ∈E; ∃( x1,K,xn ) ∈E1 ×L×En x =

∑i=1
xi 

n
Alors: (1) ∑E est un sev du K-ev E
i=1
i

n  n 
(2) ∑i=1
Ei = Vect 


Ui=1
Ei 

Cas où la somme est directe:


Soit n ∈N \ {0,1} .
Soient E1,K,En des sev d'un K-ev E.
Il y a équivalence entre les assertions suivantes:
n n n
(1) ∀x ∈ ∑E ∃!(x ,K,x ) ∈∏E x = ∑ x
i=1
i 1 n
i=1
i
i=1
i

n n
(2) ∃!( x1,K,xn ) ∈ ∏E 0 = ∑ x
i=1
i E
i=1
i

n n
(2') ∏ ∑x = 0
∀( x1,K,xn ) ∈
i=1
Ei
i=1
i E ⇒ x1 =L= xn = 0E

(3) ∀i ∈Nn E I ∑ E = {0 }
i j E
j∈Nn
j≠i
i−1
(4) ∀i ∈ {2,K,n} Ei I ∑E = {0 }
j=1
j E

Sous-espaces vectoriels supplémentaires:


Soient E1 et E2 des sev d'un K-ev E.
On dit que les sev E1 et E2 sont supplémentaires dans E si et seulement si E = E1 ⊕ E2 .

Soient E1 et E2 des sev d'un K-ev E.


E1 + E2 = E
E1 et E2 sont supplémentaires dans E ⇔ 
E1 ∩ E2 = {0E }
E1 et E2 sont supplémentaires dans E ⇔ ∀x ∈E ∃!( x1,x 2 ) ∈E1 × E2 x = x1 + x 2

Supplémentaire d'un sous-espace vectoriels:


On appelle supplémentaire d'un sev E1 du K-ev E dans E tout sev E2 du K-ev E tels que
E = E1 ⊕ E2 .

Soient E1, E2 et E′2 des sev du K-ev E, alors:


E = E1 ⊕ E2

E = E1 ⊕ E′2 ⇔ E2 = E′2
E ⊂ E′
 2 2
Préparation au théorème du rang:
. Lemme:
Soit u ∈L(E,F ) et E1 un sev du K-ev E.
On pose u1 = u E :E1 → F.
1

Alors u1 ∈L(E1,F ) et:


Imu1 = u(E1)
Keru1 = E1 ∩ Keru

. Théorème:
Soit u ∈L(E,F ) .
Tout supplémentaire de Keru dans E est isomorphe à Imu.

Projection:
Soient E1 et E2 des sev supplémentaires d'un K-ev E.
E = E1 ⊕ E2 ⇒ ∃!( x1,x 2 ) ∈E1 × E2 x = x1 + x 2
p1:E → E
L'application est dite projection de E sur E1 parallèlement à E2 .
x a x1
p 2 :E → E
L'application est dite projection de E sur E2 parallèlement à E1.
x a x2

Propriétés des projections:


p1 ∈L(E) p 2 ∈L(E)
Imp1 = E1 Imp 2 = E2
Ker p1 = E2 Ker p 2 = E1
p1 + p 2 = IdE
p1 o p1 = p1 p2 o p2 = p2
p1 o p 2 = 0L(E) = p 2 o p1

Isomorphisme des supplémentaires d'un même sev:


Soient E2 et E′2 des supplémentaires du même sev E1 dans le K-ev E, alors E2 et E′2 sont
isomorphes.

Projecteurs:
On appelle projecteur du K-ev E tout endomorphisme linéaire de E idempotent pour la loi o,
c'est à dire: p ∈L(E) projecteur ⇔ p o p = p .

Théorèmes:
. Soit p un projecteur du K-ev E, alors:
(1) ∀x ∈E x ∈Imp ⇔ p( x ) = x
(2) E = Imp ⊕ Ker p
(3) p est la projection de E sur Imp parallèlement à Ker p
. Soit p un projecteur du K-ev E et q = IdE − p , alors q est un projecteur de E, donc:
p o q = q o p = 0L(E)
Im(IdE − p ) = Ker p
Ker (IdE − p ) = Imp
Symétrie:
On appelle symétrie du K-ev E tout endomorphisme linéaire du K-ev E involutif, c'est à dire:
s ∈L(E) symétrie ⇔ s o s = IdE .

Propriétés:
Si s est une symétrie du K-ev E, alors s ∈GL(E) , donc Ims = E et Ker s = {0E } .

Projecteurs vers symétries:


Soit p un projecteur du K-ev E, posons s=p-q où q = IdE − p . Donc s = 2p − IdE .
Alors s est une symétrie et est dite associée au projecteur p.

Symétries vers projecteurs:


1
Soit s une symétrie, posons p =
2
(s + IdE ) .
Alors p est une projection de E, dite associée à la symétrie s.

Inv(u) et Opp(u):
Soit E un K-ev.
u ∈L(E)
Inv(u) = {x ∈E; u( x ) = x}
Opp(u) = {x ∈E; u( x ) = −x}
Invu) et Opp(u) sont des sev du K-ev E dont la somme est directe.
5E - Valeurs propres & vecteurs propres

Valeur propre & spectre:


Soit u ∈LK (E) .
On appelle valeur propre de u, tout scalaireλ tel que: ∃x ∈E \ {0E } u( x ) = λx .
On note SpK (u) l'ensemble des valeurs propres dans K de u.

Caractérisation des valeurs propres:


E ≠ {0E }
u ∈LK (E)
∀λ ∈K λ ∈SpK (u) ⇔ Ker (u − λIdE ) ≠ {0E } ⇔ u − λIdE non injectif

Exemples:
E ≠ {0E }
u ∈LK (E)
0K ∈SpK (u) ⇔ Keru ≠ {0E } ⇔ u non injectif
1K ∈SpK (u) ⇔ Ker (u − IdE ) ≠ {0E } ⇔ Inv(u) ≠ {0E }
−1K ∈SpK (u) ⇔ Ker (u + IdE ) ≠ {0E } ⇔ Opp(u) ≠ {0E }

Vecteurs propres & sous-espaces propres:


Soit u ∈LK (E) .
On appelle vecteur propre par l'endomorphisme u, tout vecteur de E non nul tel qu'il existe un
scalaire λ vérifiant u(x)=λx.

Si x est un vecteur propre pour u, alors il existe un seul scalaire λ tel que u(x)=λx. On dit que λ
est la valeur propre associée au vecteur propre x.

Soit λ une valeur propre de l'endomorphisme u et soit Eλ (u) l'ensemble des vecteurs propres
pour u de valeur propre λ auquel on adjoint {0E } . Alors Eλ (u) est un sev du K-ev E. Il est dit le
sous-espace propre de u relatif à la valeur propre λ.
Eλ (u) = Ker (u − λIdE )

Etude de u sur l'un de ses sous-espaces propres:


u':Eλ (u) → Eλ (u)
Soit u ∈LK (E) et λ ∈SpK (u) . Alors Eλ (u) est satble par u et est l'homothétie
x a u( x )
E ( u)
de rapport λ de Eλ (u) . u' = u Eλ (u) .
λ

Endomorphismes diagonalisbles:
Soit u ∈LK (E) et soient m éléments distincts du spectre dans K de u , λ1,K,λ m (m ∈N ). Alors

la somme des sev associés est directe. On dispose du sev Eλ1 ⊕L⊕Eλ m .
Cas favorable: celui d'un endomorphisme diagonalisable.
Soit u ∈LK (E) tel que le spectre dans K de u soit non vide et fini.
On dispose de la somme directe:

λ∈SpK (u)

L'endomorphisme u est dit diagonalisable si et seulement si E =



λ∈SpK (u)
.
6A - Familles génératrices, familles libres & bases

Support d'une famille:


Soit X = ( xi )i∈I ∈EI .
On pose supp( X ) = {i ∈I; xi = 0E } .
Soient X ∈EI , Y ∈EI , λ ∈K , alors:
supp( X ) si λ ≠ 0K
supp( λX ) = 
∅ si λ = 0K
supp( X + Y ) ⊂ supp( X ) ∪ supp( Y )

Le K-ev E (I):
Une famille X est dite à support fini ou qu'il s'agit d'une famille de vecteurs presque tous nuls
quand supp(X) est une partie finie de I.
On note E(I) le sous-ensemble de EI constitué par les familles à support fini.
(
Alors E( ) ,+,⊥ est un K-ev.
I
)
Si I est fini, alors E( ) = EI .
I

Somme des vecteurs d'une famille à support fini:


Soit X = ( xi )i∈I ∈E( ) .
I

On pose ∑ x = ∑( x) .
i∈I
i
i∈supp X
i

Combinaison linéaire d'une famille de vecteurs:


Soit E un K-ev et I un ensemble quelconque.
Soit X = ( xi )i∈I ∈EI .
On appelle combinaison linéaire de X tout vecteur x ∈E du type:
x= ∑ λ x avec (λ )
i∈I
i i i i∈I ∈K ( ) .
I

Familles génératrice d'un K-ev.


Soit X = ( xi )i∈I ∈EI .
Alors l'ensemble des combinaisons linéaires à coefficients dans K de la famille ( xi )i∈I ,
 
∑
 i∈I
I 
( )
λ i xi ∈E; ( λ i )i∈I ∈K ( )  = Vect {xi ; i ∈I} , c'est à dire un sev du K-ev E. (le sev engendré par la

partie {xi ; i ∈I} ).
On dira que c'est le sev de E engendré par la famille ( xi )i∈I .

Famille génératrice:
Soit E' un sev d' un K-ev E.
On appelle famille génératrice de E' toute famille ( gi )i∈I ∈EI constituée de vecteurs de E' tels
que E' = Vect ( gi )i∈I .( )
∀i ∈I gi ∈E'

(gi )i∈I engendre le K - ev E' ⇔ ∀x ∈E' ∃( λ ) ∈K (I) x =


i i∈I ∑λ g
i∈I
i i
I=Nn
∀i ∈Nn gi ∈E'

(g1,K,gn ) n

∑λ g
système générateur de E' ⇔ 
∀x ∈E' ∃( λ1,K,λ n ) ∈K x =
n
i i
 i=1

Propriétés:
. Toute sur-famille d'une famille génératrice du sev E' du K-ev E obtenue en adjoignant des
vecteurs de E' est aussi une famille génératrice de E.

. Soit E' sev du K-ev E et ( gi )i∈I une famille génératrice de E'.


Soit i0 ∈I, alors:
(gi )i∈I\{i } famille génératrice de E' ⇔ gi0 CL de (gi )i∈I\{i }
0 0

Relation de dépendance linéaire:


Soit X une famille de vecteurs du K-ev E, X = ( xi )i∈I .

On appelle RDL de la famille X, toute famille de scalaires ( λ i )i∈I ∈K ( ) telle que


I
∑λ x .
i∈I
i i

Famille libre & famille liée:


Soit X = ( xi )i∈I ∈EI .
La famille X est dite libre dans le K-ev E si et seulement si la seule RDL de X est la RDL triviale.
S'il existe au moins une RDL non triviale de X, X est dite une famille liée du K-ev E.

 
X famille libre ⇔ ∀( λ i )i∈I ∈K ( ) ,


I
∑i∈I
λ i xi = 0E ⇒ ∀i ∈I λ i = 0K 


 
X famille liée ⇔  ∃( λ i )i∈I ∈K ( ) ,


I

i∈I
λ i xi = 0E et ∃i ∈I λ i ≠ 0K 

Propriétés:
. Toute famille indexée par Ø est libre.
. Pour tout x de E,
( x ) famille libre ⇔ x ≠ 0E
( x ) famille liée ⇔ x = 0E
. Soit X = ( xi )i∈I ∈EI .
Si la famille est liée, alors l'un au moins des vecteurs xi est combinaison linéaire des autres.
. Toute sur-famille d'une famille liée est liée.
. Toute sous-famille d'une famille libre est libre.
. Soit L = (li )i∈I ∈EI une famille libre du K-ev E.
Soit i0 ∈I et li0 ∈E .
(li )i∈I∪{i }
0
libre ⇔ li0 n' est pas CL de (li )i∈I
. Soit X = ( xi )i∈I ∈EI .
( xi )i∈I est libre si et seulement si chacune de ses sous-familles finies est libre.
Bases d'un K-ev:
Soit E un K-ev et (ei )i∈I ∈EI .
(ei ) est une famille génératrice du K - ev E
(ei )i∈I ∈EI est une base du K - ev E ⇔  i∈I
(ei )i∈I est une famille libre
∀i ∈I ei ∈E
(ei )i∈I ∈E est une base du K - ev E ⇔ ∀x ∈E ∃!( λ i ) x = λ ixi

I

 i∈I
 i∈I

( i )i∈I
e ∈EI
est une base du K - ev E ⇔ ( i )i∈I
e famille génératrice minimale

(ei )i∈I ∈EI est une base du K - ev E ⇔ (ei )i∈I famille libre maximale
Effets d'une application linéaire sur une famille de vecteurs:
. Soit u ∈L(E,F ) et X = ( xi )i∈I .
Si AL u est si X est alors u(X) est
- liée liée
- génératrice de E génératrice de Im u
surjective de E sur F génératrice de E génératrice de F
injective libre libre
bijective base de E base de F

. Soit u ∈L(E,F ) et G = ( gi )i∈I famille génératrice de E.


si u(g) est alors AL u est
génératrice de F surjective
libre injective
base bijective

Caractérisations des isomorphismes d'ev:


Assertions équivalentes.
(1) u ∈Isom (E,F )
(2) Pour toute base Ε de E, la famille image u(Ε) est une base de F
(3) Il existe au moins une base Ε de E telle que sa famille image u(Ε) soit une base
de F.

Manière de définir sans ambiguïté une application linéaire:


Soit Ε une base du K-ev E, Ε = (ei )i∈I .
Soit ( fi )i∈I une famille de vecteurs de F indexée par I.
Il existe une seule application linéaire u de E vers F telle que ∀i ∈I u(ei ) = fi .
u:E → F
Elle est définie par avec:
x a u( x )
u( x ) = ∑ λ f avec (λ )
i∈I
ii i i∈I l'unique famille de scalaires telles que x = ∑λ e
i∈I
i i

Corollaire:
Soit Ε une base du K-ev E.
Si u(Ε) engendre F, alors l'AL u est surjective.
Si u(Ε) est libre, alors l'AL u est injective.
SI u(Ε) est une base de F, alors l'AL u est bijective.
6B - Espaces vectoriels de dimension finie

Bases et dimension d'un ev de dimension finie:


On appelle espace vectoriel de dimension finie sur le corps K tout K-ev possédant au moins
une famile génératrice finie.

Tout K-ev de dimension finie admet au moins une base et les bases d'un K-ev de dimension
finie sont finies et ont toutes même cardinal.
Ce cardinal commun à toutes les bases d'un K-ev E de dimension finie est dit la dimansion du K-
ev E.
On note DimK E = CardΕ

Familles libres et familles génératrices de espaces vectoriels de dimension finie:


Soit E un K-ev de dimension finie.
Familles libres:
. Toute famille libre L de E est finie et CardL ≤ dimK E

. Théorème de la base incomplète:


Toute famille libre de E peut être complétée en une base de E.
Si L est libre et CardL = p et si dimK E = n, pour toute famille génératrice G finie de E, il existe
n − p vecteurs de G qui adjoint à ceux de L donnent une base de E.

.Caractérisation des bases en dimension finie:


Pour toute famille L de vecteurs de E (avec dimK E < +∞ ),
L libre et CardE ⇔ L base de E

Familles génératrices:
. Toute famille génératrice G de E a au moins dimK E vecteurs, c'est à dire est infinie ou finie
avec CardG ≥ dimK E .

. De toute famille génératrice finie de E, il est possible d'extraire une base de E, c'est à dire, si G
est une famille génératrice de E, il existe au moins une sous-famille de G qui soit base de E.

. Caractérisation des bases en dimension finie:


Pour toute famille G de E,
G engendre E et CardG = dimK E ⇔ G base de E

Propriété:
Soit une famille X de n vecteurs d'un K-ev E et Y une famille de n+1 vecteurs tels que chaque
vecteur soit combinaison linéaire de X, alors Y est liée.

Théorème d'isomorphisme:
Soient E et F des K-ev de dimension finie.
Alors les K-ev E et F sont isomorphes si et seulement si ils ont la même dimension, si et
seulement si dimK E = dimK F ≤ +∞

Autres théorèmes:
. Soit E et F des K-ev.
Si dimK E ≤ +∞ et si E et F sont isomorphes, alors dimK F ≤ +∞ et dimK F = dimK E.
. Soit E un K-ev et n ∈N \ {0} , alors dimK E = n ⇔ E isomorphes à Kn
Théorème et corollaires:
Soient E,E1,K,En (n ∈N \ {0}) des espaces vectoriels de dimension finie, alors:
dimK E1 × En = dimK E1 + dimK E2
n n
dimK ∏E = ∑ dim E
i=1
i
i=1
K i

dimK En = ndimK E

Théorème et corollaires:
Soient E et F des K-ev de dimension finie, alors:
dimK L(E,F ) = dimK EdimK F
dimK L(E) = ( dimK E)
2

dimE∗ = dimE

Sous-espace vectoriel d'un K-ev de dimension finie:


Tout sous-espace vectoriel E' d'un K-ev E de dimension finie est lui-même un K-ev de
dimension finie et dimK E' ≤ dimK E .
En outre, E' sev du K - ev E et dimK E' = dimK E ⇔ E' = E

Bases et sommes directes (en dimension quelconque):


. des bases vers les sommes directes:
Soit Ε une base du K-ev E. ( Ε = (ei )i∈I )
Soient I1 et I2 des parties de I telles que I1 ∩ I2 = ∅ et I1 ∪ I2 = I.
Soient Ε 1 = (ei )i∈I et Ε 2 = (ei )i∈I .
1 2

Soient E1 = Vect( Ε 1) et E2 = Vect( Ε 2 ) .


Alors E = E1 ⊕ E2

. des sommes directes vers les bases:


"Base adaptée à une somme directe"
Soient E1 et E2 des sev d'un K-ev E dont la somme est directe.
Soient Ε 1 une base de E1 et Ε 2 une base de E2 .
Alors, toute famille Ε de E1 ⊕ E2 obtenue en adjoignant Ε 1 et Ε 2 est une base de la somme
directe de E1 ⊕ E2 .

Corollaire en dimension finie:


. Soient E1 et E2 des sev d'un K-ev E dont la somme est directe.
Alors, si E1 et E2 sont de dimension finie, alors E1 ⊕ E2 est aussi de dimension finie et:
dimK E1 ⊕ E2 = dimK E1 + dimK E2 .
. généralisation:
n

⊕E = ∑ dim E
n
dimK i K i
i=1 i=1

Existence du supplémentaire (en dimension finie):


Soit E un K-ev de dimension finie.
Alors tout sev E1 de E a au moins un supplémentaire dans E.

Corollaire:
Soit E un K-ev de dimension finieet E1 un sev de E.
. Tout supplémentaire S de E1 est de dimension finie et dimK S = dimK E − dimK E1.
. Les supplémentaires de E1 dans E sont isomorphes.
Théorème du rang:
Soit u ∈L(E,F ) .
Si le K-ev E est de dimension finie, alors Imu est de dimension finie et:
dimK E = dimK Imu + dimK Keru
On pose alors rangu = dimK E − dimK Keru

Formule de Grassman (formule des 4 dimensions):


Soient E1 et E2 des sev de dimension finie d'un K-ev E quelconque.
Alors E1 + E2 est de dimension finie et:
dimK E1 + E2 + dimK E1 ∩ E2 = dimK E1 + dimK E2
dimK E1 + E2 = dimK E1 + dimK E2 − dimK E1 ∩ E2
6C - Notion de rang

Rang d'une famille de vecteurs:


Soit E un K-ev.
Soit X une famille de vecteurs de E.
Si Vect(X) est un K-ev de dim finie, on dit que la famille X est de rang fini et on pose:
rangX = dimK Vect( X )
Si Vect(X) est de dimension infine, on dit que X est de rang infini.

Théorèmes:
. Toute famille X de vecteurs d'un K-evE de dimension finie est de rang fini et rangX ≤ dimK E.
En outre, rangX = dimK E ⇔ X engendre E .
. Toute famille finie X de vecteurs d'un K-ev E est de rang fini et rangX ≤ CardX .
En outre, rangX = CardX ⇔ X famille libre.

Autre définition du rang pour une famille de rang fini:


Soit X une famille de rang fini d'un K-ev E.
Alors rangX est le cardinal maximum pour une famille libre extraite de X.

Rang d'une application linéaire:


Soient E et F des K-ev.
Soit u ∈LK (E,F ) .
Si le K-ev Imu est de dimension finie, on dit que l'application linéaire u est de rang fini et:
rangu = dimK Imu.
Si le K-ev Imu est de dimension infinie, on dit que u est de rang infini.

Lien entre le rang d'une application linéaire et celui d'une famille de vecteurs:
Soient u ∈LK (E,F ) et G une famille génératrice du K-ev E.
La famille u(G) engendre le K-ev Imu, donc: u est de rang fini ⇔ u(g) est de rang fini.
En outre, dans le cas où u est de rang fini, rangu = rangu( g) .

Théorèmes:
. Soient u ∈LK (E,F ) et E un K-ev de dimension finie.
Alors, u est de rang fini et rangu ≤ dimK E.
. Théorème du rang:
Soient u ∈LK (E,F ) et E un K-ev de dimension finie.
Alors, u est de rang fini et dimK E = rangu + dimK Keru.
En outre, rangu = dimK E ⇔ u injective .
. Soient u ∈LK (E,F ) et F un K-ev de dimension finie.
Alors u est de rang fini et rangu ≤ dimK F .
En outre, rangu = dimK F ⇔ u surjective.

Remarques de synthèses:
. Soit X une famille finie d'un K-ev de dimension finie, alors rangX ≤ min{CardX;dimK E} .
. Soit u ∈LK (E,F ) et E et F des K-ev de dimension finie, alors rangu ≤ min{dimK E;dimK F} .

Base extraite d'une famille génératrice de rang fini:


De toute famille génératrice de rang fini d'un K-ev E, on peut extraire une base de E.
6D - Equations linéaires de récurrence

Plan de recherche des solutions d'une équation linéaire de récurrence:


(1) Montrer que EK′ est un K-ev
(2) Trouver la dimension de EK′ en montrant qu'il est isomorphe à un espace-
produit.
(3) Chercher les suites géométriques appartenant à EK′
(4) En déduire une base du K-ev EK′

Equation linéaire de récurrence d'ordre 1:


Soit (a,b ) ∈K 2 avec a≠0 et b≠0.
  bn 
{ }
EK′ = u ∈K N ; ∀n ∈N aun+1 + bun = 0K = u ∈K N ; ∃λ ∈K u = λ   −  
   a   n∈N 

 bn
EK′ est la droite vectorielle du K-ev K N de base   −   .
 a  n∈N

Equation linéaire de récurrence d'ordre 2:

. Equation linéaire de récurrence d'ordre 1:


Soit (a,b,c ) ∈K 3 avec a≠0 et c≠0.
{
Soit EK′ = u ∈K N ; ∀n ∈N aun+2 + bun+1 + cun = 0 . }
. EK′ est un K-ev K . N

. EK′ est isomorphe à K 2


Φ:EK′ → K 2
est bijective.
u a (u0 ,u1)
. recherche des solutions:
Soit (ec): ar 2 + br + c = 0

Cas n°1:
K =R
∆ = b 2 − 4ac > 0
K=C
∆ = b 2 − 4ac ≠ 0
{
Alors (ec) admet deux racines r1 et r2 et EK′ = u ∈K N ; ∃( λ1,λ 2 ) ∈K 2 u = λ1 r1n ( )
n∈N
( )
+ λ 2 r2n
n∈N }.
donc ∀u ∈K N u ∈EK′ ⇔ ∃( λ1,λ 2 ) ∈K 2 ∀n ∈N un = λ1r1n + λ 2r2n .

Cas n°2:
K=R ou K=C
b
r0 = − est solution de (ec).
2a
{ (
EK′ = u ∈K N ; ∃( λ,µ ) ∈K 2 u = ( λ + µn)r0n )
n∈N }
donc ∀u ∈K N
u ∈EK′ ⇔ ∃( λ,µ ) ∈K ∀n ∈N un = ( λ + µn)r0n .
2

Cas n°3:
K=R et ∆ < 0
ρeiθ et ρeiθ avec ρ ∈R∗+ et θ ∈R (θ ∉πZ) sont slutions de (ec).

{ (
ER′ = u ∈RN ; ∃( A,B) ∈R 2 u = A ρn cosnθ )
n∈N
(
+ B ρn sinnθ )
n∈N }
∀u ∈R N
u ∈ER′ ⇔ ∃( A,B) ∈R ∀n ∈N un = ρ ( A cosnθ + Bsinnθ )
2 n
Equation linéaire "u(x)=b":
Soient E et F des K-ev.
Soient u ∈LK (E,F ) et b ∈F .
On cherche S(b ) = {x ∈E; u( x ) = b}

. Cas n°1:
b ∈F \ Imu
u−1({b}) = ∅
S( b ) = ∅

. Cas n°2:
b ∈Imu
Soit x0 de E tel que x 0 ∈u−1({b}) .
S(b ) = {x 0 + x ′; x ′ ∈Keru}
= x 0 + Keru
6F - Hyperplans & hyperplans affines

Rang d'une forme linéaire:


Toute forme linéaire non nulle est de rang 1. (Elle est alors surjective.)
La forme linéaire nulle est la seule forme linéaire à être de rang nul.

Hyperplan:
. On appelle hyperplan du K-ev E le noyau de toute forme linéaire non nulle sur le K-ev E.
. On appelle hyperplan du K-ev E tout sev de E qui admet pour supplémentaire dans E une
droite.

Propriétés:
Soit H un hyperplan du K-ev E.
{ }
Soit f ∈E∗ \ 0E∗ telle que Ker f = H.
Soit D un supplémentaire de H dans E et (a) une base de D.

. Supplémentaires de H dans E:
Pour toute droite D' du K-ev E, de base (a'), D' supplémentaire de H dans E ⇔ a'∉H .

. Formes linéaires non nulles associées à H:


{ }
Pour toute g ∈E∗ \ 0E∗ , Ker g = H ⇔ ∃µ ∈K \ {0K } g = µf

. Equations de H:
{ }
Pour toute g ∈E∗ \ 0E∗ , "g( x ) = 0K équation de H ⇔ ∃µ ∈K \ {0K } g = µf

Nouvelle définition des hyperplans:


Soit H un sev du K-ev E avec H≠E.
H hyperplan de E ⇔ pour tout sev E1 du K - ev E, H ⊆ E1 ⇒ E1 = E

Hyperplans affines:
On appelle hyperplan affine du K-ev E tout sev affine Η de E dont la direction H est un
hyperplan de E.
Η hyperplan affine de E ⇔ il existe H hyperplan de E et il existe α ∈H tel que Η = α + H
Η = {α + xH ; xH ∈H}

Equation d'un hyperplan affine:


Η = α +H
{ }
Soit f ∈E∗ \ 0E∗ telle que Ker f = H.
"f(x)=f(α)" est une équation de l'hyperplan affine Η.

Traduction d'une équation "f(x)=b":


{ }
Soit f ∈E∗ \ 0E∗ et b∈K.
f est une forme linéaire non nulle, donc il existe α∈K tel que f(α)=b.
{x ∈E; f( x) = b} = α + Kerf
Toute équation "f(x)=b" a donc pour solution le séléments d'un hyperplan affine.

Toutes les équations d'un hyperplan affine:


Η a pour équation "f(x)=f(α)".
{ }
Pour toute g ∈E∗ \ 0E∗ , pour tout c∈K,
g = µf
"g( x ) = c" équation de Η ⇔ ∃µ ∈K \ {0K } 
c = µb
Hyperplans et hyperplans affines en dimension finie:
E est un K-ev de dimension fine et dimE=n≥1
. Pour tout sev H, H hyperplan ⇔ dimK H = n − 1.
. Pour tout sev affine Η, Η hyperplan affine ⇔ dimK Η = n − 1

Equation d'un hyperplan affine en dimension finie:


Soit Ε une base de E.
Soit Η un hyperplan affine dont une équation est "f(x)=b" avec f ∈E∗ \ 0E∗ { } et b∈K.
On pose ∀i ∈Nn a i = f(ei )
n n
Pour tout x de E avec x = ∑ x e , x ∈H ⇔ ∑ a x = b .
i=1
i i
i=1
i i

n
Traduction d'une équation ∑ a x = b dans une base Ε:
i=1
i i

Soient b ∈K et (a1,K,a n ) ∈K \ 0K n .n
{ }
Soit f une forme linéaire de E telle que ∀i ∈Nn f(ei ) = a i .
 n n 
Η = x ∈E; x =

∑i=1
xiei avec ∑ a x = b = α + Kerf avec f(α) = b
i=1
i i

Toutes les équations linéaires dans une base E d'un hyperplan affine Η :
n
Soit Η un hyperplan affine du K-ev E (dimE=n) d'équation dans la base Ε de E " ∑ a x = b ".
i=1
i i

{ }
Soit (a1′ ,K, a n′ ) ∈K n \ 0K n et b ′ ∈K .
n
b ′ = µb
" ∑ a′x = b′" équation dansΕ de l'hyperplan Η ⇔ ∃µ ∈K \ {0 } ∀i ∈Nn a′ = µa
i=1
i i K
i i
7B - Equation différentielle linéaire d'ordre 1 "y'+a(x)y=b(x)"

Equation linéaire homogène d'ordre 1 "y'+a(x)y=0":


{
EK′ = y ∈D1(I,K ); ∀x ∈X y ′( x ) + a( x )y( x ) = 0 }
a∈C(I,K)
A une primitive de a sur I
y ∈EK′ ⇔ ∃C ∈K ∀x ∈I y( x ) = Ce ( )
−A x

Solutions répondants à une condition initiale:


x
− ∫ a ( t )dt
y ∈EK′
 ⇔ ∀x ∈I y( x ) = y 0e x0
y( x 0 ) = y 0

Equation linéaire d'ordre 1 "y'+a(x)y=b(x)":


. Cas n°1:
On dispose de deux solutions particulières de (Ε), ϕ1 et ϕ 2 avec ϕ1≠ ϕ 2 .
Alors:
. solution générale de (Ε'): C( ϕ1 − ϕ 2 ) C ∈K
. solution particulière de (Ε): ϕ1
. solution générale de (Ε): ϕ1 + C( ϕ1 − ϕ 2 ) C ∈K

. Cas n°2:
On dispose d'une solution particulière de (Ε), ϕ1.
Alors y ∈EK ⇔ ∃C ∈K ∀x ∈I y( x ) = ϕ1( x ) + Ce ( )
−A x

. Cas n°3:
"Méthode de variation de la constante".
Alors y ∈EK ⇔ ∃C0 ∈K ∀x ∈I y( x ) = C0e ( ) + e ( ) b( x )e ( ) dx

−A x −A x A x

Solutions répondants à une condition initiale:


. Cas n°2:
x
− ∫ a ( t )dt
y ∈EK

y( x 0 ) = y 0
( )
⇔ ∀x ∈I y( x ) = ϕ1( x ) + y 0 − ϕ1( x 0 ) e x0

. Cas n°3:
x
− ∫ a ( t )dt x
y ∈EK
⇔ ∀x ∈I y( x ) = y 0e x0

+ e ( ) b( t )e ( ) dt
−A x A t

y( x 0 ) = y 0
x0
7C - Equation différentielle homogène d'ordre 2 y"+a(x)y'+b(x)y=0

Wronskien d'un couple d'application dérivable:


Soit ( y1,y 2 ) ∈D(I,K ) .
2

On appelle wronskien de ce couple l'application:


w:I → K
y 1( x ) y 2 ( x )
xa
y1′ ( x ) y ′2 ( x )

Si ( y1,y 2 ) ∈D(I,K ) a un wronskien qui ne s'annule pas en au moins un élément de I, alors la


2

famille ( y1,y 2 ) du K-ev D(I,K ) .

Notations:
(Ε') y ′′ + a( x )y ′ + b( x )y = 0(a,b) ∈C(I,K )2
EK′ = {y ∈D2 (I,K ); ∀x ∈I y ′′( x ) + a( x )y ′( x ) + b( x )y( x ) = 0}

EK′ est un K-ev de dimension 2:


Si ( y1,y 2 ) est un couple de solutions su I de (Ε') dont le wronskien ne s'annule pas sur I, alors
( y1,y 2 ) est une base du K-ev EK′ , donc dimK EK′ = 2 et:
∀y ∈D2 (I,K ) y ∈EK′ ⇔ ∃( λ1,λ 2 ) ∈K 2 y = λ1y1 + λ 2 y 2

Cas d'une équation différentielle linéaire d'ordre 2 à coefficients constants:


(Ε') ay ′′ + by ′ + cy = 0 (a,b,c ) ∈K 3 a ≠ 0
{ }
EK′ = y ∈D2 (R,K ); ∀x ∈R a( x )y ′′( x ) + b( x )y ′( x ) + c( x )y( x ) = 0

(ec ) ar 2 + br + c = 0

. Cas n°1:
(ec) a deux racines distinctes sur K, r1 et r2 .
K=C ∆≠0
K =R ∆ >0
∀y ∈D2 (R,K ) y ∈EK′ ⇔ ∃( λ1,λ 2 ) ∈K 2 ∀x ∈R y( x ) = λ1er1x + λ 2er2 x

. Cas n°2:
(ec) a une racine double sur K, r0 .
K = R ou K = C ∆ = 0
∀y ∈D2 (R,K ) y ∈EK′ ⇔ ∃( λ,µ ) ∈K 2 ∀x ∈R y( x ) = ( λ + µx )er0 x

. Cas n°3:
(ec) n'a pas de racine sur K.
K =R ∆ <0
Soit r1 une des racines de (ec) sur C.
On pose α = ℜ(r1) et β = ℑ(r1)
∀y ∈D(R,R) y ∈ER′ ⇔ ∃( A,B) ∈R 2 ∀x ∈R y( x ) = eαx ( A cosβx + Bsinβx )
7D - Equation différentielle linéaire d'ordre 2 avec second membre

(Ε ) ay ′′ + by ′ + cy = d( x )
(a,b,c ) ∈K 3
a≠0
d ∈C(I,K )

Second membre produit d'une exponentielle par un polynôme:


(Ε ) ay ′′ + by ′ + cy = P( x )emx
(a,b,c ) ∈K 3
a≠0
P( X ) ∈K[ X ]
m ∈K
Il existe une solution particulière de l'équation (Ε) complète du type x a Q( x )emx avec
Q( X ) ∈K[ X ] .
En outre: . si m n'est pas racine de (ec) alors degQ = degP
. si m est racine simple de (ec) alors degQ = degP + 1
. si m est racine double de (ec) alors degQ = degP + 2

Second membre produit d'une exponentielle par un polynôme et par un cosinus ou un sinus
hyperbolique:
(Ε ) ay ′′ + by ′ + cy = P( x )emx sinhpx ou ay ′′ + by ′ + cy = P( x )emx coshpx
(a,b,c ) ∈K 3
a≠0
P( X ) ∈K[ X ]
m ∈K
p ∈R \ {0}
Il existe une solution particulière de l'équation (Ε) complète du type
x a R( x )emx coshpx + S( x )emx sinhpx , avec (R( X ),S( X )) ∈K[ X ] .
2

degR ≤ degP
En outre: . si m+p et m-p ne sont pas racines de (ec) alors 
degS ≤ degP
degR ≤ degP + 1
. si m+p ou m-p est racine simple de (ec) alors 
degS ≤ degP + 1
. si soit m+p soit m-p est racine double de (ec) alors degR = degS = degP + 2d

Second membre produit d'une exponentielle par un polynôme et par un cosinus ou un sinus
circulaire:
(Ε ) ay ′′ + by ′ + cy = P( x )emx sinpx ou ay ′′ + by ′ + cy = P( x )emx cospx
(a,b,c ) ∈K 3
a≠0
P( X ) ∈K[ X ]
m ∈K
p ∈R \ {0}
Il existe une solution particulière de l'équation (Ε) complète du type
x a R( x )emx cospx + S( x )emx sinpx avec (R( X ),S( X )) ∈R[ X ] .
2

degR ≤ degP
En outre: . si m+ip n'est pas racine de (ec) alors 
degS ≤ degP
degR ≤ degP + 1
. si m+ip est racine de (ec) alors 
degS ≤ degP + 1

Méthode de variation des deux constantes:


(Ε ) y ′′ + a( x )y ′ + b( x )y = c( x )
(a,b,c ) ∈C(I,K )
Hypothèses:
On connaît un couple ( y1,y 2 ) de solutions de l'équation homogène associée dont le wronskien
ne s'annule pas sur I.
On a donc la solution générale de l'équation homogène: λ1y1 + λ 2 y 2 ( λ1,λ 2 ) ∈K 2 .
Le but est de trouver une solution particulière de l'équation complète (Ε) du type Λ1y1 + Λ 2 y 2
avec ( Λ1,Λ 2 ) ∈D(I,K ) .
2

En outre, on cherche Λ1 et Λ 2 tels que Λ1′ y1 + Λ ′2 y 2 = 0KI .


Finalement, les applications Λ1 et Λ 2 de I vers K définies par:
∀x ∈I
−y 2 ( x )c( x )
Λ 1( x ) =
∫ y 1( x ) y 2 ( x )
dx

y1′ ( x ) y ′2 ( x )
y 1( x ) c ( x )
Λ 2 (x) =
∫ y 1( x ) y 2 ( x )
dx

y1′ ( x ) y ′2 ( x )
répondent à notre recherche.
Alors la solution générale de l'équation complète y est définie par:
y 2 ( x )c ( x ) y 1( x ) c ( x )

∃( λ1,λ 2 ) ∈K 2 ∀x ∈I y( x ) = λ1y1( x ) + λ 2 y 2 ( x ) + y1( x ) −
y 1( x ) y 2 ( x )
dx +
∫ y 1( x ) y 2 ( x )
dx

y1′ ( x ) y ′2 ( x ) y1′ ( x ) y ′2 ( x )

Méthode de variation d'une constante - Méthode d'abaissement de l'ordre:


(Ε ) y ′′ + a( x )y ′ + b( x )y = c( x )
(a,b,c ) ∈C(I,K )
Hypothèses:
On dispose d'une solution y1de l'équation (Ε') homogène ne s'annulant pas sur I.
Méthode:
Chercher C ∈D2 (I,K ) tel que C y1 soit solution de (Ε).
8A - La K-algèbre K[X]

K sous-corps de C.

Notion de polynôme:
On appelle polynôme à une indéterminée et à coefficients dans le corps K toute suite
(an )n∈N K (N) .
Soit P = (a n )n∈N ∈K N .
P polynôme ⇔ {n ∈N;a n ≠ 0K } fini ⇔ ∃p ∈N ∀n ≥ p a n = 0K

Vocabulaire:
. Polynôme nul de K[X]: suite nulle
∀n ∈N a n = 0K
. Egalité de polynômes: égalité de suites
Soit P = (a n )n∈N ∈K[ X ] et Q = (bn )n∈N ∈K[ X ] .
P = Q ⇔ ∀n ∈N a n = bn

Degré et valuation d'un polynôme:


Soit P = (a n )n∈N ∈K[ X ].
. si P ≠ 0K[ X ] , on pose:
degP = maxSupp (P)
valP = minSupp (P)
. si P = 0K[ X ] , on pose:
deg0K[ X ] = −∞
val0K[ X ] = +∞
On décide alors que:
∀n ∈N ∪ {−∞} − ∞ ≤ n n + ( −∞ ) = ( −∞ ) + n = −∞
∀n ∈N ∪ {+∞} + ∞ ≥ n n + ( +∞ ) = ( +∞ ) + n = +∞

Le K-ev(K[X],+,⊥ ):
On munit K[X] de l'addition usuelle des suites et de la multiplication par un scalaire usuelle des
suites.

Degré et valuation d'une somme de polynômes et d'un polynôme multiplié par un scalaire:
Soit (P,Q ) ∈K[ X ] et λ ∈K .
2

deg(P + Q ) ≤ max{degP,degQ}
−∞ si λ = 0
degλP =
degP si λ ≠ 0
val (P + Q ) ≥ min{valP,valQ}
+∞ si λ = 0
valλP =
valP si λ ≠ 0

La base canonique du K-ev K[X]:


a n = 1k
∀n ∈N en = (a k )k∈N tel que
∀n ∈N \ {n} a k = 0k

∀P = (a n )n∈N ∈K[ X ] P = ∑a e
n∈N
n n
L'anneau (K[X],+,• ):
. Produit des polynômes:
P = (a n )n∈N
Q = (bn )n∈N
 
 n   
PQ = 
 ∑
 k=0
a k bn−k 

= a ib j 
 n∈N  (i,j)∈N2 

 i+ j=n  n∈N
degPQ = degP + degQ
valPQ = valP + valQ
. Corollaire:
(mêmes notations)
Si P et Q sont des polynômes non nuls de degrés respectifs p et q, alors PQ est un polynôme
non nul de degré p+q et de coefficient dominant a pb q .
. Théorème:
(K[X],+,•) est un anneau commutatif et intègre.

Groupe des éléments inversibles de K[X]:


{
U(K[ X ]) = a 0e0 ; a 0 ∈K \ {0K } }
Plongement de K dans K[X]:
ϕ:K → K[ X ]
a a ae0
ϕ est un morphisme injectif de K algèbre de K vers K[X].
ϕ induit un isomorphisme de K sur Im ϕ. On décide d'identifier par cet isomorphisme les K-
algèbre K et Im ϕ.

Notations des polynômes:


On pose X = e1, alors ∀n ∈N X n = en .
D'où:
∀P ∈K[ X ] ∃!(a n )n∈N ∈K ( ) P =
N
∑a X
n∈N
n
n

Opérations de la K-algèbre K[X]:


P= ∑ a X (a ) ∈K( )
n∈N
n
n
n n∈N
N

Q = ∑b X (b ) ∈K ( )
n N
n n n∈N
n∈N

P + Q = ∑ ( a + b )X n n
n

n∈N

λP = ∑ ( λa )X n
n

n∈N

PQ = ∑ ∑ a b X i j
n

( )
n∈N i,j ∈N2
i+ j=n
Pour n naturel fixé, le K-ev K n[X]:
n ∈N
 n 

K n [ X ] = {P ∈K[ X ]; degP ≤ n} = 
 k=0
∑ 
a k X k ; (a 0 ,a1,K,a n ) ∈K n+1  = VectK 1,K,X n

( )
dimK K n [ X ] = n + 1

Exemples de familles libres et de bases de K[X] par les degrés:

{ } de degrés deux à deux distincts est libre dans le K-ev K[X].


I
. Toute famille (Pi )i∈I ∈K[ X ] \ 0K[ X ]

. Soit n ∈N, soit (Qk )0≤k≤n ∈K[ X ] tel que ∀k ∈ {0,1,K,n} degQk = k , famille de polynômes de
n+1

Kn[X] échelonnée en degrés, alors (Qk )0≤k≤n est une base du K-ev Kn[X].
. Soit (Qk )k∈N ∈K[ X ] tel que ∀k ∈N degQk = k , alors (Qk )k∈N est une base du K-ev K[X].
N

Exemples usuels:
. Base de Taylor:
Soit a de K fixé.
Pour tout naturel n, (( X − a ) )
k
0≤k≤n
est la base de Taylor en a du K-ev K n [ X ] .

. Pour tout naturel n, (1,X, ( X − 1),K,X( X − 1)L( X − n + 1)) est une base du K-ev K n [ X ] .
. Posons ∀n ∈N Nn = X( X − 1)L( X − n + 1) et N0 = 1, alors (Nn )n∈N est une base du K-ev K n [ X ] .

Exemples de familles libres et de bases de K[X] par les valuations:

{ }
I
. Toute famille (Pi )i∈I ∈K[ X ] \ 0K[ X ] de valuations deux à deux distinctes est libre dans le K-ev
K[X].
. Soit n ∈N, soit (Qk )0≤k≤n ∈K n [ X ] tel que ∀k ∈ {0,1,K,n} valQk = k, famille de polynômes de
n+1

Kn[X] échelonnée en degrés, alors (Qk )0≤k≤n est une base du K-ev Kn[X].

Exemple usuel:
Soit a un scalaire non nul, alors (( X − a ) , ( X − a )
n n−1
X,K, ( X − a )
n−k
)
X k ,K,X n est une base du K-
ev Kn[X].

Polynômes de matrice, polynômes d'endomorphisme:


Soit (A,+,•,⊥) une K-algèbre:
Soit A de A fixé.
∀P = ∑ a X ∈K[X]
n∈N
n
n

P( A ) = ∑ a A n
n

n∈N
Propriétés:
∀(P,Q ) ∈K[ X ] ∀λ ∈K
(P + Q)( A ) = P( A ) + Q( A )
( λP)( A ) = λP( A )
(PQ)( A ) = P( A )Q( A )
1K[ X ] ( A ) = 1A
Interprétation:
Soit A de A.
Φ:K[ X ] → A
est un morphisme de K-algèbre.
P a P( A )

Application polynôme associée à un polynôme:


Soit P = ∑a X
n∈N
n
n
∈K[ X ] .

On dit que l'application


P̃:K → K
xa ∑a x
n∈N
n
n

est l'application polynôme associée au polynôme P. ( ∀x ∈K P̃( x ) = P( x ) )

Interprétation:
~:K[ X ] → K K
est un morphisme de K-algèbre.
P a P̃
8B - Arithmétique dans K[X]

K est un sous-corps de C.

Division euclidienne dans K[X]:


2  A = BQ + R
∀( A,B) ∈K[ X ] B ≠ 0K[ X ] ∃!(Q,R) ∈K[ X ] 
2

degR < degB

Division euclidienne par X-a:


Pour tout P de K[X], le reste de la division euclidienne dans K[X] de P par X-a est P(a).

Diviseur d'un polynôme:


∀( A,B) ∈K[ X ]
[ ] A ⇔ ∃Q ∈K[X] A = BQ
2
B
KX

Idéal engendré par un polynôme B dans K[X]:


Soit I(B) = {BQ; Q ∈K[ X ]}
I(B), plus petit idéal de l'anneau K[X] contenant B est dit l'idéal engendré par B.

Seconde définition du diviseur d'un polynôme:


∀( A,B) ∈K[ X ]
[ ] A ⇔ I(B) ⊃ I(A)
2
B
KX

Corollaire:

[ ] , relation de divisibilité dans K[X] est une relation binaire dans K[X] qui est réflexive et
KX
transitive. (C'est une relation de pré-ordre.)

Troisième définition du diviseur d'un polynôme:


∀( A,B) ∈K[ X ] B ≠ 0K[ X ]
[ ] A ⇔ le reste de la division euclidienne de A par B est nul
2
B
KX

Polynômes associés:
A ≡B⇔B
[ ] A A[ ]B ⇔ I(A) = I(B)
KX KX
≡ est une relation d'équivalence dans K[X].
Soit B de K[X].
C(B) = {A ∈K[ X ]; A ≡ B}

=
{0 [ ]} si B = 0 [ ]
KX KX

{λB; λ ∈K \ {0K }} si B ≠ 0K[X]


Les idéaux de l'anneau K[X]:
Pour tout idéal I de l'anneau K[X], il existe au moins un polynôme B de K[X] tel que I=I(B). Tout
idéal de K[X] admet un singleton pour partie génératrice.

Idéal principal:
On appelle idéal principal d'un anneau commutatif tout idéal I tel qu'il existe b de A tel que I=I(b).
Tout idéal de l'anneau K[X] est principal.

Anneau principal:
On appelle anneau principal, tout anneau commutatif intègre dont tout idéal est principal.
L'anneau K[X] est un anneau principal.
n
L'idéal II(P ) :
i=1
i

Soit (Pi )i∈Nn n ∈N \ {0}


n

II(P ) est un idéal de l'anneau K[X].


i=1
i

PPCM de (Pi )i∈Nn :


n

II(P ) est un idéal de K[X], donc il est principal; il existe au moins un polynôme M de K[X] tel
i=1
i

n
que II(P ) = I(M) .
i=1
i

n
Tout M de K[X] tel que II(P ) = I(M) est dit un plus petit commun multiple de (P )
i=1
i i i∈Nn , on le note

n
M=
∨P .
i=1
i

Théorèmes:
. Soit (P1,K,Pn ) ∈K[ X ] .
n

n
Pour tout A de K[X], A est multiple commun des polynômes P1,K,Pn ⇔ A est multiple de
∨P
i=1
i

.
∀(P1,P2 ,P3 ,C) ∈K[ X ]
P1 ∨ P2 ≡ P2 ∨ P1
(P1 ∨ P2 ) ∨ P3 ≡ P1 ∨ (P2 ∨ P3 )
(P1 ∨ P2 )C ≡ (P1C) ∨ (P2C)
n
Idéal ∑I(P ) :
i=1
i

∑I(P ) est un idéal de l'anneau K[X]. En outre, c'est le plus petit idéal de l'anneau K[X]
i=1
i

contenant chacun des Pi. On dit qu'il est l'idéal engendré par la famille des polynômes Pi.

PGCD de (Pi )i∈Nn :


n

∑I(P ) est un idéal de K[X], donc c'est un idéal principal, donc il est engendré
i=1
i par un

n
singleton. On appelle pgcd de P1,...,Pn tout polynôme D de K[X] tel que ∑I(P ) = I(D) . Un tel D
i=1
i

n
est noté
∧P .
i=1
i
Propriétés:
n
Soit D =
∧P .i=1
i

[ ]P
. ∀i ∈Nn D
KX
i

n
. ∃(U1,K,Un ) ∈K[ X ] D =
n
∑U P
i=1
i i

. Pour tout B de K[X],


n
B est diviseur commun de P1,K,Pn ⇔ B est dans K[ X ] diviseur de
∧P .
i=1
i

.
∀(P1,P2 ,P3 ,C) ∈K[ X ]
4

P1 ∧ P2 ≡ P2 ∧ P1
(P1 ∧ P2 ) ∧ P3 ≡ P1 ∧ (P2 ∧ P3 )
C(P1 ∧ P2 ) ≡ (CP1) ∧ (CP2 )

Calcul d'un pgcd:


Soit A et B de K[X] non nuls.
. Lemme:
Soit R le reste de la division euclidienne dans K[X] de A par B, alors A ∧ B = B ∧ R .
. Algorithme d'Euclide:

( { }) .
2
Soit ( A,B) ∈ K[ X ] \ 0K[ X ]
A ∧ B ≡ B ∧ R1
B si R1 = 0K[ X ]

R1 ∧ R 2 si R1 = 0K[ X ]
On continue jusqu'à ce que Rk=0K[X].

Polynômes premiers entre eux:


Soit (P1,K,Pn ) ∈K[ X ] n ∈N \ {0} .
n

n
Les polynômes Pk sont premiers entre eux dans leur ensemble si et seulement si
∧P ≡ 1.
k=1
k

Définitions équivalentes:
P1,...,Pn premiers entre eux ⇔ les pgcd de P1,K,Pn sont des constantes non nulles
P1,...,Pn premiers entre eux ⇔ les seuls diviseurs communs aux P1,K,Pn constants non nuls
n
P1,...,Pn premiers entre eux ⇔ ∑I(P ) = I(1)
k=1
k

 n 

P1,...,Pn premiers entre eux ⇔ 
 k=1
∑ n
UkPk ; (U1,K,Un ) ∈K[ X ]  = K[ X ]

Façon simple d'obtenir des polynômes premiers d'entre eux:
(
Soit ( A1,K,A n ) ∈K[ X ] \ 0K[ X ] ,K,0K[ X ] .
n
)
Soit D un pgcd des A1,...,An.
Soit, pour tout k ∈Nn, Pk le quotient exact de Ak par D.
Alors les polynômes Pk sont premiers entre eux, c'est à dire:
n n

∧ ∧ D ≡1
Ak
Pk ≡
k=1 k=1

Polynômes de Bezout:
Soit (P1,K,Pn ) ∈K[ X ] .
n

∧P ≡ 1⇔ ∃(U ,K,U ) ∈K[X] ∑U P = 1


n
n
k 1 n k k
k=1 k=1

Théorème de Gauss:
Soit ( A,B,C) ∈K[ X ] .
3

A
[ ]BC et A ∧ B = 1⇒ A[ ] C
KX KX

Théorème:
Soit ( A,B1,K,Bn ) ∈K[ X ]
n+1
n ≥ 1.
n

[∀k ∈Nn A ∧ Bk ≡ 1] ⇒ A ∧ ∏ Bk ≡ 1
k=1

Théorème de Gauss généralisé:


Soit ( A,B1,K,Bn ,C) ∈K[ X ] .
n+2

 n 
∀k ∈Nn A1 ∧ Bk et A

 K[ X ]
C
 ∏ k=1
Bk  ⇒ A


K[ X ]
C

Polynômes premiers entre eux deux à deux:


Soit (P1,K,Pn ) ∈K[ X ] (n≥2).
n

P1,K,Pn premiers entre eux 2 à 2 ⇔ ∀(i, j) ∈Nn i < j Pi ∧ Pj ≡ 1.

Théorème:
Soit ( A,B1,K,Bn ) ∈K[ X ] .
n+1

n
Si, ∀k ∈Nn Bk
[ ]KX
A et si B1,...,Bn sont premiers entre eux 2 à 2 alors ∏B[ ] A
k=1
k
KX

Théorème:
n

∨ ∏P .
n
Soit (P1,K,Pn ) ∈K[ X ] , n-uplet de polynômes premiers entre eux 2 à 2, alors
n
Pk ≡ k
k=1 k=1

Théorème:
Soit ( A,B) ∈K[ X ] .
2

AB ≡ ( A ∧ B)( A ∨ B)
Polynômes irréductibles sur le corps K:
Soit P de K[X].
P est dit irréductible sur le corps K si et seulement si deg P≥1 et les seuls diviseurs de P dans
K[X] sont les diviseurs triviaux de P.

Propriétés:
. Tout polynôme de degré 1 est irréductible sur le corps K.
. Tout polynôme associé d'un polynôme irréductible sur K est irréductible sur K.
. Soit P irréductible de K[X].
∀A ∈K[ X ] A ∧ P ≡ 1⇔ A
/ [ ]P
KX
. Soit P irréductible sur K[X].
Soit ( A1,K,A n ) ∈K[ X ] n ∈N \ {0} .
n

[ ]∏ A
P
KX k=1
k
[ ] A
⇔ ∃k ∈Nn P
KX
k

Théorème:
Tout polynôme non constant de K[X] a pour diviseur dans K[X] au moins un polynôme
irréductible sur K.

Corollaire:
L'ensemble des polynômes unitaires de K[X] irréductible sur le corps K est infini.

Factorisation d'un polynôme non constant en produit de polynômes irréductibles sur un corps
K:
Soit A non constant de K[X].
n
A s'écrit alors de façon unique A = λ ∏P
k=1
hk
k avec λ ∈K \ {0} , les Pi unitaires de K[X] distincts

deux à deux et pour tout i de Nn, hi ∈N \ {0}


9A - Polynômes dérivées

Polynôme dérivé d'ordre 1, P', de P:


Soit P de K[X] tel que P = ∑a X
n∈N
n
n
(an )n∈N ∈K (N) .
On pose:
P′ = ∑{ na} X
n∈N\ 0
n
n−1

= ∑ (n + 1)a
n∈N
n+1X
n

Degré du polynôme dérivé:


Si P est constant, alors P'=0K5X], donc degP′ = −∞.
Si P n'est pas constant, alors degP′ = degP − 1.

Propriétés:
∀( A,B) ∈K[ X ]
2

( A + B )′ = A ′ + B ′
( λA )′ = λA ′
( AB)′ = A ′B + AB′

 n  n
∀( A1,K,A n ) ∈K[ X ]
n




k=1
Ak  =


∑ A LA
k=1
1 k−1A k′ A k+1LA n


∀A ∈K[ X ] (A )n
= nA ′A n−1

∀(P,Q ) ∈K[ X ]
2
(P o Q)′ = (P′ o Q)Q′

∀P ∈R[ X ] (P̃) = P̃′

Polynômes dérivés successifs:


∀(P,Q ) ∈K[ X ]
∀λ ∈K
(P + Q)(k ) = P(k ) + Q(k )
( λP)(k ) = λP(k )
Formule de Leibniz:
∀(P,Q ) ∈K[ X ]
2

∀n ∈N
n

(PQ)(n) = ∑ C P( ) Q (
k=0
k
n
k n−k )
Exemples:
0K[ X ] si n < k
∀n ∈N ∀k ∈N (X ) n (k )
= n!
X n−k = A nk X n−k si n ≥ k
(n − k )!
(X )( ) = n!
n
∀n ∈N n

0K[ X ] si n < k
(( X − a ) )
n (k )
∀a ∈K ∀n ∈N ∀k ∈N = n!
( X − a )n−k si n ≥ k
(n − k )!
(( X − a ) ) n (n )
∀n ∈N = n!

∀P ∈K[ X ] \ {0}
degP = p
p

P= ∑a X
n=0
n
n

0K[ X ] si p < k

∀k ∈N P( ) =
k p

∑ (n −n!k )! a X
k=n
n
n−k

Formule de Mac Laurin:


P( ) ( 0 ) k

k
∀P ∈K[ X ] P( X ) = X
k!
k∈N

Formule de Taylor:
P( ) ( a )

k
∀a ∈K ∀P ∈K[ X ] P( X ) = ( X − a )k
k!
k∈N
9B - Racines sur un corps d'un polynôme

Définition:
Soit a de K et P de K[X].
a racine sur K de P ⇔ P(a ) = 0K ⇔ X − a
[ ]P.
KX

Ordre de multiplicité:
Soit P de K[X] et a de K.
Si a est racine de P, alors il existe un naturel non nul k, plus grand naturel tel que ( X − a )
[ ]P.
k

KX
Ce naturel est dit ordre de multiplicité de la racine a du polynôme non nul P.

Diverses caractérisations de l'ordre de multiplicité:


Soit a une racine sur K du polynôme non nul P de K[X]. Soit k un naturel non nul.
a racine de P d'ordre k ⇔ ( X − a )
[ ] P et ( X − a )
/ [ ]P
k k+1

KX KX

a racine de P d'ordre k ⇔ ∃Q ∈K[ X ] P = ( X − a ) Q et Q(a ) ≠ 0K


k

P(a ) = P′(a ) =L= P(k−1) (a ) = 0


 K
a racine de P d'ordre k ⇔ 
(k )
P (a ) ≠ 0K

Extension du vocabulaire:
Soit P de K[X] non nul, a de K et un naturel k.
a racine d'ordre au moins k ⇔ ( X − a )
[ ]P
k

KX

Lemme:
∀(a,b ) ∈K 2 a ≠ b X−a∧X−b ≡1
∀(a,b ) ∈K 2 a ≠ b ∀(p,q) ∈N2 ( X − a )p ∧ ( X − b ) q ≡ 1
Théorème:
Soit P de K[X].
Soit (a1,K,a n ) ∈K n n ∈N∗ avec les ai deux à deux distincts tels qu'ils soient racines de P d'ordre
au moins égal à hi, alors:
n

∏ (X − a ) [ ]P
i=1
i
hi

KX
n
si P ≠ 0K[ X ] alors degP ≥ ∑h
i=1
i

Théorème:
Tout polynôme non nul de K[X] de degré p a au plus p racines sur K.

Corollaire:
. Soit P de K[X] avec deg P≤n.
Si p a au moins n+1 racines alors P est le polynôme nul.
. Soit (P1,P2 ) ∈K n [ X ] .
2

S'il existe au moins n=1 éléments distincts α de K tel que P1(α ) = P2 (α ) , alors P1 ≡ P2
9C - Factorisation sur C des polynômes de C[X]

Théorème d'Alembert:
Le corps C est algébriquement clos.
Tout polynôme de C[X] non constant a au moins une racine sur C.

Corollaire:
Tout polynôme de C[X] non constant de degré n a exactement n racines sur C.

Ensemble des polynômes irréductibles sur C de C[X]:


P irréductible sur C ⇔ degP = 1

Factorisation sur C d'un polynôme de C[X]:


Pour tout A de C[X]\C, il existe une factorisation et une seule du type:
m
A=λ ∏ (X − a )
i=1
i
hi

λ ∈C \ {0}
∀i ∈Nm a i ∈C
∀i ∈Nm hi ∈N \ {0}
les a i deux à deux distincts.

Polynôme conjugué d'un polynôme P de C[X]:


P= ∑ a X (a )
n∈N
n
n
n n∈N ∈C( )
N

P = ∑a X (a ) ∈C( )
n N
n n n∈N
n∈N

Propriétés des polynômes conjugués:


∀(P,Q ) ∈C[ X ] ∀λ ∈C
2

P+Q =P+Q
λP = λP
PQ = PQ
1C[ X ] = 1C[ X ]

P=P
P = P ⇔ P ∈R[ X ]
La conjugaison est donc un automorphisme involutif de la R-algèbre C[X] qui laisse invariant
R[X].
∀P ∈C[ X ] ∀a ∈C ∀k ∈N
P(a ) = P a ()
(k )
P( ) = P
k

(k )
P( ) ( a ) = P a
k
()
∀( A,B) ∈C[ X ]

[ ] A ⇔ B[ ] A
B
CX CX
∀P ∈C[ X ] ∀a ∈C ∀h ∈N \ {0}
a racine d' ordre h de P ⇔ a racine d' ordre h de P
9D - Factorisation sur R des polynômes de R[X]

Racines sur C d'un polynôme de R[X]:


Soit P de R[X], soit a de C, soit un naturel h non nul.
a racine d'ordre h de P si et seulement si a est racine d'ordre h de P.

Conséquences:
. Tout polynôme de R[X] a un nombre pair de racines complexes non réelles.
. Tout polynôme de R[X] de degré impair a au moins une racine réelle.

Polynômes de R[X] irréductibles sur R.


Les polynômes de R[X] irréductibles sur R sont:
. les polynômes de degré 1 de R[X]
. les polynômes de degré 2 de R[X] à discriminant strictement négatif.

Factorisation des polynômes de R[X] en produit de polynômes irréductibles sur R:


Tout polynôme A de R[X]\R s'écrit d'une seule façon:
m n

∏ ( X − ai ) ∏ (X )
hi kj
A=λ 2
+ p jX + q j
i=1 j=1

λ ∈R \ {0}
(a1,K,am ) ∈Rm
(h1,K,hm ) ∈N \ {0}m
((p1,q1),K,(pn ,qn )) ∈(R × R)n ∀j ∈Nn p 2j − 4q j < 0

(k1,K,k n ) ∈N \ {0}n
Les ai sont deux à deux distincts.
Les (pj,qj) sont deux à deux distincts.

Exemples de factorisations:
X 2 + 1= ( X + i)( X − i)

( )
X 2 + X + 1= ( X − j) X − j2

X2 − X + 1= ( X + j)( X + j ) 2

∀α ∈C X 2 + αX + α 2 = ( X − jα ) X − j2α ( )
n−1
2
( X − 1) ∏  X 2
− 2 cosk

n

X + 1 si n impair

∀n ∈N \ {0}
k=1
X n − 1=
n
−1
2
( X -1) ∏  X
k=1
2
− 2 cosk

n

X + 1 si n pair

∀(p,q) ∈R 2 p 2 − 4q < 0 X 4 + pX 2 + q =  X 2 − X 2 q − p + q   X 2 + X 2 q − p + q 
  
9E - Relations entre coefficients et racines d'un polynôme scindé

Polynôme scindé sur un corps:


Soit P de K[X]\K.
Soit n un naturel non nul.
P est scindé sur le corps K si et seulement s'il existe (α1,K,α n ) ∈K n et λ ∈K \ {0} tels que:
n
P=λ ∏ (X − a ) .
i=1
i

(α1,K,α n ) n-uplet de racines du polynôme P.


Fonction symétrique élémentaire:
n ∈N \ {0} (α1,K,α n ) ∈K n

∀k ∈Nn σk = ∑ α α Lα
(i1,K,ik )∈Nnk
i1 i2 ik

1≤i1 <i2 <L<ik ≤n


n
σ1 = ∑α
k=1
k

σ 2 = (α1α 2 +L+α1α n ) + (α 2α 3 +L+α 2α n ) +L+ (α n−2α n−1 +L+α n−2α n−1) + α n−1α n
n
σn = ∏α
k=1
k

n n

∏ (X − α ) = ∑ (−1) σ X
i=1
i
k=0
k
k
n−k

Relations entre coefficients et racines d'un polynôme scindé:


n
Soit P de K[X] tel que deg P=n (n naturel non nul), P = ∑a X
k=0
k
k
et P scindé sur K.

Soit (α1,K,α n ) un système de racines sur K de P et σ1,...,σn les fonctions symétriques


élémentaires de (α1,K,α n ) .
k a
Alors ∀k ∈ {0,1,K,n} σ k = ( −1) n−k
an
9F - Division selon les puissances croissantes

Définition:
Soit ( A,B) ∈K[ X ] avec val B=0
2

Soit un naturel p fixé.


A = BQ + X p+1R
Il existe un unique couple (Q,R) ∈K[ X ] tel que 
2
.
degQ ≤ P
10A - Le corps K(X) des fractions rationnelles

Le corps K(X):
(K[X],+,•) est un anneau intègre.
{ }
On munit E = K[ X ] × K[ X ] \ 0K[ X ] d'une relation binaire R d'équivalence définie par:

∀( A,B) ∈E ∀ A ∗ ,B∗ ∈E( ) ( A,B)R( A∗ ,B∗ ) ⇔ AB∗ = A∗B .


A A
On décide de noter la classe d'équivalence modulo R de (A,B) de E et on dit que est une
B B
fraction rationnelle.
A
B
{( )
= A ∗ ,B∗ ∈E; A ∗ ,B∗ R( A,B) ( ) }
A 
On dispose de l'ensemble quotient E R =  ; ( A,B) ∈E .
B 
On munit E de deux LCI définies par:
∀( A,B) ∀(C,D)
( A,B) + (C,D) = ( AD + BC,BD)
( A,B) • (C,D) = ( AC,BD)
Alors:
( )
∀( A,B) ∈E ∀ A ∗ ,B∗ ∈E ∀(C,D) ∈E ∀ C∗ ,D∗ ∈E ( )
(
( A,B)R A ∗ ,B∗

⇒
)
( A,B)(C,D)R A ∗ ,B∗ C∗ ,D∗
 ( )( )

(C,D)R C ,D( ∗ ∗
)
( A,B) + (C,D)R A ,B + C ,D
∗ ∗
(
∗ ∗
) ( )
AD + BC AC
Les fractions et sont donc indépendantes du choix fait du représentant de la
BD BD
A C
fraction et de celui de la fraction . Cela permet de définir des LCI dans E R . On dit que
B D
l'addition et la multiplication dans E sont compatibles avec la relation d'équivalence R.
On décide de noter K(X), l'ensemble E R et on le munit des LCI + et • définies par:
A C
∀ ∈K ( X ) ∀ ∈K ( X )
B D
A C AD + BC
+ =
B D BD
A C AC
• =
B D BD
(K(X ),+,• ) est un corps, dit le corps des fractions rationnelles à une indéterminée à coefficients
dans K.

{( ) { }}
0K[ X ]
0K ( X ) = = 0K[ X ] ,B ; B ∈K[ X ] \ 0K[ X ]
1K[ X ]

{(A,A); A ∈K[X] \ {0 [ ]}}


1K[ X ]
1K ( X ) = = KX
1K[ X ]

Immersion de K[X] dans K(X):


ϕ:K[ X ] → K ( X )
A
Aa
1K[ X ]
∀( A,C) ∈K[ X ]
2

ϕ ( A + C) = ϕ ( A ) + ϕ (C)
ϕ ( AC) = ϕ ( A )ϕ (C)

( )
ϕ 1K[ X ] = 1K ( X )
ϕ est un morphisme injectif de l'anneau K[X] vers le corps K(X).
Im ϕ est un sous-anneau du corps K(X).
On décide donc d'identifier Im ϕ et K[X].
K[X] est alors un sous-anneau de K(X), mieux, K(X) est le plus petit corps admettant K[X] comme
sous-anneau.

Représentants irréductibles d'une fraction rationnelle:


A
Une fraction rationnelle 1 ∈K ( X ) est dite mise sous forme irréductible si et seulement si le
B1
représentant ( A1,B1) est tel que A1 ∧ B1 ≡ 1. ( A1,B1) est dit un représentant irréductible de cette
fraction.

Théorème:
Toute fraction rationnelle F de K(X) admet au moins un représentant irréductible.

Comparaison d'un représentant quelconque à un représentant irréductible:


Soient F de K(X), ( A1,B1) un représentant irréductible de F.

{ }
∀( A,B) ∈K[ X ] × K[ X ] \ 0K[ X ]

F = ⇔ ∃∆ ∈K[ X ] \ {0 [ ] } 
A A = A ∆ 1

B = B ∆
KX
B 1
En outre, A ∧ B ≡ ∆ .

Comparaisons de représentants irréductibles:


Soient F de K(X), ( A1,B1) un représentant irréductible de F.

{ }
∀( A 2 ,B 2 ) ∈K[ X ] × K[ X ] \ 0K[ X ]

A = λA
( A 2 ,B2 ) représentant irréductible de F ⇔ ∃λ ∈K \ {0K } B 2 = λB 1
 2 1

Racines et pôles sur un corps d'une fraction rationnelle:


Soient F de K(X), ( A1,B1) un représentant irréductible de F.
Pour tout a de K et pour tout h de N\{0},
a est racine d'ordre h de F sur K ⇔ a est racine d'ordre h de A1
a est pôle d'ordre h de F sur K ⇔ a est racine d'ordre h de B1.

Eléments simples sur un corps:


R
On appelle élément simple sur le corps K toute fraction rationnelle de k(X) du type avec P de
Pj
K[X] irréductible, R de K[X] tel que deg R<deg P, j naturel non nul.
10B - Théorème de décomposition en éléments simples

Lemme de généralisation de la division euclidienne:


∀( A,B) ∈K[ X ] B ≠ 0K[ X ] ∀n ∈N∗ ∃!(R0 ,R1,K,Rn−1,En ) ∈K[ X ]
2 n+1

A = R0 + R1B+L+RkBk +LRn−1B + EnB


n−1 n

∀k ∈ {0,K,n − 1} degRk < degB

Décomposition d'une fraction rationnelle en éléments simples sur un corps:


A
Soit F = ∈K ( X ) A ∈K[ X ] B ∈K[ X ] \ 0K[ X ] .
B
{ }
n
Soit une factorisation de B en produits de polynômes irréductibles sur K: B = ∏P
i=1
i
ki
n ∈N∗ .

Il existe alors une seule décomposition de F sur K du type:


n ki

∑∑ P
Ri,j
F =E+ j
Ri,j ∈K[ X ] degRi,j < degPi
i=1 j=1 i
10C - Pratique de la décomposition en éléments simples

A
Soit F de K(X) avec F = ( A,B) ∈K[ X ] × K[ X ] \ K .
B
(1) Factoriser sur K B en produit de polynômes irréductibles.
(2) Ecrire la décomposition en éléments simples sur le corps K a priori.
(3) Chercher la partie entière de E
E est le quotient de la DE dans K[X] de A par B.
(4) Grâce aux particularités de F, trouver des relations entre les coefficients cherchés.
(5) Détermination de la partie polaire relative à un pôle simple a:
A(a )
α=
B′(a )
(6) Détermination de la partie polaire relative à un pôle multiple a d'ordre n:
n!A (a )
. α n = (n )
B (a )
. division selon les puissances croissantes à l'ordre n-1 en posant Y=X-a.
(X )
m
(7) Détermination de la partie polaire relative à un facteur de B 2
+ pX + q avec
X 2 + pX + q irréductible sur K:
. Multiplier par X 2 + pX + q puis prendre la valeur en une racine de X 2 + pX + q .
(8) Pour trouver les derniers coefficients, on peut utilise d'autres méthodes:
. valeur en un point
. limites à l'infini
. ...
11A - Divisions dans Z

Z est un anneau archimédien:


Pour tous entiers relatifs strictement positifs a et b, il existe au moins un entier naturel n tel que
nb≥a.

Division euclidienne dans Z:


a = bq + r
∀(a,b ) ∈Z × Z \ {0} ∃!( q,r ) 
0 ≤ r ≤ b

Division euclidienne itérée:


a = a 0 + a1b+L+a nbn + α nbn+1
∀(a,b ) ∈Z × Z \ {0} ∃!(a 0 ,a1,K,a n ,α n ) ∈Zn+2 
∀k ∈ {0,K,n} 0 ≤ a k ≤ b

Les sous-groupes aZ:


∀a ∈Z aZ = {ak; k ∈Z}
aZ est un sous-groupe de (Z,+).

Divisibilité dans Z:
∀(a,b ) ∈Z 2

b a ⇔ ∃q ∈Z a = bq
Z

Propriétés:

 est une relation de préordre dans Z.


. La relation binaire
Z

. ∀(a,b ) ∈Z

b a ⇔ aZ ⊂ bZ
2



. ∀a ∈Z ∀b ∈Z b a ⇔ le reste de la DE de a par b est nul
Z

Eléments associés:
Soit a et b de Z.
a et b associés ⇔ b a et a b
 
Z Z

Propriétés:
. La relation "être associés dans Z" est une relation d'équivalence sur Z.
. Pour tout a et b de Z,
a et b associés dans Z ⇔ aZ = bZ ⇔ a = b ou a = −b

Les sous-groupes du groupe (Z,+):


Tout sous-groupe H du groupe additif Z est de la forme bZ avec b ∈Z, donc il existe un unique
entier positif n tel que H=nZ.
11 B - PGCD - PPCM

Théorème:
L'anneau Z est principal.

Idéal engendré par une paire:


Soit ( A,+,•) un anneau commutatif.
Soit {a,b} ⊂ A .
{
Alors l'idéal engendré par la partie {a,b} est aA+bA avec aA + bA = ax + by; ( x,y ) ∈A 2 . }
Généralisation:
{a1,K,an } ⊂ A
 n  n

( a ,K,a =)
 k=1

{ 1 n }  ak xk ; ( x1,K,xn ) ∈An  =

∑a A
k=1
k

Plus petit commun multiple d'une famille finie d'entiers relatifs:


Soit (a1,K,a n ) ∈Zn n ∈N∗ .
n
Tout entier relatif m tel que Ia Z = mZ est appelé plus petit commun multiple de la famille
i=1
i

n
(a1,K,an ) d'entiers relatifs et est noté ∨ ai .
i=1

Remarques:
. Si m est un ppcm de la famille alors -m est le seul autre ppcm de cette famille.
n
. Si l'un des ai est nul, alors
∨a = 0 .
i=1
i

. Si aucun des ai n'est nul, il existe un unique ppcm strictement positif.

Proposition:
Soit (a1,K,a n ) ∈Zn n ∈N∗ .
Soit m de N.
n
m multiple de chaque ai
m=

i=1
ai ⇔ 
 tout entier multiple de chaque ai est un multiple de m

Loi de composition ∨:
∨: Z 2 → Z
(a,b) a a ∨ b
a∨b est le ppcm positif de a et b.

Propositions:
∨ est une LCI sur Z telle que:
. ∨ est commutative: ∀(a,b ) ∈Z 2 a∨b = b∨a
. ∨ est associative: ∀(a,b,c ) ∈Z ( a ∨ b ) ∨ c = a ∨ (b ∨ c )
3

. distributivité de la multiplication par rapport à la loi ∨: ∀(a,b,c ) ∈Z 3 ab ∨ ac = a (b ∨ c )


Plus grand commun diviseur d'une famille finie d'entiers relatifs:
Soit (a1,K,a n ) ∈Zn n ∈N∗ .
n


n
Tout entier d tel que dZ =
i=1
a iZ est dit pcgd de (a1,K,a n ) et est noté d =
∧a .
i=1
i

Remarques:
. Si d est un pgcd, alors le seul autre est -d.
n
. Si chaque ai est nul, alors
∧a = 0.
i=1
i

n
. Si l'un au moins des ai n'est pas nul, alors
∧ a ≠ 0 et l'un des deux pgcd est strictement
i=1
i

positif.

Proposition:
n
d diviseur commun des ai
d=
∧ a ⇔ tout diviseur commun des a est un diviseur de d
i=1
i
i

Loi de composition ∧:
∧: Z 2 → Z
(a,b) a a ∧ b
a∧b est le pgcd positif de a et b.

Propositions:
∧ est une LCI sur Z telle que:
. ∧ est commutative: ∀(a,b ) ∈Z 2 a∧b = b∧a
. ∧ est associative: ∀(a,b,c ) ∈Z ( a ∧ b ) ∧ c = a ∧ (b ∧ c )
3

. distributivité de la multiplication par rapport à ∧: ∀(a,b,c ) ∈Z 3 ab ∧ ac = a (b ∧ c )

Lemme:
Si r est le reste de la division euclidienne de a par b, alors a ∧ b = b ∧ r .

Algorithme d'Euclide:
Soit a et b deux entiers non nuls.
. Soit q1 et r1 le quotient et le reste de la division euclidienne de a par b, alors a ∧ b = b ∧ r1.
. si r1=0, alors a ∧ b = b ∧ 0 = b
.. si r1≠0, soit q2 et r2 le quotient et le reste de la division euclidienne de b par r1.
alors a ∧ b = b ∧ r1 = r1 ∧ r2 .
.. si r2=0, alors a ∧ b = r1,
... si r2≠0,...
jusqu'à ce qu'un des restes s'annule.

Nombres premiers entre eux:


Soit (a1,K,a n ) une famille finie d'entiers relatifs.
n
Les entiers ai sont premiers entre eux si et seulement si
∧a .
i=1
i

Proposition:`
Si parmi les ai, il existe deux entiers premiers entre eux, alors les entiers ai sont premiers entre
eux dans leur ensemble.
Théorème de Badet-Bezout:
n

∑u a = 1
n
∀(a1,K,a n ) ∈Zn
∧ i=1
a i = 1⇔ ∃(u1,K,un ) ∈Zn
i=1
i i

∀(a,b ) ∈Z 2 a ∧ b = 1⇔ ∃(u,v ) ∈Z 2 ua + vb = 1

Théorème de Gauss:
∀(a,b,c ) ∈Z 3

a bc et a ∧ b = 1⇒ a c
Z Z

Propriétés:
∀(a,a1,K,a n ,b,b1,K,bn ) ∈Z 2n+2
n

[∀i ∈Nn a ∧ bi ] ⇒ a ∧ ∏ bi
i=1

 n 


∏ b et ∀i ∈{1,K,n − 1} a ∧ b = 1 ⇒ ab
a
Z i=1
i i
Z
n

n
 
 
∀(i, j) ∈N i ≠ j a i ∧ a j = 1 et ∀i ∈N a i b  ⇒
2

Z 
∏ ab
i=1
i
Z

Corollaire:
∀(a,b ) ∈Z 2 (a ∧ b)(a ∨ b) = ab
11C - Nombres premiers

Nombres premiers dans N:


On appelle nombre premier tout entier naturel p tel que:
(1) p≥2
(2) les seuls diviseurs de p dans N sont 1 et p.

Propriétés élémentaires d'un nombre premier:


. Soit p un nombre premier et soit a de Z, alors a et p sont premiers entre eux si et seulement si p
ne divise pas a.
. Deux nombres premiers sont premiers entre eux.
. Soit p un nombre premier et soit (a1,K,a n ) ∈Zn .
n

∏ a ⇔ ∃i ∈Nn pa
p
Z i=1
i
Z
i

Autres propriétés:
.Soit (a1,K,a n ) ∈Zn .
n

∨ ∏a .
n
. Si les entiers ai sont deux à deux premiers entre eux, alors ai = i
i=1 i=1
. Si les entiers ai sont premiers entre eux dans leur ensemble, on ne peut rien dire.
. Tout entier relatif qui n'est pas une unité admet au moins un diviseur premier.
. L'ensemble des nombres premiers de N est infini.

Le crible d'Eratosthène:
Pour tout entier n≥5, si n n'est pas premier, alors n admet au moins un diviseur compris entre 2
et n .

Décomposition d'un entier en facteurs premiers:


Soit n de N, n≥2.
Il existe un entier naturel non nul m, des nombres premiers dans N, distincts, p1,K,pm , des
entiers naturels non nuls k 1,K,k m tels que:
n = p1k1pk22 Lpm
km

La décomposition de n sous cette forme est unique à l'ordre près des facteurs.

Application aux pgcd et ppcm:


Soit a et b des naturels tels que a≥2 et b≥2.
Posons:
a = p1α1 Lpmαm

b = p1β1 Lpm
βm

alors:
m
a∧b = ∏p
k=1
min{α k ,β k }
k

n
a∨b = ∏p
k=1
max{α k ,β k }
k
11D - Les nombres rationnels

Le corps Q des nombres rationnels:


On désigne par (Q,+,•) le corps des fractions de l'anneau intègre (Z,+,•).
a 
Q =  ; a ∈Z b ∈Z∗ 
 b 
∀(a,b ) ∈Z 2 ∀(p,q) ∈Z∗
2

a b aq + bp
+ =
p q pq
a b ab
=
p q pq
f: Z → Q
On procède au plongement de Z dans Q à l'aide du morphisme injectif a.
aa
1

Relation d'ordre sur Q:


a b
On munit l'ensemble Q de la relation binaire ≤ telle que ≤ ⇔ (aq − bp )pq ≤ 0.
p q

Propriétés:
. La relation ≤ définie sur Q est une relation d'ordre total.
a a
. réflexive: ∀(a,b ) ∈Z × Z∗ ≤
b b
a b
 p ≤ q a b
. antisymétrique: ∀(a,b ) ∈Z ∀(p,q) ∈Z
2 ∗2
 ⇒ =
 ≤b a p q
 q p
 a b
 ≤
p q a c
. transitive: ∀(a,b,c ) ∈Z 3 ∀(p,q,r ) ∈Z∗
2
 ⇒ ≤
b ≤ c p r
 q r
L'ordre est total car l'ordre sur Z est total.

. L'ordre sur Q prolonge l'ordre sur Z.


∀(a,b ) ∈Z 2 a ≤ Q b ⇔ a ≤ Z b

. (Q,+,•,≤) est un corps totalement ordonné.


a a' a b a' b
∀(a,a',b ) ∈Z 3 ∀(p,p',q) ∈Z∗
3
≤ ⇒ + ≤ +
p p' p q p' q
a b ab
∀(a,b ) ∈Z 2 ∀(p,q) ∈Z∗
2
≥0 ≥0⇒ ≥0
p q pq

. Q est archimédien.
a b a b
∀ ∈Q ∀ ∈Q∗+ p > 0 q > 0 ∃n ∈Z ≤n
p q p q
11E - Les congruences dans Z - Les anneaux Z/nZ

Soit n un naturel.

Congruences dans Z:
∀(a,a' ) ∈Z 2

a ≡ a' [n] ⇔ ∃k ∈Z a = a' +kn ⇔ n a − a' ⇔ a − a'∈nZ
Z
Si n≠0, a ≡ a' [n] ⇔ les restes des divisions euclidiennes de a et a' par n sont égaux.

Théorèmes:
. La congruence modulo n est une relation d'équivalence.
. réflexivité: ∀a ∈Z a ≡ a [n]
. symétrie: ∀(a,a' ) ∈Z 2 a ≡ a' [n] ⇒ a' ≡ a [n]
a ≡ a' [n]
. transitivité: ∀(a,a',a") ∈Z 3  ⇒ a = a" [n]
a' ≡ a" [n]
. La congruence modulo n est compatible avec l'addition dans Z.
a ≡ a' [n] a + b ≡ a' +b' [n]
∀(a,a',b,b' ) ∈Z 4  ⇒
b ≡ b' [n] ab ≡ a'b' [n]

Autres propriétés:
 
 Z 
. ∀(a,a' ) ∈Z 2 m n et a ≡ a' [n] ⇒ a ≡ a' [m]

. ∀λ ∈Z ∀(a,a' ) ∈Z 2
a ≡ a' [n] ⇒ λa ≡ λa' [ λn]
. Pour tous entiers a et a', si µ est un diviseur commun (non nul) à a, a' et n, alors:
a a'  n 
a ≡ a' [n] ⇒ ≡   .
µ µ µ 
. Pour tous entiers a et a', si µ est un diviseur commun (non nul) à a et a' et si µ ∧ n ≡ 1, alors:
a a'
a ≡ a' [n] ⇒ ≡ [n]
µ µ

L'ensemble Z/nZ:
∀a ∈Z a = {a'∈Z; a' ≡ a [n]} ∈P( Z )
Z nZ = {a; a ∈Z}
0 = {a ∈Z; a ≡ 0[n]} = nZ
1 = {a ∈Z; a ≡ 1[n]} = 1+ nZ
M
a = a + nZ
Si n=0, alors ∀a ∈Z a = {a} , donc
s0 :Z → Z nZ
est bijective, donc Z et Z/0Z sont équipotents, donc Z/0Z est infini.
aaa
{ }
Si n≠0, Z nZ = 0,K,n − 1 et cardZ nZ = n .
Structure de Z/nZ:
∀(α,β ) ∈Z nZ 2 ∀(a,a',b,b' ) ∈Z 4
a ∈α
a'∈α a' +b' ≡ a + b [n] a' +b' = a + b
  
 ⇒ ⇒
 b ∈β 
 a'b' ≡ ab [n] a'b' = ab
b'∈β
La congruence modulo n est donc compatible avec l'addition et la multiplication dans Z, il est
donc légitime de poser:
α+β = a+b
αβ = ab

Anneau commutatif (Z/nZ,+,• ):


∀(a,b,c ) ∈Z 3
a+b =b+a
(a + b ) + c = a + (b + c )
a+0=a
−a = −a
ab = ba
( ab )c = a ( bc )
a ( b + c ) = ab + ac
a1 = a
Z nZ n'est pas un anneau intègre.

La surjection canonique:
sn :Z → nZ
aaa
∀(a,b ) ∈Z 2
sn ( a + b ) = sn ( a ) + sn ( b )
sn (ab ) = sn (a )sn (b )
sn (1) = 1Z nZ
sn est donc un morphisme surjectif d'anneaux.
Imsn = Z nZ
Ker sn = nZ

Le groupe (Gn,• ) des éléments inversibles de Z/nZ:


∀x ∈Z x ∈Gn ⇔ x ∧ n ≡ 1

{
G0 = 1; −1 }
∀n ∈N \ {0} Gn = {x; 0 ≤ x ≤ n − 1x ∧ n ≡ 1}

Cas où Z/nZ est intègre ou est un corps:


Z nZ intègre ⇔ n = 0 ou n premier
Z nZ corps ⇔ n premier
12C - Primitives de fonctions rationnelles en sinθ et cosθ

∫ R(sinθ,cos θ)dθ
Méthode générale:
ϕ:I → R
Calculer
∫ R(sinθ,cos θ)dθ à l'aide du changement de variable θ a tan
θ.
2

Changement de variable proposé par les règles de B ioche:


si R( sinθ,cos θ )dθ est invariant dans le alors prendre pour nouvelle variable x avec
changement
de θ en -θ x = cos θ
de θ en π−θ x = sinθ
de θ en π+θ x = tanθ
sinon θ
x = tan
2

Exemples fondamentaux:

∫ ] [

. existe sur kπ; (k + 1) π .
sinθ
θ
Faire le changement de variable x = cos θ ou x = tan .
2
θ


= ln tan
sinθ 2

 π π

dθ 
. existe sur  − + kπ; + kπ  .
cos θ  2 2 
Faire le changement de variable x = sinθ.
 θ π


= ln tan + 
cos θ  2 4

 π π
∫ tanθ dθ existe sur − 2 + kπ; 2 + kπ  .

.

Faire le changement de variable x = cos θ .

∫ tanθ dθ = − ln cos θ
∫ 2 − cos θ existe sur R.

. 2

Faire le changement de variable x = tanθ .



2 − cos 2 θ
=
1
2
(
arctan 2 tanθ )
12D - Primitives de fonctions rationnelles en sinhϕ et coshϕ

∫ R(coshϕ,sinhϕ)dϕ
Application des règles de Bioche aux fonctions rationnelles en sinhϕ et coshϕ:
Si pour calculer
∫ R(sinθ,cos θ)dθ , on est alors, pour calculer
∫ R(coshϕ,sinhϕ)dϕ ,
tenter d'adopter le changement de variable adopter le changement de variable
x = cos θ x = coshϕ
x = sinθ x = sinhϕ
x = tanθ x = tanhϕ
θ ϕ
x = tan x = tanh
2 2

Exemples fondamentaux:



. existe sur ]−∞;0[ et ]0: +∞[ .
sinhϕ
ϕ
Faire le changement de variable x = e ϕ ou x = tanh ou x = coshϕ .
2
ϕ
∫ sinhϕ = ln tanh 2

∫ coshϕ existe sur R.



.

∫ coshϕ = 2 arctane .

Si l'on fait le changement de variable x = e ϕ , alors ϕ

ϕ ϕ
∫ coshϕ = 2 arctan tanh 2 .

Si l'on fait le changement de variable x = tanh , alors
2

∫ coshϕ = arctansinhϕ .

Si l'on fait le changement de variable x = sinhϕ , alors
ϕ π
Remarque: ∀ϕ ∈R arctansinhϕ = 2 arctan tanh = 2 arctane ϕ −
2 2

.
∫ tanhϕ dϕ existe sur R.
Faire le changement de variable x = coshϕ ou x = tanhϕ.

∫ tanhϕ dϕ = ln coshϕ
12E - Intégrales abéliennes

 ax + b 
Primitives du type
∫ R x, n
cx + d 
dx :

avec (a,b,c,d) réels fixés tels que ad-bc≠0, n naturel non nul et R fonction rationnelle de deux
vriables.
ax + b
Méthode: adopter la nouvelle vriable t telle que t = n .
cx + d

Intégrales du type
∫ R x, ax 2 + bx + c  dx :

où (a,b,c) sont des réels fixés avec a≠0 et b 2 − 4ac .

. exemples fondamentaux:
Soit k un réel positif fixé.

∫ ∫ ∫
dx dx dx
k −x
2 2
x +k
2 2
x − k2
2

]−k; +k[ R ]−∞; −k[ et ]k; +∞[


x = kt x = kt x = εkt
dx = kdt dx = kdt dx = εkdt
t ∈ ]−1;1[ t ∈R t ∈ ]1; +∞[

∫ ∫ ∫
dt dt dt
ε
1− t 2
1+ t 2 t2 − 1
arcsin t argsinh t ε argcosh t

ln x + k 2 + x 2 
x
arcsin ln x + x 2 − k 2
k

. cas général:
.. a>0 et b 2 − 4ac > 0:
2
 b 
ax 2 + bx + c = −a k 2 −  x +  k>0
 2a 
= −a (β − x )( x − α )
α<β
b
Méthode trigonométrique: x + = k cos θ θ ∈[0, π ]
2a
Méthode unicursale: ax 2 + bx + c = t( x − α ) t ∈[0, +∞[

.. a>0 et b 2 − 4ac < 0:


2
 b 
ax 2 + bx + c = a  x +  +k
2
k>0
 2a 
b
Méthode trigonométrique: x + = k sinhϕ ϕ ∈R
2a
Méthode unicursale:
b a   b a 
ax 2 + bx + c = ax + t t ∈  ; +∞  ou ax 2 + bx + c = − ax + t t ∈− ; +∞ 
 2   2 
.. a>0 b 2 − 4ac > 0:
2
 b 
ax 2 + bx + c = a  x +  −k
2
k>0
 2a 
= a ( x − α )( x − β) α<β
b
Méthode trigonométrique: x + = εk coshϕ ϕ ∈R +
2a
Méthode unicursale:

Idée n°1: ax 2 + bx + c = t( x − α )
x ∈ ]β; +∞[ [ [
t ∈ 0; a

x ∈ ]−∞;α[ t ∈ ]−∞; − a [
 b a
x ∈[β; +∞[ t ∈  −β a; 
Idée n°2: ax 2 + bx + c = ax + t  2a 

x ∈ ]−∞;α[ [
t ∈ −α a; +∞ [
Primitives usuelles

∫ ∫
dx dx
= tan x = tanh x
cos 2 x cosh2 x
−1 −1
∫ ∫
dx dx
= 2
=
sin2 x tan x sinh x tanh x
π
 x π
∫ cos x = ln tan 2 + 4  ∫
dx dx x
= 2 arctane x − = arctansinh x = 2 arctan tanh
cosh x 2 2


dx x
∫ sin x = ln tan 2 = ln tanh
dx x
sinh x 2

∫ tan x dx = − ln cos x ∫ tanh x dx = ln cosh x


∫ tanh x = ln sinh x
dx
∫ tan x = ln sin x
dx

∫ e dx = m e m ∈C \ {0}
mx 1 mx

∫ a dx = lna a ∈R \ {0,1}
x
x a +

a ∈R \ {0}

∫ x +a
dx 1 x
2 2
= arctan
a a
1 x−a
∫ x −a
dx
= ln
2 2
2a x + a
 x
arcsin a


dx
=
a −x arccos x
2 2

 a
 x
 argsinh


dx a
=
x +a
2 2
ln x + x 2 + a 2 
  
 x
 argcosh a


 
]
sur a ; +∞[
2
 ln x + x − a 
2


dx
=
x − a2   − argcosh x
2

 

a
]
sur −∞; − a [
 ln x + x 2 − a 2
 


dx
= ln x + x 2 + b b ∈R \ {0}
x +b2
13A - Intégrales doubles

Propriétés:
Soit D un quarrable compact de R 2 .
. linéarité:
Soient f et g continues sur D.
∀( λ,µ ) ∈R 2
∫∫ λf + µg = λ ∫∫ f + µ ∫∫ g
D D D

. positivité:
Soit f continue sur D et positive sur D, alors
∫∫ f ≥ 0 .
D

. croissance:
Soient f et g continues sur D, si f≤g sur D, alors
∫∫ f ≤ ∫∫ g.
D D

. valeur absolue:
Soit f continue sur D, alors
∫∫ f ≤ ∫∫ f
D D

. additivité:
Soit f continue sur D1 ∪ D2 avec D1 ∩ D2 d'aire nulle, alors
∫∫ f
D1 ∪D 2
=
∫∫ f + ∫∫ f
D1 D2

Calcul d'une intégrale double sur un domaine rectangulaire D:


f: [a;b ] × [ c; d] → R
Soit continue sur [a,b ] × [ c,d]
( x,y ) a f( x,y )
b d 
∫∫
[ a;b ] ×[ c;d ]
∫∫
f( x,y ) dx dy =  f( x,y ) dy dx

a  c


d b 
=
∫∫
c
 f( x,y ) dx dy

a

Théorème:
D = [a,b ] × [ c,d] et f:D → R du type ∀( x,y ) ∈[a,b ] × [ c,d] f( x,y ) = ϕ ( x ) ψ ( y ) avec ϕ:[a,b ] → R
continue et ψ:[ c,d] → R continue, alors:
b  d 
∫∫
[ a,b ] ×[ c,d ] a
∫ 
 c

f( x,y ) dx dy =  ϕ ( x ) dx  ψ ( y ) dy
 

Étude d'une intégrale double sur un quarrable simple:


{ }
D = ( x,y ) ∈R 2 ; a ≤ x ≤ b ϕ1( x ) ≤ y ≤ ϕ 2 ( x ) où ϕ1 et ϕ 2 sont des applications continues de [a,b]
vers R telles que ϕ1 ≤ ϕ 2 .
Soit f:D → R continue, alors:
b  ϕ2 (x) 

∫∫ D
f( x,y ) dx dy =
∫ ∫


f( x,y ) dy dx
a  ϕ1 ( x )


Formule de changement de variables:

∫∫ f(x,y) dx dy = ∫∫ f(x(u, v),y(u, v)) J


D ∆
Φ (u, v ) dudv
Φ: ∆ → R 2
(u, v ) a ( x,y )
x = x(u, v )
y = y(u, v )
D = Φ( ∆ )
∂x ∂x
(u, v ) (u, v )
∀(u, v ) ∈∆ JΦ (u, v ) = ∂u ∂v
∂y ∂y
(u, v ) (u, v )
∂u ∂v

Passage en coordonnées polaires:

∫∫ f(x,y) dx dy = ∫∫ f(r cos θ,r sinθ)r dr dθ


D ∆
13B - Intégrales triples

Généralités:
Soit D un cubable compact de R3.
Soit f:R 3 → R une fonction continue sur D.
On dispose alors du réel
∫∫∫ f(x,y,z) dx dy dz .
D
On a les mêmes propriétés sue pour les intégrales doubles.

Formules de Fubini:
b d f  
.
∫∫∫
[ a;b ] ×[ c;d ] ×[ e;f ]
∫∫∫
f( x,y,z) dx dy dz =   f( x,y,z) dz dy dx
 
a  c e
 
 

. Si ∀( x,y,z) ∈[a;b ] × [ c; d] × [e; f ] f( x,y,z) = f1( x )f2 ( y )f3 ( z) , alors:


b  d  f 
∫∫∫
[ a;b ] ×[ c;d ] ×[ e;f ]
∫
a

 c
∫ 
 e

f( x,y,z) dx dy dz =  f1( x ) dx  f2 ( y ) dy  f3 ( z) dz

. Soit D = {(x,y,z) ∈R ; a ≤ x ≤ b ϕ (x) ≤ y ≤ ϕ


3
1 2 ( x ) ψ 1( x,y ) ≤ z ≤ ψ 2 ( x,y )} .
 ϕ 2 ( x )  ψ 2 ( x,y )
b  

∫∫∫ D
f( x,y,z) dx dy dz = 

 ∫ ∫ ∫ 

f( x,y,z) dz dy dx
a  ϕ 1 ( x )  ψ 1 ( x,y )
 
 

Intégration par piles:


( x,y ) ∈d
Si ∀( x,y,z) ∈R 3 ( x,y,z) ∈D ⇔  , alors:
z1( x,y ) ≤ z ≤ z 2 ( x,y )
 z 2 ( x,y ) 

∫∫∫ f(x,y,z) dx dy dz = ∫∫ ∫
D

d
f( x,y,z) dz dx dy
 z1 ( x,y )

Intégration par tranches:


e ≤ z ≤ f
Si ∀( x,y,z) ∈R 3 ( x,y,z) ∈D ⇔  , alors:
( x,y ) ∈d( z)
f
 
∫∫∫ f(x,y,z) dx dy dz = ∫  ∫∫ f((x,y,z
D
e
)
) dx dy dz
d z 
Formule de changement de variables:

∫∫∫ f(x,y,z) dx dy dz = ∫∫∫ f(x(u, v, w),y(u, v, w),z(u, v, w)) J


D ∆
Φ (u, v, w ) dudv dw
Φ: (u, v, w ) a ( x,y,z)
x = x(u, v, w )
y = y(u, v, w )
z = z(u, v, w )
∂x ∂x ∂x
(u, v, w ) (u, v, w ) (u, v, w )
∂u ∂v ∂w
∂y ∂y ∂y
JΦ (u, v, w ) = (u, v, w ) (u, v, w ) (u, v, w )
∂u ∂v ∂w
∂z ∂z ∂z
(u, v, w ) (u, v, w ) (u, v, w )
∂u ∂v ∂w
D = Φ( ∆ )

Passage aux coordonnées cylindriques:

∫∫∫ f(x,y,z) dx dy dz = ∫∫∫ f(r cos θ,r sinθ,z)r dr dθ dz


D ∆

Passage aux coordonnées sphériques:

∫∫∫ f(x,y,z) dx dy dz = ∫∫∫ f(r sinθ cos ϕ,r sinθ sinϕ,r cos θ)r
D ∆
2
sinθ dr dθ dϕ
14A - Application dérivable

Opération algébrique sur les applications dérivables:


∀( f,g) ∈Da (I,R) ∀λ ∈R ( f + g,λf,fg) ∈Da (I,R)

( f + g) ′ ( a ) = f ′ ( a ) + g ′ ( a )
( λf )′ (a ) = λf ′(a )
( fg)′ (a ) = f ′(a )g(a ) + f(a )g′(a )
Sous-algèbre des applications dérivables en un point:
Da (I,R) est une sous-algèbre commutative et non intègre de la R-algèbre RR .

Inverse, quotient et puissance n-ième:


Soit f ∈Da (I,R) telle que f(a)≠0, alors il existe J de R tel que {a} ⊆ J ⊂ I pour lequel
′ − f ′(a )
1  1
∀x ∈J f( x ) ≠ 0 . On dispose alors de ∈Da ( J,R) et   (a ) = 2 .
f  f f (a )

( )
Soit f ∈Da (I,R) et n ∈Z , alors si f(a)≠0, f n ∈Da (I,R) et f n (a ) = nfn−1(a )f ′(a ) .
Soit ( f,g) ∈Da (I,R) telles que g(a)≠0, alors il existe J de R tel que {a} ⊆ J ⊂ I
2
sur lequel g ne

 f  f f ′(a )g(a ) − f(a )g′(a )
s'annule pas, alors   ∈D a ( J,R ) et   ( a ) = .
 g  g g2 ( a )

Dérivation sur l'intervalle I:


On dispose de la R-algèbre D(I,R) commutative et non intègre.
Les unités de l'anneau D(I,R) sont les éléments f de D(I,R) tels que 0 ∉f(I) .
On a le formulaire suivant:
( f + g) ′ = f ′ + g ′
( λf )′ = λf ′
( fg)′ = f ′g + g′ f

 1 − f′
  = 2
 f f

( )
f n = nfn−1f ′

 f f ′g − fg′
  =
 g g2

Application de classe C1 sur I:


On dispose de la R-algèbre C1(I,R) commutative et non intègre.
1 f 
Si ( f,g) ∈C1(I,R) et 0 ∉g(I) , alors  , ,gn  ∈C1(I,R)
2 3
n ∈Z.
g g 
Dérivée logarithmique:
Soit f ∈Da (I,R) telle que f(a)≠0.
f ′(a )
On appelle dérivée logarithmique de f en a le réel .
f(a )
∀( f,g) ∈Da (I,R) f(a ) ≠ 0 g(a ) ≠ 0

( λf )′ f ′(a )
∀λ ∈R (a ) =
λf f(a )

( fg)′ f′ g′
(a ) = (a ) + (a )
fg f g

∀n ∈Z
(f )
n
f′
(a ) = n (a )
n
f f

 1
 
 f f′
1
(a ) = − (a )
f
f

 f
 
 g f′ g′
f
(a ) = (a ) − (a )
f g
g

Composition d'applications dérivables en un point:


Soit f ∈Da (I,R) , g ∈D f ( a ) ( J,R) où f(I) ⊂ J.

Alors g o f ∈Da (I,R) et ( g o f ) = g′ o f(a )f ′(a ) .

Composition d'applications dérivables dur I:


f ∈D(I,R) 
 
g ∈D( J,R) ⇒ g o f ∈D(I,R)
 
f(I) ⊂ J 
( g o f ) ′ = g′ o f f ′
Composition d'applications de classe C1 sur I:
f ∈C1(I,R) 
 
g ∈C (I,R) ⇒ g o f ∈C (I,R)
1 1

 
f(I) ⊂ J 
Applications lnu , e u, u α et u v :
∀u ∈D(I,R) 0 ∉f(I)
ln u ∈D(I,R)

(ln u )′ = uu′
∀u ∈D(I,R)
eu ∈D(I,R)

(e )
u
= u′ e u
∀α ∈R ∀u ∈D(I,R) ∀x ∈I u( x ) > 0
uα ∈D(I,R)

(u )
α
= αuα −1u′

∀(u, v ) ∈D(I,R) ∀x ∈I u( x ) > 0


2

uv ∈D(I,R)

(u )
v
= uv lnu v ′ + vuv −1

Dérivée d'une application réciproque en un point:


Soit f:I → R continue et strictement monotone sur I.
On dispose alors de:
. f(I) intervalle de R
. f:I → f(I) bijection
. f −1: f(I) → R continue et strictement monotone sur f(I).
Soit a de I tel que f ∈Da (I,R)

( )
Si f ′(a ) ≠ 0 , alors f −1 ∈D f ( a ) ( f(I),R) et f −1 ( f(a )) =
1
f ′(a )
.

Si f ′(a ) = 0 , alors f −1 ∉D f ( a ) ( f(I),R) .

Dérivée d'une application réciproque sur un intervalle:


Soit f ∈D(I,R) telle que ∀x ∈I f ′( x ) > 0, alors f est continue et strictement monotone sur I et

∀x ∈I f ′( x ) ≠ 0, donc f −1 ∈D( f(I),R) et f −1 = ( ) 1
f ′ o f −1
.

Application réciproque d'une application de classe C1 sur I:


Soit f ∈C1(I,R) telle que ∀x ∈I f ′( x ) > 0, alors f −1 ∈C1( f(I),R) .

Dérivations successives:
On note Dn (I,R) l'ensembles des applications de I vers R n fois dérivable.
On note Cn (I,R) l'ensembles des applications de I vers R Cn sur I, c'est à dire les f ∈RI telles que
f ∈Dn (I,R) et f ( ) ∈C(I,R) .
n

On note C ∞ (I,R) , l'ensemble des applications de I vers R infiniment dérivable.


∀f ∈RI f ∈C ∞ (I,R) ⇔ ∀n ∈N∗ f ∈Dn (I,R) ⇔ ∀n ∈N∗ f ∈Cn (I,R)
C ∞ (I,R) = ID (I,R) = I Cn(I,R)
n∈N∗
n

n∈N∗

C (I,R) ⊂L⊂ D
∞ n+1
(I,R) ⊂ Cn (I,R) ⊂ Dn (I,R) ⊂L⊂ C1(I,R) ⊂ D(I,R) ⊂ C(I,R) ⊂ RI
Propriétés des dérivées n-ièmes:
Dn (I,R) , Cn (I,R) et C ∞ (I,R) sont des R-algèbre commutative et non intègre.
∀( f,g) ∈Dn (I,R)

( f + g)(n) = f (n) + g(n)


( λf )(n) = λf (n)
n

( fg) (n)
= ∑ C f( )g(
k =0
k k
n
n−k )

∀( f,g) ∈Cn (I,R)


f + g ∈Cn (I,R)
λf ∈Cn (I,R)
fg ∈Cn (I,R)

Exemples usuels de dérivés n-ièmes:


∀n ∈N ∀x ∈R
 π
sin( ) x = sin x + n 
n
 2
 π
cos( ) x = cos x + n 
n
 2
1
f: x a (a,b) ∈R∗ × R
ax + b
 b
∀n ∈N ∀x ∈R \  − 
 a

f( ) (x) =
n ( −1)n ann!
(ax + b)n+1
Composition d'applications n fois dérivables:
f ∈Dn (I,R) 
 
g ∈D (I,R) ⇒ g o f ∈D (I,R)
n n

 
f(I) ⊂ J 
f ∈Cn (I,R) 
 
g ∈C (I,R) ⇒ g o f ∈C (I,R)
n n

 
f(I) ⊂ J 

Application réciproque d'une application n fois dérivable:


Soit f ∈Dn (I,R) telle que ∀x ∈I f ′( x ) > 0, alors f −1 ∈Dn ( f(I),R) .
De même pour les applications de classe Cn sur I.
14B - Formules des accroissements finis

Théorème de Rolle:
f continue sur [a;b ]
[ a;b ] 
Soit f ∈R où (a,b ) ∈R avec a<b telle que f dérivable sur ]a;b[ , alors il existe au moins un
2


 f ( a ) = f (b )
réel c ∈ ]a;b[ tel que f ′( c ) = 0.

Zéros d'une application et zéros de sa sérivée:


Soit I un intervalle de R.
f continue sur I
Soit f ∈RI telle que  o.
f dérivable sur I
o
Alors, entre deux zéros distincts de f sur I, il existe au moins un zéro de f ′ sur I .

Racines de la dérivée d'un polynôme:


Soit P une application polynôme de R vers R de degré n ayant n racines distinctes sur R, alors P'
a au moins n-1 racines sur R.
Ces racines sont séparées par les racines de P: a1 < a1′ < a 2 < a ′2 <L< a n−1
′ < an .

Polynômes de Legendre:
(n)
(
∀n ∈N Ln ( X ) =  X 2 − 1  . )
n
 
Ln est est scindé sur R et a n racines comprises entre -1 et 1.

Théorème des accroissements finis:


f continue sur [a;b ]
Soit f ∈R[ ] où (a,b ) ∈R 2 avec a<b telle que 
a;b
.
f dérivable sur ]a;b[
Alors il existe au moins un réel c ∈ ]a;b[ tel que f(b ) − f(a ) = (b − a )f ′( c ) .

Autres expressions du théorème des accroissements finis:


Soit I un intervalle de R.
f continue sur I
Soit f ∈RI telle que  o.
f dérivable sur I
Alors:
∀x ∈I ∀h ∈R x + h ∈I ∃θ ∈ ]0;1[ f( x + h) = f( x ) + hf ′( x + θh)
∀h ∈I ∃θ ∈ ]0;1[ f(h) = f(0) + hf ′(θh)

Inégalité des accroissements finis:


Soit I un intervalle de R.
f continue sur I
Soit f ∈RI telle que  o.
f dérivable sur I
 o   f ( x 2 ) − f ( x1 ) 
 ∃(m,M) ∈R
2
∀x ∈I m < f ′( x ) < M ⇒ ∀( x1,x 2 ) ∈I2 x1 ≠ x 2 m≤ ≤ M
   x 2 − x1 
 
[ ]
o
 ∃M ∈R ∀x ∈I f ′( x ) ≤ M ⇒ ∀( x1,x 2 ) ∈I2 f ( x 2 ) − f ( x1 ) ≤ M x 2 − x1
 
Applications:
1 lnb − lna 1
∀(a,b ) ∈R 2 0 < a < b < <
b b−a a
∀(a,b ) ∈R 2 sinb − sina ≤ b − a
14C - Applications du théorème des accroissements finis

Théorème de caractérisation des applications monotones parmi les applications sur un


intervalle:
Soit I un intervalle de R.
f continue sur I
Soit f ∈RI telle que  o.
f dérivable sur I
o
f:I → R est croissante sur I ⇔ ∀x ∈I f ′( x ) ≥ 0
o
f:I → R est décroissante sur I ⇔ ∀x ∈I f ′( x ) ≤ 0
o
f:I → R est constante sur I ⇔ ∀x ∈I f ′( x ) = 0
f:I → R est strictement croissante sur I si et seulement si f ′ ≥ 0̃ et si il n'existe pas d'intervalle J
o
tel que 0 ⊆ J ⊂ I et f ′J = 0̃ J .

Dérivée en a et limite en a de f':


Soit I un intervalle de R.
Soit a ∈I.
Soit f ∈RI telle que f:I → R continue sur I et f:I → R dérivable en tout réel de I \ {a} .
Alors:
f( x ) − f(a )
∀l ∈R lim f ′( x ) = l ⇒ lim =l
x→a x→a x−a
x∈I\ {a } x∈I\ {a }

f:I → R continue en a

∀l ∈R lim f ′( x ) = l ⇒ f ′(a ) = l
x→a
x∈I\ {a } f ′:I → R continue en a

14D - Fonctions convexes

Segments:
[0;1] = {x ∈R; 0 ≤ x ≤ 1}
∀(α,β ) ∈R 2 α ≤ β [α;β] = {x ∈R; α ≤ x ≤ β} = {x ∈R; ∃t ∈[0;1] x = tα + (1− t )β}
Intervalles réels:
On appelle intervalle de R toute partie I de R tel que ∀(α,β ) ∈I2 α ≤ β α ≤ x ≤ β ⇒ x ∈I .
On appelle partie convexe de R toute patie I de R telle que ∀(α,β ) ∈I ∀t ∈[0;1] tα + (1− t )β ∈I.
2

Pour toute partie I de R, I est un intervalle de R si et seulement si I est une partie convexe de R.

Segments de R2:
Soit M1 = ( x1,y1) et M2 = ( x 2 ,y 2 ) .
 x = tx + (1− t )x 2 
[M1;M2 ] = ( x,y ) ∈R2 ; ∃t ∈[0;1] y = ty1 + 
  1 (1− t ) y 2 
{
= M ∈R 2 ; ∃t ∈[0;1] M = tM1 + (1− t )M2 }
Parties convexes de R2:
On appelle partie convexe de R2 toute partie A de R2 telle que ∀(M1,M2 ) ∈A [M1;M2 ] ⊂ A .
Fonctions convexes:
Soit I un intervalle de R.
Soit f ∈RI .
L'application f:I → R est dite convexe sur I si et seulement si:
∀( x1,x 2 ) ∈I2 ∀t ∈[0;1] f( tx1 + (1− t )x 2 ) ≤ tf( x1) + (1− t )f( x 2 )

Caractérisation des applications convexes par l'épigraphe (surgraphe):


Soit f ∈RI .
{
On appelle épigraphe de f: E ( f ) = ( x,y ) ∈R 2 ; x ∈I y ≥ f( x ) . }
f:I → R est convexe sur I si et seulement si E(f) est une partie convexe de R2.

Caractérisation des applications convexes par les cordes:


Soit f ∈RI .
f:I → R est convexe sur I si et seulement si tout sous arc du graphe de f est sous la corde qui le
sous-tend.

Propriétés des fonctions convexes:


Soit f:I → R convexe sur I.
f (b ) − f ( a ) f ( c ) − f ( a ) f ( c ) − f (b )
Alors: ∀(a,b,c ) ∈R 3 a < b < c ≤ ≤
b−a c−a c−b

Caractérisation des applications convexes par la pente:


Soit f ∈RI .
f( t ) − f(a )
f:I → R est convexe sur I si et seulement si pour tout a de I, la fonction p a : t a est
t−a
croissante sur I\{a}.

Une propriété des fonctions convexes dérivables:


Soit f:I → R une application convexe dérivable sur I.
f (b ) − f ( a )
Alors ∀(a,b ) ∈I2 a < b f ′(a ) ≤ ≤ f ′ (b )
b−a

Caractérisation des fonctions convexes parmi les applications dérivables:


Soit f ∈RI .
f:I → R est convexe sur I si et seulement si f ′:I → R est croissante sur I.

Caractérisation des fonctions convexes parmi les applications deux fois dérivables sur I:
Soit f ∈D2 (I,R) .
f:I → R est convexe sur I si et seulement si f ′′ ≥ 0̃ sur I.

Caractérisation des applications convexes par la position du graphe par rapport aux tangentes:
Soit f ∈D(I,R) .
f:I → R est convexe sur I si et seulement si le graphe de f est au dessus de chacune de ses
tangentes.
14E - Calcul approché d'intégrales

Méthode des rectangles:


Soit f ∈C([a;b ],R) .
b n−1
On approxime
∫ f( x ) dx par Rn =
b−a
n ∑ f a + 2k2+ 1 b −n a  .
k =0
a
b
( b − a)
3
Si en outre f ∈C 2
([a;b],R) , alors ∫ f(x) dx − R
a
n ≤
24n2
M 2 (f) .

Méthode des trapèzes:


Soit f ∈C([a;b ],R) .

b−a b − a
b n−1
On approxime
∫ f( x ) dx par Tn =  f ( a ) + f (b ) + 2
2n  ∑ 
f a + k

k =1
 .
n  
a
b
(b − a ) 3 M
Si en outre f ∈C 2 ([a;b ],R) , alors

a
f( x ) dx − Tn ≤
12n2
2 (f) .

Méthode de Simpson:
Soit f ∈C([a;b ],R) .
b

On approxime
∫ f(x) dx par:
a

b−a 2k + 1 b − a  
n−2 n−1
Sn =  f ( a ) + f (b ) + 2
6n  ∑
k =1

f a + k

b − a 
 + f  a + (k + 1)
n  
b − a
n 
 +4
k =0

f a +
 2∑  .
n  
b
(b − a ) 5 M
Si en outre f ∈C 4
([a;b],R) , alors ∫
a
f( x )dx − Sn ≤
2880n4
4 (f).
15A - Polynôme de Taylor associé à une fonction

Polynôme de Taylor d'ordre n en a associé à une fonction:


Soit n un naturel non nul, f ∈RI et a ∈I tels que f ( ) (a ) existe.
n

On appelle polynôme de taylor d'ordre n de f en a le polynôme Tn tel que:


f ( ) (a )
n


k
Tn = ( X − a )k
k!
k =0

f ′′(a ) f ( ) (a )
n
= f(a ) + f ′(a )( X − a ) + ( X − a )2 +L+ ( X − a )n
2 n!

Quelques propriétés des polynômes de Taylor:


Tn ∈R[ X ]
deg Tn ≤ n
∀k ∈ {0,K,n} Tn( k ) (a ) = f ( ) (a )
k

∀k ∈N k > n Tn( k ) (a ) = 0

( Tn ( f ))′ = Tn−1( f ′ )
Polynômes de Mac Lauron associés aux fonctions usuelles:
Soit n un naturel non nul, I un intervalle réel tel que 0 ∈I , f ∈RI telle que f ( ) (0) existe.
n

f ( ) (0) k
n


k
Tn ( f ) = X
k!
k =0

Xk (k ) Xn (n)
= f(0) + Xf ′(0) +L+ f (0) +L+ f (0)
k! n!

Polynômes de Mac Laurin associés aux fonctions usuelles:


Toutes les fonctions qui suivent sont C ∞ sur R ou sur ]−1; +∞[ , donc sur des intervalles
contenant 0.
f Tn ( f )( x )
n
x a ex
∑ xk! = 1+ x + x2 +L+ xn!
k 2 n

k =0
x a cosh x E ( n2 ) ( n2 )

2E
x 2P x2 x4 x
= 1+ + +L+
p =0
(2p)! 2 4! 2E ( ( )) ! n
2
x a sinh x E ( n−12 ) ( n−12 ) +1
x 2p +1

2E
x3 x5 x
=x+ + +L+
p =0
( 2p + 1) ! 3! 5! 2E ( ( ) + 1)! n−1
2
x a cos x E ( n2 ) ( n2 )

2E
+L+ ( −1) ( 2 )
x 2p x2 x4 x
( −1)p = 1− +
E n

p =0
(2p)! 2 4! 2E ( ( )) ! n
2
x a sin x E ( n−12 ) ( n−12 ) +1
x 2p +1

2E
+L+ ( −1) ( 2 )
x3 x5 x
( −1) p
=x− +
E n−1

p =0
(2p + 1)! 3! 5! 2E ( ( ) + 1)!
n−1
2

x a ln(1+ x ) n

∑ xk x2 x3 n
n−1 x
( −1)k −1 =x− + +L+ ( −1)
k 2 3 n
k =0
1 n
xa
1+ x ∑ (−1)x
k =0
k
= 1− x + x 2 +L+ ( −1) xn
n

α (α − 1)L (α − k + 1) k α (α + 1) 2 α (α − 1)L (α − n + 1) n
1 n
xa
(1+ x ) α 1+ ∑ k =1
k!
x = 1= αx +
2
x +L+
n!
x
15B - Formule de Taylor avec reste intégral

Formule de Tatlor avec reste intégral à l'ordre n:


Soit n un naturel, f ∈Cn+1(I,R) , a ∈I.
x
( x − a )n f (n) ( x − t )n f (n+1)
Alors ∀x ∈I f( x ) = f(a ) + ( x − a )f ′(a ) +L+
n!
(a ) + ∫
a
n!
( t ) dt .

Inégalité de Taylor-Lagrange:
Soit n un naturel, f ∈Cn+1(I,R) , a ∈I.
n+1
x−a
[
Alors ∀t ∈ (a; x ) ] f(
n+1)
( t ) ≤ Mx et ∀x ∈I Rn ( x ) ≤ M .
(n + 1)! x
Si en outre f ( ) est bornée sur I, posons Mn+1 = sup f ( ) ( t ) , alors:
n+1 n+1
t∈I
n+1
x−a
∀x ∈I Rn ( x ) ≤ M
(n + 1)! n+1
15C - Formule de Taylor avec reste de Lagrange

Théorème:
Soient I un intervalle de R et a ∈I.
o 
Soit f ∈RI telle que f ∈Cn (I,R) et f ∈Dn+1 I,R .
 
f ( ) (a ) ( x − a )n+1 f (n+1) c
n


k
]
Alors ∃c ∈ (a; x ) [ f( x ) =
k!
( x − a )k +
(n + 1)!
( )
k =0

Autres expressions du reste de Taylor-Lagrange:


h= x−a
f ( ) (a ) k
n


k
hn+1 (n+1)
∃θ ∈ ]0;1[ f ( a + h) = h + f (a + hθ)
k =0
k! (n + 1)!
a=0
f ( ) (0) k
n


k
hn+1 (n+1)
∃θ ∈ ]0;1[ f(h) = h + f (hθ)
k =0
k! (n + 1)!

Inégalité de Taylor-Lagrange:
o 
Soit n ∈N, a ∈I, f ∈Cn (I,R) et f ∈Dn+1 I,R .
 
n+1
x−a
Si il existe un réel Mx tel que ∀t ∈ (a; x ) ] [ f(
n+1)
( t ) ≤ Mx , alors ∀x ∈I f( x ) − Tn ( x ) ≤ M
(n + 1)! x
16A - Développements limités polynomiaux au voisinage de 0

Notion de développement limité d'ordre n au voisinage de 0 (DLn au ϑ (0)):


Soit I un intervalle de R tel que 0 ∈I, n ∈N, f ∈RI .
On dit que f a un DLn au ϑ(0) si et seulement si il existe une application polynôme Pn :I → R de
degré au plus égal à n (partie régulière) et une application ε:I → R telle que:
∀x ∈I f( x ) = Pn ( x ) + xnε ( x )

 lim ε ( x ) = 0
 x→0
 x∈I

Notation de Landau:
On peut noter le DLn au ϑ(0) de f ∀x ∈I ( )
f( x ) = Pn ( x ) + o xn .

Unicité du DLn au ϑ (0):


Soit I un intervalle de R tel que 0 ∈I, n ∈N, f ∈RI .
f( x ) = Pn ( x ) + o xn

Si (Pn ,Qn ) ∈Rn [ X ] vérifie au ϑ(0) 
2 ( )
, alors Pn = Qn
g( x ) = Qn ( x ) + o x
n
( )
Troncature:
Soit I un intervalle de R tel que 0 ∈I, n ∈N, f ∈RI .
Si f a un DLn au ϑ(0), alors pour tout n≤p, alors f a un DLn au ϑ(0) et sa partie réguilière est
obtenue par troncature.
 n
∀x ∈I f( x ) =
 ∑ a k x k + xnε ( x )
 k =0
 lim ε ( x ) = 0
 x→0
 x∈I
 p  n 
∀x ∈I f( x ) =



k =0
ak xk + xp 
 ∑ a k x k −p + xn−p ε ( x )
 k =p +1



 n
 lim ∑ a k x k −p + xn−p ε ( x ) = 0
 x∈I k =p +1
x→0

DLn au ϑ (0) des applications paires ou impaires:


Soit f ∈RI paire (respectivement impaire).
( )
Pour tout n ∈N, si f a un DLn au ϑ(0): f( x ) = Pn ( x ) + o xn , alors Pn est paire (respectivement
impaire).

Existence d'un DL0 au ϑ (0) et continuité en 0:


Soit f ∈RI , I intervalle réel tel que 0 ∈I.
f:I → R est continue en 0 si et seulement si f:I → R a un DL0 au ϑ(0).

Existence d'un DL1 au ϑ (0) et dérivabilité en 0:


Soit f ∈RI , I intervalle réel tel que 0 ∈I.
f:I → R est dérivable en 0 si et seulement si f:I → R a un DL1 au ϑ(0).
Formule de Taylor-Young:
Soit f ∈RI , I intervalle réel tel que 0 ∈I.
Pour tout n ∈N∗ , si f ( ) (0) existe, alors f:I → R a un DLn au ϑ(0) et la partie régulière de ce DLn
n

est le polynôme de Mac Laurin d'ordre n de f.


Donc, au ϑ(0), f( x ) = f(0) + xf ′(0) +L+
xn (n )
n!
( )
f (0) + o xn
16B - Calcul sur les DLn au ϑ(0)

Sot I intervalle réel tel que 0 ∈I.


Soit n ∈N.
On note Dln (I,R) l'ensemble des applications f:I → R ayant un DLn au ϑ(0).
qn :Dln (I,R) → Dln (I,R)
On note l'application qui à une application associe la partie rédulière de
f a Pn
son DLn au ϑ(0).

Combinaison linéaire:
∀( f,g) ∈Dln (I,R) ∀( λ,µ ) ∈R 2
2

( λf + µg) ∈Dln (I,R)


qn ( λf + µg) = λqn ( f ) + µqn ( g)
Dln (I,R) est un R-ev et qn ∈L(Dln (I,R)) . Mieux, qn est un projecteur de Dln (I,R) .
D'autre part, pour p≤n, f ∈Dln (I,R) ⇒ f ∈Dlp (I,R) et qp = qp ( qn ( f )) , donc qp = qp o qn .

Produit:
∀( f,g) ∈Dln (I,R)
2

fg ∈Dln (I,R)
qn ( fg) = qn ( qn ( f )qn ( g))
En outre Dln (I,R) est une R-algèbre commutative non intègre.

Quotient:
Soit ( f,g) ∈Dln (I,R) tel que g(0)≠0.
2

Il existe un intervalle J tel que {0} ⊆ J ⊂ I.


f  f
Alors : J → R a un DLn au ϑ(0) et qn   est le quotient de la division selon les puissances
g  g
croissantes à l'ordre n de qn ( f ) par qn ( g) .

Composition:
Soient I et j des intervalles de R. tels que 0 ∈I et 0 ∈J.
Soit n ∈N.
f ∈Dln (I,R) 
 
g ∈Dln ( J,R)
  ⇒ g o f ∈Dln (I,R)
f(I) ⊂ J 
f(0) = 0 
 
qn ( g o f ) = qn ( qn ( g) o qn ( f ))

DLn au ϑ (0) d'une primitive:


Soit I un intervalle de R tel que 0 ∈I.
Soit f ∈Dln (I,R) .
On suppose que f a une primitive F sur I.
x

Alors F ∈Dln+1(I,R) et ∀x ∈I qn+1(F )( x ) =


∫ q (f)(t) dt + F(0) .
0
n
DLn au ϑ (0) d'une dérivée:
Soit I un intervalle de R tel que 0 ∈I.
Soit f ∈Dln (I,R) avec n≠0.
On suppose que f est dérivable sur I et que f ′ ∈Dln−1(I,R) .

Alors qn−1( f ′ ) = ( qn ( f )) .
16C - Application des DLn au ϑ(0)

DLn au ϑ (a):
Soit I un intervalle de R tel que a ∈I.
Soit f ∈RI .
Soit n ∈N.
On dit que f a un DLn au ϑ(a) si et seulement si il existe (α 0 ,K,α n ) ∈Rn+1 et ε ∈RI tels que:
 n
∀x ∈I f( x ) =
 ∑ α (x − a) k
k
+ ( x − a ) ε( x)
n

 k =0
 lim ε ( x ) = 0
 x→a
 x∈I

Formule de Taylor-Young:
Soit I un intervalle de R tel que a ∈I.
Soit f ∈RI .
Soit n ∈N \ {0} .
On suppose que f ( ) (a ) existe.
n

Alors f a DLn au ϑ(a) dont la partie régulière est le polynôme de Taylor en a de f.


f ( ) (a )
n

∑ ( )
k
Au ϑ(a), f( x ) = ( x − a )k + o ( x − a )n .
k!
k =0

DLn généralisés (ou asymptotiques) au ϑ (+∞) ou au ϑ (-∞):


Soit A ∈R∗+ .
Soit f ∈R[
A;+ ∞ [
.
Soit n ∈N.
On dit que f a un DLn générailsé au ϑ(+∞) si et seulement si il existe (α 0 ,K,α1) ∈Rn+1 et
 n
ε( x)

ε ∈R[ A;+ ∞ [
∀x ∈[ A; +∞[ f( x ) =

tels que 
∑ αx
k =0
k
k
+
xn
.
 lim ε ( x ) = 0
 x→ + ∞
 x∈[ A;+ ∞[
16D - Comparaison locale de fonctions

Voisinage dans R :
Soit a ∈R et U une partie de R .
U est un voisinage a dans R si et seulement si:
. a ∈U
. si a ∈R , ∃η ∈R∗+ ]a − η;a + η[ ⊂ U, si a = +∞ , ∃α ∈R ]α, +∞[ ⊂ U , si a = −∞ , ∃α ∈R ]−∞;α[ ⊂ U

Point adhérent à une partie:


Soit A une partie de R.
Soit a ∈R .
a ∈A R ⇔ ∀U ∈ϑ R (a ) A ∩ U ≠ ∅

Limite:
Soit A une partie de R.
Soient f ∈R A , a ∈A R et L ∈R .
[
lim f( x ) = L ⇔ ∀V ∈ϑ R (L ) ∃U ∈ϑ R (a )
x→a
f( A ∩ U) ⊂ V ]
x∈A

Théorème:
Soit A une partie de R.
Soient f ∈R A , a ∈A R et L ∈R .
∀(U1,U2 ) ∈ϑ R (a ) lim f( x ) = L ⇔ lim f( x ) = L .
x→a x→a
x∈A∩U1 x∈A∩U 2

Fonctions négligeables devant une autre fonction au voisinage de a:


Soit A une partie de R.
Soit a ∈A R .
Soit ( f,g) ∈R A .
f est négligeable devant g au voisinage de a si et seulement si il existe U ∈ϑ R (a ) et ε ∈R A∩U
∀x ∈A ∩ U f( x ) = g( x )ε ( x )

tels que  lim ε ( x ) = 0 .
 x∈A∩U
x→a

Cas particulier:
Soit A une partie de R.
Soit a ∈A R .
Soit ( f,g) ∈R A .
f( x )
Si il existe U0 ∈ϑ R (a ) , alors f = o( g) au ϑ R (a ) ⇔ lim =0
x→a g( x )
x∈A∩U 0

Propriétés:
Soit A une partie de R.
Soit a ∈A R .
. Transitivité:
f = o( g) au ϑ (a )
( )
∀( f,g,h) ∈ R A
3
 ⇒ f = o(h) au ϑ (a )
g = o(h) au ϑ (a )
. Linéarité:
f1 = o( g) au ϑ (a )
∀( f1,f2 ,g) ∈ R A ( ) ∀( λ,µ ) ∈R 2 ⇒ λf1 + µf2 = o( g) au ϑ (a )
3

f2 = o( g) au ϑ (a )
. Compatibilité avec la multiplication:
f1 = o( g1) au ϑ (a )
∀( f1,g1,f2 ,g2 ) ∈ R A ( ) ⇒ f1f2 ⇒ o( g1g2 ) au ϑ (a )
4

f2 = o( g2 ) au ϑ (a )
. Produit d'une application négligeable par une fonction bornée:
f1 = o( g) au ϑ (a )
∀( f1,f2 ,g) ∈ R A( ) ⇒ f1f2 = o( g) au ϑ (a )
3

f2 bornée au ϑ (a )

Equivalence de fonctions au voisinage d'un point:


Soit A une partie de R.
Soit a ∈A R .
Soit ( f,g) ∈ R A ( ).
2

f ∼ g ⇔ f − g = o( g) au ϑ (a )
ϑ(a )

∀x ∈A ∩ U f( x ) = g( x )ϕ ( x )

f ∼ g ⇔ ∃U ∈ϑ R (a ) ∃ϕ ∈R A∩U
 lim ϕ ( x ) = 1
ϑ(a )
 x∈A∩U
x→a

Cas particulier:
Soit A une partie de R.
Soit a ∈A R .
Soit ( f,g) ∈ R A ( ).
2

f( x )
S'il existe U0 ∈ϑ R (a ) tel que 0 ∉g( A ∩ U0 ) , alors f ∼ g ⇔ lim = 1.
ϑ(a ) x→a g( x )
x∈A∩U 0

Exemples fondamentaux d'équivalences de fonction:


. Soit P un polynôme réel de degré n et de valuation p distinct du polynôme nul.
n
On pose P = ∑α X .
k =p
k
k

Alors, P ∼ x a α p x p et P ∼ x a α n xn .
ϑ(0) ϑ(+∞)
. Soit I un intervalle de R.
Soit a ∈I.
Soit f ∈RI .
Si f est continue en a et si f(a)≠0, alors f ∼ x a f(a ) .
ϑ(a )
. Soit I un intervalle de R.
Soit a ∈I.
Soit f ∈RI .
Si f est dérivable en a et si f'(a)≠0, alors f ∼ x a ( x − a )f ′(a ) .
ϑ(a )
sin x ∼ x sinh x ∼ x ex − 1 ∼ x
ϑ(0) ϑ(0) ϑ(0)
tan x ∼ x tanh x ∼ x ln(1+ x ) ∼ x
ϑ(0) ϑ(0) ϑ(0)
arcsin x ∼ x argsinh x ∼ x ∗
ϑ(0) ϑ(0) ∀α ∈R (1+ x)α ∼ αx
ϑ(0)
arctan x ∼ x arg tanh x ∼ x
ϑ(0) ϑ(0)

. Soit I un intervalle de R.
Soit a ∈I.
Soit f ∈RI telle que f admette un DLn au ϑ(a) dont la partie régulière n'est pas nulle.
n
Au ϑ(a), f( x ) = ∑ α ( x − a ) + o( ( x − a ) ) .
k =0
k
k n

On pose p = min{k ∈ {0,1,K,n}; α k ≠ 0} .


Alors, f ∼ x a α p ( x − a ) .
p
ϑ(a )

Propriété de l'équivalence de fonctions:


Soit A une partie de R.
Soit a ∈A R .
. ∼ est une relation d'équivalence dans R A .
ϑ(a )

( )
. ∀( f,g) ∈ R A
2
f ∼ g ⇒ fg ≥ 0̃ au ϑ (a )
ϑ(a )

f ∼ g
( )
. ∀( f,g) ∈ R A 2
∀L ∈R 
 ϑ(a )
g=L
⇒ lim f = L
lim
a
a

. Compatibilité avec le produit:


f1 ∼ g1
∀( f1,f2 ,g1,g2 ) ∈ R A 4
( )
 ϑ(a )
 ⇒ f1f2 ∼ g1g2
f2 ϑ∼( a ) g2 ϑ(a )

( )
∀( f,g) ∈ R A
2
f ∼ g ⇒ ∀n ∈N f n ∼ gn
ϑ(a ) ϑ(a )

f ∼ g f ne s' annule pas au ϑ (a )


( )
∀( f,g) ∈ R A 2  ϑ(a )


⇒ 1 1
g ne s' annule pas au ϑ (a )  f ϑ∼( a ) g

. Changement de variable:
Soit A et B des parties de R.
Soit a ∈A R et b ∈B R .

f ϑ∼( a ) g

( )
∀( f,g) ∈ RB ∀u ∈R A  lim u( x ) = b ⇒ f o u ∼ g o u
2

ϑ(a )
 x→a
x∈A

u( A ) ⊂ B

Compléments pratiques:
Soit A une partie de R.
Soit a ∈A R .
( )
. ∀(u, v ) ∈ R A
2
u > 0̃ v > 0̃ ∀α ∈R u ∼ v ⇒ uα ∼ v α
ϑ(a ) ϑ(a )

u ∼ v
( )
. ∀(u, v ) ∈ R A (
u > 0̃ v > 0̃ ∀L ∈ R + ∪ {+∞} \ {1} )  ϑ(a )
2
 ⇒ lno u ∼ lno v
v =L ϑ(a )
lim
a

( )
. ∀(u, v ) ∈ R A
2
expo u ∼ expo v ⇔ lim(u − v ) = 0
ϑ(a ) a

u1 ∼ v
( )
. ∀(u1,u2 , v ) ∈ R A
 ϑ(a )
3
 ⇒ u1 + u2 ∼ v
ϑ(a )
u2 = o( v )
u1 ∼ λ1v u1 + u2 ∼ ( λ1 + λ 2 ) v si λ1 + λ 2 ≠ 0
( )
. ∀(u1,u2 , v ) ∈ R A ∀( λ1,λ 2 ) ∈R 2
 ϑ(a )
3
ϑ(a )
 ⇒
u ∼ λ
 2 ϑ(a ) 2 v u1 + u2 = o(v) si λ1 + λ 2 = 0

17A - Vocabulaire sur les ensembles ordonnés

Soit A une partie de R.

Maximum:
∀x ∈A x≤M
M = max A ⇔ 
M ∈A

Borne supérieure:
On note sup A le plus petit élément de l'ensemble des majorants de A.

Borne supérieure et maximum:


sup A existe max A existe
 ⇒
sup A ∈A max A = sup A
sup A existe
max A existe ⇒ 
sup A = max A

Autre caractérisation d'une borne supérieure:


sup A existe M majore A dans R
∀M ∈R  ⇔
sup A = M ∀ε ∈R∗+ ∃a 0 ∈A M − ε < a 0 ≤ M
17B - R

Définition axiomatique:
. (R, +,•,≤ ) est un corps totalement ordonné.
. Toute partie non vide et majorée de (R,≤) a une borne supérieure dans R.

R est un corps archimédien:


( )
∀(a,b ) ∈ R∗+
2
∃n ∈N a ≤ nb

Partie entière:
∀x ∈R ∃! q ∈Z q ≤ x < q + 1.
q est dit partie entière de x et on note q = E( x ) = [ x ] .
On a les propriétés suivantes:
∀x ∈R E( x ) ≤ x < E( x ) + 1
∀x ∈R x − 1< E( x ) ≤ x
∀x ∈R ∀n ∈N E( x + n) = E( x ) + n

Division euclidienne:
a = bq + r
∀(a,b ) ∈R × R∗+ ∃!( q,r ) 
0 ≤ r < b

Lemme:
∀(a,b ) ∈R 2 b − a > 1∃n ∈Z n ∈ ]a;b[

Q et R\Q p arties denses de R:


. Q est dense dans R.
∀(a,b ) ∈R 2 a < b Q ∩ ]a;b[ ≠ ∅
. R\Q est dense dans R.
∀(a,b ) ∈R 2 a < b (R \ Q ) ∩ ]a;b[ ≠ ∅
18A - Convergence ou divergence d'une suite

K=R ou K=C.
(
On dispose de la K-algèbre K N , +•, ⊥ )
K
des suites à éléments dans K.

Suites bornées:
Soit u ∈K N .
. u est bornée ⇔ ∃M ∈R ∀n ∈N un ≤ M
Si K=C, u est bornée si et seulement si les suites réelles Re(un ) ( )n∈N et (Im(un ))n∈N sont bornés.
. u est bornée si et seulement si il existe une boule contenant chacun des termes de u.

Théorème:
L'ensemble des suites bornées de K N , B(K ) est une sous-algèbre commutative et non intègre
de la K-algèbre K N .

Suite convergente et suite divergente:


Soit u ∈K N .
u suite convergente de K N ⇔ ∃L ∈K ∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 un − L < ε
u suite divergente de K ∀L ∈K
N
∃ε 0 ∈R∗+ ∀n ∈N ∃n1 ≥ n un1 − L ≥ ε 0

Limite d'une suite:


Soit u ∈K N .
Il existe au plus un L ∈K tel que ∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 un − L ≤ ε
Quand u converge, L existe. On dit que L est la limite de u. On note lim un = L .
n→ + ∞

Théorèmes:
. Toute suite convergente est bornée.
. ∀u ∈K N ∀L ∈K lim u = L ⇔ lim un − L = 0
+∞ n→ + ∞

Différents types de suites réelles:


. Les suites convergentes dans R.
. Les suites divergentes de 1ère espèce (de limite ±∞ dans R ).
. Les suites divergentes de 2ème espèce.

Suites complexes:
 lim Re(un ) = Re(L )
n→ + ∞
∀u ∈CN ∀L ∈C lim u = L ⇔ 
+∞ lim Im(un ) = Im(L )
n→ +∞

Suites des modules des termes d'une suite:


∀u ∈K N lim u = 0 ⇔ lim un = 0
+∞ n→ + ∞

∀u ∈K ∀L ∈K
N
lim u = L ⇒ lim un = L
+∞ n→ + ∞

Suites extraites d'une suite (sous-suite):


Soit u ∈K N .
On dit que la suite v ∈K N est une suite extraite de la suite u si et seulement si il existe une
apllication ϕ ∈NN strictement croissante telle que ∀n ∈N v n = uϕ (n ) .
Remarque: ∀n ∈N ϕ (n) ≥ n.

Propriétés des suites extraites:


. Toute suite extraite d'une suite bornée est une suite bornée.
. Toute suite extraite d'une suite convergente de limite L est aussi convergente de limite L.
. Soit u ∈K N .
(u ) converge
 2n n∈N

u converge ⇔ (u2n+1)n∈N converge

lim u2n = lim u2n+1
n→ +∞ n→ + ∞

Opération algébrique sur les uites convergentes:


( )
Pour tout (u, v ) ∈ K N , pour tout λ ∈K , si les suites u et v convergent alors les suites u+v, λu et
2

uv convergent. En outre:
lim(u + v ) = limu + lim v
lim λu = λ limu
limuv = limu ⋅ lim v
L'ensemble des suites de K N qui converge, C(K) est une sous-algèbre de la K-algèbre B(K).

A propos de l'inverse d'une suite:


Soit u ∈K N tel que u converge dans K vers L ∈K ∗ .
 1 1
Alors il existe n1 ∈N tel que ∀n ≥ n1 un ≠ 0 et la suite   converge vers
 un  n≥n L
1

A propos des suites divergentes:

( )
∀(u, v ) ∈ K N
u converge
2
 ⇒ u + v diverge
 v diverge
u converge avec lim u ≠ 0
( )
∀(u, v ) ∈ K N
2
 +∞ ⇒ uv diverge
 v diverge
18B - Comparaison de suites réelles

Prolongement d'inégalité par passage à la limite:


lim u = L
∀u ∈RN ∀L ∈R  + ∞ ⇒L ≥0
∃n1 ∈N ∀n ≥ n1 un ≥ 0
lim u = L u
 + ∞
∀(u, v ) ∈ R ( )
N 2
∀(L u ,L v ) ∈R 2
lim v = L v ⇒ Lu ≤ L v
 +∞
∃n1 ∈N ∀n ≥ n1 un ≤ v n
lim u = L
∀u ∈RN ∀L ∈R ∀M ∈R  + ∞ ⇒L ≤M
∃n1 ∈N ∀n ≥ n1 un ≤ M

Inégalités prouvants la convergence ou la divergence d'une suite.


∃n1 ∈N ∀n ≥ n1 un ≤ v n ≤ w n
( )
∀(u, v, w ) ∈ RN ∀L ∈R 
3
⇒ lim v = L
lim u = lim w = L +∞
+∞ +∞

∃n1 ∈N ∀n ≥ n1 un − L ≤ v n
∀(u, v ) ∈CN × RN ∀L ∈C lim v = 0 ⇒ lim u = L
+∞
 + ∞
∃n1 ∈N ∀n ≥ n1 un ≤ v n
∀(u, v ) ∈ RN ( )
2
lim u = +∞ ⇒ lim v = +∞
 + ∞
+∞

∃n1 ∈N ∀n ≥ n1 un ≤ v n
∀(u, v ) ∈ RN ( )
2
lim v = −∞ ⇒ lim u = −∞
 + ∞ +∞

Relation de comparaison:
∀n ≥ n1 un = v nε n
∀(u, v ) ∈ RN ( )
2
u = o( v ) ⇔ ∃n1 ∈N ∃ε ∈RN lim ε = 0
 + ∞
∀n ≥ n1 un = v nϕ n
∀(u, v ) ∈ RN ( )
2
u ∼ v ⇔ ∃n1 ∈N ∃ϕ ∈RN lim ϕ = 1
ϑ(+∞)  + ∞

Exemples fondamentaux:
∀(α,β ) ∈R∗+ ∀k ∈ ]1; +∞[
2
((lnn) ) << ((n) ) << ((k ) )
α
n∈N∗
β
n∈N
n
n∈N
( )
<< (n!)n∈N << nn
n∈N

∀( )
α1,α 2 ∈R∗+
2
α <α
1 ((lnn) ) = o ((lnn) ) 
2
α1
n∈N∗
α2
n∈N∗

∀(β1,β 2 ) ∈R∗+
2
β <β
1 ((n) ) = o ((n) ) 
2
β1
n∈N
β2
n∈N

∀( )
k 1,k 2 ∈R∗+
2
1< k < k
1 ((k ) ) = o ((k ) ) 
2 1
n
n∈N
2
n
n∈N
18C - Notion de série

Série:
Soit u ∈K N .
A la suite u, on associe la suite s ∈K N , dite suite des sommes partielles associées à u telle que
n
∀n ∈N sn = ∑u .
k =0
k

Si la suite s converge dans K, alors on dit que la série de terme général un converge. La limite de
+∞ n
la suite s est dite somme de la série de terme général un. On note ∑u
k =0
k = lim
n→ + ∞ ∑u .
k =0
k

La série de terme général un est noté ∑u . n

Exemples classiques:
+∞

∑ (k + 1)1(k + 2) = 1
k =0

∑ n1 diverge
+∞

∑ ( k) = ln2
k +1
−1

k =1
+∞
∀z ∈C ∑ k =0
zk
k!
= ez

Conditions nécessaires non suffisantes pour qu'une série converge:


Soit u ∈K N .
Si la série ∑u n converge, alors:
lim un = 0
n→ + ∞

∀p ∈N∗ lim un + un+1 +L+un+p = 0


n→ + ∞
lim un + un+1 +L+u2n = 0
n→ + ∞

Série géométrique:
Soit z ∈C .
+∞
La série géométrique ∑ zn converge si et seulement si z < 1. Si z < 1, alors ∑z
k =0
k
=
1
1− z
.
18D - Suites réelles monotones

Théorèmes fondamentaux des suites réelles monotones:


Soit u ∈RN .
[ ]
u croissante ⇔ ∀(p,q) ∈N2 p ≤ q ⇒ up ≤ uq ⇔ [ ∀n ∈N un ≤ un+1]

[
u décroissante ⇔ ∀(p,q) ∈N 2
]
p ≤ q ⇒ up ≥ uq ⇔ [ ∀n ∈N un ≥ un+1]

Théorèmes sur la convergence d'une suite:


. Toute suite croissante et majorée de réels converge dans R et sa limite est sup u(N)
En outre:
. si u est croissante et majorée, alors ∀n ∈N un ≤ lim u.
+∞
. si u est strictement croissante et majorée, alors ∀n ∈N un < lim u.
+∞
. Toute suite décroissante et minorée de réels converge dans R et sa limite est inf u(N)
En outre:
. si u est décroissante et minorée, alors ∀n ∈N un ≥ lim u.
+∞
. si u est strictement décroissante et minorée, alors ∀n ∈N un > lim u.
+∞
. Toute suite croissante et non majorée de réels diverge vers +∞.
. Toute suite décroissante et non minorée de réels diverge vers −∞.

Suites adjacentes:
( )
Soit (u, v ) ∈ K N . (K=R ou K=Q)
2

Les suites u et v sont adjacentes lorsque:


. u est croissante
. v est décroissante
. lim u − v = 0
+∞

Théorème:
Deux suites réelles adjacentes sont convergentes et ont même limite.

Suites des valeurs décimales approchées d'un réel:


Soit a ∈R .
(
∀n ∈ pn = E 10n a . )
 p 
A la suite (pn )n∈N on associe la suite  nn  des valeurs décimales approchées par défaut de
 10  n∈N
 p + 1
a et la suite  n n  des valeurs décimales approchées par excès de a.
 10  n∈N
pn p +1  p   p + 1
Alors ∀n ∈N ≤ a ≤ n n et les suites  nn  et  n n  convergent vers a.
10 n
10  10  n∈N  10  n∈N

Théorème fondamental:
Pour tout réel a, il existe au moins une suite de rationnels (Et même de rationnels décimaux) qui
converge vers a.

Théorème de monotonie des suites des valeurs décimales par défaut et par excès:
 pn   p + 1
 n est croissante et  n n  est décroissante.
 10  n∈N  10  n∈N
En outre, elles sont adjacentes.
Développement décimal illimité propre d'un réel:
Soit a ∈R .
(
∀n ∈ pn = E 10n a . )
a 0 = E(a )
On associe alors la suite (a n )n∈N définie par  .
∀n ∈N∗ a n = pn − 10pn−1
+∞
Alors, la série ∑ an
10n
converge et ∑ 10a
n=0
n
n
= a.

La suite (a n )n∈N est dite le développement décimal illimité propre de a.


On note a = a 0 ,a1,K,a n ,K.

Propriétés des développements décimaux illimités de réels:


Même notations.
. Il n'existe pas de rang n0 tel que ∀n ≥ n0 a n = 9.
. Tout réel est défini sans ambiguïté par la donnée de son développement décimal illimité.

Théorème de Cantor (dit des "segments emboîtés"):


(
Pour toute suite [a n ;bn ] )n∈N
décroissante d'intervalles fermeés bornées de R ("segments

emboîtés"),I[a ;b ] ≠ ∅.
n∈N
n n

En outre, I [a ;b ] = sup a ; inf b  .



n n 
n∈N
n
n∈N
n
n∈N

Corollaire du théorème de Cantor:


(
Pour toute suite [a n ;bn ] )n∈N
décroissante d'intervalles fermeés bornées de R telle que

lim bn − a n = 0 , alors
n→ + ∞ I[a ;b ] est un singleton.
n∈N
n n
18E - Le théorème de Bolzano-Weierstrass

Théorème de Bolzano-Weierstrass:
De toute suite réelle ou complexe bornée, il est possible d'extraire une sous-suite
convergente.

Valeur d'adhérence d'une suite:


Soit u une suite.
On dit qu'un élément α est une valeur d'adhérence de la suite u s'il existe une suite extraite de
u qui converge vers α.

Proposition:
Toute suite convergente a une unique valeur d'adhérence, sa limite.

Théorème de Bolzano-Weierstrass:
Toute suite réelle ou complexe bornée a au moins une valeur d'adhérence.
18F - Les suites de Cauchy

K=C ou K=R.

Notion de suite de Cauchy:


Soit u ∈K N .
u est une suite de Cauchy si et seulement si ∀ε ∈R∗+ ∃n0 ∈N ∀p ≥ n0 ∀q ≥ n0 up − uq < ε .
Assertions équivalentes:
. ∀ε ∈R∗+ ∃n0 ∈N ∀p ≥ n0 ∀q ≥ p up − uq < ε
. ∀ε ∈R∗+ ∃n0 ∈N ∀p ≥ n0 ∀r ∈N up +r − up < ε

Propriétés:
. Toute suite de Cauchy est bornée.
. Toute suite convergente est une suite de Cauchy.

R et C sont complets:
Toute suite de Cauchy de RN (respectivement CN ) converge dans R (respectivement C).
On traduit cette propriété par R (respectivement C) est complet.

Critère de Cauchy de convergence des séries:


Soit u ∈K N .
La série ∑u n converge dans K si et seulement si:
∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 ∀r ∈N∗ un+r − un+1 < ε
18G - Un théorème du point fixe

Applications Lipschitziennes:
Soit A une partie de R.
Soit f ∈R A .
f est Lipschitzienne si et seulement si ∃k ∈R + ∀( x, x ′ ) ∈A 2 f( x ) − f( x ′ ) ≤ k x − x ′ .

Le R espace vectoriel des applications Lipschitziennes:


L'ensemble des applications Lipschitziennes de A vers R est un sous-espace vectoriel du R-ev
RA .

Continuité des applications Lipschitziennes:


Toute apllication Lipschitzienne est uniformément continue, donc à fortiori continue.

Caractérisation des applications Lipschitziennes sur un intervalle de R parmi les applications


dérivables:
Soit I un intervalle de R.
o
Soit f ∈RI telle que f soit continue sur I et dérivable sur I .
Alors:
o
. f est k-Lipschitzienne ⇔ ∀x ∈I f ′( x ) ≤ k
o
. f est Lipschitzienne si et seulement si f est bornée sur I .

Un théorème du point fixe pour une application d'un intervalle fermée vers lui-même:
Soit I un intervalle fermée de R.
Soit f ∈RI contractante et telle que f(I) ⊂ I.
Alors: . f a un unique point fixe sur I
. Pour tout u0 ∈I, la suite des (un )n∈N définie par récurrence par ∀n ∈N un+1 = f(un )
converge dans R vers l'unique point fixe de f noté L.
kn
En outre: ∀n ∈N un − L ≤ u1 − u0 .
1− k
18H - Quelques études sur les suites réelles définies par une relation de
récurrence un+1=f(un).

Soit D une partie de R non vide.


Soit f ∈RD telle que f(D) ⊂ D.
Soit u ∈RN définie par u0 ∈D et ∀n ∈N un+1 = f(un ) .

Point fixe de f et limite de u:


Si u converge et si sa limite L appartient à D, et si f est continue en L, alors L est un point fixe de
f.

f croissante:
Si f est croissante, alors u est monotone.
Si f est croissante et si α ∈D est un point fixe de f, alors si u0 ≤ α , u est majorée par α et si
u0 ≥ α , u est minorée par α.

f décroissante:
Si f est décroissante un+1 − un est alternativement positif puis négatif (u est dite oscillante) et les
suites (u2n )n∈N et (u2n+1)n∈N sont monotones et varient en sens contraire.
[
Si f est croissante et si α ∈D est un point fixe de f, alors ∀n ∈N α ∈ (un ;un+1) .]
19A - Topologie de R

Voisinage:
∀a ∈R ∀V ∈P (R) V ∈ϑ (a ) ⇔ ∃r ∈R∗+ ]a − r;a + r[ ⊂ V

Propriétés des voisinages:


Soit a ∈R .
. ϑ (a ) est stable par extension.
V1 ⊂ V2
∀( V1,V2 ) ∈P (R) ⇒ V2 ∈ϑ (a )
2

V1 ∈ϑ (a )
. ϑ (a ) est stable par intersection finie.
n
∀( Vi )i∈Nn ∈P (R)
n
[∀i ∈Nn ]
Vi ∈ϑ (a ) ⇒ I V ∈ϑ(a)
i=1
i

. ϑ (a ) est stable pour une réunion quelconque.


n
∀( Vi )i∈Nn ∈P (R)
n
[ ∀i ∈Nn ]
Vi ∈ϑ (a ) ⇒ U V ∈ϑ(a)
i=1
i

Caractérisation des suites convergentes par les voisinages:


Soit u ∈RN et L ∈R.
lim u = L ⇔ ∀V ∈ϑ (L ) ∃n0 ∈N ∀n ≥ n0 un ∈V
+∞

Les ouverts:
Soit U ∈P (R) .
U ∈O (R) ⇔ ∀a ∈U U ∈ϑ (a )
U ∈O (R) ⇔ ∀a ∈U ∃r ∈R∗+ B(a;r ) ⊂ U

Théorème des ouverts:


. R ∈O (R) et ∅ ∈O (R) .
. Toute intersection finie d'ouvert est un ouvert.
. Toute réunion d'ouvert est un ouvert.

Théorème:
Soit U ∈P (R) .
U ∈O (R) si et seulement si U est une réunion d'intervalles du type ]α;β[ (α<β).

Intérieur d'une partie:


Soit A ∈P (R) .

UU
o
On pose A =
U∈O (R )
U⊂ A

Théorème:
Soit A ∈P (R) .
o
A est le plus grand ouvert inclus dans A.

Points intérieurs d'une partie:


Soit A ∈P (R) .
o
Pour tout a ∈A, a est intérieur à A si et seulement si a ∈A .

Caractérisation des points intérieurs:


Soit A ∈P (R) et a ∈R .
o
a ∈A ⇔ ∃U ∈O (R) {a} ⊂ U ⊂ A
o
a ∈A ⇔ ∃r ∈R∗+ B(a,r ) ⊂ A
o
a ∈A ⇔ A ∈ϑ (a )

Propriétés de l'intérieur:
∀( A,B) ∈P (R)
2

o
A⊂A
o
A = A ⇔ A ∈O (R)
o
o o
A=A
o o
A⊂B⇒A⊂B
67o8
o o
A ∩ B = A∩ B
67o8
o o
A ∪ B ⊃ A∪ B

Exemples d'intérieurs de parties usuelles de R:


A R ∅ [a;b] {a} Q R\Q Z

A
o R ∅ ]a;b[ ∅ ∅ ∅ ∅

Les fermés:
∀F ∈P (R) F ∈F(R) ⇔ R \ F ∈O (R)

Théorème des fermés:


. R ∈F(R) et ∅ ∈F(R) .
. Toute réunion finie de fermé est un fermé.
. Toute intersection de fermé est un fermé.

Théorème de caractérisation des fermés par les suites:


Soit A ∈P (R) .
A est un fermé de R si et seulement si pour toute suite convergente d'éléments de A la limite de
la suite appartient à A.

Points adhérents à une partie:


Soit A ∈P (R) et a ∈R .
a ∈A ⇔ ∀ε ∈R∗+ B(a,ε ) ∩ A ≠ ∅
a ∈A ⇔ ∀V ∈ϑ (a ) V∩A ≠ ∅

Exemples:
. Soit A ∈P (R) non vide et majorée. Alors sup A ∈A .
. Soit u ∈RN convergente. Alors lim u ∈u(N) .
+∞
Adhérence d'une partie:
. Soit A ∈P (R) .
67o8
R\ A =R\A
o
R\A =R\A
. Soit A ∈P (R) .
A= IF
F∈F (R )
A⊂F
. Soit A ∈P (R) .
A est le plus petit fermé incluant A.

Propriétés de l'adhérence:
∀( A,B) ∈P (R)
2

A⊂A
A = A ⇔ A ∈F(R)
A=A
A⊂B⇒ A ⊂ B
A ∩B ⊂ A ∩ B
A ∪B = A ∪ B

Exemples usuels d'adhérence:


A R ∅ ]a;b[ {a} Q R\Q Z
A R ∅ [a;b] {a} R R Z

Caractérisation des points adhérents par les suites:


Soit A ∈P (R) et a ∈R .
a ∈A si et seulement s'il existe une suite d'éléments de A qui converge vers a.

Partie dense:
Soit ( A,B) ∈P (R) .
2

A est dense dans B si et seulement si B ⊂ A .

Partie dense dans R:


Soit A ∈P (R) .
A est dense dans R si et seulement si R = A .
A est dense dans R si et seulement si ∀(α,β ) ∈R 2 α < β A ∩ ]α,β[ ≠ ∅.

Partie compacte de R.
Soit K ∈P (R) .
K est compact dans R si et seulement si de toute suite d'éléments de K il est possible d'extraire
une sous-suite qui converge dans K.

Propriétés des compacts:


. Tout compact de R est un fermé de R.
. Tout compact de R est borné.
Caractérisation des parties compactes:
Soit K ∈P (R) .
K est un compact de R si et seulement si K est un fermé de R et K est borné dans R.

Généralisation du théorème de Cantor:


Toute suite (K n )n∈N décroissante de compacts non vides de R a une intersection non vide.
19B - Limite et continuité en un point d'une fonction de R vers R

Limite en un point selon une partie:


Soit A ∈P (R) et a ∈R tel que a ∈A R .
Soit f ∈RR au moins définie sur A.
Soit L ∈R .
lim f( x ) = L ⇔ ∀V ∈ϑ R (L ) ∃U ∈ϑ R (a ) f( A ∩ U) ⊂ V
x→a
x∈A

lim f( x ) = L ⇔ ∀V ∈ϑ R (L ) ∃U ∈ϑ R (a ) ∀x ∈A x ∈U ⇒ f( x ) ∈V
x→a
x∈A

Théorème d'unicité de la limite:


Sous réserve d'existence, la limite d'une fonction de R vers R est unique.

Propriétés des limites:


Mêmes notations.

. Si L = lim f( x ) , alors L ∈f(a ) .


R

x→a
x∈A
L = lim f( x )
 x→a
x∈A


⇒ L = lim f( x )
R
. a ∈A'
A' ⊂ A x→a
x∈A'



. ∀(U1,U2 ) ∈ϑ R (a ) lim f( x ) = L ⇔ lim f( x ) = L
2
x→a x→a
x∈A∩U1 x∈A∩U 2

. Soit ( A1,A 2 ) ∈P (R) .


2

R R
Soit a ∈A1 ∩ A 2 .
Soit L ∈R .
Soit f ∈RR au moins définie sur A1 ∪ A 2 .
 lim f( x ) = L
 x∈A
x→a
 1
 ⇒ lim f( x ) = L
lim f( x ) = L
 x→a x→a
x∈A 1 ∪A 2
 x∈A 2

Théorèmes généraux:
Soit A ∈P (R) et a ∈R tel que a ∈A R .
Soit f ∈RR au moins définie sur A.
Soit L ∈R .
. ∀L ∈R lim f( x ) = L ⇔ lim f( x ) − L = 0
x→a x→a
x∈A x∈A

. ∀L ∈R lim f( x ) = L ⇒ lim f( x ) = L
x→a x→a
x∈A x∈A
. Si lim f( x ) existe et appartient à R, alors f est bornée au voisinage de a.
x→a
x∈A
. Si lim f( x ) est infinie, alors f n'est pas bornée au voisinage de a.
x→a
x∈A
. Si lim f( x ) est non nulle, alors f ne s'annule pas au voisinage de a.
x→a
x∈A
. Si lim f( x ) est strictement positive, alors f est strictement positive au voisinage de a.
x→a
x∈A

. Soit ( A,B) ∈P (R) , ( f,g) ∈R A × RB , (a,b ) ∈A R × B R et L ∈R .


2

 lim f( x ) = b
 x→a
x∈A

 lim g( x ) = L ⇒ lim g o f( x ) = L
 x→b
x∈A
x→a
x∈A

f( A ) ⊂ B

Continuité en un point:
Soit A ∈P (R) , a ∈A et f ∈R A .
f est continue en a si et seulement si f a une limite en a selon A.
f est continue en a si et seulement si f a f(a) pour limite en a selon A.
[
f est continue en a ⇔ ∀ε ∈R∗+ ∃η ∈R∗+ ∀x ∈A x − a < η ⇒ f( x ) − f(a ) < ε ]
  x − a < η 
f est discontinue en a ⇔  ∃ε ∈R∗+ ∀η ∈R∗+ ∃x ∈A  

  f( x ) − f(a ) < ε 

Théorèmes de prolongement d'inégalités par passage à la limite:


(
Soit A ∈P (R) , a ∈A R , ( f,g) ∈R A et L f ,L g ∈R 2 .
2
)
 lim f( x ) = L f
 x→a
.  x∈A ⇒ Lf ≥ 0
∃U ∈ϑ (a ) f( A ∩ U) ⊂ [0; +∞[

 lim f( x ) = L f
 x→a
.  x∈A ⇒ Lf ≤ M
∃M ∈R ∃U ∈ϑ (a ) ∀x ∈A ∩ U f( x ) ≤ M

 lim f( x ) = L f
 x→a
x∈A

.  lim g( x ) = L g ⇒ Lf ≤ Lg
 x→a
x∈A

∃U ∈ϑ (a ) ∀x ∈A ∩ U f( x ) ≤ g( x )

Théorème des gendarmes:


Soit A ∈P (R) , a ∈A R , ( f,g,h) ∈R A et L ∈R.
3

∃U ∈ϑ (a ) ∀x ∈A ∩ U f( x ) ≤ g( x ) ≤ h( x )

.  lim f( x ) = lim h( x ) = L ⇒ lim g( x ) = L
 x→a x→a x→a
 x∈A x∈A x∈A

∃U ∈ϑ (a ) ∀x ∈A ∩ U f( x ) ≤ g( x )

.  lim f( x ) = +∞ ⇒ lim g( x ) = +∞
 x→a x→a
 x∈A x∈A

Définition de la limite par les suites:


. Soit A ∈P (R) , a ∈A R , f ∈R A et L ∈R .
lim f( x ) = L si et seulement si toute suite d'éléments de A qui converge vers a a sa suite image
x→a
x∈A
par f qui converge vers L.
. Soit A ∈P (R) , a ∈A R et f ∈R A .
f a une limite en a selon A si et seulement si toute suite d'éléments de A qui converge vers a a sa
suite image qui converge dans R .

Résultats pratiques:
. Pour prouver que f n'a pas L pour limite en a, il faut et il suffit qu'il existe une suite à éléments
dans A qui converge vers a mais dont la suite image ne converge pas vers L.
. Pour prouver que f n'a pas de limite en a selon A, il faut et il suffit qu'il existe une suite à
éléments dans A qui converge vers a mais dont la suite image ne converge pas dans R .
. f est continue en a si et seulement si toute suite à éléments dans A qui converge vers a a sa
suite image par f qui converge (vers f(a)).
. f est discontinue en a si et seulement s'il existe une suite à éléments dans A qui converge vers
a tel que sa suite image par f ne converge pas (vers f(a)).
19C - Application continue

Définition d'une application continue:


. Soit A ∈P (R) et f ∈R A .
f est une application continue sur A si et seulement si f est continue en tout point de A.

Lemme:
Soit ( A,A' ) ∈P (R) × (P (R) \ {∅}) et f ∈R A .
Si A' ⊂ A et si f est continue sur A, alors f A' est continue sur A'.

Théorèmes généraux:
. Soit A ∈P (R) .
Si ( f,g) ∈C( A,R) et si λ ∈R, alors f+g, λf, f , m(f,g) et M(f,g) sont aussi continues sur A.
2

. Soit ( A,B) ∈P (R) , ( f,g) ∈R A × RB .


2

f ∈C( A,R)

g ∈C(B,R) ⇒ g o f ∈C( A,R)

f( A ) ⊂ B

Notion d'ouvert relatif et de fermé relatif:


. Soit A ∈P (R) .
. Pour toute partie U de A, U est un ouvert relatif de A si et seulement s'il existe un ouvert U' de
R tel que U = A ∩ U'.
. Pour toute partie F de A, F est un fermé relatif de A si et seulement s'il existe un fermé F' de R
tel que F = A ∩ F' .
. Un ouvert relatif de A n'est pas nécessairement un ouvert de R.
. Tout ouvert de R inclus dans A est un ouvert relatif de A.
. Si A est un ouvert de R, U est un ouvert de R si et seulement si U est un ouvert relatif de A.

Caractérisation des applications continues par les images réciproques d'ouverts ou de fermés:
. Soit A ∈P (R) et f ∈R A .
f ∈C( A,R) ⇔ ∀V ∈O (R) f −1( V ) ∈O ( A )
De même avec les fermés.

Image directe d'un compact par une application continue:


Soit K un compact de R.
Soit f ∈C(K,R) .
Alors f(K) est un compact de R.

Théorème pour une application continue sur un compact:


Toute application continue sur un compact non vide est bornée sur ce compact et atteint ses
bornes.

Continuité uniforme:
Soit A ∈P (R) et f ∈R A .
f est uniformément continue sur A si et seulement si:
∀ε ∈R∗+ ∃η ∈R∗+ ∀( x,x' ) ∈A 2 x − x' < η ⇒ f( x ) − f( x' ) < ε

Théorèmes généraux:
La somme, le produit par un scalaire, la composée d'applications uniformément continue est
une application uniformément continue.

Application Lipschitzienne, continuité uniforme et continuité:


. Toute application Lipschitzienne est uniformément continue.
. Toute application uniformément continue est continue.
Théorème de Heine:
Toute application continue sur un compact est uniformément continue.

Image d'un intervalle quelconque par une application continue:


Soit I un intervalle de R.
Soit f ∈C(I,R) .
Alors f(I) est un intervalle de R.

Théorème des valeurs intermédiaires:


Soit I un intervalle de R, f ∈C(I,R) et (α,β ) ∈f(I) .
2

] [
∀λ ∈ (α;β ) ∃c ∈I λ = f( c )

Corollaire de Cauchy:
Soit I un intervalle de R, f ∈C(I,R) .
[∃(a,b) ∈I 2
] [ ] [ f ( c ) = 0]
f(a ) < 0 < f(b ) ⇒ ∃c ∈ (a;b )

Image d'un intervalle compact par une application continue:


L'image par une application continue de tout intervalle compact est un intervalle compact.
19D - Applications monotones

Théorèmes généraux:
Soit A ∈P (R) et ( f,g) ∈R A .
2

. f est croissante si et seulement si -f est décroissante.


. Si f et g sont croissantes, alors f+g est croissante.
. Si f est croissante et si λ ∈R + , alors λf est croissante.
. Si f et g sont croissantes et positives, alors fg est croissante.
1
. Si f est croissante et f strictement positive ou strictement négative, alors est décroissante.
f

Composition d'applications monotones:


La composée de deux applications monotones est monotone.
La composée de deux applications croissantes (ou décroissantes) est croissante.
La composée d'une application croissante et d'une application décroissante est décroissante.

Monotonie et injectivité:
. Toute application strictement monotone est injective.
. Toute application monotone et injective est strictement monotone.

Monotonie et limites:
Pour les applications croissantes
. Soit a ∈R , b ∈ ]b; +∞[ ∪ {+∞} et f ∈R[ [ croissante.
a;b

. Si f est majorée sur [a;b[ , alors f a une limite finie en b selon [a;b[ et lim f( x ) = sup f.
x→b [ a;b[
x∈[ a;b[
. Si f n'est pas majorée sur [a;b[ , alors lim f( x ) = +∞.
x→b
x∈[ a;b[

. Soit a ∈R ∪ {−∞} , b ∈ ]a: +∞[ et f ∈R ] ] croissante.


a;b

. Si f est minorée sur ]a;b ], alors f a une limite finie en selon ]a;b ] et lim f( x ) = inf f.
x→a ]a;b ]
x∈]a;b ]
. Si f n'est pas minorée sur ]a;b ], alors lim f( x ) = −∞.
x→a
x∈]a;b ]
o
. Soit I un intervalle de R, c ∈I et f ∈RI croissante.
Alors f a une limite à gauche et à droite de c et lim f( x ) ≤ f( c ) ≤ lim f( x ) .
x→c x→c
x<c x>c

Image d'un intervalle [a,b] par une application croissante et continue:


Soit (a,b ) ∈R 2 tels que a<b.
Soit f ∈R[ ] croissante et continue.
a;b

[
Alors f([a;b ]) = f(a ); f(b ) .]
Image d'un intervalle [a,b[par une application croissante et continue:
Soit a ∈R , b ∈ ]a; +∞[ ∪ {+∞} et f ∈R[ [ continue et croissante.
a;b

[
. Si f n'est pas majorée sur [a;b[ , alors f([a;b[ ) = f(a ); +∞ . [
   
. Si f est majorée sur [a;b[ , alors  f(a ); sup f  ⊂ f([a;b[ ) ⊂  f(a ); sup f  .
 [ a;b[   [ a;b[ 
 
En outre, si f est strictement croissante, f([a;b[ ) =  f(a ); sup f  .
 [ a;b[ 
Condition nécessaire et suffisante de continuité sur un intervalle pour une application
monotone:
Soit I un intervalle de R, f ∈RI monotone.
f est continue sur I si et seulement si f(I) est un intervalle de R.

Homéomorphisme:
Soient I et J des intervalles de R.
Soit f ∈RI .
f est un homéomorphisme de I sur J si et seulement si:
. f est une bijection de I sur J
. f est continue sur I
. f −1 est continue sur J.

Théorème sur les applications continues et strictements monotones:


Soit I un intervalle de R et f ∈RI une application continue et strictement monotone.
Alors:
. f(I) est un intervalle de R.
. f est un homéomorphisme de I sur f(I).

Théorème:
Soit I un intervalle de R et f ∈RI .
f est un homéomorphisme de I sur f(I) si et seulement si I est un intervalle de R et f est
strictement monotone sur I.
19E - Méthode de Newton d'approximation des zéros de fonction

Soit (a,b ) ∈R 2 avex a<b.


Soit f ∈C 2 ([a,b ],R) tel que:
. f ( a ) f (b ) < 0
. f ′ ne s'annule pas sur [a;b ]
. f ′′ ne s'annule pas sur [a;b ].

Conséquences immédiates:
. ∃L ∈ ]a;b[ f(L ) = 0.
. f est soit concave soit convexe sur [a;b ].
. f est strictement croissante ou strictement décroissante sur [a;b ].
. f a un unique zéro sur [a;b ].

Méthode de Newton en un pas:


Soit x 0 ∈[a;b ] .
Alors:
f( x 0 )
x1 = x 0 −
f ′( x 0 )

(L − x 0 )2 f ′′(c )
]
∃c ∈ ( x 0 ;L ) [ x1 − L =
2 f ′( x 0 )
sup f ′′ 2 sup f ′′
x1 − L ≤
( b − a)
2
[ a;b ]

( b − a ) [ a;b ]
2 f ′( x 0 ) 2 inf f ′
[ a;b ]

Méthode de Newton itérée:


On choisit x 0 ∈[a;b ] selon la règle de Fourier, c'est à dire tel que f( x 0 )f ′′( x 0 ) > 0.
f( xn )
Alors on peut définir la suite x telle que ∀n ∈N xn+1 = xn − .
f ′( xn )
En outre, x converge vers L et cette convergence est quadratique.

Convergence linéaire & convergence quadratique:


Soit u ∈RN convergente de limite L.
 u −L 
S'il existe un réel α tel que la suite  n+1 α  soit de limite finie non nulle, on dit que la
 u −L 
 n  n∈N
convergence de u vers L est d'ordre α.
Si α=1, la convergence de u est dite linéaire et si α=2, elle est dite quadratique.
20A - Convergence simple & convergence uniforme

Convergence simple:
Soit A ∈P (R) , ( fn )n∈N ∈ R A ( )
N
et f ∈R A .
( fn )n∈N converge simplement vers f sur A si et seulement si:
∀x ∈A ∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 fn ( x ) − f( x ) < ε

Convergence uniforme:
Soit A ∈P (R) , ( fn )n∈N ∈ R A ( )
N
et f ∈R A .
( fn )n∈N converge uniformément vers f sur A si et seulement si:
∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 ∀x ∈A fn ( x ) − f( x ) < ε

Lien entre convergence simple et convergence uniforme:


Soit A ∈P (R) et ( fn )n∈N ∈ R A ( )
N
.
Si ( fn )n∈N converge uniformément, alors elle converge simplement et la limite uniforme est la
limite simple.

Nouvelle interprétation de la convergence uniforme:


Soit A ∈P (R) et f ∈R A .
 x ∈A 
∀ε ∈R∗+ Γε = ( x,y ) ∈R 2 ;  
  y − f( x ) < ε 

Soit A ∈P (R) , ( fn )n∈N ∈ R A ( )


N
et f ∈R A .
On note G( f ) le graphe de l'application f.
( fn )n∈N converge uniformément vers f si et seulement si ∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 G( fn ) ⊂ Γε .

Norme infinie:
Soit A ∈P (R) et f ∈R A .
Si f est borné, on pose f ∞
= sup f .
A

Autre interprétation de la convergence uniforme par la norme infinie:


Soit A ∈P (R) , ( fn )n∈N ∈ R A ( )
N
et f ∈R A .
( fn )n∈N converge uniformément vers f si et seulement si n→lim+ ∞ fn − f ∞ = 0.

Continuité de la limite uniforme d'une suite d'applications continues:


Soit A ∈P (R) , ( fn )n∈N ∈ R A ( )
N
et f ∈R A .
On suppose que ( fn )n∈N converge uniformément vers f.
Alors:
. [ ∃n1 ∈N ∀n ≥ n1 fn continue en a] ⇒ f continue en a
[
. ∃n1 ∈N ∀n ≥ n1 ]
fn ∈C( A,R) ⇒ f ∈C( A,R)
Complément:
Soit a et b deux réels tels que a<b.
Soit ( fn )n∈N ∈C([a;b ];R) et f ∈R A .
N

b  b

Alors f ∈C([a;b ],R) et 



a
∫ fn 

 n∈N
converge vers
∫ f.
a

Convergence uniforme et opérations algébriques:

(( f ) (gn )n∈N ) ∈  (R A )
N 2
Soit A ∈P (R) , , ( f,g) ∈R A et λ ∈R.
2
n n∈N , 
Si ( fn )n∈N et ( gn )n∈N converge uniformément respectivement vers f et g, alors:
. ( fn + gn )n∈N converge uniformément vers f+g
. ( λfn )n∈N converge uniformément vers λf
( )n∈N converge uniformément vers
. fn f.
En outre, si à partir d'un certain rang fn et gn sont bornés, alors ( fngn )n∈N converge uniformément
vers fg.
20B - Approximation uniforme de certaines applications

Applications en escalier:
f est une application en escalier sur [a;b] vers R si et seulement si il existe au moins une
subdivision σ de [a;b] tel que sur chaque intervalle ouvert de σ f a une restriction constante.

Applications continues par morceaux:


f est une application par morceaux sur [a;b] si et seulement si il existe au moins une subdivision
(ak )0≤k ≤n de [a;b] tel que:
. f continue sur ]a k ;a k +1[
. f a une limite à droite en tout ak avec k ∈ {0,K,n − 1} et f a une limite à gauche en tout ak
avec k ∈ {1,K,n}

Applications continue et affines par morceaux:


f est continue et affine par morceaux si et seulement si il existe une subdivision (ak )0≤k ≤n de
[a;b] telle que la restriction de f sur chacun des fermés [a k ;a k +1] est une application affine, donc
continue sur [a;b].

Approximation uniforme d'une application continue de [a;b] vers R par des applications en
escalier:
Soit f ∈C([a;b ],R) .
Alors il existe au moins une application en escalier qui converge uniformément vers f.

Approximation uniforme d'une application continue de [a;b] vers R par des applications
continues affines par morceaux:
Soit f ∈C([a;b ],R) .
Alors il existe au moins une application continue affine par morceaux qui converge
uniformément vers f.

Approximation uniforme d'une application continue par morceaux sur [a;b] par des applications
en escalier:
Soit f une application continue par morceaux sur [a;b].
Alors il existe au moins une application en escalier qui converge uniformément vers f.
21A - Intégrale sur un intervalle compact d'une application en escalier

Intégrale sur [a;b] d'une application en escalier de [a;b] vers R:


Soit f une application en escalier de [a;b] vers R.
Soit σ = (a k )0≤k ≤n une subdivision de [a;b] adaptée à f.
n−1
On lui associe le réel I( f,σ ) = ∑ (a
k =0
k +1 − a k )λ k qui est indépendant du choix de σ.

On pose alors
∫ f = I(f,σ).
a

Propriétés:
Soit Ε ([a;b ],R) l'ensemble des applications en escalier de [a;b] vers R.
∀c ∈[a;b ]
f a;c ∈Ε ([a; c ],R)
[ ]
. f ∈Ε ([a;b ],R) ⇒ 
f [ c;b ] ∈Ε ([ c;b ],R)

b c b

∫f=∫f+∫f
a a c
. Ε ([a;b ],R) est un R-ev.
b b b

∀( f,g) ∈Ε ([a;b ],R) ∀( λ,µ ) ∈R


∫ λf + µg = λ ∫ f + µ ∫ f
2 2

a a a
f ∈Ε ([a;b ],R)
b

. 
f ≥ 0̃ sur [a;b ]
⇒ f≥0
a

f ∈Ε ([a;b ],R) ⇒ f ∈Ε ([a;b ],R)
b b
.
∫f ≤∫ f
a a
21B - Intégrales sur un intervalle compact d'une application continue par
morceaux
Intégrale sur [a;b] de f de [a;b] vers R avec f continue par morceaux:
Soit f de [a;b] vers R continue par morceaux.
Soit ( fn )n∈N ∈Ε ([a;b ],R) qui converge uniformément vers f.
N

b b

On pose
∫f=
a
lim
n→ + ∞ ∫f .
a
n

a b c

On pose aussi
∫ f = − ∫ f et ∀c ∈[a;b] ∫ f = 0.
b a c

Propriétés:
. Pour tout (a,b,c ) ∈R3 , si f est une application continue par morceaux sur
b c b

[min{a,b,c};max{a,b,c}], alors ∫ f = ∫ f + ∫ f .
a a c
. L'intégration est une forme linéaire sur le R-ev des applications continues par morceaux sur
[a;b].
. Soit f et g des applications continues par morceaux sur [a;b].
b

f ≥ 0̃ sur [a;b ] ⇒
∫f≥0
a
b b

f ≤ g sur [a;b ] ⇒
∫f≤ ∫g
a a
. Soit f une application continue par morceaux sur [a;b], alors f est continue par morceaux sur
b b

[a;b] et
∫f ≤∫ f
a a

Forrmule de la moyenne:
Soit f ∈C([a;b ],R) et g continue par morceaux de [a;b] vers R et de signe fixe sur [a;b].
b b

alors ∃c ∈[a;b ]
∫ fg = f(c)∫ g .
a a

Notations:
Soient f et g des applications continues par morceaux de [a;b] vers R.
b

f,g =
∫ fg
a
b

f 2
= f,f =
∫f
a
2
Inégalité de Schwarz:
Soient f et g des applications continues par morceaux de [a;b] vers R.
f,g ≤ f 2 g 2
b b b

∫ fg ≤ ∫ f ∫ g
a a
2

a
2

Inégalité de Minkowski:
Soient f et g des applications continues par morceaux de [a;b] vers R.
f+g 2 ≤ f 2 + g 2
b b b

∫ ( f + g) ∫f ∫g
2
≤ 2
+ 2

a a a
21C - Sommes de Riemann

Definition:
Soit f une appilcation continue par morceaux sur [a;b]. Soit σ = (a k )0≤k ≤n une subdivision de
[a;b]. Soit α = (α k )0≤k ≤n−1 une famille finie de points de [a;b] telle que
∀k ∈ {0,K,n − 1} α k ∈[a k ;a k +1].
n−1
On appelle alors somme de Riemann le réel R( f,σ,α ) = ∑ (a
k =0
k +1 − a k )f(α k ) .
Théorème:
b

∀f ∈C([a;b ],R) ∀ε ∈R∗+ ∃η ∈R∗+ ∀σ ∀α δ ( σ ) < η ⇒ R( f,σ,α ) −


∫f <ε
a
21D - Primitives et intégrales
x

Etude de la fonction x a
∫ f:
a
Soit f une application localement intégrable sur I et a ∈I.
Φ:I → R
x

∫f
On dispose alors de l'application .
xa
a
. Si f est positive sur I, alors Φ est croissante sur I.
. Si f est négative sur I, alors Φ est décroissante sur I.
. Si f est bornée sur I, alors Φ est Lipschitzienne sur I.
. Φ est continue sur I.
. Si f est continue en x 0 ∈I, alors Φ est dérivable en x0 et Φ ′( x 0 ) = f( x 0 ) .

Primitive et intégrale sur un intervalle pour une application continue:


Soit I un intervalle réel.
Soit f une application continue sur I et a ∈I.
b

. Si f admet une primitive F sur I, alors ∀(a,b ) ∈I 2


∫ f = F(b ) − F( a ) .
a
.Soit u dérivable sur l'intervalle réel H telle que u(H) ⊂ I.
ψ:H → R
u( x )
est dérivable et ψ ′ = u′ ⋅ f o u.

Alors l'application
xa f
a

Formule d'intégration par parties:


Soient (u, v ) ∈C1(I,R) .
2

b b

∀(a,b ) ∈R
∫ u(t)v′(t) dt = [u(t)v(t)] − ∫ u′(t)v(t)
2 b
a
a a

Formule de changement de variables:


Soit ( f,ϕ ) ∈C(I,R) × C1(H,R) tels que ϕ (H) ⊂ I.
β ϕ (β )

∀(α,β ) ∈H2
∫ f(ϕ(t))ϕ′(t) dt = ∫( f)(x) dx
α ϕ α
21E - Notions sur les intégrales impropres

Intégrales impropres sur [a;b[:


Soit (a,b ) ∈R × (R ∪ {+∞}) .
Soit f localement intégrable sur [a;b[.
Φ: [a;b[ → R
x

∫f
On dispose de .
xa
a
b

Si Φ a une limite finie L en b selon [a;b[, alors on dit que l'intégrale impropre
∫ f converge.
a
b x

On pose
∫f=
a
lim
x→b ∫ f.
x∈[ a;b[ a

Intégrales impropres de références:


+∞

∫t
dt
α
converge si et seulement si α > 1
1
b

∫ (b − t )
dt
a<b α
converge si et seulement si α < 1
a
b

∫ (t − a)
dt
a<b α
converge si et seulement si α < 1
a

Critères de convergence pour des intégrales impropres de fonctions positives:


Soit (a,b ) ∈R × (R ∪ {+∞}) .
Soient f et g des applications de [a;b[ vers R localement intégrable sur [a;b[.
. Critère n°1:
Si au ϑ(b), 0̃ ≤ f ≤ g, alors:
b b

∫ g converge ⇒ ∫ f converge
a a
b b

∫ f diverge ⇒ ∫ g diverge
a a
. Critère n°1:
b b

Si f ~ g et g ≥ 0̃ , alors
ϑ (b ) ∫ f et ∫ g sont de même nature.
a a
22 A - Le K-ev Mn,p(K)

Soit K un sous-corps de C.

Notion de matrice:
Soient I et J des ensembles finis non vides.
M:I × J → K
On appelle matrice à coefficients dans K de type I × J toute application . On notera
(i, j) a aij
[ ](
M = a ij
i,j ) ∈I× J
.

Additions de deux matrices:


[ ] [ ]
a ij i∈Nn + bij i∈Nn = sij i∈Nn
j∈Np j∈Np
[ ] j∈Np

∀(i, j) ∈Nn × Np sij = a ij + bij

Multiplication d'une matrice par un scalaire:


[ ] [ ]
λ a ij i∈Nn = µ ij i∈Nn
j∈Np j∈Np

∀(i, j) ∈Nn × Np µ ij = λa ij

Théorème:
(Mn,p (K ), +, ⊥ ) = (K
K
Nn×Np
)
, +, ⊥ , donc Mn,p(K) est un K-ev.
K

Base canonique du K-ev Mn,p(K):


On définit les matrices suivantes:
∀(i, j) ∈Nn × Np Eij = [ehk ]h∈Nn
k∈Np

∀(h,k ) ∈Nn × Np ehk =


δδ i,h j,k

(E )ij i∈Nn
j∈Np
est une base du K-ev Mn,p(K).

Matrice dans une base des coordonnées d'une famille de vecteurs:


Soit E un K-ev de dimension p non nulle.
(
Soit X = x1,K,x q ∈Eq . )
Soit Ε = (e ) j j∈Np .

On définie alors la matrices des coordonnées dans la base Ε de la famille X.


L L L /e1
L L L M
mat Ε (X) =   .
L L L /ep
x1 L x q
Matrice d'une application linéaire des bases étant données:
( )
Soit E un K-ev de dimension p non nulle de base E = e j .
j∈Np

Soit F un K-ev de dimension n non nulle de base F = ( f ) j j∈Np .

Soit u ∈LK (E,F ) .


On appelle matrice de u dans les bases E et F:
 L L  /f1
 M L M L M  M
 
 L L  /fi
matE,F (u) =  
 M L M L M  M
 L L  /fn
( )
u(e1) L u e j L u(en )
(
matE,F (u) = matF u(E ) )
Isomorphismes des K-ev Mn,p(K) et L K (E,F) des bases étant données:
( )
Soit E un K-ev de dimension p non nulle de base E = e j
j∈Np
.

Soit F un K-ev de dimension n non nulle de base F = ( f ) j j∈Nn .

matE,F :LK (E,F ) → Mn,p (K )


L'application est un isomorphisme du K-ev LK(E,F) sur le K-ev
u a matE,F (u)
Mn,p(K).
22B - Produit de matrices - La K-algèbre Mn(K)

Produits de matrices:
[ ]
Soit A = a ij i∈Nn ∈Mn,p (K ) et B = bij
j∈Np
[ ] h∈Nm
i∈Nn
∈Mm,n (K ) .
n

[ ]
Alors BA = chj h∈Nm
j∈Np
∈Mm,p (K ) avec ∀(h, j) ∈Nm × Np chj = ∑b a .
i=1
hi ij

Interprétation du produit de matrices par les applications linéaires:


( )
Soit E un K-ev de dimension p non nulle de base E = e j .
j∈Np

Soit F un K-ev de dimension n non nulle de base F = ( f ) j j∈Nn .

Soit G un K-ev de dimension m non nulle de base G = ( g ) j j∈Nm .

Soit (u, v ) ∈L(E,F ) × L(F,G) .


Alors matE,G ( v o u) = matF,G ( v )matE,F (u) .

Propriétés du produit matriciel:


∀( A,A' ) ∈Mn,p (K ) ∀(B,B' ) ∈Mm,n (K ) ∀C ∈Ml,m (K ) ∀λ ∈K
2 2

B( A + A' ) = BA + BA'
(B + B')A = BA + BA'
C(BA ) = (CB)A
( λB)A = λ (BA ) = B( λA )
In A = A
AIp = A

La K-algèbre Mn(K):
(Mn (K ), +,•, ⊥ )K est une K-algèbre de dimension n2 .
Si n≥2, elle n'est pas commutative et a des diviseurs de zero.

Isomorphismes des k-algèbre Mn(K) et L K (E):


Soit E un K-ev de dimension n non nulle de base E.
matE :L(E) → Mn (K )
est un isomorphisme de K-algèbre.
u a matE (u)

Le groupe (GLn(K),• ):
(GLn(K),•) est un groupe non commutatif pour n≥2 dont l'élément neutre est In.

Caractérisation des matrices inversibles:


∀A ∈Mn (K )
[ ] [
A ∈GLn (K ) ⇔ ∃B ∈Mn (K ) BA = AB = Im ⇔ ∃B ∈Mn (K ) ] [
AB = Im ⇔ ∃B ∈Mn (K ) BA = Im ]
Nouvelles caractérisations des isomorphismes de K-ev:
Soit E et F des K-ev de même dimension finie n non nulle.
Soit u ∈L(E,F ) .
u est isomorphisme de E sur F si et seulement si pour toutes bases E de E et F de F,
matE,F (u) ∈GLn (K ) .
u est isomorphisme de E sur F si et seulement si il existe des bases E de E et F de F telles que
matE,F (u) ∈GLn (K ) .

(
On a alors matE,F (u) )
−1
( )
= matE,F u−1 .

Isomorphisme des groupes GL(E) et GLn(K):


Soit E un K-ev de dimension n non nulle de base E.
matE :GL(E) → GLn (K )
est un isomorphisme de groupes.
u a matE (u)

Interprétation analytique et matrice d'une application linéaire:


( )
Soit E un K-ev de dimension p non nulle de base E = e j .
j∈Np

Soit F un K-ev de dimension n non nulle de base F = ( f ) j j∈Nn .

Soit u ∈L(E,F ) .
matE,F (u) = A = a ij [ ] i∈Nn
j∈Np
p

∀x ∈E x= ∑x e
j=1
j j

n
∀y ∈F y= ∑y f
i=1
ii

 y1  a11 L a1p 
M  M x 
M  1 
y = u( x ) ⇔   =   M ⇔ Y = AX
M  M M  
     x 
 p
 yn  a n1 L a np 
 y1 
M
Y =   = matF ( y )
M
 
 yn 
 x1 
 
X =  M  = matE ( x )
xp 
 
matF (u( x )) = matE,F (u)matE ( x )

Corollaire:
∀( A,B) ∈Mn (K )
2
[∀X ∈M p,1 (K ) ]
AX = BX ⇔ A = B
Application à l'inversion d'une matrice carré:
[ ](
Soit A = a ij ∈Mn (K ) .
i,j ) ∈Nn
2

A ∈GLn (K ) si et seulement si quelque soit le second menbre y1Kyn de scalaires, le système


linéaire de n équations à n inconnues Σ a une solution ( x1,K,xn ) ∈K n unique.
a11x1 +L+a1n xn = y1
( ∑ ) M
a x +L+a x = y
 n1 1 nn n n
22C - Changement de base

Caractérisation matricielle d'une base:


Soit E un K-ev de dimension p non nulle.
(
Soit X = x1,K,x p ∈Ep . )
X est une base du K-ev E si et seulement si pour toute base E de E, matE (X) ∈GL p (K ) .
X est une base du K-ev E si et seulement si il existe une base E de E telle que
matE (X) ∈GL p (K ) .

Matrice de passage d'une base à une autre:


Soit E un K-ev de dimension p non nulle.
Soit E et E' des bases de E.
= matE (E' ) .
E'
On appelle matrice de passage de E à E' la matrice carré d'ordre p:
P E

Interprétation de la matrice de passage comme matrice de l'application identique:


Soit E un K-ev de dimension p non nulle.
Soit E et E' des bases de E.
= matE',E (IdE ) .
E'
P E

Formule de changement de bases:


Soit E un K-ev de dimension p non nulle.
Soit E, E' et E" des bases de E.
E" E’ E"
P PP
E
=
E E’
−1
  E’ E
P  P
=
E E'

Effet d'un changement de base sur la matrice des coordonnées d'un vecteur:
Soit E un K-ev de dimension p non nulle.
Soit E et E' des bases de E.
Soit x un vecteur de E.
X = matE ( x ) ∈Mp,1(K )
X' = matE' ( x ) ∈Mp,1(K )
Alors:
E’
X=
P X' E
−1
  E’
P 
X' = X
E

Effet d'un changement de base sur la matrice d'une application linéaire:


Soit E un K-ev de dimension p non nulle.
Soit F un K-ev de dimension n non nulle.
Soit E et E' des bases de E.
Soit F et F' des bases de F.
Soit u ∈L(E,F ) .
Soit A = matE,F (u) et A' = matE',F' (u) .
−1
 F'  E'
Alors A' =
 P P F
A
E
.
22D - Transcription des matrices - matrices symétriques ou
antisymétriques
Matrice transposée:
[ ]
Soit A = a ij i∈Nn ∈Mn,p (K ) .
j∈Np

La transposée de la (n,p)-matrice A la (p,n)-matrice t A = α ji [ ] j∈Np


i∈Nn
où ∀(i, j) ∈Nn × Np α ji = a ij .

Propriétés de la transposition des matrices:


∀A ∈Mn,p (K ) ( A) = A
t t

∀( A,B) ∈Mn,p (K ) ∀( λ,µ ) ∈K 2 ( λA + µB) =λ t A +µ t B


2 t

∀( A,B) ∈Mn,p (K ) × Mm,n (K ) (BA )= t A t B


t

 t A ∈GLn (K )

∀A ∈Mn,p (K ) A ∈GLn (K ) ⇒ 
( ) = (A )
t −1 t −1
 A

Matrices symétriques et matrices antisymétriques:


On note Sn(K) l'ensemble des matrices symétriques de Mn(K).
On note An(K) l'ensemble des matrices antisymétriques de Mn(K).
∀M ∈Mn (K ) M ∈Sn (K )⇔ t M = M
∀M ∈Mn (K ) M ∈A n (K )⇔ t M = −M

S n(K) e t A n(K) sont des sous-espaces supplémentaires du K-ev Mn(K).


Sn (K ) ⊕ A n (K ) = Mn (K ) .
En outre:
Eij + E ji n(n + 1)
Sn(K) a pour base S = Sij ( )1≤i≤ j≤n
où Sij =
2
et dimK Sn (K ) =
2
.
Eij − E ji n(n − 1)
An(K) a pour base A = A ij ( )1≤i< j≤n
où A ij =
2
et dimK A n (K ) =
2
.
M+ t M M− t M
La décomposition d'une matrice M selon cette somme directe est: M = + .
2 2
22E - Trace - Matrice semblable

Traced'une matrice carrée:


n

[ ](
∀A = a ij
i,j ) ∈Nn 2
∈Mn (K ) Tr ( A ) = ∑Ai=1
ii

Propriétés:
∀A ∈Mn (K ) ( )
Tr t A = Tr ( A )

∀( A,B) ∈Mn (K ) ∀( λ,µ ) ∈K 2 Tr ( λA + µB) = λTr ( A ) + µTr (B)


2

∀( A,B) ∈Mn,p (K ) × Mp,n (K ) Tr ( AB) = Tr (BA )

∀( A,B,C) ∈Mn (K ) Tr ( ABC) = Tr (CAB) = Tr (BCA )


3

∀( A,P) ∈Mn (K ) × GLn (K ) ( )


Tr P −1AP = Tr ( A )

Trace d'un endomorphisme linéaire:


Soit E un K-ev de dimension n non nulle.
Soit u ∈L(E) .
Le scalaire Tr (matE (u)) ne dépend pas du choix fait de E parmi les bases du K-ev E. Ce scalaire
est dit la trace de u.

Propriétés de la trace d'une application linéaire:


∀(u, v ) ∈L(E) ∀( λ,µ ) ∈K 2 Tr ( λu + µv ) = λTr (u) + µTr ( v )
2

Tr:L(E) → K
Donc l'application est une forme linéaire sur L(E).
u a Tr (u)
∀(u, v ) ∈L(E) Tr (u o v ) = Tr ( v o u)
2

Matrices carrées semblables:


Soit ( A,B) ∈Mn (K ) .
2

A et B sont semblables si et seulement si ∃P ∈GLn (K ) B = P −1AP .


A et B sont semblables si et seulement si pour tout K-ev E de dimension finie n, il existe des
bases E et E' de E, il existe u ∈L(E) tels que A = matE (u) et B = matE’(u) .

Propriétés des matrices semblables:


. Deux matrices semblables ont la même trace.
. Soit ( A,B) ∈Mn (K ) .
2

Si A et B sont semblables, alors:


. t A et tB sont semblables.
. Pour tout naturel k, Ak et Bk sont semblables.
. Pour tout P( X ) ∈K[ X ] , P(A) et P(B) sont semblables.
. Si en outre A ∈GLn (K ) , alors B ∈GLn (K ) et A −1 et B −1 sont semblables.

Théorème:
La similitude des matrices est une relation d'équivalence dans Mn(K).
Matrices diagonales & matrices triangulaires:
[ ](
Soit A = a ij .
i,j ) ∈Nn
2

A matrice diagonale si et seulement si ∀(i, j) ∈Nn2 i ≠ j ⇒ a ij = 0 .


A matrice triangulaire supérieure si et seulement si ∀(i, j) ∈Nn2 i > j ⇒ a ij = 0.
Soit Dn (K ) l'ensemble des matrices diagonales de Mn (K ) .
Soit Tns (K ) (respectivement Tni (K ) ) l'ensemble des matrices triangulaires supérieures
(respectivement inférieures) de Mn (K ) .

Propriétés:
Dn (K ) = Tns (K ) ∩ Tni (K )
.
∀A ∈Mn (K ) A ∈Tns (K )⇒ t A ∈Tni (K )
. Dn (K ) , Tns (K ) et Tni (K ) sont des K-algèbre.
K-algèbre base dimension
Dn (K ) (Eii )1≤i≤n n
Tns (K ) (E )
ij 1≤i< j≤n
n(n + 1)
2
Tni (K ) (E )
ij 1≤ j<i≤n
n(n + 1)
2
. ∀A ∈Tns (K ) ( )
A ∈U Tns (K ) ⇔ [ ∀i ∈Nn a ii ≠ 0K ]
 1 1 
( )
−1
. [ ∀i ∈Nn a ii ≠ 0K ] ⇒ diag(a11,K,a nn ) = diag ,K, 
 a11 a nn 

Matrices diagonalisables:
Soit A ∈Mn (K ) .
A est diagonalisable dans Mn(K) si et seulement si ∃(D,P) ∈Dn (K ) × GLn (K ) A = PDP −1.
(C'est à dire si A est emblable à une matrice diagonale)
Les matrices diagonales ont les même propriétés que les matrices semblables.

Autre interprétation des matrices diagonalisables:


Soit A ∈Mn (K ) .
A est diagonalisable si et seulement si pour tout K-ev E de dimension n, pour toute base E de E
et pour tout u ∈L(E) tel que matE (u) = A, il existe une base de E constituée de vecteurs
propres de u.
A est diagonalisable si et seulement si il existe un K-ev E de dimension n, une base E de E et
u ∈L(E) tel que matE (u) = A, il existe une base de E constituée de vecteurs propres de u.
23A - Diverses interprétations d'une matrice

Rang d'une matriceet rang du système de vecteurs colonnes de cette matrice:


Soit A ∈Mn,p (K ) .
On pose rang A = rang (C A ) où CA est le système de vecteurs colonnes de A.
Alors:
rang A ≤ min{n,p}
rang A = 0 ⇔ A = 0n,p

Généralisation:
Le rang d'une matrice A est le rang de toute famille de vecteurs représentés dans une base par
la matrice A.

Rang d'une matrice et rang d'une application linéaire:


Soit E un K-ev de dimension p non nulle de base E.
Soit F un K-ev de dimension n non nulle de base F.
Soit u ∈L(E,F ) .
Alors rangu = rangmatE,F (u) .
Donc le rang d'une matrice A est le rang de toute application linéaire représenté par A dans des
bases.

Nouvelle caractérisation des matrices inversibles:


∀A ∈Mn (K ) A ∈GLn (K ) ⇔ rang A = n

Matrices équivalentes:
Soit ( A,B) ∈Mn,p (K ) .
2

A et B sont équivalentes si et seulement si ∃(P,Q ) ∈GL p (K ) × GLn (K ) B = Q −1AP .

Propriéétés des matrices équivalentes:


. L'équivalence des (n,p)-matrices est une relation d'équivalence.
. Pour tout ( A,B) ∈Mn (K ) , si A et B sont semblables, alors A et B sont équivalentes.
2

Interprétation des matrices équivalentes par les applications linéaires:


Soit ( A,B) ∈Mn,p (K ) .
2

A et B sont équivalentes si et seulement si pour tout K-ev E de dimension p, pour tout K-ev F
de dimension n, il existe des bases E et E' de E, il existe des bases F et F' de F, il existe
u ∈L(E,F ) tel que A = matE,F (u) et B = matE',F' (u) .

Rang d'une matrice:


{ }
Soit A ∈Mn,p (K ) \ 0n,p et r naturel tel que 1≤ r ≤ min{n,p} .
Alors le rang de A est r si et seulement si A est équivalente à Jn,p,r.
 Ir 0r,p −r 
Avec Jn,p,r =  .
0n−r,r 0n−r,p −r 

Caractérisations des matrices équivalentes:


Soit ( A,B) ∈Mn,p (K ) .
2

A et B sont équivalentes si et seulement si rang A = rangB .


Transposés de matrices équivalentes:
Soit ( A,B) ∈Mn,p (K ) .
2

A et B sont équivalentes si et seulement si t A et tB sont équivalentes.

Rang d'une matrice et rang de sa transposée:


∀A ∈Mn,p (K ) rang A = rang t A

Rang d'une matrice et rang du système de vecteur ligne de cette matrice:


Soit A ∈Mn,p (K ) .
LA est le système de vecteurs lignesde A.
Alors rang A = rang(L A ) .
23B - Recherche du rang d'une matrice par les sous-matrices

Nouvelle interprétation du rang d'une matrice:


{ }
Soit A ∈Mn,p (K ) \ 0n,p .
Alors le rang de A est l'ordre maximum pour une matrice carrée inversible extraite de A.

Notion de matrice principale:


{ }
Soit A ∈Mn,p (K ) \ 0n,p .
On appelle matrice principale de A toute sous-matrice de A carré inversible d'ordre rang A.
En outre, toute matrice non nulle a au moins une matrice principale.

Synthèse sur les matrices principales:


{ }
Soit A ∈Mn,p (K ) \ 0n,p .
Soit P une sous-matrice carrée de A d'ordre ρ.
. Si ρ<r, alors P n'est pas une matrice principale mais peut être inversible.
. Si ρ=r, alors P est principale si et seulement si elle est inversible.
. Si ρ>r, alors P n'est ni principale ni inversible.

Nouvelle caractérisation des familles libres:


Soit F un K-ev de dimension n non nulle.
Soit X une famille de p vecteurs de F et A la matrice des coordonnées de X dans une base F de
F.
X famille libre du K-ev F si et seulement si il est possible d'extraire de A une sous-matrice carrée
d'ordre p qui soit inversible.
23C - Systèmes d'équations linéaires

Exposé du problème:
Soit dans le corps K deux familles de scalaires a ij ( ) i∈Nn
j∈Np
et (bi )i∈Nn .

a11x1 +L+a1p x p = b1

Résoudre sur le corps K le système E de n équations à p inconnues (E) M
a x +L+a x = b
 n1 1 np p n

( )
c'est déterminé l'ensemble S(E) des p-uplets x1,K,x p de Kp vérifiant (E).

Diverses interprétations du système:


. Traduction matricielle:
a11 L a1p   b1 
 M x 
M  1   M 
( )
x1,K,x p ∈S(E) ⇔ 
 M
 M = 
M    M 
  xp   
a n1 L a np    bn 
. Traduction en terme d'application linéire:
Soit u:K p → K n canoniquement associée à A et b = (b1,K,bn ) ∈K n .
(
∀x = x1,K,x p ∈K p ) ( )
x1,K,x p ∈S(E) ⇔ u( x ) = b
. Traduction vectorielle:
( )
Soit ∀j ∈Np C j = a1j ,K,a nj ∈K n et b = (b1,K,bn ) ∈K n .
(
∀ x1,K,x p ∈K ) p
(x ,K,x ) ∈S(E) ⇔ x C +L+x C
1 p 1 1 p p =b

Rang d'un système d'équations linéaires:


On définit (avec les mêmes notations) rang(E) = rang A = rangu = rang C j ( ) j∈Np
.

Système de Cramer:
Le système (E) est dit de Cramer si et seulement si n=p=rang(E).

Résolution du système de Cramer:


Tout système de Cramer d'ordre n sur le corps K a une solution unique dans Kn.

Notions générales sur les systèmes d'équations linéaires:


Soit (E) un système de n équations à p inconnues sur le corps K de rang r. Soit (H) le système
homogène associé à (E).
. Un système est dit compatible s'il a au moins une solution.
. Structure des solutions du système homogène:
Soit u:K p → K n canoniquement associé à la matrice du système.
Alors S(H) = Ker u, donc dimS(H) = p − r . Donc S(H) est un sous-espace vectoriel du K-ev Kp de
dimension p-r. Donc l'expression des solutions de (H) se fait à l'aide de p-r paramètres.
. Dans le cas particulier où n=p:
. si r=n=p, le système (H) est alors homogène de Cramer. Donc l'unique solution est
triviale.
. si r<n=p, le système (H), alors il n'y a pas unicité des solutions.

Théorème:
Un système homogène de n équations à n inconnues a une solution autre que la solution
triviale si et seulement si la matrice du système est non inversible.
23D - Manipulations élémentaires sur les matrices

Soit A ∈Mn,p (K )

Multiplication de la j-ème colonne de A par le scalaire non nul λ :


 1 0 L L L L L 0
0 O O M 

M O 1 O M
 
 M O λ O M
Soit D j ( λ ) =  M O 1 O M  = Ip + ( λ − 1)E jj .
 
M O O O M
M O O 0
 
0 L L L L L 0 1
j
 1
D j ( λ ) est dit matrice de dilatation et D j ( λ ) = D j   .
−1
 λ
 
AD j ( λ ) =  

C1 L C j−1 λC j C J+1 L L Cp

Ajout à la j-ème colonne de A le produit par un scalaire µ quelconque de la k-ème colonne:


1 0 L L L L L 0
0 O O M 

M O O O M
 
M O O O M
Soit Tkj ( µ ) =  M O O O M = Ip + µEkj .
 
M 0 L 0 O O O M
M M µ M O O 0 k
 
0 0 L 0 L L 0 1
j
Tkj ( µ ) est dit matrice de transvection et Tkj ( µ ) = Tkj ( −µ ) .
−1

 
ATkj ( µ ) =  

C1 L C j−1 C j + µCk C j+1 L L Cp
Echange de la j-ème et de la k-ème colonne:
Soit Pkj définie par:
1 0 L L L L L L L L L L 0
0 O O M 

M O 1 O M
 
M O 0 L L 0 1 M k
M M 1 O 0 M
 
M M O O O M M
M 0 O 1 M M
Pkj =   = Ip − E jj − Ekk + E jk + Ekj
M 1 0 L L 0 O M j
M O 1 O M 

M O O O M
 
M O O O M
M O O 0
 
0 L L L L L L L L L L 0 1
k j
−1
Pkj = Pkj .
 
APkj =  

C1 L Ck −1 C j Ck +1 L C j−1 Ck C j+1 L Cp

Manipulation sur les lignes:


On retrouve les mêmes manipulations que sur les colonnes.
24A - Le goupe (S(E),o)

Le groupe symétrique (S(E),o):


Soit E un ensemble quelconque.
L'ensemble des permutations de E (bijection de E sur E ou substitution de E), S(E), est un
groupe pour la loi o. Il est dit le groupe symétrique de E.

Théorème:
Si les ensembles E et F sont équipotents, alors les groupes symétriques S(E) et S(F) sont
isomorphes.
(Donc, pour tout naturel n fixé, pour tout ensemble E de cardinal n, S(E) est isomorphe au
groupe (Sn,o) où Sn désigne S(Nn).)

(Sn,o) avec n naturel:


CardSn = n!
Pour n≥3, le groupe (Sn,o) n'est pas abélien.

Inversion:
Soit σ ∈Sn .
i < j
Pour tout (i, j) ∈Nn2 , on dit que (i,j) présente une inversion si et seulement si  .
σ (i) > σ ( j)
On note I(σ) le nombre total de couple présentant une inversion pour σ.

Signature:
Soit σ ∈Sn .
On appelle ε(σ) la signature de la permutation σ où ε ( σ ) = ( −1) ( ) .
I σ

Nouvelle expression de la signature:


Soit σ ∈Sn .
σ ( j) − σ (i)
ε(σ ) = ∏
1≤i< j≤n
j−i

Théorème:
ε:Sn → R \ {0}
est un morphisme du groupe (Sn,o) vers (R \ {0},•)
σ a ε(σ )

Le groupe alterné (An,o):


L'ensemble An des permutations paires de Nn est un sous-groupe du groupe symétrique
(Sn,o).
n!
En outre, si n≥2, card A n = .
2

Les transpositions:
On appelle transposition de l'ensemble Nn tout élément de Sn qui échange deux éléments de
Nn et laisse invariant tous les autres.

Signature d'une transposition:


Toute transposition est impaire.

Théorème:
Toute permutation de Nn (pour n≥2) est décomposable en un produit de transposition de Nn.
(Puisque tout σ ∈Sn s'écrit comme le peroduit d'élément de Tn et d'inverse de Tn, donc Tn est
une partie génératrice du groupe (Sn,o).)
24B - Applications multilinéaires

Notion d'application p-linéaire:


Soit p un naturel non nul et E1,K,Ep et F des K-espaces vectoriels.
Une application f:E1 ×L×Ep → F est p-linéaire si et seulement si pour tout i ∈Np , pour tout
Ei → F
( )
a = a1,K,a p ∈E1 ×L×Ep , l'application
(
xi a f a1,K,a i−1,xi ,a i+1,K,a p
(la i-ème application
)
partielle de f en a) est linéaire.

Les application p-linéaire sur E:


Toute application p-linéaire de Ep vers F est dite une application p-linéaire sur E vers F.
L'ensemble des applications p-linéaires sur E vers F est noté L p (E,F ) .
L'ensemble des formes p-linéaires sur E est noté L p (E) .
L p (E) et L p (E,F ) sont des espaces vectoriels.

Définitions:
Soient p≥2 et f ∈L p (E,F ) .
(
. f est symétrique si et seulement si ∀(i, j) ∈Np 2 i < j ∀ x1,K,x p ∈Ep )
( ) (
f K,xi−1,xi ,xi+1,K,x j−1,x j ,x j+1,K = f K,xi−1,x j ,xi+1,K,x j−1,xi ,x j+1,K . )
. f est antisymétrique si et seulement si ∀(i, j) ∈Np i < j ∀ x1,K,x p ∈Ep
2
( )
( ) (
f K,xi−1,xi ,xi+1,K,x j−1,x j ,x j+1,K = −f K,xi−1,x j ,xi+1,K,x j−1,xi ,x j+1,K . )
. f est alternée si et seulement si
( ) (
∀(i, j) ∈Np 2 i < j ∀ x1,K,x p ∈Ep xi = x j ⇒ f K,xi−1,xi ,xi+1,K,x j−1,x j ,x j+1,K = 0 )
Propriétés:
Soit f ∈L p (E,F ) .

(
. f est symétrique si et seulement si ∀σ ∈Sp ∀ x1,K,x p ∈Ep ) ( ) ( )
f x σ (1) ,K,x σ ( p ) = f x1,K,x p .
. f est antisymétrique si et seulement si
( ) ( ) (
∀σ ∈Sp ∀ x1,K,x p ∈Ep f x σ (1) ,K,x σ ( p ) = ε ( σ )f x1,K,x p . )
. f est antisymétrique si et seulement si f est alternée.
24C - Diverses notions de déterminant

La droite A n(E) des formes n-linéaires alternées sur le K-evE de dimension n:


Soit E un K-ev de dimension n(≥2).
Soit E = (e1,K,en ) une base de E.
det E : En → K
n
On définit l'application
( x1,K,xn ) a ∑ ε(σ )∏ a σ ( j) j
n
où ∀j ∈Nn xj = ∑a e .
i=1
ij i

σ∈S n j=1
Alors:
∀f ∈A n (E) f = f(E ) detE
detE (E ) = 1
Donc An(E) est une droite vectorielle engendrée par detE où E est une base quelconque de E.

Déterminant dans une base d'une famille de vecteurs:


Soit E un K-ev de dimension n(≥2).
Soit E une base de E.
Soit X une famille de n vecteurs de E.
On appelle déterminant dans E de X le scalaire detE (X) .
n
Donc avec E = (e1,K,en ) et X = ( x1,K,xn ) et ∀j ∈Nn xj = ∑a e :
i=1
ij i

n n
detE (X) = ∑ ∏
σ∈S n
ε(σ )
j=1
a σ ( j) j = ∑ ∏a
σ∈S n
ε(σ )
i=1
iσ ( i ) .

Formule de changement de base dans E:


Soit E un K-ev de dimension n.
Soientt E et E' des bases de E.
Soit X une famille de n vecteurs de E.
detE' (X) = detE' (E ) detE (X)

Nouvelle caractérisation des bases en dimension finie par les déterminants:


Soit E un K-ev de dimension n.
Soit X une famille de n vecteurs de E.
Il y a équivalence entre les quatres assertions suivantes:
(1) X famille libre de E
(2) X base de E
(3) Il existe une base E de E tel que detE (X) ≠ 0
(4) Pour toute base E de E, detE (X) ≠ 0

Déterminant d'un endomorphisme linéaire:


Soit E un K-ev de dimension n(≥2).
Soit u ∈L(E) .
On appelle déterminant de u le scalaire égal au rapport de l'homothétie vectorielle
Φ u : A n (E) → A n (E) Φ u ( f ):En → K
où .
f a Φu ( f ) X a f u(X) ( )
Autre interprétation du déterminant d'un endomorphisme linéaire:
Soit E un K-ev de dimension n(≥2).
Soit u ∈L(E) .
Pour toute base E de E, det u = detE u(E ) . ( )
Propriétés du déterminant d'un endomorphisme linéaire:
Soit E un K-ev de dimension n(≥2).
detIdE = 1
∀λ ∈K ∀u ∈L(E) det λu = λn det u
∀(u, v ) ∈L(E)
2
det v o u = det v det u = det u o v
∀u ∈L(E) u ∈GL(E) ⇔ det u ≠ 0
1
∀u ∈L(E) u ∈GL(E) ⇒ det u−1 =
det u

Déterminant d'une matrice carrée:


[ ](
Soit A = a ij 2
∈Mn (K ) .
i,j ) ∈Nn
n n
. det A = ∑ ε(σ)∏ a ( ) = ∑ ε(σ)∏ a ( )
σ∈S n j=1
σ j j
σ∈S n i=1
σ i

. le déterminant de A est le déterminant dans une base E de toute famille de vecteurs


représentés dans E par la matrice A. En particulier, det A = detE c (C A ) ?
. le déterminant de A est le déterminant de tout endomorphisme linéaire représenté dans une
base par la matrice A. En particulier, c'est le déterminant de l'endomorphisme canoniquement
associé.

Propriétés des déterminants de matrice:


Soit n≥2.
detIn = 1
∀λ ∈K ∀A ∈Mn (K ) det λA = λn det A
∀( A,B) ∈Mn (K )
2
detBA = detB det A = det AB
∀A ∈Mn (K ) A ∈GLn (K ) ⇔ det A ≠ 0
1
∀A ∈Mn (K ) A ∈GLn (K ) ⇒ det A −1 =
det A
∀A ∈Mn (K ) det t A = det A
∀( A,B) ∈Mn (K )
2
[∃P ∈GL (K ) n ]
B = P −1AP ⇒ detB = det A
24D - Calcul des déterminants

Règles de calcul déduites des manipulations élémentaires sur les rangées d'une matrice:
Soit A une matrice carrée.
. Si on multiplie l'une des colonnes ou des lignes de A par un scalaire non nul λ, alors det A est
multiplié par λ.
. Si on ajoute à une colonne (respectivement ligne) de A une combinaison linéaire des autres
colonnes (respectivement lignes), alors on ne change pas le déterminant.
. Si on effectue une permutation σ sur les colonnes ou sur les lignes de A, alors det A est
multiplié par la signature de σ.

Déterminant d'une matrice triangulaire de blocs de matrice:


 A B
Soit M =   ∈Mm+n (K ) avec A ∈Mm (K ) , B ∈Mn (K ) et C ∈Mm,n (K ) .
0n,m C 
Alors detM = det A detB.

Déterminant d'une matrice triangulaire:


[ ](
Soit A = a ij ∈Mn (K ) une matrice triangulaire.
i,j ) ∈Nn
2

n
Alors det A = ∏a .
i=1
ii

Développement d'un déterminant selon une rangée:


[ ](
Soit A = a ij 2
∈Mn (K ) .
i,j ) ∈Nn
Alors en faisant le développement du déterminant de A par rapport à la j-ème colonne de A, on
n
obtient ∀j ∈Nn det A = ∑a A
i=1
ij ij où A ij est le cofacteur de a ij dans la matrice A.

D'autre part, A ij = ( −1) detMij où Mij est la matrice obtenue en rayant la i-ème ligne et la j-ème
i+ j

colonne de la matrice A.

Propriétés:
[ ](
Soit A = a ij
i,j ) ∈Nn 2
∈Mn (K ) .
n
∀( j,k ) ∈Nn2 ∑a A = δ
i=1
ik ij
kj
det A

n
∀(i,h) ∈Nn2 ∑a A = δ
j=1
hj ij
hi
det A

Déterminant de Vandermonde:
1 a1 a12 L L a1n
M M

∏( )
M M
∀(a1,K,a n ) ∈K n Vn (a1,K,a n ) = = a j − ai
M M
1≤i< j≤n
M M
1 a n a n2 L L a nn
24E - Quelques applications des déterminants

Comatrice d'une matrice carrée:


[ ](
Soit A = a ij ∈Mn (K ) .
i,j ) ∈Nn
2

On définit la comatrice de A par com A = βij [ ]( i,j ) ∈Nn 2


avec ∀(i, j) ∈Nn2 βij = A ij où Aij est le
cofacteur de aij dans A.
com A est la matrice des cofacteurs de A.

Matrice complémentaire d'une matrice carrée:


Soit A ∈Mn (K ) .
On définit la matrice complémentaire de A par Ã= t com A = comt A .

Théorèmes:
∀A ∈Mn (K ) AÃ = ( det A )In
1
∀A ∈GLn (K ) A −1 = Ã
det A

Déterminant d'un système:


Soit un système (Σ) de n équations à n inconnues sur K représenté par l'équation matricielle
AX=B.
On appelle déterminant du système (Σ) le déterminant de la matrice du système (Σ).
Donc det Σ = det A .

Propriétés:
Soit un système (Σ) de n équations à n inconnues sur K représenté par l'équation matricielle
AX=B.
. Le système (Σ) est un système de Cramer si et seulement si det Σ ≠ 0 .
. Si le système (Σ) est un système de Cramer d'ordre n, alors sa solution unique ( x1,K,xn ) est

fournie par les formules de Cramer ∀j ∈Nn xj =


(
detE c C1,K,C j−1, (b1,K,bn ),C j+1,K,Cn ).
detE c (C1,K,Cn )
. Un système (H) homogènes de n équations à n inconnues a une solution unique autre que la
solution triviale 0K n si et seulement si detH = 0.

Polynôme caractéristique d'une matrice carrée:


[ ](
Soit A = a ij 2
∈Mn (K ) .
i,j ) ∈Nn

On pose ∀x ∈K PA ( x ) = det( A − xIn ) .

(
Alors PA ( X ) = ( −1) X n − Tr ( A )X n−1 +L+ ( −1) det A .
n n
)
Intérêt du polynôme caractéristique pour la recherche des valeurs propres d'une matrice:
Soit A ∈Mn (K ) .
Pour tout λ ∈K , λ est valeur propre de A si et seulement si λ est racine sur K du polynôme
caractéristique de A.
Remarque:
n n
Si PA est scindé sur K alors Tr A = ∑
i=1
λ i et det A = ∏λ .
i=1
i
25A - Formes bilinéaires

Qualités éventuelles d'une forme bilinéaire:


Soit E un R-ev distinct de l'espace nul.
Soit f ∈L 2 (E) .
. f est symétrique si et seulement si ∀( x,y ) ∈E2 f( x,y ) = f( y,x ) .
. f est positive si et seulement si ∀x ∈E f( x,x ) ≥ 0.
. f est définie positive si et seulement si ∀x ∈E \ {0E } f( x,x ) > 0.

Cône isotrope d'une forme bilinéaire:


Soit E un R-ev distinct de l'espace nul.
Soit f ∈L 2 (E) .
On appelle cône isotrope de f la partie {x ∈E; f( x,x ) = 0} .

Forme bilinéaire symétrique non dégénérée:


Soit E un R-ev distinct de l'espace nul.
Soit f ∈L 2 (E) symétrique.
f est non dégénérée si et seulement si {x ∈E; ∀y ∈E f( x,y ) = 0} = {0E } .
Donc, si f est définie positive alors f est non dégénérée.

Matrice d'une forme bilinéaire dans une base:


Soit E un R-ev de dimension non nulle n.
Soit E = (ei )1≤i≤n une base de E.
Soit f ∈L 2 (E) .
[ ](
On appelle matrice de f dans E, la matrice A = a ij
i,j ) ∈Nn 2
∈Mn (K ) où ∀(i, j) ∈Nn2 ( )
a ij = f ei ,e j .
Il y a équivalence entre les assertions suivantes.
(1) f est symétrique.
(2) Dans toute base de E, la matrice de f est symétrique.
(3) Il existe une base de E dans laquelle la matrice de f est symétrique.

Changement de base:
Soit E un R-ev de dimension non nulle n de base E et E'.
Soit f ∈L 2 (E) .
t E' E'
matE' f=
P mat fP
E E E
25B - Produit scalaire

Notion de produit scalaire:


Soit E un espace vectoriel de dimension finie non nulle.
On appelle produit scalaire sur E toute forme bilinéaire f symétrique définie-positive sur E.
Le couple (E,f) est dit un espace vectoriel euclidien.

Propriétés:
Soit (E,f) un espace vectoriel euclidien.
∀( x,y ) ∈E2 x,0E = 0 = 0E ,y
∀x ∈E x,x ≥ 0
∀x ∈E x,x = 0 ⇔ x = 0E
[
∀x ∈E ∀y ∈E x,y = 0 ⇔ x = 0E ]
La dernière propriété montre que f est une forme bilinéaire non dégénérée.

Inégalité de Cauchy-Schwarz:
Soit (E,f) un espace vectoriel euclidien.
∀( x,y ) ∈E2 x,y ≤ x,x y,y
Il y a égalité si et seulement si (x,y) est liée.

Sous-espace vectoriel euclidien:


Soit (E,f) un espace vectoriel euclidien.
Soit F un sous-espace du R-ev E.
alors fF = f F×F est un produit scalaire sur le R-ev F et (F, fF ) est un espace vectoriel euclidien.

Norme euclidienne:
Soit (E,f) un espace vectoriel euclidien.
:E → R
On appelle norme euclidienne sur l'espace vectoriel euclidien (E,f) l'application .
xa x,x

Formules de polarité:
Soit (E,f) un espace vectoriel euclidien.
∀(α,β ) ∈R 2 ∀( x,y ) ∈E2 αx + βy = α 2 x
2 2 2
+ 2αβ x,y + β 2 y
∀( x,y ) ∈E2
2 2 2
x+y = x + 2 x,y + y
∀( x,y ) ∈E2
2 2 2
x−y = x − 2 x,y + y
2 2 2
x+y − x − y
∀( x,y ) ∈E2 x,y =
2
2 2
x+y − x−y
∀( x,y ) ∈E 2
x,y =
4
∀( x,y ) ∈E2 x+y
2
+ x−y
2
(
=2 x
2
+ y
2
)
Inégalité de Cauchy-Schwarz:
Soit (E,f) un espace vectoriel euclidien.
∀( x,y ) ∈E2 x,y ≤ x y
Il y a égalité si x et y sont colinéaires.
Inégalité de Minkowski:
Soit (E,f) un espace vectoriel euclidien.
∀( x,y ) ∈E2 x + y ≤ x + y
Il y a égalité si x et y sont liées et de même sens.
Corollaire:
∀( x,y ) ∈E2
x − y ≤ x−y
x − y ≤ x+y

La norme euclidienne est une norme:


La norme euclidienne de (E,F) vérifie les axiomes de définition de définition d'une norme, c'est
à dire:
(i) ∀x ∈E x = 0 ⇒ x = 0E
(ii) ∀x ∈E ∀λ ∈R λx = λ x
(iii) ∀( x,y ) ∈E2 x+y ≤ x + y

Structure canonique d'espace vectoriel euclidien sur le R-ev Rn:


Soit n un naturel non nul.
f: Rn × Rn → R
On définit .
( )
( x1,K,xn ), ( y1,K,yn ) a x1y1+L+xnyn
Alors f est un produit scalaire sur le R-ev Rn.
25C - Orthogonalité

Vecteurs orthogonaux:
Soit (E,f) un espace vectoriel euclidien.
∀( x,y ) ∈E2 x⊥y ⇔ f( x,y ) = 0

Propriétés:
Soit (E,f) un espace vectoriel euclidien.
∀( x,y ) ∈E2 x⊥y ⇔ y⊥x
∀x ∈E x⊥0E
∀x ∈E x⊥x ⇔ x = 0E
∀x ∈E [∀y ∈E x⊥y ] ⇔ x = 0E
∀( x,y ) ∈E2
2 2 2
x⊥y ⇔ x + y = x + y

Condition suffisante pour qu'une famille de vecteurs soit libre:


Soit (E,f) un espace vectoriel euclidien.
Soit X = ( X1,K,X m ) ∈Em .
∀i ∈Nm X i ≠ 0E
 ⇒ X est libre.
∀(i, j) ∈Nm i ≠ j ⇒ X i ⊥X j
2

Bases orthogonales & bases orthonormales:


Soit (E,f) un espace vectoriel euclidien de dimension n (n≥2)
Soit B = (b1,K,bn ) ∈En .
B base de E
B base orthogonale de (E,f) si et seulement si  .
∀(i, j) ∈Nn i ≠ j ⇒ bi ⊥b j
2

B base orthogonale de E


B base orthonormale de (E,f) si et seulement si  .
∀i ∈Nn bi = 1

Caractérisation des bases orthogonales et des bases orthonormales:


Soit (E,f) un espace vectoriel euclidien de dimension n (n≥2)
Soit B = (b1,K,bn ) ∈En .
∀i ∈Nn bi ≠ 0E
B base orthogonale de (E,f) si et seulement si  .
∀(i, j) ∈Nn i ≠ j ⇒ bi ⊥b j
2

B base orthonormale de (E,f) si et seulement si ∀(i, j) ∈Nn2 bi ,b j =


δ.
ij

Passage d'une base orthogonale à une base orthonormale:


Soit (E,f) un espace vectoriel euclidien de dimension n (n≥2)
Soit (e1,K,en ) une base orthogonale de E.
 e e 
Alors  1 ,K, n  est une base orthonormale de E.
 e1 en 
Passage d'une base à une base orthogonale par le procédé de Gram-Schmidt:
Soit (E,f) un espace vectoriel euclidien de dimension n (n≥2)
Soit (e1,K,en ) une base de E.
Il existe des scalaires a ij ( ) 1≤i< j≤n
tels que la famille ( f1,K,fn ) de vecteurs de E définie par
f1 = e1
f2 = a12 f1 + e 2
soit une base orthogonale de l'espace euclidien (E,f).
M
fn = a1n f1 +L+a n−1n fn−1 + en
 1 −a12 L L −a1n 
0 O O M 
fi ,ej ( e1 ,K,e n )  
En outre ∀(i, j) ∈Nn2 i < j a ij = − = M M .
fi ,fi
et
P
( f1 ,K,fn ) 
M
O O O

O O −a n−1n 

0 L L 0 1 

Expressions analytiques dans une base orthonormale:


Soit (E,f) un espace vectoriel euclidien de dimension n (n≥2) de base orthonormale
B = (b1,K,bn ) ∈En .
n
∀x ∈E x= ∑ x,b b
i=1
i i

n
∀( x,y ) ∈E2 x,y = ∑x y
i=1
i i

n
∀x ∈E x = ∑xi=1
2
i

n
∀x ∈E x
2
= ∑ x,b
i=1
i
2

La dernière relation est dite relation de Parseval.

Produit scalaire adapté à une base:


Soit E un R-espace vectoriel de dimension n (n≥2).
Alors, pour toute base E de E, il existe un unique produit scalaire sur le R-ev E faisant de E une
base orthonormale de (E,f).

Orthogonal d'un sous-espace vectoriel:


Soit (E,f) un espace vectoriel euclidien.
Soit F un sous-espace vectoriel du R-ev E.
Alors F ⊥ = {y ∈E; ∀x ∈F x⊥y} .
Propriétés de l'orthogonal d'un sous-espace vectoriel:
Soit (E,f) un espace vectoriel euclidien.
{0E }⊥ = E
.
E ⊥ = {0E }
. Pour tout sous-espace vectoriel F1 et F2 du R-ev E, F1 ⊂ F2 ⇒ F2⊥ ⊂ F1⊥ .
. Soit F un sous-espace vectoriel du R-ev E.
. F ⊥ est un sous-espace vectoriel du R-ev E.
. Si (b1,K,bn ) est une base orthonormale de (E,f) telle que (b1,K,b s ) soit une base du
sous-espace vectoriel F, alors (b s+1,K,bn ) est une base de F ⊥ .
F ⊕ F⊥ = E
. dimF + dimF ⊥ = dimE

(F )
⊥ ⊥
=F

Sous-espaces vectoriels orthogonaux:


Soit (E,f) un espace vectoriel euclidien.
Soient F et G des sous-espaces du R-ev E.
F⊥G ⇔ [ ∀x ∈F ∀y ∈G x⊥y ]

Théorèmes:
Soit (E,f) un espace vectoriel euclidien.
Soit F un sous-espace vectoriel de E.
. Pour tout sous-espace vectoriel G de E, F⊥G ⇔ G ⊂ F ⊥ ⇔ F ⊂ G⊥ .
F⊥G
. Pour tout sous-espace vectoriel G de E,  ⇔ G = F⊥ .
F ⊕ G = E

Sous-espaces vectoriels perpendiculaires:


Soit (E,f) un espace vectoriel euclidien.
Soient F et G des sous-espaces du R-ev E.
F et G sont perpendiculaires ⇔ F ⊥ ⊥G⊥ ⇔ G⊥ ⊂ F ⇔ F ⊥ ⊂ G

Théorème:
Soit (E,f) un espace vectoriel euclidien.
Soient F et G des sous-espaces du R-ev E.
F et G sont orthogonaux et perpendiculaires si et seulement si F ⊥ = G .

Projections et symétries orthogonales:


On appelle projection orthogonale du R-espace vectoriel euclidien (E,f) tout projecteur p du R-
ev E tel que Imp ⊥ Ker p. Cela équivaut à Im p et Ker p supplémentaires orthogonaux.
f
De même, une symétrie de E est dite symétrie orthogonale si et seulement si le projecteur
associé à la symétrie est une projection orthogonale.
Autre point de vue équivalent:
Soit F un sous-espace vectoriel du R-espace vectoriel euclidien (E,f).
On dispose de F ⊥ (supplémentaire orthogonal à F), de pF (projection sur F parallèlement à F ⊥
dite projection orthogonale sur F), de pF ⊥ = IdE − pF (projection orthogonale sur F ⊥ ), de
sF = pF − pF ⊥ (symétrie orthogonale par rapport à F) et de sF ⊥ = −sF (symétrie orthogonale par
rapport à F ⊥ ).
Expression d'un projeté orthogonale:
Soit (E,f) un espace vectoriel euclidien.
Soit F un sous-espace vectoriel du R-espace vectoriel euclidien (E,f) non nul de base
orthonormale (b1,K,b s ) .
Soit pF la projection orthogonale sur F.
s
∀x ∈E pF ( x ) = ∑ x,b b
i=1
i i

Distance d'un vecteur à un sous-espace vectoriel:


Soit (E,f) un espace vectoriel euclidien.
Soit F un sous-espace vectoriel du R-espace vectoriel euclidien (E,f).
∀x ∈E d( x,F ) = inf x − y
y∈F

Propriétés de la distance d'un vecteur à un sous-espace vectoriel:


Soit (E,f) un espace vectoriel euclidien.
Soit F un sous-espace vectoriel du R-espace vectoriel euclidien (E,f) de base orthonormale
(b1,K,b s ) .
Soit x ∈E , xF son projeté orthogonal sur F et xF ⊥ celui sur F ⊥ .
Alors d( x,F ) = min x − y = x − xF = xF ⊥ .
y∈F
s
Donc ∀y ∈F x − y = d( x,F ) ⇔ y = xF et d( x,F ) = x
2
− ∑ x,b
i=1
i
2
.
25D - Formes linéaires & Hyperplans dans les espaces vectoriels
euclidiens
L'isomorphisme canonique d'un espace vectoriel euclidien sur son dual:
Soit (E,f) un espace vectoriel euclidien.
d:E → E∗
x a fx :E → R est un isomorphisme linéaire d'espace vectoriel. Il est dit l'isomorphisme
y a f( x,y )
canonique de E sur E∗ .
Corollaire:
∀ϕ ∈E∗ ∃!a ∈E ∀x ∈E ϕ ( x ) = a,x
a est dit le vecteur normal de la forme linéaire ϕ.

Hyperplan:
Soit (E,f) un espace vectoriel euclidien.
Soit H un hyperplan de E.
Soit ϕ une forme linéaire non nulle telle que H = ker ϕ .
Soit a le vecteur normal de ϕ.
Caractérisation des éléments de H: ∀x ∈E x ∈H ⇔ a,x = 0
a est dit un vecteur normal de l'hyperplan.
Vecteurs normaux de H:
Pour tout a' ∈E \ {0E } , a' est un vecteur normal de H si et seulement si ∃λ ∈R \ {0} a' = λa .

Normale à un hyperplan:
Soit (E,f) un espace vectoriel euclidien.
Soit H un hyperplan de E.
La droite H⊥ est dit la normale de l'hyperplan H.
En outre, tout vecteur normal de l'hyperplan H constitue une base de la normale H⊥ .
25E - Automorphismes orthogonaux - Les groupes O(E) & SO(E)

Conservation de la norme et du produit scalaire:


Soit (E,f) un espace vectoriel euclidien.
Soit u ∈EE .
u conserve la norme de E si et seulement si ∀x ∈E u( x ) = x .
u conserve le produit scalaire de E si et seulement si ∀( x,y ) ∈E2 u( x ),u( y ) = x,y .

Théorème:
Soit (E,f) un espace vectoriel euclidien.
Soit u ∈EE .
Il y a équivalence entre les assertions suivantes:
(i) u ∈L(E) et u conserve la norme euclidienne de E
(ii) u ∈L(E) et u conserve le produit scalaire de E
(iii) u conserve le produit scalaire.

Automorphismes o rthogonaux:
Soit (E,f) un espace vectoriel euclidien.
Soit u ∈L(E) .
Si u conserve la norme euclidienne, alors u ∈GL(E) .
On dit alors que u est un automorphisme orthogonal de l'espace vectoriel euclidien (E,f).
On note O(E) l'ensemble des automorphismes orthogonaux de (E,f).

Caractérisation des automorphismes orthogonaux:


Soit (E,f) un espace vectoriel euclidien.
Soit u ∈EE .
u ∈O(E) ⇔ u ∈GL(E) et u conserve la norme euclidienne.
u ∈O(E) ⇔ u ∈L(E) et u conserve la norme euclidienne.
u ∈O(E) ⇔ u ∈L(E) et u conserve le produit scalaire f.
u ∈O(E) ⇔ u conserve le produit scalaire f.

Caractérisations des automorphismes orthogonaux par l'effet sur les bases orthonormales:
Soit (E,f) un espace vectoriel euclidien.
Soit u ∈EE .
u ∈O(E) ⇔ u ∈L(E) et u transforme toute base orthonormale de E en une base orthonormale
de E.
u ∈O(E) ⇔ u ∈L(E) et il existe au moins une base orthonormale de E transformé en une base
orthonormale de E.

Le groupe (O(E),o):
Soit (E,f) un espace vectoriel euclidien.
{
O(E) = u ∈GL(E); ∀x ∈E u( x ) = x }
(O(E),o) est dit le groupe orthogonal de l'espace vectoriel euclidien (E,f).

Le groupe (SO(E),o):
Soit (E,f) un espace vectoriel euclidien.
SO(E) = {u ∈O(E); det u = 1}
(SO(E),o) est dit le groupe spécial orthogonal de l'espace vectoriel euclidien (E,f).
25F - Matrices orthogonales - Les groupes O(n) & SO(n)

Lemme:
[ ]( ) ∈M (R) .
Soit A = a ij
i,j ∈Nn 2 n

Soit (C ) le système des vecteurs colonnes et (L )


j j∈Nn i i∈Nn le système des vecteurs lignes de A.
On munit Rn de sont produit vectoriel canonique.
t
[ ](
AA = χhj
h,j ) ∈Nn 2
n
∀(h, j) ∈Nn2 χhj = ∑a a
i=1
ih ij = Ch ,C j

t
[ ](
A A = γ hj
h,j ) ∈Nn 2
n
∀(h, j) ∈Nn 2
γ hj = ∑a a
i=1
hi ji = Lh ,L i

Définitions équivalentes des matrices orthogonales:


Soit A ∈Mn (R) .
A ∈GLn (R)
A ∈O(n) ⇔ 
A −1= t A
A ∈O(n)⇔ t AA = In
A ∈O(n) ⇔A t A = In
A ∈O(n) ⇔ C j ( ) j∈Nn
base orthonormale de Rn.
A ∈O(n) ⇔ (L i )i∈Nn base orthonormale de Rn.

Corollaire:
∀A ∈Mn (R) A ∈O(n)⇔ t A ∈O(n)
∀A ∈O(n) det A ∈ {−1,1}

Nouvelles caractérisations des automorphismes orthogonaux:


Soit (E,f) un espace vectoriel euclidien.
Soit u ∈EE .
u ∈O(E) ⇔ u ∈L(E) et dans toute base orthonormale de E, u est représenté par une matrice
orthogonale.
u ∈O(E) ⇔ u ∈L(E) et il existe une base orthonormale de E dans laquelle u est représenté par
une matrice orthogonale.

Corollaire:
∀u ∈O(E) det u ∈ {−1,1}

Changements de bases orthonormales:


Soit (E,f) un espace vectoriel euclidien.
Soit B une base orthonormale de E.
Pour toute famille E de vecteurs de E telle que cardE = dimE, E est une base orthonormale de
E si et seulement si matB (E ) ∈O( dimE) .
Corollaire:
Soit (E,f) un espace vectoriel euclidien.
∈O(n) .
B'
Pour toutes bases orthonormales B et B' de E,
P B

Le groupe (O(n),• ):
{
O(n) = A ∈GLn (R); A −1= t A }
(O(n),•) est dit le groupe orthogonal de type n.
En outre, pour tout R-espace vectoriel euclidien de dimension n, O(n) est isomorphe à O(E).

Le groupe (SO(n),• ):
SO(n) = {A ∈O(n); det A = 1}
(SO(n),•) est dit le groupe spécial orthogonal de type n.
En outre, pour tout R-espace vectoriel euclidien de dimension n, SO(n) est isomorphe à SO(E).
26A - Produit mixte - Produit vectoriel

Orientation d'un espace vectoriel réel de dimension finie non nulle:


Soit E un R-espace vectoriel de dimension finie.
On considère la relation binaire R sur l'ensemble des bases de E tel que pour toute base E et E'
du R-ev E, E R E ⇔ detE (E' ) > 0. R est une relation d'équivalence. En outre, il y a exactement
deux classes d'équivalence associées à R.
Alors, orienter le R-ev E, c'est choisir l'une des deux classes d'équivalence modulo R comme
classe des bases directes de E. L'autre classe est alors celle des bases indirectes.

Produit mixte:
Soit E un espace vectoriel euclidien orienté de dimension n (n≥2).
Pour tout X = ( x1,K,xn ) ∈En , le réel detB (X) est indépendant du choix fait de la base
orthonormale directe B. Il est dit le produit mixte de X. On le note detX.

Propriétés du produit mixte:


Soit E un espace vectoriel euclidien orienté de dimension n (n≥2).
. Pour toute base orthonormale directe B de E, det B = 1.
. Le produit mixte det est une forme n linéaire alternée, antisymétrique sur l'espace vectoriel
euclidien.
. Pour tout X ∈En ,
detX = 0 ⇔ X famille liée du R-ev E.
detX > 0 ⇔X base directe du R-ev E.
detX < 0 ⇔X base indirecte du R-ev E.

Produit vectoriel:
Soit E un R-espace vectoriel euclidien orienté de dimension 3.
Soit ( x,y ) ∈E2 .
Il existe un seul vecteur p de E tel que ∀z ∈E det( x,y,z) = p ⋅ z .
Cet unique vecteur p est dit le produit vectoriel de x et y. On le note x ∧ y .

Conséquences:
Soit E un R-espace vectoriel euclidien orienté de dimension 3.
∀( x,y,z) ∈E3 det( x,y,z) = ( x ∧ y ) ⋅ z
∀( x,y,z) ∈E3 ( x ∧ y ) ⋅ z = ( y ∧ z) ⋅ x = ( z ∧ x ) ⋅ y
Propriétés:
Soit E un R-espace vectoriel euclidien orienté de dimension 3.
x ∧ y⊥x
. ∀( x,y ) ∈E2 
x ∧ y⊥y
. ∀( x,y ) ∈E2 x ∧ y = 0E ⇔ (x,y) famille liée du R-ev E
. ∀( x,y ) ∈E 2
x ∧ y ≠ 0E ⇒ (x,y, x ∧ y ) base directe du R-ev E

Application produit vectoriel:


Soit E un R-espace vectoriel euclidien orienté de dimension 3.
∧:E × E → E
est une application bilinéaire alternée et antisymétrique.
( x,y ) a x ∧ y
Composantes d'un produit vectoriel dans une base orthonormale directe:
Soit E un R-espace vectoriel euclidien orienté de dimension 3.
Soit (i,j,k) une base orthonormale directe de E.
Pour tout ( x,y ) ∈E2 avec x = x1i + x 2 j + x 3k et y = y1i + y 2 j + y 3k ,
x2 y2 x1 y 1 x1 y 1
x∧y = i− j+ k.
x3 y3 x3 y3 x2 y2

Conséquences:
Soit E un R-espace vectoriel euclidien orienté de dimension 3.
k = i ∧ j

. Pour toute base orthonormale directe (i,j,k) de E, i = j ∧ k .
j = k ∧ i

 x = y = 1
. Si ( x,y ) ∈E2 est telle que  , alors (x,y, x ∧ y ) est une base orthonormale directe de
x⊥y
E.
. ∀( x,y ) ∈E2 x⊥y ⇒ x ∧ y = x y

Formulaire:
∀( x,y,z, t ) ∈E4
x ∧ ( y ∧ z ) = ( x ⋅ z ) y − ( x ⋅ y )z
( x ∧ y ) ∧ z + ( y ∧ z) ∧ x + (z ∧ x ) ∧ y = 0E
( x ∧ y ) ∧ (z ∧ t ) = det( x,y, t )z − det( x,y,z)t
det( x ∧ y,y ∧ z,z ∧ x ) = det( x,y,z)
2
26B - Applications antisymétriques relatives à un produit scalaire

Définition:
Soit (E,f) un espace vectoriel de dimension n non nulle.
On appelle application antisymétrique de E vers E relative à f toute application u:E → E telle que
∀( x,y ) ∈E2 u( x ),y = − x,u( y ) .

Linéarité des applications antisymétriques:


Soit (E,f) un espace vectoriel de dimension n non nulle.
Si u:E → E est antisymétrique, alors u ∈L(E) .

Caractérisations des applications antisymétriques:


Soit (E,f) un espace vectoriel de dimension n non nulle.
Soit u ∈EE .
u ∈L(E)
u antisymétrique ⇔ 
∀x ∈E u( x ),x = 0
u antisymétrique ⇔ u ∈L(E) et dans toute base orthonormale B de E, matBuest antisymétrique.
u antisymétrique ⇔ u ∈L(E) et il existe une base orthonormale B de E telle que matBuest
antisymétrique.

Structure de l'ensemble A(E) des applications symétriques de E vers E:


Soit (E,f) un espace vectoriel de dimension n non nulle.
. A(E) est un sous-espace vectoriel du R-ev L(E).
n(n − 1)
. dim A (E) =
2
. A(E) est isomorphe au R-ev A n (R) .

Exemple fondamental d'application antisymétrique en dimension 3:


Soit (E,f) un espace vectoriel de dimension 3 orienté.
uw :E → E
Pour tout w ∈E, est antisymétrique.
xaw∧x
SpR (uw ) = {0}
E0 (uw ) = vect( w )
Soit (i,j,k) une base orthonormale directe de E.
Soit w=pi+qj+rk.
 0 −r q 
Alors mat ( i,j,k )uw =  r 0 −p  .
 −q p 0 

Caractérisation des applications antisymétriques dans un espace vectoriel euclidien de


dimension 3:
Soit (E,f) un espace vectoriel de dimension 3 orienté.
Ψ:E → A (E)
w a uw :E → E est un isomorphisme de R-espace vectoriel.
xaw∧x
Alors ∀v ∈A (E) ∃! w ∈E ∀x ∈E u( x ) = w ∧ x .
Ecart angulaire de deux vecteurs non nuls:
Soit (E,f) un espace vectoriel de dimension n non nulle.

( )
x,y
∀( x,y ) ∈ E \ {0E } θ( x,y ) = arccos
2

x y
Conséquences:
θ( x,y ) ∈[0, π ]
x,y = x y cos θ( x,y )
θ( x,y ) = θ( y,x )

Ecart angulaire de deux droites:


Soit (E,f) un espace vectoriel de dimension n non nulle.
Soit D et D' deux droites vectorielles du R-ev E de vecteurs directeurs respectifs x et x'.
x,x'
Alors θ(D,D' ) = arccos .
x x'

Ecart angulaire de deux hyperplans:


Soit (E,f) un espace vectoriel de dimension n non nulle.
Soit H et H' des hyperplans de vecteurs normaux respectifs a et a'.
a,a'
Alors θ(H,H' ) = arccos .
a a'

Ecart angulaire d'une droite et d'un hyperplan:


Soit (E,f) un espace vectoriel de dimension n non nulle.
Soit H un hyperplan de vecteur normal a et D une droite de base x.
x,a
Alors θ(D,H) = arcsin
x a

Identité de Lagrange:
Soit (E,f) un espace vectoriel de dimension 3 orienté.
∀( x,y ) ∈E2 x ∧ y + ( x ⋅ y ) = x + y
2 2 2 2

Corollaire:
x∧y
∀( x,y ) ∈E2 sinθ( x,y ) =
x y

Nouvelle caractérisation du produit vectoriel:


Soit (E,f) un espace vectoriel de dimension 3 orienté.
z⊥x
z⊥y

∀z ∈E z = x ∧ y ⇔ 
( x,y,z) base directe
 z = x y sinθ( x,y )

26 C - Les groupes O(E2) & SO(E2)

Définitions:
Soit (En,f) un espace vectoriel euclidien de dimension n non nulle.
Soit F un sous-espace vectoriel du R-ev E.
. Si dimF ⊥ = 1, alors la symétrie sF est dite une réflexion de E.
. Si dimF ⊥ = 2 , alors la symétrie sF est dite un retournement de E.

Théorème:
Soit (En,f) un espace vectoriel euclidien de dimension n non nulle.
. Toute réflexion de E est élément de O(E) \ SO(E) .
. Tout retournement de E est élément de SO(E).

A propos des valeurs propres des automorphismes orthogonaux:


Soit (E,f) un espace vectoriel euclidien de dimension n non nulle.
∀u ∈O(E) {0E } ⊆/ SpR (u) ⊂ {−1,1}

Les groupes O(2) et SO(2):


 cos α −ε sinα  
O( 2 ) =   ; ( ε,α ) ∈ {−1,1} × R 
  sinα ε cos α  
 cos θ − sinθ  
SO( 2) =   ; θ ∈R 
 sinθ cos θ  
 cos ϕ sinϕ  
O( 2) \ SO( 2) =   ; ϕ ∈R 
  sinϕ − cos ϕ  

Règles de calcul:
cos θ − sinθ 
∀θ ∈R Rθ =  
 sinθ cos θ 
cos ϕ sinϕ 
∀ϕ ∈R Sϕ =  
 sinϕ − cos ϕ 
∀(θ,θ',ϕ,ϕ' ) ∈R 4
RθRθ' = Rθ+θ'
Sϕ Sϕ' = R ϕ −ϕ'
RθSϕ = Sϕ +θ
SϕRθ = Sϕ −θ
R0 = I2 1 0 
S0 =  
∀θ ∈R ∀k ∈Z Rθ+k 2π = Rθ 0 −1
∀θ ∈R Rθ+ π = −Rθ ∀ϕ ∈R ∀k ∈Z Sϕ +k 2π = Sϕ
−1
∀θ ∈R Rθ = R −θ = Rθ
t
∀ϕ ∈R Sϕ + π = −Sϕ
∀ϕ ∈R Sϕ −1 = Sϕ = t Sϕ

A propos de SO(2):
SO(2) est un groupe abélien.
( )
Les groupes (SO( 2),•) , ( U,•) et R 2πZ , + sont isomorphes (avec U = {z ∈C; z = 1} .

Le groupe SO(E2) des rotations:


Soit (E2,f) un espace vectoriel euclidien.
{ }
SO(E2 ) = u ∈O(E2 ); det u = 1 est un groupe abélien pour la loi o.
Classification par le spectre réel:
Soit (E2,f) un espace vectoriel euclidien.
Soit r ∈SO(E2 ) .
r = Id SpR = {1} E1(r ) = E2
r = −Id SpR = {−1} E −1(r ) = E2
r ∉ {Id; −Id} SpR = ∅

Classification par Inv(r) et Opp(r):


Soit (E2,f) un espace vectoriel euclidien.
Soit r ∈SO(E2 ) .
r = Id Inv(r ) = E2 { }
Opp(r ) = 0E 2
r = −Id { }
Inv(r ) = 0E 2 Opp(r ) = E2

r ∉ {Id; −Id} Inv(r ) = {0 }


E2 { }
Opp(r ) = 0E 2

Les automorphismes orthogonaux indirects de E 2:


O − (E2 ) et O − ( 2) sont équipotents.
Soit s ∈O − (E2 ) .
SpR ( s) = {−1;1}
E2 = E1( s) ⊕ E −1( s) = Inv( s) ⊕ Opp( s)
Inv( s)⊥Opp( s)
s est la symétrie par rapport à la droite Inv(s), c'est donc une réflexion de E2.

Synthèse à propos des éléments de O(E2):


∀u ∈O(E2 ) u ∈SO(E2 ) ⇔ u rotation de E2
∀u ∈O(E2 ) u ∈O − (E2 ) ⇔ u réflexion de E2

Classification par la dimension de Inv(u) et par la dimension de Opp(u):


Soit u ∈O(E2 ) .
dim Inv(u) u
0 rotation distincte de l'identité
1 réflexion par rapport à Inv(u)
2 IdE

dim Opp(u) u
0 rotation autre que -IdE
1 réflexion par rapport à Inv(u)
2 -IdE

Partie génératrice du groupe O(E2):


Tout élément de O(E2) est un produit fini de réflexions.
Une partie génératrice du groupe O(E2) est O-(E2).
26D - Etude des groupes O(E3) et SO(E3)

Soit (E3,f) un espace vectoriel euclidien de dimension 3.

Etude des rotations de E 3:


Soit r ∈SO(E3 ) .
{1} ⊂ SpR (r )
Toute rotation de E3 distincte de l'identité a pour espace des invariants une droite vectorielle qui
est dite l'axe de la rotation.
E3 étant orienté, l'axe de la rotation r étant orienté par le choix d'un vecteur unitaire k de l'axe, il
existe un réel θ défini modulo 2π tel que dans toute base orthonormale directe de E3 du type
cos θ − sinθ 0 
B = (i, j,k ) , matB (r ) =  sinθ cos θ 0  . θ 2π est dit l'angle de la rotation r.
 0 0 1

Détermination pratique de l'angle d'une rotation:


Soit r ∈SO(E3 ) \ {IdE } .
Tr (r ) − 1
cos θ =
2
Le signe de sinθ est le même que celui de det( x,r ( x ),k ) où k est un vecteur unitaire direct de
Inv(r) et x ∉vect(k ) .

Expression du vecteur image par une rotation:


Soit r ∈SO(E3 ) \ {IdE } .
Soit k un vecteur unitaire direct de Inv(r).
∀x ∈E3 r ( x ) = cos θ x + sinθ k ∧ x + (1− cos θ )x ⋅ k k .

Etudes des automorphismes orthogonaux indirectes:


Soit u ∈O − (E3 ) .
{−1} ⊂ SpR (u)
Si k est un vecteur directeur de Opp(u), il existe des vecteurs i et j tels que (i,j,k) base
cos α − sinα 0 
orthonormale de E. Alors mat ( i,j,k ) (u) =  sinα cos α 0 
 0 0 −1

Synthèse pour les éléments de O(E3):


Classification par la dimension de Inv(u).
dim Inv(u) u u∈
3 IdE SO(E3 )
2 réflexion (symétrie O − (E3 )
orthogonale plane)
1 rotation à axe SO(E3 )
0 produit commutatif d'une O − (E3 )
rotation à axe et d'une
réflexion (axe de rotation et
plan de réflexion
supplémentaires
orthogonaux)
27A - Notion d'espace vectoriel normé - Continuité

Notion de norme:
Soit E un R-espace vectoriel.
On appelle norme sur le R-ev E toute application N:E → R + telle que:
(i) ∀x ∈E N( x ) = 0 ⇒ x = 0E
(ii) ∀x ∈E ∀λ ∈R N( λx ) = λ N( x )
(iii) ∀( x,y ) ∈E2 N( x + y ) ≤ N( x ) + N( y )

Propriétés:
Soit (E,|| ||) un espace vectoriel normé.
∀x ∈E x = 0 ⇔ x = 0E
∀x ∈E −x = x
∀( x,y ) ∈E2 x − y ≤ x+y
∀( x,y ) ∈E2 x − y ≤ x−y

Vocabulaire:
Soit (E,|| ||) un espace vectoriel normé.
Soit a ∈E et r ∈R∗+ .
On appelle boule ouverte B(a,r ) = {x ∈E; x − a < r} .
On appelle boule fermée B' (a,r ) = {x ∈E; x − a ≤ r} .
On appelle sphère S(a,r ) = {x ∈E; x − a = r} .
On appelle partie bornée de (E,|| ||) toute partie A de E telle qu'il existe une boule B de (E,|| ||)
telle que A ⊂ B .
On appelle voisinage de a toute partie V de E telle que ∃r ∈R∗+ B(a,r ) ⊂ V .
On appelle ouvert toute partie U de E telle que:
(définitions équivalentes)
∀a ∈U U ∈ϑ (a )
.
∀a ∈U ∃r ∈R∗+ B(a,r ) ⊂ U

U U.
o
On appelle intérieur de A, A =
U∈O (E )
U⊂ A
o
Caractérisation des points adhérents: a ∈A ⇔ ∃U ∈O(E) {a} ⊂ U ⊂ A ⇔ ∃r ∈R∗+ B(a,r ) ⊂ A .

Normes équivalentes:
Soit E un R-espace vectoriel et N1 et N2 des normes sur le R-ev E.
Les normes N1 et N2 sont équivalentes si et seulement si
∃( λ,µ ) ∀x ∈E λN1( x ) ≤ N2 ( x ) ≤ µN1( x ) .
2
∈R∗+
L'équivalence des normes est une relation d'équivalence.

Théorème:
Soit E un R-espace vectoriel et N1 et N2 des normes sur le R-ev E.
Pour toute boule B2(a,r) de (E,N2), il existe des boules B1 et B1 de (E,N1) telles que
B1 ⊂ B 2 ⊂ B 1.

Dans la suite du cours, on appellera INE toute notion indépendante du choix d'une norme parmis des normes équivalentes.

Premières notions INE:


La notion de partie bornée est INE.
La notion d'ouvert est INE.
(Un R-ev E a donc pour deux normes équivalentes la même topologie)
Les notions d'intérieur, de point intérieur, de fermé, d'adhérence, de point adhérent, de
voisinage sont aussi INE.

Trois normes usuelles sur le R-ev Rn:


∀x = ( x1,K,xn ) ∈Rn
x ∞
= max x k
k∈Nn
n
x 2
= ∑x k =1
2
k

n
x1= ∑x
k =1
k

Ces trois normes sont équivalentes. (En fait toutes les normes de Rn sont équivalentes)

Suites convergentes d'un espace vectoriel normé:


Soit u ∈EN .
u converge dans l'espace vectoriel normé (E,|| ||) si et seulement si:
Définitions équivalentes.
∃L ∈E ∀ε ∈R∗+ ∃n0 ∈N ∀n ≥ n0 un − L ≤ ε
∃L ∈E ∀V ∈ϑE (L ) ∃n0 ∈N ∀n ≥ n0 un ∈V
∃L ∈E lim un − L = 0
n→ + ∞
La notion de convergence est INE.
La limite d'une suite est unique et INE.
Toute suite convergente est bornée.
Toute suite extraite d'une suite convergente ver L converge vers L.
Si u converge vers L dans E, alors la suite des normes converge vers ||L|| dans R.

Diverses caractérisations par les suites:


Soit (E,|| ||) un espace vectoriel normé.
. adhérence (INE):
a adhérent à A dans (E,|| ||) si et seulement si:
Définitions équivalentes.
∀V ∈ϑE (a ) A∩V ≠ ∅
∀r ∈R∗+ B(a,r ) ∩ A ≠ ∅
Il existe une suite à éléments dans A qui converge vers a dans (E,|| ||).
. fermé (INE):
A fermé de (E,|| ||) si et seulement si:
Définitions équivalentes.
E \ A ∈O(E, )
A=A
Toute suite d'éléments de A qui converge dans (E,|| ||) a sa limite qui appartient à A.
. compact (INE):
K compact de (E,|| ||) si et seulement si de toute suite d'éléments de K il est possible d'extraire
une sous-suite qui converge dans K.

Théorème:
Tout compact de (E,|| ||) est une partie formé bornée de (E,|| ||).

Convergence des suites à éléments dans Rn:


N
Soit u ∈Rp avec ∀n ∈N un = u1n ,K,unp et L = l1,K,lp . ( ) ( )
lim un = L ⇔ ∀j ∈Np lim unj =l j
n→ + ∞ n→ + ∞

Théorème:
Toute partie fermée bornée de Rn est une partie compacte.
Théorème de Bolzano-Weierstrass:
De toute suite bornée de Rn on peut extraire une suite convergente.

Limites et continuité de fonctions:


Soit (E,|| ||E) et (F,|| ||F) des espaces vectoriels normés.
Soit A une partie de E et a adhérent à A.
Soit f une fonction de E vers F définie sur A.
Limite:
Soit L ∈F .

x→a
[
lim f( x ) = L ⇔ ∀ε ∈R∗+ ∃η ∈R∗+ ∀x ∈A x−a E
< η ⇒ f( x ) − L F
<ε ]
x∈A

[
lim f( x ) = L ⇔ ∀V ∈ϑF (L ) ∃U ∈ϑE (a )
x→a
f( A ∩ U) ⊂ V ]
x∈A
Continuité:
Soit a de A.
f est continue en a si la limite de f en a selon A existe.
Continuité uniforme:
f est uniformément continue si et seulement si:
∀ε ∈R∗+ ∃η ∈R∗+ ∀( x,x' ) ∈A 2 x − x' E < η ⇒ f( x ) − f( x' ) F < ε
Lipschitzien:
f est Lipschitzienne si et seulement si ∃k ∈R∗+ ∀( x,x' ) ∈E2 f( x ) − f( x' ) F ≤ k x − x' E .
Remarque: tous les concepts de ce paragraphe sont INE, y compris les expressions des limites.

Propriétés:
Mêmes notations:
.f de A vers F est continue si et seulement si l'image réciproque de tout ouvert de F est un
ouvert relatif de A.
. L'image d'un compact par une application continue est est un compact.
. Théorème de Heine: Toute application continue sur un compact est uniformément continue.
. Toute application linéaire de Rn est Lipschitzienne, donc uniformément continue et continue.

Applications composantes des fonctions de vers Rn:


Soit n un naturel non nul. Rn est un espace vectoriel normé pour || ||.
Soit (E,|| ||E) un espace vectoriel normé.
Soit A une partie de E et f: A → Rn une application vectorielle.
∀x ∈A f( x ) = ( f1( x ),K,fn ( x ))
On dispose, associée à f, des n applications composantes de f relatives à la base canonique de
Rn:
∀i ∈Nn fi : A → R
x a fi ( x )
Pour chacune des propriétés P suivantes, f vérifie P si et seulement si pour tout i ∈Nn fi vérifie
P.
Propriétés P:
. être borné.
. avoir une limite selon un point adhérent à A.
. être continue en un point de A.
. être continue sur A.
. être uniformément continue sur A.
. être Lipschitzien sur A.
Applications partielles des fonctions d e Rp vers F:
Soit p un naturel non nul. Rp est muni d'une norme usuelle || ||.
Soit (F,|| ||F) un espace vectoriel normé.
( )
Soit U ∈O Rp , a ∈U et f ∈FU .
Pour tout j ∈Np, on appelle la jème application partielle de f en a, l'application:
ϕ a,j :U j → F

(
x j a f a1,K,a j−1,x j ,a j+1,K,a p )
Continuité de f et continuité des applications partielles de f:
Soit p un naturel non nul. Rp est muni d'une norme usuelle || ||.
Soit (F,|| ||F) un espace vectoriel normé.
( )
Soit U ∈O Rp , a ∈U et f ∈FU .
. Si f:U → F est continue en a, alors, pour tout j, ϕ a,j :U j → F est continue en aj.
( )
. Si f ∈C(U,F ) , alors pour tout a ∈U , pour tout j, ϕ a,j ∈C U j ,F .
27B - Calcul différentiel - Généralités à propos des fonctions de Rp vers
Rn

Dérivation d'une fonction de R vers F:


Soit F un espace vectoriel normé.
Soit U ∈O(R) et f:U → F une application.
Soit a ∈U .
On dit que f:U → F est dérivable en a ∈U si et seulement si la fonction t a
1
t−a
( f ( t ) − f ( a )) a
une limite dans F selon U \ {a} . Sous réserve de l'existence de la limite dans F, on a:

f ′(a ) = lim
1
t→a t − a
( f ( t ) − f ( a ))
t∈U\ {a }
On étend à F les concepts de dérivabilité sur U, de classe Ck, de classe C∞.
Pour les applications f de U vers Rn, f est dérivable si et seulement si les applications
composantes de f sont dérivables.

Dérivées partielles d'ordre 1 des fonctions de Rp vers F:


( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
On dit que f a une jème dérivée partielle en a si et seulement si ϕ a,j :U j → F est dérivable en aj.

On pose
∂f
∂x j
(a ) = ϕ a,j
′ (a ) = lim ((
1
x j →a j x j − a j
) )
f a1,K,a j−1,x j ,a j+1,K,a p − f(a ) .
x j ≠a j
On définit, sous réserve d'existence, la jème application dérivée partielle de f par:
∂f
:U → F
∂x j
a a ϕ a,j
′ aj( )
Si F=Rn, on dispose des applications composantes de f.
∂f ∂f
Alors (a ) existe si et seulement si, pour tout i ∈Nn, i (a ) existe.
∂x j ∂x j
∂fi
[ ]
On définit alors la matrice jacobienne de f en a, Jf (a ) = a ij i∈Nn
j∈Np
∈Mn,p (R) , par a ij =
∂x j
(a ) .
 ∂f1 ∂f1 ∂f1 
 ∂x (a ) ∂x (a ) L ∂x (a ) 
 1 2 p 
 ∂f2 (a ) M M 
Jf (a ) =  ∂x1 
 M M M 
 
 ∂fn (a ) ∂fn (a ) L ∂f1 n(a )
 ∂x1 ∂x 2 ∂x p 
 
Sous réserve d'existence, on a le formulaire suivant:
∂fg ∂f ∂g
(a ) = (a )g(a ) + f(a ) (a )
∂x j ∂x j ∂x j
∂g

1
(a )
g ∂x
(a ) = − 2 j
∂x j g (a )
Dérivée selon un vecteur:
( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
{ }
Soit v ∈Rp \ 0R p .
f a une dérivée selon le vecteur non nul v en le point a si et seulement si λ a f(a + λv ) est

dérivable en 0. Sous réserve d'existence on a fv′ (a ) = lim ( f(a + λv ) − f(a )) .


1
λ→0 λ
λ ≠0

Théorème:
( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
La jème dp1 de f existe si et seulement si f a une dérivée selon ej en a.
∂f
En outre fe′ j (a ) = (a ) .
∂x j

Fonctions de classe C1:


( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
f est de classe C1 sur U si et seulement si:
(1) f est continue sur U
∂f
(2) pour tout j ∈Np, est définie sur U
∂x j
∂f
(3) pour tout j ∈Np, est continue sur U.
∂x j

Propriétés:
. L'ensemble des applications de classe C1 de U vers un espace normé F est un R-ev.
. Si F=Rn, f est C1 su U si et seulement si ses applications composantes sont C1 sur U.
. L'ensemble des applications de classe C1 de U vers R est une R-algèbre.
27C - Calcul différentiel - Cas des fonctions de Rp vers R

Forme linéaire tangente en un point à f:


Soit U ∈O Rp , a ∈U .( )
Soit f ∈R . U

On appelle forme linéaire tangente à f en a l'application notée dfa, définie par:


dfa : Rp → R
p

(h ,K,h ) a ∑ ∂x∂f (a)h


1 p
j
j
j=1

Propriétés des formes linéaires tangentes:


Soit U ∈O Rp , a ∈U .( )
Soit f ∈R . U

. dfa ∈Rp
)(
. dfa ∈C Rp ,R
∂f
. ∀j ∈Np df (e ) = (a ) = f ′ (a )
a j ej
∂x j

. ∀v ∈R \ {0 } df ( v ) = f ′ (a )
p
Rp a v

 ∂f ∂f ∂f 
. matE,(1) ( dfa ) =  (a ) (a ) L (a )
 ∂x1 ∂x 2 ∂x p 

Notation différentielle:
Soit U ∈O Rp , a ∈U .( )
Soit f ∈C (U,R) .1

p p

∀h ∈Rp dfa (h) = ∑


j=1
∂f
∂x j
(a )h j = ∑ ∂x∂f (a)dx
j=1
j
ja (h)
p

dfa = ∑ ∂x∂f dx
j=1
j
ja

Gradient de f en a:
Soit U ∈O Rp , a ∈U .( )
Soit f ∈C (U,R) .1

On dispose de la forme linéaire tangente à f en a, dfa. On appelle gradient de f en a le vecteur


normal de cette forme linéaire.
∀h ∈Rp dfa (h) = h,grad f(a )
p
 
grad f(a ) = ∑ ∂x∂f (a)e =  ∂x∂f (a),K, ∂x∂f (a)
j=1
j
j
1 p
Formulaire:
Soit U ∈O Rp , a ∈U .( )
∀( f,g) ∈C (U,R) ∀( λ,µ ) ∈R 2
1

∀j ∈Np
∂λf + µg ∂f ∂g
(a ) = λ (a ) + µ (a )
∂x j ∂x j ∂x j
∂fg ∂f ∂g
(a ) = (a )g(a ) + f(a ) (a )
∂x j ∂x j ∂x j
grad( λf + µg)(a ) = λgradf(a ) + µgradg(a )
gradfg(a ) = gradf(a )g(a ) + gradg(a )f(a )
d( λf + µg)a = λdfa + µdga
d( fg)a = g(a )dfa + f(a )dga
Jλf +µg (a ) = λJf (a ) + µJg (a )
Jfg (a ) = g(a )Jf (a ) + f(a )Jg (a )

Condition nécessaire pour l'existence d'un extremum local:


Soit U ∈O Rp , a ∈U .( )
Soit f ∈C (U,R) .1

Si f admet un extremum local en a, alors nécessairement a est un point critique de f.


C'est à dire:
Assertions équivalentes.
∂f
∀j ∈Np (a ) = 0
∂x j
gradf(a ) = 0R p
dfa = 0 ∗
Rp
Un point critique qui n'est pas un point où f admet un extremum local est un point col de f.

Dérivation de fonctions de R vers R du type taf(u(t),v(t)):


Soit U ∈O Rp , a ∈U .( )
Soit f ∈C (U,R) .1

Soit I un intervalle réel.


Soit u1,K,up des applications de I vers R telles que ∀t ∈I (u ( t),K,u ( t)) ⊂ U .
1 p
F:I → R
( )
Soit l'application .
t a f u1( t ),K,up ( t )
Si pour tout j ∈Np,uj est dérivable sur I, alors F est dérivable sur I et:
p

∀t ∈I F ′( t ) = ∑ ∂x∂f (u (t),K,u (t))u′(t).


j=1
j
1 p j
Application au changement de variable en dimension 2 (généralisable):
Soit (U,T ) ∈O R 2 . ( )
2

Soit f ∈C1(U,R) .
(
Soit Φ ∈C1 T,R 2 . )
f: U → R
( x,y ) a f( x,y )
Φ: T → R 2
( X, Y ) a (ϕ1( X, Y ),ϕ 2 ( X, Y ))
f o Φ: T → R
( X, Y ) a f(ϕ1( X, Y ),ϕ 2 ( X, Y ))
Alors f o Φ ∈C1( T,R) et:
∂f o Φ ∂f ∂ϕ ∂f ∂ϕ
∀α ∈T ( α ) = ( Φ ( α )) 1 ( α ) + ( Φ ( α )) 2 ( α )
∂X ∂x ∂X ∂y ∂X
∂f o Φ ∂f ∂ϕ ∂f ∂ϕ
∀α ∈T ( α ) = ( Φ ( α )) 1 ( α ) + ( Φ ( α )) 2 ( α )
∂Y ∂x ∂Y ∂y ∂Y
∀α ∈T JfoΦ (α ) = Jf ( Φ(α ))JΦ (α )

Formule des accroissements finis pour une fonction de Rp vers R:


( )
Soit (U,T ) ∈O R 2 , a ∈U .
2

Soit f ∈C1(U,R) .
Pour tout h ∈Rp , tel que a + h ∈U, il existe θ ∈ ]0,1[ tel que f(a + h) − f(a ) = dfa +θh (h) .

Développement limité d'ordre 1 des fonctions de Rp vers R:


( )
Soit (U,T ) ∈O R 2 , a ∈U .
2

Soit f ∈C1(U,R) .
Au voisinage de 0R p par rapport à h, f(a + h) = f(a ) + dfa (h) + o( h ) .
Au voisinage de a par rapport à x, f( x ) = f(a ) + dfa ( x − a ) + o( x − a ) .

Dérivées partielles successives:


( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
∂f
Soit i ∈Np tel que existe sur U.
∂xi
Soit j ∈Np.
∂f

∂f ∂xi
Si l'application admet une jème dp1 en a, (a ) , alors on dit que f admet la dp2
∂xi ∂x j
∂2f ∂2f
(a ) si i≠j ou la dp2 2 (a ) si i=j.
∂x j∂xi ∂xi
Théorème de Schwarz:
( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
Soit i ∈Np et j ∈Np.
∂2f ∂2f
Si et sont des fonctions définies au voisinage de a et si elles sont continues, alors
∂xi∂x j ∂x j∂xi
∂2f ∂2f
(a ) = (a ) .
∂xi∂x j ∂x j∂xi

Applications de classe Ck :
( )
Soit U ∈O Rp , a ∈U .
Soit F un espace vectoriel normé.
Soit f ∈FU .
Soit k un naturel non nul.
f est de classe Ck sur U si et seulement si:
(i) f est continue sur U
(ii) Pour tout h ∈Nk , toutes les dph de f existe sur U et sont continues sur U.

Théorème des fonctions implicites pour des fonctions de deux variables:


Soit U ∈O R 2 .( )
Soit f ∈C (U,R) .
1

∂f
Soit a = ( x 0 ,y 0 ) ∈U tel que f( x 0 ,y 0 ) = 0 et ( x 0 ,y 0 ) ≠ 0.
∂y
Alors il existe I0 et J0 des intervalles ouverts de R tels que x 0 ∈I0 , y 0 ∈J0 et I0 × J0 ⊂ U et tels
que:
∂f
(1) ∀( x,y ) ∈I0 × J0 ( x,y ) ≠ 0
∂y
(2) Pour tout x ∈I0 , l'équation en y sur J0 f(x,y)=0 a une solution unique.
On dispose alors de l'application ϕ qui à tout x ∈I0 associe l'unique y ∈J0 tel que f(x,y)=0.
(3) ϕ ∈C1(I0 ,R) .
On a alors les propriétés suivantes:
∀x ∈I0 f( x,ϕ ( x )) = 0
∂f
∂x
( x,ϕ( x))
∀x ∈I0 ϕ ′( x ) = −
∂f
∂y
( x,ϕ( x))
f ∈Ck (U,R) ⇒ ϕ ∈Ck (I0 ,R)

Tangente à une courbe définie par f(x,y)=0:


Soit U ∈O R 2 .( )
Soit f ∈C (U,R) .
1

Soit a = ( x 0 ,y 0 ) ∈U tel que f( x 0 ,y 0 ) = 0 et gradf(a ) ≠ 0R 2 .


∂f ∂f
Alors la droite de R2 d'équation ( x − x 0 ) ( x 0 ,y 0 ) + ( y − y 0 ) ( x 0 ,y 0 ) = 0 est dite tangente en a
∂x ∂y
à la courbe d'équation f(x,y)=0.
Théorèmes des fonctions implicites pour des fonctions de trois variables:
Soit U ∈O R 3 .( )
Soit f ∈C (U,R) .
1

∂f
Soit a = ( x 0 ,y 0 ,z0 ) ∈U tel que f(a ) = 0 et (a ) ≠ 0 .
∂z
Alors il existe une boule ouverte B0 de R2 contenant ( x 0 ,y 0 ) et un intervalle réel ouvert
contenant z0 tels que B0 × K 0 ⊂ U et tels que:
∂f
(1) ∀( x,y,z) ∈B0 × K 0 ( x,y,z) ≠ 0
∂z
(2) Pour tout ( x,y ) ∈B0 , l'équation en z sur K0 f(x,y,z)=0 a une solution unique.
On dispose alors de l'application ϕ qui à tout ( x,y ) ∈B0 associe l'unique z ∈K 0 tel que f(x,y,z)=0.
(3) ϕ ∈C1(B0 ,R) .
On a alors les propriétés suivantes:
∀( x,y ) ∈B0 f( x,y,ϕ ( x,y )) = 0
∂f
∂ϕ ( x,y,ϕ( x,y ))
∀( x,y ) ∈B0 ( x,y ) = − ∂x
∂f
∂x
∂z
( x,y,ϕ( x,y ))
∂f
∂ϕ ∂y
( x,y,ϕ( x,y))
∀( x,y ) ∈B0 ( x,y ) = − ∂f
∂y
∂z
( x,y,ϕ( x,y))
f ∈Ck (U,R) ⇒ ϕ ∈Ck (K 0 ,R)

Tangente à une courbe définie par f(x,y,z)=0:


Soit U ∈O R 3 .( )
Soit f ∈C (U,R) .
1

Soit a = ( x 0 ,y 0 ,z0 ) ∈U tel que f(a ) = 0 et gradf(a ) ≠ 0R 3 .


∂f ∂f ∂f
Alors le plan de R3 d'équation ( x − x 0 ) (a ) + ( y − y 0 ) (a ) + ( z − z0 ) (a ) = 0 est dit tangent
∂x ∂y ∂z
en a à la surface d'équation f(x,y,z)=0. Ce plan a pour vecteur normal gradf(a ) .
27D - Analyse vectorielle

L'espace affine euclidien R3 est rapporté à son repère orthonormal canonique.


On désigne par U un ouvert de R3.

Gradient d'un champ de scalaires:


On appelle champ de scalaires sur U toute application f de U vers R.
Le gradient de ce champ scalaire en le point M est défini par:
∂f r ∂f r ∂f r
grad f(M) = ( x,y,z) i + ( x,y,z) j + ( x,y,z)k .
∂x ∂y ∂z

Champ de vecteurs:
On appelle champ de vecteurs sur U toute application de U vers R3.

Divergence d'un champ de vecteurs:


r
Soit V:U → R 3 un champ
r de vecteurs
r sur
r l'ouvertr U dont les applications composantes sont
P,Q,R. On a donc: V(M) = P(M) i + Q(M) j + R(M)k.
r
On appelle divergence du champ de vecteurs V:U → R 3 au point M de U le scalaire:
r ∂P ∂Q ∂R
div V(M) = (M) + (M) + (M) .
∂x ∂y ∂z

Rotationnel d'un champ de vecteurs:


r
Le rotationnel du champ de vecteurs V:U → R 3 au point M de U est le vecteur:
r  ∂R ∂Q r ∂P ∂R r  ∂Q ∂P r
rot V(M) =  (M) − (M) i +  (M) − (M) j +  (M) − (M) k .
 ∂y ∂z  ∂z ∂x  ∂x ∂y 

Potentiel scalaire:
r
Soit V:U → Rr 3 un champ de vecteurs sur l'ouvert U.
On dit que V dérive d'un potentiel
r scalaire sur U si et seulement si il existe une application
différentiable f:U → R telle que V = grad f.

Théorème:
Un champ de vecteurs de classe C1 qui dérive d'un potentiel scalaire est de rotationnel nul.
(La réciproque est vraie pour un ouvert U étoilé.)

Laplacien:
Soit f ∈C 2 (U,R) .
On appelle Laplacien de f le champ de scalaires ∆f défini par:
∂2f ∂2f ∂2f
∀M ∈U ∆f(M) = 2 (M) + 2 (M) + 2 (M) .
∂x ∂y ∂z
f ∈C (U,R) est dite harmonique si et seulement si ∀M ∈U ∆f(M) = 0.
2

Opérateur Nabla:
r ∂ r ∂ r ∂ r
D'un point de vue mémotechnique, on remarque que si l'on pose ∇ = i+ j+ k , alors:
∂x ∂y ∂z
r
grad f = ∇f
r r r
div V = ∇, V
r r r
rot V = ∇ ∧ V
r
∆f = ∇ 2 f
Définitions intrinsèques des notions précédentes:
. Gradient:
Soit f ∈C1(U,R) .
On appelle gradient de f en M l'unique vecteur tel que ∀h ∈R 3 f ′(M) ⋅h = grad f(M),h .

r . Divergence:
(
Soit V ∈C1 U,R 3 .) r
Pour tout M de U, on dispose de la matrice jacobienne de V en M:
 ∂P ∂P ∂P 
 ∂x (M) ∂y (M) ∂z (M) 
 
 ∂Q ∂Q ∂Q
JV (M) =
r
 ∂x
(M) (M) (M) .
∂y ∂z
 ∂R ∂R ∂R 
 (M) (M) (M) 
 ∂x ∂y
r
∂z 
Alors ∀M ∈U div V(M) = Tr JV (M) .
r

r . Rotationel:
(
Soit V ∈C1 U,R 3 .) r
r W:U → R3
Pour tout u ∈R 3 , on définit l'application r 1
r qui est de classe C .
M a V(M) ∧ u
f:R 3 → R
Puis on définit, pour tout M de U, la forme linéaire r r .
u a div W (M)
r
Alors on définit le rotationnel de V en M comme l'unique vecteur tel que:
r r r r
∀u ∈R 3 div W (M) = rot V(M), u .
. Laplacien:
Soit f ∈C 2 (U,R) .
On appelle Laplacien de f le champ scalaire ∆f défini par ∀M ∈U ( )
∆f(M) = div grad f (M) .
28A - Etude locale d'un arc paramètré
28B - Courbes paramètrées définies par une équation polaire r=r(θ)
29A - Propriétés métriques des arcs paramètrés
29B - Propriétés métriques d'un arc plan
29C - Propriétés métriques d'un arc gauche
30A - Partie génératrice d'un groupe

Sous-groupe engendré par une partie:


Soit (G,•) un groupe et A une partie de G.
On considère A l'ensemble des sous-groupes H de G incluant A.
min A est dit le sous-groupe de G engendré par A, noté Gr(A).

Proposition:
Soit (G,•) un groupe et A une partie de G.
H sous - groupe de G

∀H ∈P(G) H = Gr ( A ) ⇔ A ⊂ H
∀H' ∈A H ⊂ H'

Expression du sous-groupe engendré par une partie non vide:


Pour toute partie A non vide d'un groupe (G,•), le sous-groupe engendré par A est l'ensemble
des produits finis d'éléments de A et d'inverse d'éléments de A.
[
∀g ∈G g ∈Gr ( A ) ⇔ ∃n ∈N∗ ∃(a1,K,a n ) ∈A n ∃( ε1,K,ε n ) ∈ {−1,1}
n
g = a1ε 1 La nε n ]
Ainsi, { }
Gr ({a}) = a , k ∈Z , si les éléments
k
a et b sont distincts et commutent,

{
Gr ({a,b}) = a hbk , (h,k ) ∈Z 2 . }
Partie génératrice d'un groupe:
Soit (G,•) un groupe.
On appelle partie génératrice de G toute partie A de G telle que Gr(A)=G.

Groupe monogène et groupe cyclique:


Un groupe est dit monogène s'il admet pour partie génératrice un singleton.
Un groupe est dit cyclique d'ordre n si et seulement s'il est monogène et d'ordre n (de cardinal
fini n).

Exemples fondamentaux de groupes monogènes:


( )
. Pour tout naturel n, le groupe Z nZ , + est monogène et pour tout naturel n non nul, il est
cyclique d'ordre n.
. Les générateurs du groupe Z nZ , + . ( )
∀x ∈Z Z nZ = Gr ( x ) ⇔ x ∧ n = 1

Théorème:
Tout groupe monogène infini est isomorphe au groupe additif Z et tout groupe cyclique d'ordre
(
n est isomorphe au groupe Z nZ , + . )
30B - Nouvelle partie génératrice du groupe symétrique (Sn,o)

Permutations disjointes:
. Soit σ ∈Sn et A une partie de Nn.
σ agit sur A si et seulement si ∀k ∈Nn \ A σ (k ) = k .
. Soit ( σ,σ' ) ∈Sn .
2

On dit que σ et σ' sont disjointes si et seulement s'il existe des parties A et A' de Nn telles que:
. σ agit sur A
. σ' agit sur A'
. A ∩ A' = ∅ .

Théorème:
Deux permutations disjointes commutent.

Notion de cycles:
On appelle cycle de longueur p et de support {a ,K,a } , toute permutation c de S
1 p n telle que

 c ( a1 ) = a 2
c a = a
 ( 2) 3

M {
et ∀k ∈Nn \ a1,K,a p } ( )
c(k ) = k . Ce cycle sera noté a1,K,a p .

( )
c a p −1 = a p

( )
c a p = a1

Décomposition des permutations:


Toute permutation élément de Sn est le produit d'un nombre fini de cycles de supports disjoints
deux à deux. La décomposition est unique (à l'ordre près des facteurs). La somme des
longueurs des cycles est n.

Décomposition d es cycles:
Tout cycle de longueur p se décompose en le produit de p-1 transpositions. La décomposition
n'est pas unique et les facteurs ne commutent pas.

Ordre d'un élément du groupe (G,• ):


Soit a ∈G .
Si cardGr ({a}) est fini, on dit que a est d'ordre fini et θ(a ) = cardGr ({a}) .
Dans ce cas θ(a ) est le plus petit naturel non nul k tel que a k = eG et

∀k ∈Z

a k = e G ⇔ θ( a ) k .
Z
Sinon, si a est d'ordre infini.

Application à l'ordre des éléments de S N:


. L'ordre de l'identité est 1.
. L'ordre d'une transposition est 2.
. L'ordre d'un cycle est sa longueur.
. L'ordre d'une permutation quelconque est le ppcm des longueurs des cycles disjoints dont le
produit forme cette permutation.
31A - Espaces affines - Applications affines

Notion d'espace affine:


On appelle espace affine tout couple (A,E) tel que:
. A est un ensemble non vide
. E est un R-espace vectoriel
A ×E → A
. il existe une application r r telle que:
( A, x) a A + x
A ×E → A
. pour tout A ∈A , r r est bijective
( A, x) a A + x
r r r r r r
. ∀A ∈A ∀( x, y ) ∈E2 ( A + x ) + y = A + ( x + y ) .

Notation vectorielle:
r r
L'unique vecteur x tel que B = A + x est noté AB.

Equipollence des bipoints:


Pour tout ( A,B,C,D) ∈A 4 , (A,B) et (C,D) sont des bipoints équipollents si et seulement si
AB = CD . L'équipollence est une relation d'équivalence sur l'ensemble des bipoints de A.

Relation de Chasles:
∀( A,B,C) ∈A 3 AC = AB + BC
Corollaire:
∀A ∈A AA = 0E
∀( A,B) ∈A 2 BA = −AB

Translation d'un espace affine:


T:E → S( A )
r
L'application x a t xr : A → A réalise un morphisme injectif du groupe (E,+) vers (S(A),o).
r
AaA+x
En outre l'ensemble des translations de (A,E) est T(A ) = Im T . (T(A),o) est donc un sous-
groupe de (S(A),o). De plus, il est abélien et isomorphe à (E,+).

Applications affines:
Soit des espaces affines (A,E) et (B,F).
Soit f ∈B A .
f est dite une application affine de (A,E) vers (B,F) si et seulement si il existe au moins un point A
ϕ:E → F
de A tel que l'application r r est linéaire de E vers F.
x a f( A )f( A + x )

Théorème:
Mêmes notations.
ϕ:E → F r r
Si r r est linéaire, alors pour tout x ∈E , f( A )f( A + x ) est indépendant du choix
x a f( A )f( A + x )
de A. ϕ est alors dite l'application linéaire associée à f.
Conséquence:
Soit f une application affine de (A,E) vers (B,F) de partie linéaire associée L(f), application
linéaire de E vers F.
r r r
Alors ∀A ∈A ∀x ∈E f( A + x ) = f( A ) + L( f )( x ) .
Propriétés des applications affines:
. Si f et g sont affines, alors gof est affine et L(gof)=L(g)oL(f).
. Soit f: ( A ,E) → (B,F ) une application affine.
f: A → B est injective (respectivement surjective ou bijective) si et seulement si L( f ):E → F est
injective (respectivement surjective ou bijective).
( )
. Si f est affine bijective, alors f −1 est affine et L f −1 = L( f ) .
−1

Le groupe affine (Ga(A ),o):


On appelle Ga(A) l'ensemble des automorphismes affines de (A,E).
(Ga(A),o) est un sous-groupe de (S(A),o). Il est dit le groupe affine.

Barycentres:
n
Soit (( Ai ,αi ))i∈Nn une famille de points pondérés de l'espace affine (A,E) telle que ∑α ≠ 0.
i=1
i

n
Il existe alors un unique point G de A tel que ∑ α GA = 0 .
i=1
i i E

n
En outre, ∀A ∈A AG = n
1
∑ α AA . G est dit le barycentre de ((A ,α ))
i i i i .

∑α
i∈Nn
i=1
i
i=1

Théorème de caractérisation des applications affines par les barycentres:


Soit des espaces affines (A,E) et (B,F).
Soit f ∈B A .
n
f est une application affine si et seulement si pour toute famille (( Ai ,αi ))i∈Nn telle que ∑α ≠ 0,
i=1
i

l'image par f du barycentre de (( Ai ,αi ))i∈Nn est le barycentre de la famille (( f( Ai ),αi ))i∈Nn .
Homothéties affines:
On appelle homothétie affine toute application affine de A vers A de partie linéaire du type αIdE
avec α ∈R \ {0,1} .
L'homothétie h de (A,E) est définie sans ambiguïté par la donnée du rapport α ∈R \ {0,1} et
d'un couple (A,h(A)) où A ∈A .

Théorème:
Toute homothétie affine a un seul point fixe. Ce point fixe est dit le centre de l'homothétie.

Homothéties translations:
Soit f une application affine de A vers A.
f est une translation de A si et seulement si ∃α ∈R∗ L( f ) = αIdE .
Soit HT(A) l'ensemble des homothéties translations dans (A,E).
(HT(A),o) est un sous-groupe du groupe affine Ga(A).
31B - Variétés affines

Notion de variétés affines de (A ,E):


On appelle variété affine de (A,E) toute partie V de A telle qu'il existe un point A de A et un
sous-espace vectoriel V de E tel que V = A + V , c'est à dire tel que
r r
∀M ∈A M ∈V ⇔ [ ∃ x ∈V M = A + x ].
r r
{
Par conséquent, V = M ∈A ; AM ∈V = {A + x; x ∈V} . }
Choix du point A:
Soit V une variété affine de (A,E), V = A + V .
r r
∀A’∈A V = A' +V ⇔ AA' ∈V ⇔ [ ∃x ∈V A' = A + x ] .

Choix du sous-espace vectoriel V:


Soit V une variété affine de (A,E), V = A + V .
Il existe un seul sous-espace vectoriel V du R-ev E tel que ∀A ∈V V = A + V. V est définis
sans ambiguïté par V = MN; (M,N) ∈V { 2
} . V est dit la direction de la variété affine V.
Intersection de deux variétés affines:
Soient V = A + V et V’= A' +V' des variétés affines de (A,E) telles que V ∩ V ' ≠ ∅ .
Alors V ∩ V ' est une variété affine et V ∩ V ' = I{ + V ∩ V' .
∈V ∩V '

Sous-espaces affines:
Soit V une variété affine de (A,E) de direction V.
Alors (V,V) est un espace affine, il est dit un sous-espace affine de l'espace affine (A,E).

Ensembles des invariants d'une application affine:


Soit f un endomorphisme affine de l'espace affine (A,E).
Si Inv( f ) ≠ ∅ , alors Inv(f) est une variété affine de (A,E).
Mieux, ∀I ∈Inv( f ) Inv( f ) = I + Inv(L( f )) .

Image directe ou réciproque d'une variété affine par une application affine:
Soient (A,E) et (B,F) des espaces affines.
Soit f: ( A ,E) → (B,F ) une application affine.
. Pour toute variété affine V = A + V de (A,E), f(V) est une variété affine de (B,F) et
f( V ) = f( A ) + L( f )( V ) .
. Pour toute variété affine W de (B,F) telle que f −1( W ) ≠ ∅, f −1( W ) est une variété affine de
(A,E) et f −1
( W ) = A + L( f ) ( W ) .
−1

Nouvelles caractérisations des variétés affines par les barycentres:


Soit V une partie non vide de (A,E).
V est une variété affine de (A,E) si et seulement si pour toute famille ( A i ,α i )i∈Nn de points
n
pondérés de A avec ∑α ≠ 0,
i=1
i [∀i ∈Nn A i ∈V ] ⇒ G ∈V (où G est le barycentre de

( Ai ,α i )i∈Nn ).
Segment d'un espace affine:
{
∀( A,B) ∈A 2 [ A,B] = M ∈A ; ∃λ ∈[0,1] λMA + (1− λ )MB = 0E . }
Parties convexes d'un espace affine:
[
∀X ∈P( A ) X partie convexe de A ⇔ ∀( A,B) ∈X 2 [ A,B] ⊂ X ].
Théorème de caractérisation des parties convexes par les barycentres:
Soit X une partie de A.
X partie convexe de A si et seulement si X est stable par toute prise de barycentre à poids
positifs.

Corollaire:
Toute variété affine de (A,E) est une partie convexe de A.

Effet des applications affines sur des parties convexes:


Soient (A,E) et (B,F) des espaces affines.
Soit f: ( A ,E) → (B,F ) une application affine.
. Image directe d'un segment:
[ ]
∀( A,B) ∈A 2 f([ A,B]) = f( A ),f(B) .
. Image directe d'une partie convexe:
Soit X une partie convexe de A.
f(X) est une partie convexe de B.
. Image réciproque d'une partie convexe:
Soit Y une partie convexe de B.
f −1( Y ) est une partie convexe de A.

Projections affines:
Soit (A,E) un espace affine.
On appelle projection affine de (A,E) toute application affine p de (A,E) vers lui-même telle que
pop = p.

Propriétés des projections affines:


Soit p une projection affine de (A,E).
. L(p) est un projecteur du R-ev E.
. Inv(p ) = p( A ) + Inv(L(p )) .
. Inv(p ) = p( A ) .
. On dit que p est la projection affine de (A,E) sur la variété affine (Inv(p),A) et de direction le
sous-espace vectoriel Ker L(p) de E.

Symétries affines:
Soit (A,E) un espace affine.
On appelle symétrie affine de (A,E) toute application affine s de (A,E) vers lui-même telle que
s o s = Id A .

Propriétés des symétries affines:


Soit s une symétrie affine de (A,E).
. s ∈Ga( A )
s −1 = s
. L(s) est une symétrie vectorielle de E.
. s est dite la symétrie affine par rapport à Inv(s) et de direction Opp(L( s)) .

Les affinités de (A ,E):


Soit p une projection affine de (A,E) (sur V et de direction W).
Soit α ∈R .
On appelle affinité de rapport α, de base V et de direction W l'application a: A → A telle que
{
∀M ∈A a(M) = barycentre (M,α ); (p(M),1− α ) . }
Propriétés des affinités:
. ∀M ∈A p(M)a(M) = αp(M)M.
. a est une application affine et L(a ) = αIdE + (1− α )L(p ) .
. Si α=1, Inv(a ) = A .
Si α≠1, Inv(a ) = I{ + Inv(L(a )) .
∈Inv ( a )

. Si α ∈R∗ (si α=0, a est une projection affine), a ∈Ga( A ) et a −1 est une affinité de base V, de
1
direction W et de rapport .
α
31C - Espaces affines de dimension finie

Définition:
Soit (A,E) un espace affine.
L'espace affine (A,E) est dit de dimension finie si et seulement si le R-ev E est de dimension
finie. On pose dimR A = dimR E.
L'espace affine (A,E) est dit orienté si et seulement si le R-ev E est orienté.

Repère cartésien d'un espace affine de dimension finie:


Soit (A,E) un espace affine de dimension finie.
On appelle repère cartésien de (A,E) tout couple (O,E) où O est un point de A et E une base du
R-ev E.

Interprétation matricielle:
Soit f: ( A ,E) → (B,F ) une application affine.
Soit (O,E) un repère de (A,E).
Soit (Ω,F) un repère de (B,F).
Y
{ = A { { +
X B
{
mat (Ω,F) f ( M ) mat E,FL ( f ) mat (O,E)M mat (Ω,F) f ( O )

Changement de repères:
Soit (O,E) et (O',E') des repères de (A,E).
E'
X
{
mat (O,E)M
= Q
{
mat (0,E) O'
+
PE
X'
{
mat (O',E')M

Parallélisme:
Soient V et V' des variétés affines de (A,E) de directions respectives V et V'.
. V et V' sont parallèles si et seulement si V=V'.
V = V'
. V et V' sont strictement parallèles si et seulement si  .
V ∩ V ' = ∅
. V est parallèle à V' si et seulement si V ⊂ V'.

Droites affines d'un plan affine:


Soit (A,E) un plan affine (espace affine de dimension 2).
. droiter définie par un point et sa direction:
Soit A ∈A et u ∈R \ {0E } .
r
D = A + vect(u)
r
∀M ∈A M ∈D ⇔ [ ∃λ ∈R M = A + λu]
. équation cartésienne:
Toute équation cartésienne sur R du type ux+vy+h=0 avec (u,v)≠(0,0) est une équation de
droite et cette droite est dirigée par le vecteur de coordonnées (v,-u).
. droite définie par deux points:
Soit ( A,B) ∈A 2 avec A≠B.
Pour tout M de A, M ∈D si et seulement si M est barycentre de A et B.
. Condition nécessaire et suffisante de colinéarité:
Soit (M1,M2 ,M3 ) ∈A 3 .
x1 x 2 x 3
M1,M2 et M3 sont alignés si et seulement si y1 y 2 y 3 = 0.
1 1 1
Courbe du deuxième degré:
Travail dans le plan affine euclidien orienté (A,E) rapporté à un repère orthonormal direct
r r
( )
R = O, i , j .
Soit (a,b,c,d,e,f ) ∈R6 avec (a,b,c)≠(0,0,0).
r r
{
On appelle courbe du deuxième degré de (A,E) Γ = M ∈A; OM = x i + y j et Φ( x,y ) = 0 } où
Φ( x,y ) = ax + 2bxy + cy + dx + ey + f.
2 2

a b   x  x
∀( x,y ) ∈R 2 Φ( x,y ) = [ x y ] + [ d e ]  + f
123 b c   y  {
y
t
X 123 {
A X X

Réduction de l'équation de (Γ) par changement de base orthonormale mais en conservant la


même origine:
A est distincte de la matrice nulle et antisymétrique, donc A a des valeurs propres réelles. A est
diagonalisable sur R. Donc il existe une base de E constitué de vecteurs propres de A. Les
sous-espaces propres sont supplémentaires orthogonaux.
r r
( )
On note la nouvelle base I, J associée aux valeurs propres ( λ,µ ) .
Alors ax + 2bxy + cy = λX 2 + µY 2 .
2 2

De même dx + ey = αX + βY .
Donc ∀M ∈A f(M) = λX 2 + µY 2 + αX + βY + f .

Réduction de l'équation de (Γ) par changement d'origine du repère dans le cas de coniques à
centre:
a b
Dans le cas des coniques à centre, ≠ 0.
b c
 ∂f
 ∂x ( x,y ) = 2(ax + by ) + d = 0
Donc il existe un unique couple solution, ( x 0 ,y 0 ) , du système  .
 ∂f ( x,y ) = 2(bx + cy ) + e = 0
 ∂y
f a donc un unique point critique sur R , ( x 0 ,y 0 ) .
2

On adopte alors comme nouvelle origine le point O' ( x 0 ,y 0 ) .


r r
( )
Alors dans le repère orthonormal direct O', i , j , on a f(M) = aX' 2 +2bX' Y' +cY' 2 +f(O' ) .

Vous aimerez peut-être aussi