Calcul Différentiel 2 et Optimisation Numérique (2025)
Feuille de TD n°4
2
Exercice 1. Soient a, b ∈ R, a > 0, et soit f : x 7→ a x2 − bx. On se fixe un pas de descente τ > 0.
1. Écrire la suite générée par un descente de gradient issue d’un certain point x0 .
2. On suppose que x0 ̸= ab . Montrer à la main que la suite générée par la méthode de descente
de gradient converge si et seulement si τ a < 2. Quel est le taux de convergence ?
1
3. Que se passe-t-il si τ = a ?
Exercice 2 (Principe de Courant-Fisher, caractérisation variationnelle des valeurs propres). Soit
A ∈ Sd (R).
1. En notant Sd−1 la sphère unité de Rd , montrer que les problèmes d’optimisation
inf ⟨Ax, x⟩ , sup ⟨Ax, x⟩
x∈Sd−1 x∈Sd−1
ont des solutions.
2. Montrer que si λ1 (A) ≤ · · · ≤ λd (A) est la suite des valeurs propres ordonnées de A, on a
λ1 (A) = inf ⟨Ax, x⟩ , λd (A) = sup ⟨Ax, x⟩.
x∈Sd−1 x∈Sd−1
3. En déduire que
∥A∥ = max (−λ1 (A), λd (A)) .
Exercice 3 (Méthode des puissances itérées). Soit A ∈ Sd++ (R). On suppose que les valeurs
propres de A sont toutes distinctes. On les note 0 < λ1 < · · · < λd , et (u1 , . . . ud ) est une base
orthonormale de vecteurs propres associés.
1. Soit b ∈ Rd tel que ⟨b, ud ⟩ > 0. Montrer que
An b ∥An+1 b∥
lim = ud , et que λd = lim .
n→∞ ∥An b∥ n→∞ ∥An b∥
2. En déduire un algorithme itératif pour calculer λd et ud .
3. Soit b ∈ Rd tel que ⟨b, ud−1 ⟩ =
̸ 0, et soit eb := b − ⟨b, ud ⟩ud . Montrer que
Aneb ∥An+1eb∥
lim = ±ud−1 , et que λd−1 = lim .
n→∞ ∥Aneb∥ n→∞ ∥Ane
b∥
1
On rappelle que si ∥ · ∥∗ est une norme sur Rd , alors la norme d’opérateur induite par ∥ · ∥∗
(qu’on notera aussi ∥ · ∥∗ ) est définie pour toute matrice M ∈ Md (R) par
∥M x∥∗
∥M ∥∗ := sup
x∈Rd ∥x∥∗
et le conditionnement induit, qu’on notera cond∗ , est défini pour toute matrice inversible M ∈
GLd (R) par
cond∗ (M ) := ∥M ∥∗ ∥M −1 ∥∗ .
Exercice 4 (Propriétés de base du conditionnement). Dans tout cet exercice, ∥ · ∥∗ est une norme
fixée sur Rd .
1. Montrer que pour toute matrice M ∈ GLd (R) on a cond∗ (M ) ≥ 1.
2. Montrer que si M ∈ GLd (R) et si α ̸= 0, cond∗ (αM ) = cond∗ (M ).
3. Montrer que si M , N ∈ GLd (R) alors cond∗ (M N ) ≤ cond∗ (M )cond∗ (N ).
Exercice 5 (Conditionnement et transposition). On définit le rayon spectral d’une matrice
A ∈ Md (R) comme
ρ(A) = sup |λ|.
λ∈C ,λ valeur propre de A
1. Montrer que pour toute matrice A ∈ Md (R) on a ρ(At A) = ∥A∥2 (où ∥ · ∥ est la norme
d’opérateur induite par la norme euclidienne sur Rd ).
2. Montrer que pour toutes matrices A, B ∈ Md (R), si A est inversible, alors ρ(AB) = ρ(BA).
3. En déduire que cond(A) = cond(At ) (où cond est le conditionnement induit par la norme
euclidienne sur Rd ).
4. On considère désormais la norme ℓ1 sur Rd . On note cond1 le conditionnement induit par
cette norme. On veut savoir si cond1 (A) = cond1 (At ) pour toute matrice A ∈ GLd (R). En
dimension 3, montrer que cette propriété n’est pas valable en travaillant sur la matrice
2 0 0
A = 1 1 0 .
1 1 1
Exercice 6 (Propriétés importantes pour le conditionnement relativement à la norme euclidienne).
On travaille dans toutes ces questions avec la norme euclidienne sur l’espace Rd .
1. Invariance du conditionnement par transformation orthogonale Soient A ∈ GLd (R) et Q ∈
Od (R). Montrer que cond(QA) = cond(A).
2. Matrices de conditionnement minimal Soit M ∈ GLd (R) une matrice inversible telle que
son conditionnement soit égal à 1. Montrer que M = αQ pour un certain α ∈ R∗ et
Q ∈ Od (R).
3. Montrer que si A , B ∈ Sd++ (R), on a
cond(A + B) ≤ max (cond(A) , cond(B)) .
Exercice 7 (Erreur relative et conditionnement). Dans cet exercice, on veut montrer que le
conditionnement permet de contrôler l’erreur relative commise sur la solution d’un système linéaire
M x = b, quand on commet une erreur sur le terme de droite b ou sur la matrice M . On travaille
avec la norme euclidienne.
2
1. Avec une erreur sur le membre de droite : Soient A ∈ GLd (R) et b0 ∈ Rd \{0}. Soit x0 la
solution de
Ax0 = b0 .
Soit h ∈ Rd et xh la solution de
Axh = b0 + h.
Démontrer que
∥x0 − xh ∥ ∥h∥
≤ cond(A) .
∥x0 ∥ ∥b0 ∥
2. Avec une erreur sur la matrice : Soient A ∈ GLd (R), ε > 0, M ∈ Md (R) et b ∈ Rd \{0}.
Soit x0 la solution de
Ax0 = b.
En justifiant que, pour ε > 0 suffisamment petit, A + εM ∈ Gld (R) et en notant, pour
tout ε > 0 suffisamment petit, xε la solution de
(A + εM ) xε = b,
démontrer que
∥xε − x0 ∥ ε∥M ∥
≤ cond(A) .
∥xε ∥ ∥A∥