Metaplan Math
Metaplan Math
Julie Parreaux
2018 - 2019
Table des matières
I Leçons d’algèbre 4
Leçon 106 : Groupe linéaire d’un espace vectoriel de dimension finie E, sous-groupes de
GL( E). Applications. 14
Leçon 151 : Dimension d’un espace vectoriel (on se limitera au cas fini). Rang. Exemples
et applications. 35
Leçon 170 : Formes quadratiques sur un espace vectoriel de dimension finie. Orthogona-
lité, isotropie. Applications. 57
1
Leçon 182 : Application des nombres complexes à la géométrie. 60
II Leçons d’analyse 68
Leçon 214 : Théorème d’inversion locale, théorème des fonctions implicites. Exemples et
application en analyse et en géométrie. 75
Leçon 226 : Suites vectorielles et réelles définies par une relation de récurrence un =
f (un−1 ). Exemples. Applications à la résolution approchée d’équations. 91
Leçon 228 : Continuité et dérivabilité d’une fonction réelle à une variable réelle.
Exemples et applications. 93
Leçon 230 : Séries de nombres réels et complexes. Comportement des restes et des
sommes partielles des séries numériques. 98
Leçon 236 : Illustration par des exemples quelques méthodes de calcul d’intégrales. 103
Leçon 239 : Fonctions définies par une intégrale dépendant d’un paramètre. 105
Leçon 243 : Convergence des séries entières, propriétés de la somme. Exemples et appli-
cations. 107
2
Leçon 260 : Espérance, variance et moments d’une variable aléatoire. 115
Leçon 265 : Exemples d’études et d’applications des fonctions usuelles et spéciales. 121
3
Première partie
Leçons d’algèbre
4
Leçon 101 : Groupe opérant sur un
ensemble. Exemples et applications.
Développements de la leçon
Cardinal du cône nilpotent Coloriage d’un cube
Motivation
Défense
Les actions de groupes sont un outil puissant de la théorie des groupes. Elles sont égale-
ment à la base de la théorie de la géométrie (unification des différentes théorie). Les applica-
tions des actions de groupes sont nombreuses : rendre plus facile un problème en géométrie,
dénombrer des ensembles finis (coloriage, sur des corps finis, ...)
5
calculer des stabilisateurs et des orbites notamment dans le cadre de l’action par conjugaison.
Les théorèmes de Sylow peuvent avoir leur place dans cette leçon.
Parmi les applications des actions de groupes, on pourra citer des résultats de dénombre-
ment, comme par exemple la formule de Lucas qui permet de calculer efficacement les cœffi-
cients binomiaux.
S’ils le désirent, les candidats peuvent aller plus loin en décrivant les actions naturelles de
PGL(2, Fq ) sur la droite projective, ou de SL2 (Z) sur le demi-plan de Poincaré
En notant que l’injection du groupe de permutations dans le groupe linéaire par les ma-
trices de permutations donne lieu à des représentations, ils pourront facilement en déterminer
le caractère.
Métaplan
I. Actions de groupe [14, p.171] Les actions de groupes permettent d’étudier et de représenter
les éléments d’un groupe en étudiant des sous-groupe ou des ensembles induits par l’action du
groupe.
Définitions : Action de groupe + Morphisme (Une action n’est à priori pas un morphisme !)
Définition : Action de groupe fidèle (via l’action et du morphisme)
Exemples : Action triviale (le noyau de l’action est le noyau du morphisme sous-jacent est l’ensemble
(= éléments qui agissent trivialement)) ; action par permutation ; action par multiplication dans Z
Définitions : Stabilisateur + action libre + exemples via les précédents
Propositions [22, p.15] : Propriété du stabilisateur
Propositions[68, p.31] : Caractérisation du noyau (caractérisation de la fidélité)
Lemme : Existence d’une relation d’équivalence
Définitions : Orbite + action transitive + points fixes + exemples via les précédents
Proposition [22, p.16] : Caractérisation des actions transitives
II. Action de groupes sur un ensemble fini Les notions d’orbites et de stabilisateurs tels que nous
les avons présenté donnent des propriétés intéressantes sur le groupe ou sur l’ensemble. Plus
particulièrement, si au moins un de ceux-ci est fini, nous avons du dénombrement.
A. Formule des classes et conséquences Les orbites forment une partitions de l’ensemble. Si
l’ensemble est fini, on peut en déduire des propriétés sur son cardinal.
Proposition [68] : Lien entre orbite et stabilisateur Lemme [14, p.175] : Équation aux classes
Application [24, p.57] : Dénombrement de matrice sur un corps fini : matrice inversibles, groupe
spécial linéaire, famille libre (et donc d’application injective), endomorphisme diagonalisable.
Application [23] : Cône nilpotent Proposition : Formule de Burnside
Application [68, p.138] : Les sous-groupe de SO3 (R) Application [28, p.44] : Collier de perles
B. Étude des p-groupes via les actions de groupes [68, p.69] Les actions de groupes sont bien
pratiques pour étudier les p-groupes qui sont une classe de groupe fini particulière.
Définition : p−groupe Proposition : Points fixe d’un p-groupe
Théorème : Théorème de Cauchy Exemples : G = {e} ; D4
Théorème : Caractérisation des p−groupes Proposition : centres des p−groupes
Application : p2 toujours abélien Culture générale : Théorème : Théorèmes de Sylow
III. Actions d’un groupe sur lui-même Les actions d’un groupe sur lui-même peuvent être correc-
tement caractérisée : elles se classent par catégorie.
A. Action par translation [68, p.31] Les actions par translations permettent de facilité l’étude
des groupes finis en diminuant leur taille : on montre qu’ils sont isomorphes à un groupe
de taille inférieur.
Définition : Action par translation à gauche Remarque : Même chose à droite
Remarque : Dans le cas de matrices, on change la base d’un vecteur
Exemple : G opère sur P ( G )
6
Exemple : G opère sur G \ H (en pratique : étude des groupe fini sur ordinateur)
Proposition : Stab( G ) = {e} ; l’action est fidèle, libre et transitive
Application : Théorème de Cayley
B. Action par conjugaison [68, p.33] Dans le cadre de groupe sur les matrices, l’action par conju-
gaison permet de définir des classes de similitudes et des invariants. De plus, on définit
grâce à celle-ci la notion de matrices équivalente.
Définition : Groupe agissant par conjugaison + centralisateur
Définition : Dans le cas d’un groupe de matrice : changement de base
Proposition : Action jamais libre mais fidèle et transitive que si G = {e}
Proposition : Caractérisation du centralisateur Définition : Éléments conjugués
Définition : Normalisateur Proposition : Caractérisation d’un sous-groupe distingué
Définition : Classe de similitude Exemple : GLn (C)
Définition : Invariant Exemple : spectre
IV. Actions sur un ensemble de matrices Il existe des actions groupes particulière sur les matrices
nous permettant de caractériser un nombre important de propriétés.
A. Action par équivalence [22, p.5] Pour toute application ϕ on peut lui associé une représenta-
tion matricielle dans une base adéquate. C’est ce que fait cette action (elle nous permet de
reformuler le théorème du rang)
Cadre : G = GLn (K ) × GLn (K ) où K est un corps Définitions : action ; orbite et stabilisateur
Exemple : Im,n,r
Théorème : Caractérisation des orbites avec le rang (reformuler le théorème du rang)
B. Action par congruence [22, p.250] L’action par congruence permet de donner une classifica-
tion de deux matrices congruentes afin de classer les formes quadratiques.
Définition : Groupe agissant par congruence Théorème : Caractérisation orbites selon corps
Exemples : In et le groupe orthogonal Application : Loi de réciprocité quadratique
V. Application à la géométrie La première application des actions de groupes est en géométrie :
elles ont permis l’unification de la théorie.
A. Isométrie [9, p.52] Les isométries sont des applications sur un espace que l’on définie par les
actions de groupes. De plus, on les utilisent pour caractériser le groupe des isométries dans
certains cas.
Définition [18, p.108] : espace affine via les actions de groupe
Définition : groupe isométrie + isométrie positive (conservation de l’orientation)
Théorème : générateur du groupe des isométrie Application : les isométrie en dimension 3
Théorème [22] : Caractérisation des isométrie du tétraèdre
Théorème [22] : Caractérisation des isométrie du cube Application [22] : Coloriage du cube
B. Angles [38, p.313] On sait depuis très longtemps manipuler les angles : mais comment définir
cette notion ? Les actions de groupes et les rotations nous permettent de définir des objets
que nous ne connaissons pas bien.
Définition : Ensembles des demi-droites D et des vecteurs unitaires U
Proposition : Ces ensembles sont en bijection
Théorème : Le groupe O+ (P ) agit simplement transitivement sur U et U D
Définition : relation d’équivalence issues de ces actions + notions d’angle
Théorème : Bijection canonique sur l’ensemble des angles
Définition : Groupe des angle de demi-droites vectorielles Attention : l n’existe pas de groupe des
angles : ils sont toujours affiliés à un sous-groupe
Théorème : théorème fondamental de la mesure des angles.
Application : angle géométrique et somme des angles d’un triangle
7
Leçon 104 : Groupes finis. Exemples et
applications.
Développements de la leçon
Simplicité de An Cardinal du cône nilpotent
Motivation
Défense
Quelles sont les particularités des groupes finis ? Les groupes finis ont un cardinal finis, les
notions d’ordres d’indices et d’exposant prennent alors tous leurs sens. De plus, les actions de
groupes donnent des applications propres comme le dénombrement.
Pourquoi les étudions nous ? Outre leur "facilité" d’étude dû à leur cardinal fini : on peut par
exemple en tracé une table des loi, de nombreuses applications sont données par ces groupes
particulier. On les étudie pour l’arithmétique puis la cryptographie qu’on a réussi à développer
sur ces groupes. De plus, nous avons étudier des sous-groupes finis intéressant (vus comme
groupe fini) dans le cadre de la géométrie par exemple.
8
générateurs, savoir calculer un produit de deux permutations, savoir décomposer une permu-
tation en produit de cycles à supports disjoints. Il est important que la notion d’ordre d’un élé-
ment soit mentionnée et comprise dans des cas simples. Le théorème de structure des groupes
abéliens finis doit être connu. Il est bon de connaître les groupes d’ordre p et p2 pour p premier
ainsi que les groupes d’ordre inférieur à 8.
Les exemples doivent figurer en bonne place dans cette leçon. Les groupes d’automor-
phismes fournissent des exemples très naturels. On peut aussi étudier les groupes de symétries
A4 , S4 , A5 et relier sur ces exemples géométrie et algèbre, les représentations ayant ici toute
leur place ; il est utile de connaître les groupes diédraux.
S’ils le désirent, les candidats peuvent ensuite mettre en avant les spécificités de groupes
comme le groupe quaternionique, les sous-groupes finis de SU(2) ou les groupes GLn Fq .
Métaplan
I. Groupes finis ? [21, p.8] Qu’est-ce qu’un groupe fini ? Peux-ton les classifier ? Comment faire
lorsqu’ils sont plus grand ?
Définitions : groupes, groupes fini (et l’ordre d’un groupe), sous-groupe, groupe cyclique.
Exemple d’un groupe fini avec une table de Cayley (abélien et non abélien) (Différencier des groupes
comme Z/2Z × Z/2Z et Z/4Z).
Proposition [14, p.385] : Classification des groupes fini de taille ≤ 15 (Donner des exemples)
II. L’ordre, l’indice et l’exposant d’un groupe fini L’apport indéniable d’un groupe fini est son
cardinal fini. En effet, il est alors possible de raisonner sur ce cardinal et d’en étudier des relations.
Il est alors facile de mettre en avant les notions d’ordre, d’indice et d’exposant.
A. Théorème de Lagrange et ordre d’un élément [11, p.115] On étudie l’ordre d’un élément car
il nous donne des renseignements précieux sur la structure du groupe fini.
Théorème : Théorème de Lagrange (Garder en tête : les classes de g modulo H sont équipotentes.)
Définition : Ordre d’un élément (Garder en tête que l’existence d’un tel élément n’est pas assuré)
Corollaire : Ordre d’un élément divise ordre du groupe
Application en arithmétique [53, p.211] : p, q premiers impairs vérifiant q|2 p − 1. Alors q = 1[ p].
Corollaire [68, p.25] : Un groupe d’ordre p premier est cyclique.
Exemple : F∗p vu comme groupe est cyclique.
B. Groupe quotient et indice d’un sous-groupe [21, p.77] L’indice d’un sous-groupe permet de
caractériser les sous-groupes distingué. Il donne également quelques relations sur le cardi-
nal des groupes mis en jeu.
Définition [21, p.149] : Sous-groupe distingué
Définition [21, p.149] : Groupe quotient (le quotienté est un groupe si le sous-groupe qui le quo-
tiente est distingué)
Définition : Indice d’un groupe
Remarque : L’indice peut être fini sans que le groupe ni le sous-groupe le sois : Z et nZ.
Théorème : Théorème de Poincaré Théorème : Formule des indices
Application : Indice 2 = sous-groupe distingué
C. Exposant d’un groupe et indicateur de Carmicaël [11, p.127] Trouver l’ordre d’un élément
n’est pas toujours simple : nous cherchons alors un multiple de tous les ordres d’un élément
qui est raisonnable
9
Définition : Exposant de groupe
Proposition : Relation de divisibilité de l’ordre d’un groupe et de son exposant
Définition : Indicateur de Carmicaël Proposition : propriété de l’indicatrice de Carmicaël
Application : Pour tout x impaire et non multiple de 3, x2 − 1 est multiple de 24.
D. Groupes abéliens finis et étude de Z/nZ [53, p.207] Lorsque le groupe fini est abélien, il
existe un théorème de structure qui nous permet de nous concentrer uniquement sur l’étude
des groupe Z/nZ.
Théorème : Théorème de structure pour les groupes abéliens fini
Remarque : théorème de structure des groupe abélien de type fini.
Proposition : Soient m et n deux entiers ≥ 1. Pour que GLn (C) etGLm (C) soient isomorphes (en
tant que groupes), il faut et il suffit que m = n.
Proposition : Soit n ≥ 2 un entier. Pour que tout groupe d’ordre n soit cyclique, il faut et il suffit
que n et ϕ(n) soient premiers entre eux (où ϕ désigne la fonction d’Euler).
Propriétés sur Z/nZ [11, p.121] : générateurs ; éléments inversibles
Application [11, p.220] : cryptographie (Diffie-Hellman)
III. Actions de groupes finis [68, p.27] Un des intérêt des groupes finis est l’étude des actions de
groupes via ses groupes. On peut alors définir des notions de dénombrement ou étudier certains
types de groupes
Définitions : Actions de groupe (action et morphisme) Définition : Orbites
Définition : Stabilisateurs Définition : Point fixes
A. Théorème de Cayley et étude de Sn [14, p.201] Les actions de groupes permettent d’établir
le théorème de Cayley qui justifie l’étude restreinte aux groupes Sn .
Théorème : Théorème de Cayley (actions transitives, justification de l’étude de Sn )
Proposition : Existence de sous-groupe distingué
Étude de Sn : générateurs (et applications), produit de transpositions, décomposition en cycles, ...
Étude de An : définition, générateurs, simplicité
B. Équation aux classes et dénombrement [14, p.172] Les orbites forment une partitions de
l’ensemble. Si l’ensemble est fini, on peut en déduire des propriétés sur son cardinal.
Proposition [68] : Lien entre orbite et stabilisateur Lemme [14, p.175] : Équation aux classes
Application [24, p.57] : Dénombrement de matrice sur un corps fini : matrice inversibles, groupe
spécial linéaire, famille libre (et donc d’application injective), endomorphisme diagonalisable.
Application [23] : Cône nilpotent Proposition : Formule de Burnside
Application [68, p.138] : Les sous-groupe de SO3 (R) Application [28, p.44] : Collier de perles
C. Étude des p-groupes via les actions de groupes [68, p.69] Les actions de groupes sont bien
pratiques pour étudier les p-groupes qui sont une classe de groupe fini particulière.
Définition : p−groupe Proposition : Points fixe d’un p-groupe
Théorème : Théorème de Cauchy Exemples : G = {e} ; D4
Théorème : Caractérisation des p−groupes Proposition : centres des p−groupes
Application : p2 toujours abélien Culture générale : Théorème : Théorèmes de Sylow
10
Leçon 105 : Groupe des permutations
d’un ensemble fini. Applications.
Développements de la leçon
Coloriage du cube Simplicité de An
Motivation
Défense
L’étude du groupe Sn est primordiale car celui-ci intervient dans de nombreux domaines
des mathématiques : on le voit en algèbre linéaire, en géométrie. De plus, dans la théorie des
groupes, il tient une place à part puisque grâce aux actions de groupes (via le morphisme
de structure), il est au cœur de la théorie des actions de groupes. le groupe symétrique est
également (via le théorème de Cayley) un bon moyen de bien connaître les groupes finis, et en
particulier les groupes finis non-abéliens.
Les actions de groupes sont un bon moyen de bien connaître un groupe. Étant donné la
place privilégiée de Sn , ceux-ci est encore plus vrai dans ce cadre. Le but de la leçon est alors
l’étude du groupe S( E) pour E contenant au moins deux éléments qui n’est à priori pas un
groupe abélien (sauf dans le cas où | E| = 2).
11
L’existence du morphisme signature est un résultat non trivial mais ne peut pas constituer,
à elle seule, l’objet d’un développement. Il est bon d’avoir en tête que tout groupe fini se plonge
dans un groupe symétrique et de savoir calculer la signature des permutations ainsi obtenues
dans des cas concrets.
Les applications sont nombreuses, il est très naturel de parler du déterminant, des poly-
nômes symétriques ou des fonctions symétriques des racines d’un polynôme. On peut égale-
ment parler du lien avec les groupes d’isométries des solides.
S’ils le désirent, les candidats peuvent aller plus loin en s’intéressant aux automorphismes
du groupe symétrique, à des problèmes de dénombrement, aux représentations des groupes
des permutations ou encore aux permutations aléatoires.
Métaplan
I. Le groupe des permutations On commence par donner quelques premières définitions et pro-
priétés notamment autours de la commutativité et des actions de groupes.
A. Le groupe des permutations [14, p.201] On justifie ici pourquoi on étudie uniquement les
groupes Sn . On donne également quelques éléments sur la commutativité.
Définition : Ensemble des permutations Proposition : Groupe des permutations
Proposition : Conservation de l’isomorphisme par les permutations (justification de Sn )
Proposition : Cardinal de Sn Proposition [44, p.21] : Caractère non-abélien de Sn
Proposition [44, p.21] : Centre de Sn Définition : Support (donne la commutativité)
Proposition : Propriété du support
Proposition : Caractérisation de la commutativité à l’aide du support
B. Actions de groupe et Sn [14, p.171] Les actions de groupes et le groupes symétriques sont
très liés (via le morphisme structurel). On va aussi regarder l’action de Sn sur un ensemble.
Définition : Action de groupe (via le morphisme structurel) ; orbite ; stabilisateur
Proposition [68, p.42] : Action de Sn sur Sm Théorème : Théorème de Cayley
Définition : Polynôme symétrique et alterné via les actions de groupe
Proposition : Symétrique ⇒ alterné et symétrique pour toute transpositions
Théorème : Définition des polynômes symétriques élémentaires
Remarque : Relation coefficients-racines
II. Décomposition de permutation en produits de cycles [14, p.204] La décomposition en pro-
duits de cycles est une opération très importante qui résulte de l’action naturelle de Sn sur lui-
même. Elle nous donne le premier système de générateurs ainsi que les classes de conjugaison.
A. Notion de cycles La notion de cycle découle directement de la notion d’orbite par cette action
Définition : Orbite Proposition : Propriétés : singleton, partition, ordre.
Définition : Cycle, transposition + notations Proposition : Caractérisation des cycles
Lemme : Ordre d’un cycle Application : Inverse d’une transposition
Proposition [21, p.112] : Nombre de transposition
B. Décomposition en produits de cycles On donne maintenant le résultat de la décomposition en
cycle. On donne également la méthode pour trouver la décomposition en cycle en pratique,
ainsi que quelques conséquences.
Théorème : Décomposition en cycle Méthode : En pratique sur un exemple
Théorème : Ordre d’une permutation quelconque
C. Système de générateurs Les systèmes de générateurs est l’un des premiers outils que nous
possédons pour décrire un groupe de manière simplifiée. Le premier système de générateur
est donné par cette décomposition en cycles.
Proposition : Par cycle Application : Calcul de l’ordre d’un élément
Proposition : Par transition Application : Définir un morphisme : Isométrie du cube
Proposition : Par (1 2)(1 . . . n)
12
Remarque : Ne fonctionne pour n’importe quelle transition (exemple pour n = 4)
Application : Les groupes finis engendré par deux éléments : Z/2Z × Z/2Z
Application : Contre-exemple à la réciproque : tout groupe fini simple est engendré par deux
éléments.
D. Classes de conjugaison On termine par donnée les classes de conjugaison de Sn via leur
définition par la décomposition en cycle distincts.
Définition : Deux permutations conjuguées dans Sn Lemme : Conjugaison d’un cycle
Théorème : Caractérisation de la conjugaison de deux permutations
Définition : Type d’une permutation
Corollaire : Bijection entre les types et les classes de conjugaisons
Exemple : Classes de conjugaison de S4 .
III. Le groupe alterné An [14, p.215] Un sous-groupe bien connu de Sn est An le groupe alterné.
A. Signature d’une permutation Le morphisme signature nous permet de définir le groupe al-
terné.
Théorème : Morphisme de signature Définition : Signature
Application : Déterminant Définition : Groupe alterné
Proposition [68, p.50] : Cardinal Proposition : Calcul de la signature
Application : Signature d’un cycle
B. Le groupe alterné Le groupe alterné est le sous-groupe distingué de Sn .
Proposition : Générateurs de An Proposition : Les 3-cycles sont conjugués dans An
Proposition : An est un sous-groupe distingué dans Sn
Application (Cayley) : Sn se plonge dans Am . Théorème : An est simple pour n 6= 4
Contre-exemple : A4 est pas simple (sous-groupe engendré par les double transpositions)
Application : Sous-groupes distingué de Sn .
13
Leçon 106 : Groupe linéaire d’un espace
vectoriel de dimension finie E,
sous-groupes de GL( E). Applications.
Développements de la leçon
Cardinal du cône nilpotent Caractérisation de O p,q
Motivation
Défense
Le groupe linéaire est un des premiers groupes que l’on peut introduire pour parler de
théorie des groupes en algèbre linéaire. Il est composé des automorphismes d’un espace vec-
toriel. On est alors amené à utiliser des notions d’algèbre linéaire pour étudier un groupe.
14
S’ils le désirent, les candidats peuvent aller plus loin en remarquant que la théorie des
représentations permet d’illustrer l’importance de GLn (C) et de son sous-groupe unitaire.
Métaplan
Cadre : K est un corps et E un K-espace vectoriel de dimension finie n.
I. Le groupe linéaire [56, p.95] Le groupe linéaire est le groupe formé des applications linéaires
inversibles dont l’outil matriciel permet son étude.
A. Groupes GL( E) et SL( E)
Définition : groupe linéaire Remarque : GL( E) ' GLn (K ) (outil matriciel)
Proposition [40, p.115] : caractérisation de GL( E) Proposition [53, p.208] : GLn ( E) ' GLm ( E)
Proposition : morphisme déterminant Définition : groupe linéaire spécial
Remarque : SL( E) ' SLn (K ) (interprétation) Remarque : SL( E) distingué dans GL( E)
B. Système de générateurs pour ces groupes On cherche les générateurs les plus simples : ici ils
sont donnés par des hyperplans. La méthode du pivot de Gauss est soit une application soit
un élément pour exhiber les générateurs.
Définition-Proposition : Dilatation Remarque : Définition des réflexions
Définition-Proposition : Transvection Proposition : Conjugaison des transvections
Théorème : Générateur de SL( E) Corollaire : Générateur de GL( E)
Application : Pivot de Gauss Application : Calcul de l’inverse
C. Exemple de sous-groupes de GL( E) et de SL( E) Deux exemples de sous-groupes : les centres
et les sous-groupes finis.
Théorème : Centre Application : La non-simplicité des groupes
Remarque : Groupe projectif linéaire Définition [26, p.207] : Matrice de permutation
Remarque [26, p.207] : lien entre déterminant et signature Théorème : Cayley
Corollaire : Un groupe fini G se plonge dans GLn (K ) Théorème [34, p.185] : Burnside
II. Actions de GL( E) GL( E) agit sur de nombreux espaces : les matrices, les groupes ; avec plusieurs
actions classiques
A. Actions naturelles
Définition : Action transitivement à gauche Remarque : Changement de base pour un vecteur
Définition : Action par conjugaison Remarque : Changement de base
Définition : Classe de similitude Définition : Invariant
B. Action par équivalence [22, p.5] Pour toute application ϕ on peut lui associé une représenta-
tion matricielle dans une base adéquate. C’est ce que fait cette action (elle nous permet de
reformuler le théorème du rang)
Cadre : G = GLn (K ) × GLn (K ) où K est un corps
Définitions : Action ; orbite et stabilisateur Exemple : Im,n,r
Théorème : Caractérisation des orbites avec le rang (reformuler le théorème du rang)
C. Action par congruence [22, p.250] L’action par congruence permet de donner une classifica-
tion de deux matrices congruentes afin de classer les formes quadratiques.
Définition : Groupe agissant par congruence
Théorème : Caractérisation des orbites selon le corps
Exemples : In et le groupe orthogonal Application : Loi de réciprocité quadratique
III. Le rôle du corps de base Le corps de base joue un rôle essentiel dans certaines propriétés du
groupe linéaire. Nous allons en étudier certaine.
A. Groupe linéaire fini : corps finis [24, p.60]
Proposition : Cardinal de GLn (Fq ) Théorème : Nombre de matrice diagonalisable sur GLn (Fq )
Définition : Groupe spécial projectif Théorème : Cardinal du cône nilpotent
15
B. Groupe linéaire réel et complexe
Cadre : K = R ou C Proposition : GLn (K ) est dense dans Mn (K )
Application : χ AB = χ BA Application : Différentielle du déterminant
Proposition : GLn (C) est connexe par arcs Remarque : GLn (R) ne l’est pas
Application : ensemble des projecteurs de rang p est connexe
Proposition : SL(C) et SL(R) sont connexes par arcs
IV. Groupe orthogonal Le groupe orthogonal est un sous-groupe particulier de GL( E). On peut le
voir et l’utiliser avec de nombreux points de vus : forme quadratique, action de groupe, orthogo-
nalité, ...
A. Groupe orthogonal et groupe orthogonal spécial [56, p.141] Le groupe orthogonal peut égale-
ment être vu comme le groupe du stabilisateur de In par l’action de congruence sur GL( E)
Définition [22, p.259] : Groupe orthogonal Remarque : Sous-groupe de GL( E).
n ( n −1)
Proposition : Dimension : 2 Proposition : Morphisme déterminant
Définition : Groupe orthogonal spécial Application [22, p.259] : Angle du plan
B. Décomposition polaire [22, p.347] Le principe diviser pour régner appairait aussi dans les
mathématiques : les décompositions de Dunford ou polaire en sont des exemples intéres-
sants : elle permet de régner sur les groupes classiques.
Théorème : Compacité de On (R) et SOn (R) dans Mn (R)
Application : décomposition polaire est un homéomorphisme
Corollaire : spectre d’une matrice inversible
Application : Sous-groupe compact de GLn (R) contenant On (R) est On (R)
Proposition : Sous-groupe fini de GLn (R) conjugué à On (R)
C. Étude du groupe O p,q [22, p210] Le groupe orthogonal peut également être vu comme le
groupe du stabilisateur de I( p, q) par l’action de congruence sur GL( E)
Définition : O p,q Théorème : Caractérisation de O p,q
16
Leçon 108 : Exemples de parties
génératrices de groupe. Applications.
Développements de la leçon
Simplicité de An Générateurs de SL2 (Z)
Motivation
Défense
— Étudier et identifier la structure des groupes ;
— Simplifier des études de morphismes (cas d’égalité) ;
— Montrer des propriétés sur les groupes ;
17
Métaplan
I. Introduction [21, p.27-29] On rappelle la notion de parties génératrices. La taille des parties gé-
nératrices ne montre pas la complexité du dit groupe. Cadre : G est un groupe de type fini ; E est un
K-espace vectoriel de dimension finie où K est un corps.
Définition : Groupe engendré par une partie que l’on note < S >
Exemple : S = x ; G = Z et < S >= { x n ; n ∈ Z} Définition : Partie génératrice d’un groupe
Exemple : G = Z qui est engendré par {1}.
Définition : Le rang d’un groupe G est le cardinal minimal d’une partie génératrice de G.
Exemple : Par ce qui précède, le rang de Z est 1. Définition : Un groupe de type fini
Exemple : Z est de type fini
Contre-exemple : U = ∪n∈N Un où Un est l’ensemble des racines de l’unités.
II. Les groupes monogènes et cycliques [14, p.156] Ce sont les groupes qui possède le système
de générateur le plus simple : un élément. Ils sont de rang un.
A. Définitions et caractérisations des groupes monogènes et cycliques
Définition : Groupe monogène Exemple : Z est monogène.
Définition : Groupe cyclique Exemple : Z/nZ est cyclique.
Théorème : Caractérisation des groupes monogène.
Application : Deux groupes monogènes infinis sont isomorphes.
Application : Deux groupes cycliques de même ordre sont isomorphes.
Proposition Tout groupe fini d’ordre premier p est cyclique Contre-exemple à la réciproque.
Application : Si q = pn avec p premier alors F∗q est cyclique.
Sous-groupe d’un groupe cyclique.
B. Étude des générateurs des groupes monogènes et cycliques
Définition : Indicatrice d’Euler φ
Théorème : Caractérisation des générateurs d’un groupe monogène
Application : Si G est un groupe cyclique d’ordre n, alors il possède φ(n) générateurs distincts
C. Problème du logarithme discret et application à la cryptographie [11, p.217] Une applica-
tion aux générateurs d’un groupe est la cryptographie grâce à la difficulté du problème du
logarithme discret.
Définition : le problème du logarithme discret.
Remarque : Le problème est dure si n est un facteur d’un grand nombre premier.
Applications : Diffie-Helmann et cryptosystème d’elderman
II. Exemples de groupes de rang 2
A. Le groupe symétrique [14, p.214] Le groupe symétrique est un bon moyen de connaître les
groupes finis. Donc le connaître est primordial
Définition : Groupe symétrique Définition : Signature
Théorème : Système de générateurs du groupe symétrique.
Applications : contexte d’utilisation de ces systèmes de générateurs
Théorème : décomposition de cycle à support disjoint
Application : Le groupe des isométrie conservant le tétraèdre (le cube) est isomorphe à S. C’est
un exemple assez trivial d’utilisation des générateurs du groupe afin de montrer la surjectivité
d’un morphisme (étude de morphismes)
B. Le groupe alternée [14, p.215]
Définition : Groupe alterné Théorème : Système de générateur du groupe alterné
Définition : Simplicité Principe : Preuve de la simplicité
Théorème : An est simple pour n > 5 Application : Sous-groupes distingué de Sn .
Application : Pas de surjection entre Sn et Sn+1
18
C. Le groupe SL2 (Z) et l’utilisation de la géométrie On utilise la géométrie et les actions de
groupes pour trouver les générateurs. On a un groupe de matrice de rang 2.
Définitions : Droite projective et homographie Proposition : Propriétés des homographies
Définition : Le groupe SL2 (Z) Propriété : L’ensemble de ces générateurs
III. Les groupes de rang r quelconque
Théorème [53, p.207] : théorème de structure pour les groupes abéliens de type fini
Application : Dans ce cas on étudie uniquement les groupes Z/nZ.
A. Le groupe linéaire [56, p.95] On cherche les générateurs les plus simples : ici ils sont donnés
par des hyperplans. La méthode du pivot de Gauss est soit une application soit un élément
pour exhiber les générateurs.
Définition : GL ( E), SL ( E), GL n (K), SL n (K) Définitions : Transvection et dilatation
Théorème : SL ( E) est engendré par les transvections
Théorème : GL ( E) est engendré par les transvections et les dilatations
Application : SL ( E) est connexe par arcs Application : Le pivot de Gauss et sa complexité
Application : Le calcul du centre de SL ( E) et de GL ( E)
B. Le groupe orthogonal [56, p.141] Le groupe orthogonal est un sous-groupe de GL( E) qui
possède son propre système de générateurs.
Définition : O ( E), SO ( E), O n (K), SO n (K) Définition : Symétrie orthogonale
Définition : Réflexion Définition : Renversement
Théorème : SO ( E) est engendré par les renversement
Théorème : O ( E) est engendré par les symétries hyperplans
Théorème : Cartan–Dieudonné Théorème : SO3 (R) est simple
Application : SOn (R) est connexe par arc
19
Leçon 120 : Anneaux Z/nZ.
Applications.
Développements de la leçon
Équation de Sophie Germain Loi de réciprocité quadratique
Motivation
Défense
L’anneaux Z/nZ est bien connu depuis longtemps : il nous sert dans de nombreuses appli-
cations arithmétiques ou cryptographique. Cet ensemble définit à partir de Z un ensemble que
nous connaissons bien est riche structurellement puisqu’il possède une structure de groupe
(cyclique), d’anneau et de corps (fini) sous certaines hypothèses. De plus, on l’utilise en cryp-
tographie (via ses générateurs ou via les nombres premiers) et en arithmétique lorsque l’on
souhaite résoudre des équations arithmétiques.
20
Il faut bien sûr savoir appliquer le théorème chinois à l’étude du groupe des inversibles et,
ainsi, retrouver la multiplicativité de l’indicatrice d’Euler. Toujours dans le cadre du théorème
chinois, il est bon de distinguer clairement les propriétés de groupes additifs et d’anneaux.
Enfin, il est indispensable de présenter quelques applications arithmétiques des propriétés
des anneaux Z/nZ, telles que l’étude de quelques équations diophantiennes bien choisies.
De même, les applications cryptographiques telles que l’algorithme RSA sont naturelles dans
cette leçon.
S’ils le désirent, les candidats peuvent aller plus loin en s’intéressant au calcul effectif des
racines carrées dans Z/nZ, au logarithme discret, ou à la transformée de Fourier rapide. Il est
également possible de parler des nombres p-adiques.
Métaplan
Prérequis Définition : Relation de congruence sur Z et leurs classes d’équivalences.
I. Structures de Z/nZ On peut munir l’ensemble Z/nZ de différentes structures algébriques. Il est
un bon exemples pour l’introduction des ces notions car c’est un groupe, un anneaux et un corps
(finis) sous certaines hypothèses.
A. Structure de groupe [14, p.156] Le groupe additif de Z/nZ fait parti des groupes les plus
simples puisqu’il est cyclique.
Proposition : Structure de groupe via le quotient Proposition : 1 est générateur
Application : Z/nZ est cyclique Proposition : Caractérisation des générateurs
Application : Logarithme discret Proposition : Sous-groupes
Proposition : Structure pour les groupes cycliques
Théorème [68] : Structure pour les groupes abéliens de type fini
B. Structure d’anneau [40, p.31] La structure d’anneau est certainement la plus connu des
structures pour Z/nZ. Comme pour la structure de groupe, elle provient d’un quotient.
Elle nous permet de définir l’indicatrice d’Euler qui possède de nombreuses applications.
Lorsque p est premier, on a également une structure de corps.
Proposition : Structure d’anneau via le quotient Proposition : Caractérisation des inversibles
Application : Résolution d’équation diophantiennes ax ≡ b[n] .
Application : Calcul d’un inverse. Définition : Indicatrice d’Euler
Proposition : Caractérisation de la structure de corps Application : Valeur de ϕ si p premier
Proposition : n = ∑d|n ϕ(d) Théorème [56, p.74] : Cyclicité du groupe des inversibles
Application : inversibles pour p premier Définition : Caractéristique d’un anneau
Proposition : Caractéristique de notre corps
Proposition : Morphisme de corps via la caractéristique non nul d’un corps
C. Étude des morphismes [40, p.31] Le théorème chinois possède de nombreuses application en
arithmétique : c’est un isomorphisme très important.
Théorème : Théorème chinois Remarque : Calcul de la réciproque
Application : Calcul de ϕ Application [13, p.244] : Algorithme de Berlekamp
Application : Résoudre des systèmes de congruence
II. Arithmétique Une des applications importantes de l’anneau Z/nZ est l’arithmétique des en-
tiers : en cryptographie ou pour résoudre des équations diophantiennes. Nous allons étudier
deux grandes notions dans cette arithmétique : la primalité (et son application à la cryptogra-
phie) et les résidus quadratique (et leur application aux équations diophantiennes)
A. Primalité [48, p.189] La primalité, la recherche de primalité est une notion importante en
arithmétique car elle est à la base de la sûreté de nombreux protocoles cryptographique. De
plus, comme nous avons vu précédemment les nombres premiers donnent de nombreuses
propriétés aux anneaux Z/nZ. Les connaître et savoir les trouver sont des notions impor-
tantes.
21
Théorème [32, p.96] : Infinité de nombre premiers
Proposition [32, p.96] : Théorème de Dirichlet faible
Théorème : Petit théorème de Fermat
Remarque : Réciproque est fausse (il nous faut une meilleur caractérisation pour les trouver)
Théorème [33, p.167] : Théorème de Sophie-Germain
Théorème : Théorème de Wilson Remarque : Complexité trop importante
Application : Tests de primalité : Fermat, Miller–Rabin, ...
Théorème [48, p.222] : RSA Application [48, p.222] : Chiffrement RSA
Remarque : Sécurité du chiffrement : factorisation
B. Résidus quadratiques [32, p.119] Les résidus quadratiques interviennent dans la recherche
de nombres premiers : ils sont à la base d’un certains nombres de tests de primalité. De plus,
ils permettent de résoudre des équations diophantiennes du second degré.
Définition : Symbole de Legendre Théorème : Loi de réciprocité quadratique
Application : 3 est un carré modulo p si et seulement si p ≡ +/ − 1[12]
Théorème : Nombre de Mercène Application : Test de primalité Lucas–Lehmer
Application : PRIMES est dans NP Application : solution d’équation diophantienne
22
Leçon 121 : Nombres premiers.
Développements de la leçon
Équation de Sophie Germain Loi de réciprocité quadratique
Motivation
Défense
Les nombres premiers sont partout en mathématiques ou dans la science en général. En ef-
fet, lorsqu’on étudie l’arithmétique, ils ont une place centrale qu’on a essayé de reproduire
dans les autre anneaux, comme dans les anneaux factoriels. Idée : on aime fragmenter les
choses pour revenir au problème initial.
On les retrouve aussi dans d’autres sciences, comme en cryptographie, où la sécurité de
nombreux protocoles découlent de la difficulté à les trouver et à factoriser un entier quel-
conque.
Les nombres premiers donnent de nombreux résultats en arithmétiques : factorisation, ex-
tension des notions, corps finis, ... Leurs répartitions et leurs détections ne sont pas encore bien
comprises, il nous faut donc de nombreux tests qui ne sont pas correct (ou complet) afin d’avoir
une certitude importante qu’on a bien un nombre premier. Enfin, on en déduit les applications
à l’arithmétique comme RSA.
23
Quelques résultats sur les corps finis et leur géométrie sont les bienvenus, ainsi que des
applications en cryptographie.
Métaplan
I. Arithmétique et corps finis
A. Nombre premier [4, p.95] La notion de nombre premier vu comme un élément irréductible
est tellement centrale en arithmétique a été étendue aux autres anneaux afin qu’on puisse
faire de l’arithmétique sur ceux-ci.
Définition : Nombre premier Exemple
Proposition : Tout entier supérieur à 2 admet un diviseur premier
Théorème : Théorème fondamental de l’arithmétique Définition : Valeurs p-adique
Corollaire : Décomposition avec les exposants p-adique Définitions : Pgcd et ppcm
Application : exprimer pgcd et ppcm avec les exposants p-adique
Lemme : Lemme de Gauss Lemme : Lemme d’Euclide
Remarque : On souhaite étendre la notion d’élément irréductible dans tous les anneaux. Un an-
neau qui admet une décomposition à facteur irréductible est un anneau factoriel.
Théorème : Sophie Germain
B. Z/pZ avec p premier [39, p.31] Le théorème chinois motive l’étude des Z/pZ, puisque
tout anneau Z/nZ peut être étudier comme produit fini de Z/pZ avec p premier. Puis on
donne ces propriétés intéressantes.
Théorème : Théorème chinois Remarque : Extension pour un produit fini
Application : Système linéaire de congruence
Proposition : nZ est un idéal premier si et seulement si n est premier
Corollaire : Z/nZ est un corps si et seulement si n est premier
Définition : Indicatrice d’Euler Proposition : Propriétés de l’indicatrice d’Euler
Théorème : Théorème de Fermat Remarque : Réciproque est fausse
Théorème [22, p.182] : Loi de réciprocité quadratique
Remarque : Elle reste vrai dans le cas où n est non premier : utilisation du symbole de Jacobi.
Théorème [48, p.189] : Critère de primalité avec le symbole de Legendre
II. Répartition et tests de primalité
A. La répartition des nombres premiers [32, p.96] Comment les nombres premiers sont-ils ré-
partis ? En existe-t-il une infinité ? Il y a une infinité de nombre premier et ils sont assez
nombreux pour faire diverger la série de l’inverse des nombres premiers. La méthode la
plus ancienne, le crible d’Ératosthène, pour trouver la liste des nombres premiers inférieur
à n.
Proposition : l’ensemble des nombres premiers est infini.
Proposition : la somme des 1/p impair diverge
Proposition : si n ne possède aucun diviseur p premier, alors n est premier.
Exemple : 89 est un nombre premier car 2, 3, 5, 7 ne le divise pas.
Application : Crible d’Ératosthène
Théorème (Dirichlet, progression arithmétique) Admis : Pour tout nombre a, b premier entre eux,
il existe une infinité de nombre premier p de la forme pb (mod a)
x
Théorème (De La Vallée Poussin) Admis : répartition des nombres premiers log x ∼ π ( x ).
B. Tests de primalité [48, p.189] Si on me donne un nombre, est-il premier ?
Définition : Problème PRIMES Proposition : PRIMES est co-NP
Algorithme : Test de primalité de Fermat Proposition : Complexité
Définition [32, p.184] : Nombre pseudo-premier
Définition [32, p.184] : Nombre de Carmichael
Proposition : Les nombres pseudo-premier passent le test de Fermat.
24
Théorème Admis : Le nombre de nombre pseudo-premier pour une base donnée est un petit o du
nombre de nombre premier
Algorithme : Test de primalité de Miller–Rabin Proposition : Complexité
Théorème : Le nombre de témoins est au moins n−
2
1
25
Leçon 123 : Corps finis. Applications.
Développements de la leçon
Algorithme de Berlekamp Loi de réciprocité quadratique
Motivation
Défense
Hisotique Les travaux d’Abel, de Gauss, ... ont donné les structures de groupes. On en ensuite
voulue les généralisé en construisant des anneaux, des algèbres à divisions et des corps.
Applications Cryptographie ; transformée de Fourier discrète ; Code correcteurs
Métaplan
Cadre : Un corps A est un anneaux commutatif non nul tel que A∗ = A \ {0}. Il est fini si | A| est fini.
26
I. Corps finis et structures [56] On considère K un corps fini (on sait qu’il en existe un) et on souhaite
étudier ses propriétés.
Proposition : Z/pZ est un corps si et seulement si p premier
Application : Existence de tel corps
II. Polynômes sur les corps finis Sur les corps finis l’étude des polynômes et de leur irréductibi-
lité est intéressante car moins facile que dans R ou C. De plus, nous expliciterons une méthode
algorithmique afin de factoriser des polynômes réductibles.
A. Critère d’irréductibilité [56]
Définition : Polynôme irréductible
Proposition : P ∈ Fq [ X ] est irréductible si et seulement si P n’a pas de racines dans les extensions
de Fq de degré inférieur ou égal à n2 .
Proposition : P ∈ Fq [ X ] de degré n, soit K une extension de degré m avec pgcd(m, n) = 1. Alors P
est irréductible sur K.
Proposition [40] : Critère d’Eisenstein
P ∈ Q[ X ] : si sa réduction sur Fq (avec an 6= 0) est irréductible alors P irréductible sur Q et Z.
Remarque : Réciproque est fausse.
B. Factorisation des polynômes [13]
Algorithme de Berlekamp Application : Factorisation des polynômes
III. Corps finis et arithmétique On conclut cette leçon avec un peu d’arithmétique et l’utilisation
des corps finis dans l’étude des carrés ou des nombres premiers.
A. Carrés sur les corps finis [32, p.119]
Définition : Ensembles des carrés Proposition : Cyclicité de ces groupes
Remarque : Difficulté de trouver des générateurs Proposition : Caractérisation des carrés
27
Corollaire : Caractérisation de −1 est un carré
Application : Classification des formes quadratiques sur Fq par le discriminant.
Définition : Symbole de Legendre Proposition : Propriétés de ce symbole
Proposition : Loi de réciprocité quadratique Application : Calcul si un nombre est un carré
Application : Résolution d’équation du second degré
B. Primalité : trouver de grands nombres premiers [48]
Proposition : Test de primalité de Fermat Proposition : Test de primalité de Miller-Rabin
Application : RSA Proposition : Lucas–Lehmer (Mersenne)
28
Leçon 126 : Exemples d’équations en
arithmétique.
Développements de la leçon
Loi de réciprocité quadratique Équation de Sophie Germain
Motivation
Défense
Les équations en arithmétiques mettent en place des méthodes de résolutions qui diffèrent
des méthodes de résolutions en analyse : généralement elles sont plus complexes. On s’inté-
resse ici à des problème indécidable en toute généralité (l’ensemble des solutions d’une équa-
tion diophantienne est dans RE), cependant dans quelques cas, nous pouvons les résoudre
en utilisant des outils arithmétiques. On étudiera également l’équation de Fermat source de
beaucoup de recherche qui fut démontrer en 1995 à l’aide d’un ordinateur.
29
La résolution des systèmes linéaires sur Z peut être abordée. Il est naturel de s’intéresser
à la résolution des systèmes de congruences, à la recherche de racines carrées dans les corps
finis. Les candidats peuvent plus généralement aborder la recherche des racines des polynômes
dans les corps finis.
S’il le désirent, les candidats peuvent étudier les coniques sur les corps finis et la recherche
de points sur ces coniques.
Métaplan
I. Équations diophantiennes linéaires [48, p.163] On met en place la résolution des équations
les plus simples en arithmétique. Cependant, elles demandent déjà quelques outils nouveaux (ou
inhabituels) pour les traiter.
A. Équations linéaires dans Z
Théorème : Bézout Algorithme : Euclide étendu
Théorème : Gauss Théorème : Résolution de l’équation ax + by = c
B. Équations linéaires aux congruences
Méthode : calcul de l’inverse modulaire via Bézout
Application : Résolution ax ≡ b[n] Remarque : Lien avec le cas précédent
C. Systèmes d’équations aux congruences
Théorème : Théorème chinois Application : Résolution de système d’équation
II. Méthode plus poussée Cependant les méthodes classiques ne sont pas à bannir : nous allons
voir deux méthodes qui nous permettent de décidé de l’absence de solution.
A. Réduction modulaire S’il n’existe pas de solution modulo n alors, il n’en n’existe pas dans Z.
Proposition : Si une équation arithmétique a une solution dans Z alors elle en a une modulo n.
Application : Contraposée pour montrer qu’une équation n’a pas de solution.
Exemple [28] : x2 = 3y + 5 pas de solution [3] donc pas dans Z
B. Utilisation de l’analyse Si la résolution dans un cas analytique donne une solution non en-
tière : alors pas de solution.
Idée : Utiliser des méthodes de résolutions d’équations dans R ou C pour montrer que les solu-
tions ne sont pas entières.
Exemple : n2 + 5n + 2 = 0 par calcul du discriminant : solution non entière
III. Équations diophantiennes quadratiques On passe maintenant à l’ordre supérieures. On va
alors introduire la notion de carré dans un corps finis.
A. Carrés sur les corps finis [32, p.119] On peut les introduire car ce sont les solutions d’une
équation de la forme x2 + py = q.
Définition : Ensembles des carrés Proposition : Cyclicité de ces groupes
Remarque : Difficulté de trouver des générateurs
Proposition : Caractérisation des carrés Corollaire : Caractérisation de −1 est un carré
Application : Classification des formes quadratiques sur Fq par le discriminant.
Définition : Symbole de Legendre Proposition : Propriétés de ce symbole
Proposition : Loi de réciprocité quadratique Application : Calcul si un nombre est un carré
B. Application aux équations cy2 + bc + c = 0[n] [48, p.173]
Méthode : Cas x2 ≡ p Méthode : Cas général pour n premier
Remarque : Plus compliqué si n est composite
C. Application à la somme de deux carrées [56, p.56]
Définition : Entier de Gauss Théorème : Somme des deux carrés
30
IV. Équation de Fermat Les équations de Fermat objet du grand théorème de Fermat on été un long
mystère dans les mathématiques. Il faudra atteindre les années 1995 afin qu’une preuve en soit
donnée (cette preuve était assisté par ordinateur).
A. Les équations de Fermat [45, p.81]
Théorème (Admis) : Équation de Fermet en général Théorème : Dans le cas 2
Méthode : Régression de Fermat Application [28] : Triplet pythagoricien
B. Équation de Sophie Germain [33, p.157] Un cas facile pour montrer le théorème de Fermat.
Histoire intéressante car Sophie Germain était une des rare femmes de son milieu et utilisait
un pseudonyme pour publier ses travaux
Définition : Nombre premier de Sophie Germain Théorème : Équation de Sophie Germain
31
Leçon 141 : Polynômes irréductibles à
une indéterminée. Corps de Rupture.
Exemples et applications.
Développements de la leçon
Décomposition de Dunford Algorithme de Berlekamp
Motivation
Défense
→ Construction des corps finis
→ Analogie à C (irréductibilité des polynômes)
→ Connaître des corps où les polynômes ont des racines
32
Métaplan
Cadre : A est un anneau commutatif unitaire intègre, k est un corps
I. Notion de polynôme irréductible [41, p.9] Savoir si un polynôme est irréductible ou non va
nous être essentiel dans la suite : on ne peut faire des corps de rupture ou de décomposition que
pour des polynômes irréductibles (il est donc important de les connaître).
A. Définition et première propriété
Définition : Polynôme irréductible Proposition : Caractérisation par le quotient
Proposition : Infinité de polynômes irréductibles
B. Lien entre irréductibilité et racines Ce lien est très important et va justifier les extensions de
corps que nous allons réaliser.
Proposition : Caractérisation de l’irréductibilité avec les racines
Remarque : Attention : aux cas des degré 2 et 3 Remarque : Irréductibilité et sous-corps
Proposition : Cas parfait : irréductibilité et dérivation
C. Généralités sur les anneaux factoriels
Cadre : A factoriel et k = Frac( A). Définition : Contenu et polynôme primitif
Lemme : Gauss Théorème : Gauss
Application : Critère d’irréductibilité
D. Critère d’irréductibilité On cherche des moyens afin de savoir si un polynôme est irréductible
ou non (degré est supérieur à 2).
Théorème : Critère d’Eisenstein Applications : Exemples de polynômes irréductibles
Théorème [56, p.77] : Critères de réduction
Contre-exemple : X 4 + 1 irréductible sur Z mais sur aucun des F p pour p premier
II. Corps de rupture et autres extensions de corps Étant donnée un polynôme irréductible, peut-
on trouver un corps dans lequel ce polynôme a une racine ? Cadre : K et L deux corps.
A. Extension algébrique et polynôme minimal [56, p.65]
Théorème : Base télescopique Corollaire : Cas fini
Définition : Nombre algébrique et polynôme minimal
Proposition [14, p.782] : Caractérisation d’un nombre algébrique
K[X]
Remarque [14, p.782] : ' K [ a] Définition : Extension monogène (ou simple)
min( a,K )
Définition : Extension algébrique Proposition : Extension finie ⇒ extension algébrique
Remarque : Réciproque est fausse + contre-exemple
Théorème : Corps des éléments algébrique
B. Corps des racines d’un polynôme [41, p.57] Ce sont des corps où on adjoint des racines (on
prend l’union étendu afin d’en conserver la structure de groupe.)
Définition : Corps de rupture Remarque : Extension algébrique
Théorème [56, p.70] : Existence et unicité
Contre-exemple [14, p.820] : f non irréductible : pas d’unicité
Théorème : Critère d’irréductibilité avec les extensions de corps
Théorème [56, p.79] : Irréductibilité et extensions
Définition : Corps de décomposition Remarque : Extension algébrique finie
Théorème [56, p.71] : Existence et unicité.
Application (algèbre linéaire) : Décomposition de Dunford (On se place sur cet anneaux pour
étudier la décomposition de Dunford via la méthode de Newton...)
C. Clôtures algébriques [41, p.62] La notion de corps algébriquement clos : garder en tête que C
n’est pas le seul corps algébriquement clos de caractéristique 0.
Définition : Corps algébriquement clos Théorème : Alembert–Gauss
Définition : Clôture algébrique Théorème : Théorème de Steinitz
33
III. Application aux corps finis Les résultats que nous avons vus permettent de construire les corps
finis. De plus, il existe un algorithme permettant de factoriser les polynômes dans les corps finis :
l’algorithme de Berlekamp.
A. Construction des corps finis [56, p.73]
Théorème : Construction des corps finis via les corps de décompositions
Application : Construction explicité de F4 et F9
B. Factorisation des corps finis [13, p.244]
Algorithme : Berlekamp (test l’irréductibilité) Application : Factorisation
34
Leçon 151 : Dimension d’un espace
vectoriel (on se limitera au cas fini).
Rang. Exemples et applications.
Développements de la leçon
Algorithme de Berlekamp Théorème des extrema liés et l’inégalité d’Hadamard
Motivation
Défense
— Démonstration par récurrence sur le rang ou la dimension.
— Classification des endomorphisme.
— Retrouver des résultats qu’on avait sur les ensembles finis.
— Avoir une description finie d’un ensemble infini.
35
sont nombreuses, on peut par exemple évoquer l’existence de polynômes annulateurs ou alors
décomposer les isométries en produits de réflexions.
On pourra utiliser les caractérisations du rang pour démontrer l’invariance du rang par ex-
tension de corps, ou pour établir des propriétés topologiques (sur R ou C). S’ils le désirent, les
candidats peuvent déterminer des degrés d’extensions dans la théorie des corps ou s’intéresser
aux nombres algébriques.
On pourra également explorer des applications en analyse comme les extrémas liés ou
l’étude de l’espace vectoriel engendré par les translatés d’une application de R dans R.
Dans un autre registre, il est pertinent d’évoquer la méthode des moindres carrés dans cette
leçon, par exemple en faisant ressortir la condition de rang maximal pour garantir l’unicité de
la solution et s’orienter vers les techniques de décomposition en valeurs singulières pour le cas
général. On peut alors naturellement explorer l’approximation d’une matrice par une suite de
matrices de faible rang.
Métaplan
Pré-requis : Espace vectoriel ; Sous-espace vectoriel ; Application linéaire ; Matrice ; Système linéaire ; Corps
Cadre : E espace vectoriel sur un corps K commutatif
I. Base et dimension [42, p.10] Les notions de bases et de dimension sont très liés puisque le cardinal
d’une base donne la dimension d’un espace vectoriel (en dimension fini).
A. Famille libres, génératrices et bases Intuitivement les familles génératrices permettent d’ex-
primer tout autre vecteur comme un combinaison linéaire de la famille. Une telle famille
n’existe pas toujours : on définie donc les espaces de dimension finie ou non. Une base
permet de garantir l’existence et unicité de la décomposition.
Définition : Famille génératrice Définition : Dimension finie et infinie
Définition : Famille libre Remarque : Famille non-libre est une famille liée
Proposition : Caractérisation de la liberté via la généricité
Remarque : Utilisation du pivot de Gauss
Proposition : Propriétés des familles libres et génératrices Définition : Base
Proposition : Sur et sous famille génératrice et libre Théorème : Existence d’une base
Théorèmes : Base incomplète, trop complète
Proposition [42, p.63] : Application injective/surjective et famille libre/génératrice.
B. Dimension finie Nous allons maintenant donner le lien précis entre base et dimension finie :
le cardinal donne le second. Pour établir ce résultat, nous utilisons le lien entre liberté et
généricité comme décrite dans le premier lemme. Nous donnerons ensuite une version plus
classique de ce résultat.
Lemme : Famille génératrice à n éléments donne famille lié si plus de n éléments.
Théorème : Dans un espace de dimension finie, toute base à même cardinal
Définition : dim = card de la base Notation : Dimension
Application : Théorème de la base de Burnside
Corollaire : Caractérisation via la dimension des familles libres et génératrices
Théorème : Caractérisation base avec cardinal
Application : Preuve par récurrence sur les dimensions
Application : Réduction des auto-adjoints Application : Algorithme de Berkhamp
Théorème [42, p.63] : Deux espaces vectoriels sont isomorphes ⇔ ils ont même dimension
C. Sous-espace vectoriel de dimension finie
Théorème : Sous-espace et dimension Proposition [42, p.85] : dimension de L( E, F ) et du dual
Proposition : Dimension des espaces produits Définition : Somme
Proposition : Dimension de la somme (formule de Grassmann)
Définition : Somme directe Définition : Supplémentaire
36
Théorème : Existence et dimension d’un supplémentaire
Application : Dimension et forme linéaire
Corollaire : Caractérisation des espaces somme directe
Définition [14, p.956] : Sous-espaces propres
Théorème [14, p.956] : caractérisation de la diagonalisation
D. Application à l’extension de corps [56, p.65] La théorie de la dimension s’applique dans les
extension de corps : le degré de l’extension est la dimension de l’espace vectoriel induit pas
cette extension.
Définition : Extension de corps Remarque : L extension du corps K est un K-espace vectoriel
Définition : Degrés de l’extension : dimK ( L) Théorème : Théorème de la base télescopique
Corollaire : Multiplicité des degrés Définition : Éléments algébrique, polynôme minimal
Théorème : Caractérisation des éléments algébriques
Application : Si K ⊂ L, { x ∈ L | x algbrique dans K } est un sous-corps de L
II. Un peu de topologie [39, p.46] La dimension finie nous donne des résultats intéressant en topo-
logie des espaces vectoriels normés.
Théorème : Norme équivalente Théorème : Compacité
Proposition : Fonction continue Théorème : Boule unité fermé compacte
III. Rang et applications linéaires en dimension finie Le rang est la dimension de l’image d’une
application linéaire. Nous pouvons alors l’étudier sur l’application linéaire ou sur des matrices.
Nous allons définir le rang sur les deux objets et en fonction des applications que nous souhaitons
en faire, nous allons choisir l’une ou l’autre de ces représentation.
A. Notion de rang [42, p.61]
Définition : Rang d’une application linéaire Théorème : Théorème du rang
Application [40, p.114] : Projecteur (morphisme p2 = p) Corollaire : Caractérisation bijection
Contre-exemple : Faux en dimension infini (dérivée d’un polynôme)
Contre-exemple : Multiplication par une variable
Proposition : Dimension et surjectivité/injectivité
Application [40, p.113] : Quotient d’espace vectoriel
Application : Intersection de noyau de formes linéaires
Application [13, p.154] : Polynôme interpolateur de Lagrange
Définition : Rang d’une famille de vecteur, de matrice
Proposition : Rang d’endomorphisme et de matrice associée
Remarque : Caractérisation par le rang : application et inversion.
B. Caractérisation du rang [40, p.121] On étudie le rang pour des matrices vérifiant certaines
propriétés (souvent données par des actions de groupes).
Définition : Matrices équivalentes Théorème : Deux matrice équivalente ont le même rang
Application : Action de Steinitz, caractérisation avec les orbites et systèmes de représentant
Définition : Matrices semblables
Théorème : Caractérisation du rang avec les matrices extraites
Définition : Matrices extraites Théorème : Deux matrices semblables ont même rang
Exemple : Contre-exemple de la réciproque
C. Calcul du rang Le calcul du rang se fait essentiellement via le pivot de Gauss.
Proposition : opérations élémentaires ne modifie pas le rang
Application [26, p.205] : méthode du pivot de Gauss
Proposition : existence et unicité des solutions d’un système suivant le rang
Proposition : rgA = rg(t A) Application : calcul de noyaux, d’image, de famille libre, ...
Application : théorème des extremum liés + inégalité d’Hadamard
37
Leçon 152 : Déterminants. Exemples et
applications.
Développements de la leçon
Suite de polygones Théorème des extrema liés et l’inégalité d’Hadamard
Motivation
Défense
— Une première notion de déterminant a été introduite par Cramer (1750) afin de résoudre
des systèmes équations linéaires.
— Au cours du XIX ime siècle, Cauchy en donne une première formalisation.
— Il existe de nombreuses applications à cette notion à priori algébrique : en algèbre, en
géométrie (toute l’information contenu dans le déterminant peut être utile et est géomé-
trique) mais également en analyse. C’est un outils très puissant.
38
Le calcul explicite est important, mais le jury ne peut se contenter d’un déterminant de
Vandermonde ou d’un déterminant circulant. Les opérations élémentaires permettant de cal-
culer des déterminants, avec des illustrations sur des exemples, doivent être présentées. Il est
bienvenu d’illustrer la continuité du déterminant par une application, ainsi que son caractère
polynomial. Pour les utilisations des propriétés topologiques, on n’omettra pas de préciser le
corps de base sur lequel on se place.
S’ils le désirent, les candidats peuvent s’intéresser aux calculs de déterminants sur Z avec
des méthodes multimodulaires. Le résultant et les applications simples à l’intersection ensem-
bliste de deux courbes algébriques planes peuvent aussi trouver leur place dans cette leçon
pour des candidats ayant une pratique de ces notions.
Métaplan
Cadre : E est un K-espace vectoriel où K est un corps commutatif.
I. Définition du déterminant [40, p.134] On choisis de se placer sur un corps (la théorie reste vraie
pour un anneau commutatif).
A. Forme n-linéaire et déterminant d’une famille de vecteur La définition du déterminant se fait
grâce aux formes n-linéaires alternées et antisymétriques. Dans le cas d’un corps de carac-
téristique 2, il faut faire attention car l’équivalence entre alterné et antisymétrique n’existe
plus.
Définition : Formes n-linéaires Définition : Formes linéaires alternées
Définition : Formes linéaires anti-symétrique Théorème : Équivalence entre ces deux formes
Théorème : Existence du déterminant Remarque : En caractéristique 2
Proposition : Changement de base Définition : Déterminant
Proposition : Déterminant et échange de deux lignes Proposition : Déterminant et famille liée
Proposition : Déterminant et combinaison linéaire des lignes
Proposition : Déterminant est linéaire en chaque ligne
Remarque : Fonctionne aussi pour les colonnes
B. Déterminant d’un endomorphisme et d’une matrice Le déterminant d’une matrice est d’un
endomorphisme sont deux notions très proche puisqu’à une base choisie une matrice repré-
sente un endomorphisme.
Définition : Déterminant d’un endomorphisme Définition : Déterminant d’une matrice
Proposition : Formule explicite Proposition : Lien entre endomorphisme et matrice
Proposition : Déterminant et produit (composition) Proposition : Déterminant et inversibilité
Application : A et B semblable implique det A = det B
1 0 0 −1
Remarque : det = det mais pas semblable.
1 2 2 1
Proposition : Indépendance de la base Proposition : Déterminant et transposé
Proposition : Déterminant et inverse de matrice Proposition : det(exp A) = exp(Tr( A))
Application : exp( A) ∈ GLn (C)
II. Méthodes de calculs et déterminants usuelles [40, p.134] Calculer un déterminant peut s’avé-
rer être une tâche difficile.
A. Calcul dans un cas favorable Dans le cas de ces matrices, le calcul est facile : on a des formule
toute simple.
Méthode : Méthode de calcul de matrice 2 ∗ 2 Proposition : Déterminant de matrice diagonale
Remarque : Cas des matrices diagonales par bloc
Proposition : Déterminant de matrices nilpotentes
Proposition : Déterminant de matrices unipotentes
Application : Dunford implique égalité des spectres
39
B. Méthodes algorithmiques de calcul Plusieurs méthodes de calculs existent pour pouvoir cal-
culer un déterminant : elles ne sont pas toutes aussi efficaces. L’algorithme de Gauss est un
moyen efficace : on met ainsi la matrice sous forme triangulaire supérieure puis on applique
la formule dans ce cas. Le calcul du déterminant peut alors se faire en n3 .
Méthode 1 : Calcul brut en n × n! Définitions : Mineurs, cofacteurs, comatrice
Proposition : Développer par les lignes et les colonnes Méthode 2 : Développement n!
Méthode 3 [26, p.205] : Algorithme de Gauss en n3
Application : Déterminant de matrice triangulaire
Remarque : Cas des matrices triangulaire par bloc Proposition : Relation avec les comatrices
C. Exemples de déterminant usuel On présente maintenant quelques déterminants usuels ainsi
que leur calcul.
Calcul [40, p.137] : Déterminant de Vandermond
Application : Transformée de Fourier discrète rapide (FFT)
Calcul [40, p.147] : Déterminant circulant Application : Suite de polygones
Calcul [40, p.144] : Déterminant de Cauchy Application : Théorème de Müntz
III. Le déterminant : un outil algébriste Le déterminant est un outil algébrique puissant : il nous
permet de calculer des inverse ou de résoudre des systèmes d’équations.
A. Calcul avec le déterminant [40, p.137] Le déterminant nous permet de calculer l’inverse
d’une matrice ou de résoudre un système.
Théorème : Inversion d’une matrice par le déterminant
Application : GL2 (Z) sont de déterminant {−1, 1}
Remarque : En pratique, le pivot de Gauss nous évite le calcul du déterminant et de la comatrice.
Définition : Système de Cramer Théorème : Existence et unicité des solutions
Proposition : Formule de Cramer
B. Déterminant et réduction d’endomorphisme Le déterminant calculer sur un corps de frac-
tion rationnelle nous permet de définir le polynôme caractéristique d’une matrice (ou d’un
endomorphisme). Ce polynôme est important car il nous permet de réduire la matrice.
Cadre : Mn (K [ X ]) ou Mn (K ( X )) si on veut un corps Définition : Polynôme caractéristique
Application : Matrice diagonale et triangulaire Théorème : Cayley Hamilton
Corollaire : Les valeurs propres sont des racines Application : Matrice compagnon
C. L’interprétation géométrique du déterminant [42, p.139] Le déterminant est également un
outil géométrique : il permet le calcul d’équations et de cercle. on retrouve l’orientation
d’un espace vectoriel et la notion de volume. L’inégalité d’Hadamard utilise des théorèmes
puissants d’analyse : le théorèmes des extremums liés. Enfin le déterminant permet de ca-
ractériser quelques groupes de matrices comme les isométries.
Proposition : Calcul d’équation de cercle - ellipse
Définition : Orientation d’un espace vectoriel
Proposition : Partage des bases selon leur orientation
Théorème : Lien volume-déterminant
Proposition [10, p.103] : Théorème des extremums liés
Théorème [63, p.380] : Inégalité d’Hadamard Application : Majoration du déterminant
Définition[22, p.259] : Groupe orthogonal Proposition : Déterminant d’une isométrie
Définition : Groupe orthogonal spécial Application : Groupe des rotations dans R2
IV. Le déterminant : un outil analyste Le déterminant est également un outil d’analyse : on peut
étudier la fonction déterminant. De plus, il permet d’effectuer des changements de variables.
A. La fonction déterminant [39, p.312]
Proposition : Fonction polynomiale C ∞ Application : Densité dans GL n (R)
Application : Étude du Wronskien Proposition : Différentielle du déterminant
B. Le changement de variable [39, p.334]
Théorème : Changement de variables Application : Calcul d’une gaussienne
Application : Passage en coordonnée polaire
40
Leçon 153 : Polynômes
d’endomorphismes en dimension finie.
Réduction d’un endomorphisme en
dimension finie. Application.
Développements de la leçon
Surjectivité de l’exponentielle Décomposition de Dunford
Motivation
Défense
La réduction d’un endomorphisme en dimension fini consiste à trouver une représentation
plus simple dans une base.
— Faciliter les calculs des puissances et des exponentielles (résolution d’équations différen-
tielles et systèmes dynamiques discrets).
— Classer les endomorphismes à similitude près.
Les polynômes d’endomorphismes sont un outil puissant pour effectuer des réductions ou
connaître des les réductions que nous pouvons calculer.
41
une place importante. Il faut consacrer une courte partie de la leçon à l’algèbre K [u] et connaître
sa dimension sans hésitation.
Il est ensuite possible de s’intéresser aux propriétés globales de cette algèbre. Les liens entre
réduction d’un endomorphisme u et la structure de l’algèbre K [u] sont importants, tout comme
ceux entre les idempotents et la décomposition en somme de sous-espaces caractéristiques. Il
faut bien préciser que, dans la réduction de Dunford, les composantes sont des polynômes en
l’endomorphisme, et en connaître les conséquences théoriques et pratiques.
L’aspect applications est trop souvent négligé. Il est possible, par exemple, de mener l’ana-
lyse spectrale de matrices stochastiques. On attend d’un candidat qu’il soit en mesure, pour
une matrice simple de justifier la diagonalisabilité et de déterminer un polynôme annulateur
(voire minimal). Il est bien sûr important de ne pas faire de confusion entre diverses notions
de multiplicité pour une valeur propre λ donnée (algébrique ou géométrique). Enfin, calculer
Ak ne nécessite pas, en général, de réduire A (la donnée d’un polynôme annulateur de A suffit
souvent). Il est possible d’envisager des applications aux calculs d’exponentielles de matrices.
S’il le souhaite, le candidat pourra étudier des équations matricielles et de calcul fonction-
nel, avec par exemple l’étude de l’extraction de racines ou du logarithme.
Métaplan
I. Polynômes d’endomorphismes [14, p.943] Les polynômes d’endomorphismes sont des outils
importants pour la réductions. Cependant, ils définissent également une algèbre intéressante à
étudier. On commence par celle-ci puis on étudiera plus précisément deux polynômes : le poly-
nôme minimal et caractéristique.
A. L’algèbre K [u]
Définition : Polynôme Définition : Morphisme d’évaluation
Proposition : Algèbre commutative de L( E). Application [39, p.47] : K [u] est fermée
Application [69, p.47] : Définition de l’exponentielle de matrice
Théorème : Décomposition des noyaux
B. Le polynôme minimal
Définition du polynôme minimal Ce polynôme nous permet d’étudier plus profondément la struc-
ture d’algèbre de K [u]. En effet, il est le générateur de l’idéal définit par le noyaux du morphisme
d’évaluation. On commence, également, à voir les liens avec la réductions via les valeurs propres et
les sous-espaces propres.
Définition : Polynôme minimal πu Remarque : Polynôme annulateur
Proposition [26, p.271] : endomorphisme semblable : même π
Remarque [26, p.271] : Réciproque est fausse
Structure de l’idéal et conséquences Le polynôme πu engendre un idéal, il possède une propriété
de divisibilité (notamment sur les polynômes annulateurs). La divisibilité nous permet d’obtenir des
propriétés intéressantes comme la surjectivité de l’exponentielle.
Proposition : πu divise les annulateurs Application [69, p.48] : Surjectivité de l’exponentielle
Corollaire : Si ∃ P, P(u) = 0 et P(0) 6= 0, alors u inversible
Application : Calcul d’inverse Application : Calcul de puissance
42
Valeurs propres [40, p.173] On commence à voir apparaître un lien entre valeurs propres et polynômes
d’endomorphisme via πu .
Définition [40, p.159] : Valeurs propres et spectre
Propriété : Valeurs propres annulent polynômes annulateurs
Remarque : Réciproque est fausse (πu ( X − a) où a ∈
/ Sp(u))
Proposition : Les racines de πu sont exactement les valeurs propres
C. Le polynôme caractéristique [14, p.948] Le polynôme caractéristique appartient à l’idéal en-
gendré par le πu . Il possède alors les propriétés des polynômes annulateur d’un endomor-
phisme. Mais alors pourquoi le présenté puisque le πu caractérise cet idéal ? Ce polynôme
nous permet d’approfondir le lien avec le spectre de l’endomorphisme. C’est alors un outils
fondamental de la théorie de la réduction.
Définition : Polynôme caractéristique χu Remarque : Matrice semblable (indépendance base)
Proposition : Degré + relation coefficient racine Application : Calcul en dimension 2
Proposition : Spectre est les racines de χ
Application : K algébriquement clos : tout u admet une valeur propre
Théorème [40, p.174] : Cayley-Hamilton Définition : Multiplicité algébrique
Application : Caractérisation endomorphismes nilpotents Définition : Sous-espace propre
Définition : Multiplicité géométrique
Proposition [26, p.290] : Borne sur la dimension des sous-espaces propres
Application : Décomposition en somme direct via les sous-espaces propres
Proposition : Stabilité et divisibilité
Application [47, p.87] : Résoudre des équations différentielles.
II. Un outils pour les réductions [14, p.956] Une réduction c’est choisir une base de telle sorte
que la matrice que l’on étudie soit dans une forme agréable (souvent on la cherche diagonale).
Lorsque cela n’est pas possible (ou que la forme n’est pas assez agréable), on cherche d’autre
formes qui peuvent être des sommes ou des produits plus pratique à manipuler. Les polynômes
d’endomorphismes sont des outils pratiques pour les réductions. Ils permettent de les caractériser
(si elles existent ou non) et de les calculer (Dunford).
A. Diagonalisation Trouver une base dans laquelle la matrice est sous forme diagonale est le
Graal. Les conditions de diagonalisation se lisent dans le polynôme minimal. La décompo-
sition quant à elle se lit dans le polynôme caractéristique.
Définition : Diagonalisation Proposition : Caractérisation via πu et χu
Application : Diagonalisation sur sous-espace stable
Application : Caractérisation de la co-diagonalisation Application : Calcul de l’exponentielle
Remarque : Pas la meilleur méthode mais peut servir dans le cas des équations différentielles.
Méthode : Calcul de la matrice diagonale
B. Trigonalisation Si l’endomorphisme n’est pas diagonalisable, un bon compromis peut être la
trigonalisation.
Définition : Trigonalisation Proposition : Caractérisation via πu et χu
Application : Dans un corps algébriquement clos : tout est trigonalisable
Application : det(exp( A)) = exp(Tr( A)) : exp( A) ∈ GLn (C)
Application : Suite récurrentes linéaires à coefficients constants
Définition : Sous-espace caractéristique Proposition : Diagonaliser par bloc
C. Réduction Nous donnons ici quelques méthodes de réductions pour obtenir des matrices
presque diagonales. La décomposition de Dunford est la plus simple et permet de calculer
efficacement des puissances de matrices. Cependant, elle ne permet pas de répondre à la
question de la classification : montrer que deux matrices sont semblables sous leur décom-
position de Dunford, revient à montrer que les deux matrices sont semblables pour la même
matrice P. La décomposition de Jordan vient alors remédier à ce problème : elle permet de
caractériser les matrices semblables. Cependant l’application d’une telle méthode demande
une connaissance du spectre et donc la factorisation du polynôme minimal. La réduction de
Frobenius ne demande pas le calcul des valeurs propres et réalise cette classification.
43
Théorème : Décomposition de Dunford Application : Calcul de l’exponentielle de matrice
Application : Caractérisation de la diagonalisation de exp( A). Définition : Bloc de Jordan
Définition : Suite de noyau itéré Proposition : Propriété de cette suite
Remarque : Injection de Frobenius Théorème : Réduction de Jordan
Application : Classification Théorème : Décomposition de Frobenius
44
Leçon 156 : Exponentielle de matrices.
Applications.
Développements de la leçon
Surjectivité de l’exponentielle Étude de O( p, q)
Motivation
Défense
— Résolutions d’équations différentielles linéaires à coefficients constants
— Résolutions d’équations différentielles non linéaires
— Théorie des groupes de Lie : pour comprendre un groupe de matrice, il suffit de le com-
prendre au voisinage de l’identité In . Pour cela, on veut regarder l’espace tangent (qui
est un espace vectoriel). On obtient alors un champs de vecteurs qui donne une solution
différentielle de etA où A est le vecteur tangent (ici c’est bien une matrice).
45
Les
questions
de surjectivité ou d’injectivité doivent être abordées. Par exemple la matrice
1 1
A= est-elle l’exponentielle d’une matrice à coefficients réels ? La matrice définie par
0 1
A 0
blocs B = est-elle l’exponentielle d’une matrice à coefficients réels ?
0 A
La décomposition de Dunford multiplicative (décomposition de Jordan) de e xp( A) trouve
toute son utilité dans cette leçon. Notons que l’exponentielle fait bon ménage avec la décompo-
sition polaire dans bon nombre de problèmes sur les sous-groupes du groupe linéaire. L’étude
du logarithme (quand il est défini) trouve toute sa place dans cette leçon. Si l’on traite du cas
des matrices nilpotentes, on pourra évoquer le calcul sur les développements limités.
Il est bon de connaître l’image par exponentielle de certains sous-ensembles de matrices
(ensemble des matrices symétriques, hermitiennes, ou antisymétriques).
Les applications aux équations différentielles méritent d’être présentées sans toutefois
constituer l’essentiel de la leçon. On pourra par exemple faire le lien entre réduction et com-
portement asymptotique, mais le jury déconseille aux candidats de proposer ce thème dans
un développement de cette leçon, sauf à avoir bien compris comment les apports algébriques
permettent ici de simplifier les conclusions analytiques.
S’ils le désirent, les candidats peuvent s’aventurer vers les sous-groupes à un paramètre du
groupe linéaire (on peut alors voir si ces sous-groupes constituent des sous-variétés fermées
de GLn (R)) ou vers les algèbres de Lie.
Métaplan
Cadre : K = R ou C (ou tout corps de caractéristique nulle et complet pour une distance) ; E un K-ev de dimension
finie n.
I. Exponentielle de matrice et propriétés algébriques [52, p.57]
A. Exponentielle de matrice L’exponentielle de matrice est définie comme la limite d’une sé-
rie absolument convergente. Elle possède de nombreuses propriétés algébrique (conjugai-
son, transposée, inversible). L’exponentielle d’une matrice est un polynôme d’un endomor-
phisme. Cependant, on a pas un polynôme unique pour toute matrice (sinon, une de ses
dérivées successives d’annulerait).
Définition : Exponentielle de matrice Remarque [40] : Borne sur la norme
Proposition : Exponentielle et conjugaison Application : Matrice semblable
Proposition : Exponentielle et trace Proposition : Exponentielle et transposée
Application : Matrice symétrique Proposition : det(exp A) = exp(Tr( A))
Corollaire : exp( A) ∈ GLn (C)
Proposition : Commutativité implique exp( A + B) = exp( A) exp( B)
Contre-exemples : Dans le cas non commutatif : égalité ou non
Proposition : exp( A) ∈ K [ A]
Application : Commutativité des exponentielle Application : Calcul de l’inverse
B. Calcul d’une exponentielle de matrice Le calcul d’une exponentielle de matrice est difficile :
nous devons calculer des puissances successives de matrices et en déterminer leur limites.
Dans des cas particulier (matrices diagonales ou nilpotentes) ce calcul devient bien plus
facile.
Exemple : Matrice diagonale Exemple : Matrice nilpotente
Théorème [61, p.63 et p.176] : Décomposition de Dunford
Application : Calcul d’une exponentielle
Application : Critère de diagonale de l’exponentielle Méthode : Calcul via les polynômes
II. Propriétés de la fonction exponentielle [52, p.57] L’exponentielle est une fonction sur l’espace
des matrices. Nous allons en étudier les propriétés : sa régularité, son inverse si elle est définie,
ses images et son injectivité.
46
A. Régularité
Proposition : Caractère C ∞ Proposition : Différentielle en 0
Corollaire : C 1 difféomorphisme Application : Sous-groupe arbitrairement petit
Définition : Logarithme Proposition : Propriétés du logarithme
Proposition : exp : N → U
B. Injectivité et surjectivité de cette application
Remarque : La non-injectivité de l’exponentielle
Proposition : exp : Dn (K ) → GLn (K ) est injective
Théorème [69, p.47] : Surjectivité de l’exponentielle Contre-exemple : Non surjectivité dans GLn (R)
Proposition : exp : An (R) → SOn (R) est surjective Théorème : Homéomorphisme Sn (R) → Sn++ (R)
Application [22, p.210] : Étude O( p, q) Corollaire [22, p.210] : Compacité de O( p, q)
III. Équation différentielle Une application principal de l’exponentielle de matrice est la résolu-
tion des équations différentielles. Nous allons voir quels sont les équations qui sont résolues avec
l’exponentielle de matrice. Nous avons également quelques résultats comme le théorème de Lia-
pinov qui nous permet d’étendre les équations que nous pouvons résoudre grâce à ce procédé.
Théorème [30, p.199] : Existence des solutions pour Y 0 = AY + B(t)
Corollaire [30, p.199] : Expression de la solution
Définition [57, p.380] : Stabilité d’un système différentiel autonome
Théorème [57, p.380] : Stabilité d’une telle solution
Théorème [63, p.132] : Liapunov Application [63, p.132] : Équation du pendule
47
Leçon 157 : Endomorphisme
triangulaire. Endomorphisme nilpotent.
Développements de la leçon
Cardinal du cône nilpotent Décomposition de Dunford
Motivation
Défense
La réduction d’un endomorphisme en dimension fini consiste à trouver une représentation
plus simple dans une base.
— Faciliter les calculs des puissances et des exponentielles (résolution d’équations différen-
tielles et systèmes dynamiques discrets).
— Classer les endomorphismes à similitude près.
Les endomorphismes trigonalisables et nilpotents sont les endomorphismes que l’on cherche
à obtenir lors de ces décompositions.
48
S’ils le désirent, les candidats peuvent aussi présenter la décomposition de Frobenius, ou
des caractérisations topologiques des endomorphismes nilpotents, ou encore des propriétés
topologiques de l’ensemble des endomorphismes nilpotents.
Métaplan
I. Outils [14, p.956] Nous présentons ici les premiers outils mathématiques nécessaires à cette leç :on.
Pour le lemme des noyaux si on a un polynôme annulateur de u, on peut décomposer E en somme
directe de sous espaces u-stables. Si on concatène des bases de ces sous espaces, on obtient une
base dans laquelle la matrice de u est diagonale par blocs c’est-à-dire simple
Définitions : Valeurs propres Définition : Sous-espaces propre
Définition : Polynôme minimal Définition : Polynôme minimal
Proposition : Caractérisation des valeurs propres Proposition : Propriétés de stabilité
Application : Démonstration par récurrence Théorème : Lemme des noyaux
II. Endomorphisme trigonalisable [14, p.956] Si l’endomorphisme n’est pas diagonalisable, un
bon compromis peut être la trigonalisation.
A. Être trigonalisable
Définition : Endomorphisme triangulaire Remarque : Semblable (supérieur ou inférieur)
Définition : Endomorphisme trigonalisable Proposition : Matrices trigonalisables
Proposition : Caractérisation via πu et χu
Application : Dans un corps algébriquement clos : tout est trigonalisable
Application : det(exp( A)) = exp(Tr( A)) : exp( A) ∈ GLn (C)
Application : Suite récurrentes linéaires à coefficients constants
Proposition : Stabilité Proposition : Expression avec les valeurs propres
Application : Spectre des polynômes d’endomorphismes
Application : Théorème de Cayley-Hamilton
B. Trigonalisation simultanée Nous sommes également amené à chercher si on peut trigonaliser
deux endomorphismes simultanément. Cela revient à chercher une base dans laquelle les
deux endomorphismes sont sous forme triangulaire.
Proposition : Stabilité Théorème : Trigonalisation simultanée
Remarque : La réciproque est fausse : cela revient à dire que deux matrices triangulaires com-
mutent ce qui est faux.
Proposition : Somme qui commutent
III. Endomorphisme nilpotent [13, p.169] Un endomorphisme nilpotent est un endomorphisme
dont une certaine itéré s’annule. Le calcul de ces puissances itérées est finie (il y a qu’un nombre
fini de puissance non nul). Nous allons commencer par caractériser les endomorphismes nil-
potents. Ensuite nous étudierons le cône nilpotent (les endomorphismes nilpotent ne sont pas
stables par addition donc ce n’est pas un sous-espace vectoriel). Nous finirons par une générali-
sation de ce concept avec les endomorphismes cycliques.
A. Être nilpotent
Définition : Endomorphisme nilpotent
Contre-exemple [44, p.67] : f tel que ∀ x, ∃ p, f p ( x ) = 0 non nilpotent
Proposition : Matrice nilpotente Définition : Indice de nilpotence
Proposition : Caractérisation de la nilpotente Proposition : Caractérisation via la trace
Contre-exemple : En caractéristique p : I p Proposition : Caractérisation via le quotient
B. Nature de l’ensemble des endomorphismes nilpotents
Notation : L’ensemble des endomorphisme nilpotent : N ( E)
Proposition : N ( E) est un cône Remarque : Pas de stabilité via l’addition
Proposition : Opérations sur les nilpotent Théorème : Vect(N ( E))
Lemme [23, p.213] : Base via les matrices nilpotentes Théorème : Cardinal du cône nilpotent
49
C. Généralisation : endomorphismes cycliques Les endomorphismes nilpotent se généralisent
avec les endomorphismes cycliques. Pour ceux-ci nous ne demandons pas l’annulation des
puissances itérées mais que les première puissances itérées forment une base de E (qui est
également une propriété des nilpotents). Ce sont les structures de bases de la réduction
de Frobenius. Les endomorphismes nilpotents sont donc des endomorphismes cycliques
particulier (on n’a pas tout à fait une base de E mais d’un sous-espace vectoriel de E).
Définition : Matrice compagnon Définition : Endomorphisme cyclique
Théorème : Caractérisation
IV. Application aux réductions [14, p.956] Les réductions permettent de choisir une bonne base
afin qu’une matrice s’écrive de manière simplifier. Elles permettent de simplifier les calculs
comme de l’exponentielle de matrice et de classer à similitude près les différents endomor-
phismes.
A. Sous-espaces caractéristiques [40, p.189] Les sous-espaces caractéristiques, à l’instar des
sous-espaces propres, donnent une décomposition d’un espace vectoriel. On les calcul à
partir du polynôme caractéristique sur lequel on ne fait aucune hypothèse.
Définition : Sous-espace caractéristique Théorème : Décomposition
Application : Diagonalisation par bloc Application : Puissance de matrices
B. Décomposition de Dunford La décomposition de Dunford est la plus simple et permet de cal-
culer efficacement des puissances de matrices. Cependant, elle ne permet pas de répondre
à la question de la classification : montrer que deux matrices sont semblables sous leur dé-
composition de Dunford, revient à montrer que les deux matrices sont semblables pour la
même matrice P.
Théorème : Dunford Application : Calcul d’exponentielle de matrices
C. Décomposition de Jordan La décomposition de Jordan vient alors remédier à ce problème :
elle permet de caractériser les matrices semblables. On commence par étudier cette décom-
position dans le cas particulier des endomorphismes nilpotents.
Définition : Bloc de Jordan Définition : Suite de noyaux itérés
Proposition : Propriété de cette suite Remarque : Injectivité de Frobenius
Théorème : Décomposition de Jordan pour les endomorphismes nilpotents
Application : Caractérisation des endomorphismes semblables
Contre-exemple : Remarque : Indice de nilpotence
Remarque : Dimension de ker f Proposition : Caractérisation de la nilpotence
Proposition Caractérisation de la cyclicité Théorème : Réduction de Jordan
Corollaire : Caractérisation des endomorphismes semblables Remarque : Système invariant
D. Réduction de Frobenius L’application de la réduction de Jordan demande une connaissance
du spectre et donc la factorisation du polynôme minimal. La réduction de Frobenius ne
demande pas le calcul des valeurs propres et réalise cette classification.
Théorème : Définition de la suite d’invariant de similitude Théorème : Réduction de Frobenius
Corollaire : Caractérisation des matrices semblables Remarque : Invariant de similitude
50
Leçon 159 : Formes linéaires et dualité
en dimension finie. Exemples et
applications.
Développements de la leçon
Méthode de Kackmarz Théorème des extrema liés
Motivation
Défense
— Pourquoi étudier le dual ? Structure d’un espace vectoriel et son dual sont très liés. De
plus, les hyperplans donnent une interprétation géométrique des formes linéaires
51
Savoir calculer la dimension d’une intersection d’hyperplans via la dualité est important
dans cette leçon. L’utilisation des opérations élémentaires sur les lignes et les colonnes per-
met facilement d’obtenir les équations d’un sous-espace vectoriel ou d’exhiber une base d’une
intersection d’hyperplans.
Cette leçon peut être traitée sous différents aspects : géométrique, algébrique, topologique
ou analytique. Il faut que les développements proposés soient en lien direct avec la leçon. Enfin
rappeler que la différentielle d’une fonction à valeurs réelles est une forme linéaire semble
incontournable.
Il est possible d’illustrer la leçon avec un point de vue probabiliste, en rappelant que la
loi d’un vecteur aléatoire X est déterminée par les lois unidimensionnelles de X.u pour tout
vecteur u.
Métaplan
I. Formes linéaires
A. Formes linéaires [40, p.126]
Définition : Formes linéaires Définition : Espace dual
Proposition : Décomposition via la base de E Exemple : Trace
Exemple : Forme linéaire coordonné Application : Ensemble connexe de On (R)
Application [13, p.2] : Application différentiable Exemple : Cas de l’ordre 1
B. Hyperplan [26, p.92] Les hyperplans donnent une interprétation géométrique des formes
linéaires. De plus, résoudre un système linéaire revient à caractériser une intersection d’hy-
perplans.
Définition : Hyperplan Remarque : Dimension d’un hyperplan
Proposition : Caractérisation de la proportionnalité
Remarque : Résolution de système d’équations
Corollaire : Équation d’un hyperplan Application : Méthode de Kaczmarz
II. Dualité [40, p.126] Nous souhaitons caractériser les espaces duaux et biduaux. Pour cela, nous
définissons leurs base. Une base duale interviennent dans la décomposition des formes de Gauss.
Elles permettent également de transporter un objet dans son espace dual. Le bidual permet l’opé-
ration "inverse" puisqu’il nous permet de retourner dans un espace isomorphe à l’espace de dé-
part.
A. Base duale
Définition : Base duale Exemple : Base duale sur Kn [ X ].
Proposition [42, p.85] : E et E∗ sont isomorphes
Remarque [42, p.85] : Isomorphisme non unique
Théorème [13, p.103] : Théorème Riesz Théorème [33, p.329] : Dual de Mn (K )
Application [33, p.329] : Caractérisation du centre
Application [33, p.329] : Hyperplans intersectent GLn
B. Bidual
Définition : Bidual Proposition : E ' E∗∗
Définition : Base antéduale Proposition : Unicité de la base antéduale
Application[13, p.154] : Polynôme de Lagrange
III. Orthogonalité L’orthogonalité est une notion importante qui permet de simplifier des calcul
comme nous l’avons étudier dans la méthode de Kaczmarz. On peut définir cette notion de plu-
sieurs manière (depuis tout petit nous la définissons via les produits scalaires). Nous allons alors
étudier les liens entres toutes ces définitions.
52
A. L’orthogonalité via la dualité [40, p.127]
Définition : Orthogonal Remarque : Coïncidence avec l’orthogonalité euclidienne (Riesz)
Proposition : Caractérisation via la base Proposition : Propriétés de ces orthogonal
Théorème : Dimension et orthogonalité Proposition : Lien avec les hyperplan
Application [10, p.103] : Extremums liés Théorème : Invariant de similitude
B. Lien avec l’orthogonalité via les formes quadratiques [27, p.24]
Définition : Formes quadratiques Proposition : Définition de la forme polaire
Définition : Groupe orthogonal Remarque : Lien avec celui du dual
Définition : Noyau Proposition : Lien avec la dimension
Application : Décomposition de Gauss
IV. Application transposée [40, p.129] L’application transposée est une application définie sur un
espace dual. Elle permet également de définir un morphisme des applications linéaires vers les
applications linéaires sur les espaces duaux. On s’intéresse alors à ces propriétés et à sa représen-
tation matricielle. Comme on le vera, elle est également très liée à la notion d’orthogonalité.
A. Définition de la transposée
Définition : Transposée Remarque : Morphisme
Proposition : Représentation matricielle Application : t (t u) = u
Proposition : Propriétés linéaires, composition et inverse
B. Lien avec l’orthogonalité
Proposition : Image, noyaux, rang de la transposée Proposition : Stabilité via la transposée
Application : Stabilité des vecteurs propres Application : Co-trigonalisation
53
Leçon 162 : Système d’équations
linéaires ; opérations élémentaires,
aspects algorithmiques et conséquences
théoriques.
Développements de la leçon
Méthode de Kackmarz Méthode du gradient à pas optimal
Motivation
Défense
— La résolution de système d’équation linéaire intervient dans de nombreuses applications
mathématiques : algèbre linéaire ; résolution d’équation différentielle linéaire ; ... Mais ils
interviennent dans de nombreuses autres sciences : économie, physique, ...
— Dualité des problèmes : théorique (existence des solutions, calcul théorique, consé-
quences) et pratique (comment on les implémente sur un ordinateur, convergence, com-
plexité)
54
l’intérêt algorithmique des méthodes présentées doit être expliqué. On pourra illustrer cela
par des exemples simples (où l’on attend parfois une résolution explicite).
Parmi les conséquence théoriques, les candidats pourront notamment donner des systèmes
de générateurs de GLn (K ) et SLn (K ). Ils peuvent aussi présenter les relations de dépendance
linéaire sur les colonnes d’une matrice échelonnée qui permettent de décrire simplement les
orbites de l’action à gauche de GLn (K ) sur Mn (K ) donnée par ( P, A) → PA.
S’ils le désirent, les candidats peuvent exploiter les propriétés des systèmes d’équations
linéaires pour définir la dimension des espaces vectoriels et obtenir une description de l’inter-
section de deux sous-espaces vectoriels donnés par des systèmes générateurs, ou d’une somme
de deux sous-espaces vectoriels donnés par des équations.
De même, des discussions sur la résolution de systèmes sur Z et la forme normale de Her-
mite peuvent trouver leur place dans cette leçon. Enfin, il est possible de présenter les décom-
positions LU et de Choleski, en évaluant le coût de ces méthodes ou encore d’étudier la réso-
lution de l’équation normale associée aux problèmes des moindres carrés et la détermination
de la solution de norme minimale par la méthode de décomposition en valeurs singulières.
Métaplan
Cadre : AMm,n (K ) où K est un corps commutatif quelconque.
I. Systèmes d’équations linéaires Nous commençons par donner quelques notions de vocabulaires
autours des systèmes d’équations linéaires. Ce vocabulaire nous servira tout au long de la leçon.
Définition : Forme classique, forme matricielle et Ax = b
Définition : Système compatible : b ∈ im( A) Définition : Rang du système : rg( A)
Remarque : Résoudre revient à chercher intersection d’hyperplan
A. Systèmes de Cramer [40, p.138] Le système de Cramer est un des premier problème que
nous sommes capable de résoudre. Il fait des hypothèses sur la taille de la matrice : il faut
qu’elle soit inversible. Cependant, donner explicitement les solution d’un tel système est en
O(n!). On a donc besoin de méthodes plus efficaces.
Définition : A ∈ GLn (K ) Proposition : Existence et unicité des solutions
Théorème : Calcul via le déterminant Proposition : Complexité : O(n!)
B. Cas général [40, p.138] On décrit ici la méthode général pour résoudre un système. Comme
précédemment la complexité d’une telle résolution nous oblige à chercher une méthode
plus efficace.
Cadre : r est le rang du système et le déterminant extrait de taille r est non nul
Définition : Déterminant caractéristique Théorème : Théorème de Rouché-Fontné
Remarque : Description des solutions Définition : Système homogène
Proposition : Solutions
II. Pivot de Gauss et application Une méthode plus efficace est l’algorithme du pivot de Gauss
qui s’exécute en O(n3 ). Il est basé sur des opérations élémentaires données par des matrices élé-
mentaires qui agissent sur l’ensemble des matrices. Cette action permet de mettre le système
sous-forme échelonnée : triangulaire supérieure. L’algorithme de Gauss est une méthode appli-
quant cette action. Gardons à l’esprit que cette méthode est applicable sur des anneaux intègre
(la remontée n’est pas réalisable).
A. Opérations élémentaires [24, p.201]
Définition [26, p.205] : Matrices de dilatation Définition [26, p.205] : Matrices de permuta-
tion
Définition [26, p.205] : Matrices de transvection
Proposition [26, p.205] : Déterminant de ces matrices
Définition : Action à droite de GLn (K ) Remarque : Traduction des opérations via les matrices
55
Proposition : Action conserve le rang du système
Proposition : Action conserve les solutions Application [26, p.205] : Connexité par arcs
Lemme [26, p.205] : Inverse de ces matrices Remarque : De même : action à droite
Théorème [26, p.205] : Générateurs de SLn (K ) et GLn (K )
B. Système échelonné [24, p.201]
Définition : Pivot Définition : Système échelonné
Remarque : Analogue en colonne Application : Remonter
Remarque : Nombre de pivot est le rang
C. Pivot de Gauss [2, p.107]
Théorème : Mise sous forme échelonnée Algorithme : Pivot de Gauss
Remarque : Complexité : O(mn2 ) Proposition : Résolution de système triangulaire
Remarque : Complexité de la remontée : O(n2 )
Théorème : Caractérisation des orbites par le rang
Application [42, p.50] : Résolution de système Application : Liberté de famille
Application : Intersection de sous-espaces vectoriel
Application : Espace vectoriel via les équations Application : Base duale
Application : Déterminant Application : Inverse
D. Méthodes de décomposition [2, p.113] Dans certain cas, le pivot de Gauss n’est pas la mé-
thode la plus efficace pour résoudre le problème : des méthodes de décomposition peuvent
simplifier le problème afin d’obtenir une résolution plus rapide.
Principe : Se ramener à plusieurs systèmes triangulaires
Théorème : Décomposition LU Remarque : Calcul direct via Gauss
Proposition : Deux systèmes triangulaire : O(n3 ) Proposition : A trigonale : O(n)
Théorème : Décomposition de Cholesky Proposition : Deux système triangulaire
III. Méthode d’analyse matricielle Pour certaine matrice une résolution exacte n’est pas nécessaire
ou prend trop de temps à être calculer. Nous utilisons alors des méthodes d’analyse matricielle
comme les méthodes itératives ou le gradient à pas optimal. Cette dernière transforme notre
système est une fonction dont on cherche un extremum.
A. Méthode itératives [2, p.155]
Définition : Décomposition régulière Définition : Méthode itérative
Théorème : Caractérisation de la convergence Définition : Convergence
Application : Méthode de Jacobi Application : Méthode de Gauss-Seidel
Application : Méthode de Relaxation Théorème : Convergence de la méthode de relaxation
Théorème : Méthode de Kaczmarz
B. Méthode du gradient [58, p.411]
Définition : Conditionnement Remarque : Interprétation
Proposition : Propriétés du conditionnement Théorème : Traduction du problème
Algorithme : Méthode de gradient à pas optimal Théorème : Convergence de l’algorithme
56
Leçon 170 : Formes quadratiques sur un
espace vectoriel de dimension finie.
Orthogonalité, isotropie. Applications.
Développements de la leçon
Étude de O( p, q) Loi de réciprocité quadratique
Motivation
Défense
— Rassembler les théories géométriques et arithmétiques.
— Il y a plusieurs points de vus sur les formes quadratiques plus ou moins adaptées à une
situation : via les formes bilinéaires symétriques, via les fonctions polynomiales homo-
gènes ou via une représentation matricielle.
Métaplan
Cadre : K un corps de caractéristique différente de 2 ; E un K-espace vectoriel de dimension finie
57
I. Formes quadratiques [55, p.24] Nous allons présenter les différentes formes quadratiques et
leurs premières applications. On commence par présenter les formes quadratiques définies par
une forme bilinéaire symétrique. Ensuite, nous enchaînons avec la représentation matricielle qui
nous permet de faciliter nos calculs. Pour finir, on fait le lien avec les polynômes. On remarque
alors que sur R, on peut ainsi définir la notion de produit scalaire qui est une forme bilinéaire
symétrique particulière et donc une forme quadratique particulière.
A. Formes quadratiques via les formes bilinéaires
Définition : Forme bilinéaire Définition : Symétrique
Définition : Alternée Définition : Antisymétrique
Proposition : Alternée ⇔ antisymétrique Remarque : Caractéristique 2
Définition : Forme quadratique Remarque : Équivalence entre nulle et alternée
Proposition : Forme polaire (unicité) Exemple : Espace hyperbolique canonique
Proposition : Formule de polarisation Application : Recherche de forme bilinéaire associée
Définition : Domaine et universalité Définition : Rang et noyau
Définition : Non dégénérée
B. Formes quadratiques via la représentation matricielle Pour avoir une matrice, il nous faut
une base. Cette représentation nous oblige à connaître ou à trouver une base de notre es-
pace vectoriel (on sait qu’il en existe une, on est en dimension finie). On a des propriétés
de changement de base, on voit alors apparaître la théorie des matrices conjuguées et des
classes de conjugaison.
Définition : Forme quadratique Remarque : Lien avec forme bilinéaire (matrice associée)
Exemple : Différentielle seconde (Hessienne) Proposition : Changement de base
Corollaire : Classe de conjugaison Remarque : Formes quadratiques canoniques
Définition : Noyau et rang
C. Formes quadratiques via les polynômes
Définition : Forme quadratique Remarque : Lien avec les définitions précédentes
Définition : Noyau et rang
Application : Déterminant non forme quadratique mais le coefficient de X n−2 dans le polynôme
caractéristique l’est (application dans l’étude du cône nilpotent).
D. Notion de produit scalaire [55, p.102] Le produit scalaire est une application bilinéaire sy-
métrique définie positive. Autrement dit, dans le cadre des formes quadratiques, c’est une
forme associée à une forme bilinéaire définie positive.
Définition : Forme bilinéaire définie, positive, négative
Remarque : Cas de la représentation matricielle Proposition : Inégalité de Cauchy–Schwartz
√
Corollaire : Inégalité de Minkowski Proposition : q est une norme
Théorème : Théorème de Schwartz pour application deux fois différentiables
Application : Recherche d’extremum
II. Orthogonalité et isotropie
A. Orthogonalité via les formes quadratiques [55, p.67]
Définition : Vecteur orthogonaux Proposition : Lien avec symétrique
Proposition : Théorème de Pythagore Définition : Sous-espace vectoriel orthogonaux
Exemple : Interprétation géométrique Proposition : Propriétés des orthogonaux
B. Groupe orthogonal [55, p.54] On souhaite conserver les endomorphismes qui préservent les
formes quadratiques. Ceux-ci ont une structure de groupe : on les appelle groupe orthogo-
nal.
Définition : Automorphisme orthogonaux Définition : Groupe orthogonaux
Proposition : Déterminant des éléments de O(q) Définition : Groupe spécial orthogonal
Définition [22, p.210] : Groupe O( p, q) Proposition [22, p.210] : Étude de O( p, q)
C. Base orthonormée et réduction [55, p.57]
Définition : Base q-orthogonale Remarque : Base orthonormée
Proposition : Caractérisation Théorème : Existence
Corollaire : Conséquences Méthode : Méthode de Gauss analytique
Méthode [55, p.9] : Méthode de Gauss matricielle Remarque : Lien entre les deux
58
D. Isotropie
Définition : Vecteur isotrope Remarque : Mêmes vecteurs isotropes
Définition : Cône isotrope Proposition : Noyau inclut dans le cône
Remarque : Réciproque est fausse
III. Classification des formes quadratiques
A. Le problème de la classification [55, p.39]
Définition : Formes quadratiques équivalentes
Proposition : Caractérisation de l’équivalence
Proposition : Caractérisation via les classes d’équivalence
Proposition : Équivalence via le rang et le noyau
B. Classification sur C [55, p.100]
Théorème : Théorème de classification Corollaire : Régulière implique base orthonormale
Corollaire : Matrices diagonalisables
C. Classification sur R [55, p.104]
Définition : Signature Théorème : Théorème d’inertie de Sylvester
Corollaire : Même signature Remarque : Lien avec Gauss
D. Classification sur un corps fini [22, p.182]
Théorème : Théorème de classification Application : Loi de réciprocité quadratique
59
Leçon 182 : Application des nombres
complexes à la géométrie.
Développements de la leçon
Coloration du cube Générateurs de SL2 (Z)
Motivation
Défense
— Au XV I I ième siècle : résolution d’équation de degré 2 ou 3. Introduction du corps C.
— Définir le plan grâce à C qui est un corps commutatif à la place de R2 .
Métaplan
I. Géométrie euclidienne Nous allons nous concentrer sur l’utilisation des nombres complexes dans
le cadre de la géométrie euclidienne.
60
A. Le plan complexe [31, p.219] Le plan euclidien peut être interprété comme un plan complexe :
nous allons étudier ce lien.
Définition : Coordonnées complexes Définition : Affixe d’un point
Définition : Affixe d’un vecteur : norme et argument
Proposition [67, p.39] : Traduction de la notion de colinéarité
Proposition [67, p.40] : Traduction de la notion d’orthogonalité
Proposition : Traduction de la notion d’alignement
Proposition : Équation d’un cercle ou d’une droite Application : Aire d’un triangle
Application : Coordonnées exponentielles
B. Définition des angles [9, p.73] La notion d’angle apparaît rapidement dans le cadre d’étude
de complexe puisqu’ils peuvent être caractérisé par une norme et un angle.
Proposition : Définition d’un angle par une rotation
Définition : Angle orienté Proposition : Relation de Chasles
Définition : Rotation matricielle Application : Coordonnées polaires
C. Transformations du plan [9, p89] Les isométries du plan en sont les transformations. Ces
transformations peuvent être exprimées à l’aide de complexe.
Définition : Similitude Proposition : Générateur du groupe
Application : Conservation des angles Définition : Groupe des isométries
Définition : Conjugaison Proposition [67, p.135] : Traduction via les nombres complexes
D. Coordonnées barycentriques [31, p.5] Le système de coordonnées barycentrique est un sys-
tème de coordonnées important permettant de donner des coordonnées à partir d’un tri-
angle de base. Nous allons étudier quelques objets mathématiques via ces coordonnées.
Définition : Barycentre Proposition : Propriétés du barycentre
Application : Théorème de Desargues Définition : Coordonnées barycentrique
Proposition : Lien avec les cartésiennes Application : Définition des vecteurs
Application : Aire d’un triangle Application : Point de Lemoine
Définition : Équation barycentrique Définition : Droite et concours
Définition : Équation de cercle
II. Géométrie projective complexe Le plan complexe peut être utilisé comme support à la géomé-
trie projective. On commence par définir celle-ci dans le cas complexe.
A. Géométrie projective [9, p.177]
Définition : Droite projective Proposition : Sphère de Riemann
Définition : Repère projectif
B. Homographie [31, p.255] Les homographies sont à la géométrie projective ce que sont les
isométries sont à la géométrie. Nous allons les définir et en étudier certaines propriétés.
Définition : Homographie Proposition : Propriétés des homographies
Application : Ellipse et Protéisme de Steiner Application : Théorème de Pasacal
Proposition : Action de GLn (Z) sur le demi-plan de Poincaré par homographie
Théorème : Générateur de SL2 (Z)
C. Birapport [31, p.261] Le birapport est une opération conservant les homographies.
Définition : Birapport Proposition : Calcul d’un birapport
Proposition : Caractérisation de co-cyclicité Proposition : Caractérisation de l’alignement
Proposition : Caractérisation du milieu Proposition : Homographie préserve le birapport
Application : Générateur du groupe circulaire
D. Inversion [31, p.244] Les inversions sont des transformations qui inverse les distances par
rapport à un point donnée.
Définition : Inversion Interprétation
Application : Sphère de Riemann Théorème : Théorème de Ptomélé
61
Leçon 183 : Utilisation des groupes en
géométrie.
Développements de la leçon
Coloration du cube Générateurs de SL2 (Z)
Défense
Qu’est que la géométrie ?
— La géométrie ? Étude de la Terre puis on a étendu la définition aux figures (mais qu’est-ce
qu’une figure) ?
— Différentes géométries = différentes façon de représenter les figures
— Géométrie naturelle = géométrie projective
— Géométrie euclidienne = cadastre (centre des impôts)
Pourquoi les groupes ?
— Les groupes ou plutôt les actions de groupes pour représenter l’univers.
— Les groupes permettent d’effectuer les classifications qui sont très présentes en algèbre
et en géométrie
Géométries et groupes ?
— Les figures sont des orbites d’actions de groupes.
— Unification des géométries : une géométrie un groupe agissant sur un ensemble où le
groupe contient les transformations permissent sur l’ensemble.
Remarque culturelle : On peut définir des groupes sur les objets géométriques (courbes ellip-
tiques, triangles, ...)
62
Ce qu’en pense le jury
C’est une leçon dans laquelle on s’attend à trouver des utilisations variées. On s’attend à
ce que soient définis différents groupes de transformations (isométries, déplacements, simili-
tudes, translations) et à voir résolus des problèmes géométriques par des méthodes consistant
à composer des transformations.
De plus, les actions de groupes sur la géométrie permettent aussi de dégager des invariants
essentiels (angle, birapport, excentricité d’une conique). Les groupes d’isométries d’une figure
sont incontournables.
Métaplan
Cadre : E un K-espace vectoriel de dimension finie où K un corps commutatif et de caractéristique nulle.
I. Rappels sur les actions de groupes [14, p.174] Les actions de groupes sont à la base des géomé-
tries. Être au clair sur ces notions est donc important.
Définition : Action de groupe Définition : Orbite
Définition : Stabilisateurs Définition : Action libre
Définition : Action fidèle Définition : Action transitive
Proposition : Relation orbite-stabilisateur Proposition : Formule de Burnside
II. Géométrie affine La géométrie affine est une des première géométrie. La géométrie affine est l’ac-
tion du groupe des transformations affines (translations, homothéties, ...) sur un espace vectoriel.
A. Espace et groupe affine Nous commençons par définir la géométrie par son action de groupe :
il nous faut donc le groupe et l’espace sur lequel il agit.
Définition [18, p.2] : Espace affine Interprétation [9, p.9] : Espace affine
Définition [18, p.3] : Sous-espace affine Définition [9, p.16] : Application affine
Définition [18, p.9] : Groupe affine
B. Invariant du groupe affine [9, p.18] Les invariants de ce groupes sont biens connus [22, p.331].
Il préserve : l’alignement (les applications affines préservent l’alignement) ; le parallélisme
(les bijections affines préservent la directions. Est-ce vrai pour les applications ?) et le bary-
centre (les applications affines préservent les barycentres)
Proposition : Invariance d’un sous-espace affine Interprétation : Préservation de l’alignement
Définition [18, p.17] : Barycentre
Proposition : Caractérisation des applications affines via les barycentres
Interprétation : Conservation des barycentres
C. Classification des figures Les actions de groupes (et en particulier dans cette géométrie),
nous permettent de classer les figures selon leurs orbites. Généralement ce sont de bons
outils pour faire des preuves sur des objets géométriques : avec une action bien choisie on
se ramène à un cas "facile". Cette action doit préserver les propriétés de notre théorème.
Figures issues des triplets de R2 [22, p.331]
Proposition : Action du groupe affine sur les triplets Application : Ellipse de Steiner
Figures issues des sous-espaces affines [9, p.14]
Proposition [49, p.49] : Action du groupe affine sur les droites (ou couple de droites)
Définition : Droites parallèles Interprétation : Préservation du parallélisme
Figures issues d’un espace affine de dimension d ≥ 2, E [49, p.57]
Proposition : Action du groupe affine sur E 2 Définition : Rapport de trois points
Application [18, p.13] : Théorème de Thalès
III. Géométrie affine euclidienne La géométrie euclidienne (en particulier l’affine) consiste à
l’étude du groupe des isométries opérant sur E (en tant qu’espace affine euclidien)
A. Espace affine euclidien et groupe des isométries
Définition [18, p.108] : Espace affine euclidien Définition [9, p.52] : Isométrie
63
Définition [49, p.26] : Groupe des isométrie
Proposition [49, p.25] : Caractérisation d’une isométrie
B. Générateurs du groupe des isométries [9, p.54] Les générateurs de ce groupe nous permet de
caractériser les isométries.
Définition : Réflexion Théorème : Isométrie est n réflexions
Corollaire : Générateurs : réflexions Application [9, p.86] : Caractérisation des isométries
C. Invariant pour le groupe des isométrie (en dimension 2) [18, p.116] Les angles orientés sont
les premiers invariants non-triviaux que l’on trouve en géométrie : ils sont bien plus inté-
ressant que les invariants affines.
Définition [9, p.58] : Isométrie positive Définition : Angle orienté
Interprétation : Invariant du groupe des isométries Application : Rotation matricielle
Remarque : Angle orienté de demi-droite Définition : Mesure
Application : Somme des angles d’un triangle
D. Stabilisateurs par le groupe des isométries (en dimension 2 et 3) [22, p.358] Les figures
géométriques sont en réalité des stabilisateurs pour l’action décrivant cette géométrie. Nous
allons donc les étudier sous cet angle.
Définition [9, p.156] : Polygone connexe Définition : Groupe diédral
Proposition [9, p.165] : Préservation par le groupe diédral Définition : Solide platonicien
Théorème (ADMIS) : Existence de tel solide Définition : Groupe des isométries sur une partie
Théorème : Groupe des isométries du tétraèdre Théorème : Groupe des isométrie du cube
Application : Coloriage du cube
IV. Géométrie projective La géométrie projective est une géométrie plus complexe puisqu’elle per-
met d’étudier la sphère de Riemman : toute droite est concurrente à l’infini. Cependant elle résulte
elle aussi d’une action de groupe.
A. Espace projectif et groupe projectif [9, p.179] On définit le groupe projectif comme étant
l’ensemble des homographie. L’action de ce groupe sur une partie du plan complexe (le
demi-plan de Poincaré) nous donne les générateur d’un groupe de matrice : SL2 (Z)
Définition [49, p.30] : Espace projectif Définition : Groupe projectif
Théorème : Théorème de Pappus Définition : Homographie
Interprétation : Espace projectif = droite vectorielle
Théorème [1, p.81] : Action du groupe projectif sur le demi-plan de Poincaré
Application [1, p.81] : Générateurs de SL2 (Z)
B. Invariant du groupe projectif [9, p.196] L’invariant de ce groupe est le birapport : on s’en sert
pour caractériser des groupes de points. Il nous permet d’étudier les générateurs du groupe
circulaire.
Définition : Birapport Proposition : Birapport invariant du groupe projectif
Proposition : Calcul du birapport Proposition : Alternative de Steiner.
C. Groupe circulaire [9, p.203] On conclut par une étude des générateurs de ce groupe particu-
lier.
Définition : Groupe circulaire Lemme : Caractérisation des angles de droites
Théorème : Générateurs
64
Leçon 190 : Dénombrement et méthode
combinatoires.
Développements de la leçon
Coloration du cube Nombre de Bell
Motivation
Défense
— Pourquoi dénombrer ? L’utilisation du dénombrement en probabilité. Permet d’avoir des
arguments de cardinalité. En informatique vient prouver qu’il existe des fonctions non
calculables.
— Pourquoi ce limité au fini ? On sait bien (très bien) calculer le fini, c’est naturel. De plus,
quand un ensemble est infini, on essaye toujours de s’y ramener.
— Qu’est-ce que le dénombrement ? Calculer le nombre d’éléments qui vérifient une certaine
propriété.
— Alors comment dénombrer ?
65
ne pas se contenter d’une justification par le binôme de Newton. L’introduction des corps finis
(même en se limitant aux cardinaux premiers) permet de créer un lien avec l’algèbre linéaire.
Les actions de groupes peuvent également conduire à des résultats remarquables.
S’ils le désirent, les candidats peuvent aussi présenter des applications de la formule d’in-
version de Möebius ou de la formule de Burnside. Des candidats ayant un bagage probabiliste
pourront explorer le champ des permutations aléatoires, en présentant des algorithmes pour
générer la loi uniforme sur le groupe symétrique Sn et analyser certaines propriétés de cette
loi uniforme (points fixes, cycles, limite n → ∞...).
Métaplan
I. Compter directement le nombre d’éléments [17, p.9] Pour dénombrer une manière intuitive
consistant à compter les éléments peut s’avérer efficace. Nous allons étudier comment faciliter
ces calculs
Définition : Ensemble fini Définition : Cardinal d’un ensemble Notation : | |
A. Diviser pour régner Savoir découper les ensembles de manière à simplifier les calculs peut
s’avérer utilise (utilisation des sommes et des produits). L’utilisation d’applications per-
mettent également de faciliter le dénombrement.
Partitionner un ensemble
Proposition : Cardinal d’un ensemble partitionner
Proposition : Cardinal d’un ensemble de paire Application : Division de deux ensembles
Application : Union de deux ensembles Application : Produit de deux ensembles
Proposition : Formule du crible de Poincaré
Remarque : On retombe sur le résultat précédent
Corollaire : Lemme des Berger Application : Nombre de carrés dans Fq
Ensemble issu d’un produit d’ensemble
Définition : Produit d’ensembles Proposition : Cardinal d’un produit d’ensemble
Application : Nombre d’application Application : Nombre de parties d’un ensemble fini
Utilisation d’application
Proposition : Nombre d’application injective Application : |Sn | = n!
Lemme : Lemme des tiroirs Application : Théorème de Weierstrass dans le cas réel
B. Ordonner les éléments Lorsqu’on souhaite dénombrer un ensemble composée de suite, or-
donner ou non celui-ci peut en changer son calcul et son cardinal. Nous allons étudier les
possibilité d’ordonnancement et le calcul des cardinaux des ensembles ainsi obtenu.
Définition : Arrangement Proposition : Calcul du nombre d’arrangement
Application : Tiercé dans l’ordre Définition : Permutation
Définition : Combinaison Remarque : Cas particulier d’un arrangement
Proposition : Calcul du nombre de combinaison
Application : Nombre de tiercé dans le désordre
Proposition : Coefficient binomiaux Application : Triangle de Pascal
Application : Formule du binôme Application : Loi binomiale
C. Compter de deux manière différente Pour dénombrer un ensemble, le compter de deux ma-
nière différente puis d’en déduire son cardinal grâce à l’équation obtenue est une méthode
efficace.
Principe : Double comptage Application [22, p.182] : Loi de réciprocité quadratique
Remarque : Preuve de la formule de Burnside
II. Utilisation de la théorie des groupes La théorie des groupes (fini) et notamment les actions
de groupes nous permettent d’obtenir des résultats de dénombrement. Les corps finis sont égale-
ment sources de nombreux problème de dénombrement.
66
A. Action de groupe [14, p.174] Nous étudions les actions de groupes (finis) sur un ensemble
(fini) afin de pouvoir en faire du dénombrement.
Définition : Action, orbite et stabilisateur Définition : Relation orbite - stabilisateur
Proposition : Formule des classes Application : Théorème de Lagrange
Proposition : Formule de Burnside Application : Coloriage d’un cube
B. Application aux corps finis [22, p.250] Les corps finis nous donne une bonne application
du dénombrement en algèbre linéaire. En algèbre linéaire, les ensembles mis en jeu sont
souvent infini. Pour palier à cette infinité, nous avons introduit la notion de base, cela nous
ramène au cas fini dans un certain sens (on n’en parle pas dans cette leçon).
Définition : Corps fini Application : Application aux actions de groupes
Application : Calcul GLn (Fq ) Application [23, p.213] : Calcul du cardinal du cône nilpotent
Application : Calcul du nombre de matrice diagonalisable
Théorème : Premier théorème d’isomorphisme
Application : Calcul de SLn (Fq ) via GLn (Fq )
III. Utilisation des séries génératrices Les séries génératrices sont également un moyen de dé-
nombrer un ensemble.
Définition : Série génératrice Application [33, p.19] : Nombre d’involution
Application [33, p.12] : Nombre de Catalan Application [33, p.14] : Nombre de Bell
IV. Utilisation des fonctions arithmétiques Les fonctions arithmétiques représente souvent un
cardinal d’un ensemble suivant quelques propriétés.
A. Fonction indicatrice d’Euler [56, p.24] La fonction indicatrice d’Euler donne le nombre d’en-
tier premier avec n compris entre 1 et n − 1.
Définition : Fonction indicatrice ϕ Proposition : Calcul de la fonction ϕ
Interprétation Proposition : Multiplicativité
Proposition : ϕ(n) = ∑d|n ϕ(d) Application : Groupe des inversible est cyclique
B. Fonction de Moebius [56, p.89] La fonction de Moebius est une fonction calculant si un
nombre contient un facteur carré et dans le cas où elle est sans facteur carré, elle donne
la parité du nombre de ces facteurs premiers.
Définition : Fonction de Moebius µ Proposition : Propriétés
Proposition : Inversion Application : Retrouver propriété de Euler
Application : Nombre de polynômes irréductibles sur Fq
67
Deuxième partie
Leçons d’analyse
68
Leçon 203 : Utilisation de la notion de
compacité.
Développements de la leçon
Théorème de Weierstrass via la convolution Théorème de Cauchy – Lipschitz
Motivation
Défense
— Notion topologique importante dans le cas métrique.
— Permet de ramener des raisonnements de type fini sur des ensembles infinis.
— Permet de passer certaines propriétés du local au global, c’est-à-dire qu’une propriété
vraie au voisinage de chaque point devient valable de façon uniforme sur tout le com-
pact.
— Donne quelques résultats d’existences.
69
Des exemples significatifs d’utilisation comme le théorème de Stone-Weierstrass (version qui
utilise la compacité), des théorèmes de point fixe, voire l’étude qualitative d’équations diffé-
rentielles, sont tout à fait envisageables. Le rôle de la compacité pour des problèmes d’exis-
tence d’extrema mériterait d’être davantage étudié. On peut penser ensuite à des exemples en
dimension n ≥ 2.
Pour aller plus loin, les familles normales de fonctions holomorphes fournissent des
exemples fondamentaux d’utilisation de la compacité. Les opérateurs auto-adjoints compacts
sur un espace de Hilbert relèvent également de cette leçon, et on pourra développer l’analyse
de leurs propriétés spectrales.
Métaplan
Cadre : E est un espace métrique
I. Rappel sur la notion de compacité et premières applications Cette section a pour but de poser
les premières définitions de la compacité ainsi que ces première propriétés. Nous en donnons
également quelques applications rapide : elle n’a pas vocation à être le coeur de la leçon.
A. Propriété de Borel–Lebesgue [60, p.33] Une première caractérisation de la compacité se fait
par la propriété de Borel–Lebesgue. Nous donnons quelques caractérisations de compacts
qui en découle directement.
Définition : Recouvrement Définition : Espace compact
Exemple [39, p.27] : [0, 1]
Contre-exemple [44, p.302] : Espace vérifiant la propriété et non compact
Remarque : Cas non métrique
Application : Ensemble des valeurs d’une suite et limite : compact
Proposition [66, p.229] : Compact implique borné
Application [39, p.27] : Utilisation de la contraposé comme caractérisation
Proposition [39, p.28] : Réunion finie : compacte Application : Ensemble fini est compact
B. Caractérisation séquentielle de la compacité [39, p.28] La propriété de Borel–Lebesgue est
équivalente à la caractérisation séquentielle dans le cas métrique : c’est ce que nous appelons
le théorème de Bolzano-Weierstrass. Ce point de vu nous donne de nouvelles applications.
Théorème : Bolzano–Weierstrass Application : Caractérisation de limite via l’exponentielle
Remarque : Cas des espaces non métrique Proposition : Unicité de la valeur d’adhérence
Application [53, p.8] : Convergence en loi de variables gaussiennes
Théorème : Théorème de Tychonoff (dénombrable)
Remarque : Le théorème est vrai dans le cas non-dénombrable
Application : Compacts dans Rn
C. Caractérisation par les fermés [60, p.34] La propriété de Borel–Lebesgue possède une pro-
priété dual permettant de caractériser les espaces compacts grâce à des fermés.
Théorème : Caractérisation par les fermés
Théorème : Sous-espace fermé d’un compact est compact
Théorème : Compact sont fermés Contre-exemple [44, p.302] : Compact non fermé
Application [66, p.229] : On (R) et SOn (R) sont compacts
Théorème : Surjectivité des applications Application : Compacts dans R
II. La compacité : une vue globale de ce qui est local La compacité permet d’adopter un point de
vu fini sur un ensemble infini. Elle permet donc de transformée des propriétés locales propriétés
globales
A. Continuité uniforme La continuité uniforme (consistant à l’inversion des bons quantifica-
teurs) transforme la notion de continuité qui est locale en une notion globale.
Définition [60, p.28] : Continuité uniforme Théorème [60, p.43] : Théorème de Heine
70
Application : Approximation de fonctions continues par des suites de fonctions affines
Théorème [53, p.8] : Deuxième théorème de Dini
Application [53, p.8] : Théorème de Glivenko–Cantelli
B. Approximation de fonctions continues sur un compact [53, p.8] L’approximation de fonction
permet de donner des propriétés de régularité à une fonction.
Théorème : Premier théorème de Dini
√
Application : Approximation uniforme via des polynômes : t 7→ t sur [0, 1]
Définition [39, p.284] : Approximation de l’unité
Théorème [39, p.284] : Théorème de Weierstrass Application : Théorème de Féjer
III. Compacité et problème d’existences La compacité permet d’exhiber des problèmes d’exis-
tences.
A. Recherche d’extremum [60, p.42] La recherche d’extremum sur un compact est plus facile car
nous avons la garantie de l’existence de cet extremum.
Théorème : Image d’un compact est un compact
Application : Continue sur compact atteint ses bornes Application : Cas réel
Proposition [60, p.156] : Théorème de Rolle
Proposition [60, p.156] : Théorème des accroissements finis
Proposition [65, p.44] : Équivalence des normes Application [60, p.99] : Théorème de Riesz
Application : Caractérisation des compacts Définition [65, p.44] : Fonction coersive
Proposition [65, p.44] : Borne d’une telle fonction
Application [65, p.44] : Théorème de d’Alembert
B. Résolution des équations différentielles La compacité nous permet de résoudre des équations
différentielles.
Théorème [60, p.56] : Espace de fonction continue sur un compact est un Banach
Application [63, p.180] : Théorème de Cauchy–Lipschitz Exemple : Problème de Cauchy
Théorème [60, p.83] : Théorème d’Ascoli Application : Théorème de Cauchy–Peano
71
Leçon 208 : Espaces vectoriels normés,
applications linéaires continues.
Exemples.
Développements de la leçon
Méthode de Kackmarz Théorème de Cauchy – Lipschitz
Motivation
Défense
— Les espaces vectoriels normés :
— propriétés géométriques qui se ramène à l’algèbre linéaire en dimension finie pour
des espaces de dimension infinie.
— résolution d’équations différentielles.
— analyse numérique : résolution de systèmes linéaires.
— Les espaces de Banach : convergence des suites (sans connaître la limite), résolution nu-
mérique.
— Les espaces de Hilbert : apporte une base, proche de Rn .
72
le candidat veillera à ne pas mentionner des exemples pour lesquels il n’a aucune idée de leur
pertinence et à ne pas se lancer dans des développements trop sophistiqués.
La justification de la compacité de la boule unité en dimension finie doit être maîtrisée. Il
faut savoir énoncer le théorème de Riesz sur la compacité de la boule unité fermée d’un espace
vectoriel normé. Le théorème d’équivalence des normes en dimension finie, ou le caractère
fermé de tout sous-espace de dimension finie d’un espace normé, sont des résultats fondamen-
taux à propos desquels les candidats doivent se garder des cercles vicieux. Des exemples d’es-
paces vectoriels normés de dimension infinie ont leur place dans cette leçon et il faut connaître
quelques exemples de normes usuelles non équivalentes, notamment sur des espaces de suites
ou des espaces de fonctions et également d’applications linéaires qui ne sont pas continues.
On peut aussi illustrer le théorème de Riesz sur des exemples simples dans le cas des espaces
classiques de dimension infinie.
Les espaces de Hilbert ont également leur place dans cette leçon, mais le jury met en garde
contre l’écueil de trop s’éloigner du cœur du sujet.
Métaplan
Cadre : E est un R ou C-espace vectoriel.
I. Un espace vectoriel normé [39, p.47] Les espaces vectoriels normés sont des espaces vectoriels
muni d’une norme. Après avoir rappelé la notion de norme, nous allons l’utiliser pour étudier les
applications continues et le cas de la dimension finie. Les espaces vectoriels normés sont utiles
dans la résolution d’équation différentielles (comme avec le théorème de Cauchy–Lipschitz) ou
encore dans la résolution de système matricielle.
A. Norme La norme est un objet topologique qui apporte quelques propriétés aux espaces vec-
toriels normés.
Définition [39, p.7] : Norme et espace vectoriel normé
Contre-exemple [44, p.318] : Nécessité des trois axiomes
Remarque : Lien avec la distance Définition : Normes équivalentes
Remarque : Interprétation sur la topologie Contre-exemple [44, p.320] : Norme plus fine
Contre-exemple [44, p.320] : Normes
Proposition : Caractérisation de l’équivalence incomparables
B. Application linéaire continue Les applications linéaires et leur continuité donne la construc-
tion d’une algèbre qui permet d’étudier la résolution matricielle.
Définition : Application linéaire continue Théorème : Caractérisation de la continuité
Application : Norme est continue Exemple : Applications continues selon des normes
Remarque : Dépendance à la norme choisie Contre-exemple : Discontinue
Définition : Norme subordonnée Définition : LC ( E, F ) (evn)
Proposition : Sous-multiplicativité Proposition : Caractérisation de la limite
Application : Méthode de Kaczmarz Application : Résolution matricielle et conditionnement
C. Cas de la dimension finie Dans le cas de la dimension finie, toutes les normes sont équi-
valentes. Ce résultat nous donne quelques applications propres aux espaces de dimension
fini.
Théorème : Équivalence des normes Corollaire : Sous-espace vectoriel est fermé
Proposition : Caractérisation des compacts Théorème : Théorème de Riesz
Contre-exemple : Dans le cas de la dimension infinie
Proposition : Continuité des applications linéaires
II. Espace de Banach Les espaces de Banach sont des espaces pour lesquels ont ajoute la complétude.
Cela nous assure de l’existence de limite pour les suites sans nécessairement la connaître. Ce sont
des espaces pratiques pour la résolution numérique car nous connaissons l’existence d’une limite.
73
A. Définition et premières propriétés [63, p.8]
Définition : Espace complet Définition : Espace de Banach
Exemple : Espace vectoriel de dimension finie
Contre-exemple : Espace vectoriel normé non Banach pour une norme
Contre-exemple : Espace vectoriel normé jamais Banach
Application : Théorème de Cauchy–Lipschitz
Proposition [39, p.48] : Caractérisation de Lc ( E, F ) Banach
Conséquence Théorème : Convergence des séries
Application : Résolution matricielle Application : GLc ( E) ouvert de Lc ( E)
B. Lemme de Baire et applications [39, p.396] Le lemme de Baire est un résultat important sur
les espaces de Banach donnant quelques résultats surprenant de l’analyse.
Lemme : Lemme de Baire Application : Application ouverte
Application : Théorème d’isomorphisme de Banach
Application : Théorème de Banach-Steinhaus
Application : Fonction continue différente de sa série de Fourier
Application : Densité des fonctions non continues
III. Espace de Hilbert Un espace de Hilbert est un espace vectoriel normé (dont la norme est issue
d’un produit scalaire) complet. Les espaces de Hilbert (même en dimension infinie) possède une
base : on se rapproche donc du cas Rn .
A. Espace de Hilbert [13, p.91]
Définition : Espace préhilbertien Exemple : l 2 et L2
Proposition : Inégalité de Cauchy–Schwartz Conséquence : Produit scalaire donne norme
Définition : Espace de Hilbert Définition : Élément orthogonaux
Application : Pythagore Proposition : Identité du parallélogramme
B. Projection sur un convexe fermé [39, p.407]
Théorème : Théorème de projection sur un convexe fermé
Application [63, p.384] : Moindre carré Application : Représentation de Riesz
74
Leçon 214 : Théorème d’inversion
locale, théorème des fonctions
implicites. Exemples et application en
analyse et en géométrie.
Développements de la leçon
Surjectivité de l’exponentielle Théorème des extremums liés
Motivation
Défense
— Grande idée du calcul différentiel : approchée une application (quelconque) par une ap-
plication linéaire.
— Application : Résoudre des systèmes d’équations via des systèmes linéaires.
— Interprétation géométrique qui permet de clarifier la notion de courbe
75
le cas de deux variables réelles. On attend des applications en géométrie différentielle notam-
ment dans la formalisation de la méthode des multiplicateurs de Lagrange. En ce qui concerne
la preuve du théorème des extrema liés, la présentation de la preuve par raisonnement « sous-
matriciel » est souvent obscure ; on privilégiera si possible une présentation géométrique s’ap-
puyant sur l’espace tangent. Plusieurs inégalités classiques de l’analyse peuvent se démontrer
avec ce point de vue : arithmético-géométrique, Hölder, Carleman, Hadamard,...
Pour aller plus loin, l’introduction des sous-variétés est naturelle dans cette leçon. Il s’agit
aussi d’agrémenter cette leçon d’exemples et d’applications en géométrie, sur les courbes et les
surfaces.
Métaplan
Introduction [51, p.707] Pendant toute cette leçon nous décidons de rester en dimension finie. Ce-
pendant, il est important de garder en tête que la majorité des résultats s’étendent sur des Banach
(donc en dimension infinie). Quelques résultats peuvent de déduire du cadre des Banach comme
le théorème de l’application ouverte ou par le résultat sur la perturbation de l’identité dans un
Banach.
Cadre : On reste en dimension finie : n, p, k ∈ N∗
Définition : C k -difféomorphisme Exemple : x 7→ x2
I. Théorème d’inversion locale (TIL) Le théorème d’inversion locale tente d’étendre les propriétés
d’inversion des fonctions de R dans R et des applications linéaires. On cherche alors à résoudre
y = f ( x ) en x = f −1 (y).
A. Quelques variantes de ce théorème [63, p.185] Nous donnons quelques variantes de ce théo-
rème (après avoir énoncé le cas classique C 1 ) ainsi que quelque applications. Pour le cas
C k , on n’est pas obligé de de réécrire tout le théorème. La version globale telle que nous
l’énonçons (il en existe des versions plus forte) nous ait d’aucune utilité en pratique. On en
donne cependant une applique qui est un cas particulier du théorème d’Hadamard–Lévy.
L’hypothèse k-dilatante entraîne que f est propre et que D f ( x ) est inversible en tout point.
Théorème : Variante C 1 (Dessin) Interprétation : Résolution d’équation
Remarque : Variante C k Exemple [63, p.204] : Calcul pratique
Contre-exemple [63, p.204] : Fonction qui ne vérifient pas le théorème
Théorème : Variante globale Remarque : En pratique revient à calculer l’inverse
Contre-exemple : Fonction non globale Application [63, p.221] : Inversion globale
Théorème : Version holomorphe Remarque : Aucune hypothèse sur la dérivée de f
Application [63, p.234] : Inverse d’une fonction holomorphe
B. Application en analyse [63, p.190] Le TIL possède de nombreuses applications, notamment
en analyse. Nous allons en présenter quelques une. Le théorème de changement de coor-
données est une simple reformulation du théorème d’inversion locale. Noue en déduisons
un corollaire qui est une généralisation du théorème de la base incomplète en algèbre li-
néaire. On peut ainsi simplifier un problème en changeant les coordonnées de fonctions qui
y jouent un rôle important (résolution d’équations aux dérivées partielles).
Théorème : Changement de coordonnées Exemple [63, p.71] : Coordonnées polaires
Corollaire : Base incomplète pour les fonctions
Proposition [52] : La fonction exp est un C 1 -difféomorphisme
Proposition [51, p.715] : Isométrie de Rn Théorème [63, p.330] : Lemme de Morse à deux variables
Application [63, p.341] : Étude locale d’une conique
C. Application en algèbre et en géométrie Le TIL possède de nombreuses applications, notam-
ment en algèbre et en géométrie. La réduction des forme quadratique nous donne deux
résultats essentielles : les formes quadratiques de même signature (donnée) forment un ou-
vert et les matrices symétriques assez proche de l’identité admettent une racine carrée symé-
trique. Le TIL transforme un système quelconque (de classe C 1 ) de deux équations à deux
inconnues se discute comme un système linéaire de rang le rang de la matrice jacobienne.
Théorème : Théorème de D’Alembert–Gauss Proposition : Simplicité de SOn (R)
76
Proposition [63, p.209] : Réduction des formes quadratiques
Application [63, p.354] : Lemme de Morse
Application [63, p.211] : Résolution de système d’équation
Théorème [69, p.48] : Surjectivité de l’exponentielle de matrice
Application : GLn (C) n’a pas de sous-groupe arbitrairement petit
II. Théorème des fonctions implicites Le théorème des fonctions implicites cherche à résoudre
l’équation suivante : f ( x, y) = 0 en exprimant y comme une fonction en c, soit y = ϕ( x ).
A. Quelques variantes de ce théorème [63, p.192]
Théorème : Version Ck1 (Dessin) Remarque : Version Ckk
Remarque : Calcul explicite Exemple [63, p.237] : Calcul
Remarque : Historique et équivalence aux autres théorèmes
B. Applications de ce théorème Le théorème des fonctions implicites joue un rôle important
en physique. Il permet de résoudre des équations en approximant les solutions. Mais il est
également à l’origine de la théorie de la relativité générale ainsi que l’excentricité de Kepler.
Théorème [13, p.12] : Polynômes scindé Corollaire : Les polynômes scindés sur C est un ouvert
Application [63, p.240] : Calcul de racines
Application [63, p.245] : Développement asymptotiques
Remarque : Application en physique : relativité générale (Kepler)
III. Sous-variétés Le concept de sous-variété permet de clarifier la notion de courbe et de surface. Les
sous-variétés sont une notion permettant d’uniformiser la théorie autours des objets appelés sur-
face (parabole, ellipse, cylindre, tore, . . . ). Elle se concentre sur l’aspect local des sous-ensembles
de Rn : ce sont des sous-espaces affines propres qui ont été transformés.
A. Sous-variété et espaces tangents [63, p.196]
Définition : Sous-variétés Théorème : Caractérisation des sous-variétés
Définition : Espace tangent Remarque : Espace tangent affine
Théorème : Caractérisation de l’espace tangent
B. Théorème des extremum liés Le théorème des extremum liés est un théorème résolvant u
problème d’extremum liés. Ceux-ci sont liés par une surface ou un courbe (en réalité une
sous-variété) et on cherche un extremum pour ceux-ci.
Théorème [10, p.103] : Théorème des extremum liés
Application [39, p.319] : Inégalité arithmético-géométrique
Application [63, p.409] : Inégalité de Hadamard
Application : Inégalité de Hölder Application : Diagonalisation symétriques
77
Leçon 219 : Extremums : existence,
caractérisation, recherche. Exemples et
applications.
Développements de la leçon
Théorème des extremums liés et inégalité d’Hadamard Gradient à pas optimal
Motivation
Défense
— Les problèmes d’existences utilisent souvent la notion d’extremum.
— On cherche à savoir quels sont les éléments maximaux de notre fonction.
— En fonction de l’espace de départ et des propriétés de la fonction : plus ou moins facile.
78
liés et la notion de multiplicateur de Lagrange. Sur ce point, certains candidats ne font mal-
heureusement pas la différence entre recherche d’extremums sur un ouvert ou sur un fermé.
Une preuve géométrique des extrema liés sera fortement valorisée par rapport à une preuve
algébrique, formelle et souvent mal maîtrisée. On peut ensuite mettre en œuvre ce théorème
en justifiant une inégalité classique : arithmético-géométrique, Hölder, Carleman, etc... Enfin,
la question de la résolution de l’équation d’Euler-Lagrange peut donner l’opportunité de men-
tionner la méthode de Newton.
Les candidats pourraient aussi être amenés à évoquer les problèmes de type moindres car-
rés, ou, dans un autre registre, le principe du maximum et des applications.
Métaplan
I. Problème d’extremum [63, p.370] Nous commençons par fixer le cadre de notre leçon : nous
nous plaçons sur un espace vectoriel de dimension finie. De plus, nous étudions uniquement les
fonctions continues. La différence entre un extremum local et global est à la portée de celui-ci : un
extremum global est un champion du monde et un extremum local est un champion régional.
Cadre : Espace vectoriel de dimension finie (norme euclidienne) Cadre : Fonction continue
Définition : Extremum Définition : Extremum local
Définition : Extremum global Définition : Extremum strict
II. Extremum et aspects topologiques [65, p.44] L’utilisation des notions topologiques nous per-
met de nous assurer de l’existence des extremums. Ces extremums sont globaux.
A. Utilisation de la compacité La compacité est une notion topologique qui nous assure l’exis-
tence d’un maximum et d’un minimum local.
Proposition : Image continue d’un compact Théorème : Existence du minimum et du maximum
Exemple : Norme infinie sur boule unité Contre-exemple [44, p.202] : Continuité
Application : Équivalence de normes
B. Extremum sur un non-compact Dans le cas d’un ensemble non-compact (et en particulier
non borné), nous définissons les fonctions coersives qui nous donne l’existence.
Principe : Où sont les extremums ? Définition : Distance d’une partie
Définition : Fonction coersive Interprétation : Va à l’infini sur les bords
Théorème : Minimum d’une fonction coersive Application : Théorème de d’Alembert
Théorème : Maximum d’une fonction tendant vers 0
III. Extremum et aspects différentiels [65, p.147] La notion de différentielle nous permet de faire
une caractérisation locale des extremums. Cette caractérisation est local et dépend de la régularité
des fonctions.
A. Utilisation de la différentielle À l’ordre un, on est uniquement capable de définir les points
critiques (nous ne pouvons en donné la nature).
Cadre : f est C 1 Définition : Points critiques
Théorème : Caractérisation via les points critiques
Contre-exemple : Réciproque Application [65, p.77] : Théorème de Rolle
B. Utilisation des différentielles secondes À l’ordre deux, nous sommes capable d’identifier la
nature des points critiques non dégénérés.
Cadre : f est C 1 Définition : Points critiques non dégénérés
Théorème : Caractérisation via ces points critiques
Remarque : Lien avec valeurs propres Remarque : Local
Application : Perpendiculaire communes Remarque : Passer du local au global
C. Méthode de recherche des extremums Nous avons alors une méthode de recherche des extre-
mums qui commence par l’application de la méthode de Newton.
Méthode : Étapes de la recherche Application : Recherche de points critiques
Théorème [63, p.152] : Méthode de Newton
79
IV. Extremum sous contraintes [13, p.20] Nous cherchons les extremums sous contraintes qui
peuvent être une courbe, une surface ou autrement. Une analogie : les extremums libres sur une
montagne sont ses sommets, les extremums liées sont les cols de dans notre montagne.
Théorème : Extremums liées Application [63, p.372] : Inégalité de Hadamard
Application : Inégalités Application : Diagonalisation des endomorphismes symétriques
V. Extremum et apport de la convexité [65, p.245] La notion de convexité fait un lien entre global
et local car les extremums locaux d’une fonction convexe sont globaux. Cette remarque va alors
nous facilité notre recherche d’extremum
A. Extremum et convexité
Définition : Fonction convexe / concave Proposition : Continuité / Lipschitz
Théorème : Caractérisation des extremums Remarque : Local = global
B. Recherche par méthode de descente La connexité permet d’accéléré la recherche (pas d’ex-
tremums locaux, une convergence plus rapide). Cependant si les fonctions ne sont pas
convexes ces méthodes s’appliquent quand même mais peuvent tomber dans des extre-
mums locaux.
Remarque : Permet d’avoir une meilleure recherche Application : Formes quadratiques
Proposition : Convergence de Newton Méthode : Gradient à pas optimal
Principe : Méthode de descente Application : Formes quadratiques
Méthode : Gradient à pas fixe Remarque : Si non convexe
80
Leçon 220 : Équations différentielles
X 0 = f (t, X ). Exemples d’étude des
solutions en dimension 1 et 2.
Développements de la leçon
Théorème de Cauchy – Lipschitz Nombre de zéros d’une équation
Motivation
Défense
— XV I I ième siècle : apparition du calcul différentiel et intégrable (apporte une riche théorie
mathématiques)
— Les équations différentielles apparaissent alors en géométrie ou en mécanique (applica-
tions)
— À leur début, pas de recherche d’existence ni d’unicité (on ne cherche qu’à les résoudre
sans savoir si c’est possible).
81
de Cauchy–Lipschitz doit pouvoir être mise en œuvre sur des exemples concrets. Les études
qualitatives doivent être préparées et soignées.
Pour les équations autonomes, la notion de point d’équilibre permet des illustrations perti-
nentes comme par exemple les petites oscillations du pendule. Trop peu de candidats pensent
à tracer et discuter des portraits de phase alors que l’intitulé de la leçon y invite clairement.
Il est possible d’évoquer les problématiques de l’approximation numérique dans cette leçon
en présentant le point de vue du schéma d’Euler. On peut aller jusqu’à aborder la notion de
problèmes raides et la conception de schémas implicites pour autant que le candidat ait une
maîtrise convenable de ces questions.
Métaplan
Cadre : On se place en dimension finie dans Rm .
I. Théorie des équations différentielles On se place dans un cadre très général pour donner la
théorie des équations différentielles et notamment l’étude des solutions.
A. Notions de solutions [30, p.125] Lorsqu’on se donne une équation différentielle qu’appelle-t-
on une solution ? Dans de nombreuses situations concrète, la variable t représente le temps
et y représente les différents paramètres de l’état de notre système. Résoudre un problème
de Cauchy revient à décrire l’état d’un système en fonction du temps à partir d’un temps
et des configurations initiaux. Prendre un unique exemple de ces notions sur une équation
différentielle que nous pouvons commenter à l’oral.
Définition [39, p.353] : Solution Remarque [39, p.353] : On se ramène à l’ordre 1.
Cadre : Équations que l’on cherche à résoudre Définition : Problème de Cauchy
Définition : Prolongement des solutions Définition : Solution maximale
Théorème : Existence d’une solution maximale Définition : Solution globale
Remarque : Globale implique maximale mais pas réciproque
Contre-exemple : y0 = y2 sur U = R × R
B. Existence et unicité des solutions [30, p.131] Avant de se mettre à la recherche des solutions,
nous voulons nous assurer qu’elles existent. C’est Cauchy qui est le premier à avoir for-
maliser l’existence de solution (la différence entre le local et le global apparaît à ce moment
dans les mathématiques). Il existe une caractérisation via l’intégrale du problème de Cauchy,
cependant cette caractérisation demande l’étude de la dite intégrale. On utilise donc des cri-
tère plus simples à manipuler. Le théorème de Cauchy–Peano nous garantissant l’existence
des solutions pour des fonctions continues. Pour obtenir l’unicité nous devons avoir un ca-
ractère Lipschitz supplémentaire, ce qui nous donnes les théorèmes de Cauchy–Lipschitz
local et global. On réfléchie des hypothèses des plus faibles aux plus fortes.
Lemme : Caractérisation des solutions via l’intégrale Définition : Cylindre de sécurité
Théorème : Théorème de Cauchy–Peano–Arzela
Corollaire : Existence de solution maximale (interprétation)
2
Exemple : y0 = |y| 3 Définition : Fonctions lipschitziennes
2
Théorème : Cauchy–Lipschitz local Exemple : y0 = |y| 3
Théorème [63, p.170] : Cauchy-Lipschitz global Exemple [63, p.170] : Équation du pendule
C. Propriétés des solutions [39, p.377] Maintenant que nous sommes capables de savoir si une
équation possède ou non des solutions, nous donnes quelques propriétés sur ces équations.
Théorème [30, p.130] : Régularité des solutions Théorème : Lemme de Grönwall
Corollaire : Lemme de Grönwall Application : Distance entre deux solutions
Théorème : Sortie de tout compact Application : Champs de vecteurs complets
II. Résolution explicite et étude qualitative Maintenant que nous savons si une équation diffé-
rentielle possède ou non une solution, nous souhaitons calculer cette solution. Dans certains cas
la résolution est facile (cas des équations différentielles linéaires), mais dans la majorité des cas
nous devons nous contenter d’une étude qualitative des solutions. Nous aurions également pû
parler de calcul numérique des solutions par approximations successives (schéma d’Euler).
82
A. Solutions des équations différentielles linéaires [30, p.201] Les équations différentielles li-
néaires sont des équations pour lesquelles la résolution est simple. De nombreux résultats
et méthodes nous permettent de résoudre ses équations. Attention, nous avons besoins de
l’exponentielle de matrice.
Proposition : Espace des solutions et dimension
Théorème : Solution d’équations sans deuxième membre
Application [39, p.363] : Système linéaire en dimension 3 Théorème : Solution générale
Application : Résolution de y00 + 4y = tan t Méthode : Variation de la constante
B. Équations remarquables [30, p.164] Voici quelques exemples d’équations que nous sommes
capables de résoudre explicitement : soit elles se ramène à des équations linéaires, soit elles
utilisent des outils analytiques comme les séries entières.
Équation de Bernoulli Équation de Ricatti
Équation de Bessel Équation homogène
C. Étude qualitative des solutions Dans la majorité des cas, nous ne sommes pas capable de
résoudre une équation différentielle. Nous réalisons alors une étude quantitative des so-
lutions pour en connaître quelques propriétés. On cherche à connaître leur régularité, leur
monotonie ou leur zéros.
Principe Remarque : Approximation des solutions
Exemple : Équation du pendule Exemple : Équation de Catho–Voltena
Proposition [39, p.378] : Solution de y00 + qy = 0 bornée
Proposition : Nombre de zéros de cette équation
III. Stabilité des systèmes autonomes Cette partie est également une étude qualitative des équa-
tions différentielles : on les étudie asymptotiquement afin de savoir si elles restent ou non dans
un compact.
A. Systèmes autonomes stables dans le cas linéaire [57, p.380] Dans ce cas, c’est toujours plus
facile.
Définition : Système stable (Dessin) Définition : Système instable (Dessin)
Définition : Système asymptotiquement stable (Dessin) Théorème : Stabilité dans le cas linéaire
B. Étude de la stabilité dans le cas non linéaire [63, p.132] Dans ce cadre cette étude est plus
compliquée. Cependant, nous sommes capable de nous ramené à une système linéaire qui
va conserver les mêmes caractéristiques de stabilité.
Définition : Système linéarisé Théorème : Théorème de Lyapunov
Exemple : Équation de Van der Pol pour e > 0 Contre-exemple :
Exemple : Équation du pendule
83
Leçon 221 : Équations différentielles
linéaires. Systèmes d’équations
différentielles linéaires. Exemples et
applications.
Développements de la leçon
Théorème de Cauchy – Lipschitz Nombre de zéros d’une équation
Motivation
Défense
— XV I I ième siècle : apparition du calcul différentiel et intégrable (apporte une riche théorie
mathématiques)
— Les équations différentielles apparaissent alors en géométrie ou en mécanique (applica-
tions)
— À leur début, pas de recherche d’existence ni d’unicité (on ne cherche qu’à les résoudre
sans savoir si c’est possible).
— On peut linéariser les équations non-linéaires. On étudie ensuite cette équation linéarisée.
84
en œuvre la méthode de variation des constantes pour résoudre une équation différentielle li-
néaire d’ordre 2 simple (à coefficients constants par exemple) avec second membre ; un trop
grand nombre de candidats se trouve déstabilisés par ces questions.
L’utilisation des exponentielles de matrices a toute sa place ici et doit être maîtrisée. Les
problématiques de stabilité des solutions et le lien avec l’analyse spectrale devraient être ex-
ploitées.
Le théorème de Cauchy–Lipschitz linéaire constitue un exemple de développement perti-
nent pour cette leçon. Les résultats autour du comportement des solutions, ou de leurs zéros,
de certaines équations linéaires d’ordre 2 (Sturm, Hill–Mathieu,...) sont aussi d’autres possibi-
lités.
Pour aller plus loin, la résolution au sens des distributions d’équations du type T 0 = 0, ou
des situations plus ambitieuses, trouvera sa place dans cette leçon.
Métaplan
Cadre : K = R ou C, n ∈ N∗ , I intervalle de R.
85
Définition : Système asymptotiquement stable (Dessin)
Remarque : On se limite à l’étude de la fonction nulle
Théorème : Stabilité dans le cas linéaire Définition [63, p.132] : Système linéarisé
Théorème [63, p.132] : Théorème de Lyapunov Exemple [63, p.132] : Équation du pendule
C. Étude qualitative de l’équation y00 + py0 + qy = 0 On réalise une étude qualitative des
solutions de cette famille d’équation. Pour ce donner une idée de la tête des solutions, on
commence par la résoudre dans le cas constant (on voit apparaître la résolution via les po-
lynômes caractéristiques). Ensuite, on étudie le nombre de zéros de cette équation. Enfin on
termine par l’étude de la régularité de ces solutions.
Formes des solutions dans le cas constant [16]
Définition : Équation caractéristique Proposition : Résolution via le polynôme caractéristique
Application : Oscillateur harmonique Application : Équation d’Euler d’ordre 2
Étude des zéros des solution [57, p.404]
Théorème : Dénombrement des zéros Exemple : Id, t 7→ t2
Contre-exemple : q( x ) = 1
4x2
; q0 ( x ) = 1
2x3
; y00 = q(t)y.
Régularité des solutions [57, p.404]
Proposition [30, p.130] : Régularité des solutions Proposition [39, p.378] : Solution est bornée
III. Résolution explicite d’équations différentielles linéaires Le cas des équations différen-
tielles linéaires est le cas facile de la résolution d’équation (d’où la recherche d’équation linéarisé).
Nous allons présenter quelques méthode afin de résoudre des équations dans ce cadre.
A. Le cas de l’ordre un [16] Le cas de l’ordre un est le plus facile, en intégrant et en appliquant
la méthode de résolution vu dans la partie II, on fait juste apparaître une exponentielle.
Proposition : Solution d’une équation homogène Proposition : Solution générale
B. Cas particulier des coefficients constants [16] La résolution dans ce cas reste relativement
simple. Cependant, elle demande l’introduction de nouveau outils comme l’exponentielle
de matrices.
Cadre : Solution que nous souhaitons résoudre Définition : Exponentielle de matrice
Proposition : Calcul de cet exponentielle de matrice
Proposition : Comportement face à la dérivation
Proposition : Propriétés d’une exponentielle de matrice
Proposition : Solution d’un tel système d’équation
Proposition : Base de l’espace des solutions
C. Résolvantes et Wronskien [30] Lorsque les coefficients ne sont plus constants, la résolution
est toujours possible mais nous devons faire appelle à des outils plus puissant comme la
résolvante et le Wronskien
Cadre : Équation que l’on souhaite résoudre Définition : Système fondamental de solution
Définition : Résolvante Proposition : Caractère isomorphique
Proposition : Comportement face à la dérivation Proposition : Propriétés de la résolvante
Proposition : Solution d’un tel système d’équation Définition : Wronskien
Proposition [16] : Identité d’Abel
D. Méthode de la variation de la constante [16] La résolvante est un outil lourd et difficile à
manipuler. La méthode de la constante permet de simplifier la résolution de tels équations
différentielles.
Principe : Solution homogène donne une solution globale Méthode
Proposition : Formule de Duhamel
86
Leçon 223 : Suites numériques.
Convergence, valeurs d’adhérence.
Exemple et application.
Développements de la leçon
Suite de polygones Méthode de Newton
Motivation
Défense
— Notion d’itération introduite par Archimède afin de calculer une valeur de π.
— Formalisation via les travaux de Cauchy et de Gauss.
— Étude des suites dans un espace vectoriel normé s’y ramène.
87
Métaplan
Cadre : On se place dans un corps K qui est R ou C.
I. Convergence d’une suite L’étude de la convergence d’une suite est une propriété que l’on vérifie
dès que nous manipulons des suites.
A. Notion de convergence Nous commençons par définir la notion de convergence pour la suite
et la divergence d’une suite.
Définition : Suite Définition : Convergence
Proposition : Unicité de la limite Application : Caractérisation séquentielle de la continuité
Proposition : Espace vectoriel Application : Limites géométrique et arithmétique
Définition : Divergence Remarque : Suite divergente
Définition : Notation de Landau
B. Propriétés de la limite Étudions le comportement pour une suite monotone, bornée et sur les
opérations.
Théorème : Comportement des limites +, ×, ≤ Définition : Suite monotone, bornée
Proposition : Monotone et bornée est convergence
Proposition : Convergence implique suite bornée
Remarque : Réciproque est fausse Proposition : Critère de convergence
C. Valeurs d’adhérence Les valeurs d’adhérence sont des limites de suites extraites On définie
alors la notion de liminf et limsup qui sont des limites moins puissantes que les autres.
Définition : Suite extraite Définition : Valeurs d’adhérence
Théorème : Théorème de Bolzano–Weierstrass Application : Principe des compacts croissant
Proposition : Lien entre valeur d’adhérence et limite
Définition : Limite supérieure et inférieure d’adhérence
Proposition : Inégalité Application : Critère d’Hadamard
Remarque : Existence Proposition : Liminf - Limsup et valeurs d’adhérence
D. Convergence au sens des complexes Lorsqu’on regarde une suite de complexe, sa convergence
se lit dans la convergence de la suite induite par sa norme.
Définition : Convergence Proposition : Caractérisation via la partie réelle et imaginaire
Remarque : Analogue au cas d’un espace vectoriel Application : Suite de polygones
II. Convergence de suites particulières Nous donnons quelques études de convergences pour
quelques suites particulières : suite adjacente, de Cauchy, définie par récurrence.
A. Suites adjacentes et de Cauchy
Définition : Suite adjacente Proposition : Même limite
Application : Théorème des valeurs intermédiaires Application : Séries alternées
Théorème : Théorème des gendarmes Application : Comparaison série-intégrale
Exemple : Série de Riemann Définition : Convergence et suite de Cauchy
Application : Divergence de Hn
B. Suites récurrentes Les suites définies par récurrence peuvent faire l’objet d’une leçon entière.
Cependant, dans le cadre de la convergence, la régularité de la fonction f va jouer un rôle
prédominant.
Cadre : un+1 = f (un ) Proposition : Continue : point fixe
aun +b Proposition : Lien entre monotonie et limité
Application : un+1 = aun + b et un+1 = cun +d
Théorème : Point fixe de Picard Théorème : Méthode de Newton
III. Sommation La sommation est une suite logique dans l’étude de la convergence des suites (on
peut les voir comme des suites). Nous donnons donc quelques résultats sur les séries et leurs
convergences, leur équivalents, ...
Proposition : Sommation et notations de Landau
Proposition : Série harmonique Proposition : Stirling
Théorème : Lemme de Cesàro Application : Convergence lente
88
Leçon 224 : Exemples de
développements asymptotiques de
suites et de fonctions.
Développements de la leçon
Nombre de zéros d’une équation Méthode de Newton
Motivation
Défense
— Utile en physique : calcul du potentiel d’un dipôle loin des sources.
— Étude de voisinage de singularité de certaines fonction.
— Vitesse de convergence de méthodes numérique.
— Simplification d’étude complexe en se ramenant à l’étude de fonctions plus simples
89
Par ailleurs, le thème de la leçon permet l’étude de suites récurrentes (autres que le poncif
un+1 = sin un ), plus généralement de suites ou de fonctions définies implicitement, ou encore
des études asymptotiques de solutions d’équations différentielles (sans résolution explicite).
On peut aller plus loin en abordant des techniques de phase stationnaire et en en discutant
des applications.
Métaplan
Cadre : Soit f une fonction définie sur un intervalle I différent d’un point à valeurs dans R, a ∈ I et n ∈ N.
90
Leçon 226 : Suites vectorielles et réelles
définies par une relation de récurrence
un = f (un−1 ). Exemples. Applications à
la résolution approchée d’équations.
Développements de la leçon
Suite de polygones Méthode de Newton
Motivation
Défense
— Analyse numérique :
— recherche d’extrema ;
— résolution de système d’équation.
— Probabilité : analyse de processus stochastique.
91
L’étude des suites linéaires récurrentes d’ordre p est souvent mal connue, notamment le
lien avec l’aspect vectoriel, d’ailleurs ce dernier point est trop souvent négligé. Le comporte-
ment des suites vectorielles définies par une relation linéaire Xn+1 = AXn fournit pourtant un
matériel d’étude conséquent.
La formulation de cette leçon invite résolument à évoquer les problématiques de conver-
gence d’algorithmes (notamment savoir estimer la vitesse) d’approximation de solutions de
problèmes linéaires et non linéaires : dichotomie, méthode de Newton (avec sa généralisation
au moins dans R2 ), algorithme du gradient, méthode de la puissance, méthodes itératives de
résolution de systèmes linéaires, schéma d’Euler,...
Métaplan
Cadre : E un espace vectoriel, f une fonction telle que f ( I ) ⊆ I pour I un intervalle de R.
I. Itération d’une fonction
Définition : Suite définie par f Idée : La régularité de la fonction va nous être utile
92
Leçon 228 : Continuité et dérivabilité
d’une fonction réelle à une variable
réelle. Exemples et applications.
Développements de la leçon
Théorème de Weierstrass Méthode de Newton
Motivation
Défense
— La notion de continuité a été très tôt intuitée mais il a fallut attendre les travaux de Peano
pour ébauché la théorie actuelle.
— La notion de dérivation s’est quand à elle développée avec les travaux de Leibniz et de
Newton sur l’infinitésimal.
— Comme nous le verrons dans la suite de la leçon ses deux notions sont très proches l’une
de l’autre et interagissent à bien des égares.
93
candidats. De façon plus fine, on peut s’intéresser à des exemples de fonctions continues nulle
part dérivables.
Les propriétés de régularité des fonctions convexes peuvent être mentionnées. Pour aller
plus loin, la dérivabilité presque partout des fonctions lipschitziennes ou des fonctions mo-
notones relève de cette leçon. L’étude des liens entre dérivée classique et dérivée au sens des
distributions de R xfonctions telles que la fonction de H EAVISIDE, de la valeur absolue ou de la
fonction x 7→ a f (y)dy, f étant intégrable, peuvent trouver leur place dans cette leçon. On
peut aussi relier la dérivée faible et la limite du taux d’accroissement au sens des distributions
et établir le lien entre fonction croissante et dérivée faible positive.
Métaplan
Cadre : I désigne un ensemble R, a un point de I et f une fonction de I dans R.
B. Propriétés globales des fonctions continues Objectif : Étendre la notion de continuité (qui est
locale) à des propriétés globales sur les fonctions continues.
Définition [62, p.47] : Continuité uniforme Théorème : Heine
Remarque [62, p.48] : Uniforme continuité ⇒ continuité mais pas ⇔
√
Exemple [62, p.48] : x 7→ x est uniformément continue
Contre-exemple [62, p.47] : x 7→ x2 n’est pas uniformément continue sur R.
Proposition [62, p.48] : Fonctions lipschitziennes sont uniformément continue.
C. Exemples de fonctions continues Objectif : Donner quelques classes de fonctions remarquable
au vue de la continuité.
Théorème [62, p.44] : Fonction monotone et continuité
Application [62, p.44] : Fonction monotone et points de discontinuité
Proposition [39] : La convergence uniforme préserve la continuité
Théorème [39, p. 229] : Lemmes de Dini Théorème [39, p.225] : Weierstrass
Théorème [39, p. 157] : Continuité sous le signe intégrale
Contre-exemple [44, p.231] : f n : [0, 1] 7→ R telle que f n ( x ) = x n
Application : Transformée de Fourier d’une fonction L1 (R) est continue.
II. Dérivabilité
A. Définitions et lien avec la continuité Objectif : Formaliser la notion de dérivabilité et la mettre
en relation avec la notion de continuité.
Définition [39, p.69] : Dérivabilité en un point, sur un intervalle, fonction dérivable, fonction dé-
rivé
94
Remarque [39, p.70] : Dérivabilité → continuité
Remarque [39, p.70] : Fonction dérivée n’est pas forcément continue.
Exemple : f ( x ) = x2 sin( 1x ) si x 6= 0 et 0 sinon. La dérivée de f est non continue en 0.
Remarque [62, p.208] : f est dérivable en a ⇔ f admet un DL d’ordre 1 en a
Application [62] : Caractérisation par dérivabilité pour les fonctions lipschitziennes
Proposition [62] : f continue, strictement monotone et dérivable en a. La réciproque est dérivable
en f ( a) ⇔ f 0 ( a) 6= 0 et dans ce cas ( f −1 )0 ( f ( a)) = f 0 1( a) .
Exemple [62] : x 7−→ arcsin0 ( x ) Théorème [62] : Darboux
Application : Recherche de racine de f 0 par dichotomie.
Rx sin t
Théorème [39] : Prolongement de dérivée Exemple [39] : x 7−→ 0 t dt
B. Dérivées d’ordre supérieure Objectif : dériver des fonctions dérivées.
Définition [62] : Dérivée d’ordre n + classes C n et C ∞ Contre-exemple : Lien avec les DL d’ordre n
Exemple : La fonction déterminant est C ∞ car c’est un polynôme.
Application [62] : Caractérisation des fonctions convexes par dérivée seconde
Proposition [62] : Leibniz
C. Interprétation géométrique de la dérivée
Théorème : Rolle Contre-exemple : t 7−→ eit
Rb
Théorème : Accroissement Théorème : Fondamental de l’analyse a f (t)dt = f (b) − f ( a)
III. Continuité et dérivabilité : des outils puissants
A. Étude variationnelle des fonctions
Proposition : Signe de la dérivé et monotonie Proposition : f 0 > 0 ⇒ stricte croissance
Contre-exemple : x 7−→ x 3 Application : Caractérisation des fonctions convexes par monotonie
Proposition : Fonction dérivée monotone est continue Proposition : Extremum local
Contre-exemple : w 7−→ x3 Application : Méthode de Newton
Proposition : Règle de l’Hôpital Exemple : limx→0 sinxx =1
Contre-exemple : x 7−→ sin( x2 ) et x 7−→ x
B. Formules de Taylor [62, p.181]
Théorème : Formule de Taylor–Lagrange Théorème : Formule de Taylor–Young
Théorème : Formule de Taylor avec reste intégrable
Application [54, p.231] : Théorème central limite
C. Quelques résultats de densité
Théorème : Fonction continue partout, dérivable en aucun point
Application : Densité de ces fonctions dans les fonctions continues
Théorème : Densité des fonctions C n à support compact dans L p (R) pour 1 ≤ p < ∞.
95
Leçon 229 : Fonctions monotones.
Fonctions convexes.
Développements de la leçon
Caractérisation de Γ Méthode du gradient à pas optimal
Motivation
Défense
— La monotonie décrit les variations d’une fonctions (extremum local d’une fonction)
— La convexité des fonctions (extremum global)
96
dérivation au sens des distributions fournit les caractérisations les plus générales de la mo-
notonie et de la convexité ; les candidats maîtrisant ces notions peuvent s’aventurer utilement
dans cette direction.
Métaplan
Cadre : I intervalle de R
I. Fonctions monotones
A. Définitions
Définition : Fonction croissante, décroissante Définition : Fonction monotone
Remarque : Monotonie de f et − f Remarque : Stricte croissance / décroissance
Application [63, p.257] : Monotonie d’une suite Exemple : Fonction caractéristique
B. Régularité des fonctions monotones
Proposition : Limite à gauche et à droite en tout points
Contre-exemple [44] : stricte croissante et discontinuité
Proposition : Bijection et f −1 Théorème (ADMIS) : Dérivable presque partout
97
Leçon 230 : Séries de nombres réels et
complexes. Comportement des restes et
des sommes partielles des séries
numériques.
Développements de la leçon
Nombre de Bell Nombre de Bernoulli
Motivation
Défense
Ce qu’en dit le jury
De nombreux candidats commencent leur plan par une longue exposition des conditions
classiques assurant la convergence ou la divergence des séries numériques. Sans être hors su-
jet, cette exposition ne doit pas former l’essentiel de la matière de la leçon. Un thème important
de la leçon est en effet le comportement asymptotique des restes et sommes partielles (équi-
valents, développements asymptotiques — par exemple pour certaines suites récurrentes —
cas des séries de Riemann, comparaison séries et intégrales,...). Le manque d’exemples est à
déplorer.
On peut aussi s’intéresser à certaines sommes particulières, que ce soit pour exhiber des
nombres irrationnels (voire transcendants), ou mettre en valeur des techniques de calculs non
triviales (par exemple en faisant appel aux séries de Fourier ou aux séries entières).
Enfin, si le jury apprécie que le théorème des séries alternées (avec sa version sur le contrôle
du reste) soit maîtrisé, il rappelle aussi que ses généralisations possibles utilisant la transfor-
mation d’Abel trouvent toute leur place dans cette leçon.
98
Métaplan
— Définition : ∑ un — Définition : Sn
I. Séries à termes positifs [39, p.200]
Cadre : ∀n ∈ N, un ≥ 0 Définition : Convergence de ∑ un
Proposition : Convergence ⇒ un → 0 Définition : Divergence grossière
A. Critère de convergence
Proposition : Majoration par une série convergente Exemple [39, p.211] : Zéta
Théorème : Comparaison série-intégrale Exemple : Série de Riemann
Contre-exemple [44, p.122] Proposition : Convergence et Lando
Application : Hn et Stirling Exemple : Série de Bertrand
Proposition : Règle de d’Alembert Contre-exemple [44, p.119]
Proposition : Règle de Cauchy Contre-exemple [44, p.120]
Proposition : Règle de Roab–Duahamel
B. Comportements des restes des sommes partielles
Proposition : Bijection et f −1 Théorème (ADMIS) : Dérivable presque partout
II. Séries à termes quelconques [39, p.210] On obtient la motivation pour la partie précédente.
— Cadre : un quelconques dans R ou C — Définition : Convergence absolue
— Remarque : Convergence absolue ⇒ simple — Définition : Série semi-convergente
A. Critères de convergence
Proposition : Séries alternées Proposition : Transformation d’Abel
Proposition : Cauchy-Hadamard Proposition : Cas complexe
B. Comportement des restes
Proposition : Reste de série absolument convergente Proposition : Comparaison reste-intégrale
99
Leçon 233 : Analyse numérique
matricielle : résolution approchée de
systèmes linéaires, recherche de
vecteurs propres.
Développements de la leçon
Méthode de Kackmarz Méthode du gradient à pas optimal
Motivation
Défense
— Rayon spectral est difficile à calculer mais utile, par exemple pour le web.
— Problèmes résolus grâce à ces méthodes :
— Ax = b (inverser A) : schéma numériques, résolution approchées d’équations diffé-
rentielles, calcul de bases d’un espace vectoriel.
— Valeurs propres de A (diagonaliser) : stat, stabilité de système différentiel, estima-
tion du rayon spectral.
— Méthodes itératives :
— Rapidité
— Stabilité : méthode directe (exacte) : arrondit, solution loin de la réalité, comment se
comporte les solutions lorsqu’elles sont perturbées ?
100
Ce qu’en dit le jury
Le jury reprend une formulation antérieure de l’intitulé car la leçon se focalisait trop exclu-
sivement sur la résolution de systèmes linéaires par des méthodes itératives. Le jury souhaite
un sujet plus ouvert et des propositions qui ne négligent plus la recherche de vecteurs propres
et, de manière générale, l’exploitation de techniques d’analyse pour aborder la résolution ap-
prochée de systèmes linéaires et de leurs propriétés spectrales et approfondir la compréhen-
sion des algorithmes.
Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont
centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ;
elles doivent être développées et maîtrisées. Le conditionnement d’une matrice symétrique
définie positive doit être connu et un lien avec sup|| x||=1 x T Ax doit être fait. Le résultat général
de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations
sur la vitesse de convergence.
Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : réso-
lution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type 12 ( Ax, x ) −
(b, x )), recherche de valeurs propres,... Parmi les points intéressants à développer, on peut
citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de
gradient dans le cadre quadratique, les méthodes de puissance et QR pour la recherche de va-
leurs propres. Les candidats pourront illustrer leur propos sur des matrices issues de schémas
numériques pour les équations différentielles ou aux dérivées partielles linéaires.
Métaplan
Cadre : R ou C
I. Normes matricielles, rayon spectral et conditionnement [19, p.1] But : conditionnement petit
Définition : norme subordonnée Proposition : Propriété de cette norme
Exemple : Norme subordonnée à 2 Contre-exemple : Frobenius
Définition : Rayon spectral Remarque : Lien avec la norme
Définition : Conditionnement d’une matrice Proposition : Propriétés du conditionnement
Proposition [2, p.90] : Lien avec la résolution Proposition [2, p.91] : Lien avec les valeurs propres
II. Résolution approchée de systèmes linéaires But : problème à résoudre.
A. Méthodes itératives de décomposition [2, p. 157]
Définition : Méthodes itératives Définition : Convergence d’une méthode
Définition : Erreur Théorème : Critère de convergence
Définition : Méthode de Jacobi Proposition : Convergence dans le cas hermitien
Définition : Méthode de Gauss–Seidel Proposition : Convergence dans le cas hermitien
Remarque [19, p.19] (ADMIS) : Comparaison des convergences
Définition : Méthode de la relaxation Remarque : Valeurs de ω
Théorème : Convergence et sa vitesse Théorème(ADMIS) : Cas des matrices triangulaires
B. Méthodes itératives géométriques
Méthode : Kackmarz Lemme : Caractérisation des solutions
Théorème : Convergence de la méthode
C. Optimisation [58]
Définition : Lien entre Ax = b et fonction Proposition : Gradient de cette fonctionnelle
Proposition : Existence et unicité des solutions Méthode : Gradient à pas optimal
III. Recherche de valeurs et de vecteurs propres [2, p.215]
A. Calcul de la plus grande valeur propre
Définition : Méthode de la puissance Théorème : Correction
Théorème : Terminaison Proposition : Vitesse de convergence
101
B. Calcul des autres valeurs propres
Définition : Méthode de la puissance inverse Théorème : Correction
Théorème : Terminaison Remarque : Lien avec ce qui précède
102
Leçon 236 : Illustration par des
exemples quelques méthodes de calcul
d’intégrales.
Développements de la leçon
Intégrale de Fresnel Formule de Poisson et fonction Θ
Motivation
Défense
Ce qu’en dit le jury
R +∞
Cette leçon doit être très riche en exemples, que ce soit l’intégrale 0 sint t dt ou bien
d’autres encore. Il est tout à fait pertinent de commencer par les différentes techniques élémen-
taires (intégration par parties, changement de variables, décomposition en éléments simples,
intégrale à paramètres,...). On peut également présenter des utilisations du théorème des ré-
sidus, ainsi que des exemples faisant intervenir les intégrales multiples comme le calcul de
l’intégrale d’une gaussienne. Le calcul du volume de la boule unité de Rn ne doit pas poser
de problèmes insurmontables. Le calcul de la transformation de Fourier d’une gaussienne a sa
place dans cette leçon.
On peut aussi penser à l’utilisation du théorème d’inversion de Fourier ou du théorème
de Plancherel. Certains éléments de la leçon précédente, comme par exemple l’utilisation des
théorèmes de convergence monotone, de convergence dominée et/ou de Fubini, sont aussi des
outils permettant le calcul de certaines intégrales.
Enfin, il est tout à fait pertinent d’évoquer les méthodes de calcul approché d’intégrales
(méthodes des rectangles, méthode de Monte-Carlo, etc.).
103
Métaplan
I. Méthodes de calcul direct
A. Utilisation des primitives [39, p.133]
Théorème [39, p.123] : Existence d’une primitive Exemple : Fonctions usuelles (complément annexe)
Méthode : Décomposition en éléments simples Méthode : Linéarisation des cos et des sin
B. Intégration par partie
Rx
Théorème [39, p.123] : Intégration par partie Exemple 0 ln(u)du
Rx
Exemple 0 arctan(u)du Exemple [39, p.126] : Intégrale de Wallis
Application [39, p.211] : Stirling Exemple : Fonction Γ(n + 1) = n!
R√ R√
Méthode [39, p.137] : ax2 + bx + cdx Exemple : t2 − 1dt
Théorème : Fubini Application [20, p.265] : Gauss
Exemple : Intégrale de Fresnel
C. Changement de variables [39, p.139]
Théorème : Cas de la dimension 1 Application [39, p.124] : Fonctions paires
Application [39, p.124] : Fonctions impaires Application [39, p.124] : Fonctions périodiques
Exemple : Polynôme en cos et en sin Exemple : Fraction rationnelle en cos et en sin
Exemple : Règle de Bioche Exemple : Intégrale Abélienne
Théorème [39, p.335] : Cas de la dimension d
Application [39, p.335] : Passage en coordonnées polaires
Application [20, p.246] : Volume de la boule unité
II. Calculs via des fonctions auxiliaires et leurs propriétés
A. Suites et séries de fonctions
Théorème [20, p.117] : Beppo–Lévi Application : TCL
Rn n
Théorème [20, p.134] : Convergence dominée Exemple : Limite de In (α) = 0 1 + nx e−αx dx
R 1 ln t
Théorème [20, p.137] : Interversion série-intégrale Exemple : Calcul de 1 1+t2 dt
Application : Théorème de Borel–Canteli
B. Régularité des intégrales à paramètres [20, p.138]
Théorème : Continuité Application : Convolution
Théorème : Dérivabilité Remarque : Analogue pour C ∞
Application : Convolution Exemple : Γ est C ∞
C. Transformée de Fourier
Définition [20, p.140] : Transformée de Fourier Théorème [20, p.140] : Régularité de fˆ
Théorème [57, p.330] : Inversion Application [39, p.272] : Formule de Poisson
III. Méthodes de calcul approché
A. Sommes de Riemman [39, p.124]
Définition : Somme de Riemann Théorème : Calcul de l’intégral
Application : Calcul pour les fonctions continues par morceaux
B. Méthodes numériques [30, p.63]
Méthode : Rectangle Méthode : Trapèzes
B. Méthode de Monté–Carlos
Méthode : Monté–Carlos Théorème : Correction
104
Leçon 239 : Fonctions définies par une
intégrale dépendant d’un paramètre.
Développements de la leçon
Caractérisation de Γ Théorème de Weierstrass
Motivation
Défense
Application : Définir de nouvelles fonctions.
105
Pour aller encore plus loin, on peut par exemple développer les propriétés des transfor-
mations mentionnées (notamment la transformée de Fourier, par exemple en s’attardant sur le
lien entre régularité de la fonction et décroissance de sa transformée de Fourier), ainsi que de
la convolution.
Métaplan
I. Régularité des intégrales à paramètres
A. Continuité [20, p.138]
R∞
Théorème : Continuité R Exemple [6, p.442] : Conséquence de f continue et existence de 0 f
Contre-exemple [44, p. 224] : f non continue Contre-exemple [44, p. 224] : si f continue
B. Régularité d’ordre supérieur
Théorème [20, p.140] : Dérivabilité Remarque : Extension à C ∞
R∞
Contre-exemple [44, p.224] : f C 1 tel que f non définie Exemple [6, p.442] : 0 e− at f (t)dt
R
Exemple [6, p.444] : Dérivée de fonctions usuelles Application [39, p.163] : Calcul de Gauss
R∞
Exemple [6, p.444] : Calcul de 0 1−cos t2
xt
dt
A. Existence de la convolution
Proposition : Convolution dans L1 Application : Convolution de fˆ
Proposition : Convolution dans Lp et Lq
B. Régularisation de fonctions
Théorème : Convolution et dérivation Application : Si f ∈ C ∞ alors f ∗ g ∈ C ∞
Application : Convolution par Gaussienne Application : Équation de la chaleur
C. Approximation de fonctions
Définition : Approximation de l’identité Exemple : Dilatation
Théorème [39, p.284] : Théorème de Weierstrass Application [53, p.3] : Noyau de Fejer
106
Leçon 243 : Convergence des séries
entières, propriétés de la somme.
Exemples et applications.
Développements de la leçon
Nombre de Bell Méthode de Bernoulli
Motivation
Défense
Application : Définir de nouvelles fonctions.
107
concerne la fonction exponentielle, le candidat doit avoir réfléchi au point de vue adopté sur sa
définition et donc sur l’articulation entre l’obtention du développement en série entière et les
propriétés de la fonction. À ce propos, les résultats sur l’existence du développement en série
entière pour les fonctions dont on contrôle toutes les dérivées successives sur un voisinage de
0 sont souvent méconnus. Le comportement de la série entière dans le disque de convergence
vis à vis des différents modes de convergence (convergence absolue, convergence uniforme,
convergence normale) doit être maîtrisé.
Le théorème d’Abel (radial ou sectoriel) trouve toute sa place mais doit être agrémenté
d’exercices pertinents. Réciproquement, les théorèmes taubériens offrent aussi de jolis déve-
loppements. On pourra aller plus loin en abordant quelques propriétés importantes liées à
l’analyticité de la somme d’une série entière ou encore la résolution de certaines équations
différentielles ordinaires par la méthode du développement en série entière.
Métaplan
I. Convergence et rayons : étude de la série
— Définition [7, p.19] : Série entière — Rappel : Convergence des séries de fonctions
II. Régularité, analycité et holomorphie : étude de la fonction Quelles sont les propriétés de la
somme sur le disque de convergence de la série ?
A. La fonction série entière [7, p.29]
Exemple : Fonction exponentielle Application : Calcul d’une série numérique
Proposition : Propriétés de la fonctions Proposition : Continuité
Exemple : Fonction exponentielle Application [39, p.23] : Principe des zéros isolés
Application : Unicité des coefficients Définition+ Proposition [7, p.38] : Dérivabilité dans C
Application : Équation fonctionnelle de l’exponentielle
Proposition [39, p.239] : Intégration des séries entières Théorème : Formule de Cauchy
Théorème : Inégalité de Parseval Application : Théorème de Liouville
B. Résolution d’une équation différentielle La notion de fonction est importante : elle permet de
définir proprement des fonctions comme la fonction exponentielle et permet d’évaluer la
somme d’une série numérique en évaluant une fonction en un point.
Méthode [7, p.57] : Résolution d’EDO avec les séries entières
Proposition [57, p.409] : Critère d’application de cette méthode
Exemple [8, p.46] Application [36, p101] : Équation de Bessel
C. Développement en série entière [7, p.49] Permet de justifier la nécessité de savoir développer
en série entière des fonctions et vise-versa
Définition : Formule de Taylor–Mac Laurin Définition : Développable en série entière
Exemple : Exponentielle Contre-exemple
108
Proposition [39, p.240] : Caractérisations avec les formules de Taylor
Proposition [7, p.57] : Taylor contrôlé
Méthode [51, p.493] : Calcul d’un développement en série entière
Proposition : Opération sur les développement en séries entières
Exemple : Fonctions usuelles Exemple : Illustration des deux méthodes
Définition [7, p.72] : fonctions analytiques
III. Les séries génératrices [5, p.159]
A. Dénombrement Il peut être pratique de représenter les objets que l’on souhaite compté avec
une série entière.
Application [33] : Nombre de Bell Application [35] : Nombre de Bernoulli
B. Probabilités On peut également parler de la convergence en loi
Définition : Fonctions génératrices Proposition : Propriétés de la fonction génératrice
Application : Fonction caractéristiques des lois usuelles Proposition : Récupération des moments
Application : Problème du collectionneur Application : Processus de Galton–Watson
109
Leçon 246 : Séries de Fourier. Exemples
et applications.
Développements de la leçon
Nombre de Bernoulli Formule de Poisson et fonction Θ
Motivation
Défense
Motivation : Historique.
110
de manière pertinente cette leçon, mais on peut penser à bien d’autres applications (inégalité
isopérimétrique, comportements remarquables des fonctions à spectre lacunaire,...).
Métaplan
Cadre : On se concentre uniquement sur des fonctions 2π-périodiques.
Définition : Fonctions 2π-périodiques Définition : Convolution
111
Leçon 250 : Transformation de Fourier.
Applications.
Développements de la leçon
Théorème Central Limite Formule de Poisson et théorème de Shannon
Motivation
Défense
Motivation : Historique.
112
Pour aller plus loin, la transformation de Fourier des distributions tempérées ainsi que la
convolution dans le cadre des distributions tempérées peuvent être abordées. Rappelons une
fois de plus que les attentes du jury sur ces questions restent modestes, au niveau de ce qu’un
cours de première année de master sur le sujet peut contenir. Le fait que la transformée de
Fourier envoie S R dans lui même avec de bonnes estimations des semi-normes doit alors
d
être compris et la formule d’inversion de Fourier maîtrisée dans ce cadre. Des exemples de
calcul de transformée de Fourier peuvent être donnés dans des contextes liés à la théorie des
distributions comme par exemple la transformée de Fourier de la valeur principale. Dans un
autre registre, il est aussi possible d’orienter la leçon vers l’étude de propriétés de fonctions
caractéristiques de variables aléatoires.
La résolution de certaines équations aux dérivées partielles telles que, par exemple, l’équa-
tion de la chaleur sur R, peut être abordée, avec une discussion sur les propriétés qualitatives
des solutions.
Métaplan
Cadre : On se limite à la dimension 1. Sinon, on introduit un produit scalaire dans l’exponentiel.
Définition : Transformation de Fourier (si elle existe) Remarque : Plusieurs définitions
113
A. Transformée de Fourier des fonctions à décroissance rapide
Définition : Fonction à décroissance rapide Exemple : e−| x|
Lemme : x α f ∈ L1 (R), ∀α si f décroissance rapide
Proposition : Transformation de Fourier à décroissance rapide
B. Espace de Schwartz S(R)
Définition : Espace de Schwartz Remarque : Intégrable, limite 0 ainsi que leur dérivée
Proposition : Caractérisation de cet espace
C. Transformée de Fourier dans S(R)
Théorème : Stabilité de la transformée de Fourier Définition : Suite tendant vers 0
Théorème : Transformée de Fourier : une application Application [15] : Formule de Poisson
Application [15] : Théorème de Shanon Proposition : S(R) dense dans L2
114
Leçon 260 : Espérance, variance et
moments d’une variable aléatoire.
Développements de la leçon
Théorème de Weierstrass Théorème Central Limite
Motivation
Défense
Ce qu’en dit le jury
Le jury attend des candidats qu’ils donnent la définition des moments centrés, qu’ils rap-
pellent les implications d’existence de moments (décroissance des L p ). Les variables aléatoires
à densité sont trop souvent négligées. Le candidat peut citer — mais doit surtout savoir re-
trouver rapidement — les espérances et variances de lois usuelles, notamment Bernoulli, bi-
nomiale, géométrique, Poisson, exponentielle, normale. La variance de la somme de variables
aléatoires indépendantes suscite souvent des hésitations. Les inégalités classiques (de Markov,
de Bienaymé-Chebyshev, de Jensen et de Cauchy-Schwarz) pourront être données, ainsi que
les théorèmes de convergence (lois des grands nombres et théorème central limite). La notion
de fonction génératrice des moments pourra être présentée ainsi que les liens entre moments
et fonction caractéristique.
Pour aller plus loin, le comportement des moyennes empiriques pour une suite de variables
aléatoires indépendantes et identiquement distribuées n’admettant pas d’espérance pourra
être étudié. Pour les candidats suffisamment à l’aise avec ce sujet, l’espérance conditionnelle
pourra aussi être abordée.
115
Métaplan
Cadre : (Ω, A, P) un espace probabilisé et X une variable aléatoire réelle
116
C. Fonction caractéristique [37, p.212] Généralisation des fonctions génératrices aux variables
via la transformée de Fourier.
Remarque : Interprétation en transformée de
Définition : Fonction caractéristique
Fourier
Théorème : ϕ X = ϕY ⇒ PX = PY
Corollaire : ϕ X caractérise la loi
Exemple : X ∼ N (0, 1)
Exemple : X ∼ P (λ)
Théorème : Fonction caractéristique et indépendance
Théorème : Fonction caractéristique et moment
IV. Convergence
Définition [37, p.240] : Convergence en probabilité Théorème : Loi faible des grands nombres
Définition [37, p.237] : Convergence presque sûre Théorème [37, p.247] : Loi forte des grands nombres
Définition [37, p.265] : Convergence en loi Remarque : Lien entre les convergence
Théorème [15] : Théorème central limite Application [15] : Approximation de la loi de Poisson
117
Leçon 264 : Variables aléatoires
discrètes. Exemples et applications.
Développements de la leçon
Théorème de Weierstrass Théorème Central Limite
Motivation
Défense
— Les variables aléatoires discrètes c’est facile.
— Ce sont des variables usuelles en pratique.
— Elles approximent les variables à densité.
118
Pour aller beaucoup plus loin, les candidats pourront étudier les marches aléatoires, les
chaînes de Markov à espaces d’états finis ou dénombrables, les sommes ou séries de variables
aléatoires indépendantes.
Métaplan
Cadre : (Ω, A, P) un espace probabilisé
I. Variables aléatoires discrètes
Définition : Variable aléatoire discrète Remarque [54, p.20] : Cas de F = P (Ω)
Définition : Loi de ces variables Définition [54, p.73] : Événements indépendant
A. Lois discrètes usuelles [25, p.15] [37, p.124] On modélise via une urne.
1. Loi uniforme
Modélisation : Urne avec une boule de chaque couleur
Définition : Loi uniforme sur un ensemble Exemple : Lancé de dés non truqués
2. Loi de Bernoulli
Modélisation : Urne avec deux couleurs et un tirage Définition : Loi de Bernoulli
Remarque : Indicatrice Exemple : Lancé de pièces (équilibré ou non)
3. Loi binomiale
Modélisation : n tirages, nombre de boules blanches Définition : Loi binomiale
Proposition : Caractérisation via iid Exemple : Lancer n fois la même pièce
4. Loi géométrique
Modélisation : Nombre de tirage pour obtenir une boule blanche
Définition : Loi géométrique Exemple : Lancé jusqu’au premier "pile"
Proposition : Caractérisation via des événements indépendants
5. Loi de Poisson
Modélisation : Temps de vie d’une ampoule Définition : Loi de Poisson
Exemple : Nombre d’erreurs de processus de fabrication
6. Loi hypergéométrique
Modélisation : Tirage simultané Définition : Loi hypergéométrique
Exemple : Taille dans une population
B. Conditionnement [12, p.150]
Définition : Probabilité conditionnelle Exemple : Variable aléatoire pour Poisson
Remarque : Indépendance d’événements et probabilités conditionnelles
Définition : Système complet Exemple : X (Ω) = { xi }i∈ I , { X = xi }i∈ I
Proposition : Formule de probabilité totale Application : Cas choix des pièces
Proposition : Formule de Bayes Application : QCM en examen
119
B. Fonction génératrice [37, p.209]
Définition : Fonction génératrice G Remarque : Rayon de définition
Exemple : Lois usuelles Proposition [5, p.160] : | G (s)| ≤ 1 et G (1) = 1
Théorème : Caractérisation de la loi Application [5, p.195] : Processus de Galtson–Watson
C. Moments et indépendance
Définition [37, p.274] : Variables indépendantes Exemple : Lancé de dés
Proposition : Espérance et indépendance Remarque : Extension à une famille
Application : Définition de Bernoulli Théorème : Espérance et fonction génératrice
III. Convergence
Définition [37, p.240] : Convergence en probabilité Théorème : Loi faible des grands nombres
Définition [37, p.237] : Convergence presque sûre Théorème [37, p.247] : Loi forte des grands nombres
Définition [37, p.265] : Convergence en loi Remarque : Lien entre les convergence
Théorème [15] : Théorème central limite Application [15] : Approximation de la loi de Poisson
Application : Intervalle de confiance Proposition : Autres approximations
120
Leçon 265 : Exemples d’études et
d’applications des fonctions usuelles et
spéciales.
Développements de la leçon
Caractérisation de Γ Formule de Poisson et fonction Θ
Motivation
Défense
Ce qu’en dit le jury
Cette leçon est très riche ; c’est une leçon de synthèse qui doit permettre d’explorer de nom-
breux pans du programme. Évidemment, la leçon ne doit pas se cantonner au seul champ
des fonctions usuelles (logarithme, exponentielle, trigonométriques, hyperboliques et réci-
proques). Le jury attend surtout d’un agrégé qu’il soit en mesure de présenter rapidement
les définitions et les propriétés fondamentales de ces fonctions, qu’il sache les tracer sans dif-
ficultés, qu’il puisse mener l’étude aux bornes de leur domaine, ainsi que discuter leurs pro-
longements éventuels, leurs développements de Taylor ou en série entière, leurs applications
au calcul intégral, les équations fonctionnelles associées ou formules particulières, etc. Le jury
n’attend pas un catalogue mais plutôt un choix pertinent et réfléchi, avec des applications en
probabilité, convexité, études de courbes, ou autour des développements asymptotiques. Les
déterminations du logarithme complexe peuvent tout à fait mériter une discussion approfon-
die dans cette leçon et donner lieu à des développements de bon niveau, pouvant aller jusqu’à
leur interprétation géométrique.
Le domaine des fonctions spéciales est très vaste. Il faut absolument éviter l’écueil d’une
taxonomie fastidieuse et dépourvue de motivation ; il vaut bien mieux se concentrer sur des
exemples restreints, mais fouillés, par exemple une étude approfondie (d’une) des fonctions
121
Γ, ζ ou θ, leurs propriétés fonctionnelles, leurs prolongements, leur étude asymptotique aux
bornes et les domaines d’applications de ces fonctions.
Il y a donc bien des manières, très différentes, de construire valablement cette leçon. Par
exemple, on peut bâtir un exposé organisé selon des problématiques et des techniques ma-
thématiques : suites et séries de fonctions, fonctions holomorphes et méromorphes, problèmes
de prolongement, développements asymptotiques, calculs d’intégrales et intégrales à para-
mètres, transformées de Fourier ou de Laplace, etc. Mais on pourrait tout aussi bien suivre un
fil conducteur motivé par un domaine d’application :
— en arithmétique pour évoquer, par exemple, la fonction ζ et la distribution des nombres
premiers,
— en probabilités où la loi normale et la fonction erreur sont évidemment incontournables
mais on peut aussi évoquer les lois Gamma et Bêta, les fonctions de Bessel et leurs liens
avec la densité du χ2 non centrée et celle de la distribution de Von Mises-Fisher ou plus
simplement comme loi du produit de variables aléatoires normales et indépendantes, la
loi ζ et ses liens avec la théorie des nombres,...
— en analyse des équations aux dérivées partielles où les fonctions spéciales interviennent
notamment pour étudier le problème de Dirichlet pour le Laplacien ou l’équation des
ondes,
— il est aussi possible d’évoquer les polynômes orthogonaux, leurs propriétés et leurs di-
verses applications, en physique (oscillateur harmonique et polynômes de Hermite), en
probabilités (polynômes de Hermite pour les lois normales, de Laguerre pour les lois
Gamma, de Jacobi pour les lois Bêta...), pour l’étude d’équations aux dérivées partielles
ou pour l’analyse de méthodes numériques,
— en théorie des représentations de groupes avec les fonctions de Bessel,
— en algèbre en abordant les fonctions p-elliptiques.
Là encore, le jury renouvelle sa mise en garde d’éviter de faire un catalogue qui s’avérerait
stérile, il s’agit bien plutôt de se tenir à détailler l’un ou l’autre de ces points de vue. Au final,
cette leçon peut être l’occasion de montrer un véritable investissement personnel, adossé aux
goûts du candidat.
Métaplan
I. La fonction exponentielle [64, p.157] Une fonction très importante en mathématiques dont
l’étude amène à beaucoup de mathématiques.
A. Séries entières
Définition : Fonction analytique Théorème : Convergence, dérivabilité et continuité
Corollaire : Dérivée d’ordre supérieures Théorème : Abel
Application : Produit de Cauchy Théorème : Développement en série entière et unicité
B. Fonction exponentielle
Définition : Fonction exponentielle Remarque : Existence
Théorème : Propriétés de cette fonction Application : Loi sans mémoire
Application : Transformée de Fourier Application : Définition des fonctions trigonométriques
Remarque : Lien avec l’exponentielle Théorème : exp est 2π-périodique
Corollaire : Fonction trigonométrique sont 2π-périodique
Application : Théorème de d’Alembert
C. Inversion de la fonction exponentielle [46, p.91]
122
Définition : ln réciproque de exp Remarque : Définition par primitive
Proposition : Pas d’inverse dans C Définition : Détermination (et principal) du log
Remarque : Pas de détermination sur des ouverts Remarque : f détermination du log holomorphe
Remarque : log(z1 z2 ) 6= log(z1 ) log(z2 ) Remarque : Détermination du log sur demi-droite
Proposition : Développement du log Application : Définition des fonctions puissances
II. La fonction Gamma Γ La fonction Γ est un prolongement sur C de la fonction n! sur N
A. Étude de cette fonction dans R∗+ [64, p.178]
Définition : Γ sur R∗+ Théorème [64] : Caractérisation
Remarque [43] : Formule de Gauss Proposition : Formule des compléments
x −1 1
Proposition : Formule de Stirling Corollaire : Γ( x ) = 2√π Γ 2x Γ x+
2
B. Étude complexe de Γ
Notation : B0 Définition : Γ sur B0
Remarque : La fonction est bien définie Proposition : Propriété de cette fonction
Proposition (ADMIS) : Γ se prolonge sur C Lemme : Expressions de Γ
Application : Loi Gamma Théorème : Formule des compléments
C. Produit infini et Γ [43, p.147] Ne pas oublier ζ.
Définition : Produit infini et convergence Lemme : Caractérisation de cette convergence
Proposition [39] : Formule sommatoire de Poisson Application [39] : θ de Jacobi
Proposition : Définition de Γ via θ Application (Culturel) : les 0 de ζ
123
Bibliographie
124
[28] F. Combes. Algèbre et géométrie. Breal, 1998.
[29] T. Cormen, C. Leiserson, R. Rivest, and C. Stein. Algorithmique, 3ème édition. Dunod, 2010.
[30] J.-P. Demailly. Analyse numérique et équations différentielles. EDP Science, 4me edition, 2016.
[31] J.D. Eiden. Géométrie analytique classique. Calvage & Mounet, 2009.
[32] S. Al Fakir. Algèbre et théorie des nombres. ellipse, 2003.
[33] S. Francinou, H. Gianella, and S.Nicolas. Oraux X-ENS, Algèbre 1. Cassini.
[34] S. Francinou, H. Gianella, and S.Nicolas. Oraux X-ENS, Algèbre 2. Cassini.
[35] S. Francinou, H. Gianella, and S.Nicolas. Oraux X-ENS, Analyse 2. Cassini.
[36] S. Francinou, H. Gianella, and S.Nicolas. Oraux X-ENS, Analyse 4. Cassini, 2012.
[37] O. Garet and A. Kurtzmann. De l’intégration aux probabilités. ellipses, 2011.
[38] J-M. Garnier. Groupes et géométrie pour l’agrégation. ellipse, 2018.
[39] X. Gourdon. Analyse. Les maths en tête. Ellipses, 2008.
[40] X. Gourdon. Algèbre. Les maths en tête. Ellipses, 2009.
[41] I. Gozard. Théorie de Galois. ellipse, 2009.
[42] J. Grifone. Algèbre linéaire. Cépaduès édition, 2015.
[43] R. Groux and P. Soulat. Les fonctions spéciales vues par les problèmes. Cépaduès édition.
[44] B. Hauchecorne. Les contre-exemples en mathématiques. Ellipses, 1988.
[45] M. Hindry. Arithmétique. Calvage & Mounet (tableau noir), 2008.
[46] P. Jolissant. Fonction d’une variable complexe. ellipses, 2016.
[47] M. Kieffer. 66 leçons pour l’agréation de mathématiques. ellipses, 2017.
[48] J.P. Lamoitier. Arithmétique modulaire. ellipse, 2012.
[49] G. Laville. Géométrie pour le capes et l’agrégation. ellipse, 1998.
[50] J.-P. Marco. Mathématiques L3, Analyse. Pearson education, 2009.
[51] J.-P. Marco, P. Thieullen, and J.-A.Weil. Mathématiques pour la L2. Pearson education, 2007.
[52] R. Mneimne and F. Testard. Introduction à la théorie des groupes de Lie classiques. Hermann,
1997.
[53] I. Nourdin. Agrégation de mathématiques épeuve orale. Dunod, 2 edition, 2006.
[54] J.Y. Ouvrard. Probabilités 1. Cassini, 1998.
[55] C. De Seguin Pazzis. Invitation aux formes quadratiques. Calvage & Mounet, 2010.
[56] D. Perrrin. Cours d’algèbre. Ellipse, 1996.
[57] H. Queffélec and C. Zuily. Éléments d’analyse pour l’agrégation. Dunod, 2013.
[58] Ramis and Warusfel. Cours de mathématiques pures et appliquées. De Boecl, 2010.
[59] E. Ramis, C. Deschamps, and J. Odoux. Cours de mathématiques spéciale, tome 1. Masson,
1998.
[60] J. Saint Raymond. Topologie, calcul différentiel et variable complexe. Calvage & Mounet, 2008.
[61] J.-J. Risler and P. Boyer. Algèbre pour la licence 3. Dunod, 2006.
[62] J.E. Rombaldi. Éléments d’analyse réelle : CAPES et agrégation interne de mathématiques. EDP
Sciences, 2004.
[63] F. Rouvière. Petit guide de calcul différentiel à l’usage de la licence et de l’agrégation. Cassini,
3me edition, 2009.
125
[64] W. Rudin. Principe d’analyse mathématiques. Dunod, 2006.
[65] F. Testard. Analyse mathématique. La maîtrise de l’implicite. Calvage & Mounet, 2012.
[66] O. Teytaud, C. Antonini, P. Borgnat, A. Chateau, and E. Lebeau. Les maths pour l’agreg.
Dunod, 2007.
[67] J. Trignan. La géométrie des nombres complexes. Bréal, 1993.
[68] F. Ulmer. Théorie des groupes. ellipses, 2012.
[69] M. Zavidovique. Un max de maths. Calvage & Mounet, 2013.
126