Cours Web
Cours Web
Raphaël Rossignol
18 décembre 2012
2
Introduction
i
ii INTRODUCTION
0.2 Plan
1. Petits sous-graphes
2. Connexité
3. Un peu de concentration
4. Transition de phase d’Erdös-Rényi : apparition de la composante géante
5. Nombre d’indépendance, k-colorabilité
Notamment, si Xn est le cardinal d’un ensemble d’objets présents dans G(n, p),
on en déduira que a.p.s. G(n, p) ne contient aucun exemplaire de ces objets.
La méthode du second moment consiste à appliquer l’inégalité de Tchebycheff
(ou de Paley-Wiener) pour obtenir une conclusion dans l’autre sens.
Par exemple, soit (Xn )n≥1 une suite de v.a. à valeurs positives. Si Xn n’est
pas constant égal à 0, et si l’écart-type de Xn est petit devant son espérance,
alors a.p.s Xn > 0. En effet, en appliquant Cauchy-Schwarz,
0.8 Exercices
Exercice 0.1 Méthode du premier moment. Compter le nombre moyen de
copies de K4 dans G(n, p). Montrer que si p = o(n−2/3 ), alors a.p.s G(n, p) ne
contient pas de copie de K4 . Mêmes questions pour le graphe G obtenu à partir
de K4 en rajoutant un sommet relié par une seule arête à l’un des sommets de
K4 . Mêmes questions pour les copies induites de G.
Exercice 0.2 Méthode du second moment. Montrer que si p = o(n−2 ),
G(n, p) est a.p.s le graphe vide. Montrer que si p = ω(n−2 ), a.p.s G(n, p) est non
vide.
Exercice 0.3 On suppose que p = c/n avec c ∈ R∗+ fixé. Montrer que le degré
d’un sommet v fixé dans G(n, p) converge en loi, lorsque n tend vers l’infini, vers
une loi de Poisson de paramètre c.
Exercice 0.4 On appelle bicycle un graphe constitué soit de deux cycles dis-
joints reliés par un chemin (éventuellement réduit à un point), soit d’un cycle
auquel on a ajouté un chemin entre deux sommets non consécutifs. Montrer
que si p = (1 − ε)/n avec ε n−1/3 , a.p.s G(n, p) ne contient pas de bicycle.
En déduire que pour les mêmes valeurs de p, a.p.s les composantes connexes de
G(n, p) sont simples.
Exercice 0.5 Modèle original d’Erdös et Rényi Soit M un entier inférieur
ou égal à n. On considère un graphe aléatoire G̃(n, M ) obtenu en tirant un
graphe au hasard, uniformément, parmi tous les sous-graphes étiquetés de Kn
ayant M arêtes. Appliquer la méthode du premier moment pour le nombre de
copies de K4 .
Chapitre 1
Petits sous-graphes
Soit G un graphe fixé. La propriété “contenir une copie de G” est une pro-
priété croissante. Dans ce chapitre, on déterminera la fonction seuil de cette
propriété, et pour les graphes dits “strictement équilibrés”, on montrera un
comportement poissonien pour le nombre de copies à l’intérieur du seuil.
Dans la suite, G est un graphe fixé, non vide. On note O(G) l’orbite de G
dans Kn , c’est à dire l’ensemble des copies de G dans Kn . Remarquons que :
(n)vG
|O(G)| = .
|Aut(G)|
Remarquons que :
1
2 CHAPITRE 1. PETITS SOUS-GRAPHES
Nous allons voir que n−1/m(G) est la fonction seuil pour l’apparition d’une copie
de G. Pour cela, on cherche à appliquer la méthode du second P moment. D’une
manière générale, soit X une somme d’indicatrices, X = α∈Γ Iα . Pour tout
couple d’indicatrices (Iα , Iβ ), on note α ∼ β si α 6= β et Cov(Iα , Iβ ) 6= 0. On a
alors :
X X
Var(X) = Var(Iα ) + Cov(Iα , Iβ ) ,
α∈Γ α∼β
Var(X) ≤ E(X) + ∆ , (1.1)
(1.2)
où on a noté : X
∆= E(Iα Iβ ) .
α∼β
On voit alors que si E(X) tend vers l’infini, on aura Var(X) = o(E(X)2 ) dès
que ∆ = o(E(X)2 ). Examinons la situation lorsque X = XG . Notons H un
ensemble contenant un représentant de chaque classe d’isomorphisme des sous-
graphes non vides de G, en excluant les copies de G.
X
∆ = p2eG −eG1 ∩G2 ,
G1 6=G2 ∈O(G)
E(G1 ∩G2 )6=∅
X X
= p2eG −eH ,
H∈H G1 6=G2 ∈O(G)
G1 ∩G2 ∈O(H)
X
≤ p2eG −eH |O(G)|.|{G2 ∈ O(G) t.q. G1 ∩ G2 ∈ O(H)}| .
H∈H
où G1 est une copie fixée de G. Or, en notant c(H, G) le nombre de copies de
H dans G,
|O(G)|
|{G2 ∈ O(G) t.q. G1 ∩ G2 ∈ O(H)}| ≤ c(H, G)2 . (1.3)
|O(H)|
En effet, en notant H1 une copie fixe de H incluse dans G1 ,
|{G2 ∈ O(G) t.q. G1 ∩ G2 ∈ O(H)}| ≤ c(H, G)|{G2 ∈ O(G) t.q. H1 ⊂ G2 }| .
De plus,
|O(G)|c(H, G) = |{(H̃, G2 ) ∈ O(H) × O(G) t.q. H̃ ⊂ G2 }| ,
= |O(H)|.|{G2 ∈ O(G) t.q. H1 ⊂ G2 }| ,
ce qui montre (1.3). Par conséquent,
X |O(G)|2
∆ ≤ p2eG −eH c(H, G)2 ,
|O(H)|
H∈H
X c(H, G)E(XG )2
≤ ,
E(XH )
H(G
eH 6=0
1.2. A L’INTÉRIEUR DU SEUIL 3
Théorème 1.1.2. Pour tout graphe G non vide fixé, la fonction seuil pour le
fait de contenir une copie de G est n−1/mG .
Définition 1.2.2. Soit (Xn )n≥1 une suite de variables aléatoires à valeurs dans
un espace topologique mesurable X . Soit µ une mesure de probabilité sur X et
4 CHAPITRE 1. PETITS SOUS-GRAPHES
Cette distance définit en général une topologie plus fine que la topologie de la
convergence en loi, mais sur un espace dénombrable comme E, nous allons voir
que les deux topologies sont équivalentes.
Lemme 1.2.4.
Z Z
1 1X
dT V (µ, ν) = sup | f dµ − f dν| = |µ(x) − ν(x)| .
2 f :E→[−1,1] 2
x∈E
Proposition 1.2.5. Soit (Xn )n≥1 une suite de variables aléatoires à valeurs
dans E, µ une mesure de probabilité sur E et µn la loi de Xn . Les propositions
suivantes sont équivalentes.
(i) (Xn )n≥1 converge en loi vers µ.
(ii) Pour toute fonction f bornée de E dans R,
Z Z
f dµn −−−−→ f dµ .
n→∞
Démonstration: Exercice !
Il est facile de voir que si (X, Y ) est une variable aléatoire telle que X a pour
loi µ et Y pour loi ν (on appelle (X, Y ) un couplage de µ et ν), alors :
dT V (µ, ν) ≤ P(X 6= Y ) .
Proposition 1.2.6.
P
Démonstration: Soit p = x µ(x) ∧ ν(x). On a :
dT V (µ, ν) = 1 − p .
Si p ∈ {0, 1}, faire une preuve séparée. Sinon, prendre U , V , W et B des variables
aléatoires telles que (U, V, W ) soit indépendante de B, B soit de Bernoulli de
paramètre p, U de loi p−1 (µ ∧ ν), V de loi (1 − p)−1 (µ − µ ∧ ν) et W de loi
(1 − p)−1 (ν − µ ∧ ν). On pose alors :
X = Y = U si B = 1 ,
X = V et Y = W si B = 0 .
On vérifie que c’est un couplage, et que :
6 CHAPITRE 1. PETITS SOUS-GRAPHES
k−1
X (pi )j
y0i = 0 et ∀k ≥ 1, yki = P(P(pi ) ≤ k − 1) = e−pi .
j=0
j!
P(Xi 6= Yi ) = P(Ui ∈ [1−pi , e−pi [)+P(Ui ∈ [e−pi (1+pi ), 1]) = pi (1−e−pi ) ≤ p2i .
Donc :
n
X n
X
dT V (µ, ν) ≤ P(X 6= Y ) ≤ P(Xi 6= Yi ) ≤ p2i .
i=1 i=1
et on définit :
Ii∗ = 1Ui ≤pi et Ii0 = 1Ui ≤p0i (I10 ,...,Ii−1
0 ) .
Alors les (Ii0 )1≤i≤n ont même loi que les (Ii )1≤i≤n et les (Ii∗ )1≤i≤n ont pour loi
⊗ni=1 B(pi ). De plus,
On peut facilement appliquer le Théorème 1.2.8 pour obtenir une approxima-
tion poissonienne pour une v.a qui compte un certain nombre de configurations
contenues dans le graphe aléatoire.
Théorème 1.2.9. Soit Γ un ensemble de parties de E(Kn ). Pour α ∈ Γ, on
note :
Iα = 1α⊂G(n,p) .
On note α ∼ β si α 6= β et α ∩ β 6= ∅. On définit :
X
∆= P(Iα = 1 et Iβ = 1) .
α∼β
8 CHAPITRE 1. PETITS SOUS-GRAPHES
Alors,
X
dT V (L(X), P(λ)) ≤ p2α + 2∆ .
α
et donc :
X X X
pα dT V (µα , να ) ≤ P( Iβ ≥ 1 et Iα = 1) ,
α α β∼α
X
≤ P(Iβ = 1 et Iα = 1) .
β∼α
Remarquons que le Théorème 1.2.8 n’est pas optimal lorsque λ est grand. En
fait, la stratégie de preuve du Lemme 1.2.7 est trop grossière : le couplage choisit
n’optimise pas le fait que les différences entre les Xi et les variables de Poisson
correspondantes peuvent se compenser dans la somme. Il existe une méthode,
dite méthode de Stein, qui améliore le Théorème 1.2.8 lorsque λ est grand (cf.
[BHJ92], notamment l’introduction et le chapitre 5).
Dernière remarque, le Théorème 1.2.8 implique une convergence vers la loi
normale pour λ−1/2 (XG − λ) si λ tend vers l’infini.
1.3 Exercices
P
Exercice 1.1 Soit X = α Iα une somme d’indicatrices telle que supα E(Iα ) =
o(1). Avec les notations du cours, montrer que :
Var(X) ∼ E(X) + ∆ .
Connexité
11
12 CHAPITRE 2. CONNEXITÉ
Si np − log n tend vers +∞, G(n, p) ne contient pas de sommet isolé, a.p.s. Si
np − log n tend vers −∞, E(X) tend vers +∞. Examinons le second moment :
X
E(X 2 ) = E(X) + P(i, j sont isolés) ,
i6=j
Donc si E(X) tend vers l’infini, E(X 2 ) ∼ E(X)2 et on peut appliquer la méthode
du second moment. On a montré :
Proposition 2.1.1. Si np − log n tend vers −∞, G(n, p) contient au moins
un sommet isolé, a.p.s. Si np − log n tend vers +∞, G(n, p) ne contient pas de
sommet isolé, a.p.s.
On peut imaginer que dans l’intervalle de seuil, X a un comportement pois-
sonien, vue la faible corrélation entre les indicatrices la composant. Calculons le
k-ème moment factoriel de X pour k fixé :
X
E[(X)k ] = P(i1 , . . . , ik sont isolés) ,
(i1 ,...,ik )
2 à 2 distincts
k
= (n)k (1 − p)(2)+k(n−k) ,
∼ E[X]k .
Donc si E(X) converge vers une constante λ, X converge en loi vers la loi de
Poisson de paramètre λ. Or, si np − log n converge vers c ∈ R, E(X) converge
vers e−c . On en déduit le résultat suivant.
Théorème 2.1.2.
log n c 1
Soit X le nombre de sommets isolés dans G(n, p). Si p =
n + n + o n avec c ∈ R, X converge vers une loi de Poisson de paramètre
e−c . En particulier, la probabilité que G(n, p) possède au moins un sommet isolé
−c
converge vers e−e .
Remarquons qu’on aurait pu également utiliser la méthode par couplage
(Exercice !).
2.2 Connexité
Nous allons d’abord montrer le lemme suivant.
Lemme 2.2.1. Si np ≥ α log n avec α > 2/3, alors a.p.s. G(n, p) ne possède
pas de composante connexe d’ordre appartenant à [2, n/2].
Par conséquent, les composantes connexes de G(n, p) ne peuvent être que de
deux types : des sommets isolés et une composante “géante”, de taille strictement
supérieure à n/2 (il ne peut contenir plus d’une composante connexe de taille
2.2. CONNEXITÉ 13
strictement supérieure à n/2). On en déduira donc que a.p.s. G(n, p) est connexe
si et seulement si il ne contient pas de sommet isolé, ce qui donne, avec le
théorème 2.1.2 :
Théorème 2.2.2. Si p = logn n + nc + o n1 avec c ∈ R, la probabilité que G(n, p)
−c
soit connexe converge vers e−e .
2.3 Exercices
Exercice 2.1 Montrer que si np tend vers l’infini, a.p.s. les composantes connexes
de G(n, p) de taille inférieure à n/2 sont toutes des arbres, de taille o(log n).
Exercice 2.2 Montrer que lorsque np tend vers l’infini, a.p.s le nombre de points
en dehors de la composante géante est o(n).
Exercice 2.3 Montrer que si np ∼ α log n avec α < 1, pour tout ε > 0, le nombre
X de sommets isolés de G(n, p) appartient a.p.s à [n1−α (1 − ε), n1−α (1 + ε)].
En déduire que si α ∈]1/2, 1[, G(n, p) est a.p.s. constitué de O(n1−α ) sommets
isolés et d’une composante géante contenant n − O(n1−α ) sommets.
Chapitre 3
Inégalités de concentration
pour des sommes de
variables aléatoires
indépendantes
15
16 CHAPITRE 3. INÉGALITÉS DE CONCENTRATION
De même,
P(Z < t) ≤ inf {e−λt E(eλt )} .
λ≤0
Notons ΛZ la log-Laplace de Z :
ΛZ (λ) = log E(eλZ ) ,
et pour une fonction f de R dans R ∪ {+∞}, on définit sa transformée de
Legendre :
f ∗ (t) = sup{λt − f (λ)} .
λ∈R
Λ∗Z est appelée transformée de Cramér de Z.
Proposition 3.1.1. Pour tout t ≥ E(Z),
∗
P(Z > t) ≤ e−ΛZ (t) ,
et pour tout t ≤ E(Z), ∗
P(Z < t) ≤ e−ΛZ (t) .
3.2. INÉGALITÉS DE HOEFFDING, BENNETT ET BERNSTEIN 17
et pour t ≤ E(Z),
Λ∗Z (t) = sup{λt − ΛZ (λ)} .
λ≤0
Lemme 3.2.1. Soit Y une variable aléatoire d’espérance nulle prenant ses va-
leurs dans un intervalle [a, b]. Alors,
λ2 (b − a)2
ΛY (λ) ≤ ,
8
2
t
−2 (b−a)
P(Y ≥ t) ≤ e 2
,
et 2
t
−2 (b−a)
P(Y ≤ −t) ≤ e 2
.
Ensuite, soit Q la loi de Y . On note Z une variable aléatoire ayant pour loi Qλ ,
avec :
dQλ
(x) = exλ−ΛY (λ) .
dQ
Z est à valeurs dans [a, b], donc sa variance est majorée par 14 (b − a)2 . Mais,
00
ΛY (λ) = e−ΛY (λ) E(Y 2 eλY ) − e−2ΛY (λ) (E(Y eλY ))2 ,
= Var(Y ) .
où
h(u) = (1 + u) log(1 + u) − u .
φ(x) = ex − x − 1 .
λ2
φ(λ) ≤ ,
2(1 − λ/3)
u2
h(u) ≥ .
2(1 + u/3)
On obtient alors le corollaire suivant qui peut être plus facile à interpréter.
Corollaire 3.2.4 (Inégalité de Bernstein). Soient X1 , . . . , Xn desPvariables
n
aléatoires indépendantes
Pn majorées p.s. par un nombre b > 0. Soit S = i=1 (Xi −
2
E(Xi )) et v = i=1 E(Xi ). Alors, pour tout t > 0,
t2
P(S ≥ t) ≤ e− 2(v+bt/3) .
Remarquons que l’inégalité de Bernstein peut être démontrée sous des hy-
pothèses plus faibles portant sur les moments des Xi plutôt que sur leurs sup
essentiels, mais nous n’en auront pas l’utilité.
20 CHAPITRE 3. INÉGALITÉS DE CONCENTRATION
3.3 Exercices
Exercice 3.1 Montrer que les transformées de Laplace et de Cramér sont des
fonctions convexes.
Exercice 3.2 Calculer les transformées de Laplace et de Cramér des lois de
Bernoulli et binomiales, des lois de Poisson et des lois gaussiennes.
Exercice 3.3 Comparer l’inégalité de Hoeffding et celle de Bernstein pour une
somme de Bernoulli i.i.d de paramètre p ≤ 1/2.
Exercice 3.4 On suppose que p = 1/2 et r log n. Montrer qu’a.p.s, dans
G(n, p), tout couple (U, V ) d’ensembles de sommets disjoints de taille supérieure
à r vérifie : r
e(U, V ) C log n
|U |.|V | − p ≤ ,
r
pour une constante C bien choisie. On a noté e(U, V ) le cardinal de l’ensemble
des arêtes menant de U à V .
Chapitre 4
Transition de phase
d’Erdös-Rényi : apparition
de la composante géante
Théorème 4.0.1. Soit p = c/n avec c ∈ R∗+ . Les évènements suivants ont lieu
a.p.s.
Cas sous-critique : c < 1 fixé :
— Toutes les composantes connexes sont simples.
— L1 = Θ(log n).
— De plus, pour tout k ≥ 1 fixé, Lk ∼ L1 .
Cas à peine sous-critique : p = 1−ε λ
n avec ε = n1/3 , 1 λ n
1/3
.
— Toutes les composantes sont simples.
— L1 = Θ(ε−2 log λ) = Θ(n2/3 λ−2 ln λ).
21
22 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
1 − y = e−cy . (4.1)
On supposera toujours que µ({1}) 6= 1 pour exclure le cas trivial où l’arbre
de Galton-Watson est isomorphe à N de manière déterministe. Remarquons que
(Zn )n≥0 est une chaı̂ne de Markov à valeurs dans N, avec 0 comme unique état
absorbant. L’arbre de Galton-Watson, T = ∪n Tn peut être soit fini, on dit que
la population s’est éteinte, et ceci arrive lorsque Zn atteint l’état absorbant 0,
soit infini. Notons enfin que la donnée de l’arbre de Galton-Watson permet de
retrouver le processus de Galton-Watson.
Peut-on déterminer facilement la probabilité que la population s’éteigne ?
Remarquons tout de suite que le fait que cette probabilité vaille 1 ou non dépend
certainement de la position de c par rapport à 1. En effet, il est facile de voir
que la taille moyenne de la n-ème génération Zn vaut :
E(Zn ) = cn .
Démonstration: Pour n ≥ 1,
E[z Zn ] = E[E[z Zn |Zn−1 ]] ,
Zn−1
Y (n)
= E[ E[z Li ]] ,
i=1
= E[f (z)Zn−1 ] ,
donc par récurrence,
E[z Zn ] = f (n) (z) .
L’évènement “extinction” est la réunion des évènements {Zn = 0}, qui forment
une suite croissante. Ainsi,
q = lim P(Zn = 0) = lim f (n) (0) .
n∞ n∞
On voit donc que (St )t≥0 est une marche aléatoire à valeurs dans Z, partant
de 1. Une caractéristique importante de cette loi est que la seule valeur stricte-
ment négative qu’elle peut prendre est -1. Ainsi, elle ne peut pas sauter d’entier
lorsqu’elle descend (en anglais, on dit qu’elle est skip free).
Rigoureusement, ceci ne peut être défini que tant que le processus de Galton-
Watson ne s’éteint pas, c’est à dire tant que t ≤ T , où T est l’instant d’extinction
défini par :
T = inf{t ≥ 0 t.q. St = 0} .
Néanmoins, il est plus pratique de définir la marche aléatoire ci-dessus avec une
suite infinie de Lt . Cela ne change pas, bien sûr, la loi de T . Notons que T est
le nombre total de noeuds de l’arbre de Galton-Watson.
Supposons que c = E(Lt ) < ∞. Lorsque c < 1, la marche aléatoire possède
ce qu’on appelle une dérive négative, puisque E(St ) = (c − 1)t + 1. Notamment,
la loi des grands nombres nous dit que St tend p.s. vers −∞, donc la population
va s’éteindre presque sûrement. Si c > 1, St tend p.s. vers +∞, et ceci suggère
que la population a une chance d’exploser. Lorsque c = 1 la marche aléatoire a
une dérive nulle, c’est le cas le plus délicat à traiter.
Le second résultat que nous utiliserons est une formule exacte pour la loi de
T en fonction de la probabilité que Sn vaille 0.
k
∀n ≥ 0, P(T = n) = P(Sn = 0) .
n
En particulier, lorsque S0 = 1,
1
∀n ≥ 0, P(T = n) = P(Sn = 0) .
n
26 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
Pi
Démonstration: On note si = j=1 li . On note R = {i1 < . . . < ir } l’ensemble
des instants auxquels (l1 , . . . , ln ) atteint un record inférieur :
∀j ≥ i, sj − si ≥ −k + 1 ,
m − si ≥ −k + 1 .
e−ct
P(Tcpo = t) = t! . (4.6)
(ct)t−1
Si µ est une loi binomiale B(n, p), avec p = c/n, la loi de t + St − S0 est une
binomiale B(nt, c/n), donc :
bin 1 nt c t−1 c nt−t+1
P(Tn,p = t) = 1− . (4.7)
t t−1 n n
4.1. PROCESSUS DE GALTON-WATSON 27
Ñ0 = n − 1, A0 = 1
A obéit à une équation similaire à (4.4). Remarquons que (At )t≥0 n’est pas
une marche aléatoire au sens usuel, notamment car les variables aléatoires L̃t
ne sont pas i.i.d. L’irruption du terme 1At−1 =0 dans la définition de L̃t est la
plus gênante. On définit un processus plus simple de la façon suivante :
28 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
N0 = n − 1, S0 = 1
Lt ∼ B(Nt−1 , p) conditionnellement à Nt−1
∀t ≥ 1 St = St−1 + Lt − 1 (4.9)
Nt = Nt−1 − Lt
St + Nt + t = n et At + Ñt + t = n .
et : PNt−1
Lt = i=1 Xt,i
∀t ≥ 1 St = St−1 + Lt − 1
PNt−1
(1 − Xt,i )
Nt = i=1
On voit donc (par une récurrence immédiate) que pour tout t, Ñt ≤ Nt . Comme
St + Nt + t = n et At + Ñt + t = n, on en déduit que St ≤ At . Et d’après les
4.2. CAS SOUS- ET SUR-CRITIQUE 29
n−1 t1 t2
! Nt1 t2
!
XY Y X Y
Nt1 −Nt2 = (1−Xs,i ) 1 − (1 − Xs,i ) = 1− (1 − Xs,i ) .
i=1 s=1 s=t1 +1 i=1 s=t1 +1
Donc conditionnellement à Nt1 , Nt1 − Nt2 suit une loi B(Nt1 , 1 − (1 − p)t2 −t1 ),
et donc conditionnellement à St1 , St2 − St1 suit une loi B(n − St1 − t1 , 1 − (1 −
p)t2 −t1 ) − t2 + t1 .
est d’ordre tp, donc on ne perd pas grand chose à majorer 1 − (1 − p)t par tp et
n − 1 par n. On obtient :
Or,
u 1−u
Λ∗B(q) (u) = u log + (1 − u) log ,
q 1−q
On va l’utiliser avec u = t/n et q = tp = tc/n, donc u et q tendent vers 0 et u/q
tend vers 1/c. On a alors :
1
Λ∗B(q) (u) = u log + cu − u + o(u) = uJ(c) + o(u) .
c
Donc :
nΛ∗B(tp) (t/n) = J(c)t + o(t) .
D’où :
P(|C(v)| > t) ≤ e−(1+δ)(1+o(1)) log n ,
Donc,
P(L1 > t) ≤ nP(|C(v)| > t) = o(1) .
√
sont au plus d’ordre n. Or φ est strictement concave, s’annule exactement en 0
et en y(c). Donc elle est strictement positive sur ]0, y(c)[ et strictement négative
sur ]y(c), +∞. Fixons δ ∈]0, 1/3[. Ainsi, avec très grande probabilité, on va voir
que St est strictement négative pour t ≥ (1+δ)ny(c) et strictement positive pour
t dans [δny(c), (1 − δ)ny(c)]. Le premier point permettra de montrer qu’a.p.s,
L1 ≤ ny(c)(1 + δ) . (4.11)
Le second point implique que At > 0 sur cet intervalle de temps, et donc que :
On peut alors trouver δ = δn une suite tendant vers 0 telle que les convergences
aient encore lieu, ce qui montre que L1 ∼ ny(c), a.p.s.
Prouvons (4.11). Pour t = ny(c)(1 + δ), E(St ) est éngative d’après (4.10).
En utilisant l’inégalité de Hoeffding,
Par conséquent,
2
P(L1 ≥ ny(c)(1 + δ)) ≤ ne−2nφ (y(c)(1+δ))+O(1)
= o(1) .
Ainsi,
Dualité
On est donc dans la phase sous-critique : G(k, p) = G(k, (c∗ + o(1))/k) avec
c∗ = c(1 − y(c)). Ainsi, si δ > 0, a.p.s. G(k, p) ne possède pas de composante
1+δ
de taille supérieure à J(c ∗ ) log k, et donc pas de composante de taille supérieure
P(G 0 = G) = αk P(G[V ] = G) .
De même,
X
P(|V (calG0 )| = k) = P(calG0 = G) ,
G⊂Kn
|C1 (G)|<l
|V (G)|=k
n X
= αk P(G[Kk ] = H) ,
k
H⊂Kk
|C1 (H)|<l
n
= αk P(|C1 (G(k, p))| < l) .
k
Dit autrement,
34 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
dualité, on montre également que les autres composantes connexes sont simples.
D’où le résultat.
pour n assez grand, si c ∈]0, 3/2]. On en déduit que X est inférieure stochasti-
bin
quement à Y , donc que B(n − 1, p) est inférieure à P(c), et donc que Tn−1,p est
inférieure à Tcpo .
36 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
et :
k k2
(1 − p)k(n−k)+(2)−(k−1) = (1 − p)kn− 2 (1 + o(1)) ,
k2
)(−p+O(p2 ))
= e(kn− 2 (1 + o(1)) ,
2
−knp+ k 2 p
= e (1 + o(1)) .
0 0 0 k k0 0
×(1 − p)(k+k )(n−k−k )+kk +(2)+( 2 )−k+1−k +1 ,
2/3 2/3
bn bn n−k
X X 0 0
= E(Tk )E(Tk0 ) n−k (1 − p)kk .
k
k=an2/3 k0 =an2/3 k0
Or,
k2 k3 k
n−k ek− 2n − 6n2 +o(1) kk √
n
k0 2πk
n−k
= k2 k3
,
ek− 2n − 6n2 +o(1) kk √
n k
k0
2πk
kk0 02 2 0
− kk − k2nk2 +o(1)
= e− n 2n2 ,
et
0 kk0
(1 − p)−kk = e n +o(1)
,
38 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
Donc :
E[X(X − 1)] . E(X)2 .
Soit A l’évènement “il existe une c.c. qui soit un arbre de taille supérieure à
an2/3 ”.
E(X)
P(A) ≥ ,
E(X 2 )
1
& 1 .
1 + E(X)
Démonstration:
1 X −3/2 −tJ(c)
P(+∞ > Tc ≥ u) = √ t e (1 + ou (1)) .
c 2π t≥u
Or,
Z +∞ X Z +∞
t−3/2 e−tJ(c) dt ≤ t−3/2 e−tJ(c) ≤ t−3/2 e−tJ(c) dt ,
u t≥u u−1
et : Z +∞
t−3/2 e−tJ(c) dt = J 1/2 (c)Γ−1/2 (uJ(c)) .
u
On en déduit le résultat.
Rappelons que nous avons vu dans le Lemme ref que P(T1+ε = +∞) ∼ 2ε
lorsque ε tend vers 0+ .
4.6 Compléments
Les cas à peine sous-critique et à peine sur-critique n’ont pas été vus en
cours, faute de temps. Vous pourrez trouver des preuves dans le Chapitre A.
40 CHAPITRE 4. TRANSITION DE PHASE D’ERDÖS-RÉNYI
Chapitre 5
Un coloriage (par sommets) d’un graphe est une fonction de l’ensemble des
sommets du graphe dans un ensemble fini, l’ensemble des couleurs, de sorte
que deux sommets voisins ne se voient pas associés la même couleur. Le but de
ce chapitre est principalement de montrer que minimal de couleurs nécessaire
n
pour colorier G(n, 1/2) est équivalent à 2 log . Ce nombre est appelé le nombre
2n
chromatique.
5.1 Introduction
Historiquement, il semble qu’un rôle important dans le développement de
cette notion ait été joué par le coloriage des cartes planaires. A une carte
géographique, on peut associer un graphe où chaque pays est représenté par
un sommet et une frontière entre deux pays est représentée par une arête. On
obtient alors un graphe planaire. Francis Guthrie conjectura en 1852 que toutes
les cartes géographiques pouvaient être coloriées avec au plus 4 couleurs. Le
théorème des 4 couleurs fut démontré en 1976 par Appel et Haken : tout graphe
planaire peut être colorié avec au plus 4 couleurs.
A part le cas des graphes planaires, la coloration de graphes joue un rôle
important en algorithmique. Tout d’abord, c’est un problème utile. Imaginons
par exemple que l’on doive planifier un certain nombre de réunions, chacune
réquérant la présence d’un ensemble de participants déterminé, et que chaque
réunion dure, disons une demi-journée. Combien de demi-journées seront nécessaires ?
Cela peut se formaliser en termes de coloriage d’un graphe. Par ailleurs, c’est un
problème difficile : pour k ≥ 3, le problème de décider si un graphe est coloriable
avec k couleurs ou moins est un des 21 problèmes NP-complets de Karp. La dif-
ficulté du coloriage est illustrée par le problème du Sudoku, qui peut se voir
comme un coloriage de graphe où certains sommets du graphe ont une couleur
imposée et où il un unique coloriage optimal (à 9 couleurs).
41
42 CHAPITRE 5. NOMBRE CHROMATIQUE
α(G)χ(G) ≥ |V | .
Remarquons que cette borne est assez bonne s’il existe un coloriage optimal tel
que le nombre de sommets de chaque couleur est à peu près le même.
Bien sûr, une clique d’ordre k n’est pas coloriable avec moins de k couleurs,
donc :
χ(G) ≥ ω(G) .
Néanmoins, cette borne est en général très mauvaise. Une première façon de le
voir est la construction suivante, dûe à Mycielski.
Théorème 5.1.1. Pour tout entier k il existe un graphe G sans triangle tel que
χ(G) > k.
5.1. INTRODUCTION 43
Donc,
P(X ≥ n/2) = o(1) .
Par ailleurs,
n x
P(α(G(n, p)) ≥ x) ≤ (1 − p)(2) ,
x
≤ (xe−p(x−1)/2 )x .
n n nθ
χ(G0 ) ≥ ≥ = .
2α(G0 ) 2α(G) 3 log n
Donc pour n assez grand, on obtient χ(G0 ) ≥ k.
44 CHAPITRE 5. NOMBRE CHROMATIQUE
Remarquons que les graphes obtenus par Erdös sont bien plus petits que ceux
obtenus par Mycielski dans le cas où l = 3 : pour obtenir χ(G0 ) ≥ k, il suffit
d’un nombre de sommet polynomial en k : n ≥ k l (1 + ε), alors que le graphe de
Mycielski a un nombre de sommets exponentiel en k.
Dans la suite, nous commencerons par étudier le nombre d’indépendance
de G(n, p), puis nous l’utiliserons pour approcher χ(G(n, p)). On se restreindra
au cas où p est loin de 0 et de 1, ce qu’on appelle le cas dense. De plus, pour
simplifier les écritures, on prendra p = 1/2, mais tout ce qui suit peut se faire
de manière identique avec p fixé dans ]0, 1[.
De plus,
1 1
log2 (k!) = k log2 k − k + log2 (2πk) + o(1) .
log 2 2
On voit donc que E(Xk ) passe rapidement d’un ω(1) à un o(1) pour des valeurs
de k équivalentes à 2 log2 n. Par exemple, si k ≤ 2 log2 n−2 log2 log2 n− log2 2 −2,
f (k) tend vers l’infini. Mais si k ≥ 2 log2 n − 2 log2 log2 n, alors f (k) tend vers
0. Plus précisément, lorsque k ∼ 2 log2 n,
f (k + 1) n − k −k
= 2 = n−1+o(1) .
f (k) k+1
Notons k0 = k0 (n) tel que :
où
k n−k
i
g(i) = i
n
k−i
2(2) .
k
On remarque que :
g(i + 1) 2i (k − i)2
= .
g(i) (i + 1)(n − 2k + i)
Lorsque i ≤ log2 n − K log log n pour K assez grand, g(i + 1)/g(i) tend vers 0, et
lorsque i ≥ log2 n + K log log n pour K assez grand, g(i + 1)/g(i) tend vers +∞.
Ainsi, dans ∆, les valeurs de g(i) pour i ≤ log2 n − K log log n sont majorées
par g(2), et les valeurs de g(i) pour i ≥ log2 n + K log log n sont majorées par
g(k − 1). Pour les valeurs intermédiaires, soit i ∈ [log2 n ± K log log n] et prenons
l petit devant log n mais grand devant log log n. Alors,
g(i0 + l) 2li+l(l−1)/2
≥ 1.
g(i0 ) (i + l)l nl
Ainsi, g(i0 ) est majoré par g(i0 ) + l qui lui-même est majoré par g(k − 1). De
plus,
k4
g(2) ∼ 2 ,
n
et
2kn
g(k − 1) ∼ k .
2 E(X)
Notamment, si on prend k = k0 − 2, on a E(X) = f (k0 − 2) 1 donc ∆ = o(1)
et P(X = 0) tend vers 0. Ainsi, ω(G) ≥ k0 − 2 donc ω(G) ∈ {k0 − 2, k0 − 1, k0 }
a.p.s. Remarquons qu’en faisant un peu plus attention, on peut montrer qu’il y
a concentration sur deux points seulement (cf. [AS08], section 10.2).
Donc,
n − m24
P(∃S t.q. |S| = m et α(G|S ) < k) ≤ e 2k = o(1) .
m
Donc, avec proba tendant vers 1, tout sous-ensemble de m sommets contient un
ensemble indépendant d’ordre k ∼ 2 log2 n. On peut alors successivement tirer
un ensemble indépendant d’ordre k, le colorier, le retirer du graphe, retirer un
ensemble indépendant d’ordre k, le colorier etc. jusqu’à ce qu’il ne reste qu’un
ensemble de sommets d’ordre inférieur à m, auquel on donne au plus m couleurs.
On a alors :
n n
χ(G) ≤ + m ≤ (1 + o(1)) .
k 2 log2 n
5.4. EXERCICES 47
5.4 Exercices
Exercice 5.1 Soit G un graphe à m arêtes. Montrer que :
r
1 1
χ(G) ≤ + 2m + .
2 4
Compléments sur la
transition de phase
d’Erdös-Rényi
Les cas à peine sous-critique et à peine sur-critique n’ont pas été vus en
cours, faute de temps. Voici des preuves.
49
50 ANNEXE A. COMPLÉMENTS SUR LA TRANSITION
Ls ≤ L(2)
s .
gr (2)
Ainsi, tant que s ≤ Tn,p , on a toujours Ss ≤ Ss , ce qui implique que T (1) ≤
gr (1)
Tn,p , où T (1) = inf{s ≥ 0 t.q. Ss = 0}.
Le processus de branchement de Poisson est plus agréable à manipuler que le
processus de branchement binomial. On a déjà vu au Lemme 4.4.1 une compa-
raison lorsque c < 3/2.
Pour la minoration, ou pour c > 3/2, on doit utiliser des résultats plus
précis. On suppose que p = c/n, avec c = Θ(1) et c = 1 + ε, avec ε de signe
quelconque.
kt
log Qk = (2nε − t) + o(1) .
2n2
P(Skbin,n−t,p = 0)
Q= .
P(Skpo,c = 0)
Ainsi,
(n−t)k
k−1 pk−1 (1 − p)(n−t)k−k+1
Q = k−1 ,
e−kc (kc)
(k−1)!
Or,
(1 − nt )(1 − nc ) (−ε − k1 + tc
n)
t 1 1 =1+ n−t−1
.
1 − n − n + nk
Notamment, si t = 0, en utilisant log(1 − x) ≤ x,
1
log Q ≤ kε + 1 + k(−ε − ) + o(1) = o(1) .
k
Sinon, en général on remarque que :
(1 − nt )(1 − nc ) −1
1 = O(n ).
1 − nt − n1 + nk
Donc, si k est petit devant n,
2
(−ε − k1 + tc
n) 1
= o( ) .
n−t−1 nk
Donc :
t 1 tc
log Q = 1 + k ε + log(1 − ) − ε − + + o(1) ,
n k n
tε t t
= k + log(1 − ) + + o(1) ,
n n n
kt
= (2nε − t) + o(1) ,
2n2
en utilisant à la dernière ligne que kt3 = o(n3 ).
On commence par compléter la majoration pour c grand :
Lemme A.1.3 (Majoration (bis)). Pour tout u ≥ 1,
bin
P(+∞ > Tn,p ≥ u) ≤ P(+∞ > Tcpo ≥ u)(1 + o(1)) .
52 ANNEXE A. COMPLÉMENTS SUR LA TRANSITION
Puis, on obtient les minorations utiles.
Démonstration: On écrit :
bin
P(+∞ > Tn−t,p ≥ u)
u
X1 2
≥ P[Skbin,n−1,p = 0] ,
k
k=u
u2 t X1
≥ (1 + o(1))e− 2n2 (t−2nε)+ P[Skpo,c = 0] ,
k
k≥u
u2 t
& [P(+∞ > Tcpo ≥ u) − P(+∞ > Tcpo ≥ u2 )] e− 2n2 (t−2nε)+ .
Enfin, on obtient l’analogue du Lemme 4.3.1 pour le branchement binomial,
lorsque ε tend vers 0+ .
et
q̃ = Pn (|C(v)| ≥ u0 ) .
T
X
P(Y ≤ r) = P(Y ≤ r et |C(vi )| < βT m) + o(1) ,
i=1
i
1|C(vi )|≥u0 = bi et
X X
≤ P(∀i ≤ T, |C(vi )| < βT m) + o(1) ,
b∈{0,1}T j=1
|b|≤r
X T
Y
≤ Pn−βT m,p (|C(vi )| < u0 )1−bi Pn,p (|C(vi )| ≥ u0 )bi + o(1) ,
b∈{0,1} T i=1
|b|≤r
X
≤ (1 − q)T −|b| (q̃)|b| + o(1) ,
b∈{0,1}T
|b|≤r
On pose λ = n1/3 J 1/2 (c), qui permet d’englober les cas sous-critique et à peine
sous-critique. En effet, dans le cas sous-critique, lorsque c = 1 − ε avec ε tend
vers 0+ mais grand devant n−1/3 , on a λ tend vers l’infini et λ ∼ n1/3 ε. En
choisissant
log(nJ 3/2 (c)) 3 log(λ)
u= = ,
J(c) J(c)
on obtient :
n
P(|C(v)| > u) = Θ(log−5/2 λ) = o(1) .
u
Pour la minoration, on pose
et
T u0 λ3δ
1, (A.3)
n(log λ)5/2
Or,
p
nε/(u0 )1/2 = Θ(λ2 n1/3 / log λ), n/(mεu0 ) = Θ(λ2 n1/3 / log λ) .
Il suffit donc de prendre par exemple T = n1/3 λ2 /(log λ)3/2 . On peut donc
appliquer le Lemme A.1.6, et on obtient que :
Donc :
E(eλSt2 1Bk |St1 , . . . , Sk ) ≥ 1Bk eλ(t2 −k)ε ,
D’où :
t2 t2
eλSt2 1Bk ) = e−λ(t2 −t1 )ε E(eλSt2 ) .
X X
P(B) = P(Bk ) ≤ e−λ(t2 −t1 )ε E(
k=t1 k=t1
Notons B l’évènement {∃t ∈ [t1 , t2 ] s.t. St ≤ 0}. En optimisant en λ ≤ 0 le
Lemme A.2.1, et en notant que ε(t2 −t1 ) ∼ ny(c)ε(1−2δ) ≤ E(St2 )ny(c)ε(1−δ),
−Λ∗
St (ε(t2 −t1 ))
P(A) ≤ e 2 .
58 ANNEXE A. COMPLÉMENTS SUR LA TRANSITION
Or, d’après la Proposition 4.1.4, St2 suit une loi B(n − 1, 1 − (1 − p)t2 . Comme
t2 p ∼ 2ε(1 − δ), Var(St2 ) ∼ 2nε(1 − δ) et E(St2 ) ∼ (1 − δ)2nε2 . En utilisant
l’inégalité de Bernstein (on pourrait aussi utiliser la transformée de Cramér de
la binomiale), on obtient :
−Λ∗
St (ε(t2 −t1 ))
P(A) ≤ e 2 ,
(E(St −ε(t2 −t1 ))2
2
− 2(Var(S )+(E(S
t2 −ε(t2 −t1 ))/3))
≤ e t2
,
2
( )
2nδε2
= e− 4nε(1−δ) (1+o(1)) ,
3
= e−λ (1+o(1))/(1−δ)
,
= o(1) .
c 1 k 1 1
p= = c(1− ) . (1+ε)(1−2ε(1−2δ)) = (1−ε(1−4δ)+o(ε)) ,
n n−k n n−k n−k
A.2. CAS À PEINE SUR-CRITIQUE 59
Inégalités de corrélation
Nous allons voir que c’est effectivement le cas grâce à l’inégalité de Harris. Celle-
ci est très simple à montrer dans le cadre d’un espace produit (elle se généralise
à des cadres plus généraux).
61
62 ANNEXE B. INÉGALITÉS DE CORRÉLATION
λ = E(W ) ,
et X
∆= E(Iα Iβ ) .
α∼β
Le résultat suivant permet d’obtenir une majoration de P(W = 0) qui est no-
tamment bien meilleure que l’approximation poissonienne du Chapitre 1 lorsque
λ, l’espérance de W , est grande.
Théorème B.2.1 (Inégalité de Janson). Pour tout ε ∈ [0, 1],
λ
− (ε+(1−ε) log(1−ε))
1+ ∆
P(W ≤ (1 − ε)λ) ≤ e λ .
Notamment,
λ
−
1+ ∆
P(W = 0) ≤ e λ .
B.2. INÉGALITÉ DE JANSON 63
[AS08] Noga Alon and Joel H. Spencer. The probabilistic method. Wiley-
Interscience Series in Discrete Mathematics and Optimization. John
Wiley & Sons Inc., Hoboken, NJ, third edition, 2008. With an appendix
on the life and work of Paul Erdős.
[BHJ92] A. D. Barbour, Lars Holst, and Svante Janson. Poisson approximation,
volume 2 of Oxford Studies in Probability. The Clarendon Press Oxford
University Press, New York, 1992. Oxford Science Publications.
65
66 BIBLIOGRAPHIE
Table des matières
Introduction i
0.1 Présentation du personnage principal : G(n, p) . . . . . . . . . . . i
0.2 Plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
0.3 Phénomènes de seuil . . . . . . . . . . . . . . . . . . . . . . . . . iii
0.4 Notions élémentaires de théorie des graphes . . . . . . . . . . . . iv
0.5 Les méthodes du premier et du second moment . . . . . . . . . . v
0.6 Remarques sur les notations . . . . . . . . . . . . . . . . . . . . . v
0.7 Références principales . . . . . . . . . . . . . . . . . . . . . . . . v
0.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi
1 Petits sous-graphes 1
1.1 Seuil pour les petits sous-graphes . . . . . . . . . . . . . . . . . . 1
1.2 A l’intérieur du seuil . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Convergence en loi et distance en variation totale . . . . . 3
1.2.2 Approximation poissonienne par couplage . . . . . . . . . 6
1.2.3 Méthode des moments . . . . . . . . . . . . . . . . . . . . 8
1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Connexité 11
2.1 Disparition des sommets isolés . . . . . . . . . . . . . . . . . . . 11
2.2 Connexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Inégalités de concentration 15
3.1 Méthode de Cramér-Chernoff . . . . . . . . . . . . . . . . . . . . 16
3.2 Inégalités de Hoeffding, Bennett et Bernstein . . . . . . . . . . . 17
3.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
67
68 TABLE DES MATIÈRES
5 Nombre chromatique 41
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 Nombre d’indépendance et nombre clique dans G(n, 1/2) . . . . . 44
5.3 Nombre chromatique . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
B Inégalités de corrélation 61
B.1 Inégalité de Harris . . . . . . . . . . . . . . . . . . . . . . . . . . 61
B.2 Inégalité de Janson . . . . . . . . . . . . . . . . . . . . . . . . . . 62