0% ont trouvé ce document utile (0 vote)
64 vues43 pages

Quantum Dots

Transféré par

ayoub.douma
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
64 vues43 pages

Quantum Dots

Transféré par

ayoub.douma
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Mohammed V de Rabat

Faculté des Sciences, Maroc

Master en Matière et Rayonnement

Douma Ayoub
proposé par :
ESMaR
Département de Physique, FSR
2023-2024
Table des matières

Table des figures 2

Chapitre 1 Semi-conducteurs boîtes quantiques 3


1 Semi-conducteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 Définition des matériaux semiconducteurs . . . . . . . . . . . . . . . . . 3
1.2 Bandes d’énergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Mouvement des porteurs de charge dans un semi-conducteur . . . . . . . 4
1.3.1 Conduction d’un semi-conducteur intrinsèque . . . . . . . . . . 5
1.3.2 Conduction d’un semi-conducteur extrinsèque . . . . . . . . . . 6
2 Évaluation de l’énergie et de la densité d’états des systèmes de basses dimensions
1D, 2D, 3D,et 0D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 3D : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 2D : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 0D : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Systèmes zéro-dimensionnels et leur réalisation expérimentale . . . . . . . . . . . 22
3.1 Boîte quantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Elaboration des boîtes quantiques . . . . . . . . . . . . . . . . . . . . . 24

Chapitre 2 traitement de l’information quantique. 27


1 principes de la théorie de de l’information quantique . . . . . . . . . . . . . . . 27
1.1 Espace des Etats : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Opérateur ou matrice densité . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3 Qubit et sphère de Bloch . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2 Théorie de l’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1 Théorie classique de l’information . . . . . . . . . . . . . . . . . . . . . . 30
2.1.1 Mesure de l’information . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Théorie quantique de l’information . . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Mesure de l’information . . . . . . . . . . . . . . . . . . . . . . 35
3 Introduction à l’intrication quantique . . . . . . . . . . . . . . . . . . . . . . . . 37
3.1 Définition : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Quantification du degré d’intrication . . . . . . . . . . . . . . . . . . . . 38
Table des figures

Figure 1.1: différents types de nanomatériaux semi-conducteurs . . . . . . . . . . 4


Figure 1.2: Représentation des bandes d’énergie . . . . . . . . . . . . . . . . . . . 4
Figure 1.3: Un atome d’Arsenic incorporé dans le cristal de semi-conducteur (Si) 6
Figure 1.4: Un atome d’Indium incorporé dans le cristal de semi-conducteur (Si) . 7
Figure 1.5: espace des vecteurs d’onde pour un système tridimensionnel. . . . . . . 9
Figure 1.6: Les sphères de rayons k et k + dk correspondant aux niveaux d’énergie
E et E +dE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Figure 1.7: La densité d’états pour un système tridimensionnel . . . . . . . . . . 12
Figure 1.8: Le potentiel de confinement du puits infini unidimensionnel. . . . . . 12
Figure 1.9: La fonction d’onde d’un puits de potentiel infini unidimensionnel. . . 14
Figure 1.10: Espace des vecteurs d’onde pour un système bidimensionnel. . . . . . 17
Figure 1.11: Densité d’états du puits quantique 2D. . . . . . . . . . . . . . . . . . 18
Figure 1.12: Fil quantique confine les électrons dans deux dimensions. . . . . . . . . 18
Figure 1.13: Espace k dans un fil quantique unidimensionnel. . . . . . . . . . . . . 20
Figure 1.14: La densité d’états en fonction de l’énergie dans un système unidimen-
sionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Figure 1.15: Boîte quantique tridimensionnelle de côtés Lx , Ly et Lz . . . . . . . . . 21
Figure 1.16: La densité d’états dans une boîte quantique 0D. . . . . . . . . . . . . . 22
Figure 1.17: La relation entre la bande interdite et la taille des particules. . . . . . 23
Figure 1.18: La relation entre la taille de la boîte quantique et la longueur d’onde
d’émission. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Figure 1.19: Image capturée par TEM (microscopie électronique en transmission)
d’une boîte quantique auto-assemblée d’InAs/GaAs, produite via MBE. 24
Figure 1.20: Schémas décrivant le processus de fabrication de boîtes quantiques
InAs avec contrôle de site par oxydation anodique assistée par mi-
croscopie à force atomique (AFM). . . . . . . . . . . . . . . . . . . . . 26

Figure 2.1: Représentation géométrique d’un qubit sur la sphére de Bloch. . . . . 30


Figure 2.2: Schéma d’un système de communication classique. . . . . . . . . . . . 31
Figure 2.3: Diagramme de Venn pour la représentation de différentes mesures d’in-
formation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
CHAPITRE 1

SEMI-CONDUCTEURS BOÎTES QUANTIQUES

1 Semi-conducteurs
1.1 Définition des matériaux semiconducteurs
Les semi conducteurs [1] sont des corps solides dont la conductivité électrique se situe entre
celle des métaux et celle des isolants, elle varient sur plusieurs ordres de grandeur, sous l’ef-
fet de : la température, l’éclairement ou la présence d’impuretés,Ils sont à la base de tous les
composants électroniques et optoélectroniques qui entrent dans les dispositifs informatiques, de
télécommunications, de télévision, dans l’automobile et les appareils électroménagers[2].
Pour fixer les idées, les métaux ont une résistivité de l’ordre de 106 Ω · cm ,tandis que pour
les isolants elle varie de 1014 à 1022 Ω.cm . Cependant, pour les semiconducteurs typiques, à
température ambiante, la résistivité varie de 103 à 109 Ω.cm.
Physiquement, un matériau donné est conducteur (d’électricité) s’il possède des électrons libres
(au moins un électron par atome) . Ces derniers sont présents dans les couches éloignées du
[Link] forces de liaison, étant faibles, permettent aux électrons de se déplacer d’un atome
à un autre dans le matériau conducteur. Lorsqu’on plonge un conducteur dans champ élec-
trique externe E ⃗ ext cela brise l’équilibre électrostatique, car les électrons libres sont sujets à
être déplacés en raison de la force électrique externe. imposant une différence de potentiel, d’où
l’apparition d’un courant électrique.
La conduction dans les métaux est principalement due à la présence d’électrons libres qui
peuvent se déplacer facilement. Contrairement aux semi conducteurs, la conduction est due
sous l’effet de les électrons libres de type N et les trous libres de type P.

On donne quelques exemples de semi-conducteurs avec leurs positions dans la classification


de Mendeleïev,

3
Figure 1.1 – différents types de nanomatériaux semi-conducteurs

Figure 1.2 – Représentation des bandes d’énergie

1.2 Bandes d’énergie


Dans un conducteur, le chevauchement des bandes de valence et de conduction signifie
qu’il n’y a pas de bande interdite, et que la bande de conduction est partiellement occupée.
Cela permet aux électrons de se déplacer librement et de contribuer à la conduction sans
nécessiter d’apport d’énergie supplémentaire.
Dans un isolant, la bande de conduction est essentiellement vide, et l’écart d’énergie
entre la bande de valence et la bande de conduction est considérable, typiquement de
l’ordre de 10 eV. Par conséquent, le matériau ne contient pas d’électrons libres capables
de contribuer à la conduction électrique.
Dans un semi-conducteur, la bande de conduction est initialement vide, mais la différence
d’énergie par rapport à la bande de valence est relativement faible, généralement de l’ordre
de 1 à 2 eV. Ainsi, à une température de zéro Kelvin (0 °K), le matériau agit comme un
isolant car aucun électron ne peut occuper la bande de conduction. Cependant, lorsque
la température augmente, des électrons sont excités de la bande de valence vers la bande
de conduction, ce qui conduit à une augmentation de la conductivité du matériau avec la
température.

1.3 Mouvement des porteurs de charge dans un semi-conducteur


Électron dans le vide :
La vitesse de l’électron chargé varie linéairement avec le temps sous l’effet du champ électrique

4
appliqué prenant ainsi un mouvement uniformément accéléré tels que ;

e ⃗
⃗v = − E · t + ⃗cst, (1.1)
m∗e

Avec e la charge élémentaire de l’électron, m∗e la masse effective de l’électron, E


⃗ l’intensité du
champ électrique appliqué, t c’est le temps, et ⃗cst est une constante qui représente la vitesse
initiale de l’électron.
Électron dans un solide
Dans un solide, les électrons occupent des niveaux d’énergie quantifiés, répartis dans des bandes
d’énergie. Ces bandes comprennent la bande de valence, où les électrons sont liés aux atomes
et ne peuvent pas se déplacer librement, et la bande de conduction, où les électrons ont suffi-
samment d’énergie pour se déplacer librement dans le matériau.
Lorsqu’un champ électrique est appliqué à un solide, il exerce une force sur les électrons
libres F⃗ = q E,⃗ l’accélération de l’électron peut être donnée par ⃗an = q·Ẽ∗ , donc la vitesse
me
moyenne supplémentaire dans la direction du champ exprime par

qτ ⃗
⃗vn = ⃗an · τ = · E = −µn E,
⃗ (1.2)
m∗e

avec τ est Temps libre entre les événements de diffusion.


On peut appliquer le même raisonnement aux trous libres, on peut remarquer que,

qτ ⃗
⃗vp = ⃗ap · τ = · E = −µp E,
⃗ (1.3)
m∗t

où µn et µp sont appelées respectivement mobilité des électrons et des trous, qui dépendent de
la charge et de la température, et sont exprimées en Cm2 V −1 s−1 ,
une résistance au mouvement, qui est l’inverse de la mobilité, est due lorsque les électrons
se déplacent dans un solide, ils interagissent avec les ions du réseau cristallin.
L’effet du champ électrique se manifeste par l’exercice d’une force sur les électrons libres,
les incitant à se déplacer dans une direction spécifique. En l’absence de champ, les électrons
se déplacent de manière aléatoire en raison de leur agitation thermique. Cependant, lorsqu’un
champ électrique est présent, les électrons acquièrent une vitesse moyenne supplémentaire dans
la direction du champ. Cette vitesse supplémentaire s’ajoute à leur agitation thermique, ce qui
leur permet de se déplacer de manière ordonnée à travers le matériau.

1.3.1 Conduction d’un semi-conducteur intrinsèque

Un semi-conducteur intrinsèque, dépourvu de dopage, contient un faible niveau d’impuretés


par rapport à la quantité de trous et d’électrons générés thermiquement. Pour comprendre
leur comportement, il est essentiel d’analyser les populations d’électrons et de trous dans les
bandes de conduction et de valence. Les semi-conducteurs comme le Germanium ou le Silicium
possèdent quatre électrons dans leur couche périphérique, formant des liaisons covalentes qui
maintiennent la cohésion du cristal. À température ambiante, certains électrons de la bande de

5
valence passent à la bande de conduction, créant des trous. Ce phénomène, propre aux semi-
conducteurs intrinsèques, se produit à l’équilibre thermique, où le nombre d’électrons ne et de
trous np est égal en l’absence d’impuretés ou de dopants.

ne = np = ni , (1.4)

où ni représente la densité de porteurs intrinsèques (pour le silicium à 300K, ni = 1010 Cm−3 ).


Lorsqu’un champ électrique est appliqué à un semi-conducteur intrinsèque, les électrons se
déplacent vers la direction opposée au champ, tandis que les trous se déplacent dans la direction
du champ. la densité de courant totale J⃗ des électrons et des trous est donné par :

J⃗ = J⃗n + J⃗p = σi · E,
⃗ (1.5)

avec σi = σn + σp = q ni (µn + µp ) c’est la conductivité intrinsèque totale du matériaux.

1.3.2 Conduction d’un semi-conducteur extrinsèque

Un semi-conducteur extrinsèque est un matériau semi-conducteur intrinsèque qui a été dopé


avec des impuretés spécifiques, modifiant ainsi ses propriétés électriques pour les adapter à des
applications électroniques telles que les diodes et les transistors, ainsi qu’à des applications
optoélectroniques comme les émetteurs et les récepteurs de lumière.
Semi-conducteur extrinsèque type N :
Le dopeur utilisé appartient à la famille des pentavalents de la colonne V (As, Sb, P,· · · ).
L’atome dopeur s’intègre dans le cristal de semi-conducteur, cependant, pour maintenir les
liaisons entre les atomes voisins, 4 électrons sont nécessaires : le cinquième est donc en excès et
sera libre. L’agitation thermique permet donc la libération d’un électron par atome dopeur. On
dit que le dopeur est un donneur d’électrons (porteurs de charge négative). Il faut noter que
cet électron lorsqu’il quitte son atome, il laisse à sa place un ion positif fixe (trou) (Fig 1.3).

Figure 1.3 – Un atome d’Arsenic incorporé dans le cristal de semi-conducteur (Si)

La concentration des électrons libres issus des atomes donneurs est nettement plus élevée que
celle des porteurs intrinsèques, tels que les trous. On qualifie alors les électrons sont des porteurs
majoritaires et les trous minoritaires.
Semi-conducteur extrinsèque type P :

6
Le dopeur utilisé appartient à la famille des trivalents de la colonne III (B, Ga, In,· · · ).
L’atome dopeur s’intègre dans le cristal de semi-conducteur, mais, pour assurer les liaisons entre
les atomes voisins, 4 électrons sont nécessaires alors que le dopeur ne porte que 3 électrons, il
y a donc un trou disponible susceptible de recevoir un électron. Un électron d’un atome voisin
peut occuper ce trou. L’atome du dopeur devient un ion négatif fixe. L’atome quitté aura un
trou et une charge positive excédentaire. On dit que le dopeur est un accepteur d’électrons
(Fig.1.4)

Figure 1.4 – Un atome d’Indium incorporé dans le cristal de semi-conducteur (Si)

On dit que les trous sont des porteurs majoritaires et les électrons sont minoritaires .

2 Évaluation de l’énergie et de la densité d’états des


systèmes de basses dimensions 1D, 2D, 3D,et 0D
La fonction de densité d’états décrit le nombre d’états d’énergie disponibles dans un système,
et elle est essentielle pour déterminer les concentrations de porteurs et les distributions d’énergie
des porteurs au sein d’un semi-conducteur.
La densité d’états décrit le nombre d’états électroniques disponibles par unité d’énergie et
de volume dans un matériau, exprimée en eV−1 cm−3 . Elle offre des informations cruciales sur
la distribution des niveaux d’énergie dans le matériau, indiquée par la notation g(E). Cette
mesure est essentielle pour évaluer la distribution d’énergie des porteurs et leur concentration
dans un semi-conducteur[3].
Le nombre d’états dans un système quantique est le nombre total d’états disponibles, mathé-
matiquement exprimé comme,

Vsystem
N (E) = N, (1.6)
Vsingle state
où N(E) représente le nombre d’états de système , Vsystem représente le volume de l’ensemble
du système (sphère, ligne ,cercle, ect.), Vsingle state représente le volume d’un seul état du système,
et N est le nombre d’atomes dans le cristal. Dans un état excité, la densité des états dépend

7
de l’énergie gagnée par un électron. C’est la première dérivée de la fonction de comptage des
états N(E) par rapport à l’énergie E. Mathématiquement, cela se traduit par :

dN (E) dN dK
g(E) = = · . (1.7)
dE dK dE

2.1 3D :
Prenons en considération un électron libre dans un espace tridimensionnel. Imaginons que
cette région spatiale finie ait pour dimensions Lx Ly Lz , et à l’intérieur de cette zone, V(r) = 0.
L’équation de Schrödinger tridimensionnelle, indépendante du temps est alors :
!
ℏ2 2
− ∇ ψ(r) = Eψ(r) (1.8)
2m
Dans des coordonnées rectangulaires tridimensionnelles, le vecteur r est un vecteur de posi-
tion, allant de l’origine à un point donné dans l’espace, et est couramment exprimé en termes
de vecteurs unitaires standards dans les directions x, y et z, comme suit :

r = xî + y ĵ + z k̂. (1.9)

donc !
ℏ2 ∂2 ∂2 ∂2
− + + ψ(x, y, z) = Eψ(x, y, z), (1.10)
2m ∂x2 ∂y 2 ∂z 2
L’équation ci-dessus (1.10) peut être résolue en utilisant la méthode de séparation des va-
riables, en supposant simplement que la fonction d’onde peut être écrite sous forme de produit,

ψ(x, y, z) = ψx (x)ψy (y)ψz (z), (1.11)

1 ∂ 2 ψx (x) 1 ∂ 2 ψy (y) 1 ∂ 2 ψz (z) 2mE


+ + + 2 = 0, (1.12)
ψx (x) ∂x2 ψy (y) ∂y 2 ψz (z) ∂z 2 ℏ
avec la relation de dispersion
ℏ2 k 2
Ek = , (1.13)
2m

1 ∂ 2 ψx (x) 1 ∂ 2 ψy (y) 1 ∂ 2 ψz (z)


!
+ + + k 2 = 0, (1.14)
ψx (x) ∂x2 ψy (y) ∂y 2 ψz (z) ∂z 2
k est une constant.

L’équation (1.14) est validée si, pour toutes les valeurs possibles de x, y et z, chacun des
trois termes impliquant ψx (x) , ψy (y) et ψz (z) est égal à une constante. Soit la constante liée
au premier terme, au deuxième terme et au troisième terme -k2x , −ky2 et -k2z , respectivement.

8
1 ∂ 2 ψx (x)

+ kx2 = 0


 ψx (x) ∂x2




 1 ∂ 2 ψ (y)


y
+ ky2 = 0 (1.15)


 ψy (y) ∂y 2
1 ∂ 2 ψz (z)



+ kz2 = 0



ψz (z) ∂z 2






ψx (x) = C1 sin(kx x) + C2 cos(kx x) = 0

⇒ ψ (y) = C1 sin(ky y) + C2 cos(ky y) =
y 0 (1.16)


= C1 sin(kz z) + C2 cos(kz z) = 0

 ψz(z)

Figure 1.5 – espace des vecteurs d’onde pour un système tridimensionnel.

k = kx î + ky ĵ + kz k̂ (1.17)
2mE
k 2 = kx2 + ky2 + kz2 = (1.18)
ℏ2
En d’autres termes, le problème tridimensionnel est maintenant réduit à trois problèmes de
modèle de particule dans une boîte unidimensionnelle. Pour un électron à une région finie de
l’espace Lxyz , la fonction d’onde doit s’annuler aux limites de la région bornée car V(r) tend
vers ∞.
La continuité de la fonction d’onde, ψ(r), en x = 0, y = 0 et z = 0 nécessite que,

ψx (x = 0) = ψy (y = 0) = ψz (z = 0) = 0. (1.19)

• Pour ψx (x = 0) ;
⇒ C1 sin(0) + C2 cos(0) = 0 et par conséquent C2 = 0 donc ψx (x) = C1 sin(kx x) .
En prenant les conditions aux limites telles que ψx (x) = 0 à x = Lx .
⇒ C1 sin kx Lx = 0 mais , C1 ̸= 0 donc kx Lx = 0, ainsi kx Lx = sin−1 (0) = nπ,
On trouve kx = nLxxπ .

9
de même pour ky = nLyyπ , kz = nLzzπ , où n x,y,z = 1, 2, 3 . . .
On fait normaliser la fonction d’onde,

nx π
Z  
ψ(x)ψ ∗ (x)dx = C12 sin2 = 1, (1.20)
x l
q q  
⇒ C1 = L2x ⇒ ψx (x) = L2x sin nLx πx
x
,
donc la fonction d’onde ψ(x, y, z) pour un système tridimensionnel est donc donnée par :

ψ(x, y, z) = ψx (x)ψy (y)ψz (z), (1.21)


2 2 2
s s !s
nx πx ny πy nz πz
  
= sin sin sin , (1.22)
Lx Lx Ly Ly Lz Lz
2 3/2
!
nx πx ny πy nz πz
   
= ( ) sin sin sin . (1.23)
L Lx Ly Lz

l’énergie totale Eknx ,ny ,nz est donnée par ;

ℏ2 2
Eknx ,ny ,nz = (knx + kn2 y + kn2 z ), (1.23)
2m
 !2 
ℏ 2 π 2  nx
2 2
ny nz
 
⇒ Eknx ,ny ,nz = + + . (1.24)
2m Lx Ly Lz

Densité d’états pour un matériau 3D


Considérant le volume dans l’espace des vecteurs d’onde k.

Figure 1.6 – Les sphères de rayons k et k + dk correspondant aux niveaux d’énergie E et E


+dE

Le volume d’une sphère de rayon k est donné par ;

4
V = πk 3
3

Encore une fois, considérons deux sphère d’un rayon k et et un rayon incrémentiel k + dk,

10
correspond aux étas d’énergie comprise entre l’intervalle E, et E+dE. Le volume incrémentiel
entre les deux sphères peut être obtenu comme suit :

V = 4πk 2 dk (1.25)

Le plus petit cube de volume V a pour expression :

(2π)3
Vsingle state = kx ky kz = . (1.26)
Lx Ly Lz

Le nombre d’états quantiques dans le volume incrémentiel de l’espace réciproque peut être
exprimé comme suit :

1 1
dN (E) = · 3 · 4πk 2 dk · 2, (1.27)
8 π /Lx Ly Lz
ici, un facteur 2 est multiplié car un seul état quantique peut être occupé par deux électrons
avec des spins opposés,

Lx Ly Lz
dN (E) = 3
· πk 2 dk, (1.28)
π
tels que Lx Ly Lz Il s’agit du volume du système tridimensionnel dans l’espace réel. La relation
de dispersion Ek est,
2mE
k2 = , (1.29)
ℏ2

m 1
dk = √ · dE, (1.30)
ℏ 2mE
2mE 1
!
Lx Ly Lz m
 
dN (E) = · · ·√ · dE , (1.31)
π 2 ℏ2 ℏ 2mE
Le nombre d’états quantiques par unité de volume et par unité d’énergie sera donc,
3 √
L3 2m

2
dN (E) = E dE, (1.32)
2π 2 ℏ2

La densité des états quantiques dans un système tridimensionnel est,


3
L3 2m 2 √

g3D (E) = 2 E, (1.33)
2π ℏ2

g3D (E) ∞ E. (1.34)

11
Figure 1.7 – La densité d’états pour un système tridimensionnel

L’équation présente l’expression de la densité d’états pour un système tridimensionnel, ré-


vélant une relation directement proportionnelle à la racine carrée de l’énergie E du système.
L’énergie et la densité des états ont été évaluées pour une structure cubique quantique tridi-
mensionnelle, mettant en évidence des pics maximaux et minimaux dans la relation non linéaire
entre l’énergie et la densité des états du volume quantique.

2.2 2D :
Résolution de l’équation de Schrödinger pour un puits quantique infini :
En considérant le problème simple d’une particule confinée à se déplacer dans une seule dimen-
sion. Prenons par exemple un électron se déplaçant le long d’un fil très étroit, où la particule se
trouve à la position x. Ce système aurait une énergie potentielle nulle à l’intérieur de la région
et une énergie potentielle infinie à l’extérieur, ce qui définit les limites de son mouvement.

0

pour 0 < x < a,
V (x) =  (1.35)
∞ ailleurs.

Cette fonction d’énergie potentielle est appelée un puits de potentiel infini ou une « boîte »
unidimensionnelle. Nous pouvons représenter V(x) de cette manière ;

Figure 1.8 – Le potentiel de confinement du puits infini unidimensionnel.

Dans le cas d’un potentiel unidimensionnel (puits quantique infini), l’équation de Schrödin-
ger sur l’axe des x devient :

ℏ2 ∂ 2
− ψ(x) + V (x) = Eψ(x). (1.36)
2m ∂x2

12
Puisque V(x) = ∞ à l’extérieur de la boîte, la particule ne peut jamais s’y trouver, donc ψ(x)
doit être nul à l’extérieur de la boîte.
Par contre dans la région lorsque 0 < x < a , le potentiel est nul et la fonction d’onde peut
prendre n’importe quelle forme, à condition qu’elle soit normalisée. L’équation de Schrödinger
sera écrite comme suit :
ℏ2 ∂ 2
− ψ(x) = Eψ(x), (1.37)
2m ∂x2
ℏ2 kx2
en utilisant la relation de dispersion, Ek = 2m
on obtient ;

∂ 2 ψx (x)
+ kx2 ψ(x) = 0, (1.38)
∂x2

La solution de l’équation est exprimée par :

ψ(x) = C1 sin(kx x) + C2 cos(kx x). (1.39)

ψ(x = 0) = 0 ⇒ C1 sin(0) + C2 cos(0) = 0, et par conséquent C2 = 0 ,


donc ψx (x) = C1 sin(kx x).
En prenant les conditions aux limites telles que, ψ(x = 0) = ψ(x = a) = 0.
⇒ C1 sin kx a = 0, mais C1 ̸= 0, donc kx a = 0, ainsi kx a = sin−1 (0) = nπ.
On trouve kx = nxaπ où n x = 1, 2, 3 . . .
On fait normaliser la fonction d’onde,

nx π
Z  
ψ(x)ψ (x)dx =

C12 sin 2
= 1, (1.40)
x a
q
on trouve C1 = a2 .
La fonction d’onde d’un puits de potentiel infini unidimensionnel est donnée par :
q  
 2

sin nπx
pour 0 < x < a,
ψ(x) = a a
(1.41)
0

ailleurs.

13
Figure 1.9 – La fonction d’onde d’un puits de potentiel infini unidimensionnel.

L’énergie est quantifiée,


ℏ2 kx2
Ekx = , (1.42)
2m
avec kx = nx π
a
,

ℏ2 π 2 nx 2
⇒ Ekx = . (1.43)
2m a2
Cela dépend d’un entier n que nous appelons un "nombre quantique". Lorsque a augmente, les
niveaux d’énergie se resserrent et lorsque a tend vers l’infini, la quantification disparaît. L’éner-
gie n’était pas quantifiée dans la particule libre car l’électron n’était pas confiné. Pour cette
raison, le puits de potentiel à l’échelle nanométrique est souvent appelé le "puits quantique".
Résolution de l’équation de Schrödinger pour un puits quantique fini :
Le potentiel de puits quantique fini en une dimension, noté V(x), peut être décrit de la manière
suivante : 




V si x ≤ −a (I)

V (x) = 0 si − a ≤ x ≤ a (II) (1.44)

si x ≥ a (III)

V

L’équation de Schrödinger est toujours égale à ;

∂ 2 ψ(x) 2m
+ 2 (E − V (x)) ψ(x) = 0. (1.45)
∂x2 ℏ

Trois régions à considérer, notées I, II et III, en fonction du potentiel :


Region II
Dans la région II, où V= 0, l’équation de Schrödinger se simplifie en ;

∂ 2 ψ2 (x) 2mE
+ 2 ψ(x) = 0, (1.46)
∂x2 ℏ

14
c’est une équation différentielle ordinaire. Ensuite ;
⇒ k 2 = 2mE
ℏ2
la solution est ;
ψ2 (x) = A sin(kx) + B cos(kx). (1.47)

Region I et III
Dans ces régions, l’équation de Schrödingers est donné comme suit..

∂ 2 ψ1 (x) 2m
+ 2 (E − V ) ψ1 (x) = 0 (1.48)
∂x2 ℏ
on défine t2 pour E < V ;

2m
t2 = (V − E). (1.49)
ℏ2
donc

∂ 2 ψ1 (x)
− t2 ψ1 (x) = 0, (1.50)
∂x2
Les solutions de cette équation différentielle sont :

ψ1 = Cetx + De−tx . (1.51)

Pour x > 0, nous avons une solution similaire.

ψ3 = Eetx + F e−tx . (1.52)

Mais lorsque ψ1 → 0 à x → −∞, cette condition est satisfaite si la constante D est nulle, ce
qui simplifie la solution.
ψ1 = Cetx . (1.53)

De la même manière, lorsque ψ3 → 0 à x → +∞, la condition est satisfaite lorsque la constante


C= 0, Dans ce cas, la solution devient

ψ3 = De−tx . (1.54)

En Appliquant la condition de continuité pour trouver les valeurs des constantes ;



ψ1

= ψ2
à x = −a (1.55)
 ∂ψ1 = ∂ψ2

∂x ∂x


ψ2

= ψ3
àx=a (1.56)
 ∂ψ2 = ∂ψ3

∂x ∂x

Pour satisfaire la condition de parité paire, les conditions suivantes doivent être remplies ψ+x =
ψ−x et la valeur de A dans l’équation (1.47) doit être nulle. L’équation (1.47) peut alors être

15
réécrite comme suit :
ψ2 (x) = B cos(kx) (1.57)

De plus, la constante C dans l’équation (1.53) et la constante D dans l’équation (1.54) doivent
être égales, alors les équations peuvent être donnée comme suit ;

ψ1

= Cetx
(1.58)
ψ3 = Ce−tx

En appliquant la condition de continuité en x = +a, on aura ;



B cos(ka)

= Ce−ta
, (1.59)
−kB sin(ka)

= −tCe−ta
Après division de la première équation par la seconde, nous obtenons l’expression suivante pour
les états de parité paire ;
k tan(ka) = t, (1.60)
√ √
2m(V −E)
de k = 2mEℏ
et t= ℏ
, nous obtenons les niveaux d’énergie ;

√ q
2mE 2m(V − E)
· tan(ka) = , (1.61)
ℏ ℏ

laisse √
2mE
= n, (1.62)

et √
2mV
= n0 , (1.63)

L’équation du niveau d’énergie se réduit à ;
q
n · tan(n a) = n20 − n2 . (1.64)

La fonction du niveau d’énergie devient une fonction de n.


En suivant une dérivation similaire, nous pouvons déterminer l’équation du niveau d’énergie
lorsque la fonction d’onde est impaire. L’équation du niveau d’énergie se simplifie alors en :
q
−n · cot(na) = n20 − n2 . (1.65)
q
En traçant n20 − n2 en fonction de n· tan(na) and -n· cot(na).
Pour obtenir les niveaux d’énergie d’un puits de potentiel fini. En utilisant soit la méthode de
résolution graphique, soit une méthode numérique appropriée.

Densité d’états du puits quantique (matériau 2D) :


La densité d’états d’un puits quantique peut être évaluée en considérant une zone circulaire :

16
Figure 1.10 – Espace des vecteurs d’onde pour un système bidimensionnel.

L’aire circulaire associée dans l’espace k est ensuite à considérer. Prenons en compte un
autre cercle de rayon incrémental k+dk, représentant l’intervalle d’énergie E+dE. Le volume
incrémental entre les deux cercles peut être calculé de la manière suivante ;

V = 2πkdk, (1.66)

inclut de nombreux états possédant différentes énergies.


Un état donné au sein de ce cercle occupe une aire de,

(2π)2
vsingle state = kx ky = . (1.67)
Lx Ly

Si nous prenons en compte la dégénérescence due au spin, cette valeur est alors multipliée
par 2,
2πk
dN (E) = Lx Ly · 2 · dk, (1.68)
(2π)2
avec
m 1
dk = √ · dE. (1.69)
ℏ 2mE

2πk m 1
dN (E) = L x L y · 2 · √ · dE, (1.70)
(2π)2 ℏ 2mE
L2 k m 1
= · √ · dE, (1.71)
π ℏ 2mE
L2 m
= · dE, (1.72)
πℏ2

dN (E) L2 m
⇒ g2D (E) = = . (1.73)
dE πℏ2

17
Figure 1.11 – Densité d’états du puits quantique 2D.

Il est notable que dans le cas d’un puits quantique bidimensionnel, la densité d’états ne
dépend pas de l’énergie. Dès que l’on atteint le sommet de la bande interdite, un nombre
important d’états est immédiatement disponible. Il est essentiel de souligner que la densité
d’états bidimensionnelle est indépendante de l’énergie. Cependant, la DOS dépend du nombre
de niveaux et est donc une somme des contributions de niveaux discrets qui apparaissent comme
résultat de la quantification.

2.3 1D
Dans un fil quantique, les électrons sont confinés dans deux directions (x,y) . Cela signifie que
dans un fil quantique, les électrons ne peuvent se déplacer que dans une direction le long d’un
axe z. En conséquence, les énergies des électrons présentent des valeurs discrètes en raison de
l’effet de confinement. Ainsi, dans ce travail, nous avons déterminé l’énergie due au confinement
d’un fil quantique rectanglaire profond en résolvant l’équation de Schrödinger.

Figure 1.12 – Fil quantique confine les électrons dans deux dimensions.

Le fil étant orienté selon la direction z, le potentiel total V(x,y,z) peut toujours être exprimé
comme la somme d’un potentiel de confinement bidimensionnel et du potentiel le long du fil,

V (x, y, z) = V (x, y) + V (z). (1.74)

La fonction d’onde ψ(x, y, z) peut alors être exprimée comme suit ;

ψ(x, y, z) = ψ(x, y)ψ(z). (1.75)

En considérant le comportement des électrons à l’intérieur du fil, les équations finales du

18
mouvement séparées sont donc présentées comme suit ;
sachant que Le potentiel à l’intérieur du fil quantique est nul, tandis qu’il est infini à l’extérieur
du fil.

La première équation du mouvement d’une particule libre ;

ℏ2 ∂ 2 ψ(z)
− = Ez ψ(z). (1.76)
2m ∂x2

La fonction d’onde est donné par ;

2
s
nz πz
 
ψ(z) = sin . (1.77)
Lz Lz

L’énergie a pour expression ;


ℏ2 kz2 ℏ2 π 2 n2z
Ez = = . (1.78)
2m 2mL2z
La partie de l’équation définissant la particule confinée est exprimée comme suit :
" #
ℏ2 ∂ 2 ψ(x, y) ∂ 2 ψ(x, y)
− + = Ex,y ψ(x, y). (1.79)
2m ∂x2 ∂y 2
En appliquant la méthode de séparation des variables ψ(x, y) = ψ(x)ψ(y), on aura :
" #
ℏ2 ∂ 2 ψ(x) ∂ 2 ψ(y)
− ψ(y) + ψ(x) = Ex,y ψ(x)ψ(y), (1.80)
2m ∂x2 ∂y 2

en divisant par ψ(x)ψ(y) on obtient

1 ∂ 2 ψx (x) 1 ∂ 2 ψy (y)
" #
ℏ2
− + = Ex,y , (1.81)
2m ψx (x) ∂x2 ψy (y) ∂y 2


2 2
− ℏ ∂ ψ(x)

2 = Ex ψ(x)
⇒ 2m ∂x
. (1.82)
ℏ2 ∂ 2 ψ(y)
− = Ey ψ(y)

2m ∂x2

La solution des deux equations est ;


 q  
ψ(x)

= 2
sin
nx πx
⇒ Lx

Lx
 . (1.83)
= sin ny πy
q
ψ(y)
 2
Ly Ly

Les composantes d’énergie de confinement Ex et Ey sont données par :

ℏ2 π 2 n2x
Ex = , (1.84)
2mL2x
ℏ2 π 2 n2y
Ey = , (1.85)
2mL2y

19
ainsi, l’énergie totale Ex,y due au confinement, est :

n2y
!
ℏ2 π 2 n2x
Ex,y = Ex + Ey = + . (1.86)
2m L2x L2y
Densité d’états dans un fil quantique 1D :
Considérons le système unidimensionnel, le fil quantique dans lequel un seul mouvement dans
une direction est permis, le long de l’axe des z.

Figure 1.13 – Espace k dans un fil quantique unidimensionnel.

La longueur de la ligne dans l’espace k est 2dk.


La longueur occupée par un état unique est :


Vsingle state = kz = . (1.87)
L

Le nombre d’états quantiques dN(E), situé dans l’intervalle l’intervalle d’énergie dE, est ;

2dk
dN (E) = ·2 (1.88)
2π/L
avec
m 1
dk = √ · dE (1.89)
ℏ 2mE

L 2m 1
dN (E) = · √ · dE, (1.90)
π ℏ 2mE
L 2m 1
= ·( 2 )1/2 √ · dE, (1.91)
π ℏ E

L 2m 1/2 1
⇒ g1D (E) = ·( ) √ . (1.92)
π ℏ2 E

Figure 1.14 – La densité d’états en fonction de l’énergie dans un système unidimensionnel.

20
2.4 0D :
Dans une boîte quantique de taille finie(0D), les particules comme les électrons sont confinées
dans un espace tridimensionnel extrêmement réduit de l’ordre du nanomètre. À l’intérieur de
cette boîte, l’énergie potentielle est considérée comme nulle, ce qui permet aux particules de
se déplacer librement. En revanche, à l’extérieur de la boîte, l’énergie potentielle est supposée
être infiniment grande, ce qui empêche les particules de s’échapper, créant ainsi un confinement
efficace dans un volume très limité. L’équation de Schrödinger tridimensionnelle à l’intérieur
de la boîte quantique est formulée comme suit ;
!
ℏ2 ∂2 ∂2 ∂2
− + + ψ(x, y, z) = Ex,y,z ψ(x, y, z). (1.93)
2m ∂x2 ∂y 2 ∂z 2

Figure 1.15 – Boîte quantique tridimensionnelle de côtés Lx , Ly et Lz .

En exprimant de nouveau l’énergie totale Ex,y,z comme la somme des trois termes Ex , Ey et Ez ,
cette unique équation tridimensionnelle peut être décomposée en trois équations unidimension-
nelles,

ℏ2 ∂ 2 ψ(x)
− = Ex ψ(x), (1.94)
2m ∂x2
ℏ2 ∂ 2 ψ(y)
− = Ey ψ(y), (1.95)
2m ∂x2
ℏ2 ∂ 2 ψ(z)
− = Ex ψ(z). (1.96)
2m ∂z 2
La résolution de ces équqtions comme auparavant montre que la fonction d’onde tridimension-
nelle à l’intérieur de la boîte quantique est donnée comme suit ;

2
!
nx π ny π nz π
   
ψ(x, y, z) = ( )3/2 sin sin sin . (1.97)
L Lx Ly Lz

L’énergie de confinement dans cette boîte quantique peut être calculée de la manière sui-

21
vante :
n2y
!
ℏ2 π 2 n2x n2z
Ex,y,z = Ex + Ey + Ez = + + . (1.98)
2m L2x L2y L2z
Densité d’états dans une boîte quantique 0D :
Dans un système de dimension zéro, tel que les boîtes quantiques, les électrons ne peuvent
pas se déplacer librement en raison de la restriction spatiale, empêchant ainsi l’existence de
vecteurs d’onde k libres pour leur mouvement. Les états énergétiques dans ces structures sont
exclusivement discrets, ça veut dire qu’il n’existe pas de bandes d’énergie continues, menant à
des niveaux d’énergie quantifiés qui peuvent être décrits à l’aide d’une fonction delta,

g0D (E) = 2δ(E). (1.99)

Figure 1.16 – La densité d’états dans une boîte quantique 0D.

Cela signifie que la densité d’états dans une boîte quantique est discrète et le nombre d’états
est très limité sauf à des énergies spécifiques, où les états électroniques existent, caractérisée
par des pics nets et discrets correspondant aux niveaux d’énergie quantifiés.

3 Systèmes zéro-dimensionnels et leur réalisation expé-


rimentale
3.1 Boîte quantique
Les boîtes quantiques (QD) sont des nanocristaux semi-conducteurs caractérisés par des
propriétés optiques et électriques exceptionnelles, dues à la nature confinée de leurs niveaux
d’énergie quantique. La variation des propriétés optiques d’un matériau QD dépend de sa taille,
qui peut varier de quelques nanomètres à plusieurs dizaines de nanomètres [4]. En raison de
leurs petites dimensions, typiquement inférieures à la longueur d’onde de De Broglie des élec-
trons thermiques, les électrons dans les boîtes quantiques sont confinés dans un espace réduit.
Lorsque la taille des nanocristaux est inférieure au rayon de Bohr de l’exciton, les niveaux
d’énergie deviennent quantifiés conformément au principe d’exclusion de Pauli [4]. Plus la boîte
quantique est petit, plus l’énergie nécessaire pour confiner l’exciton est grande, ce qui augmente
l’énergie du photon émis. Ainsi, les boîtes quantiques de plus petite taille émettent des pho-
tons avec des longueurs d’onde plus courtes. La longueur d’onde d’émission peut être ajustée
en modifiant la durée de croissance ou la composition de la particule. Il est aussi possible de

22
varier les longueurs d’onde accessibles en changeant les éléments composants des nanocristaux
[6]. Grâce à l’effet de confinement quantique, ces particules affichent des propriétés optiques et
électroniques uniques, un rendement quantique élevé et une émission qui dépend de la taille,
ce qui les rend pertinentes pour diverses applications.

Les figures (1.16) et (1.17) illustrent comment l’énergie de la bande interdite et le spectre
de photoluminescence des boîtes quantiques dépendent de la taille.

Figure 1.17 – La relation entre la bande interdite et la taille des particules.

Figure 1.18 – La relation entre la taille de la boîte quantique et la longueur d’onde d’émission.

23
3.2 Elaboration des boîtes quantiques
Les boîtes quantiques peuvent être constitués de matériaux mono-élémentaires comme le
Germanium ou le Silicium, ou encore de semi-conducteurs composés, leur structure présente
des états électroniques distincts, comme ceux d’atomes artificiels. Grâce à leurs dimensions
réduites, les boîtes quantiques exhibent une variété de propriétés optiques et électroniques, chi-
miques dépendantes de la taille rarement observées dans d’autres matériaux, ce qui demande
un ajustement pratique en contrôlant la dimension des boîte quantiques.
Des techniques innovantes et variées ont été développées pour produire des structures per-
mettant d’observer des effets quantiques, notamment des effets en dimension zéro (0D). Ces
techniques ont permis de révéler des propriétés spécifiques liées à la structure des boîtes quan-
tiques (BQs). Un important travail a été consacré à la fabrication simple et reproductible de
structures de haute qualité, de taille réduite, variant de quelques nanomètres à plusieurs di-
zaines de nanomètres. La technique la plus couramment utilisée et la plus perfectionnée pour
la fabrication des boîtes quantiques est la méthode de croissance par auto-assemblage .
Croissance par auto-assemblage :
Depuis les premières découvertes des boîtes quantiques qui se formaient spontanément lors de
la croissance de couches contraintes [7,8], cette technique a connu un développement considé-
rable. Elle consiste de déposer sur un substrat un matériau dont le paramètre de maille est
sensiblement plus grand que celui du substrat (7.2 % pour le système InAs/GaAs). Le fort
désaccord de maille, est favorable à la formation de boites quantiques. Cependant, les résultats
parus montrent que les faibles dimensions de ces boites (reliées au fort désaccord paramétrique)
conduisent à un important confinement des porteurs, et à une énergie de transition des boites
vers 1 eV (1.24 µm).
Dans le processus Stranski-Krastanow, la croissance d’un matériau sous contrainte commence
par une phase planaire jusqu’à une épaisseur critique, puis bascule vers une formation tridi-
mensionnelle. Cette transition produit des îlots sur une couche de mouillage 2D, minimisant les
énergies de contrainte et de surface. Ces îlots, une fois recouverts par un matériau à plus grande
bande interdite, se transforment en boîtes quantiques cohérentes et sans défauts, mesurant de
10 à 25 nm de diamètre et de 4 à 10 nm de hauteur (Figure1.18). La forme et la taille des
boîtes quantiques dépendent des conditions spécifiques de croissance.

Figure 1.19 – Image capturée par TEM (microscopie électronique en transmission) d’une
boîte quantique auto-assemblée d’InAs/GaAs, produite via MBE.

La technique de croissance la plus courante est la méthode d’épitaxie par jets moléculaires
(MBE), est une technologie de dépôt et de croissance de films minces d’une couche mono-

24
cristalline d’un matériau sur un substrat également monocristallin, ainsi est une technique de
croissance sous ultravide (environ 10−10 Torr) dans laquelle des flux atomiques ou moléculaires,
issus de sources solides ou gazeuses, interagissent sur le substrat. Elle a été proposée indépen-
damment par J.R. Arthur et J.C. Tsang en 1966 et démontrée plus tard par J.R. Arthur et
A.Y. Cho en 1968 chez Bell Laboratories [9].
Principe de fonctionnement
L’épitaxie par jets moléculaires (MBE) se déroule dans une chambre à vide, où les pressions ex-
trêmement basses (de 10−8 à 10−12 Torr) réduisent la contamination et améliorent le contrôle
des réactions chimiques sur le substrat. Les matériaux, chauffés dans des cellules d’effusion,
s’évaporent et se dirigent en flux moléculaires vers le substrat, sans interaction avec d’autres
gaz, permettant une déposition précise, c’est ce qu’on vaut par le mot (jet). La croissance
épitaxiale organise les atomes en couches atomiques, préservant l’orientation cristalline du sub-
strat. La température des sources et du substrat affecte la vitesse de déposition et la qualité du
film. La croissance est monitorée en temps réel, utilisant des méthodes comme la réflectométrie
de haute énergie (RHEED : "est une technique d’analyse utilisée principalement pour
étudier les surfaces des matériaux cristallins durant la croissance de films minces
par épitaxie"), permettant des ajustements précis pour optimiser la qualité des structures
formées. maintenant afin de séparer l’étape de la nucléation de celle de la croissance pour amé-
liorer la qualité des QDs [10], consiste de suivre la réaction dans un microréacteur et d’utiliser
un gradient de température.
Ce travail examine Les boîtes quantiques auto-assemblés InAs/GaAs, valorisés pour leurs pro-
priétés optiques, les séparations importantes entre les niveaux orbitaux, et les effets de corréla-
tion de Coulomb [11], adaptés pour les technologies quantiques. Hirakawa et ses collaborateurs
ont affiné la croissance de ces boîte quantiques via l’oxydation anodique AFM, améliorant
leur qualité cristalline et permettant un contrôle précis de leur taille, entre 40 à 180 nm. Leur
recherche a également optimisé les propriétés de transport des boîtes quantiques en créant des
structures de jonction uniques, où 80 % des nanojonctions contiennent un BQ unique, suggérant
leur potentiel dans les dispositifs électroniques et le traitement de l’information quantique.
Dans les transistors à boîte quantique unique étudiés, des motifs semblables à des diamants
ont été observés dans les diagrammes de stabilité de Coulomb, confirmant leur fonctionnement
comme transistors à électron unique. En ajustant la taille des BQs, il a été possible de contrôler
les énergies de charge et les énergies de quantification orbitale, ce qui a des implications pour
leur utilisation dans les dispositifs électroniques et le traitement de l’information quantique.
Pour la croissance de ces BQs, les chercheurs ont utilisé la lithographie par faisceau d’élec-
trons pour préparer des substrats GaAs, puis ont effectué une gravure chimique suivie d’un
nettoyage approfondi. Ils ont ensuite créé des points d’oxyde précis avec un microscope à force
atomique, facilitant la nucléation contrôlée des BQs dans des nanotrous préparés sur le substrat,
conduisant à des BQs de haute qualité cristalline avec une méthode qui réduit la nucléation
indésirable.
Les figures (1.19d, 1.19e, et 1.19f) présentent les images de microscopie à force atomique illus-

25
trant les étapes du processus sur une surface d’échantillon.

Figure 1.20 – Schémas décrivant le processus de fabrication de boîtes quantiques InAs avec
contrôle de site par oxydation anodique assistée par microscopie à force atomique (AFM).

En ajustant le potentiel appliqué aux électrodes de contrôle ou en introduisant un champ ma-


gnétique externe, il est possible de réguler les propriétés des boîtes quantiques électrostatiques.
Ces dispositifs sont envisagés comme étant à l’avant-garde pour l’implémentation pratique de
qubits quantiques [12]. Les qubits sont constitués des spins de deux électrons situés dans deux
boîtes quantiques couplés et définis électrostatiquement. Leur couplage peut être modulé grâce
à des contrôles par portes, facilitant ainsi l’interaction entre les spins des deux électrons via
une interaction d’échange modulable, ce qui est crucial pour le développement de technologies
quantiques avancées.

26
CHAPITRE 2
TRAITEMENT DE L’INFORMATION QUANTIQUE.

1 principes de la théorie de de l’information quantique


La théorie classique de l’information, formulée par Claude Shannon après la Seconde Guerre
mondiale, est basée sur l’encodage de l’information dans des systèmes physiques suivant les
principes de la physique traditionnelle. Cette théorie est particulièrement efficace pour les
communications via des canaux conventionnels, comme les lignes téléphoniques, permettant
la quantification précise de l’information et l’établissement de limites pour la transmission et
le stockage des données dans des conditions de bruit.
Cette théorie met en lumière le lien entre l’information et sa manifestation physique, et
propose que l’application des principes de la mécanique quantique pourrait transformer radi-
calement la façon dont l’information est quantifiée et transmise à petite échelle.
La théorie quantique de l’information développe cette proposition en examinant les possi-
bilités de traitement de l’information offertes par les propriétés quantiques telles que la super-
position et l’intrication[13]. Elle nécessite une connaissance approfondie de la théorie classique
pour adapter ses principes aux particularités quantiques, intégrant des notions comme l’opéra-
teur de densité, l’entropie de von Neumann et la mesures d’intrication pour évaluer les états
quantiques.

1.1 Espace des Etats :


Dans la théorie de la mécanique quantique, l’état physique d’un système à tout moment
est entièrement déterminé par un vecteur |ψi ⟩ appartenant à un espace de Hilbert H , aussi
appelé espace des états. Cet espace est structuré comme un espace vectoriel de dimension n
muni d’une base orthonormée {|ϕi ⟩ i = 0, · · · , n − 1}

Chaque élément de cet espace H est qualifié de vecteur-Ket,représenté par |ψi ⟩ dont la
dimension est définie par les spécificités du système en question. Le vecteur dual de |ψi ⟩ est
symbolisé par ⟨ψi |. Tout état du système, incarné par le vecteur |ψ⟩ dans H peut être décomposé

27
comme une combinaison linéaire des vecteurs de la base orthonormée.
n−1
|ψ⟩ = (2.1)
X
ai |ϕi ⟩,
i=0

avec ai s’appellent les amplitudes de probabilité sont des coeffcients complexes, donnant les
amplitudes de projections ai = ⟨ϕi |ψ⟩ de l’état |ψ⟩ sur l’ensemble des états|ϕi ⟩ qui caractérisent
l’état du système.
La probabilité de trouver le système dans l’état |ϕi ⟩ n’est autre que|ai |2 avec i=0 |ai |2 = 1.
Pn−1

La fonction d’onde |ψ(t)⟩ doit être normalisée, ce qui signifie que sa norme au carré,
calculée par le produit scalaire ⟨ψ(t)|ψ(t)⟩, doit être égale à 1.
La fonction d’onde |ψ(t)⟩ doit représenter une valeur bien définie et unique à tout moment
t.
La fonction d’onde |ψ(t)⟩ doit présenter une amplitude qui reste bornée sur un intervalle
de temps limité.
Maintenant, lorsqu’un système est composé, c’est-à-dire qu’il est formé de plusieurs sous-
systèmes, l’espace des états de ce système global est représenté par le produit tensoriel des
espaces de Hilbert associés à chacun des sous-systèmes :

H = H1 ⊗ H2 ⊗ · · · ⊗ Hn . (2.2)

1.2 Opérateur ou matrice densité


L’opérateur densité ρ ou la matrice densité est un outil clé en mécanique quantique qui
encapsule tous les états possibles d’un système physique dans une unique matrice à un moment
donné. Elle est particulièrement utile pour simplifier les calculs dans le domaine de la théorie de
l’information quantique, examinant les systèmes couplés à leur environnement, ainsi il permet
de calculer les observables qui prennent en compte les effets de l’environnement sur le système.
Aussi elle joue un rôle central dans l’étude de la décohérence quantique, clarifiant la transition
des états purs aux états mixtes due à ces interactions.
Nous discuterons la structure de la matrice de densité dans le contexte d’états quantiques
purs et mixtes, ainsi que les propriétés associées à ces états.
Cas d’un état pur :
L’opérateur densité est définie par

ρ = |ψ⟩⟨ψ|, (2.3)

ρ est un opérateur hermitien positif avec trace unitaire. C’est-à-dire qu’il doit satisfaire les trois
conditions,
ρ2 = ρ ⇒ tr(ρ) = 1, ρ = ρ† , ⟨ϕi |ρ|ϕi ⟩ ≥ 0. (2.4)

28
L’état d’un système quantique est qualifié pur si et seulement si le système est associé à une
unique valeur propre non nulle. Cet état représente un niveau maximal de connaissance du
système, la préparation génère avec certitude l’état spécifié |ψ⟩.
Cas d’un état mixte :

Nous allons maintenant examiner le résultat de la mesure d’un état quantique mixte. Suppo-
sons que nous ayons un mélange de plusieurs états quantiques purs |ψi ⟩ associés à une probabilité
ai . Chaque état |ψi ⟩ peut être représenté par un vecteur dans l’espace H comme dans (2.1).
La matrice densité d’un état mixte est un mélange statistique de plusieurs états purs. Après la
mesure, le système quantique peut être dans l’un des n états purs possibles. Ainsi, la matrice
densité représentant le système globalest est donnée par :

ρ= ai ρi = (2.5)
X X
ai |ψi ⟩⟨ψi |,
i i

ai représente la probabilité que le système soit dans l’état normalisé |ψi ⟩, où i ai = 1,


P

et 0 ≤ ai ≤ 1.
Donc l’opérateur densité Pour un état mixte n’est pas un projecteur ρ2 ̸= ρ et tr(ρ2 ) < 1 , et
n’oublions pas qu’il est hermitien et positive, comme c’est le cas pour un état pur.

1.3 Qubit et sphère de Bloch


Dans les ordinateurs classiques, le bit est la plus petite unité d’information, stockant et
traitant les données sous forme binaire. Un bit ne peut avoir que deux valeurs, "0" ou "1". Cette
dualité binaire permet une manipulation efficace des informations numériques.

Par analogie avec le bit classique, un bit quantique ou qubit [14], élément de base de la
manipulation de l’information quantique, se distingue du bit classique en permettant la super-
position cohérente d’états |0 ⟩ ou |1⟩ dans des proportions variables. Cela permet une diversité
de valeurs, exploitable pendant les calculs.
En d’autres termes, un qubit représente l’état d’un système quantique à deux niveaux
{|0⟩ , |1⟩}, évoluant dans un espace de Hilbert H à deux dimensions donnée comme suit :

|ψ⟩ = α|0⟩ + β|1⟩. (2.6)

Où α et β sont des nombres complexes respectant la condition de normalisation |α2 | + |β 2 | = 1,


et les états |0⟩ et |1⟩ doivent être orthogonaux. les facteurs de phase globaux n’influencent pas
l’état physique, car ils ne changent pas les probabilités mesurables des observables. Seule la
différence de phase entre α et β est importante, on peut fixer la phase de l’état |0⟩ pour être
réelle et positive.
Un qubit(2.6) peut être représenté en termes de deux angles(θ, ϕ) comme suit :

29
! !
θ θ
|ψ⟩ = cos |0⟩ + eiϕ sin |1⟩. (2.7)
2 2
avec θ ∈ [−π, π] et ϕ ∈ [0, 2π], exprimant respectivement l’amplitude relative et la phase
relative des états de base. La sphère de Bloch représente les états purs à sa surface et les états
mixtes à l’intérieur, les plus mixtes se trouvant au centre. De nombreuses opérations sur les
qubits uniques, couramment utilisées en informatique quantique, se décrivent efficacement à
l’aide de cette représentation.

Figure 2.1 – Représentation géométrique d’un qubit sur la sphére de Bloch.

2 Théorie de l’information
2.1 Théorie classique de l’information
Les systèmes de communication comprennent une source d’information, un émetteur, un
canal bruyant, et un récepteur. L’information, représentée sous forme de données ou de connais-
sances échangées, reçues ou manipulées, peut être constituée de textes, symboles, ou séquences
de bits. La théorie de l’information se concentre principalement sur l’incertitude liée à l’appari-
tion de l’information plutôt que sur son contenu spécifique [15]. Par exemple, dans un téléphone,
un signal analogique encode les ondes sonores pour la transmission numérique. Tous les modes
de communication peuvent être codés en "bits," des unités représentant "0" ou "1."
Claude Shannon quantifie l’information en termes d’incertitude dans un cadre probabiliste,
plus un événement est improbable, plus il apporte d’informations, et inversement [16]. Les
concepts présentés par Shannon dans son article fondateur de 1948 constituent la base de la
théorie de l’information quantique, en se focalisant sur la quantification, le stockage, et la
transmission de l’information.

30
Figure 2.2 – Schéma d’un système de communication classique.

2.1.1 Mesure de l’information

Entropie de Shannon :
La probabilité et l’information sont liées par le concept d’entropie, qui a été introduit par Boltz-
mann pour expliquer les mélanges statistiques en thermodynamique. L’entropie de Shannon
H(xi ) évalue l’incertitude liée aux résultats d’une expérience aléatoire impliquant une variable
aléatoire X ≡ {x1 , x2 , . . . , xn } de taille finie, choisie parmi n symboles. Où chaque variable xi
correspond à un résultat de l’événement E avec la probabilité p(xi ). Cette mesure vise à quan-
tifier la quantité d’information fournie par un message révélant la survenue d’un événement.
La quantité d’information dépend de la probabilité p(xi ). Par conséquent, plus la probabilité
de l’événement E est élevée, moins le message qui annonce sa survenue apporte d’information.
Sur la base de cette situation, il est nécessaire qu’une fonction H(xi ) exprimant la quantité
 
d’information reçue d’un message soit décroissante avec p(xi ), c-à-d H(xi ) = f p(x) 1
, la fonction
f est nulle pour un événement qui n’apporte aucune information, ça veut dire que p(xi ) = 1
et f (1) = 0.
La quantité d’information de deux événements statistiquement indépendants x1 et x2 de
probabilité conjointe p(x1 , x2 ) est équivalente à la somme de leurs quantités individuelles d’in-
formation,
1
!
H(x1 , x2 ) = f ,
p(x1 , x2 )
1
!
=f ,
p(x1 )p(x2 ) (2.8)
1 1
! !
=f +f ,
p(x1 ) p(x2 )
= H(x1 ) + H(x2 ).
On peut conclure que la fonction f est une fonction logarithmique. Conformément à ce choix,
la base du logarithme ici égale à 2 ce qui correspond aux deux valeurs du "bit". Dans cette
direction, le contenu d’information émanant de la source d’information s’appelle son entropie
de Shannon [17]. Elle est défnie par :

H(X) = p(xi )H(xi ) = − p(xi ) log2 (p(xi )) (2.9)


X X

xi xi

Veuillez noter que l’entropie d’une variable aléatoire X est toujours positive et ne dépend pas
des valeurs spécifiques de l’ensemble xi . Elle est uniquement fonction des probabilités p(xi )
associées à ces valeurs.
L’entropie relative :

31
La divergence relative de de Kullback-Leibler, également appelée entropie relative, est une
mesure importante de l’entropie qui quantifie la distance relative entre deux fonctions de densité
de probabilité.
Considérons deux ensembles de variables aléatoires classiques X et Y donnant les résultats {xi }
et {yi } avec des probabilités px et py , respectivement. L’entropie relative notée par H(X∥Y )
est définie comme suit :
!
py
H(X∥Y ) = − px log2 =− px log2 (py ) − H(X) (2.10)
X X

x,y px x,y

L’entropie relative est toujours positive, H(X∥Y ) ≥ 0, et cette condition d’égalité ne se


vérifie que si les deux distributions sont identiques px = py pour toutes les valeurs de x et
de y. Cette propriété peut être démontrée en utilisant l’inégalité mathématique suivante :
log2 (x) ln 2 = ln(x) ≤ x − 1 pour tout x avec égalité à x = 1.
on aura : !
py
H(X∥Y ) = − px log2
X

x,y px
1 X
!
py
≥ px 1 −
ln 2 x,y px
1 (2.11)
= (px − py )
X
ln 2 x,y
1 X
= ( px − py ) = 0.
X
ln 2 x y
| {z } | {z }
=1 =1

Cette caractéristique de l’entropie relative, à savoir qu’elle est toujours non négative et nulle
uniquement lorsque les distributions sont identiques, explique pourquoi elle est perçue comme
une mesure de la distance entre deux distributions en théorie de l’information. Bien qu’elle
ne soit pas une distance métrique au sens classique (puisqu’elle n’est pas symétrique) [18],
l’entropie relative quantifie à quel point une distribution diffère d’une autre.
L’entropie conjointe :
Soit X et Y des variables aléatoires discrètes avec une distribution de probabilité conjointe
p(x, y). L’entropie conjointe H(X, Y ) quantifie l’incertitude qui subsiste à propos de Y après
avoir connu la valeur de X. Représentant ainsi l’information totale combinée entre ces deux
variables aléatoires. Elle est définie de la manière suivante :

H(X, Y ) = − p(x, y) log2 p(x, y). (2.12)


X

x,y

L’entropie conjointe est une mesure symétrique, ce qui signifie que H(X, Y ) =H(Y, X) car
H(X, Y ) mesure simplement l’information combinée de X et Y ensemble, l’ordre des variables
aléatoires.
Par ailleurs, si X et Y sont indépendants, l’entropie conjointe se calcule comme la somme des
entropies de chaque variable, en raison de la propriété additive. Cela s’explique par le fait que

32
connaître une variable n’apporte aucune information sur l’autre lorsqu’elles sont indépendantes,
ainsi, l’entropie conjointe se calcule comme :

H(X, Y ) = H(X) + H(Y ). (2.13)

L’entropie conditionnelle :
Supposons maintenant, que les variables aléatoires X et Y ne sont pas statistiquement indé-
pendantes, indiquant qu’elles présentent des corrélations. Le contenu informationnel condition-
nel H(X | Y ) représente le niveau d’incertitude associé à la réalisation de X lorsqu’on connaît
la valeur de Y. Cette mesure indique en moyenne le manque d’information sur X en disposant
de toutes les informations sur Y. Elle se définit comme suit :

H(X | Y ) = − p(x | y) log2 p(x | y). (2.14)


X

x,y

Où la probabilité conditionnelle est est donnée par la relation suivante :

p(x, y) p(y | x) p(x)


p(x | y) = = . (2.15)
p(y) p(y)

L’interprétation de l’entropie conditionnelle H(X | Y ) suggère immédiatement qu’elle de-


vrait être inférieure ou égale à l’entropie H(X), cela signifie que l’information obtenue d’une
variable supplémentaire Y ne peut pas accroître l’entropie de la variable X.
Pour démontrer cette égalité impliquant l’entropie conditionnelle H(X | Y ), il est crucial d’ap-
pliquer l’inégalité de Jensen pour les fonctions f concaves, pour les valeurs t1 · · · tn et les poids
λ1 · · · λn ∈ [0, 1] avec i λi = 1 il est vrai que : i=1 λi f (ti ) ≤ f ( i=1 λi ti ) ,
P Pn Pn

on aura donc :
X p(x, y) p(x, y)
H(X/Y ) = − log2
x,y p(y) p(y)
p(y)
= p(x, y) log2
X

x,y p(x, y)
p(x, y) p(y)
= log2
X
p(x)
x,y p(x) p(x, y)
(2.16)
p(x, y) p(y)
= log2
X X
p(x)
x y p(x) p(x, y)
p(x, y) p(y)
p(x) log2
X X

x y p(x) p(x, y)
1
= p(x) log2 = H(X).
X

x p(x)
L’entropie est concave et la non-négativité de l’entropie conditionnelle découle de celle de l’en-
tropie globale. Elle représente la moyenne pondérée de H(X | Y = y) par la densité p(x).
Même en connaissant Y, la réalisation aléatoire de X apporte toujours des bits d’information,
justifiant l’intuition selon laquelle l’entropie conditionnelle reste positive.

33
L’entropie conditionnelle est liée à l’entropie conjointe par cette équation :

H(X, Y ) = H(X) + H(Y /X) = H(Y ) + H(X/Y ). (2.17)

Information mutuelle :
Cette mesure évalue l’information partagée entre les variables aléatoires X et Y en calculant
l’entropie conditionnelle à partir de l’entropie totale d’une variable. Elle sert à quantifier les
corrélations globales entre ces deux variables, constituant un cas particulier d’entropie rela-
tive. En comparant la distribution conjointe p(x,y) au produit des distributions individuelles
p(x)·p(y), elle identifie les liens de dépendance entre elles ;
!
p(x, y)
I(X; Y ) = H(p(x, y)∥p(x)p(y)) = p(x, y) log2
X

x,y p(x)p(y)
=− p(x, y) log2 p(x) + p(x, y) log2 p(x/y)
XX XX

x y x y
(2.18)
= H(X) − H(X/Y )
= H(Y ) − H(Y /X)
= H(X) + H(Y ) − H(X, Y ).

L’information mutuelle, d’après l’équation (2.18), représente la réduction de l’incertitude d’une


variable en connaissant une autre. Si elle est élevée, cela signifie une forte réduction d’incerti-
tude, alors qu’une faible valeur suggère une réduction minime. Une information mutuelle nulle
indique l’indépendance des variables.

Figure 2.3 – Diagramme de Venn pour la représentation de différentes mesures d’information.

Le diagramme de Venn illustre les relations entre l’information mutuelle I(X; Y ), l’entropie
conjointe H(X, Y ), l’entropie conditionnelle H(X | Y ), ainsi que les entropies de Shannon H(X)
et H(Y ) des variables aléatoires X et Y.

34
2.2 Théorie quantique de l’information
La théorie quantique, intrinsèquement probabiliste, examine l’impact des principes de la
mécanique quantique sur le stockage, la transmission, et le traitement de l’information. Cela a
mené à la création de la théorie de l’information quantique, qui fusionne la mécanique quantique
et la théorie de l’information. Cette nouvelle théorie introduit le concept de qubits, éléments
capables de représenter plusieurs états simultanément grâce à la superposition.
La théorie de l’information quantique, qui étend la théorie de l’information classique de
Shannon, permet de comprendre à la fois l’incertitude classique et quantique dans un état
quantique. Elle exploite les propriétés de la mécanique quantique pour mesurer cette incertitude
et quantifier l’information ainsi que les corrélations présentes dans les systèmes quantiques.
La notion de qubit d’information, distincte de celle du qubit physique, est au cœur de
cette théorie. Alors qu’un qubit physique peut décrire l’état quantique d’un électron ou d’un
photon, un qubit d’information est l’unité de base pour mesurer l’information dans les systèmes
quantiques, souvent codée par des caractéristiques telles que la polarisation des photons ou le
spin des particules. Ces informations sont associées à un état quantique représenté par un
opérateur densité dans un espace de Hilbert [19,20].
Un aspect remarquable de la théorie est que l’entropie conditionnelle quantique peut être
négative pour certains états quantiques, une situation impossible dans la physique classique.
Cette caractéristique souligne des corrélations plus fortes entre les états quantiques intriqués
que celles observés dans le monde classique, phénomène décrit sous le terme d’information
cohérente. Par exemple, un état maximalement intriqué entre deux qubits peut contenir deux
bits d’information mutuelle quantique, comparée à un bit pour l’information mutuelle maximale
entre deux bits corrélés dans le cadre classique.

2.2.1 Mesure de l’information

Entropie de von Neumann :


L’entropie de Shannon quantifie l’incertitude dans une distribution de probabilités classique.
De manière analogue, John von Neumann a défini l’entropie en mécanique quantique à l’aide
de l’opérateur densité ρ [21]. Cette mesure permet de quantifier l’information présente dans
un état quantique, ce qui est accompli en évaluant l’état ρ par une mesure projective. Si ρ
représente l’état de densité d’un système quantique X, l’entropie de Von Neumann est définie
par la formule suivante :
S(ρ) = −tr(ρ log2 ρ). (2.19)

Si les valeurs propres de ρ sont notées λi , où |ψi ⟩ sont les vecteus propres, la définition de Von
Neumann peut être reformulée comme suit :

S(ρ) = H(λi ) = − λi log2 λi . (2.20)


X

35
pour les calculs, c’est généralement cette formule qui est la plus utilisé. où H(λi ) est l’entropie
de Shannon. L’entropie de von Neumann est donc équivalente à l’entropie de Shannon de la
distribution de probabilité associée à la diagonalisation de ρ.
De plus, l’entropie de von Neumann satisfait les propriétés suivantes :
l’entropie de von Neumann est toujours positive ( S(ρ) ≥ 0) .
pour un état pur |ψ⟩ , la matrice densité possède une seule valeur propre, qui est égale
à 1. ( log2 ρ = 0) l’entropie de von Neumann est nulle S(ρ) = 0 .
Pour un état mixte maximal, où chacun des N états purs possède une probabilité égale,
cet état mixte représente le degré maximal d’incertitude. Son entropie de von Neumann,
qui est log2 N , est en cohérence avec l’entropie de Shannon.
L’entropie de von Neumann est sous-additive : S(ρAB ) ≤ S(ρA ) + S(ρB ). L’égalité n’ aura
lieu que si ρAB = ρA ⊗ ρB .
Pour un état pur ρAB , on a S(ρA ) = S(ρB ).
si S (ρAB ) est une fonction concave, où λ1 · · · λn ≥ 0, avec λi = 1 on aura :
Pn
i=1

n n
!
λi S(ρi ). (2.21)
X X
S λi ρi ≥
i=1 i=1

L’entropie d’un opérateur densité est invariante par rapport aux isométries U, dans le
sens suivant :
S(ρ) = S(U ρU † ). (2.22)

L’inégalité triangulaire pour un système bipartite AB est donné par :

S(ρAB ) ≥ |S(ρA ) − S(ρB )| . (2.23)

Entropie quantique conjointe :


Dans un système quantique à deux parties, l’opérateur densité ρAB représente l’état global,
tandis que les matrices densité réduites des sous-systèmes sont données par ρA et ρB . L’entropie
conjointe de von Neumann des sous-systèmes A et B correspond à celle de l’état global du
système :
S(A, B) = S(ρAB ). (2.24)

Entropie quantique conditionnelle :


L’entropie conditionnelle de von Neumann du système A, conditionnée par le système B, est
définie comme suit :
S(ρA |ρB ) = S(ρAB ) − S(ρB ). (2.25)

Cette formule refléte la quantité d’information ou d’incertitude restante sur le système A après
avoir pris en compte l’état du système B.

Entropie quantique relative :


Supposons que ρ et σ soient des opérateurs de densité. L’entropie relative de ρ par rapport à σ

36
est définie par :

S(ρ ∥ σ) = Tr [ρ (log ρ − log σ)] = −S(ρ) − Tr(ρ log σ). (2.26)

L’entropie relative quantique est non négative, un résultat connu sous le nom d’inégalité de
Klein. Cela signifie, d’un point de vue statistique que, l’état ρ ne peut pas être plus désordonné
(ou plus incertain) par rapport à l’état σ selon les mesures définies par l’entropie relative.
L’information mutuelle quantique :
L’information mutuelle quantique d’un état bipartite ρAB ∈ D(SA ⊗SB ) est définie de la manière
suivante :

I(ρAB ) = S(ρAB ∥ ρA ⊗ ρB ) (2.27)


= Tr[ρAB log2 ρAB ] − Tr[ρAB log2 (ρA ⊗ ρB )] (2.28)
= S(ρA ) + S(ρB ) − S(ρAB ). (2.29)

Elle concerne l’interprétation des corrélations totales entre deux sous-systèmes A et B d’un
système quantique bipartite AB. Elle est vue comme un cas particulier de l’entropie relative
entre l’état ρAB et l’état (ρA ⊗ ρB ). Une valeur élevée d’information mutuelle indique un fort
degré de corrélation entre A et B.
Notez que l’information mutuelle quantique est toujours non négative grâce à la sous-
additivité de l’entropie de von Neumann, et qu’elle est nulle uniquement pour un état produit
ρAB = ρA ⊗ ρB .

3 Introduction à l’intrication quantique


3.1 Définition :
L’intrication quantique est une forme particulière de corrélations quantiques, essentielle
pour améliorer les tâches de traitement de l’information quantique [22]. Elle est fondamentale
pour tous les protocoles de communications quantiques, rendant ces derniers possibles et plus
sécurisés. L’étude de l’intricationa commencé avec les inégalités de John Bell en 1964 [23].
L’intrication est un phénomène quantique où deux particules ou plus partagent les mêmes
propriétés, et la mesure de l’état de l’une d’elles détermine instantanément l’état des autres,
indépendamment de la distance entre elles [24].
Considérons un système quantique bipartite AB, composé de deux sous-systèmes A et B.
Un état quantique pur |ψ⟩ est dit séparable s’il peut être exprimé comme

|ψAB ⟩ = |ϕA ⟩ ⊗ |φB ⟩ ≡ |ϕA ⟩|φB ⟩, (2.30)

où |ϕA ⟩ ∈ HA et |φB ⟩ ∈ HB . Dans ce cas, les matrices de densités réduites ρA = |ϕA ⟩⟨ϕA | et
ρB = |φB ⟩⟨φB | sont dites des états purs.

37
D’autre part, On dira que le système composite est dans un état intriqué si |ψAB ⟩ ∈ H ne peut
pas être exprimé comme un produit tensoriel des états de deux sous-systèmes A et B.

|ψAB ⟩ =
̸ |ϕA ⟩ ⊗ |φB ⟩. (2.31)

Alors que les sous-systèmes A et B sont dans un état intriqué, et |ψAB ⟩ un état pur intriqué,
et les opérateurs densité réduite ρA et ρB correspondent à des états mixtes.

|ψAB ⟩ = | 01⟩ est un état pur séparable.


Les états de Bell sont des exemples d’états non séparables et représentent en fait des cas
d’intrication maximale.

1 1
|ϕ± ⟩ = √ (|00⟩ ± |11⟩), et |ψ ± ⟩ = √ (|01⟩ ± |10⟩). (2.32)
2 2

Dans un scénario étudié, deux particules quantiques intriquées voyagent dans des directions
opposées. Lorsqu’une particule est mesurée, l’état de l’autre particule est instantanément déter-
miné, peu importe la distance qui les sépare. Ce comportement suggère une connexion directe
et instantanée entre les particules, défiant l’idée que rien ne peut se déplacer plus vite que la
lumière. Cette situation illustre le célèbre paradoxe EPR, introduit par Einstein, Podolsky et
Rosen. Ils ont utilisé cette idée pour questionner la complétude de la mécanique quantique,
mettant en lumière les étranges et profondes implications de l’intrication quantique sur notre
compréhension de la réalité [25.26].

3.2 Quantification du degré d’intrication


Les états intriqués sont essentiels dans les protocoles de l’information quantique et doivent
être quantifiés pour évaluer leur suffisance pour des tâches spécifiques.
Quantitativement, l’intrication d’un état ρ, notée E(ρ), avec les propriétés suivantes [27] :
si la matrice densité ρ décrit un état séparable, alors la mesure d’intrication E(ρ) s’annulle.
E(ρ) est invariante sous une transformation unitaire locale ce qui implique une mesure
d’intrication invariante en cas de changement local de la base :
 
E(ρ) = UA ⊗ UB ρUA† ⊗ UB† . (2.33)

si ρ est l’opérateur densité d’un état maximalement intriqué, E(ρ) = 1.


il est nécessaire que 0 ≤ E(ρ) ≤ 1.
Une autre caractéristique commune à la majorité des mesures d’intrication est la convexité,
ce qui signifie que l’intrication doit diminuer lors de la combinaison de deux ou plusieurs
états, !
pi E(ρi ). (2.34)
X X
E pi ρ i ≤
k i

38
Entropie d’intrication :
Pour un état pur bipartite ρAB , l’entropie de von Neumann est une mesure de l’intrication

E(ρAB ) = E(ρA ) = E(ρB ) (2.35)

avec
E(ρA ) = −tr(ρA log2 ρA )

et
E(ρA ) = −tr(ρA log2 ρA )

Intrication de formation
L’intrication formation [28,29] d’un état mixte ρ est définie en tant que l’intrication minimale
observée à travers toutes les décompositions possibles en états purs d’un état mixte bipartite.
Elle s’écrit :
Ef (ρ) = min (2.36)
X
pi E(|ψi ⟩).
{pi ,|ψi ⟩}
i

L’intrication de formation est caractérisée par la décomposition générale de l’état qui fournit
l’intrication à l’état pur minimale.
Wootters a formulé l’intrication de formation pour n’importe quel état de deux qubits en
utilisant l’équation suivante :

1
 q 
Ef (ρ) = H (1 + 1 − |C(ρ)|2 ) , (2.37)
2

où H(x) est la fonction de L’entropie binaire définit comme H(x) = - x log2 x − (1 − x) log2 (1 −
x) et C(ρ) est la concurrence de l’état ρ.
La concurrence est un indicateur fiable du degré d’intrication d’un système. Pour un état
maximalement intriqué, elle atteint sa valeur maximale, C(ρ) = 1. À l’inverse, un état séparable
affiche une concurrence de zéro. Ainsi, la concurrence varie de manière monotone avec l’intensité
de l’intrication.
concurrence :
Pour un état pur |ψ⟩ d’un système bipartie à deux qubits, la concurrence C(|ψ⟩) est définie
par :
C(|ψ⟩) = |⟨ψ|ψ̃⟩| = |⟨ψ|(σy ⊗ σy )|ψ ∗ ⟩|, (2.38)

où On définit l’état "spin-flip"|ψ̃⟩ correspondant à l’état |ψ⟩ comme suit :

|ψ̃⟩ = (σy ⊗ σy )|ψ ∗ ⟩, (2.39)


 
0 −i
avec σy désigne la matrice de Pauli, σy =  ,
i 0
et |ψ ∗ ⟩ est le conjugué complexe de |ψ⟩.
L’extension de la concurrence aux états mixtes peut être reformulée en termes de l’opérateur
densité ρ, comme la concurrence moyenne d’un ensemble d’états purs représentant ρ, obtenue

39
par une minimisation sur toutes les décompositions à l’état pur,

C(ρ) = min{pi , |ψi ⟩} (2.40)


X
pi C(|ψi ⟩),
i

où ρ = i pi |ψi ⟩⟨ψi | sont les états purs normalisées d’un système bipartite.
P

Considérons ρ∗ comme étant l’opérateur conjugué de ρ. On définit alors l’opérateur ρ̃ de la


manière suivante :
ρ̃ = (σy ⊗ σy ) ρ∗ (σy ⊗ σy ) . (2.41)

Si λi sont les racines carrés des valeurs propres de ρρ̃, arrangées dans un ordre décroissant,
la concurrence C(ρ) est donnée par [28],
 q q q q 
C(ρ) = Max 0, λ1 − λ2 − λ3 − λ4 . (2.42)

Négativité bipartite :
La négativité bipartite est une mesure quantitative de l’intrication quantique dans des systèmes
bipartites qubit-qubit, applicable tant aux états purs qu’aux états mixtes. Définie initialement
par Guifrè Vidal et Reinhard F. Werner [30], cette mesure est basée sur la norme de
trace de la matrice de densité partiellement transposée du système.

∥ρTB ∥1 − 1
N (ρ) = , (2.43)
2

avec ρTB désigne la transposition partielle


q
de ρ par rapport à l’un des sous-systèmes, où la
norme de trace est définie par ∥ρ ∥1 = Tr ρ B ρTB † .
TB T

L’existence des valeurs propres négatives de ρTB indiquent l’existence d ’intrication.


La négativité est une mesure extrêmement pratique et facile à calculer pour évaluer l’intrication
dans tous les états mixtes d’un système bipartite quelconque.

40
Bibliography

[1] Bangal M et al 2005 Semiconductor nanoparticles. in IWNMS 2004 Proc. of the Int. Work-
shop on Nanomaterials, Magnetic Ions and Magnetic Semiconductors Studied Mostly by Hyper-
fine Interactions (IWNMS 2004) held in Baroda, India, 10–14 February 2004 (Berlin)(Springer)
[2] Agarwal, Kushagra and Mondal, Sandip and Rai, [Link] dots : An overview
of synthesis, properties, and [Link] Research Express.2023
[3]Ahamed, M Irshad and Ahamed, Mansoor and Muthaiyan, R,International,Modelling of den-
sity of states and energy level of chalcogenide quantum dots Review of Applied Sciences and
Engineering,13,2021
[4]Mouna Zouaoui. Etude des propriétés électroniques des boîtes quantiques InAs/InP parspec-
troscopie de défauts profonds (DLTS) pour des applications optoélectroniques. Electro-nique.
INSA de Lyon, 2013. Français. ffNNT : 2013ISAL0092ff. fftel-01066429f 10
[5]Rosenthal, S. J. ; Chang, J. C. ; Kovtun, O. ; McBride, J. R. ; Tomlinson, I. D., Biocompatible
quantum dots for biological applications. Chem Biol 2011, 18, 10-24
[6] Hutter, E. ; Maysinger, D., Gold nanoparticles and quantum dots for bioimaging. Microsc
Res Tech 2011, 74, 592-604.
[7] R. Nötzel, J. Temmyo et T. Tamamura, Self-organized growth of strained InGaAs quantum
disks, Nature 369, 131 (1994).
[8] P. M. Petroff et S. P. DenBaars, MBE and MOCVD growth and properties of self-assembling
quantum dot arrays in III-V semiconductor structures, Superlatt. Microstruc. 15, 15 (1994).
[9] Al Y Cho and JR Arthur. Molecular beam epitaxy. Progress in solid state chemistry,10 :157–191,
1975
[10]Zattoni, A. ; Rambaldi, D. C. ; Reschiglian, P. ; Melucci, M. ; Krol, S. ; Garcia, A. M. ;
SanzM edel, A.; Roessner, D.; Johann, C., Asymmetricalf lowf ield−f low fractionation with multi-
angle light scattering detection for the analysis of structured nanoparticles. J Chromatogr A
2009, 1216, 9106-12
[11]D. Bimberg, M. Grundmann, and N. N. Ledentsov, Quantum Dot Hetero-structures (Wiley,
Chichester, 1999).
[12] Jason R Petta, Alexander Comstock Johnson, Jacob M Taylor, Edward A Laird, Amir
Yacoby, Mikhail D Lukin, Charles M Marcus, Micah P Hanson, and Arthur C Gos ?sard.
Coherent manipulation of coupled electron spins in semiconductor quantum dots. Science,
309(5744) :2180–2184, 2005.
[13]C. G. Timpson, Quantum Information Theory and The Foundations of Quantum Mecha-
nics. arXiv :0412063 (2004).
[14]B. W. Schumacher, Quantum coding, Phys. Rev. A, 51 (1995) 2738.
[15]R. V. L. Hartley, Transmission of information, Bell Syst. Techn. J, 7 (1928) 535-563
[16]S. Verdu, Fifty Years of Shannon Theory, IEEE Transaction on information theory, 44
(1998) 2057-2078.
[17] C. E. Shannon, A Mathematical Theory of Communication, Bell System Technical Jour-
nal, 27 (1948) 379-423.

41
[18] Cambridge University Press,Classical Information and Entropy,
DOI :https ://[Link]/10.1017/97813,16809976.013,2017.
[19]C. Cohen-Tannoudji, B. Diu and F. Laloë, Quantum Mechanics, Vol. I, II, Paris-New
York,(1977).
[20] J. von Neuman, Mathematische Grundlagen der Quantenmechanik, Springer, Berlin(1932) ;
transl. by E. T. Beyer : Mathematical Foundations of Quantum Mechanics, Princeton Univer-
sity Press, Princeton (1955).
[21]M. A. Nielsen and I. L. Chuang, Quantum Computation and Quantum Information, Cam-
bridge University Press, Cambridge, (2000)
[22]S. Hill and W. K. Wootters, Entanglement of a pair of quantum bits. Phys. Rev. Lett, 78
(1997) 5022
[23]Antoine Tilloy,Cours 11 : Mécanique Quantique IV.
[24] O. Landon-Cardinal. Evolution des systèmes quantiques ouverts : décohérence et informa-
tique quantique. Rapp. tech. Mémoire. 2009.
url :https ://[Link]/xmlui/handle/1866/3447.
[25]Vincenzo Savona, traitement quantique de l’information, notes de cours.
[26]M Le Bellac. Physique quantique-Fondements Tome 1 : Fondements, 2013, EDP sciences.
[27]C. Eltschka and S. Jens, Quantifying entanglement resources, J. Phys. A : Math. Theor,
47 (2014) 424005.
[28]W.K. Wootters, Entanglement of Formation of an Arbitrary State of Two Qubits, Phys.
Rev. Lett., 80, 2245 (1998).
[29]W.K. Wootters, Entanglement of formation and concurrence., Quant. Inf. Comp., 127
(2001).
[30] G. Vidal, R.F. Werner, Computable measure of entanglement, Phys. Rev. A, 65 (2002)
032314.

42

Vous aimerez peut-être aussi