0% ont trouvé ce document utile (0 vote)
26 vues3 pages

Outils mathématiques pour l'IA

Le chapitre 2 présente les outils mathématiques essentiels pour l'intelligence artificielle, en mettant l'accent sur l'algèbre linéaire. Il aborde des concepts clés tels que les espaces vectoriels, les sous-espaces engendrés, et la décomposition en valeurs singulières (SVD). Ces outils sont fondamentaux pour représenter et optimiser les données et les modèles en intelligence artificielle.

Transféré par

hanaeechcharqy925
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
26 vues3 pages

Outils mathématiques pour l'IA

Le chapitre 2 présente les outils mathématiques essentiels pour l'intelligence artificielle, en mettant l'accent sur l'algèbre linéaire. Il aborde des concepts clés tels que les espaces vectoriels, les sous-espaces engendrés, et la décomposition en valeurs singulières (SVD). Ces outils sont fondamentaux pour représenter et optimiser les données et les modèles en intelligence artificielle.

Transféré par

hanaeechcharqy925
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 2 — Outils

mathématiques pour l’intelligence


artificielle
0.1 Introduction
L’intelligence artificielle moderne repose fortement sur une variété d’outils mathé-
matiques. Ces outils permettent de représenter les données, de concevoir les modèles,
d’optimiser leurs performances et d’interpréter leurs résultats.

0.2 Algèbre linéaire


L’algèbre linéaire fournit un cadre pour représenter les données sous forme de vecteurs
ou de matrices. Par exemple, un jeu de données contenant m échantillons et n caractéris-
tiques peut être représenté par une matrice X ∈ Rm×n .

0.2.1 Rappels et compléments en algèbre linéaire

0.3 Espace vectoriel normé Rn


On considérera toujours l’espace des vecteurs Rn muni de sa structure d’espace vecto-
riel normé de dimension n :
— Pour tous x, y ∈ Rn , la somme des vecteurs x et y est notée :

x + y = [xi + yi ]1≤i≤n

— Pour tout λ ∈ R, on définit la multiplication scalaire par :

λx := λ · x = [λxi ]1≤i≤n

— La norme euclidienne ∥ · ∥ sur Rn est définie, pour tout vecteur x ∈ Rn , par :


v
u n
uX
∥x∥ := t x2 i
i=1

On dira que x ∈ Rn est unitaire si ∥x∥ = 1.

1
— Pour tous vecteurs x, y ∈ Rn , le produit scalaire dérivé de la norme euclidienne est
noté x⊤ y et défini par :
n

X
x y := xi y i
i=1

Il s’agit d’une forme bilinéaire symétrique définie positive. En particulier, on a


x⊤ y = y ⊤ x.

0.3.1 Famille génératrice et sous-espace engendré


— There exists a libre family and a génératrice of Rn of size n. For example, any
vecteur x of Rn can s’écrire as :
n
X
x= xi ei
i=1

1 eposition 0 · · · 0]⊤ is the i-ème vecteur of the base


where ei = [0 · · · 0 |{z}
i
canonique of Rn .

Définition 0.1 (Sous-espace engendré). Soient x1 , . . . , xp des vecteurs de Rn . Le sous-


espace engendré par ces vecteurs est défini comme le sous-espace vectoriel :
( p
X
)
vect(x1 , . . . , xp ) := x = α i xi αi ∈ R
i=1

Ce sous-espace est de dimension au plus min(n, p).

Définition 0.2 (Sous-espaces matriciels). Soit une matrice A ∈ Rm×n . On définit deux
sous-espaces fondamentaux :
— Le noyau (ou nucleus ou null space en anglais) de A est défini par :
n o
ker(A) := x ∈ Rn Ax = 0m

— L’image (ou range space) de A est définie par :


n o
Im(A) := y ∈ Rm ∃x ∈ Rn , y = Ax

La dimension de l’image est appelée le rang de A, noté rang(A), et vérifie :

rang(A) ≤ min(m, n)

Théorème 0.1 (Théorème du rang). Pour toute matrice A ∈ Rm×n , on a :

dim(ker(A)) + rang(A) = n

2
0.3.2 Décomposition en valeurs singulières (SVD)
La décomposition en valeurs singulières (SVD) d’une matrice est une méthode cen-
trale en algèbre linéaire. Elle est parfois qualifiée de « théorème fondamental de l’algèbre
linéaire » (Strang, 1993), car elle peut s’appliquer à toute matrice, qu’elle soit carrée ou
non, et elle existe toujours.
De plus, comme nous allons le voir dans ce qui suit, la SVD d’une matrice A, qui
représente une application linéaire Φ : V → W , permet de quantifier le changement de
géométrie entre les deux espaces vectoriels sous-jacents.
Pour un aperçu plus approfondi des fondements mathématiques de la SVD, on pourra
se référer aux travaux de Kalman (1996) et Roy et Banerjee (2014).

Théorème 0.2 (Décomposition en valeurs singulières (SVD)). Soit A ∈ Rm×n une ma-
trice rectangulaire de rang r ∈ [0, min(m, n)]. La décomposition en valeurs singulières de
A est une factorisation de la forme :

A = U ΣV ⊤

où :
— U ∈ Rm×m est une matrice orthogonale dont les colonnes sont les vecteurs ui ,
i = 1, . . . , m,
— V ∈ Rn×n est une matrice orthogonale dont les colonnes sont les vecteurs vj ,
j = 1, . . . , n,
— Σ est une matrice m × n diagonale, telle que Σii = σi ≥ 0 et Σij = 0 pour i ̸= j.

Vous aimerez peut-être aussi