Il 0% ha trovato utile questo documento (0 voti)
461 visualizzazioni190 pagine

Algebra Lineare - Premium

Caricato da

tommasopasquetto
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
461 visualizzazioni190 pagine

Algebra Lineare - Premium

Caricato da

tommasopasquetto
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd

Appunti del Corso di

Algebra Lineare e Geometria (Canale E)


Laurea Triennale in Ingegneria Biomedica

Roberto Roberti
Dipartimento di Ingegneria dell’Informazione
Università di Padova
[Link]@[Link]

Anno Accademico 2021-2022


Indice

I Spazi Vettoriali 1

1 Campi e Spazi Vettoriali 2


1.1 Introduzione ai Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Insiemi di Numeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Combinazioni Lineari di Vettori e Indipendenza Lineare 7


2.1 Esempi di Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Combinazioni Lineari di Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Vettori Linearmente Indipendenti e Dipendenti . . . . . . . . . . . . . . . . . . . 9

3 Sottospazi Vettoriali 11
3.1 Esercizi su Indipendenza Lineare di Vettori . . . . . . . . . . . . . . . . . . . . . 11
3.2 Sottospazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

4 Particolari Sottospazi Vettoriali 15


4.1 Unione e Intersezione di Sottospazi Vettoriali . . . . . . . . . . . . . . . . . . . . 15
4.2 Somma di Sottospazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3 Sottospazio Vettoriale Generato da Vettori . . . . . . . . . . . . . . . . . . . . . 17

5 Generatori di Spazi Vettoriali 19


5.1 Esempi di Sottospazi Lineari e Generatori . . . . . . . . . . . . . . . . . . . . . . 19
5.2 Insiemi Liberi di Generatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.3 Spazi Vettoriali Finitamente Generati . . . . . . . . . . . . . . . . . . . . . . . . 21

6 Dimensione di Spazi Vettoriali e Creazione di Basi 23


6.1 Dimensione di uno Spazio Vettoriale e Base Canonica . . . . . . . . . . . . . . . 23
6.2 Estrarre e Completare Basi da Insiemi di Vettori . . . . . . . . . . . . . . . . . . 24

7 Formula di Grassmann e Somma Diretta di Spazi Vettoriali 27


7.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.2 Formula di Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.3 Somma Diretta di Due Sottospazi Vettoriali . . . . . . . . . . . . . . . . . . . . . 31

8 Esercizi su Sottospazi Vettoriali, Generatori e Basi 32

ii
INDICE iii

II Funzioni Lineari e Matrici 36


9 Funzioni Lineari tra Spazi Vettoriali e Isomorfismi 37
9.1 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2 Funzioni Lineari tra Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3 Isomorfismi di Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

10 Nucleo e Immagine di Funzioni Lineari 42


10.1 Nucleo e Immagine di una Funzione Lineare . . . . . . . . . . . . . . . . . . . . 42
10.2 Relazioni tra Nucleo e Immagine di una Funzione Lineare . . . . . . . . . . . . . 43
10.3 Teorema della Nullità e Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

11 Matrici Associate a Funzioni Lineari e Operazioni su Matrici 46


11.1 Funzioni Lineari e Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.2 Matrice Associata a una Funzione Lineare . . . . . . . . . . . . . . . . . . . . . . 47
11.3 Somma di Funzioni Lineari e Somma di Matrici . . . . . . . . . . . . . . . . . . . 48
11.4 Prodotto di una Matrice per uno Scalare . . . . . . . . . . . . . . . . . . . . . . . 49
11.5 Composizione di Funzioni Lineari e Prodotto di Matrici . . . . . . . . . . . . . . 49

12 Proprietà delle Operazioni tra Matrici 50


12.1 Operazioni tra Matrici e loro Proprietà . . . . . . . . . . . . . . . . . . . . . . . 51
12.2 Prodotto tra Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
12.3 Proprietà delle Operazioni tra Matrici . . . . . . . . . . . . . . . . . . . . . . . . 53
12.4 Trasposta di una Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

13 Esempi di Matrici Associate a Funzioni Lineari 55

14 Cambiamenti di Base 60
14.1 Cambiamenti di Base in uno Spazio Vettoriale . . . . . . . . . . . . . . . . . . . 60
14.2 Formule di Cambiamento di Base . . . . . . . . . . . . . . . . . . . . . . . . . . 62

15 Sistemi di Equazioni Lineari (Omogenei e Non Omogenei) 65


15.1 Esempio di Cambiamenti di Base . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
15.2 Sistemi di Equazioni Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
15.3 Sistemi Omogenei e Non Omogenei . . . . . . . . . . . . . . . . . . . . . . . . . 67

16 Il Teorema di Rouché-Capelli e il Metodo di Gauss 70


16.1 Teorema di Rouché-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
16.2 Metodo di Eliminazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

17 Applicazioni del Metodo di Gauss 75


17.1 Esempi di Eliminazioni di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
17.2 Applicazione Reale dei Sistemi Lineari: la TAC . . . . . . . . . . . . . . . . . . . 76
17.3 Operazioni Elementari sulle Righe . . . . . . . . . . . . . . . . . . . . . . . . . . 80
17.3.1 Scambiare due righe tra loro . . . . . . . . . . . . . . . . . . . . . . . . . 80
17.3.2 Moltiplicare una riga per uno scalare diverso da 0 . . . . . . . . . . . . . 81
17.3.3 Sommare a una riga un’altra moltiplicata per uno scalare . . . . . . . . . 81

18 Applicazioni del Metodo di Gauss 83


iv INDICE

19 Matrici Inverse 88
19.1 Calcolo della Matrice Inversa mediante Eliminazione di Gauss . . . . . . . . . . 88
19.2 Determinante di una Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

20 Esercizi 92
20.1 Esempio di Domanda di Teoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
20.2 Esercizio (12 Settembre 2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

III Determinanti, Autovalori e Autovettori 96


21 Determinante di una Matrice 97
21.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
21.2 Determinante delle Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
21.3 Proprietà del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

22 Proprietà e Calcolo del Determinante 102


22.1 Alcune Proprietà del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . 102
22.2 Calcolo del Determinante con Eliminazione di Gauss . . . . . . . . . . . . . . . 103
22.3 Teorema di Binet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
22.4 La Formula di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

23 Applicazioni della Formula di Laplace 106


23.1 Formula per Calcolare l’Inversa di una Matrice . . . . . . . . . . . . . . . . . . . 106
23.2 Teorema di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
23.3 Matrici Simili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
23.4 Autovalori e Autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

24 Polinomio Caratteristico e Molteplicità 112


24.1 Polinomio Caratteristico ed Equazione Caratteristica . . . . . . . . . . . . . . . 112
24.2 Esempi di Calcolo di Autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
24.3 Autovettori e Autospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

25 Esercizi su Autovalori e Autovettori 117


25.1 Autovettori relativi ad Autovalori Distinti . . . . . . . . . . . . . . . . . . . . . . 117
25.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

26 Diagonalizzazione di Matrici 122


26.1 Criterio di Diagonalizzabilità di una Matrice . . . . . . . . . . . . . . . . . . . . 122
26.2 Autovalori di una Matrice Simmetrica . . . . . . . . . . . . . . . . . . . . . . . . 124

27 Esponenziale di una Matrice 126

IV Esercizi su Spazi Vettoriali, Funzioni Lineari, Matrici, Determi-


nanti, Autovalori e Autovettori 129
28 Esercizi 130
28.1 Esercizio (18 Luglio 2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
28.2 Esercizio (11 Luglio 2011) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
INDICE v

29 Esercizi 135
29.1 Esercizio (12 Settembre 2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
29.2 Esercizio (6 Febbraio 2013) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

30 Esercizi 141
30.1 Esempi di Domande di Teoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
30.2 Esercizio (19 Giugno 2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

31 Esercizi 147
31.1 Esercizio (5 Febbraio 2016) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
31.2 Esercizio (7 Settembre 2015) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

32 Esercizi 152
32.1 Esercizio (16 Giugno 2014) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
32.2 Esercizio (7 Aprile 2018) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

33 Esercizi 158
33.1 Esercizio Autovalori e Autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . 158
33.2 Esercizio (11 Luglio 2011) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
33.3 Esercizio (5 Giugno 2018) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

V Spazi Vettoriali Euclidei 165


34 Prodotti Scalari 166
34.1 Norma di un Vettore e Prodotto Scalare di Vettori . . . . . . . . . . . . . . . . . 166
34.2 Area di un Parallelogramma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
34.3 Sottospazio Ortogonale di un Sottospazio Vettoriale . . . . . . . . . . . . . . . . 170

35 Ortogonale di Spazi Vettoriali e Proiezioni 172


35.1 Ortogonale di un Sottospazio Vettoriale . . . . . . . . . . . . . . . . . . . . . . . 172
35.2 Proiezioni Ortogonali e Matrici di Proiezione . . . . . . . . . . . . . . . . . . . . 174

36 Metodo dei Minimi Quadrati e Procedimento di Gram-Schmidt 177


36.1 Il Metodo dei Minimi Quadrati . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
36.2 Basi Ortogonali e Basi Ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . 180
36.3 Il Procedimento di Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . 180

VI Indice Analitico 182


Indice analitico 183
Testi di Riferimento

• Francesco Bottacin. Algebra Lineare e Geometria. Esculapio, Bologna, III Ed., 2021

• Francesco Bottacin. Esercizi di Algebra Lineare e Geometria. Esculapio, Bologna, III Ed.,
2021

vi
Parte I

Spazi Vettoriali

1
Lezione 1

Campi e Spazi Vettoriali

Obiettivi:

• Definire un campo e le sue proprietà

• Definire e riconoscere uno spazio vettoriale

1.1 Introduzione ai Vettori


Per rappresentare graficamente il concetto di movimento o, più precisamente, di traslazione in
un piano, si può usare un segmento orientato 𝑣. Tale oggetto è chiamato vettore (vedi Figura 1.1).
Un vettore ha le seguenti caratteristiche:
• la direzione in cui avviene lo spostamento (rappresentata dalla retta su cui giace);
• il verso di percorrenza di tale retta (rappresentato dalla freccia);
• un numero che rappresenta l’entità della traslazione (la lunghezza o modulo del segmento).

Figura 1.1: Esempio di vettore

Ci sono due importanti operazioni sui vettori sono:


• somma di vettori (vedi Figura 1.2) con la regola del parallelogramma
• prodotto di uno scalare per un vettore (vedi Figura 1.3)

Figura 1.2: Esempio di somma di vettori

2
1.2. INSIEMI DI NUMERI 3

Figura 1.3: Esempio di prodotto di scalare per vettore

1.2 Insiemi di Numeri


• Numeri Naturali:
ℕ = {0, 1, 2, 3, …}
Alcune operazioni (come la somma) sono fattibili, ma altre (come la sottrazione) presentano
dei problemi (es. 2 − 5 = ?)

• Numeri Interi:
ℤ = {0, +1, −1, +2, −2, +3, −3, …}
Alcune operazioni (come la somma, la sottrazione e la moltiplicazione) sono fattibili, ma la
divisione non è fattibile (es. 52 = ?)

• Numeri Razionali: {𝑚 }
ℚ= | 𝑚, 𝑛 ∈ ℤ, 𝑛 ≠ 0
𝑛
Le quattro operazioni di somma, sottrazione, moltiplicazione e divisione sono fattibili.
L’insieme ℚ è un campo di numeri

1.3 Campi
Definizione 1.1. Un campo 𝐾 è un insieme non vuoto dotato di due operazioni (somma, +, e
prodotto, ⋅) che soddisfano le seguenti proprietà per ogni 𝑎, 𝑏, 𝑐 ∈ 𝐾

1. proprietà associativa della somma

(𝑎 + 𝑏) + 𝑐 = 𝑎 + (𝑏 + 𝑐)

2. proprietà commutativa della somma

𝑎+𝑏 =𝑏+𝑎

3. esistenza dell’elemento neutro per la somma

∃0 ∈ 𝐾 ∶ 0 + 𝑎 = 𝑎 + 0 = 𝑎 ∀𝑎 ∈ 𝐾

4. esistenza dell’opposto
∃ − 𝑎 ∈ 𝐾 ∶ 𝑎 + (−𝑎) = 0 ∀𝑎 ∈ 𝐾

5. proprietà associativa del prodotto

(𝑎 ⋅ 𝑏) ⋅ 𝑐 = 𝑎 ⋅ (𝑏 ⋅ 𝑐)
4 LEZIONE 1. CAMPI E SPAZI VETTORIALI

6. proprietà commutativa del prodotto

𝑎⋅𝑏 =𝑏⋅𝑎

7. esistenza dell’elemento neutro per il prodotto

∃1 ∈ 𝐾 ∶ 1 ⋅ 𝑎 = 𝑎 ⋅ 1 = 𝑎 ∀𝑎 ∈ 𝐾

dove l’elemento neutro del prodotto (1) è diverso dall’elemento neutro della somma (0)

8. esistenza dell’inverso

∃𝑎−1 ∈ 𝐾 ∶ 𝑎 ⋅ 𝑎−1 = 𝑎−1 ⋅ 𝑎 = 1 ∀𝑎 ∈ 𝐾


1
l’inverso 𝑎−1 è indicato anche come 𝑎

9. proprietà distributiva

(𝑎 + 𝑏) ⋅ 𝑐 = (𝑎 ⋅ 𝑐) + (𝑏 ⋅ 𝑐) e 𝑐 ⋅ (𝑎 + 𝑏) = (𝑐 ⋅ 𝑎) + (𝑐 ⋅ 𝑏)

La definizione di campo è fondamentale per risolvere le equazioni di primo grado 𝑎𝑥 + 𝑏 = 0


(e i sistemi di tali equazioni), la cui risoluzione si basa su

• esistenza degli opposti


𝑎𝑥 = −𝑏

• esistenza degli inversi


𝑏
𝑥=− se 𝑎 ≠ 0
𝑎
per cui lavoreremo su campi, quali l’insieme ℚ.

Esempio 1.1.

L’insieme dei numeri reali (ℝ) e l’insieme dei numeri complessi (ℂ) sono campi infiniti, dove
ℚ ⊂ ℝ ⊂ ℂ.

Esempio 1.2.

L’insieme 𝐾 = {0, 1} in cui le operazioni di somma e prodotto sono definite come segue è un
campo finito.
1.4. SPAZI VETTORIALI 5

Esempio 1.3.
L’insieme 𝐾 = {0, 1, 2} in cui le operazioni di somma e prodotto sono definite come segue è un
campo finito.

Esempio 1.4.
L’insieme 𝐾 = {0, 1, 2, 3} con l’operazione prodotto definita con un orologio di sole 4 ore

non è un campo, perché non esiste l’inverso di 2, ovvero non esiste un numero che moltiplicato
per 2 dia 1 come risultato: 2 non è invertibile.

1.4 Spazi Vettoriali


Definizione 1.2. Uno spazio vettoriale1 su un campo 𝐾 è un insieme non vuoto 𝑉 dotato di un’o-
perazione +𝑉 , detta somma

+𝑉 ∶ 𝑉 × 𝑉 → 𝑉 , (𝑣1 , 𝑣2 ) ↦ 𝑣1 +𝑉 𝑣2

dove 𝑣1 e 𝑣2 sono elementi di 𝑉 chiamati vettori e 𝑣1 +𝑉 𝑣2 è ancora un vettore, e di un’operazione


⋅𝑉 , detta prodotto per uno scalare

⋅𝑉 ∶ 𝐾 × 𝑉 → 𝑉 , (𝜆, 𝑣) ↦ 𝜆 ⋅𝑉 𝑣

dove 𝜆 è uno scalare, 𝑣 è un vettore e 𝜆 ⋅𝑉 𝑣 è ancora un vettore, che soddisfano le seguenti proprietà
per ogni 𝜆, 𝜆1 , 𝜆2 ∈ 𝐾 e 𝑣, 𝑣1 , 𝑣2 , 𝑣3 ∈ 𝑉 :
1. proprietà associativa della somma

(𝑣1 +𝑉 𝑣2 ) +𝑉 𝑣3 = 𝑣1 +𝑉 (𝑣2 +𝑉 𝑣3 )
1
Definizione 1.3.1, pag. 11
6 LEZIONE 1. CAMPI E SPAZI VETTORIALI

2. proprietà commutativa della somma

𝑣1 +𝑉 𝑣2 = 𝑣2 +𝑉 𝑣1

3. esistenza del vettore neutro 0𝑉

∃0𝑉 ∈ 𝑉 ∶ 𝑣 +𝑉 0𝑉 = 0𝑉 +𝑉 𝑣 = 𝑣

4. esistenza del vettore opposto −𝑣

∃𝑣 ′ ∈ 𝑉 per ogni 𝑣 ∈ 𝑉 ∶ 𝑣 +𝑉 𝑣 ′ = 𝑣 ′ +𝑉 𝑣 = 0𝑉 dove 𝑣 ′ = −𝑣

5. proprietà associativa del prodotto per uno scalare

(𝜆1 ⋅ 𝜆2 ) ⋅𝑉 𝑣 = 𝜆1 ⋅𝑉 (𝜆2 ⋅𝑉 𝑣)

6. proprietà distributiva del prodotto per uno scalare

(𝜆1 + 𝜆2 ) ⋅𝑉 𝑣 = (𝜆1 ⋅𝑉 𝑣) +𝑉 (𝜆2 ⋅𝑉 𝑣)

𝜆 ⋅𝑉 (𝑣1 +𝑉 𝑣2 ) = (𝜆 ⋅𝑉 𝑣1 ) +𝑉 (𝜆 ⋅𝑉 𝑣2 )

7. esistenza del vettore neutro del prodotto per uno scalare

1 ⋅𝑉 𝑣 = 𝑣

Nel seguito, per semplificare la notazione, +𝑉 viene semplicemente scritto come + e ⋅𝑉 come ⋅,
essendo ovvio quando tali operazioni si riferiscono a scalari e quando a vettori. Inoltre, il vettore
nullo 0𝑉 viene scritto semplicemente come 0 essendo chiaro dal contesto se si tratta di uno scalare
o un vettore
Esempio 1.5.
L’insieme delle funzioni reali definite nell’intervallo [0, 1], continue, positive o nulle, per le ope-
razioni di somma e di prodotto per un numero reale non è uno spazio vettoriale. Infatti, per
esempio, non contiene gli opposti dei suoi elementi: se 𝑓 è una funzione continua positiva o
nulla, la funzione opposta −𝑓 sarà negativa o nulla, quindi non appartiene all’insieme in oggetto.
Esempio 1.6.
L’insieme delle funzioni da ℝ in ℝ che si annullano in 1 oppure in 4 non è uno spazio vettoriale.
Infatti, l’insieme non è chiuso rispetto all’operazione di somma. Sia, ad esempio, 𝑓 una funzione
tale che 𝑓 (1) = 0 e 𝑓 (4) = 1 e 𝑔 una funzione tale che 𝑔(1) = 2 e 𝑔(4) = 0. 𝑓 e 𝑔 appartengono
all’insieme in questione, ma la loro somma non appartiene all’insieme dato: 𝑓 + 𝑔 non si annulla
né in 1 né in 4.
Esempio 1.7.
L’insieme dei polinomi di grado uguale a 𝑛 (𝑛 intero positivo) non è uno spazio vettoriale. Infatti,
l’insieme non è chiuso rispetto all’operazione di somma. Siano, ad esempio, 𝑝(𝑥) = 2𝑥 𝑛 + 1 e
𝑞(𝑥) = −2𝑥 𝑛 + 3 due polinomi di grado 𝑛. La loro somma 𝑝(𝑥) + 𝑞(𝑥) = 4 non ha più grado 𝑛
(assunto che 𝑛 ≠ 0).
Lezione 2

Combinazioni Lineari di Vettori e


Indipendenza Lineare

Obiettivi:

• Definire una combinazione lineare di vettori

• Determinare se un insieme di vettori è linearmente indipen-


dente o linearmente dipendente

2.1 Esempi di Spazi Vettoriali


Dati due vettori (geometrici nel piano) 𝑢 = (𝑎, 𝑏) e 𝑣 = (𝑐, 𝑑), la somma di tali vettori 𝑢 + 𝑣 è data
da
𝑢 + 𝑣 = (𝑎, 𝑏) + (𝑐, 𝑑) = (𝑎 + 𝑐, 𝑏 + 𝑑)

Più in generale, considerando vettori ciascuno formato da 𝑛 numeri (quindi sequenze di 𝑛


numeri nel campo 𝐾 )
𝐾 𝑛 = {(𝑎1 , 𝑎2 , … , 𝑎𝑛 ) | 𝑎𝑖 ∈ 𝐾 }
la somma tra vettori di 𝐾 𝑛 è definita come

(𝑎1 , 𝑎2 , … , 𝑎𝑛 ) + (𝑏1 , 𝑏2 , … , 𝑏𝑛 ) = (𝑎1 + 𝑏1 , 𝑎2 + 𝑏2 , … , 𝑎𝑛 + 𝑏𝑛 )

7
8 LEZIONE 2. COMBINAZIONI LINEARI DI VETTORI E INDIPENDENZA LINEARE

e il prodotto di uno scalare 𝜆 ∈ 𝐾 per un vettore 𝑣 ∈ 𝐾 𝑛 è definito come


𝜆 ⋅ 𝑣 = (𝜆 ⋅ 𝑎1 , 𝜆 ⋅ 𝑎2 , … , 𝜆 ⋅ 𝑎𝑛 )

𝐾 𝑛 è uno spazio vettoriale

Se 𝐾 = ℝ, allora ℝ𝑛 = {(𝑎1 , 𝑎2 , … , 𝑎𝑛 ) | 𝑎𝑖 ∈ ℝ} è uno spazio vettoriale. Se 𝑛 = 1, 2, 3, ℝ𝑛 può


essere rappresentato graficamente.
Esempio 2.1.
ℝ1 = ℝ = {𝑎 | 𝑎 ∈ ℝ} ≅ retta

Esempio 2.2.
ℝ2 = {(𝑎1 , 𝑎2 ) | 𝑎1 , 𝑎2 ∈ ℝ} ≅ piano

Esempio 2.3.
ℝ3 = {(𝑎1 , 𝑎2 , 𝑎3 ) | 𝑎1 , 𝑎2 , 𝑎3 ∈ ℝ} ≅ spazio

2.2 Combinazioni Lineari di Vettori


Definizione 2.1. Sia 𝑉 uno spazio vettoriale sul campo 𝐾 . Siano 𝑣1 , 𝑣2 , … , 𝑣𝑟 ∈ 𝑉 , 𝑟 vettori di 𝑉
e siano 𝑎1 , 𝑎2 , … , 𝑎𝑟 ∈ 𝐾 , 𝑟 scalari di 𝐾 . Una combinazione lineare1 dei vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 è una
1
Definizione 1.3.8, pag. 13
2.3. VETTORI LINEARMENTE INDIPENDENTI E DIPENDENTI 9

somma finita del tipo


𝑎1 ⋅ 𝑣1 + 𝑎2 ⋅ 𝑣2 + … + 𝑎𝑟 ⋅ 𝑣𝑟 ∈ 𝑉
Una domanda fondamentale è se, dati 𝑟 vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 , la combinazione lineare 𝑎1 ⋅ 𝑣1 +
𝑎2 ⋅𝑣2 +…+𝑎𝑟 ⋅𝑣𝑟 di tali vettori è uguale al vettore nullo 0𝑉 se e solo se tutti gli scalari 𝑎𝑖 (𝑖 = 1, … , 𝑟)
sono nulli (quindi 𝑎1 = 𝑎2 = … = 𝑎𝑟 = 0) oppure esiste una soluzione di tali scalari non tutti nulli
tale per cui 𝑎1 ⋅ 𝑣1 + 𝑎2 ⋅ 𝑣2 + … + 𝑎𝑟 ⋅ 𝑣𝑟 = 0𝑉 .

2.3 Vettori Linearmente Indipendenti e Dipendenti


Consideriamo
𝑎1 ⋅ 𝑣1 + 𝑎2 ⋅ 𝑣2 + … + 𝑎𝑟 ⋅ 𝑣𝑟 = 0 (2.1)
Definizione 2.2. I vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 sono linearmente indipendenti se l’unica soluzione di (2.1)
è 𝑎1 = 𝑎2 = … = 𝑎𝑟 = 0.
Definizione 2.3. I vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 sono linearmente dipendenti se non sono linearmente indi-
pendenti, ovverosia se esistono degli scalari 𝑎1 , 𝑎2 , … , 𝑎𝑟 tali che (2.1) sia soddisfatta e non tutti gli
scalari 𝑎1 , 𝑎2 , … , 𝑎𝑟 sono nulli.
Esercizio 2.1.
3 2
I due vettori 𝑣1 = e 𝑣2 = dello spazio vettoriale 𝑉 = ℝ2 sono linearmente indipendenti?
(1) (5)

Svolgimento. Abbiamo
3 2 3𝑎1 2𝑎2 3𝑎1 + 2𝑎2 0
𝑎1 𝑣1 + 𝑎2 𝑣2 = 𝑎1 +𝑎 = + = =
(1) 2 (5) ( 𝑎1 ) (5𝑎2 ) ( 𝑎1 + 5𝑎2 ) (0)
Risolviamo il sistema di equazioni di primo grado:
{ { { {
3𝑎1 + 2𝑎2 = 0 −15𝑎2 + 2𝑎2 = 0 −13𝑎2 = 0 𝑎2 = 0
𝑎1 + 5𝑎2 = 0 𝑎1 = −5𝑎2 𝑎1 = −5𝑎2 𝑎1 = 0

che ha (𝑎1 , 𝑎2 ) = (0, 0) come unica soluzione, quindi 𝑣1 e 𝑣2 sono linearmente indipendenti. ✎
Esercizio 2.2.
3 4 1
I tre vettori 𝑣1 = , 𝑣2 = e 𝑣3 = dello spazio vettoriale 𝑉 = ℝ2 sono linearmente
(−2) (1) (3)
indipendenti?

Svolgimento. Abbiamo
3 4 1 3𝑎1 + 4𝑎2 + 𝑎3 0
𝑎1 𝑣1 + 𝑎2 𝑣2 + 𝑎3 𝑣3 = 𝑎1 + 𝑎2 + 𝑎3 = =
(−2) (1) (3) (−2𝑎1 + 𝑎2 + 3𝑎3 ) (0)
Risolviamo il sistema di equazioni lineari
{
3𝑎1 + 4𝑎2 + 𝑎3 = 0
−2𝑎1 + 𝑎2 + 3𝑎3 = 0

Il sistema ha infinite soluzioni, quindi 𝑣1 , 𝑣2 , 𝑣3 sono linearmente dipendenti. ✎


10 LEZIONE 2. COMBINAZIONI LINEARI DI VETTORI E INDIPENDENZA LINEARE

Esercizio 2.3.
⎛2⎞ ⎛−1⎞ ⎛3⎞
I tre vettori 𝑣1 = 0 , 𝑣2 = 1 e 𝑣3 = ⎜3⎟ dello spazio vettoriale 𝑉 = ℝ3 sono linearmente
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝0⎠ ⎝1⎠
indipendenti?

Svolgimento. Abbiamo

⎛2⎞ ⎛−1⎞ ⎛3⎞ ⎛2𝑎1 − 𝑎2 + 3𝑎3 ⎞ ⎛0⎞


⎜ ⎟ ⎜ ⎟
𝑎1 𝑣1 + 𝑎2 𝑣2 + 𝑎3 𝑣3 = 𝑎1 0 + 𝑎2 1 + 𝑎3 ⎜3⎟ = ⎜ 𝑎2 + 3𝑎3 ⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝0⎠ ⎝1⎠ ⎝ 𝑎1 + 𝑎3 ⎠ ⎝0⎠
Risolviamo il sistema di equazioni lineari:

⎪ ⎧

⎪ 2𝑎1 − 𝑎2 + 3𝑎3 = 0 ⎪ −2𝑎3 + 3𝑎3 + 3𝑎3 = 0
⎪ ⎪
⎨ 𝑎2 + 3𝑎3 = 0 ⎨ 𝑎2 = −3𝑎3

⎪ ⎪


⎩𝑎1 + 𝑎3 = 0 ⎪
⎩𝑎1 = −𝑎3
Il sistema ha una sola soluzione (𝑎1 , 𝑎2 , 𝑎3 ) = (0, 0, 0), quindi 𝑣1 , 𝑣2 , 𝑣3 sono linearmente indipen-
denti. ✎

Esercizio 2.4.
⎛2⎞ ⎛1⎞ ⎛3⎞
I tre vettori 𝑣1 = −1 , 𝑣2 = −3 e 𝑣3 = ⎜ 1 ⎟ dello spazio vettoriale 𝑉 = ℝ3 sono linearmente
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝−2⎠
indipendenti?

Svolgimento. Abbiamo
⎛2⎞ ⎛1⎞ ⎛ 3 ⎞ ⎛0⎞
𝑎1 ⎜−1⎟ + 𝑎2 ⎜−3⎟ + 𝑎3 ⎜ 1 ⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝−2⎠ ⎝0⎠
Risolviamo il sistema di equazioni lineari:

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪2𝑎1 + 𝑎2 + 3𝑎3 = 0 ⎪2𝑎1 + 𝑎3 + 3𝑎3 = 0 ⎪−4𝑎3 + 𝑎3 + 3𝑎3 = 0 ⎪ 0=0
⎪ ⎪ ⎪ ⎪
⎨−𝑎1 − 3𝑎2 + 𝑎3 = 0 ⎨−𝑎1 − 3𝑎3 + 𝑎3 = 0 ⎨𝑎1 = −2𝑎3 ⎨ 𝑎1 = −2𝑎3

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩2𝑎2 − 2𝑎3 = 0 ⎪
⎩𝑎2 = 𝑎3 ⎪
⎩𝑎2 = 𝑎3 ⎪
⎩𝑎2 = 𝑎3
Il sistema ha infinite soluzioni, quindi 𝑣1 , 𝑣2 , 𝑣3 sono linearmente dipendenti. Infatti, si noti che
𝑣3 = 2𝑣1 − 𝑣2 . ✎
Lezione 3

Sottospazi Vettoriali

Obiettivi:

• Spiegare il teorema sulla dipendenza lineare dei vettori

• Definire e riconoscere un sottospazio vettoriale

3.1 Esercizi su Indipendenza Lineare di Vettori


Altro esempio di (possibile) spazio vettoriale

𝑉 = {𝑓 | ℝ → ℝ} = {𝑓 | 𝑥 ↦ 𝑓 (𝑥)} = insieme di funzioni da ℝ in ℝ

Tale insieme 𝑉 rappresenta uno spazio vettoriale?


Date 𝑓1 , 𝑓2 ∈ 𝑉 , cosa possiamo dire di 𝑓1 + 𝑓2 ?

(𝑓1 + 𝑓2 )(𝑥) = 𝑓1 (𝑥) + 𝑓2 (𝑥)

Dati 𝜆 ∈ ℝ e 𝑓 ∈ 𝑉 , cosa possiamo dire di 𝜆𝑓 ?

(𝜆𝑓 )(𝑥) = 𝜆 ⋅ 𝑓 (𝑥)

Perciò 𝑉 è uno spazio vettoriale


Esercizio 3.1.
Le tre funzioni 𝑓1 (𝑥) = sin(𝑥), 𝑓2 (𝑥) = cos(𝑥) e 𝑓3 (𝑥) = 𝑒 𝑥 sono linearmente indipendenti?

𝑎1 𝑓1 + 𝑎2 𝑓2 + 𝑎3 𝑓3 è una funzione

Svolgimento. Chiamiamo 𝑓𝑁 la funzione nulla 𝑓𝑁 ∶ ℝ → ℝ, 𝑓 ∶ 𝑥 ↦ 𝑓𝑁 (𝑥) = 0, ∀𝑥. Dobbiamo


studiare
𝑎1 𝑓1 (𝑥) + 𝑎2 𝑓2 (𝑥) + 𝑎3 𝑓3 (𝑥) = 𝑓𝑁 (𝑥) = 0 ∀𝑥
Abbiamo
𝑎1 sin(𝑥) + 𝑎2 cos(𝑥) + 𝑎3 𝑒 𝑥 = 0 ∀𝑥
𝑎1 sin(𝑥) + 𝑎2 cos(𝑥) è limitato, mentre 𝑒 𝑥 ↦ +∞ se 𝑥 ↦ ∞, perciò 𝑎3 = 0. Si ottiene

𝑎1 sin(𝑥) + 𝑎2 cos(𝑥) = 0 ∀𝑥

11
12 LEZIONE 3. SOTTOSPAZI VETTORIALI

Prendiamo un generico punto, per esempio, 𝑥 = 0. Si ottiene

𝑎1 ⋅ 0 + 𝑎2 ⋅ 1 = 0

perciò 𝑎2 = 0 e l’equazione diventa 𝑎1 ⋅sin(𝑥) = 0, ∀𝑥, che implica 𝑎1 = 0. Abbiamo 𝑎1 = 𝑎2 = 𝑎3 = 0,


quindi i tre vettori (funzioni) 𝑓1 , 𝑓2 , 𝑓3 sono linearmente indipendenti. ✎

Teorema 3.1. (Teorema sulla dipendenza lineare di vettori) Sia 𝑉 uno spazio vettoriale e siano
𝑣1 , 𝑣2 … , 𝑣𝑛 ∈ 𝑉 , 𝑛 vettori dello spazio vettoriale. I vettori dati sono linearmente dipendenti se e solo
se uno di essi si può scrivere come combinazione lineare dei rimanenti:

𝑣𝑖 = ∑ 𝑎𝑗 𝑣𝑗
𝑗=1,…,𝑛 ∶ 𝑗≠𝑖

Dimostrazione. (⇒) I vettori 𝑣1 , 𝑣2 , … , 𝑣𝑛 sono linearmente dipendenti se esistono 𝑛 scalari 𝜆1 ,


𝜆2 , …, 𝜆𝑛 non tutti nulli tali che 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛 = 0. Esisterà quindi 𝜆𝑖 ≠ 0 tale che

𝜆𝑖 𝑣𝑖 = −𝜆1 𝑣1 − 𝜆2 𝑣2 − … − 𝜆𝑖−1 𝑣𝑖−1 − 𝜆𝑖+1 𝑣𝑖+1 − … − 𝜆𝑛 𝑣𝑛

o, equivalentemente

𝜆1 𝜆2 𝜆𝑖−1 𝜆𝑖+1 𝜆𝑛
𝑣𝑖 = − 𝑣1 − 𝑣2 − … − 𝑣𝑖−1 − 𝑣𝑖+1 − … − 𝑣𝑛 =
𝜆𝑖 𝜆𝑖 𝜆𝑖 𝜆𝑖 𝜆𝑖
= 𝑎1 𝑣1 + 𝑎2 𝑣2 + … + 𝑎𝑖−1 𝑣𝑖−1 + 𝑎𝑖+1 𝑣𝑖+1 + … + 𝑎𝑛 𝑣𝑛
= ∑ 𝑎𝑗 𝑣𝑗
𝑗=1,…,𝑛 ∶ 𝑗≠𝑖

(⇐) Supponiamo che

𝑣𝑖 = 𝑎1 𝑣1 + 𝑎2 𝑣2 + … + 𝑎𝑖−1 𝑣𝑖−1 + 𝑎𝑖+1 𝑣𝑖+1 + … + 𝑎𝑛 𝑣𝑛

Allora
𝑎1 𝑣1 + 𝑎2 𝑣2 + … + 𝑎𝑖−1 𝑣𝑖−1 − 𝑣𝑖 + 𝑎𝑖+1 𝑣𝑖+1 + … + 𝑎𝑛 𝑣𝑛 = 0

dove il coefficiente di 𝑣𝑖 è −1 che è diverso da 0, quindi non tutti i coefficienti sono nulli. Ne
segue che 𝑣1 , 𝑣2 , … , 𝑣𝑛 sono linearmente dipendenti. ■

Esercizio 3.2.

⎛2⎞ ⎛3⎞ ⎛6⎞


Nello spazio vettoriale 𝑉 = ℝ sono dati i tre vettori 𝑣1 = 1 , 𝑣2 = −1 e 𝑣3 = ⎜−2⎟. I tre vettori
3 ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝4⎠
sono linearmente dipendenti o indipendenti?

Svolgimento. Osserviamo che 𝑣3 = 2𝑣2 . Questo è sufficiente per dimostrare che 𝑣1 , 𝑣2 , 𝑣3 sono
linearmente dipendenti. Infatti 𝑣3 = 2𝑣2 e 𝑣2 = 21 𝑣3 . Tuttavia, non è possibile scrivere 𝑣1 come
combinazione lineare di 𝑣2 e 𝑣3 , infatti 𝑣1 ≠ 𝑎2 𝑣2 + 𝑎3 𝑣3 . ✎
3.2. SOTTOSPAZI VETTORIALI 13

3.2 Sottospazi Vettoriali


Definizione 3.1. Sia 𝑉 uno spazio vettoriale. Un sottospazio vettoriale 𝑊 di 𝑉 è un sottoinsieme
𝑊 ⊂ 𝑉 che sia anche uno spazio vettoriale (con le stesse operazioni di somma e di prodotto di un
vettore per uno scalare di 𝑉 ).1

Bisogna verificare che

1. Dati 𝑤1 , 𝑤2 ∈ 𝑊 , non solo 𝑤1 + 𝑤2 ∈ 𝑉 , ma anche 𝑤1 + 𝑤2 ∈ 𝑊

2. Dati 𝜆 ∈ 𝐾 e 𝑤 ∈ 𝑊 , non solo 𝜆𝑤 ∈ 𝑉 , ma anche 𝜆𝑤 ∈ 𝑊

In altri termini, 𝑊 deve essere chiuso per le operazioni di somma di vettori e di prodotto di un
vettore per uno scalare.

Esempio 3.1.

Dato lo spazio vettoriale 𝑉 = ℝ2 , il suo sottoinsieme 𝑊 definito come segue è un sottospazio


vettoriale di 𝑉 ?
𝑊 = {(𝑎, 𝑏) | 3𝑎 − 2𝑏 = 0}

1. Consideriamo la somma di vettori

𝑤1 = (𝑎1 , 𝑏1 ) ∈ 𝑊 ⇔ 3𝑎1 − 2𝑏1 = 0 𝑤2 = (𝑎2 , 𝑏2 ) ∈ 𝑊 ⇔ 3𝑎2 − 2𝑏2 = 0

𝑤3 = (𝑎3 , 𝑏3 ) = 𝑤1 + 𝑤2 = (𝑎1 + 𝑎2 , 𝑏1 + 𝑏2 ) ∈ 𝑊 ?
𝑤3 = (𝑎3 , 𝑏3 ) ∈ 𝑊 ⇔ 3𝑎3 − 2𝑏3 = 0
3𝑎3 − 2𝑏3 = 3(𝑎1 + 𝑎2 ) − 2(𝑏1 + 𝑏2 ) = 3𝑎1 + 3𝑎2 − 2𝑏1 − 2𝑏2 =
= 3𝑎1 − 2𝑏1 + 3𝑎2 − 2𝑏2 = 0 + 0 = 0 ✔

2. Consideriamo il prodotto di uno scalare per un vettore 𝜆 ∈ ℝ

𝑤 = (𝑎, 𝑏) ∈ 𝑊 ⇔ 3𝑎 − 2𝑏 = 0

𝜆𝑤 = (𝜆𝑎, 𝜆𝑏) ∈ 𝑊 ?
3(𝜆𝑎) − 2(𝜆𝑏) = 𝜆(3𝑎 − 2𝑏) = 𝜆0 = 0 ✔

⇒ 𝑊 è un sottospazio vettoriale di 𝑉

Esempio 3.2.

Dato lo spazio vettoriale 𝑉 = ℝ2 , il suo sottoinsieme 𝑊 definito come segue è un sottospazio


vettoriale di 𝑉 ?
𝑊 = {(𝑎, 𝑏) | 𝑎 − 2𝑏 = 3}
No! Si possono verificare le due proprietà come fatto nell’esempio precedente oppure si può
osservare che il vettore nullo (0, 0) (elemento neutro per l’operazione di somma) non appartiene
a 𝑊.

1
Definizione 1.3.9, pag. 14
14 LEZIONE 3. SOTTOSPAZI VETTORIALI

Esempio 3.3.

Il seguente insieme 𝑊 ⊂ ℝ2 è un sottospazio vettoriale di 𝑉 = ℝ2 ?

𝑊 = {(𝑎, 𝑏) | 𝑎2 − 𝑏 = 0}

Verifichiamo subito che (0, 0) ∈ 𝑊 ✔

1. Consideriamo la somma di vettori

𝑤1 = (𝑎1 , 𝑏1 ) ∈ 𝑊 ⇔ 𝑎12 − 𝑏1 = 0 𝑤2 = (𝑎2 , 𝑏2 ) ∈ 𝑊 ⇔ 𝑎22 − 𝑏2 = 0

𝑤1 + 𝑤2 = (𝑎1 + 𝑎2 , 𝑏1 + 𝑏2 ) ∈ 𝑊 ?
(𝑎1 + 𝑎2 )2 − (𝑏1 + 𝑏2 ) = 𝑎12 + 𝑎22 + 2𝑎1 𝑎2 − 𝑏1 − 𝑏2 =
= 𝑎12 − 𝑏1 + 𝑎22 − 𝑏2 + 2𝑎1 𝑎2 =
= 0 + 0 + 2𝑎1 𝑎2 ≠ 0 in generale
quindi 𝑤1 + 𝑤2 ∉ 𝑊 ⇒ 𝑊 non è un sottospazio vettoriale.

Esempio 3.4.

Il seguente insieme 𝑊 è un sottospazio vettoriale di 𝑉 = ℝ2 ?

𝑊 = {(𝑎, 𝑏) | 𝑎 ≥ 0, 𝑏 ≥ 0}

Verifichiamo prima che (0, 0) ∈ 𝑊 . Inoltre, 𝑊 è chiuso per l’operazione di somma di vettori, ma
non è chiuso per l’operazione di prodotto di scalare per vettore, quindi 𝑊 non è un sottospazio
vettoriale di ℝ2 .
Lezione 4

Particolari Sottospazi Vettoriali

Obiettivi:

• Discutere le operazioni di intersezione e unione di sottospazi


vettoriali

• Definire la somma di sottospazi vettoriali

• Definire il concetto di sottospazio lineare

• Definire una base

4.1 Unione e Intersezione di Sottospazi Vettoriali


Siano 𝑈 e 𝑊 due sottospazi vettoriali di 𝑉 . I due insiemi
𝑈 ∩ 𝑊 = {𝑣 | 𝑣 ∈ 𝑈 e 𝑣 ∈ 𝑊 } 𝑈 ∪ 𝑊 = {𝑣 | 𝑣 ∈ 𝑈 o 𝑣 ∈ 𝑊 }
sono sottospazi vettoriali?

Intersezione di sottospazi vettoriali: consideriamo 𝑈 ∩ 𝑊


𝑣1 , 𝑣2 ∈ 𝑈 ∩ 𝑊 ⇔ 𝑣1 ∈ 𝑈 , 𝑣1 ∈ 𝑊 , 𝑣2 ∈ 𝑈 , 𝑣2 ∈ 𝑊
𝑣1 + 𝑣2 ∈ 𝑈 ∩ 𝑊 ?
𝑣1 + 𝑣2 ∈ 𝑈 e 𝑣1 + 𝑣2 ∈ 𝑊
perché 𝑈 e 𝑊 sono sottospazi vettoriali. Conseguentemente, 𝑣1 + 𝑣2 ∈ 𝑈 ∩ 𝑊 .
Dato 𝜆 ∈ 𝐾
𝑣 ∈𝑈 ∩𝑊 ⇔𝑣 ∈𝑈 e𝑣 ∈𝑊
𝜆𝑣 ∈ 𝑈 ∩ 𝑊 perché 𝜆𝑣 ∈ 𝑈 e 𝜆𝑣 ∈ 𝑊
Allora 𝑈 ∩ 𝑊 è un sottospazio vettoriale.

L’intersezione di sottospazi vettoriali è sempre un sottospazio vettoriale

Osservazione 4.1. Non può succedere che sia 𝑈 ∩ 𝑊 = ∅. Infatti, 0𝑉 ∈ 𝑈 , 0𝑉 ∈ 𝑊 ⇒ 0𝑉 ∈ 𝑈 ∩ 𝑊 .


Tuttavia può succedere che si abbia 𝑈 ∩ 𝑊 = {0𝑉 }.

15
16 LEZIONE 4. PARTICOLARI SOTTOSPAZI VETTORIALI

Unione di sottospazi vettoriali: consideriamo 𝑈 ∪ 𝑊


𝑣1 , 𝑣2 ∈ 𝑈 ∪ 𝑊 ⇔ (𝑣1 ∈ 𝑈 o 𝑣1 ∈ 𝑊 ) e (𝑣2 ∈ 𝑈 o 𝑣2 ∈ 𝑊 )
𝑣1 + 𝑣2 ∈ 𝑈 ∪ 𝑊 ?
Se 𝑣1 , 𝑣2 ∈ 𝑈 oppure 𝑣1 , 𝑣2 ∈ 𝑊 , la somma 𝑣1 + 𝑣2 ∈ 𝑈 ∪ 𝑊 . Potrebbe essere 𝑣1 ∈ 𝑈 e 𝑣2 ∈ 𝑊 .
In questo caso, 𝑣1 + 𝑣2 ∈ 𝑈 ∪ 𝑊 ? Probabilmente, in generale, 𝑈 ∪ 𝑊 non sarà un sottospazio
vettoriale… infatti…
Esempio 4.1.
Consideriamo i due sottospazi vettoriali 𝑈 , 𝑊 ⊂ ℝ2
𝑈 = {(𝑎, 0) | ∀𝑎 ∈ ℝ} 𝑊 = {(0, 𝑏) | ∀𝑏 ∈ ℝ}

Siano 𝑢 = (3, 0) ∈ 𝑈 ∪ 𝑊 e 𝑣 = (0, 2) ∈ 𝑈 ∪ 𝑊 . Tuttavia 𝑢 + 𝑣 = (3, 2) ∉ 𝑈 ∪ 𝑊

In generale, l’unione di sottospazi vettoriali non è un sottospazio vettoriale

4.2 Somma di Sottospazi Vettoriali


Definizione 4.1. Siano 𝑈 , 𝑊 ⊂ 𝑉 due sottospazi vettoriali. Introduciamo 𝑈 + 𝑊 (somma di due
sottospazi) come il più piccolo sottospazio vettoriale di 𝑉 che contiene 𝑈 ∪ 𝑊 .
𝑈 + 𝑊 contiene i vettori di 𝑈 e di 𝑊 , ma anche altro.
Esempio 4.2.
𝑉 = ℝ3 e due sottospazi 𝑈 e 𝑊
𝑈 = una retta passante per l’origine 𝑊 = un’altra retta passante per l’origine
𝑈 ∪ 𝑊 non è un sottospazio vettoriale, mentre 𝑈 + 𝑊 è il piano che contiene le due rette 𝑈 e 𝑊
4.3. SOTTOSPAZIO VETTORIALE GENERATO DA VETTORI 17

Teorema 4.1. Dati due sottospazi vettoriali 𝑈 e 𝑊 , la somma 𝑈 + 𝑊 dei due sottospazi è l’insieme

𝑈 + 𝑊 = {𝑢 + 𝑤 | 𝑢 ∈ 𝑈 , 𝑤 ∈ 𝑊 } (4.1)

Dimostrazione. Ci sono tre cose da dimostrare:

1. 𝑈 + 𝑊 definito come (4.1) è un sottospazio vettoriale

2. 𝑈 + 𝑊 definito come (4.1) contiene sia 𝑈 che 𝑊 , ovverosia contiene 𝑈 ∪ 𝑊

3. Fra tutti i sottospazi che contengono 𝑈 e 𝑊 , 𝑈 + 𝑊 definito come (4.1) è il più piccolo
sottospazio

• Punto (2): 𝑢 ∈ 𝑈 si può scrivere come 𝑢 = 𝑢 + 0𝑉 , dove 𝑢 ∈ 𝑈 e 0𝑉 ∈ 𝑊 , quindi 𝑈 ⊂


{𝑢 + 𝑤 | 𝑢 ∈ 𝑈 , 𝑤 ∈ 𝑊 }; analogamente, 𝑤 ∈ 𝑊 si può scrivere come 𝑤 = 0𝑉 + 𝑤, dove
0𝑉 ∈ 𝑈 e 𝑤 ∈ 𝑊 , quindi 𝑊 ⊂ {𝑢 + 𝑤 | 𝑢 ∈ 𝑈 , 𝑤 ∈ 𝑊 }; perciò 𝑈 ∪ 𝑊 è contenuto in
{𝑢 + 𝑤 | 𝑢 ∈ 𝑈 , 𝑤 ∈ 𝑊 }.

• Punto (3): 𝑈 + 𝑊 definito come (4.1) è il più piccolo sottospazio vettoriale che contiene 𝑈
e 𝑊 ; sia 𝐿 un sottospazio vettoriale che contiene 𝑈 e 𝑊 , quindi ∀𝑢 ∈ 𝑈 ⇒ 𝑢 ∈ 𝐿 (perché
𝑈 ⊂ 𝐿) e ∀𝑤 ∈ 𝑊 ⇒ 𝑤 ∈ 𝐿 (perché 𝑊 ⊂ 𝐿), allora, siccome 𝐿 è un sottospazio vettoriale,
𝑢 + 𝑤 ∈ 𝐿 , quindi
{𝑢 + 𝑤 | 𝑢 ∈ 𝑈 , 𝑤 ∈ 𝑊 } ⊂ 𝐿
che è esattamente la definizione di 𝑈 + 𝑊 .

• Punto (1): 𝑈 + 𝑊 definito come (4.1) è un sottospazio vettoriale

𝑣1 = 𝑢1 + 𝑤1 𝑣2 = 𝑢 2 + 𝑤 2 ∀𝑢1 , 𝑢2 ∈ 𝑈 , 𝑤1 , 𝑤2 ∈ 𝑊

𝑣1 + 𝑣2 ∈ 𝑈 + 𝑊 ?
𝑣1 + 𝑣2 = (𝑢1 + 𝑤1 ) + (𝑢2 + 𝑤2 ) = 𝑢1 + 𝑤1 + 𝑢2 + 𝑤2 = (𝑢1 + 𝑢2 ) + (𝑤1 + 𝑤2 ) = 𝑢 + 𝑤
dove 𝑢 ∈ 𝑈 e 𝑤 ∈ 𝑊 . Quindi 𝑈 + 𝑊 è chiuso per l’operazione di somma tra vettori
𝜆 ∈ 𝐾, 𝑣 = 𝑢 + 𝑤

𝜆𝑣 = 𝜆(𝑢 + 𝑤) = 𝜆𝑢 + 𝜆𝑤 dove 𝜆𝑢 ∈ 𝑈 e 𝜆𝑤 ∈ 𝑊
quindi 𝑈 +𝑊 è chiuso per l’operazione di prodotto tra scalare e vettore. Conseguentemente
𝑈 + 𝑊 è un sottospazio vettoriale. ■

4.3 Sottospazio Vettoriale Generato da Vettori


Sia 𝑆 un insieme di 𝑟 vettori di 𝑉

Definizione 4.2. Il sottospazio vettoriale generato da 𝑆 è il più piccolo sottospazio vettoriale di 𝑉


che contiene 𝑆 (lo si indica con 𝐿(𝑆) oppure con ⟨𝑆⟩)1
1
Definizione 1.3.15, pag. 15
18 LEZIONE 4. PARTICOLARI SOTTOSPAZI VETTORIALI

Talvolta 𝐿(𝑆) è anche chiamato sottospazio lineare. Si dimostra che


𝐿(𝑆) = {𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 | 𝑣𝑖 ∈ 𝑆 e 𝜆𝑖 ∈ 𝐾 con 𝑖 = 1, … , 𝑟} =
{ 𝑟 }
= ∑ 𝜆𝑖 𝑣𝑖 | 𝜆𝑖 ∈ 𝐾 , 𝑣𝑖 ∈ 𝑆
𝑖=1

Definizione 4.3. Dato l’insieme di vettori 𝑆 = {𝑣1 , 𝑣2 , … , 𝑣𝑟 } nello spazio vettoriale 𝑉 . 𝑆 è un


insieme di generatori di 𝑉 se 𝐿(𝑆) = 𝑉 , cioè se ogni vettore 𝑣 ∈ 𝑉 si può scrivere come combinazione
lineare dei vettori di 𝑆 𝑟
𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 = ∑ 𝜆𝑖 𝑣𝑖
𝑖=1

Esercizio 4.1.
2 0 1
Sia 𝑉 = ℝ2 . I tre vettori 𝑣1 = , 𝑣2 = e 𝑣3 = sono generatori di 𝑉 ?
(1) (3) (−1)

𝑎 𝑎
Svolgimento. Ci stiamo chiedendo se 𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + 𝜆3 𝑣3 = per ogni ∈ ℝ2
(𝑏) (𝑏)

𝑎 2 0 1
= 𝜆1 + 𝜆2 + 𝜆3
(𝑏) (1) (3) (−1)
dove 𝑎 e 𝑏 sono parametri liberi di variare e 𝜆1 , 𝜆2 e 𝜆3 sono le incognite. Dobbiamo risolvere il
sistema (parametrico) di equazione lineari
{ { { {
2𝜆1 + 𝜆3 = 𝑎 𝜆3 = 𝑎 − 2𝜆1 𝜆3 = 𝑎 − 2𝜆1 𝜆3 = 𝑎 − 2𝜆1
𝜆1 + 3𝜆2 − 𝜆3 = 𝑏 𝜆1 + 3𝜆2 − 𝑎 + 2𝜆1 = 𝑏 3𝜆2 = −3𝜆1 + 𝑎 + 𝑏 𝜆2 = −𝜆1 + 𝑎3 + 𝑏3
Questo sistema ammette soluzione: ci sono infinite soluzioni per ogni 𝜆1 (e per ogni valore dei
parametri 𝑎 e 𝑏). Perciò 𝑣1 , 𝑣2 e 𝑣3 rappresenta un insieme di generatori di 𝑉 = ℝ2 ✎
Esercizio 4.2.
1 2
Dato 𝑉 = ℝ2 e dati i vettori 𝑣1 = ,𝑣 = ; 𝑣 e 𝑣2 sono un insieme di generatori di 𝑉 ?
(2) 2 (−3) 1

Svolgimento.
𝑣 = (𝑎, 𝑏) = 𝜆1 𝑣1 + 𝜆2 𝑣2 (∀𝑎, ∀𝑏)
𝑎 1 2
= 𝜆1 +𝜆
(𝑏) (2) 2 (−3)
{ { { { {
𝜆1 + 2𝜆2 = 𝑎 𝜆1 = 𝑎 − 2𝜆2 𝜆1 = 𝑎 − 2𝜆2 𝜆1 = 𝑎 − 2𝜆2 𝜆1 = − 73 𝑎 + 27 𝑏
2𝜆1 − 3𝜆2 = 𝑏 2𝑎 − 7𝜆2 = 𝑏 −7𝜆2 = 𝑏 − 2𝑎 𝜆2 = − 𝑏7 + 27 𝑎 𝜆2 = − 𝑏7 + 72 𝑎
Per ogni 𝑎 e 𝑏, il sistema ammette una sola soluzione, quindi 𝑣1 e 𝑣2 sono un sistema di generatori
di 𝑉 = ℝ2 . ✎
Definizione 4.4. Una base di uno spazio vettoriale 𝑉 è un sistema di generatori di 𝑉 costituito da
vettori linearmente indipendenti.2
Una base si definisce anche un sistema libero di generatori.
2
Definizione 1.3.31, pag. 22
Lezione 5

Generatori di Spazi Vettoriali

Obiettivi:

• Determinare il sottospazio vettoriale generato da un insieme


di generatori

• Enunciare il teorema dello scambio

5.1 Esempi di Sottospazi Lineari e Generatori


Esempio 5.1.
Consideriamo un vettore 𝑣 ∈ 𝑉 , 𝑣 ≠ 0. Qual è il sottospazio vettoriale generato da 𝑣?

Si tratta delle combinazioni lineari di 𝑣


𝐿(𝑣) = la retta che contiene 𝑣 = {𝜆𝑣 | ∀𝜆 ∈ 𝐾 }
Ovviamente se 𝑣 = 0, 𝐿(𝑣) = {0}
Esempio 5.2.
Consideriamo due vettori 𝑣1 , 𝑣2 ∈ 𝑉 tali che 𝑣1 ≠ 0, 𝑣2 ≠ 0. Qual è il sottospazio vettoriale
generato da 𝑣1 e 𝑣2 ?
1. Se 𝑣2 = 𝛼𝑣1 (i vettori sono paralleli)

19
20 LEZIONE 5. GENERATORI DI SPAZI VETTORIALI

𝐿(𝑣1 , 𝑣2 ) = la retta che contiene 𝑣1 e 𝑣2

2. Se 𝑣2 ≠ 𝛼𝑣1 (i vettori non sono paralleli)

𝐿(𝑣1 , 𝑣2 ) = piano che contiene 𝑣1 e 𝑣2

Esercizio 5.1.
⎛1⎞ ⎛0⎞
Consideriamo lo spazio vettoriale 𝑉 = ℝ3 e i due vettori 𝑣1 = ⎜ 2 ⎟ e 𝑣2 = ⎜3⎟. 𝑣1 e 𝑣2 sono
⎜ ⎟ ⎜ ⎟
⎝−1⎠ ⎝1⎠
generatori di ℝ ?
3

Svolgimento. Dobbiamo verificare che un qualunque vettore 𝑣 ∈ 𝑉 si può scrivere come combi-
nazione lineare di 𝑣1 e 𝑣2
?
𝑣 = 𝜆1 𝑣 1 + 𝜆2 𝑣 2 ∀𝑣 ∈ 𝑉
⎛1⎞ ⎛0⎞ ⎛𝑎⎞
𝜆1 2 + 𝜆2 ⎜3⎟ = ⎜𝑏 ⎟
⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝−1⎠ ⎝1⎠ ⎝ 𝑐 ⎠
dove 𝜆1 e 𝜆2 sono le incognite e 𝑎, 𝑏, 𝑐 sono parametri liberi di variare. Risolviamo il seguente
sistema di equazioni lineari

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 𝜆1 + 0 = 𝑎 ⎪ 𝜆1 = 𝑎 ⎪ 𝜆1 = 𝑎 ⎪ 𝜆1 = 𝑎
⎪ ⎪ ⎪ ⎪
⎨ 2𝜆1 + 3𝜆2 = 𝑏 ⎨ 2𝑎 + 3𝜆2 = 𝑏 ⎨ 2𝑎 + 3𝑎 + 3𝑐 = 𝑏 ⎨ 5𝑎 + 3𝑐 = 𝑏

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩−𝜆1 + 𝜆2 = 𝑐 ⎪
⎩−𝑎 + 𝜆2 = 𝑐 ⎪
⎩ 𝜆2 = 𝑎 + 𝑐 ⎪
⎩ 𝜆2 = 𝑎 + 𝑐
L’equazione 5𝑎 + 3𝑐 = 𝑏 dice che il sistema ha soluzione se e solo se tale condizione è verifica-
ta, quindi il sistema non ha soluzione per ogni 𝑣 = (𝑎, 𝑏, 𝑐), ma solo quando tale condizione è
verificata. Perciò 𝑣1 e 𝑣2 non sono generatori di ℝ3 . ✎

5.2 Insiemi Liberi di Generatori


Teorema 5.1. Sia 𝑆 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } una base di uno spazio vettoriale 𝑉 . Ogni vettore 𝑣 ∈ 𝑉 si
può scrivere, in modo unico, come combinazione lineare finita dei vettori di 𝑆.1
1
Corollario 1.3.33, pag. 22
5.3. SPAZI VETTORIALI FINITAMENTE GENERATI 21

Dimostrazione. Sia 𝑣 ∈ 𝑉 . Essendo 𝑆 una base di 𝑉 , sicuramente si può scrivere

𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛

ma assumiamo anche che esista un’altra combinazione lineare dei vettori 𝑆 che generi 𝑣

𝑣 = 𝜇1 𝑣1 + 𝜇2 𝑣2 + … + 𝜇𝑛 𝑣𝑛

Studiamo la relazione tra i coefficienti 𝜆 e 𝜇

𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛 = 𝜇1 𝑣1 + 𝜇2 𝑣2 + … + 𝜇𝑛 𝑣𝑛

(𝜆1 − 𝜇1 )𝑣1 + (𝜆2 − 𝜇2 )𝑣2 + … + (𝜆𝑛 − 𝜇𝑛 )𝑣𝑛 = 0


Poiché 𝑆 è una base di 𝑉 , dovremo avere che

𝜆1 − 𝜇1 = 𝜆2 − 𝜇2 = … = 𝜆𝑛 − 𝜇𝑛 = 0

perché i vettori di 𝑆 sono linearmente indipendenti. Ciò implica che 𝜆𝑖 = 𝜇𝑖 , ∀𝑖 = 1, 2, … , 𝑛.


Quindi la scrittura di 𝑣 come combinazione lineare di 𝑆 è unica. ■
Esempio 5.3.
Consideriamo
𝑉 = { polinomi in 𝑥 a coefficienti reali }
𝑓 (𝑥) = 𝑎0 𝑥 0 + 𝑎1 𝑥 1 + 𝑎2 𝑥 2 + … + 𝑎𝑛 𝑥 𝑛
è uno spazio vettoriale. Qual è un insieme di generatori di 𝑉 ?

{1, 𝑥, 𝑥 2 , 𝑥 3 , … , 𝑥 𝑛 , 𝑥 𝑛+1 , …} = {𝑣1 , 𝑣2 , 𝑣3 , … , 𝑣𝑛 , 𝑣𝑛+1 , …}

𝜆1 𝑣 1 + 𝜆2 𝑣 2 + 𝜆3 𝑣 3 + … = 𝜆1 𝑥 0 + 𝜆2 𝑥 1 + 𝜆3 𝑥 2 + 𝜆4 𝑥 3 + … che è un polinomio
Non avendo specificato il grado massimo dei polinomi di 𝑉 , servono, quindi, infiniti generatori!

5.3 Spazi Vettoriali Finitamente Generati


Definizione 5.1. Uno spazio vettoriale 𝑉 è detto finitamente generato se esiste un insieme finito di
generatori di 𝑉 .2
Osservazione 5.1. Siano {𝑤1 , 𝑤2 , … , 𝑤𝑟 } 𝑟 vettori linearmente indipendenti, allora 𝑤1 ≠ 0, 𝑤2 ≠ 0,
…, 𝑤𝑟 ≠ 0.
Dimostrazione. Supponiamo che 𝑤𝑖 = 0 per un qualche 𝑖 compreso tra 1 e 𝑟. Abbiamo

𝜆1 𝑤1 + 𝜆2 𝑤2 + … + 𝜆𝑖 𝑤𝑖 + … + 𝜆𝑟 𝑤𝑟 = 0𝑤1 + 0𝑤2 + … + 𝜆𝑖 𝑤𝑖 + … + 0𝑤𝑟 = 0

con 𝜆𝑖 ≠ 0. Se ciò è vero, significa che abbiamo ottenuto una combinazione lineare dei vet-
tori 𝑤1 , 𝑤2 , … , 𝑤𝑟 con coefficienti 𝜆𝑖 non tutti nulli, poiché 𝜆𝑖 ≠ 0. Ciò implica che i vetto-
ri 𝑤1 , 𝑤2 , … , 𝑤𝑟 non sono linearmente indipendenti, che contraddice le condizioni di partenza.
Conseguentemente, se gli 𝑟 vettori 𝑤1 , 𝑤2 , … , 𝑤𝑟 sono linearmente indipendenti, sono anche tutti
diversi dal vettore nullo. ■
2
Definizione 1.3.35, pag. 23
22 LEZIONE 5. GENERATORI DI SPAZI VETTORIALI

Teorema 5.2. Sia 𝑉 uno spazio vettoriale finitamente generato e sia 𝑆 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } un insieme
di generatori di 𝑉 . Allora 𝑆 contiene dei vettori 𝑣𝑖1 , 𝑣𝑖2 , … , 𝑣𝑖𝑟 , per qualche 𝑟 ≤ 𝑛, che formano una
base di 𝑉 (e che sono, quindi, linearmente indipendenti).3

Dimostrazione. Se i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑛 sono linearmente indipendenti, essi sono una base di 𝑉


e 𝑟 = 𝑛 – la dimostrazione è terminata. Altrimenti, uno dei vettori può essere espresso come
combinazione lineare dei rimanenti vettori. A meno di rinominare i vettori, possiamo supporre
che tale vettore sia 𝑣𝑛 , quindi

𝑣𝑛 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛−1 𝑣𝑛−1

Conseguentemente, i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑛−1 generano lo spazio vettoriale 𝑉 . Se essi sono linear-


mente indipendenti, essi sono una base di 𝑉 , 𝑟 = 𝑛 − 1 e la dimostrazione è terminata. In caso
contrario, uno degli 𝑛 − 1 vettori può essere espresso come combinazione lineare dei rimanenti
𝑛 − 2 vettori. Anche in questo caso, a meno di riordinare i vettori, possiamo supporre che

𝑣𝑛−1 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛−2 𝑣𝑛−2

Quindi i vettori 𝑣1 𝑣2 , … , 𝑣𝑛−2 generano lo spazio vettoriale 𝑉 …


Ripetendo il ragionamento si arriverà a un insieme di vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 per un qualche
𝑟 ≤ 𝑛, che generano 𝑉 e sono linearmente indipendenti e sono, quindi, una base di 𝑉 . ■

Teorema 5.3. (Teorema dello Scambio) Sia 𝑉 uno spazio vettoriale finitamente generato e sia 𝑆 =
{𝑣1 , 𝑣2 , … , 𝑣𝑛 } un insieme di generatori di 𝑉 . Se 𝑤1 , 𝑤2 , … , 𝑤𝑟 sono vettori linearmente indipendenti,
allora 𝑟 ≤ 𝑛.4

Dimostrazione. Poiché i vettori di 𝑆 generano 𝑉 , 𝑤1 si può scrivere come

𝑤1 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛

Dato che 𝑤1 ≠ 0, gli scalari 𝜆1 , 𝜆2 , … , 𝜆𝑛 non sono tutti nulli: esiste 𝑖 tale che 𝜆𝑖 ≠ 0. Perciò
𝑣𝑖 può essere espresso come combinazione lineare di 𝑤1 , 𝑣1 , 𝑣2 , … , 𝑣𝑖−1 , 𝑣𝑖+1 , … , 𝑣𝑛 . A meno di
rinominare i vettori, supponiamo che 𝑖 = 𝑛, quindi 𝑤1 , 𝑣1 , 𝑣2 , … , 𝑣𝑛−1 è un insieme di generatori
di 𝑉 .
Il vettore 𝑤2 può essere espresso come combinazione di 𝑤1 , 𝑣1 , 𝑣2 , … , 𝑣𝑛−1 … ripetendo il
ragionamento, si dimostra che

{𝑤1 , 𝑤2 , … , 𝑤ℎ , 𝑣1 , 𝑣2 , … , 𝑣𝑛−ℎ }

è un insieme di generatori di 𝑉 .
Se, per assurdo, fosse 𝑛 < 𝑟, ponendo ℎ = 𝑛 si avrebbe che i vettori 𝑤1 , 𝑤2 , … , 𝑤𝑛 generano
tutto lo spazio 𝑉 , quindi 𝑤𝑛+1 si potrebbe scrivere come combinazione lineare di 𝑤1 , 𝑤2 , … , 𝑤𝑛 ,
che contraddice l’ipotesi che i vettori 𝑤1 , 𝑤2 , … , 𝑤𝑟 sono linearmente indipendenti. Perciò 𝑟 ≤ 𝑛.

3
Proposizione 1.3.36, pag. 23
4
Proposizione 1.3.37, pag. 24
Lezione 6

Dimensione di Spazi Vettoriali e


Creazione di Basi

Obiettivi:

• Definire la dimensione di uno spazio vettoriale

• Estrarre una base da un insieme di generatori

• Completare una base partendo da un insieme di vettori linear-


mente indipendenti

6.1 Dimensione di uno Spazio Vettoriale e Base Canonica


Teorema 6.1. Due basi qualunque di uno spazio vettoriale 𝑉 (finitamente generato) hanno lo stesso
numero di elementi.1

Dimostrazione.

1. Supponiamo di avere l’insieme di generatori {𝑣1 , 𝑣2 , … , 𝑣𝑛 } e 𝑟 vettori linearmente indi-


pendenti {𝑤1 , 𝑤2 , … , 𝑤𝑟 }, allora 𝑟 ≤ 𝑛

2. Scambiamo il ruolo di 𝑣 e 𝑤, ovverosia consideriamo 𝑛 vettori linearmente indipendenti


{𝑣1 , 𝑣2 , … , 𝑣𝑛 } e l’insieme di generatori {𝑤1 , 𝑤2 , … , 𝑤𝑟 }, allora 𝑛 ≤ 𝑟

Ne segue che 𝑟 = 𝑛. ■

Il numero di elementi di una base dipende solamente dallo spazio vettoriale (e non dalla
base scelta)

Definizione 6.1. La dimensione di uno spazio vettoriale (finitamente generato) 𝑉 , indicata con
dim 𝑉 , è il numero di elementi di una base di 𝑉 .2

1
Corollario 1.3.39, pag. 25
2
Definizione 1.3.40, pag. 25

23
24 LEZIONE 6. DIMENSIONE DI SPAZI VETTORIALI E CREAZIONE DI BASI

Esempio 6.1.

Consideriamo lo spazio vettoriale 𝑉 = ℝ𝑛 = {(𝑎1 , 𝑎2 , … , 𝑎𝑛 ) | 𝑎𝑖 ∈ ℝ}. 𝑉 ha dimensione 𝑛?


Prendiamo 𝑛 vettori
𝑣1 = (1, 0, 0, … , 0)
𝑣2 = (0, 1, 0, … , 0)
𝑣3 = (0, 0, 1, … , 0)

𝑣𝑛 = (0, 0, 0, … , 1)
Questi 𝑛 vettori sono generatori di 𝑉 ?
Lo sono se per ogni 𝑣 ∈ 𝑉
𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛
e gli 𝑛 vettori sono linearmente indipendenti.
Abbiamo
⎛𝑎1 ⎞ ⎛1⎞ ⎛0⎞ ⎛0⎞
⎜𝑎2 ⎟ ⎜0⎟ ⎜1⎟ ⎜0⎟
⎜ ⋮ ⎟ = 𝜆1 ⎜ ⋮ ⎟ + 𝜆2 ⎜ ⋮ ⎟ + … + 𝜆𝑛 ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑎𝑛 ⎠ ⎝0⎠ ⎝0⎠ ⎝1⎠
Si ha
𝑣 = 𝑎1 𝑣1 + 𝑎2 𝑣2 + … + 𝑎𝑛 𝑣𝑛 ∀𝑣 ∈ 𝑉
quindi {𝑣1 , 𝑣2 , … , 𝑣𝑛 } sono generatori di 𝑉 , ma sono anche linearmente indipendenti?

𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛 = 0𝑉

⎛1⎞ ⎛0⎞ ⎛0⎞ ⎛0⎞


⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜0⎟
𝜆1 ⎜ ⎟ + 𝜆2 ⎜ ⎟ + … + 𝜆𝑛 ⎜ ⎟ = ⎜ ⎟
⎜⋮⎟ ⎜⋮⎟ ⎜⋮⎟ ⎜⋮⎟
⎝0⎠ ⎝0⎠ ⎝1⎠ ⎝0⎠
L’unica soluzione di questo sistema è 𝜆1 = 𝜆2 = … = 𝜆𝑛 = 0, perciò {𝑣1 , 𝑣2 , … , 𝑣𝑛 } sono
linearmente indipendenti. Ne segue che tali 𝑛 vettori sono una base di ℝ𝑛 , perciò dim ℝ𝑛 = 𝑛.
Questa base 𝑣1 , 𝑣2 , … , 𝑣𝑛 (solitamente indicata con 𝑒1 , 𝑒2 , … , 𝑒𝑛 ), è detta base canonica. Si noti
che questo è il sistema cartesiano standard che usiamo solitamente.

6.2 Estrarre e Completare Basi da Insiemi di Vettori


Teorema 6.2. Sia 𝑉 uno spazio vettoriale finitamente generato di dimensione 𝑛. Dato un insieme
di generatori {𝑣1 , 𝑣2 , … , 𝑣𝑠 } di 𝑉 (quindi con 𝑛 ≤ 𝑠), da tale insieme è sempre possibile estrarre una
base di 𝑉 .

Dimostrazione. Dati i generatori 𝑣1 , 𝑣2 , … , 𝑣𝑠 , se essi sono linearmente indipendenti, allora rap-


presentano già una base. Altrimenti sono linearmente dipendenti, quindi esiste uno dei vettori
che è combinazione lineare dei rimanenti (assumiamo sia l’ultimo vettore). Lo si può cancellare.
Si rimane con 𝑣1 , 𝑣2 , … , 𝑣𝑠−1 . Questi 𝑠 − 1 vettori sono ancora generatori di 𝑉 ?

𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑠−1 𝑣𝑠−1 + 𝜆𝑠 𝑣𝑠 ∀𝑣 ∈ 𝑉
6.2. ESTRARRE E COMPLETARE BASI DA INSIEMI DI VETTORI 25

Poichè 𝑣𝑠 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + … + 𝛼𝑠−1 𝑣𝑠−1

𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑠−1 𝑣𝑠−1 + 𝜆𝑠 (𝛼1 𝑣1 + 𝛼2 𝑣2 + … + 𝛼𝑠−1 𝑣𝑠−1 )

quindi
𝑣 = 𝛽1 𝑣1 + 𝛽2 𝑣2 + … + 𝛽𝑠−1 𝑣𝑠−1
dove 𝛽𝑖 = 𝜆𝑖 + 𝜆𝑠 𝛼𝑖 per ogni 𝑖 = 1, … , 𝑠 − 1 perciò i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑠−1 sono un generatore
di 𝑉 . Se sono anche linearmente indipendenti, rappresentano anche una base. Altrimenti si
itera il procedimento finché si ottengono esattamente 𝑛 vettori linearmente indipendenti che
rappresentano una base di 𝑉 e dimostra che dim 𝑉 = 𝑛. ■
Teorema 6.3. Sia 𝑉 uno spazio vettoriale finitamente generato (dim 𝑉 = 𝑛) e sia {𝑣1 , 𝑣2 , … , 𝑣𝑟 } un
insieme di vettori linearmente indipendenti (con 𝑟 ≤ 𝑛). L’insieme {𝑣1 , 𝑣2 , … , 𝑣𝑟 } può essere sempre
completato in modo da ottenere una base di 𝑉 .3
Dimostrazione. Se {𝑣1 , 𝑣2 , … , 𝑣𝑟 } sono generatori di 𝑉 , allora sono anche una base. Altrimenti,
esiste un vettore 𝑣𝑟+1 che non è combinazione lineare dei vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 . Perciò l’insieme di
vettori {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑣𝑟+1 } è un insieme di vettori linearmente indipendenti. Se questi 𝑟 +1 vettori
sono generatori di 𝑉 , allora sono anche una base. Altrimenti, si itera il procedimento finché si
ottiene un insieme di 𝑛 vettori, quando il procedimento termina. ■
Esempio 6.2.
Dato lo spazio vettoriale 𝑉 = ℝ3 (dim 𝑉 = 3) e dati i tre vettori 𝑈 = {𝑣1 , 𝑣2 , 𝑣3 } definiti come

⎛2⎞ ⎛1⎞ ⎛3⎞


𝑣1 = ⎜0⎟ 𝑣2 = ⎜1⎟ 𝑣3 = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝2⎠ ⎝0⎠
Determiniamo la dimensione e una base per lo spazio 𝐿(𝑈 ).

Svolgimento. Sappiamo che 𝑣1 , 𝑣2 e 𝑣3 sono generatori di 𝐿(𝑈 ), quindi andiamo a verificare se


sono linearmente indipendenti o dipendenti

𝜆1 𝑣1 + 𝜆2 𝑣2 + 𝜆3 𝑣3 = 0

⎛2⎞ ⎛1⎞ ⎛ 3 ⎞ ⎛0⎞


𝜆1 ⎜0⎟ + 𝜆2 ⎜1⎟ + 𝜆3 ⎜−1⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝2⎠ ⎝ 0 ⎠ ⎝0⎠

⎪ ⎧ ⎧
⎪ 2𝜆1 + 𝜆2 + 3𝜆3 = 0 ⎪ ⎪ −4𝜆2 + 𝜆2 + 3𝜆2 = 0 ⎪ ⎪0=0
⎪ ⎪ ⎪
⎨ 𝜆2 − 𝜆3 = 0 ⎨ 𝜆3 = 𝜆2 ⎨𝜆3 = 𝜆2

⎪ ⎪
⎪ ⎪


⎩𝜆1 + 2𝜆2 = 0 ⎪
⎩𝜆1 = −2𝜆2 ⎪
⎩𝜆1 = −2𝜆2
Il sistema ha infinite soluzioni (una per ogni 𝜆2 ), quindi i tre vettori 𝑣1 , 𝑣2 , 𝑣3 sono linearmente
dipendenti. Per individuare quale vettore è linearmente dipendente dagli altri, diamo un valore
arbitrario a 𝜆2 , per esempio 𝜆2 = 1. Da cui si ricava che 𝜆1 = −2, 𝜆2 = 1 e 𝜆3 = 1 è una soluzione
del sistema, quindi −2𝑣1 + 𝑣2 + 𝑣3 = 0. Da cui possiamo ricavare che

𝑣3 = 2𝑣1 − 𝑣2 quindi 𝐿(𝑈 ) = ⟨𝑣1 , 𝑣2 ⟩ (togliamo 𝑣3 )


3
Corollario 1.3.44, pag. 26
26 LEZIONE 6. DIMENSIONE DI SPAZI VETTORIALI E CREAZIONE DI BASI

oppure
𝑣2 = 2𝑣1 − 𝑣3 quindi 𝐿(𝑈 ) = ⟨𝑣1 , 𝑣3 ⟩ (togliamo 𝑣2 )
oppure
1 1
𝑣1 = 𝑣2 + 𝑣3 quindi 𝐿(𝑈 ) = ⟨𝑣2 , 𝑣3 ⟩ (togliamo 𝑣1 )
2 2
Decidiamo di togliere 𝑣3 . Rimaniamo con 𝑣1 e 𝑣2 . Ci chiediamo se sono linearmente indipendenti

𝜆1 𝑣 1 + 𝜆2 𝑣 2 = 0

⎛2⎞ ⎛1⎞ ⎛0⎞


⎜ ⎟
𝜆1 0 + 𝜆2 ⎜1⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝2⎠ ⎝0⎠


⎪ 2𝜆1 + 𝜆2 = 0 {
⎪ 𝜆1 = 0
⎨ 𝜆2 = 0

⎪ 𝜆2 = 0

⎩𝜆1 + 2𝜆2 = 0
Quindi {𝑣1 , 𝑣2 } sono linearmente indipendenti e sono una base di 𝐿(𝑈 ). Perciò dim 𝐿(𝑈 ) = 2
(geometricamente 𝐿(𝑈 ) è un piano). ✎
Lezione 7

Formula di Grassmann e Somma Diretta


di Spazi Vettoriali

Obiettivi:

• Enunciare e dimostrare la formula di Grassmann

• Definire la somma diretta di spazi vettoriali

7.1 Esempi
Esempio 7.1.
Consideriamo lo spazio vettoriale 𝑉 = ℝ4 . Sono dati quattro vettori

⎛1⎞ ⎛0⎞ ⎛3⎞ ⎛−3⎞


⎜0⎟ ⎜2⎟ ⎜−4⎟ ⎜4⎟
𝑣1 = ⎜ ⎟ 𝑣2 = ⎜ ⎟ 𝑣3 = ⎜ ⎟ 𝑣4 = ⎜ ⎟
⎜−1⎟ ⎜1⎟ ⎜−5⎟ ⎜1⎟
⎝2⎠ ⎝1⎠ ⎝4⎠ ⎝4⎠
Sia 𝑈 = ⟨𝑣1 , 𝑣2 , 𝑣3 , 𝑣4 ⟩. Vogliamo determinare la dimensione di 𝑈 e una sua base.
Determiniamo prima se i quattro vettori sono linearmente indipendenti risolvendo il sistema
di quattro equazioni lineari in quattro incognite
𝜆1 𝑣 1 + 𝜆2 𝑣 2 + 𝜆3 𝑣 3 + 𝜆4 𝑣 4 = 0


⎪ ⎧
⎪ ⎧

⎪ 𝜆1 + 3𝜆3 − 3𝜆4 = 0 ⎪ 𝜆1 = −3𝜆3 + 3𝜆4 ⎪ 𝜆1 = −3𝜆3 + 3𝜆4

⎪ ⎪
⎪ ⎪

⎪2𝜆2 − 4𝜆3 + 4𝜆4 = 0 ⎪2𝜆2 − 4𝜆3 + 4𝜆4 = 0 ⎪2𝜆2 − 4𝜆3 + 4𝜆4 = 0

⎪ ⎨
⎪ ⎨

⎪ −𝜆1 + 𝜆2 − 5𝜆3 + 𝜆4 = 0 ⎪ 3𝜆3 − 3𝜆4 + 𝜆2 − 5𝜆3 + 𝜆4 = 0 ⎪ 𝜆2 − 2𝜆3 − 2𝜆4 = 0

⎪ ⎪
⎪ ⎪

⎪ 2𝜆 + 𝜆2 + 4𝜆3 + 4𝜆4 = 0 ⎪−6𝜆3 + 6𝜆4 + 𝜆2 + 4𝜆3 + 4𝜆4 = 0 ⎪ 𝜆 − 2𝜆3 + 10𝜆4 = 0
⎩ 1 ⎩ ⎩ 2

⎪ ⎧
⎪ ⎧

⎪ 𝜆1 = −3𝜆3 + 3𝜆4 ⎪ 𝜆1 = −3𝜆3 + 3𝜆4 ⎪ 𝜆1 = −3𝜆3

⎪ ⎪
⎪ ⎪

⎪2𝜆2 − 4𝜆3 + 4𝜆4 = 0 ⎪2𝜆2 − 4𝜆3 + 4𝜆4 = 0 ⎪2𝜆2 − 4𝜆3 = 0

⎪ ⎨ ⎨
⎪ 2𝜆3 − 10𝜆4 − 2𝜆3 − 2𝜆4 = 0 ⎪ ⎪ −12𝜆4 = 0 ⎪
⎪ 𝜆4 = 0

⎪ ⎪
⎪ ⎪

⎪ 𝜆 = 2𝜆3 − 10𝜆4 ⎪ 𝜆 = 2𝜆3 − 10𝜆4 ⎪ 𝜆 = 2𝜆3
⎩ 2 ⎩ 2 ⎩ 2
27
28 LEZIONE 7. FORMULA DI GRASSMANN E SOMMA DIRETTA DI SPAZI VETTORIALI


⎪ ⎧

⎪ 𝜆1 = −3𝜆3 ⎪ 𝜆1 = −3𝜆3

⎪ ⎪

⎪4𝜆3 − 4𝜆3 = 0 ⎪0 = 0

⎪ ⎨

⎪ 𝜆4 = 0 ⎪ 𝜆4 = 0

⎪ ⎪

⎪ 𝜆 = 2𝜆3 ⎪ 𝜆 = 2𝜆3
⎩ 2 ⎩ 2
Il sistema ha infinite soluzioni, quindi i quattro vettori sono linearmente dipendenti – sono un
sistema di generatori di 𝑈 ma non sono una base di 𝑈 . Dalla soluzione del sistema, si ricava che

𝜆1 𝑣1 + 𝜆2 𝑣2 + 𝜆3 𝑣3 + 𝜆4 𝑣4 = −3𝑣1 + 2𝑣2 + 𝑣3 + 0𝑣4 = 0

quindi, per esempio,


𝑣3 = 3𝑣1 − 2𝑣2
ma 𝑣4 non è combinazione lineare degli altri vettori, perché 𝜆4 = 0. Possiamo anche scrivere 𝑣1
oppure 𝑣2 come combinazione lineare degli altri vettori. Perciò possiamo cancellare dall’insie-
me dei vettori uno dei tre vettori 𝑣1 , 𝑣2 e 𝑣3 . Cancelliamo 𝑣3 , consideriamo 𝑈 = ⟨𝑣1 , 𝑣2 , 𝑣4 ⟩ e
verifichiamo che questi tre vettori sono linearmente indipendenti

⎪ ⎧
⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪𝜆1 − 3𝜆4 = 0 ⎪ 𝜆1 = 3𝜆4 ⎪ 𝜆1 = 3𝜆4 ⎪ 𝜆1 = 3𝜆4 ⎪𝜆1 =0

⎪ ⎪
⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪2𝜆2 + 4𝜆4 = 0 ⎪2𝜆2 + 4𝜆4 = 0 ⎪2𝜆2 + 4𝜆4 = 0 ⎪8𝜆4 = 0 ⎪𝜆4 =0

⎪ ⎨
⎪ ⎨
⎪ ⎨
⎪ ⎨

⎪−𝜆1 + 𝜆2 + 𝜆4 = 0 ⎪ −3𝜆4 + 𝜆2 + 𝜆4 = 0 ⎪ 𝜆2 = 2𝜆4 ⎪ 𝜆2 = 2𝜆4 ⎪𝜆2 =0

⎪ ⎪
⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪2𝜆 + 𝜆2 + 4𝜆4 = 0 ⎪ 6𝜆 + 𝜆2 + 4𝜆4 = 0 ⎪ 𝜆 + 10𝜆4 = 0 ⎪ 12𝜆 = 0 ⎪𝜆 =0
⎩ 1 ⎩ 4 ⎩ 2 ⎩ 4 ⎩ 4
Il sistema ha una sola soluzione (nulla), quindi 𝑣1 , 𝑣2 , 𝑣4 sono linearmente indipendenti. Ciò
significa che 𝑣1 , 𝑣2 , 𝑣4 sono una base di 𝑈 , quindi dim 𝑈 = 3.
Esempio 7.2.
Consideriamo lo spazio vettoriale 𝑉 = ℝ3 e consideriamo i due vettori

⎛2⎞ ⎛1⎞
𝑣1 = ⎜−1⎟ 𝑣2 = ⎜1⎟
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝3⎠
che è facile vedere essere linearmente indipendenti (infatti non sono proporzionali e sono con-
tenuti in un piano). Vogliamo trovare un vettore 𝑣3 in modo che i vettori 𝑣1 , 𝑣2 , 𝑣3 formino una
base di ℝ3 .
Bisogna scegliere 𝑣3 in modo che esso non sia combinazione lineare di 𝑣1 e 𝑣2 . Per esem-
pio, prendiamo il vettore della base canonica 𝑣3 = (1, 0, 0) e verifichiamo che 𝑣1 , 𝑣2 , 𝑣3 siano
linearmente indipendenti
𝜆1 𝑣1 + 𝜆2 𝑣2 + 𝜆3 𝑣3 = 0
⎛2⎞ ⎛1⎞ ⎛1⎞ ⎛0⎞
𝜆1 −1 + 𝜆2 1 + 𝜆3 ⎜0⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝3⎠ ⎝0⎠ ⎝0⎠

⎪ ⎧
⎪ 2𝜆1 + 𝜆2 + 𝜆3 = 0 ⎪⎪ 𝜆3 = 0
⎪ ⎪
⎨ −𝜆1 + 𝜆2 = 0 ⎨ 𝜆1 = 0

⎪ ⎪


⎩3𝜆2 = 0 ⎪
⎩𝜆2 = 0
Quindi 𝑣1 , 𝑣2 , 𝑣3 sono linearmente indipendenti e rappresentano una base di ℝ3 .
7.2. FORMULA DI GRASSMANN 29

Teorema 7.1. Sia 𝑉 uno spazio vettoriale di dimensione 𝑛, dim 𝑉 = 𝑛, e siano 𝑣1 , 𝑣2 , … , 𝑣𝑛 𝑛 vettori
di 𝑉 , allora1
1. Se i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑛 sono linearmente indipendenti, essi sono anche un sistema di genera-
tori di 𝑉 , quindi sono una base di 𝑉

2. Se i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑛 sono un sistema di generatori di 𝑉 , essi sono anche linearmente


indipendenti, quindi sono una base di 𝑉
Il teorema suggerisce che quando si conosce la dimensione dello spazio vettoriale 𝑉 , dati
gli 𝑛 vettori è sufficiente verificare una delle due condizioni (che sono linearmente indipendenti
oppure un sistema di generatori) per verificare che l’insieme dei vettori è anche una base di 𝑉 .

7.2 Formula di Grassmann


Teorema 7.2. (Formula di Grassmann)2 Siano 𝑈 e 𝑊 due sottospazi vettoriali di uno spazio
vettoriale finitamente generato 𝑉 . Si ha

dim (𝑈 + 𝑊 ) = dim 𝑈 + dim 𝑊 − dim (𝑈 ∩ 𝑊 )

dove 𝑈 ∩ 𝑊 è il sottospazio vettoriale dell’intersezione dei due sottospazi e 𝑈 + 𝑊 = {𝑢 + 𝑤 | 𝑢 ∈


𝑈 , 𝑤 ∈ 𝑊 }.
Se ragioniamo in termini insiemistici, ci troviamo nella seguente situazione

|𝐴| = numero degli elementi dell’insieme A


|𝐴 ∪ 𝐵| = |𝐴| + |𝐵| − |𝐴 ∩ 𝐵|
Dimostrazione. Partiamo da 𝑈 ∩ 𝑊 . Sia {𝑣1 , 𝑣2 , … , 𝑣𝑟 } una base di 𝑈 ∩ 𝑊 , allora dim (𝑈 ∩ 𝑊 ) =
𝑟. Usiamo questa base di 𝑈 ∩ 𝑊 per trovare una base di 𝑈 e una base di 𝑊 completandole
opportunamente.
Consideriamo 𝑈 . Sia
{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , 𝑢2 , … , 𝑢𝑠 }
una base di 𝑈 , allora dim 𝑈 = 𝑟 + 𝑠
Consideriamo 𝑊 . Sia
{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑤1 , 𝑤2 , … , 𝑤𝑡 }
una base di 𝑊 , allora dim 𝑊 = 𝑟 + 𝑡
1
Proposizione 1.3.45, pag. 27
2
Proposizione 1.3.48, pag. 29
30 LEZIONE 7. FORMULA DI GRASSMANN E SOMMA DIRETTA DI SPAZI VETTORIALI

Una base di 𝑈 + 𝑊 è la seguente?


{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , 𝑢2 , … , 𝑢𝑠 , 𝑤1 , 𝑤2 , … , 𝑤𝑡 }
Questi 𝑟 + 𝑠 + 𝑡 vettori sono certamente un sistema di generatori di 𝑈 + 𝑊 . Infatti, ogni vettore
di 𝑈 + 𝑊 è della forma 𝑢 + 𝑤 con 𝑢 ∈ 𝑈 e 𝑤 ∈ 𝑊 , ma ogni vettore 𝑢 ∈ 𝑈 si può scrivere come
combinazione lineare dei vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , 𝑢2 , … , 𝑢𝑠 (perché essi sono una base di 𝑈 ) e ogni
vettore 𝑤 ∈ 𝑊 si può scrivere come combinazione lineare dei vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑤1 , 𝑤2 , … , 𝑤𝑡
(perché essi sono una base di 𝑊 ). Quindi tutti i vettori del tipo 𝑢 + 𝑤 si possono scrivere come
combinazione lineare dei vettori
𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , 𝑢2 , … , 𝑢𝑠 , 𝑤1 , 𝑤2 , … , 𝑤𝑡
Possiamo dimostrare che questi vettori presi tutti insieme sono linearmente indipendenti? Se è
vero, essi sono una base di 𝑈 + 𝑊 . Dobbiamo verificare che
𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 + 𝛼1 𝑢1 + 𝛼2 𝑢2 + … + 𝛼𝑠 𝑢𝑠 + 𝛽1 𝑤1 + 𝛽2 𝑤2 + … + 𝛽𝑡 𝑤𝑡 = 0𝑉
abbia come unica soluzione tutti i coefficienti 𝜆, 𝛼 e 𝛽 uguali a 0. Sappiamo che
𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 + 𝛼1 𝑢1 + 𝛼2 𝑢2 + … + 𝛼𝑠 𝑢𝑠 = −𝛽1 𝑤1 − 𝛽2 𝑤2 − … − 𝛽𝑡 𝑤𝑡
dove
𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 + 𝛼1 𝑢1 + 𝛼2 𝑢2 + … + 𝛼𝑠 𝑢𝑠 ∈ 𝑈
e
−𝛽1 𝑤1 − 𝛽2 𝑤2 − … − 𝛽𝑡 𝑤𝑡 ∈ 𝑊
Essendo i due vettori uguali, possiamo dire che
𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 + 𝛼1 𝑢1 + 𝛼2 𝑢2 + … + 𝛼𝑠 𝑢𝑠 ∈ 𝑈 ∩ 𝑊
e
−𝛽1 𝑤1 − 𝛽2 𝑤2 − … − 𝛽𝑡 𝑤𝑡 ∈ 𝑈 ∩ 𝑊
Ma qualsiasi vettore di 𝑈 ∩ 𝑊 si deve poter scrivere come combinazione lineare dei vettori
𝑣1 , 𝑣2 , … , 𝑣𝑟 , perciò avremo 𝛼1 = 𝛼2 = … = 𝛼𝑠 = 𝛽1 = 𝛽2 = … = 𝛽𝑡 = 0. Quindi otteniamo
𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑟 𝑣𝑟 = 0𝑉
che ha come unica soluzione 𝜆1 = 𝜆2 = … = 𝜆𝑟 = 0 perché i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 sono linearmente
indipendenti. Quindi {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , 𝑢2 , … , 𝑢𝑠 , 𝑤1 , 𝑤2 , … , 𝑤𝑡 } sono linearmente indipendenti e
rappresentano una base di 𝑈 + 𝑊 , perciò dim 𝑈 + 𝑊 = 𝑟 + 𝑠 + 𝑡.
Ci siamo chiesti se
dim (𝑈 + 𝑊 ) = dim 𝑈 + dim 𝑊 − dim (𝑈 ∩ 𝑊 )
?

ma sapendo che dim (𝑈 + 𝑊 ) = 𝑟 + 𝑠 + 𝑡, dim 𝑈 = 𝑟 + 𝑠, dim 𝑊 = 𝑟 + 𝑡, dim (𝑈 ∩ 𝑊 ) = 𝑟, quindi


𝑟 +𝑠+𝑡 =𝑟 +𝑠+𝑟 +𝑡 −𝑟
che implica che la formula è corretta. ■

Un caso particolare della formula di Grassmann si ha quando 𝑈 ∩ 𝑊 = {0𝑉 }. In questo caso


dim (𝑈 + 𝑊 ) = dim 𝑈 + dim 𝑊 − dim (𝑈 ∩ 𝑊 ) = dim 𝑈 + dim 𝑊 − 0 = dim 𝑈 + dim 𝑊
Poichè la dimensione di 𝑈 ∩ 𝑊 quando 𝑈 ∩ 𝑊 = {0𝑉 } è uguale a zero. Infatti, dato che la
dimensione 𝑈 ∩ 𝑊 è il numero di elementi di una sua base e il vettore nullo non forma una base
di 𝑈 ∩ 𝑊 , l’insieme del vettore nullo non è un insieme libero (linearmente indipendente) – ci
sono infinite soluzioni a 𝜆0𝑉 = 0𝑉 .
7.3. SOMMA DIRETTA DI DUE SOTTOSPAZI VETTORIALI 31

7.3 Somma Diretta di Due Sottospazi Vettoriali


Definizione 7.1. La somma di due sottospazi vettoriali 𝑈 e 𝑊 di 𝑉 si dice diretta, e si indica con
𝑈 ⊕ 𝑊 , se 𝑈 ∩ 𝑊 = {0𝑉 }.3

Teorema 7.3. Un vettore 𝑣 ∈ 𝑈 ⊕ 𝑊 si scrive in modo unico nella forma 𝑣 = 𝑢 + 𝑤 per un qualche
𝑢 ∈ 𝑈 e un qualche 𝑤 ∈ 𝑊 .4

Dimostrazione. Supponiamo di poter scrivere 𝑣 in due modi come

𝑣 = 𝑢1 + 𝑤1 = 𝑢2 + 𝑤2

Ciò implica che


𝑢1 − 𝑢2 = 𝑤2 − 𝑤1
Ma sappiamo che 𝑢1 − 𝑢2 ∈ 𝑈 e 𝑤2 − 𝑤1 ∈ 𝑊 , quindi

𝑢1 − 𝑢2 = 𝑤2 − 𝑤1 ∈ 𝑈 ∩ 𝑊 = {0𝑉 }

perciò
𝑢1 − 𝑢2 = 0𝑉 = 𝑤2 − 𝑤1 ⇒ 𝑢1 = 𝑢2 e 𝑤1 = 𝑤2
quindi l’espressione 𝑢1 + 𝑤1 è unica. ■

3
Definizione 1.3.21, pag. 17
4
Proposizione 1.3.22, pag. 17
Lezione 8

Esercizi su Sottospazi Vettoriali,


Generatori e Basi

Dato uno spazio vettoriale 𝑉 definito sul campo 𝐾 e data una base {𝑣1 , 𝑣2 , … , 𝑣𝑛 } di 𝑉 (fissata),
ogni vettore 𝑣 ∈ 𝑉 si può scrivere in modo unico come combinazione lineare di tale base

𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛

Ciò significa che esiste una corrispondenza biunivoca tra ogni vettore 𝑣 ∈ 𝑉 e ogni sequenza di
𝑛 numeri (𝜆1 , 𝜆2 , … , 𝜆𝑛 ) ∈ 𝐾 𝑛
𝑣 ∈ 𝑉 ⇔ (𝜆1 , 𝜆2 , … , 𝜆𝑛 ) ∈ 𝐾 𝑛
quindi esiste una corrispondenza biunivoca tra 𝑉 e 𝐾 𝑛

𝑉 ⇔ 𝐾𝑛 è una funzione tra spazi vettoriali

di cui parleremo nelle prossime lezioni.

Esempio 8.1.

𝑉 = { polinomi in 𝑥 di grado ≤ 3, a coefficienti reali }


𝑓 (𝑥) = 𝑎0 𝑥 0 + 𝑎1 𝑥 1 + 𝑎2 𝑥 2 + 𝑎3 𝑥 3 𝑎0 , 𝑎1 , 𝑎2 , 𝑎3 ∈ ℝ
Sia 𝑣1 = 1, 𝑣2 = 𝑥, 𝑣3 = 𝑥 2 , 𝑣4 = 𝑥 3 , {𝑣1 , 𝑣2 , 𝑣3 , 𝑣4 } sono una base di 𝑉

𝑓 (𝑥) = 𝑎0 𝑣1 + 𝑎1 𝑣2 + 𝑎2 𝑣3 + 𝑎3 𝑣4 è una combinazione lineare

Esiste la corrispondenza biunivoca

𝑉 ∋ 𝑓 (𝑥) ⇔ (𝑎0 , 𝑎1 , 𝑎2 , 𝑎3 ) ∈ ℝ4

Esercizio 8.1.

Consideriamo lo spazio vettoriale 𝑉 = ℝ3 e il sottospazio 𝑈 definito dall’equazione 𝑥1 −2𝑥2 +4𝑥3 =


0. Qual è la dimensione di 𝑈 ? Qual è una base di 𝑈 ?

Svolgimento. Costruiamo un sistema di un’equazione in tre incognite:

𝑥1 = 2𝑥2 − 4𝑥3

32
33

Tale sistema ha infinite soluzioni, per esempio, per ogni 𝑥2 e 𝑥3 , quindi ha due parametri liberi di
variare. Poniamo 𝑥2 = 𝑎 e 𝑥3 = 𝑏 (con 𝑎, 𝑏 ∈ ℝ), per cui 𝑥1 = 2𝑎 − 4𝑏. Vedremo che il numero di
parametri liberi di variare corrisponde alla dimensione di 𝑈 . Vediamolo coi calcoli.
Ogni vettore 𝑣 ∈ 𝑈 si può scrivere come segue (dove 𝑎, 𝑏 ∈ ℝ sono due parametri liberi di
variare)
⎛𝑥1 ⎞ ⎛2𝑎 − 4𝑏 ⎞ ⎛2⎞ ⎛−4⎞

𝑣 = 𝑥2 =⎟ ⎜ 𝑎 ⎟ ⎜ ⎟
= 𝑎 1 + 𝑏 ⎜ 0 ⎟ = 𝑎𝑢1 + 𝑏𝑢2
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑥3 ⎠ ⎝ 𝑏 ⎠ ⎝0⎠ ⎝1⎠
Abbiamo espresso 𝑣 come combinazione lineare di due vettori 𝑢1 = (2, 1, 0) e 𝑢2 = (−4, 0, 1), quindi
ogni vettore 𝑣 ∈ 𝑈 può essere generato dal sistema di generatori {𝑢1 , 𝑢2 }. Per dimostrare che
questi due vettori sono anche una base, basta dimostrare che sono linearmente indipendenti

𝜆1 𝑢1 + 𝜆2 𝑢2 = 0

⎛2⎞ ⎛−4⎞ ⎛0⎞


𝜆1 ⎜1⎟ + 𝜆2 ⎜ 0 ⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝ 1 ⎠ ⎝0⎠


⎪ 2𝜆1 − 4𝜆2 = 0

⎨ 𝜆1 = 0



⎩𝜆2 = 0
che ha una sola soluzione 𝜆1 = 𝜆2 = 0, quindi 𝑢1 e 𝑢2 sono linearmente indipendenti e sono una
base di 𝑈 . Perciò dim 𝑈 = 2 (infatti c’erano due parametri liberi di variare).
Si noti che i vettori 𝑢1 e 𝑢2 corrispondono alla scelta dei valori 𝑥2 = 1, 𝑥3 = 0 e 𝑥2 = 0, 𝑥3 = 1,
rispettivamente. Geometricamente, 𝑈 è un piano in ℝ3 (infatti ha dimensione 2) e, in particolare,
è il piano passante per l’origine che contiene i vettori 𝑢1 e 𝑢2 . ✎

Esercizio 8.2.

Sia 𝑉 uno spazio vettoriale e sia {𝑣1 , 𝑣2 , 𝑣3 , 𝑣4 } una base di 𝑉 (quindi dim 𝑉 = 4).

1. Sia 𝑈 il sottospazio vettoriale generato da 𝑢1 = 2𝑣2 − 𝑣4 , 𝑢2 = 𝑣1 + 2𝑣2 − 𝑣3 , 𝑢3 = 𝑣1 − 𝑣3 + 𝑣4 .


Qual è la dimensione di 𝑈 ? Qual è una sua base?

2. Sia 𝑊 il sottospazio vettoriale generato da 𝑤1 = 𝑣1 + 𝑣4 , 𝑤2 = 𝑣2 + 2𝑣3 , 𝑤3 = −𝑣2 + 𝑣3 + 𝑣4 ,


𝑤4 = 2𝑣1 + 3𝑣3 + 3𝑣4 . Qual è la dimensione di 𝑊 ? Qual è una sua base?

3. Qual è la dimensione e una base di 𝑈 ∩ 𝑊 e 𝑈 + 𝑊 ?

Svolgimento.

1. Il sottospazio vettoriale 𝑈 è generato dai tre vettori ⟨𝑢1 , 𝑢2 , 𝑢3 ⟩, quindi 𝑈 = ⟨𝑢1 , 𝑢2 , 𝑢3 ⟩,


perciò dim 𝑈 ≤ 3. Per calcolare la dimensione di 𝑈 dobbiamo verificare se i tre vettori
sono linearmente indipendenti o no. Risolviamo il sistema

𝜆1 𝑢1 + 𝜆2 𝑢2 + 𝜆3 𝑢3 = 0

𝜆1 (2𝑣2 − 𝑣4 ) + 𝜆2 (𝑣1 + 2𝑣2 − 𝑣3 ) + 𝜆3 (𝑣1 − 𝑣3 + 𝑣4 ) = 0


(𝜆2 + 𝜆3 )𝑣1 + (2𝜆1 + 2𝜆2 )𝑣2 + (−𝜆2 − 𝜆3 )𝑣3 + (−𝜆1 + 𝜆3 )𝑣4 = 0
34 LEZIONE 8. ESERCIZI SU SOTTOSPAZI VETTORIALI, GENERATORI E BASI

Poichè {𝑣1 , 𝑣2 , 𝑣3 , 𝑣4 } sono una base, sappiamo che tutti i coefficienti della combinazione
lineare devono essere uguale a 0

⎪ ⎧
⎪ ⎧

⎪ 𝜆2 + 𝜆3 = 0 ⎪ −𝜆3 + 𝜆3 = 0 ⎪ 0=0

⎪ ⎪
⎪ ⎪

⎪2𝜆1 + 2𝜆2 = 0 ⎪2𝜆3 − 2𝜆3 = 0 ⎪0 = 0

⎪ ⎨
⎪ ⎨

⎪ −𝜆2 − 𝜆3 = 0 ⎪ 𝜆2 = −𝜆3 ⎪ 𝜆2 = −𝜆3

⎪ ⎪
⎪ ⎪

⎪ −𝜆 + 𝜆3 = 0 ⎪ 𝜆 = 𝜆3 ⎪ 𝜆 = 𝜆3
⎩ 1 ⎩ 1 ⎩ 1
Il sistema ha un numero infinito di soluzioni, per ogni possibile valore di 𝜆3 , perciò i vettori
𝑢1 , 𝑢2 , 𝑢3 sono linearmente dipendenti. Se, per esempio, 𝜆3 = 1, allora 𝜆1 = 1 e 𝜆2 = −1,
quindi 𝑢1 − 𝑢2 + 𝑢3 = 0. Da cui ricaviamo, per esempio, che 𝑢3 = 𝑢2 − 𝑢1 e possiamo
eliminare 𝑢3 , perché è combinazione lineare di 𝑢1 e 𝑢2 . A questo punto, ci chiediamo se 𝑢1
e 𝑢2 sono linearmente indipendenti.

𝜆1 𝑢1 + 𝜆2 𝑢2 = 0

𝜆1 (2𝑣2 − 𝑣4 ) + 𝜆2 (𝑣1 + 2𝑣2 − 𝑣3 ) = 0


𝜆2 𝑣1 + (2𝜆1 + 2𝜆2 )𝑣2 − 𝜆2 𝑣3 − 𝜆1 𝑣4 = 0

⎪ ⎧

⎪ 𝜆2 = 0 ⎪ 0=0

⎪ ⎪

⎪2𝜆1 + 2𝜆2 = 0 ⎪0 = 0

⎪ ⎨

⎪ −𝜆2 = 0 ⎪ 𝜆2 = 0

⎪ ⎪

⎪ −𝜆 = 0 ⎪ 𝜆 =0
⎩ 1 ⎩ 1
Il sistema ha una sola soluzione 𝜆1 = 𝜆2 = 0, che significa che 𝑢1 e 𝑢2 sono linearmente
indipendenti e sono una base di 𝑈 .

2. Il sottospazio vettoriale 𝑊 è generato dai quattro vettori 𝑤1 , 𝑤2 , 𝑤3 , 𝑤4 , quindi abbiamo


𝑊 = ⟨𝑤1 , 𝑤2 , 𝑤3 , 𝑤4 ⟩, perciò dim 𝑊 ≤ 4. Per calcolare la dimensione di 𝑊 dobbiamo
verificare se i quattro vettori sono linearmente indipendenti o no. Risolviamo il sistema

𝜆1 𝑤1 + 𝜆2 𝑤2 + 𝜆3 𝑤3 + 𝜆4 𝑤4 = 0

𝜆1 (𝑣1 + 𝑣4 ) + 𝜆2 (𝑣2 + 2𝑣3 ) + 𝜆3 (−𝑣2 + 𝑣3 + 𝑣4 ) + 𝜆4 (2𝑣1 + 3𝑣3 + 3𝑣4 ) = 0


Risolvendo il relativo sistema, si scopre che un’incognita rimane libera di variare, perciò
il sistema ha infinite soluzioni e 𝑤1 , 𝑤2 , 𝑤3 , 𝑤4 sono linearmente dipendenti. In particolare,
si trova che 𝑤4 = 2𝑤1 + 𝑤2 + 𝑤3 . Possiamo quindi eliminare 𝑤4 e consideriamo 𝑊 =
⟨𝑤1 , 𝑤2 , 𝑤3 ⟩. Risolviamo il sistema

𝜆1 𝑤1 + 𝜆2 𝑤2 + 𝜆3 𝑤3 = 0

𝜆1 (𝑣1 + 𝑣4 ) + 𝜆2 (𝑣2 + 2𝑣3 ) + 𝜆3 (−𝑣2 + 𝑣3 + 𝑣4 ) = 0


La cui unica soluzione è 𝜆1 = 𝜆2 = 𝜆3 = 0, perciò 𝑤1 , 𝑤2 , 𝑤3 sono linearmente indipendenti
e sono una base di 𝑊 , che ha quindi dimensione 3.

3. Per determinare la dimensione di 𝑈 ∩ 𝑊 , partiamo dalle dimensione e basi di 𝑈 e 𝑊

𝑈 = ⟨𝑢1 , 𝑢2 ⟩ dim 𝑈 = 2 𝑊 = ⟨𝑤1 , 𝑤2 , 𝑤3 ⟩ dim 𝑊 = 3


35

Ogni vettore che appartiene a 𝑈 ∩ 𝑊 è tale per cui

𝛼1 𝑢1 + 𝛼2 𝑢2 = 𝛽1 𝑤1 + 𝛽2 𝑤2 + 𝛽3 𝑤3

𝛼1 (2𝑣2 − 𝑣4 ) + 𝛼2 (𝑣1 + 2𝑣2 − 𝑣3 ) = 𝛽1 (𝑣1 + 𝑣4 ) + 𝛽2 (𝑣2 + 2𝑣3 ) + 𝛽3 (−𝑣2 + 𝑣3 + 𝑣4 )


(𝛼2 − 𝛽1 )𝑣1 + (2𝛼1 + 2𝛼2 − 𝛽2 + 𝛽3 )𝑣2 + (−𝛼2 − 2𝛽2 − 𝛽3 )𝑣3 + (−𝛼1 − 𝛽1 − 𝛽3 )𝑣4 = 0

⎪ ⎧
⎪ ⎧

⎪ 𝛼2 − 𝛽1 = 0 ⎪ 𝛽1 = 𝛼 2 ⎪ 𝛽1 = 𝛼 2

⎪ ⎪
⎪ ⎪

⎪2𝛼1 + 2𝛼2 − 𝛽2 + 𝛽3 = 0 ⎪2𝛼1 + 2𝛼2 − 𝛽2 + 𝛽3 = 0 ⎪−𝛽3 − 𝛽2 = 0

⎪ ⎨
⎪ ⎨

⎪ −𝛼2 − 2𝛽2 − 𝛽3 = 0 ⎪ −𝛼2 − 2𝛽2 − 𝛽3 = 0 ⎪ −𝛼2 − 2𝛽2 − 𝛽3 = 0

⎪ ⎪
⎪ ⎪

⎪ −𝛼 − 𝛽1 − 𝛽3 = 0 ⎪ −𝛼 − 𝛼2 − 𝛽3 = 0 ⎪ 𝛼 = −𝛼2 − 𝛽3
⎩ 1 ⎩ 1 ⎩ 1

⎪ ⎧

⎪ 𝛽1 = 𝛼 2 ⎪ 𝛽1 = 𝛽3

⎪ ⎪

⎪𝛽2 = −𝛽3 ⎪𝛽2 = −𝛽3

⎪ ⎨

⎪ 𝛼 2 = 𝛽3 ⎪ 𝛼2 = 𝛽3

⎪ ⎪
⎪ 𝛼 = −𝛼2 − 𝛽3 ⎪ ⎪ 𝛼 = −2𝛽3
⎩ 1 ⎩ 1
Il sistema ha infinite soluzioni per ogni valore di 𝛽3 . Poiché c’è un singolo parametro che
è libero di variare, possiamo concludere che dim 𝑈 ∩ 𝑊 = 1.
Per trovare una base di 𝑈 ∩ 𝑊 , decidiamo arbitrariamente un valore di 𝛽3 , per esempio,
𝛽3 = 1. Una soluzione del sistema è 𝛼1 = −2, 𝛼2 = 1, 𝛽1 = 1, 𝛽2 = −1, 𝛽3 = 1. Poi ricordiamo
che ogni vettore di 𝑈 ∩ 𝑊 soddisfa

𝛼1 𝑢1 + 𝛼2 𝑢2 = 𝛽1 𝑤1 + 𝛽2 𝑤2 + 𝛽3 𝑤3

Perciò
−2𝑢1 + 𝑢2 = 𝑤1 − 𝑤2 + 𝑤3
Ma
−2𝑢1 + 𝑢2 = −2(2𝑣2 − 𝑣4 ) + (𝑣1 + 2𝑣2 − 𝑣3 ) = 𝑣1 − 2𝑣2 − 𝑣3 + 2𝑣4
e
𝑤1 − 𝑤2 + 𝑤3 = (𝑣1 + 𝑣4 ) − (𝑣2 + 2𝑣3 ) + (−𝑣2 + 𝑣3 + 𝑣4 ) = 𝑣1 − 2𝑣2 − 𝑣3 + 2𝑣4
In conclusione, dim 𝑈 ∩ 𝑊 = 1 e una base di 𝑈 ∩ 𝑊 è data dal vettore 𝑣 = 𝑣1 − 2𝑣2 − 𝑣3 + 2𝑣4
Con la formula di Grassmann, possiamo ricavare la dimensione di 𝑈 + 𝑊

dim (𝑈 + 𝑊 ) = dim 𝑈 + dim 𝑊 − dim (𝑈 ∩ 𝑊 ) = 2 + 3 − 1 = 4

Poichè lo spazio vettoriale 𝑉 da cui siamo partiti ha dimensione 4 e 𝑈 , 𝑊 ⊂ 𝑉 , possiamo


concludere che
𝑈,𝑊 ⊂ 𝑈 + 𝑊 ⊆ 𝑉 ⇒ 𝑈 + 𝑊 = 𝑉
ma, quindi, una base di 𝑈 + 𝑊 corrisponde a una base di 𝑉 , quindi {𝑣1 , 𝑣2 , 𝑣3 , 𝑣4 } è una
base di 𝑈 + 𝑊 . ✎
Parte II

Funzioni Lineari e Matrici

36
Lezione 9

Funzioni Lineari tra Spazi Vettoriali e


Isomorfismi

Obiettivi:

• Definire e riconoscere funzioni lineari tra spazi vettoriali

• Definire un isomorfismo

9.1 Esercizi
Esercizio 9.1.
Dato lo spazio vettoriale 𝑉 = ℝ3 e dato il sottospazio vettoriale 𝑈 ⊆ 𝑉 di equazione 2𝑥1 − 3𝑥2 = 0,
determinare la dimensione di 𝑈 e una sua base.

Svolgimento. Risolviamo l’equazione 2𝑥1 − 3𝑥2 = 0, per esempio, come 𝑥1 = 32 𝑥2 , che ha infinite
soluzioni per ogni 𝑥2 e per ogni 𝑥3 . Dando a 𝑥2 e 𝑥3 i valori di due parametri 𝑎 e 𝑏, abbiamo 𝑥2 = 𝑎
⎛ 32 𝑥2 ⎞
e 𝑥3 = 𝑏. Un qualsiasi vettore 𝑢 ∈ 𝑈 può essere scritto come ⎜ 𝑥2 ⎟, quindi ha due parametri liberi
⎜ ⎟
⎝ 𝑥3 ⎠
di variare.
{ ⎛ 3 𝑎⎞ }
2
𝑈 = ⎜ 𝑎 ⎟ | ∀𝑎, 𝑏 ∈ ℝ
⎜ ⎟
⎝𝑏⎠
Ogni vettore 𝑢 ∈ 𝑈 si può scrivere come

⎛ 32 ⎞ ⎛0⎞
𝑢 = 𝑎𝑢1 + 𝑏𝑢2 = 𝑎 ⎜1⎟ + 𝑏 ⎜0⎟
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝1⎠
Perciò dim 𝑈 = 2 e {𝑢1 , 𝑢2 } sono una base di 𝑈 . Si noti che la dimensione del sottospazio 𝑈 è
uguale al numero di incognite di 2𝑥1 − 3𝑥2 = 0 libere di variare (in ℝ3 ). ✎
Esercizio 9.2.
Consideriamo lo spazio vettoriale 𝑉 = ℝ3 e il sottospazio 𝑈 definito dalle equazioni
𝑥1 − 2𝑥3 = 0 2𝑥1 + 𝑥2 − 4𝑥3 = 0

37
38 LEZIONE 9. FUNZIONI LINEARI TRA SPAZI VETTORIALI E ISOMORFISMI

Vogliamo determinare la dimensione di 𝑈 e una sua base.

Svolgimento. { { {
𝑥1 − 2𝑥3 = 0 𝑥1 = 2𝑥3 𝑥1 = 2𝑥3
2𝑥1 + 𝑥2 − 4𝑥3 = 0 4𝑥3 + 𝑥2 − 4𝑥3 = 0 𝑥2 = 0
Il sistema ha infinite soluzioni per ogni valore di 𝑥3 . Avendo un solo parametro libero di variare,
ci aspettiamo che lo spazio 𝑈 abbia dimensione 1. Infatti, detto 𝑥3 = 𝑎 (∀𝑎 ∈ ℝ), si ha 𝑥1 = 2𝑎 e
𝑥2 = 0, quindi
{ ⎛2𝑎⎞ }
𝑈 = ⎜ ⎟
0 | ∀𝑎 ∈ ℝ
⎜ ⎟
⎝𝑎⎠
Ogni vettore 𝑢 ∈ 𝑈 può essere scritto come

⎛2⎞
𝑢 = 𝑎𝑢1 =𝑎 ⎜0⎟
⎜ ⎟
⎝1⎠
La dimensione di 𝑈 è quindi 1 (dim 𝑈 = 1) e una sua base è costituita dal vettore 𝑢1 . ✎

9.2 Funzioni Lineari tra Spazi Vettoriali


Supponiamo di avere due spazi vettoriali 𝑉 e 𝑊 (definiti su un campo 𝐾 fissato). Consideriamo
una funzione 𝑓 che associa ad ogni vettore 𝑣 ∈ 𝑉 un vettore 𝑤 ∈ 𝑊

𝑓 ∶ 𝑣 ↦ 𝑤 = 𝑓 (𝑣) con 𝑣 ∈ 𝑉 e 𝑓 (𝑣) ∈ 𝑊

In particolare, ci interessano le funzioni, definite tra due spazi vettoriali, che sono compatibili
con le operazioni di somma di vettori e di prodotto di un vettore per uno scalare.

Definizione 9.1. Siano 𝑉 e 𝑊 due spazi vettoriali su un campo 𝐾 . Una funzione 𝑓 ∶ 𝑉 → 𝑊 è


detta additiva se
𝑓 (𝑣1 + 𝑣2 ) = 𝑓 (𝑣1 ) + 𝑓 (𝑣2 ) ∀𝑣1 , 𝑣2 ∈ 𝑉
Una tale funzione è detta lineare1 se, oltre ad essere additiva, soddisfa l’uguaglianza

𝑓 (𝜆𝑣) = 𝜆𝑓 (𝑣) ∀𝑣 ∈ 𝑉 , 𝜆 ∈ 𝐾

Equivalentemente, possiamo dire che una funzione 𝑓 ∶ 𝑉 → 𝑊 è lineare se

𝑓 (𝜆1 𝑣1 + 𝜆2 𝑣2 ) = 𝜆1 𝑓 (𝑣1 ) + 𝜆2 𝑓 (𝑣2 ) ∀𝑣1 , 𝑣2 ∈ 𝑉 , 𝜆1 , 𝜆2 ∈ 𝐾

Le condizioni imposte dalla definizione di funzioni lineari restringono molto l’insieme delle
funzioni su cui ci concentreremo.

1
Definizione 2.1.1, pag. 35
9.2. FUNZIONI LINEARI TRA SPAZI VETTORIALI 39

Esempio 9.1.

Data una funzione lineare 𝑓 , qual è 𝑓 (0𝑉 )?


Per l’addività delle funzioni lineare, sappiamo che

𝑓 (0𝑉 + 0𝑉 ) = 𝑓 (0𝑉 ) = 𝑤?

𝑓 (0𝑉 + 0𝑉 ) = 𝑓 (0𝑉 ) + 𝑓 (0𝑉 )


Da cui
𝑓 (0𝑉 ) + 𝑓 (0𝑉 ) = 𝑓 (0𝑉 ) e 𝑤 +𝑤 =𝑤
Da cui, sottraendo 𝑤, otteniamo
𝑤 = 0𝑊
quindi 𝑓 (0𝑉 ) = 0𝑊 per ogni funzione lineare. Questa proprietà è utile anche per dimostrare se
una funzione è lineare oppure no.
La stessa proprietà che 𝑓 (0𝑉 ) = 0𝑊 per ogni funzione lineare si poteva dimostrare anche come
segue
𝑓 (0𝑉 ) = 𝑓 (0 ⋅ 𝑣) = 0 ⋅ 𝑓 (𝑣) = 0𝑊

Una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 rimanda il vettore nullo 0𝑉 nel vettore nullo 0𝑊 = 𝑓 (0𝑉 )

Esempio 9.2.

Consideriamo la funzione 𝑓 ∶ ℝ3 → ℝ2

⎛𝑥1 ⎞
𝑥1 + 4
𝑣 = ⎜𝑥2 ⎟↦ 𝑤 =
⎜ ⎟ (2𝑥2 − 7𝑥3 + 𝑥1 )
⎝𝑥3 ⎠
La funzione 𝑓 è lineare?
Dobbiamo verificare se la funzione soddisfa la proprietà di somma di vettori e di prodotto di
vettore per uno scalare. Possiamo anche usare la proprietà che 𝑓 (0) = 0

⎛0⎞
4
𝑓 ⎜0⎟= ≠0
(
⎜ ⎟ 0)
0
⎝ ⎠
Perciò la funzione 𝑓 non è lineare.

Esempio 9.3.

Consideriamo la funzione 𝑓 ∶ ℝ3 → ℝ2

⎛𝑥1 ⎞
𝑥1 𝑥2
𝑣 = ⎜𝑥2 ⎟↦ 𝑤 = = 𝑤 = 𝑓 (𝑣)
⎜ ⎟ (𝑥2 − 𝑥3 )
⎝𝑥3 ⎠
La funzione 𝑓 è lineare?
40 LEZIONE 9. FUNZIONI LINEARI TRA SPAZI VETTORIALI E ISOMORFISMI

Verifichiamo la proprietà per il vettore nullo


⎛0⎞
0
𝑓 ⎜0⎟= = 0𝑊
⎜ ⎟ (0)
⎝0⎠
che porterebbe a pensare che la funzione è lineare (anche se non lo è). Infatti, dati 𝑣1 , 𝑣2 ∈ ℝ3 ,
verifichiamo se 𝑓 (𝑣1 + 𝑣2 ) = 𝑓 (𝑣1 ) + 𝑓 (𝑣2 ). Dati
⎛𝑎⎞ ⎛𝑎 ′ ⎞
𝑣1 = ⎜𝑏 ⎟ 𝑣2 = ⎜ 𝑏 ′ ⎟
⎜ ⎟ ⎜ ′⎟
⎝𝑐 ⎠ ⎝𝑐 ⎠
Abbiamo
⎛𝑎 + 𝑎′ ⎞
(𝑎 + 𝑎′ )(𝑏 + 𝑏 ′ ) 𝑎𝑏 + 𝑎𝑏 ′ + 𝑎′ 𝑏 + 𝑎′ 𝑏 ′
𝑣1 + 𝑣2 = ⎜𝑏 + 𝑏 ′ ⎟ 𝑓 (𝑣1 + 𝑣2 ) = =
⎜ ′⎟ ( 𝑏 + 𝑏′ − 𝑐 − 𝑐 ′ ) ( 𝑏 + 𝑏′ − 𝑐 − 𝑐 ′ )
⎝𝑐 + 𝑐 ⎠
Però
𝑎𝑏 𝑎′ 𝑏 ′ 𝑎𝑏 + 𝑎′ 𝑏 ′
𝑓 (𝑣1 ) + 𝑓 (𝑣2 ) = + ′ ′ =
(𝑏 − 𝑐) (𝑏 − 𝑐 ) (𝑏 + 𝑏 ′ − 𝑐 − 𝑐 ′ )
Quindi 𝑓 (𝑣1 + 𝑣2 ) ≠ 𝑓 (𝑣1 ) + 𝑓 (𝑣2 ), che significa che la funzione 𝑓 non è lineare.

9.3 Isomorfismi di Spazi Vettoriali


Definizione 9.2. Una funzione lineare tra due spazi vettoriali è anche detta un omomorfismo di
spazi vettoriali.
Definizione 9.3. Sia 𝑓 ∶ 𝑉 → 𝑊 un omomorfismo di spazi vettoriali. 𝑓 è un isomorfismo se esiste
un omomorfismo 𝑔 ∶ 𝑊 → 𝑉 tale che 𝑔 ◦ 𝑓 = 𝑖𝑑𝑉 e 𝑓 ◦ 𝑔 = 𝑖𝑑𝑊 .2
In altre parole, dire che 𝑓 è un isomorfismo di spazi vettoriali equivale a dire che 𝑓 è un
omomorfismo invertibile e che la sua funzione inversa è lineare.
Supponiamo di avere una funzione 𝑓 ∶ 𝑉 → 𝑊 (quindi 𝑣 ↦ 𝑤 = 𝑓 (𝑣)) che è un isomorfismo.
Allora possiamo dire che
• Ad ogni vettore 𝑣 ∈ 𝑉 corrisponde uno ed un solo vettore 𝑤 = 𝑓 (𝑣) ∈ 𝑊
• Ad ogni vettore 𝑤 ∈ 𝑊 corrisponde uno ed un solo vettore 𝑣 ∈ 𝑉 tale che 𝑓 (𝑣) = 𝑤
Prendiamo uno spazio vettoriale 𝑉 (su un campo 𝐾 ) tale che dim 𝑉 = 𝑛. Consideriamo un
base di 𝑉 , {𝑣1 , 𝑣2 , … , 𝑣𝑛 }. Sappiamo che ogni vettore 𝑣 ∈ 𝑉 si può scrivere in modo unico come
combinazione lineare dei vettori della base
𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛
Ciò consente di stabilire una corrisponde biunivoca tra i vettori di 𝑉 e gli scalari della combina-
zione lineare
𝑉 ↔ 𝐾 𝑛 ⇒ 𝑣 ⇔ (𝜆1 , 𝜆2 , … , 𝜆𝑛 )
𝑓 è quindi biiettiva. Poichè si può dimostrare che 𝑓 è anche lineare (saltiamo questa dimostrazio-
ne), si può concludere che 𝑓 è un isomorfismo.
Da questa osservazione, si ricava il seguente teorema
2
Definizione 2.1.2, pag. 35
9.3. ISOMORFISMI DI SPAZI VETTORIALI 41

Teorema 9.1. Tutti gli spazi vettoriali sul campo 𝐾 , di dimensione 𝑛, sono isomorfi a 𝐾 𝑛 .

L’isomorfismo dipende dalla scelta di una base di 𝑉 , quindi non esiste un isomorfismo cano-
nico.

Esempio 9.4.

Sia 𝑉 uno spazio vettoriale di dimensione 2 su ℝ (𝑉 = ℝ2 ). Dato un qualsiasi vettore 𝑣, tale vettore
può essere espresso in maniera biunivoca come le coordinate di una base scelta (ovverosia di un
sistema di riferimento scelto). Tuttavia possiamo scegliere infinite basi.

• 𝑣 ⇔ (𝜆1 , 𝜆2 ) le coordinate di 𝑣 nel sistema di riferimento rosso dipendono dalla base rossa
{𝑣1 , 𝑣2 }

• 𝑣 ⇔ (𝜇1 , 𝜇2 ) le coordinate di 𝑣 nel sistema di riferimento verde dipendono dalla base verde
{𝑤1 , 𝑤2 }
Lezione 10

Nucleo e Immagine di Funzioni Lineari

Obiettivi:

• Definire il nucleo e l’immagine di una funzione lineare

• Discutere le relazioni tra nucleo e immagine

10.1 Nucleo e Immagine di una Funzione Lineare


Definizione 10.1. 1 Sia 𝑓 ∶ 𝑉 → 𝑊 una funzione lineare tra due spazi vettoriali. Il nucleo (kernel)
di 𝑓 è l’insieme
Ker(𝑓 ) = {𝑣 ∈ 𝑉 | 𝑓 (𝑣) = 0𝑊 }
L’immagine di 𝑓 è l’insieme

Im(𝑓 ) = {𝑤 ∈ 𝑊 | ∃𝑣 ∈ 𝑉 ∶ 𝑤 = 𝑓 (𝑣)} ⊆ 𝑊

Teorema 10.1. Ker(𝑓 ) è un sottospazio vettoriale di 𝑉 .2

Dimostrazione. Dobbiamo verificare che Ker(𝑓 ) è chiuso per l’operazione di somma tra vettori e
per l’operazione di prodotto di un vettore per uno scalare.

• Se prendiamo 𝑣1 , 𝑣2 ∈ Ker(𝑓 ), allora 𝑣1 + 𝑣2 ∈ Ker(𝑓 )?


Per definizione di Ker(𝑓 ), 𝑓 (𝑣1 ) = 𝑓 (𝑣2 ) = 0𝑊 . Dobbiamo verificare se 𝑓 (𝑣1 + 𝑣2 ) = 0𝑊 , ma,
poichè 𝑓 è lineare, 𝑓 (𝑣1 + 𝑣2 ) = 𝑓 (𝑣1 ) + 𝑓 (𝑣2 ) = 0𝑊 + 0𝑊 = 0𝑊 .

• Se prendiamo 𝑣 ∈ Ker(𝑓 ) e 𝜆 ∈ 𝐾 , allora 𝜆𝑣 ∈ Ker(𝑓 )? Dobbiamo verificare se 𝑓 (𝜆𝑣) = 0𝑊 .


Poichè 𝑓 è lineare 𝑓 (𝜆𝑣) = 𝜆𝑓 (𝑣) = 𝜆0𝑊 = 0𝑊 .

Conseguentemente, Ker(𝑓 ) è un sottospazio vettoriale di 𝑉 .■

Teorema 10.2. Im(𝑓 ) è un sottospazio vettoriale di 𝑊 .3

Dimostrazione. Dobbiamo verificare che Im(𝑓 ) è chiuso per l’operazione di somma tra vettori e
per l’operazione di prodotto di un vettore per uno scalare.
1
Definizione 2.1.7, pag. 37
2
Proposizione 2.1.8, pag. 37
3
Proposizione 2.1.8, pag. 37

42
10.2. RELAZIONI TRA NUCLEO E IMMAGINE DI UNA FUNZIONE LINEARE 43

• Se prendiamo 𝑤1 , 𝑤2 ∈ Im(𝑓 ), allora 𝑤1 + 𝑤2 ∈ Im(𝑓 )? Poichè 𝑤1 , 𝑤2 ∈ Im(𝑓 ), allora 𝑤1 =


𝑓 (𝑣1 ) e 𝑤2 = 𝑓 (𝑣2 ). Ci chiediamo se esiste 𝑣3 tale che 𝑤1 + 𝑤2 = 𝑓 (𝑣3 ). Possiamo dire che
𝑣3 = 𝑣1 + 𝑣2 infatti 𝑓 (𝑣3 ) = 𝑓 (𝑣1 + 𝑣2 ) = 𝑓 (𝑣1 ) + 𝑓 (𝑣2 ) = 𝑤1 + 𝑤2 perché 𝑓 è lineare.
• Se prendiamo 𝜆 ∈ 𝐾 e 𝑤 ∈ Im(𝑓 ), allora 𝜆𝑤 ∈ Im(𝑓 )? Poichè 𝑤 ∈ Im(𝑓 ), allora 𝑤 = 𝑓 (𝑣).
Poichè 𝑓 è lineare, sappiamo che 𝑓 (𝜆𝑣) = 𝜆𝑓 (𝑣) = 𝜆𝑤. Perciò 𝜆𝑤 ∈ Im(𝑓 ).
Conseguentemente Im(𝑓 ) è sottospazio vettoriale di 𝑊 .■
Teorema 10.3. Sia 𝑓 ∶ 𝑉 → 𝑊 una funzione lineare. 𝑓 è iniettiva se e solo se Ker(𝑓 ) = {0𝑉 }.4
Dimostrazione. (⇒) Supponiamo che 𝑓 sia iniettiva. In questo caso, se 𝑣1 ≠ 𝑣2 , anche 𝑓 (𝑣1 ) ≠
𝑓 (𝑣2 ). Non può succedere ciò che è rappresentato in figura:

Sappiamo che 𝑓 (0𝑉 ) = 0𝑊 , perché 𝑓 è lineare. Se Ker(𝑓 ) ≠ {0𝑉 }, allora esisterebbe 𝑣 ≠ 0𝑉 tale
che 𝑣 ∈ Ker(𝑓 ), cioè 𝑓 (𝑣) = 0𝑊 . Si avrebbe 𝑣 ≠ 0𝑉 , ma 𝑓 (𝑣) = 𝑓 (0𝑉 ), che è falso perché abbiamo
assunto che 𝑓 sia iniettiva.
(⇐) Supponiamo che Ker(𝑓 ) = {0𝑉 } e dimostriamo che 𝑓 dev’essere iniettiva. Dati due vettori
𝑣1 , 𝑣2 ∈ 𝑉 tali che 𝑣1 ≠ 𝑣2 , è vero che 𝑓 (𝑣1 ) ≠ 𝑓 (𝑣2 )? Se fosse 𝑓 (𝑣1 ) = 𝑓 (𝑣2 ), allora avremmo
𝑓 (𝑣1 ) − 𝑓 (𝑣2 ) = 𝑓 (𝑣1 − 𝑣2 ) = 0𝑊 , perché 𝑓 è lineare. Ciò implica che 𝑣1 − 𝑣2 ∈ Ker(𝑓 ) = {0𝑉 },
quindi 𝑣1 − 𝑣2 = 0𝑉 e 𝑣1 = 𝑣2 , che è falso per l’assunzione iniziale. Perciò 𝑓 (𝑣1 ) ≠ 𝑓 (𝑣2 ), quindi 𝑓
è iniettiva. ■
Definizione 10.2. 𝑓 ∶ 𝑉 → 𝑊 è suriettiva se Im(𝑓 ) = 𝑊 per definizione.

Ker(𝑓 ) determina l’iniettività della funzione 𝑓 e Im(𝑓 ) ne determina la suriettività

10.2 Relazioni tra Nucleo e Immagine di una Funzione Li-


neare
Dati due spazi vettoriali 𝑉 e 𝑊 e data una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 , prendiamo una base
{𝑣1 , 𝑣2 , … , 𝑣𝑛 } di 𝑉 . Chiamiamo i vettori 𝑤1 = 𝑓 (𝑣1 ), 𝑤2 = 𝑓 (𝑣2 ), …, 𝑤𝑛 = 𝑓 (𝑣𝑛 ), tutti appartenenti
a Im(𝑓 ). Tali vettori sono una base di 𝑊 ?
In generale, no! Lo vediamo con un esempio
Esempio 10.1.
𝑓 ∶ 𝑉 → 𝑊 lineare, con 𝑉 = ℝ3 , 𝑊 = ℝ3

⎛𝑥1 ⎞ ⎛ 2𝑥1 − 𝑥2 + 3𝑥3 ⎞


𝑓 ∶ 𝑥2 ↦ ⎜ 3𝑥2 − 𝑥3 ⎟
⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝𝑥3 ⎠ ⎝2𝑥1 + 2𝑥2 + 2𝑥3 ⎠
4
Proposizione 2.1.9, pag. 38
44 LEZIONE 10. NUCLEO E IMMAGINE DI FUNZIONI LINEARI

Prendiamo la base canonica di 𝑉 = ℝ3


⎛1⎞ ⎛0⎞ ⎛0⎞
𝑣1 = ⎜0⎟ , 𝑣2 = ⎜1⎟ , 𝑣3 = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝1⎠
Abbiamo
⎛2⎞ ⎛−1⎞ ⎛3⎞
𝑤1 = 𝑓 (𝑣1 ) = ⎜0⎟ , 𝑤2 = 𝑓 (𝑣2 ) = ⎜ 3 ⎟ , 𝑤3 = 𝑓 (𝑣3 ) = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝2⎠
I tre vettori {𝑤1 , 𝑤2 , 𝑤3 } sono una base di 𝑊 ? Risolviamo

⎛2⎞ ⎛−1⎞ ⎛3⎞


⎜ ⎟ ⎜ ⎟
𝜆1 0 + 𝜆2 3 + 𝜆3 ⎜−1⎟ = 0𝑊
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝2⎠

⎪ ⎧
⎪ ⎧
⎪ 2𝜆1 − 𝜆2 + 3𝜆3 = 0 ⎪ 2𝜆1 + 8𝜆2 = 0 ⎪ ⎪ 0=0
⎪ ⎪ ⎪
⎨ 3𝜆2 − 𝜆3 = 0 ⎨ 𝜆3 = 3𝜆2 ⎨ 𝜆3 = 3𝜆2

⎪ ⎪
⎪2𝜆 + 8𝜆 = 0 ⎪ ⎪

⎩2𝜆1 + 2𝜆2 + 2𝜆3 = 0 ⎪ ⎩ 1 2 ⎪
⎩𝜆1 = −4𝜆2
Il sistema ha infinite soluzioni, quindi {𝑤1 , 𝑤2 , 𝑤3 } sono linearmente dipendenti e non rappre-
sentano una base di Im(𝑓 ). Tuttavia, si può dimostrare il seguente teorema

Teorema 10.4. Se l’insieme di vettori {𝑣1 , 𝑣2 , … , 𝑣𝑛 } è una base di 𝑉 , allora {𝑤1 = 𝑓 (𝑣1 ), 𝑤2 =
𝑓 (𝑣2 ), … , 𝑤𝑛 = 𝑓 (𝑣𝑛 )} è un insieme di generatori di Im(𝑓 ).

Dimostrazione. Dato 𝑤 ∈ Im(𝑓 ), allora 𝑤 = 𝑓 (𝑣) per qualche 𝑣 ∈ 𝑉 , ovverosia

𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛

Allora
𝑤 = 𝑓 (𝑣) = 𝑓 (𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛 ) =
= 𝑓 (𝜆1 𝑣1 ) + 𝑓 (𝜆2 𝑣2 ) + … + 𝑓 (𝜆𝑛 𝑣𝑛 ) =
= 𝜆1 𝑓 (𝑣1 ) + 𝜆2 𝑓 (𝑣2 ) + … + 𝜆𝑛 𝑓 (𝑣𝑛 ) =
= 𝜆1 𝑤1 + 𝜆2 𝑤2 + … + 𝜆𝑛 𝑤𝑛

Perciò i vettori 𝑤1 , 𝑤2 , … , 𝑤𝑛 generano Im(𝑓 ). ■

Teorema 10.5. (formula delle dimensioni)5 Sia 𝑓 ∶ 𝑉 → 𝑊 una funzione lineare. Se 𝑉 ha


dimensione finita, si ha
dim 𝑉 = dim Ker(𝑓 ) + dim Im(𝑓 )

Dimostrazione. Poniamo 𝑛 = dim 𝑉 e 𝑟 = dim Ker(𝑓 ); bisogna dimostrare che dim Im(𝑓 ) = 𝑛 − 𝑟.
Consideriamo una base di Ker(𝑓 )
{𝑣1 , 𝑣2 , … , 𝑣𝑟 }
e completiamola a una base di 𝑉

{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑣𝑟+1 , … , 𝑣𝑛 }
5
Proposizione 2.1.11, pag. 38
10.3. TEOREMA DELLA NULLITÀ E RANGO 45

Sappiamo che le immagini tramite 𝑓 dei vettori di una base di 𝑉 sono un insieme di genera-
tori di Im(𝑓 ). Dato che 𝑓 (𝑣1 ) = 𝑓 (𝑣2 ) = … = 𝑓 (𝑣𝑟 ) = 0, se ne deduce che 𝑤1 = 𝑓 (𝑣𝑟+1 ), 𝑤2 =
𝑓 (𝑣𝑟+2 ), … , 𝑤𝑛−𝑟 = 𝑓 (𝑣𝑛 ) generano Im(𝑓 ). Dimostriamo che tali vettori sono anche linearmente
indipendenti. Consideriamo una combinazione lineare

𝜆1 𝑤1 + 𝜆2 𝑤2 + … + 𝜆𝑛−𝑟 𝑤𝑛−𝑟 = 0

Per la linearità di 𝑓 , si ha

0 = 𝜆1 𝑤1 +𝜆2 𝑤2 +…+𝜆𝑛−𝑟 𝑤𝑛−𝑟 = 𝜆1 𝑓 (𝑣𝑟+1 )+𝜆2 𝑓 (𝑣𝑟+2 )+…+𝜆𝑛−𝑟 𝑓 (𝑣𝑛 ) = 𝑓 (𝜆1 𝑣𝑟+1 +𝜆2 𝑣𝑟+2 +…+𝜆𝑛−𝑟 𝑣𝑛 )

pertanto
𝜆1 𝑣𝑟+1 + 𝜆2 𝑣𝑟+2 + … + 𝜆𝑛−𝑟 𝑣𝑛 ∈ Ker(𝑓 )
Poichè {𝑣1 , 𝑣2 , … , 𝑣𝑟 } è una base di Ker(𝑓 ), si ha

𝜆1 𝑣𝑟+1 + 𝜆2 𝑣𝑟+2 + … + 𝜆𝑛−𝑟 𝑣𝑛 = 𝜇1 𝑣1 + 𝜇2 𝑣2 + … + 𝜇𝑟 𝑣𝑟

e quindi
𝜇1 𝑣1 + 𝜇2 𝑣2 + … + 𝜇𝑟 𝑣𝑟 − 𝜆1 𝑣𝑟+1 − 𝜆2 𝑣𝑟+2 − … − 𝜆𝑛−𝑟 𝑣𝑛 = 0
Dato che, per ipotesi i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑛 sono una base di 𝑉 , allora

𝜇1 = 𝜇2 = … = 𝜇𝑟 = 0 𝜆1 = 𝜆2 = … = 𝜆𝑛−𝑟 = 0

che dimostra che i vettori 𝑤1 , 𝑤2 , … , 𝑤𝑛−𝑟 sono linearmente indipendenti. Conseguentemente, tali
vettori sono una base di Im(𝑓 ) e dunque dim Im(𝑓 ) = 𝑛 − 𝑟. ■

10.3 Teorema della Nullità e Rango


Osservazione 10.1. 6 Sia 𝑓 ∶ 𝑉 → 𝑊 una funzione lineare tra due spazi vettoriali. La dimensione
dell’immagine di 𝑓 è detta il rango di 𝑓 7

rango(𝑓 ) = dim Im(𝑓 )

mentre la dimensione del nucleo di 𝑓 è detta la nullità di 𝑓

null(𝑓 ) = dim Ker(𝑓 )

Sappiamo, quindi, che rango(𝑓 ) + null(𝑓 ) = dim 𝑉

6
Osservazione 2.1.12, pag. 39
7
Si può scrivere 𝑟𝑘(𝑓 ) o 𝑟𝑎𝑛𝑔𝑜(𝑓 )
Lezione 11

Matrici Associate a Funzioni Lineari e


Operazioni su Matrici

Obiettivi:

• Scrivere la matrice associata a una funzione lineare

• Applicare le principali operazioni su matrici

Esempio 11.1.

Consideriamo la funzione lineare 𝑓 ∶ 𝑉 = ℝ3 → 𝑊 = ℝ2

⎛𝑥1 ⎞
3𝑥1 − 𝑥2 + 𝑥3
𝑣 = ⎜𝑥2 ⎟ ↦ = 𝑓 (𝑣)
⎜ ⎟ (−2𝑥1 + 4𝑥2 − 𝑥3 )
𝑥
⎝ 3⎠
Vogliamo calcolare la dimensione e una base di Ker(𝑓 ), la dimensione e una base di Im(𝑓 ).
Ci sono due alternative per rispondere alle domande.

1. Per calcolare dim Ker(𝑓 ), partiamo dalla sua definizione, ovvero Ker(𝑓 ) = {𝑣 | 𝑓 (𝑣) = 0}.
Quindi 𝑓 (𝑣) = 0 se e solo se (𝑥1 , 𝑥2 , 𝑥3 ) sono soluzione del seguente sistema
{ { { {
3𝑥1 − 𝑥2 + 𝑥3 = 0 𝑥3 = −3𝑥1 + 𝑥2 𝑥3 = −3𝑥1 + 𝑥2 𝑥3 = 10𝑥2
−2𝑥1 + 4𝑥2 − 𝑥3 = 0 −2𝑥1 + 4𝑥2 + 3𝑥1 − 𝑥2 = 0 𝑥1 + 3𝑥2 = 0 𝑥1 = −3𝑥2

Il sistema ha infinite soluzione al variare di 𝑥2 . Perciò dim Ker(𝑓 ) = 1. Una sua base si
ottiene assegnando, per esempio, a 𝑥2 il valore 1 e ricavando i valori di 𝑥1 e 𝑥3 , che restituisce
la base 𝑢 = (−3, 1, 10). Siccome sappiamo che dim Ker(𝑓 ) + dim Im(𝑓 ) = dim 𝑉 , deduciamo
che dim Im(𝑓 ) = 2. Poi possiamo ricavare una base di Im(𝑓 ) come mostrato in Alternativa
2.

2. Calcoliamo prima la dimensione di Im(𝑓 ), una sua base e poi lavoriamo su Ker(𝑓 ). Data la
definizione di Im(𝑓 ) e data la base canonica di ℝ3

⎛1⎞ ⎛0⎞ ⎛0⎞


𝑣1 = ⎜0⎟ , 𝑣2 = ⎜1⎟ , 𝑣3 = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝1⎠

46
11.1. FUNZIONI LINEARI E BASI 47

ricaviamo
3 −1 1
𝑓 (𝑣1 ) = , 𝑓 (𝑣2 ) = , 𝑓 (𝑣3 ) =
(−2) (4) (−1)
Sapendo che {𝑓 (𝑣1 ), 𝑓 (𝑣2 ), 𝑓 (𝑣3 )} sono generatori di Im(𝑓 ) e che Im(𝑓 ) ⊆ ℝ2 , deduciamo che
dim Im(𝑓 ) ≤ 2. Perciò 𝑓 (𝑣1 ), 𝑓 (𝑣2 ), 𝑓 (𝑣3 ) sono sicuramente linearmente dipendenti. Pos-
siamo decidere di cancellare arbitrariamente uno dei tre vettori (sperando che questo sia
combinazione lineare dei rimanenti) e verificare che i rimanenti siano linearmente indipen-
denti. Cancelliamo 𝑓 (𝑣1 ) e verifichiamo se 𝑓 (𝑣2 ) ed 𝑓 (𝑣3 ) sono linearmente indipendenti,
risolvendo 𝜆1 𝑓 (𝑣2 ) + 𝜆2 𝑓 (𝑣3 ) = 0

−1 1 0
𝜆1 + 𝜆2 =
(4) (−1) (0)
{ { { {
−𝜆1 + 𝜆2 = 0 𝜆1 = 𝜆2 𝜆1 = 𝜆2 𝜆1 = 0
4𝜆1 − 𝜆2 = 0 4𝜆2 − 𝜆2 = 0 3𝜆2 = 0 𝜆2 = 0
Quindi 𝑓 (𝑣2 ) e 𝑓 (𝑣3 ) sono linearmente indipendenti. Perciò {𝑓 (𝑣2 ), 𝑓 (𝑣3 )} è una base di Im(𝑓 )
e dim Im(𝑓 ) = 2. Ricordando che dim ℝ2 = 2, concludiamo che Im(𝑓 ) = ℝ2 ed 𝑓 è suriettiva.
Sapendo che dim Ker(𝑓 ) + dim Im(𝑓 ) = dim 𝑉 , deduciamo che dim Ker(𝑓 ) + 2 = 3, quindi
dim Ker(𝑓 ) = 1. Per ricavare una base di Ker(𝑓 ), dobbiamo risolvere il sistema 𝑓 (𝑣) = 0
come visto in Alternativa 1.

11.1 Funzioni Lineari e Basi


Teorema 11.1. Una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 è completamente determinata dalla conoscenza
di 𝑓 (𝑣1 ), 𝑓 (𝑣2 ), …, 𝑓 (𝑣𝑛 ), dove 𝑣1 , 𝑣2 , …, 𝑣𝑛 sono una base di 𝑉 .

Dimostrazione. Vogliamo calcolare l’immagine 𝑓 (𝑣) per un qualsiasi vettore 𝑣 ∈ 𝑉 . Siccome i


vettori 𝑣1 , 𝑣2 , …, 𝑣𝑛 sono una base di 𝑉 , allora

𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛

Volendo calcolare 𝑓 (𝑣) e sapendo che 𝑓 è lineare, sappiamo che

𝑓 (𝑣) = 𝜆1 𝑓 (𝑣1 ) + 𝜆2 𝑓 (𝑣2 ) + … + 𝜆𝑛 𝑓 (𝑣𝑛 )

quindi conoscendo le immagini dei vettori di una base del dominio possiamo calcolare l’immagine
di ogni vettore del dominio della funzione lineare 𝑓 . ■

Conoscendo le immagini dei vettori di una base del dominio di una funzione lineare, si può
calcolare la funzione per un qualsiasi vettore del dominio

11.2 Matrice Associata a una Funzione Lineare


Sia 𝑓 ∶ 𝑉 → 𝑊 una funzione lineare e siano definite una base di 𝑉 e una base di 𝑊

{𝑣1 , 𝑣2 , … , 𝑣𝑛 } base di 𝑉 con dim 𝑉 = 𝑛


48 LEZIONE 11. MATRICI ASSOCIATE A FUNZIONI LINEARI E OPERAZIONI SU MATRICI

{𝑤1 , 𝑤2 , … , 𝑤𝑚 } base di 𝑊 con dim 𝑊 = 𝑚


Sappiamo che 𝑓 (𝑣1 ) ∈ 𝑊 , quindi possiamo scrivere 𝑓 (𝑣1 ), in modo unico, come combinazione
lineare dei vettori della base di 𝑊
𝑓 (𝑣1 ) = 𝑎1 𝑤1 + 𝑎2 𝑤2 + … + 𝑎𝑚 𝑤𝑚
Analogamente
𝑓 (𝑣2 ) = 𝑏1 𝑤1 + 𝑏2 𝑤2 + … + 𝑏𝑚 𝑤𝑚
e in generale
𝑚
𝑓 (𝑣𝑗 ) = 𝑎1𝑗 𝑤1 + 𝑎2𝑗 𝑤2 + … + 𝑎𝑚𝑗 𝑤𝑚 = ∑ 𝑎𝑖𝑗 𝑤𝑖
𝑖=1
Quindi, si può definire una matrice 𝑚 × 𝑛 (di 𝑚 righe e 𝑛 colonne)
𝐴 = (𝑎𝑖𝑗 ) 𝑖 = 1, 2, … , 𝑚 = dim 𝑊 𝑗 = 1, 2, … , 𝑛 = dim 𝑉

⎡ 𝑎11 𝑎12 … 𝑎1𝑛 ⎤


⎢𝑎 𝑎22 … 𝑎2𝑛 ⎥
𝐴 = ⎢ 21
⎢ ⋮ ⋮ ⋱ ⋮ ⎥⎥
𝑎 𝑎
⎣ 𝑚1 𝑚2 … 𝑎𝑚𝑛 ⎦

Ad una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 si può associare una matrice 𝐴, che dipende dalle basi
scelte di 𝑉 e di 𝑊

Per la precisione, dovremmo scrivere


𝐴 = 𝑀𝑣𝑤 (𝑓 ) =
= matrice di 𝑓 ∶ 𝑉 → 𝑊 risp. alle basi 𝑣 = {𝑣1 , … , 𝑣𝑛 } di 𝑉 e 𝑤 = {𝑤1 , … , 𝑤𝑚 } di 𝑊
Tale notazione è pesante, per cui la useremo solo quando è necessario specificare le basi esplici-
tamente.

11.3 Somma di Funzioni Lineari e Somma di Matrici


Date due funzioni lineari 𝑓 , 𝑔 ∶ 𝑉 → 𝑊 , la somma di funzioni è definita come
(𝑓 + 𝑔)(𝑣) = 𝑓 (𝑣) + 𝑔(𝑣)
Poichè possiamo associare una matrice ad una funzione lineare
𝑓 ⇝ matrice 𝐴 = (𝑎𝑖𝑗 ) = 𝑀𝑣𝑤 (𝑓 )
𝑔 ⇝ matrice 𝐵 = (𝑏𝑖𝑗 ) = 𝑀𝑣𝑤 (𝑔)
Allora 𝑚 𝑚 𝑚
(𝑓 + 𝑔)(𝑣𝑗 ) = 𝑓 (𝑣𝑗 ) + 𝑔(𝑣𝑗 ) = ∑ 𝑎𝑖𝑗 𝑤𝑖 + ∑ 𝑏𝑖𝑗 𝑤𝑖 = ∑(𝑎𝑖𝑗 + 𝑏𝑖𝑗 )𝑤𝑖
𝑖=1 𝑖=1 𝑖=1
Si definisce la somma di due matrici 𝐴 e 𝐵 (con 𝑚 righe e 𝑛 colonne):
𝐴 + 𝐵 = (𝑎𝑖𝑗 + 𝑏𝑖𝑗 ) 𝑖 = 1, … , 𝑚 𝑗 = 1, … , 𝑛
Si ha
𝑀𝑣𝑤 (𝑓 + 𝑔) = 𝑀𝑣𝑤 (𝑓 ) + 𝑀𝑣𝑤 (𝑔)
11.4. PRODOTTO DI UNA MATRICE PER UNO SCALARE 49

11.4 Prodotto di una Matrice per uno Scalare


Dato uno scalare 𝜆 ∈ 𝐾 e una matrice 𝐴 = (𝑎𝑖𝑗 ), il prodotto di una matrice per uno scalare è
𝜆𝐴 = (𝜆𝑎𝑖𝑗 )
e si ha
𝑀𝑣𝑤 (𝜆𝑓 ) = 𝜆𝑀𝑣𝑤 (𝑓 )
Poichè l’insieme delle matrici 𝑚 × 𝑛 è chiuso per la somma di matrici e il prodotto di matrice per
uno scalare, allora tale insieme forma uno spazio vettoriale.

11.5 Composizione di Funzioni Lineari e Prodotto di Matri-


ci
Date due funzioni lineari 𝑓 ∶ 𝑉 → 𝑊 e 𝑔 ∶ 𝑊 → 𝑍 , vogliamo studiare la composizione di
funzioni 𝑔 ◦ 𝑓 = 𝑔(𝑓 (𝑣)), con 𝑣 ∈ 𝑉 e 𝑓 (𝑣) ∈ 𝑊 .
Dobbiamo introdurre una base per ciascuno dei tre spazi vettoriali 𝑉 , 𝑊 , 𝑍
𝑣 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } base di 𝑉
𝑤 = {𝑤1 , 𝑤2 , … , 𝑤𝑚 } base di 𝑊
𝑧 = {𝑧1 , 𝑧2 , … , 𝑧𝑟 } base di 𝑍
Inoltre siano 𝐴 = 𝑀𝑣𝑤 (𝑓 ) e 𝐵 = 𝑀𝑤𝑧 (𝑔) le due matrici definite come
𝑚
𝐴 = (𝑎𝑖𝑗 ) la matrice di 𝑓 ovverosia 𝑓 (𝑣𝑗 ) = ∑ 𝑎𝑖𝑗 𝑤𝑖
𝑖=1
𝑟
𝐵 = (𝑏ℎ𝑖 ) la matrice di 𝑔 ovverosia 𝑔(𝑤𝑖 ) = ∑ 𝑏ℎ𝑖 𝑧ℎ
ℎ=1
Sia 𝐶 = (𝑐ℎ𝑗 ) la matrice della funzione composta 𝑔 ◦ 𝑓 , ovverosia 𝐶 = 𝑀𝑣𝑧 (𝑔 ◦ 𝑓 ), che è definita
come 𝑚 𝑚 𝑚 𝑟
(𝑔 ◦ 𝑓 )(𝑣𝑗 ) = 𝑔(𝑓 (𝑣𝑗 )) = 𝑔(∑ 𝑎𝑖𝑗 𝑤𝑖 ) = ∑ 𝑎𝑖𝑗 𝑔(𝑤𝑖 ) = ∑ 𝑎𝑖𝑗 (∑ 𝑏ℎ𝑖 𝑧ℎ ) =
𝑖=1 𝑖=1 𝑖=1 ℎ=1
𝑚 𝑟 𝑚 𝑟 𝑟 𝑚 𝑟
= ∑ ∑ 𝑎𝑖𝑗 𝑏ℎ𝑖 𝑧ℎ = ∑ ∑ 𝑏ℎ𝑖 𝑎𝑖𝑗 𝑧ℎ = ∑ ( ∑ 𝑏ℎ𝑖 𝑎𝑖𝑗 )𝑧ℎ = ∑ 𝑐ℎ𝑗 𝑧ℎ
𝑖=1 ℎ=1 𝑖=1 ℎ=1 ℎ=1 𝑖=1 ℎ=1
dove 𝑚
𝑐ℎ𝑗 = ∑ 𝑏ℎ𝑖 𝑎𝑖𝑗 ∀ℎ = 1, … , 𝑟 𝑗 = 1, … , 𝑛
𝑖=1
quindi
𝑟
(𝑔 ◦ 𝑓 )(𝑣𝑗 ) = ∑ 𝑐ℎ𝑗 𝑧ℎ
ℎ=1
Il prodotto di matrici è
𝐶 = 𝐵 ⋅ 𝐴 dove 𝐶 ⇝ 𝑔 ◦ 𝑓 𝐵⇝𝑔 𝐴⇝𝑓
più precisamente
𝑀𝑣𝑧 (𝑔 ◦ 𝑓 ) = 𝑀𝑤𝑧 (𝑔) ⋅ 𝑀𝑣𝑤 (𝑓 )
Il prodotto di matrici corrisponde alla composizione di funzioni.
Lezione 12

Proprietà delle Operazioni tra Matrici

Obiettivi:

• Calcolare il prodotto tra matrici

• Discutere le principali proprietà delle operazioni tra matrici

• Calcolare la trasposta di una matrice

Data una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 e date due basi {𝑣1 , 𝑣2 , … , 𝑣𝑛 }, base di 𝑉 (𝑛 = dim 𝑉 ), e
{𝑤1 , 𝑤2 , … , 𝑤𝑚 }, base di 𝑊 (𝑚 = dim 𝑊 ), sappiamo che
𝑚
𝑓 (𝑣𝑗 ) = ∑ 𝑎𝑖𝑗 𝑤𝑖 = 𝑎1𝑗 𝑤1 + 𝑎2𝑗 𝑤2 + … + 𝑎𝑚𝑗 𝑤𝑚
𝑖=1

quindi alla funzione 𝑓 possiamo associare una matrice 𝐴 con 𝑚 righe ed 𝑛 colonne, la cui generica
colonna 𝑗 (con 𝑗 = 1, … , 𝑛) corrisponde alle componenti del vettore 𝑓 (𝑣𝑗 ) rispetto alla base di 𝑤

⎛ 𝑎11 𝑎12 … 𝑎1𝑗 … 𝑎1𝑛 ⎞


⎜𝑎 𝑎22 … 𝑎2𝑗 … 𝑎2𝑛 ⎟
𝐴 = ⎜ 21
⎜ ⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⎟⎟
𝑎 𝑎
⎝ 𝑚1 𝑚2 … 𝑎𝑚𝑗 … 𝑎𝑚𝑛 ⎠

Esempio 12.1.

Data la funzione lineare 𝑓 ∶ 𝑉 → 𝑊 , le relative basi {𝑣1 , 𝑣2 , 𝑣3 } di 𝑉 (quindi dim 𝑉 = 3) e


{𝑤1 , 𝑤2 } di 𝑊 (quindi dim 𝑊 = 2), e sapendo che


⎪ 𝑓 (𝑣1 ) = 3𝑤1 − 2𝑤2

⎨ 𝑓 (𝑣2 ) = 𝑤1 + 5𝑤2



⎩𝑓 (𝑣3 ) = −4𝑤1 − 7𝑤2
Qual è la matrice 𝐴 di 𝑓 rispetto alle basi fissate?

3 1 −4
𝐴=
(−2 5 −7)

50
12.1. OPERAZIONI TRA MATRICI E LORO PROPRIETÀ 51

12.1 Operazioni tra Matrici e loro Proprietà


Esempio 12.2.
(Somma di matrici)
1 2 −3 2 −1 0 3 1 −3
+ =
(0 4 5 ) (1 2 −3) (1 6 2 )
Esempio 12.3.
Matrice nulla (ogni suo elemento è 0, che è l’elemento neutro per la somma)

⎛0 0 … 0⎞
⎜0 0 … 0⎟
⎜⋮ ⋮ ⋱ ⋮ ⎟⎟

⎝0 0 … 0⎠
Esempio 12.4.
Matrice opposta, −𝐴, di una data matrice 𝐴
𝐴 = (𝑎𝑖𝑗 ) matrice opposta − 𝐴 = (−𝑎𝑖𝑗 )
quindi
⎛0 0 … 0⎞
⎜0 0 … 0⎟
𝐴 + (−𝐴) = ⎜
⎜⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝0 0 … 0⎠

12.2 Prodotto tra Matrici


Date due matrici 𝐴 = (𝑎𝑖𝑗 ) e 𝐵 = (𝑏𝑖𝑗 ). Qual è la matrice 𝐶 = 𝐵 ⋅ 𝐴, 𝐶 = (𝑐𝑖𝑗 )?
𝑟
𝑐𝑖𝑗 = ∑ 𝑏𝑖ℎ 𝑎ℎ𝑗 = 𝑏𝑖1 𝑎1𝑗 + 𝑏𝑖2 𝑎2𝑗 + … + 𝑏𝑖𝑟 𝑎𝑟𝑗 ∀𝑖 = 1, … , 𝑚 ∀𝑗 = 1, … , 𝑛
ℎ=1

quindi 𝐵 deve avere 𝑟 colonne (𝐵 è di dimensione 𝑚 × 𝑟) e 𝐴 deve avere 𝑟 righe (𝐴 è di dimensione


𝑟 × 𝑛). Si noti che l’elemento 𝑐𝑖𝑗 in riga 𝑖 e colonna 𝑗 della matrice 𝐶 deriva dall’𝑖-esima riga della
matrice 𝐵 e dalla 𝑗-esima colonna della matrice 𝐴. Difatti il prodotto tra matrici è anche noto
come “prodotto righe per colonne”.
Esempio 12.5.
Date le due matrici
⎛1 −1⎞
2 1 0
𝐴 = ⎜0 5 ⎟ e 𝐵=
⎜ ⎟ (1 −2 3)
⎝2 −2⎠
Si ha
⎛1 −1⎞
2 1 0 ⎜
𝐵⋅𝐴= 0 5⎟=
(1 −2 3) ⎜ ⎟
⎝2 −2⎠
2⋅1+1⋅0+0⋅2 2 ⋅ (−1) + 1 ⋅ 5 + 0 ⋅ (−2) 2 3
= =
(1 ⋅ 1 + (−2) ⋅ 0 + 3 ⋅ 2 1 ⋅ (−1) + (−2) ⋅ 5 + 3 ⋅ (−2)) (7 −17)
52 LEZIONE 12. PROPRIETÀ DELLE OPERAZIONI TRA MATRICI

Esempio 12.6.

Prodotto di una matrice per un vettore colonna

⎛1⎞
5 1 0 ⎜ ⎟ 5 ⋅ 1 + 1 ⋅ (−1) + 0 ⋅ 2 4
−1 = =
(2 −1 4) ⎜ ⎟ (2 ⋅ 1 + (−1) ⋅ (−1) + 4 ⋅ 2) (11)
⎝2⎠
Esempio 12.7.

Prodotto di un vettore riga per una matrice

⎛1 2⎞
⎜−1 0⎟
(3 0 2 −1) ⎜ 3 0⎟⎟
=

⎝0 1⎠

= (3 ⋅ 1 + 0 ⋅ (−1) + 2 ⋅ 3 + (−1) ⋅ 0 3 ⋅ 2 + 0 ⋅ 0 + 2 ⋅ 0 + (−1) ⋅ 1) = (9 5)

Osservazione 12.1. Per matrici quadrate di ordine 𝑛 (𝑛 righe e 𝑛 colonne) il prodotto è sempre
definito.

Esempio 12.8.

Date due matrici 𝐴 e 𝐵, calcoliamo i prodotti 𝐴 ⋅ 𝐵 e 𝐵 ⋅ 𝐴

1 2 4 2
𝐴= 𝐵=
(0 3) (−1 3)

1 2 4 2 2 8
𝐴⋅𝐵 = =
(0 3) (−1 3) (−3 9)

4 2 1 2 4 14
𝐵⋅𝐴= =
(−1 3) (0 3) (−1 7 )

In generale, il prodotto tra matrici non gode dalla proprietà commutativa 𝐴 ⋅ 𝐵 ≠ 𝐵 ⋅ 𝐴

Esempio 12.9.

Consideriamo la matrice
0 1 0 0
𝐴= ≠0=
(0 0) (0 0)
Tuttavia
0 1 0 1 0 0
𝐴2 = 𝐴 ⋅ 𝐴 = ⋅ =
(0 0) (0 0) (0 0)
Conclusioni:

• Esistono matrici 𝐴 ≠ 0 tali che 𝐴𝑛 = 0 (elementi nilpotenti)

• Esistono matrici 𝐴 ≠ 0 e 𝐵 ≠ 0 tali che 𝐴 ⋅ 𝐵 = 0 (divisori dello zero)


12.3. PROPRIETÀ DELLE OPERAZIONI TRA MATRICI 53

12.3 Proprietà delle Operazioni tra Matrici


Date le matrici 𝐴, 𝐵, 𝐶 (di opportune dimensioni)
1. (commutativa) 𝐴𝐵 ≠ 𝐵𝐴 in generale
2. (associativa) (𝐴𝐵)𝐶 = 𝐴(𝐵𝐶) sempre vero
3. (distributiva) (𝐴 + 𝐵) ⋅ 𝐶 = 𝐴 ⋅ 𝐶 + 𝐵 ⋅ 𝐶
4. (distributiva) 𝐶 ⋅ (𝐴 + 𝐵) = 𝐶 ⋅ 𝐴 + 𝐶 ⋅ 𝐵
5. (esistenza dell’elemento neutro per il prodotto) esiste!
𝑎 𝑏 1 0 𝑎 𝑏
⋅ =
( 𝑐 𝑑) (0 1) ( 𝑐 𝑑)
La matrice (quadrata 𝑛 × 𝑛) identica (con 0 ovunque tranne che nella diagonale principale
che contiene tutti 1) è l’elemento neutro per il prodotto tra matrici
⎛1 0 0 … 0⎞
⎜0 1 0 … 0⎟
⎜ ⎟
𝐼 = ⎜0 0 1 … 0⎟
⎜⋮ ⋮ ⋮ ⋱ 0⎟
⎜0 0 0 … 1⎟⎠

Si ha inoltre
𝐴⋅𝐼 =𝐼 ⋅𝐴=𝐴
per ogni matrice 𝐴 quadrata di ordine 𝑛
Esempio 12.10.
Si noti che l’insussistenza della proprietà commutativa ha importanti conseguenze

no!
?
(𝐴 + 𝐵)2 = 𝐴2 + 2𝐴𝐵 + 𝐵2
Infatti
(𝐴 + 𝐵)2 = (𝐴 + 𝐵) ⋅ (𝐴 + 𝐵) = 𝐴2 + 𝐴𝐵 + 𝐵𝐴 + 𝐵2 ≠ 𝐴2 + 2𝐴𝐵 + 𝐵2
perché 𝐴𝐵 ≠ 𝐵𝐴

12.4 Trasposta di una Matrice


Definizione 12.1. Sia 𝐴 = (𝑎𝑖𝑗 ) un matrice di 𝑚 righe e 𝑛 colonne. La trasposta di 𝐴 (indicata
come 𝐴𝑡 o 𝑡 𝐴 o 𝐴𝑡 …) è la matrice con 𝑛 righe ed 𝑚 colonne il cui elemento 𝑎𝑖𝑗 in posizione (𝑖, 𝑗) è
l’elemento di posizione (𝑗, 𝑖) della matrice 𝐴.
Esempio 12.11.

⎛2 0⎞
2 3 −1 4 ⎜3 2⎟
𝐴= 𝐴𝑡 = ⎜
(0 2 1 3)
⎜−1 1⎟⎟
⎝4 3⎠
Proprietà: date le matrici 𝐴, 𝐵 (di opportune dimensioni)
54 LEZIONE 12. PROPRIETÀ DELLE OPERAZIONI TRA MATRICI

1. (trasposta della trasposta)


(𝐴𝑡 )𝑡 = 𝐴

2. (trasposta della somma di due matrici)

(𝐴 + 𝐵)𝑡 = 𝐴𝑡 + 𝐵𝑡

3. (trasposta del prodotto di due matrici)

(𝐴 ⋅ 𝐵)𝑡 = 𝐵𝑡 ⋅ 𝐴𝑡
Lezione 13

Esempi di Matrici Associate a Funzioni


Lineari

Per poter associare a una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 una matrice bisogna definire una base di
𝑉 e una base di 𝑊

𝑣 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } base di 𝑉 e 𝑤 = {𝑤1 , 𝑤2 , … , 𝑤𝑚 } base di 𝑊

Ogni vettore 𝑣 ∈ 𝑉 si può scrivere come


𝑛
𝑣 = ∑ 𝜆𝑗 𝑣𝑗
𝑗=1

Inoltre
⎛𝜆1 ⎞
⎜𝜆 ⎟
𝑣 ∈ 𝑉 ⇔ ⎜ 2⎟ ∈ 𝐾 𝑛 isomorfismo tra 𝑉 e 𝐾 𝑛
⎜⋮⎟
⎝ 𝜆𝑛 ⎠
Per essere più precisi, dovremmo scrivere
𝑣
⎛ 𝜆1 ⎞
⎜ 𝜆2 ⎟
⎜⋮⎟
⎜ ⎟
⎝ 𝜆𝑛 ⎠
per indicare che le componenti 𝜆𝑗 sono rispetto alla base 𝑣.
Analogamente, ogni vettore 𝑤 ∈ 𝑊 si può scrivere come
𝑚
𝑤 = ∑ 𝜇𝑖 𝑤𝑖
𝑖=1

Inoltre
⎛ 𝜇1 ⎞
⎜𝜇 ⎟
𝑤 ∈ 𝑊 ⇔ ⎜ 2 ⎟ ∈ 𝐾𝑚 isomorfismo tra 𝑊 e 𝐾 𝑚
⎜ ⎟⋮
⎝ 𝜇𝑚 ⎠
Alla funzione 𝑓 è possibile associare una matrice 𝐴 = (𝑎𝑖𝑗 ) rispetto alle basi fissate

𝐴 = 𝑀𝑣𝑤 (𝑓 )

55
56 LEZIONE 13. ESEMPI DI MATRICI ASSOCIATE A FUNZIONI LINEARI

La matrice 𝐴 è costruita dalle immagini in 𝑓 della base del dominio


𝑚
𝑓 (𝑣𝑗 ) = 𝑎1𝑗 𝑤1 + 𝑎2𝑗 𝑤2 + … + 𝑎𝑚𝑗 𝑤𝑚 = ∑ 𝑎𝑖𝑗 𝑤𝑖
𝑖=1

ciascuna delle quali rappresenta una colonna di 𝐴


Tutto ciò si può rappresentare col seguente diagramma

L’aspetto nuovo del diagramma è che

⎛ 𝜇1 ⎞ ⎛ 𝜆1 ⎞
⎜ 𝜇2 ⎟ ⎜ 𝜆2 ⎟
⎜ ⋮ ⎟=𝐴⋅⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎝ 𝜇𝑚 ⎠ ⎝𝜆𝑛 ⎠
Dimostriamolo
𝑛
𝑤 = 𝑓 (𝑣) = 𝑓 (∑ 𝜆𝑗 𝑣𝑗 ) =
𝑗=1
𝑛 𝑛 𝑚
= ∑ 𝜆𝑗 𝑓 (𝑣𝑗 ) = ∑ 𝜆𝑗 ∑ 𝑎𝑖𝑗 𝑤𝑖 =
𝑗=1 𝑗=1 𝑖=1
𝑚 𝑛 𝑚
= ∑ ( ∑ 𝑎𝑖𝑗 𝜆𝑗 )𝑤𝑖 = ∑ 𝜇𝑖 𝑤𝑖
𝑖=1 𝑗=1 𝑖=1

dove 𝑛
𝜇𝑖 = ∑ 𝑎𝑖𝑗 𝜆𝑗 ∀𝑖 = 1, … , 𝑚
𝑗=1

che è esattamente
⎛ 𝜇1 ⎞ ⎛ 𝜆1 ⎞
⎜ 𝜇2 ⎟ ⎜ 𝜆2 ⎟
⎜ ⋮ ⎟=𝐴⋅⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎝𝜇𝑚 ⎠ ⎝ 𝜆𝑛 ⎠
O più precisamente
𝑤 𝑣
⎛ 𝜇1 ⎞ ⎛ 𝜆1 ⎞
⎜ 𝜇2 ⎟ 𝑤 ⎜ 𝜆2 ⎟
⎜ ⋮ ⎟ = 𝑀𝑣 (𝑓 ) ⋅ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
⎝ 𝜇𝑚 ⎠ ⎝𝜆𝑛 ⎠
57

Esempio 13.1.
Vogliamo calcolare Im(𝑓 )
{𝑣1 , 𝑣2 , … , 𝑣𝑛 } base di 𝑉
{𝑓 (𝑣1 ), 𝑓 (𝑣2 ), … , 𝑓 (𝑣𝑛 )} è un insieme di generatori (non una base in generale) di Im(𝑓 )
𝑓 (𝑣𝑗 ) = 𝑎1𝑗 𝑤1 + 𝑎2𝑗 𝑤2 + … + 𝑎𝑚𝑗 𝑤𝑚
⎛ 𝑎1𝑗 ⎞
⎜ 𝑎2𝑗 ⎟
𝐴=⎜ ⎟
⎜ ⋮ ⎟
⎝ 𝑎𝑚𝑗 ⎠
Le colonne della matrice 𝐴 corrispondono alle immagini 𝑓 (𝑣1 ), 𝑓 (𝑣2 ), … , 𝑓 (𝑣𝑛 ) dei vettori della
base di 𝑉 ⇒ le colonne della matrice 𝐴 generano l’immagine di 𝑓 ⇒ dim Im(𝑓 ) è uguale al
massimo numero di colonne linearmente indipendenti della matrice 𝐴, che è il rango di 𝐴
Esercizio 13.1.
Data una funzione lineare 𝑓 = ℝ3 → ℝ2 (𝑉 = ℝ3 e 𝑊 = ℝ2 ) di matrice
2 −1 3
𝐴=
(1 1 2)
calcolata rispetto alle basi {𝑣1 , 𝑣2 , 𝑣3 } di ℝ3 = 𝑉 e {𝑤1 , 𝑤2 } di ℝ2 = 𝑊 . Sia 𝑣 = 2𝑣1 − 3𝑣2 + 4𝑣3 ,
dove
⎛ 2 ⎞ ⎛ 𝜆1 ⎞
⎜−3⎟ = ⎜𝜆2 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 4 ⎠ ⎝ 𝜆3 ⎠
Calcolare 𝑓 (𝑣).

Svolgimento. Poichè 𝑓 è lineare


𝑓 (𝑣) = 𝑓 (2𝑣1 − 3𝑣2 + 4𝑣3 ) = 2𝑓 (𝑣1 ) − 3𝑓 (𝑣2 ) + 4𝑓 (𝑣3 )
dove (dalle colonne di 𝐴)
𝑓 (𝑣1 ) = 𝑎11 𝑤1 + 𝑎21 𝑤2 = 2𝑤1 + 1𝑤2
𝑓 (𝑣2 ) = 𝑎12 𝑤1 + 𝑎22 𝑤2 = −1𝑤1 + 1𝑤2
𝑓 (𝑣3 ) = 𝑎13 𝑤1 + 𝑎23 𝑤2 = 3𝑤1 + 2𝑤2
Allora
𝑤 = 𝑓 (𝑣) = 2𝑓 (𝑣1 ) − 3𝑓 (𝑣2 ) + 4𝑓 (𝑣3 ) =
= 2(2𝑤1 + 𝑤2 ) − 3(−𝑤1 + 𝑤2 ) + 4(3𝑤1 + 2𝑤2 ) =
= 4𝑤1 + 2𝑤2 + 3𝑤1 − 3𝑤2 + 12𝑤1 + 8𝑤2 =
= 19𝑤1 + 7𝑤2
da cui
19 𝜇
= 1
( 7 ) (𝜇2 )
Avremmo potuto ottenere la stessa risposta semplicemente con un prodotto matrice per
vettore
⎛ 𝜆1 ⎞ ⎛2⎞
⎜ ⎟ 2 −1 3 ⎜ ⎟ 4 + 3 + 12 19
𝐴 ⋅ 𝜆2 = −3 = = ✎
⎜ ⎟ (1 1 2) ⎜ ⎟ ( 2 − 3 + 8 ) ( 7 )
⎝ 𝜆3 ⎠ ⎝4⎠
58 LEZIONE 13. ESEMPI DI MATRICI ASSOCIATE A FUNZIONI LINEARI

Esercizio 13.2.
𝑓 ∶ ℝ3 → ℝ2 𝑓 ∶𝑉 →𝑊 𝑓 lineare
⎛𝑥 ⎞
3𝑥 − 2𝑦 + 𝑧
𝑓 ⎜𝑦 ⎟ = (13.1)
⎜ ⎟ ( 𝑥 + 2𝑧 )
⎝𝑧 ⎠
1. Determinare la matrice di 𝑓 rispetto alle basi canoniche di ℝ3 e di ℝ2

⎛1⎞
3 1 0 3
𝑓 (𝑣1 ) = 𝑓 ⎜0⎟ = = 3𝑤1 + 1𝑤2 = 3 +1 =
⎜ ⎟ (1) (0) (1) (1)
⎝0⎠
3
quindi è la prima colonna della matrice 𝐴
(1)

⎛0⎞
−2 1 0 −2
𝑓 (𝑣2 ) = 𝑓 ⎜1⎟ = = −2𝑤1 + 0𝑤2 = −2 +0 =
⎜ ⎟ (0) (0) (1) ( 0 )
⎝0⎠
⎛0⎞
1 1 0 1
𝑓 (𝑣3 ) = 𝑓 ⎜0⎟ = = 1𝑤1 + 2𝑤2 = 1 +2 =
⎜ ⎟ (2) (0) ( 1) ( 2)
⎝1⎠
da cui la matrice 𝐴 di 𝑓 rispetto alle due basi canoniche di 𝑉 e 𝑊 è

3 −2 1
𝐴=
(1 0 2)

2. Sia 𝑣 ′ = {𝑣1′ , 𝑣2′ , 𝑣3′ } una base di 𝑉 = ℝ3 definita come segue

⎛1⎞ ⎛−1⎞ ⎛0⎞


𝑣1′ = ⎜0⎟ 𝑣2′ = ⎜ 1 ⎟ 𝑣3′ = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝1⎠ ⎝3⎠
Determinare la matrice 𝐴′ di 𝑓 rispetto alla base 𝑣 ′ di 𝑉 e rispetto alla base canonica di 𝑊 .
Innanzitutto, bisogna verificare che 𝑣 ′ è una base di 𝑉

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 𝜆1 − 𝜆2 = 0 ⎪ 𝜆1 = 𝜆2 ⎪𝜆1 = 𝜆2 ⎪ 𝜆1 = 0
⎪ ⎪ ⎪ ⎪
⎨ 𝜆2 − 𝜆3 = 0 ⎨ 𝜆3 = 𝜆2 ⎨𝜆3 = 𝜆2 ⎨ 𝜆3 = 0

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩2𝜆1 + 𝜆2 + 3𝜆3 = 0 ⎪
⎩2𝜆2 + 𝜆2 + 3𝜆2 = 0 ⎪
⎩6𝜆2 = 0 ⎪
⎩𝜆2 = 0
Allora 𝑣 ′ è una base di 𝑉 . Calcoliamo le immagini in 𝑓 delle basi di 𝑣 ′

⎛1⎞
5 1 0 5
𝑓 (𝑣1′ ) = 𝑓 ⎜0⎟ = = 5𝑤1 + 5𝑤2 = 5 +5 =
⎜ ⎟ (5) (0) (1) (5)
⎝2⎠
⎛−1⎞
−4 1 0 −4
𝑓 (𝑣2′ ) =𝑓⎜1⎟= = −4𝑤1 + 1𝑤2 = −4 +1 =
⎜ ⎟ (1) (0) (1) ( 1 )
⎝1⎠
59

⎛0⎞
5 1 0 5
𝑓 (𝑣3′ ) = 𝑓 ⎜−1⎟ = = 5𝑤1 + 6𝑤2 = 5 +6 =
⎜ ⎟ (6) (0) (1) (6)
⎝3⎠
da cui la matrice 𝐴′ di 𝑓 rispetto alla base 𝑣 ′ e alla base canonica di 𝑊 è

5 −4 5
𝐴′ =
(5 1 6)

Si noti che la matrice 𝐴′ è diversa da 𝐴, perché la base usata per 𝑉 è diversa. Tuttavia,
poichè entrambe le matrici corrispondono alla stessa funzione 𝑓 , entrambe le matrici hanno
lo stesso rango

2 −1
3. Sia 𝑤 ′ = {𝑤1′ , 𝑤2′ } una base di 𝑊 definita come 𝑤1′ = e 𝑤2′ = . Determinare la
(3) (1)
matrice 𝐴′′ di 𝑓 rispetto alle basi 𝑣 ′ di 𝑉 e 𝑤 ′ di 𝑊 .
Si verifica facilmente che 𝑤 ′ è una base di 𝑊 . Dobbiamo calcolare

⎛1⎞
5 2 −1
𝑓 (𝑣1′ ) = 𝑓 ⎜0⎟ = = 𝜇1 𝑤1′ + 𝜇2 𝑤2′ = 𝜇1 + 𝜇2
⎜ ⎟ (5) (3) (1)
⎝2⎠
Per calcolare 𝜇1 e 𝜇2 risolviamo il seguente sistema
{ { { {
2𝜇1 − 𝜇2 = 5 𝜇2 = 2𝜇1 − 5 𝜇2 = 2𝜇1 − 5 𝜇2 = −1
3𝜇1 + 𝜇2 = 5 3𝜇1 + 2𝜇1 − 5 = 5 5𝜇1 = 10 𝜇1 = 2

2
Perciò è la prima colonna della matrice 𝐴′′
(−1)
Analogamente

⎛−1⎞
−4 2 −1
=𝑓⎜1⎟=
𝑓 (𝑣2′ ) = 𝜇1 𝑤1′ + 𝜇2 𝑤2′ = 𝜇1 + 𝜇2
⎜ ⎟ ( 1 ) (3) ( 1)
⎝1⎠
{ { { {
2𝜇1 − 𝜇2 = −4 𝜇2 = 2𝜇1 + 4 𝜇2 = 2𝜇1 + 4 𝜇2 = 145
3𝜇1 + 𝜇2 = 1 3𝜇1 + 2𝜇1 + 4 = 1 5𝜇1 = −3 𝜇1 = − 53

⎛0⎞
5 2 −1
= 𝑓 ⎜−1⎟ =
𝑓 (𝑣3′ ) = 𝜇1 𝑤1′ + 𝜇2 𝑤2′ = 𝜇1 + 𝜇2
⎜ ⎟ ( 6) (3) ( 1)
⎝3⎠
{ { { {
2𝜇1 − 𝜇2 = 5 𝜇2 = 2𝜇1 − 5 𝜇2 = 2𝜇1 − 5 𝜇2 = − 35
3𝜇1 + 𝜇2 = 6 3𝜇1 + 2𝜇1 − 5 = 6 5𝜇1 = 11 𝜇1 = 115
Perciò la matrice 𝐴′′ è
2 − 35 115
𝐴′′ =
(−1 145 − 35 )
Lezione 14

Cambiamenti di Base

Obiettivi:

• Discutere i cambiamenti di base dentro uno spazio vettoriale

• Descrivere le formule che consentono di effettuare cambia-


menti di base

14.1 Cambiamenti di Base in uno Spazio Vettoriale


Concentriamoci su uno spazio vettoriale 𝑉 e due sue basi
𝑣 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } 𝑣 ′ = {𝑣1′ , 𝑣2′ , … , 𝑣𝑛′ }
Ogni vettore 𝑣 ∈ 𝑉 può essere scritto come
𝑛 𝑛
𝑣 = 𝜆1 𝑣1 + 𝜆2 𝑣2 + … + 𝜆𝑛 𝑣𝑛 = ∑ 𝜆𝑖 𝑣𝑖 e 𝑣 = 𝜆1′ 𝑣1′ + 𝜆2′ 𝑣2′ + … + 𝜆𝑛′ 𝑣𝑛′ = ∑ 𝜆𝑖′ 𝑣𝑖′
𝑖=1 𝑖=1

Perciò le coordinate del vettore 𝑣 rispetto alle due basi sono, rispettivamente, le seguenti
𝑣 ′
′ 𝑣
⎛ 𝜆1 ⎞ ⎛ 𝜆1 ⎞
⎜ 𝜆2 ⎟ ⎜𝜆2′ ⎟
⎜⋮⎟ ⎜⋮⎟
⎜ ⎟ ⎜ ′⎟
⎝𝜆𝑛 ⎠ ⎝ 𝜆𝑛 ⎠
La domanda che ci poniamo è come possiamo passare da una base all’altra, ovverosia come
possiamo passare da un sistema di riferimento (𝑣) ad un altro sistema di riferimento (𝑣 ′ ) di un
dato spazio vettoriale 𝑉 .
Consideriamo un vettore 𝑣𝑖 (con 𝑖 = 1, … , 𝑛) di 𝑣, che sicuramente fa parte di 𝑉 , e lo scriviamo
come combinazione lineare di 𝑣 ′
𝑛
𝑣𝑖 = 𝑝1𝑖 𝑣1′ + 𝑝2𝑖 𝑣2′ + … + 𝑝𝑛𝑖 𝑣𝑛′ = ∑ 𝑝ℎ𝑖 𝑣ℎ′
ℎ=1

Si trova una matrice, con 𝑛 righe e 𝑛 colonne, 𝑃 = (𝑝ℎ𝑖 ) con ℎ = 1, … , 𝑛 e 𝑖 = 1, … , 𝑛


⎛ 𝑝1𝑖 ⎞
⎜ 𝑝2𝑖 ⎟
𝑃 =⎜ ⎟
⎜ ⋮ ⎟
⎝ 𝑝𝑛𝑖 ⎠

60
14.1. CAMBIAMENTI DI BASE IN UNO SPAZIO VETTORIALE 61

dove la 𝑖-esima colonna di 𝑃 contiene le coordinate del vettore 𝑣𝑖 rispetto alla seconda base 𝑣 ′ .
La matrice 𝑃 può essere interpretata nel seguente modo. Consideriamo la funzione identica

𝑖𝑑 ∶ 𝑉 → 𝑉 𝑣↦𝑣 𝑣∈𝑉

Se sul dominio mettiamo la base 𝑣 e sul codominio la base 𝑣 ′ , allora abbiamo



𝑃 = 𝑀𝑣𝑣 (𝑖𝑑)

Scambiando ora il ruolo delle due basi 𝑣 e 𝑣 ′ , troviamo


𝑛
𝑣𝑖′ = 𝑞1𝑖 𝑣1 + 𝑞2𝑖 𝑣2 + … + 𝑞𝑛𝑖 𝑣𝑛 = ∑ 𝑞𝓁 𝑖 𝑣𝓁
𝓁 =1

Si ricava una matrice 𝑛 × 𝑛 𝑄 = (𝑞𝓁 𝑖 ) le cui colonne sono le coordinate dei vettori delle seconda
base 𝑣 ′ rispetto alla prima base 𝑣
⎛ 𝑞1𝑖 ⎞
⎜ 𝑞2𝑖 ⎟
𝑄=⎜ ⎟
⎜ ⋮ ⎟
⎝ 𝑞𝑛𝑖 ⎠
che significa che
𝑄 = 𝑀𝑣𝑣′ (𝑖𝑑)
Vogliamo esaminare la relazione tra le matrici 𝑃 e 𝑄
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
𝑣𝑖 = ∑ 𝑝ℎ𝑖 𝑣ℎ′ = ∑ 𝑝ℎ𝑖 ( ∑ 𝑞𝓁 ℎ 𝑣𝓁 ) = ∑ (𝑞𝓁 ℎ 𝑝ℎ𝑖 )𝑣𝓁 = ∑ ( ∑ 𝑞𝓁 ℎ 𝑝ℎ𝑖 )𝑣𝓁
ℎ=1 ℎ=1 𝓁 =1 ℎ,𝓁 =1 𝓁 =1 ℎ=1

Poichè ogni vettore si può scrivere in un unico modo rispetto a una data base, segue che
{
𝑛
1 se 𝓁 = 𝑖
∑ 𝑞𝓁 ℎ 𝑝ℎ𝑖 =
ℎ=1 0 se 𝓁 ≠ 𝑖

Questo corrisponde al prodotto righe per colonne di 𝑄 per 𝑃. Da cui

⎛1 0 0 … 0⎞
⎜0 1 0 … 0⎟
⎜ ⎟
𝑄 ⋅ 𝑃 = ⎜0 0 1 … 0⎟ = 𝐼 matrice identica
⎜⋮ ⋮ ⋮ ⋱ 0⎟
⎜0 0 0 … 1⎟⎠

Ciò implica che le matrici 𝑃 e 𝑄 sono l’una l’inversa dell’altra

e 𝑄 = 𝑃 −1 ovverosia (𝑀𝑣𝑣′ (𝑖𝑑))−1 = 𝑀𝑣𝑣 (𝑖𝑑)



𝑃 = 𝑄 −1

Ci chiediamo ora qual è l’effetto delle matrici di cambiamento di base sulle coordinate dei
vettori. Per ogni 𝑣 ∈ 𝑉 , abbiamo
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
𝑣 = ∑ 𝜆𝑖 𝑣𝑖 = ∑ 𝜆𝑖 ( ∑ 𝑝ℎ𝑖 𝑣ℎ′ ) = ∑ ∑(𝑝ℎ𝑖 𝜆𝑖 )𝑣ℎ′ = ∑ ( ∑ 𝑝ℎ𝑖 𝜆𝑖 )𝑣ℎ′ = ∑ 𝜆ℎ′ 𝑣ℎ′
𝑖=1 𝑖=1 ℎ=1 𝑖=1 ℎ=1 ℎ=1 𝑖=1 ℎ=1
62 LEZIONE 14. CAMBIAMENTI DI BASE

dove 𝑛
𝜆ℎ′ = ∑ 𝑝ℎ𝑖 𝜆𝑖
𝑖=1

da cui ′
′ 𝑣 𝑣
⎛𝜆1 ⎞ ⎛ 𝜆1 ⎞
⎜𝜆2′ ⎟ ⎜𝜆 ⎟
⎜⋮⎟ =𝑃 ⋅ ⎜ 2⎟
⎜ ′⎟ ⎜⋮⎟
⎝𝜆𝑛 ⎠ ⎝ 𝜆𝑛 ⎠
In altri termini

La matrice 𝑃 trasforma le coordinate di 𝑣 rispetto alla prima base nelle coordinate dello
stesso vettore 𝑣 rispetto alla seconda base.

Quindi
′ 𝑣′ 𝑣
⎛𝜆1 ⎞ ⎛ 𝜆1 ⎞
⎜𝜆2′ ⎟ 𝑣 ′ ⎜ 𝜆2 ⎟
⎜ ⋮ ⎟ = 𝑀𝑣 (𝑖𝑑) ⎜ ⋮ ⎟
⎜ ′⎟ ⎜ ⎟
⎝ 𝜆𝑛 ⎠ ⎝ 𝜆𝑛 ⎠

14.2 Formule di Cambiamento di Base


Consideriamo due spazi vettoriali 𝑉 , 𝑊 e una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 . Fissiamo due basi

𝑣 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } base di 𝑉 e 𝑤 = {𝑤1 , 𝑤2 , … , 𝑤𝑚 } base di 𝑊

da cui ricaviamo la matrice 𝐴 di 𝑓 che è 𝐴 = 𝑀𝑣𝑤 (𝑓 ).


Sappiamo che per ogni 𝑣 ∈ 𝑉

𝑣 = 𝜆1 𝑣 1 + 𝜆2 𝑣 2 + … + 𝜆𝑛 𝑣 𝑛

e quindi
𝑣
⎛ 𝜆1 ⎞
⎜𝜆 ⎟
𝑣 ↔ ⎜ 2⎟ coordinate di 𝑣 rispetto a 𝑣
⎜⋮⎟
⎝ 𝜆𝑛 ⎠
Analogamente
𝑓 (𝑣) = 𝑤 = 𝜇1 𝑤1 + 𝜇2 𝑤2 + … + 𝜇𝑚 𝑤𝑚
e quindi
𝑤
⎛ 𝜇1 ⎞
⎜𝜇 ⎟
𝑓 (𝑣) = 𝑤 ↔ ⎜ 2 ⎟ coordinate di 𝑓 (𝑣) rispetto a 𝑤
⎜ ⋮ ⎟
⎝ 𝜇𝑚 ⎠
Sviluppando come fatto in precedenza
𝑛 𝑛
𝑓 (𝑣) = 𝑓 (∑ 𝜆𝑖 𝑣𝑖 ) = ∑ 𝜆𝑖 𝑓 (𝑣𝑖 ) = …
𝑖=1 𝑖=1
14.2. FORMULE DI CAMBIAMENTO DI BASE 63

si trova 𝑤 𝑣
⎛ 𝜇1 ⎞ ⎛ 𝜆1 ⎞
⎜ 𝜇2 ⎟ ⎜ 𝜆2 ⎟
⎜ ⋮ ⎟ = 𝐴⎜ ⋮ ⎟ (14.1)
⎜ ⎟ ⎜ ⎟
⎝𝜇𝑚 ⎠ ⎝ 𝜆𝑛 ⎠
La matrice 𝐴 è quindi la matrice di 𝑓 rispetto alle basi {𝑣1 , 𝑣2 , … , 𝑣𝑛 } di 𝑉 e {𝑤1 , 𝑤2 , … , 𝑤𝑚 }
di 𝑊 . In altri termini, 𝐴 = 𝑀𝑣𝑤 (𝑓 ).
Consideriamo ora due basi diverse del dominio e del codominio di 𝑓

𝑣 ′ = {𝑣1′ , 𝑣2′ , … , 𝑣𝑛′ } base di 𝑉 e 𝑤 ′ = {𝑤1′ , 𝑤2′ , … , 𝑤𝑚′ } base di 𝑊

Come prima, ogni 𝑣 ∈ 𝑉 si può scrivere come

𝑣 = 𝜆1′ 𝑣1′ + 𝜆2′ 𝑣2′ + … + 𝜆𝑛′ 𝑣𝑛′

inoltre
𝑓 (𝑣) = 𝑤 = 𝜇1′ 𝑤1′ + 𝜇2′ 𝑤2′ + … + 𝜇𝑚′ 𝑤𝑚′
Da cui si può ricavare che
′ ′
′ 𝑤 ′ 𝑣
⎛ 𝜇1 ⎞ ⎛𝜆1 ⎞
⎜ 𝜇2′ ⎟ ⎜𝜆′ ⎟
⎜ ⋮ ⎟ = 𝐴′ ⎜ 2 ⎟ (14.2)
⎜ ′⎟ ⎜ ⋮′ ⎟
⎝ 𝜇𝑚 ⎠ ⎝ 𝜆𝑛 ⎠
e quindi 𝐴′ è la matrice di 𝑓 rispetto alle basi {𝑣1′ , 𝑣2′ , … , 𝑣𝑛′ } di 𝑉 e {𝑤1′ , 𝑤2′ , … , 𝑤𝑚′ } di 𝑊 . In altri

termini, 𝐴′ = 𝑀𝑣𝑤′ (𝑓 ).
Analizziamo ora le matrici di cambiamento di base tra le due basi del dominio (𝑣 e 𝑣 ′ ) e le
due basi del codominio (𝑤 e 𝑤 ′ ).
Sia 𝑃 la matrice di cambiamento di base (in 𝑉 ) tale che

′ 𝑣′ 𝑣
⎛ 𝜆1 ⎞ ⎛ 𝜆1 ⎞

⎜ 𝜆2 ⎟ ⎜ 𝜆2 ⎟
⎜ ⋮ ⎟ =𝑃⎜ ⋮ ⎟ (14.3)
⎜ ′⎟ ⎜ ⎟
⎝𝜆𝑛 ⎠ ⎝ 𝜆𝑛 ⎠

dove 𝑃 è una matrice 𝑛 × 𝑛 invertibile 𝑃 = 𝑀𝑣𝑣 (𝑖𝑑). Sia, inoltre, 𝑆 la matrice di cambiamento di

base (in 𝑊 ) tale che



′ 𝑤 𝑤
⎛ 𝜇1 ⎞ ⎛ 𝜇1 ⎞
⎜ 𝜇2′ ⎟ ⎜ 𝜇2 ⎟
⎜ ⋮ ⎟ =𝑆⎜ ⋮ ⎟ (14.4)
⎜ ′⎟ ⎜ ⎟
⎝𝜇𝑚 ⎠ ⎝ 𝜇𝑚 ⎠
dove 𝑆 è una matrice 𝑚 × 𝑚 invertibile 𝑆 = 𝑀𝑤𝑤 (𝑖𝑑).

Per stabilire una relazione tra le matrici 𝐴 e 𝐴′ , osserviamo che

• da (14.2) e (14.3)
𝑤′ 𝑣′ 𝑣
⎛ 𝜇1′ ⎞ ⎛𝜆1′ ⎞ ⎛ 𝜆1 ⎞
⎜ ⋮ ⎟ = 𝐴′ ⋅ ⎜ ⋮ ⎟ = 𝐴′ ⋅ 𝑃 ⋅⎜ ⋮ ⎟
⎜ ′⎟ ⎜ ′⎟ ⎜ ⎟
⎝ 𝜇𝑚 ⎠ ⎝ 𝜆𝑛 ⎠ ⎝ 𝜆𝑛 ⎠
64 LEZIONE 14. CAMBIAMENTI DI BASE

• da (14.1) e (14.4)
𝑤′ 𝑤 𝑣
⎛ 𝜇1′ ⎞ ⎛ 𝜇1 ⎞ ⎛ 𝜆1 ⎞
⎜ ⋮ ⎟ =𝑆⋅⎜ ⋮ ⎟ =𝑆⋅𝐴⋅⎜ ⋮ ⎟
⎜ ′⎟ ⎜ ⎟ ⎜ ⎟
⎝𝜇𝑚 ⎠ ⎝ 𝜇𝑚 ⎠ ⎝𝜆𝑛 ⎠
𝑣
⎛ 𝜆1 ⎞
da cui si ricava che per ogni ⎜ ⋮ ⎟
⎜ ⎟
⎝ 𝜆𝑛 ⎠
𝑣 𝑣
⎛ 𝜆1 ⎞ ⎛ 𝜆1 ⎞
𝐴 ⋅𝑃 ⋅ ⋮ =𝑆⋅𝐴⋅⎜ ⋮ ⎟
′ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝𝜆𝑛 ⎠ ⎝𝜆𝑛 ⎠
Ne consegue che
𝑆 ⋅ 𝐴 = 𝐴′ ⋅ 𝑃 (14.5)
dove 𝑆 corrisponde al cambiamento di base in 𝑊 e 𝑃 al cambiamento di base in 𝑉 . Poichè 𝑆 e 𝑃
sono invertibili, deduciamo che:

𝑆 −1 𝑆𝐴 = 𝑆 −1 𝐴′ 𝑃 ⇒ 𝐴 = 𝑆 −1 𝐴′ 𝑃 (14.6)

𝑆𝐴𝑃 −1 = 𝐴′ 𝑃𝑃 −1 ⇒ 𝐴′ = 𝑆𝐴𝑃 −1 (14.7)


Con notazioni più precise, le relazioni (14.5), (14.6) e (14.7) si scrivono come segue

(14.5)
′ ′
𝑀𝑤𝑤 (𝑖𝑑) ⋅ 𝑀𝑣𝑤 (𝑓 ) = 𝑀𝑣𝑤′ (𝑓 ) ⋅ 𝑀𝑣𝑣 (𝑖𝑑)
−1 ′ ′
(14.6)
′ ′ ′
𝑀𝑣𝑤 (𝑓 ) = (𝑀𝑤𝑤 (𝑖𝑑)) ⋅ 𝑀𝑣𝑤′ (𝑓 ) ⋅ 𝑀𝑣𝑣 (𝑖𝑑) = 𝑀𝑤𝑤′ (𝑖𝑑) ⋅ 𝑀𝑣𝑤′ (𝑓 ) ⋅ 𝑀𝑣𝑣 (𝑖𝑑)
′ −1
(14.7)
′ ′ ′
𝑀𝑣𝑤′ (𝑓 ) = 𝑀𝑤𝑤 (𝑖𝑑) ⋅ 𝑀𝑣𝑤 (𝑓 ) ⋅ (𝑀𝑣𝑣 (𝑖𝑑)) = 𝑀𝑤𝑤 (𝑖𝑑) ⋅ 𝑀𝑣𝑤 (𝑓 ) ⋅ 𝑀𝑣𝑣′ (𝑖𝑑)
Rimangono due domande da rispondere:

• Come si stabilisce se una matrice è invertibile?

• Come si calcola l’inversa di una matrice?


Lezione 15

Sistemi di Equazioni Lineari (Omogenei e


Non Omogenei)

Obiettivi:

• Definire sistemi di equazioni lineari

• Definire sistemi di equazioni lineari omogenei e non omoge-


nei e le caratteristiche delle loro soluzioni

15.1 Esempio di Cambiamenti di Base


Esempio 15.1.

Consideriamo la funzione 𝑓 ∶ ℝ3 → ℝ2 definita come1

⎛𝑥 ⎞
3𝑥 − 2𝑦 + 𝑧
𝑓 ⎜𝑦 ⎟ =
⎜ ⎟ ( 𝑥 + 2𝑧 )
⎝𝑧 ⎠
Fissiamo due basi di 𝑉 = ℝ3
{ } { }
⎛1⎞ ⎛0⎞ ⎛0⎞ ⎛1⎞ ⎛−1⎞ ⎛0⎞
𝑣 = 𝑣1 = ⎜0⎟ , 𝑣2 = ⎜1⎟ , 𝑣3 = ⎜0⎟ 𝑣 ′ = 𝑣1′ = ⎜0⎟ , 𝑣2′ = ⎜ 1 ⎟ , 𝑣3′ = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝1⎠ ⎝2⎠ ⎝1⎠ ⎝3⎠
e due basi di 𝑊 = ℝ2
{ } { }
1 0 ′ 2 −1
𝑤 = 𝑤1 = ,𝑤 = 𝑤 = 𝑤1′ = , 𝑤′ =
(0) 2 (1) (3) 2 ( 1 )

Le matrici di cambiamento di base in 𝑉 sono

⎛1 −1 0 ⎞
𝑀𝑣𝑣′ (𝑖𝑑) = ⎜0 1 −1⎟
⎜ ⎟
⎝2 1 3 ⎠
1
Abbiamo già considerato questo caso nella lezione 13 (si veda la funzione 13.1)

65
66 LEZIONE 15. SISTEMI DI EQUAZIONI LINEARI (OMOGENEI E NON OMOGENEI)

Ricordiamo che tale matrice è la matrice le cui colonne sono le coordinate dei vettori della base
𝑣 ′ scritti rispetto alla base 𝑣.
La matrice di cambiamento di base 𝑀𝑣𝑣 (𝑖𝑑) è l’inversa di 𝑀𝑣𝑣′ (𝑖𝑑) – che, al momento, non

sappiamo come calcolare se non risolvendo un sistema di equazioni lineari.


Le matrici di cambiamento di base in 𝑊 sono

2 −1
𝑀𝑤𝑤′ (𝑖𝑑) =
(3 1 )

Tale matrice è la matrice le cui colonne sono le coordinate dei vettori della base 𝑤 ′ scritti rispetto
alla base 𝑤. La matrice di cambiamento di base 𝑀𝑤𝑤 (𝑖𝑑) è l’inversa di 𝑀𝑤𝑤′ (𝑖𝑑).

La matrice associata ad 𝑓 rispetto alle basi canoniche 𝑣 e 𝑤, 𝑀𝑣𝑤 (𝑓 ), è data da

3 −2 1
𝐴 = 𝑀𝑣𝑤 (𝑓 ) =
(1 0 2)

Se 𝐴′ è la matrice 𝑀𝑣𝑤′ (𝑓 ), si ha

𝐴′ = 𝑀𝑣𝑤′ (𝑓 ) = 𝑀𝑣𝑤 (𝑓 ) ⋅ 𝑀𝑣𝑣′ (𝑖𝑑) = 𝐴 ⋅ 𝑀𝑣𝑣′ (𝑖𝑑)

cioè
⎛1 −1 0 ⎞
3 −2 1 ⎜ 5 −4 5
𝐴 = ′
0 1 −1⎟ =
(1 0 2) ⎜ ⎟ ( 5 1 6)
⎝2 1 3 ⎠

Se 𝐴′′ è la matrice 𝑀𝑣𝑤′ (𝑓 ) si ha
′ ′
𝐴′′ = 𝑀𝑣𝑤′ (𝑓 ) = 𝑀𝑤𝑤 (𝑖𝑑) ⋅ 𝑀𝑣𝑤 (𝑓 ) ⋅ 𝑀𝑣𝑣′ (𝑖𝑑) = (𝑀𝑤𝑤′ (𝑖𝑑))−1 ⋅ 𝐴 ⋅ 𝑀𝑣𝑣′ (𝑖𝑑)

Quindi si ha

−1 ⎛1 −1 0 ⎞ −1
′′ 2 −1 3 −2 1 ⎜ ⎟ 2 −1 5 −4 5
𝐴 = 0 1 −1 =
(3 1 ) (1 0 2) ⎜ ⎟ (3 1 ) (5 1 6)
⎝2 1 3 ⎠

2 −1
Bisogna calcolare l’inversa della matrice . Pur non sapendo ancora calcolare l’inversa
(3 1 )
di una matrice, assumiamo di conoscerla
1 −1 1
2 −1
= 53 5
2
(3 1 ) (− 5 5
)

Si può verificare che


1 1 1 1
2 −1 5 5 5 5
2 −1 1 0
= =
(3 1 ) (− 53 2
5
) (− 35 2
5
) (3 1 ) (0 1)

Ora abbiamo
1 1
5 −4 5 2 − 35 115
𝐴′′ = 5 5 =
(− 35 2
5
) (5 1 6) (−1 145 − 35 )
15.2. SISTEMI DI EQUAZIONI LINEARI 67

15.2 Sistemi di Equazioni Lineari


Consideriamo il generico sistema di equazioni lineari


⎪𝑎11 𝑥1 + 𝑎12 𝑥2 + … + 𝑎1𝑛 𝑥𝑛 = 𝑏1


⎪𝑎21 𝑥1 + 𝑎22 𝑥2 + … + 𝑎2𝑛 𝑥𝑛 = 𝑏2


⎪⋮


⎪𝑎 𝑥 + 𝑎𝑚2 𝑥2 + … + 𝑎𝑚𝑛 𝑥𝑛 = 𝑏𝑚
⎩ 𝑚1 1

⎛𝑥1 ⎞ ⎛ 𝑏1 ⎞
⎜𝑥 ⎟ ⎜𝑏 ⎟
dove 𝐴 = (𝑎𝑖𝑗 ) è una matrice di 𝑚 righe ed 𝑛 colonne, 𝑋 = ⎜ 2 ⎟ e 𝐵 = ⎜ 2 ⎟

⎜ ⎟ ⎜ ⋮ ⎟
⎝𝑥𝑛 ⎠ ⎝𝑏𝑚 ⎠
• 𝐴: matrice dei coefficienti del sistema
• 𝑋 : vettore delle incognite
• 𝐵: vettore dei termini noti
Il sistema si scrive come
𝐴𝑋 = 𝐵
Se esiste 𝐴−1 , moltiplichiamo (a sinistra) per 𝐴−1

𝐴−1 𝐴𝑋 = 𝐴−1 𝐵 ⇒ 𝑋 = 𝐴−1 𝐵

Invertire una matrice corrisponde a risolvere un sistema di equazioni lineari

Consideriamo una funzione lineare 𝑓 che manda 𝑋 in 𝐴𝑋

⎛ 𝑥1 ⎞ ⎛ 𝑥1 ⎞
𝑋 = ⎜ ⋮ ⎟ ↦ 𝑓 (𝑋 ) = 𝐴 ⎜ ⋮ ⎟ = 𝐵 𝐵 ∈ Im(𝑓 )
⎜ ⎟ ⎜ ⎟
⎝𝑥𝑛 ⎠ ⎝𝑥𝑛 ⎠
Le soluzioni del sistema sono l’antimmagine di 𝐵: 𝑓 −1 (𝐵) = {𝑋 | 𝑓 (𝑋 ) = 𝐵}, ovverosia 𝑓 −1 (𝐵) =
{𝑋 | 𝐴𝑋 = 𝐵}.

15.3 Sistemi Omogenei e Non Omogenei


⎛0⎞
⎜0⎟
Un caso particolare è quello in cui il vettore 𝐵 è il vettore nullo: 𝐵 = 0 = ⎜ ⎟. In questo caso, il
⎜⋮⎟
⎝0⎠
sistema 𝐴𝑋 = 𝐵 = 0 si dice omogeneo

𝑓 −1 (0) = {𝑋 | 𝑓 (𝑋 ) = 0} = Ker(𝑓 )

che è un sottospazio vettoriale


68 LEZIONE 15. SISTEMI DI EQUAZIONI LINEARI (OMOGENEI E NON OMOGENEI)

Le soluzioni di un sistema lineare omogeneo corrispondono al nucleo di una funzione


lineare

Un generico sistema 𝐴𝑋 = 𝐵, dove 𝐵 ≠ 0, è detto non omogeneo. Sapendo che le soluzioni del
sistema associato 𝐴𝑋 = 0 sono Ker(𝑓 ), possiamo ricavare alcune proprietà

• Sia 𝑋 una soluzione di 𝐴𝑋 = 𝐵 e sia 𝑌 una soluzione di 𝐴𝑌 = 0, allora 𝑋 + 𝑌 è un’altra


soluzione di 𝐴𝑋 = 𝐵. Infatti 𝐴(𝑋 + 𝑌 ) = 𝐴𝑋 + 𝐴𝑌 = 𝐵 + 0 = 𝐵

• Siano 𝑋 1 e 𝑋 2 due soluzioni di 𝐴𝑋 = 𝐵. Poniamo 𝑌 = 𝑋 1 − 𝑋 2 , allora

𝐴𝑌 = 𝐴(𝑋 1 − 𝑋 2 ) = 𝐴𝑋 1 − 𝐴𝑋 2 = 𝐵 − 𝐵 = 0

allora 𝑌 = 𝑋 1 − 𝑋 2 è una soluzione del sistema lineare omogeneo

• Le soluzioni di 𝐴𝑋 = 𝐵 sono tutte del tipo

𝑋 = {𝑋 + 𝑌 | 𝑌 è soluzione di 𝐴𝑌 = 0} = 𝑋 + Ker(𝑓 ) = 𝑋 + 𝑌 ∀𝑌 ∈ Ker(𝑓 )

Esempio 15.2.

Consideriamo il sistema 𝐴𝑋 = 𝐵 con

⎛𝑥1 ⎞
1 −3 2 𝑏1
𝐴= 𝑋 = ⎜𝑥2 ⎟ 𝐵=
(−2 6 −4) ⎜ ⎟ (𝑏2 )
⎝𝑥3 ⎠
1. risolvere il sistema omogeneo associato 𝐴𝑋 = 0

2. trovare per quali 𝐵 ∈ ℝ2 il sistema 𝐴𝑋 = 𝐵 ammette soluzioni

5
3. risolvere 𝐴𝑋 = 𝐵 con 𝐵 =
(−10)

Svolgimento. Si ha 𝑓 ∶ ℝ3 → ℝ2 e 𝑓 ∶ 𝑋 ↦ 𝑓 (𝑥) = 𝐴𝑋

1. Le soluzioni di 𝐴𝑋 = 0 sono Ker(𝑓 )


{ { {
𝑥1 − 3𝑥2 + 2𝑥3 = 0 𝑥1 = 3𝑥2 − 2𝑥3 𝑥1 = 3𝑥2 − 2𝑥3
𝐴𝑋 = 0 ↔
−2𝑥1 + 6𝑥2 − 4𝑥3 = 0 −6𝑥2 + 4𝑥3 + 6𝑥2 − 4𝑥3 = 0 0=0

quindi il sistema ha infinite soluzioni ∀𝑥2 e ∀𝑥3 ⇒ dim Ker(𝑓 ) = 2. Una possibile base della
⎛3⎞ ⎛−2⎞
spazio delle soluzioni è data dai vettori 𝑣1 = ⎜1⎟ e 𝑣2 = ⎜ 0 ⎟. Ker(𝑓 ) è il piano in ℝ3 generato
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝1⎠
da 𝑣1 e 𝑣2 .
15.3. SISTEMI OMOGENEI E NON OMOGENEI 69

2. {
𝑥1 − 3𝑥2 + 2𝑥3 = 𝑏1
𝐴𝑋 = 𝐵 ↔
−2𝑥1 + 6𝑥2 − 4𝑥3 = 𝑏2
Si noti che sommando alla seconda equazione la prima equazione moltiplicata per 2, si
ottiene
2𝑏1 + 𝑏2 = 0
quindi il sistema 𝐴𝑋 = 𝐵 ha soluzioni se e solo se 𝑏2 = −2𝑏1 . Imporre tale condizioni al
vettore 𝐵 equivale a dire che 𝐵 ∈ Im(𝑓 ). Quindi dim Im(𝑓 ) = 1 (infatti dim Ker(𝑓 ) = 2 e
dim 𝑉 = 3)

3. {
5 𝑥1 − 3𝑥2 + 2𝑥3 = 5
𝐴𝑋 = ↔
(−10) −2𝑥1 + 6𝑥2 − 4𝑥3 = −10
{ {
𝑥1 = 5 + 3𝑥2 − 2𝑥3 𝑥1 = 5 + 3𝑥2 − 2𝑥3
−10 − 6𝑥2 + 4𝑥3 + 6𝑥2 − 4𝑥3 = −10 0=0
quindi il sistema ha infinite soluzioni ∀𝑥2 e ∀𝑥3 . Le soluzioni di 𝐴𝑋 = 𝐵 sono 𝑓 −1 (𝐵), quindi
{ } { }
⎛5 + 3𝑥2 − 2𝑥3 ⎞ ⎛5⎞ ⎛3⎞ ⎛−2⎞
𝑓 −1 (𝐵) = ⎜ 𝑥2 ⎟ | ∀𝑥2 , 𝑥3 = ⎜0⎟ + 𝑥2 ⎜1⎟ + 𝑥3 ⎜ 0 ⎟ | ∀𝑥2 , 𝑥3 =
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑥3 ⎠ ⎝0⎠ ⎝0⎠ ⎝1⎠
{ }
⎛5⎞ ⎛3⎞ ⎛−2⎞
= ⎜0⎟ + 𝑥2 ⎜1⎟ + 𝑥3 ⎜ 0 ⎟ | ∀𝑥2 , 𝑥3 = 𝑋 + Ker(𝑓 )
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝1⎠
cioè 𝑓 −1 (𝐵) = 𝑋 + Ker(𝑓 ), ovverosia 𝑓 −1 (𝐵) è un piano parallelo a Ker(𝑓 ) ma traslato del
⎛5⎞
vettore 𝑋 = ⎜0⎟. ✎
⎜ ⎟
⎝0⎠
Lezione 16

Il Teorema di Rouché-Capelli e il Metodo


di Gauss

Obiettivi:

• Enunciare e dimostrare il teorema di Rouché-Capelli

• Applicare il metodo di eliminazione di Gauss

Ricordiamo che data una funzione lineare

𝑓 ∶ 𝑉 → 𝑊,

abbiamo
dim Ker(𝑓 ) + dim Im(𝑓 ) = 𝑛 = dim 𝑉 ,

dove dim Ker(𝑓 ) è la nullità e dim Im(𝑓 ) il rango. Da cui ricaviamo che

dim Ker(𝑓 ) = 𝑛 − rango(𝐴),

dove
𝑛 = numero di incognite del sistema

rango(𝐴) = numero di colonne linearmente indipendenti di 𝐴


= numero di righe linearmente indipendenti di 𝐴
= numero di equazioni linearmente indipendenti del sistema

Altra interpretazione

⎛ 𝑎11 ⎞ ⎛ 𝑎12 ⎞ ⎛ 𝑎1𝑛 ⎞ ⎛ 𝑏1 ⎞


⎜ 𝑎21 ⎟ ⎜ 𝑎22 ⎟ ⎜ 𝑎2𝑛 ⎟ ⎜𝑏 ⎟
𝐴1 𝑥1 + 𝐴2 𝑥2 + … + 𝐴𝑛 𝑥𝑛 = 𝐵 ↔ ⎜ ⎟ 𝑥1 + ⎜ ⎟ 𝑥2 + … + ⎜ ⎟ 𝑥𝑛 = ⎜ 2 ⎟
⎜ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎝𝑎𝑚1 ⎠ ⎝𝑎𝑚2 ⎠ ⎝𝑎𝑚𝑛 ⎠ ⎝𝑏𝑚 ⎠

dove 𝐴𝑗 è la 𝑗-esima colonna della matrice 𝐴. Ciò implica che 𝐵 è combinazione lineare delle
colonne di 𝐴, che avviene se e solo se 𝐵 ∈ Im(𝑓 ) (Im(𝑓 ) è generata dalle colonne di 𝐴)

70
16.1. TEOREMA DI ROUCHÉ-CAPELLI 71

16.1 Teorema di Rouché-Capelli


Teorema 16.1. (Teorema di Rouché-Capelli)1 Un sistema di equazioni lineari 𝐴𝑋 = 𝐵 ammette
soluzioni se e solo se rango(𝐴) = rango(𝐴 | 𝐵), dove 𝐴 è la matrice incompleta del sistema e 𝐴 | 𝐵 è la
matrice completa del sistema

⎛ 𝑎11 … 𝑎1𝑛 ⎞ ⎛ 𝑎11 … 𝑎1𝑛 𝑏1 ⎞


⎜𝑎 … 𝑎2𝑛 ⎟ ⎜𝑎 … 𝑎2𝑛 𝑏2 ⎟
𝐴 = ⎜ 21 𝐴 | 𝐵 = ⎜ 21
⎜ ⋮ ⋱ ⋮ ⎟⎟ ⎜ ⋮ ⋱ ⋮ ⋮ ⎟⎟
⎝𝑎𝑚1 … 𝑎𝑚𝑛 ⎠ ⎝𝑎𝑚1 … 𝑎𝑚𝑛 𝑏𝑚 ⎠

Dimostrazione. Il sistema 𝐴𝑋 = 𝐵 ammette soluzione se e solo se 𝐵 è combinazione lineare delle


colonne di 𝐴, che avviene se e solo se 𝐵 è linearmente dipendente dalle colonne di 𝐴. Chiamiamo
𝑟 il rango della matrice 𝐴 (rango(𝐴) = 𝑟) e consideriamo il rango di 𝐴 | 𝐵. Ci sono due casi: (1)
rango(𝐴 | 𝐵) = 𝑟 se 𝐵 è linearmente dipendente dalle colonne di 𝐴; (2) rango(𝐴 | 𝐵) = 𝑟 + 1 se 𝐵 è
linearmente indipendente dalle colonne di 𝐴. Questo implica che 𝐴𝑋 = 𝐵 ha soluzione se e solo
se rango(𝐴 | 𝐵) = rango(𝐴).■

Lemma 16.1. Se il rango di 𝐴 è uguale a 𝑛 (quindi rango(𝐴) = rango(𝐴 | 𝐵) = 𝑟 = 𝑛), il sistema


ammette un’unica soluzione. Altrimenti (se 𝑟 < 𝑛), il sistema ammette ∞𝑛−𝑟 soluzioni, le quali
dipendono da 𝑛 − 𝑟 parametri liberi di variare.

Possiamo applicare il teorema di Rouché-Capelli se sappiamo come calcolare il rango di una


matrice.

16.2 Metodo di Eliminazione di Gauss


⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞
⎜𝑎 𝑎22 … 𝑎2𝑛 ⎟
𝐴 = ⎜ 21
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 ⎠
Operazioni elementari sulle righe (o colonne), che non modificano il rango di una matrice

1. scambiare due righe tra loro

2. moltiplicare una riga per un numero diverso da 0

3. sommare (sottrarre) ad una riga una combinazione lineare delle altre righe

Trasformiamo la matrice 𝐴 in un’altra matrice 𝐴′ con lo stesso rango sottraendo alla riga
𝑖-esima (𝑖 = 2, … , 𝑛) la prima riga moltiplicata per 𝑎𝑎11𝑖1 assumendo che 𝑎11 ≠ 0. Otteniamo

⎛𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜0 ′
𝑎22 … ′ ⎟
𝑎2𝑛
′ ⎜ ′ ′ ⎟
𝐴 =⎜0 𝑎32 … 𝑎3𝑛 ⎟
⎜ ⋮ ⋮ ⋱ ⋮ ⎟
⎜0 ′
𝑎𝑚2 … ′ ⎟
𝑎𝑚𝑛
⎝ ⎠
1
Teorema 2.3.5, pag. 73
72 LEZIONE 16. IL TEOREMA DI ROUCHÉ-CAPELLI E IL METODO DI GAUSS

Trasformiamo questa nuova matrice 𝐴′ in un’altra matrice sottraendo alla riga 𝑖-esima (𝑖 =

3, … , 𝑛) la seconda riga moltiplicata per 𝑎𝑎′𝑖2 assumendo che 𝑎22

≠ 0. Otteniamo
22

⎛𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜ 0 𝑎′ … ′ ⎟
𝑎2𝑛
⎜ 22
′′ ′′ ⎟
𝐴 =⎜0 0 … 𝑎3𝑛 ⎟
⎜ ⋮ ⋮ ⋱ ⋮ ⎟
⎜0 0 … ′′ ⎟
𝑎𝑚𝑛
⎝ ⎠
Iteriamo il procedimento. Alla fine, otteniamo un matrice detta in forma a scala del tipo

⎛∗ ∗ ∗ ∗ …⎞
⎜0 ∗ ∗ ∗ …⎟
⎜ ⎟
⎜0 0 ∗ ∗ …⎟
⎜⋮ ⋮ ⋮ ∗ …⎟
⎜0 0 … ⎟
⎝ ⎠
dove gli elementi ∗ possono essere zero oppure no, mentre tutti gli elementi sotto i pivot (ovve-
rosia gli elementi in posizione (𝑖, 𝑖)) sono zero.

Il rango della matrice coincide col numero di righe non nulle, cioè col numero di pivot
diversi da 0

Esempio 16.1.

Calcoliamo il rango della seguente matrice

⎛2 −1 3 ⎞
𝐴 = ⎜1 4 −2⎟
⎜ ⎟
⎝3 0 1 ⎠
Scambiamo la prima riga con la seconda

⎛2 −1 3 ⎞ ⎛1 4 −2⎞
𝐴= ⎜ 1 4 −2⎟ ⇝ ⎜2 −1 3 ⎟
⎜ ⎟ ⎜ ⎟
⎝3 0 1 ⎠ ⎝3 0 1 ⎠
Sottraiamo, alla seconda riga, la prima moltiplicata per 2 e sottraiamo, alla terza riga, la prima
moltiplicata per 3
⎛1 4 −2⎞ ⎛1 4 −2⎞
⎜2 −1 3 ⎟ ⇝ ⎜0 −9 7 ⎟
⎜ ⎟ ⎜ ⎟
⎝3 0 1 ⎠ ⎝0 −12 7 ⎠
Sottraiamo, alla terza riga, la seconda moltiplicata per 4
3

⎛1 4 −2⎞ ⎛1 4 −2 ⎞ ⎛1 4 −2⎞
⎜0 −9 7 ⎟ ⇝ ⎜0 −9 7 ⎟ = ⎜0 −9 7 ⎟
⎜ ⎟ ⎜ 4 4⎟ ⎜ 7⎟
⎝0 −12 7 ⎠ ⎝0 −12 − (−9) 3 7 − 7 3 ⎠ ⎝0 0 − 3 ⎠
Poichè la matrice ha tre righe non nulle, allora rango(𝐴) = 3
16.2. METODO DI ELIMINAZIONE DI GAUSS 73

Esempio 16.2.

Calcoliamo il rango della seguente matrice

⎛−2 3 1 0 4⎞
𝐴 = ⎜ 4 −6 −2 2 1⎟
⎜ ⎟
⎝−6 9 3 1 3⎠
Aggiungiamo, alla seconda riga, la prima moltiplicata per 2 e sottraiamo, alla terza riga, la prima
moltiplicata per 3
⎛−2 3 1 0 4⎞ ⎛−2 3 1 0 4 ⎞
⎜ 4 −6 −2 2 1⎟ ⇝ ⎜ 0 0 0 2 9 ⎟
⎜ ⎟ ⎜ ⎟
⎝−6 9 3 1 3⎠ ⎝ 0 0 0 1 −9⎠
Sottraiamo, alla terza riga, la seconda moltiplicata per 1
2

⎛−2 3 1 0 4 ⎞ ⎛−2 3 1 0 4 ⎞
⎜0 0 0 2 9⎟⇝⎜0 0 0 2 9 ⎟
⎜ ⎟ ⎜ 27 ⎟
⎝ 0 0 0 1 −9⎠ ⎝0 0 0 0 −2⎠
Questa matrice ha tre righe non nulle, quindi rango(𝐴) = 3

Esempio 16.3.

Calcoliamo il rango della seguente matrice

⎛0 2 −1 3⎞
𝐴 = ⎜1 −2 4 1⎟
⎜ ⎟
⎝2 −2 7 5⎠
Scambiamo la prima riga con la seconda

⎛0 2 −1 3⎞ ⎛1 −2 4 1⎞
⎜1 −2 4 1⎟ ⇝ ⎜0 2 −1 3⎟
⎜ ⎟ ⎜ ⎟
⎝2 −2 7 5⎠ ⎝2 −2 7 5⎠
Sottraiamo, alla terza riga, la prima moltiplicata per 2

⎛1 −2 4 1⎞ ⎛1 −2 4 1⎞
⎜0 2 −1 3⎟ ⇝ ⎜0 2 −1 3⎟
⎜ ⎟ ⎜ ⎟
⎝2 −2 7 5⎠ ⎝0 2 −1 3⎠
Sottraiamo, alla terza riga, la seconda

⎛1 −2 4 1⎞ ⎛1 −2 4 1⎞
⎜0 2 −1 3⎟ ⇝ ⎜0 2 −1 3⎟
⎜ ⎟ ⎜ ⎟
⎝0 2 −1 3⎠ ⎝0 0 0 0⎠
Questa matrice ha due righe non nulle, quindi rango(𝐴) = 2
74 LEZIONE 16. IL TEOREMA DI ROUCHÉ-CAPELLI E IL METODO DI GAUSS

Esempio 16.4.
Calcoliamo il rango della seguente matrice

⎛0 1 2⎞
⎜ 2 −2 −2⎟
𝐴=⎜ ⎟
⎜−1 4 7 ⎟
⎝3 1 5⎠

⎛0 1 2⎞ ⎛−1 4 7 ⎞ ⎛−1 4 7 ⎞ ⎛−1 4 7⎞ ⎛−1 4 7⎞


⎜ 2 −2 −2⎟ ⎜ 2 −2 −2⎟ ⎜ 0 6 12⎟ ⎜0 1 2⎟ ⎜0 1 2⎟
𝐴=⎜ ⎟ ⇝⎜ ⎟ ⇝⎜ ⎟ ⇝⎜ ⎟ ⇝⎜
⎜−1 4 7 ⎟ ⎜0 1 2⎟ ⎜0 1 2⎟ ⎜0 1 2⎟ ⎜0 0 0⎟⎟
⎝3 1 5⎠ ⎝3 1 5⎠ ⎝ 0 13 26⎠ ⎝0 1 2⎠ ⎝0 0 0⎠
Questa matrice ha due righe non nulle, quindi rango(𝐴) = 2
Esempio 16.5.
Sia 𝑈 il sottospazio vettoriale di ℝ5 generato dai seguenti vettori
⎛1⎞ ⎛3⎞ ⎛0⎞ ⎛4⎞ ⎛2⎞
⎜−3⎟ ⎜1⎟ ⎜2⎟ ⎜0⎟ ⎜−8⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝑣1 = ⎜ 0 ⎟ , 𝑣2 = ⎜ 1 ⎟ , 𝑣3 = ⎜−2⎟ , 𝑣4 = ⎜−1⎟ , 𝑣5 = ⎜ 2 ⎟
⎜2⎟ ⎜−1⎟ ⎜0⎟ ⎜1⎟ ⎜4⎟
⎜1⎟ ⎜2⎟ ⎜1⎟ ⎜4⎟ ⎜1⎟
⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠
Vogliamo trovare la dimensione di 𝑈 e una sua base.
In teoria potremmo risolvere il sistema di equazioni lineari 𝜆1 𝑣1 + 𝜆2 𝑣2 + 𝜆3 𝑣3 + 𝜆4 𝑣4 + 𝜆5 𝑣5 = 0,
ma vogliamo sfruttare il metodo di Gauss (che è più semplice). Possiamo applicarlo sulla matrice
⎛1 3 0 4 2⎞
⎜−3 1 2 0 −8⎟
⎜ ⎟
⎜ 0 1 −2 −1 2 ⎟
⎜ 2 −1 0 1 4 ⎟
⎜1 2 1 4 1⎟
⎝ ⎠
ma, poichè il rango per righe e per colonne è lo stesso, applichiamo il metodo di Gauss sulla
matrice trasposta (e teniamo traccia dei vettori a cui fa riferimento ogni riga)
𝑣1 ⎛1 −3 0 2 1⎞ 𝑣1 ⎛1 −3 0 2 1 ⎞ 𝑣1 ⎛1 −3 0 2 1 ⎞

𝑣2 3 1 1 −1 2 ⎟ 𝑣2 ⎜0 10 1 −7 −1 ⎟ 𝑣3 ⎜0 2 −2 0 1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝑣3 ⎜0 2 −2 0 1⎟ ⇝ 𝑣3 ⎜0 2 −2 0 1 ⎟ ⇝ 𝑣2 ⎜0 10 1 −7 −1⎟ ⇝
𝑣4 ⎜4 0 −1 1 4⎟ 𝑣4 ⎜0 12 −1 −7 0 ⎟ 𝑣4 ⎜0 12 −1 −7 0 ⎟
⎜ ⎟
𝑣5 ⎝2 −8 2 4 1⎠ 𝑣5 ⎜⎝0 −2 2 0 −1⎠ ⎟ 𝑣5 ⎜⎝0 −2 2 0 −1⎟⎠

𝑣1 ⎛1 −3 0 2 1 ⎞ 𝑣1 ⎛1 −3 0 2 1 ⎞

𝑣3 0 2 −2 0 1 ⎟ 𝑣3 ⎜0 2 −2 0 1 ⎟
⎜ ⎟ ⎜ ⎟
⇝ 𝑣2 ⎜0 0 11 −7 −6⎟ ⇝ 𝑣2 ⎜0 0 11 −7 −6⎟
𝑣4 ⎜0 0 11 −7 −6⎟ 𝑣4 ⎜0 0 0 0 0 ⎟

𝑣5 ⎝ 0 0 0 0 0 ⎠ ⎟ 𝑣5 ⎜⎝0 0 0 0 0 ⎟⎠
Questa matrice ha tre righe non nulle, quindi rango(𝐴) = 3. Ne segue che dim 𝑈 = 3. Inoltre,
concludiamo che 𝑣1 , 𝑣2 e 𝑣3 sono linearmente indipendenti e rappresentano una base di 𝑈 .
Lezione 17

Applicazioni del Metodo di Gauss

Obiettivi:

• Descrivere la TAC come esempio di applicazione che corri-


sponde a un sistema lineare di equazioni

• Rappresentare le operazioni elementari tra matrici come pro-


dotti tra matrici

17.1 Esempi di Eliminazioni di Gauss


Esempio 17.1.
Dato il seguente sistema di equazioni lineari


⎪ 2𝑥1 − 4𝑥2 = −4

⎨ 3𝑥1 − 6𝑥2 + 3𝑥3 = −3



⎩𝑥1 − 2𝑥2 − 𝑥3 = −2
Vogliamo determinare se il sistema ha soluzione oppure no tramite il metodo di eliminazione di
Gauss.

Svolgimento. Abbiamo
⎛2 −4 0 ⎞ ⎛−4⎞

𝐴 = 3 −6 3 ⎟ 𝐵 = ⎜−3⎟
⎜ ⎟ ⎜ ⎟
⎝1 −2 −1⎠ ⎝−2⎠
Sappiamo che il sistema ha soluzione se e solo se rango(𝐴) = rango(𝐴 | 𝐵)
⎛ 2 −4 0 −4 ⎞
𝐴 | 𝐵 = ⎜ 3 −6 3 −3 ⎟
⎜ ⎟
⎝ 1 −2 −1 −2 ⎠
Applicando il metodo di eliminazione di Gauss, possiamo solamente applicare operazioni ele-
mentari su righe, ma non dobbiamo applicare operazioni elementari su colonne. Questo perché
sommare (o sottrarre) righe equivale a sommare (o sottrarre) delle equazioni del sistema.
⎛ 2 −4 0 −4 ⎞ ⎛ 1 −2 −1 −2 ⎞ ⎛ 1 −2 −1 −2 ⎞
⎜ 3 −6 3 −3 ⎟ ⇝ ⎜ 3 −6 3 −3 ⎟ ⇝ ⎜ 0 0 6 3 ⎟ ⇝
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 1 −2 −1 −2 ⎠ ⎝ 2 −4 0 −4 ⎠ ⎝ 0 0 2 0 ⎠

75
76 LEZIONE 17. APPLICAZIONI DEL METODO DI GAUSS

⎛ 1 −2 −1 −2 ⎞ ⎛ 1 −2 −1 −2 ⎞
⇝ 0 0 2 1 ⇝⎜ 0 0 2 1 ⎟
⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 2 0 ⎠ ⎝ 0 0 0 −1 ⎠
Si noti che entrambe le matrici 𝐴 e 𝐴 | 𝐵 sono in forma a scala. Pertanto, rango(𝐴) = 2 e
rango(𝐴 | 𝐵) = 3: il sistema non ha soluzione. Infatti, il sistema risultante dalla matrice 𝐴 | 𝐵
in forma a scala è

⎪ 𝑥 −2𝑥2 −𝑥3 = −2
⎪ 1
⎨ 2𝑥3 = 1


⎩ 0 = −1
che chiaramente non ha soluzione. ✎

Esempio 17.2.

Dato il seguente sistema di equazioni lineari




⎪ 2𝑥1 − 2𝑥2 + 8𝑥3 = 5


⎪2𝑥2 + 6𝑥3 = 1


⎪ 𝑥1 − 2𝑥2 + 4𝑥3 = −1


⎪ 𝑥 + 10𝑥3 = 0
⎩ 1
Vogliamo determinare se il sistema ha soluzione oppure no tramite il metodo di eliminazione di
Gauss. In caso affermativo, vogliamo trovare una soluzione del sistema.

Svolgimento.

⎛ 2 −2 8 5 ⎞ ⎛ 1 −2 4 −1 ⎞ ⎛ 1 −2 4 −1 ⎞ ⎛ 1 −2 4 −1 ⎞
⎜ 0 2 6 1 ⎟ ⎜ 0 2 6 1 ⎟ ⎜ 0 2 6 1 ⎟ ⎜ 0 2 6 1 ⎟
𝐴|𝐵 = ⎜ ⇝⎜ ⇝⎜ ⎟ ⇝ ⎜ 0 0 −6 6 ⎟
⎜ 1 −2 4 −1 ⎟⎟ ⎜ 2 −2 8 5 ⎟⎟ ⎜ 0 2 0 7 ⎟ ⎜ ⎟
⎝ 1 0 10 0 ⎠ ⎝ 1 0 10 0 ⎠ ⎝ 0 2 6 1 ⎠ ⎝ 0 0 0 0 ⎠

rango(𝐴) = rango(𝐴 | 𝐵) = 3, perciò il sistema ammette soluzione. In particolare, una soluzione


si può trovare tramite una sostituzione all’indietro

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪𝑥1 − 2𝑥2 + 4𝑥3 = −1 ⎪𝑥1 − 2𝑥2 − 4 = −1 ⎪ 𝑥1 − 7 − 4 = −1 ⎪ 𝑥1 = 10
⎪ ⎪ ⎪ ⎪
⎨2𝑥2 + 6𝑥3 = 1 ⎨2𝑥2 − 6 = 1 ⎨ 𝑥2 = 72 ⎨ 𝑥2 = 72

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩−6𝑥3 = 6 ⎪
⎩𝑥3 = −1 ⎪
⎩𝑥3 = −1 ⎪
⎩𝑥3 = −1

Il sistema ammette una ed una sola soluzione (𝑥1 , 𝑥2 , 𝑥3 ) = (10, 72 , −1). ✎

17.2 Applicazione Reale dei Sistemi Lineari: la TAC


La TAC (Tomografia Assiale Computerizzata) è un esempio di applicazione dei sistemi lineari.
L’obiettivo della TAC è ottenere un’immagine di una sezione degli organi interni del paziente.
L’immagine è divisa in quadratini, ciascuno dei quali va opportunamente colorato (tipicamente
in scala di grigi).
17.2. APPLICAZIONE REALE DEI SISTEMI LINEARI: LA TAC 77

Per costruire l’immagine, si emettono dei fasci di raggi X con intensità nota lungo tutte le
direzioni e questi vengono rilevati da appositi rilevatori. La differenza tra l’intensità del fascio di
raggi X emesso e quella del fascio rivelato fornisce una misura dell’attenuazione che il fascio ha
subito attraversando i vari tessuti. Tessuti diversi producono attenuazioni diverse.

L’attenuazione misurata è la somma delle attenuazioni dei singoli voxel attraversati dal fascio
di raggi X. I voxel sono gli analoghi dei pixel nel tridimensionale.

Il problema consiste nel determinare l’attenuazione causata da ogni singolo voxel.


78 LEZIONE 17. APPLICAZIONI DEL METODO DI GAUSS

Alla fine, a ogni valore di attenuazione di ciascun voxel viene assegnato un determinato li-
vello di grigio e l’immagine viene ricostruita. Tipicamente un’immagine tipica è costituita da
512 righe, ciascuna di 512 pixel, ovverosia una matrice quadrata 512 × 512 = 262 144 pixel (uno
per ogni voxel) - per una TAC a bassa risoluzione. Il processo di ricostruzione dell’immagine
deve calcolare un valore del coefficiente di attenuazione 𝜇𝑖 , per ciascuno dei 262 144 voxel cor-
rispondente a questi pixel. Tipicamente le ossa vengono rappresentate in bianco, l’aria in nero,
ecc.
Vediamo un esempio con una piccola matrice 3 × 3, quindi con 9 incognite

Raccogliamo le informazioni sulle intensità rivelate da quattro angolazioni

1. RX in direzione verticale



⎪𝑥1 + 𝑥4 + 𝑥7 = 12.4

⎨𝑥2 + 𝑥5 + 𝑥8 = 13.4



⎩𝑥3 + 𝑥6 + 𝑥9 = 8.0

2. RX in direzione orizzontale



⎪𝑥1 + 𝑥2 + 𝑥3 = 7.4

⎨𝑥4 + 𝑥5 + 𝑥6 = 17.2



⎩𝑥7 + 𝑥8 + 𝑥9 = 9.2

3. RX a 45 gradi ↙
17.2. APPLICAZIONE REALE DEI SISTEMI LINEARI: LA TAC 79


⎪ 𝑥1 = 2.2



⎪ 𝑥2 + 𝑥4 = 8.8

⎨ 𝑥3 + 𝑥5 + 𝑥7 = 13.8



⎪ 𝑥6 + 𝑥8 = 7.4


⎩𝑥9 = 1.6

4. RX a 45 gradi ↘


⎪ 𝑥3 = 1.8



⎪ 𝑥2 + 𝑥6 = 8.0

⎨ 𝑥1 + 𝑥5 + 𝑥9 = 11.0



⎪ 𝑥4 + 𝑥8 = 8.2


⎩𝑥7 = 4.8

Combinando tutte le equazioni, si ottiene il sistema 𝐴𝑋 = 𝐵

⎛1 0 0 1 0 0 1 0 0⎞ ⎛12.4⎞
⎜0 1 0 0 1 0 0 1 ⎟
0⎟ ⎜13.4⎟
⎜ ⎜ ⎟
⎜0 0 1 0 0 1 0 0 1⎟ ⎜ 8.0 ⎟
⎜1 1 1 0 0 0 0 0 0⎟ ⎜ 7.4 ⎟
⎜0 𝑥1 ⎞ ⎜
⎜ 0 0 1 1 1 0 0 0⎟ ⎜ ⎟ ⎜17.2⎟⎟
⎟ ⎛
𝑥
⎜0 0 0 0 0 0 1 1 1⎟ ⎜ 2 ⎟ ⎜ 9.2 ⎟
𝑥
⎜1 0 0 0 0 0 0 0 0⎟ ⎜ 3 ⎟ ⎜ 2.2 ⎟
⎜ ⎟ ⎜𝑥 ⎟ ⎜ ⎟
⎜0 1 0 1 0 0 0 0 0⎟ ⎜ 4 ⎟ ⎜ 8.8 ⎟
𝑥 =
⎜0 0 1 0 1 0 1 0 0⎟ ⎜ 5 ⎟ ⎜13.8⎟
⎜0 𝑥
0 0 0 0 1 0 1 0⎟ ⎜ 6 ⎟ ⎜ 7.4 ⎟
⎜ ⎟ ⎜𝑥 ⎟ ⎜ ⎟
⎜0 0 0 0 0 0 0 0 1⎟ ⎜ 7 ⎟ ⎜ 1.6 ⎟
𝑥8
⎜0 0 1 0 0 0 0 0 0⎟ ⎜ ⎟ ⎜ 1.8 ⎟
⎜0 𝑥
1 0 0 0 1 0 0 0⎟ ⎝ 9 ⎠ ⎜ 8.0 ⎟
⎜ ⎟ ⎜ ⎟
⎜1 0 0 0 1 0 0 0 1⎟ ⎜11.0⎟
⎜0 0 0 1 0 0 0 1 0⎟ ⎜ 8.2 ⎟
⎜0 0 0 0 0 0 1 0 0⎟ ⎜ 4.8 ⎟
⎝ ⎠ ⎝ ⎠
Risolvendo il sistema lineare si ottiene

𝑥1 = 2.2 𝑥2 = 3.4 𝑥3 = 1.8 𝑥4 = 5.4 𝑥5 = 7.2 𝑥6 = 4.6 𝑥7 = 4.8 𝑥8 = 2.8 𝑥9 = 1.6

Questa situazione è ideale, perché, in pratica, tutte le misurazioni (i termini noti del vettore
𝐵) sono affette da errori. Consideriamo dei termini di errore (piccoli)

𝑒𝑟 = {0.001, −0.002, 0.001, 0.002, −0.002, −0.001, 0.002, 0.003,

−0.001, 0.002, 0.001, −0.002, 0.002, −0.001, −0.002, 0.001}


e sommiamoli al vettore 𝐵

𝐵𝑒𝑟 = {12.401, 13.398, 8.001, 7.402, 17.198, 9.199, 2.202, 8.803,


80 LEZIONE 17. APPLICAZIONI DEL METODO DI GAUSS

13.799, 7.402, 1.601, 1.798, 8.002, 10.999, 8.198, 4.801}


Si ottiene un nuovo vettore di termini noti 𝐵𝑒𝑟, che rappresenta le misurazioni affette da errori
di misura. Se proviamo a risolvere il sistema 𝐴𝑋 = 𝐵𝑒𝑟, troviamo che il sistema non ha soluzioni,
perché evidentemente rango(𝐴) ≠ rango(𝐴 | 𝐵𝑒𝑟).
Per determinare comunque i valori delle incognite, consideriamo la matrice 𝐴𝑇 trasposta di
𝐴 e moltiplichiamo a sinistra il sistema

(𝐴𝑇 𝐴)𝑋 = 𝐴𝑇 𝐵𝑒𝑟

da cui possiamo calcolare il vettore delle 𝑋 e ottenere la seguente soluzione

𝑥1 = 2.20118 𝑥2 = 3.40175 𝑥3 = 1.79923 𝑥4 = 5.39955 𝑥5 = 7.19775

𝑥6 = 4.60141 𝑥7 = 4.8008 𝑥8 = 2.79889 𝑥9 = 1.60018


Questa nuova soluzione è molto simile alla soluzione del sistema senza errori di misura. Rima-
ne da capire perché questa ricetta di moltiplicare tutto a sinistra per 𝐴𝑇 funziona. Ne parleremo
nelle prossime lezioni.

17.3 Operazioni Elementari sulle Righe


17.3.1 Scambiare due righe tra loro
Scambiare due righe tra loro significa permutare le due righe

⎛1 0 … 0 0 …⎞
⎜ ⎟
⎜0 1 … 0 0 …⎟
⎜⋮ ⋱ ⎟
𝑃(𝑖, 𝑗) = ⎜0 0 … 0 1 …⎟ riga 𝑖
⎜ ⎟
⎜0 0 … 1 0 …⎟ riga 𝑗
⎜⋮ ⎟
⎜0 0 … 0 0 1⎟
⎝ ⎠
Esempio 17.3.

⎛0 0 1 0 0⎞
⎜0 1 0 0 0⎟
⎜ ⎟
𝑃(1, 3) = ⎜1 0 0 0 0⎟
⎜0 0 0 1 0⎟
⎜0 0 0 0 1⎟⎠

𝐴′ = 𝑃(𝑖, 𝑗) ⋅ 𝐴
𝐴′ è la matrice 𝐴 con le righe 𝑖 e 𝑗 scambiate tra loro

𝐴′ = 𝐴 ⋅ 𝑃(𝑖, 𝑗)
𝐴′ è la matrice 𝐴 con le colonne 𝑖 e 𝑗 scambiate tra loro
17.3. OPERAZIONI ELEMENTARI SULLE RIGHE 81

17.3.2 Moltiplicare una riga per uno scalare diverso da 0


Moltiplicare una riga 𝑖 per uno scalare 𝜆 ≠ 0

⎛1 0 … 0 0 …⎞
⎜0 1 … 0 0 …⎟
⎜ ⎟
⋮ ⋱
𝑀(𝑖, 𝜆) = ⎜ ⎟
⎜0 0 … 𝜆 0 …⎟ riga 𝑖
⎜⋮ ⋱ ⎟
⎜ ⎟
⎝0 0 … 0 0 1⎠

𝐴′ = 𝑀(𝑖, 𝜆) ⋅ 𝐴
𝐴′ è ottenuta moltiplicando per 𝜆 la riga 𝑖-esima di 𝐴

𝐴′ = 𝐴 ⋅ 𝑀(𝑖, 𝜆)
𝐴′ è ottenuta moltiplicando per 𝜆 la colonna 𝑖-esima di 𝐴

17.3.3 Sommare a una riga un’altra moltiplicata per uno scalare


Sommare, alla riga 𝑖, la riga 𝑗 moltiplicata per uno scalare 𝛼 (con 𝑖 ≠ 𝑗)

⎛1 0 0 … 0 0 0 0⎞… 0
⎜ ⎟
⎜0 1 0 … 0 0 0 0⎟… 0
⎜0 0 1 … 0 0 0 0⎟… 0
𝑆(𝑖, 𝑗, 𝛼) = ⎜0 0 0 … 1 0 0 0⎟… 0
⎜ ⎟
⎜⋮ ⋱ ⎟
⎜0 0 0 0 … 1 0 … 𝛼 …⎟
⎜⋮ ⎟
⎝ ⎠
La matrice 𝑆(𝑖, 𝑗, 𝛼) differisce dalla matrice identica solamente per la presenza di 𝛼 nella riga 𝑖 e
colonna 𝑗

𝐴′ = 𝑆(𝑖, 𝑗, 𝛼) ⋅ 𝐴
𝐴′ è ottenuta sommando, alla riga 𝑖-esima, la riga 𝑗-esima moltiplicata per 𝛼

𝐴′ = 𝐴 ⋅ 𝑆(𝑖, 𝑗, 𝛼)
𝐴′ è ottenuta sommando, alla colonna 𝑗-esima, la colonna 𝑖-esima moltiplicata per 𝛼
Esempio 17.4.
Vediamo un esempio con matrici 3 × 3

⎛1 0 𝛼 ⎞
𝑆(1, 3, 𝛼) = ⎜0 1 0 ⎟
⎜ ⎟
⎝0 0 1 ⎠
⎛1 0 𝛼 ⎞ ⎛𝑎 𝑏 𝑐 ⎞ ⎛𝑎 + 𝛼𝑔 𝑏 + 𝛼ℎ 𝑐 + 𝛼𝑖 ⎞
𝐴 = 𝑆(1, 3, 𝛼) ⋅ 𝐴 = ⎜0 1 0 ⎟ ⎜𝑑 𝑒 𝑓 ⎟ = ⎜ 𝑑

𝑒 𝑓 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝0 0 1 ⎠ ⎝ 𝑔 ℎ 𝑖 ⎠ ⎝ 𝑔 ℎ 𝑖 ⎠
82 LEZIONE 17. APPLICAZIONI DEL METODO DI GAUSS

⎛𝑎 𝑏 𝑐 ⎞ ⎛1 0 𝛼 ⎞ ⎛𝑎 𝑏 𝛼𝑎 + 𝑐 ⎞
𝐴 = 𝐴 ⋅ 𝑆(1, 3, 𝛼) = ⎜𝑑 𝑒 𝑓 ⎟ ⎜0 1 0 ⎟ = ⎜𝑑 𝑒 𝛼𝑑 + 𝑓 ⎟

⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝𝑔 ℎ 𝑖 ⎠ ⎝0 0 1 ⎠ ⎝𝑔 ℎ 𝛼𝑔 + 𝑖 ⎠

Tutte le operazioni elementari sulle righe di 𝐴 si ottengono moltiplicando 𝐴 a sinistra per


opportune matrici del tipo 𝑃(𝑖, 𝑗), 𝑀(𝑖, 𝜆) e 𝑆(𝑖, 𝑗, 𝛼)
Lezione 18

Applicazioni del Metodo di Gauss

Obiettivi:

• Calcolare la matrice che riduce un’altra matrice in forma a


scala

• Applicare il metodo di Gauss per trovare relazioni di dipen-


denza lineare tra vettori

• Determinare una base dell’intersezione di sottospazi vettoria-


le tramite matrici

Ridurre una matrice 𝐴 in una matrice 𝐴′ in forma a scala applicando operazioni elementari
sulle matrici equivale a moltiplicare a sinistra la matrice 𝐴 per un insieme opportuno di matrici
𝐴 ⇝ 𝐵1 𝐴 ⇝ 𝐵2 𝐵1 𝐴 ⇝ … ⇝ (𝐵𝑛 𝐵𝑛−1 … 𝐵2 𝐵1 )𝐴 = 𝐵𝐴 = 𝐴′
La matrice 𝐵 (che si ottiene alla fine) ha la proprietà
𝐵𝐴 = 𝐴′
dove 𝐴′ è in forma a scala. Ci poniamo la domanda: come possiamo calcolare la matrice 𝐵 senza
moltiplicare tutte le matrici delle operazioni elementari?
Consideriamo la matrice (𝐴 | 𝐼 ), dove 𝐼 è la matrice identica. Moltiplicando tale matrice a
sinistra per la matrice 𝐵, otteniamo
𝐵 ⋅ (𝐴 | 𝐼 ) = (𝐵𝐴 | 𝐵) = (𝐴′ | 𝐵)
dove 𝐴′ è in forma a scala e 𝐵 è la matrice cercata
Esempio 18.1.
⎛ 3 −1 4⎞
⎜ 2 −2 1⎟
𝐴=⎜ ⎟
⎜ 0 4 5⎟
⎝−1 3 2⎠
⎛ 3 −1 4 1 0 0 0 ⎞
⎜ 2 −2 1 0 1 0 0 ⎟
(𝐴 | 𝐼 ) = ⎜ ⎟
⎜ 0 4 5 0 0 1 0 ⎟
⎝ −1 3 2 0 0 0 1 ⎠

83
84 LEZIONE 18. APPLICAZIONI DEL METODO DI GAUSS

Riduciamo (𝐴 | 𝐼 ) in forma a scala usando solamente operazioni elementari su righe

⎛ 3 −1 4 1 0 0 0 ⎞ ⎛ −1 3 2 0 0 0 1 ⎞ ⎛ −1 3 2 0 0 0 1 ⎞
⎜ 2 −2 1 0 1 0 0 ⎟ ⎜ 2 −2 1 0 1 0 0 ⎟ ⎜ 0 4 5 0 1 0 2 ⎟
⎜ 0 4 5 0 0 1 0 ⎟⇝⎜ 0 4 5 0 0 1 0 ⎟⇝⎜ 0 4 5 0 0 1 0 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ −1 3 2 0 0 0 1 ⎠ ⎝ 3 −1 4 1 0 0 0 ⎠ ⎝ 0 8 10 1 0 0 3 ⎠

⎛ −1 3 2 0 0 0 1 ⎞
⎜ 0 4 5 0 1 0 2 ⎟
⇝⎜
⎜ 0 0 0 0 −1 1 −2 ⎟⎟
⎝ 0 0 0 1 −2 0 −1 ⎠
da cui ricaviamo
⎛−1 2⎞3 ⎛0 0 0 1 ⎞
⎜0 5⎟4 ⎜0 1 0 2 ⎟
𝐴′ = ⎜ ⎟ 𝐵=⎜ ⎟
⎜0 0⎟0 ⎜0 −1 1 −2⎟
⎝0 0⎠0 ⎝1 −2 0 −1⎠
Poichè rango(𝐴 ) = 2, allora rango(𝐴) = 2. Verifichiamo che 𝐵𝐴 = 𝐴′

⎛0 0 0 1 ⎞ ⎛ 3 −1 4⎞ ⎛−1 3 2⎞
⎜0 1 0 2 ⎟ ⎜ 2 −2 1⎟ ⎜ 0 4 5⎟
⎜0 −1 1 −2⎟ ⎜ 0 4 5⎟ = ⎜ 0 0 0⎟⎟

⎜ ⎟⎜ ⎟ ⎜
⎝1 −2 0 −1⎠ ⎝−1 3 2⎠ ⎝ 0 0 0⎠
Le matrici 𝐵 ed 𝐴′ ci danno ulteriori informazioni sulla matrice 𝐴. Infatti, chiamiamo 𝑣1 , 𝑣2 ,
𝑣3 e 𝑣4 i vettori riga di 𝐴
𝑣1 = (3, −1, 4) 𝑣2 = (2, −2, 1) 𝑣3 = (0, 4, 5) 𝑣4 = (−1, 3, 2)
Le ultime due righe di 𝐵, ci dicono che
0𝑣1 − 1𝑣2 + 1𝑣3 − 2𝑣4 = 0 e 1𝑣1 − 2𝑣2 + 0𝑣3 − 1𝑣4 = 0
sono relazioni di dipendenza lineare tra i vettori 𝑣1 , 𝑣2 , 𝑣3 e 𝑣4 . Infatti, per esempio
𝑣3 = 𝑣2 + 2𝑣4 e 𝑣1 = 2𝑣2 + 𝑣4
Esempio 18.2.
Sia 𝑈 il sottospazio vettoriale di ℝ4 generato dai vettori
𝑢1 = (2, 0, 1, −1) 𝑢2 = (1, 1, 2, 0) 𝑢3 = (4, −2, −1, −3)
Vogliamo calcolare dim 𝑈 e trovare le relazioni di dipendenza lineare tra i vettori 𝑢1 , 𝑢2 e 𝑢3 .
Per calcolare dim 𝑈 , possiamo semplicemente calcolare il rango della matrice i cui coefficienti
sono le componenti dei vettori
⎛2 0 1 −1⎞
rango ⎜1 1 2 0 ⎟ = dim 𝑈
⎜ ⎟
⎝4 −2 −1 −3⎠
⎛2 0 1 −1⎞ ⎛1 1 2 0 ⎞ ⎛1 1 2 0 ⎞ ⎛1 1 2 0 ⎞
⎜1 1 2 0 ⎟ ⇝ ⎜2 0 1 −1⎟ ⇝ ⎜0 −2 −3 −1⎟ ⇝ ⎜0 −2 −3 −1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝4 −2 −1 −3⎠ ⎝4 −2 −1 −3⎠ ⎝0 −6 −9 −3⎠ ⎝0 0 0 0 ⎠
Da cui ricaviamo che rango(𝐴) = 2 = dim 𝑈 .
Per trovare le relazioni di dipendenza lineare, abbiamo due opzioni:
85

1. Risolvere il sistema 𝜆1 𝑢1 + 𝜆2 𝑢2 + 𝜆3 𝑢3 = 0

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 2𝜆1 + 𝜆2 + 4𝜆3 = 0 ⎪−6𝜆3 + 𝜆2 + 4𝜆3 = 0 ⎪𝜆2 − 2𝜆3 = 0 ⎪0=0

⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪𝜆2 − 2𝜆3 = 0 ⎪𝜆2 − 2𝜆3 = 0 ⎪𝜆2 − 2𝜆3 = 0 ⎪0 = 0

⎪ ⎨
⎪ ⎨
⎪ ⎨

⎪ 𝜆1 + 2𝜆2 − 𝜆3 = 0 ⎪−3𝜆3 + 2𝜆2 − 𝜆3 = 0 ⎪2𝜆2 − 4𝜆3 = 0 ⎪𝜆2 = 2𝜆3

⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪−𝜆 − 3𝜆3 = 0 ⎪𝜆 = −3𝜆3 ⎪𝜆 = −3𝜆3 ⎪𝜆 = −3𝜆3
⎩ 1 ⎩ 1 ⎩ 1 ⎩ 1
Da cui ricaviamo che, assegnando per esempio 𝜆3 = 1, si ha

−3𝑢1 + 2𝑢2 + 𝑢3 = 0

quindi ricaviamo la dipendenza tra i vettori 𝑢3 = 3𝑢1 − 2𝑢2

2. Partiamo dalla matrice (𝐴 | 𝐼 ) e la trasformiamo in matrice a scala usando solamente ope-


razioni elementari sulle righe

⎛ 2 0 1 −1 1 0 0 ⎞ ⎛ 1 1 2 0 0 1 0 ⎞
⎜ 1 1 2 0 0 1 0 ⎟ ⇝ ⎜ 2 0 1 −1 1 0 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 4 −2 −1 −3 0 0 1 ⎠ ⎝ 4 −2 −1 −3 0 0 1 ⎠

⎛ 1 1 2 0 0 1 0 ⎞ ⎛ 1 1 2 0 0 1 0 ⎞
⇝ ⎜ 0 −2 −3 −1 1 −2 0 ⎟ ⇝ ⎜ 0 −2 −3 −1 1 −2 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 −6 −9 −3 0 −4 1 ⎠ ⎝ 0 0 0 0 −3 2 1 ⎠
da cui ricaviamo

⎛ 1 1 2 0 ⎞ ⎛ 0 1 0 ⎞
𝐴′ = ⎜ 0 −2 −3 −1 ⎟ 𝐵 = ⎜ 1 −2 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 0 0 ⎠ ⎝ −3 2 1 ⎠
dove 𝐴′ è 𝐴 in forma a scala e 𝐵 è la matrice tale che 𝐵 ⋅ 𝐴 = 𝐴′ . L’ultima riga di 𝐵 ci dice
che −3𝑢1 + 2𝑢2 + 𝑢3 = 0, cioè 𝑢3 = 3𝑢1 − 2𝑢2 , che è la relazione di dipendenza lineare tra i
vettori 𝑢1 , 𝑢2 e 𝑢3

Esempio 18.3.

Sono dati due spazi vettoriali 𝑈 = ⟨𝑢1 , 𝑢2 ⟩ ⊂ ℝ4 e 𝑊 = ⟨𝑤1 , 𝑤2 , 𝑤3 ⟩ ⊂ ℝ4 generati dai vettori

𝑢1 = (2, 0, 1, −1) 𝑢2 = (1, 1, 2, 0) 𝑤1 = (−1, 1, 0, 0) 𝑤2 = (−2, 0, 1, 0) 𝑤3 = (0, 0, 0, 1)

Vogliamo trovare la dimensione e una base di 𝑈 ∩ 𝑊


Dobbiamo prima verificare che i due vettori 𝑢1 e 𝑢2 sono linearmente indipendenti (è banale
verificarlo) e anche 𝑤1 , 𝑤2 e 𝑤3 sono tra loro linearmente indipendenti (lo sono, ma lo dovremmo
verificare risolvendo un sistema di equazioni lineari in 3 incognite e 4 equazioni oppure riducendo
la relativa matrice in forma a scala e guardando il rango).
Per definizione di intersezione di spazi vettoriali, sappiamo che per ogni 𝑣 ∈ 𝑈 ∩ 𝑊

𝑣 = 𝛼1 𝑢1 + 𝛼2 𝑢2 = 𝛽1 𝑤1 + 𝛽2 𝑤2 + 𝛽3 𝑤3

da cui ricaviamo
𝛼1 𝑢1 + 𝛼2 𝑢2 − 𝛽1 𝑤1 − 𝛽2 𝑤2 − 𝛽3 𝑤3 = 0
86 LEZIONE 18. APPLICAZIONI DEL METODO DI GAUSS

che dà luogo a un sistema di 4 equazioni (siamo in ℝ4 ) in 5 incognite (𝛼1 , 𝛼2 , 𝛽1 , 𝛽2 , 𝛽3 ). Possiamo


risolvere il sistema. Oppure possiamo usare le matrici…
⎛ 2 0 1 −1 1 0 0 0 0 ⎞ ⎛ 1 1 2 0 0 1 0 0 0 ⎞
⎜ 1 1 2 0 0 1 0 0 0 ⎟ ⎜ 2 0 1 −1 1 0 0 0 0 ⎟
⎜ ⎟ ⎜ ⎟
(𝐴 | 𝐼 ) = ⎜ −1 1 0 0 0 0 1 0 0 ⎟⇝⎜ −1 1 0 0 0 0 1 0 0 ⎟⇝
⎜ −2 0 1 0 0 0 0 1 0 ⎟ ⎜ −2 0 1 0 0 0 0 1 0 ⎟
⎜ 0 0 0 1 0 0 0 0 1 ⎟ ⎜ 0 0 0 1 0 0 0 0 1 ⎟
⎝ ⎠ ⎝ ⎠
⎛ 1 1 2 0 0 1 0 0 0 ⎞ ⎛ 1 1 2 0 0 1 0 0 0 ⎞
⎜ 0 −2 −3 −1 1 −2 0 0 0 ⎟ ⎜ 0 −2 −3 −1 1 −2 0 0 0 ⎟
⎜ ⎟ ⎜ ⎟
⇝⎜ 0 2 2 0 0 1 1 0 0 ⎟⇝⎜ 0 0 −1 −1 1 −1 1 0 0 ⎟
⎜ 0 2 5 0 0 2 0 1 0 ⎟ ⎜ 0 0 2 −1 1 0 0 1 0 ⎟
⎜ 0 0 0 1 0 0 0 0 1 ⎠ ⎟ ⎜ 0 0 0 1 0 0 0 0 1 ⎟⎠
⎝ ⎝
⎛ 1 1 2 0 0 1 0 0 0 ⎞ ⎛ 1 1 2 0 0 1 0 0 0 ⎞
⎜ 0 −2 −3 −1 1 −2 0 0 0 ⎟ ⎜ 0 −2 −3 −1 1 −2 0 0 0 ⎟
⎜ ⎟ ⎜ ⎟
⇝⎜ 0 0 −1 −1 1 −1 1 0 0 ⎟ ⇝ ⎜ 0 0 −1 −1 1 −1 1 0 0 ⎟
⎜ 0 0 0 −3 3 −2 2 1 0 ⎟ ⎜ 0 0 0 1 0 0 0 0 1 ⎟
⎜ 0 0 0 1 0 0 0 0 1 ⎠ ⎟ ⎜ 0 0 0 −3 3 −2 2 1 0 ⎟⎠
⎝ ⎝
⎛ 1 1 2 0 0 1 0 0 0 ⎞
⎜ 0 −2 −3 −1 1 −2 0 0 0 ⎟
⎜ ⎟
⇝ ⎜ 0 0 −1 −1 1 −1 1 0 0 ⎟ = (𝐴′ | 𝐵)
⎜ 0 0 0 1 0 0 0 0 1 ⎟
⎜ 0 0 0 0 3 −2 2 1 3 ⎟
⎝ ⎠
Abbiamo ottenuto una matrice 𝐴 corrisponde alla matrice 𝐴 in forma a scala e la matrice 𝐵 tale

che 𝐵 ⋅ 𝐴 = 𝐴′ . Dall’ultima riga di 𝐵 ricaviamo


3𝑢1 − 2𝑢2 + 2𝑤1 + 1𝑤2 + 3𝑤3 = 0
e poichè
𝛼1 𝑢1 + 𝛼2 𝑢2 − 𝛽1 𝑤1 − 𝛽2 𝑤2 − 𝛽3 𝑤3 = 0
possiamo dire che
𝛼1 = 3 𝛼2 = −2 𝛽1 = −2 𝛽2 = −1 𝛽3 = −3
da cui
𝑣 = 3𝑢1 − 2𝑢2 = −2𝑤1 − 𝑤2 − 3𝑤3
Quindi il vettore 𝑣 appena definito appartiene sia a ⟨𝑢1 , 𝑢2 ⟩ sia a ⟨𝑤1 , 𝑤2 , 𝑤3 ⟩ e rappresenta una
base di 𝑈 ∩ 𝑊
⎛2⎞ ⎛1⎞ ⎛ 4 ⎞
⎜0⎟ ⎜1⎟ ⎜−2⎟
𝑣 = 3𝑢1 − 2𝑢2 = 3 ⎜ ⎟ − 2 ⎜ ⎟ = ⎜ ⎟ ∈ 𝑈 ∩ 𝑊
1
⎜ ⎟ ⎜2⎟ ⎜−1⎟
⎝−1⎠ ⎝0⎠ ⎝−3⎠
Allora dim 𝑈 ∩ 𝑊 = 1 e 𝑣 = (4, −2, −1, −3) è una base di 𝑈 ∩ 𝑊 . Per la formula di Grassmann,
possiamo dire che
rango(𝐴) = dim 𝑈 + 𝑊 = dim 𝑈 + dim 𝑊 − dim 𝑈 ∩ 𝑊 = 2 + 3 − 1 = 4
e 𝑈 + 𝑊 = ⟨𝑢1 , 𝑢2 , 𝑤1 , 𝑤2 , 𝑤3 ⟩, di cui 4 soli vettori sono linearmente indipendenti.
87

Esempio 18.4.

Calcolare il rango della seguente matrice (al variare del parametro 𝑡)

⎛ 3 𝑡 + 6 0 −5 ⎞ ⎛ 3 −5 0 𝑡 + 6 ⎞ ⎛ 1 −2 −1 3 ⎞
⎜ 0 3 − 2𝑡 3 1 ⎟ ⎜ 0 1 3 3 − 2𝑡 ⎟ ⎜ 0 1 3 3 − 2𝑡 ⎟
⎜ ⇝⎜ ⎟⇝⎜
⎜ 2 7 − 𝑡 −4 −4 ⎟⎟ ⎜ 2 −4 −4 7 − 𝑡 ⎟ ⎜ 2 −4 −4 7 − 𝑡 ⎟⎟
⎝ 1 3 −1 −2 ⎠ ⎝ 1 −2 −1 3 ⎠ ⎝ 3 −5 0 𝑡 + 6 ⎠

⎛ 1 −2 −1 3 ⎞ ⎛ 1 −2 −1 3 ⎞
⎜ 0 1 3 3 − 2𝑡 ⎟ ⎜ 0 1 3 3 − 2𝑡 ⎟
⇝⎜ ⎟⇝⎜ ⎟
⎜ 0 0 −2 1 − 𝑡 ⎟ ⎜ 0 0 −2 1 − 𝑡 ⎟
⎝ 0 1 3 𝑡 −3 ⎠ ⎝ 0 0 0 3𝑡 − 6 ⎠
Il rango della matrice è 3 se 3𝑡 − 6 = 0, quindi se 𝑡 = 2, ed è 4 se 3𝑡 − 6 ≠ 0, quindi se 𝑡 ≠ 2. Si
noti che il primo passaggio è stato di scambiare la seconda e la quarta colonna per poter avere i
parametri nell’ultima colonna e semplificare i calcoli per la riduzione a scala della matrice. Poi
abbiamo applicato il metodo di riduzione di Gauss applicando operazioni elementari su righe.
Lezione 19

Matrici Inverse

Obiettivi:

• Calcolare la matrice inversa di una matrice quadrata

• Definire il determinante e calcolarlo per matrici 2 × 2

19.1 Calcolo della Matrice Inversa mediante Eliminazione


di Gauss
Abbiamo una matrice quadrata 𝐴. Col metodo di eliminazione di Gauss trasformiamo la matrice
𝐴 in una matrice in forma a scala 𝐴′ . Ora vogliamo arrivare alla matrice identica (se possibile)
usando solamente operazioni elementari su righe.

⎛ ∗ ∗ ∗ … ∗ ⎞ ⎛ ∗ 0 0 … 0 ⎞ ⎛ 1 0 0 … 0 ⎞
⎜ 0 ∗ ∗ … ∗ ⎟ ⎜ 0 ∗ 0 … 0 ⎟ ⎜ 0 1 0 … 0 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝐴 ⇝ 𝐴′ = ⎜ 0 0 ∗ … ∗ ⎟⇝⎜ 0 0 ∗ … 0 ⎟=⎜ 0 0 1 … 0 ⎟=𝐼
⎜ ⋮ ⋮ ⋱ ∗ ⎟ ⎜ ⋮ ⋮ ⋱ 0 ⎟ ⎜ ⋮ ⋮ ⋱ 0 ⎟
⎜ 0 0 ⎟
0 … ∗ ⎠ ⎜ 0 0 0 … ∗ ⎟⎠ ⎜⎝ 0 0 0 … 1 ⎟⎠
⎝ ⎝
Questo è possibile se e solo se il rango della matrice è il massimo.
Alla fine troviamo una matrice 𝐵 tale che 𝐵 ⋅ 𝐴 = 𝐼 , perciò 𝐵 è la matrice inversa di 𝐴:
𝐵 ⋅ 𝐴 = 𝐼 = 𝐴−1 ⋅ 𝐴. Partiamo da (𝐴 | 𝐼 ) e con operazioni elementari sulle righe riduciamo la
matrice 𝐴 alla matrice 𝐼 , ottenendo (𝐼 | 𝐵), quindi 𝐵 è l’inversa di 𝐴

Esempio 19.1.

Data la seguente matrice 𝐴


⎛ 1 2 1 ⎞
𝐴=⎜ 1 3 0 ⎟
⎜ ⎟
⎝ 1 2 2 ⎠
vogliamo calcolare l’inversa 𝐴−1

⎛ 1 2 1 1 0 0 ⎞ ⎛ 1 2 1 1 0 0 ⎞

(𝐴 | 𝐼 ) = 1 3 0 0 1 0 ⇝ ⎜ 0 1 −1 −1 1 0 ⎟

⎜ ⎟ ⎜ ⎟
⎝ 1 2 2 0 0 1 ⎠ ⎝ 0 0 1 −1 0 1 ⎠

88
19.1. CALCOLO DELLA MATRICE INVERSA MEDIANTE ELIMINAZIONE DI GAUSS 89

⎛ 1 2 0 2 0 −1 ⎞ ⎛ 1 0 0 6 −2 −3 ⎞

⇝ 0 1 0 −2 1 1 ⇝ ⎜ 0 1 0 −2 1 1 ⎟ = (𝐼 | 𝐵) = (𝐼 | 𝐴−1 )

⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 −1 0 1 ⎠ ⎝ 0 0 1 −1 0 1 ⎠
Esempio 19.2.

Data la seguente matrice 𝐴


⎛ 2 1 0 ⎞
𝐴 = ⎜ −4 3 1 ⎟
⎜ ⎟
⎝ 6 0 −2 ⎠
vogliamo calcolare l’inversa 𝐴−1

⎛ 2 1 0 1 0 0 ⎞ ⎛ 2 1 0 1 0 0 ⎞ ⎛ 2 1 0 1 0 0 ⎞
(𝐴 | 𝐼 ) = ⎜ −4 3 1 0 1 0 ⎟ ⇝ ⎜ 0 5 1 2 1 0 ⎟ ⇝ ⎜ 0 5 1 2 1 0 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ 7 9 3 ⎟
⎝ 6 0 −2 0 0 1 ⎠ ⎝ 0 −3 −2 −3 0 1 ⎠ ⎝ 0 0 −5 −5 5 1 ⎠

⎛ 2 1 0 1 0 0 ⎞ ⎛ 2 1 0 1 0 0 ⎞ ⎛ 2 1 0 1 0 0 ⎞
⎜ ⎟ ⎜
⇝ 0 5 1 2 1 0 ⇝ 0 5 0 7 7 5 10 5 ⎟
⇝ ⎜ 0 1 0 17 27 1 ⎟
⎜ 7 ⎟ 7 ⎟
9 3 5 ⎟ ⎜ 9 3 5 ⎜ 9 3 5
⎝ 0 0 1 7 −7 −7 ⎠ ⎝ 0 0 1 7 −7 −7 ⎠ ⎝ 0 0 1 7 −7 −7 ⎠
6
⎛ 2 0 0 7
− 27 − 17 ⎞ ⎛ 1 0 0 3
7
− 71 − 141 ⎞
⇝⎜ 0 1 0 1
7
2
7
1 ⎟
7 ⎟
⇝⎜ 0 1 0 1
7
2
7
1 ⎟
7 ⎟
⎜ 9 ⎜
⎝ 0 0 1 7
− 37 − 57 ⎠ ⎝ 0 0 1
9
7
− 73 − 75 ⎠
da cui ricaviamo che
3
⎛ 7
− 17 − 141 ⎞
𝐴−1 = ⎜ 1
7
2
7
1 ⎟
7 ⎟
⎜ 9
⎝ 7
− 37 − 57 ⎠
quindi 𝐴−1 ⋅ 𝐴 = 𝐴 ⋅ 𝐴−1 = 𝐼

Esempio 19.3.

Data la seguente matrice 𝐴


⎛ 0 4 −1 ⎞
𝐴 = ⎜ 2 −1 2 ⎟
⎜ ⎟
⎝ 4 2 3 ⎠
vogliamo calcolare l’inversa 𝐴−1

⎛ 0 4 −1 1 0 0 ⎞ ⎛ 2 −1 2 0 1 0 ⎞ ⎛ 2 −1 2 0 1 0 ⎞
(𝐴 | 𝐼 ) = ⎜ 2 −1 2 0 1 0 ⎟ ⇝ ⎜ 0 4 −1 1 0 0 ⎟ ⇝ ⎜ 0 4 −1 1 0 0 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 4 2 3 0 0 1 ⎠ ⎝ 4 2 3 0 0 1 ⎠ ⎝ 0 4 −1 0 −2 1 ⎠

⎛ 2 −1 2 0 1 0 ⎞
⇝ ⎜ 0 4 −1 1 0 0 ⎟ = (𝐴′ | 𝐵)
⎜ ⎟
⎝ 0 0 0 −1 −2 1 ⎠
da cui si deduce che rango(𝐴) = 2, perciò la matrice 𝐴 non è invertibile (𝐴−1 non esiste)
90 LEZIONE 19. MATRICI INVERSE

In generale Sia 𝐴 una matrice 𝑚 × 𝑛 (con 𝑚 righe ed 𝑛 colonne). Sappiamo che 𝐴 corrisponde
a una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 con 𝑚 = dim 𝑊 e 𝑛 = dim 𝑉 . Ne segue che 𝐴−1 (inversa di
𝐴) corrisponde alla funzione 𝑓 −1 ∶ 𝑊 → 𝑉 , inversa della funzione 𝑓 . Quindi

𝐴 è invertibile ⇔ 𝑓 è invertibile ⇔ 𝑓 è biiettiva (iniettiva e suriettiva) ⇔ 𝑓 è isomorfismo

Allora 𝑛 = 𝑚, perciò 𝐴 è una matrice quadrata.

Una matrice non quadrata non è invertibile (quindi non esiste l’inversa)

Osservazione 19.1. Data una funzione 𝑓 ∶ 𝑉 → 𝑊 tale che 𝑛 = dim 𝑉 = dim 𝑊 = 𝑚, allora 𝑓
è iniettiva se e solo se 𝑓 è suriettiva

dim Ker(𝑓 ) + dim Im(𝑓 ) = dim 𝑉 = 𝑛 = 𝑚

Dimostrazione. (⇒) Supponiamo che 𝑓 sia iniettiva. Allora Ker(𝑓 ) = {0}, perciò dim Ker(𝑓 ) = 0.
Allora dim Im(𝑓 ) = 𝑛 = 𝑚. Poichè Im(𝑓 ) ⊆ 𝑊 e dim Im(𝑓 ) = 𝑛, allora Im(𝑓 ) = 𝑊 . Ne segue che 𝑓
è suriettiva.
(⇐) Supponiamo che 𝑓 sia suriettiva. Allora Im(𝑓 ) = 𝑊 , perciò dim Im(𝑓 ) = dim 𝑊 = 𝑚 = 𝑛.
Allora dim Ker(𝑓 ) = 0. Ne segue che 𝑓 è iniettiva. ■
Sappiamo che
dim Im(𝑓 ) = rango(𝐴) dim Ker(𝑓 ) = null(𝐴)

Data una matrice quadrata 𝐴 con 𝑛 righe ed 𝑛 colonne

𝐴 è invertibile ⇔ 𝑓 è biiettiva ⇔ 𝑓 è iniettiva ⇔ null(𝐴) = 0 ⇔

⇔ 𝑓 è suriettiva ⇔ rango(𝐴) = 𝑛

In generale, sappiamo che date due matrici 𝐴 e 𝐵, 𝐴 ⋅ 𝐵 ≠ 𝐵 ⋅ 𝐴. Consideriamo una matrice 𝐴


e supponiamo che esistano la sua matrice inversa a sinistra, 𝐵, e la sua matrice inversa a destra,
𝐶
𝐵⋅𝐴=𝐼 𝐴⋅𝐶 =𝐼
Allora, per la proprietà associativa, abbiamo

(𝐵 ⋅ 𝐴) ⋅ 𝐶 = 𝐵 ⋅ (𝐴 ⋅ 𝐶) → 𝐼 ⋅ 𝐶 = 𝐵 ⋅ 𝐼 → 𝐶 = 𝐵

Perciò l’inversa a destra è uguale all’inversa a sinistra. Quindi si parla semplicemente di matrice
inversa

19.2 Determinante di una Matrice


Assumiamo di avere una matrice quadrata 2 × 2

𝑎 𝑏
𝐴=
( 𝑐 𝑑 )
19.2. DETERMINANTE DI UNA MATRICE 91

Vediamo che aspetto ha la sua inversa


𝑏 1
𝑎 𝑏 1 0 1 0 1 𝑏𝑎 1
0
(𝐴 | 𝐼 ) = ⇝ 𝑎
𝑎𝑑−𝑏𝑐
𝑎 ⇝ 𝑎
𝑐 𝑎 ⇝
( 𝑐 𝑑 0 1 ) ( 0 𝑎
− 𝑎𝑐 1 ) ( 0 1 − 𝑎𝑑−𝑏𝑐 𝑎𝑑−𝑏𝑐
)
𝑑 𝑏
1 0 𝑎𝑑−𝑏𝑐 − 𝑎𝑑−𝑏𝑐
⇝ 𝑐 𝑎
( 0 1 − 𝑎𝑑−𝑏𝑐 𝑎𝑑−𝑏𝑐 )
Perciò
𝑑 𝑏
− 𝑎𝑑−𝑏𝑐
𝐴−1 = 𝑎𝑑−𝑏𝑐
𝑐 𝑎
( − 𝑎𝑑−𝑏𝑐 𝑎𝑑−𝑏𝑐
)
Infatti 𝐴−1 ⋅ 𝐴 è uguale alla matrice identica
𝑑 𝑏 𝑎𝑑 𝑏𝑐 𝑏𝑑 𝑏𝑑
𝑎𝑑−𝑏𝑐
− 𝑎𝑑−𝑏𝑐 𝑎 𝑏 𝑎𝑑−𝑏𝑐
− 𝑎𝑑−𝑏𝑐 𝑎𝑑−𝑏𝑐
− 𝑎𝑑−𝑏𝑐 1 0
𝑐 𝑎 = 𝑎𝑐 𝑎𝑐 𝑏𝑐 𝑎𝑑 = =𝐼
( − 𝑎𝑑−𝑏𝑐 𝑎𝑑−𝑏𝑐
) ( 𝑐 𝑑 ) ( − 𝑎𝑑−𝑏𝑐 + 𝑎𝑑−𝑏𝑐 − 𝑎𝑑−𝑏𝑐 + 𝑎𝑑−𝑏𝑐 ) ( 0 1 )

Le caratteristiche di 𝐴−1 suggeriscono che

𝐴−1 esiste ⇔ 𝑎𝑑 − 𝑏𝑐 ≠ 0

Quindi il denominatore 𝑎𝑑 − 𝑏𝑐 determina se la matrice è invertibile (𝑎𝑑 − 𝑏𝑐 ≠ 0) oppure no


(𝑎𝑑 = 𝑏𝑐), da cui il nome determinante.
𝑎 𝑏
Definizione 19.1. Il determinante della matrice 2 × 2 𝐴 = è det(𝐴) = 𝑎𝑑 − 𝑏𝑐
( 𝑐 𝑑 )

Una matrice 𝐴 è invertibile se e solo se det(𝐴) ≠ 0

Sarebbe interessante sapere se una matrice 𝐴 di dimensioni generiche 𝑛 × 𝑛 è invertibile


oppure no. Nei coefficienti di 𝐴−1 (se esiste) ci saranno delle frazioni, perciò i denominatori
saranno diversi da 0. Tuttavia calcolare le espressioni per calcolare a priori tali denominatori è
complicato quando 𝑛 aumenta. Dobbiamo introdurre il concetto di permutazione
Una permutazione di 𝑛 numeri è una funzione biiettiva che ordina gli 𝑛 numeri in qualche
modo, per esempio
1 2 3 4…𝑛 ⇝ 4 2 1 𝑛…3
La prima domanda è quante sono le permutazioni di 𝑛 numeri: sono 𝑛⋅(𝑛−1)⋅(𝑛−2)⋅(𝑛−3)⋅…⋅2⋅1 =
𝑛!
Dati 𝑛 numeri, ci sono 𝑛! possibili permutazioni.
Vedremo che, per calcolare il determinante di una matrice 𝑛 × 𝑛, dobbiamo scrivere tutte le
𝑛! permutazioni. Inoltre, dovremo anche assegnare un segno + o − ad ogni permutazione
Lezione 20

Esercizi

20.1 Esempio di Domanda di Teoria


Siano 𝑈 e 𝑉 sottospazi vettoriali di ℝ6 , con dim 𝑈 = 4 e dim 𝑉 = 3. Cosa si può dire della
dimensione di 𝑈 ∩ 𝑉 ? È vero che se 𝑉 non è contenuto in 𝑈 , allora 𝑈 + 𝑉 = ℝ6 ?

Svolgimento. La formula di Grassmann dice

dim (𝑈 + 𝑉 ) = dim 𝑈 + dim 𝑉 − dim (𝑈 ∩ 𝑉 )

Poiché dim 𝑈 = 4, dim 𝑉 = 3 e 𝑈 + 𝑉 ⊆ ℝ6 , allora dim (𝑈 + 𝑉 ) ≤ 6, quindi dim (𝑈 ∩ 𝑉 ) ≥ 1.


Inoltre, siccome 𝑈 ∩ 𝑉 ⊆ 𝑈 e 𝑈 ∩ 𝑉 ⊆ 𝑉 , allora dim (𝑈 ∩ 𝑉 ) ≤ 3. Possiamo, quindi, affermare che

1 ≤ dim (𝑈 ∩ 𝑉 ) ≤ 3

Se 𝑉 ⊆ 𝑈 , allora 𝑈 ∩ 𝑉 = 𝑉 , quindi dim (𝑈 ∩ 𝑉 ) = 3, mentre 𝑈 + 𝑉 = 𝑈 e dim (𝑈 + 𝑉 ) = 4. In caso


contrario (se 𝑉 ⊈ 𝑈 ), si può avere dim (𝑈 ∩ 𝑉 ) = 1 oppure dim (𝑈 ∩ 𝑉 ) = 2. Se dim (𝑈 ∩ 𝑉 ) = 1,
allora dim (𝑈 + 𝑉 ) = 6, quindi 𝑈 + 𝑉 = ℝ6 . Se dim (𝑈 ∩ 𝑉 ) = 2, allora dim (𝑈 + 𝑉 ) = 5, quindi
𝑈 + 𝑉 ≠ ℝ6 .

20.2 Esercizio (12 Settembre 2012)


1. Dato il sottospazio vettoriale 𝑈 ⊂ ℝ4 definito dalle seguenti equazioni
{
3𝑥2 + 𝑥3 − 𝑥4 = 0
𝑥2 − 2𝑥3 + 𝑥4 = 0

Calcolare dim 𝑈 e trovare una base di 𝑈

2. Sia 𝑊 ⊂ ℝ4 il più piccolo sottospazio che contiene il vettore (1, 1, 0, 0) e i vettori (0, 𝑡, 𝑡 +
1, 𝑡 + 2) per ogni 𝑡 ∈ ℤ. Calcolare le equazioni cartesiane e una base di 𝑊

3. Calcolare una base di 𝑈 ∩ 𝑊 e una base di 𝑈 + 𝑊

4. Dire se esiste un sottospazio non nullo 𝐿 ⊂ ℝ4 che sia in somma diretta sia con 𝑈 che con
𝑊

5. Si determini un sottospazio 𝐿′ ⊂ ℝ4 tale che (𝑈 ⊕ 𝐿) ⊕ 𝐿′ = ℝ4

92
20.2. ESERCIZIO (12 SETTEMBRE 2012) 93

Svolgimento. (1) Risolviamo il sistema di equazioni lineari


{ { { {
3𝑥2 + 𝑥3 − 𝑥4 = 0 𝑥4 = 3𝑥2 + 𝑥3 𝑥4 = 3𝑥2 + 𝑥3 𝑥4 = 7𝑥2
𝑥2 − 2𝑥3 + 𝑥4 = 0 𝑥2 − 2𝑥3 + 3𝑥2 + 𝑥3 = 0 4𝑥2 − 𝑥3 = 0 𝑥3 = 4𝑥2

⇒ dim 𝑈 = 2, perché ci sono due variabili (𝑥1 e 𝑥2 ) libere di variare. Una base di 𝑈 è quindi data
da
⎛1⎞ ⎛0⎞
⎜0⎟ ⎜1⎟
𝑢1 = ⎜ ⎟ 𝑢2 = ⎜ ⎟
0
⎜ ⎟ ⎜4⎟
⎝0⎠ ⎝7⎠
(2) I vettori (0, 𝑡, 𝑡 + 1, 𝑡 + 2) si possono scrivere come segue

⎛ 0 ⎞ ⎛0⎞ ⎛0⎞
⎜ 𝑡 ⎟ ⎜1⎟ ⎜0⎟
⎜𝑡 + 1⎟ = 𝑡 ⎜1⎟ + ⎜1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑡 + 2⎠ ⎝1⎠ ⎝2⎠
quindi coi due vettori (0, 1, 1, 1) e (0, 0, 1, 2) si possono generare tutti i vettori del tipo (0, 𝑡, 𝑡 +
1, 𝑡 + 2). Questo significa che il sottospazio 𝑊 è generato dai tre vettori 𝑤1 = (1, 1, 0, 0), 𝑤2 =
(0, 1, 1, 1) e 𝑤3 = (0, 0, 1, 2). Per trovare una base di 𝑊 , controlliamo se questi tre vettori sono
linearmente indipendenti usando il metodo di eliminazione di Gauss sulla matrice 𝐴, le cui righe
corrispondono ai tre vettori:
⎛ 1 1 0 0 ⎞
𝐴=⎜ 0 1 1 1 ⎟
⎜ ⎟
⎝ 0 0 1 2 ⎠
𝐴 è già in forma a scala e ha rango tre, quindi i tre vettori formano una base di 𝑊 e dim 𝑊 = 3.
In alternativa, avremmo potuto risolvere il sistema di equazioni lineari corrispondenti a 𝜆1 𝑤1 +
𝜆2 𝑤2 + 𝜆3 𝑤3 = 0, che ci avrebbe detto che i tre vettori sono linearmente indipendenti.
Per trovare le equazioni cartesiane di 𝑊 , osserviamo che

⎛𝑥1 ⎞ ⎛1⎞ ⎛0⎞ ⎛0⎞


⎜𝑥2 ⎟ ⎜1⎟ ⎜0⎟ ⎜1⎟
⎜𝑥 ⎟ = 𝛼 ⎜0⎟ + 𝛽 ⎜1⎟ + 𝛾 ⎜1⎟ ∈ 𝑊 ∀𝛼, 𝛽, 𝛾
⎜ 3⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑥4 ⎠ ⎝0⎠ ⎝2⎠ ⎝1⎠
da cui ricaviamo le equazioni parametriche di 𝑊 (coi parametri 𝛼, 𝛽 e 𝛾 )


⎪ 𝑥1 =𝛼


⎪𝑥2 =𝛼 +𝛾


⎪ 𝑥3 =𝛽 +𝛾


⎪ 𝑥 = 2𝛽 + 𝛾
⎩ 4
Ora dobbiamo “eliminare” i parametri

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 𝛼 = 𝑥1 ⎪ 𝛼 = 𝑥1 ⎪ 𝛼 = 𝑥1 ⎪ 𝛼 = 𝑥1

⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪𝑥2 = 𝑥1 + 𝛾 ⎪𝛾 = 𝑥2 − 𝑥1 ⎪𝛾 = 𝑥2 − 𝑥1 ⎪𝛾 = 𝑥2 − 𝑥1

⎪ ⎨
⎪ ⎨
⎪ ⎨

⎪𝑥3 = 𝛽 + 𝛾 ⎪ 𝑥3 = 𝛽 + 𝑥2 − 𝑥1 ⎪ 𝛽 = 𝑥1 − 𝑥2 + 𝑥3 ⎪ 𝛽 = 𝑥1 − 𝑥2 + 𝑥3

⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪𝑥 = 2𝛽 + 𝛾 ⎪ 𝑥 = 2𝛽 + 𝑥2 − 𝑥1 ⎪ 𝑥 = 2(𝑥1 − 𝑥2 + 𝑥3 ) + 𝑥2 − 𝑥1 ⎪ 𝑥 = 𝑥1 − 𝑥2 + 2𝑥3
⎩ 4 ⎩ 4 ⎩ 4 ⎩ 4
94 LEZIONE 20. ESERCIZI

Perciò l’equazione cartesiana (non parametrica) di 𝑊 è 𝑥1 − 𝑥2 + 2𝑥3 − 𝑥4 = 0, che è consistente


con la dim 𝑊 = 3: ci sono tre incognite libere di variare (𝑥1 , 𝑥2 , 𝑥3 ) e la quarta (𝑥4 ) determinata
dall’equazione 𝑥4 = 𝑥1 − 𝑥2 + 2𝑥3 .
(3) Conosciamo una base di 𝑈 = ⟨𝑢1 , 𝑢2 ⟩ e una base di 𝑊 = ⟨𝑤1 , 𝑤2 , 𝑤3 ⟩
⎛1⎞ ⎛0⎞ ⎛1⎞ ⎛0⎞ ⎛0⎞
⎜0⎟ ⎜1⎟ ⎜1⎟ ⎜1⎟ ⎜0⎟
𝑢1 = ⎜ ⎟ 𝑢2 = ⎜ ⎟ 𝑤1 = ⎜ ⎟ 𝑤2 = ⎜ ⎟ 𝑤3 = ⎜ ⎟
⎜0⎟ ⎜4⎟ ⎜0⎟ ⎜1⎟ ⎜1⎟
⎝0⎠ ⎝7⎠ ⎝0⎠ ⎝1⎠ ⎝2⎠
Sapendo che
𝛼1 𝑢1 + 𝛼2 𝑢2 = 𝛽1 𝑤1 + 𝛽2 𝑤2 + 𝛽3 𝑤3
possiamo risolvere un sistema di quattro equazioni in cinque incognite per trovare una base di
𝑈 ∩ 𝑊.
Alternativamente, possiamo determinare una base di 𝑈 ∩ 𝑊 risolvendo un sistema di equa-
zioni lineari contenente le equazioni cartesiane dei due spazi vettoriali

⎪ ⎧
⎪ ⎧

⎪ 3𝑥2 + 𝑥3 − 𝑥4 = 0 ⎪ 𝑥4 = 3𝑥2 + 𝑥3 ⎪ 𝑥4 = 3𝑥2 + 𝑥3
⎪ ⎪ ⎪
⎨ 𝑥2 − 2𝑥3 + 𝑥4 = 0 ⎨ 𝑥2 − 2𝑥3 + 3𝑥2 + 𝑥3 = 0 ⎨ 𝑥3 = 4𝑥2

⎪ ⎪
⎪ ⎪


⎩𝑥1 − 𝑥2 + 2𝑥3 − 𝑥4 = 0 ⎪ ⎩𝑥1 − 𝑥2 + 2𝑥3 − 3𝑥2 − 𝑥3 = 0 ⎪⎩𝑥1 − 4𝑥2 + 𝑥3 = 0

⎪ ⎧

⎪ 𝑥4 = 3𝑥2 + 4𝑥2 ⎪ 𝑥4 = 7𝑥2
⎪ ⎪
⎨ 𝑥3 = 4𝑥2 ⎨ 𝑥3 = 4𝑥2

⎪ ⎪


⎩𝑥1 − 4𝑥2 + 4𝑥2 = 0 ⎪ ⎩𝑥1 = 0
Il sistema ha infinite soluzioni per ogni 𝑥2 , quindi dim (𝑈 ∩ 𝑊 ) = 1. Una base di 𝑈 ∩ 𝑊 consiste
di un solo vettore, per esempio, (0, 1, 4, 7).
Consideriamo ora 𝑈 + 𝑊 , che sappiamo essere generato dai vettori 𝑢1 , 𝑢2 , 𝑤1 , 𝑤2 , 𝑤3 , che però
non sono una base di 𝑈 + 𝑊 . Infatti, per la formula di Grassmann, abbiamo
dim (𝑈 + 𝑊 ) = dim 𝑈 + dim 𝑊 − dim (𝑈 ∩ 𝑊 ) = 2 + 3 − 1 = 4
perciò uno dei cinque vettori 𝑢1 , 𝑢2 , 𝑤1 , 𝑤2 , 𝑤3 può essere espresso come combinazione lineare
dei rimanenti quattro vettori. Possiamo eliminare uno di questi cinque vettori (per esempio, 𝑢2 )
e verificare che 𝑢1 , 𝑤1 , 𝑤2 , 𝑤3 sono linearmente indipendenti.
Oppure, possiamo fornire una base di 𝑈 + 𝑊 più velocemente, osservando che 𝑈 + 𝑊 ⊂ ℝ4
e dim (𝑈 + 𝑊 ) = 4. Perciò 𝑈 + 𝑊 = ℝ4 . Una base di 𝑈 + 𝑊 è la base canonica di ℝ4 .
(4) Sappiamo che dim 𝑈 = 2 e dim 𝑊 = 3 e sappiamo che una somma di due sottospazi si
dice diretta quando la loro intersezione è nulla, quindi
dim (𝐿 + 𝑊 ) = dim 𝐿 + dim 𝑊 − dim (𝐿 ∩ 𝑊 ) = 1 + 3 − 0 e dim (𝐿 + 𝑊 ) ≤ 4
Una base di 𝐿 deve essere formata da un solo vettore tale che 𝐿 ∩ 𝑈 = {0} e 𝐿 ∩ 𝑊 = {0}.
Cerchiamo una base di 𝐿 che consiste di un solo vettore 𝑣 tale che 𝑣 ∉ 𝑈 , 𝑣 ∉ 𝑊 . Possiamo
prendere, per esempio, 𝑣 = (0, 0, 0, 1) e controllare che 𝑢1 , 𝑢2 , 𝑣 sono linearmente indipendenti
e 𝑤1 , 𝑤2 , 𝑤3 , 𝑣 sono anch’essi linearmente indipendenti. Si verifica facilmente (per esempio col
metodo di eliminazione di Gauss) che queste due condizioni sono verificate. Infatti le seguenti
matrici hanno rango 3 e 4, rispettivamente
⎛ 1 1 0 0 ⎞
⎛ 1 0 0 0 ⎞ ⎜ ⎟
⎜ 0 1 4 7 ⎟ 0 1 1 1
⎜ ⎟ ⎜ 0 0 1 2 ⎟
⎝ 0 0 0 1 ⎠ ⎜ ⎟
⎝ 0 0 0 1 ⎠
20.2. ESERCIZIO (12 SETTEMBRE 2012) 95

Per verificare l’indipendenza lineare dei vettori 𝑢1 , 𝑢2 , 𝑣 e dei vettori 𝑤1 , 𝑤2 , 𝑤3 , 𝑣 avremmo potuto
anche risolvere due sistemi (omogenei) di equazioni lineari.
(5) Sappiamo che dim 𝑈 = 2 e una sua base è 𝑢1 , 𝑢2 . Sappiamo inoltre che dim 𝐿 = 1 e una sua
base è 𝑣 = (0, 0, 0, 1). Perciò dim 𝐿′ dev’essere 1 e cerchiamo un vettore di base 𝑣 ′ (base di 𝐿′ ) in
modo che 𝑢1 , 𝑢2 , 𝑣, 𝑣 ′ siano linearmente indipendenti. Scegliamo, per esempio, 𝑣 ′ = (0, 0, 1, 0) e
verifichiamo che 𝑢1 , 𝑢2 , 𝑣, 𝑣 ′ siano linearmente indipendenti, verificando che la seguente matrice
abbia rango 4
⎛ 1 0 0 0 ⎞
⎜ 0 1 4 7 ⎟
⎜ 0 0 0 1 ⎟
⎜ ⎟
⎝ 0 0 1 0 ⎠
Scambiando la terza e la quarta riga otteniamo la matrice

⎛ 1 0 0 0 ⎞
⎜ 0 4 7 1 ⎟
⎜ 0 0 1 0 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠

che è in forma a scala e ha chiaramente rango 4, quindi i quattro vettori 𝑢1 , 𝑢2 , 𝑣, 𝑣 ′ sono linear-
mente indipendenti. Conseguentemente, 𝐿′ = ⟨𝑣 ′ ⟩.
Parte III

Determinanti, Autovalori e Autovettori

96
Lezione 21

Determinante di una Matrice

Obiettivi:

• Definire una permutazione e calcolarne il segno

• Calcolare il determinante di una matrice, in particolare di ma-


trici 2 × 2 e 3 × 3

• Enunciare le principali proprietà del determinante

21.1 Permutazioni
Una permutazione è una funzione biiettiva
𝜎 ∶ {1, 2, … , 𝑛} → {1, 2, … , 𝑛}
che mappa 1 ↦ 𝜎(1), 2 ↦ 𝜎(2), …, 𝑛 ↦ 𝜎(𝑛) e che quindi ordina gli 𝑛 numeri in qualche modo.
Sia
𝑛 = {l’insieme di tutte le permutazioni di 𝑛 oggetti}
ricaviamo che
|𝑛 | = 𝑛! = 𝑛(𝑛 − 1)(𝑛 − 2) ⋅ … ⋅ 2 ⋅ 1
Indichiamo una permutazione come
⎛ 1 2 3 … 𝑛 ⎞
𝜎∶ ⎜ ↓ ↓ ↓ ↓ ↓ ⎟
⎜ ⎟
⎝ 𝜎(1) 𝜎 (2) 𝜎(3) … 𝜎(𝑛) ⎠
Esempio 21.1.
1 2 3 4
𝜎∶
( 3 2 4 1 )
è la permutazione
1 ↦ 𝜎(1) = 3 2 ↦ 𝜎(2) = 2 3 ↦ 𝜎(3) = 4 4 ↦ 𝜎 (4) = 1
Uno scambio si ha quando
… 𝑖 … 𝑗 …
𝜎∶
( … 𝑗 = 𝜎(𝑖) … 𝑖 = 𝜎(𝑗) … )

97
98 LEZIONE 21. DETERMINANTE DI UNA MATRICE

Ogni permutazione si ottiene come composizione di un numero finito di scambi

Esempio 21.2.
1 2 3 4
𝜎∶
( 3 1 4 2 )
La permutazione può essere ottenuta, per esempio, con una successione di
• 3 scambi
1234⇝1324⇝1342⇝3142

• 5 scambi
1234⇝1432⇝4132⇝4312⇝3412⇝3142

Questo dimostra che il numero di scambi necessario non è un concetto ben definito. Tuttavia, si
dimostra che

Se una permutazione si ottiene con una specifica successione di un numero dispari di


scambi, allora ogni successione per ottenerla ha un numero dispari di scambi

… e, analogamente, per le successioni con un numero pari di scambi.


Teorema 21.1. La parità (cioè il fatto che il numero di scambi sia pari o dispari) non dipende dal
tipo di scambi effettuati, ma dipende solo dalla permutazione.
Definizione 21.1. Una permutazione 𝜎 si dice pari se si ottiene con un numero pari di scambi.
Definizione 21.2. Una permutazione 𝜎 si dice dispari se si ottiene con un numero dispari di scambi.
Definizione 21.3. Il segno di una permutazione segno(𝜎) è 1 se la permutazione è pari ed è −1 se
la permutazione è dispari.
Esempio 21.3.
La permutazione identica
1 2 … 𝑛
𝜎∶
( 1 2 … 𝑛 )
richiede zero scambi, quindi è una permutazione pari e il suo segno è +1

21.2 Determinante delle Matrici


Consideriamo una matrice 𝐴 = (𝑎𝑖𝑗 ) di dimensione 𝑛 × 𝑛 e l’insieme delle permutazioni 𝑛 =
{𝜎 permutazioni di {1, 2, … , 𝑛}} allora

det(𝐴) = ∑ segno(𝜎)𝑎1𝜎(1) 𝑎2𝜎 (2) … 𝑎𝑛𝜎(𝑛)


𝜎 ∈𝑛

dove, per ciascuna permutazione, va calcolato il prodotto degli elementi di 𝐴, presi uno per ogni
riga e ogni colonna, in tutti i modi possibili
21.2. DETERMINANTE DELLE MATRICI 99

Esempio 21.4.
Consideriamo le matrici 2 × 2 e vediamo come si calcola il determinante
𝑎11 𝑎12
𝐴=
( 𝑎21 𝑎22 )
Avendo dimensione 2 × 2, 𝑛 = 2, quindi abbiamo 𝑛! = 2! = 2 permutazioni
• 𝜎1 = 1 2: è la permutazione identica, con zero scambi, quindi è pari e segno(𝜎1 ) = +1
• 𝜎2 = 2 1: si ottiene con uno scambio, quindi è dispari e segno(𝜎2 ) = −1
det(𝐴) = ∑ segno(𝜎)𝑎1𝜎 (1) 𝑎2𝜎(2) =
𝜎∈2

= segno(𝜎1 )𝑎1𝜎1 (1) 𝑎2𝜎1 (2) + segno(𝜎2 )𝑎1𝜎2 (1) 𝑎2𝜎2 (2) = +𝑎11 𝑎22 − 𝑎12 𝑎21
Esempio 21.5.
Consideriamo le matrici 3 × 3 e vediamo come si calcola il determinante
⎛ 𝑎11 𝑎12 𝑎13 ⎞
𝐴 = ⎜ 𝑎21 𝑎22 𝑎23 ⎟
⎜ ⎟
⎝ 𝑎31 𝑎32 𝑎33 ⎠
3 = {permutazioni di 3 oggetti}
Ci sono 3! = 6 permutazioni
• 𝜎1 = 1 2 3: 0 scambi, quindi pari e segno(𝜎1 ) = +1
• 𝜎2 = 1 3 2: 1 scambio, quindi dispari e segno(𝜎2 ) = −1
• 𝜎3 = 2 1 3: 1 scambio, quindi dispari e segno(𝜎3 ) = −1
• 𝜎4 = 2 3 1: 2 scambi, quindi pari e segno(𝜎4 ) = +1
• 𝜎5 = 3 1 2: 2 scambi, quindi pari e segno(𝜎5 ) = +1
• 𝜎6 = 3 2 1: 1 scambio, quindi dispari e segno(𝜎6 ) = −1
det(𝐴) = segno(𝜎1 )𝑎1𝜎1 (1) 𝑎2𝜎1 (2) 𝑎3𝜎1 (3) + segno(𝜎2 )𝑎1𝜎2 (1) 𝑎2𝜎2 (2) 𝑎3𝜎2 (3) + … =
= 𝑎11 𝑎22 𝑎33 − 𝑎11 𝑎23 𝑎32 − 𝑎12 𝑎21 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎13 𝑎21 𝑎32 − 𝑎13 𝑎22 𝑎31 =
= 𝑎11 𝑎22 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎13 𝑎21 𝑎32 − 𝑎13 𝑎22 𝑎31 − 𝑎11 𝑎23 𝑎32 − 𝑎12 𝑎21 𝑎33
che si può calcolare anche con la Regola di Sarrus
100 LEZIONE 21. DETERMINANTE DI UNA MATRICE

La regola di Sarrus funziona solamente per matrici 3 × 3, ma non per matrici più grandi. Infatti…
Consideriamo una matrice 𝐴 di dimensione 4 × 4. Nello sviluppo del determinante ci sono
4! = 24 permutazioni, quindi 24 addendi nella sommatoria. Tuttavia, provando ad applicare la
regola di Sarrus, otteniamo

solamente 8 addendi derivanti dalle 8 diagonali (4 rosse e 4 blu)

Non esiste un analogo della regola di Sarrus per matrici quadrate di ordine ≥ 4

21.3 Proprietà del Determinante


Supponiamo di avere una matrice 𝐴 triangolare superiore (o inferiore) - avente tutti gli elementi
sotto (sopra) la diagonale principale uguali a 0

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞


⎜ 0 𝑎22 … 𝑎2𝑛 ⎟
𝐴=⎜
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝ 0 0 0 𝑎𝑛𝑛 ⎠

Per definizione di determinante, sappiamo che l’unico prodotto non nullo è il prodotto degli
elementi sulla diagonale principale, quindi

det(𝐴) = +𝑎11 ⋅ 𝑎22 ⋅ … ⋅ 𝑎𝑛−1,𝑛−1 ⋅ 𝑎𝑛𝑛

Consideriamo la matrice trasposta, 𝐴𝑡 , di una matrice 𝐴, allora per definizione di determi-


nante
det(𝐴𝑡 ) = det(𝐴)
Ciò suggerisce che tutte le proprietà dei determinanti che valgono per le righe valgono anche
per le colonne.
Indichiamo con 𝐴(1) , 𝐴(2) , …, 𝐴(𝑛) le righe della matrice 𝐴
(1)
⎛𝐴 ⎞
⎜𝐴(2) ⎟
𝐴=⎜ ⎟
⎜ ⋮(𝑛) ⎟
⎝𝐴 ⎠
21.3. PROPRIETÀ DEL DETERMINANTE 101

Supponiamo che una delle righe sia combinazione lineare di due vettori riga 𝐴(𝑖) = 𝛼1 𝑣1 + 𝛼2 𝑣2 ,
com’è il determinante di 𝐴?

det(𝐴) = ∑ segno(𝜎)𝑎1𝜎(1) ⋅ … ⋅ 𝑎𝑖𝜎 (𝑖) ⋅ … ⋅ 𝑎𝑛𝜎 (𝑛) =


𝜎

= ∑ segno(𝜎)𝑎1𝜎(1) ⋅ … ⋅ (𝛼1 𝑣1𝜎 (𝑖) + 𝛼2 𝑣2𝜎 (𝑖) ) ⋅ … ⋅ 𝑎𝑛𝜎 (𝑛) =


𝜎

= ∑(segno(𝜎)𝛼1 𝑎1𝜎(1) ⋅ … ⋅ 𝑣1𝜎(𝑖) ⋅ … ⋅ 𝑎𝑛𝜎(𝑛) + segno(𝜎)𝛼2 𝑎1𝜎 (1) ⋅ … ⋅ 𝑣2𝜎(𝑖) ⋅ … ⋅ 𝑎𝑛𝜎(𝑛) ) =


𝜎

= 𝛼1 ∑(segno(𝜎)𝑎1𝜎 (1) ⋅ … ⋅ 𝑣1𝜎 (𝑖) ⋅ … ⋅ 𝑎𝑛𝜎 (𝑛) )+


𝜎

+ 𝛼2 ∑(segno(𝜎)𝑎1𝜎(1) ⋅ … ⋅ 𝑣2𝜎 (𝑖) ⋅ … ⋅ 𝑎𝑛𝜎 (𝑛) ) =


𝜎
⎛𝐴 (1) ⎞ ⎛𝐴(1) ⎞
⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟
= 𝛼1 det ⎜ 𝑣1 ⎟ + 𝛼2 det ⎜ 𝑣2 ⎟
⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜𝐴(𝑛) ⎟ ⎜𝐴(𝑛) ⎟
⎝ ⎠ ⎝ ⎠
Esempio 21.6.

Data la matrice 𝐴
⎛ 2 1 −1 ⎞
𝐴=⎜ 6 1 2 ⎟
⎜ ⎟
⎝ −4 3 −2 ⎠
Se, alla seconda riga, sottraiamo la prima riga moltiplicata per 3, otteniamo

⎛ 2 1 −1 ⎞
⎜ 0 −2 5 ⎟
⎜ ⎟
⎝ −4 3 −2 ⎠
quindi, poichè (0, −2, 5) = (6, 1, 2) − 3(2, 1, −1), abbiamo

⎛ 2 1 −1 ⎞ ⎛ 2 1 −1 ⎞ ⎛ 2 1 −1 ⎞
det ⎜ 0 −2 5 ⎟ = 1 ⋅ det ⎜ 6 1 2 ⎟ − 3 ⋅ det ⎜ 2 1 −1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ −4 3 −2 ⎠ ⎝ −4 3 −2 ⎠ ⎝ −4 3 −2 ⎠
Lezione 22

Proprietà e Calcolo del Determinante

Obiettivi:

• Enunciare le proprietà sul determinante

• Calcolare il determinante di una matrice tramite il metodo di


eliminazione di Gauss

• Enunciare il teorema di Binet

• Calcolare il determinante di una matrice usando la formula di


Laplace

22.1 Alcune Proprietà del Determinante


Alcune proprietà del determinante di matrici
1. Sia 𝐴′ la matrice ottenuta dalla matrice 𝐴 scambiando due righe (o due colonne) tra loro

det(𝐴′ ) = −det(𝐴)

2. Sia 𝐴′ la matrice ottenuta dalla matrice 𝐴 moltiplicando una riga (o una colonna) per uno
scalare 𝜆
det(𝐴′ ) = 𝜆 ⋅ det(𝐴)

3. Sia 𝐴 una matrice con due righe (o due colonne) uguali, allora

det(𝐴) = 0

Infatti, sia 𝐴′ la matrice ottenuta dalla matrice 𝐴 scambiando le due righe uguali tra di loro.
Allora abbiamo 𝐴′ = 𝐴. Perciò det(𝐴′ ) = −det(𝐴). Poichè 𝐴′ = 𝐴, allora det(𝐴′ ) = det(𝐴),
che implica det(𝐴) = 0
4. Sia 𝐴 una matrice con una riga (o una colonna) nulla, allora

det(𝐴) = 0

5. Se ad una riga di 𝐴 si somma una combinazione lineare della altre righe di 𝐴, il determi-
nante di 𝐴 non cambia

102
22.2. CALCOLO DEL DETERMINANTE CON ELIMINAZIONE DI GAUSS 103

22.2 Calcolo del Determinante con Eliminazione di Gauss


Vogliamo calcolare il determinante della seguente matrice 𝐴

⎛ 2 3 −1 ⎞
⎜ 1 1 0 ⎟
⎜ ⎟
⎝ 3 −2 1 ⎠
Usando la regola di Sarrus, abbiamo

2 3 −1 2 3
1 1 0 1 1
3 −2 1 3 −2

det(𝐴) = 2 ⋅ 1 ⋅ 1 + 3 ⋅ 0 ⋅ 3 + (−1) ⋅ 1 ⋅ (−2) − (−1) ⋅ 1 ⋅ 3 − 2 ⋅ 0 ⋅ (−2) − 3 ⋅ 1 ⋅ 1 = 2 + 0 + 2 + 3 + 0 − 3 = 4


Usando, invece, le riduzioni in forma a scala, abbiamo

⎛ 2 3 −1 ⎞ ⎛ 1 1 0 ⎞ ⎛ 1 1 0 ⎞
det ⎜ 1 1 0 ⎟ = −det ⎜ 2 3 −1 ⎟ = −det ⎜ 0 1 −1 ⎟ =
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 3 −2 1 ⎠ ⎝ 3 −2 1 ⎠ ⎝ 0 −5 1 ⎠

⎛ 1 1 0 ⎞
= −det ⎜ 0 1 −1 ⎟ = −1 ⋅ 1 ⋅ (−4) = 4
⎜ ⎟
⎝ 0 0 −4 ⎠
Proviamo a stimare il numero di operazioni necessarie per il calcolo del determinante me-
diante la riduzione in forma a scala. Data una matrice 𝑛 × 𝑛, dobbiamo produrre: 1 zero nella
seconda riga, 2 zeri nella terza riga, 3 zeri nella quarta riga, …, 𝑛 − 2 zeri nella penultima riga,
𝑛 − 1 zeri nell’ultima riga. Il numero totale di zeri da produrre è

𝑛(𝑛 − 1) 1 2 1
(𝑛 − 1) + (𝑛 − 2) + (𝑛 − 3) + … + 3 + 2 + 1 = = 𝑛 − 𝑛
2 2 2

Il numero di operazioni elementari necessarie è dunque ≈ 21 𝑛2 , che è molto più piccolo di 𝑛! per
𝑛 grande.
Per esempio, in una matrice 5 × 5, dobbiamo produrre 1 + 2 + 3 + 4 = 10 = 𝑛(𝑛−1) 2
= 5⋅4
2
zeri,
mentre 5! = 120
⎛ ∗ ∗ ∗ ∗ ∗ ⎞
⎜ 0 ∗ ∗ ∗ ∗ ⎟
⎜ ⎟
⎜ 0 0 ∗ ∗ ∗ ⎟
⎜ 0 0 0 ∗ ∗ ⎟
⎜ 0 0 0 0 ∗ ⎟
⎝ ⎠

22.3 Teorema di Binet


Teorema 22.1. (Teorema di Binet) Date due matrici 𝐴 e 𝐵 entrambe 𝑛 × 𝑛

det(𝐴 ⋅ 𝐵) = det(𝐴) ⋅ det(𝐵)


104 LEZIONE 22. PROPRIETÀ E CALCOLO DEL DETERMINANTE

Mentre det(𝐴 + 𝐵) ≠ det(𝐴) + det(𝐵)


Ne consegue che se 𝐴 è invertibile (ovverosia 𝐴 ⋅ 𝐴−1 = 𝐼 ), abbiamo
1
det(𝐴 ⋅ 𝐴−1 ) = det(𝐼 ) = 1 ⇒ det(𝐴 ⋅ 𝐴−1 ) = det(𝐴) ⋅ det(𝐴−1 ) = 1 ⇒ det(𝐴−1 ) =
det(𝐴)

Se 𝐴 è invertibile, det(𝐴) ≠ 0

Anche il viceversa è vero, ovverosia se det(𝐴) ≠ 0, allora 𝐴 è invertibile.

22.4 La Formula di Laplace


La formula di Laplace consente di calcolare il determinante di una matrice in un modo alternativo.
Abbiamo una matrice 𝐴 𝑛 × 𝑛
⎛ ⋮ ⎞
⎜ … … … 𝑎𝑖𝑗 … ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ⋮ ⎠
Consideriamo il generico elemento 𝑎𝑖𝑗 in riga 𝑖 e colonna 𝑗. Chiamiamo 𝐴𝑖𝑗 la matrice che si
ottiene da 𝐴 cancellando la riga 𝑖 e la colonna 𝑗 - 𝐴𝑖𝑗 è una matrice quadrata di ordine 𝑛 − 1.
Fissiamo ora la riga 𝑖
⎛ … … … … ⎞
⎜ 𝑎𝑖1 𝑎𝑖2 … 𝑎𝑖𝑛 ⎟
⎜ ⎟
⎝ … … … … ⎠
Si dimostra che
𝑛
det(𝐴) = ∑(−1)𝑖+𝑗 𝑎𝑖𝑗 ⋅ det(𝐴𝑖𝑗 ) =
𝑗=1

= (−1)𝑖+1 𝑎𝑖1 ⋅ det(𝐴𝑖1 ) + (−1)𝑖+2 𝑎𝑖2 ⋅ det(𝐴𝑖2 ) + … + (−1)𝑖+𝑛 𝑎𝑖𝑛 ⋅ det(𝐴𝑖𝑛 )

che è lo sviluppo del determinante di 𝐴 lungo la riga 𝑖.


Alternativamente, possiamo fissare la colonna 𝑗 e sviluppare rispetto a tale colonna

⎛ … 𝑎1𝑗 … ⎞
⎜ … 𝑎2𝑗 … ⎟
⎜ ⋮ ⋮ ⋮ ⎟⎟

⎝ … 𝑎𝑛𝑗 … ⎠

Si dimostra che
𝑛
det(𝐴) = ∑(−1)𝑖+𝑗 𝑎𝑖𝑗 ⋅ det(𝐴𝑖𝑗 ) =
𝑖=1
= (−1)1+𝑗 𝑎1𝑗 ⋅ det(𝐴1𝑗 ) + (−1)2+𝑗 𝑎2𝑗 ⋅ det(𝐴2𝑗 ) + … + (−1)𝑛+𝑗 𝑎𝑛𝑗 ⋅ det(𝐴𝑛𝑗 )
22.4. LA FORMULA DI LAPLACE 105

Esercizio 22.1.

Calcolare il determinante della seguente matrice 𝐴 usando la formula di Laplace

⎛ 2 −1 3 1 ⎞
⎜ 0 1 2 −1 ⎟
𝐴=⎜
⎜ 0 0 2 0 ⎟⎟
⎝ 1 2 0 0 ⎠

Svolgimento. Scegliamo la terza riga per lo sviluppo di Laplace

det(𝐴) = (−1)3+3 𝑎33 ⋅ det(𝐴33 ) = −16 ⋅ 2 ⋅ det(𝐴33 ) = 2 ⋅ det(𝐴33 )

⎛ 2 −1 1 ⎞
𝐴33 = ⎜ 0 1 −1 ⎟
⎜ ⎟
⎝ 1 2 0 ⎠
Potremmo usare la regola di Sarrus, ma usiamo nuovamente Laplace sviluppando per la terza
riga
−1 1 2 1
det(𝐴) = 2 ⋅ ((−1)3+1 ⋅ 1 ⋅ det + (−1)3+2 ⋅ 2 ⋅ det =
( 1 −1 ) ( 0 −1 ) )
2 ⋅ (1 ⋅ 1 ⋅ 0 + (−1) ⋅ 2 ⋅ (−2)) = 8
Lezione 23

Applicazioni della Formula di Laplace

Obiettivi:

• Calcolare l’inversa di una matrice con la formula di Laplace

• Enunciare il teorema di Cramer

• Dare la definizione di matrici simili

• Definire gli autovalori e autovettori di una funzione lineare

23.1 Formula per Calcolare l’Inversa di una Matrice


Data una generica matrice 𝐴
⎛ ⋮ ⎞
⎜ … … … 𝑎𝑖𝑗 … ⎟
⎜ ⋮ ⎟
⎜ ⎟
⎝ ⋮ ⎠
La formula di Laplace richiede di calcolare

(−1)𝑖+𝑗 det(𝐴𝑖𝑗 ) = 𝑎𝑖𝑗∗

che ora chiamiamo 𝑎𝑖𝑗∗ , noto come complemento algebrico (cofattore) dell’elemento 𝑎𝑖𝑗 .
Costruiamo la matrice
𝐴∗ = (𝑎𝑖𝑗∗ )𝑡
che è la trasposta della matrice dei complementi algebrici di 𝐴.
Dalla formula di Laplace, ricaviamo (senza fornire una dimostrazione)
1
𝐴−1 = ⋅ 𝐴∗ (det(𝐴) ≠ 0)
det(𝐴)

quindi se det(𝐴) ≠ 0 si può costruire la matrice 𝐴∗


det(𝐴)
= 𝐴−1 , quindi 𝐴 è invertibile

𝐴 è invertibile ⇔ det(𝐴) ≠ 0

106
23.1. FORMULA PER CALCOLARE L’INVERSA DI UNA MATRICE 107

Esercizio 23.1.

Calcoliamo l’inversa della seguente matrice 𝐴

⎛ 1 −1 0 ⎞
𝐴=⎜ 2 1 1 ⎟
⎜ ⎟
⎝ 3 0 −2 ⎠
Calcoliamo nel modo che già conosciamo (eliminazione di Gauss)

⎛ 1 −1 0 1 0 0 ⎞ ⎛ 1 −1 0 1 0 0 ⎞ ⎛ 1 −1 0 1 0 0 ⎞
(𝐴 | 𝐼 ) = 2 1 1 0 1 0 ⇝ 0 3 1 −2 1 0 ⇝ ⎜ 0 3 1 −2 1 0 ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 3 0 −2 0 0 1 ⎠ ⎝ 0 3 −2 −3 0 1 ⎠ ⎝ 0 0 −3 −1 −1 1 ⎠

⎛ 1 −1 0 1 0 0 ⎞ ⎛ 1 −1 0 1 0 0 ⎞ ⎛ 1 −1 0 1 0 0 ⎞
⇝ ⎜ 0 3 1 −2 1 0 ⎟ ⇝ ⎜ 0 3 0 − 73 32 13 ⎟ ⇝ ⎜ 0 1 0 − 97 92 19 ⎟
⎜ 1 1 1 ⎟ ⎜ 1 1 1 ⎟ ⎜ 1 1 1 ⎟
⎝ 0 0 1 3 3 −3 ⎠ ⎝ 0 0 1 3 3 −3 ⎠ ⎝ 0 0 1 3 3 −3 ⎠

⎛ 1 0 0 29 2
9
1
9 ⎞
⇝ ⎜ 0 1 0 − 97 2
9
1
9

⎜ 1 1 ⎟
⎝ 0 0 1 3 3
− 13 ⎠
da cui
⎛ 29 29 19 ⎞
𝐴−1 = ⎜ − 79 92 19 ⎟
⎜ 1 1 1 ⎟
⎝ 3 3 −3 ⎠
Infatti, possiamo verificare che 𝐴−1 ⋅ 𝐴 = 𝐴 ⋅ 𝐴−1 = 𝐼 . Invece, usando la formula derivata da
Laplace, abbiamo
1 1

𝑎11 = (−1)1+1 det(𝐴11 ) = det = −2
( 0 −2 )
2 1

𝑎12 = (−1)1+2 det(𝐴12 ) = −det =7
( 3 −2 )
2 1

𝑎13 = (−1)1+3 det(𝐴13 ) = det = −3
( 3 0 )
−1 0

𝑎21 = (−1)2+1 det(𝐴21 ) = −det = −2
( 0 −2 )
1 0

𝑎22 = (−1)2+2 det(𝐴22 ) = det = −2
( 3 −2 )
1 −1

𝑎23 = (−1)2+3 det(𝐴23 ) = −det = −3
( 3 0 )
−1 0

𝑎31 = (−1)3+1 det(𝐴31 ) = det = −1
( 1 1 )
1 0

𝑎32 = (−1)3+2 det(𝐴32 ) = −det = −1
( 2 1 )
108 LEZIONE 23. APPLICAZIONI DELLA FORMULA DI LAPLACE

1 −1

𝑎33 = (−1)3+3 det(𝐴33 ) = det =3
( 2 1 )
𝑡
⎛ −2 7 −3 ⎞ ⎛ −2 −2 −1 ⎞
𝐴 = ⎜ −2 −2 −3 ⎟ = ⎜ 7 −2 −1 ⎟

⎜ ⎟ ⎜ ⎟
⎝ −1 −1 3 ⎠ ⎝ −3 −3 3 ⎠
Poichè det(𝐴) = −9 (si può calcolare con la regola di Sarrus), abbiamo

1 1 ⎛ −2 −2 −1 ⎞ ⎛ 92 2
9
1
9 ⎞
−1
𝐴 = ⋅ 𝐴∗ = − ⋅ ⎜ 7 −2 −1 ⎟ = ⎜ − 79 2 1 ⎟
det(𝐴) 9 ⎜ ⎟ ⎜ 1 9
1
9 ⎟
⎝ −3 −3 3 ⎠ ⎝ 3 3
− 13 ⎠
Pur ottenendo ovviamente la stessa matrice inversa, è molto più veloce applicare l’eliminazione
di Gauss e non la formula di Laplace. Tuttavia la teoria derivante dalla formula di Laplace è
interessante e utile…

23.2 Teorema di Cramer


Sia 𝐴𝑋 = 𝐵 un sistema di 𝑛 equazioni in 𝑛 incognite
𝐴 = (𝑎𝑖𝑗 ) 𝑎𝑖𝑗 coefficienti del sistema

⎛𝑥1 ⎞
⎜𝑥 ⎟
𝑋 = ⎜ 2⎟ 𝑛 incognite 𝑥𝑖 , 𝑖 = 1, … , 𝑛
⎜⋮⎟
⎝𝑥𝑛 ⎠
⎛𝑏1 ⎞
⎜𝑏 ⎟
𝐵 = ⎜ 2⎟ 𝑛 termini noti 𝑏𝑖 , 𝑖 = 1, … , 𝑛
⎜⋮⎟
⎝𝑏𝑛 ⎠
Sappiamo che, se det(𝐴) ≠ 0, allora 𝐴 è invertibile (esiste 𝐴−1 ), quindi possiamo calcolare
𝐴−1 𝐴𝑋 = 𝐴−1 𝐵 ⇒ 𝐼 𝑋 = 𝐴−1 𝐵 ⇒ 𝑋 = 𝐴−1 𝐵
dove 𝑋 è soluzione del sistema
Ricordando che 𝐴−1 = det(𝐴)
1
⋅ 𝐴∗ , si ottiene
∗ ∗ ∗ 𝑡
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞
1 1 ⎜ ∗ ∗ ∗ ⎟
−1 ∗ 𝑎21 𝑎22 … 𝑎2𝑛
𝑋 =𝐴 𝐵= ⋅𝐴𝐵 = ⋅⎜ 𝐵
det(𝐴) det(𝐴) ⎜ ⋮ ⋮ ⋮ ⋮ ⎟⎟
∗ ∗ ∗
⎝ 𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 ⎠
Ciò suggerisce che se det(𝐴) ≠ 0, allora il sistema ha un’unica soluzione 𝑋 = 𝐴−1 𝐵. Inoltre,
si ottiene una formula esplicita per la soluzione del sistema 𝐴𝑋 = 𝐵, che è detta la formula di
Cramer
Δ𝑖
𝑥𝑖 = dove Δ = det(𝐴)
Δ
dove Δ𝑖 è il determinante della matrice che si ottiene dalla matrice 𝐴 sostituendo la colonna 𝑖-
esima di 𝐴 con la colonna 𝐵 dei termini noti - questo è il Teorema di Cramer. Ancora una volta,
questo teorema è interessante dal punto di vista teorico, ma non computazionale.
23.3. MATRICI SIMILI 109

23.3 Matrici Simili


Data una funzione lineare 𝑓 ∶ 𝑉 → 𝑊 , date due basi {𝑣1 , 𝑣2 , … , 𝑣𝑛 } di 𝑉 e {𝑤1 , 𝑤2 , … , 𝑤𝑚 } di
𝑊 , la relativa matrice 𝐴 di 𝑓 , e date due altre basi {𝑣1′ , 𝑣2′ , … , 𝑣𝑛′ } di 𝑉 e {𝑤1′ , 𝑤2′ , … , 𝑤𝑚′ } di 𝑊 , la
relativa matrice 𝐴′ di 𝑓 , si ha

𝐴 = 𝑆 −1 𝐴′ 𝑃 𝐴′ = 𝑆𝐴𝑃 −1

dove 𝑃 è la matrice di cambiamento di base in 𝑉 e 𝑆 è la matrice di cambiamento di base in 𝑊 .


Nel caso particolare in cui 𝑉 = 𝑊 , abbiamo

𝑓 ∶𝑉 →𝑉 funzione lineare di 𝑉 in sè stessa

date le due basi {𝑣1 , 𝑣2 , … , 𝑣𝑛 } e {𝑣1′ , 𝑣2′ , … , 𝑣𝑛′ } di 𝑉 , allora le due matrici di cambiamento di base
𝑃 e 𝑆 sono uguali, 𝑃 = 𝑆. Quindi, se 𝐴 e 𝐴′ sono le matrici di 𝑓 rispetto a basi diverse, si ha

𝐴 = 𝑃 −1 𝐴′ 𝑃 𝐴′ = 𝑃𝐴𝑃 −1

da cui ricaviamo, per il teorema di Binet, che


1
det(𝐴) = det(𝑃 −1 𝐴′ 𝑃) = det(𝑃 −1 )det(𝐴′ )det(𝑃) = det(𝐴′ )det(𝑃) = det(𝐴′ )
det(𝑃)

Tutte le matrici associate alla stessa funzione lineare 𝑓 (rispetto a basi diverse) hanno lo
stesso determinante (che dipende solo da 𝑓 e non dalla base fissata)

Si pone det(𝑓 ) = det(𝐴), dove 𝐴 è una matrice associata a 𝑓


Definizione 23.1. Due matrici 𝑛 × 𝑛, 𝐴 e 𝐵, si dicono simili se rappresentano la stessa funzione
lineare 𝑓 , rispetto a basi diverse.
Quindi 𝐴 = 𝑃 −1 𝐵𝑃, dove 𝑃 è una matrice invertibile corrispondente al cambiamento di base.
Osservazione 23.1. Se 𝐴 e 𝐵 sono simili, allora det(𝐴) = det(𝐵).
… ma se det(𝐴) = det(𝐵), non significa che 𝐴 e 𝐵 sono necessariamente simili.

23.4 Autovalori e Autovettori


Poichè data una funzione lineare 𝑓 ∶ 𝑉 → 𝑉 , è possibile rappresentare la funzione con infinite
matrici simili (rispetto a basi diverse), come dobbiamo scegliere la base {𝑣1 , 𝑣2 , … , 𝑣𝑛 } di 𝑉 in mo-
do che la matrice 𝐴 di 𝑓 sia la più “semplice” possibile? Per esempio, sia una matrice triangolare
o, meglio ancora, diagonale
⎛ 𝜆1 0 … 0 ⎞
⎜ 0 𝜆2 … 0 ⎟
⎜ ⋮ ⋮ ⋱ 0 ⎟
⎜ ⎟
⎝ 0 0 0 𝜆𝑛 ⎠
Se vogliamo una matrice diagonale, data la funzione 𝑓 ∶ 𝑉 → 𝑉 , vogliamo una base
{𝑣1 , 𝑣2 , … , 𝑣𝑛 } tale che

𝑓 (𝑣1 ) = 𝑎11 𝑣1 + 𝑎21 𝑣2 + … + 𝑎𝑛1 𝑣𝑛 = 𝜆1 𝑣1 + 0𝑣2 + … + 0𝑣𝑛


110 LEZIONE 23. APPLICAZIONI DELLA FORMULA DI LAPLACE

𝑓 (𝑣2 ) = 𝑎12 𝑣1 + 𝑎22 𝑣2 + … + 𝑎𝑛2 𝑣𝑛 = 0𝑣1 + 𝜆2 𝑣2 + … + 0𝑣𝑛


...
Cosicché
⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ ⎛ 𝜆1 0 … 0 ⎞
⎜ 𝑎21 𝑎22 … 𝑎2𝑛 ⎟ ⎜ 0 𝜆2 … 0 ⎟
⎜ ⋮ =
⎜ ⋮ ⋱ ⋮ ⎟⎟ ⎜⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝ 𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 ⎠ ⎝ 0 0 … 𝜆𝑛 ⎠
In conclusione, la base {𝑣1 , 𝑣2 , … , 𝑣𝑛 } deve essere scelta in modo che


⎪ 𝑓 (𝑣1 ) = 𝜆1 𝑣1


⎪𝑓 (𝑣2 ) = 𝜆2 𝑣2


⎪ ⋮


⎪ 𝑓 (𝑣 ) = 𝜆𝑛 𝑣𝑛
⎩ 𝑛
Ciò significa che la funzione 𝑓 applicata ai vettori della base restituiscono dei vettori paralleli ai
vettori della base (ma scalati per i coefficienti 𝜆𝑖 )
Definizione 23.2. Sia 𝑓 ∶ 𝑉 → 𝑉 una funzione lineare. Un vettore 𝑣 ≠ 0 è detto autovettore di 𝑓
se 𝑓 (𝑣) = 𝜆𝑣 e 𝜆 si chiama autovalore.
In termini di matrici, l’equazione 𝑓 (𝑣) = 𝜆𝑣 diventa 𝐴𝑣 = 𝜆𝑣.
Ora abbiamo il problema che data una funzione lineare 𝑓 ∶ 𝑉 → 𝑉 oppure data una matrice
quadrata 𝐴, come si possono calcolare gli autovalori e gli autovettori di 𝑓 o di 𝐴?
Cerchiamo di risolvere un’equazione del tipo
𝐴𝑣 = 𝜆𝑣
dove le incognite sono le componenti di 𝑣, quindi 𝑥1 , 𝑥2 , … , 𝑥𝑛 , e 𝜆. Infatti, abbiamo

⎛ 𝑎11 𝑎12 … 𝑎1𝑛 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑥1 ⎞


⎜ 𝑎21 𝑎22 … 𝑎2𝑛 ⎟ ⎜𝑥2 ⎟ ⎜𝑥 ⎟
⎜ ⎟ ⎜ ⎟ = 𝜆 ⎜ 2⎟
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎜ ⋮ ⎟ ⎜⋮⎟
⎝ 𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 ⎠ ⎝𝑥𝑛 ⎠ ⎝𝑥𝑛 ⎠
che ha 𝑛 equazioni e 𝑛 + 1 incognite (𝑥1 , 𝑥2 , … , 𝑥𝑛 , 𝜆).
Per risolvere questo sistema non lineare, possiamo sfruttare la seguente idea
𝐴𝑣 = 𝜆𝑣 ⇝ 𝐴𝑣 − 𝜆𝑣 = 0 ⇝ (𝐴 − 𝜆)𝑣 = 0
dove, però, 𝐴 è una matrice e 𝜆 è un numero. Come facciamo?
Sappiamo che
⎛𝑥1 ⎞ ⎛𝜆𝑥1 ⎞ ⎛ 𝜆 0 … 0 ⎞ ⎛𝑥1 ⎞
⎜𝑥 ⎟ ⎜𝜆𝑥 ⎟ ⎜ 0 𝜆 … 0 ⎟ ⎜𝑥2 ⎟
𝜆𝑣 = 𝜆 ⎜ 2 ⎟ = ⎜ 2 ⎟ = ⎜ ⎟⎜ ⋮ ⎟
⎜⋮⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎜ ⎟
⎝𝑥𝑛 ⎠ ⎝𝜆𝑥𝑛 ⎠ ⎝ 0 0 … 𝜆 ⎠ ⎝𝑥𝑛 ⎠
Allora possiamo dire che

⎛ 𝜆 0 … 0 ⎞ ⎛ 𝜆 0 … 0 ⎞
⎜ 0 𝜆 … 0 ⎟ ⎜ 0 𝜆 … 0 ⎟
𝐴𝑣 = ⎜ ⎟ 𝑣 = 𝜆𝑣 ⇝ 𝐴𝑣 − ⎜ 𝑣=0⇝
⎜ ⋮ ⋮ ⋱ ⋮ ⎟ ⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝ 0 0 … 𝜆 ⎠ ⎝ 0 0 … 𝜆 ⎠
23.4. AUTOVALORI E AUTOVETTORI 111

⎛ 𝜆 0 … 0 ⎞
⎜ 0 𝜆 … 0 ⎟
⇝ 𝐴−⎜ 𝑣 =0⇝𝐵⋅𝑣 =0
[ ⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟ ]
⎝ 0 0 … 𝜆 ⎠
dove
⎛ 𝜆 0 … 0 ⎞
⎜ 0 𝜆 … 0 ⎟
𝐵 =𝐴−⎜
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝ 0 0 … 𝜆 ⎠
ed è una semplice differenza tra matrici. Il problema è diventato quindi trovare una vettore del
nucleo che sia soluzione di 𝐵 ⋅ 𝑣 = 0. Una tale soluzione esiste sempre, per esempio, è 𝑣 = 0,
ma tale soluzione non è accettabile, perché non farebbe parte di una base. Vogliamo quindi
altre soluzioni (≠ 0), che equivale a dire che il sistema 𝐵 ⋅ 𝑣 = 0 deve ammettere più di una
soluzione (altrimenti ci sarebbe solo la soluzione 𝑣 = 0, che non ci serve). Per il teorema di
Cramer, richiedere che 𝐵 ⋅ 𝑣 = 0 abbia più di una soluzione equivale a chiedere che det(𝐵) = 0,
perché se avesse determinante diverso da zero, 𝐵 sarebbe invertibile e il sistema avrebbe una sola
soluzione.
Si conclude che
⎛ 𝜆 0 … 0 ⎞
⎜ 0 𝜆 … 0 ⎟
det 𝐴 − ⎜ ⎟ =0
[ ⎜ ⋮ ⋮ ⋱ ⋮ ⎟]
⎝ 0 0 … 𝜆 ⎠
che è un sistema in una sola equazione e in una sola incognita (𝜆). Risolvendo questa equazione
si trovano gli autovalori 𝜆 della matrice 𝐴.
Lezione 24

Polinomio Caratteristico e Molteplicità

Obiettivi:

• Definire il polinomio caratteristico di una matrice quadrata

• Calcolare gli autovalori di una matrice quadrata

• Determinare gli autospazi associati a un autovettore

24.1 Polinomio Caratteristico ed Equazione Caratteristica


Sia 𝐴 una matrice quadrata di ordine 𝑛. Per calcolare gli autovalori di 𝐴, dobbiamo calcolare

det(𝐴 − 𝜆 ⋅ 𝐼 )

dove
⎛ 𝜆 0 … 0 ⎞
⎜ 0 𝜆 … 0 ⎟
𝜆⋅𝐼 =⎜
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝ 0 0 … 𝜆 ⎠
Nel calcolo di questo determinante, si ottiene un polinomio nell’indeterminata 𝜆. Questo polino-
mio si chiama polinomio caratteristico della matrice 𝐴.

Osservazione 24.1. Il grado del polinomio caratteristico è 𝑛 (uguale all’ordine di 𝐴)

det(𝐴 − 𝜆 ⋅ 𝐼 ) = 0 è detta equazione caratteristica.


Le soluzioni dell’equazione caratteristica sono gli autovalori della matrice 𝐴.

24.2 Esempi di Calcolo di Autovalori


Esercizio 24.1.

Calcolare gli autovalori della seguente matrice 𝐴

−7 −9
𝐴=
( 6 8 )

112
24.2. ESEMPI DI CALCOLO DI AUTOVALORI 113

Svolgimento.

−7 − 𝜆 −9
det = (−7 − 𝜆)(8 − 𝜆) − 6 ⋅ (−9) = 𝜆2 − 𝜆 − 56 + 54 = 𝜆2 − 𝜆 − 2 = 0
( 6 8−𝜆 )

Per cui l’equazione caratteristica è 𝜆2 − 𝜆 − 2 = 0, da cui ricaviamo che


√ √
−𝑏 ± 𝑏 2 − 4𝑎𝑐 1 ± 1 + 8
𝜆= = = 2 oppure − 1
2𝑎 2
Perciò 𝐴 ha due autovalori reali distinti 𝜆1 = 2 e 𝜆2 = −1. ✎
Esercizio 24.2.
Calcolare gli autovalori della seguente matrice 𝐴

2 −1
𝐴=
( 1 3 )

Svolgimento.
2 − 𝜆 −1
det = (2 − 𝜆)(3 − 𝜆) + 1 = 𝜆2 − 5𝜆 + 7 = 0
( 1 3−𝜆 )
Da cui ricaviamo che √ √
5 ± 25 − 28 5 ± −3
𝜆= = ∉ℝ
2 2
√ √
Ma 𝜆 = 5±𝑖 3
2
∈ ℂ (𝑖 = −1). ✎
Osservazione 24.2. (Teorema Fondamentale dell’Algebra) Non esistono sempre autovalori rea-
li! Ma esistono sempre autovalori complessi.
L’utilità di autovalori complessi dipende dall’applicazione che si sta modellando.
Esercizio 24.3.
Calcolare gli autovalori della seguente matrice 𝐴

0 4
𝐴=
( −1 4 )

Svolgimento.

0−𝜆 4
det = −𝜆(4 − 𝜆) + 4 = 𝜆2 − 4𝜆 + 4 = (𝜆 − 2)2 = 0
( −1 4 − 𝜆 )

Da cui ricaviamo che 𝜆 = 2 ± 0, quindi esiste un solo autovalore 𝜆 = 2 (con molteplicità 2).✎
Definizione 24.1. Se nel polinomio caratteristico di 𝐴 compare un fattore del tipo (𝜆 − 𝑎)𝑟 , si dice
che l’autovalore 𝜆 = 𝑎 ha molteplicità 𝑟 (questa è detta la molteplicità algebrica di un autovalore).
Teorema 24.1. Due matrici simili 𝐴 e 𝐵 hanno lo stesso polinomio caratteristico (e quindi hanno
anche gli stessi autovalori).
114 LEZIONE 24. POLINOMIO CARATTERISTICO E MOLTEPLICITÀ

Dimostrazione. 𝐴 e 𝐵 sono simili se e solo se esiste una matrice invertibile 𝑃 (matrice di cambia-
mento di base) tale che 𝐴 = 𝑃 −1 𝐵𝑃. Consideriamo il polinomio caratteristico

det(𝐴 − 𝜆𝐼 ) = det(𝑃 −1 𝐵𝑃 − 𝜆𝐼 ) =
= det(𝑃 −1 𝐵𝑃 − 𝜆𝑃 −1 𝐼 𝑃) =
= det(𝑃 −1 (𝐵 − 𝜆𝐼 )𝑃) =
= det(𝑃 −1 )det(𝐵 − 𝜆𝐼 )det(𝑃) =
1
= det(𝐵 − 𝜆𝐼 )det(𝑃) =
det(𝑃)
= det(𝐵 − 𝜆𝐼 )

che è il polinomio caratteristico di 𝐵. ■

24.3 Autovettori e Autospazi


Siamo partiti da

⎛ 𝜆 0 … 0 ⎞
⎜ 0 𝜆 … 0 ⎟
𝐴𝑣 = ⎜ 𝑣 ⇝ 𝐴𝑣 − 𝜆𝐼 𝑣 = 0 ⇝ (𝐴 − 𝜆𝐼 )𝑣 = 0
⎜ ⋮ ⋮ ⋱ ⋮ ⎟⎟
⎝ 0 0 … 𝜆 ⎠

Sostituendo a 𝜆 il valore di un autovalore trovato, otteniamo

⎛𝑥1 ⎞ ⎛0⎞
⎜𝑥 ⎟ ⎜0⎟
(𝐴 − 𝜆𝐼 ) ⎜ 2 ⎟ = ⎜ ⎟
⎜ ⋮ ⎟ ⎜⋮⎟
⎝𝑥𝑛 ⎠ ⎝0⎠
che è un sistema omogeneo di equazioni lineari, le cui soluzioni (non nulle) sono gli autovettori
che corrispondono all’autovalore 𝜆. Gli autovettori appartengono al nucleo della matrice 𝐴 − 𝜆𝐼 .
Definizione 24.2. L’insieme delle soluzioni di questo sistema è un sottospazio vettoriale che con-
tiene gli autovettori relativi all’autovalore 𝜆. Questo spazio vettoriale si dice autospazio relativo
all’autovalore 𝜆.
Definizione 24.3. La dimensione di questo autospazio è detta la molteplicità geometrica dell’au-
tovalore 𝜆.
Esempio 24.1.
Abbiamo precedentemente calcolato gli autovalori della seguente matrice 𝐴

−7 −9
𝐴=
( 6 8 )

che sono 𝜆1 = 2 e 𝜆2 = −1.


Calcoliamo gli autospazi

−7 −9 2 0 −9 −9
𝐴 − 𝜆1 𝐼 = − =
( 6 8 ) ( 0 2 ) ( 6 6 )
24.3. AUTOVETTORI E AUTOSPAZI 115

Da cui ricaviamo il sistema omogeneo di equazioni lineari


−9 −9 𝑥1 0
=
( 6 6 ) (𝑥2 ) (0)
{ {
−9𝑥1 − 9𝑥2 = 0 0=0
6𝑥1 + 6𝑥2 = 0 𝑥1 = −𝑥2
Questo sistema ha infinite soluzioni (che dipendono da un parametro). In particolare, l’insieme
delle soluzioni è { }
−𝛼
∈ ℝ2 | ∀𝛼
(𝛼 )
che è, quindi, l’autospazio relativo all’autovalore 𝜆1 = 2. Ponendo 𝛼 = 1, si trova l’autovettore
−1
𝑣1 = .
(1)
Per definizione, dovremmo avere 𝐴𝑣1 = 𝜆1 𝑣1 . Verifichiamolo
−7 −9 −1 −2 −1
𝐴𝑣1 = = =2 = 𝜆1 𝑣 1
( 6 8 )( 1 ) ( 2 ) (1)
Analogamente, per il secondo autovalore 𝜆2 = −1
−7 −9 −1 0 −6 −9
𝐴 − 𝜆2 𝐼 = − =
( 6 8 ) ( 0 −1 ) ( 6 9 )
Da cui ricaviamo il sistema omogeneo di equazioni lineari
−6 −9 𝑥1 0
=
( 6 9 ) (𝑥2 ) (0)
{ {
−6𝑥1 − 9𝑥2 = 0 0=0
6𝑥1 + 9𝑥2 = 0 𝑥1 = − 32 𝑥2
Anche questo sistema ha infinite soluzioni (che dipendono da un parametro). In particolare,
l’insieme delle soluzioni è { }
− 32 𝛼
∈ ℝ2 | ∀𝛼
( 𝛼 )
che è, quindi, l’autospazio relativo all’autovalore 𝜆2 = −1. Ponendo 𝛼 = −2, si trova l’autovettore
3
𝑣2 = .
(−2)
Si può facilmente verificare che 𝑣1 e 𝑣2 sono linearmente indipendenti, quindi sono una base
di ℝ2 . Pertanto, in questo caso, esiste una base di ℝ2 costituita da autovettori della matrice 𝐴.
Riassumiamo: la matrice
−7 −9
𝐴=
( 6 8 )
ha due autovalori 𝜆1 = 2 e 𝜆2 = −1 entrambi con molteplicità algebrica uguale a 1. Il primo
−1
autovalore ha un autovettore con molteplicità geometrica uguale a 1. Il secondo autovalore
(1)
3
ha un autovettore con molteplicità geometrica uguale a 1. Quindi
(−2)
−1 −1 −2 3 3 −3
𝐴 =2 = e 𝐴 = −1 =
(1) (1) (2) (−2) (−2) ( 2 )
116 LEZIONE 24. POLINOMIO CARATTERISTICO E MOLTEPLICITÀ

da cui
−1 3 −2 −3 −1 3 2 0
𝐴 = = =𝑆⋅𝐷
( 1 −2 ) ( 2 2 ) ( 1 −2 ) ( 0 −1 )
che ci dice
𝐴𝑆 = 𝑆𝐷 ⇔ 𝐴 = 𝑆𝐷𝑆 −1 ⇔ 𝐷 = 𝑆 −1 𝐴𝑆
che sono le formule di cambiamento di base

• 𝑆 è la matrice le cui colonne sono gli autovettori di 𝐴 (se gli autovettori costituiscono una
base)

• 𝐷 è la matrice diagonale, che ha sulla diagonale gli autovalori di 𝐴

per cui 𝐴 è simile a una matrice diagonale 𝐷.


Con le notazioni della Lezione 14, si ha:

• 𝐴 = 𝑀𝑒𝑒 (𝑓 ) dove 𝑒 = {𝑒1 , … , 𝑒𝑛 } è la base canonica di ℝ𝑛

• 𝐷 = 𝑀𝑣𝑣 (𝑓 ) dove 𝑣 = {𝑣1 , … , 𝑣𝑛 } è la base formata dagli autovettori di 𝐴

• 𝑆 = 𝑀𝑣𝑒 (𝑖𝑑) è la matrice di cambiamento di base, le cui colonne sono le coordinate degli
autovettori di 𝑓 rispetto a 𝑒

Definizione 24.4. Una matrice 𝐴 si dice diagonalizzabile se è simile a una matrice diagonale.

Questo accade se e solo se esiste una base costituita da autovettori di 𝐴. Se 𝐴 è una matrice
𝑛 × 𝑛, ciò significa che devono esistere 𝑛 autovettori linearmente indipendenti.
Lezione 25

Esercizi su Autovalori e Autovettori

25.1 Autovettori relativi ad Autovalori Distinti


Teorema 25.1. Siano 𝜆1 , 𝜆2 , … , 𝜆𝑟 autovalori di 𝐴. Siano 𝑣1 , 𝑣2 , … , 𝑣𝑟 gli autovettori corrispondenti.
Se 𝜆𝑖 ≠ 𝜆𝑗 , ∀𝑖, 𝑗 (cioè se gli autovalori sono tutti distinti), allora gli autovettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 sono
linearmente indipendenti.

Dimostrazione. (nel caso di due autovalori) Abbiamo 𝜆1 ≠ 𝜆2 e 𝑣1 , 𝑣2 autovettori di 𝜆1 e 𝜆2 tali che


𝐴𝑣1 = 𝜆1 𝑣1 e 𝐴𝑣2 = 𝜆2 𝑣2 . Verifichiamo che 𝑣1 e 𝑣2 sono linearmente indipendenti

𝑎1 𝑣1 + 𝑎2 𝑣2 = 0

da risolvere per trovare i valori di 𝑎1 e 𝑎2 . Moltiplichiamo per 𝐴

𝐴(𝑎1 𝑣1 + 𝑎2 𝑣2 ) = 𝐴 ⋅ 0 = 0

Sappiamo che
𝐴(𝑎1 𝑣1 + 𝑎2 𝑣2 ) = 𝑎1 𝐴𝑣1 + 𝑎2 𝐴𝑣2 = 𝑎1 𝜆1 𝑣1 + 𝑎2 𝜆2 𝑣2
{ {
𝑎1 𝜆1 𝑣1 + 𝑎2 𝜆2 𝑣2 = 0 𝑎1 𝜆1 𝑣1 + 𝑎2 𝜆2 𝑣2 = 0
𝑎1 𝑣1 + 𝑎2 𝑣2 = 0 ← moltiplichiamo per 𝜆1 𝑎1 𝜆1 𝑣1 + 𝑎2 𝜆1 𝑣2 = 0
sottraendo la seconda equazione alla prima otteniamo

𝑎2 (𝜆2 − 𝜆1 )𝑣2 = 0

Poiché 𝜆1 ≠ 𝜆2 per definizione, allora 𝜆2 − 𝜆1 ≠ 0. Inoltre 𝑣2 ≠ 0, perché 𝑣2 è un autovettore. Ciò


implica che 𝑎2 = 0. Sostituendo troviamo

𝑎1 𝑣1 = 0

poiché 𝑣1 ≠ 0 (perché è un autovettore), allora 𝑎1 = 0. Ciò dimostra che 𝑣1 e 𝑣2 sono linearmente


indipendenti.■

117
118 LEZIONE 25. ESERCIZI SU AUTOVALORI E AUTOVETTORI

25.2 Esercizi
Esempio 25.1.
Data la seguente matrice 𝐴, stabilire se 𝐴 è diagonalizzabile e trovare una matrice diagonale 𝐷 e
una matrice invertibile 𝑆 tali che 𝐴 = 𝑆𝐷𝑆 −1
⎛ 3 4 4 ⎞
⎜ −3 −6 −8 ⎟
⎜ ⎟
⎝ 3 7 9 ⎠
Svolgimento. Iniziamo calcolando il determinante della matrice 𝐴 − 𝜆𝐼 . Potremmo usare la regola

di Sarrus, il metodo di eliminazione di Gauss oppure il metodo di Laplace. Usiamo una formula
ibrida
⎛ 3−𝜆 4 4 ⎞ ⎛ 3−𝜆 4 4 ⎞
det(𝐴 − 𝜆𝐼 ) = det −3 −6 − 𝜆 −8 = det −3 −6 − 𝜆 −8 ⎟ =
⎜ ⎟ ⎜
⎜ ⎟ ⎜ ⎟
⎝ 3 7 9−𝜆 ⎠ ⎝ 0 1−𝜆 1−𝜆 ⎠
⎛ 3−𝜆 4 0 ⎞
= det −3 −6 − 𝜆 −2 + 𝜆
⎜ ⎟
⎜ ⎟
⎝ 0 1−𝜆 0 ⎠
Utilizziamo lo sviluppo di Laplace usando la terza riga

3−𝜆 0
= (−1)3+2 (1 − 𝜆)det = −1(1 − 𝜆)(3 − 𝜆)(−2 + 𝜆) = 0
( −3 −2 + 𝜆 )

Le soluzioni sono 𝜆1 = 1, 𝜆2 = 3, 𝜆3 = 2. Ci sono 3 autovalori reali e distinti. Allora cerchiamo i 3


relativi autovettori, che è il numero corretto per ottenere una base di autovettori. Visto che ci sono
3 autovalori distinti, allora i relativi vettori saranno linearmente indipendenti e rappresenteranno
una base di ℝ3 . Ciò significa che la matrice è diagonalizzabile.

⎛ 𝜆1 0 0 ⎞ ⎛ 1 0 0 ⎞
𝐷 = ⎜ 0 𝜆2 0 ⎟ = ⎜ 0 3 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 𝜆3 ⎠ ⎝ 0 0 2 ⎠
Cerchiamo gli autovettori.
1. Per 𝜆1 = 1
⎛ 3−1 4 4 ⎞ ⎛ 2 4 4 ⎞
⎜ −3 −6 − 1 −8 ⎟ = ⎜ −3 −7 −8 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 3 7 9−1 ⎠ ⎝ 3 7 8 ⎠
da cui
⎛ 2 4 4 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ −3 −7 −8 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 3 7 8 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
il cui sistema è

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 2𝑥1 + 4𝑥2 + 4𝑥3 = 0 ⎪ 𝑥1 + 2𝑥2 + 2𝑥3 = 0 ⎪ 𝑥1 = −2𝑥2 − 2𝑥3 ⎪ 𝑥1 = 2𝑥3
⎪ ⎪ ⎪ ⎪
⎨ −3𝑥1 − 7𝑥2 − 8𝑥3 = 0 ⎨ −3𝑥1 − 7𝑥2 − 8𝑥3 = 0 ⎨ −𝑥2 − 2𝑥3 = 0 ⎨ 𝑥2 = −2𝑥3

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩3𝑥1 + 7𝑥2 + 8𝑥3 = 0 ⎪
⎩0 = 0 ⎪
⎩0 = 0 ⎪
⎩0 = 0
25.2. ESERCIZI 119

Il sistema ha infinite soluzioni che dipendono da un parametro. Si trova che l’autovettore


⎛2⎞
relativo all’autovalore 𝜆1 è 𝑣1 = ⎜−2⎟.
⎜ ⎟
⎝1⎠
2. Per 𝜆2 = 3
⎛ 3−3 4 4 ⎞ ⎛ 0 4 4 ⎞
⎜ −3 −6 − 3 −8 ⎟ = ⎜ −3 −9 −8 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 3 7 9−3 ⎠ ⎝ 3 7 6 ⎠
da cui
⎛ 0 4 4 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ −3 −9 −8 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 3 7 6 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
il cui sistema è

⎪ ⎧
⎪ ⎧

⎪ 4𝑥2 + 4𝑥3 = 0 ⎪ 𝑥2 = −𝑥3 ⎪ 𝑥2 = −3𝑥1
⎪ ⎪ ⎪
⎨ −3𝑥1 − 9𝑥2 − 8𝑥3 = 0 ⎨ −3𝑥1 + 𝑥3 = 0 ⎨ 𝑥3 = 3𝑥1

⎪ ⎪
⎪ ⎪


⎩3𝑥1 + 7𝑥2 + 6𝑥3 = 0 ⎪
⎩3𝑥1 − 𝑥3 = 0 ⎪
⎩0 = 0
Il sistema ha infinite soluzioni che dipendono da un parametro. Si trova che l’autovettore
⎛1⎞
relativo all’autovalore 𝜆2 è 𝑣2 = ⎜−3⎟.
⎜ ⎟
⎝3⎠
3. Per 𝜆3 = 2
⎛ 3−2 4 4 ⎞ ⎛ 1 4 4 ⎞
⎜ −3 −6 − 2 −8 ⎟ = ⎜ −3 −8 −8 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 3 7 9−2 ⎠ ⎝ 3 7 7 ⎠
da cui
⎛ 1 4 4 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ −3 −8 −8 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 3 7 7 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
il cui sistema è

⎪ ⎧
⎪ ⎧

⎪𝑥1 + 4𝑥2 + 4𝑥3 = 0 ⎪ 𝑥1 = −4𝑥2 − 4𝑥3 ⎪ 𝑥1 = 0
⎪ ⎪ ⎪
⎨−3𝑥1 − 8𝑥2 − 8𝑥3 = 0 ⎨ 4𝑥2 + 4𝑥3 = 0 ⎨ 𝑥2 = −𝑥3

⎪ ⎪
⎪ ⎪


⎩3𝑥1 + 7𝑥2 + 7𝑥3 = 0 ⎪
⎩−5𝑥2 − 5𝑥3 = 0 ⎪
⎩0 = 0
Il sistema ha infinite soluzioni che dipendono da un parametro. Si trova che l’autovettore
⎛0⎞
relativo all’autovalore 𝜆3 è 𝑣3 = ⎜−1⎟.
⎜ ⎟
⎝1⎠
Ricaviamo la matrice 𝑆 che ha, come colonne, i 3 autovettori trovati

⎛ 2 1 0 ⎞
⎜ −2 −3 −1 ⎟
⎜ ⎟
⎝ 1 3 1 ⎠
Si può ora controllare che 𝐴𝑆 = 𝑆𝐷. ✎
120 LEZIONE 25. ESERCIZI SU AUTOVALORI E AUTOVETTORI

Esempio 25.2.
Data la seguente matrice 𝐴, stabilire se 𝐴 è diagonalizzabile e trovare una matrice diagonale 𝐷 e
una matrice invertibile 𝑆 tali che 𝐴 = 𝑆𝐷𝑆 −1
⎛ 2 0 3 ⎞
⎜ −2 −4 1 ⎟
⎜ ⎟
⎝ 0 0 2 ⎠

Svolgimento. Iniziamo calcolando il determinante della matrice 𝐴 − 𝜆𝐼 . Utilizziamo il metodo di


Laplace sviluppando per la terza riga
⎛ 2−𝜆 0 3 ⎞
det(𝐴 − 𝜆𝐼 ) = det ⎜ −2 −4 − 𝜆 1 ⎟ = (−1)3+3 (2 − 𝜆)det 2 − 𝜆 0
⎜ ⎟ ( −2 −4 − 𝜆 )
⎝ 0 0 2−𝜆 ⎠
= (2 − 𝜆)(2 − 𝜆)(−4 − 𝜆) = 0
Ci sono due autovalori 𝜆1 = −4 (con molteplicità algebrica 1) e 𝜆2 = 2 (con molteplicità algebrica
2). Calcoliamo gli autovettori
1. 𝜆1 = −4:
⎛ 2 − (−4) 0 3 ⎞ ⎛ 6 0 3 ⎞
⎜ −2 −4 − (−4) 1 ⎟ = ⎜ −2 0 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 2 − (−4) ⎠ ⎝ 0 0 6 ⎠
⎛ 6 0 3 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ −2 0 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 0 0 6 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
da cui ricaviamo il sistema

⎪ ⎧
⎪ {
⎪ 6𝑥1 + 3𝑥3 = 0 ⎪ 6𝑥1 = 0
⎪ ⎪ 𝑥1 = 0
⎨ −2𝑥1 + 𝑥3 = 0 ⎨ −2𝑥1 = 0

⎪ ⎪
⎪ 𝑥3 = 0

⎩6𝑥3 = 0 ⎪
⎩𝑥3 = 0
⎛0⎞
Il sistema ha infinite soluzioni per ogni 𝑥2 e, ponendo 𝑥2 = 1, si trova l’autovettore 𝑣1 = ⎜1⎟
⎜ ⎟
⎝0⎠
relativo all’autovalore 𝜆1 = −4.
2. 𝜆2 = 2:
⎛ 2−2 0 3 ⎞ ⎛ 0 0 3 ⎞
⎜ −2 −4 − 2 1 ⎟ = ⎜ −2 −6 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 2−2 ⎠ ⎝ 0 0 0 ⎠
⎛ 0 0 3 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ −2 −6 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 0 0 0 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
da cui deriviamo il sistema

⎪ { {
⎪ 3𝑥3 = 0
⎪ 𝑥3 = 0 𝑥3 = 0
⎨ −2𝑥1 − 6𝑥2 + 𝑥3 = 0

⎪ −2𝑥1 − 6𝑥2 = 0 𝑥1 = −3𝑥2

⎩0 = 0
25.2. ESERCIZI 121

Il sistema ha infinite soluzioni per ogni 𝑥2 . L’autospazio relativo all’autovalore 2 ha molteplicità


⎛−3⎞
geometrica 1; in particolare, ricaviamo l’autovettore 𝑣2 = ⎜ 1 ⎟ relativo all’autovalore 𝜆2 = 2.
⎜ ⎟
⎝0⎠
Perciò non esiste una base formata da autovettori, quindi 𝐴 non è diagonalizzabile. ✎
Lezione 26

Diagonalizzazione di Matrici

Obiettivi:

• Enunciare i criteri di diagonalizzazione di una matrice

• Descrivere le caratteristiche degli autovalori di matrici sim-


metriche

26.1 Criterio di Diagonalizzabilità di una Matrice


Teorema 26.1. La molteplicità geometrica è sempre minore o uguale alla molteplicità algebrica.

Dimostrazione. Sia 𝐴 una matrice 𝑛 × 𝑛 e sia 𝜆 = 𝑎 un suo autovalore con molteplicità geometrica
𝑟 (uguale alla dimensione dell’autospazio relativo all’autovalore 𝜆 = 𝑎). Sia {𝑣1 , 𝑣2 , … , 𝑣𝑟 } una
base di questo autospazio (autovettori di 𝐴 relativi all’autovalore 𝜆 = 𝑎).
Completiamo i vettori 𝑣1 , 𝑣2 , … , 𝑣𝑟 per ottenere una base 𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑣𝑟+1 , … , 𝑣𝑛 . La matrice
𝐴′ rispetto a questa base è
⎛ 𝑎 0 … 0 ∗ ∗ ⎞
… ∗
⎜ ⎟
⎜ 0 𝑎 … 0 ∗ ∗ …
⎟ ∗
⎜ ⋱ ⋮ ⋮ ⋮
⎟ ⋮
𝐴′ = ⎜ 0 0 … 𝑎 ∗ ∗ ⎟
… ∗
⎜ ⎟
⎜ 0 0 … 0 ∗ ∗ …
⎟ ∗
⎜ ⋮ ⎟
⎜ 0 0 … 0 ∗ ∗ … ∗ ⎟
⎝ ⎠

122
26.1. CRITERIO DI DIAGONALIZZABILITÀ DI UNA MATRICE 123

Poiché sappiamo che 𝐴 ed 𝐴′ sono matrici simili, allora det(𝐴 − 𝜆𝐼 ) = det(𝐴′ − 𝜆𝐼 ). Da cui
ricaviamo che
det(𝐴′ − 𝜆𝐼 ) = (𝑎 − 𝜆)𝑟 ⋅ det(𝐶 − 𝜆𝐼 ) = 0
Allora 𝜆 = 𝑎 è un autovalore con molteplicità 𝑟 e det(𝐶 − 𝜆𝐼 ) = 0 potrebbe avere ulteriori so-
luzioni con 𝜆 = 𝑎. Perciò la molteplicità algebrica è sempre maggiore o uguale alla molteplicità
geometrica (𝑟) dell’autovalore. ■

Teorema 26.2. Sia 𝐴 una matrice 𝑛 × 𝑛. 𝐴 è diagonalizzabile se e solo se esistono autovalori


𝜆1 , 𝜆2 , … , 𝜆𝑟 di 𝐴 tali che la somma delle loro molteplicità algebriche sia 𝑛 (ci devono essere esatta-
mente 𝑛 autovalori, eventualmente non tutti distinti). Inoltre, per ogni autovalore, la sua molteplicità
geometrica deve essere uguale alla molteplicità algebrica.

Dimostrazione. Per ciascun autovalore 𝜆𝑖 (𝑖 = 1, 2, … , 𝑟), sia 𝑚𝑖 la sua molteplicità algebrica e sia
𝑉𝜆𝑖 il relativo autospazio. Allora sappiamo che 𝑚1 + 𝑚2 + … + 𝑚𝑟 = 𝑛 e, per ipotesi, la molteplicità
geometrica dell’autospazio relativo a 𝜆𝑖 è tale che dim 𝑉𝜆𝑖 = 𝑚𝑖 . In generale, l’autospazio 𝑉𝜆𝑖 ha
una base 𝑣1(𝑖) , 𝑣2(𝑖) , … , 𝑣𝑚(𝑖)𝑖 . Prendendo tutti gli autovettori trovati, otteniamo un insieme di 𝑚1 +
𝑚2 +…+𝑚𝑟 = 𝑛 vettori linearmente indipendenti (per ipotesi) poiché relativi ad autovalori diversi.
Perciò abbiamo una base formata dagli autovettori di 𝐴. Ciò implica che 𝐴 è diagonalizzabile. ■

Esercizio 26.1.

Determinare per quali valori del parametro 𝑡 ∈ ℝ la seguente matrice è diagonalizzabile

⎛ 3 −1 −1 ⎞

𝐴= 𝑡 −1 𝑡 +3 𝑡 +1 ⎟ con 𝑡 ∈ ℝ
⎜ ⎟
⎝ −𝑡 −𝑡 2 − 𝑡 ⎠
Per ciascuno di questi valori, determinare una matrice diagonale 𝐷 ed una matrice invertibile 𝑃
tali che 𝐴 = 𝑃𝐷𝑃 −1 .

Svolgimento. Determiniamo gli autovalori di 𝐴. Si ha:

⎛ 3−𝜆 −1 −1 ⎞ ⎛ 4−𝜆 −1 −1 ⎞
det(𝐴 − 𝜆1) = det 𝑡 − 1 𝑡 + 3 − 𝜆
⎜ 𝑡 +1 ⎟ = det ⎜ −4 + 𝜆 𝑡 + 3 − 𝜆 𝑡 +1 ⎟=
⎜ ⎟ ⎜ ⎟
⎝ −𝑡 −𝑡 2−𝑡 −𝜆 ⎠ ⎝ 0 −𝑡 2−𝑡 −𝜆 ⎠

⎛ 4−𝜆 −1 −1 ⎞
= det ⎜ 0 𝑡 +2−𝜆 𝑡 ⎟ = (4 − 𝜆)det 𝑡 + 2 − 𝜆 𝑡
= (4 − 𝜆)(𝜆 − 2)2
⎜ ⎟ ( −𝑡 2−𝑡 −𝜆 )
⎝ 0 −𝑡 2−𝑡 −𝜆 ⎠
dove, nel primo passaggio abbiamo sottratto alla prima colonna la seconda, mentre, nel secondo,
abbiamo sommato alla seconda riga la prima.
Le soluzioni di det(𝐴 − 𝜆1) = 0 sono 𝜆1 = 2 (con molteplicità algebrica 2) e 𝜆2 = 4 (con
molteplicità algebrica 1). Poiché gli autovalori non sono tutti distinti, non possiamo concludere
immediatamente se 𝐴 è diagonalizzabile o meno: bisogna determinare gli autovettori.
Calcoliamo gli autovettori relativi all’autovalore 𝜆1 = 2, ovverosia le soluzioni del sistema


⎛ 1 −1 −1 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎪𝑥1 − 𝑥2 − 𝑥3 = 0
⎜ 𝑡 − 1 𝑡 + 1 𝑡 + 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⎪
⇒ ⎨(𝑡 − 1)𝑥1 + (𝑡 + 1)𝑥2 + (𝑡 + 1)𝑥3 = 0
⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎪

⎝ −𝑡 −𝑡 −𝑡 ⎠ ⎝𝑥3 ⎠ ⎝0⎠ ⎪
⎩−𝑡𝑥1 − 𝑡𝑥2 − 𝑡𝑥3 = 0
124 LEZIONE 26. DIAGONALIZZAZIONE DI MATRICI


⎪ ⎧

⎪ 𝑥1 = 𝑥2 + 𝑥3 ⎪ 𝑥1 = 𝑥2 + 𝑥3
⎪ ⎪
⎨ 2𝑡𝑥2 + 2𝑡𝑥3 = 0 ⎨ 2𝑡𝑥2 + 2𝑡𝑥3 = 0

⎪ ⎪


⎩−2𝑡𝑥2 − 2𝑡𝑥3 = 0 ⎪ ⎩0 = 0
Se 𝑡 ≠ 0, la dimensione dell’autospazio relativo a 𝜆1 = 2 è 1, quindi la molteplicità geometrica di
𝜆1 è minore della molteplicità algebrica e la matrice non è diagonalizzabile.
Se 𝑡 = 0, le soluzioni del sistema sono date da 𝑥1 = 𝑥2 + 𝑥3 , quindi l’autospazio relativo a 𝜆1 ha
dimensione 2 e molteplicità algebrica e geometrica coincidono. Una base di questo autospazio
è data dai vettori 𝑣1 = (1, 1, 0) e 𝑣2 = (1, 0, 1). Poiché 𝜆2 = 4 ha molteplicità algebrica 1 e quindi
anche molteplicità geometrica 1, concludiamo che 𝐴 è diagonalizzabile solo per 𝑡 = 0.
Calcoliamo l’autospazio relativo a 𝜆2 = 4 con 𝑡 = 0.


⎛ −1 −1 −1 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎪ −𝑥1 − 𝑥2 − 𝑥3 = 0
⎜ −1 −1 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⎪
⇒ ⎨ −𝑥1 − 𝑥2 + 𝑥3 = 0
⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎪

⎝ 0 0 −2 ⎠ ⎝𝑥3 ⎠ ⎝0⎠ ⎪
⎩−2𝑥3 = 0
che ha come soluzione 𝑥3 = 0 e 𝑥1 = −𝑥2 . Una base dell’autospazio è (−1, 1, 0).
In conclusione, 𝐴 è diagonalizzabile solo se 𝑡 = 0, nel qual caso le matrici 𝐷 e 𝑃 sono

⎛ 2 0 0 ⎞ ⎛ 1 1 −1 ⎞
𝐷=⎜ 0 2 0 ⎟ 𝑃 =⎜ 1 0 1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 4 ⎠ ⎝ 0 1 0 ⎠

26.2 Autovalori di una Matrice Simmetrica


Definizione 26.1. Una matrice 𝐴 è simmetrica se 𝐴𝑇 = 𝐴.

Esempio 26.1.

Un esempio di matrice simmetrica è

⎛ 3 1 4 ⎞
𝐴 = ⎜ 1 −2 5 ⎟ = 𝐴𝑇
⎜ ⎟
⎝ 4 5 −1 ⎠
Definizione 26.2. Una matrice 𝐴 è antisimmetrica se 𝐴𝑇 = −𝐴.

Esempio 26.2.

Un esempio di matrice antisimmetrica è

⎛ 0 3 −2 ⎞ ⎛ 0 −3 2 ⎞
𝐵 = ⎜ −3 0 8 ⎟ 𝐵 = ⎜ 3 0 −8 ⎟ = −𝐵
𝑇
⎜ ⎟ ⎜ ⎟
⎝ 2 −8 0 ⎠ ⎝ −2 8 0 ⎠
Teorema 26.3. Sia 𝐴 una matrice simmetrica di ordine 𝑛, a coefficienti reali. Allora 𝐴 possiede
esattamente 𝑛 autovalori reali (eventualmente non tutti distinti).
26.2. AUTOVALORI DI UNA MATRICE SIMMETRICA 125

Dimostrazione. Poiché 𝐴 è a coefficienti reali, allora l’equazione caratteristica det(𝐴 − 𝜆𝐼 ) = 0 ha


sicuramente 𝑛 soluzioni (zeri) nel campo ℂ. Siano 𝜆1 , 𝜆2 , … , 𝜆𝑛 ∈ ℂ gli autovalori di 𝐴.
Consideriamo uno degli autovalori 𝜆. Sia 𝑣 un autovettore di 𝜆. Sappiamo, per definizione,
che
𝐴𝑣 = 𝜆𝑣
Considerando il complesso coniugato (𝑎 + 𝑖𝑏 = 𝑎 − 𝑖𝑏), abbiamo

𝐴𝑣 = 𝜆𝑣

che, per le proprietà dei complessi coniugati, equivale a

𝐴𝑣 = 𝜆𝑣

ma, poiché 𝐴 = 𝐴, perché 𝐴 è reale, si ottiene

𝐴𝑣 = 𝜆𝑣 (26.1)

Consideriamo nuovamente 𝐴𝑣 = 𝜆𝑣 e consideriamo la trasposta, abbiamo

(𝐴𝑣)𝑇 = (𝜆𝑣)𝑇 ⇝ 𝑣 𝑇 𝐴𝑇 = 𝜆𝑣 𝑇

perché 𝜆𝑇 = 𝜆 (essendo un numero). Sapendo che 𝐴 è simmetrica, si deduce che

𝑣 𝑇 𝐴 = 𝜆𝑣 𝑇 (26.2)

Mettiamo insieme (26.1) e (26.2)

𝑣 𝑇 𝐴𝑣 = 𝜆𝑣 𝑇 𝑣 ⇝ 𝑣 𝑇 (𝐴𝑣) = 𝑣 𝑇 𝜆𝑣 = 𝜆𝑣 𝑇 𝑣

da cui otteniamo
𝜆𝑣 𝑇 𝑣 = 𝜆𝑣 𝑇 𝑣
quindi
(𝜆 − 𝜆)𝑣 𝑇 𝑣 = 0 (26.3)
Osserviamo che 𝑣 𝑇 𝑣 > 0. Infatti sia

⎛𝑧1 ⎞
⎜𝑧 ⎟
𝑣 = ⎜ 2⎟ con 𝑧1 , 𝑧2 , … , 𝑧𝑛 ∈ ℂ
⎜⋮⎟
⎝𝑧𝑛 ⎠
Abbiamo

⎛𝑧 1 ⎞
⎜𝑧 ⎟
𝑣 𝑇 𝑣 = (𝑧1 , 𝑧2 , … , 𝑧𝑛 ) ⎜ 2 ⎟ = 𝑧1 𝑧 1 + 𝑧2 𝑧 2 + … 𝑧𝑛 𝑧 𝑛 = |𝑧1 |2 + |𝑧2 |2 + … + |𝑧𝑛 |2 > 0
⎜⋮⎟
⎝𝑧 𝑛 ⎠
poiché somma di quadrati di numeri reali (infatti per ogni numero complesso, abbiamo (𝑎+𝑖𝑏)(𝑎−
𝑖𝑏) = 𝑎2 + 𝑏 2 ).
Dato che 𝑣 𝑇 𝑣 > 0, allora da (26.3), 𝜆 − 𝜆 = 0. Quindi 𝜆 = 𝜆, che è vero solo se 𝜆 ∈ ℝ. Possiamo
concludere che tutti gli autovalori di 𝐴 sono numeri reali. ■
Lezione 27

Esponenziale di una Matrice

Obiettivi:

• Definire l’esponenziale di una matrice

• Calcolare l’esponenziale di una matrice diagonalizzabile

Abbiamo una matrice quadrata 𝐴 di ordine 𝑛 e vogliamo definire la relativa matrice esponen-
ziale 𝑒 𝐴 . Ricordiamo lo sviluppo in serie di potenze (di Taylor) per definire l’esponenziale di un
numero reale
𝑥2 𝑥3 𝑥𝑛
𝑒𝑥 = 1 + 𝑥 + + +…+ +… 𝑥∈ℝ
2! 3! 𝑛!
In questa formula, compaiono solamente operazioni che possiamo fare tra matrici (es. somme,
prodotti, ecc). Perciò sostituiamo il numero reale 𝑥 con una matrice 𝐴 e otteniamo

𝐴2 𝐴3 𝐴𝑛
𝑒𝐴 = 𝐼 + 𝐴 + + +…+ +… 𝐴 matrice quadrata
2! 3! 𝑛!
che è una serie infinita, perciò bisogna dimostrare che la serie converge - ma non ce ne occupiamo
in questo corso.
Assumiamo che 𝐴 sia una matrice diagonale

⎛ 𝜆1 0 0 … ⎞
⎜ 0 𝜆2 0 … ⎟
𝐴=𝐷=⎜
⎜ ⋮ … ⋱ … ⎟⎟
⎝ 0 … 𝜆𝑛 ⎠

Allora

⎛ 𝜆12 0 0 … ⎞ ⎛ 𝜆13 0 0 … ⎞ ⎛ 𝑒 𝜆1 0 0 … ⎞
2 ⎜ 0 𝜆22 0 … ⎟ 3 ⎜ 0 𝜆23 0 … ⎟ 𝐷 ⎜ 0 𝑒 𝜆2 0 … ⎟
𝐷 =⎜ 𝐷 =⎜ ⇒ 𝑒 =⎜
⎜ ⋮ … ⋱ … ⎟⎟ ⎜ ⋮ … ⋱ … ⎟⎟ ⎜ ⋮ … ⋱ … ⎟

⎝ 0 … 𝜆𝑛2 ⎠ ⎝ 0 … 𝜆𝑛3 ⎠ ⎝ 0 … 𝑒 𝜆𝑛 ⎠
Se la matrice 𝐴 non è diagonale, possiamo sperare che sia diagonalizzabile, quindi che esista
un cambiamento di base che consenta di trasformare la matrice 𝐴 non diagonale in una matrice
diagonale 𝐷 tale che
𝐴𝑆 = 𝑆𝐷 ⇒ 𝐴 = 𝑆𝐷𝑆 −1

126
127

dove 𝐷 è la matrice diagonale contenente gli autovalori di 𝐴 nella diagonale principale e 𝑆 è la


matrice le cui colonne sono gli autovettori di 𝐴 (nell’ordine corretto).
Da 𝐴 = 𝑆𝐷𝑆 −1 , deduciamo che

𝐴2 = 𝐴𝐴 = 𝑆𝐷𝑆 −1 𝑆𝐷𝑆 −1 = 𝑆𝐷𝐷𝑆 −1 = 𝑆𝐷 2 𝑆 −1

𝐴3 = 𝐴𝐴𝐴 = 𝑆𝐷𝑆 −1 𝑆𝐷𝑆 −1 𝑆𝐷𝑆 −1 = 𝑆𝐷𝐷𝐷𝑆 −1 = 𝑆𝐷 3 𝑆 −1


quindi, in generale
𝐴𝑟 = 𝑆𝐷 𝑟 𝑆 −1
Si ottiene
𝐴2 𝐴3 𝐴4
𝑒𝐴 = 𝐼 + 𝐴 + + + +…=
2! 3! 4!
𝑆𝐷 2 𝑆 −1 𝑆𝐷 3 𝑆 −1 𝑆𝐷 4 𝑆 −1
= 𝑆𝐼 𝑆 −1 + 𝑆𝐷𝑆 −1 + + + +…=
2! 3! 4!
𝐷2 𝐷3 𝐷4
= 𝑆(𝐼 + 𝐷 + + + + …)𝑆 −1
2! 3! 4!
= 𝑆𝑒 𝐷 𝑆 −1

Perciò abbiamo
⎛ 𝑒 𝜆1 0 0 … ⎞
𝐴 ⎜ 0 𝑒 𝜆2 0 … ⎟ −1
𝑒 =𝑆⎜ ⎟𝑆
⎜ ⋮ … ⋱ … ⎟
⎝ 0 … 𝑒 𝜆𝑛 ⎠
Questa formula funziona se 𝐴 è diagonalizzabile, quindi non copre tutti i casi. Tuttavia, negli
altri casi si può comunque arrivare a una forma “quasi diagonale” (che non vediamo in questo
corso).

Esercizio 27.1.

Si calcoli 𝐴𝑛 , per ogni intero 𝑛 ≥ 1, dove 𝐴 è la matrice


5
2
−1
𝐴=
( 3 −1 )

Svolgimento. Determiniamo gli autovalori di 𝐴:


5 3 1
−𝜆 −1
det(𝐴 − 𝜆1) = det 2 = 𝜆2 − 𝜆 + = 0
( 3 −1 − 𝜆 ) 2 2

le cui soluzioni sono 𝜆1 = 21 e 𝜆2 = 1. Dato che gli autovalori sono tutti distinti, 𝐴 è diagonalizza-
bile.
Determiniamo gli autovettori di 𝐴. Iniziamo con gli autovettori di 𝜆1 = 21 , che sono le soluzioni
di {
2 −1 𝑥1 0 2𝑥1 − 𝑥2 = 0
3 = ⇒
( 3 − 2 ) (𝑥2 ) (0) 3𝑥1 − 23 𝑥2 = 0
le cui soluzioni sono date da 𝑥2 = 2𝑥1 , quindi un autovettore relativo a 𝜆1 = 1
2
è 𝑣1 = (1, 2).
128 LEZIONE 27. ESPONENZIALE DI UNA MATRICE

Determiniamo gli autovettori di 𝜆2 = 1, che sono le soluzioni di


{
3 3
2
−1 𝑥 1 0 𝑥 − 𝑥2 = 0
2 1
= ⇒
( 3 −2 ) (𝑥2 ) (0) 3𝑥1 − 2𝑥2 = 0

le cui soluzioni sono date da 𝑥2 = 32 𝑥1 , quindi un autovettore relativo a 𝜆2 = 1 è 𝑣2 = (2, 3).


La matrice 𝐴 è diagonalizzabile e ponendo
1
2
0 1 2
𝐷= 𝑃=
( 0 1 ) ( 2 3 )

si ha 𝐴 = 𝑃𝐷𝑃 −1 . Poiché det(𝑃) = −1, possiamo calcolare 𝑃 −1 , che è

−3 2
𝑃 −1 =
( 2 −1 )

Ora possiamo calcolare 𝐴𝑛 come


1
1 2 0 −3 2
𝐴𝑛 = 𝑃𝐷 𝑛 𝑃 −1 = 2𝑛
𝑛 =
( 2 3 ) ( 0 1 ) ( 2 −1 )
1
2𝑛
2 −3 2 4 − 23𝑛 1
2𝑛−1
−2
= 1 = 3 1
( 2𝑛−1
3 ) ( 2 −1 ) ( 6 − 2𝑛−1 2𝑛−2
−3 )

Parte IV

Esercizi su Spazi Vettoriali, Funzioni


Lineari, Matrici, Determinanti,
Autovalori e Autovettori

129
Lezione 28

Esercizi

28.1 Esercizio (18 Luglio 2012)


Si consideri la funzione lineare 𝑓 ∶ ℝ4 → ℝ4 definita da

𝑓 (0, 1, 0, 0) = (0, 1, 0, 2)

𝑓 (0, 0, 0, 1) = (2, −1, −1, −3)


𝑓 (0, 0, 1, −1) = (8, 0, −4, −4)
𝑓 (1, 0, −1, 1) = (−6, 0, 3, 3)

1. Scrivere la matrice di 𝑓 rispetto alla base canonica del dominio e del codominio

2. Calcolare una base di Ker(𝑓 ) e una base di Im(𝑓 )

3. Dire se Ker(𝑓 ) e Im(𝑓 ) sono in somma diretta. Trovare una base di Ker(𝑓 ) ∩ Im(𝑓 )

4. Determinare un sottospazio 𝐿 ⊂ ℝ4 tale che (Ker(𝑓 ) + Im(𝑓 )) ⊕ 𝐿 = ℝ4 . Dire se tale 𝐿 è unico

Svolgimento.

1. Dobbiamo calcolare la funzione 𝑓 rispetto ai vettori della base canonica. Le immagini di


questi vettori rappresentano le colonne della matrice 𝐴. Conosciamo già 𝑓 (0, 1, 0, 0) =
(0, 1, 0, 2) e 𝑓 (0, 0, 0, 1) = (2, −1, −1, −3), ma non conosciamo 𝑓 (1, 0, 0, 0) e 𝑓 (0, 0, 1, 0). Sfrut-
tando la linearità della funzione 𝑓 , li possiamo calcolare come segue

𝑓 (1, 0, 0, 0) = 𝑓 (0, 0, 1, −1) + 𝑓 (1, 0, −1, 1) = (8, 0, −4, −4) + (−6, 0, 3, 3) = (2, 0, −1, −1)

𝑓 (0, 0, 1, 0) = 𝑓 (0, 0, 1, −1) + 𝑓 (0, 0, 0, 1) = (8, 0, −4, −4) + (2, −1, −1, −3) = (10, −1, −5, −7)
Perciò la matrice di 𝑓 rispetto alle basi canoniche è

⎛ 2 0 10 2 ⎞
⎜ 0 1 −1 −1 ⎟
𝐴=⎜
⎜ −1 0 −5 −1 ⎟⎟
⎝ −1 2 −7 −3 ⎠

130
28.1. ESERCIZIO (18 LUGLIO 2012) 131

2. Per calcolare il nucleo di 𝑓 consideriamo


⎛ 2 0 10 2 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ 0 1 −1 −1 ⎟ ⎜𝑥2 ⎟ ⎜0⎟
⎜ −1 0 −5 −1 ⎟ ⎜𝑥 ⎟ = ⎜0⎟
⎜ ⎟ ⎜ 3⎟ ⎜ ⎟
⎝ −1 2 −7 −3 ⎠ ⎝𝑥4 ⎠ ⎝0⎠
e risolviamo il corrispondente sistema di equazioni lineari in quattro incognite (per esem-
pio, col metodo della sostituzione o con riduzione in forma a scala tramite il metodo di
Gauss)

⎪ ⎧
⎪ ⎧
⎪2𝑥1 + 10𝑥3 + 2𝑥4 = 0 ⎪ 2𝑥1 + 10𝑥3 + 2𝑥4 = 0 ⎪
⎪ 0=0

⎪ ⎪
⎪ ⎪

⎪𝑥2 − 𝑥3 − 𝑥4 = 0 ⎪𝑥2 = 𝑥3 + 𝑥4 ⎪𝑥2 = 𝑥3 + 𝑥4

⎪ ⎨
⎪ ⎨

⎪−𝑥1 − 5𝑥3 − 𝑥4 = 0 ⎪ −𝑥1 − 5𝑥3 − 𝑥4 = 0 ⎪ 0=0

⎪ ⎪ ⎪
⎪−𝑥 + 2𝑥2 − 7𝑥3 − 3𝑥4 = 0 ⎪ ⎪ −𝑥 − 5𝑥3 − 𝑥4 = 0 ⎪
⎪ 𝑥 = −5𝑥3 − 𝑥4
⎩ 1 ⎩ 1 ⎩ 1
Il sistema ha infinite soluzioni per ogni 𝑥3 e ogni 𝑥4 , quindi dim Ker(𝑓 ) = 2.1 Per trovare
una base di Ker(𝑓 ) consideriamo prima 𝑥3 = 1 e 𝑥4 = 0 e poi 𝑥3 = 0 e 𝑥4 = 1. Otteniamo che
⎛−5⎞ ⎛−1⎞
⎜1⎟ ⎜1⎟
una base di Ker(𝑓 ) è data dai vettori ⎜ ⎟ e ⎜ ⎟.
⎜1⎟ ⎜0⎟
⎝0⎠ ⎝1⎠
Per determinare dim Im(𝑓 ), consideriamo la formula delle dimensioni
dim Ker(𝑓 ) + dim Im(𝑓 ) = dim ℝ4 ⇒ dim Im(𝑓 ) = dim ℝ4 − dim Ker(𝑓 ) = 4 − 2 = 2
Sappiamo che Im(𝑓 ) è generata dalle colonne della matrice 𝐴, che sono linearmente dipen-
denti poiché dim Im(𝑓 ) = 2. Le prime due colonne di 𝐴 sono linearmente indipendenti,
quindi sono una base di Im(𝑓 ).2

⎛−5⎞ ⎛−1⎞
⎜1⎟ ⎜1⎟
3. Nel punto precedente, abbiamo trovato che una base di Ker(𝑓 ) è ⎜ ⎟ e ⎜ ⎟ e una base di
⎜1⎟ ⎜0⎟
⎝0⎠ ⎝1⎠
⎛ 2 ⎞ ⎛0⎞
⎜ 0 ⎟ ⎜1⎟
Im(𝑓 ) è ⎜ ⎟ e ⎜ ⎟. Un vettore che appartiene a Ker(𝑓 ) ∩ Im(𝑓 ), per definizione, soddisfa
⎜−1⎟ ⎜0⎟
⎝−1⎠ ⎝2⎠
⎛−5⎞ ⎛−1⎞ ⎛2⎞ ⎛0⎞
⎜1⎟ ⎜1⎟ ⎜0⎟ ⎜1⎟
𝛼 1 ⎜ ⎟ + 𝛼 2 ⎜ ⎟ = 𝛽1 ⎜ ⎟ + 𝛽2 ⎜ ⎟
⎜1⎟ ⎜0⎟ ⎜−1⎟ ⎜0⎟
⎝0⎠ ⎝1⎠ ⎝−1⎠ ⎝2⎠
il cui sistema di equazioni lineari è

⎪ ⎧ ⎧ ⎧
⎪ −5𝛼1 − 𝛼2 = 2𝛽1 ⎪ ⎪ 5𝛽1 − 𝛼2 = 2𝛽1 ⎪ ⎪ 𝛼2 = 3𝛽1 ⎪
⎪ 𝛼2 = 3𝛽1

⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪𝛼1 + 𝛼2 = 𝛽2 ⎪−𝛽1 + 𝛼2 = 𝛽2 ⎪−𝛽1 + 3𝛽1 = 𝛽2 ⎪𝛽2 = 2𝛽1

⎪ ⎨
⎪ ⎨
⎪ ⎨

⎪ 𝛼1 = −𝛽1 ⎪ 𝛼1 = −𝛽1 ⎪ 𝛼1 = −𝛽1 ⎪ 𝛼1 = −𝛽1

⎪ ⎪
⎪ ⎪
⎪ ⎪

⎪ 𝛼 = −𝛽1 + 2𝛽2 ⎪ 𝛼 = −𝛽1 + 2𝛽2 ⎪3𝛽1 = −𝛽1 + 2𝛽2 ⎪ 0=0
⎩ 2 ⎩ 2 ⎩ ⎩
1
Si noti che 𝑥1 = −5𝑥3 − 𝑥4 e 𝑥2 = 𝑥3 + 𝑥4 sono le equazioni cartesiane di Ker(𝑓 )
2
Tuttavia, avremmo potuto prendere un qualsiasi sottoinsieme di due colonne linearmente indipendenti di 𝐴
132 LEZIONE 28. ESERCIZI

Il sistema ha infinite soluzioni ∀𝛽1 , perciò dim Ker(𝑓 ) ∩ Im(𝑓 ) = 1. Conseguentemente,


Ker(𝑓 ) e Im(𝑓 ) non sono in somma diretta.
Per trovare una base di dim Ker(𝑓 ) ∩ Im(𝑓 ), prendiamo una soluzione del sistema. Ponendo,
per esempio, 𝛽1 = 1, otteniamo la soluzione: 𝛽1 = 1, 𝛽2 = 2, 𝛼1 = −1, 𝛼2 = 3.3 Per trovare
una base di Ker(𝑓 ) ∩ Im(𝑓 ) osserviamo che

⎛−5⎞ ⎛−1⎞ ⎛−5⎞ ⎛−1⎞ ⎛ 2 ⎞


⎜1⎟ ⎜1⎟ ⎜1⎟ ⎜1⎟ ⎜2⎟
𝛼1 ⎜ ⎟ + 𝛼2 ⎜ ⎟ = −1 ⎜ ⎟ + 3 ⎜ ⎟ = ⎜ ⎟ ∈ Ker(𝑓 )
⎜1⎟ ⎜0⎟ ⎜1⎟ ⎜ 0 ⎟ ⎜−1⎟
0
⎝ ⎠ 1
⎝ ⎠ 0
⎝ ⎠ ⎝1⎠ ⎝3⎠
e
⎛2⎞ ⎛0⎞ ⎛2⎞ ⎛0⎞ ⎛ 2 ⎞
⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜1⎟ ⎜ 2 ⎟
𝛽1 ⎜ ⎟ + 𝛽2 ⎜ ⎟ = 1 ⎜ ⎟ + 2 ⎜ ⎟ = ⎜ ⎟ ∈ Im(𝑓 )
−1
⎜ ⎟ 0
⎜ ⎟ −1
⎜ ⎟ ⎜0⎟ ⎜−1⎟
⎝−1⎠ ⎝2⎠ ⎝−1⎠ ⎝2⎠ ⎝ 3 ⎠

⎛2⎞
⎜2⎟
Quindi ⎜ ⎟ è una base di Ker(𝑓 ) ∩ Im(𝑓 ).4
⎜−1⎟
⎝3⎠
4. Sappiamo che

dim (Ker(𝑓 ) + Im(𝑓 )) = dim Ker(𝑓 ) + dim Im(𝑓 ) − dim (Ker(𝑓 ) ∩ Im(𝑓 )) = 2 + 2 − 1 = 3

e che una base di Ker(𝑓 ) + Im(𝑓 ) è data da tre vettori linearmente indipendenti tra i quattro
vettori dati dalla base di Ker(𝑓 ) più la base di Im(𝑓 ), che complessivamente sono generatori
di Ker(𝑓 ) + Im(𝑓 )
⎛−5⎞ ⎛−1⎞ ⎛2⎞ ⎛0⎞
⎜1⎟ ⎜1⎟ ⎜0⎟ ⎜1⎟
⎜ 1 ⎟ , ⎜ 0 ⎟ , ⎜−1⎟ , ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝1⎠ ⎝−1⎠ ⎝2⎠
scegliamo arbitrariamente di eliminare il primo vettore e verifichiamo che i tre vettori ri-
manenti sono linearmente indipendenti. Verifichiamo ciò calcolando il rango della relativa
matrice

⎛ −1 1 0 1 ⎞ ⎛ 1 −1 0 1 ⎞ ⎛ 1 −1 0 1 ⎞ ⎛ 1 0 −1 1 ⎞
⎜ 2 0 −1 −1 ⎟ ⇝ ⎜ 0 2 −1 −1 ⎟ ⇝ ⎜ 0 2 −1 −1 ⎟ ⇝ ⎜ 0 −1 2 −1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 1 0 2 ⎠ ⎝ 1 0 0 2 ⎠ ⎝ 0 1 0 1 ⎠ ⎝ 0 0 1 1 ⎠
che ha rango uguale a 3. Ciò implica che i tre vettori rimasti sono una base di Ker(𝑓 )+Im(𝑓 ).
Quindi dim 𝐿 = 1, perché dim (Ker(𝑓 ) + Im(𝑓 )) = 3 e dim ℝ4 = 4. Per trovare una base di
𝐿 è necessario trovare un vettore linearmente indipendente rispetto ai vettori della base di
Ker(𝑓 ) + Im(𝑓 ) e che questi globalmente siano una base di ℝ4 . Scegliamo, per esempio, il
3
Errore da NON fare: dati i valori di 𝛼1 , 𝛼2 , 𝛽1 e 𝛽2 , una base di Ker(𝑓 ) ∩ Im(𝑓 ) è (𝛼1 , 𝛼2 , 𝛽1 , 𝛽2 ) = (−1, 3, 1, 2) - è
sbagliato!
4
Avremmo potuto trovare una base di Ker(𝑓 ) ∩ Im(𝑓 ) anche mettendo a sistema le equazioni cartesiane di Ker(𝑓 )
(già calcolate al punto b) e le due equazioni cartesiane di Im(𝑓 ) (da calcolare: 𝑥4 = − 12 𝑥1 + 2𝑥2 e 𝑥3 = − 21 𝑥1 )
28.2. ESERCIZIO (11 LUGLIO 2011) 133

vettore (0, 0, 0, 1). Verifichiamo, ora, di aver ottenuto una base di ℝ4 riducendo in forma a
scala la seguente matrice
⎛ −1 1 0 1 ⎞
⎜ 2 0 −1 −1 ⎟
⎜ 0 1 0 2 ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠
il cui rango è 4. Tuttavia, avremmo potuto scegliere infiniti vettori al posto di (0, 0, 0, 1),
per esempio (1, 0, 0, 0), (0, 1, 0, 0), ecc. Conseguentemente, 𝐿 non è unico.

28.2 Esercizio (11 Luglio 2011)


1. Determinare un endomorfismo5 𝑓 ∶ ℝ3 → ℝ3 che abbia

⎛1⎞ ⎛ 0 ⎞ ⎛2⎞
Ker(𝑓 ) = ⟨ ⎜1⎟ ⟩ e Im(𝑓 ) = ⟨ ⎜ 1 ⎟ , ⎜1⎟ ⟩
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝−1⎠ ⎝2⎠
Scrivere la matrice di 𝑓 rispetto alla base canonica. 𝑓 è unica?
Cerchiamo una matrice 𝐴
⎛ 𝑎11 𝑎12 𝑎13 ⎞
⎜ 𝑎21 𝑎22 𝑎23 ⎟
⎜ ⎟
⎝ 𝑎31 𝑎32 𝑎33 ⎠
tale che
⎛1⎞ ⎛0⎞
𝐴 ⎜1⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠
perché (1, 1, 0) ∈ Ker(𝑓 ) (e sappiamo che dim Ker(𝑓 ) = 1). Allora ne deduciamo che

⎛1⎞ ⎛𝑎11 + 𝑎12 ⎞ ⎛0⎞


𝐴 ⎜1⎟ = ⎜𝑎21 + 𝑎22 ⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝𝑎31 + 𝑎32 ⎠ ⎝0⎠
da cui ricaviamo che 𝑎11 = −𝑎12 , 𝑎21 = −𝑎22 e 𝑎31 = −𝑎32 , ovverosia la prima colonna
è l’opposto della seconda colonna. Dobbiamo, quindi, determinare due colonne di 𝐴 (ad
esempio la seconda e la terza colonna). Sappiamo che Im(𝑓 ) è generata dalle colonne di 𝐴.
Perciò la matrice 𝐴 è
⎛ 0 0 2 ⎞
⎜ −1 1 1 ⎟
⎜ ⎟
⎝ 1 −1 2 ⎠
oppure un’altra matrice che va bene è

⎛ −2 2 0 ⎞
⎜ −1 1 1 ⎟
⎜ ⎟
⎝ −2 2 −1 ⎠
che dimostra che 𝑓 non è unica.
5
Un endomorfismo è un omomorfismo di uno spazio vettoriale in sé, per cui il dominio e il codominio coincidono
134 LEZIONE 28. ESERCIZI

⎛1⎞ ⎛2⎞
2. Per la funzione trovata, si determini l’antiimmagine dei vettori ⎜1⎟ e ⎜2⎟.
⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝1⎠
⎛𝑥 ⎞ ⎛1⎞ ⎛1⎞ ⎛𝑥 ⎞
Per definizione, abbiamo che le soluzioni di 𝐴 ⎜𝑦 ⎟ = ⎜1⎟ sono 𝑓 −1 ⎜1⎟ e le soluzioni di 𝐴 ⎜𝑦 ⎟ =
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑧 ⎠ ⎝1⎠ ⎝1⎠ ⎝𝑧 ⎠
⎛2⎞ ⎛2⎞
⎜2⎟ sono 𝑓 −1 ⎜2⎟. Considerando il vettore (1, 1, 1) abbiamo
⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝1⎠

⎛𝑥 ⎞ ⎛ 0 0 2 ⎞ ⎛𝑥 ⎞ ⎛ 2𝑧 ⎞ ⎛1⎞
𝐴 ⎜𝑦 ⎟ = ⎜ −1 1 1 ⎟ ⎜𝑦 ⎟ = ⎜−𝑥 + 𝑦 + 𝑧 ⎟ = ⎜1⎟
⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 𝑧 ⎠ ⎝ 1 −1 2 ⎠ ⎝ 𝑧 ⎠ ⎝ 𝑥 − 𝑦 + 2𝑧 ⎠ ⎝1⎠
le cui soluzioni corrispondono alle soluzioni del seguente sistema
⎧ ⎧ ⎧

⎪2𝑧 = 1 ⎪
⎪𝑧 = 21 ⎪
⎪ 𝑧 = 21
⎪ ⎪ ⎪
⎨−𝑥 + 𝑦 + 𝑧 = 1 ⎨ −𝑥 + 𝑦 = 12 ⎨ 0 = 12

⎪ ⎪
⎪ ⎪


⎩𝑥 − 𝑦 + 2𝑧 = 1 ⎪
⎩𝑥 − 𝑦 = 0 ⎪
⎩𝑥 = 𝑦
Il sistema non ha soluzione, quindi l’antiimmagine del vettore (1, 1, 1) è l’insieme vuoto.6
Consideriamo il vettore (2, 2, 1), abbiamo

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 2𝑧 = 2 ⎪𝑧=1 ⎪ 𝑧=1 ⎪𝑧=1
⎪ ⎪ ⎪ ⎪
⎨ −𝑥 + 𝑦 + 𝑧 = 2 ⎨−𝑥 + 𝑦 = 1 ⎨ −𝑦 + 1 + 𝑦 = 1 ⎨0=0

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩𝑥 − 𝑦 + 2𝑧 = 1 ⎪
⎩𝑥 − 𝑦 = −1 ⎪
⎩𝑥 = 𝑦 − 1 ⎪
⎩𝑥 = 𝑦 − 1
Il sistema ammette infinite soluzioni del tipo (𝑎 − 1, 𝑎, 1) che dipendono da un parametro
⎛2⎞ ⎛−1⎞ ⎛1⎞ ⎛1⎞
𝑎 ∈ ℝ. Quindi 𝑓 2 = 0 + 𝑎 1 ; infatti Ker(𝑓 ) = ⟨ ⎜1⎟ ⟩
−1 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝ 1 ⎠ ⎝0⎠ ⎝0⎠

6
In alternativa avremmo anche potuto calcolare il rango della matrice completa o avremmo potuto verificare
che il vettore (1, 1, 1) non si può ottenere come combinazione lineare dei vettori di una base di Im(𝑓 ), quindi non
appartiene a Im(𝑓 )
Lezione 29

Esercizi

29.1 Esercizio (12 Settembre 2012)


Si consideri una funzione lineare 𝑓 ∶ ℝ3 → ℝ3 con le seguenti proprietà:

1. il polinomio caratteristico di 𝑓 è 𝜆2 (𝜆 − 2)

2. il vettore 𝑣1 = (1, −1, 2) è una base di Ker(𝑓 )

3. 𝑣2 = (0, 2, −1) è il generatore dell’autospazio relativo all’unico autovalore non nullo di 𝑓

4. 𝑓 (𝑣3 ) = 𝑣1 , dove 𝑣3 = (1, 0, 2)

a) Si scriva la matrice 𝐴 di 𝑓 relativa alla base {𝑣1 , 𝑣2 , 𝑣3 } usata sia per il dominio che per il
codominio

Svolgimento. Per la proprietà 1, deduciamo che gli autovalori di 𝑓 sono 𝜆1 = 0 (con molteplicità
algebrica 2) e 𝜆2 = 2 (con molteplicità algebrica 1).
Per la proprietà 2, possiamo dire che dim Ker(𝑓 ) = 1 e 𝑓 (𝑣1 ) = 0, perché 𝑣1 ∈ Ker(𝑓 ). Ciò
implica che 𝑓 (𝑣1 ) = 0 = 0 ⋅ 𝑣1 , ovverosia 𝑓 (𝑣1 ) = 𝜆1 𝑣1 (con 𝜆1 = 0), quindi i vettori del nucleo
di 𝑓 sono precisamente gli autovettori relativi all’autovalore 𝜆1 = 0.
Dalla proprietà 3, deduciamo che 𝑣2 è autovettore relativo a 𝜆2 = 2, ciò significa che 𝑓 (𝑣2 ) =
2𝑣2 .
Quindi sappiamo che 𝑓 (𝑣1 ) = 0, 𝑓 (𝑣2 ) = 2𝑣2 , 𝑓 (𝑣3 ) = 𝑣1 . Possiamo facilmente verificare che 𝑣1 ,
𝑣2 e 𝑣3 sono linearmente indipendenti, quindi rappresentano una base di ℝ3 . Conseguente-
mente possiamo determinare le immagini, tramite 𝑓 , dei vettori di tale base rispetto alla base
stessa usata per il codominio di 𝑓 :

⎛1⎞ ⎛0⎞ ⎛1⎞


𝑓 (𝑣1 ) = 0 = 𝑎11 𝑣1 + 𝑎21 𝑣2 + 𝑎31 𝑣3 = 𝑎11 ⎜−1⎟ + 𝑎21 ⎜ 2 ⎟ + 𝑎31 ⎜0⎟ ⇒ 𝑎11 = 𝑎21 = 𝑎31 = 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝−1⎠ ⎝2⎠

⎛0⎞ ⎛1⎞ ⎛0⎞ ⎛1⎞


𝑓 (𝑣2 ) = 2𝑣2 = 2 2 = 𝑎12 −1 + 𝑎22 2 + 𝑎32 ⎜0⎟ ⇒ 𝑎12 = 𝑎32 = 0, 𝑎22 = 2
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝−1⎠ ⎝2⎠ ⎝−1⎠ ⎝2⎠

135
136 LEZIONE 29. ESERCIZI

⎛1⎞ ⎛1⎞ ⎛0⎞ ⎛1⎞


⎜ ⎟ ⎜ ⎟ ⎜ ⎟
𝑓 (𝑣3 ) = 𝑣1 = −1 = 𝑎13 −1 + 𝑎23 2 + 𝑎33 ⎜0⎟ ⇒ 𝑎13 = 1, 𝑎23 = 𝑎33 = 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝2⎠ ⎝−1⎠ ⎝2⎠
Allora
⎛ 0 0 1 ⎞
𝐴=⎜ 0 2 0 ⎟
⎜ ⎟
⎝ 0 0 0 ⎠

b) Si scriva la matrice 𝐵 di 𝑓 rispetto alle basi canoniche (usate sia per il dominio che per il
codominio)

Svolgimento. Sappiamo che


⎛1⎞ ⎛0⎞ ⎛0⎞ ⎛0⎞ ⎛1⎞ ⎛1⎞
⎜ ⎟
𝑣1 = −1 , 𝑓 (𝑣1 ) = ⎜0⎟ ⎜ ⎟
𝑣2 = 2 , 𝑓 (𝑣2 ) = 2𝑣2 = ⎜ 4 ⎟ ⎜ ⎟
𝑣3 = 0 , 𝑓 (𝑣3 ) = 𝑣1 = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝2⎠ ⎝0⎠ ⎝−1⎠ ⎝−2⎠ ⎝2⎠ ⎝2⎠
e dobbiamo calcolare 𝑓 (𝑒1 ), 𝑓 (𝑒2 ), 𝑓 (𝑒3 )
Metodo 1:

• Consideriamo 𝑒1 e calcoliamo 𝑓 (𝑒1 )


⎛1⎞ ⎛1⎞ ⎛0⎞ ⎛1⎞
⎜0⎟ = 𝛼1 ⎜−1⎟ + 𝛼2 ⎜ 2 ⎟ + 𝛼3 ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝−1⎠ ⎝2⎠
da cui ricaviamo il sistema

⎪ ⎧
⎪ ⎧

⎪ 𝛼1 + 𝛼3 = 1 ⎪ 𝛼1 = 1 − 𝛼3 ⎪ 𝛼1 = 4
⎪ ⎪ ⎪
⎨ −𝛼1 + 2𝛼2 = 0 ⎨ −1 + 𝛼3 + 2𝛼2 = 0 ⎨ 𝛼3 = −3

⎪ ⎪
⎪ ⎪


⎩2𝛼1 − 𝛼2 + 2𝛼3 = 0 ⎪ ⎩2 − 2𝛼3 − 𝛼2 + 2𝛼3 = 0 ⎪ ⎩𝛼2 = 2
Allora
⎛1⎞ ⎛0⎞ ⎛0⎞ ⎛ 1 ⎞ ⎛ −3 ⎞
𝑓 0 = 𝛼1 𝑓 (𝑣1 ) + 𝛼2 𝑓 (𝑣2 ) + 𝛼3 𝑓 (𝑣3 ) = 4 0 + 2 4 − 3 ⎜−1⎟ = ⎜ 11 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝−2⎠ ⎝ 2 ⎠ ⎝−10⎠
• Consideriamo 𝑒2 e calcoliamo 𝑓 (𝑒2 )
⎛0⎞ ⎛1⎞ ⎛0⎞ ⎛1⎞
⎜1⎟ = 𝛼1 ⎜−1⎟ + 𝛼2 ⎜ 2 ⎟ + 𝛼3 ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝−1⎠ ⎝2⎠
da cui ricaviamo il sistema

⎪ ⎧
⎪ ⎧

⎪ 𝛼1 + 𝛼3 = 0 ⎪ 𝛼1 = −𝛼3 ⎪ 𝛼1 = −1
⎪ ⎪ ⎪
⎨ −𝛼1 + 2𝛼2 = 1 ⎨ 𝛼3 + 2𝛼2 = 1 ⎨ 𝛼3 = 1

⎪ ⎪
⎪ ⎪


⎩2𝛼1 − 𝛼2 + 2𝛼3 = 0 ⎪ ⎩−2𝛼3 − 𝛼2 + 2𝛼3 = 0 ⎪ ⎩𝛼2 = 0
Allora
⎛0⎞ ⎛0⎞ ⎛0⎞ ⎛1⎞ ⎛1⎞
𝑓 1 = 𝛼1 𝑓 (𝑣1 ) + 𝛼2 𝑓 (𝑣2 ) + 𝛼3 𝑓 (𝑣3 ) = − 0 + 0 ⎜ 4 ⎟ + ⎜−1⎟ = ⎜−1⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝−2⎠ ⎝ 2 ⎠ ⎝ 2 ⎠
29.1. ESERCIZIO (12 SETTEMBRE 2012) 137

• Consideriamo 𝑒3 e calcoliamo 𝑓 (𝑒3 )

⎛0⎞ ⎛1⎞ ⎛0⎞ ⎛1⎞


⎜0⎟ = 𝛼1 ⎜−1⎟ + 𝛼2 ⎜ 2 ⎟ + 𝛼3 ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝2⎠ ⎝−1⎠ ⎝2⎠
da cui ricaviamo il sistema

⎪ ⎧
⎪ ⎧

⎪𝛼1 + 𝛼3 = 0 ⎪𝛼1 = −𝛼3 ⎪ 𝛼1 = −2
⎪ ⎪ ⎪
⎨−𝛼1 + 2𝛼2 = 0 ⎨𝛼3 + 2𝛼2 = 0 ⎨ 𝛼3 = 2

⎪ ⎪
⎪ ⎪


⎩2𝛼1 − 𝛼2 + 2𝛼3 = 1 ⎪
⎩−2𝛼3 − 𝛼2 + 2𝛼3 = 1 ⎪
⎩𝛼2 = −1
Allora
⎛0⎞ ⎛0⎞ ⎛0⎞ ⎛1⎞ ⎛2⎞
𝑓 ⎜0⎟ = 𝛼1 𝑓 (𝑣1 ) + 𝛼2 𝑓 (𝑣2 ) + 𝛼3 𝑓 (𝑣3 ) = −2 ⎜0⎟ − 1 ⎜ 4 ⎟ + 2 ⎜−1⎟ = ⎜−6⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝0⎠ ⎝−2⎠ ⎝2⎠ ⎝6⎠

Allora
⎛ −3 1 2 ⎞
𝐵 = ⎜ 11 −1 −6 ⎟
⎜ ⎟
⎝ −10 2 6 ⎠

Metodo 2: Oppure, potremmo calcolare 𝐵 usando le formule di cambiamento di base

𝐵𝑃 = 𝑃𝐴 ⇒ 𝐵 = 𝑃𝐴𝑃 −1

dove 𝐵 è la matrice di 𝑓 rispetto alle basi canoniche, 𝐴 è la matrice di 𝑓 rispetto alla base
𝑣 = {𝑣1 , 𝑣2 , 𝑣3 } (sia per il dominio che per il codominio), e 𝑃 è la matrice di cambiamento di
base (𝑃 = 𝑀𝑣𝑒 (𝑖𝑑)), che è la matrice 3 × 3 avente per colonne i vettori 𝑣1 , 𝑣2 e 𝑣3

⎛ 1 0 1 ⎞
𝑃 = ⎜ −1 2 0 ⎟
⎜ ⎟
⎝ 2 −1 2 ⎠

Poiché le matrici 𝐴 e 𝑃 sono note, dobbiamo calcolare 𝑃 −1

⎛ 1 0 1 1 0 0 ⎞ ⎛ 1 0 1 1 0 0 ⎞ ⎛ 1 0 1 1 0 0 ⎞
⎜ −1 2 0 0 1 0 ⎟ ⇝ ⎜ 0 2 1 1 1 0 ⎟ ⇝ ⎜ 0 1 0 2 0 −1 ⎟ ⇝
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 2 −1 2 0 0 1 ⎠ ⎝ 0 −1 0 −2 0 1 ⎠ ⎝ 0 2 1 1 1 0 ⎠

⎛ 1 0 1 1 0 0 ⎞ ⎛ 1 0 0 4 −1 −2 ⎞
⇝ ⎜ 0 1 0 2 0 −1 ⎟ ⇝ ⎜ 0 1 0 2 0 −1 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 1 −3 1 2 ⎠ ⎝ 0 0 1 −3 1 2 ⎠
⎛ 1 0 1 ⎞ ⎛ 0 0 1 ⎞ ⎛ 4 −1 −2 ⎞ ⎛ −3 1 2 ⎞
𝐵 = 𝑃𝐴𝑃 −1 = ⎜ −1 2 0 ⎟ ⎜ 0 2 0 ⎟ ⎜ 2 0 −1 ⎟ = ⎜ 11 −1 −6 ⎟
⎜ ⎟⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 2 −1 2 ⎠ ⎝ 0 0 0 ⎠ ⎝ −3 1 2 ⎠ ⎝ −10 2 6 ⎠

138 LEZIONE 29. ESERCIZI

c) Dire se la matrice 𝐵 è diagonalizzabile

Svolgimento. Sappiamo che 𝐴 e 𝐵 sono simili, perciò gli autovalori di 𝐵 sono gli stessi della
matrice 𝐴. Gli autovalori di 𝐵 sono 0 (con molteplicità algebrica 2) e 2 (con molteplicità al-
gebrica 1). L’autospazio relativo all’autovalore 0 è tale per cui 𝑓 (𝑣) = 𝜆𝑣 = 0𝑣 = 0, quindi
l’autospazio relativo all’autovalore 𝜆 = 0 è il nucleo di 𝑓 . Sappiamo che dim Ker(𝑓 ) = 1, che
corrisponde alla molteplicità geometrica dell’autovalore. Poiché la molteplicità geometrica
dell’autovalore 𝜆 = 0 è strettamente minore della sua molteplicità algebrica, allora la matrice
𝐵 (e quindi anche la 𝐴) non è diagonalizzabile. ✎

⎛𝑡 ⎞
d) Determinare l’antiimmagine del vettore ⎜3⎟ al variare di 𝑡 ∈ ℝ
⎜ ⎟
⎝0⎠

Svolgimento. Il vettore dato si può esprimere rispetto alla base canonica come

⎛𝑡 ⎞ ⎛1⎞ ⎛0⎞ ⎛0⎞


⎜3⎟ = 𝑡 ⎜0⎟ + 3 ⎜1⎟ + 0 ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝0⎠ ⎝1⎠
Ora vogliamo calcolare le soluzioni del sistema

⎛𝑥1 ⎞ ⎛ 𝑡 ⎞
𝑓 ⎜𝑥2 ⎟ = ⎜3⎟
⎜ ⎟ ⎜ ⎟
⎝𝑥3 ⎠ ⎝0⎠
Sappiamo che
⎛ −3 1 2 ⎞ ⎛𝑥1 ⎞ ⎛ 𝑡 ⎞
⎜ 11 −1 −6 ⎟ ⎜𝑥2 ⎟ = ⎜3⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ −10 2 6 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
che corrisponde al sistema

⎪ ⎧
⎪ ⎧

⎪ −3𝑥1 + 𝑥2 + 2𝑥3 = 𝑡 ⎪ 𝑥2 = 3𝑥1 − 2𝑥3 + 𝑡 ⎪ 𝑥2 = −𝑥1 + 3
⎪ ⎪ ⎪
⎨ 11𝑥1 − 𝑥2 − 6𝑥3 = 3 ⎨ 8𝑥1 − 𝑡 − 4𝑥3 = 3 ⎨ 𝑡=1

⎪ ⎪
⎪ ⎪


⎩−10𝑥1 + 2𝑥2 + 6𝑥3 = 0 ⎪
⎩−4𝑥1 + 2𝑡 + 2𝑥3 = 0 ⎪
⎩𝑥3 = 2𝑥1 − 1
da cui deduciamo che se 𝑡 ≠ 1, non esistono soluzioni, mentre se 𝑡 = 1 il sistema diventa
{
𝑥2 = −𝑥1 + 3
𝑥3 = 2𝑥1 − 1

per cui ci sono infinite soluzioni per ogni 𝑥1 che si possono esprimere come (𝑎, −𝑎 + 3, 2𝑎 − 1)
o, analogamente, come
⎛1⎞ ⎛1⎞ ⎛0⎞
𝑓 −1 ⎜3⎟ = 𝑎 ⎜−1⎟ + ⎜ 3 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝ 2 ⎠ ⎝−1⎠
che è consistente con la definizione data di Ker(𝑓 ) = ⟨(1, −1, 2)⟩ ✎
29.2. ESERCIZIO (6 FEBBRAIO 2013) 139

29.2 Esercizio (6 Febbraio 2013)


Consideriamo la seguente matrice 𝐴(𝑡) , con 𝑡 ∈ ℝ

⎛ 1 0 2 ⎞
𝐴(𝑡) = ⎜ 0 −3 0 ⎟
⎜ ⎟
⎝ 𝑡 +1 0 1 ⎠
1. Dire per quali valori di 𝑡 gli autovalori sono reali.

Svolgimento. Dobbiamo capire quando il determinante della matrice 𝐴 − 𝜆𝐼 è uguale a zero

⎛ 1−𝜆 0 2 ⎞
det ⎜ 0 −3 − 𝜆 0 ⎟ = (−1)2+2 (−3 − 𝜆) ⋅ det 1 − 𝜆 2
=
⎜ ⎟ ( 𝑡 +1 1−𝜆 )
⎝ 𝑡 +1 0 1−𝜆 ⎠

= (−3 − 𝜆)[(1 − 𝜆)2 − 2𝑡 − 2] = (−3 − 𝜆)(1 + 𝜆2 − 2𝜆 − 2𝑡 − 2) = (−3 − 𝜆)(𝜆2 − 2𝜆 − 2𝑡 − 1) = 0


√ √
che è uguale a zero se 𝜆 = −3 oppure se 𝜆 = 2± 4+8𝑡+42
= 1 ± 2𝑡 + 2. Perciò la matrice 𝐴(𝑡)
ha autovalori reali se e solo se 2𝑡 + 2 ≥ 0, cioè se 𝑡 ≥ −1. ✎

2. Determinare per quali valori di 𝑡 la matrice ha autovalori con molteplicità algebrica > 1.
Per ciascuno dei valori trovati, dire se la matrice è diagonalizzabile.

Svolgimento. Si noti che se gli autovalori sono tutti distinti, la matrice è diagonalizzabile,
quindi questo caso non è interessante (ed √è per questo che non√ viene chiesto nulla al ri-
guardo). Sappiamo che 𝜆1 = −3, 𝜆2 = 1 + 2𝑡 + 2, 𝜆3 = 1 − 2𝑡 + 2, perciò abbiamo due
casi

• Se 𝑡 = −1, si ha 𝜆2 = 𝜆3 = 1 (due autovalori coincidenti). Gli autovalori sono 𝜆1 = −3


(con molteplicità algebrica 1) e 1 (con molteplicità algebrica 2). In questo caso, la
matrice 𝐴(𝑡) diventa
⎛ 1 0 2 ⎞
𝐴(−1) = ⎜ 0 −3 0 ⎟
⎜ ⎟
⎝ 0 0 1 ⎠
Calcoliamo gli autovettori per 𝜆1 = −3

⎛ 4 0 2 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ 0 0 0 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 0 0 4 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
che corrisponde al sistema
{ {
4𝑥1 + 2𝑥3 = 0 𝑥1 = 0
4𝑥3 = 0 𝑥3 = 0

che ha infinite soluzioni per ogni 𝑥2 , perciò (0, 1, 0) è autovettore relativo all’autova-
lore 𝜆1 = −3, la cui molteplicità geometrica è 1.
140 LEZIONE 29. ESERCIZI

Calcoliamo gli autovettori per l’altro autovalore 1

⎛ 0 0 2 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ 0 −4 0 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 0 0 0 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
che corrisponde al sistema
{ {
2𝑥3 = 0 𝑥3 = 0
−4𝑥2 = 0 𝑥2 = 0

che ha infinite soluzioni per ogni 𝑥1 . Ad esempio (1, 0, 0) è autovettore relativo al-
l’autovalore 1 e la sua molteplicità geometrica è 1. Poiché la molteplicità algebrica e
geometrica di questo autovalore sono diverse, allora la matrice non è diagonalizzabile
se 𝑡 = −1
• In generale, 𝜆1 non può essere uguale
√ a 𝜆2 perché 𝜆1 < 0 e 𝜆2 > 0. Tuttavia 𝜆1 può
essere uguale a 𝜆3 se −3 = 1 − 2𝑡 + 2, che succede se 𝑡 = 7. Quindi se 𝑡 = 7, gli
autovalori sono -3 (con molteplicità algebrica 2) e 5 (con molteplicità algebrica 1). In
questo caso, la matrice 𝐴(𝑡) diventa

⎛ 1 0 2 ⎞
𝐴(7) = ⎜ 0 −3 0 ⎟
⎜ ⎟
⎝ 8 0 1 ⎠
Calcoliamo gli autovettori per l’autovalore −3

⎛ 4 0 2 ⎞ ⎛𝑥1 ⎞ ⎛0⎞
⎜ 0 0 0 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 8 0 4 ⎠ ⎝𝑥3 ⎠ ⎝0⎠
che corrisponde al sistema
{ {
4𝑥1 + 2𝑥3 = 0 𝑥3 = −2𝑥1
8𝑥1 + 4𝑥3 = 0 0=0

Si trova che il sistema ha infinite soluzioni per ogni 𝑥1 e 𝑥2 , quindi il corrispondente


autospazio ha dimensione 2. La molteplicità algebrica dell’autovalore è uguale alla
molteplicità geometrica, quindi la matrice è diagonalizzabile. ✎
Lezione 30

Esercizi

30.1 Esempi di Domande di Teoria


• Sia 𝑓 ∶ ℝ5 → ℝ3 una funzione lineare. Si dica quale può essere la dimensione del nucleo
di 𝑓 . 𝑓 può essere iniettiva? Può essere suriettiva?

Svolgimento. Per la formula delle dimensioni, sappiamo che dim Ker(𝑓 ) + dim Im(𝑓 ) =
dim ℝ5 = 5, inoltre, Im(𝑓 ) ⊆ ℝ3 , quindi dim Im(𝑓 ) ≤ 3. Concludiamo che dim Ker(𝑓 ) ≥ 2.
Dato che Ker(𝑓 ) ⊆ ℝ5 , si ha 2 ≤ dim Ker(𝑓 ) ≤ 5.
Per definizione, 𝑓 è iniettiva se e solo se Ker(𝑓 ) = {0}, il che non può essere. Quindi 𝑓 non
può essere iniettiva.
Inoltre, per definizione, 𝑓 è suriettiva se e solo se Im(𝑓 ) = ℝ3 . In questo caso, si deve avere
dim Ker(𝑓 ) = 2 e ciò è possibile! ✎

• Una funzione lineare trasforma sempre vettori linearmente indipendenti del suo domi-
nio in vettori linearmente indipendenti del codominio? Una funzione lineare trasforma
sempre vettori linearmente dipendenti del dominio in vettori linearmente dipendenti del
codominio?

Svolgimento. Sia 𝑓 ∶ 𝑉 → 𝑊 una funzione lineare. Se 𝑣1 , 𝑣2 ∈ 𝑉 sono linearmente


indipendenti, può succedere che 𝑓 (𝑣1 ) = 𝑓 (𝑣2 ) (se 𝑓 non è iniettiva) e in tal caso 𝑓 (𝑣1 ) e
𝑓 (𝑣2 ) sono linearmente dipendenti. Conseguentemente, una funzione lineare può trasfor-
mare vettori linearmente indipendenti del dominio in vettori linearmente dipendenti del
codominio.
Se, invece, 𝑣1 , 𝑣2 ∈ 𝑉 sono linearmente dipendenti, si ha 𝜆1 𝑣1 + 𝜆2 𝑣2 = 0 con 𝜆1 e 𝜆2 non
entrambi nulli. Quindi

𝑓 (𝜆1 𝑣1 + 𝜆2 𝑣2 ) = 𝜆1 𝑓 (𝑣1 ) + 𝜆2 𝑓 (𝑣2 ) = 𝑓 (0) = 0

pertanto 𝑓 (𝑣1 ) e 𝑓 (𝑣2 ) ∈ 𝑊 sono linearmente dipendenti, perché 𝜆1 , 𝜆2 ≠ 0. Conseguente-


mente, una funzione lineare trasforma due vettori linearmente dipendenti del dominio in
due vettori linearmente dipendenti anche del codominio. ✎

• Sia 𝑓 ∶ 𝑉 → 𝑉 una funzione lineare. Si dimostri che 𝑓 non è iniettiva se e solo se 𝑓 ha un


autovalore uguale a 0

141
142 LEZIONE 30. ESERCIZI

Svolgimento. Sappiamo che 𝑓 è iniettiva se e solo se Ker(𝑓 ) = {0}. Quindi, se 𝑓 non è


iniettiva, si ha Ker(𝑓 ) ≠ {0}, quindi esiste 𝑣 ≠ 0 tale che 𝑓 (𝑣) = 0. Ma 𝑓 (𝑣) = 0 si può scrivere
nella forma 𝑓 (𝑣) = 𝜆𝑣, con 𝜆 = 0. Ciò significa che 𝑓 ha autovalore 𝜆 = 0 e 𝑣 è autovettore
associato all’autovalore nullo. Viceversa, supponiamo che 𝑓 abbia un autovalore nullo e
sia 𝑣 un autovettore corrispondente. Ciò significa che 𝑓 (𝑣) = 0𝑣 = 0, quindi 𝑣 ∈ Ker(𝑓 ).
Ma allora Ker(𝑓 ) ≠ {0} e dunque 𝑓 non è iniettiva. ✎

• Siano 𝑣1 e 𝑣2 autovettori di una matrice 𝐴 associati agli autovalori 𝜆1 e 𝜆2 (supponiamo


𝜆1 ≠ 𝜆2 ). Sia 𝑣3 = 𝑣1 + 𝑣2 . Si dica se 𝑣3 è un autovettore di 𝐴.

Svolgimento. Supponiamo che 𝑣3 sia autovettore di 𝐴 e 𝜆3 sia l’autovalore corrispondente.


Si ha
𝐴𝑣3 = 𝜆3 𝑣3 ⇒ 𝐴(𝑣1 + 𝑣2 ) = 𝜆3 (𝑣1 + 𝑣2 ) ⇒ 𝐴𝑣1 + 𝐴𝑣2 = 𝜆3 𝑣1 + 𝜆3 𝑣2 ⇒
⇒ 𝜆1 𝑣1 + 𝜆2 𝑣2 = 𝜆3 𝑣1 + 𝜆3 𝑣2 ⇒ (𝜆1 − 𝜆3 )𝑣1 + (𝜆2 − 𝜆3 )𝑣2 = 0
Sappiamo che 𝑣1 e 𝑣2 sono autovettori relativi ad autovalori distinti (𝜆1 ≠ 𝜆2 ), quindi sono
linearmente indipendenti. Da ciò si deduce che 𝜆1 − 𝜆3 = 0 e 𝜆2 − 𝜆3 = 0. Quindi 𝜆1 = 𝜆3 e
𝜆2 = 𝜆3 e, quindi, 𝜆1 = 𝜆2 , che è assurdo! Ciò dimostra che se 𝜆1 ≠ 𝜆2 , allora 𝑣3 = 𝑣1 + 𝑣2
non può essere un autovettore di 𝐴. ✎

30.2 Esercizio (19 Giugno 2012)


Sono dati i seguenti vettori

𝑣1 = (−2, 1, −1) 𝑣2 = (1, 0, 1) 𝑣3 = (1, 0, −1) 𝑣4 = (1, 1, 3)

𝑤2 = (−1, 1, 0) 𝑤3 = (5, −3, 2) 𝑤4 = (𝑡, 5, −1) con 𝑡 ∈ ℝ

1. Per quali 𝑡 ∈ ℝ esiste 𝑓 ∶ ℝ3 → ℝ3 lineare tale che 𝑣1 ∈ Ker(𝑓 ), 𝑓 (𝑣2 ) = 𝑤2 , 𝑓 (𝑣3 ) = 𝑤3 ,


𝑓 (𝑣4 ) = 𝑤4 ?

Svolgimento. Sappiamo che 𝑣1 ∈ Ker(𝑓 ) ⇔ 𝑓 (𝑣1 ) = 0. Inoltre, conosciamo le immagini di


quattro vettori: 𝑣1 , 𝑣2 , 𝑣3 e 𝑣4 . Poiché siamo in ℝ3 , 𝑣1 , 𝑣2 , 𝑣3 e 𝑣4 non possono essere una
base del dominio, che ha dimensione 3, e sono linearmente dipendenti. Perciò dobbiamo
trovare le relazioni di dipendenza lineare da questi quattro vettori, che si possono trovare
risolvendo, per esempio, il sistema di equazioni lineari 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 + 𝛼4 𝑣4 = 0. Alter-
nativamente, possiamo ridurre in forma a scala (usando solamente operazioni elementari
su righe) la seguente matrice

⎛ −2 1 −1 1 0 0 0 ⎞ ⎛ 1 0 1 0 1 0 0 ⎞
⎜ 1 0 1 0 1 0 0 ⎟ ⎜ −2 1 −1 1 0 0 0 ⎟
⎜ 1 0 −1 0 0 1 0 ⎟⇝⎜ 1 0 −1 0 0 1 0 ⎟⇝
⎜ ⎟ ⎜ ⎟
⎝ 1 1 3 0 0 0 1 ⎠ ⎝ 1 1 3 0 0 0 1 ⎠

⎛ 1 0 1 0 1 0 0 ⎞ ⎛ 1 0 1 0 1 0 0 ⎞
⎜ 0 1 1 1 2 0 0 ⎟ ⎜ 0 1 1 1 2 0 0 ⎟
⇝⎜ ⎟⇝⎜ ⎟⇝
⎜ 0 0 −2 0 −1 1 0 ⎟ ⎜ 0 0 −2 0 −1 1 0 ⎟
⎝ 0 1 2 0 −1 0 1 ⎠ ⎝ 0 0 1 −1 −3 0 1 ⎠
30.2. ESERCIZIO (19 GIUGNO 2012) 143

⎛ 1 0 1 0 1 0 0 ⎞
⎜ 0 1 1 1 2 0 0 ⎟
⇝⎜ ⎟
⎜ 0 0 −2 0 −1 1 0 ⎟
⎝ 0 0 0 −2 −7 1 2 ⎠
da cui ricaviamo la relazione di dipendenza lineare

−2𝑣1 − 7𝑣2 + 1𝑣3 + 2𝑣4 = 0

Applichiamo la funzione 𝑓 e usiamo la sua linearità

−2𝑓 (𝑣1 ) − 7𝑓 (𝑣2 ) + 𝑓 (𝑣3 ) + 2𝑓 (𝑣4 ) = 𝑓 (0) ⇒ −2(0𝑉 ) − 7𝑤2 + 𝑤3 + 2𝑤4 = 0 ⇒ −7𝑤2 + 𝑤3 + 2𝑤4 = 0

ovverosia
⎛−1⎞ ⎛ 5 ⎞ ⎛ 𝑡 ⎞ ⎛12 + 2𝑡 ⎞
−7 ⎜ 1 ⎟ + ⎜ −3⎟ + 2⎜ 5 ⎟ = ⎜ 0 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝−1⎠ ⎝ 0 ⎠
che è uguale al vettore nullo se e solo se 𝑡 = −6. Quindi esiste una 𝑓 lineare, come richiesto,
se e solo se 𝑡 = −6.1 ✎

2. Per il valore di 𝑡 trovato, scrivere la matrice di 𝑓 rispetto alla base canonica (per il dominio
e il codominio)

Svolgimento. Le colonne della matrice cercata sono 𝑓 (1, 0, 0), 𝑓 (0, 1, 0) e 𝑓 (0, 0, 1). Sfruttiamo
la linearità della funzione e

• Consideriamo il vettore 𝑒1 = (1, 0, 0)

⎛1⎞ 1 ⎛1⎞ ⎛ 1 ⎞ ⎛2⎞ ⎛1⎞


⎜0⎟ = (𝑣2 + 𝑣3 ) = 1 ⎜0⎟ + ⎜ 0 ⎟ = 1 ⎜0⎟ = ⎜0⎟
⎜ ⎟ 2 2( ⎜ ⎟ ⎜ ⎟ ) 2 ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝1⎠ ⎝−1⎠ ⎝0⎠ ⎝0⎠
da cui ricaviamo che
−1 5 4 2
1 1 ⎛⎜ ⎞⎟ ⎛⎜ ⎞⎟ 1 ⎛⎜ ⎞⎟ ⎛⎜ ⎞⎟
𝑓 (𝑒1 ) = (𝑓 (𝑣2 ) + 𝑓 (𝑣3 )) = 1 + −3 = −2 = −1
2 2( ⎜ ⎟ ⎜ ⎟ ) 2 ⎜ ⎟ ⎜ ⎟
0
⎝ ⎠ ⎝ ⎠2 ⎝2⎠ ⎝1⎠

• Consideriamo il vettore 𝑒3 = (0, 0, 1)

⎛0⎞ 1 ⎛1⎞ ⎛ 1 ⎞ ⎛0⎞ ⎛0⎞


⎜0⎟ = (𝑣2 − 𝑣3 ) = 1 ⎜0⎟ − ⎜ 0 ⎟ = 1 ⎜0⎟ = ⎜0⎟
⎜ ⎟ 2 2( ⎜ ⎟ ⎜ ⎟ ) 2 ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝1⎠ ⎝−1⎠ ⎝2⎠ ⎝1⎠
da cui ricaviamo che
−1 5 −6 −3
1 1 ⎛⎜ ⎞⎟ ⎛⎜ ⎞⎟ 1⎛ ⎞ ⎛ ⎞
𝑓 (𝑒3 ) = (𝑓 (𝑣2 ) − 𝑓 (𝑣3 )) = 1 − −3 = ⎜4⎟=⎜2⎟
2 2( ⎜ ⎟ ⎜ ⎟ ) 2 ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝2⎠ ⎝−2⎠ ⎝−1⎠
1
Un metodo alternativo (equivalente) per rispondere alla domanda era (1) osservare che {𝑣1 , 𝑣2 , 𝑣3 } sono una
base di ℝ3 , (2) calcolare le coordinate (𝑎, 𝑏, 𝑐) di 𝑣4 rispetto a tale base risolvendo il sistema 𝑎𝑣1 + 𝑏𝑣2 + 𝑐𝑣3 = 𝑣4
(ottenendo 𝑎 = 1, 𝑏 = 72 , 𝑐 = − 12 ), (3) calcolare 𝑓 (𝑣4 ) = 𝑎𝑓 (𝑣1 ) + 𝑏𝑓 (𝑣2 ) + 𝑐𝑓 (𝑣3 ) ricavando che 𝑡 = −6
144 LEZIONE 30. ESERCIZI

• Consideriamo il vettore 𝑒2 = (0, 1, 0)

⎛0⎞ ⎛2⎞ ⎛0⎞ ⎛−2⎞ ⎛2⎞ ⎛0⎞


⎜1⎟ = 𝑣1 + ⎜0⎟ + ⎜0⎟ = ⎜ 1 ⎟ + ⎜0⎟ + ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝0⎠ ⎝1⎠ ⎝−1⎠ ⎝0⎠ ⎝1⎠
da cui ricaviamo che
⎛0⎞ ⎛ 2 ⎞ ⎛−3⎞ ⎛1⎞
𝑓 (𝑒2 ) = 𝑓 (𝑣1 ) + 2𝑓 (𝑒1 ) − 𝑓 (𝑒3 ) = ⎜0⎟ + 2 ⎜−1⎟ + ⎜ 2 ⎟ = ⎜0⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝ 1 ⎠ ⎝−1⎠ ⎝1⎠
Quindi
⎛ 2 1 −3 ⎞
𝐴 = ⎜ −1 0 2 ⎟
⎜ ⎟
⎝ 1 1 −1 ⎠

⎛0⎞ ⎛ 2 ⎞
3. Determinare l’antiimmagine dei vettori ⎜1⎟ e ⎜ 2 ⎟
⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝−1⎠

Svolgimento. Per definizione


{ }
⎛0⎞ ⎛𝑥 ⎞ ⎛𝑥 ⎞ ⎛0⎞
−1 ⎜ ⎟ ⎜𝑦 ⎟ ∈ ℝ3 ∶ 𝑓 ⎜𝑦 ⎟ = ⎜1⎟
𝑓 1 =
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝𝑧 ⎠ ⎝ 𝑧 ⎠ ⎝1⎠
Ovverosia
⎛ 2 1 −3 ⎞ ⎛𝑥 ⎞ ⎛0⎞
⎜ −1 0 2 ⎟ ⎜𝑦 ⎟ = ⎜1⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 1 1 −1 ⎠ ⎝ 𝑧 ⎠ ⎝1⎠
che corrisponde al sistema

⎪ ⎧
⎪ ⎧
⎪ ⎧

⎪ 2𝑥 + 𝑦 − 3𝑧 = 0 ⎪4𝑧 − 2 + 𝑦 − 3𝑧 = 0 ⎪𝑦 = −𝑧 + 2 ⎪ 𝑦 = −𝑧 + 2
⎪ ⎪ ⎪ ⎪
⎨ −𝑥 + 2𝑧 = 1 ⎨𝑥 = 2𝑧 − 1 ⎨𝑥 = 2𝑧 − 1 ⎨ 𝑥 = 2𝑧 − 1

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩𝑥 + 𝑦 − 𝑧 = 1 ⎪
⎩2𝑧 − 1 + 𝑦 − 𝑧 = 1 ⎪
⎩𝑧 + 𝑦 = 2 ⎪
⎩0 = 0
Il sistema ha infinite soluzioni per ogni 𝑧. Perciò possiamo dire che
{ } { }
⎛0⎞ ⎛ 2𝛼 − 1 ⎞ ⎛−1⎞ ⎛ 2𝛼 ⎞
𝑓 −1 ⎜1⎟ = ⎜−𝛼 + 2⎟ | ∀𝛼 ∈ ℝ = ⎜ 2 ⎟ + ⎜−𝛼 ⎟ | ∀𝛼 ∈ ℝ =
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝ 𝛼 ⎠ ⎝0⎠ ⎝𝛼 ⎠
{ } { }
⎛−1⎞ ⎛ 2𝛼 ⎞ ⎛−1⎞ ⎛2⎞ ⎛−1⎞ ⎛2⎞
=⎜2⎟+ ⎜−𝛼 ⎟ | ∀𝛼 ∈ ℝ = ⎜ 2 ⎟ + 𝛼 ⎜−1⎟ | ∀𝛼 ∈ ℝ = ⎜ 2 ⎟ + ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⟨⎜ ⎟⟩
⎝0⎠ ⎝𝛼 ⎠ ⎝0⎠ ⎝1⎠ ⎝0⎠ ⎝1⎠
⎛2⎞
dove Ker(𝑓 ) è lo spazio vettoriale generato da ⎜−1⎟ e si può controllare che dim Ker(𝑓 ) = 1.
⎜ ⎟
⎝1⎠
30.2. ESERCIZIO (19 GIUGNO 2012) 145

⎛2⎞
Determiniamo l’antiimmagine di ⎜ 2 ⎟. Dobbiamo trovare una soluzione a
⎜ ⎟
⎝−1⎠
⎛𝑥 ⎞ ⎛ 2 ⎞
𝐴 ⎜𝑦 ⎟ = ⎜ 2 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 𝑧 ⎠ ⎝−1⎠
Si trova il sistema


⎪ 2𝑥 + 𝑦 − 3𝑧 = 2

⎨ −𝑥 + 2𝑧 = 2



⎩𝑥 + 𝑦 − 𝑧 = −1
⎛2⎞ ⎛2⎞
Risolvendo il sistema, si scopre che non ha soluzione, quindi 2 ∉ Im(𝑓 ) e 𝑓
⎜ ⎟ −1 ⎜
2⎟=∅✎
⎜ ⎟ ⎜ ⎟
⎝−1⎠ ⎝−1⎠
4. Si dica se esiste una funzione lineare 𝑔 ∶ ℝ3 → ℝ3 tale che 𝑔 ◦ 𝑓 sia l’identità

Svolgimento. Si noti che, in generale, la richiesta non equivale a richiedere che 𝑔 sia
l’inversa di 𝑓 , ma significa solamente che 𝑔 dev’essere tale per cui
𝑓 𝑔
ℝ3 →
− ℝ3 →
− ℝ3

𝑣 ↦ 𝑓 (𝑣) ↦ 𝑔(𝑓 (𝑣)) = 𝑣 ∀𝑣 ∈ ℝ3


Difatti, se 𝑔 è l’inversa di 𝑓 , allora valgono due proprietà/richieste: 𝑔 ◦ 𝑓 = 𝑓 ◦ 𝑔 = 𝑖𝑑. La
domanda richiede solamente la prima di queste due condizioni.
⎛−2⎞
Sappiamo che 𝑣1 = ⎜ 1 ⎟ ∈ Ker(𝑓 ), cioè 𝑓 (𝑣1 ) = 0, allora 𝑔(𝑓 (𝑣1 )) = 𝑔(0) = 0, perché 𝑔
⎜ ⎟
⎝−1⎠
dev’essere lineare. Quindi è impossibile avere 𝑔(𝑓 (𝑣1 )) = 𝑣1 . Quindi una tale 𝑔 non esiste.

Osservazione 30.1. La richiesta 𝑔 ◦ 𝑓 sia l’identità significa che 𝑔 è l’inversa a sinistra di 𝑓 .

Definizione 30.1. Sia 𝑓 una funzione lineare

1. Una funzione lineare 𝑔 è inversa a sinistra di 𝑓 se si ha 𝑔 ◦ 𝑓 = 𝑖𝑑

2. Una funzione lineare 𝑔 è inversa a destra di 𝑓 se si ha 𝑓 ◦ 𝑔 = 𝑖𝑑

3. Una funzione lineare 𝑔 è inversa di 𝑓 se è sia inversa a sinistra sia inversa a destra di 𝑓

Definizione 30.2. In modo analogo, sia 𝐴 una matrice

1. Una matrice 𝐵 è inversa a sinistra di 𝐴 se 𝐵 ⋅ 𝐴 = 𝐼

2. Una matrice 𝐵 è inversa a destra di 𝐴 se 𝐴 ⋅ 𝐵 = 𝐼

3. Una matrice 𝐵 è inversa di 𝐴 se è sia inversa a sinistra, sia inversa a destra di 𝐴, cioè se valgono
entrambe le uguaglianze 𝐵 ⋅ 𝐴 = 𝐼 e 𝐴 ⋅ 𝐵 = 𝐼
146 LEZIONE 30. ESERCIZI

Nota: è possibile che esista l’inversa a sinistra ma non quella a destra, oppure che esista l’inversa
a destra ma non quella a sinistra. Se esistono sia l’inversa a sinistra sia l’inversa a destra, devono
necessariamente essere uguali! Infatti, data una matrice 𝐴, supponiamo che sia abbia 𝐵 ⋅ 𝐴 = 𝐼 e
𝐴 ⋅ 𝐶 = 𝐼 . Allora
𝐵 = 𝐵 ⋅ 𝐼 = 𝐵 ⋅ (𝐴 ⋅ 𝐶) = (𝐵 ⋅ 𝐴) ⋅ 𝐶 = 𝐼 ⋅ 𝐶 = 𝐶
quindi necessariamente 𝐵 = 𝐶.
Vediamo un esempio in cui esiste l’inversa a sinistra ma non quella a destra. Sia 𝑓 ∶ ℝ2 → ℝ3
la funzione lineare definita da 𝑓 (𝑒1 ) = (2, 1, 3) e 𝑓 (𝑒2 ) = (−1, 0, 2). Allora la matrice di 𝑓 rispetto
alle basi canoniche è
⎛ 2 −1 ⎞
𝐴=⎜ 1 0 ⎟
⎜ ⎟
⎝ 3 2 ⎠
Naturalmente 𝑓 non è invertibile (perché non è biiettiva) e 𝐴 non è invertibile (perché non è una
matrice quadrata).
Si dica se esiste una funzione lineare 𝑔 ∶ ℝ3 → ℝ2 tale che 𝑔 ◦𝑓 = 𝑖𝑑 (cioè 𝑔 dev’essere inversa
a sinistra di 𝑓 ). Se indichiamo con 𝐵 la matrice di 𝑔 rispetto alle basi canoniche, l’uguaglianza
𝑔 ◦ 𝑓 = 𝑖𝑑 si traduce in 𝐵 ⋅ 𝐴 = 𝐼 (cioè 𝐵 deve essere inversa a sinistra di 𝐴). Si deve quindi avere

𝑏11 𝑏12 𝑏13


𝐵= tale che
( 𝑏21 𝑏22 𝑏23 )

⎛ 2 −1 ⎞
𝑏11 𝑏12 𝑏13 ⎜ 2𝑏11 + 𝑏12 + 3𝑏13 −𝑏11 + 2𝑏13 1 0
1 0 ⎟= =
( 𝑏21 𝑏22 𝑏23 ) ⎜ ⎟ ( 2𝑏21 + 𝑏22 + 3𝑏23 −𝑏21 + 2𝑏23 ) ( 0 1 )
⎝ 3 2 ⎠
Risolvendo i due seguenti sistemi di equazioni lineari
{ {
2𝑏11 + 𝑏12 + 3𝑏13 = 1 𝑏12 = 1 − 7𝑏13
−𝑏11 + 2𝑏13 = 0 𝑏11 = 2𝑏13
{ {
2𝑏21 + 𝑏22 + 3𝑏23 = 0 𝑏22 = −7𝑏23 + 2
−𝑏21 + 2𝑏23 = 1 𝑏21 = 2𝑏23 − 1
ricaviamo che esistono infinite matrici inverse a sinistra 𝐵 di 𝐴 che assumono la seguente forma

2𝛼 1 − 7𝛼 𝛼
𝐵=
( 2𝛽 − 1 −7𝛽 + 2 𝛽 )

Difatti
⎛ 2 −1 ⎞
2𝛼 1 − 7𝛼 𝛼 ⎜
𝐵⋅𝐴= 1 0 ⎟=
( 2𝛽 − 1 −7𝛽 + 2 𝛽 ) ⎜ ⎟
⎝ 3 2 ⎠
4𝛼 + 1 − 7𝛼 + 3𝛼 −2𝛼 + 2𝛼 1 0
= = ∀𝛼, 𝛽 ∈ ℝ
( 4𝛽 − 2 − 7𝛽 + 2 + 3𝛽 −2𝛽 + 1 + 2𝛽 ) ( 0 1 )
La conclusione è che la funzione cercata 𝑔 esiste (anzi, ce ne sono infinite).
Lezione 31

Esercizi

31.1 Esercizio (5 Febbraio 2016)


Consideriamo lo spazio vettoriale 𝑀2 (ℝ) delle matrici 2 × 2

𝑎 𝑏
𝑀2 (ℝ) ∋ ↔ (𝑎, 𝑏, 𝑐, 𝑑) ∈ ℝ4
( 𝑐 𝑑 )

e consideriamo le matrici

2 1 0 2
𝐴= 𝐵=
( −1 2 ) ( 1 3 )

1. Calcolare la dimensione del sottospazio 𝑉 generato da 𝐴, 𝐵 e 𝐴 ⋅ 𝐵

Svolgimento. Calcoliamo la matrice 𝐴 ⋅ 𝐵

2 1 0 2 1 7
𝐴⋅𝐵 = =
( −1 2 ) ( 1 3 ) ( 2 4 )

Poi stabiliamo se 𝐴, 𝐵 e 𝐴 ⋅ 𝐵 sono linearmente indipendenti, calcolando il rango della


seguente matrice

⎛ 2 1 −1 2 ⎞ ⎛ 2 1 −1 2 ⎞ ⎛ 2 1 −1 2 ⎞
rango ⎜ 0 2 1 3 ⎟ ⇝ rango ⎜ 0 2 1 3 ⎟ ⇝ rango ⎜ 0 2 1 3 ⎟ ⇝
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 1 7 2 4 ⎠ ⎝ 2 14 4 8 ⎠ ⎝ 0 13 5 6 ⎠

⎛ 2 1 −1 2 ⎞
⇝ rango ⎜ 0 2 1 3 ⎟=3
⎜ 3 27 ⎟
⎝ 0 0 −2 − 2 ⎠
Poiché il rango di questa matrice è 3, le tre matrici 𝐴, 𝐵 e 𝐴 ⋅ 𝐵 sono linearmente indipen-
denti. Quindi dim 𝑉 = 3. ✎

−1 4
2. Data la matrice 𝐶 = con 𝑡 ∈ ℝ, per quale valore di 𝑡 esiste una base di 𝑉 che
( 2 𝑡 )
contiene 𝐶?

147
148 LEZIONE 31. ESERCIZI

Svolgimento. La domanda richiede di stabilire quando la matrice 𝐶 è combinazione lineare


delle matrici 𝐴, 𝐵 e 𝐴 ⋅ 𝐵, ovverosia

⎛−1⎞ ⎛2⎞ ⎛0⎞ ⎛1⎞


⎜4⎟ ⎜1⎟ ⎜2⎟ ⎜7⎟
⎜ 2 ⎟ = 𝛼1 ⎜−1⎟ + 𝛼2 ⎜1⎟ + 𝛼3 ⎜2⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑡⎠ ⎝2⎠ ⎝3⎠ ⎝4⎠

Risolviamo il sistema trovando 𝛼1 , 𝛼2 , 𝛼3 e 𝑡 riducendo in forma a scala la seguente matrice

⎛ 2 1 −1 2 ⎞ ⎛ 1 7 2 4 ⎞ ⎛ 1 7 2 4 ⎞
⎜ 0 2 1 3 ⎟ ⎜ 0 2 1 3 ⎟ ⎜ 0 2 1 3 ⎟
⎜ ⎟ ⇝⎜ ⎟⇝⎜ ⎟⇝
⎜ 1 7 2 4 ⎟ ⎜ 2 1 −1 2 ⎟ ⎜ 0 −13 −5 −6 ⎟
⎝ −1 4 2 𝑡 ⎠ ⎝ −1 4 2 𝑡 ⎠ ⎝ 0 11 4 4 + 𝑡 ⎠

⎛ 1 2 7 4 ⎞ ⎛ 1 2 7 4 ⎞ ⎛ 1 2 7 4 ⎞
⎜ 0 1 2 3 ⎟ ⎜ 0 1 2 3 ⎟ ⎜ 0 1 2 3 ⎟
⇝⎜ ⎟⇝⎜ ⎟⇝⎜ ⎟
⎜ 0 −5 −13 −6 ⎟ ⎜ 0 0 −3 9 ⎟ ⎜ 0 0 −3 9 ⎟
⎝ 0 4 11 4 + 𝑡 ⎠ ⎝ 0 0 3 −8 + 𝑡 ⎠ ⎝ 0 0 0 1+𝑡 ⎠
Il rango della matrice è 3 se e solo se 𝑡 = −1 ✎

3. Sia 𝑆 il sottospazio formato dalle matrici 2 × 2 simmetriche


{ }
𝑎 𝑏
𝑆= | ∀𝑎, 𝑏, 𝑑
( 𝑏 𝑑 )

Sappiamo che dim 𝑆 = 3 e una base di 𝑆 è data dalle seguenti tre matrici

1 0 0 1 0 0
( 0 0 ) ( 1 0 ) ( 0 1 )

Trovare una base di 𝑉 ∩ 𝑆 e una base di 𝑉 + 𝑆

Svolgimento. Consideriamo una generica matrice di 𝑉 : 𝛼1 𝐴 + 𝛼2 𝐵 + 𝛼3 𝐴 ⋅ 𝐵 ∈ 𝑉

2 1 0 2 1 7 2𝛼1 + 𝛼3 𝛼1 + 2𝛼2 + 7𝛼3


𝛼1 + 𝛼2 + 𝛼3 =
( −1 2 ) ( 1 3 ) ( 2 4 ) ( −𝛼1 + 𝛼2 + 2𝛼3 2𝛼1 + 3𝛼2 + 4𝛼3 )

Questa matrice è simmetrica (e quindi appartiene a 𝑆) se

𝛼1 + 2𝛼2 + 7𝛼3 = −𝛼1 + 𝛼2 + 2𝛼3 ⇒ 2𝛼1 + 𝛼2 + 5𝛼3 = 0 ⇒ 𝛼2 = −2𝛼1 − 5𝛼3

Ci sono infinite matrici di questo tipo per ogni 𝛼1 e 𝛼3 , quindi dim 𝑉 ∩ 𝑆 = 2. Una base di
𝑉 ∩ 𝑆 si ottiene fissando prima 𝛼1 = 1, 𝛼3 = 0 e poi 𝛼1 = 0, 𝛼3 = 1


⎪𝛼1 = 1
⎪ 2 1 0 2 2 −3
⎨𝛼3 = 0 ⇒1 −2 =

⎪ ( −1 2 ) ( 1 3 ) ( −3 −4 )

⎩𝛼2 = −2
31.2. ESERCIZIO (7 SETTEMBRE 2015) 149



⎪ 𝛼1 = 0
⎪ 0 2 1 7 1 −3
⎨ 𝛼3 = 1 ⇒ −5 +1 =

⎪ ( 1 3 ) ( 2 4 ) ( −3 −11 )

⎩ 𝛼 2 = −5
Tali matrici rappresentano una base di 𝑉 ∩ 𝑆.
Per la formula di Grassmann

dim 𝑉 + 𝑆 = dim 𝑉 + dim 𝑆 − dim 𝑉 ∩ 𝑆 = 3 + 3 − 2 = 4

quindi 𝑉 + 𝑆 = 𝑀2 (ℝ), una cui base è la base canonica

1 0 0 1 0 0 0 0
( 0 0 ) ( 0 0 ) ( 1 0 ) ( 0 1 )

4. Trovare un sottospazio 𝑊 ⊂ 𝑀2 (ℝ) tale che 𝑉 ⊕ 𝑊 = 𝑀2 (ℝ) e 𝑆 ⊕ 𝑊 = 𝑀2 (ℝ)

Svolgimento. Poiché dim 𝑉 = 3, dim 𝑆 = 3, dim 𝑉 ⊕ 𝑊 = dim 𝑆 ⊕ 𝑊 = dim 𝑀2 (ℝ) = 4 e, per


definizione di somma diretta, dobbiamo avere 𝑉 ∩ 𝑊 = {0} e 𝑆 ∩ 𝑊 = {0}, stiamo cercando
un 𝑊 che abbia dimensione 1. Quindi un tale 𝑊 può essere generato da una matrice
linearmente indipendente dalle matrici di base dei due sottospazi 𝑉 ed 𝑆, per esempio la
0 1 0 0
matrice (oppure ). ✎
( 0 0 ) ( 1 0 )

Altri possibili domande alternative alla (4):

• Assumiamo che dim 𝑉 = 3 e dim 𝑆 = 2, cerchiamo un sottospazio 𝑊 tale che 𝑉 ⊕


𝑊 = 𝑀2 (ℝ) e 𝑆 ⊕ 𝑊 = 𝑀2 (ℝ). In questo caso, 𝑊 non esiste, perché dovrebbe avere
contemporaneamente dimensione 1 e 2
• Assumiamo che dim 𝑉 = 3 e dim 𝑆 = 2, cerchiamo un sottospazio 𝑊 tale che 𝑉 +𝑊 =
𝑀2 (ℝ) e 𝑆 + 𝑊 = 𝑀2 (ℝ). In questo caso, 𝑊 può esistere (ci sono infinite alternative) e
deve avere dimensione almeno due. Inoltre, 𝑊 non può essere in somma diretta con
𝑉 , quindi 𝑉 ∩ 𝑊 ≠ {0}
• Assumiamo che dim 𝑉 = 3 e dim 𝑆 = 2, cerchiamo un sottospazio non nullo 𝑊 che
sia in somma diretta con 𝑉 e anche in somma diretta con 𝑆. In questo caso, 𝑊 esiste
(ci sono infinite alternative) ma sarà tale che 𝑆 ⊕ 𝑊 ≠ 𝑀2 (ℝ)

31.2 Esercizio (7 Settembre 2015)


Consideriamo lo spazio vettoriale delle matrici quadrate 2 × 2 a coefficienti reali 𝑉 = 𝑀2 (ℝ) e il
vettore 𝑢 = (1, −2)

1. Trovare la dimensione e una base del sottospazio

𝑈 = {𝐴 ∈ 𝑀2 (ℝ) | 𝑢 ∈ Ker 𝐴}
150 LEZIONE 31. ESERCIZI

Svolgimento. Una matrice 𝐴 appartiene a 𝑈 se è tale che

𝑎 𝑏 1 0
=
( 𝑐 𝑑 ) (−2) (0)

ovverosia le equazioni del sottospazio 𝑈 sono


{ {
𝑎 − 2𝑏 = 0 𝑎 = 2𝑏
il sistema ha infinite soluzioni ∀𝑏, ∀𝑑 ⇒ dim 𝑈 = 2
𝑐 − 2𝑑 = 0 𝑐 = 2𝑑

Poniamo 𝑏 = 1, 𝑑 = 0 e poi 𝑏 = 0, 𝑑 = 1 per ottenere una possibile base di 𝑈

2 1 0 0
( 0 0 ) ( 2 1 )

2. Trovare la dimensione e una base del sottospazio vettoriale generato dalle matrici 2 × 2
𝑎 𝑏
tali che 𝑎 + 𝑑 = 0 e 𝑏 + 𝑐 = 1
( 𝑐 𝑑 )

Svolgimento. Le equazioni del sottospazio corrispondono a 𝑑 = −𝑎 e 𝑐 = 1 − 𝑏, ovverosia a


infinite soluzioni ∀𝑎 e ∀𝑏, che corrispondono alla generica matrice

𝑎 𝑏 1 0 0 1 0 0
=𝑎 +𝑏 +
( 1 − 𝑏 −𝑎 ) ( 0 −1 ) ( −1 0 ) ( 1 0 )

Controlliamo che queste tre matrici siano linearmente indipendenti per determinare la
dimensione dello spazio vettoriale

⎛ 1 0 0 −1 ⎞
rango ⎜ 0 1 −1 0 ⎟ = 3
⎜ ⎟
⎝ 0 0 1 0 ⎠
la matrice è già in forma a scala, quindi il suo rango è 3. Ciò significa che la dimensione
dello spazio vettoriale è 3 e le tre matrici formano una base del sottospazio vettoriale in
oggetto ✎
1 ℎ
3. Sia 𝐴ℎ = con ℎ ∈ ℝ e sia 𝑊ℎ = {𝐵 | 𝐴ℎ ⋅ 𝐵 = 𝐵 ⋅ 𝐴ℎ }.1 Trovare la dimensione e
( 0 2 )
una base di 𝑊ℎ

𝑎 𝑏
Svolgimento. 𝐵 =
( 𝑐 𝑑 )

1 ℎ 𝑎 𝑏 𝑎 + ℎ𝑐 𝑏 + ℎ𝑑
𝐴ℎ ⋅ 𝐵 = =
( 0 2 ) ( 𝑐 𝑑 ) ( 2𝑐 2𝑑 )

𝑎 𝑏 1 ℎ 𝑎 ℎ𝑎 + 2𝑏
𝐵 ⋅ 𝐴ℎ = =
( 𝑐 𝑑 ) ( 0 2 ) ( 𝑐 ℎ𝑐 + 2𝑑 )
1
Si noti che 𝐵 non è necessariamente l’inversa di 𝐴
31.2. ESERCIZIO (7 SETTEMBRE 2015) 151

L’uguaglianza dei due prodotti implica che



⎪ ⎧
⎪ ⎧

⎪ 𝑎 + ℎ𝑐 = 𝑎 ⎪𝑎=𝑎 ⎪ 0=0 {

⎪ ⎪
⎪ ⎪

⎪𝑏 + ℎ𝑑 = ℎ𝑎 + 2𝑏 ⎪𝑏 + ℎ𝑑 = ℎ𝑎 + 2𝑏 ⎪ℎ𝑑 = ℎ𝑎 + 𝑏 𝑏 = ℎ(𝑑 − 𝑎)

⎪ ⎨
⎪ ⎨

⎪ 2𝑐 = 𝑐 ⎪𝑐=0 ⎪ 𝑐=0 𝑐=0

⎪ ⎪
⎪ ⎪

⎪ 2𝑑 = ℎ𝑐 + 2𝑑 ⎪2𝑑 = 2𝑑 ⎪ 0=0
⎩ ⎩ ⎩
Ci sono infinite matrici di questo tipo per ogni 𝑎 e 𝑑, allora dim 𝑊ℎ = 2 e una sua base si
ottiene ponendo 𝑎 = 1, 𝑑 = 0 e 𝑎 = 0, 𝑑 = 1

1 −ℎ 0 ℎ
( 0 0 ) ( 0 1 )

4. I seguenti sono sottospazi vettoriali?

• 𝑈1 = {𝐴 | rango 𝐴 ≤ 1}
𝑈1 non è un sottospazio vettoriale, perché non è chiuso per l’operazione di somma,
infatti
1 0 0 0 1 0
+ =
( 0 0 ) ( 0 1 ) ( 0 1 )
dove le prime due matrici hanno rango 1 e la somma ha rango 2
• 𝑈2 = {𝐴 | dim Ker 𝐴 = 1}
Anche 𝑈2 non è chiuso per l’operazione di somma, inoltre non contiene la matrice
nulla, quindi non è un sottospazio vettoriale
• 𝑈3 = {𝐴 | det 𝐴 = 0}
Idem per 𝑈3 , che non è chiuso per l’operazione di somma, quindi non è un sottospazio
vettoriale
Lezione 32

Esercizi

32.1 Esercizio (16 Giugno 2014)


In ℝ3 sono dati i vettori
⎛1⎞ ⎛0⎞ ⎛4⎞
𝑢 = ⎜−1⎟ 𝑣 = ⎜−2⎟ 𝑤 = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝0⎠ ⎝−1⎠ ⎝1⎠
Sia 𝑓 ∶ ℝ3 → ℝ3 lineare tale che 𝑓 (𝑢) = 𝑤, 𝑓 (𝑣) = 2𝑤, Im(𝑓 ) ⊂ Ker(𝑓 ).

1. Scrivere la matrice 𝐴 di 𝑓 rispetto alla base canonica. Determinare una base di Ker(𝑓 ).

Svolgimento. Se conosciamo 𝑓 (𝑢), 𝑓 (𝑣) e 𝑓 (𝑤) e dimostriamo che 𝑢, 𝑣 e 𝑤 sono una base di
ℝ3 , allora conosciamo la funzione 𝑓 . L’informazione 𝑤 = 𝑓 (𝑢) ci dice che 𝑤 ∈ Im(𝑓 ), quindi
𝑤 ∈ Im(𝑓 ) ⊂ Ker(𝑓 ), allora 𝑤 ∈ Ker(𝑓 ) e 𝑓 (𝑤) = 0. Pertanto abbiamo

𝑓 (𝑢) = 𝑤 𝑓 (𝑣) = 2𝑤 𝑓 (𝑤) = 0

Si può, inoltre, dimostrare facilmente che 𝑢, 𝑣 e 𝑤 sono linearmente indipendenti.


Dobbiamo calcolare 𝑓 (𝑒1 ), 𝑓 (𝑒2 ) e 𝑓 (𝑒3 ). Determiniamo come possiamo esprimere i tre
vettori della base canonica come combinazione lineare della base {𝑢, 𝑣, 𝑤}

• Osserviamo che 𝑣 + 𝑤 = (4, −3, 0) e (𝑣 + 𝑤) − 3𝑢 = (4, −3, 0) − 3(1, −1, 0) = (1, 0, 0) = 𝑒1 .


Perciò si ha 𝑓 (𝑒1 ) = 𝑓 (𝑣) + 𝑓 (𝑤) − 3𝑓 (𝑢) = 2𝑤 + 0 − 3𝑤 = −𝑤 = (−4, 1, −1)1
• Si ha poi che 𝑒1 − 𝑢 = (1, 0, 0) − (1, −1, 0) = (0, 1, 0) = 𝑒2 , quindi 𝑓 (𝑒2 ) = 𝑓 (𝑒1 ) − 𝑓 (𝑢) =
−𝑤 − 𝑤 = −2𝑤 = (−8, 2, −2)
• Infine si ha 2𝑒2 + 𝑣 = (0, 2, 0) + (0, −2, −1) = (0, 0, −1) = −𝑒3 , quindi 𝑒3 = −2𝑒2 − 𝑣 e
𝑓 (𝑒3 ) = −2𝑓 (𝑒2 ) − 𝑓 (𝑣) = 4𝑤 − 2𝑤 = 2𝑤 = (8, −2, 2)

Da cui ricaviamo
⎛ −4 −8 8 ⎞
𝐴 = ⎜ 1 2 −2 ⎟
⎜ ⎟
⎝ −1 −2 2 ⎠
1
Se non fossimo stati in grado di fare queste osservazioni, avremmo potuto calcolare 𝑒1 come combinazione
lineare dei vettori 𝑢, 𝑣, 𝑤, risolvendo il sistema corrispondente a 𝛼1 𝑢 + 𝛼2 𝑣 + 𝛼3 𝑤 = 𝑒1 . Avremmo poi calcolato
𝑓 (𝑒1 ) = 𝛼1 𝑓 (𝑢) + 𝛼2 𝑓 (𝑣) + 𝛼3 𝑓 (𝑤) = 𝛼1 𝑤 + 2𝛼2 𝑤 = (𝛼1 + 2𝛼2 )𝑤

152
32.1. ESERCIZIO (16 GIUGNO 2014) 153

Per determinare Ker(𝑓 ) risolviamo il seguente sistema



⎪ ⎧

⎛ −4 −8 8 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎪−4𝑥1 − 8𝑥2 + 8𝑥3 = 0 ⎪0=0
⎜ 1 2 −2 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⇒ ⎪
⎨𝑥1 + 2𝑥2 − 2𝑥3 = 0

⎨𝑥1 = −2𝑥2 + 2𝑥3
⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎪
⎪ ⎪

−1 −2 2 𝑥 0 ⎪
⎝ ⎠ ⎝ 3⎠ ⎝ ⎠ ⎩−𝑥1 − 2𝑥2 + 2𝑥3 = 0 ⎪
⎩0 = 0
ci sono infinite soluzioni ∀𝑥2 , ∀𝑥3 , quindi dim Ker(𝑓 ) = 2 e una base di Ker(𝑓 ) è data dai
⎛−2⎞ ⎛2⎞
vettori ⎜ 1 ⎟ e ⎜0⎟. ✎
⎜ ⎟ ⎜ ⎟
⎝ 0 ⎠ ⎝1⎠
2. Si trovi una base di ℝ3 rispetto alla quale la matrice di 𝑓 sia

⎛ 0 0 1 ⎞
𝐵=⎜ 0 0 0 ⎟
⎜ ⎟
⎝ 0 0 0 ⎠

Svolgimento. Sia {𝑣1 , 𝑣2 , 𝑣3 } la base che corrisponde alla matrice 𝐵. Si deve avere

𝑓 (𝑣1 ) = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3

dove 𝛼1 , 𝛼2 , 𝛼3 sono la prima colonna della matrice 𝐵, quindi 𝛼1 = 𝛼2 = 𝛼3 = 0, quindi si ha


𝑓 (𝑣1 ) = 0. Analogamente

𝑓 (𝑣2 ) = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 = 0𝑣1 + 0𝑣2 + 0𝑣3 = 0

che è la seconda colonna di 𝐵. Infine

𝑓 (𝑣3 ) = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 = 1𝑣1 + 0𝑣2 + 0𝑣3 = 0 ⇒ 𝑓 (𝑣3 ) = 𝑣1

che è la terza colonna di 𝐵.


In conclusione, bisogna scegliere i vettori 𝑣1 , 𝑣2 , 𝑣3 in modo che 𝑓 (𝑣1 ) = 0, 𝑓 (𝑣2 ) = 0,
𝑓 (𝑣3 ) = 𝑣1 . Il testo del problema ci dice che 𝑓 (𝑢) = 𝑤 e 𝑓 (𝑤) = 0, quindi possiamo porre
𝑣3 = 𝑢 e 𝑣1 = 𝑤. Infine, per 𝑣2 la richiesta è 𝑓 (𝑣2 ) = 0, cioè 𝑣2 ∈ Ker(𝑓 ). Ad esempio,
possiamo porre 𝑣2 = (2, 0, 1). Si verifica facilmente che i vettori

⎛4⎞ ⎛2⎞ ⎛1⎞


𝑣1 = 𝑤 = ⎜−1⎟ 𝑣2 = ⎜0⎟ 𝑣3 = 𝑢 = ⎜−1⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1⎠ ⎝1⎠ ⎝0⎠
sono linearmente indipendenti e quindi sono una base di ℝ3 , che indichiamo, nel seguito,
con 𝑣 = {𝑣1 , 𝑣2 , 𝑣3 }.2 ✎

3. Determinare una matrice invertibile 𝑆 tale che 𝐴 = 𝑆𝐵𝑆 −1

Svolgimento. 𝐴 e 𝐵 sono due matrici simili associate alla stessa funzione 𝑓 (in particolare,
𝐴 = 𝑀𝑒𝑒 (𝑓 ) e 𝐵 = 𝑀𝑣𝑣 (𝑓 )), quindi sono collegate dalla solita formula di cambiamento di base
2
Avremmo potuto anche scegliere 𝑣2 = (−2, 1, 0)
154 LEZIONE 32. ESERCIZI

𝐴𝑆 = 𝑆𝐵. La matrice 𝑆 è la matrice di cambiamento di base 𝑀𝑣𝑒 (𝑖𝑑), che ha quindi, per
colonne, i vettori 𝑣1 , 𝑣2 , 𝑣3 della nuova base
⎛ 4 2 1 ⎞
𝑆 = ⎜ −1 0 −1 ⎟
⎜ ⎟
⎝ 1 1 0 ⎠
Si può verificare che 𝐴𝑆 = 𝑆𝐵. ✎
4. Si dica se esiste una matrice invertibile 𝑅 tale che 𝐴 = 𝑅𝐶𝑅 −1 , dove
⎛ 0 0 1 ⎞
𝐶=⎜ 0 1 0 ⎟
⎜ ⎟
⎝ 0 0 0 ⎠

Svolgimento. La matrice 𝑅 esiste se e solo se 𝐴 e 𝐶 sono simili. Sappiamo che 𝐴 e 𝐵 so-


no simili. Quindi se 𝐴 fosse simile a 𝐶, anche 𝐵 sarebbe simile a 𝐶. Tuttavia abbiamo
rango(𝐵) = 1 e rango(𝐶) = 2, quindi 𝐵 e 𝐶 non sono simili. Allora 𝐴 e 𝐶 non sono simili,
perciò 𝑅 non può esistere. ✎

32.2 Esercizio (7 Aprile 2018)


Consideriamo la funzione lineare 𝑓 ∶ ℝ3 → ℝ4 e i vettori

⎛2⎞ ⎛1⎞ ⎛−1⎞ ⎛2⎞ ⎛−1⎞ ⎛3⎞


⎜0⎟ ⎜1⎟ ⎜1⎟
𝑣1 = ⎜1⎟ 𝑣2 = ⎜1⎟ 𝑣3 = ⎜ 2 ⎟ 𝑓 (𝑣1 ) = ⎜ ⎟ 𝑓 (𝑣2 ) = ⎜ ⎟ 𝑓 (𝑣3 ) = ⎜ ⎟
⎜ ⎟
⎝0⎠
⎜ ⎟
⎝0⎠
⎜ ⎟
⎝1⎠ ⎜−1⎟ ⎜𝑡⎟ ⎜1⎟
⎝2⎠ ⎝0⎠ ⎝4⎠
1. Calcolare la matrice 𝐴 di 𝑓 rispetto alla base {𝑣1 , 𝑣2 , 𝑣3 } di ℝ3 e alla base canonica di ℝ4 .
Calcolare anche il rango di 𝐴

Svolgimento. Calcoliamo i vettori 𝑓 (𝑣1 ), 𝑓 (𝑣2 ) e 𝑓 (𝑣3 ) come combinazione lineare dei vettori
della base canonica
⎛2⎞ ⎛1⎞ ⎛0⎞ ⎛0⎞ ⎛0⎞ ⎛1⎞ ⎛0⎞ ⎛0⎞ ⎛0⎞
⎜0⎟ ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜0⎟ ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜0⎟
𝑓 (𝑣1 ) = ⎜ ⎟ = 𝑎1 ⎜ ⎟ + 𝑎2 ⎜ ⎟ + 𝑎3 ⎜ ⎟ + 𝑎4 ⎜ ⎟ = 2 ⎜ ⎟ + 0 ⎜ ⎟ − 1 ⎜ ⎟ + 2 ⎜ ⎟
⎜−1⎟ ⎜0⎟ ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜0⎟ ⎜0⎟ ⎜1⎟ ⎜0⎟
⎝2⎠ ⎝0⎠ ⎝0⎠ ⎝0⎠ ⎝1⎠ ⎝0⎠ ⎝0⎠ ⎝0⎠ ⎝1⎠
quindi la prima colonna di 𝐴 contiene i coefficienti 𝑎1 = 2, 𝑎2 = 0, 𝑎3 = −1, 𝑎4 = 2. Si verifica
facilmente che 𝐴 è
⎛ 2 −1 3 ⎞
⎜ 0 1 1 ⎟
𝐴=⎜ ⎟
⎜ −1 𝑡 1 ⎟
⎝ 2 0 4 ⎠
Per calcolare il rango di 𝐴, riduciamola in forma a scala
⎛ 2 −1 3 ⎞ ⎛ 2 −1 3 ⎞ ⎛ 2 3 −1 ⎞ ⎛ 2 3 −1 ⎞
⎜ 0 1 1 ⎟ ⎜ 0 1 1 ⎟ ⎜ 0 1 1 ⎟ ⎜ 0 1 1 ⎟
⎜ ⎟ ⇝⎜ ⎟⇝⎜ ⎟⇝⎜ ⎟
⎜ −1 𝑡 1 ⎟ ⎜ 0 2𝑡 − 1 5 ⎟ ⎜ 0 5 2𝑡 − 1 ⎟ ⎜ 0 0 2𝑡 − 6 ⎟
⎝ 2 0 4 ⎠ ⎝ 0 1 1 ⎠ ⎝ 0 1 1 ⎠ ⎝ 0 0 0 ⎠
32.2. ESERCIZIO (7 APRILE 2018) 155

Ci sono due casi: (𝑖) se 𝑡 = 3, allora il rango di rango(𝐴) = 2; (𝑖𝑖) se 𝑡 ≠ 3, allora rango(𝐴) = 3.

2. Il rango di 𝐴 non è massimo per 𝑡 = 3. Scrivere la matrice 𝑓 rispetto alle basi canoniche.

Svolgimento. Consideriamo la base canonica di ℝ3 , {𝑒1 , 𝑒2 , 𝑒3 }, e ricaviamo le relative im-


magini rispetto ad 𝑓 scrivendo i vettori della base canonica come combinazione lineare dei
vettori della base {𝑣1 , 𝑣2 , 𝑣3 }

• Consideriamo 𝑒1

⎛1⎞ ⎛1⎞ ⎛ 2 ⎞ ⎛−1⎞ ⎛ 3 ⎞


⎜0⎟ = 𝑣1 − 𝑣2 ⇒ 𝑓 ⎜0⎟ = 𝑓 (𝑣1 ) − 𝑓 (𝑣2 ) = ⎜⎜ 0 ⎟⎟ − ⎜⎜ 1 ⎟⎟ = ⎜⎜−1⎟⎟
⎜ ⎟
⎝0⎠
⎜ ⎟
⎝0⎠ ⎜−1⎟ ⎜ 3 ⎟ ⎜−4⎟
⎝2⎠ ⎝0⎠ ⎝2⎠

• Consideriamo 𝑒2

⎛0⎞ ⎛0⎞ ⎛−1⎞ ⎛ 3 ⎞ ⎛−4⎞


⎜1⎟ = 𝑣2 − 𝑒1 ⇒ 𝑓 ⎜1⎟ = 𝑓 (𝑣2 ) − 𝑓 (𝑒1 ) = ⎜⎜ 1 ⎟⎟ − ⎜⎜−1⎟⎟ = ⎜⎜ 2 ⎟⎟
⎜ ⎟
⎝0⎠
⎜ ⎟
⎝0⎠ ⎜ 3 ⎟ ⎜−4⎟ ⎜ 7 ⎟
⎝ 0 ⎠ ⎝ 2 ⎠ ⎝−2⎠

• Consideriamo 𝑒3

⎛0⎞ ⎛0⎞ ⎛3⎞ ⎛ 3 ⎞ ⎛−4⎞ ⎛ 14 ⎞


⎜0⎟ = 𝑣3 + 𝑒1 − 2𝑒2 ⇒ 𝑓 ⎜0⎟ = 𝑓 (𝑣3 ) + 𝑓 (𝑒1 ) − 2𝑓 (𝑒2 ) = ⎜ ⎟ + ⎜ ⎟ − 2 ⎜⎜ 2 ⎟⎟ = ⎜⎜ −4 ⎟⎟
⎜ 1⎟ ⎜−1 ⎟
⎜ ⎟
⎝1⎠
⎜ ⎟
⎝1⎠ ⎜1⎟ ⎜−4⎟ ⎜ 7 ⎟ ⎜−17⎟
4
⎝ ⎠ ⎝ ⎠ 2 ⎝−2⎠ ⎝ 10 ⎠

Da cui ricaviamo la matrice rispetto alle basi canoniche

⎛ 3 −4 14 ⎞
⎜ −1 2 −4 ⎟
𝐵=⎜ .
⎜ −4 7 −17 ⎟⎟
⎝ 2 −2 10 ⎠

⎛2⎞ ⎛1⎞
3. Consideriamo il sottospazio 𝑈 ⊂ ℝ generato dai vettori 𝑢1 = 0 e 𝑢2 = ⎜1⎟. Consideriamo,
3 ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎝−1⎠ ⎝0⎠
inoltre, la funzione 𝑓 ristretta a 𝑈 , 𝑓 ∶ 𝑈 → ℝ4 . Calcoliamo la matrice 𝐶 di 𝑓 ∶ 𝑈 → ℝ4
rispetto alla base {𝑢1 , 𝑢2 } e alla base canonica di ℝ4 .

Svolgimento. Consideriamo 𝑢1

⎛2⎞ ⎛2⎞ ⎛ 3 ⎞ ⎛ 14 ⎞ ⎛−8⎞


𝑢1 = ⎜ 0 ⎟ = 2𝑒1 − 𝑒3 ⇒ 𝑓 (𝑢1 ) = 𝑓 ⎜ 0 ⎟ = 2𝑓 (𝑒1 ) − 𝑓 (𝑒3 ) = 2 ⎜⎜−1⎟⎟ − ⎜⎜ −4 ⎟⎟ = ⎜⎜ 2 ⎟⎟
⎜ ⎟
⎝−1⎠
⎜ ⎟
⎝−1⎠ ⎜−4⎟ ⎜−17⎟ ⎜ 9 ⎟
⎝ 2 ⎠ ⎝ 10 ⎠ ⎝−6⎠
156 LEZIONE 32. ESERCIZI

Si noti che avremmo potuto calcolare 𝑓 (𝑢1 ) anche come


3 −4 14 ⎞ −8
⎛ 2 ⎞ ⎛⎜ ⎛ 2⎞ ⎛ ⎞
−1 2 −4 ⎟ ⎜ ⎟ ⎜ 2 ⎟
𝐵⎜ 0 ⎟ = ⎜ 0 =
⎜ ⎟ ⎜ −4 7 −17 ⎟⎟ ⎜ ⎟ ⎜⎜ 9 ⎟⎟
⎝−1⎠ ⎝ −1
2 −2 10 ⎠ ⎝ ⎠ ⎝−6⎠

Consideriamo 𝑢2

⎛1⎞ ⎛1⎞ ⎛ 3 ⎞ ⎛−4⎞ ⎛−1⎞


𝑢2 = ⎜1⎟ = 𝑒1 + 𝑒2 ⇒ 𝑓 (𝑢2 ) = 𝑓 ⎜1⎟ = 𝑓 (𝑒1 ) + 𝑓 (𝑒2 ) = ⎜⎜−1⎟⎟ + ⎜⎜ 2 ⎟⎟ = ⎜⎜ 1 ⎟⎟
⎜ ⎟
⎝0⎠
⎜ ⎟
⎝0⎠ ⎜−4⎟ ⎜ 7 ⎟ ⎜ 3 ⎟
⎝ 2 ⎠ ⎝−2⎠ ⎝ 0 ⎠
Si noti che
3 −4 14 ⎞ −1
⎛1⎞ ⎛⎜ ⎛ 1⎞ ⎛ ⎞
−1 2 −4 ⎟ ⎜ ⎟ ⎜ 1 ⎟
𝐵 ⎜1⎟ = ⎜ 1 =
⎜ ⎟ ⎜ −4 7 −17 ⎟⎟ ⎜ ⎟ ⎜⎜ 3 ⎟⎟
⎝0⎠ ⎝ 0
2 −2 10 ⎠ ⎝ ⎠ ⎝ 0 ⎠
La matrice 𝐶 è quindi
⎛ −8 −1 ⎞
⎜ 2 1 ⎟
𝐶=⎜ .
⎜ 9 3 ⎟⎟
⎝ −6 0 ⎠
4. Come calcolare 𝑓 (𝑢1 ) usando la matrice 𝐴?

Svolgimento. Vogliamo calcolare


⎛𝛼1 ⎞
𝑓 (𝑢1 ) = 𝐴 ⎜𝛼2 ⎟
⎜ ⎟
⎝𝛼3 ⎠
dove
⎛2⎞ ⎛2⎞ ⎛1⎞ ⎛−1⎞ ⎛2𝛼1 + 𝛼2 − 𝛼3 ⎞
𝑢1 = ⎜ 0 ⎟ = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 = 𝛼1 ⎜1⎟ + 𝛼2 ⎜1⎟ + 𝛼3 ⎜ 2 ⎟ = ⎜𝛼1 + 𝛼2 + 2𝛼3 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝−1⎠ ⎝0⎠ ⎝0⎠ ⎝1⎠ ⎝ 𝛼3 ⎠
Risolviamo il sistema corrispondente

⎪ ⎧ ⎧ ⎧
⎪ 2𝛼1 + 𝛼2 − 𝛼3 = 2 ⎪⎪2𝛼1 + 𝛼2 = 1 ⎪
⎪ 𝛼2 = 3 ⎪
⎪ 𝛼2 = 3
⎪ ⎪ ⎪ ⎪
⎨ 𝛼1 + 𝛼2 + 2𝛼3 = 0 ⎨𝛼1 + 𝛼2 = 2 ⎨ 𝛼1 = 2 − 𝛼2 ⎨ 𝛼1 = −1

⎪ ⎪
⎪ ⎪
⎪ ⎪


⎩ 𝛼 3 = −1 ⎪
⎩𝛼3 = −1 ⎪
⎩𝛼3 = −1 ⎪
⎩𝛼3 = −1
⎛−1⎞
quindi ⎜ 3 ⎟ è il vettore 𝑢1 espresso rispetto alla base {𝑣1 , 𝑣2 , 𝑣3 }. Quindi
⎜ ⎟
⎝−1⎠
2 −1 3 ⎞ −2 − 3 − 3⎞ ⎛−8⎞
⎛−1⎞ ⎛⎜ ⎛−1⎞ ⎛
0 1 1 ⎟⎜ ⎟ ⎜ 3 − 1 ⎟ ⎜ 2 ⎟
𝑓 (𝑢1 ) = 𝐴 ⎜ 3 ⎟ = ⎜ 3 = = .
⎜ ⎟ ⎜ −1 3 1 ⎟⎟ ⎜ ⎟ ⎜⎜ 1 + 9 − 1 ⎟⎟ ⎜⎜ 9 ⎟⎟
⎝−1⎠ ⎝ −1
2 0 4 ⎠ ⎝ ⎠ ⎝ −2 − 4 ⎠ ⎝−6⎠
32.2. ESERCIZIO (7 APRILE 2018) 157

5. Come calcolare 𝑓 (𝑢), con 𝑢 ∈ 𝑈 , usando la matrice 𝐶?

𝑎1
Svolgimento. 𝑢 ∈ 𝑈 si può esprimere come 𝑢 = 𝑎1 𝑢1 + 𝑎2 𝑢2 , quindi sono le coordinate
(𝑎2 )
del vettore 𝑢 rispetto alla base {𝑢1 , 𝑢2 }. Perciò

⎛ −8 −1 ⎞ ⎛−8𝑎1 − 𝑎2 ⎞
𝑎1 ⎜ 2 1 ⎟ 𝑎1 ⎜ 2𝑎 + 𝑎2 ⎟
𝑓 (𝑢) = 𝑓 (𝑎1 𝑢1 + 𝑎2 𝑢2 ) = 𝑎1 𝑓 (𝑢1 ) + 𝑎2 𝑓 (𝑢2 ) = 𝐶 =⎜ =⎜ 1 .
(𝑎2 )


9 3 ⎟ (𝑎2 ) ⎜ 9𝑎1 + 3𝑎2 ⎟⎟
⎝ −6 0 ⎠ ⎝ −6𝑎1 ⎠
Lezione 33

Esercizi

33.1 Esercizio Autovalori e Autovettori


Calcolare autovalori e autovettori della funzione lineare 𝑓 ∶ ℝ2 → ℝ2

𝑥 2𝑥 + 𝑦

(𝑦) (3𝑥 + 4𝑦)

1. … utilizzando la matrice di 𝑓 rispetto alla base canonica di ℝ2

Svolgimento. Scriviamo la matrice 𝐴 di 𝑓 rispetto alla base canonica

1 2 0 1
𝑓 (𝑒1 ) = 𝑓 = = 2𝑒1 + 3𝑒2 𝑓 (𝑒2 ) = 𝑓 = = 1𝑒1 + 4𝑒2
(0) (3) (1) (4)

quindi
2 1
𝐴=
( 3 4 )
il cui polinomio caratteristico è

2−𝜆 1
det = (2 − 𝜆)(4 − 𝜆) − 3 = 8 − 2𝜆 − 4𝜆 + 𝜆2 − 3 = 𝜆2 − 6𝜆 + 5
( 3 4−𝜆 )

Gli autovalori sono le soluzioni di



6 ± 36 − 20 6 ± 4
𝜆2 − 6𝜆 + 5 = 0 ⇒ 𝜆 = = =3±2
2 2
La matrice 𝐴 (quindi la funzione 𝑓 ) ha i due autovalori 𝜆1 = 1 e 𝜆2 = 5 (entrambi con
molteplicità algebrica uguale a 1). Calcoliamo gli autovettori

• Con 𝜆1 = 1, abbiamo
1 1
𝐴 − 𝜆𝐼 =
( 3 3 )
{ {
1 1 𝑥 0 𝑥 +𝑦 =0 𝑦 = −𝑥 1
= ⇒ ⇒ 𝑢1 =
( 3 3 ) (𝑦) (0) 3𝑥 + 3𝑦 = 0 0=0 (−1)

158
33.1. ESERCIZIO AUTOVALORI E AUTOVETTORI 159

• Con 𝜆2 = 5, abbiamo
−3 1
𝐴 − 𝜆𝐼 =
( 3 −1 )
{ {
−3 1 𝑥 0 −3𝑥 + 𝑦 = 0 𝑦 = 3𝑥 1
= ⇒ ⇒ 𝑢2 =
( 3 −1 ) (𝑦) (0) 3𝑥 − 𝑦 = 0 0=0 (3)

Quindi 𝑢1 e 𝑢2 sono autovettori di 𝐴 ✎


3 5
2. … utilizzando la matrice di 𝑓 rispetto alla base 𝑣1 = e𝑣 =
(5) 2 (7)

3 5
Svolgimento. Scriviamo la matrice 𝐵 di 𝑓 rispetto alla base 𝑣1 = e 𝑣2 =
(5) (7)

3 11
𝑓 (𝑣1 ) = 𝑓 = = 𝑎1 𝑣1 + 𝑎2 𝑣2
(5) (29)
Bisogna quindi risolvere
{ {
3 5 11 3𝑎 1 + 5𝑎2 = 11 𝑎1 = 31 (11 − 5𝑎2 )
𝑎1 + 𝑎2 = ⇒ 55
(5) (7) (29) 5𝑎1 + 7𝑎2 = 29 3
− 253 𝑎2 + 7𝑎2 = 29
{ {
𝑎1 = 13 (11 − 5𝑎2 ) 𝑎1 = 17
4 32
− 3 𝑎2 = 3 𝑎2 = −8
Inoltre
5 17
𝑓 (𝑣2 ) = 𝑓 = = 𝑏1 𝑣1 + 𝑏2 𝑣2
(7) (43)
Bisogna quindi risolvere
{ {
3 5 17 3𝑏1 + 5𝑏2 = 17 𝑏1 = 13 (17 − 5𝑏2 )
𝑏1 + 𝑏2 = ⇒ 85
(5) (7) (43) 5𝑏1 + 7𝑏2 = 43 3
− 253 𝑏2 + 7𝑏2 = 43
{ {
𝑏1 = 13 (17 − 5𝑏2 ) 𝑏1 = 24
− 43 𝑏2 = 443 𝑏2 = −11
Da cui ricaviamo
17 24
𝐵=
( −8 −11 )
Osserviamo che 𝐵 è simile alla matrice 𝐴, perché rappresenta la stessa funzione 𝑓 rispetto a
una diversa scelta dei vettori di base. Sappiamo che 𝐵 deve avere lo stesso polinomio caratteri-
stico, e quindi gli stessi autovalori di 𝐴, perché questi sono gli autovalori di 𝑓 . Ma 𝐵 avrà anche
gli stessi autovettori di 𝐴?
Polinomio caratteristico di 𝐵:
17 − 𝜆 24
det = (17 − 𝜆)(−11 − 𝜆) + 8 ⋅ 24 = −187 − 17𝜆 + 11𝜆 + 𝜆2 + 192 = 𝜆2 − 6𝜆 + 5
( −8 −11 − 𝜆 )
quindi, come già sapevamo, il polinomio caratteristico di 𝐵 è uguale al polinomio caratteristico
di 𝐴. Gli autovalori sono quindi 𝜆1 = 1 e 𝜆2 = 5. Calcoliamo gli autovettori di 𝐵
160 LEZIONE 33. ESERCIZI

• 𝜆1 = 1
16 24 16 24 𝑥 0
𝐵 − 1𝐼 = ⇒ = ⇒
( −8 −12 ) ( −8 −12 ) (𝑦) (0)
{ {
16𝑥 + 24𝑦 = 0 𝑥 = − 23 𝑦 −3
⇒ ⇒ 𝑤1 =
−8𝑥 − 12𝑦 = 0 0=0 ( 2)

• 𝜆2 = 5
12 24 12 24 𝑥 0
𝐵 − 5𝐼 = ⇒ = ⇒
( −8 −16 ) ( −8 −16 ) (𝑦) (0)
{ {
12𝑥 + 24𝑦 = 0 𝑥 = −2𝑦 2
⇒ ⇒ 𝑤2 =
−8𝑥 − 16𝑦 = 0 0=0 ( −1)

Quindi 𝑤1 e 𝑤2 sono autovettori di 𝐵. ✎

Domanda: Perché usando le matrici 𝐴 e 𝐵 abbiamo ottenuto autovettori diversi?


Le coordinate degli autovettori che abbiamo trovato usando le matrici 𝐴 e 𝐵 sono riferite a
sistemi di riferimento diversi (cioè a basi diverse). La matrice 𝐴 era stata costruita usando la base
1
canonica di ℝ2 , quindi le coordinate dell’autovettore 𝑢1 = sono le coordinate rispetto alla
(−1)
1
base canonica, ovverosia 1𝑒1 − 1𝑒2 . Allo stesso modo, le coordinate dell’autovettore 𝑢2 =
(3)
3
rappresentano il vettore 1𝑒1 +3𝑒2 . Invece, la matrice 𝐵 era stata costruita usando la base 𝑣1 =
(5)
5 −3
e 𝑣2 = , quindi le coordinate −3 e 2 dell’autovettore 𝑤1 = sono le coordinate rispetto
(7) (2)
alla base 𝑣1 e 𝑣2 , che rappresentano il vettore −3𝑣1 + 2𝑣2 . Infatti

3 5 1
−3𝑣1 + 2𝑣2 = −3 +2 = = 1𝑒1 − 1𝑒2
(5) (7) (−1)

quindi il vettore 𝑤1 e il vettore 𝑢1 sono lo stesso vettore, ma le loro coordinate sono diverse
semplicemente perché riferite a basi diverse.
2
Analogamente, le coordinate 2 e −1 dell’autovettore 𝑤2 = sono le coordinate rispetto
(−1)
alla base 𝑣1 e 𝑣2 e quindi rappresentano il vettore 2𝑣1 − 1𝑣2 . Sviluppando i calcoli si trova

3 5 1
2𝑣1 − 1𝑣2 = 2 −1 = = 1𝑒1 + 3𝑒2
(5) (7) (3)

quindi il 𝑤2 e 𝑢2 sono lo stesso vettore espresso rispetto a basi diverse.

33.2 Esercizio (11 Luglio 2011)


Si consideri la seguente matrice

⎛ 0 1 0 ⎞
𝐴ℎ = ⎜ ℎ 0 1 ⎟ con ℎ ∈ ℝ
⎜ ⎟
⎝ 0 1 0 ⎠
33.2. ESERCIZIO (11 LUGLIO 2011) 161

1. Per quali valori di ℎ la matrice 𝐴ℎ è diagonalizzabile (sul campo dei numeri reali)?

Svolgimento. Determiniamo il polinomio caratteristico


⎛ −𝜆 1 0 ⎞
−𝜆 1 ℎ 1
det ⎜ ℎ −𝜆 1 ⎟ = (−1)1+1 (−𝜆)det + (−1)1+2 1 ⋅ det =
⎜ ⎟ ( 1 −𝜆 ) ( 0 −𝜆 )
⎝ 0 1 −𝜆 ⎠
= −𝜆(𝜆2 − 1) + 𝜆ℎ = −𝜆(𝜆2 − 1 − ℎ) = 0

Le soluzioni sono 𝜆 = 0 e 𝜆2 = 1 + ℎ, ovverosia 𝜆 ± 1 + ℎ. Ciò significa che ci sono tre
autovalori reali (non necessariamente distinti) se e solo se 1 + ℎ ≥ 0, cioè ℎ ≥ −1. Ci sono
due casi:

(a) Se ℎ > −1, 1 + ℎ ≠ 0, ci sono tre autovalori reali distinti. In questo caso, 𝐴ℎ è
sicuramente diagonalizzabile.
(b) Se ℎ = −1, gli autovalori sono tutti 0, ovverosia l’autovalore 𝜆 = 0 ha molteplicità
algebrica 3. Calcoliamo gli autovettori per ℎ = −1

⎪ ⎧
⎪ {
⎛ 0 1 0 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎪ 𝑥2 = 0 ⎪ 𝑥2 = 0
⎪ ⎪
⎜ −1 0 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⇒ ⎨−𝑥1 + 𝑥3 = 0 ⎨−𝑥1 + 𝑥3 = 0 𝑥2 = 0
⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎪
⎪ ⎪
⎪ 𝑥1 = 𝑥3
⎝ 0 1 0 ⎠ ⎝𝑥3 ⎠ ⎝0⎠ ⎪
⎩ 𝑥 2 = 0 ⎪
⎩ 𝑥 2 = 0
Il sistema ha infinite soluzioni ∀𝑥3 , allora la dimensione dell’autospazio è 1, perciò la
molteplicità geometrica dell’autovalore è strettamente minore della sua molteplicità
algebrica e la matrice non è diagonalizzabile. ✎
2. Per ogni ℎ per cui la matrice 𝐴ℎ ha autovalori con molteplicità maggiore di 1, trovare gli
autospazi.

Svolgimento. L’unico caso è ℎ = −1 e l’unico autovalore è 𝜆 = 0. Abbiamo già calcolato


⎛1⎞
l’autospazio relativo a 𝜆 = 0, che è 𝑥2 = 0, 𝑥1 = 𝑥3 . Una base dell’autospazio è quindi ⎜0⎟ ✎
⎜ ⎟
⎝1⎠
3. Per ℎ = 3, trovare una matrice 𝑃 tale che la matrice 𝐷, con 𝐷 = 𝑃 −1 𝐴3 𝑃, sia diagonale.

Svolgimento. La matrice 𝑃 è semplicemente una matrice 3 × 3 le cui colonne sono i vettori


della basa formata dagli autovettori della matrice. Per ℎ = 3 la matrice è
⎛ 0 1 0 ⎞
𝐴=⎜ 3 0 1 ⎟
⎜ ⎟
⎝ 0 1 0 ⎠
i cui autovalori sono 0, +2 e −2 (tre autovalori distinti con molteplicità algebrica 1). Calco-
liamo gli autovettori
• 𝜆=0
{ {
⎛ 0 1 0 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎛1⎞
⎜ 3 0 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⇒ 𝑥2 = 0 𝑥2 = 0
autovettore 𝑣1 = ⎜ 0 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟ 3𝑥1 + 𝑥3 = 0 𝑥3 = −3𝑥1 ⎜ ⎟
⎝ 0 1 0 ⎠ ⎝𝑥3 ⎠ ⎝0⎠ ⎝−3⎠
162 LEZIONE 33. ESERCIZI

• 𝜆=2

⎪ {
⎛ −2 1 0 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎪−2𝑥1 + 𝑥2 = 0 ⎛1⎞
⎜ 3 −2 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⇒ ⎪
⎨ 3𝑥1 − 2𝑥2 + 𝑥3 = 0
𝑥2 = 2𝑥1
⇒ 𝑣2 = ⎜2⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎪
⎪ 𝑥3 = 𝑥1 ⎜ ⎟
⎝ 0 1 −2 ⎠ ⎝𝑥3 ⎠ ⎝0⎠ ⎪
⎩𝑥2 − 2𝑥3 = 0 ⎝1⎠

• 𝜆 = −2

⎪ {
⎛ 2 1 0 ⎞ ⎛𝑥1 ⎞ ⎛0⎞ ⎪2𝑥1 + 𝑥2 = 0 ⎛1⎞

⎜ 3 2 1 ⎟ ⎜𝑥2 ⎟ = ⎜0⎟ ⇒ ⎨3𝑥1 + 2𝑥2 + 𝑥3 = 0 𝑥2 = −2𝑥1
⇒ 𝑣3 = ⎜−2⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎪
⎪ 𝑥3 = 𝑥1 ⎜ ⎟
⎝ 0 1 2 ⎠ ⎝𝑥3 ⎠ ⎝0⎠ ⎪
⎩𝑥2 + 2𝑥3 = 0 ⎝1⎠

Da cui ricaviamo le matrici


⎛ 0 0 0 ⎞ ⎛ 1 1 1 ⎞
𝐷=⎜ 0 2 0 ⎟ 𝑃 = ⎜ 0 2 −2 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 0 −2 ⎠ ⎝ −3 1 1 ⎠
Si ha 𝐴𝑃 = 𝑃𝐷, quindi 𝐴 = 𝑃𝐷𝑃 −1 e 𝐷 = 𝑃 −1 𝐴𝑃. ✎

4. Per ℎ = −1, mostrare che (𝐴ℎ )3 è la matrice nulla. Per questo valore di ℎ, è vero che la
⎛ 0 1 0 ⎞
matrice 𝐴ℎ è simile alla matrice 𝐵 = ⎜ 0 0 0 ⎟?
⎜ ⎟
⎝ 0 0 0 ⎠

⎛ 0 1 0 ⎞
Svolgimento. Abbiamo ℎ = −1. La matrice 𝐴ℎ è ⎜ −1 0 1 ⎟
⎜ ⎟
⎝ 0 1 0 ⎠
⎛ 0 1 0 ⎞ ⎛ 0 1 0 ⎞ ⎛ −1 0 1 ⎞
(𝐴ℎ )2 = ⎜ −1 0 1 ⎟ ⎜ −1 0 1 ⎟ = ⎜ 0 0 0 ⎟
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ 0 1 0 ⎠ ⎝ 0 1 0 ⎠ ⎝ −1 0 1 ⎠
⎛ −1 0 1 ⎞ ⎛ 0 1 0 ⎞ ⎛ 0 0 0 ⎞
(𝐴ℎ ) = (𝐴ℎ ) 𝐴ℎ = ⎜ 0 0 0 ⎟ ⎜ −1 0 1 ⎟ = ⎜ 0 0 0 ⎟
3 2
⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ −1 0 1 ⎠ ⎝ 0 1 0 ⎠ ⎝ 0 0 0 ⎠
La matrice 𝐴−1 è un esempio di matrice nilpotente.
Ora ci chiediamo se le matrici 𝐴ℎ e 𝐵 sono simili. Per definizione di matrici simili, due
matrici simili devono avere lo stesso determinante, gli stessi autovalori e lo stesso rango.
Considerando il rango, sappiamo che esso rappresenta la dimensione dell’immagine della
funzione corrispondente alla matrice. Due matrici simili corrispondono alla stessa funzione
e quindi devono avere lo stesso rango.

⎛ 0 1 0 ⎞ ⎛ 0 1 0 ⎞
𝐴ℎ = ⎜ −1 0 1 ⎟ 𝐵=⎜ 0 0 0 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 0 1 0 ⎠ ⎝ 0 0 0 ⎠
Osserviamo che il rango di 𝐴ℎ è 2, mentre il rango di 𝐵 è 1. Quindi 𝐴ℎ e 𝐵 non sono simili,
perché hanno ranghi diversi. ✎
33.3. ESERCIZIO (5 GIUGNO 2018) 163

33.3 Esercizio (5 Giugno 2018)


Si consideri lo spazio vettoriale 𝑈 ⊂ ℝ4 generato dai seguenti vettori

⎛0⎞ ⎛3⎞ ⎛5⎞ ⎛1⎞


⎜3⎟ ⎜0⎟ ⎜−4⎟ ⎜−2⎟
𝑢1 = ⎜ ⎟ 𝑢2 = ⎜ ⎟ 𝑢3 = ⎜ ⎟ 𝑢4 = ⎜ ⎟
⎜5⎟ ⎜4⎟ ⎜0⎟ ⎜−2⎟
⎝1⎠ ⎝2⎠ ⎝2⎠ ⎝0⎠
1. Determinare una base di 𝑈 e le relazioni di dipendenza lineare tra i vettori.1

Svolgimento. Sfruttiamo il metodo di eliminazione di Gauss

⎛ 0 3 5 1 1 0 0 0 ⎞ ⎛ 1 −2 −2 0 0 0 0 1 ⎞
⎜ 3 0 4 2 0 1 0 0 ⎟ ⎜ 3 0 4 2 0 1 0 0 ⎟
⎜ 5 −4 0 2 0 0 1 0 ⎟⇝⎜ 5 −4 0 2 0 0 1 0 ⎟⇝
⎜ ⎟ ⎜ ⎟
⎝ 1 −2 −2 0 0 0 0 1 ⎠ ⎝ 0 3 5 1 1 0 0 0 ⎠

⎛ 1 −2 −2 0 0 0 0 1 ⎞ ⎛ 1 −2 −2 0 0 0 0 1 ⎞
⎜ 0 6 10 2 0 1 0 −3 ⎟ ⎜ 0 6 10 2 0 1 0 −3 ⎟
⇝⎜ ⎟ ⇝⎜ ⎟
⎜ 0 6 10 2 0 0 1 −5 ⎟ ⎜ 0 0 0 0 0 −1 1 −2 ⎟
⎝ 0 3 5 1 1 0 0 0 ⎠ ⎝ 0 0 0 0 2 −1 0 3 ⎠
Il rango della matrice 𝐴 è due, quindi dim 𝑈 = 2. Dalla matrice possiamo anche ricavare le
relazioni di dipendenza lineare

−𝑢2 + 𝑢3 − 2𝑢4 = 0 2𝑢1 − 𝑢2 + 3𝑢4 = 0

Perciò
1 3
𝑢3 = 𝑢2 + 2𝑢4 𝑢1 = 𝑢2 − 𝑢4
2 2
2
quindi {𝑢2 , 𝑢4 } sono una base di 𝑈 , 𝑈 = ⟨𝑢2 , 𝑢4 ⟩. ✎
2. Determinare le equazioni cartesiane di 𝑈

Svolgimento.
⎛𝑥1 ⎞ ⎛3⎞ ⎛1⎞
⎜𝑥2 ⎟ ⎜0⎟ ⎜−2⎟
⎜𝑥 ⎟ = 𝛼𝑢2 + 𝛽𝑢4 = 𝛼 ⎜4⎟ + 𝛽 ⎜−2⎟
⎜ 3⎟ ⎜ ⎟ ⎜ ⎟
⎝𝑥4 ⎠ ⎝2⎠ ⎝0⎠
Da cui ricaviamo il sistema parametrico


⎪ 𝑥1 = 3𝛼 + 𝛽


⎪𝑥2 = −2𝛽


⎪ 𝑥3 = 4𝛼 − 2𝛽


⎪ 𝑥 = 2𝛼
⎩ 4
1
Avremmo anche potuto risolvere il sistema 𝜆1 𝑢1 + 𝜆2 𝑢2 + 𝜆3 𝑢3 + 𝜆4 𝑢4 = 0 scoprendo che ha due parametri liberi
di variare; questi due parametri corrispondono alle due relazioni di dipendenza lineare (per esempio, 𝑢2 = 2𝑢1 + 3𝑢4
e 𝑢3 = 2𝑢1 + 5𝑢4 )
2
In realtà, qualsiasi coppia di due vettori dell’insieme {𝑢1 , 𝑢2 , 𝑢3 , 𝑢4 } rappresenta una base di 𝑈
164 LEZIONE 33. ESERCIZI

da cui dobbiamo ricavare le equazioni cartesiane eliminando i parametri



⎪ ⎧

⎪ 𝛽 = 𝑥1 − 3𝛼 ⎪ 𝛽 = 𝑥1 − 3𝛼

⎪ ⎪

⎪𝑥2 = −2𝑥1 + 6𝛼 ⎪𝑥2 = −2𝑥1 + 3𝑥4

⎪ ⎨

⎪ 𝑥3 = 4𝛼 − 2𝑥1 + 6𝛼 ⎪ 𝑥3 = 5𝑥4 − 2𝑥1

⎪ ⎪

⎪ 𝑥 = 2𝛼 ⎪ 𝛼 = 12 𝑥4
⎩ 4 ⎩
Le equazioni parametriche sono 2𝑥1 + 𝑥2 − 3𝑥4 = 0 e 2𝑥1 + 𝑥3 − 5𝑥4 = 0 ✎
Parte V

Spazi Vettoriali Euclidei

165
Lezione 34

Prodotti Scalari

Obiettivi:

• Definire e calcolare la norma di un vettore e il prodotto scalare


di vettori in ℝ𝑛

• Definire vettori ortogonali e vettori normalizzati

• Definire l’ortogonale di un sottospazio vettoriale

34.1 Norma di un Vettore e Prodotto Scalare di Vettori


Abbiamo visto spazi vettoriali con elementi molto variegati: vettori geometrici, matrici, funzioni,
polinomi, ecc. Per natura di spazio vettoriale, concetti di tipo metrico, quali distanze, angoli, aree
e volumi, non sono naturalmente definiti, ma vanno definiti a posteriori.
𝑎
Consideriamo 𝑉 = ℝ2 e un generico vettore 𝑣 = . Il vettore 𝑣 ha una chiara rappresen-
(𝑏)
tazione geometrica


Col teorema di Pitagora, possiamo calcolare la lunghezza del segmento 𝑣 come 𝑎2 + 𝑏 2 . Tale
lunghezza si definisce norma o modulo di 𝑣 e si indica con |𝑣| o ||𝑣||. Per evitare confusione col
concetto di valore assoluto, nel seguito useremo il termine norma e la notazione ||𝑣||.
⎛𝑎 ⎞
Consideriamo ora lo spazio ℝ e un generico vettore 𝑣 = ⎜𝑏 ⎟ ∈ ℝ3
3
⎜ ⎟
⎝𝑐 ⎠

166
34.1. NORMA DI UN VETTORE E PRODOTTO SCALARE DI VETTORI 167


Applicando il teorema di Pitagora sul triangolo rettangolo 𝑂𝑅𝑃, abbiamo 𝑂𝑃 2 = 𝑂𝑅 2 + 𝑃𝑅 2 =

𝑎2 + 𝑏 2 . Applicando, poi, lo stesso teorema sul triangolo√ rettangolo 𝑂𝑃𝑄, otteniamo 𝑂𝑄 2 =
𝑂𝑃 2 + 𝑃𝑄 2 = 𝑎2 + 𝑏 2 + 𝑐 2 . Da cui ricaviamo che ||𝑣|| = 𝑎2 + 𝑏 2 + 𝑐 2 .
Definiamo ora il prodotto scalare di due vettori, che è uno scalare1

𝑣 ⋅ 𝑤 = ||𝑣|| ||𝑤|| cos 𝛼

Si noti che i due vettori creano due angoli (𝛼 e 360◦ − 𝛼). Tuttavia, la formula usa solamente
cos 𝛼 e cos 𝛼 = cos(360◦ − 𝛼), quindi non ci sono ambiguità.
Si verifica che

1. Dati 𝑣 = (𝑎1 , 𝑎2 ) e 𝑤 = (𝑏1 , 𝑏2 ), entrambi in ℝ2 , allora 𝑣 ⋅ 𝑤 = 𝑎1 𝑏1 + 𝑎2 𝑏2

2. Dati 𝑣 = (𝑎1 , 𝑎2 , 𝑎3 ) e 𝑤 = (𝑏1 , 𝑏2 , 𝑏3 ), in ℝ3 , allora 𝑣 ⋅ 𝑤 = 𝑎1 𝑏1 + 𝑎2 𝑏2 + 𝑎3 𝑏3

Dalle formule precedenti, possiamo ricavare


𝑣⋅𝑤
cos 𝛼 =
||𝑣|| ||𝑤||
Osserviamo che √
𝑣 ⋅ 𝑣 = ||𝑣||2 ⇒ ||𝑣|| = 𝑣⋅𝑣

Il prodotto scalare, in uno spazio vettoriale, permette di misurare lunghezze e angoli

Definizione 34.1. Sia 𝑣 = (𝑎1 , 𝑎2 , … , 𝑎𝑛 ) ∈ ℝ𝑛 . La norma di 𝑣, indicata con ||𝑣||, è



||𝑣|| = 𝑎12 + 𝑎22 + … + 𝑎𝑛2

Si noti che la definizione di norma di un vettore di 𝑅 𝑛 non può essere dimostrata “fisicamente”,
ma è definita arbitrariamente. Inoltre, soddisfa proprietà elementari, quali il fatto che la norma
sia un numero non negativo e la norma del vettore nullo sia zero.
1
𝑣 ⋅ 𝑤 si legge “v scalare w”
168 LEZIONE 34. PRODOTTI SCALARI

Definizione 34.2. Dati due vettori 𝑣 = (𝑎1 , 𝑎2 , … , 𝑎𝑛 ) ∈ ℝ𝑛 e 𝑤 = (𝑏1 , 𝑏2 , … , 𝑏𝑛 ) ∈ ℝ𝑛 . Il prodotto


scalare tra i due vettori 𝑣 ⋅ 𝑤 è
𝑛
𝑣 ⋅ 𝑤 = ∑ 𝑎𝑖 𝑏𝑖
𝑖=1

Si noti che si ha:



𝑣 ⋅ 𝑣 = 𝑎12 + 𝑎22 + … + 𝑎𝑛2 = ||𝑣||2 ⇒ ||𝑣|| = 𝑣⋅𝑣

Definizione 34.3. Se 𝑣, 𝑤 ∈ ℝ𝑛 , si pone

𝑣⋅𝑤
cos 𝛼 =
||𝑣|| ||𝑤||

Per poter dare questa definizione di cos 𝛼 bisogna essere sicuri che vale

𝑣⋅𝑤
−1 ≤ ≤1 ∀𝑣, 𝑤 ∈ ℝ𝑛
||𝑣|| ||𝑤||

Teorema 34.1. (Disuguaglianza di Cauchy-Schwarz) Per ogni 𝑣, 𝑤 ∈ ℝ𝑛 , si ha sempre

|𝑣 ⋅ 𝑤| ≤ ||𝑣|| ||𝑤||

Usando questo risultato, si ha


|𝑣 ⋅ 𝑤|
≤1
||𝑣|| ||𝑤||
da cui, togliendo il valore assoluto, otteniamo

𝑣⋅𝑤
−1 ≤ ≤1
||𝑣|| ||𝑤||

quindi è possibile porre

𝑣⋅𝑤 𝑣⋅𝑤
cos 𝛼 = e 𝛼 = arccos (
||𝑣|| ||𝑤|| ||𝑣|| ||𝑤|| )

Si può dimostrare che si ha:

1.
𝑣⋅𝑤
= +1 ⇔ 𝑤 = 𝑎𝑣 con 𝑎 > 0
||𝑣|| ||𝑤||
quindi l’angolo 𝛼 compreso tra 𝑣 e 𝑤 è 0◦ (cos 0◦ = 1)

2.
𝑣⋅𝑤
= −1 ⇔ 𝑤 = 𝑎𝑣 con 𝑎 < 0
||𝑣|| ||𝑤||
quindi l’angolo 𝛼 compreso tra 𝑣 e 𝑤 è 180◦ (cos 180◦ = −1)
34.2. AREA DI UN PARALLELOGRAMMA 169

34.2 Area di un Parallelogramma


Consideriamo il problema di calcolare l’area di un parallelogramma in ℝ𝑛 .
Sia 𝑃 il parallelogramma di lati 𝑣 ∈ ℝ𝑛 e 𝑤 ∈ ℝ𝑛 . Poiché i due vettori generano uno spazio di
dimensione 2 (𝑈 = ⟨𝑢, 𝑤⟩ ⊂ ℝ𝑛 ), si tratta di un piano

Allora
||𝑣|| = base del parallelogramma e ℎ = ||𝑤|| sin 𝛼 = altezza del parallelogramma
Abbiamo
Area(𝑃) = base ⋅ altezza = ||𝑣|| ||𝑤|| ⋅ sin 𝛼
ma non abbiamo formule che contengano sin 𝛼, quindi cerchiamo una formula più semplice
(Area(𝑃))2 = ||𝑣||2 ||𝑤||2 sin2 𝛼 = ||𝑣||2 ||𝑤||2 (1 − cos2 𝛼) = ||𝑣||2 ||𝑤||2 − ||𝑣||2 ||𝑤||2 cos2 𝛼 =
(𝑣 ⋅ 𝑤)2
= ||𝑣||2 ||𝑤||2 − ||𝑣||2 ||𝑤||2 = ||𝑣||2 ||𝑤||2 − (𝑣 ⋅ 𝑤)2 = (𝑣 ⋅ 𝑣)(𝑤 ⋅ 𝑤) − (𝑣 ⋅ 𝑤)2 =
||𝑣||2 ||𝑤||2
𝑣⋅𝑣 𝑣⋅𝑤
= det dove 𝑣 ⋅ 𝑤 = 𝑤 ⋅ 𝑣
( 𝑤 ⋅𝑣 𝑤 ⋅𝑤 )
Quindi abbiamo ottenuto
𝑣⋅𝑣 𝑣⋅𝑤
(Area(𝑃))2 = det
( 𝑤 ⋅𝑣 𝑤 ⋅𝑤 )
Allora abbiamo scoperto che il determinante di una matrice è collegato al concetto geometrico
di area. Ciò vale in dimensione qualunque.
Consideriamo ora tre vettori linearmente indipendenti 𝑢, 𝑣, 𝑤 ∈ ℝ𝑛 e vogliamo calcolare il
volume del parallelepipedo di lati 𝑢, 𝑣, 𝑤.

volume = area di base × altezza = area del parallelogramma di lati 𝑢, 𝑣 × altezza ℎ


Si ottiene
⎛ 𝑢⋅𝑢 𝑢⋅𝑣 𝑢⋅𝑤 ⎞
det ⎜ 𝑣 ⋅ 𝑢 𝑣 ⋅ 𝑣 𝑣 ⋅ 𝑤 ⎟ = volume2
⎜ ⎟
⎝ 𝑤 ⋅𝑢 𝑤 ⋅𝑣 𝑤 ⋅𝑤 ⎠
170 LEZIONE 34. PRODOTTI SCALARI

34.3 Sottospazio Ortogonale di un Sottospazio Vettoriale


Definizione 34.4. Due vettori 𝑣 e 𝑤 sono ortogonali se 𝑣 ⋅ 𝑤 = 0 (i due vettori sono perpendicolari).
Definizione 34.5. Un vettore 𝑣 è normalizzato se ||𝑣|| = 1 (e tale vettore si definisce versore).
Se un vettore generico 𝑣 ≠ 0 non è normalizzato, si può normalizzare
𝑣
= 𝑣̂
||𝑣||
dove 𝑣̂ è un vettore di norma unitaria (un versore).
Normalizzare un vettore è un’operazione facile, mentre variare l’angolo tra due vettori è ben
più complicato.
Consideriamo due vettori qualsiasi 𝑢 e 𝑤 che non sono ortogonali.

Per ottenere due vettori ortogonali, si può usare un terzo vettore 𝑤 ′ , che è la proiezione orto-
gonale di 𝑤 sulla retta perpendicolare al vettore 𝑣. Rimane il problema di calcolare la proiezione
ortogonale di un vettore su una retta

Il vettore 𝑤 ′ dev’essere proporzionale a 𝑢, ovverosia 𝑤 ′ ∈ 𝑈 e 𝑤 ′ = 𝜆𝑢, ma non conosciamo


𝜆. Sappiamo che 𝑤 = 𝑤 ′ + 𝑣, cioè 𝑣 = 𝑤 − 𝑤 ′ . Inoltre 𝑣 e 𝑤 ′ devono essere ortogonali, cioè
𝑣 ⋅ 𝑤 ′ = 0. Allora (𝑤 − 𝑤 ′ ) ⋅ 𝑤 ′ = 0. Da cui segue che (𝑤 − 𝜆𝑢) ⋅ 𝜆𝑢 = 0 e, poiché 𝑢 e 𝑤 ′ sono
proporzionali, (𝑤 − 𝜆𝑢) ⋅ 𝑢 = 0 ⇒ 𝑤 ⋅ 𝑢 − 𝜆𝑢 ⋅ 𝑢 = 0. Da cui
𝑢⋅𝑤
𝜆=
𝑢⋅𝑢
Per cui si trova
𝑢⋅𝑤
𝑤 ′ = 𝜆𝑢 = ( 𝑢
𝑢⋅𝑢)
𝑤 ′ è la proiezione ortogonale di 𝑤 sul sottospazio 𝑈 generato dal vettore 𝑢
Definizione 34.6. Sia 𝑈 un sottospazio di ℝ𝑛 . L’ortogonale di 𝑈 è definito ponendo2
𝑈 ⟂ = {𝑣 ∈ ℝ𝑛 | 𝑣 ⋅ 𝑢 = 0, ∀𝑢 ∈ 𝑈 }
2
𝑈 ⟂ si legge “𝑈 perpendicolare” o “𝑈 ortogonale”
34.3. SOTTOSPAZIO ORTOGONALE DI UN SOTTOSPAZIO VETTORIALE 171

In altri termini, l’ortogonale di 𝑈 è l’insieme di tutti i vettori che sono ortogonali a tutti i
vettori di 𝑈 .

Teorema 34.2. 𝑈 ⟂ è un sottospazio vettoriale di ℝ𝑛 .

Dimostrazione. Siano 𝑣1 , 𝑣2 ∈ 𝑈 ⟂ , quindi 𝑣1 ⋅ 𝑢 = 0 e 𝑣2 ⋅ 𝑢 = 0, ∀𝑢 ∈ 𝑈 . Allora (𝑣1 + 𝑣2 ) ⋅ 𝑢 =


𝑣1 ⋅ 𝑢 + 𝑣2 ⋅ 𝑢 = 0, quindi 𝑣1 + 𝑣2 ∈ 𝑈 ⟂ . Inoltre, siano 𝜆 ∈ ℝ e 𝑣 ∈ 𝑈 ⟂ . Allora (𝜆𝑣) ⋅ 𝑢 = 𝜆(𝑣 ⋅ 𝑢) = 0,
∀𝑢 ∈ 𝑈 , quindi 𝜆𝑣 ∈ 𝑈 ⟂ . Pertanto 𝑈 ⟂ è un sottospazio vettoriale. ■
Consideriamo una base {𝑢1 , 𝑢2 , … , 𝑢𝑟 } di 𝑈 e un generico vettore 𝑣 ∈ ℝ𝑛 . Se 𝑣 ∈ 𝑈 ⟂ ,
dev’essere
𝑣 ⋅ 𝑢1 = 0 𝑣 ⋅ 𝑢2 = 0 … 𝑣 ⋅ 𝑢𝑟 = 0
Se 𝑢 ∈ 𝑈 , poiché 𝑢1 , 𝑢2 , … , 𝑢𝑟 è una base di 𝑈 , sarà

𝑢 = 𝜆1 𝑢1 + 𝜆2 𝑢2 + … 𝜆𝑟 𝑢𝑟

Allora
𝑣 ⋅ 𝑢 = 𝑣 ⋅ (𝜆1 𝑢1 + 𝜆2 𝑢2 + … 𝜆𝑟 𝑢𝑟 ) = 𝜆1 𝑣 ⋅ 𝑢1 + 𝜆2 𝑣 ⋅ 𝑢2 + … + 𝜆𝑟 𝑣 ⋅ 𝑢𝑟 = 0

Un vettore 𝑢 appartiene a 𝑈 ⟂ se e solo se 𝑢 è perpendicolare ai vettori di una base di 𝑈


Lezione 35

Ortogonale di Spazi Vettoriali e


Proiezioni

Obiettivi:

• Definire e calcolare l’ortogonale di un sottospazio vettoriale

• Calcolare le matrici di proiezione ortogonale di un vettore su


un sottospazio vettoriale

35.1 Ortogonale di un Sottospazio Vettoriale


Teorema 35.1. Sia 𝑈 ⊂ ℝ𝑛 un sottospazio di dimensione 𝑟 e sia {𝑢1 , 𝑢2 , … , 𝑢𝑟 } una sua base. Allora
dim 𝑈 ⟂ = 𝑛 − 𝑟, cioè dim 𝑈 + dim 𝑈 ⟂ = 𝑛.

Dimostrazione. Consideriamo un vettore incognito 𝑢 = (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) ∈ ℝ𝑛 . Allora




⎪ 𝑢 ⋅ 𝑢1 = 0


⎪𝑢 ⋅ 𝑢2 = 0
𝑢 ∈ 𝑈⟂ ⇔ ⎨

⎪ ⋮


⎪ 𝑢 ⋅ 𝑢𝑟 = 0

che è un sistema di 𝑟 equazioni lineari in 𝑛 incognite. La matrice di questo sistema ha rango
𝑟, perché 𝑢1 , 𝑢2 , … , 𝑢𝑟 sono linearmente indipendenti. Perciò il sistema ha infinite soluzioni che
dipendono da 𝑛 − 𝑟 parametri liberi di variare. Allora dim 𝑈 ⟂ = 𝑛 − 𝑟.
Osserviamo che un generico vettore 𝑣 appartiene a 𝑈 ∩ 𝑈 ⟂ se e solo se è perpendicolare a
se stesso, cioè 𝑣 ⋅ 𝑣 = 0, ovverosia ||𝑣||2 = 0, che è vero solamente per il vettore nullo. Pertanto
𝑈 ∩ 𝑈 ⟂ = {0}. Ne segue che 𝑈 e 𝑈 ⟂ sono in somma diretta:

dim (𝑈 + 𝑈 ⟂ ) = dim 𝑈 + dim 𝑈 ⟂ − dim (𝑈 ∩ 𝑈 ⟂ ) = 𝑟 + 𝑛 − 𝑟 − 0 = 𝑛 ⇒ 𝑈 ⊕ 𝑈 ⟂ = ℝ𝑛 ■

Ogni vettore di ℝ𝑛 si scrive, in modo unico, come somma di un vettore di 𝑈 e un vettore di


𝑈⟂

172
35.1. ORTOGONALE DI UN SOTTOSPAZIO VETTORIALE 173

Esempio 35.1.

𝑈 = un piano in ℝ3 ⇔ dim 𝑈 = 2 𝑈 ⟂ = una retta ⇔ dim 𝑈 ⟂ = 1

ℝ3 ∋ 𝑣 = 𝑣 ′ + 𝑣 ′′ con 𝑣 ′ ∈ 𝑈 , 𝑣 ′′ ∈ 𝑈 ⟂

𝑣 ′ è la proiezione ortogonale di 𝑣 su 𝑈 e 𝑣 ′′ è la proiezione ortogonale di 𝑣 su 𝑈 ⟂

La domanda è come si possono calcolare 𝑣 ′ e 𝑣 ′′ se si conosce il vettore 𝑣?


Assumiamo di avere una base di 𝑈 : {𝑢1 , 𝑢2 , … , 𝑢𝑟 }. Calcoliamo una base {𝑤1 , 𝑤2 , … , 𝑤𝑛−𝑟 } di
𝑈 ⟂ . Dato 𝑣 = 𝑣 ′ + 𝑣 ′′

𝑣 ′ ∈ 𝑈 ⇔ 𝑣 ′ = 𝛼1 𝑢1 + 𝛼2 𝑢2 + … + 𝛼𝑟 𝑢𝑟 con 𝛼1 , 𝛼2 , … , 𝛼𝑟 incognite

𝑣 ′′ ∈ 𝑈 ⟂ ⇔ 𝑣 ′′ = 𝛽1 𝑤1 + 𝛽2 𝑤2 + … + 𝛽𝑛−𝑟 𝑤𝑛−𝑟 con 𝛽1 , 𝛽2 , … , 𝛽𝑛−𝑟 incognite


Si trova
𝑣 = 𝛼1 𝑢1 + 𝛼2 𝑢2 + … + 𝛼𝑟 𝑢𝑟 + 𝛽1 𝑤1 + 𝛽2 𝑤2 + … + 𝛽𝑛−𝑟 𝑤𝑛−𝑟
che è un sistema con 𝑛 incognite… c’è un metodo più semplice che usa meno incognite…

Esempio 35.2.

Consideriamo 𝑈 = ⟨𝑢1 , 𝑢2 ⟩ ⊂ ℝ4 con 𝑢1 = (2, 0, −1, 1) e 𝑢2 = (1, −1, 3, 0) e consideriamo 𝑣 =


(4, 1, 3, −2) ∈ ℝ4 . Vogliamo scrivere 𝑣 come 𝑣 = 𝑣 ′ + 𝑣 ′′ con 𝑣 ′ ∈ 𝑈 , 𝑣 ′′ ∈ 𝑈 ⟂ .
Per fare ciò, ci serve una base di 𝑈 ⟂
{
2𝑥1 − 𝑥3 + 𝑥4 = 0
𝑤 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ 𝑈 ⟂ ⇔ 𝑤 ⋅ 𝑢1 = 0 e 𝑤 ⋅ 𝑢2 = 0 ⇒
𝑥1 − 𝑥2 + 3𝑥3 = 0

che sono le equazioni cartesiane di 𝑈 ⟂


{ {
2𝑥1 − 𝑥3 + 𝑥4 = 0 𝑥4 = −2𝑥1 + 𝑥3
𝑈⟂ ∶
𝑥1 − 𝑥2 + 3𝑥3 = 0 𝑥2 = 𝑥1 + 3𝑥3
174 LEZIONE 35. ORTOGONALE DI SPAZI VETTORIALI E PROIEZIONI

Il sistema ha infinite soluzioni ∀𝑥1 , 𝑥3 , quindi dim 𝑈 ⟂ = 2 e 𝑈 ⟂ = ⟨𝑤1 , 𝑤2 ⟩ con 𝑤1 = (1, 1, 0, −2) e
𝑤2 = (0, 3, 1, 1). Quindi

⎛4⎞ ⎛2⎞ ⎛1⎞ ⎛1⎞ ⎛0⎞


⎜1⎟ ⎜0⎟ ⎜−1⎟ ⎜1⎟ ⎜3⎟
𝑣 = 𝑣 ′ + 𝑣 ′′ ⇒ 𝑣 = ⎜ ⎟ = 𝛼1 𝑢1 + 𝛼2 𝑢2 + 𝛽1 𝑤1 + 𝛽2 𝑤2 = 𝛼1 ⎜ ⎟ + 𝛼2 ⎜ ⎟ + 𝛽1 ⎜ ⎟ + 𝛽2 ⎜ ⎟
⎜3⎟ ⎜−1⎟ ⎜3⎟ ⎜0⎟ ⎜1⎟
−2
⎝ ⎠ 1
⎝ ⎠ 0
⎝ ⎠ −2
⎝ ⎠ ⎝1⎠
che è un sistema di quattro equazioni in quattro incognite, la cui soluzione è 𝛼1 = 139 , 𝛼2 = 15 13
, 𝛽1 =
19
13
, 𝛽 2 = 3
13
. Otterremo poi 𝑣 ′
= 𝛼 𝑢
1 1 + 𝛼 𝑢
2 2 = ( 33
13
, − 15 36 9
, ,
13 13 13
) e 𝑣 ′′
= 𝛽 𝑤
1 1 + 𝛽 𝑤
2 2 = ( 19 28 3
, ,
13 13 13
, − 35
13
).
In alternativa, sappiamo che 𝑣 = 𝑣 + 𝑣 con 𝑣 noto e 𝑣 , 𝑣 incogniti, ma 𝑣 = 𝑣 − 𝑣 diventa
′ ′′ ′ ′′ ′′ ′

noto se conosciamo anche 𝑣 ′

𝑣 ′ ∈ 𝑈 ⇔ 𝑣 ′ = 𝛼1 𝑢1 + 𝛼2 𝑢2 ⇒ 𝑣 ′′ = 𝑣 − 𝑣 ′ = 𝑣 − 𝛼1 𝑢1 − 𝛼2 𝑢2 e 𝑣 ′′ ∈ 𝑈 ⟂

Quindi possiamo risolvere un sistema con due sole incognite anziché quattro

⎛4⎞ ⎛2⎞ ⎛ 1 ⎞ ⎛4 − 2𝛼1 − 𝛼2 ⎞


⎜ 1 ⎟ ⎜ 0 ⎟ ⎜−1⎟ ⎜ 1 + 𝛼2 ⎟
𝑣 ′′ = 𝑣 − 𝛼1 𝑢1 − 𝛼2 𝑢2 = ⎜ ⎟ − 𝛼1 ⎜ ⎟ − 𝛼2 ⎜ ⎟ = ⎜ ⎟∈𝑈

3
⎜ ⎟ −1
⎜ ⎟ 3
⎜ ⎟ ⎜ 3 + 𝛼1 − 3𝛼2

⎝−2⎠ ⎝1⎠ ⎝ 0 ⎠ ⎝ −2 − 𝛼1 ⎠
Ci servono due equazioni {
𝑣 ′′ ⋅ 𝑢1 = 0
𝑣 ′′ ⋅ 𝑢2 = 0
perché 𝑣 ′′ ∈ 𝑈 ⟂ deve essere perpendicolare ai vettori della base di 𝑈

𝑣 ′′ ⋅ 𝑢1 = 2(4 − 2𝛼1 − 𝛼2 ) + 0(1 + 𝛼2 ) − 1(3 + 𝛼1 − 3𝛼2 ) + 1(−2 − 𝛼1 ) = 8 − 4𝛼1 − 2𝛼2 − 3 − 𝛼1 + 3𝛼2 − 2 − 𝛼1 =

= −6𝛼1 + 𝛼2 + 3 = 0
𝑣 ′′ ⋅ 𝑢2 = 1(4 − 2𝛼1 − 𝛼2 ) − 1(1 + 𝛼2 ) + 3(3 + 𝛼1 − 3𝛼2 ) + 0(−2 − 𝛼1 ) = 4 − 2𝛼1 − 𝛼2 − 1 − 𝛼2 + 9 + 3𝛼1 − 9𝛼2 =
= 𝛼1 − 11𝛼2 + 12 = 0
{ { { {
15
−6𝛼1 + 𝛼2 + 3 = 0 −66𝛼2 + 72 + 𝛼2 + 3 = 0 65𝛼2 = 75 𝛼2 = 13
9
𝛼1 − 11𝛼2 + 12 = 0 𝛼1 = 11𝛼2 − 12 𝛼1 = 11𝛼2 − 12 𝛼1 = 13

Da cui ricaviamo
33 19
⎛2⎞ ⎛ 1 ⎞ ⎛ 13 ⎞ ⎛4 − 2𝛼1 − 𝛼2 ⎞ ⎛ 13 ⎞
9 ⎜ 0 ⎟ 15 ⎜−1⎟ ⎜− 15 ⎟ ⎜ 1 + 𝛼2 ⎟ ⎜ 28 ⎟
𝑣 ′ = 𝛼1 𝑢1 + 𝛼2 𝑢2 = ⎜ ⎟ + ⎜ ⎟ = ⎜ 3613 ⎟ e 𝑣 ′′ = ⎜ ⎟ = ⎜ 133 ⎟
13 ⎜−1⎟ 13 ⎜ 3 ⎟ ⎜ 13 ⎟ ⎜3 + 𝛼1 − 3𝛼2 ⎟ ⎜ 1335 ⎟
9
⎝1⎠ ⎝ 0 ⎠ ⎝ 13 ⎠ ⎝ −2 − 𝛼1 ⎠ ⎝− 13 ⎠

35.2 Proiezioni Ortogonali e Matrici di Proiezione


Dato un sottospazio vettoriale 𝑈 ⊂ ℝ𝑛 e una sua base {𝑢1 , 𝑢2 , … , 𝑢𝑟 }

𝑓 ∶ ℝ𝑛 → ℝ𝑛 𝑣 ↦ 𝑣 ′ = proiezione ortogonale di 𝑣 sul sottospazio 𝑈

(𝑓 è la funzione lineare che a ogni vettore 𝑣 ∈ ℝ𝑛 associa la sua proiezione ortogonale 𝑣 ′ su 𝑈 )


35.2. PROIEZIONI ORTOGONALI E MATRICI DI PROIEZIONE 175

Come possiamo trovare la matrice di 𝑓 , ovverosia la matrice di proiezione ortogonale?


Costruiamo la matrice 𝐴 contenente i vettori della base di 𝑈 scritti in colonna
𝑣 ′ ∈ 𝑈 ⇔ 𝑣 ′ = 𝑥1 𝑢1 + 𝑥2 𝑢2 + … + 𝑥𝑟 𝑢𝑟
⎛𝑥1 ⎞
⎜𝑥 ⎟
𝐴 ⎜ 2 ⎟ = 𝑥1 𝑢1 + 𝑥2 𝑢2 + … + 𝑥𝑟 𝑢𝑟 = 𝑣 ′
⎜⋮⎟
⎝𝑥𝑟 ⎠
Poniamo
⎛𝑥1 ⎞
𝑋 =⎜⋮⎟
⎜ ⎟
⎝ 𝑥𝑟 ⎠
allora 𝑣 ′ = 𝐴𝑋 . Quindi
𝑣 ′′ = 𝑣 − 𝑣 ′ = 𝑣 − 𝐴𝑋
Poiché 𝑣 ′′ ∈ 𝑈 ⟂ , si deve avere


⎪ 𝑢1 ⋅ 𝑣 ′′ = 0 (𝑣 ′′ ⟂ 𝑢1 )


⎪𝑢2 ⋅ 𝑣 ′′ = 0 (𝑣 ′′ ⟂ 𝑢2 )


⎪ ⋮


⎪ 𝑢 ⋅ 𝑣 ′′ = 0 (𝑣 ′′ ⟂ 𝑢𝑟 )
⎩ 𝑟
Queste sono le equazioni che permettono di determinare 𝑣 ′′ . Osserviamo, inoltre, che il prodotto
scalare di due vettori
⎛𝑎1 ⎞ ⎛𝑏1 ⎞
⎜𝑎2 ⎟ ⎜𝑏 ⎟
𝑢=⎜ ⎟ e 𝑤 = ⎜ 2⎟
⎜⋮⎟ ⎜⋮⎟
⎝𝑎𝑛 ⎠ ⎝𝑏𝑛 ⎠

𝑢 ⋅ 𝑤 = 𝑎1 𝑏1 + 𝑎2 𝑏2 + … + 𝑎𝑛 𝑏𝑛
Questo coincide col prodotto righe per colonne
⎛ 𝑏1 ⎞
⎜𝑏 ⎟
𝑢 𝑇 ⋅ 𝑤 = (𝑎1 𝑎2 … 𝑎𝑛 ) ⎜ 2 ⎟
⎜⋮⎟
⎝𝑏 𝑛 ⎠
Quindi si ha 𝑢 ⋅ 𝑤 = 𝑢 𝑇 𝑤
Allora le equazioni


⎪𝑢1 ⋅ 𝑣 ′′ = 0


⎪𝑢2 ⋅ 𝑣 ′′ = 0


⎪⋮


⎪𝑢 ⋅ 𝑣 ′′ = 0
⎩ 𝑟
176 LEZIONE 35. ORTOGONALE DI SPAZI VETTORIALI E PROIEZIONI

si possono riscrivere come




⎪ 𝑢1𝑇 𝑣 ′′ = 0


⎪𝑢2𝑇 𝑣 ′′ = 0


⎪ ⋮


⎪ 𝑢 𝑇 𝑣 ′′ = 0
⎩ 𝑟
cioè come 𝐴𝑇 𝑣 ′′ = 0, dove la matrice 𝐴𝑇 è la matrice contenente i vettori 𝑢1 , … , 𝑢𝑟 scritti per riga.
Dato che 𝑣 ′′ = 𝑣 − 𝐴𝑋 , l’equazione 𝐴𝑇 𝑣 ′′ = 0 diventa 𝐴𝑇 (𝑣 − 𝐴𝑋 ) = 0, cioè 𝐴𝑇 𝑣 − 𝐴𝑇 𝐴𝑋 = 0,
cioè (𝐴𝑇 𝐴)𝑋 = 𝐴𝑇 𝑣. Si può dimostrare che la matrice 𝐴𝑇 𝐴 è sempre invertibile. Allora possiamo
moltiplicare per (𝐴𝑇 𝐴)−1 ottenendo

(𝐴𝑇 𝐴)−1 (𝐴𝑇 𝐴)𝑋 = (𝐴𝑇 𝐴)−1 𝐴𝑇 𝑣 ⇒ 𝑋 = (𝐴𝑇 𝐴)−1 𝐴𝑇 𝑣

e si ottiene
𝑣 ′ = 𝐴𝑋 = 𝐴(𝐴𝑇 𝐴)−1 𝐴𝑇 𝑣
da cui 𝑓 ∶ 𝑣 ↦ 𝑣 ′ = 𝐴(𝐴𝑇 𝐴)−1 𝐴𝑇 𝑣 = 𝑃𝑣 dove 𝑃 è la matrice risultante dai prodotti indicati
(𝑃 = 𝐴(𝐴𝑇 𝐴)−1 𝐴𝑇 ) ed è la matrice di proiezione sul sottospazio 𝑈

𝑣 ′ = 𝑃𝑣

Esercizio 35.1.

Consideriamo 𝑈 = ⟨𝑢1 , 𝑢2 ⟩ ⊂ ℝ4 e 𝑢1 = (2, 0, −1, 1), 𝑢2 = (1, −1, 3, 0). Determinare la proiezione
ortogonale 𝑣 ′ di 𝑣 = (4, 1, 3, −2) su 𝑈 .

Svolgimento. Determiniamo la matrice 𝑃 di proiezione, in modo che 𝑣 ′ = 𝑃𝑣 sia la proiezione


ortogonale cercata.
⎛ 2 1 ⎞
⎜ 0 −1 ⎟
𝐴=⎜ ⎟
⎜ −1 3 ⎟
⎝ 1 0 ⎠
⎛ 2 1 ⎞
𝑇 2 0 −1 1 ⎜ 0 −1 ⎟ 6 −1
𝐴 𝐴= =
( 1 −1 3 0 ) ⎜ −1 3 ⎟⎟ ( −1 11 )

⎝ 1 0 ⎠
det(𝐴𝑇 𝐴) = 6 ⋅ 11 − (−1)(−1) = 65
1 𝑑 −𝑏 1 11 1
(𝐴𝑇 𝐴)−1 = =
det(𝐴 𝐴) ( −𝑐 𝑎 ) 65 ( 1 6 )
𝑇

⎛ 2 1 ⎞ ⎛ 54 −8 1 23 ⎞
⎜ 11 1
0 −1 ⎟ 2 0 −1 1 1 ⎜ −8 6 −17 −1 ⎟
𝑃 = 𝐴(𝐴𝑇 𝐴)−1 𝐴𝑇 = ⎜ 65 65 =
⎜ −1 3 ⎟⎟ ( 1
65
6
65
) ( 1 −1 3 0 ) 65 ⎜ 1 −17 59 −8 ⎟
⎜ ⎟
⎝ 1 0 ⎠ ⎝ 23 −1 −8 11 ⎠
La proiezione ortogonale 𝑣 ′ del vettore 𝑣 è 𝑣 ′ = 𝑃𝑣. ✎
Lezione 36

Metodo dei Minimi Quadrati e


Procedimento di Gram-Schmidt

Obiettivi:

• Descrivere il metodo dei minimi quadrati per “risolvere” un


sistema lineare senza soluzione

• Definire una base ortogonale e una base ortonormale

• Applicare il procedimento di Gram-Schmidt

36.1 Il Metodo dei Minimi Quadrati


Come “risolvere” sistemi lineari che non ammettono soluzione?
Il metodo dei minimi quadrati serve per risolvere sistemi lineari che non ammettono solu-
zioni. Per esempio, vogliamo determinare l’equazione di una retta che “passa” per un insieme di
punti non allineati

Si tratta di determinare la soluzione (cioè la retta) che meglio approssima i punti dati.

Metodo dei Minimi Quadrati: minimizzare la somma dei quadrati degli errori

177
178 LEZIONE 36. METODO DEI MINIMI QUADRATI E PROCEDIMENTO DI GRAM-SCHMIDT

Esercizio 36.1.

Sono dati dei punti 𝐴1 = (𝑎1 , 𝑏1 ), 𝐴2 = (𝑎2 , 𝑏2 ), … , 𝐴𝑛 = (𝑎𝑛 , 𝑏𝑛 ). Cerchiamo una retta

𝑦 = 𝑚𝑥 + 𝑞

dove 𝑚 e 𝑞 sono le incognite che approssima meglio gli 𝑛 punti dati. Ciò significa risolvere un
sistema


⎪𝑚𝑎1 + 𝑞 = 𝑏1


⎪𝑚𝑎2 + 𝑞 = 𝑏2


⎪⋮


⎪𝑚𝑎 + 𝑞 = 𝑏𝑛
⎩ 𝑛
che è un sistema di 𝑛 equazioni in due incognite, ma, in generale, non esiste una soluzione.
Consideriamo, quindi, un sistema lineare 𝐴𝑋 = 𝐵 generico che non ammette soluzione

𝑓 ∶ ℝ𝑛 → ℝ𝑚 𝑓 ∶ 𝑋 ↦ 𝐴𝑋 = 𝑓 (𝑋 ) ∈ Im(𝑓 )

dove Im(𝑓 ) è il sottospazio vettoriale generato dalle colonne di 𝐴. Il sistema 𝐴𝑋 = 𝐵 non ha


soluzione se il vettore 𝐵 ∉ Im(𝑓 ).

“errore” minimo ⇔ 𝐵 − 𝐴𝑋 “minimo” ⇔ è perpendicolare al sottospazio


Im(𝑓 ) = ⟨𝑢1 , 𝑢2 , … , 𝑢𝑟 ⟩

Si ottiene l’equazione

𝐴𝑇 (𝐵 − 𝐴𝑋 ) = 0 ⇒ 𝐴𝑇 𝐵 − 𝐴𝑇 𝐴𝑋 = 0 ⇒ 𝐴𝑇 𝐴𝑋 = 𝐴𝑇 𝐵

dove 𝐴𝑇 (𝐵 − 𝐴𝑋 ) = 0 è la condizione di ortogonalità tra il vettore 𝐵 − 𝐴𝑋 e il sottospazio generato


dalle colonne di 𝐴.
La soluzione che rende minimo l’errore, per un sistema 𝐴𝑋 = 𝐵, si ottiene quindi risolvendo
il sistema
(𝐴𝑇 𝐴)𝑋 = 𝐴𝑇 𝐵

Osservazione 36.1. La lunghezza di un vettore è la radice quadrata della somma dei quadrati delle
componenti del vettore stesso.
Pertanto, per rendere minimo l’errore dato dal vettore 𝐵 −𝐴𝑋 , bisogna rendere minima la somma
dei quadrati delle sue componenti.
Da qui deriva il nome di metodo dei minimi quadrati.
36.1. IL METODO DEI MINIMI QUADRATI 179

Esempio 36.1.
Determinare la parabola di equazione 𝑦 = 𝑎𝑥 2 +𝑏𝑥+𝑐 (con 𝑎, 𝑏, 𝑐 incognite) che meglio approssima
i punti

𝐴1 = (1, 1.2) 𝐴2 = (2, 0.4) 𝐴3 = (3, 0.5) 𝐴4 = (4, 1.0) 𝐴5 = (5, 2.4) 𝐴6 = (6, 3.9)

Imponendo le condizioni di passaggio per i punti 𝐴1 , … , 𝐴6 , si ottiene il sistema




⎪ 𝑎 + 𝑏 + 𝑐 = 1.2


⎪ 4𝑎 + 2𝑏 + 𝑐 = 0.4


⎪9𝑎 + 3𝑏 + 𝑐 = 0.5


⎪ 16𝑎 + 4𝑏 + 𝑐 = 1.0


⎪ 25𝑎 + 5𝑏 + 𝑐 = 2.4



⎩36𝑎 + 6𝑏 + 𝑐 = 3.9
Tale sistema è sovradeterminato e non ha soluzione.
⎛ 1 1 1 ⎞ ⎛ 1.2 ⎞
⎜ 4 2 1 ⎟ ⎜ 0.4 ⎟
⎜ ⎟ ⎛𝑎 ⎞ ⎜ ⎟
9 3 1 0.5
𝐴=⎜ ⎟ 𝑋 = ⎜𝑏 ⎟ 𝐵=⎜ ⎟
⎜ 16 4 1 ⎟ ⎜ ⎟ ⎜ 1.0 ⎟
⎜ 25 5 1 ⎟ ⎝𝑐 ⎠ ⎜ 2.4 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 36 6 1 ⎠ ⎝ 3.9 ⎠
Il sistema è 𝐴𝑋 = 𝐵. Calcoliamo (𝐴𝑇 𝐴)𝑋 = 𝐴𝑇 𝐵

⎛ 2275 441 91 ⎞ ⎛223.7⎞


𝐴 𝐴 = ⎜ 441 91 21 ⎟
𝑇
𝐴 𝐵 = ⎜ 42.9 ⎟
𝑇
⎜ ⎟ ⎜ ⎟
⎝ 91 21 6 ⎠ ⎝ 9.4 ⎠
La soluzione di (𝐴𝑇 𝐴)𝑋 = 𝐴𝑇 𝐵 è
⎛ 0.298... ⎞ ⎛𝑎⎞
𝑋 = ⎜−1.516...⎟ = ⎜𝑏 ⎟
⎜ ⎟ ⎜ ⎟
⎝ 2.35 ⎠ ⎝ 𝑐 ⎠
Da cui ricaviamo
𝑦 = 0.298𝑥 2 − 1.516𝑥 + 2.35
che è l’equazione della parabola cercata
180 LEZIONE 36. METODO DEI MINIMI QUADRATI E PROCEDIMENTO DI GRAM-SCHMIDT

36.2 Basi Ortogonali e Basi Ortonormali


Definizione 36.1. Sia 𝑈 = ⟨𝑢1 , 𝑢2 , … , 𝑢𝑟 ⟩. Una base ortogonale di 𝑈 è una base di 𝑈 𝑢1′ , 𝑢2′ , … , 𝑢𝑟′
tale che i vettori 𝑢𝑖′ sono a due a due ortogonali fra loro, cioè 𝑢𝑖′ ⋅ 𝑢𝑗′ = 0, ∀𝑖 ≠ 𝑗.
Definizione 36.2. Una base ortogonale si dice ortonormale se i vettori sono normalizzati (cioè
hanno norma 1).
Come trasformare una base qualsiasi di 𝑈 in una base ortogonale (o in una base ortonormale)?
Possiamo usare il procedimento di Gram-Schmidt…

36.3 Il Procedimento di Gram-Schmidt


Sia 𝑢1 , 𝑢2 , … , 𝑢𝑟 una base qualunque. Prendiamo 𝑢1′ = 𝑢1 (primo vettore della nuova base ortogo-
nale). Poi prendiamo
𝑢2′ = 𝑢2 + 𝛼1 𝑢1′ dove 𝛼1 dev’essere tale che 𝑢2′ ⟂ 𝑢1′ ⇒ 𝑢2′ ⋅ 𝑢1′ = 0
Si trova
𝑢2 ⋅ 𝑢1′
(𝑢2 + 𝛼1 𝑢1′ ) ⋅ 𝑢1′ =0 ⇒ 𝑢2 ⋅ 𝑢1′ + 𝛼1 (𝑢1′ ⋅ 𝑢1′ ) =0 ⇒ 𝛼1 = − ′ ′
𝑢1 ⋅ 𝑢1
Alla fine si ottiene
𝑢2 ⋅ 𝑢1′ ′
𝑢2′ = 𝑢2 − (
𝑢
𝑢1′ ⋅ 𝑢1′ ) 1
che è il secondo vettore (ortogonale a 𝑢1′ ) della nuova base ortogonale.
Poniamo 𝑢3′ = 𝑢3 + 𝛼1 𝑢1′ + 𝛼2 𝑢2′ , con 𝛼1 e 𝛼2 che devono essere tali che 𝑢3′ sia ortogonale a 𝑢1′ e
𝑢2′ { { {
𝑢3′ ⋅ 𝑢1′ = 0 (𝑢3 + 𝛼1 𝑢1′ + 𝛼2 𝑢2′ ) ⋅ 𝑢1′ = 0 𝑢3 ⋅ 𝑢1′ + 𝛼1 𝑢1′ ⋅ 𝑢1′ + 𝛼2 𝑢2′ ⋅ 𝑢1′ = 0
𝑢3′ ⋅ 𝑢2′ = 0 (𝑢3 + 𝛼1 𝑢1′ + 𝛼2 𝑢2′ ) ⋅ 𝑢2′ = 0 𝑢3 ⋅ 𝑢2′ + 𝛼1 𝑢1′ ⋅ 𝑢2′ + 𝛼2 𝑢2′ ⋅ 𝑢2′ = 0
{ { ′
𝑢3 ⋅ 𝑢1′ + 𝛼1 𝑢1′ ⋅ 𝑢1′ = 0 𝛼1 = − 𝑢𝑢3′ ⋅𝑢
⋅𝑢
1

1 1
′ ′ ′ 𝑢3 ⋅𝑢2′
𝑢3 ⋅ 𝑢2 + 𝛼2 𝑢2 ⋅ 𝑢2 = 0 𝛼2 = − 𝑢′ ⋅𝑢′
2 2

Da cui ricaviamo il terzo vettore 𝑢3′ della nuova base ortogonale

𝑢3 ⋅ 𝑢1′ 𝑢3 ⋅ 𝑢2′
𝑢3′ = 𝑢3 − ′ ′
𝑢 ′
1 − ′ ′
𝑢2′
( 𝑢1 ⋅ 𝑢1 ) ( 𝑢2 ⋅ 𝑢2 )
e si ripete il procedimento per tutti i vettori della nuova base.
La formula generale per ogni 𝑖 = 1, … , 𝑟 è

𝑢𝑖 ⋅ 𝑢1′ 𝑢𝑖 ⋅ 𝑢2′ ′
𝑢𝑖 ⋅ 𝑢𝑖−1 𝑖−1
𝑢𝑖 ⋅ 𝑢𝑗′
𝑢𝑖′ = 𝑢𝑖 − ′
𝑢1 − ′
𝑢2 − … − ′
𝑢𝑖−1 = 𝑢𝑖 − ∑ 𝑢𝑗′
( 𝑢1′ ⋅ 𝑢1′ ) ( 𝑢2′ ⋅ 𝑢2′ ) ′
( 𝑢𝑖−1 ′
⋅ 𝑢𝑖−1 ) 𝑗=1 ( 𝑢 ′
𝑗 ⋅ 𝑢𝑗

)

I vettori 𝑢1′ , 𝑢2′ , … , 𝑢𝑟′ sono una base ortogonale di 𝑈 .


Per ottenere una base ortonormale di 𝑈 , si pone
𝑢1′ 𝑢2′ 𝑢𝑟′
𝑢1′′ = 𝑢2′′ = … 𝑢𝑟′′ =
||𝑢1′ || ||𝑢2′ || ||𝑢𝑟′ ||
I vettori 𝑢1′′ , 𝑢2′′ , … , 𝑢𝑟′′ sono una base ortonormale di 𝑈 .
36.3. IL PROCEDIMENTO DI GRAM-SCHMIDT 181

Esercizio 36.2.
Dato 𝑈 = ⟨𝑢1 , 𝑢2 , 𝑢3 ⟩ ⊂ ℝ4 e una sua base
𝑢1 = (1, 0, −2, 0) 𝑢2 = (1, 1, 0, −1) 𝑢3 = (0, 1, −1, 2)
Trovare una base ortogonale e ortonormale di 𝑈

Svolgimento. Calcoliamo 𝑢1 ⋅ 𝑢2 = 1, quindi 𝑢1 e 𝑢2 non sono perpendicolari. Allora


√ 𝑢′ 1 2
𝑢1′ = 𝑢1 ||𝑢1′ || = ||𝑢1 || = 5 𝑢1′′ = √1 = ( √ , 0, − √ , 0)
5 5 5
Calcoliamo poi
𝑢2′ = 𝑢2 + 𝛼1 𝑢1′ al posto di 𝑢1′ possiamo usare anche 𝑢1′′
𝑢2 ⋅ 𝑢1′
𝑢2′ ⋅ 𝑢1′ = 0 ⇒ (𝑢2 + 𝛼1 𝑢1′ ) ⋅ 𝑢1′ = 0 ⇒ 𝑢2 ⋅ 𝑢1′ + 𝛼1 𝑢1′ ⋅ 𝑢1′ = 0 ⇒ 𝛼1 = −
𝑢1′ ⋅ 𝑢1′
Poiché 𝑢1′ ⋅ 𝑢1′ = 5 e 𝑢2 ⋅ 𝑢1′ = 1, allora 𝛼1 = − 15 , quindi
4
⎛1⎞ ⎛1⎞ ⎛5⎞
1 ⎜1⎟ 1⎜0⎟ ⎜1⎟
𝑢2′ = 𝑢2 − 𝑢1′ = ⎜ ⎟ − ⎜ ⎟ = ⎜ 2 ⎟
5 ⎜ 0 ⎟ 5 ⎜−2⎟ ⎜ 5 ⎟
⎝−1⎠ ⎝ 0 ⎠ ⎝−1⎠
√ √ √
16 4 70 14
||𝑢2′ || = +1+ +1= =
25 25 25 5

𝑢′ 5 4 2
𝑢2′′ = 2′ = ⋅ ( , 1, , −1)
||𝑢2 || 14 5 5
Infine, calcoliamo il terzo vettore
𝑢3′ = 𝑢3 + 𝛼1 𝑢1′ + 𝛼2 𝑢2′
𝑢3 ⋅ 𝑢1′ 𝑢3 ⋅ 𝑢2′
𝑢3′ ⋅ 𝑢1′ = 0 ⇒ 𝛼1 = − 𝑢3′ ⋅ 𝑢2′ = 0 ⇒ 𝛼2 = −
𝑢1′ ⋅ 𝑢1′ 𝑢2′ ⋅ 𝑢2′
2
𝑢3 ⋅ 𝑢1′ = 2 ⇒ 𝛼1 = −
5
4 2 2 7
𝑢3 ⋅ 𝑢2′ = (0, 1, −1, 2) ⋅ ( , 1, , −1) = 1 − − 2 = −
5 5 5 5
7
14 1
𝑢2′ ⋅ 𝑢2′ = ⇒ 𝛼2 = 145 =
5 5
2
4
⎛0⎞ ⎛1⎞ ⎛ 5 ⎞ ⎛0⎞
2 1 ⎜ 1 ⎟ 2 ⎜ 0 ⎟ 1 ⎜ 1 ⎟ ⎜3⎟
𝑢3′ = 𝑢3 − 𝑢1′ + 𝑢2′ = ⎜ ⎟ − ⎜ ⎟ + ⎜ 2 ⎟ = ⎜ 2 ⎟
5 2 ⎜−1⎟ 5 ⎜−2⎟ 2 ⎜ 5 ⎟ ⎜03 ⎟
⎝2⎠ ⎝0⎠ ⎝−1⎠ ⎝ 2 ⎠
𝑢1′ , 𝑢2′ , 𝑢3′ formano una base ortogonale di 𝑈

𝑢1′ 𝑢2′ 𝑢3′


𝑢1′′ = 𝑢2′′ = 𝑢3′′ =
||𝑢1′ || ||𝑢2′ || ||𝑢3′ ||
formano una base ortonormale di 𝑈 . ✎
Parte VI

Indice Analitico

182
Indice analitico

autospazio, 114 matrice di proiezione, 175, 176


autovalore, 110 matrici simili, 109
autovettore, 110 metodo minimi quadrati, 177
molteplicità
base, 18 algebrica, 113
base ortogonale, 180 geometrica, 114
base ortonormale, 180
norma, 166, 167
cambiamento di base, 62 nucleo, 42
campo, 3 nullità, 45
campo finito, 4
campo infinito, 4 omomorfismo, 40
cofattore, 106
combinazione lineare, 8 permutazione, 97
complemento algebrico, 106 polinomio caratteristico, 112
procedimento di Gram-Schmidt, 180
determinante, 91 prodotto di matrici, 49, 51
disuguaglianza di Cauchy-Schwarz, 168 prodotto scalare, 167, 168
proiezione ortogonale di un vettore, 170
endomorfismo, 133
equazione caratteristica, 112 rango, 45
esponenziale di matrice, 127 regola di Sarrus, 99

formula sistema di equazioni lineari, 67


delle dimensioni, 44 sistema non omogeneo, 68
di Grassmann, 29 sistema omogeneo, 67
di Laplace, 104, 106 somma di matrici, 51
funzione lineare, 38 somma di sottospazi vettoriali, 16
somma diretta di sottospazi vettoriali, 31
immagine, 42 sottospazio lineare, 18
intersezione di sottospazi vettoriali, 15 sottospazio vettoriale, 13
isomorfismo, 40 sottospazio vettoriale ortogonale, 170, 172
spazio vettoriale, 5
matrice spazio vettoriale finitamente generato, 21
antisimmetrica, 124
associata a funzione lineare, 48 teorema
diagonalizzabile, 116 dello scambio, 22
inversa, 88 di Binet, 103
simmetrica, 124 di Cramer, 108
trasposta, 53 di Rouché-Capelli, 71

183
184 INDICE ANALITICO

fondamentale dell’algebra, 113 vettore normalizzato, 170


su dipendenza lineare di vettori, 12 vettori linearmente dipendenti, 9
vettori linearmente indipendenti, 9
unione di sottospazi vettoriali, 16 vettori ortogonali, 170

Potrebbero piacerti anche