0% encontró este documento útil (0 votos)
17 vistas30 páginas

Diagonalización de Endomorfismos en Espacios Vectoriales

Este documento trata sobre la diagonalización de endomorfismos. Explica conceptos como autovalores, autovectores, subespacios propios y presenta un algoritmo para diagonalizar un endomorfismo siempre que sea posible.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
17 vistas30 páginas

Diagonalización de Endomorfismos en Espacios Vectoriales

Este documento trata sobre la diagonalización de endomorfismos. Explica conceptos como autovalores, autovectores, subespacios propios y presenta un algoritmo para diagonalizar un endomorfismo siempre que sea posible.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

1

1. DIAGONALIZACIÓN DE ENDOMORFISMOS

Sea f : V → V un endomorsmo de V , f ∈ End(V ), con V un K-espacio


vectorial de dimensión n, y sean

B = {e1 , . . . , en } B 0 = {e01 , . . . , e0n }


bases de V . La matriz de f con respecto a la base B , M (f, B, B) = M (f, B),
y la matriz de f con respecto a la base B 0 , M (f, B 0 , B 0 ) = M (f, B 0 ), están
relacionadas, como vimos en el capítulo anterior, por la matriz de cambio de
base P = M (B, B 0 ) del modo que reeja el diagrama conmutativo siguiente:
f
V −→ V

M (f,B)
xB −→ yB
P ↓ ↓ P
M (f,B 0 )
xB 0 −→ yB 0
Así, M (f, B) = P −1 M (f, B 0 )P , de modo que las matrices M (f, B) y
M (f, B 0 ) son semejantes (recuérdese que dos matrices A, C ∈ Mn (R) son
semejantes si C = P −1 AP con P ∈ Mn (R) regular).
Podemos preguntarnos si es posible encontrar una base B respecto de la
cual la matriz asociada a f , M (f, B), sea diagonal. El interés por encontrar
una matriz tan sencilla radica en que permite estudiar más fácilmente el
comportamiento de la aplicación lineal.
Desafortunadamente, no siempre existirá una tal matriz diagonal aso-
ciada a f . En este capítulo veremos cuáles son las situaciones en que la
aplicación f admite estas representaciones matriciales y cómo obtenerlas.

1.1. AUTOVALORES Y AUTOVECTORES

Denición 1. (Autovalores y autovectores)


Sea f : V → V un endomorsmo del K-espacio vectorial V .
i) Dado λ ∈ K, diremos que λ es autovalor o valor propio de f ∈ End(V )
si existe v ∈ V , con v 6= 0̄, tal que f (v) = λv .
ii) A v se le llama autovector o vector propio asociado al autovalor λ.
iii) Llamamos subespacio propio asociado a un autovalor λ, denotado por
Vλ , al conjunto de todos los vectores propios asociados a λ más el vector
0̄, esto es,

Vλ = {v ∈ V tal que f (v) = λv} =


= {v ∈ V tal que (f − λId)(v) = 0̄} = Ker(f − λId)
Obsérvese que Vλ es un subespacio vectorial de V .
2 1 DIAGONALIZACIÓN DE ENDOMORFISMOS

Denición 2. (Polinomio característico)


Sea f ∈ End(V ) y sea A = M (f, B) una matriz asociada al endomors-
mo f para cierta base B de V . Llamamos polinomio característico asociado
a A al polinomio de grado n P (λ) = Det(A − λId). A la ecuación P (λ) = 0
se le llama ecuación característica asociada a A.
Propiedades.
1. Sea A ∈ Mn (K). Se tiene

P (λ) = (−1)n λn + (−1)n−1 T r(A)λn−1 + · · · + Det(A)

2. Dos matrices semejantes tienen siempre el mismo polinomio caracterís-


tico. En particular, tendrán el mismo determinante y la misma traza.
3. Asignamos a f un único polinomio característico, P (λ), que será el
de cualquiera de sus matrices asociadas A = M (f, B) (todas ellas son
semejantes).
4. Los autovalores asociados a f serán las raíces λi ∈ K de P (λ) = 0.
5. Dado Vλ un subespacio propio de f , dim(Vλ ) = n − r(A − λId) para
cualquier matriz A asociada a f .
6. Si {v1 , . . . , vr } son vectores propios asociados a autovalores distintos
de f , entonces {v1 , . . . , vr } son l.i..
7. Si Vλ1 , . . . , Vλr son subespacios propios asociados a autovalores distin-
tos de f , entonces Vλi ∩ ( j6=i Vλj ) = 0̄.
P

1.2. ENDOMORFISMOS DIAGONALIZABLES

Denición 3. (Multiplicidades algebraica y geométrica)


Sea f ∈ End(V ) con autovalores asociados λ1 , . . . , λr ∈ K.
1. Llamamos multiplicidad algebraica del autovalor λi al mayor exponente
αi para el cual el factor (λi − λ)αi aparece en la factorización de P (λ)
(P (λ) = (λi − λ)αi q(λ)).
2. Llamamos multiplicidad geométrica de λi a la dimensión del subespacio
propio Vλi .

Observación 1. Sea f ∈ End(V ). Si λ ∈ K es un autovalor de multiplicidad


algebraica α, entonces

1 ≤ dim(Vλ ) ≤ α
1.3 ALGORITMO DE DIAGONALIZACIÓN 3

Denición 4. (Endomorsmo diagonalizable)


Una matriz A ∈ Mn (K) es diagonalizable si es semejante a una matriz
diagonal D. Decimos que f ∈ End(V ) es diagonalizable si existe una base
B de V respecto de la cual la matriz asociada a f , M (f, B), es diagonal.

Propiedades.
1. f ∈ End(V ) es diagonalizable si y sólo si cualquier matriz A = M (f, B)
asociada a él es diagonalizable.
2. f es diagonalizable si y sólo si existe una base de V formada por vec-
tores propios de f .
Aunque el siguiente teorema es válido en cualquier cuerpo K, lo enuncia-
remos para el caso en que K = R.
Teorema 1. Sea V un R-espacio vectorial con dim(V ) = n y sea f ∈
End(V ). Sean λ1 , . . . , λr ∈ R los autovalores de f de multiplicidades alge-
braicas α1 , . . . , αr . Entonces f es diagonalizable si y sólo si:
i) α1 + · · · + αr = n (todas las raices de P (λ) son reales).
ii) Para cada autovalor λi se tiene que dim(Vλi ) = αi .
Corolario 1. i) Si dim(V ) = n y f ∈ End(V ) tiene n autovalores dis-
tintos, entonces f es diagonalizable.
ii) Si f ∈ End(V ) es diagonalizable con autovalores λ1 , . . . , λr , entonces
se tiene la
Psuma directa V = Vλ1 ⊕· · ·⊕Vλr , esto es, V = Vλ1 +· · ·+Vλr
y Vλi ∩ ( j6=i Vλj ) = 0̄ para todo i ∈ {1, . . . , r}.

1.3. ALGORITMO DE DIAGONALIZACIÓN

Dado V un R-espacio vectorial de dimensión n (K = R) y dado f ∈


End(V ), consideremos A = M (f, B0 ) una matriz asociada a f con respecto
a cierta base B0 ja. Ofrecemos, a modo de resumen, el siguiente algoritmo
que permite determinar cuándo f es diagonalizable y, en caso de serlo, calcula
explícitamente una matriz diagonal asociada a f , D = M (f, B), con respecto
a cierta base B , así como la matriz de cambio de base P = M (B, B0 ) que
verica D = P −1 AP .
f
V −→ V

D
xB −→ yB
P ↓ ↓ P
A
xB0 −→ yB0
4 1 DIAGONALIZACIÓN DE ENDOMORFISMOS

Algoritmo de diagonalización
Paso 1. Hallar el polinomio característico P (λ) de f y determinar sus raíces
para obtener los valores propios λ1 , . . . , λr de f . Si alguna raíz es com-
pleja, f no es diagonalizable.
Paso 2. Supuesto que todas las raíces de P (λ), λ1 , . . . , λr , son reales, f será
diagonalizable si y sólo si dim(Vλi ) = αi para todo i ∈ {1, . . . , r}.
Paso 3. Supuesto que dim(Vλi ) = αi para todo i ∈ {1, . . . , r}, entonces cal-
culamos una base B(Vλi ) = {vi,1 , . . . , vi,αi } para cada subespacio Vλi .
(Los vectores de estas bases son vectores propios asociados a λi ).
Paso 4. Considerar la colección de todos los vectores de todas las bases obtenidas

B = {v1,1 , . . . , v1,α1 , . . . , vr,1 , . . . , vr,αr }

Se tiene que B es una base de V formada por autovectores de f y


D = M (f, B) es diagonal con
 
λ1

 ... 

 
 λ1 
...
 
D = M (f, B) = 
 

 
 λr 
...
 
 
 
λr

donde la caja de cada λi tiene tamaño αi .


Resulta D = P −1 AP con P la matriz que tiene por columnas a las
coordenadas de los vectores de la base B .

1.4. EJEMPLO DE ENDOMORFISMO DIAGONALIZABLE:


PROYECCIÓN

Proposición 1. Dados dos subespacios complementarios, X e Y , de un es-


pacio vectorial V (V = X ⊕ Y ) y dado v ∈ V , sabemos que v se descompone
de modo único como v = x + y con x ∈ X e y ∈ Y . Existe un único endo-
morsmo de V , P , tal que P (v) = x. A P se le llama proyección sobre X a
lo largo de Y y cumple las siguientes propiedades:

P 2 = P (P es idempotente).

I − P es la proyección sobre Y a lo largo de X .

Im(P ) = {x tales que P (x) = x}.


1.4 EJEMPLO DE ENDOMORFISMO DIAGONALIZABLE: PROYECCIÓN 5

Im(P ) = Ker(I − P ) = X y Im(I − P ) = Ker(P ) = Y

Si V = Rn , entonces la matriz asociada a P con respecto a la base


canónica es:
 
I 0
M (P, Bc ) = [X|Y] [X|Y]−1 = [X|0][X|Y]−1 ,
0 0

donde las columnas de X y de Y son bases de X e Y respectivamente.


La matriz asociada a la proyección P con respecto a la base de Rn ,
B = {X, Y}, formada por la unión de las dos bases de X e Y será una
matriz diagonal con dos autovalores: el 1 y el 0.
 
I 0
M (P, B) =
0 0

Las multiplicidades algebraicas coinciden, respectivamente, con las di-


mensiones de X = V1 e Y = V0 , que son los subespacios propios aso-
ciados.

Proposición 2. Un endomorsmo P : V → V es una proyección si y sólo


si P2 = P (idempotente).

La implicación directa es obvia. Por otro lado, si P 2 = P , se prueba


fácilmente que P es una proyección sobre X = Im(P ) a lo largo de Y =
Ker(P ).
1

1. ESPACIO EUCLÍDEO. ISOMETRÍAS

Muchos de los fenómenos que se investigan en la geometría utilizan no-


ciones como las de longitud de un vector y ángulo entre vectores. Para intro-
ducir estos dos conceptos en los R-espacios vectoriales se dene el producto
escalar. Un R-espacio vectorial al que se asigna un producto escalar se de-
nomina espacio vectorial euclídeo. En este capítulo trabajaremos, principal-
mente, con R-espacios vectoriales euclídeos de dimensión nita.

1.1. PRODUCTO ESCALAR. LONGITUDES Y ÁNGULOS

Denición 1. (Producto escalar. Espacio vectorial euclídeo.)


Sea V un R-espacio vectorial. Un producto escalar asociado a V es una
aplicación h , i : V × V → R que verica las propiedades siguientes:

1. hu, vi = hv, ui para todo u, v ∈ V .


2. hu + v, wi = hu, wi + hv, wi para todo u, v, w ∈ V .
3. hλu, vi = λhu, vi para todo u, v ∈ V , λ ∈ R.
4. hu, ui > 0 para todo u 6= 0̄.

Diremos entonces que el par (V, h , i) es un espacio vectorial euclídeo.


Si la aplicación h , i cumple las propiedades 1, 2 y 3 decimos que es una
forma bilineal simétrica. Si, además, cumple la propiedad 4, se dice que es
denida positiva y se habla de producto escalar asociado a V .

Propiedades.
a) hv, 0̄i = 0 para todo v ∈ V .
b) hλu + µv, wi = λhu, wi + µhv, wi para todo u, v, w ∈ V , λ, µ ∈ R.
c) hv, vi = 0 si y sólo si v = 0̄.

Denición 2. Un ejemplo de espacio vectorial euclídeo, y que será el más


utilizado por nosotros, es el espacio vectorial V = Rn , al que asociamos el
producto escalar usual que se dene del siguiente modo:
Dados x, y ∈ Rn con x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ),

hx, yi = x1 y1 + x2 y2 + · · · + xn yn .
2 1 ESPACIO EUCLÍDEO. ISOMETRÍAS

1.2. EXPRESIÓN MATRICIAL DEL PRODUCTO ESCALAR

Dado un espacio vectorial euclídeo de dimensión nita, (V, h , i), y dada


una base de V , B = {e1 , . . . , en }, denotamos aij = hei , ej i. Llamamos matriz
de Gram respecto de B a la matriz A = (aij ).
Por la primera propiedad de los productos escalares, se deduce que A es
una matriz simétrica (aij = aji para todo par i, j )
Una vez conocida la matriz de Gram asociada a un producto escalar
con respecto a una base B , es inmediato calcular el producto escalar de
cualesquiera dos vectores x, y ∈ V haciendo uso de dicha matriz. En efecto,
si x e y tienen coordenadas con respecto a B

xB = (x1 , . . . , xn ) yB = (y1 , . . . , yn ),
entonces

hx, yi = hx1 e1 + · · · + xn en , y1 e1 + · · · + yn en i

n
X n
X
= xi yj hei , ej i = aij xi yj = X t AY
i,j=1 i,j=1
   
x1 y1
 ..  .. .
siendo X =  .  e Y = 
 . 
xn yn
De este modo obtenemos la expresión matricial del producto escalar con
respecto a la base B ,

hx, yi = X t AY.
Cabe preguntarse, si se elige otra base, B 0 , cuál será la relación entre la
nueva matriz de Gram asociada a esta base, A0 , y la matriz A asociada a la
base B . Sean x, y ∈ V con coordenadas

xB = (x1 , . . . , xn ), xB 0 = (x01 , . . . , x0n )

yB = (y1 , . . . , yn ), yB 0 = (y10 , . . . , yn0 )


 0   0 
x1 y1
 ..   .. 
Denotamos X =  .  e Y =  . . Asimismo, denotamos por P
0 0

x0n yn0
a la matriz de cambio de base de B en B . 0

Resulta

hx, yi = X t AY = X 0t A0 Y 0
1.2 EXPRESIÓN MATRICIAL DEL PRODUCTO ESCALAR 3

Por otro lado,

hx, yi = (P X 0 )t A(P Y 0 ) = X 0t (P t AP )Y 0
De modo que la relación entre las dos matrices de Gram es de congruencia:

A0 = P t AP

Proposición 1. Si A es una matriz n × n denida positiva (simétrica y con


todos los autovalores reales y positivos), entonces

hX, Y i = X t AY, con X, Y ∈ Rn


dene un producto escalar en Rn . De hecho, todos los productos escalares
denidos en espacios vectoriales de dimensión nita tendrán una expresión
matricial de este tipo.
Para determinar si una matriz A es denida positiva, existen varios cri-
terios que no requieren del cálculo del signo de los autovalores. Enunciamos
uno en la siguiente proposición.
Proposición 2. (Criterio de Sylvester)
Sea A ∈ Mn (R) simétrica y sea ∆i = Det(Ai ), donde
 
a11 · · · a1i
Ai =  ... ... .. 
. 

ai1 ··· aii


Entonces A es denida positiva si y sólo si ∆i > 0 para todo i = 1, . . . , n.
Denición 3. (Norma o módulo. Distancia)
La longitud, norma o módulo de un vector v ∈ V se dene como
p
kvk = hv, vi
Si kvk = 1, se dice que v es unitario.
La distancia entre dos vectores u, v ∈ V se dene como

d(u, v) = ku − vk

Propiedades.
1. kvk ≥ 0 y kvk = 0 si y sólo si v = 0̄.
2. kλvk = |λ|kvk para todo λ ∈ R y para todo v ∈ V .
3. Para todo u, v ∈ V , ku + vk ≤ kuk + kvk. Esta propiedad se conoce
como desigualdad triangular o de Minkowski.
4. Dado v 6= 0̄, kvk
v
es un vector unitario.
4 1 ESPACIO EUCLÍDEO. ISOMETRÍAS

5. Para todo u, v ∈ V , |hu, vi| ≤ kukkvk. Esta propiedad se conoce como


desigualdad de Cauchy-Schwarz.
Denición 4. (Ángulo entre dos vectores. Ortogonalidad)
i) Para todo par de vectores no nulos u, v ∈ V , el ángulo entre u y v se
dene como el único número θ ∈ [0, π] tal que cos θ = kukkvk
hu,vi
.
ii) Dados u, v ∈ V no nulos, diremos que son ortogonales o perpendi-
culares si hu, vi = 0. Obsérvese que u, v son ortogonales si y sólo si
cos θ = 0, siendo θ el ángulo entre u y v , lo que es equivalente a decir
que θ = π/2.
iii) Una base B de vectores de V es ortogonal si sus vectores son ortogo-
nales entre sí. Si los vectores de B son además unitarios, entonces se
dice que la base es ortonormal.

Propiedades.
1. Si {u1 , . . . , uk } son vectores no nulos de V , ortogonales entre sí, en-
tonces son linealmente independientes.
2. Si B = {u1 , . . . , un } es una base ortogonal de V , entonces B 0 =
{ kuu11 k , . . . , kuunn k } es una base ortonormal de V .

Proposición 3. Sea B = {e1 , . . . , en } una base ortogonal del espacio vecto-


rial euclídeo V . Entonces, dado x ∈ V ,
hx, e1 i hx, en i
x= 2
e1 + · · · + en
ke1 k ken k2
esto es, xB = (x1 , . . . , xn ) con xi = hx,e ii
kei k2
. A las coordenadas xi se les llama
coecientes de Fourier de x con respecto a la base ortogonal B .

1.3. MÉTODO DE GRAM-SCHMIDT. PROYECCIONES

Teorema 1. (Gram-Schmidt) Dada una base B = {u1 , . . . , un } de un espa-


cio vectorial euclídeo V , existe una base ortogonal B 0 = {e1 , . . . , en } tal que
L(u1 , . . . , ur ) = L(e1 , . . . , er ) para todo r = 1, . . . , n. Los vectores de la base
B 0 serán:
e1 = u1
hu2 ,e1 i
e2 = u2 − ke1 k2 1
e
..
.
hun ,e1 i hun ,en−1 i
en = un − ke1 k2 1
e − ··· − e
ken−1 k2 n−1

Corolario 1. Si {w1 , . . . , wr } es un conjunto ortogonal de vectores no nulos


de V , entonces existe una extensión a una base ortogonal.
1.3 MÉTODO DE GRAM-SCHMIDT. PROYECCIONES 5

Denición 5. (Subespacios ortogonales. Complemento ortogonal)


i) Un vector no nulo v ∈ V se dice que es ortogonal a un subespacio
vectorial W de V , denotado por v ⊥ W , si hv, wi = 0 para todo w ∈ W .
Esto equivale a probar que v es ortogonal a los vectores de una base de
W.
ii) Dos subespacios vectoriales W1 , W2 de V se dicen ortogonales, algo que
denotaremos por W1 ⊥ W2 , si para todo w1 ∈ W1 y w2 ∈ W2 se tiene
que hw1 , w2 i = 0. Esto equivale a probar que los vectores de una base
de W1 son ortogonales a los vectores de una base de W2 .
iii) Si W es un subespacio vectorial de V de dimensión k < n, el conjunto
W ⊥ = {v ∈ V : hv, wi = 0 para todo w ∈ W }
es un subespacio vectorial de V de dimensión n − k y se denomina
complemento ortogonal de W . De hecho, V = W ⊕ W ⊥ .

Denición 6. (Proyección ortogonal)


Sea W un subespacio vectorial de V . Como V = W ⊕ W ⊥ , resulta que
todo v ∈ V se puede escribir de modo único como v = w + u con w ∈ W y
u ∈ W ⊥ . El vector w recibe el nombre de proyección ortogonal de v sobre W
y se denota por w = PW (v), mientras que u es la proyección ortogonal de v
sobre W ⊥ y se escribe u = PW ⊥ (v).

El siguiente resultado proporciona un método rápido para calcular proyec-


ciones ortogonales sobre un subespacio vectorial.

Proposición 4. Sea W un subespacio vectorial de V y sea v ∈ V . Si BW =


{w1 , . . . , wr } es una base ortogonal de W , entonces, la proyección ortogonal
de v sobre W es

hv, w1 i hv, wr i
PW (v) = w1 + · · · + wr
kw1 k2 kwr k2

Denición 7. (Matriz ortogonal) Una matriz A ∈ Mn (R) es ortogonal si A


es invertible y A−1 = At , es decir, AAt = Id.

Propiedades. Toda matriz ortogonal A ∈ Mn (R) cumple las propiedades


siguientes:
i) Los vectores la o columna de A forman una base ortonormal de Rn
con el producto escalar usual.
ii) Det(A) = ±1. Diremos que A es ortogonal directa si Det(A) = 1 y
diremos que es ortogonal inversa si Det(A) = −1.
6 1 ESPACIO EUCLÍDEO. ISOMETRÍAS

Proposición 5. Dado el espacio vectorial V = Rn , la expresión matricial


de la proyección ortogonal, P , sobre un subespacio W (a lo largo de W ⊥ ) es
 
I 0
P = [W|0][W|W⊥ ]−1 = [W|W⊥ ] [W|W⊥ ]−1
0 0

siendo [W|W⊥ ] una matriz cuyas columnas son bases de W y W ⊥ respecti-


vamente.
Si, además, elegimos las columnas de la matriz [W|W⊥ ] de modo tal
que son bases ortonormales de W y W ⊥ respectivamente, dicha matriz es
ortogonal y, por tanto, [W|W⊥ ]−1 = [W|W⊥ ]t . En ese caso,

 
I 0
P = [W|W⊥ ] [W|W⊥ ]t ó P = [W|0][W|W⊥ ]t
0 0

Observación 1. En R2 , con el producto escalar usual, la matriz P de la


proyección ortogonal sobre la recta W = L{v}, siendo v = (cos θ, sen θ), es:

t
cos2 θ
   
cos θ 0 cos θ − sen θ sen θ cos θ
P = =
sen θ 0 sen θ cos θ senθ cos θ sen2 θ

1.4. ISOMETRÍAS

En esta sección nos interesamos por el estudio de aquellas aplicaciones


lineales f : V → V 0 denidas entre espacios vectoriales euclídeos que conser-
van distancias y ángulos.

Denición 8. (Isometría)
Un homomorsmo f : V → V 0 es una isometría o aplicación ortogonal
si conserva el producto escalar, es decir, si

hf (x), f (y)i = hx, yi para todo x, y ∈ V.


Propiedades.
1. Si f es una isometría, kxk = hx, xi = hf (x), f (x)i = kf (x)k, de
p p

modo que se preserva la norma de los vectores. El recíproco también


será cierto, esto es, si kxk = kf (x)k para todo x ∈ V , entonces f es
una isometría.
2. Si f es una isometría, α es el ángulo entre x e y y β es el ángulo entre
f (x) y f (y), entonces cos α = kxkkyk
hx,yi
= kfhf(x)kkf (y)k = cos β , de modo
(x),f (y)i

que también se conservan los ángulos entre vectores.


1.5 ISOMETRÍAS EN R2 Y R3 7

3. Si {u1 , . . . , ur } son ortogonales (respectivamente ortonormales), en-


tonces
{f (u1 ), . . . , f (ur )} son también ortogonales (respectivamente ortonor-
males).
4. Si f : V → V 0 es una isometría con dim(V ) = dim(V 0 ) = n, entonces
f es un isomorsmo y f −1 es también una isometría.
5. Sea f : V → V 0 con dim(V ) = dim(V 0 ) = n y sea B = {v1 , . . . , vn } una
base ortonormal de V . Si {f (v1 ), . . . , f (vn )} es una base ortonormal de
V 0 entonces f es una isometría.

Caracterización matricial de una isometría. Sea f : V → V un endo-


morsmo del espacio vectorial euclídeo V . Si B es una base ortonormal de
V , entonces f es una isometría si y sólo si su matriz asociada A = M (f, B)
respecto de la base B es ortogonal, esto es, At = A−1 .

Denición 9. (Transformaciones directas e inversas)


Sea f : V → V una isometría. Si Det(f ) = 1, esto es, el determinante
de cualquiera de sus matrices asociadas es 1, entonces decimos que f es una
transformación directa. Si Det(f ) = −1, entonces decimos que f es una
transformación inversa.

1.5. ISOMETRÍAS EN R2 Y R3
Aunque los próximos resultados son válidos para espacios euclídeos de
dimensión 2 y 3 cualesquiera y se generalizan fácilmente a espacios de di-
mensión n, nosotros trabajaremos sólo con R2 y R3 dotados del producto
escalar usual.

Teorema 2. (Isometrías de R2 )
Consideremos R2 con el producto escalar usual y una isometría f : R2 →
R2 . Pueden darse dos situaciones:
i) Si Det(f ) = 1, entonces para toda base ortonormal B
 
cos α − sin α
M (f, B) =
sin α cos α

En este caso, la isometría f es una rotación, también denominada giro


de ángulo α. El valor de α no depende de la base ortonormal elegida,
sino de f . Dos casos particulares son α = 0 para el que f = Id y α = π
para el que f = −Id (simetría respecto del origen).
8 1 ESPACIO EUCLÍDEO. ISOMETRÍAS

ii) Si Det(f ) = −1, entonces para toda base ortonormal B


 
cos α sen α
M (f, B) =
sen α − cos α

En este caso, el valor de α depende de la base elegida. De hecho, existe


una base ortonormal B 0 = {v1 , v2 } tal que
 
0 1 0
M (f, B ) =
0 −1

En consecuencia, la aplicación f del caso ii) es una simetría respecto


de la recta determinada por el vector v1 . Aquí se tienen dos subespacios
propios: L(v1 ) con autovalor 1 y L(v2 ) con autovalor -1.

Observación 2. En R2 , con el producto escalar usual, la matriz S de la


simetría sobre la recta W = L{v}, siendo v = (cos θ, sen θ), es:

2 cos2 θ − 1 2 sen θ cos θ


   
cos 2θ sen 2θ
S = 2P − I = =
2 sen θ cos θ 2 sen2 θ − 1 sen 2θ − cos 2θ

siendo P la matriz de la proyección sobre la recta L{v}.

Observación 3. Cualquier simetría cumple S 2 = I , dado que S 2 = (2P −


I)2 = 4P 2 − 4P + I = I .

Teorema 3. (Isometrías de R3 )
Consideremos R3 con el producto escalar usual y una isometría f : R3 →
R3 . Pueden darse dos situaciones:

i) Si Det(f ) = 1, entonces existe una base ortonormal B = {v1 , v2 , v3 }


tal que
 
1 0 0
M (f, B) =  0 cos α − sin α 
0 sin α cos α

En este caso, f es una rotación de ángulo α alrededor de la recta L(v1 )


engendrada por el vector (autovector con autovalor asociado 1) v1 . El
plano L(v2 , v3 ) es invariante por f , que actúa sobre él generando una
rotación de ángulo α. Un caso particular es α = 0 para el que f = Id.
1.6 ENDOMORFISMOS SIMÉTRICOS 9

ii) Si Det(f ) = −1, entonces existe una base ortonormal B = {v1 , v2 , v3 }


tal que
 
−1 0 0
M (f, B) =  0 cos α − sin α 
0 sin α cos α
En este caso, f es la composición de la rotación del apartado ante-
rior con una simetría ortogonal respecto del plano L(v2 , v3 ). En esta
situación, v1 es un autovector con autovalor asociado −1. Un caso
particular es α = 0 para el que f representa una simetría ortogonal
respecto de L(v2 , v3 ).

1.6. ENDOMORFISMOS SIMÉTRICOS

Denición 10. Dado un espacio vectorial euclídeo, V , se dice que un endo-


morsmo f : V → V es simétrico si verica

hf (u), vi = hu, f (v)i ∀u, v ∈ V


Proposición 6. Dado un endomorsmo f : V → V , denido en un espacio
euclídeo de dimensión nita, se tiene que f es simétrico si y sólo si su matriz
asociada respecto a una base ortonormal es simétrica.
Proposición 7. Un endomorsmo simétrico tiene todos sus autovalores
reales y siempre es diagonalizable. Más aun, siempre es posible encontrar
una base ortonormal formada por vectores propios.
Corolario 2. Como consecuencia del resultado anterior, se tiene que toda
matriz simétrica, A ∈ Mn (R), es diagonalizable ortogonalmente, esto es,
existe P ∈ Mn (R) y D ∈ Mn (R) tales que

P −1 AP = P T AP = D,
siendo D la matriz diagonal de autovalores y P la matriz de paso ortogonal
(P T = P −1 ) cuyas columnas son los vectores propios unitarios de la base
ortonormal.
Teorema 4. Todo endomorsmo f : V → V , no singular, denido sobre un
espacio euclídeo de dimensión nita, se puede escribir como la composición
de un endomorsmo simétrico, s, y una transformación ortogonal, o.
f =o◦s
Escrito en forma matricial, podemos decir que toda matriz cuadrada no
singular, F , se puede escribir como el producto de una matriz simétrica S y
una matriz ortogonal O
F = OS
CÓNICAS
Ecuación reducida de una cónica. y ∗∗ x∗∗

u∗∗
2

y u∗∗
1
y∗
O∗∗
u2
x∗
u∗2 u∗1
α
O u1 x

R = {O, u1 , u2 }
 
a00 a01 a02

     t
 1
A =  a10 a11 a12  a10 a11 a12 a00 ā
ā = A0 = A= X= x 
a20 a21 a22 a20 a21 a22 ā A0
y

 
1
(1 x y) A  x =0 X t AX = 0
y

GIRO
R∗ = {O∗ , u∗1 , u∗2 }
 
1 
cos α − sin α
 
1 0̄t

X ∗ =  x∗  φ=
sin α cos α
G=
0̄ φ
y∗

x∗
   
x
=φ con φ giro que representa la matriz de cambio de base X = GX ∗
y y∗

X t AX = (GX ∗ )t A(GX ∗ ) = X ∗t (Gt AG)X ∗

X t AX = 0 si y sólo si X ∗t A∗ X ∗ = 0 donde A∗ = Gt AG

āt φ
 
∗ t a00
A = G AG =
φt ā φt A0 φ

a∗11
 
0
Se ha elegido el giro φ de modo que A∗0 = φt A0 φ = φ−1 A0 φ = D = sea diagonal
0 a∗22
 
1
La ecuación de la cónica respecto de R∗ es (1 x∗ y ∗ ) A∗  x∗  = 0 ó X ∗t A∗ X ∗ = 0
y∗
Resulta más sencilla que la ecuación inicial, dado que A∗ es más simple que A.
TRASLACIÓN

R∗∗ = {O∗∗ , u∗∗ ∗∗


1 , u2 }

 
t1
t̄ = coordenadas del centro de la cónica respecto de R
t2

t∗1
 

t̄ = coordenadas del centro de la cónica respecto de R∗
t∗2
x∗ x∗∗ t∗1
     
∗ = +
Entonces φt̄ = t̄ y y∗ y ∗∗ t∗2
 
1  
1 0̄
Si X ∗∗
=  x∗∗  y T = entonces X ∗ = T X ∗∗
t̄∗ Id
y ∗∗

X ∗t A∗ X ∗ = (T X ∗∗ )t A∗ (T X ∗∗ ) = X ∗∗t (T t A∗ T )X ∗∗

X ∗t A∗ X ∗ = 0 si y sólo si X ∗∗t A∗∗ X ∗∗ = 0 donde A∗∗ = T t A∗ T = T t (Gt AG)T

a00 + 2āt t̄ + t̄t A0 t̄ (ā + A0 t̄)t φ


 
∗∗ t t
A = T (G AG)T =
φt (ā + A0 t̄) φ t A0 φ

La ecuación del centro de la cónica, en caso de haberlo, es ā + A0 t̄ = 0̄.

La ecuación de la cónica respecto de R∗∗ es


 
1
(1 x∗∗ y ∗∗ ) A∗∗  x∗∗  = 0 ó X ∗∗t A∗∗ X ∗∗ = 0
y ∗∗

Resulta más sencilla que la ecuación la inicial, dado que, si la cónica tiene centro, A∗∗ es diagonal.
Invariantes métricos de las cónicas.
|A| = |A∗ | = |A∗∗ |
|A0 | = |A∗0 | = |A∗∗
0 |
tr(A0 ) = tr(A∗0 ) = tr(A∗∗
0 )

Matrices reducidas
Existen tres situaciones posibles para la matriz A∗∗ en función de que exista uno,
ninguno o infinitos centros (ā + A0 t̄ = 0̄ compatible determinado, incompatible o
compatible indeterminado):
i) En caso de que la cónica tenga centro único (|A0 | = |A∗0 | 6= 0) o, en otras
palabras, si los dos autovalores de A0 son no nulos, la matriz reducida es

a∗∗
 
00 0 0
A∗∗ =  0 a∗∗ 0
 
11 
∗∗
0 0 a22
con
|A|
a∗∗
00 = |A0 |
y
a∗∗ ∗∗
11 y a22 las raı́ces de p(λ), el polinomio caracterı́stico de A0

Los casos posibles son: elipse real, conjunto vacı́o, hipérbola, un punto o dos
rectas reales que se cortan.
ii) Si alguno de los autovalores de A0 es nulo y |A| 6= 0, es el caso de la parábola
(cónica con vértice). La matriz reducida resultante es

0 a∗∗
 
01
A∗∗
 ∗∗
=  a10 0


a∗∗
22

con
a∗∗
22 = tr(A0 )
y
r
−|A|
a∗∗
10 =± tr(A0 )

iii) Si alguno de los autovalores de A0 es nulo y |A| = 0, la matriz A∗∗ es

a∗∗
 
00
A∗∗ =  0
 

a∗∗
22

0 y a∗∗
22 son los autovalores de A0

a∗∗
00 =
A11 +A22
tr(A0 )

siendo Aii el adjunto de aii en A.


Tendremos una recta doble, dos rectas paralelas reales o dos rectas paralelas
imaginarias.
Clasificación de las cónicas en función de los invariantes
Caso 1. |A| =
6 0.
1.1. Si |A0 | =
6 0 (cónica con centro único), puede ocurrir:
1.1.a) |A0 | > 0 y sig(|A|) = sig(tr(A0 )). Elipse imaginaria.

1.1.b) |A0 | > 0 y sig(|A|) 6= sig(tr(A0 )). Elipse real.

1.1.c) |A0 | < 0. Hipérbola


1.2. Si |A0 | = 0. Parábola.
Caso 2. |A| = 0.
2.1 Si A0 6= 0 (rectas no paralelas), puede ocurrir:
2.1.a) |A0 | > 0 par de rectas imaginarias (un punto).
2.1.b) |A0 | < 0 par de rectas reales.
2.2 Si |A0 | = 0 (rectas paralelas), puede ocurrir:
2.2.a) A11 + A22 > 0 par de rectas imaginarias distintas.
2.2.b) A11 + A22 < 0 par de rectas reales distintas.
2.2.c) A11 + A22 = 0 recta doble.
CUÁDRICAS z ∗∗

Ecuación reducida de una cuádrica. u∗∗


3
y ∗∗
z u∗∗
2
z∗

O∗∗
y∗ u∗∗
1
u3
u∗3
u∗2

y x∗∗
u1 O
u2
u∗1

x
x∗
R = {O, u1 , u2 , u3 }

  

a00 a01 a02 a03     1
a10 a11 a12 a13
āt
 
 a10 a11 a12 a13  a00  x 
A=
 a20
 ā =  a20  A0 =  a21 a22 a23  A= X= 
a21 a22 a23  ā A0  y 
a30 a31 a32 a33
a30 a31 a32 a33 z

 
1
 x 
(1 x y z) A X t AX = 0
 y =0
 

TRANSFORMACIÓN ORTOGONAL DIRECTA


R∗ = {O, u∗1 , u∗2 , u∗3 }
x∗
   
x
 y  = φ  y∗  φ transformación ortogonal directa que representa la matriz de cambio de base
z z∗

 
1
 x∗  0̄t
 
1
Se tiene X = GX ∗
con X∗ = 
 y∗ 
 y G=
0̄ φ
z∗

Por tanto X t AX = (GX ∗ )t A(GX ∗ ) = X ∗t (Gt AG)X ∗

X t AX = 0 si y sólo si X ∗t A∗ X ∗ = 0 donde A∗ = Gt AG

āt φ
 
a00
A∗ = Gt AG = t t
φ ā φ A0 φ

a∗11
 
0 0
Se elige φ de modo que ∗ t −1
A0 = φ A0 φ = φ A0 φ = D =  0 a∗11 0 
0 0 a∗33
 
1
 x∗ 
La ecuación de la cuádrica respecto de R∗ es (1 x∗ y∗ z ∗ ) A∗  ∗ =0
 y 
o X ∗t A∗ X ∗ = 0
z∗

Resulta más sencilla que la ecuación inicial, dado que A∗ es más simple que A.
TRASLACIÓN

R∗∗ = {O∗∗ , u∗∗ ∗∗ ∗∗


1 , u2 , u3 }
 
t1
t̄ =  t2  coordenadas del centro de la cuádrica respecto de R
t3
 ∗ 
t1
t̄∗ =  t∗2  coordenadas del centro de la cuádrica respecto de R∗
t∗3  ∗   ∗∗   ∗ 
x x t1
Entonces φt̄∗ = t̄ y  y ∗  =  y ∗∗  +  t∗2 
  z∗ z ∗∗ t∗3
1  
 x∗∗  1 0̄
Si ∗∗
X =  ∗∗  y T = entonces X ∗ = T X ∗∗
t̄∗ Id
 
y
z ∗∗

X ∗t A∗ X ∗ = (T X ∗∗ )t A∗ (T X ∗∗ ) = X ∗∗t (T t A∗ T )X ∗∗

X ∗t A∗ X ∗ = 0 si y sólo si X ∗∗t A∗∗ X ∗∗ = 0 donde A∗∗ = T t A∗ T = T t (Gt AG)T

a00 + 2āt t̄ + t̄t A0 t̄ (ā + A0 t̄)t φ


 
∗∗ t t
A = T (G AG)T =
φt (ā + A0 t̄) φ t A0 φ

La ecuación del centro de la cuádrica, en caso de haberlo, es ā + A0 t̄ = 0̄.

La ecuación de la cuádrica respecto de R∗∗ es


 
1
 x∗∗ 
(1 x∗∗ y ∗∗ z ∗∗ ) A∗∗   y ∗∗  = 0
 ó X ∗∗t A∗∗ X ∗∗ = 0
z ∗∗

Resulta más sencilla que la ecuación la inicial, dado que, si la cónica tiene centro, A∗∗ es diagonal.
Invariantes métricos de las cuádricas.
|A| = |A∗ | = |A∗∗ |
|A0 | = |A∗0 | = |A∗∗
0 |
tr(A0 ) = tr(A0 ) = tr(A∗∗

0 )
∗ ∗∗
J(A0 ) = J(A0 ) = J(A0 ) con J(A0 ) = α11 + α22 + α33 , siendo αii el
adjunto de aii en A0 .
Matrices reducidas
Existen tres situaciones posibles para la matriz A∗∗ en función de que exista uno,
ninguno o infinitos centros (ā + A0 t̄ = 0̄ compatible determinado, incompatible o
compatible indeterminado):
i) Cuádrica con centro único. Entonces |A0 | = |A∗0 | =
6 0 o, en otras palabras,
los autovalores de A0 son no nulos. La matriz reducida es
a∗∗
 
00 0 0 0
 0 a∗∗ 0 0 
A∗∗ =  11
∗∗

0 0 a22 0
 
 
0 0 0 a∗∗
33
con
|A|
a∗∗
00 = |A0 |
y
a∗∗ ∗∗ ∗∗
11 , a22 y a33 las raı́ces de p(λ), el polinomio caracterı́stico de A0

Los casos posibles son: elipsoide real, elipsoide imaginario (conjunto vacı́o),
hiperboloide hiperbólico, hiperboloide elı́ptico, cono imaginario (un punto) y
cono real.
ii) Cuádrica sin centro. Pueden darse dos situaciones:
ii.a) Exactamente uno de los autovalores de A0 es nulo, por ejemplo, a∗∗33 = 0, y
|A| =
6 0 (r(A0 ) = 2 y r(A) = 4). Es el caso de los paraboloides. La matriz
reducida resultante es
0 a∗∗
 
0 0 03
∗∗
 0 a11 0 0 
A∗∗ =  
0 0 a∗∗ 0
 
 22 
∗∗
a30 0 0 0
con
a∗∗ ∗∗
11 y a22 los autovalores no nulos de A0
y
r
−|A|
a∗∗
30 =± J(A0 )

ii.b) Exactamente dos autovalores son nulos (r(A0 ) = 1) y r(A) = 3. Es el caso


de los cilindros parabólicos. La matriz reducida resultante es
0 a∗∗
 
0 02 0
 0 a∗∗ 0 0 
A∗∗ =  11
 
a∗∗ 0 0 0

 20 
0 0 0 0
con
a∗∗
11 el autovalor no nulo de A0
y
r
−K̃(A)
a∗∗
02 = ± tr(A0 )

siendo K̃(A) = A11 + A22 + A33 donde Aii es el adjunto de aii en A.


iii) Cuádricas con infinitos centros. Se tienen tres casos posibles:
iii.a) Hay exactamente un autovalor nulo (por ejemplo, a∗∗
33 = 0) y |A| = 0.
Entonces

a∗∗
 
00 0 0 0
 0 a∗∗ 0 0 
A∗∗ =  11
 
0 0 a∗∗ 0

 22 
0 0 0 0
K̃(A)
a∗∗ ∗∗ ∗∗
11 y a22 los autovalores no nulos de A0 y a00 = J(A0 )

En este caso se obtienen cilindros elı́pticos (reales o imaginarios) o


hiperbólicos, o un par de planos (reales o imaginarios) que se cortan en
una recta real.
iii.b) Hay exactamente dos autovalores nulos (r(A0 ) = 1), por ejemplo, a∗∗
22 =
∗∗
a33 = 0, y r(A) < 3. Entonces se tiene

a∗∗
 
00 0 0 0
 0 a∗∗ 0 0 
A∗∗ =  11 
0 0 0 0
 
 
0 0 0 0
dando lugar a dos planos paralelos (reales o imaginarios) o coincidentes.
En este caso
˜
J(A)
a∗∗ ∗∗
11 el autovalor no nulo de A0 y a00 = tr(A0 )

siendo

˜ a a a a a a
J(A) = 00 01 + 00 02 + 00 03
a10 a11 a20 a22 a30 a33

iii.c) Los tres autovalores son nulos. En ese caso tenemos

a∗∗ ∗∗ ∗∗ ∗∗
 
00 a01 a02 a03
 a∗∗ 0 0 0 
A∗∗ =  10
 
a∗∗ 0 0 0

 20 
∗∗
a30 0 0 0
Este es el caso de un plano y la ecuación ya viene en forma reducida.
Clasificación de las cuádricas en función de los invariantes
Llamamos signatura de A al par s(A) = (p, q) siendo p el número de
autovalores positivos y q el número de autovalores negativos. Se tiene
s(A) = s(A∗ ) = s(A∗∗ ) y s(A0 ) = s(A∗0 ) = s(A∗∗
0 ).
Caso 1. |A| =6 0.
1.1. Si |A0 | =
6 0 (cuádrica con centro único), puede ocurrir:
1.1.a) s(A0 ) = (3, 0) y |A| > 0. Elipsoide imaginario.
1.1.b) s(A0 ) = (3, 0) y |A| < 0. Elipsoide real.
1.1.c) s(A0 ) = (2, 1) y |A| > 0. Hiperboloide hiperbólico.
1.1.d) s(A0 ) = (2, 1) y |A| < 0. Hiperboloide elı́ptico.
1.2. Si |A0 | = 0 (paraboloides), puede ocurrir:
1.2.a) |A| < 0. Paraboloide elı́ptico.
1.2.b) |A| > 0. Paraboloide hiperbólico.

Caso 2. |A| = 0.
2.1 Si |A0 | =
6 0 (conos), puede ocurrir:
2.1.a) s(A0 ) = (3, 0). Cono imaginario.
2.1.b) s(A0 ) = (2, 1). Cono real.
2.2 Si |A0 | = 0 (cilindros y planos), puede ocurrir:
2.2.1 Si J(A0 ) 6= 0 (cilindros no parabólicos y planos secantes) puede
ocurrir:
2.2.1.a) J(A0 ) > 0 y K̃(A) 6= 0 con sig(K̃(A)) = sig(tr(A0 )). Cilindro
elı́ptico imaginario.
2.2.1.b) J(A0 ) > 0 y K̃(A) 6= 0 con sig(K̃(A)) 6= sig(tr(A0 )). Cilindro
elı́ptico real.
2.2.1.c) J(A0 ) > 0 y K̃(A) = 0. Dos planos imaginarios secantes.
2.2.1.d) J(A0 ) < 0 y K̃(A) 6= 0. Cilindro hiperbólico.
2.2.1.e) J(A0 ) < 0 y K̃(A) = 0. Dos planos reales secantes.
2.2.2 Si J(A0 ) = 0 (cilindros parabólicos y planos paralelos) puede ocur-
rir:
2.2.2.a) tr(A0 ) 6= 0 con K̃(A) 6= 0. Cilindro parabólico.
˜
2.2.2.b) tr(A0 ) 6= 0 con K̃(A) = 0 y J(A) > 0. Dos planos imaginarios
paralelos.
2.2.2.c) tr(A0 ) 6= 0 con K̃(A) = 0 y J(A) ˜ < 0. Dos planos reales
paralelos.
˜
2.2.2.d) tr(A0 ) 6= 0 con K̃(A) = 0 y J(A) = 0. Dos planos coincidentes.
2.2.2.e) tr(A0 ) = 0. Un plano único.
1

1. PRELIMINARES

1.1. CÁLCULO DEL RANGO POR EL MÉTODO DE GAUSS

Denición 1. Una matriz es escalonada si:


1. Todas las las nulas, si las hay, están en la parte inferior de la matriz.
2. El número de ceros al comienzo de una la no nula es estrictamente
menor que el número de ceros al comienzo de la la inferior.
El primer elemento no nulo de cada la (en caso de tenerlo) se llama
cabecera de la la.
Un ejemplo de matriz escalonada es
 
3 1 4 0
 0 −2 2 0 
 
 0 0 0 1 
0 0 0 0
Supongamos que la matriz escalonada cumple, además:
3. Todas las cabeceras de las son unos.
4. En las columnas en las que están las cabeceras de las las, todos los
demás elementos son nulos.
Entonces se dice que la matriz es escalonada reducida.

Veamos algunos ejemplos:


 
1 0 4 0  
 0 1 3 0 5
1 2 0  


 0 0 0 1 2 
0 0 1 
0 0 0 0
0 0 0 0
son matrices escalonadas reducidas mientras que
 
1 0 4 1
 0 1 2 0 
 
 0 0 0 1 
0 0 0 0
es escalonada pero no es escalonada reducida.

Dada una matriz A ∈ Mm×n (R), llamamos operaciones elementales sobre


las las de A a las siguientes manipulaciones:
1. Intercambiar la posición de dos las.
2. Sustituir la la i-ésima por k veces ella más k0 veces la j -ésima, con
k 6= 0.

Algoritmo. Dada una matriz A, reduzcámosla mediante operaciones ele-


mentales sobre las las a forma escalonada y a forma escalonada reducida.
2 1 PRELIMINARES

Paso 1. Si Aj1 es la primera columna de A con una entrada no nula,


intercambiamos, si es necesario, las para que a1j1 6= 0.
Paso 2. Utilizamos a1j1 como pivote para obtener ceros bajo él.
Paso 3. Se repiten los pasos 1 y 2 con la submatriz obtenida de quitar la
primera la.
Paso 4. Se repite el proceso hasta que la matriz quede en forma escalonada.
Si, además, buscamos obtener la matriz escalonada reducida, continua-
mos con los pasos siguientes:
Paso 5. Se multiplica la última la no nula Ar (con cabecera arjr ) por
1/arjr de forma que la cabecera se convierta en 1.
Paso 6. Se utiliza arjr = 1 como pivote para obtener ceros sobre él.
Paso 7. Se repiten los pasos 5 y 6 para las las Ar−1 , Ar−2 , . . . , A2 .
Paso 8. Multiplicar A1 por 1/a1j1 (a1j1 es la cabecera de la la A1 ).
Hacemos observar que la matriz escalonada asociada a A no es única,
mientras que la escalonada reducida sí lo es.

Denición 2. Sea A ∈ Mn (R). Se llama menor de orden r de A al deter-


minante de la matriz formada por la intersección de r las y r columnas de
A. El rango de A es r si existe un menor de orden r de A no nulo y todos
los menores de orden mayor que r son nulos.
Observación 1. El rango de una matriz A es invariante por operaciones
elementales sobre sus las y resulta ser igual al número de las no nulas de
cualquier matriz escalonada asociada a A.

1.2. SISTEMAS DE ECUACIONES LINEALES

Denición 3. Una expresión de la forma



 a11 x1 + a12 x2 + · · · + a1n xn = b1
..

(I) .

am1 x1 + am2 x2 + · · · + amn xn = bm

donde los aij (coecientes) y los bi (términos independientes) son números


reales se denomina sistema de m ecuaciones lineales con n incógnitas x1 , . . . , xn .
Una solución de (I) son n números (s1 , . . . , sn ) tales que al sustituir por
(x1 , . . . , xn ), se cumplen las igualdades de (I).
Al sistema (I) también lo denotamos matricialmente por Ax̄ = b̄, esto es,
    
a11 ... a1n x1 b1
.. ... ..   ..   .. 
. .  .  =  . 


am1 . . . amn xn bm
A las matrices
1.2 SISTEMAS DE ECUACIONES LINEALES 3

   
a11 ... a1n a11 ... a1n b1
.. ... .. .. ... .. .. 
A= . . Ā =  . . . 
  

am1 . . . amn am1 . . . amn bm
se las llama matriz de coecientes y matriz ampliada de coecientes de (I).

Dado un sistema de ecuaciones lineales Ax̄ = b̄, diremos que es compatible


si tiene alguna solución e incompatible si no tiene ninguna. En caso de ser
compatible, diremos que es compatible determinado si la solución es única y
compatible indeterminado si tiene más de una solución.
Discutir un sistema Ax̄ = b̄ será determinar a cuál de los tipos menciona-
dos pertenece.
Diremos de un sistema que es homogéneo si cada término independiente
es cero (b1 = · · · = bm = 0). Lo denotaremos por Ax̄ = 0̄.
Obsérvese que todo sistema homogéneo es compatible (siempre existe la
solución trivial x1 = x2 = · · · = xn = 0).
Si alguno de los términos independientes es distinto de cero, el sistema
se dice no homogéneo.

1.2.1. Método de eliminación de Gauss


Dos sistemas de ecuaciones lineales se dicen equivalentes si tienen las
mismas soluciones. A continuación veremos cómo determinar las soluciones
de un sistema de ecuaciones transformándolo en otro equivalente, que resol-
veremos con mayor facilidad.
Si (I) Ax̄ = b̄ es un sistema que deseamos resolver, consideramos la
matriz de coecientes ampliada Ā asociada a (I) y, realizando operaciones
elementales sobre sus las, la transformamos en una matriz escalonada E .
El sistema de ecuaciones (II) asociado a E será equivalente a (I) Ax̄ = b̄,
ya que las operaciones elementales sobre las las no modican las soluciones
de los sistemas resultantes. Bastará entonces resolver (II) para tener las
soluciones de (I). Éste es el denominado método de eliminación de Gauss.
Si en vez de reducir Ā a forma escalonada, la reducimos a forma escalonada
reducida y resolvemos el sistema asociado, estaremos utilizando el método de
eliminación de Gauss-Jordan.

1.2.2. Discusión de sistemas de ecuaciones lineales


Teorema 1. (Rouché-Frobenius)
Dado un sistema (I) Ax̄ = b̄ de m ecuaciones con n incógnitas, se verica:
1. El sistema es compatible si r(A) = r(Ā). Será compatible determinado
si r(A) = r(Ā) = n y compatible indeterminado si r(A) = r(Ā) < n.
2. El sistema es incompatible si r(A) < r(Ā).
4 1 PRELIMINARES

1.2.3. Regla de Cramer


Sea (I) Ax̄ = b̄ un sistema de n ecuaciones con n incógnitas (A ∈ Mn (R))
con A invertible.
Entonces (I) es compatible determinado y las soluciones de (I) son de la
forma:

Det(b̄, A2 , . . . , An ) Det(A1 , . . . , An−1 , b̄)


x1 = , ... , xn = ,
Det(A) Det(A)

siendo Ai la columna i-ésima de A para i = 1, . . . , n.

1.3. PROPIEDADES DE LOS DETERMINANTES

1. Dadas tres matrices cuadradas A, B, C iguales, salvo que la i-ésima


la (columna) de A es igual a la suma de las i-ésimas las (columnas)
de B y C , entonces:

det(A) = det(B) + det(C)

2. Si una matriz cuadrada A tiene dos las (columnas) iguales o propor-


cionales, entonces det(A) = 0.
3. Dada una matriz cuadrada A y dada la matriz B obtenida de inter-
cambiar en A la posición de dos las (columnas), entonces det(B) =
−det(A).

4. Dada una matriz cuadrada A y dada la matriz B obtenida de multi-


plicar los elementos de una la (columna) de A por un escalar k, en-
tonces det(B) = k det(A). Esto implica que si A tiene una la (colum-
na) de ceros, entonces det(A) = 0.
5. Dada una matriz cuadrada A y dada la matriz B obtenida de sumar a
una la (columna) de A otra la (columna) multiplicada por un escalar
k , entonces det(A) = det(B).

6. Una matriz cuadrada A es regular si y sólo si det(A) 6= 0.


7. Dadas A y B matrices cuadradas, det(AB) = det(A)det(B).
8. Dada una matriz cuadrada A, det(A) = det(At )
9. El determinante de una matriz cuadrada A puede obtenerse desarro-
llando por cualquiera de sus las o columnas:

det(A) = ai1 αi1 + · · · + ain αin = a1j α1j + · · · + anj αnj


1.4 EJERCICIOS 5

1.4. EJERCICIOS

También podría gustarte