Lineare Algebra
Lineare Algebra
Adolf Riede
I
II
Inhaltsverzeichnis
I Einleitung 1
I.1 Zur Bedeutung der Linearen Algebra . . . . . . . . . . . . . . . . . . . . . . . 1
I.2 Einige Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II Lineare Gleichungssysteme 6
II.1 Lösen einfacher Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.2 Zusammenfassung der gefundenen Einsichten . . . . . . . . . . . . . . . . . . 8
II.3 Präzisierung und Kennzeichnung der Begriffe . . . . . . . . . . . . . . . . . . 8
II.4 Eliminationsverfahren mit System . . . . . . . . . . . . . . . . . . . . . . . . 10
II.5 Hinweise auf numerische Probleme . . . . . . . . . . . . . . . . . . . . . . . . 14
IV Lineare Abhängigkeit 31
IV.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
IV.2 Erzeugendensystem, Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
IV.3 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
IV.4 Äquivalenzrelationen und Quotientenräume . . . . . . . . . . . . . . . . . . . 36
VII Determinanten 62
VII.1 Determinantenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
VII.2 Das Signum einer Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . 62
VII.3 Die Frage nach Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 64
VII.4 Anwendung auf lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 64
VII.5 Determinante einer -Matrix . . . . . . . . . . . . . . . . . . . . . . . . 65
VII.6 Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 66
VII.7 Anwendung auf den Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
VII.8 Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 68
VII.9 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
I Einleitung
Bei Fehlen jeglicher Kräfte hat die Feder eine Ruhelage. Wir bezeichnen mit die Auslenkung
aus Ruhelage (nach unten), mit die Geschwindigkeit, mit die Beschleunigung.
=
Masse,
Erdbeschleunigung
= Federkonstante
Schwerkraft
=
=
Gesamtkraft
Newtongesetz:
Dies ist eine sogenannte lineare Differentialgleichung mit konstanten Koeffizienten, die Diffe-
rentialgleichung der gedämpften Schwingung. Für die systematische Bestimmung der Lösungs-
funktionen einer linearen Differentialgleichung liefert die Lineare Algebra die wesentlichen Hilf-
mittel.
2.2 Gleichstromschaltkreise
Auf einer Verbindung zwischen zwei Knoten (Stromverzweigungen) fließt ein Strom der Stär-
ke . Die Verbindung wird willkürlich mit einer Richtung versehen. Stimmt die physikalische
Stromrichtung mit der Verbindungsrichtung überein, so ist mit dem positiven, andernfalls ne-
gativen Vorzeichen zu versehen. Die Ströme werden aus den Kirchhoffschen Gesetzen bestimmt,
wenn die Batteriespannungen und die Stärken der Ohmschen Widerstände bekannt sind.
1. Kirchhoffsches Gesetz: Die Summe der Ströme in jedem Knoten ist null; dabei geht ein
auf den Knoten zufließender Strom mit dem Faktor +1, ein wegfließender mit dem Faktor
-1 ein.
2. Kirchhoffsches Gesetz: Die Summe der Spannungsabfälle in jeder Schleife ist null. Eine
Schleife ist eine geschlossene Verbindung mit festgelegtem Durchlaufungssinn.
Für den Spannungsabfall an einem Widerstand wird das Ohmsche Gesetz
an-
gesetzt. Wir erhalten lineare Gleichungen für die unbekannten Ströme. Deshalb wird eine elek-
trische Schaltung mit nur Ohmschen Widerständen auch ein linearer Schaltkreis genannt. Die
Batteriespannungen und die Stärken der Ohmschen Widerstände gehen als Konstante in die Glei-
chungen ein.
Wir erhalten an dem (hier nicht wiedergegebenen) Beispiel für 3 Knoten und 3 Schleifen 6 Glei-
chungen für die 6 Ströme, die die Ströme bestimmen „sollten“. Jedoch lassen sich durch Betrach-
tung eines weiteren Knotens oder durch die Betrachtung weiterer Schleifen weitere Gleichungen
gewinnen. Aus physikalischen Gründen kann jedoch der Schaltkreis nicht „überbestimmt“ sein,
erfahrunggemäß stellen sich ganz bestimmte Ströme in den Knoten-Verbindungen ein. Die wei-
teren Gleichungen müssen also wohl Konsequenzen aus den anderen sein.
2.3.2 Zielfrage Welches sind die Bedingungen dafür, daß die Produktion den Bedarf deckt ?
I.2 Einige Anwendungsbeispiele 3
Anzahl der Betriebe:
1. Annahme: Der Einfachheit halber nehmen wir zunächst an, daß es Fabriken X,
Y, Z gibt.
Jahresproduktion
Sei .'+'
die Jahresproduktion der Ware A, B, C durch die Fabrik X, Y, Z, gemessen in
einer dem Produkt angemessenen Einheit, z. B. Kohle in Tonnen, Strom in kWh.
Konsumbedarf und Exportbedarf an der Ware A, B, C fassen wir zum außerindustriellen
Bedarf bzw. bzw. zusammen.
Industrieller Bedarf
4
benötigt X benötigt Y benötigt Z
von B Einheiten Einheiten Einheiten
von C Einheiten Einheiten Einheiten
Eine diesem spezifischen Bedarf entsprechende Tabelle für den Jahresbedarf läßt sich in
ähnlicher Weise aufstellen. Wir benötigen jedoch die entsprechenden Bezeichnungen für
die Jahresgrößen nicht und gehen gleich über zum nächsten Punkt der Modellbildung.
;
;
von A
Daß das Datenmaterial in Tabellenform angegeben werden kann, zeigt daß es eine gewisse Struk-
''
tur hat. Wir können diese Struktur dazu benutzen systematischere Bezeichnungen einzuführen.
Was wir mit den Buchstaben etc. bezeichnet haben, brauchen wir dann nicht mehr oben
für ' ' bezeichne die Jahresproduktion der -ten Fabrik, also:
nachsehen, sondern ergibt sich aus der Systematik:
Ein Hauptteil der Linearen Algebra besteht im Rechnen mit solchen einfach und doppelt indi-
zierten Größen. Eine Tabelle doppelt indizierter Größen heißt eine Matrix.
Um ein Modell für alle denkbaren Wirtschaftsysteme aufzustellen, müssen wir die Anzahl der
Betriebe variabel halten. Für die Wirtschaft eines Staates ist sehr groß. Wir schreiben sie für
3
beliebiges in einer in der Mathematik üblichen Weise wie folgt an:
8 8 & &
8 . $ 8 8 8 & & 8
8
8 8 && $
.. (4)
3
I.2 Einige Anwendungsbeispiele 5
2.3.6 Anzahl der Unbekannten in der Praxis Mit diesem Beispiel sehen wir, daß für
Probleme aus der realen Welt lineare Gleichungssysteme mit Unbekannten auftreten können
und sehr groß werden kann. Dieses kann als eine Dimension interpretiert werden. Reale
Probleme erfordern also die Betrachtung des -dimensionalen Falles. Es genügt nicht, sich auf
den 1, 2 oder 3-dimensionalen Fall zu beschränken. Der niedrigdimensionale Fall wird aber zum
Ideen finden und zur Veranschaulichung herangezogen. Auch der -dimensionale Fall wird durch
die Beschäftigung mit ihm mit der Zeit immer vertrauter.
6 II Lineare Gleichungssysteme
II Lineare Gleichungssysteme
1. Beispiel
in die erste Gleichung einsetzen:
1
'
Damit ist folgendes gezeigt: Wenn das Zahlenpaar eine Lösung ist, so gilt .'
; d. h. insbesondere, daß es höchstens eine Lösung gibt. Unsere Umformungen
'
zeigen also die Eindeutigkeit der Lösung.
Daß
tatsächlich eine Lösung ist, erweist sich dadurch, daß wir in das
Gleichungssystem einsetzen. Dadurch ist die Existenz einer Lösung bewiesen.
2. Beispiel
:
Hier ist die letzte Gleichung das negative der ersten, also automatisch erfüllt, wenn die
erste erfüllt ist. Subtraktion und Addition der ersten zwei Gleichungen liefert:
1
2
A. Riede:Lineare Algebra 1, WS 99/00
II.2 Zusammenfassung der gefundenen Einsichten 7
4. Beispiel
1
1
1
#1
#1
#1
An diesem vereinfachten System lesen wir ab, daß
' '
eine Lö-
sung des umgeformten Systems ist. Die zweite Gleichung des Ausgangssystems ist jedoch
für diese Zahlenwerte nicht erfüllt.
Bei dieser Art von Umformungen, die wir durchgeführt haben, ist klar, daß eine Lösung
des Ausgangssystems auch eine Lösung des umgeformten Systems ist. Dann kann das
3. Manche haben gar keine Lösungen, auch wenn nicht mehr Gleichungen als die Zahl der
Unbekannten zu erfüllen sind.
4. Die prinzipielle Idee zur Lösung eines linearen Gleichungssystems ist, ein lineares Glei-
chungssystems in ein einfacheres umzuformen, aus dem die Lösungen leicht ablesbar sind.
Dann sollten die Umformungen umkehrbar sein, damit die Lösungen des umgeformten Sy-
stems auch die Lösungen des Ausgangsystems sind.
homogen, falls
ist. Ein System von
auch der inhomogene Koeffizient oder der inhomogene Bestandteil. Eine lineare Gleichung heißt
( eine natürliche Zahl) linearen Gleichungen
schreiben wir in der Form
8 8 & &
8 . 8 8 8 & & 8
8
(LGS)
..
8 8 &&
Unter Verwendung des Summenzeichens:
< ' ' ' '
Der erste Index von
und der Index von beziehen sich also auf die -te Gleichung. Der
zweite Index ist der Summationsindex.
II.4 Eliminationsverfahren mit System 9
werte ' 8 '#' ' in einer bestimmten Reihenfolge heißen ein -tupel von Zahlen. Ein
len entstehen. Dabei kommt es offenbar auf die Reihenfolge der Zahlenwerte an. Zahlen-
-tupel von Zahlen wird mit ': 8 '' ' bezeichnet, also durch runde Klammern. Ana-
log: Ein -tupel von Unbekannten '5 8 ' '5 . Zwei -tupel sind gleich, wenn das -te
Element des einen -tupels gleich dem -ten Element des anderen -tupels ist für alle ; z. B.
'5 8 ' ' 1 ' 8 ' ' ' bedeutet: Es wird
1 ' ': 1 gesetzt.
Spezialfälle:
;1 ' 8 2-tupel = (geordnetes) Paar
1 ' 8 ' 3-tupel = (geordnetes) Tripel
Ein lineares Gleichungssystem ist eindeutig gekennzeichnet durch die Tabelle der Koeffizien-
ten und durch die inhomogene Spalte :
8 & &
8 8 & & 8
5
.. 8 .. 8
.
8 &&
.
So eine Tabelle wird in der Mathematik eine Matrix mit Zeilen und Spalten genannt, kurz
-Matrix. ist also die Koeffizienten-Matrix.
-Matrix
eine
Die
8 & &
8 8 & & 8
51 .. 8 8
.
8 &&
Mit bezeichnen wir die -te Zeile von , mit die -te Spalte von . Eine elementare Zeilen-
Transformation (einer Matrix) ist eine Transformation eines der folgenden Typen, wobei wir eine
Zeile der umgeformten Matrix mit einem Strich versehen:
'
ZI. Ersetzen einer (etwa der -ten) Zeile durch ihr -faches, für eine Zahl
Symbolisch:
ZII. Addition eines Vielfachen einer (etwa der -ten) Zeile zu einer anderen Zeile (etwa der
-ten).
Symbolisch:
'
ZIII. Vertauschen zweier Zeilen, etwa der -ten und der -ten.
Symbolisch:
'
oder
.
Dabei bleiben jeweils die übrigen Zeilen ungeändert.
Beachte: Zeilenumformungen von und Gleichungsumformungen entsprechen einander !
Analog können auch Spaltenumformungen definiert werden.
Elementare Umformungen sind durch elementare Umformungen umkehrbar und ändern folglich
die Lösungsmenge nicht.
Denn:
Zu ZI:
Zu ZII:
Zu ZIII: Nochmals und
vertauschen macht die Vertauschung rückgängig.
Der Übersichtlichkeit halber verwenden wir auch eine elementare Spaltenumformung, nämlich
die Vertauschung zweier Spalten der Koeffizientenmatrix, sagen wir der -ten und der -ten.
Symbolisch:
Wohlgemerkt, nur Spalten der Koeffizientenmatrix werden vertauscht; auf keinen Fall wird die
inhomogene Spalte mit einer Spalte der Koeffizientenmatrix vertauscht.
II.4 Eliminationsverfahren mit System 11
Dabei ändert sich die Lösungsmenge, jedoch in kontrollierter Weise und zwar so, daß die -te und
die -te Unbekannte vertauscht werden. Sind die Lösungen des transformierten Systems gefun-
den, erhalten wir die Lösungen des Ausgangssystems, indem wir alle Variablenvertauschungen
in umgekehrter Reihenfolge rückgängig machen.
4.4 Gauß-Verfahren
4.4.1 Erster Eliminationsschritt Aus allen Gleichungen bis auf die 1. Gleichung wird die
1. Unbekannte eliminiert. Genauer:
1. Sind alle Koeffizienten null, haben wir bereits eine einfache Gestalt und formen nicht wei-
ter um.
2. Besteht die erste Spalte nur aus Nullen, so vertauschen wir die erste Spalte mit einer Spalte
von (nicht mit der inhomogenen Spalte), die nicht aus lauter Nullen besteht.
3. Durch eine Zeilenvertauschung erreichen wir, daß der (1,1)-Koeffizient (der Koeffizient in
der 1. Zeile und 1. Spalte) ungleich null ist.
dort stehen nach diesen Umformungen Nullen, d. h. die erste Unbekannte kommt in der 2.
bis -ten Gleichung nicht mehr vor.
4.4.2 Zweiter Eliminationsschritt Jetzt überlegen wir uns, welche der dem 1. Schritt ent-
sprechenden elementaren Umformungen nötig sind, um in der Teilmatrix
88 8 & & 8 8
.. 8
& &
8 &&
.
die Koeffizienten unterhalb des (2,2)-Koeffizienten auszuräumen. Wir führen die dazu nötigen
Umformungen jedoch mit der ganzen Matrix durch. Da die erste Spalte schon ausgeräumt
war und wir nur Spalten und Zeilen von Index
umformen, ändert sich dabei nichts an den
Nullen unterhalb des (1,1)-Koeffizienten.
12 II Lineare Gleichungssysteme
4.4.3 Die weiteren Schritte In entsprechender Weise können wir so lange fortfahren, bis
die dann zu betrachtende, nicht erweiterte Untermatrix nur aus Nullen besteht oder keine Un-
termatrix mehr übrig bleibt, weil wir in der letzten Zeile oder Spalte von schon angekommen
waren.
Damit haben wir folgendes Ergebnis bekommen.
4.4.4 Satz über die Gauß-Elimination Durch elementare Umformungen vom Typ ZI, ZII,
ZIII und SIII kann die erweiterte Matrix eines linearen Gleichungssystems in eine sogenannte
. .
Stufenmatrix umgeformt werden, d. h. in eine Matrix der Form
8 &. &
. & &
. 8 8 .... ..
.. ..
.. . . . . .. ..
&& .. ..
. . . .
... &&
. . && . . &&
. .
.. ..
&&
.. ..
&&
..
..
4.4.5 Satz über die rekursive Auflösung bei Stufenform Das lineare Gleichungssys-
/ ' '
tem (LGS) ist dann und nur dann lösbar, wenn alle inhomogenen Bestandteile sind für
. Alle Lösungen finden wir durch rekursive Auflösung wie unten im 2. Teil des
5 ' ''
1
Beweises geschildert wird.
Beweis: Die
-te Gleichung lautet für
,- 8 <&&&
8 && '
Einsetzen die Zahlengleichung,
ist.
für alle
' ' , so sind die letzten 7 Gleichungen
die nur bestehen kann, wenn
2. Ist umgekehrt
die „Nullgleichungen“, also immer erfüllt. Es bleiben die ersten Gleichungen und diese
sind äquivalent mit:
..
8
8
.
II.5 Hinweise auf numerische Probleme 13
Hierbei sind die Unbekannten mit bezeichnet, weil sie mit den ursprünglichen nur noch
bis auf Vertauschungen übereinstimmen.
' '
' '
Setzen wir auf den rechten Seiten mit beliebigen Zahlen
, so stehen auf der rechten Seite der -ten Gleichung keine Unbestimmten
mehr und es läßt sich aus der -ten Gleichung eindeutig berechnen:
3
&
&
Indem wir den für berechneten Wert in die -te Gleichung einsetzen, können wir
mit der -ten Gleichung analog verfahren. So fahren wir fort mit der -ten Glei-
chung bis zur 1. Gleichung. Dabei berechnen wir also die '' rekursiv d. h. nach-
' ' .
4.5 Gauß-Jordan-Verfahren
' '
Bei diesem Verfahren wird die Stufenmatrix noch weiter umgeformt. Zunächst multiplizieren wir
die -te Zeile für mit und erreichen, daß an Stelle von eine 1 steht. Anschlie-
ßend räumen wir die 2. bis -te Spalte auch oberhalb der Einsen mit Hilfe von Zeilenoperationen
vom Typ ZII aus. Wir erhalten eine Matrix der Form
&& & & . .
. . .. . . ... ....
.. ..
.. . . . . && .. ..
...
.. . .
&&
. . && . .
&& . .
.. ..
&&
.. ..
&&
..
..
In praktischen Beispielen stammmen oft die Koeffizienten und aus Messungen und sind
daher mit einem Meßfehler behaftet. Ein relativ kleiner Fehler in den Meßdaten kann bei man-
chen Koeffizientenmatrizen einen relativ großen Fehler bei den Lösungen eines linearen Glei-
chungssystems verursachen.
Matrizen, bei denen dies nicht auftritt, heißen gut konditioniert. Tatsächlich kann die Konditi-
on einer Matrix quantitativ erfaßt werden, wie uns die Numerische Mathematik lehrt. Mit den
Kenntnissen von Linearer Algebra 1 kann dies z. B. nachgelesen werden bei Stoer: (4.4.12) S.
204 und (4.4.15) S. 205.
Wenn wir bei jedem Eliminationsschritt gegebenenfalls Zeilen und Spalten vertauschen, haben
wir die Wahl, mit welcher Zeile bzw. Spalte wir die erste Zeile bzw. Spalte vertauschen wollen.
Dreh- und Angelpunkt (engl. pivot) der Eliminationsverfahren sind die Koeffizienten, die wir
durch Zeilen- bzw. Spaltenvertauschungen in die obere linke Ecke der Teilmatrix bringen. Diese
Koeffizienten heißen Pivotelemente oder kurz Pivots. Sie spielen eine Rolle, wenn Rundungs-
fehler klein gehalten werden sollen. Dies gelingt häufig dadurch, daß ein betragsmäßig größtes
Element in der betreffenden Zeile bzw. Spalte als Pivot gewählt wird (Stoer 4.5, S. 208). Unter
Zeilenpivotierung verstehen wir dabei, daß die Pivots nur zeilenweise gesucht werden, bei Total-
pivotisierung werden sie in der ganzen in Frage kommenden Teilmatrix betragsmäßig möglichst
groß gesucht. Wird immer –so weit möglich– weder eine Zeilen- noch eine Spaltenvertauschung
durchgeführt, d. h. mit anderen Worten, wird stets das schon in der linken oberen Ecke stehende
Element als Pivot genommen, so sagen wir, daß wir ohne Pivotisierung arbeiten.
Wenig Probleme entstehen in diesem Zusammenhang, wenn die Matrix equilibriert ist oder in
einer bestimmten Weise in eine equilibrierte Matrix umgeformt werden kann. Dabei bedeutet
equilibriert, daß die Summe der Beträge der Elemente für jede Zeile und jede Spalte der Größen-
ordnung nach etwa gleich sind (Stoer S. 208ff).
III.1 Von der algebraischen Struktur der Menge der -tupel reeller Zahlen 15
III.1 Von der algebraischen Struktur der Menge der -tupel reeller
Zahlen
In Kapitel II haben wir intuitiv Gleichungen addiert. Die Erklärung der Addition von linearen
Gleichungen und der Multiplikation einer linearen Gleichung mit einer reellen Zahl lautet fol-
gendermaßen:
1.1 Definition
Lineare Gleichungen werden addiert, indem die entsprechenden Koeffizienten und die inhomo-
genen Bestandteile addiert werden.
Eine lineare Gleichung wird mit einer reellen Zahl multipliziert, indem jeder Koeffizient und
auch der inhomogene Bestandteil mit der Zahl multipliziert werden.
Im folgenden haben wir diese Operationen mit linearen Gleichungen übertragen auf Operationen
mit den Zeilen der erweiterten Matrix . Dies führt auf folgenden Begriff von Operationen mit
-tupeln reeller Zahlen. Im folgenden meinen wir mit einem -tupel stets ein -tupel reeller
Zahlen und mit Zahl eine reelle Zahl.
1.2 Definition
1.3 Eigenschaften
' '
2. Es existiert ein neutrales -tupel, d. h. ein mit bezeichnetes -tupel, so daß
ist für alle -tupel , nämlich .
' ' ein entgegengesetztes -tupel, d. h. ein mit :
: ist, nämlich : ' ' .
3. Es gibt zu jedem -tupel
bezeichnetes -tupel, so daß
4. Kommutatives Gesetz: ; für alle -tupel und .
Zahlen -' gilt:
5. Assoziatives Gesetz der Multiplikation mit Zahlen: Für beliebiges -tupel und beliebige
# #
6. Distributive Gesetze:
#;
für beliebige -tupel .' und beliebige Zahlen - '.
7. für alle -tupel , wobei 1 die reelle Zahl 1 ist.
III.2 Gruppen
2.1 Definition
1. Assoziativität:
für alle +' '
2. Existenz eines neutralen Elementes, d. h. eines Elementes mit der Eigenschaft
für alle
.
3. Existenz eines entgegengesetzten Elementes zu jedem Element , d. h. eines mit
bezeichneten Elementes, so daß
/ ist.
Gruppe ist also ein Paar ' , bestehend aus einer Menge und einer Verknüpfung , so daß
Diese drei Eigenschaften sind die Grundeigenschaften von Gruppen, die Gruppenaxiome. Eine
die Gruppenaxiome gelten. In der Bezeichnung wird oft die Verknüpfung nicht erwähnt und eine
Gruppe einfach mit bezeichnet, also dem selben Symbol wie die Menge !
Gilt zusätzlich:
2.2 Beispiele
' ' ' ' ' sind abelsche Gruppen. ' ' '
sind keine Gruppen ! Die
Menge
der -tupel mit der in 1.2 auf Seite 15 definierten Addition von -tupeln ist eine
abelsche Gruppe.
3.1 Mengen
Der Begriff der Menge4 wird nicht weiter erklärt sondern als ein Grundbegriff genommen, der ei-
ne Gesamtheit von Dingen bezeichnet, die man die Elemente der Menge nennt. Ist ein Element
einer Menge , so schreiben wir dafür: .
Das kartesische Produkt zweier Mengen ' ist die Menge:
1
)'
'
,
und von endlich vielen Mengen ' 8 ' ' :
8 && 1 ' 8 ''
' ' ' '
1 && -mal der Faktor ,
z.B. 1 && -mal der Faktor .
3.2 Abbildungen
)1
erklärender Grundbegriff genommen und als eine Zuordnung verstanden, die jedem Element
51
eindeutig ein Element zuordnet. bedeutet „ ist eine Abbildung
und
von nach “. Ist so bedeutet , daß in abbildet,
anders ausgedrückt , daß das Bild oder der Wert von bei der Abbildung ist, oder, daß die
Anwendung von auf das ergibt.
Beispiel: Eine Verknüpfung auf einer Menge ist nichts anderes als eine Abbildung 1
.
Für eine Teilmenge von , wird das Bild oder die Bildmenge von bei definiert
1
durch
Ist , so heißt 1
Urbild oder Urbildmenge von bei .
1 heißt surjektiv oder eine Abbildung auf 1"! Zu jedem # gibt es ein
mit
besteht aus mindestens einem Element für alle
.
. ([französisch] sur = auf !) Oder äquivalent:
4
Mehr Details s. Rolf Walter, Anhang, S. 254ff.
18 III Gruppen, Vektorräume, Körper
1 heißt injektiv 1 !
oder äquivalent:
besteht aus höchstens einem Element für alle .
1 heißt bijektiv 1 ! ist injektiv und surjektiv oder äquivalent:
besteht aus genau einem Element für alle .
Ist bijektiv, dann ist durch die Festsetzung, daß jedem
das einzige Element
zugeordnet wird, eine Abbildung definiert; sie heißt die Umkehrabbildung von und wird mit
bezeichnet.
Eine bijektive Selbstabbildung einer Menge, $1 , heißt eine Permutation von oder
eine Vertauschung der Elemente von . Eine Permutation der Menge ' ' bezeichnen wir
mit einer Werte-Tabelle:
Die Identität oder identische Selbstabbildung von , Id Id 1 , ist diejenige, die
jedem als Wert wieder das zuordnet.
Sind ' ' Mengen und Abbildungen 1 und 1 gegeben, so wird die
Komposition (Hintereinanderausführung)
1 von und durch
1
definiert. Abb ' bezeichne die Menge aller Abbildungen von nach . Der Kringel
stellt eine Abbildung dar:
3.3 Satz
Die Menge der Permutationen einer Menge zusammen mit der Hintereinanderausführung als
Verknüpfung bildet eine im allgemeinen nicht abelsche Gruppe.
III.5 Vektorräume 19
1. Genauer sollte in der Definition einer Gruppe ein Element rechts-Inverses genannt
werden; jedoch folgt aus den Gruppenaxiomen, daß ein rechts-Inverses immer auch
links-Inverses ist (und umgekehrt), d. h. , daß mit stets auch gilt.
'8' '
5. Aus dem axiomatisch gegebenen Produkt von Paaren erhalten wir durch induktive De-
III.5 Vektorräume
5.1 Definition
1. einer Menge
5.2 Beispiele
7. Reelle Funktionen
8. Polynome
1.
für alle , wobei links das Nullelement des Körpers und rechts der
Nullvektor, das neutrale Element der Vektor-Addition, steht.
Allgemeiner können wir statt der reellen Zahlen einen anderen Körper als Skalarenkörper
verwenden und erhalten den Begriff eines Vektorraumes über dem Körper .
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 21
5.5 Definition
Eine Menge zusammen mit zwei Kompositionen, genannt Addition und Multiplikation und
mit + und bezeichnet, heißt ein Körper, falls gilt:
Ganze Zahlen bilden keinen Körper; nur 1 und
Reelle Zahlen, , rationale Zahlen, , komplexe Zahlen, bilden einen Körper.
haben ein Inverses, jedoch sind alle anderen
Axiome erfüllt.
' und
'
1. Es gelten alle Folgerungen aus den Axiomen einer abelschen Gruppe für
(vgl. III.4).
2. für alle
+' 1! .
6.1.2 Definition der Parallelität von Geraden
Zwei Geraden heißen parallel Entweder ist oder
bedeute, daß parallel ist; , daß nicht parallel zu is.
Nach unserer Erfahrung hat die Anschauungsebene folgende Eigenschaften:
:'
5'
(A1) Existenz einer eindeutigen Verbindungsgeraden mit
. Für
(A2) Dimension einer Geraden Jede Gerade besteht aus mehr als einem Punkt. Dies be-
deutet, daß, wenn wir die Punkte als die nulldimensionalen Bausteine ansehen, eine Gerade
mindestens eindimensional ist.
(A3) Dimension der Ebene Die Ebene besteht aus mehr als einer Geraden. Dies bedeu-
tet, daß, wenn wir die Geraden als die eindimensionalen Bausteine ansehen, die Ebene
mindestens zweidimensional ist.
parallel zu , so auch zu
.
(A5) Parallelenaxiom und +
genau ein mit und .
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 23
g2
A2 B2
g1
A1 B1
8
Diese Eigenschaft kann als eine Schließungseigenschaft angesehen werden: Wenn wir vorgehen
wie in der Zeichnung und als letztes die Parallele zu durch
8
ziehen, dann schließt sich
die Figur im Punkt .
6.1.5 Definition einer affinen Ebene Eine Menge von Punkten und eine Menge
von Geraden wie in 6.1 auf der vorherigen Seite.1 mit diesen sechs Eigenschaften (A1) bis (A6)
heißt eine affine Ebene.
6.1.6 Bemerkung In der Tat kommt man mit zwei Axiomen weniger aus; denn (A2) und
(A4) folgen aus den übrigen Axiomen.
6.1.7 Bemerkung Nach unserer Erfahrung ist die Anschauungsebene eine affine Ebene.
Mit einer affinen Ebene haben wir also ein mathematisches Modell für die Anschauungsebene
aufgestellt. Es ist ein einfaches Modell, weil es auf nur sechs Grundeigenschaften (Axiomen)
fußt. Um Zeichnungen anzufertigen benötigen wir nur ein Lineal ohne eine Skala und einen
beliebigen Winkel, auf dessen Winkelmaß es nicht ankommt. Es lassen sich aus diesem Mo-
dell nicht alle Eigenschaften ableiten, welche die Anschauungsebene sonst noch hat, aber es
beschreibt genügend Eigenschaften, daß wir daraus den geometrisch anschaulichen Vektorraum
herleiten können. Das ist im folgenden unser Ziel.
24 III Gruppen, Vektorräume, Körper
:'
6.2 Die additive Gruppe der geometrischen Vektoren
6.2.1 Definition einer gerichteten Strecke Ein geordnetes Punktepaar nennen
wir eine gerichtete Strecke. „Geordnet“ bedeutet, daß festgelegt ist, welches der erste Punkt oder
der Anfangspunkt und welches der zweite Punkt oder der Endpunkt ist. Hier ist also der An-
fangspunkt und der Endpunkt. Wir lassen auch den Fall zu, daß
und . Unter gerichtet stellen wir uns vor, daß ein Durchlaufungssinn der Strecke gegeben ist
—hier von nach . Dieser Durchlaufungssinn wird in einer Zeichnung angedeutet, indem wir
am Endpunkt eine Pfeilspitze anbringen. Kurz, wir veranschaulichen uns eine gerichtete Strecke
durch einen Pfeil, und weil wir uns eine gerichtete Strecke durch einen Pfeil veranschaulichen
können, wollen wir für eine gerichtete Strecke auch die Bezeichnung Pfeil verwenden. Wir ver-
merken jedoch, daß für keine Argumentation der Begriff „zwischen“ verwendet werden muß, er
dient nur der Veranschaulichung.
1. Für
und 5'
5' der parallele Pfeil .
sei
1
Für
und
ziehen wir die Parallele zu
1
durch
durch
und setzen
1
. (Daß
ziehen wir die Parallele
zu
2. . Außerdem
aus genau
einem Punkt besteht, folgt aus den vorstehenden Eigenschaften!)
und
wählen wir einen Hilfspunkt 1
. Dann sei
'
der gemäß vorhergehendem Fall definierte zu '
parallele Pfeil mit An-
3. Für
'
sei dann der zu '
parallele Pfeil mit Anfangspunkt .
fangspunkt . :
Zeichen , mit dem wir auch den Vektor bezeichnen. Wir sagen, der Pfeil 5
'
ist der vom
wenn aus dem Zusammenhang oder einer Zeichnung klar ist, was gemeint ist, mit dem gleichen
Abbildung 5: Transitivität
' ein Repräsentant
5'
. Wenn wir den Endpunkt des letzteren mit bezeichnen, so ist also
von . Dann sei die Äquivalenzklasse von .
1 für
und
6.2.6 Satz Mit dieser Definition der Addition bilden die Vektoren eine additive Gruppe.
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 27
Skalaren. Wie bisher bezeichnen wir die Skalaren mit griechischen Buchstaben und definieren
das -fache eines Vektors wie folgt:
(eine) Gerade, in der liegt, die Parallele zur Geraden durch den Skalar und
1
. Dann ist #&
die Klasse von Pfeilen, die durch repräsentiert wird. #'
Abbildung 8: Skalarenmultiplikation
2. Fall: liegt in . Wir wählen einen Hilfsvektor , so daß nicht in liegt.
ist dann
nach dem 1. Fall bereits definiert. Sei der Endpunkt von und der Endpunkt von
. Sei die Parallele zu
$1
%
. Dann ist #'
durch und ein Repräsentant
von . Diese Definition hängt nicht von der Wahl des Hilfsvektors ab, wie mit der
Desargues’schen Parallelitätseigenschaft bei perspektivischer Lage gezeigt werden kann.
6.3.2 Definition der Multiplikation von Skalaren .' miteinander
Trage #
von aus ab; der Endpunkt ist .
6.3.3 Strahlensatz der Affinen Geometrie
und seien zwei verschiedene Geraden,
ist, andernfalls gehen wir zu
5'
'
1 ' 1
' 1
Dann ist das gleiche Vielfache von wie von und wie von .
6.3.5 Definition der Addition von Skalaren
Trage den Vektor
vom Punkt aus ab; der Endpunkt des abgetragenen Vektors ist .
#'
Anders ausgedrückt: Bilde zum Pfeil den parallelen Pfeil -'
1
mit Anfangspunkt .
Dann ist .
6.3.6 Neutralität von Es gilt: 9 . Außerdem ist auch das Einselement der
Multiplikation von Skalaren miteinander, .
Abbildung 11: Zum Assoziativgesetz der Multiplikation von Skalaren mit Vektoren
6.3.8 Assoziativität der Multiplikation von Skalaren miteinander
Es gilt:
6.3.9 Das Inverse Das zu inverse Element wird wie in folgender Zeichnung kon-
struiert.
8
nen, bei denen es verletzt ist. Z. B. , wenn der von William Rowan Hamilton 1843 entdeckte
und nach ihm benannte nicht kommutative Körper der Quaternionen ist, dann kann als eine
affine Ebene aufgefaßt werden (s. Abschnitt XIII.5 auf Seite 161). Der wie oben geometrisch
konstruierte Körper ist wieder , also nicht kommutativ. Die Kommutativität kann geometrisch
charakterisiert werden, und zwar folgendermaßen:
B2
B1
Z A3 A2 A1 h
6.3.12 Abschließende Bemerkung Die gegebene Definition einer affinen Ebene ist die
sogenannte synthetische Definition. Die Ableitung eines Körpers und eines Vektorraumes über
diesem Körper heißt Algebraisierung, der konstruierte Körper der Algebraisierungskörper. In
Kapitel XIII auf Seite 155 wird zu einem Vektorraum über einem Körper ein affiner Raum defi-
niert. Diese analytische Definition eines affinen Raumes führt zur Analytischen Geometrie.
IV.1 Linearkombinationen 31
IV Lineare Abhängigkeit
Im folgenden ist stets ein Vektorraum über einem festen Körper .
IV.1 Linearkombinationen
1.1 Definition
Ein Ausdruck der Art
mit
heißt eine Linearkombination des Systems. Für einen Vektor heißt die Gleichung
mit
eine lineare Darstellung von durch das Systems. Ein heißt linear darstellbar durch das ' ' '
System, wenn eine lineare Darstellung existiert. Das wichtigste Beispiel ist .
Dann ist ein System nichts anderes als ein -tupel von Vektoren. In das allgemeine Konzept kann
auch der Fall eingebaut werden, daß eine unendliche Menge ist; es muß nur zusätzlich verlangt
werden, daß nur endlich viele in einer Linearkombination verschieden von null sein dürfen,
damit die Summe einen Sinn macht.
1.2 Definition
Ein System wie oben heißt linear abhängig, wenn der Nullvektor eine lineare
Darstellung durch das System besitzt, in der nicht alle sind, eine sogenannte nicht triviale
lineare Darstellung des Nullvektors.
Andernfalls
folgt
für alle
heißt das System linear unabhängig; in anderen Worten, wenn stets aus
. Oder äquivalent: Der Nullvektor ist nur auf eine
Weise (die triviale Weise, die es immer gibt) durch das System linear darstellbar.
1.3 Kriterium
ist linear abhängig. ! Ein
läßt sich durch die anderen linear darstellen.
32 IV Lineare Abhängigkeit
1.4 Beispiele
2.2 Satz
2.3 Beispiel
' ' für ' ' ' , der Vektorraum der -tupel von Skalaren
8
' 8 ' ' 1 ' ' ' ' ' ' ' ' ' ' ' ' ' '
aus , hat die Basis:
2.5 Definition
' ' ' .
' ' ' '
Sei eine Basis von und ,
2.6 2. Basiskriterium
!
Ein System ist eine Basis
ist ein maximales System von linear unabhängigen Vektoren von .
„Maximal“ heißt: Nach Hinzunahme irgendeines weiteren Vektors wird das System linear ab-
hängig.
'' ' +' ' ' ebenfalls eine Basis von . Es ist
sei endlich erzeugt und
'' sei eine Basis von und ' ' linear unabhängige Vektoren von .
Dann ist und es gibt der Vektoren '' , die mit '' bezeichnet
seien, so daß ' ' ' ' ' eine Basis von ist. Es lassen sich also geeignete
durch ' ' austauschen, so daß das System eine Basis bleibt.
2.9 Basisergänzungssatz
In einem endlich erzeugten Vektorraum läßt sich jedes System linear unabhängiger Vektoren
zu einer Basis ergänzen.
1. .' ;
2. '
Dann ist zusammen mit der Vektoraddition und Skalarenmultiplikation von , die aber nur
auf Elemente von angewendet werden, ein Untervektorraum von .
Die beiden Bedingungen werden Abgeschlossenheit der Teilmenge bezüglich der Addition
und Skalarenmultiplikation von genannt.
Gegeben sei ein System von Vektoren von . Dann wird
erfüllt die Bedingungen 3.2 und ist deswegen ein Untervektorraum von .
3.4 Bemerkung
3.5 Beispiel
, falls
ein Erzeugendensystem von ist.
3.6 Satz
Sei
ein Untervektorraum des endlich erzeugten Vektorraumes . Dann ist auch endlich
erzeugt.
3.7 Satz
Dim
Dim
Das Gleichheitszeichen gilt dabei genau dann, wenn ist.
3.8 Durchschnitt
Sind und
Untervektorräume von , so bildet der Durchschnitt, , der aus allen
Vektoren besteht, die sowohl zu als auch zu
gehören, einen Untervektorraum von .
Sind und Untervektorräume von , so heißt die lineare Hülle der Vereinigung von
/ '
und , , der Verbindungsraum oder die Summe von und ; dabei besteht die
*
Vereinigung, , aus allen Vektoren, die zu oder zu gehören. Es ist
. Daher der Name „Summe“ und die Bezeichnung .
3.12 Dimensionsformel
3.13 Beispiele
1. Alle Polynome bilden einen Untervektorraum des Vektorraumes aller Funktionen 1
-dimensionalen
&' ' ' , wobei
2. Polynome vom Grade ( feste natürliche Zahl) bilden einen
ist für ' '
Untervektorraum des Vektorraumes aller Funktionen mit der Basis
Wer keine Schwierigkeiten mit der mehr intuitiven Verwendung von Äquivalenzklassen in Ab-
schnitt III.6 auf Seite 22 hatte, kann diesen Abschnitt erst einmal überspringen. In Beispiel 3.2
auf Seite 72 und in Abschnitt IX.8 auf Seite 104 wird erklärt, wozu der Begriff eines Quotien-
tenraumes nütze ist und wo er vorkommt.
4.1 Äquivalenzrelationen
.'
4.1.1 Der Begriff einer Relation
Zwischen zwei Elementen besteht eine bestimmte Beziehung oder Relation, wenn beide
Elemente zusammen eine gewisse Eigenschaft erfüllen. Zum Beispiel besteht eine geschäftliche
Beziehung zwischen zwei Personen, wenn Sie miteinander beruflich zusammenarbeiten. Dies ist
also keine Eigenschaft eines Partners allein, sondern von beiden zusammen, von der Gesamtheit
beider.
Daß Vater von ist, läuft auch wieder auf eine Eigenschaft beider hinaus. Wir sehen an diesem
Beispiel, daß es auf die Reihenfolge von und ankommen kann. Um eine solche Beziehung
.'
.'
einzubeziehen, müssen wir als die Gesamtheit von und nicht die Menge ansehen,
sondern das (geordnete) Paar .
6
A. Riede: Lineare Algebra, WS 98/99 bis WS 01/02
IV.4 Äquivalenzrelationen und Quotientenräume 37
.'
Um eine Relation genau zu erklären, kommt es außerdem darauf an, anzugeben, aus welcher
Menge die Dinge etc. genommen werden.
.'
Dann ist aber eine Beziehung zwischen zwei Dingen nicht anderes als eine Eigenschaft von
.'
Elementen des kartesischen Produktes . Der Begriff „Eigenschaft“ wird dabei als
ein Grundbegriff genommen und nicht weiter erklärt als dadurch, daß von jedem Element
von eindeutig feststehen muß, daß die Eigenschaft entweder erfüllt ist oder nicht.
.' .'
+
Dafür, daß die Eigenschaft besitzt, wird die Funktionsschreibweise oder die
Operatorschreibweise verwendet.
1. Isomorphie von Vektorräumen und für '
, eine Menge von Vektorräumen
über einem festem Körper .
'
Basen
'
2. Gleiche Orientiertheit von Basen
eines -dimensionalen reellen Vektorraumes. Zwei
heißen gleich orientiert, wenn sie durch eine Basistransformation mit
positiver Determinante auseinander hervorgehen.
-Matrizen ( ein Körper) heißen '
3. Äquivalenz von Matrizen: Zwei
äquivalent, wenn es eine reguläre Matrix und eine reguläre Matrix
gibt mit
-Matrizen ( ein Körper) heißen '
4. Ähnlichkeit von Matrizen: Zwei
ähnlich oder konjugiert zueinander, wenn es eine reguläre Matrix gibt mit
1!
5. Konjugiertheit von Endomorphismen (:= linearen Selbstabbildungen eines Vektorraumes
): konjugiert ein Automorphismus von (ein Isomorphismus von mit
sich selbst), so daß gilt:
Diese Beispiele haben die folgenden Eigenschaften und sind daher Äquivalenzrelationen.
4.1.3 Eigenschaften von Relationen
Eine Relation auf der Menge heißt
1! + 1 +
1! +.'
1 +
reflexiv gilt
4.1.4 Definition von Äquivalenzrelation und Äquivalenzklasse
.'
Eine Relation auf einer Menge , die diese drei Eigenschaften hat, heißt eine Äquivalenzre-
lation. Bei einer Äquivalenzrelation schreiben wir anstelle von und sagen dafür
ist bei der Relation äquivalent zu . Meist wird die Kurzform verwendet , lies: „
äquivalent “, wenn klar ist, welche Relation gemeint ist oder wenn in einem Zusammenhang
nur eine Relation betrachtet wird.
Ist
, dann heißt die Menge aller zu äquivalenten Elemente die Äquivalenzklasse
von bezüglich . Die Äquivalenzklassse von wird auch mit oder mit bezeichnet. Jedes
Element einer Äquivalenzklasse heißt ein Repräsentant der Äquivalenzklasse.
4.1.5 Satz über die Äquivalenzklassen
Für eine Äquivalenzrelation auf der Menge gilt:
1. Äquivalente Elemente haben dieselbe Äquivalenzklasse, d. h.:
2. Zwei Äquivalenzklassen sind entweder disjunkt oder stimmen überein.
3. Jedes Element liegt in genau einer Äquivalenzklasse. Oder mit anderen Worten: ist die
disjunkte Vereinigung der verschiedenen Äquivalenzklassen. Hierfür wird auch gesagt:
Die verschiedenen Äquivalenzklassen bilden eine Zerlegung oder Partition von .
4.1.6 Definition der Quotientenmenge
Die Menge, deren Elemente die Äquivalenzklassen bezüglich einer Äquivalenzrelation auf
einer Menge sind, heißt die Quotientenmenge von nach . Sie wird mit bezeichnet.
4.2 Quotientenräume
4.2.1 Gleichheit modulo einem Untervektorraum
sei ein Vektorraum über einem festen Körper , und ein Untervektorraum von . Dann ist
1 ! "
durch
In Worten: und sind gleich bis auf Addition eines Vektors aus , wofür auch die Redeweise
verwendet wird:
„ modulo “
fester Punkt als Nullpunkt und eine Gerade durch gewählt sind. Als geometrische Vektoren
Wir veranschaulichen uns dies in der Anschauungsebene (oder euklidischen Ebene), in der ein
sehen wir die Pfeile an, die in beginnen. sei der Vektorraum der geometrischen Vektoren
der Anschauungsebene und der Untervektorraum der Pfeile, die in liegen. Dann ist
modulo ! Die Endpunkte der Pfeile und liegen auf einer zu parallelen Geraden.
IV.4 Äquivalenzrelationen und Quotientenräume 39
4.2.2 Äquivalenzklasse modulo einem Untervektorraum
Die Äquivalenzklasse von , die auch Nebenklasse von modulo genannt wird, ist:
1
Im obigen Anschauungsbeispiel die Menge aller Pfeile, deren Spitze auf einer von ab-
hängigen parallelen Geraden liegt.
und
4.2.3 Addition von Äquivalenzklassen modulo U
Seien und 8
zwei Äquivalenzklassen mod. , dann wählen wir Repräsentanten
8und definieren:
8 1
Diese Definition ist unabhängig von der Wahl der Repräsentanten! Dafür wird auch gesagt, die
Addition von Äquivalenzklassen ist „wohldefiniert“. Da und , kann
die Addition auch geschrieben werden in einer intuitiven Form, die allerdings nicht so deutlich
8
macht, daß die Definition zunächst Repräsentanten benutzt:
$ oder
4.2.4 Skalarenmultiplikation von Äquivalenzklassen modulo U
Für eine Äquivalenzklasse mod. wird definiert:
oder
(
4.2.5 Definition und Satz über den Quotientenraum
1. Ist
die Äquivalenzrelation Kongruenz modulo U, dann ist ' ' ein
1
1
Wenn nichts anderes ausdrücklich gesagt wird, bezeichnen und in diesem Kapitel Vektor-
räume über und eine lineare Abbildung. Ab jetzt verstehen wir unter den
Vektorraum der Spalten- -tupel. Auch eine Basis schreiben wir als eine Spalte von Vektoren.
Eine Spalte schreiben wir aus drucktechnischen Gründen auch in der Form
.. 8 1 ''
lies: „ '' transponiert“
.
1.1 Koordinatenzuordnung
1 '
1 '' ' wobei ist.
4.
d. h.
ist eine injektive Abbildung.
1.2 Definition
' 1
1!
Seien Vektorräume über . ist eine lineare Abbildung oder ein Homomorphis-
mus von Vektorräumen
Additivität:
Die folgenden Axiome für eine lineare Abbildung sind erfüllt:
für alle .'
Homogenität: für alle und alle
V.1 Beispiele und Definition 41
1.3 Beispiele
1
in Unbekannten. Die Zuordnung 1 ' ' ist eine lineare Abbildung
1
-Matrix mit einer Spalte ' ' aus
Das Produkt einer Koeffizienten
ergibt per Definition das folgende Spalten- -tupel :
.
..
8
8
8 .
..
...
8
.
..
.
.
8
8
8
8
8
.
Der
-te Koeffizient von ist also:
1.5 Beispiel
1.
2. :
3. . &&& <&&
4. ' ' linear abhängig
'' linear abhängig
5. Ist ' ' eine Basis von , so ist eine lineare Abbildung 1
durch die Bilder der Basis '' bestimmt. Sind ' '
eindeutig
2.2 Satz
1. Kern( ) und Bild( ) sind Unterräume von bzw. .
2. ist injektiv !
Kern( ) =
2.3 Dimensionsformel
Sei 1 linear und endlich erzeugt. Dann ist auch endlich erzeugt und es gilt:
Dim
Dim Kern Dim Bild
2.4 Rang einer linearen Abbildung
Dim
Dim Kern Rg
V.3 Basis- und Koordinaten-Transformationen 43
Eine Abbildung von nach heißt isomorph oder ein Isomorphismus von Vektorräumen, wenn
sie linear und bijektiv ist.
Vektorräume und heißen isomorph, wenn es einen Isomorphismus von nach gibt.
Bezeichnungen:
1 bedeutet: ist ein Isomorphismus von nach .
bedeutet: und sind isomorph zueinander.
1
isomorph
Id ist ein Isomorphismus.
isomorph
isomorph
2.8 Beispiel
Die Koordinatenzuordnung
1 ist ein Isomorphismus (vgl. 1.1 auf Seite 40).
2.9 Bemerkung
2.10 Satz
' ''
den Rang , wobei Rang( ):=Maximalzahl linear unabhängiger Zeilen. Sie heißt die Matrix der
Basistransformation. Zu jeder
-Matrix vom Rang gehört eine Basistransformation,
deren Transformationsmatrix ist. Eine Basistransformation kann in Verallgemeinerung von
V. 1.4 auf Seite 41 auch in Matrizenform geschrieben werden:
8 & &
- 8 8 <<&&&&
8
.. 8
8 8 & & 8 .8 1 - 8 8
.. 8 8 8
..
..
8 & & - 8 8 <&&
. . .
Kurz:
3.3 Satz und Definition
Zur Basistransformation
gehört die Koordinatentransformation:
V.4 Die Matrix einer linearen Abbildung 45
8 & &
.. 8
.. 8
8 8 & & 8 . 8
..
8 & &
. .
mit den Koeffizient die zu
Dabei heißt die Matrix transponierte
Matrix. Die Transponierte von kann auch als die Matrix beschrieben werden, deren -te
Zeile die -te Spalte von ist. Offensichtlich gilt:
4.1 Definition
die lineare Darstellung von durch die Basis ' ' . Die daraus gebildete Matrix
wird die (Abbildungs-) Matrix
von bezüglich und genannt:
"1 1
(5)
Anders ausgedrückt, besagt diese Definition, daß die -te Spalte von das Koordinaten- -tupel
des Bildes des -ten Basisvektors ist. Die obige Definitionsgleichung 5 der schreibt sich in
Matrizenform durch:
Bei einer Selbstabbildung 1 wird in der Regel für Quelle und Ziel von die gleiche
gewählt und wir erhalten die Matrix der Selbstabbildung bezüglich der Basis
' ' durch die Definitionsgleichung:
Basis von
46 V Lineare Abbildungen und Matrizen
4.2 Bemerkung
Halten wir und fest, so ist die lineare Abbildung eindeutig durch ihre Abbildungsmatrix
-Matrix gibt es (genau) eine lineare Abbildung , deren
bestimmt und zu jeder
gleich ist. Wie sich
4.3 Beispiele
.
1
. . .. ..
. ..
1. , die -Einheitsmatrix.
.. .. ..
. .
bezeichnet und können so beschrieben werden:
Ihre Koeffizienten werden mit
fürfür
kann bei jedem Isomorphismus 1 als auftreten,
2. Die Einheitsmatrix
nämlich bei der Wahl von
.
4.4 Definition
' 1 linear
$ 1 # 1
Die Summe von zwei Matrizen ' und die Multiplikation eines
Skalars wird koeffizientenweise definiert:
mit einer Matrix
1 # 1
V.4 Die Matrix einer linearen Abbildung 47
4.5 Satz
'
' ' 1
Mit den soeben definierten Zuordnungen sind Abb und Vektorräume über und
1 '
ist ein Unterraum von Abb . Bei fest gewählten Basen und ist durch
ein Isomorphismus
definiert.
4.6 Satz
'
wobei
ist.
4.7 Beispiele
Wir geben i. f. lineare Abbildungen )1 an, indem wir die Bilder einer Basis ''
angeben.
für
.
:=
:=
Dadurch ist ein Isomorphismus definiert, da eine Abbildung desselben Typs aber mit
anstelle von die Umkehrabbildung ist. hat die Matrix
..
.
..
.
48 V Lineare Abbildungen und Matrizen
'
Nicht bezeichnete Koeffizienten sollen dabei null sein. Das ist der -te Koeffizient.
Durch Koordinaten ausgedrückt, besteht diese Abbildung darin, daß die -te Koordinate
Wieder wird hierdurch ein Isomorphismus definiert; denn die lineare Abbildung vom sel-
ben Typ, aber mit anstelle von ist die Umkehrabbildung.
Für hat die Matrix:
..
.
.. ..
.
.
..
.
..
.. ..
. ..
.
.
.. ..
.
.. .. ..
.
.
.
.
... ..
. .. ..
.
.
für
und
:=
:=
:=
Die Matrix des hierdurch definierten Isomorphismus entsteht aus der Einheitsmatrix durch
Vertauschung der -ten und -ten Spalte.
In Koordinaten ausgedrückt ist dieser Isomorphismus natürlich die Vertauschung der -ten
und -ten Koordinate unter Beibehaltung der anderen Koordinaten.
V.5 Der Dualraum 49
4.8 Definition
sei eine -Matrix, eine -Matrix. Dann ist das Matrizenprodukt
von mit definiert als eine -Matrix
mit
1
für ' ' und ' '
5.1 Definition
1 ' heißt der Dualraum von
, seine Vektoren heißen Linearformen von .
5.2 Bemerkung
' '
Ordnen wir einer Linearform ihre Abbildungsmatrix bezüglich einer Basis
'
der kanonischen Basis (1) von
von und zu, so erhalten wir einen Isomorphismus
, auf den Raum der Zeilen- -tupel. es ist also Dim .
Wir zeigen jetzt, wie wir aus einer Basis von eine Basis von finden können.
5.3 Definition
Ist '' eine Basis von , dann sei die Linearform definiert durch:
50 V Lineare Abbildungen und Matrizen
1
für
für
Die von einer linearen Abbildung 1 induzierte Abbildung der Dualräume ist definiert
durch:
1
' 1
1
oder
('
5.5 Satz:
ist eine lineare Abbildung und
gibt an wie viele Dimensionen bei erhalten bleiben; den kleinsten Rang hat die Nullabbildung
: Rg(
) = 0, den größten eine injektive lineare Abbildung : Rg( ) = Dim( ). Im allgemeinen
liegt der Rang zwischen diesen beiden Werten: Rg Dim .
Ein zweites Mal trat der Rang als Rang einer Matrix auf; genauer wird definiert:
6.1 Definition
6.2
Hilfssatz: Rg( ) = Spaltenrang von
Beweis:
V.6 Der Rang 51
Teilsystem eines Erzeugendensystems ist eine Basis (vgl. den Beweis zu IV. 2.2 auf Seite 32);
folglich gilt:
Rg( ) = Maximalzahl linear unabhängiger Vektoren des Systems ' ' .
Da die Koordinatenzuordnung ein Isomorphismus ist, folgt: Rg( ) = Maximalzahl linear unab-
hängiger Koordinaten- -tupel dieser Vektoren bezüglich .
Da diese Koordinaten- -tupel die Spalten der Matrix sind, erhalten wir Rg( ) = Spaltenrang
von .
Im folgenden ist unser Ziel, zu zeigen, daß der Spaltenrang gleich dem Zeilenrang ist. Dann
können wir kurz vom Rang einer Matrix sprechen und es gilt: Rg( ) = Rg( )
6.3 Hilfssatz
Beweis:
1. Die Multiplikation der -ten Zeile mit bedeutet in jeder Spalte den -ten Koeffizi-
enten mit zu multiplizieren. D. h. die Spalten werden mit dem Isomorphismus aus dem
1. Beispiel von 4.7 auf Seite 47 abgebildet. Da ein Isomorphismus die Maximalzahl line-
ar unabhängiger Vektoren nicht ändert, bleibt bei einer Zeilenumformung vom Typ I der
zur -ten entpricht in jeder Spalte der Addition des -fachen des -ten Koeffizienten zum
-ten. D. h. die Spalten werden mit dem Isomorphismus aus dem 2. Beispiel von 4.7 auf
Seite 47 abgebildet. Wieder folgt, da ein Isomorphismus die Maximalzahl linear unabhän-
giger Vektoren nicht ändert, daß bei einer Zeilenumformung vom Typ II der Spaltenrang
6.4 Hilfssatz
Beweis:
52 V Lineare Abbildungen und Matrizen
Dies liegt daran, daß ein linear unabhängiges System von Vektoren linear unabhängig bleibt,
wenn ein Vektor durch sein -faches mit ersetzt wird oder zu einem Vektor ein Vielfaches
eines anderen Vektors des Systems addiert wird oder zwei Vektoren des Systems vertauscht
werden.
6.5 Hilfssatz
Bei elementaren Spalten- und Zeilenumformungen ändert sich der Zeilenrang nicht.
.. .. .. .. ..
&& &&
Min '
Dabei ist
6.6 Hilfssatz
2. Zeilenrang und Spaltenrang einer Matrix stimmen überein. Wir definieren daher den Rang
einer Matrix durch: Rg( ) := Zeilenrang( ) = Spaltenrang( )
3. Rg( ) = Rg( ) für eine lineare Abbildung und ihre Abbildungmatrix .
7.1 Definition
Eine -Matrix heißt regulär, wenn Rg ist, andernfalls heißt sie singulär.
3. Genau die regulären Matrizen haben bezüglich des Matrizenproduktes eine Inverse.
7.3 Definitionen
1. Ein Isomorphismus <1 eines Vektorraumes auf sich heißt ein Automorphismus
von .
2. Eine Abbildung 1
von einer Gruppe nach einer Gruppe heißt homomorph
oder ein (Gruppen-)Homomorphismus, falls
für alle
. '
3. Ein bijektiver Gruppen-Homomorphismus heißt isomorph oder ein (Gruppen)-
Isomorphismus.
Die Automorphismen von bilden bezüglich der Hintereinanderausführung als Verknüpfung
'
eine Gruppe G , die Lineare Gruppe von . Das gleiche gilt für die regulären Matrizen be-
züglich des Matrizenproduktes; die von ihnen gebildete Gruppe Gl heißt Allgemeine Li-
neare Gruppe zur Dimension
Gruppenisomorphismus G
Gl . '
und zum Körper . Die Zuordnung definiert einen
Nachdem wir jetzt die Inverse einer regulären Matrix zur Verfügung haben, können wir genau
beschreiben, wie sich die Abbildungsmatrix transformiert, wenn wir in und in die Koor-
dinaten transformieren. Außerdem können wir damit die zu einer Basistransformation gehörige
Koordinatentransformation besser als früher ( 3.3 auf Seite 44) beschreiben.
7.6 Satz
Sei 1 linear,
54 V Lineare Abbildungen und Matrizen
' '' sei eine Koordinatentransformation in ,
' ' '
sei eine Koordinatentransformation in ,
formationen. Dann gilt:
7.7 Satz
gehörige Koordinatentransformation (s. 3.3 auf Seite 44)
Die zur Basistransformation
können wir jetzt besser in der nach aufgelösten Form schreiben:
& &
8 . 8 88 88 & & 8 8
..
8 8 & &
Das Produkt wurde bereits in 3.2 auf Seite 44 definiert. heißt das zugehörige
homogene Gleichungssystem.
Zur Matrix betrachten wir die lineare Abbildung 1
' 1 , d. h.
diejenige mit
bezüglich der kanonischen Basen.
7
A. Riede: Lineare Algebra 1, SS 98
V.9 Berechnung der inversen Matrix 55
Sind weniger Gleichungen gegeben als Unbekannte vorhanden, d. h. für , dann hat ein
homogenes System also mindestens eine nicht triviale Lösung.
Sind mindestens so viele Gleichungen gegeben als Unbekannte vorhanden sind, d. h. für
,
dann gilt:
Das homogene System ist eindeutig (durch den Nullvektor) lösbar. ! Rg( ) =
weitern wir einfach die Koeffizientenmatrix um alle inhomogenen Bestandteile und erhalten ei-
ne erweiterte Matrix . Dann wenden wir das Gauß oder das Gauß-Jordan-Verfahren auf
sinngemäß an. Bei der rekursiven Auflösung müssen wir dann jeweils die erste, zweite ... Er-
weiterungsspalte verwenden, um die Lösung des ersten, des zweiten ... Gleichungssystems zu
bekommen.
einer regulären -Matrix
oder ausführlich:
In dieser Situation befinden wir uns, wenn wir die Inverse
berechnen wollen. ist festgelegt durch die Gleichung
' '
' '
8
8
' '
..
.
Dies sind lineare Gleichungssysteme mit als Koeffizientenmatrix. Im ersten sind die Koef-
fizienten der ersten Spalte von die Unbekannten, im zweiten die Koeffizienten der zweiten
Spalte, im letzten die Koeffizienten der letzten Spalte von . Die inhomogene Spalte des -ten
Gleichungssystems ist die -te Spalte der Einheitsmatrix .
Wir wenden das Gauß-Jordan-Verfahren an und nehmen an, daß den Rang hat. (Genau
dann gibt es ja die Inverse.) Als Stufenform erhalten wir durch elementare Umformungen, wo-
bei wegen der Rangbedingung keine Spaltenvertauschungen nötig sind und deshalb auch nicht
verwendet werden:
56 V Lineare Abbildungen und Matrizen
. .
. .
. . .. ..
. .. .. .. ..
.. .. ..
.. .. ..
. . . . .
gerade die Inverse
Die Auflösung des Stufensystems ergibt, daß die auftretende Matrix
ist.
VI.1 Länge, Winkel und Skalarprodukt 57
In den Vektorraum-Axiomen sind nicht alle Eigenschaften enthalten, die die geometrischen Vek-
toren des Anschauungsraumes tatsächlich haben. Z. B. kann die Länge eines Vektors und zwi-
schen zwei geometrischen Vektoren der Winkel gemessen werden. In der Tat brauchen wir die-
se Begriffe auch nicht, um den Begriff eines Vektorraumes zu begründen; umgekehrt können
diese Begriffe auch nicht aus den Vektorraum-Axiomen abgeleitet werden! Vielmehr ist es so,
daß, wenn in einem Vektorraum diese Begriffe einen Sinn machen, der Vektorraum eine wei-
terreichende Struktur hat als nur die Struktur eines Vektorraumes. Zunächst betrachten wir die
Anschauungsebene.
Die Länge eines Vektors , die auch Betrag von genannt und mit bezeichnet wird, berechnet
sich nach dem aus der Schule bekannten Satz des Pythagoras. Dieser begründet sich aus der
Elementargeometrie, die auf ganz anderen Axiomen aufgebaut wird als den Vektorraumaxiomen,
z. B. gehören dazu die Kongruenzaxiome.
Seien ' 8 das Koordinatenpaar von bezüglich eines festen kartesischen Koordinatensy-
stems, dann gilt:
(8 88
Das Quadrat der Länge ist gegeben durch:
8 8 88
1.2 Der Winkel
Zwei von 0 verschiedene Vektoren und der Anschauungsebene bilden zwei Winkel mit-
einander, von denen wir den kleineren im folgenden betrachten. Er ist nur, wenn die Vektoren
zueinander entgegengesetzt sind, nicht eindeutig bestimmt; in diesem Falle haben jedoch beide
Winkel das gleiche Maß , so daß diese Zweideutigkeit für die Winkelmessung keine Bedeutung
.'
hat. Wir verwenden ein kartesisches -Koordinatensystem mit der -Achse als horizontaler
Achse und der -Achse als vertikaler Achse.
8
A. Riede: Lineare Algebra 1, SS 98
58 VI Metrische Größen im Anschauungsraum
Wir schauen uns im Detail nur den Fall an, daß und in den 1. Quadranten zeigen und daß
für die Winkel und , die bzw. mit der -Achse bilden, gilt: . Es genügt den
Winkel zwischen Einheitsvektoren, solchen mit Betrag 1, zu betrachten. Sei also .
und nach dem Additionstheorem für
Für den Winkel zwischen und gilt dann
8 8
den Kosinus:
Dabei seien ' 8 die Koordinaten von , ' 8 die von . Mit der rechten Seite von
Vektoren (' . Für besteht seine geometrische Bedeutung darin, daß er nach die
sind wir auf einen Ausdruck gestoßen, der einen eindeutigen Sinn hat für ein beliebiges Paar von
Länge zum Quadrat von angibt. Der Ausdruck definiert eine Abbildung:
8 8
Der Unterschied besteht nur darin, daß in variabel sind, bei einer
Linearform jedoch und 8 fest sind. Wir sehen also:
8 und
8
Bei festem ist linear in der Variablen und bei festem ist linear in der Variablen .
eine reelle Zahl, also einen Skalar, als Wert hat, so leuchtet ein, warum (' als Skalarprodukt
(' '
& oder
Im Sinne der Abbildung wird diese Eigenschaft Symmetrie (in und ) genannt.
VI.2 Das Vektorprodukt 59
Denn die Länge eines Vektors zum Quadrat ist und nur für . Diese Eigenschaft
(' 1 ('
den wir die Schreibweise
verwenden.
1.3 Bemerkung
Die Fläche sei ein Rechteck, das von einer Flüssigkeit mit zeitlich und räumlich konstanter
Geschwindigkeit durchströmt wird. Unter dem Flächenvektor verstehen wir den auf der
Fläche senkrecht stehenden Vektor, dessen Länge gleich dem Flächeninhalt von ist und der
0
nach der Seite von zeigen soll, in die die Flüssigkeit fließt. sei die Flüssigkeitsmenge, die
0 +'
2.1 Definition
('
('
Vektorprodukt von , weil das Ergebnis des Multiplizierens ein Vektor ist. Es wird mit
bezeichnet und auch das Kreuzprodukt des Paares genannt.
ist also der Vektor mit folgenden Eigenschaften:
( ' );
2.
(
3. (' '
stellen den Schraubungssinn einer Rechtsschraube dar.
Für linear abhängige (' wird definiert
1 .
2.2 Koordinatendarstellung
falls die Koordinaten ' 8 ' und die Koordinaten ' 8 ' hat.
2.3 Eigenschaften
5. (' "
' Graßmann-Identität
6.
Jacobi-Identität
VI.3 Volumen
.' ('
In diesem Abschnitt sei wieder der Vektorraum der geometrischen Vektoren des Anschau-
ungsraumes. Drei linear unabhängige Vektoren spannen ein Parallelflach oder ein Spat
auf. Sein Volumen wird definiert durch Grundfläche des von und aufgespannten Paralle-
logramms mal Höhe .
VII.0 Volumen 61
Dann gilt:
.'
(vgl. VI.1 ?? auf Seite ??)
.'
.'
Der Ausdruck auf der rechten Seite dieser Formel ohne die Betragsstriche ist mit den Methoden
der linearen Algebra besonders zugänglich und Ausgangspunkt und Motivation für das Kapi-
tel VII auf der nächsten Seite.
3.2 Definition
1 .'
heißt das orientierte Volumen des von .' (' aufgespannten orientierten Parallelflachs oder
das Spatprodukt von .' (' , wobei wir ein Parallelflach als orientiert ansehen, wenn für die
Vektoren eine bestimmte Reihenfolge festgelegt ist. Sind .' (' linear abhängig,
so wird .' (' 1 definiert.
aufspannenden
3.3 Bemerkung
' +'
Das orientierte Volumen ist abhängig von der Reihenfolge der Vektoren. Es ist positiv, genau
wenn linear unabhängig und positiv orientiert sind.
3.4 Koordinatenbeschreibung
.' (' 8 * 8 - 8
8 8 8
VII Determinanten
bezeichne im ganzen Kapitel einen -dimensionalen Vektorraum über mit
.
VII.1 Determinantenform
1.1 Definition
1. Eine Abbildung 1
&&
des -fachen kartesischen Produktes nach
' '
' ' ' ' '
einem Vektorraum über heißt -fach linear, kurz multilinear, wenn bei beliebigem
und beliebigen aber festen Vektoren
' ' ' (' ' ' 1
die
Zuordnung ein lineare Abbildung ist;
d. h., wenn in jeder Variablen linear ist.
2. Für heißt wie oben eine -fache Linearform, kurz eine -Form.
a) ist multilinear.
b) ist alternierend, d. h. ' ' für alle linear abhängigen ' ' .
c) Nullabbildung.
' ' ' '
'' ' '
'' ' '
2. ist schiefsymmetrisch; d. h.:
für
Wir wollen die 2. Formel aus 1.2 auf beliebige Permutationen der verallgemeinern. Das
dabei auftretende Vorzeichen heißt das Signum von . Eine Vertauschung der
können wir
auch als Vertauschung der Indizes aufschreiben. Die genaue Definition kann folgendermaßen
gegeben werden:
VII.2 Das Signum einer Permutation 63
2.1 Definition
Sei 1
das Polynom in Variablen mit
8 $
sich von
Für $ := Permutationsgruppe von ' ' ' unterscheidet ' '
'' nur um das Vorzeichen; dieses heißt das Signum der Permutation , es wird mit
Für
heißt ' eine Inversion von , wenn ist.
Sei die Anzahl der Inversionen von , dann gilt:
sgn( ) =
2.5 Folgerungen
sgn( ) =
,
wenn
die Anzahl der Transpositionen bei einer solchen Darstellung ist.
' '
sgn
'
für alle ' ' '
Diese Bedingung ist äquivalent zur schiefen Symmetrie.
3.1 Satz
Eine Determinantenform ist nicht eindeutig, da mit und wieder eine De- (
terminantenform ist. Jedoch ist dies die einzige Unbestimmtheit. Es gibt bis auf ein skalares
Vielfaches genau eine Determinantenform von .
Sei '' eine feste Basis von und
die lineare Darstellung der Vekto-
ren '' durch die Basis. Dann gilt: (vgl. X.4 auf Seite 109)
1. Für eine beliebige Determinantenform ist
' ' sgn 8 8 && & & ' ' .
2. Die Funktion ' 8 ' ' 1 sgn
8 8 && ist eine Deter-
terminantenform mit ; sie heißt kanonische Determinantenform von . Mit dieser Be-
minantenform. Für
4.1 Satz
4.2 Definition
1. Ist zusätzlich zu den Voraussetzungen des Satzes 4.1 auf der vorherigen Seite eine
Determinantenform für , so gilt wegen VII.3 auf der vorherigen Seite und dem Satz 4.1
auf der vorherigen Seite
' ' # ''
für einen Skalar . heißt die Determinante von bezüglich und , kurz
Det .
' ' ' ' die Determinante von , kurz Det( ); sie hängt
2. Ist
4.3 Satz
VII.5 Determinante einer -Matrix
5.1 Definition
-Matrix 1
Zu gegebener wählen wir eine lineare Abbildung mit
für eine Wahl einer Basis von und setzen:
1
Det Det
Det( ) hängt nicht von der Wahl von und der Basis von ab.
5.3 Satz
1. Det( ) ! invertierbar.
Det
, falls
2. Det Det
3. Det Det invertierbar ist.
4. Det Det
66 VII Determinanten
sei eine -Matrix mit Koeffizienten in .
1. Bei Multiplikation einer Zeile (Typ ZI) oder Spalte (Typ SI) mit einem Skalar multipli-
ziert sich die Determinante mit .
2. Bei Addition einer mit einem Skalar multiplizierten Zeile (Typ ZII) bzw. Spalte (Typ SII)
zu einer anderen Zeile bzw. Spalte ändert sich die Determinante nicht.
3. Bei Vertauschung zweier Zeilen (Typ ZIII) oder Spalten (Typ SIII) multipliziert sich die
Determinante mit .
6.2 Stufenform
1. Sei St eine Stufenform, in die durch elementare Umformungen vom Typ ZII, ZIII, SII
'
übergeführt worden sei (vgl. Gaußverfahren). Dann gilt:
Det Det St
wenn -mal zwei verschiedene Zeilen und -mal zwei
2. Eine Stufenmatrix ist ein Spezialfall einer oberen Dreiecksmatrix, wobei die Sterne irgend-
welche Koeffizienten bezeichnen:
. .
8 8. ..
. ..
..
.. ..
.
für .
D. h. in einer Dreiecksmatrix
ist per Definition
6.3 Definition
' '
Für eine weitere Berechnungsmöglichkeit benötigen wir folgende Begriffe.
Sei
1
Det , seien die Spalten von für und ' '
sei die kano-
nische Basis von . sei die kanonische Determinantenform (s. 3.1 auf Seite 64). Dann wird
VII.8 Anwendung auf lineare Gleichungssysteme 67
6.4 Hilfssatz:
7.1 Definition
-Matrix
Zeilen und
Spalten heraus, so heißt die
Streichen wir in einer
Determinante der so entstehenden
-Matrix eine -reihige Unterdeterminante von .
7.2 Satz
Für
ist Rg( ) = !
Es gibt eine von null verschiedene -reihige Unterdeterminante, aber keine von null verschiedene
-reihige Unterdeterminante mit .
68 VII Determinanten
Sei
ein lineares Gleichungssystem mit ' und Rg( ) = . Dann
berechnet sich nach der Formel:
8 8 <&&&
ist das Gleichungssystem eindeutig lösbar und die Lösung
. .
.
..
. . .
. . . ..
. .
VII.9 Orientierung
9.1 Satz
Sei eine Determinantenfunktion für einen reellen Vektorraum . Dann gibt es unabhängig von
der Wahl der Determinantenfunktion zwei nicht leere Klassen von Basen
' ' ''
' ' ''
Es gehören zwei Basen genau dann der gleichen Klasse an, wenn die Matrix der Basistransfor-
mation positive Determinante hat.
9.2 Definition
Eine Orientierung eines reellen Vektorraumes besteht darin, eine der beiden Klassen auszu-
zeichnen und Klasse der positiv orientierten Basen zu nennen.
VIII.1 Das Standard-Skalarprodukt im 69
In Kapitel VI haben wir Vektoren der Anschauungsebene betrachtet. Die Beziehung des Satzes
8
von Pythagoras, des Längen- und Winkelbegriffs der Elementargeometrie zum Skalarprodukt
läßt erwarten, daß umgekehrt der , mit dem Skalarprodukt
+' 1 8 8 8 8
für
8 und
8
ein geeignetes Modell für die Anschauungsebene oder für die euklidische Ebene liefert. Die
darauf begründete Geometrie wird Analytische (euklidische) Geometrie genannt im Gegensatz
zur Synthetischen (euklidischen) Geometrie, die auf Begriffen wie z. B. der Kongruenz beruht
(s. E. Kunz: Elementargeometrie, vieweg). Dies gilt entsprechend für den Anschauungsraum und
wird uns ganz allgemein zum Begriff eines -dimensionalen euklidischen Raumes führen.
1.2 Definition
(' 1
f"ur '' ' ' '
1.3 Eigenschaften
' (' (' 7 D. h. bei festem
ist es linear in der Variablen :
1. Bilinearität der Abbildung: ist es
linear in der Variablen und bei festem
(' $ (' (' ' (' +'
2. Symmetrie: ('
"'
3. Positive Definitheit: (' # (' .
und nur für
Beweis: Die Bilinearität ergibt sich wieder durch Vergleich mit einer Linearform. Die Symmetrie
ist natürlich eine Folgerung aus dem Kommutativitätsgesetz für die Multiplikation in . Die
positive Definitheit folgt daraus, daß eine Summe von Quadraten reeller Zahlen ist und
nur dann, wenn die reellen Zahlen selbst alle null sind.
1.5 Definitionen
Wir haben in Anschauungsebene und Anschauungsraum gesehen, daß Begriffe wie Länge und
Winkel aus dem Skalarprodukt abgeleitet werden können. Dementsprechend definieren wir im
:
1 (' #
1. Die Länge oder der Betrag oder die euklidische Norm eines Vektors ist:
2. Der Winkel (' zwischen zwei Vektoren und , gemessen im Intervall ' ,
1 ('
wird durch den Kosinus erklärt:
Diese Definition macht nur Sinn, wenn
oder äquivalent gilt:
('
Diese Ungleichung heißt die Cauchy-Schwarzsche Ungleichung, die tatsächlich richtig ist,
was in Abschnitt 3.5 auf Seite 73 bewiesen wird.
3. heißt senkrecht oder orthogonal zu : d. h.! ('
.
VIII.2 Das Standard-Skalarprodukt im
!
Im folgenden bezeichne der Querstrich die konjugiert komplexe Zahl. Wir beachten:
Allgemeines Skalarprodukt 71
2.1 Definition
2.2 Eigenschaften
Die Abbildung
1 mit
(' 1 ('
ist
5. positiv definit d. h. (' (' und genau für .
3.1 Definition
1 odermit und
Sei ein -Vektorraum. Dann ist ein Skalarprodukt auf
den Eigenschaften 1 bis 5.
eine Abbildung
Für gilt: =
semi-homogen = homogen
semi-symmetrisch = symmetrisch
72 VIII Vektorräume mit Skalarprodukt 1
3.2 Beispiel
('
1 0 0 4 0
Hierdurch ist ein Skalarprodukt auf definiert, was aus der Linearität des Integrals, der Ver-
tauschbarkeit von komplexer Konjugation und Integral und der Positivität des Integrals stetiger
Funktionen folgt. In der Analysis sind verschiedene Funktionenräume interessant, die aus
0 0 4 0
integrierbaren Funktionen bestehen. Da eine unstetige integrierbare Funktion ungleich null sein
kann, obwohl ihr Integral verschwindet, kommt es vor, daß in diesen Räumen kein
Skalarprodukt mehr liefert, da es nicht mehr positiv definit ist. Um doch einen Vektorraum mit
Skalarprodukt zu erhalten, wird der Unterraum der Nullfunktionen betrachtet; das sind die
Funktionen, deren Integral 0 ist. Auf dem Quotientenraum
der integrierbaren Funktionen
modulo der Nullfunktionen besteht dann wieder ein Skalarprodukt.
3.3 Definition
1 +'
Auch in einem allgemeinen Vektorraum mit Skalarprodukt wird die Norm (Betrag bzw. Länge)
eines Vektors definiert durch:
3.4 Eigenschaften
1.
und genau, wenn
2. (
3.
2. Leicht nachzurechnen
8 "'
+' (' ' '
3.
(' # (' "' , da Re
8 8
Beweis:
a) Für - ' folgt:
+ ' ' (' (' (' (' (' ('
8 8 (' 8
('
. Dies gilt auch für , da beide Seiten dann gleich .
b) Ist (' linear unabhängig, dann ist
' und es gilt in der ersten Unglei-
c) Sei umgekehrt (' linear abhängig. Dann ist etwa ein Vielfaches von ,
und
(' ' ' ' 8 .
es gilt für die linke Seite der Ungleichung:
5
: : 8
Für die rechte kommt das gleiche heraus:
3.6 Definition
Ein euklidischer Vektorraum ist ein -Vektorraum mit Skalarprodukt und ein -Vektorraum mit
Skalarprodukt heißt ein unitärer Vektorraum.
74 VIII Vektorräume mit Skalarprodukt 1
3.7 Definition
' '
Ist
1 '
eine Basis des Vektorraumes
'
mit Skalarprodukt , so heißt die -Matrix
' '
mit den Koeffizienten die Matrix des Skalarproduktes bezüglich
.
VIII.4 Orthonormalbasen
4.1 Definition
'
'
d. h.
für und
für ' ' '
normalbasis die
Äquivalent mit dieser Bedingung ist, daß die Matrix des Skalarproduktes bezüglich einer Ortho-
-Einheitsmatrix ist, und damit wieder äquivalent ist, daß das Skalarpro-
dukt die folgende Form hat:
('
für und
4.2 Bemerkung
Beweis:
"'
' ' '
=
'
'
=
VIII.4 Orthonormalbasen 75
1. Schritt:
%1 - ' . Dann ist:
' %
' 3
'
' %
Es folgt:
' .
3. Schritt: 1
' '
und
Dann ist
für und i,j=1,. . . ,k+1 , für
' ' ' .
76 VIII Vektorräume mit Skalarprodukt 1
4.4 Folgerungen
Basis ergänzen.
Beweis:
1. endlich erzeugt
Basis; orthonormalisiere diese.
' '
zu einer Basis, orthonormalisiere diese. Die Orthonormalisierung
2. Ergänze
nach Schmidt läßt die ersten schon orthonormalen Vektoren ungeändert.
5.1 Satz
('
'
('
Dabei bezeichnet ' wieder das Standard-Skalarprodukt auf .
Beweis:
'
' ' von
Das kartesische Koordinatensystem gehöre zur orthonormierten Basis und es
sei
.
(' =
'
=
'
'
=
Die Koordinatenzuordnung ist also eine lineare Abbildung, bei der das Skalarprodukt zweier
Vektoren gleich dem Skalarprodukt der Bildvektoren ist, kurz die das Skalarprodukt erhält. Sol-
che Abbildungen heißen Isometrien, genauer wird definiert:
Die orthogonale und unitäre Gruppe 77
5.2 Definition
Sei 1 linear und seien und -Vektorräume mit Skalarprodukt. Dann heißt f eine
5.3 Beispiele
1.
1 aus 5.1 auf der vorherigen Seite.
$1 1 #
1
3. Sind und Isometrien zwischen Vektorräumen mit Skalarprodukt
über , dann ist auch eine Isometrie.
4. Ist 1 eine bijektive Isometrie, dann ist auch 1 eine Isometrie.
bei der die ersten beiden Vektoren auf orthogonal sind und der dritte in liegt. Dann
d. h. ein eindimensionaler Untervektorraum von . Wir wählen eine Orthonormalbasis,
5.4 Lemma
„
“: klar
„ “: Seien '
.
(' = '
=
'
'
=
=
=
'
=
'
= ('
5.5 Frage
d. h.
3.
d. h. ist invertierbar (d. h. invertierbar) und
Eine Matrix, die diese Bedingungen erfüllt, heißt für eine orthogonale im Falle
eine unitäre Matrix.
Die orthogonale und unitäre Gruppe 79
ist also genau dann eine Isometrie, wenn seine Matrix bezüglich einer orthonormierten Basis
im reellen Falle eine orthogonale bzw. im komplexen Falle eine unitäre Matrix ist.
'
=
!
'
=
wegen 5.1 auf Seite 76
a) Isometrie
! ' =
, weil die Koordinaten des
Bildes des -ten Basisvektors die -te Spalte der Abbildungsmatrix bilden. Damit ist gezeigt, daß
Isometrie mit der ersten Bedingung äquivalent ist.
b) '
!
!
Matrizenform von ' (s. 2.1 auf
Seite 71)
! !
!
Also ist die erste mit der dritten Bedingung äquivalent.
c)
!
! '
Damit ist die Äquivalenz der zweiten und dritten Bedingung erwiesen.
Sei . Unter einer Isometrie von verstehen wir eine Isometrie von nach . Die
Isometrien von bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe.
Sie heißt die Isometriegruppe von . Im Falle
wird sie auch Orthogonale Gruppe von
genannt und mit bezeichnet; im Falle wird
sie auch Unitäre Gruppe von genannt
und mit
bezeichnet.
Beweis:
+' Isometrien von
Isometrie von (s. 5.3 auf Seite 77, 3. Beispiel)
Id ist eine Isometrie, also gibt es ein neutrales Element.
Wegen 5.6 auf der vorherigen Seite ist jede Isometrie von auch ein Isomorphismus.
Nach 5.3 auf Seite 77, 4. Beispiel ist die Umkehrabbildung ebenfalls eine Isometrie. Es gibt
also zu jedem Element ein Inverses.
Matrix von bezüglich ) die Menge der Isometrien von bijektiv auf die Menge der ortho-
gonalen bzw. unitären Matrizen ab, wobei der Hintereinanderausführung das Matrizenprodukt
'
entspricht. Daher bilden die orthogonalen Matrizen mit der Matrizenmultiplikation ein Gruppe,
die Orthogonale Gruppe zur Dimension .
ist ein von abhängiger
Gruppen-Isomorphismus. Entsprechend bilden im komplexen Falle die unitären Matrizen eine
80 VIII Vektorräume mit Skalarprodukt 1
zu
isomorphe Gruppe, die Unitäre Gruppe zur Dimension . Da wir für be-
züglich des Standard-Skalarprodukt eine kanonische orthonormierte Basis haben, gibt es einen
kanonischen (einen vor allen anderen ausgezeichneten) Isomorphismus
bzw.
. Daher wird auch bzw. Orthogonale bzw. Unitäre Gruppe zur
Dimension genannt und ebenfalls mit bzw.
bezeichnet.
1
Det
1 Det
ist eine Gruppe, die Spezielle Orthogonale Gruppe.
ist eine Gruppe, die Spezielle Unitäre Gruppe.
IX.2 Bestimmung von Eigenwerten und Eigenvektoren 81
IX.1 Diagonalisierbarkeit
1.1 Problem
annimmt? Z. B. Diagonalgestalt?
.
. . 8 ..
. ..
. .. ..
. .
Wenn es eine solche Basis gibt, so sagen wir, daß diagonalisierbar ist. Dies bedeutet, daß jeder
Basisvektor in ein Vielfaches von sich selber übergeht:
1.2 Definition
Ein
heißt Eigenvektor zum Eigenwert 1 ! und . Wir kürzen
Eigenvektor mit EV und Eigenwert mit EW ab.
heißt ein Eigenwert von 1! Es existiert ein Eigenvektor zum Eigenwert .
Indem wir eine -Matrix
in Beziehung zur linearen Abbildung sehen, 1
deren Abbildungsmatrix bezüglich der kanonischen Basis ist, sprechen wir auch von EV und
EW einer Matrix .
Es gibt zu ! !
!
einen Eigenvektor Kern( Id) Id ist kein
Isomorphismus Det( Id) = 0. Wir erhalten folgenden Satz:
' ' eine Basis von
' '
3. Sei im folgenden und bezüglich
. Dann folgt:
Det(
Id) = Det(
)=
* . 8 . .
8 . . . . .. = sgn =
... . . . . . .
<&&& 1
1
Det( ) = Det( ). (" setzen)
4.
2.2 Definition
2.3 Feststellungen
1. Die Eigenwerte von sind die Nullstellen des charakteristischen Polynoms von . Zur
Bestimmung der Eigenwerte müsssen also die Nullstellen des charakteristischen Polynoms
berechnet werden.
2.4 Beispiele
um
hat für 8 d. h. für ' '
1. Die Drehung des und Id und
Id, keine Eigenvektoren. Der einzige EW von Id ist 1 und alle Vektoren sind
Eigenvektoren zum EW 1. Der einzige EW von -Id ist -1 und alle Vektoren sind EV
zum EW -1.
IX.3 Hauptachsen selbstadjungierter Abbildungen 83
2. 1 8 8 sei definiert durch
1
8 8
8 . Daher ist " der einzige Eigenwert. Für " folgt
8 . Um die Eigenvektoren zum EW 1 zu bekommen ist also die lineare
Gleichung 8 zu lösen. Die Vektoren
mit sind die Eigenvektoren
zum EW . Es gibt keine Basis aus Eigenvektoren! ist nicht diagonalisierbar!
3. Sei 1
1 beliebig oft differenzierbar . 4 1 sei die Ableitung. Für
0 1 ' fest, 0 folgt:
4 0 0 0 ' d. h. 4
Dieses Beispiel ist der Schlüssel zur Anwendung der Eigenwerttheorie in der Analysis.
4. Die Matrix
hat die Eigenwerte -1 und 1. 8 ' ' ist
' ' und ' ' sind linear unabhängige
ein Eigenvektor zum EW . 8
Eigenvektoren zum Eigenwert 1. ' 8 ' ist eine Basis aus Eigenvektoren. Als Diago-
nalisierung erhalten wir die Matrix:
IX.3 Hauptachsen selbstadjungierter Abbildungen
3.1 Bemerkungen
2. Bei orthonormierter Basis erhalten wir die -te Koordinate
larprodukt mit dem -ten Basisvektor:
('
eines Vektors als das Ska-
Beweis:
1. Dies folgt unmitelbar aus der Orthonormiertheit der Basis und der Definition des Matri-
zenproduktes.
2. ('
'
'
'
'
für alle '
' '
1.
2.
3. Die Matrix
ist semi-symmetrisch d. h. per Definition
Die Bezeichnung semi-symmetrisch ist klar, woher die Bezeichnung selbstadjungiert kommt,
wird sich in dem Abschnitt 4.1 auf Seite 87 ergeben.
Beweis:
1.
2.: Klar
2.
1.: Indem beliebige Vektoren durch die Basis dargestellt werden und die Linearität des
Skalarproduktes in der ersten Variablen und die Semilinearität in der zweiten ausgenutzt wird,
ergibt sich die erste Bedingung aus der zweiten.
!
2 3.: Es gilt nach Definition der Abbildungsmatrix . ist also die
-te Koordinate von , die wir auch durch Bilden des Skalarproduktes mit mit erhalten
können, also folgt:
!
'
' ! '
'
3.3 Definition
' '
orthonormiert. sei diejenige lineare Abbildung, die bezüglich der kanonischen
Basis von
die gleiche Matrix hat wie bezüglich . Wir nennen eine komplexe
IX.3 Hauptachsen selbstadjungierter Abbildungen 85
Erweiterung von . In Abschnitt XII.3 auf Seite 145 werden wir die komplexe Erweiterung
systematisch behandeln.
3.4 Satz
Wir betrachten als unitären Raum bezüglich des Standardskalarproduktes. Dann gilt:
1. selbstadjungiert
ist ebenfalls selbstadjungiert.
Beweis:
1. Die erste Behauptung folgt einfach daraus, daß und die gleiche Matrix haben be-
züglich orthonormierter Basen und eine reell semi-symmetrische Matrix auch komplex
semi-symmetrisch ist.
gleiche charakteristische Polynom. Da das charakteristische Polynom von vollständig
in Linearfaktoren zerfällt mit lauter reellen Nullstellen, gilt dies auch für .
Eine selbstadjungierte Selbstabbildung von hat bezüglich einer geeigneten orthonormierten
Basis Diagonalgestalt, d. h. sie ist eine Streckung in zueinander senkrechten Richtungen mit
den Streckungsfaktoren , wobei die Eigenwerte von sind. Die von diesen Basisvektoren
aufgespannten eindimensionalen Untervektorräume heißen Hauptachsen von . Die Transfor-
mation auf eine solche Basis heißt Hauptachsentransformation. Wenn keine verschiedene
Eigenwerte hat, sind die Hauptachsen nicht eindeutig bestimmt; z. B. für Id .
: Klar
Beweis: Induktion nach :
Für
sei ein Eigenwert und ein Eigenvektor dazu.
86 IX Eigenvektoren und Eigenwerte
Beachte: Auch jedes von null verschiedene Vielfache eines Eigenvektors ist ein Eigenvektor
mit dem gleichen Eigenwert.
Die Nullen in der ersten Spalte kommen daher, daß Eigenvektor ist, die Nullen in der ersten
Zeile müssen dann wegen der Semisymmetrie der Matrix stehen.
Wegen letzterem folgt für 1 8 ' '
für ' ' d. h.
. Wir können einschränken auf und erhalten eine lineare Abbildung
1 , 1
eingeschränkt und ist eine selbstadjungierte Abbildung.
ist wieder ein Vektorraum mit Skalarprodukt, das Skalarprodukt von wird einfach auf
Dann hat Diagonalgestalt bezüglich ' 8 '' :
8 ...
IX.4 Normale Endomorphismen
selbstadjungiert
2. Woher kommt die Bezeichnung selbstadjungiert?
IX.4 Normale Endomorphismen 87
' '
' '
a)
b)
'
ist selbstadjungiert. !
Beweis:
a) ! b) wegen der Linearität von (' in
und der Semilinearität in .
Sei
und
.
' '
' '
b) bedeutet so viel wie
b’) '
d. h.
4.2 Definition
1 heißt normal : !
8
..
!
8 8
. 8 . 8
..
..
...
..
.
8
&&
.
..
Jetzt schließen wir induktiv weiter wie beim Diagonalisierungssatz selbstadjungierter Abbildun-
gen.
„ “: Sei diagonalisierbar bezüglich einer orthonormierten Basis. Bezüglich dieser hat dann
wegen Bedingung c) auch Diagonalgestalt mit den konjugiert komplexen Zahlen in der
Haupt-
also auch
diagonalen. Dann zeigt einfaches Nachrechnen, daß
5.1 Einführung
Sei ein -dimensionaler Vektorraum über einem Körper . Mit End
-Vektorraum der Endomorphismen von . Sei End , Id
bezeichnen wir den
Id . Wie wir gesehen haben, 1
)1 8 8 mit 8 1
8
bezüglich keiner Basis Diagonalform, weil keine Basis aus Eigenvektoren existiert. In solchen
Fällen hat dann eine andere auch noch relativ einfache Normalform, die sogenannnte Jordan-
sche Normalform (Camille Jordan, 1838-1922). Sie besteht aus sogenannten Jordankästchen,
IX.5 Jordansche Normalform 89
Dabei sind die auftretenden genau die Eigenwerte von . Eine gleichwertige Behandlung der
Jordanschen Normalform versteht unter Jordankästchen Matrizen der Form:
.. ..
.
..
.
.
ist für
und -<&& . ' ' sind also die paarweise verschie-
denen Nullstellen von bzw. die Eigenwerte von . Diese Bezeichnung wird im folgenden
wobei
beibehalten. Wir nehmen ab jetzt an, daß diese Voraussetzung an erfüllt ist. Wegen des Funda-
ganz durchlaufen, wobei außerhalb der Jordankästchen Nullen stehen.
1
Ein EW:
Zwei EW: ' 8 1
8
8 8
Drei EW: ' 8' 1
8
' 8 ' paarweise verschieden
90 IX Eigenvektoren und Eigenwerte
genwert .
5.3.2 Satz
& &
1.
2.
' '
3. Dim
Beweis mit Hilfe der Teilbarkeitslehre von Polynomen (s. XVI. 3.6 auf Seite 191).
5.3.3 Folgerungen
eingeschränkte Abbildung 1
1 ' 1 +
1. Wegen der 2. Behauptung von 5.3.2 gibt es die auf
.
Dann ist '' 1
' ' ' 8 ' ' 8 ' ' ' eine Basis von
und hat diesbezüglich eine Matrix der Form:
..
.
8 8 -Matrix.
ist eine -Matrix, eine -Matrix usw.
eine
Hierbei stehen oberhalb und unterhalb der Kästchen Nullen wegen
IX.5 Jordansche Normalform 91
1!
5.4.1 Definition Sei ein Untervektorraum von
. Dann heißt ein Untervektorraum von
ein algebraisches Komplement von in .
; denn für
folgt:
wegen
wegen
' ' , da eine Basis ist. Es folgt .
Beweis:
1. Kern Kern
Id
2. Kern Kern Id
.
sind diejenigen,
die bei nach 0 abgebildet werden, sie werden
3. Die Vektoren von
erst recht bei
nach 0 abgebildet, liegen also auch in . Also gilt:
.
92 IX Eigenvektoren und Eigenwerte
in die 0,
Beweis: Sei , dann
dann bereits bei in die null d. h. .
ist für ein . Jedes geht bei
wegen
Beweis: Sei
für ein
d. h. d. h. .
8 bedeutet:
8
5.4.8 Hilfssatz (e) Ist ' ' eine Basis von , dann ist ' ' linear
unabhängig und kann zu einer Basis eines algebraischen Komplementes von 8 in
ergänzt werden.
Beweis:
'' eine Basis von
' ' ' '' ' '' sei eine Ergänzung zu einer Basis von .
8
=
=
..
&&
.
=
Wenn wir also sukzessive Basen von &' '' bestimmen, ergeben alle zusam-
1 ' ' eines .
men eine Basis von .
Starte mit einer Basis
%1 ' ' 1 ' ' '' ' von einem
Das Bildsystem
ist linear unabhängig und kann zu einer Basis
ergänzt werden.
Die Bilder bei der Vektoren von sind wieder linear unabhängig und können zu einer
Basis 8 von 8 ergänzt werden.
etc.
8
Ergänzug von
Basis von
Basis von
eines
zu Basis
.
. aller Basen &' ' ' zusammen genommen ergeben eine Basis von
Als letztes erhalten wir eine Basis eines
Die Vektoren
. 8 8
Basis von
.. Basis von
..
:
..
8 8 8
. Basis von
Eine Jordanbasis finden wir nun dadurch, daß wir die Vektoren dieser Tabelle in einer geeigneten
'8'
Reihenfolge nehmen, nämlich so, daß wir sie den Spalten nach anordnen. Die Vektoren in der
neuen Reihenfolge bezeichnen wir mit usw.:
8
Basis von
8
..
Basis von
8. 8
. .
..
:
8 8
8
. Basis von
8
-Jordankästchen gibt. Allgemein gilt:
Dim
Wegen erhalten wir die Matrix von aus der von , indem wir die Nullen in
..
.
..
.
..
.
..
.
Dim
Dim
Eine aus Jordanbasen der zusammengesetzte Basis von heißt eine Jordanbasis von und
die aus den zusammengesetzte Matrix ein Jordan-Normalform von .
96 IX Eigenvektoren und Eigenwerte
1. Die Berechnung des charakteristischen Polynoms liefert:
: : %
8
Id
Dabei wurden folgende Zeilenumformungen durchgeführt:
* ' 8 '
Basis von : ' ' ' ' ' ' ' ' ' ' ' ' ' '
2 .
Ein System formaler Gleichungen
- 8 8 & &
2 .. - 8
8 & &
(6)
5 ' '
heißt ein System von linearen Differentialgleichungen 1. Ordnung mit konstanten Koeffizienten.
Die Koeffizienten
bilden die sogenannte Koeffizientenmatrix
inhomogenen Bestandteile bilden die inhomogene Spalte
und die
.
Ein -tupel 0 0 ' ' 0 von differenzierbaren Funktionen 1 heißt eine
2
0 und 0 für die Unbestimmten
und
2
Lösung von ( 6), wenn nach Einsetzen der Funktionen
gültige Gleichungen von Funktionen entstehen.
Matrixschreibweise für ( 6):
2 < ' 12 2 ' ' 2
5
(7)
Das System heißt homogen 1 !
2 < heißt das zu. (6) bzw. (7) gehörige homogene System.
(8)
'
1. Der Lösungsraum Łhom eines homogenen Systems ( 8) ist ein Untervektorraum des Vek-
torraumes der -tupel von stetigen Funktionen von nach .
0 eine spezielle
0 Łhom 1 0 0 0 hom
Hierbei darf der inhomogene Bestandteil sogar aus beliebigen stetigen Funktionen
0 bestehen.
Vom theoretischen Standpunkt aus, wird mit spezieller Lösung irgendeine Lösung bezeichnet.
Vom praktischen Standpunkt aus wird versucht, eine Lösung als eine möglichst einfache Funk-
tion, etwa eine konstante Funktion, zu bestimmen; insofern haftet ihr dann etwas spezielles,
nämlich möglichst einfaches, an.
98 IX Eigenvektoren und Eigenwerte
Im Gegensatz dazu wird unter der allgemeinen Lösung nicht eine einzige Lösung verstanden,
sondern eine Formel, die genau alle Lösungsfunktionen beschreibt.
6.3 Beispiel
22 '
22
8 8 8' 8
Matrixschreibweise:
8
8 8
Genau die Funktionenpaare 0 ' 8 0 ' 8 sind die Lösungen. ' 8
6.4 Transformationsformel
, 2 2 . Daraus folgt:
2 ! 2 ! 2
Beweis: Es gilt
6.5 Anwendung
2
Wenn möglich wird die Matrix auf Jordansche Normalform transformiert
.
Dann braucht nur noch die allgemeine Lösung von gefunden werden. Durch Rück-
6.6 Beispiel
2 +' 2
Das Differentialgleichungssystem
hat bereits Jordan-Normalform.
8 8 ist nicht diagonalisierbar und
Lösung:
8 8 8
Lösung des inhomogenen Differentialgleichungssystems
( ) mit der „Methode der Variation der
0
Konstanten“: Wir ersetzen in der Funktion die Konstante durch eine differenzier-
bare Funktion :
82 0 2 0
8 0 0 0
!
2 # ! 2 !
Dann gilt: 8 0 ist Lösung von ( )
0. 8 ' 8
0 8 ist eine spezielle Lösung von ( ) und zugleich die allgemeine; denn wenn
8die allgemeine
Lösung des homogenen Systems noch dazuaddiert wird, entsteht keine andere
Form der Lösung.
' '* 8
8 0- 8
ist die allgemeine Lösung des Differentialgleichungssystems.
6.7 Satz über die Lösung für
im homogenen Fall
2
8
0- 8
. ..
.. .
;0 < &&&
' ' '
..
..
0
. .
< &&
2 ) '
Die Lösung des inhomogenen Falles konstant gelingt mit der Metho-
de der Variation der Konstanten: Ersetze die Konstanten
0' ' 0
in der soeben gefundenen
0 ' ' 0
Lösung durch Funktionen . Einsetzen in die inhomogene Differentialgleichung
liefert Differentialgleichungen für die , die leicht zu lösen sind.
100 IX Eigenvektoren und Eigenwerte
Eine explizite, lineare, gewöhnliche Differentialgleichung -ter Ordnung mit konstanten Koeffi-
zienten ist eine Gleichung der Form:
2 <&& ' ' ' ' ' ' (9)
&' ' 5heißen die (konstanten) Koeffizienten, der inhomogene Bestandteil. (2) heißt ho-
mogen, falls ist. Die Gleichung
2 &&&
(10)
-te Ordnung:
Die Differentialgleichung enthält , d. h. hängt von ab, aber nicht
'
von für .
Zur Terminologie: Wir werden uns nur mit expliziten, linearen, gewöhnlichen Differentialglei-
0
gültige Gleichung für Funktionen entsteht. Wenn wir betonen wollen, daß die Funktion ge-
meint ist, schreiben wir die Variable dazu. Der Buchstabe allein kann je nach Zusammenhang
die Unbestimmte oder die Funktion bezeichnen.
Sei 0 eine Lösung der Differentialgleichung: ( 9)
IX.7 Die gedämpfte und die harmonische Schwingung 101
.2
.
8
... . . . . . . . . . ...
..
2
2
mit der Matrix ..
..
.
..
. (11)
.
.
3.
Lösung des transformierten Systems ist.
Im diesem Abschnitt behandeln wir ein grundlegendes Beispiel. In einem Fall existiert im Re-
ellen keine Jordan-Normalform, aber natürlich im Komplexen. Wir zeigen, wie die reelle allge-
meine Lösung zu erhalten ist. Zur Lösung eines Differentialgleichungssystems 1. Ordnung ist
sodann auch die zur Normalform gehörige Basis zu bestimmen.
Im folgenden betrachten wir die homogene Differentialgleichung. Für den inhomogenen Fall
siehe 7.6 auf Seite 104.
# ' ' 1 ' 1
Im Falle haben wir zwei verschiedene, nicht reelle, sondern konjugiert komplexe Eigen-
1
werte Re Im . Darum gehen wir derart
ins Komplexe über, daß wir Funktionen betrachten und damit Vektorräume über
erhalten. Eine Basis des komplexen Lösungsraumes ist:
1
0
0
1
0
0
Daraus erhalten wir die folgende Basis des reellen Lösungsraumes:
0
8
8
0
Allgemeine reelle Lösung:
0
0 8 0
' 8 1
'
8 ' Polarkoordinaten
0
0 0
0
0 0 ' 0 1
IX.7 Die gedämpfte und die harmonische Schwingung 103
0
0* 0 mit :1
Funktion:
Bis auf Skalierung und Verschiebung des Nullpunktes ist 0 ein Kosinus-Funktion bzw. Sinus-
Funktion (wegen ). Diese Bewegung der Feder heißt eine harmonische
Kreisfrequenz, 1 1
Schwingung, weil auch die Grundschwingungen einer Saite durch umskalierte Sinus-Funktionen
beschrieben werden. heißt Amplitude,
die Frequenz und
die Schwingungsdauer. 0 heißt die Phasenverschiebung; sie hängt von der Festlegung des
Nullpunktes der Zeitrechnung ab und hat deshalb keine physikalische Bedeutung. Nur wenn zwei
harmonische Schwingungen miteinander verglichen werden,
etwa 0 0 0 und 0 0* 0 ,
dann erhält die Phasendifferenz 0 , 0 zwischen den beiden Schwingungen eine von der Festle-
gung des Zeit-Nullpunktes unabhängige Bedeutung.
7.3.2 Mit kleiner von null verschiedener Reibung
8 .
8
Unter kleiner Reibung soll verstanden werden und Letzteres
8 d. h. 8 9 d. h.
bedeutet:
. Wir erhalten eine gedämpfte (harmonische) Schwingung. Ihre
Es gilt:
8 .
Kreisfrequenz ist
8
)1 bewirkt. Wir könnten das erwarten, weil größere Reibung die Bewegung verlangsamt.
Wir sehen außerdem, daß eine Vergrößerung der Reibung eine Verringerung der Frequenz
Jedoch wird durch eine höhere Reibung auch die Amplitude verkleinert, so daß das mechanische
System auch einen kleineren Weg zurücklegt bei einer Periode. Die Verringerung der Frequenz
ist also nicht von vorneherein zu erwarten. Dabei ist zu beachten, daß die Lösung nicht mehr peri-
odisch ist. Die Durchgänge durch die Ruhelage erfolgen aber noch periodisch. Die Zeitdifferenz
zwischen zwei aufeinanderfolgenden Durchgängen durch die Ruhelage wird Periode genannt.
7.4
Der aperiodische Grenzfall
" (
Im Grenzfall d. h. gibt es nur einen Eigenwert , der reell ist und zwar ist
. Es folgt . Das zugehörige System von zwei Differentialgleichungen 1. Ordnung hat
die nicht diagonalisierbare Matrix:
104 IX Eigenvektoren und Eigenwerte
0 0- 8
Daher lautet die Lösung:
Die Feder passiert genau einmal die Ruhelage, nämlich für 0 8 , und bewegt sich für
ab einem gewissen Zeitpunkt 0 monoton und sehr schnell (exponentiell) auf die Ruhelage zu.
Für 7 muß die Reibung groß nämlich sein. Wir haben zwei reelle und zwar
8 8
negative Eigenwerte
8
0 8
Die allgemeine Lösung lautet:
„Qualitativ“ verhält sich das System ähnlich wie im aperiodischen Grenzfall: Höchstens ein
0
Durchgang durch die Ruhelage, ab einem bestimmten Zeitpunkt monotone Bewegung auf die
Ruhelage zu, die für erreicht wird.
Hier ändert sich nicht viel gegenüber der zugehörigen homogenen Differentialgleichung, da als
spezielle Lösung eine konstante Lösung genommen werden kann und sich die Lösungen nur um
die Addition einer bestimmten Konstante ändern. Die Schwingung findet um diese Konstante
herum statt, und in den letzteren Fällen bewegt sich das System statt auf die Null auf diese
konstante Lage zu.
'
Der Differentialoperator auf dem Vektorraum aller beliebig oft differenzierbaren
Funktionen hat alle reellen Zahlen als Eigenwerte (vgl. 3. Beispiel in 2.4 auf Seite 82). Die
1
Integration ist die Umkehrung der Differentiation und muß daher die inversen Eigenwerte haben;
denn für einen Automorphismus eines Vektorraumes hat genau die inversen
Eigenwerte wie . Das Problem ist hier, daß nur ein Isomorphismus ist, wenn wir von den
konstanten Funktionen absehen können; denn diese bilden den Kern . ist also gar nicht
definiert. Ein erster Versuch, den Integraloperator durch die Definition
1
0 4 0
IX.8 Eigenwerte des Integraloperators 105
eindeutig zu machen. Es stellt sich jedoch heraus, daß dieses keinen Eigenvektor besitzt. Ande-
rerseits ist Integral (,worunter wir ab jetzt eine Stammfunktion verstehen) von ; also
ist doch irgendwie eine Eigenfunktion des Integraloperators zum Eigenwert ! Aber wie? Die
Lösung besteht darin, sinnvoll zu verarbeiten, was es bedeutet, daß ein Integral nur bis auf Ad-
dition einer konstanten Funktion eindeutig bestimmt ist. Nämlich so: Das Integral ist eindeutig
bestimmt modulo des Untervektorraumes der konstanten Funktionen und definiert eine lineare
1 ' '
Abbildung:
(12)
1 ' '
Für und gilt:
(13)
ist also so etwas wie ein „Eigenvektor relativ “ von zum Eigenwert . Die ge-
wöhnlichen Eigenvektoren und Eigenwerte sind im Sinne dieser allgemeineren Definition die
Eigenvektoren und Werte relativ der Identität.
1 ' #
'
und wie in Gleichung (1) zueinander inverse Isomorphismen sind.
11
A. Riede: Lineare Algebra 2, SS 00
106 X Ringe und Algebren
X.1 Ringe
1.1 Definition
1. Ein Ring (mit Eins) ist ähnlich wie ein Körper definiert (s. 5.5 auf Seite 21), jedoch das
Kommutativ-Gesetz der Multiplikation, die Existenz eines Inversen und brauchen
nicht zu gelten, aber zusätzlich muß das links-distributive Gesetz gelten:
2. Gilt auch das Kommutativ-Gesetz der Multiplikation, so sprechen wir von einem abelschen
oder kommutativen Ring.
wobei 1 der Rest bei Division von durch genannt wird. Alle auftretenden Reste
1
'
1
Dann gilt:
"' ;' ist ein kommutativer Ring (mit Eins) .
1.3 Definition
)
9
1 heißt ein Ringhomomorphismus, falls :
und gilt.
Eine Abbildung zwischen Ringen
,
Folgender Abschnitt behandelt ein Beispiel eines Ringhomomorphismus aus der Linearen Alge-
bra.
X.2 Die Ringe und Algebren End
und
2.1 Definition
Sei
, ein Körper und ein -dimensionaler Vektorraum über . Eine lineare Selbstab-
bildung von wird auch ein Endomorphismus genannt.
End 1 ' bezeichne die Menge aller Endomorphismen von
.
1
2. Ist eine Basis von fest gewählt, und bezeichnet die Matrix eines Endomorphismus
bezüglich
End
' ' ' ;'
dieser Basis, dann ist die Zuordnung
.
ein Ringhomomorphismus
2.3 Feststellung
' '
' '
Früher
hatten wir herausgefunden, daß, wenn die Multiplikation mit Skalaren bezeichnet,
End und Vektorräume über sind. Es gilt außerdem:
2.4 Definition
2.5 Satz
End
' ' ' und ' ' ' sind Algebren und
1 End ' ' ' ' ' ' ist ein Algebren-Isomorphismus.
X.3 Moduln
In diesem Abschnitt sei ein Ring mit Eins. Moduln über einem Ring sind eine einfache Verall-
gemeinerung von Vektorräumen über einem Körper. Sie sind grundlegende algebraische Objekte.
3.1 Definition
Ein Modul über ist eine Menge zusammen mit zwei Verknüpfungen, einer Addition + und
einer Multiplikation mit Skalaren mit folgenden Grundeigenschaften:
a) Das assoziative Gesetz: für alle .' und alle
b) für alle
.' #
-'
3. Bezüglich beider Verknüpfungen die Distributiven Gesetze: Für alle und alle
gelten:
a)
b)
Die Definition stimmt also mit derjenigen eines Vektorraumes überein, die Unterschiede betref-
fen nur den Skalarenbereich. Deshalb können für Moduln die gleichen Begriffe abgeleitet werden
und die gleichen Sätze bewiesen werden wie für Vektorräume, insofern die Existenz der Inversen
im Skalarenbereich und die Kommutativität der Multiplikation im Skalarenbereich nicht benötigt
wird. Z. B. machen die Begriffe Untermodul, Linearkombination, lineare Hülle, Erzeugenden-
system, Basis, lineare Abbildung, Kern, Bild, , alternierende Multilinearform genauso einen
Sinn.
X.4 Beweis der Existenz einer Determinantenform 109
1
Der Satz von der Existenz einer Basis eines endlich erzeugten Moduls gilt jedoch nicht; es ist z.
B. ein -Modul mit der Skalarenmultiplikation
'
, aber für prim ist jedes
einelementige System ,
mit dargestellt
werden kann.
' ' ' ' ' ' ' ' die
Manche Moduln haben jedoch eine Basis , z. B.
' ' ' ' ' '
kanonische Basis:
Dabei darf eine Basis nicht als ein maximales linear unabhängiges System über dem Ring
definiert werden.
, B.aberistkein
Z. (2) ein maximales linear unabhängiges System des Moduls
Erzeugendensystem; es erzeugt nur die geraden Zahlen. Ich verwende folgende
Definitionen, die die entsprechenden Definitionen für den Fall eines Körpers verallgemeinern.
3.3 Bemerkungen
Die Definition einer Algebra über einem Körper kann unmittelbar auf den Begriff einer Algebra
über einem Ring übertragen werden.
1
Für freie Moduln und kann die Theorie der linearen und multilinearen Abbildungen
, insbesondere der Bezug zu Matrizen, verallgemeinert werden. Exemplarisch führen wir
die Determinantentheorie in Abschnitt X.4 durch, die wir andererseits auch für die Fortführung
der Eigenwert-Theorie benötigen werden.
' '
Sei eine Determinantenform auf einem -dimensionalen freien Modul über dem kommu-
tativen Ring mit Eins. Sei eine feste Basis von und die
110 X Ringe und Algebren
8
' '
'
8
' '
'
& &
&&
8
&&
'
' '
8
&&
'
' '
siehe
8 8 && ' 8 ' '
sgn 8 8 && ' 8 ' '
Wegen der Multilinearität kann für jede Variable eine Linearkombination aus herausgezo-
gen werden, z. B. für die erste Variable:
'
8 ' '
' 8 '' '
'
'
' ' ' '
Hier braucht nur über paarweise verschiedene ' 8 '' summiert zu werden, weil
sonst der Summand null ist, da zwei Variablen von gleich, alle Variablen also linear ab-
hängig sind. Dann bilden ' 8 ' ' eine Permutation von ' ' ' : ' 8 ' '
X.4 Beweis der Existenz einer Determinantenform 111
' ' ' . Daher kann die Summe als eine Summe über alle Permutationen ge-
schrieben werden.
invertierbar. Im folgenden schrei-
' '
Zu 2: Sei eine weitere Determinantenform. Dann ist
ben wir die Variablen nicht an.
mit 1
fürfür alle , d.
h. ' ' .
(a) Wir zeigen dies zunächst für den Spezialfall, daß zwei Vektoren gleich sind.
Wir spalten die Summe bei der Definition von in eine Summe über die geraden und
sgn
=
gerade
sgn
(Vertauschen
von Faktoren)
(wegen )
112 X Ringe und Algebren
''
-te
-te
-te
' 8 ' ' ; denn alle Faktoren in einem Produkt der Formel sind nur dann und
haben dann den Wert 1, wenn ' ' ' ist. Also hat auf einer
Basis einen invertierbaren Wert, nämlich auf ' '
den Wert 1.
Zu 4: ist die einzige Determinantenform mit Wert für ' ' .
4.2 Bemerkung
beliebige Basis. Dann besagt die 1. Behauptung von 4.1 auf Seite 109 für diese ''
' ' : '' ' ' '' und
Also ist ' ' invertierbar mit Inversem ' ' .
X.5 Polynomring
Dieser Abschnitt behandelt ein wichtiges Beispiel einer Algebra über einem Ring, das wir im
Abschnitt XVI.1 auf Seite 178 bei der Behandlung des charakteristischen Polynoms benötigen
werden. In diesem Abschnitt sei bis Punkt 5.3 auf Seite 115 ein kommutativer Ring mit Eins.
5.1 Definition
Sei ein Element, das nicht angehört; historisch wird es eine Unbestimmte genannt. Dann
besteht der Polynomring in der Unbestimmten aus allen formalen Ausdrücken der Form:
* ! 8 8 &&&
nur eine andere Bezeichnung für und eine andere
&& mit für alle ' ' ' und mit
' variabel. Lies: „ oben null plus oben eins plus ...“.
Diese formalen Ausdrücke können wir uns so vorstellen, wie aus einem Alphabet eine Sprache
gebildet wird: Gewisse Buchstabenzusammenstellungen stellen ein Wort, ein Element, der Spra-
che dar. Statt von Buchstabenzusammenstellungen wird in der Mathematik und Informatik von
X.5 Polynomring 113
Zeichenketten (engl. strings) gesprochen. Als Zeichen werden an dieser Stelle die Elemente von
, das Symbol , das Zeichen + , die natürlichen Zahlen und 0 verwendet; sie bilden hier das
Alphabet. Elemente des Polynomrings sollen genau die Zeichenketten der obigen Form sein. Sie
werden Polynome genannt.
1
Die Elemente von werden hochgerückt, weil wir für ja u. a. noch eine mit * bezeichnete
Multiplikation einführen wollen. Verwenden wir die abkürzende Bezeichnung , dann
wird die Multiplikation gerade so erklärt werden, daß gilt
& &
, wobei das Produkt auf der linken Seite Faktoren hat. Die linke
Seite wird in der Mathematik gewöhnlich mit „ hoch “ bezeichnet. Das auf die Multiplikation
&& für
, so werden die Ausdrücke &&&
bezogene „ hoch “ ist also gleich dem formalen „ oben “.
Ist
und && ' als gleich angesehen. Es kann also bei der Betrachtung zweier
angenommen werden.
dann gilt, weil im Polynomring außer der obigen Identifikation keine weiteren Identifikationen
! für alle
Dies ist der Identitätssatz für Polynome. Er gilt hier also per Definition von Polynomen.
Die heißen die Koeffizienten des Polynoms .
Multiplikation von Polynomen mit Skalaren und Addition + von Polynomen wird koeffi-
zientenweise erklärt, das Produkt zweier Polynome durch die entsprechende Formel, nach der
ganzrationale Funktionen multipliziert werden:
1 <&&
- <&&& .
1.
2.
1
3. 1
mit 1 mit für ,
für #
&' . '' bezieht sich auf die Addition in und die Formel für bezieht
zunächst formal sind; jedoch stellt sich heraus, daß das Polynom &&
sich auf das Produkt und die Summe in , während die übrigen Pluszeichen auf der rechten Seite
auch die Summe der Polynome ' '&&-' bezüglich der Addition in ist.
114 X Ringe und Algebren
Mit diesen Verknüpfungen wird zu einer kommutativen -Algebra, wie wir durch Nach-
rechnen der Axiome überprüfen können.
ist die Eins von und es gilt .
. Die Summe von
Es ist
5
+
und ist in die selbe wie in
:
5
. Das gleiche gilt für das Produkt. .
(Denn für lautet die Formel für so: .) ist eine Unteralgebra von .
(Unteralgebren, Unterringe bzw. Untermoduln einer Algebra, eines Ringes bzw. eines Moduls
sind natürlich so definiert, daß sie Teilmengen des größeren Objektes sind und die betreffenden
Verknüpfungen des größeren Objektes, wenn sie nur auf Elemente des Unterobjektes angewendet
werden, mit den Verknüpfungen des Unterobjektes übereinstimmen.)
Dafür, daß sich jedes Element von eindeutig in der Form darstellen läßt, wird auch
gesagt: Das System, das nur aus einem Element besteht ist eine -Algebra-Basis von .
ist eine algebraische Darstellung von durch die Basis , während wir bei einem Vek-
5.2 Satz
Sei ein beliebiges Element einer -Algebra , dann gibt es genau eine Abbildung 1
mit:
(i) ist Algebrahomomorphismus und (ii) .
1
ist eine kommutative (Unter-) Algebra über von .
Beweis:
&&&
1. Eindeutigkeit
<&&& wegen (ii)
wegen (i)
( )
Also ist
eindeutig.
2. Existenz
Wir definieren
durch ( ). Dann ist leicht nachzurechnen, daß die Eigenschaften
(i) und (ii) hat.
Auch die letzte Behauptung wird durch Nachrechnen bewiesen. Wichtig ist festzuhalten, daß
nicht kommutativ zu sein braucht; Bild( ) ist immer kommutativ. Diese Tatsache benötigen wir
in der Eigenwerttheorie für die nicht kommutative -Algebra End , wobei ein Körper
und ein endlich dimensionaler Vektorraum über ist.
X.5 Polynomring 115
5.3 Definition
1
Abbildungen miteinander.
Sei der Einsetzungshomomorphismus mit Id . Dann gilt:
<&&&
Id Id &&& Id '
&&&
führt also ein Polynom mit den Koeffizienten ' ' ' '
über in die ganzrationale
Funktion mit denselben Koeffizienten. Id
ist die Algebra der ganzrationalen Funk-
1
tionen von nach , die auch mit bezeichnet wird.
Behauptung: ist genau dann ein Isomorphismus, wenn unendlich ist.
Beweis:
Ein Polynom, das nicht das Nullpolynom ist, hat höchstens Nullstellen, wenn der Grad des
Polynoms ist (s. 5.11 auf der nächsten Seite).
Für unendlich können wir also schließen: Geht ein Polynom in die Nullfunktion über, so
unendlich viele Nullstellen, was nur beim Nullpolynom eintreten kann. ist also in-
hat es
!
jektiv; denn auch bei Algebra-Homomorphismen gilt: injektiv Kern , wobei
Kern( ):=
. Surjektiv ist es nach Definition einer ganzrationalen Funktion.
Ist ein Isomorphismus, so gibt es unendlich viele ganzrationale Funktionen, also erst recht
unendlich viele Abbildungen von nach , was nur für unendliches eintreten kann.
5.6 Definition
der höchste Koeffizient von .
3.
' Grad ,
1. Grad
Max Grad wobei das Gleichheitszeichen gilt, wenn
Grad
Grad ist.
2.
'
Grad
Grad Grad
Seien
'
mit , dann gibt es eindeutig bestimmte Polynome ' mit
(a) : und (b) Grad
Grad oder
, d.h.
duktzerlegung
8
Hat jedes Polynom eine Nullstelle in , so heißt der Körper algebraisch abgeschlos-
sen.
Der Körper der komplexen Zahlen ist algebraisch abgeschlossen.
X.5 Polynomring 117
zerfällt vollständig in Linearfaktoren, falls
mit '
8
In einem algebraisch abgeschlossenen Körper zerfällt jedes Polynom in Linearfaktoren. Wir kön-
nen dann die Faktoren mit gleichen zusammenfassen und erhalten eine Darstellung der Form:
8
mit
für und
118 XI Bilineare und damit verwandte Formen
XI.1 Sesquilinearformen
1.1 Einführung
In Abschnitt XI.1 befassen wir uns systematisch mit Bilinearformen bei beliebigem Körper und
für
mit Formen von zwei Variablen, die in der ersten Variablen linear und in der zweiten
Variablen semilinear sind. Dabei sei die erste Variable aus einem -dimensionalen Vektorraum
und die zweite Variable aus einem -dimensionalen Vektorraum über . Dabei darf
sein, wofür wir gleich ein wichtiges Beispiel angeben.
1.1.1 Definitionen
1
(' ' ' '
Eine Bilinearform auf ist eine Abbildung , so daß
Dabei ist das konjugiert Komplexe von . In Punkt 1.2 auf der nächsten Seite.5 werden wir
den Begriff einer Sesquilinearform in einem verallgemeinerten Sinne betrachten.
Warum wir mitbetrachten, liegt daran, daß wir folgendes 1. Beispiel einschließen wollen:
1.1.2 Beispiele
In Kapitel VIII auf Seite 69 haben wir erst reelles, dann komplexes Standard-Skalarprodukt be-
handelt und anschließend gezeigt, daß der reelle und komplexe Fall eines allgemeinen Skalarpro-
duktes gleichzeitig behandelt werden kann. Dabei wurde benutzt, daß die komplexe Konjugation
ein Körper-Isomorphismus ist, dessen zweimalige Anwendung die Identität ergibt, und daß die
Anwendung der komplexen Konjugation auf reelle Zahlen die Identität ist. Mit dem gleichen
einfachen Trick können auch Bilinearformen und Sesquilinearformen unter einen Hut gebracht
werden, wie wir im folgenden präzisieren:
1 81
1.2.1 Definition
Id . Bezeichnen wir
Eine (Körper)-Involution des Körpers ist ein Körper-Isomorphismus
mit , so ist ein Körper-Isomomorphismus
mit
gekennzeichnet
durch:
3. ist bijektiv.
Da aus 8
Id die Bijektivität von folgt, hätte es gereicht statt Körper-Isomorphismus nur
Körper-Homomorphismus zu verlangen.
1
1.2.2 Voraussetzung
Für das folgende sei stets ein Körper mit Involution ; wir verwenden die Bezeichnung:
.
1.2.3 Folgerungen
, , # # ,
1.2.4 Beispiele
1. beliebig und Id
Wir bringen nun die bisherigen Begriffe Bilinearform und Sesquilinearform unter einen Hut,
wenn wir definieren:
120 XI Bilineare und damit verwandte Formen
1.2.5 Definition
1
(' ' "' '
Eine Abbildung heißt eine Sesquilinearform auf (im gegenüber 1.1.1
gilt:
verallgemeinerten Sinne), wenn
Linearität in 1. Variablen: '
' ' +' ( '
Semi-Linearität in der 2.: ('
((''
(' '
('
('
Ist Id , so ist eine Sesquilinearform nichts anderes als eine Bilinearform. Für und
1.1.1. Für
erhalten wir den Begriff einer Sesquilinearform im speziellen Sinne von Definition
sagen wir anstelle von „Form auf “ auch „Form auf “, obwohl
der Definitionsbereich ist.
' 8 ' ' ' 8 '' eine Basis von . Für eine Sesquilinear-
1.3.1 Definition
Sei eine Basis von ,
form auf sei
1 '
' 1
Dann heißt die Matrix der Sesquilinearform bezüglich der Basen ' 8 ' ' und
' 8 ' ' .
1.3.2 Satz Die Spalte bezeichne die Koordinaten von und die Spalte
die
Koordinaten von bezüglich der Basen und
.
1. Durch ihre Matrix ist die Sesquilinearform eindeutig bestimmt; wenn wir mit das
Matrizen-Produkt bezeichnen, gilt:
('
2. Ist die Matrix beliebig vorgegeben, so wird durch die vorstehende Formel eine
Sesquilinearform definiert, deren Matrix ist.
3. Die Sesquilinearformen auf bilden bezüglich
Multiplikation mit Skalaren einen -Vektorraum
wertweiser Addition und wertweiser
Wir erhalten einen (von den
Basen abhängigen) Vektorraum-Isomorphismus:
1
'
Beweis: Zu 1:
XI.1 Sesquilinearformen 121
(' '
'
1. Gleichung in Punkt 1
' ' .
..
Zu 2: Daß durch die Formel im 1. Punkt eine Sesquilinearform definiert wird, ist leicht zu
sehen und im Zweifelsfalle direkt nachzurechnen. Daß die Matrix von diesem die vorgegebene
' ' ' ' ' ' bezüglich ' ' hat und die Koordi-
Matrix ist, sehen wir so ein:
Da die Koordinaten
' ' -te
Linearität von : Für '
gilt:
'
'
'
1. Punkt
Injektivität von
2. Punkt
Surjektivität von
1.3.3 Transformationsformel
2. Für wird im 1. Punkt
und genommen. Dann lautet die
Transformationsformel:
122 XI Bilineare und damit verwandte Formen
Beweis:
'
' 0
0
'
0
8
1.4.2 Lagrange-, Graßmann- und Jakobi-Identität
Im mit dem Standard-Skalarprodukt gilt:
3.
5.
Jacobi-Identität
XI.1 Sesquilinearformen 123
Beweis: Zu 1:
In der Lagrange-Identität sind beide Seiten in Abhängigkeit von 4-fache Linearfor- (' "' '
men. Sie stimmen daher überein, wenn ihre Werte für vier beliebige Basisvektoren gleich sind.
Letzteres ist leicht nachzurechnen für die Standard-Basis, wenn noch folgendes beachtet wird:
oder
Für sind beide Seiten gleich null und bei Vertauschung von mit oder von
"'
(' '
Zu 5:
(' "'
' # .' # .' ('
(zyklisch vertauscht)
.' +'
.' ('
(nochmals zyklisch vertauscht)
Beim Aufaddieren dieser drei Gleichungen heben sich rechts die unterstrichenen und die gestri-
chelt unterstrichenen und die überhaupt nicht markierten Terme paarweise weg. Es bleibt die
Jakobi-Identität stehen.
124 XI Bilineare und damit verwandte Formen
1.4.3 Bemerkung Dies alles gilt entsprechend für einen orientierten dreidimensionalen eu-
klidischen Vektorraum. Zum Beweis muß dann eine positiv orientierte, orthonormierte Basis
herangezogen werden.
1. Halten wir bei einer Sesquilinearform die erste Variable fest, so haben wir bezüglich der
zweiten Variablen eine semi-lineare Abbildung:
1 ' 1 ( '
.) liegt also im
1 1 ' . Der Index soll hierbei auf semi-
(semi-linear bedeutet additiv und semi-homogen d. h.
semi-linearen Dualraum von
3. Die Abbildung
1
' '
1 ' ('
ist linear. ist sogar ein kanonischer (d. h. nicht von einer Basis abhängiger) Isomorphis-
( ' 1
1
mus, dessen inverser der folgende Homomorphismus ist:
1 '
mit
'
Fazit:
auch als eine lineare Ab-
Wir können in kanonischer Weise eine Bilinearform 1
bildung von nach auffassen und umgekehrt; und zwar sogar so, daß der ganze Vektorraum
der Sesquilinearformen isomorph zum Vektorraum der linearen Abbildungen von nach
ist.
Beweis:
Zu 1: Da semi-linear in der zweiten Variablen ist, ist
eine semi-lineare Abbildung.
Zu 2: Wir zeigen exemplarisch, daß
homogen ist. Für alle und alle gilt::
nach Definition von
(('' nach
Definition von
da Abbildungen gleich, wenn alle Werte gleich
Zu 3: Wir zeigen exemplarisch, daß additiv ist. Für alle
und alle gilt:
XI.1 Sesquilinearformen 125
('
Definition von
Definition von
Definition von
(' ('
wertweise Addition von linearen Abbildungen
Definition von und
wertweise Addition von und
Definition von
Abbildungen gleich alle Werte gleich
< .
('
Für alle und alle
gilt:
Definition von
('
Definition von
Definition von
Sei
1.5.2 Feststellung
die Matrix von bezüglich der Basen
bzw.
Sei die zu
duale Basis von
.
Sei die Matrix von
bezüglich und .
Dann gilt:
Beweis:
. Also
ist
Zur Erinnerung: Die -te Koordinate einer Linearform bezüglich ist
die -te Koordinate des Bildes des -ten Basisvektors,
, d. h. '
1.5.3 Beispiel: Das zweite Differential und die Hessesche Form
1. Sei
eine offene Menge und eine differenzierbare Abbildung in einen 1
endlich-dimensionalen reellen Vektorraum . Dann ist das Differential an der Stelle
4 1 4
4 1
' ' 4
eine lineare Abbildung und das Differential von eine Abbildung
2. Für , d. h. )1
erhalten wir als Differential eine Abbildung in den Dualraum:
4 1
' ' 4
126 XI Bilineare und damit verwandte Formen
4
3. Daß wie in Punkt 2 zweimal differenzierbar ist, bedeutet nach Definition der zweiten
Ableitung, daß die Abbildung in Punkt 2 differenzierbar ist. Im Hinblick auf Punkt 1 ist
jetzt
und es folgt:
48 1 4 4 1
4 8 ' '
'
'
d. h.
Beweis der Äquivalenzen:
1.
2.:
2. 1.:
.8 und
.8 seien die Koordinaten von bzw. von . Dann
..
..
folgt, wenn das Matrizenprodukt bezeichnet:
('
'
1.6.2 Diagonalisierung
(a) Sei symmetrische Bilinearform auf reellem -dimensionalem Vektorraum oder hermite-
sche Form auf komplexem -dimensionalem Vektorraum.
XI.1 Sesquilinearformen 127
Dann hat die Matrix von bezüglich einer geeigneten Basis eine Diagonalgestalt wie
(b) Sei symmetrische Bilinearform auf komplexem -dimensionalem Vektorraum.
Dann hat die Matrix von bezüglich einer geeigneten Basis eine Diagonalgestalt wie
unten mit -mal 1 in der Hauptdiagonalen und = Rg( ).
(' 8 &&& 8
Die geometrische Bedeutung von wird in 1.7.1 geklärt und die von und
werden später
behandelt (s. 3.2.6).
..
. ..
.
-1
..
.
.. ..
(a)
. (b)
.
-1
..
.
..
.
Wir betrachten Elementarmatrizen. In stehe das in der -ten Zeile und -ten Spalte und es
ist . Bei steht das dann in der -ten Zeile und -ten Spalte.
Bei 8 sei und stehe an der -ten Stelle in der Hauptdiagonalen.
.. ..
.
.
.. .. .. ..
. .
.
.
..
.
..
.
..
. ..
.
8
8
..
.
..
.
128 XI Bilineare und damit verwandte Formen
liefert
Matrizenmultiplikation 8 liefert:
8 liefert
Da Elementarmatrizen regulär sind, können wir sie als Matrizen von Basistransformationen
verwenden.
transformiert sich die Matrix einer Sesquilinearform so, daß eine elementaren Zeilenumfor-
mung und anschließend die entsprechende Spaltenumformung durchzuführen ist, in welcher der
Koeffizient noch durch zu ersetzen ist.
Die elementaren Umformungen wenden wir nun so an:
'
1. Ist , so können wir, falls ein
Umformungen vom Typ I erreichen, daß
ist für ein
mit
wird; falls ein
, durch elementare
ist, geht dies mit
Zeilen- und entsprechenden Spalten-Vertauschungen (elementare Umformungen vom Typ
1
III). (Ersteres geht übrigens nicht bei beliebigem Körper. Es muß ein Körper sein, in dem
ist.)
werden. Wegen der Semisymmetrie wird dabei auch die erste Zeile rechts von
ausge-
räumt!
3. Falls außer
noch weitere Matrixelemente vorhanden sind, können wir durch ele-
mentare Umformungen vom Typ I oder III erreichen, daß 8 8
wird. Anschließend
räumen wir wieder unterhalb und rechts von 8 8 aus. Indem wir so fortfahren, erhalten wir
schließlich eine Diagonalgestalt, in der die ersten Elemente in der Hauptdiagonalen
, woraus für folgt
sind.
4. Im Falle a) gilt für die Matrix der Sesquilinearform
noch so anordnen, daß zuerst alle und dann die kommen. Die Anzahl der Elemente
liefert
in der Hauptdiagonalen muß der Rang von sein, da elementare Umformungen den
Rang nicht ändern.
XI.1 Sesquilinearformen 129
5. Im Falle b) ist
, liefert keine Einschränkung für die .
Id . Symmetrie,
Wir setzen für '' 1 eine der beiden komplexen Wurzeln aus .
Multiplikation der -ten Zeile mit und der -ten Spalte mit liefert den Koeffizienten 1
in der Hauptdiagonalen für
' ' .
1.6.3 Beispiel:
5' kK
8
8
/ 8 8
*
8 8
8 8
'
8 8 ' 8
8 8 8
1.6.4 Beispiel: Eine hermitesche Form mit folgender Matrix, in der alle Elemente in der
Hauptdiagonalen 0 sind, ist zu diagonalisieren:
- '
8
'
8
8 8
130 XI Bilineare und damit verwandte Formen
8 8
1. 1
(' für alle # ist ein -Untervektorraum, der Ausar-
tungsraum von bezüglich der ersten Variablen. (Bezüglich der zweiten Variablen analoge
Definition).
2. Kern
3. Die geometrische Interpretation von = Rg( ) lautet (vgl. 1.6.2):
Dim
ist also unabhängig von den Basen, bezüglich derer gebildet war.
Beweis:
! ( ' !
!
!
!
Kern
3. Die Rangformel für
1
liefert: Dim Dim Kern
Rang
oder
1.7.2 Beispiel
..
mit -mal die Matrix einer Sesquilinearform
.
Ist .
..
1 bezüglich der Basis '' , so ist ' ' .
XI.2 Sesquilinearform und geometrische Begriffe 131
1.7.3 Definition
Sei Dim
Dim
einer nicht ausgearteten Sesquilinearform
. Eine Sesquilinearform heißt nicht ausgeartet, falls eine der folgenden
untereinander äquivalenten Bedingungen erfüllt ist:
.
1. Der Ausartungsraum bezüglich der ersten Variablen ist der Nullraum
mus.
!
Beweis der Äquivalenzen:
1. ! 3.: Dim ! ! ist regulär.
4. ! 3.: Analog
2. ! 3.: Der Leser möge selbst das Argument angeben.
' +'
heißt die zu adjungierte (genauer rechts-adjungierte) lineare Abbildung.
2.2.2 Beispiel
Der
mit seinem kanonischen Skalarprodukt und ist das Standardbeispiel eines geo-
metrischen Vektorraumes.
2.3 Isometrien
2.3.1 Beispiel: Isometrien des
Eine lineare Abbildung des , die das kanonische Skalarprodukt erhält, für die also gilt
' +'
('
wird eine Isometrie genannt. Diese Bezeichnung kommt daher, daß, wenn das Skalarprodukt
' ('
erhalten bleibt, metrische Größen wie Länge eines Vektors oder Winkel zwischen zwei Vektoren
erhalten bleiben, d. h., daß , gilt. In Verallgemeinerung
hiervon wird definiert:
' 1
2.3.2 Definition einer Isometrie
'
Sei
ein geometrischer Vektorraum. Eine lineare Abbildung heißt eine
' ('
Isometrie von , falls die Form invariant läßt, d. h., wenn gilt:
+'
2.3.3 Satz über die Inverse und die Matrix einer Isometrie
Für einen Endomorphismus eines geometrischen Vektorraumes sind äquivalent:
2.
3. Sei die Matrix von bezüglich einer Basis von und die Matrix von bezüglich
, dann gilt:
' gilt:
2.3.4 Allgemeine und Spezielle Isometrie-Gruppe Für einen geometrischen Vektor-
raum
1. Isometrie von
Isometrie von
2. (' Isometrien von
5 Isometrie von
2.4 Orthogonalität
'
2.4.1 Definition
Sei ein geometrischer Vektorraum, bei dem halb symmetrisch oder halb schiefsymme-
heißt orthogonal zu 1 ! 1 ! ('
trisch ist. Dann wird in Verallgemeinerung des Orthogonalitätsbegriffes im definiert:
Wegen der Voraussetzung an ist dann auch senkrecht auf , so daß wir sagen können, und
sind orthogonal aufeinander.
Für 1
Die Matrix von hat dann bezüglich ' 8 ' ' Diagonalgestalt mit den ' '
als Dia-
gonalelementen.
3.1.2 Definitionen
Bildung des konjugiert Komplexen bezeichnet.
Beide Fälle fassen wir zusammen als semi-symmetrisch: "'
(' , wobei der
Querstrich die Anwendung der Involution bezeichnet.
Dies wird für [1] auch schiefsymmetrisch und für [2] schiefhermitesch genannt.
3. Sei eine semi-symmetrische Sesquilinearform auf . Dann heißt
;1 ' 1 ( '
die zu gehörige semi-quadratische Form, für [1] auch einfach quadratische Form.
1.
Das ist im Falle [1] die leere Bedingung, im Falle [2] bedeutet es, daß die Werte von in
liegen.
2. '
8 für
8 für
3. Durch die folgende Festsetzung ist eine symmetrische Bilinearform definiert:
(' 1
3.1.4 Definition einer semi-quadratischen Form
1
Bei beliebigem Körper mit Involution (Es darf hier auch sein.) heißt eine Abbildung
mit den ersten drei Eigenschaften von 3.1.3 eine semi-quadratische Form auf , für
[1] auch einfach quadratische Form .
Beweis der Eigenschaften:
('
< "' (' '
4.
Re (' Re (' d. h. Re
und im Falle [2]:
3. Für [1] folgt die Behauptung aus Punkt 4, weil das zweifache einer Bilinearform wieder eine
Bilinearform ist.
Re
1
Für [2] folgt es ebenfalls aus Punkt 4, wenn wir noch beachten, daß
eine symmetrische Bilinearform ist. Letzteres kann direkt nachge-
rechnet werden.
.
.
Matrix :
1 .. 1 Det ... ..
..
.
In der Literatur werden die auch Hauptminoren genannt. Für eine semi-symmetrische Ses-
symmetrische Sesquilinearform mit Matrix bezüglich irgendeiner Basis
quilinearform sind die Hauptunterdeterminanten auch im komplexen Falle reell. Eine semi-
'' ist genau dann positiv definit, wenn alle Hauptunterdeterminanten von positiv
sind.
Beweis:
ist die Matrix von , der auf 1 '' eingeschränkten Form. ist
eine semi-symmetrische Sesquilinearform auf , folglich gilt: Det
1.
Daraus folgt die Behauptung.
3. Sei positiv definit. Dann hat als Diagonalform die Matrix (Einheitsmatrix).
Ihre Determinante ist 1 also
. Nach obiger Feststellung gilt dann Det
bezüglich
' '
jeder beliebigen Basis. Da die Matrix von ist und auch positiv definit ist, folgt
für alle .
XI.3 Semi-quadratische Formen 137
. Wir zeigen durch Induktion, daß positiv definit ist für
' '
4. Seien umgekehrt alle
.
Induktionsbeginn: hat die Matrix
. bedeutet
" , folglich ist
mit ..
Induktionsannahme: Sei positiv definit für ein
.
Induktionsschluß: Wir wählen eine Orthonormalbasis von , ergänzen Sie zu einer Basis
von . Dann hat
eine Matrix der folgenden Form
..
...
' welche durch Ausräumen übergeht in: .
.. .. ..
. . .
&& && && 4
4 <
Bei diesem Ausräumen ändert sich die Determinante wegen der Scherungsinvarianz einer De-
%
terminantenform nicht. Da die letze Matrix positive Determinante hat, folgt
.
und damit ist
3.2.5 Definition und Satz vom Rang
aus dem Diagonalisierungssatz 1.6.2 die maximale Dimension eines
Sei eine semi-symmetrische Sesquilinearform auf und die zugehörige quadratische Form,
dann ist die Zahl der
Untervektorraumes , so daß die Einschränkung von auf nicht ausgeartet ist. heißt der
Rang von , 1 , oder der Rang von , Rang 1
. Ist die Matrix von bezüglich
Beweis: 1 Max Dim Untervektorraum von mit nicht ausgeartet
1 1 ' .' .' ' .'
a)
Matrix
..
.
.
..
Also ist
nicht ausgeartet. Dim
b)
Sei irgendein Untervektorraum mit nicht ausgeartet. Dann gilt:
138 XI Bilineare und damit verwandte Formen
''
Denn für '' und folgt:
('
'
'
Das bedeutet, Ausartungsraum von . Dies ist aber der Nullraum, da nicht
ausgeartet ist. Also muß gelten. Wegen ' ist die Summe
'
' ' eine direkte Summe und es folgt:
' '
Dim ' ' Dim Dim
Dim
Dim
a) und b)
.
..
.
..
mit -mal in der Hauptdiagonalen übergeführt werden kann,
2. daraus, daß sich bei elementaren Umformungen der Rang nicht ändert und
3. Rang ist.
3.2.6 Sylvesterscher Trägheitssatz und Trägheitsindex
Sei eine semi-symmetrische Sesquilinearform auf dem Vektorraum und die zugehörige
..
.
..
.
..
.
:= Anzahl der -1 in .
Dann gilt: 4
heißt der Sylvestersche Trägheitsindex
heißt die Signatur von bzw. von .
oder kurz der Index von bzw. von .
Beweis:
a)
'' eine Basis, bezüglich der eine Diagonalgestalt der Form
1 '' Dann ist positiv definit.
Sei hat.
Dim
b)
Sei ein beliebiger Untervektorraum mit positiv definit. Dann gilt:
1 ' ' ; denn aus
ist positiv definit folgt,
ist sowohl negativ semi-definit als auch positiv definit. Das geht nur, wenn
ist.
' ' ist eine direkte Summe.
' '
Dim '' Dim Dim
Dim
Dim
Für
wird analog geschlossen.
140 XI Bilineare und damit verwandte Formen
Nach der Terminologie aus Kapitel XI auf Seite 118 ist ein Skalarprodukt dadurch charakterisiert,
daß es eine nicht ausgeartete, semi-symmetrische Sesquilinearform mit Index 0 ist. Statt Index
= 0 können wir äquivalenterweise auch positive Definitheit verlangen.
1.2 Der Isomorphismus mit
Nach XI.1.5.1 bestimmt das Skalarprodukt einen Isomorphismus von mit dem semi-linearen
'
13
A. Riede: Lineare Algebra 2, SS 00
142 XII Vektorräume mit Skalarprodukt 2
zwischen einem Paar von Vektoren im Intervall
und +' werden durch:
Det
Dabei sei Det diejenige Determinantenfunktion von , die für eine positiv orientierte und or-
thonormierte Basis den Wert 1 hat. Dieser Winkel heißt der orientierte Winkel zwischen und
.
' 8 ' 8
Diese Definition ist konform mit den Formeln in der euklidischen Anschauungsebene für den
bzw. kartesische Koordinaten der von
Flächeninhalt eines Parallelogramms: Sind
('
null verschiedenen Vektoren bzw. und der Winkel zwischen und , dann hatten wir aus
der Anschauung für im 1. Quadranten die folgenden Formeln gefunden:
8 $ 8 Daraus folgt:
8 Det + '
8
' eindeutig festgelegt. Zu zeigen
Also ist die obige Definition von konform mit der anschaulichen euklidischen Vorstellung.
Durch Angabe von
und
Det ( ' , damit die Definition von sinnvoll ist.
ist im Intervall
bleibt:
8 8
8
2.2 Bemerkung
Es kommt auf die Reihenfolge von (' an, da es bei der Determinante auf die Reihenfolge
' ('
ankommt.
XII.2 Zur Winkel- und Volumenmessung 143
(In höheren Dimensionen kann kein orientierter Winkel kanonisch definiert werden! Auch kann
nicht für alle zweidimensionalen Untervektorräume eines höher dimensionalen Vektorraumes
„kanonisch“ eine Orientierung gewählt werden !)
;
'
%'
Der Vektor
heißt das Lot von auf und die orthogonale Projektion von auf . Die
/'
Abbildung
heißt orthogonale Projektion von auf . Ist '' eine Basis von , so sind und
gegeben durch:
'
! ('
' !
' ('
''
1
' '
Dabei ist
das von ' ' aufgespannte Parallelflach, und die Länge des Lotes
von
auf die lineare Hülle von '' . wird auch die Höhe des Parallelflachs bezüglich
genannt und
das Volumen nicht von der Reihenfolge der Vektoren ' ' abhängt. Dies ist der Fall, wenn
Grundfläche gewählt wird, und wie das gegebenenfalls zu beweisen ist; anders ausgedrückt, ob
das Volumen wie folgt durch eine Determinantenform definiert wird. Wir werden zeigen, daß
beide Definitionen äquivalent sind. Damit ist die aufgetrete Frage beantwortet: Die Definition
des Volumens ist unabhängig von der Reihenfolge der Vektoren.
Beweis: Im folgenden bezeichnet Det, ohne, daß dies in der Bezeichnung zum Ausdruck ge-
' '' ist eine Basis von ' ' , die wir mit dem Schmidtschen Orthonorma-
lisierungsverfahren orthonormalisieren zu '' .
haben wir deswegen als ersten Vektor
genommen, damit wir nach dem ersten Schritt des Schmidtschen Verfahrens erhalten:
und
.
bezeichne die Koordinaten von ' ' bezüglich ' ' .
bezeichne
die Koordinaten von ' ' bezüglich der Basis 8 ' ' . Dann folgt:
Det ' '
Det
' '
' ..
.
XII.3 Beziehungen zwischen Vektorräumen über und 145
Det
' '
nach dem Entwicklungssatz
Det ' '
' '
' ' ' ' '
Ist eine Basis des komplexen Vektorraumes und die imaginäre Einheit,
dann ist eine Basis des reellen Vektorraumes , insbesondere gilt:
Dim( )=2 Dim( )
Sei ein reeller -dimensionaler Vektorraum. Dann wird die komplexe Erweiterung oder Kom-
plexifizierung von definiert durch:
1 (' von
('
1. als Mengen. Die Vektoren von sind also die geordneten Paare
Vektoren von .
2. Die Summe von (' und ' wird mit bezeichnet und definiert durch:
+ ' ' 1 ' , wobei auf der rechten Seite beide Male die Addition
(' 1 "&" ' " & . Dabei bezeichnen die Punkte rechts jeweils die
bezeichnet und definiert durch:
Skalarenmultiplikation in .
Hierdurch ist ein komplexer Vektorraum erklärt. Er heißt die komplexe Erweiterung von .
Der Nullvektor ist natürlich
Linke Seite: (
' " '
' $
ungsebene ein Punkt der -Achse mit dem Punkt
wird. Dann ist und es gilt:
wir wie üblich je nach Zweckmäßigkeit auch weglassen und mit dem gewöhnlichen
Plus-Zeichen. Diese beiden vorstehenden Punkte bedeuten, daß reeller Untervek-
torraum von ist.
' , denn:
- (' &" ' '
2.
durch Multiplikation mit einer regulären Matrix auseinander hervor:
Re
Im
XII.3 Beziehungen zwischen Vektorräumen über und 147
'
('
'
für gewisse
und
Erzeugendensystem von
'
da
'
b) Lineare Unabhängigkeit über von '' :
.
Sei
,
'
'
'
!
und
und
für alle ' ' , da ' ' über linear unabhängig.
3.4 Die komplexe Erweiterung einer linearen Abbildung
End und '' eine Basis von . Dann ist die komplexe Erweiterung
von definiert durch:
Sei
End
1
Es gilt:
148 XII Vektorräume mit Skalarprodukt 2
3. Insbesondere ist bezüglich ' ' reell und für die charakteristischen Polynome
gilt .
4. Jeder Eigenwert von ist entweder reell oder mit ist auch ein Eigenwert. Ist Eigen-
vektor von zum nicht reellen Eigenwert dann ist Eigenvektor von zum Eigenwert
.
und ein nicht reeller Eigenwert von , dann gilt
Beweis zu 4.:
Sei
. Bilden wir auf beiden Seiten das konjugiert Komplexe dann erhalten wir, da die
reell sind,
. Also ist auch ein Eigenwert.
Ist ein Eigenvektor zu dem nicht reellen Eigenwert , dann gilt
. Bildung des konjugiert Komplexen liefert:
nach Definition von
nach
' ein Skalarprodukt auf , dann ist die komplexe Erweiterung ' so definiert, daß für
'* gilt:
Sei
alle
3.6 Bemerkung
' '
Wir hätten in Abschnitt IX.3 auf Seite 83 über die Hauptachsentransformation selbstadjungierter
Abbildungen auch diese Komplexifizierung und verwenden können. Einen Vorteil
hätte es uns nicht gebracht. Wenn jedoch nur im Komplexen eine Diagonalform existiert und
im Reellen nicht, dann werden wir im folgenden aus dieser Komplexifizierung Nutzen ziehen
können. Der Unterschied zur früheren Betrachtung ist, daß und (als
Mengen).
Jeder unitäre Endomorphismus eines unitären Vektorraumes ist bezüglich einer orthonor-
mierten Basis diagonalisierbar.
Beweis:
1 ' '
Im Komplexen gibt es stets einen Eigenwert und zu ihm einen normierten Eigenvektor .
1 8' '
Wir setzen und ergänzen zu einer orthonormierten Basis von .
ist dann ein algebraisches Komplement von . ist invariant bei
, d. h.
; denn:
' ' ' /
' " ' " , da ein Eigenwert einer unitären Abbildung
ist. 8 ' '
ist
und dann auch
Wegen hat die Matrix von bezüglich ' ' die Gestalt:
. .8 8 8.
.. .. ..
8
1
ist wieder eine unitäre Abbildung und wir können (wie in IX.3 auf Seite 83)
induktiv schließen, daß sich aus der Diagonalisierbarkeit von die Diagonalisierbarkeit von
ergibt, und zwar jeweils bezüglich orthonormierter Basen.
150 XII Vektorräume mit Skalarprodukt 2
<1
' ,'
' '
Es gibt eine orthonormierte Basis, bezüglich der die Matrix einer orthogonalen Abbildung
die folgende Normalform hat mit und .
..
.
..
.
..
.
..
.
' '
Die geometrische Interpretation dieser Normalform ist folgende: zerfällt in die direkte Summe
von zweidimensionalen Untervektorräumen , den Eigenvektorraum
zum Eigen-
wert 1, falls 1 als Eigenwert auftritt, und den Eigenvektorraum zum Eigenwert -1, falls -1
'
als Eigenwert auftritt. Diese Untervektorräume stehen alle paarweise aufeinander senkrecht. Bei
und gedreht,
wird jeder um einen Winkel wird am Nullpunkt
gespiegelt und identisch abgebildet.
In anderen Worten: Die allgemeinste orthogonale Abbildung besteht aus Drehungen von zuein-
ander paarweise orthogonalen Ebenen. Das orthogonale Komplement der direkten Summe dieser
Ebenen wird orthogonal an einem Unterraum gespiegelt.
Beweis:
Wir gehen über zur Komplexifizierung . ist unitär und hat daher Eigenwerte 1
vom Betrag 1 und nach 4.1 auf der vorherigen Seite und 3.4 auf Seite 147 eine Diagonalgestalt
bezüglich einer komplexen orthonormierten Basis aus Eigenvektoren:
' ' ' ' ' ' ' ' '
' ' ' ' ' '' ' ' ' mit nicht reell für ''
.
zu den Eigenwerten
' '
transformieren wir folgendermaßen auf reelle orthonormierte Vektoren:
1 9 ' 1
Für
,
Die umgekehrte Transformation lautet:
"
für ' und . Daraus ergibt sich:
Da den Betrag 1 hat, können wir schreiben in der Form:
und analog: 9
Daraus sehen wir, daß die Matrix von bezüglich ' ' ' ' ' ' ' eine Form
' '
Für einen dreidimensionalen euklidischen Vektorraum gibt es sechs Normalformen orthogonaler
Abbildungen, die folgende Bezeichnungen tragen, wobei ist.
Drehung um eine Achse Drehspiegelung Identität
Orthogonale Spiegelung Orthogonale Spiegelung Orthogonale Spiegelung
an einer Ebene durch an einer Geraden durch am Nullpunkt
Aus der Diagonalisierung selbstadjungierter Abbildungen wird sich die Diagonalisierung semi-
symmetrischer Sesquilinearformen ergeben.
152 XII Vektorräume mit Skalarprodukt 2
5.1 Satz
(' 1 '
'
Bezüglich einer orthonormierten Basis ' ' bezeichne
die Matrix von
die Matrix von . Dann gilt:
und
1.
Beweis:
-te Koordinate von
'
'
2. Wir übergehen den (einfachen) Beweis, daß linear ist und zeigen nur die Bijektivität von
. Sehen wir das Transponieren als eine Abbildung
1
, die Matrizenzuordnungen
ebenfalls als Abbildungen an, so bedeutet ,
, wobei noch
Basis heißt Hauptachsentransformation. Die Eigenwerte und Eigenvektoren der zu gehörigen
symmetrischen Abildung , nennen wir auch die Eigenwerte und Eigenvektoren von .
XII.6 Ausblick auf physikalische Anwendungen 153
Beweis: Da eine selbstadjungierte Abbildung bezüglich einer orthonormierten Basis mit reellen
Zahlen in der Hauptdiagonalen diagonalisiert werden kann, geht dies nach 5.1.1 auch für eine
semi-symmetrische Sesquilinearform.
5.3 Bemerkung
;1 1 (' für alle
.
Wir betrachten den Fall . Die zur symmetrischen Bilinearform gehörige quadratische
8
Sind alle Eigenwerte positiv, dann ist ist für eine Ellipse, für
ein Ellipso-
id, deren Achsen Eigenvektoren darstellen. Die Längen der Hauptachsen der Ellipse bzw. des
Ellipsoids sind . Dieser Zusammenhang mit den Achsen einer Ellipse bzw. eines
Ellipsoids erläutert die Bezeichnung „Hauptachsentransformation“.
6.1 Trägheitstensor
In der Mechanik des starren Körpers führt die Betrachtung von Trägheitsmomenten bezüglich ei-
1
ner Drehachse auf den sogenannten Trägheitstensor. Er kann einerseits als eine selbstadjungierte
1
lineare Abbildung , andererseits als die zugehörige symmetrische Bilinearform
1
aufgefaßt werden mit zugehöriger quadratischer Form . Die
(' 5'
Eigenwerte des Trägheitstensors heißen Hauptträgheitsmomente und die Fläche das
Trägheitsellipsoid. Mit diesen Bezeichnungen gilt:
'
1. Die Abhängigkeit des Trägheitsmomentes von der Drehachse wird beschrieben durch:
2. Die kinetische Energie ist (bei festem Schwerpunkt) eine Funktion des Vektors der
Winkelgeschwindigkeit, und zwar :
8
3. Der Drehimpulsvektor ist ebenfalls eine Funktion von , und zwar:
154 XII Vektorräume mit Skalarprodukt 2
David Hilbert (1862-1943) schuf Anfangs dieses Jahrhunderts eine Theorie von symmetrischen
unendlichen Matrizen und führte dabei den Begriff eines Spektrums als rein mathematischen
Begriff ein:
Erst ca. zwanzig Jahre später wurde erkannt, daß dieser mathematische Begriff Atom- und Mo-
lekülspektren beschreibt.
Unser Satz von der Diagonalisierbarkeit ist die endlich dimensionale Version des sogenannten
Spektralsatzes für selbstadjungierte lineare Selbstabbildungen gewisser unendlich dimensionaler
Vektorräume mit Skalarprodukt –der Hilberträume.
XIII.2 Affiner Raum 155
Wir nennen im folgenden die in III. 6.1 auf Seite 22 synthetisch definierten affinen Ebenen
Desargues-Ebenen, um sie zunächst von den analytisch definierten affinen Räumen zu unter-
14
A. Riede: Lineare Algebra 2, SS 00
156 XIII Grundbegriffe der affinen Geometrie
scheiden, die wir jetzt definieren wollen. (In der Literatur werden unter Desargues-Ebenen auch
diejenigen verstanden, bei denen die Pappos-Eigenschaft nicht gilt, d. h. zu denen ein nicht kom-
mutativer geometrischer Körper gehört. Der eigentliche Satz von Desargues ist noch allgemeiner;
er folgt aber leicht aus der hier behandelten Parallelitätseigenschaft von Desargues (sogar in der
projektiven Geometrie). Analog verhält es sich mit der Parallelitäts-Eigenschaft von Pappos und
dem allgemeinen Satz von Pappos.)
zeichne die Äquivalenzklasse des Pfeiles vom Punkt nach dem Punkt . Dies definiert eine
1 ' : '
1
'
Abbildung
(A2) 5'
' gilt:
Damit können wir eine analytische Definition eines affinen Raumes geben.
2.3 Definition
Ein affiner Raum über dem Körper besteht aus einem Tripel ' ' , wobei
1. eine nicht leere (vgl. jedoch 3.4 auf Seite 160) Menge ist, deren Elemente Punkte ge-
nannt werden,
Die Dimension eines affinen Raumes wird definiert durch: Dim 1 Dim
Um an das anschauliche Beispiel 2.2 zu erinnern, wird allgemein
:'
mit
:'
bezeichnet
für . Das Tripel heißt ein affiner Raum über , wenn die Axiome (A1) und (A2)
erfüllt sind. In abstrakter Bezeichnung schreibt sich (A2) wie folgt:
(A2*) 5'
'
5'
XIII.2 Affiner Raum 157
2.4 Folgerungen
'
.
1 0 0 0
für alle +' und alle
A
8
dere ist 0
Alle Translationen bilden eine Gruppe, die zur additiven Gruppe von isomorph ist. Insbeson-
Id.
Beweis:
Zu A 1 0
!
nach Definition von 0
!
D. h.: Haben wir ein mit 0
, so ergeben diese Äquivalenzen von oben nach unten
gelesen, die Eindeutigkeit von . Lesen wir die Äquivalenzen von unten nach oben, so sehen wir,
daß #1
die geforderte Eigenschaft hat.
Zu A 1 Wir formen die rechte Seite von A um:
0 0 8 0
für
1 0 d. h.8
5'
für 1 0
'
d. h.
Die linke Seite von A ergibt:
0 8
:'
' nach den Definitionen von
und A ergibt sich
:
' nach A 8
.
aus
Daß alle Translationen eine Gruppe bilden, ergibt sich aus A , A und sei als Übungsaufgabe 8
dem Leser überlassen. Mit Hilfe des Translationsbegriffes erhalten wir:
158 XIII Grundbegriffe der affinen Geometrie
Abtragen von Vektoren haben wir also ein Beispiel einer einfachen transitiven Operation einer
Gruppe auf einer Punktmenge kennengelernt. Gruppenoperationen spielen eine bedeutende Rolle
sowohl in der klassischen Geometrie wie in der aktuellen Mathematik.
(Stichwort (klassisch): Felix Kleins Erlanger Programm (1872): Eine Geometrie besteht nach
Klein aus der Untersuchung aller Eigenschaften von geometrischen Figuren, die bei der Operati-
on der Gruppe, die zu jeder Geometrie gehört, erhalten bleiben. Beispiel:
ist die Gruppe der
Geometrie eines euklidischen Vektorraumes, ist eine Eigenschaft, die bei allen orthogo-
nalen Abbildungen erhalten bleibt. Siehe G. Fischer: Analytische Geometrie, S. 208, 6. Auflage,
vieweg, Wiesbaden 1992)
(Stichwort (aktuell): -Räume, eine Symmetrie-Gruppe des Raumes).
Wenn wir mehrere affine Räume betrachten, so verwenden wir für den affinen Raum die
' '
Schreibweise:
Wenn aus dem Zusammenhang keine Verwechslungen möglich sind, wird für den affinen Raum
#' '
und die ihm zugehörige Punktmenge das gleiche Zeichen verwendet!
wird auch mit bezeichnet und mit !
A
1 Injektivität von :
Zu
5'
5'
1
0
und 0
' da 0 eine eindeutige Zuordnung.
Surjektivität von :
Sei
, setze
1 0
XIII.3 Affine Unterräume 159
:'
nach Definition von
Zu A 8 1
0 0 0 8
0
nach A
0
wegen
wegen
0
Außerdem gilt:
wegen
gibt mit 0 :
Da es genau ein , folgt aus und
5' 5'
'
2.7 Beispiele
3. Wegen Łinhom Łhom bilden sowohl die Lösungen eines inhomogenen linearen
Gleichungssystems wie auch eines inhomogenen linearen Differentialgleichungssystems
mit konstanten Koeffizienten einen affinen Raum. (Vgl. V. 8.2 auf Seite 55 bzw. IX. 6.2
auf Seite 97)
3.1 Definition
' '
' ' 1!
Ein affiner
Raum heißt ein affiner Unterraum des affinen Raumes
1.
(als Mengen),
2. ist Untervektorraum von und
3.
'
160 XIII Grundbegriffe der affinen Geometrie
3.2 Beispiele
1. # aus dem 2. Beispiel von 2.7 auf der vorherigen Seite ist ein affiner Unterraum des
affinen Raumes des 1. Beispiels. Die affinen Unterräume von durch Null sind
nichts anderes als die Untervektorräume von , aufgefaßt als affine Räume im Sinne des
2. Beispiels von 2.7 auf der vorherigen Seite.
' ' ein affiner Raum,
' ein Untervektorraum von , dann bildet
einen affinen Unterraum mit
2. Ist
die Teilmenge 1 .
Der Unterraum heißt (in beiden Beispielen) der zu parallele Unterraum von durch bzw.
durch .
3.3 Kriterium
1
Sei ein affiner Raum und eine Teilmenge von . Dann ist die Punktmenge eines
affinen Unterraumes von genau dann, wenn eine bijektive Abbildung auf einen
Untervektorraum von ist für ein .
3.4 Satz über den Durchschnitt affiner Unterräume
Der Durchschnitt
affiner Unterräume , ( eine Indexmenge) eines affinen Raumes
ein affiner Unterraum der Dimension ist. Weiter gilt
für .
ist ein affiner Unterraum von . Hierbei ist es zweckmäßig zu definieren, daß die leere Menge
Ist eine Menge von Punkten des affinen Raumes , so gibt es nach 3.4 den kleinsten affinen
Unterraum von , der umfaßt. Dieser heißt die affine Hülle von in oder der von
aufgespannte (oder erzeugte) affine Unterraum von . Wir bezeichnen ihn mit oder .
'' && der (affine) Verbindungsraum
' ' && .
Sind affine Unterräume von , so heißt
von
Spezialfall:
, 8
. Wir bezeichnen ihn auch mit
, :'
,
. Dann ist
8 1
die
Verbindungsgerade von und
.
3.6 Dimensionsformel
Falls und
und
gilt:
Dim
Dim
Dim Dim
XIII.4 Parallelität
4.1 Definition
0 0 0 8
Unter einer Figur verstehen wir einfach eine Teilmenge des affinen Raumes . Eine Figur
0 8 8 8
heißt parallel zu einer Figur , falls eine Parallelverschiebung
oder . Die Bezeichnung für Parallelität ist:
existiert, mit
Sind ' 8 affine Unterräume, dann bedeutet parallel dasselbe wie oder
. Gleichdimensionale afine Unterräume sind also genau dann parallel, wenn ihre zugehörigen
Vektorräume gleich sind. Daraus folgt:
4.2 Feststellung
5.1 Feststellung
Auf der Menge der Geraden ist Parallelität eine Äquivalenzrelation. Siehe 4.2!
5.2 Feststellung
!
Beweis: Wir zeigen, daß die Verneinungen äquivalent sind.
! nicht parallel
!
und 0-dimensional
1) wegen der Dimensionsformel: Dim Dim Dim Dim
162 XIII Grundbegriffe der affinen Geometrie
5.3 Feststellung
%
Es gilt das Parallelenaxiom; d. h. zu jeder Geraden und jedem Punkt gibt es genau eine
Gerade mit und .
Beweis:
Eindeutigkeit:
%
Existenz: 1
5.4 Strahlensatz
und seien zwei verschiedene Geraden, die sich in dem Punkt schneiden. und seien zwei
1 1
zueinander parallele Geraden, deren Durchschnitt mit bzw. jeweils aus genau einem von
,
5 1 , : 1 . Weiter , 1
verschiedenen Punkt besteht; wir bezeichnen die Schnittpunkte wie folgt: ,
Behauptung: .
Beweis:
Sei 1 . Es ist
und
,
4
4
4
# 4
# 4 "
4 "
4
wegen
wegen und
' 8 ' und ' 8 ' seien Dreiecke in perspektiver Lage mit dem Zentrum
oder in
paralleler Lage (vgl. III.6.1.4). Dann gilt:
A3 B3
g3
g2
A2 B2
g1
A1 B1
Sei 4 , dann $ gilt nach dem Strahlensatz: ( und . Folglich ist:
8 8
Bei paralleler Lage: Es gilt (wegen s. die untenstehende Aufgabe):
8 8 und
8
8
8
8
5.6 Aufgabe
+
' ' ' gelte: '/ ' ' ' . Sei "1 -' "1
-' 1 +' 1 .
Für die Geraden
8 8
Dann gilt: 8 8 und 8 8
164 XIII Grundbegriffe der affinen Geometrie
g
B3
B2
B1
Z A3 A2 A1 h
Damit haben wir im wesentlichen bewiesen, daß eine (analytisch definierte) affine Ebene auch
eine affine Ebene im Sinne der synthetischen Geometrie, d. h. eine Desargues-Pappos-Ebene ist.
166 XIV Aspekte der euklidischen Geometrie
XIV.1 Grundlegendes
1.1 Definition
Ein euklidischer Raum ist ein reeller affiner Raum mit einem Skalarprodukt auf seinem zuge-
hörigen Vektorraum .
1.2 Definition
Ein Punkt , genannt Grundpunkt oder Nullpunkt und eine orthonormierte Basis ' '
von heißt ein kartesisches Koordinatensystem von .
Fü beliebiges gilt:
'
'' heißt das Koordinaten- -tupel von
stems ' '' .
bezüglich des kartesischen Koordinatensy-
15
A. Riede: Lineare Algebra 2, SS 00
XIV.2 Kurven zweiter Ordnung 167
orthogonal
1 ', 1
1.4 Ergebnis
Kartesische Koordinaten transformieren sich durch Multiplikation mit einer orthogonalen Matrix
und Addition eines -tupels. Das additive -tupel beschreibt den Translationsanteil der Trans-
formation.
.
..
..
..
orthogonal
. .
XIV.2 Kurven zweiter Ordnung
sei ein zweidimensionaler euklidischer Raum, eine euklidische Ebene.
2.1 Definition
1 für
, #1 und 1 8 , und berücksichtigen wir, daß
ein Ausdruck 2. Ordnung.
8
Form:
(2)
168 XIV Aspekte der euklidischen Geometrie
2.2 Transformationsformeln
Eine kartesische Koordinatentransformation können wir folgendermaßen ansetzen:
8 8 1
8 8 8 88 8
3 8
Wir setzen weiter:
8 8 8
8 mit
1
(3)
Wegen 1
' 1 '* 1 erhalten wir: 8 für ' '
8
Wenn wir setzen
1 8 ' 1
8 ,
8 88
läßt sich dies in Matrizenform ausdrücken:
8 88
(4)
D. h. transformiert sich wie bei einer symmetrischen Bilinearform. Es folgt aus diesen Trans-
formationsformeln, daß ein Ausdruck zweiter Ordnung gegenüber kartesischen Koordinaten-
Transformationen folgende Invarianten hat:
Rg ' Rg ' die Eigenwerte ' 8 von &' Det ' Det
Was die Determinanten angeht, folgt dies aus:
8
8
88
, da
XIV.2 Kurven zweiter Ordnung 169
2.3 Klassifikation
1 188 8
Unterfälle:
' 8 : Ellipse
a)
b) und 8 1 Hyperbel
c) ' 8 : nullteilige Kurve,
2. Fall: Rang
' Rang
Durch quadratische Ergänzung können wir erreichen:
8 8
8
8 8
wegen Rang
170 XIV Aspekte der euklidischen Geometrie
8 8 8
8 8 8
8 8 8 8 /1 ' 8 1 8 8
1 8
8 8
3.1 Definition
. 8 8
' (5)
heißt eine Fläche 2. Ordnung oder eine Quadrik in . Dabei sei , und wir setzen
wieder 1
und erhalten
:
'
die systematischere Schreibweise:
mit 8 und 1
&'' Es wird analog zum zwei-dimensionalen Fall gesetzt: 1 8
in Matrizenform:
XIV.3 Flächen zweiter Ordnung 171
3.2 Invarianten
Rg ' Rg ' die Eigenwerte ', 8 ', von &' Det ' Det
3.3 Klassifikation
konstant : Hyperbel
konstant : Hyperbel
oder 8 : Parabel
3. Fall: Rang ' Rang
: Kann nicht auftreten; denn
8
Rang , Widerspruch!
8
4. Fall: Rang
' Rang :
' 8 '
8
Hier erreichen wir die fettgedruckten Nullen durch quadratische Ergänzung,
. we-
gen Rang
XIV.3 Flächen zweiter Ordnung 173
8 8 88 8
Unterfälle:
'
Koordinaten auf die betrachteten zurückführen.
5. Fall: Rang Rang : ist ein elliptischer oder ein hyperbolischer Zylin-
'
der.
7. Fall: Rang ' Rang : besteht aus zwei verschiedenen sich schneidenden
' Rang :
Ebenen.
' Rang :
8. Fall: Rang besteht aus zwei verschiedenen parallelen Ebenen.
XV Der Minkowski-Raum
Im folgenden bezeichnen ' 8 ' &' Koordinaten zu einer Basis ' 8 ' &' .
Wir stellen uns die Aufgabe, ein geometrisches Modell unserer räumlich-zeitlichen Welt aufzu-
stellen.
'
und eine reelle Zeitkoordinate beschreiben lassen und umgekehrt zu jedem
8
genau ein Raumzeitpunkt gehört. Mathematisch nehmen wir an, daß die
Welt ein vierdimensionaler reeller affiner Raum ist.
' 8 '
Unserer Erfahrung nach gibt es für unseren dreidimensionalen Lebensraum gewisse (kartesische)
Koordinatensysteme, , so daß jeder Lichtstrahl eine Gerade ist.
Ein Lichtstrahl durch den Koordinaten-Ursprung hat also folgende Parameterdarstellung:
0 0 ' ' ' ' ' 8 ' konstant ' 0 ein reeller Parameter
Verwenden wir als Parameter für die Lichtausbreitung die Zeit 0 , so ist die Konstante 1
8 als die Ausbreitungsgeschwindigkeit eines Lichtblitzes zu verstehen. Den physikali-
schen Beobachtungen zufolge ist die Lichtgeschwindigkeit für alle Lichtstrahlen die gleiche, also
eine Konstante. Auf die tiefere Bedeutung dieser physikalischen Beobachtung kommen wir noch
zurück. Im vierdimensionalen Raum stellt sich die Lichtausbreitung vom Koordinaten-Ursprung
aus durch sogenannte Lichtgeraden dar, die durch ein homogenes lineares Gleichungssystem
gegeben sind:
' '
8
1
mit
Mathematisch betrachtet, bedeutet die Existenz von Koordinatensystemen, in denen sich Licht-
strahlen in einer solchen Weise beschreiben, daß diese Lichtgeraden als Strukturelemente gege-
ben sind. Alle Lichtgeraden zusammen bilden den Lichtkegel:
1 8 $ 8 8
XV.1 Modell der räumlich-zeitlichen Welt 175
1.1.3 Inertialsysteme
Jedes Koordinatensystem, in dem sich Lichtstrahlen wie beschrieben längs Geraden ausbrei-
ten oder mathematisch betrachtet, in denen sogenannte Lichtgeraden oder der Lichtkegel gege-
ben sind, nennen wir ein Inertialsystem. In der Physik werden Inertialsysteme anders definiert;
sie sind jedenfalls so erklärt, daß in Inertialsystemen die Naturgesetze die gleiche Form ha-
ben (Relativitätsprinzip). Wir haben hier nur das eine Naturgesetz berücksichtigt, daß sich Licht
mit konstanter (endlicher) Geschwindigkeit längs Geraden ausbreitet. Wenn das Naturgesetz der
Lichtausbreitung invariant gegenüber Koordinatentransformationen von einem Inertialsystem zu
einem anderen sein soll, so müssen Lichtgeraden in Lichtgeraden oder der Lichtkegel in den
Lichtkegel übergeführt werden.
zu betrachten, die auf dem Lichtkegel verschwindet. Für eine lineare Koordinatentransformation
, die den Lichtkegel in den Lichtkegel überführt, muß dann
' 8 ' &' 1
' 8 ' &'
wieder eine quadratische Form sein, die auf dem Lichtkegel verschwindet. Gilt etwa ?
Dazu hilft weiter:
'
1.1.5 Satz über quadratische Formen
ist bis auf einen Faktor die einzige nicht ausgeartete quadratische Form, die auf
dem Lichtkegel verschwindet. Eine quadratische Form heißt dabei nicht ausgeartet, wenn die
symmetrische Bilinearform , zu der sie gehört, nicht ausgeartet ist.
1.1.6 Minkowski-Raum
Eine Koordinatentransformation die den Lichtkegel in den Lichtkegel transformiert, transfor-
miert also in sein -faches mit einem
. Diese Transformation von wird auch bewirkt
durch die Skalenänderung auf jeder Achse um den gleichen Faktor
. Wenn ein
auftritt, können wir das deshalb so interpretieren, daß bei auch noch eine solche Skalenän-
derung vorgenommen wird. Die Transformationen, die die Form invariant lassen, können wir
also als diejenigen ansehen, die den Lichtkegel in den Lichtkegel überführen und keine solche
Skalenänderung hervorrufen.
Damit gelangen wir zu folgendem Modell der Welt: Die Welt ist der
mit der quadratischen
Form bzw. mit der symmetrischen Bilinearform:
.' 1 $ 8
Die Welt ist also ein geometrischer Vektorraum mit einer symmetrischen Bilinearform der Si-
gnatur 3 und mit Index 1. Als erster hat der Mathematiker Hermann Minkowski (1864-1909)
176 XV Der Minkowski-Raum
diesen Raum als einen Rahmen für die spezielle Relativitätstheorie erkannt. Nach ihm wird er
'
Minkowski-Raum genannt. Da bis auf das Minuszeichen wie ein Skalarprodukt aussieht, wird
auch pseudoeuklidisches Skalarprodukt genannt und
ein pseudoeuklidischer Vektorraum.
XV.2 Lorentztransformationen
2.1 Definition
1 ' 4
Matrix von bezeichnet. Ausführlich:
1 1 1 1
1 1
1 1
Damit schreibt sich die Isometriebedingung in der folgenden Form, wobei die -te Spalte von
bezeichnet:
'
D. h. ist eine Isometrie genau dann, wenn die Spalten von pseudo-orthonormiert sind, d. h.,
daß eine pseudo-orthogonale Matrix ist.
2.2 Definition
!
!
Ein Vektor heißt raumartig :
!
zeitartig :
Lichtvektor :
2.3 Einheitsvektoren
8 $ 88 $ 8 8
XV.2 Lorentztransformationen 177
Man ist versucht, das charakteristische Polynom durch Det( Id ) zu definieren. Jedoch ist
Id End
phismus. Daher wird zuerst das charakteristische Polynom einer Matrix erklärt. Dazu schicken
wir eine andere Betrachtung voraus. Ist eine Koordinatentransformation, dann
transformiert sich nach V. 7.6 auf Seite 53 die Abbildungsmatrix bezüglich
in die Abbil-
dungsmatrix bezüglich
nach der Formel:
Zwei
-Matrizen und , für die die Formel gilt, in der eine reguläre -
Matrix ist, heißen konjugiert oder ähnlich zueiander.
Wegen der Bemerkung zuvor sind und genau dann zueinander ähnlich, wenn sie als Abbil-
dungsmatrizen ein und desselben Endomorphismus bezüglich eines Koordinatensystems
bzw. aufgefaßt werden können.
2. Von der Basis , bezüglich der die Abbildugsmatrix gebildet wurde, hängt das
charakteristische Polynom nicht ab.
hergestellt. Insbesondere gilt: Die Eigenwerte von sind genau die Nullstellen aus des
(Vgl. Abschnitt X. 5.5 auf Seite 115!) Damit ist der Anschluß an Kapitel IX auf Seite 81
Beweis:
Zu 1: Dies folgt aus der Leibniz-Formel für Det
Zu 3:
2. folgt aus 3.
Zu 4: Nach Definition ähnlicher Matrizen.
Zu 5: 1 Id
Det <
'
sgn
Det 8
sgn
' Id
sgn
'
Det
180 XVI Eigenvektor-Theorie und Normalformen
Für die letzte Aussage ist nur zu beachten, daß die in gelegenen Nullstellen eines Polynoms
per Definition die Nullstellen der ganzrationalen Funktion sind.
1.4 Beispiel
Durch Entwickeln nach der letzten Zeile von erhalten wir, daß das charakteristische
. . . .
Polynom der Matrix
.. .. .. ..
. ..
.. ..
..
. . .
' 8
wie folgt lautet:
! &&
Wenn wir für '' also setzen, sehen wir,
&&
2. Die Spur von hängt nicht von der Basis ab, bezüglich der die Abbildungsmatrix gebildet
3. Sp
noms von ist.
XVI.1 Charakteristisches Polynom 181
8 Sp ! 8 Sp Sp8
Die Untersuchung der Nullstellen eines Polynoms und damit die Untersuchung von Matrizen und
Endomorphismen wird vereinfacht, wenn das Polynom in Faktoren von Polynomen (niedrigeren
Grades) zerlegt werden kann. Diese Zerlegung ist in einem, wie sich noch herausstellen wird,
wichtigen Fall möglich:
.
Dies verallgemeinert sich leicht auf „Kästchen - Dreiecksmatrizen mit mehr als zwei diagonalen
Kästchen “.
Beweis:
/ /
Dies folgt aus der Leibniz-Formel. Wegen der Nullen in dem linken unteren Kästchen brauchen
wir nur die Permutationen zu betrachten mit
für . D. h., es müssen nur die
Permutationen betrachtet werden, die die letzten Indizes untereinander vertauschen und
die folglich auch die ersten Indizes untereinander vertauschen. Für eine solche Permutation
setzen wir:
5 :
5
1
1 1 5 8 1 : 8
für ' und für
Beachten wir
'
so erhalten
wir:
182 XVI Eigenvektor-Theorie und Normalformen
Daraus folgt:
XVI.2 Eigenvektorräume 183
XVI.2 Eigenvektorräume
' '
sei Eigenvektor zum Eigenwert , und die Eigenwerte
seien paarweise
' '
Für
verschieden. Dann sind linear unabhängig.
Beweis durch Induktion nach :
Induktionsbeginn:
1 ' da .
Induktionsschluß: Sei
1
#1
1
' '
nach Induktionsannahme
' '
wegen
Gibt es verschiedene Eigenwerte von , dann gibt es eine Basis aus Eigenvektoren, d. h. (nach
IX. 1.3 auf Seite 81) ist diagonalisierbar.
kehrung gilt jedoch nicht (s. 2. Beispiel von IX. 2.4 auf Seite 82). Mit dem Begriff eines Eigen-
vektorraumes läßt sich die Bedingung für die Umkehrung formulieren.
184 XVI Eigenvektor-Theorie und Normalformen
In Verallgemeinerung von 2.1 auf der vorherigen Seite gilt für paarweise verschiedene Eigen-
'' 1
werte : a)
und b)
'
bar ist (nach Definition einer direkten Summe für endlich viele Summanden).
Beweis: Zu a): Induktion nach :
Induktionsbegin für
: Sei 8 , dann folgt:
und 8 , 8 , 8 , , da 8
Induktionsschluß: Sei
und ) .
1
'
'
1
1
nach Induktionsannahme
' da
' ' . Sei beliebig.
Zu b): Sei
.
2.6.1 Definition
Sei die Ordnung der Nullstelle von und Dim
heißt die algebraische und die geometrische Vielfachheit des Eigenwertes .
Beweis:
Sei '' eine Basis von und
'' ' '' eine Ergänzung zu einer
Basis von .
..
.
Det
1. ist diagonalisierbar.
3. Dim
Dim
4.
5.
Beweis: 1.
2.:
186 XVI Eigenvektor-Theorie und Normalformen
..
.
8
..
.
8 ..
.
..
.
Dim
' da
allgemein gilt.
2.
3.:
Grad Grad
wegen 2.5 auf Seite 184
Dim
Dim
Dim
3. 4.: Wenn ein Untervektorraum die Dimension des ganzen Raumes hat, stimmt er mit dem
ganzen Raum überein.
4.
5.: Wegen 2.5 auf Seite 184
5.
1.:
Wir nehmen in jedem Summanden eine Basis. Diese setzen sich zu einer Basis aus Eigenvektoren
von zusammen. Also ist diagonalisierbar.
XVI.3 Satz von Caley-Hamilton und Minimalpolynom 187
1!
3.1.1 Definition eines invarianten Untervektorraumes
Ein Untervektorraum von heißt invariant bei
4. Sei beliebig. Dann gibt es den kleinsten invarianten Untervektorraum von , der
enthält.
Denn der Durchschnitt von invarianten Untervektorräumen, die enthalten, ist wieder ein
solcher. Daher ist
invariant bei und
3.1.3 Untersuchung des kleinsten Untervektorraumes mit
Wegen der endlichen Dimension von gibt es ein kleinstes , so daß
(' ' ' linear abhängig
sind. Weil +' ' ' linear unabhängig sind,
ist von (' ' ' linear abhängig, d. h. es gilt:
' da kleinster
invarianter Untevektorraum, der enthält.
mit 1 ist eine Basis von und
188 XVI Eigenvektor-Theorie und Normalformen
. .
hat die Matrix .
.. ..
bezüglich
.. .. .. .. ..
. . . .
zen wir in das charakteristische Polynom für ein und wenden den so erhaltenen
Durch Vergleich der Formeln ( 1 auf der vorherigen Seite) und ( 2) finden wir folgendes: Set-
(3)
<&&& 7
Setzen wir in das charakteristisches Polynom von
für ein, so erhalten wir den Null-Endomorphismus:
:
Das Entsprechende gilt für die Einsetzung einer
3.3 Feststellung
'
und End
gilt:
Beweis zum Satz:
. Da
.
XVI.3 Satz von Caley-Hamilton und Minimalpolynom 189
3.4 Minimalpolynom
8 .
für
Fazit: Es gibt offenbar manchmal auch Polynome vom Grad Dim( ) mit .
End gibt es genau ein normiertes Polynom von minimalem Grade mit
2. Es ist Grad
.
3. Die Polynome
sondere das charakteristische Polynom von .
Beweis:
mit Grad Grad .
Wäre , so hätten wir ein Polynom kleineren
1. Ein Polynom
heißt ein echter Teiler eines Polynoms , wenn ein Teiler von ist mit
Grad Grad
heißen teilerfremd : ! keine echten gemeinsamen Teiler von und .
2. ' 8
8
3. Es gibt zu ' 8
genau einen normierten gemeinsamen Teiler von maximalem
Grad; er heißt der größte gemeinsame Teiler von und 8 . Bezeichnung: 9 ' 8
'
3.4.4 Berechnung des größten gemeinsamen Teilers
Wir beachten, daß per Definition Grad sei. Sei Grad Grad . Dann kann der
%1 ' 1
größte gemeinsame Teiler wie folgt durch Polynom-Divisionen berechnet werden. Wir setzen
und führen folgende Polynom-Divisionen durch:
. Grad
8 Grad
Grad
.. 8 8
Grad
. Grad Grad
- 8
Grad
Grad
..
Grad 8
.
- 8
Grad
Grad
8
Grad
' .
Dieser Verfahren heißt Euklidischer Algorithmus.
3.4.5 Beispiele
1. Für eine Drehung eines zweidimensionalen euklidischen Vektorraumes, die Id und
Id ist, gilt
Gilt ?
.
3. mit hat nach dem 4. Beispiel aus IX. 2.4 auf Seite 82 das
Eigenwert 8
. Dann wäre Id , d. h. Id , Widerspruch!
XVI.3 Satz von Caley-Hamilton und Minimalpolynom 191
1 .
Ergebnis:
End
diagonalisierbar ! zerfälllt in Linearfaktoren und hat nur einfache Nullstellen.
Vgl. die Beispiele 2 und 3 in 3.4.5! Der Beweis des Kriteriums beruht auf folgendem:
3.6 Lemma
Beweis: Für
Fall mit Induktion nach
):
(Allgemeiner
0
Id 0 8
wegen Punkt 3 von 3.4.3
8
denn:
0 8
0 8
0
. 8
Sei
8 .
Rechte Seite von (*) ist 0.
8
Bemerkung: Statt könnte hier auch beliebiges Polynom mit stehen.
Beweis des Kriteriums:
„
“: Seien '' die paarweise verschiedenen Eigenwerte von .
192 XVI Eigenvektor-Theorie und Normalformen
1 8 &&
'*
nach 2.6.3
„ “:
paarweise verschieden.
Wegen des Lemmas 3.6 auf der vorherigen Seite folgt:
Kern
heißt trigonalisierbar Es gibt eine Basis von 1! , so daß die Matrix von bezogen
auf diese Basis eine obere Dreiecksmatrix ist.
„ “: Induktiv
nach , Beginn bei trivial.
Sei && .
ein Eigenvektor zum Eigenwert und '' eine Basis von
Sei .
&&
...
XVI.4 Das Normalformenproblem 193
8 &&
Sei 1 8 ' und
' $1 diejenige lineare Abbildung mit bezüglich
'8 ' . zerfällt in Linearfaktoren. Per Induktionsannahme gibt es eine
Basis
3.9 Folgerung
4.1 Definition
.. .. .. .. ..
. . . .
4.2 Definition
!<&&
So eine Matrix heißt Begleitmatrix des Polynoms
194 XVI Eigenvektor-Theorie und Normalformen
4.3 Frage
Können wir in eine direkte Summe von zyklischen Untervektorräumen zerlegen? Dann be-
kämen wir eine Normalform, die aus lauter diagonalen Kästchen von Begleitmatrizen besteht.
(Außerhalb der diagonalen Kästchen Nullen)
Wenn wir eine direkte Summenzerlegung von suchen, können wir obiges Lemma 3.6 auf
Seite 191 nochmals heranziehen. Dazu brauchen wir eine geeignete Zerlegung von in ein
Produkt paarweise teilerfemder Faktoren. Da gibt es aber eine kanonische, nämlich die Zerlegung
in die irreduziblen Faktoren (gleichbedeutend mit Primfaktorzerlegung). Dabei ist definiert:
4.4 Definition
heißt irreduzibel ! Grad und kein echter Teiler von .
4.5 Definition
Jedes normierte Polynom positiven Grades kann auf genau eine Weise als Produkt endlich
vieler normierter irreduzibler Polynome dargestellt werden (Produkte, die sich nur um die Rei-
henfolge der Faktoren unterscheiden, werden hierbei als gleich angesehen.)
4.6 Satz
Sei
die Zerlegung von in die irreduziblen Faktoren, wobei gleiche
' '
1
Faktoren zusammengefaßt
8 &&
' '
1.
3.
4.7 Beispiel
8 8 8 8 !
Für könnte etwa so aussehen:
Beachte: Über sind die linearen und die quadratischen Polynome ohne reelle Nullstellen
die irreduziblen.
XVI.4 Das Normalformenproblem 195
3. Offenbar gilt
, da es ein Teiler von sein
muß.
zerlegt werden kann. Dies geht tatsächlich, es gilt:
4.8 Satz
'
&' '' &&
Sei
4.9 Bezeichnungen
Sei '
und der kleinste -invariante Untervektorraum, der enthält.
1
heißt ein -erzeugender Vektor von und heißt auch der von -erzeugte Untervektorraum.
4.10 Feststellungen
A. Für
und
!
gilt:
!
B.
ist ein Teiler von .
C. -invariant
Beweis:
! !
A.
Insbesondere bildet eine Basis von nach 0 ab, also auch ganz .
196 XVI Eigenvektor-Theorie und Normalformen
dann ist
.
C. Sei
4.11 Hilfssatz
Sei
und
mit '
Dann folgt: Kern
Kern .
Beweis: „ “: Sei
wegen Kern Durch einsetzen von erhalten wir:
d. h.
0 0 für ein 0 Hier läßt sich rauskürzen:
0 dies in einsetzen:
0
wegen C
„ “:
Kern
wegen C. und
Kern
Sei
Grad
Grad
' ' .
Für ist die Voraussetzung des Satzes erfüllt. Induktiv folgt:
&& ' zyklisch bei ,
(6)
dann folgt:
Denn ist
198 XVI Eigenvektor-Theorie und Normalformen
Distributives
Gesetz
Distributives Gesetz
'
'
' (wegen B)
(wegen a).
;
denn:
teilt
"'
da
1
Kern
denn:
Kern ' wegen (4) und (5)
'
minus
' mit 1
ist ein Teiler von
1) da -invariant
"'
da
ist ein Teiler von
und
&&
1
f)
Grad Grad
' ''
Sei
1
' ''
bilden eine Basis von
1
'
bilden eine Basis von
1
200 XVI Eigenvektor-Theorie und Normalformen
Die letzte Gleichung zeigt, daß die zusammen mit den eine Basis von bilden, in
der sukzessive die
durch die
ausgetauscht werden können, so daß die und die
zusammen eine Basis von bilden. Daraus folgt f). Zur Verdeutlichung:
4.11.1 Satz über die Normalform
Es gibt eine Basis von , bezüglich der die Matrix von folgende Normalform hat:
8
..
.
Hierbei stehen außerhalb der Kästchen Nullen und jedes ist Begleitmatrix einer '
' '
gewissen Potenz eines irreduziblen Faktors des Minimalpolynoms von .
4.11.2 Hilfssatz
Ist zyklisch bei mit erzeugendem Vektor und
1 ,
1 1
, , . Es folgt:
ist zyklisch bei mit erzeugendem Vektor und
.
4.11.3 Satz über die die Feinstruktur der Normalform für den Fall
Wir vertauschen die Kästchen so, daß zuerst alle Begleitmatrizen zu kommen, dann die zu ,
8
. Diese bezeichnen wir mit
' '
usw. Es gebe in der Normalform Begleitmatrizen zu ,
. Dem Vertauschen von Kästchen entspricht eine Vertauschung der Basisvektoren,
XVI.4 Das Normalformenproblem 201
..
.
..
.
mit
' '
(8)
Rang
..
Rang Rang
9 & && Grad
.
Rang Rang
..
Grad .
Rang
Rang
Rang
(10)
Grad
202 XVI Eigenvektor-Theorie und Normalformen
vorkommt. Damit haben wir aber noch keine Möglichkeit, zu berechnen. Eine Berechnung-
möglichkeit läßt sich jedoch leicht finden:
Rang
oder
Kern
Min
Rang
Min
Kern
4.11.5 Satz zur Feinstruktur im allgemeinen Fall:
&
&
'
Kern und Kern Kern
mit
Es gilt:
Wir können die Ergebnisse des Spezialfalles auf anwenden: Statt einem irreduziblen Poly-
für jedes ' ' erhalten wir ein lineares Gleichungssystem, das die '
' '
eindeutig bestimmt:
Grad Rang '
' '
Rang
(11)
Dim
und daher
Rang Rang
Rang Rang
Rang Rang
Die Normalform ist dann eine Matrix, die sich aus diagonalen Blöcken und sonst Nullen
4.11.6 Satz von Frobenius über die irreduziblen Faktoren von und
und haben die gleichen irreduziblen normierten Faktoren . Insbesondere ha- ' '
ben sie die gleichen irreduziblen Faktoren vom Grade 1 und damit die gleichen Nullstellen.
Sie unterscheiden sich nur durch die Vielfachheiten, mit der die irreduziblen Faktoren in der
Primfaktor-Zerlegung vorkommen. Ist
&&
' '
im
&&
Minimalpolynom
vorkommt, bestimmt durch:
Rang
Kern
Min
Kern
XVI.4 Das Normalformenproblem 203
4.11.8 Satz über die Eindeutigkeit der Normalform
Die Normalform von ist eindeutig bestimmt.
daß sie den gleichen Typ haben; denn bei Wahl geeigneter Basen –im allgemeinen für eine
andere als für – haben sie ja die gleiche Matrix. Der Satz sagt aus, daß der Typ eindeutig durch
die Normalform bestimmt wird.
4.11.10 Satz und Definition der Normalform einer Matrix
Zu
gibt genau eine ähnliche Matrix in Normalform. Diese heißt Normalform von .
4.11.12 Haupträume
Wegen ihrer Bedeutung hat der oben aufgetretene Raum
Kern Kern 1
Für lineares ist der Hauptraum zu nichts anderes als der verallgemeinerter