forked from kebekus/LineareAlgebra2
Compare commits
21 Commits
Author | SHA1 | Date | |
---|---|---|---|
![]() |
e38830a5f0 | ||
![]() |
75fe57af6b | ||
![]() |
4b1c86c1ea | ||
![]() |
ed0e972443 | ||
![]() |
ae3be3aa81 | ||
![]() |
056e054363 | ||
![]() |
e319086277 | ||
![]() |
b8152c6101 | ||
![]() |
3f631e4eaf | ||
![]() |
639481f8c0 | ||
![]() |
37b91c5e02 | ||
![]() |
9a0ab78a70 | ||
![]() |
2bc4283c2d | ||
![]() |
1f00cf5ea0 | ||
![]() |
f89acb0147 | ||
![]() |
c687df6e75 | ||
![]() |
a3081c8e56 | ||
![]() |
0dd5b65ed1 | ||
![]() |
1c5823c039 | ||
![]() |
99b45276c9 | ||
![]() |
3bd5ccd104 |
89
.vscode/ltex.dictionary.de-DE.txt
vendored
89
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -19,3 +19,92 @@ Quotientenvektorraums
|
||||
Erzeugendensystem
|
||||
Quotientenvektorräume
|
||||
Repräsentantenniveau
|
||||
Jordanscher
|
||||
Matrixexponential
|
||||
Matrixexponentials
|
||||
Einsetzungsabbildung
|
||||
Cayley-Hamilton
|
||||
TFAE
|
||||
Jordanblocks
|
||||
Einsetzungsmorphismus
|
||||
Abstandserhaltende
|
||||
abstandserhaltend
|
||||
metrikerhaltend
|
||||
abstandserhaltenden
|
||||
abstandserhaltender
|
||||
abstandserhaltende
|
||||
Definitheit
|
||||
ONB
|
||||
Kronecker-Delta
|
||||
semidefinit
|
||||
Bytestrings
|
||||
Bilinearität
|
||||
Semilinearität
|
||||
Sesquilinearlinearform
|
||||
Cayley
|
||||
Sequilinearform
|
||||
Dualräumen
|
||||
Hom-Räumen
|
||||
Maximumsnorm
|
||||
Cauchy-Schwarzschen
|
||||
Cauchy-Schwarzsche
|
||||
Cauchy
|
||||
Sceaux
|
||||
Amandus
|
||||
Orthonormalität
|
||||
Identifikationen
|
||||
semi-linear
|
||||
Quotientenräume
|
||||
Rückzugsabbildung
|
||||
Determinanten-Multiplikationssatz
|
||||
Komplexifizierung
|
||||
komplexifizierten
|
||||
komplexifizierte
|
||||
Quadriken
|
||||
Quadrik
|
||||
Grund-Quadriken
|
||||
Vereinfachungsschritten
|
||||
Koniken
|
||||
Perge
|
||||
Hyperbelbahnen
|
||||
Konik
|
||||
Auxerre
|
||||
Loviscach
|
||||
psycho-akustisches
|
||||
SciKit
|
||||
Funktionalgleichung
|
||||
Schönhage-Strassen-Algorithmus
|
||||
Schönhage
|
||||
Strassen
|
||||
Thurstone
|
||||
Allport
|
||||
Odbert
|
||||
kulturstabile
|
||||
Stryker
|
||||
Gallup-Test
|
||||
OCEAN-Modell
|
||||
PCA
|
||||
massebehafteter
|
||||
Sylvester
|
||||
Hurwitz-Kriteriums
|
||||
Hurwitz-Kriterium
|
||||
Determinantenabbildung
|
||||
Eindeutigkeitsbeweis
|
||||
Tensorproduktraum
|
||||
Trivialbeispiel
|
||||
Erzeugendensysteme
|
||||
Kronecker-Produkt
|
||||
Kronecker
|
||||
Tensorprodukträume
|
||||
Tensorproduktkonstruktion
|
||||
Tensorproduktabbildung
|
||||
Multiplikationsabbildung
|
||||
Permutationsgruppe
|
||||
Erzeugendensystemen
|
||||
auszumultiplizieren
|
||||
inner-mathematischen
|
||||
zerlegungsgleich
|
||||
Zerlegungsgleichheit
|
||||
Invarianteneigenschaft
|
||||
Quotientenvektorraum
|
||||
Kebekus
|
||||
|
1
.vscode/ltex.dictionary.en-US.txt
vendored
Normal file
1
.vscode/ltex.dictionary.en-US.txt
vendored
Normal file
@ -0,0 +1 @@
|
||||
observables
|
2
.vscode/ltex.disabledRules.de-DE.txt
vendored
2
.vscode/ltex.disabledRules.de-DE.txt
vendored
@ -1 +1,3 @@
|
||||
KARDINALZAHLEN
|
||||
DE_COMPOUND_COHERENCY
|
||||
KLEINSCHREIBUNG_KEIN_NAME
|
||||
|
70
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
70
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -7,3 +7,73 @@
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
||||
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
||||
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe – wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QArthur Cayley (* 16. August 1821 in Richmond upon Thames, Surrey; † 26. Januar 1895 in Cambridge) war ein englischer Mathematiker.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Absolute Homogenität] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Dreiecksungleichung] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q [Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann ergibt sich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen Begriff von „orthogonalen Unterraum“.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir werden in Abschnitt sec:dual sehen, wie die Begriffe zusammenhängen.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des “Dualraum”.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des „Dualraum“.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem “orthogonalen Komplement” aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem „orthogonalen Komplement“ aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
||||
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
|
||||
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
|
||||
{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}
|
||||
|
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
Normal file
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
Normal file
@ -0,0 +1,2 @@
|
||||
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
||||
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
@ -27,9 +27,9 @@ Diagonalgestalt hat.
|
||||
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
|
||||
|
||||
\begin{defn}[Diagonalisierbare Matrix]
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $(n ⨯ n)$-Matrix $A$ heißt
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $n ⨯ n$-Matrix $A$ heißt
|
||||
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
|
||||
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ GL_n(k)$, sodass $SAS^{-1}$ eine
|
||||
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, sodass $SAS^{-1}$ eine
|
||||
Diagonalmatrix ist.
|
||||
\end{defn}
|
||||
|
||||
@ -85,14 +85,14 @@ Punkte abgezogen wurden.}.
|
||||
$$
|
||||
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
|
||||
$$
|
||||
Also ist $\deg(g) = 6$ und die Nullstellen von $g$ sind $i$, $2$ und $3$
|
||||
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
|
||||
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
|
||||
\end{erinnerung}
|
||||
|
||||
|
||||
\section{Algebraische und geometrische Vielfachheit}
|
||||
|
||||
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun einen Skalar $λ ∈ k$ gegeben
|
||||
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
|
||||
habe, kann ich die folgenden zwei Zahlen betrachten.
|
||||
\begin{itemize}
|
||||
\item Die \emph{algebraische Vielfachheit von
|
||||
@ -128,9 +128,9 @@ habe, kann ich die folgenden zwei Zahlen betrachten.
|
||||
$$
|
||||
\end{prop}
|
||||
\begin{proof}
|
||||
Sei ein Skalar $λ$ gegeben. Falls die geometrische Vielfachheit von $λ$ gleich
|
||||
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
|
||||
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
|
||||
größer als Null. Das bedeutet: Es gibt eine linear unabhängige (angeordnete)
|
||||
größer als Null. Das bedeutet: Es gibt eine lineare unabhängige (angeordnete)
|
||||
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
|
||||
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
|
||||
Matrix von der Form
|
||||
|
@ -9,7 +9,7 @@
|
||||
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
|
||||
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
|
||||
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
|
||||
sodass die dazugehörige Matrix eine besonders einfache Gestalt hat -- zumindest,
|
||||
sodass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest,
|
||||
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
|
||||
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
|
||||
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
|
||||
@ -62,7 +62,7 @@ auch eine Menge Videos auf
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Jordansche Normalform]
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ sei eine Zahl. Eine $(n ⨯ n)$-Matrix $A =
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ sei eine Zahl. Eine $n ⨯ n$-Matrix $A =
|
||||
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
|
||||
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
|
||||
anderen Blöcke gleich Null sind.
|
||||
@ -110,13 +110,13 @@ Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
|
||||
\begin{satz}[Jordansche Normalform]\label{satz:JNF}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
|
||||
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
|
||||
$B$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
|
||||
$\mathcal{B}$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
|
||||
Normalform hat.
|
||||
\end{satz}
|
||||
|
||||
\begin{notation}
|
||||
Situation wie in Satz~\ref{satz:JNF}. Eine
|
||||
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $B$
|
||||
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$
|
||||
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
|
||||
hat.
|
||||
\end{notation}
|
||||
@ -139,7 +139,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
|
||||
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
|
||||
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
|
||||
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls eine Zahl $m ∈ ℕ$
|
||||
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ ℕ$
|
||||
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
|
||||
solche Zahl $m$ heißt \emph{Nilpotenzindex von
|
||||
$f$}\index{Nilpotenzindex!Endomorphismus}.
|
||||
@ -148,7 +148,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
\begin{defn}[Nilpotente Matrizen]
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ eine Zahl und $A$ eine $( n⨯ n)$-Matrix
|
||||
mit Werten in $k$. Nenne die Matrix $A$
|
||||
\emph{nilpotent}\index{nilpotent!Matrix}, falls eine Zahl $m ∈ ℕ$ existiert,
|
||||
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ ℕ$ existiert,
|
||||
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
|
||||
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
|
||||
\end{defn}
|
||||
@ -165,7 +165,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
|
||||
\begin{beobachtung}
|
||||
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
|
||||
Genauer: Sei $A$ eine $(n ⨯ n)$-Matrix und sei $S ∈ GL(n, k)$, sodass $N :=
|
||||
Genauer: Sei $A$ eine $(n ⨯ n)$-Matrix und sei $S ∈ Gl(n, k)$, sodass $N :=
|
||||
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
|
||||
$$
|
||||
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
|
||||
@ -190,9 +190,9 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
$$
|
||||
\Hau_f(λ) := \bigcup_{n ∈ ℕ} \ker \Bigl( (f - λ · \Id_V )^n \Bigr)
|
||||
$$
|
||||
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!Endomorphismus} oder
|
||||
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!eines Endomorphismus} oder
|
||||
\emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}%
|
||||
\index{verallgemeinerter Eigenraum!Endomorphismus}.
|
||||
\index{verallgemeinerter Eigenraum!eines Endomorphismus}.
|
||||
\end{defn}
|
||||
|
||||
\begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}%
|
||||
@ -203,8 +203,8 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
\Bigr),
|
||||
$$
|
||||
wobei $\Id_{n⨯ n}$ die Einheitsmatrix bezeichnet. Man nennt dies den
|
||||
\emph{Hauptraum}\index{Hauptraum!Matrix} oder \emph{verallgemeinerten
|
||||
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!Matrix}.
|
||||
\emph{Hauptraum}\index{Hauptraum!einer Matrix} oder \emph{verallgemeinerten
|
||||
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!einer Matrix}.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}
|
||||
@ -272,7 +272,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
|
||||
0 & A
|
||||
\end{array}\right).
|
||||
$$
|
||||
Es ist $χ_f(t) = (λ-t)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
|
||||
Es ist $χ_f(t) = (t-λ)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
|
||||
Nullstelle des Polynoms $χ_A$.
|
||||
|
||||
|
||||
@ -355,7 +355,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
|
||||
\begin{align*}
|
||||
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
|
||||
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
|
||||
\vdots \\
|
||||
… \\
|
||||
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
|
||||
\end{align*}
|
||||
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
|
||||
@ -404,7 +404,7 @@ Jordansche Normalform zu zeigen. Die Korollare~\ref{kor:2-2-11} und
|
||||
die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
|
||||
Jordansche Normalform hat, genügt es, eine Basis zu finden, sodass die Matrix
|
||||
$N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_i·\Id_{W_i}$ Jordansche
|
||||
Normalform hat (…denn dann hat auch $A_i = λ_i·\Id_{r_i} + N_i$ Jordansche
|
||||
Normalform hat (… denn dann hat auch $A_i = λ_i·\Id_{r_i} + N_i$ Jordansche
|
||||
Normalform)
|
||||
\end{enumerate}
|
||||
|
||||
@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
|
||||
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
||||
die Vektoren
|
||||
\[
|
||||
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
|
||||
v^p_{m_p-a}
|
||||
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
|
||||
\]
|
||||
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
||||
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
||||
@ -756,8 +755,8 @@ folgt vor.
|
||||
\]
|
||||
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
|
||||
|
||||
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen
|
||||
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
|
||||
\item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir
|
||||
wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
|
||||
|
||||
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
|
||||
die duale Partition
|
||||
|
@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
\end{lem}
|
||||
|
||||
\begin{proof}[Beweis als Übungsaufgabe]
|
||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯ n} + J(0,n)$ und
|
||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯n} + J(0,n)$ und
|
||||
\[
|
||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯ n} + J(0,n) \bigr)^p
|
||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯n} + J(0,n) \bigr)^p
|
||||
\]
|
||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯ n}$ und $J(0,n)$ kommutieren,
|
||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯n}$ und $J(0,n)$ kommutieren,
|
||||
dass also die Gleichheit
|
||||
\[
|
||||
λ·\Id_{n⨯ n}·J(0,n) = λ·J(0,n)·\Id_{n⨯ n}
|
||||
λ·\Id_{n⨯n}·J(0,n) = λ·J(0,n)·\Id_{n⨯n}
|
||||
\]
|
||||
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
|
||||
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
|
||||
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
||||
Es sei $A$ eine beliebige quadratische $(n⨯ n)$-Matrix über den komplexen
|
||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
|
||||
eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, so dass $B := S·A·S^{-1}$
|
||||
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||
Es sei $A$ eine beliebige quadratische $(n⨯n)$-Matrix über den komplexen
|
||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
|
||||
effizient eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, sodass $B :=
|
||||
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||
\[
|
||||
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
||||
\]
|
||||
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
|
||||
\subsection{Wiederholung}
|
||||
|
||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
|
||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
|
||||
\[
|
||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}
|
||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}.
|
||||
\]
|
||||
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
||||
wissen, dass für jede reelle Zahl $t$ gilt
|
||||
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
|
||||
|
||||
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
|
||||
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
|
||||
$(n⨯ n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||
$(n⨯n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||
\[
|
||||
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
||||
\]
|
||||
Dabei sei $A⁰$ stets die $(n⨯ n)$-Einheitsmatrix. Diese Reihe konvergiert
|
||||
in dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||
Dabei sei $A⁰$ stets die $(n⨯n)$-Einheitsmatrix. Diese Reihe konvergiert in
|
||||
dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
||||
Operatornorm, …. Ich erhalte so eine Abbildung
|
||||
\[
|
||||
\exp : \Mat_{n⨯ n}(ℂ) → \Mat_{n⨯ n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n
|
||||
\exp : \Mat_{n⨯n}(ℂ) → \Mat_{n⨯n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n,
|
||||
\]
|
||||
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
||||
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
|
||||
|
||||
\begin{bsp}
|
||||
Es sei $A$ eine komplexe $(n⨯ n)$-Diagonalmatrix,
|
||||
Es sei $A$ eine komplexe $(n⨯n)$-Diagonalmatrix,
|
||||
\[
|
||||
A = \begin{pmatrix}
|
||||
λ_1 & & & 0 \\
|
||||
& λ_2 & \\
|
||||
& & \ddots \\
|
||||
0 & & & λ_n
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Dann ist
|
||||
\[
|
||||
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||
\]
|
||||
\end{bsp}
|
||||
|
||||
Etwas
|
||||
weitergehende Beispiele finden Sie als
|
||||
Etwas weitergehende Beispiele finden Sie als
|
||||
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||
Matrixexponentials.
|
||||
|
||||
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe
|
||||
$(n⨯ n)$-Matrizen.
|
||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n⨯
|
||||
n)$-Matrizen.
|
||||
\begin{enumerate}
|
||||
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
||||
ist), dann gilt
|
||||
@ -208,8 +207,8 @@ Matrixexponentials.
|
||||
\exp(A+B)=\exp(A)·\exp(B).
|
||||
\]
|
||||
|
||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯ n)$-Matrix
|
||||
$S$ ist
|
||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯n)$-Matrix $S$
|
||||
ist
|
||||
\[
|
||||
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
||||
\]
|
||||
@ -217,40 +216,40 @@ Matrixexponentials.
|
||||
\end{fakt}
|
||||
|
||||
\begin{beobachtung}
|
||||
Wenn $A$ irgendeine komplexe $(n⨯ n)$-Matrix ist, dann kommutieren die
|
||||
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||
Wenn $A$ irgendeine komplexe $(n⨯n)$-Matrix ist, dann kommutieren die Matrizen
|
||||
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||
\[
|
||||
\Id_{n⨯ n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||
\Id_{n⨯n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||
\]
|
||||
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
||||
$(n⨯ n)$-Matrix $A$ stets invertierbar ist, und dass
|
||||
$\exp(A)^{-1} = \exp(-A)$ gilt.
|
||||
$(n⨯n)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
|
||||
gilt.
|
||||
\end{beobachtung}
|
||||
|
||||
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
||||
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
||||
|
||||
|
||||
\section{Lineare, homogene Differentialgleichungssysteme}
|
||||
\section{Lineare, homogene Differenzialgleichungssysteme}
|
||||
|
||||
\subsection{Erinnerung}
|
||||
|
||||
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
|
||||
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||
eine differenzierbare Funktion $y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$
|
||||
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
|
||||
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
|
||||
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
|
||||
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||
eine differenzierbare Funktion $y : ℝ → ℝ$, sodass für alle $t ∈ ℝ$ gilt: $y'(t)
|
||||
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
|
||||
Sie, dass es nur eine solche Funktion gibt:
|
||||
$$
|
||||
y(t) = \exp(t·a)·y_0.
|
||||
$$
|
||||
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
||||
|
||||
|
||||
\subsection{Lineare, homogene Differentialgleichungssysteme}
|
||||
\subsection{Lineare, homogene Differenzialgleichungssysteme}
|
||||
|
||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯ n)$-Matrix $A$
|
||||
und ein Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare
|
||||
Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯n)$-Matrix $A$ und ein
|
||||
Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
|
||||
…, $y_n : ℂ → ℂ$, sodass für alle $t ∈ ℂ$ gilt:
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
y'_1(t) \\
|
||||
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
||||
y_2(t) \\
|
||||
\vdots \\
|
||||
y_n(t)
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Außerdem soll
|
||||
\[
|
||||
@ -279,8 +278,8 @@ Außerdem soll
|
||||
\]
|
||||
sein.
|
||||
|
||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
|
||||
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
|
||||
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||
gegeben als
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
@ -299,12 +298,12 @@ sein.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
\subsection{Differentialgleichungen höherer Ordnung}
|
||||
\subsection{Differenzialgleichungen höherer Ordnung}
|
||||
|
||||
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
||||
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
|
||||
$y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$ gilt:
|
||||
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : ℝ → ℝ$,
|
||||
sodass für alle $t ∈ ℝ$ gilt:
|
||||
\begin{equation}\label{eq:3-3-2-1}
|
||||
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
||||
\end{equation}
|
||||
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
|
||||
y_0 \\
|
||||
y'_0 \\
|
||||
y''_0
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
|
||||
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
|
||||
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
||||
|
||||
\begin{bsp}
|
||||
|
@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
|
||||
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
||||
\]
|
||||
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
||||
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
|
||||
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
||||
``Polynome''.
|
||||
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
|
||||
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
|
||||
|
||||
\begin{defn}[Polynome]
|
||||
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
||||
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
||||
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
||||
\end{bsp}
|
||||
|
||||
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
|
||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
|
||||
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
|
||||
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
|
||||
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
|
||||
dann sind die Polynome $t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben
|
||||
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
|
||||
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
|
||||
Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
|
||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
|
||||
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
|
||||
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
|
||||
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
|
||||
$t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
|
||||
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
|
||||
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
|
||||
des endlichen Körpers $𝔽_2$.
|
||||
|
||||
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
||||
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
||||
@ -68,22 +67,33 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||
\]
|
||||
genannt
|
||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
|
||||
Matrix $p(A)$ und eine
|
||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
|
||||
$s: k[t] → \Mat(n⨯ n, k)$ durch $s(A) = p(A)$.
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
|
||||
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
|
||||
→ \Mat(n⨯n, k)$ durch $s(A) = p(A)$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
|
||||
Matrix $S ∈ GL_n(k)$ haben, dann ist
|
||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
|
||||
GL_n(k)$ haben, dann ist
|
||||
\[
|
||||
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
||||
\]
|
||||
\end{beobachtung}
|
||||
|
||||
Der Satz von Cayley\footnote{Arthur Cayley (* 16.~August 1821 in Richmond upon
|
||||
Thames, Surrey; † 26.~Januar 1895 in Cambridge) war ein englischer Mathematiker.
|
||||
Er befasste sich mit sehr vielen Gebieten der Mathematik von der Analysis,
|
||||
Algebra, Geometrie bis zur Astronomie und Mechanik, ist aber vor allem für seine
|
||||
Rolle bei der Einführung des abstrakten Gruppenkonzepts
|
||||
bekannt.}-Hamilton\footnote{Sir William Rowan Hamilton (* 4.~August 1805 in
|
||||
Dublin; † 2.~September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker
|
||||
und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine
|
||||
Einführung und Untersuchung der Quaternionen bekannt ist.} sagt, dass jeder
|
||||
Endomorphismus Nullstelle seines eigenen charakteristischen Polynoms ist. Wie
|
||||
cool ist das?
|
||||
|
||||
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
|
||||
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
|
||||
Polynom des Endomorphismus $f$. Dann ist
|
||||
@ -96,10 +106,11 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
|
||||
\end{bemerkung}
|
||||
|
||||
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
|
||||
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
||||
|
||||
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
|
||||
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
|
||||
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
|
||||
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
|
||||
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
|
||||
\video{6-1}
|
||||
\end{proof}
|
||||
|
||||
@ -108,22 +119,22 @@ Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
||||
|
||||
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
|
||||
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
|
||||
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||
das Nullpolynom betrachten.
|
||||
|
||||
\begin{beobachtung}\label{beob:4-0-7}
|
||||
\begin{beobachtung}\label{beob:4-0-7}%
|
||||
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder
|
||||
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder ein
|
||||
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
||||
1 ist.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}\label{beob:4-0-8}
|
||||
\begin{beobachtung}\label{beob:4-0-8}%
|
||||
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
|
||||
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
|
||||
$q := p_1-p_2$. Dann gilt Folgendes.
|
||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
|
||||
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
|
||||
:= p_1-p_2$. Dann gilt Folgendes.
|
||||
\begin{itemize}
|
||||
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
||||
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
||||
@ -151,7 +162,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
||||
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
||||
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
||||
dies Minimalpolynome eindeutig bestimmt ist.
|
||||
das Minimalpolynom eindeutig bestimmt ist.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{bsp}
|
||||
@ -162,9 +173,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
5 & 1 & 0 \\
|
||||
0 & 5 & 0 \\
|
||||
0 & 0 & 5
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯ 3}$, ist das
|
||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯3}$, ist das
|
||||
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
||||
\[
|
||||
A² =
|
||||
@ -172,9 +183,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
25 & 10 & 0 \\
|
||||
0 & 25 & 0 \\
|
||||
0 & 0 & 25
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Also ist $A²-10·A+25·\Id_{3⨯ 3} = 0$. Also ist
|
||||
Also ist $A²-10·A+25·\Id_{3⨯3} = 0$. Also ist
|
||||
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
||||
hat. Das muss dann wohl das Minimalpolynom sein.
|
||||
\end{bsp}
|
||||
@ -186,17 +197,17 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
\end{bsp}
|
||||
|
||||
\begin{beobachtung}
|
||||
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe
|
||||
Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe
|
||||
Minimalpolynom.
|
||||
\end{beobachtung}
|
||||
|
||||
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||
|
||||
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
||||
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
|
||||
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
|
||||
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
|
||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
|
||||
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
|
||||
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
||||
@ -207,9 +218,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
||||
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
||||
\end{enumerate}
|
||||
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
|
||||
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
|
||||
normiert ist und $f$ als Nullstelle hat. Also hat
|
||||
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
|
||||
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
|
||||
und $f$ als Nullstelle hat. Also hat
|
||||
\[
|
||||
r(t) = q(t) - t^d·p(t)
|
||||
\]
|
||||
@ -220,8 +231,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
\end{proof}
|
||||
|
||||
\begin{satz}[Nullstellen des Minimalpolynoms]
|
||||
Es sei $k$ eine Körper, $A$ eine $(n⨯ n)$-Matrix mit Werten in $k$ und
|
||||
$λ ∈ k$. TFAE:
|
||||
Es sei $k$ ein Körper, $A$ eine $(n⨯n)$-Matrix mit Werten in $k$ und $λ ∈ k$.
|
||||
TFAE:
|
||||
\begin{enumerate}
|
||||
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
||||
|
||||
@ -239,7 +250,7 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
vollständig beantworten.
|
||||
|
||||
\begin{satz}[Beschreibung des Minimalpolynoms über $ℂ$]
|
||||
Es sei $A$ eine $(n⨯ n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||
Es sei $A$ eine $(n⨯n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
|
||||
\[
|
||||
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.
|
||||
|
@ -7,12 +7,12 @@
|
||||
\section{Die Euklidische Norm und der Euklidische Abstand}
|
||||
\label{sec:end}
|
||||
|
||||
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
|
||||
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
|
||||
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
|
||||
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
|
||||
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
|
||||
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir
|
||||
dann beliebige Vektorräume.
|
||||
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
|
||||
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir dann
|
||||
beliebige Vektorräume.
|
||||
|
||||
\begin{defn}[Euklidische Norm auf dem $ℝ^n$]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||
@ -49,17 +49,16 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
||||
|
||||
\section{Abstandserhaltende Abbildungen}
|
||||
|
||||
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
|
||||
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
|
||||
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
|
||||
beziehungsweise den Euklidischen Abstand respektieren.
|
||||
|
||||
\begin{defn}
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Eine Abbildung $φ: ℝ^n → ℝ^n$ heißt
|
||||
\emph{abstandserhaltend bezüglich der Euklidischen
|
||||
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
|
||||
oder \emph{metrikerhaltend bezüglich der Euklidischen
|
||||
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
|
||||
falls gilt:
|
||||
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
|
||||
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
|
||||
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
|
||||
\[
|
||||
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
|
||||
\vec{y} ∈ ℝ^n.
|
||||
@ -87,8 +86,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
|
||||
Abbildungen.
|
||||
|
||||
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
|
||||
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend
|
||||
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
|
||||
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend bezüglich
|
||||
der Euklidischen Norm. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
|
||||
|
||||
@ -102,20 +101,20 @@ Abbildungen.
|
||||
\end{enumerate}
|
||||
\end{lem}
|
||||
\begin{proof}
|
||||
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
|
||||
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
|
||||
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
|
||||
Wir beweisen die Teilaussage „$φ$ ist injektiv“ von \ref{il:5-2-4-1}:
|
||||
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
|
||||
φ(\vec{v}_2)$. Dann ist
|
||||
\[
|
||||
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
|
||||
\]
|
||||
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
|
||||
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
||||
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage „$φ$
|
||||
ist surjektiv“ beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
||||
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
|
||||
\end{proof}
|
||||
|
||||
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
|
||||
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
|
||||
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
||||
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
|
||||
Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
||||
\end{kor}
|
||||
|
||||
|
||||
@ -131,20 +130,20 @@ enorm.
|
||||
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
|
||||
Abbildung
|
||||
\[
|
||||
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
|
||||
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
|
||||
\]
|
||||
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
|
||||
\end{beobachtung}
|
||||
|
||||
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
|
||||
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
|
||||
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
|
||||
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
|
||||
|
||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
|
||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands}\index{Transformation des
|
||||
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
||||
abstandserhaltende Abbildung $ψ: ℝ^n ˝→ ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
||||
bezüglich des Euklidischen Abstands}\index{Transformation des $ℝ^n$!orthogonal
|
||||
bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
|
||||
ℝ^n → ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
||||
\end{defn}
|
||||
|
||||
|
||||
@ -153,19 +152,19 @@ Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
|
||||
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
|
||||
Transformation eine Gruppe bilden.
|
||||
|
||||
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
|
||||
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der
|
||||
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
|
||||
$\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$
|
||||
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$
|
||||
bezüglich der Euklidischen Norm}.
|
||||
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$ bezüglich
|
||||
der Euklidischen Norm}.
|
||||
\end{defn}
|
||||
|
||||
|
||||
\section{Das Standard-Skalarprodukt auf dem $ℝ^n$}
|
||||
\section{Das Standardskalarprodukt auf dem $ℝ^n$}
|
||||
|
||||
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
|
||||
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $ℝ^n$.
|
||||
Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
||||
|
||||
\begin{defn}[Standardskalarprodukt $ℝ^n$]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||
@ -192,35 +191,35 @@ Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $ℝ^n$.
|
||||
\end{defn}
|
||||
|
||||
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
|
||||
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
|
||||
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
|
||||
einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||
Eigenschaft einmal selbst?
|
||||
|
||||
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt folgendes:
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt Folgendes.
|
||||
\begin{description}
|
||||
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||
\[
|
||||
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
|
||||
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
|
||||
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
|
||||
\]
|
||||
|
||||
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||
\[
|
||||
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
|
||||
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
|
||||
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
|
||||
\]
|
||||
|
||||
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt
|
||||
$\langle \vec{x}, \vec{x} \rangle ≥ 0$. Außerdem gilt
|
||||
$\langle \vec{x}, \vec{x} \rangle = 0 ⇔ \vec{x} = \vec{0}$.
|
||||
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt $\langle \vec{x},
|
||||
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
|
||||
\vec{x} = \vec{0}$.
|
||||
|
||||
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ gilt
|
||||
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
|
||||
|
||||
\item[Satz von Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
||||
\item[Satz des Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
||||
und $\vec{y} ∈ ℝ^n$ gilt
|
||||
\[
|
||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
|
||||
@ -233,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
|
||||
scheint.
|
||||
|
||||
\begin{defn}[Orthogonale Vektoren]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
|
||||
$\vec{y} ∈ ℝ^n$ \emph{zueinander orthogonal}, falls
|
||||
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
|
||||
Vektoren}.
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y} ∈
|
||||
ℝ^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
|
||||
0$ ist\index{orthogonal!Paar von Vektoren}.
|
||||
\end{defn}
|
||||
|
||||
\begin{defn}[Orthonormalbasis]
|
||||
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
||||
Freunden: ONB), falls für alle $i, j$ gilt, dass
|
||||
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
|
||||
Kronecker-Delta bezeichnet.
|
||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
|
||||
ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
|
||||
δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
|
||||
\end{defn}
|
||||
|
||||
\begin{bsp}
|
||||
@ -252,12 +249,12 @@ scheint.
|
||||
Standardskalarprodukts.
|
||||
\end{bsp}
|
||||
|
||||
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
||||
Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
|
||||
|
||||
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
|
||||
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
|
||||
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$
|
||||
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
|
||||
$\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
||||
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
|
||||
sei $\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
||||
\[
|
||||
\vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i .
|
||||
\]
|
||||
@ -280,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
||||
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
|
||||
Eine Menge, wie wir sofort sehen werden.
|
||||
|
||||
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
|
||||
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die
|
||||
Gleichung
|
||||
@ -296,12 +293,12 @@ Eine Menge, wie wir sofort sehen werden.
|
||||
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr)² \Bigr) && \text{Definition}\\
|
||||
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr)² \Bigr) && φ\text{ ist abstandserhaltend}\\
|
||||
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
|
||||
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
|
||||
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
|
||||
\end{align*}
|
||||
Damit ist das Lemma bewiesen.
|
||||
\end{proof}
|
||||
|
||||
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
|
||||
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
|
||||
Orthonormalbasis des $ℝ^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
|
||||
@ -315,11 +312,11 @@ Eine Menge, wie wir sofort sehen werden.
|
||||
\section{Beschreibung der orthogonalen Transformationen}
|
||||
\label{sec:5-5}
|
||||
|
||||
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden
|
||||
Abbildungen) vollständig beschreiben.
|
||||
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
||||
vollständig beschreiben.
|
||||
|
||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
|
||||
\end{satz}
|
||||
@ -337,7 +334,7 @@ Abbildungen) vollständig beschreiben.
|
||||
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
|
||||
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
|
||||
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
|
||||
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
|
||||
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
|
||||
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
|
||||
@ -345,7 +342,7 @@ Abbildungen) vollständig beschreiben.
|
||||
Damit ist die Linearität gezeigt. \qed
|
||||
\end{proof}
|
||||
|
||||
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
|
||||
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
|
||||
des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
|
||||
\begin{enumerate}
|
||||
@ -374,8 +371,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
|
||||
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
|
||||
\end{defn}
|
||||
|
||||
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
|
||||
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
||||
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
|
||||
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit „orthogonale
|
||||
Gruppe“ zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
||||
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
247
06-Produkte.tex
247
06-Produkte.tex
@ -8,26 +8,26 @@
|
||||
\section{Bilinearformen und Skalarprodukte}
|
||||
\label{sec:skalar}
|
||||
|
||||
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
|
||||
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
|
||||
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
|
||||
und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
|
||||
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
|
||||
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
||||
diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
||||
$b: V ⨯ V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}%
|
||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: V⨯V → k$
|
||||
heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
||||
|
||||
\begin{description}
|
||||
\item[Linearität in der ersten Komponente] Für alle
|
||||
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
|
||||
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
|
||||
∈ V $ und für alle $λ ∈ k$ gilt
|
||||
\[
|
||||
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
|
||||
λ·b(\vec{y}, \vec{z}).
|
||||
\]
|
||||
|
||||
\item[Linearität in der zweiten Komponente] Für alle
|
||||
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
|
||||
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\[
|
||||
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
|
||||
λ·b(\vec{x}, \vec{z}) .
|
||||
@ -35,47 +35,45 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\end{description}
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
|
||||
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
|
||||
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
|
||||
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
|
||||
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
|
||||
Verknüpfungen einen $k$-Vektorraum.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
|
||||
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
|
||||
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
||||
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
|
||||
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
||||
Dann ist die Abbildung
|
||||
\[
|
||||
b : k^n ⨯ k^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||
\vec{v}^{\:t}·B·\vec{w}
|
||||
\]
|
||||
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich
|
||||
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder
|
||||
$^t•$ geschrieben habe. Beim Tippen schaut $•^t$ viel besser
|
||||
aus.}. Beachte dazu, dass $\vec{w}$ und $B·\vec{w}$ Spaltenvektoren sind,
|
||||
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
|
||||
mit einem Spaltenvektor ist eine $1⨯ 1$-Matrix; die Definition von $b$
|
||||
ist so zu verstehen, dass wir $1⨯ 1$-Matrizen mit den Skalaren
|
||||
identifizieren.
|
||||
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich bin nicht
|
||||
mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder $^t•$ geschrieben habe.
|
||||
Beim Tippen schaut $•^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
|
||||
$B·\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
|
||||
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1⨯
|
||||
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1⨯
|
||||
1$-Matrizen mit den Skalaren identifizieren.
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Symmetrische Bilinearform]
|
||||
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
|
||||
$b : V ⨯ V → k$ heißt
|
||||
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
|
||||
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
|
||||
gilt.
|
||||
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : V⨯V → k$
|
||||
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
|
||||
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
|
||||
\vec{x})$ gilt.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
|
||||
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
|
||||
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
|
||||
Ganz wie in Beobachtung~\ref{bem:6-1-2} bildet die Menge der symmetrischen
|
||||
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
|
||||
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
|
||||
``Matrixprodukt''. Wenn eine $n⨯ n$-Matrix $B$ die Gleichung $B^t=B$
|
||||
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
||||
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
|
||||
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
|
||||
Wenn eine $n⨯n$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
|
||||
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
||||
\[
|
||||
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^t·\vec{v}^{\:tt} =
|
||||
\vec{w}^{\:t}·B^t·\vec{v}.
|
||||
@ -86,21 +84,22 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
|
||||
Es sei $k=ℝ$ oder $k=ℚ$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
|
||||
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
||||
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
|
||||
$b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||
semidefinit}, falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x},
|
||||
\vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
||||
\vec{0}$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $ℚ$ und $ℝ$]
|
||||
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
|
||||
$k = ℝ$ und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei anderen Körpern (etwa $k = ℂ$) ist
|
||||
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x}) ≥ 0$'' bedeuten soll.
|
||||
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = ℝ$
|
||||
und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei
|
||||
anderen Körpern (etwa $k = ℂ$) ist gar nicht klar, was die Aussage
|
||||
„$b(\vec{x}, \vec{x}) ≥ 0$“ bedeuten soll.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
|
||||
@ -124,10 +123,10 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\end{pmatrix}, \quad
|
||||
\begin{pmatrix}
|
||||
π & -e \\ \frac{-256}{257} & 2
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
|
||||
``positiv semidefinit'', ``positiv definit'' und … ?
|
||||
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
|
||||
semidefinit“, „positiv definit“ und … ?
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
|
||||
@ -138,17 +137,17 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\begin{bsp}[Standardskalarprodukt, Einschränkung]
|
||||
Das Standardskalarprodukt auf dem $ℝ^n$ ist ein Skalarprodukt. Es sei $V$ ein
|
||||
reeller Vektorraum und $\langle •, • \rangle$ sei ein
|
||||
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
|
||||
$\langle •, • \rangle|_{W⨯ W}$ wieder ein Skalarprodukt.
|
||||
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
|
||||
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W⨯ W}$ wieder
|
||||
ein Skalarprodukt.
|
||||
\end{bsp}
|
||||
|
||||
\begin{bsp}[Integration]\label{bsp:Integration}
|
||||
\begin{bsp}[Integration]\label{bsp:Integration}%
|
||||
Es sei $k = ℝ$ und es sei $V = \cC⁰([0,1], ℝ)$ der Vektorraum der
|
||||
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$, wie
|
||||
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
|
||||
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
|
||||
\[
|
||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
|
||||
\langle •, • \rangle : V⨯V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
|
||||
\]
|
||||
ist ein Skalarprodukt.
|
||||
\end{bsp}
|
||||
@ -156,46 +155,46 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\subsection{Beschreibung von Bilinearformen durch Matrizen}
|
||||
|
||||
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
|
||||
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
|
||||
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
|
||||
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
|
||||
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
||||
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
|
||||
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung „Lineare
|
||||
Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
||||
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
|
||||
|
||||
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
|
||||
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
|
||||
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
|
||||
beschreiben. Das gibt es im Leben öfter.
|
||||
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
|
||||
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
|
||||
Das gibt es im Leben öfter.
|
||||
|
||||
\begin{quote}
|
||||
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
|
||||
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
|
||||
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
|
||||
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
||||
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
|
||||
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
|
||||
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
|
||||
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
||||
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
|
||||
\end{quote}
|
||||
|
||||
Wir betrachten die folgende Situation.
|
||||
|
||||
\begin{situation}\label{sit:6-3-1}
|
||||
\begin{situation}\label{sit:6-3-1}%
|
||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
|
||||
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||
\end{situation}
|
||||
|
||||
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
|
||||
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V ⨯ V → k$
|
||||
gegeben. Dann betrachte die $n⨯n$-Matrix
|
||||
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
|
||||
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V⨯V → k$ gegeben.
|
||||
Dann betrachte die $n⨯n$-Matrix
|
||||
\[
|
||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
|
||||
\]
|
||||
\end{konstruktion}
|
||||
|
||||
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
|
||||
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte
|
||||
die Bilinearform
|
||||
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
|
||||
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann
|
||||
betrachte die Bilinearform
|
||||
\[
|
||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
s_B(A) : V⨯V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
φ_B(\vec{v})^t·A·φ_B(\vec{w})
|
||||
\]
|
||||
\end{konstruktion}
|
||||
@ -209,10 +208,10 @@ Wir betrachten die folgende Situation.
|
||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
|
||||
\end{tikzcd}
|
||||
\]
|
||||
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
|
||||
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
|
||||
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
|
||||
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
||||
Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen $a_{ij}$, dann gibt
|
||||
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
|
||||
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
|
||||
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
||||
\end{aufgabe}
|
||||
|
||||
\begin{beobachtung}
|
||||
@ -221,8 +220,8 @@ Wir betrachten die folgende Situation.
|
||||
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
|
||||
Bilinearformen endlich-dimensional sind. Genauer:
|
||||
\begin{align*}
|
||||
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n⨯ n$-Matrizen}) = n² \\
|
||||
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n⨯ n$-Matrizen}) = \frac{n(n+1)}{2}
|
||||
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n⨯n$-Matrizen}) = n² \\
|
||||
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n⨯n$-Matrizen}) = \frac{n(n+1)}{2}
|
||||
\end{align*}
|
||||
\end{beobachtung}
|
||||
|
||||
@ -231,7 +230,7 @@ Wir betrachten die folgende Situation.
|
||||
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
|
||||
Bilinearform
|
||||
\[
|
||||
b : V ⨯ V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
|
||||
b : V⨯V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
|
||||
\]
|
||||
Dann ist
|
||||
\[
|
||||
@ -248,8 +247,8 @@ Wir betrachten die folgende Situation.
|
||||
\subsection{Basiswechsel}
|
||||
|
||||
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
|
||||
eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||
eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
|
||||
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||
|
||||
\begin{erinnerung}
|
||||
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
|
||||
@ -267,9 +266,9 @@ $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||
|
||||
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
|
||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||
$V$, eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
|
||||
$M_{•} := \Mat_{B_{•}}(b)$. Dann ist
|
||||
$V$, eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_•
|
||||
:= \Mat_{B_{•}}(b)$. Dann ist
|
||||
\[
|
||||
M_1 = S^t·M_2·S.
|
||||
\]
|
||||
@ -282,27 +281,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
|
||||
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
|
||||
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
|
||||
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
|
||||
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
|
||||
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
|
||||
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
|
||||
nur die Transponierte $S^t$ ausrechnen muss.
|
||||
|
||||
|
||||
\section{Sesquilinearformen und Hermitesche Produkte}
|
||||
|
||||
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
|
||||
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
|
||||
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
|
||||
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
|
||||
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
|
||||
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
|
||||
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
|
||||
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
|
||||
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
|
||||
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
|
||||
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
|
||||
Definition von „positiv definit“. Der praktische Erfolg der folgenden
|
||||
Definitionen gibt der Sache aber recht.
|
||||
|
||||
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
|
||||
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
|
||||
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
|
||||
den komplexen Zahlen. Eine
|
||||
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
|
||||
ist eine Abbildung $b: V ⨯ V → ℂ$, so dass Folgendes gilt.
|
||||
ist eine Abbildung $b: V⨯V → ℂ$, sodass Folgendes gilt.
|
||||
\begin{description}
|
||||
\item[Linearität in der ersten Komponente] Für alle
|
||||
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ ℂ$ gilt
|
||||
@ -324,18 +323,18 @@ Definitionen gibt der Sache aber recht.
|
||||
$x+i·y ↦ x - i·y$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
|
||||
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
|
||||
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
|
||||
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
|
||||
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
|
||||
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
|
||||
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
|
||||
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
|
||||
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
|
||||
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
|
||||
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
|
||||
Menge der Sesquilinearformen einen reellen Vektorraum.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
|
||||
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige
|
||||
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
||||
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
|
||||
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
||||
Dann ist die Abbildung
|
||||
\[
|
||||
b : ℂ^n ⨯ ℂ^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||
\vec{v}^{\:t}·B·\overline{\vec{w}}
|
||||
@ -360,24 +359,24 @@ Definitionen gibt der Sache aber recht.
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Hermitesche Sesquilinearform]
|
||||
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
|
||||
$b : V ⨯ V → ℂ$ heißt
|
||||
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : V⨯V →
|
||||
ℂ$ heißt
|
||||
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
|
||||
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
||||
Paris) war ein französischer
|
||||
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
||||
$\vec{y} ∈ V$ die Gleichung
|
||||
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
|
||||
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
|
||||
\overline{b(\vec{y},\vec{x})}$ gilt.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
|
||||
Es sei $b : V ⨯ V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
||||
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
|
||||
Es sei $b : V⨯V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
||||
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
|
||||
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
|
||||
imaginäre Anteil verschwinden muss.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
|
||||
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
|
||||
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
|
||||
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
|
||||
@ -386,12 +385,12 @@ Definitionen gibt der Sache aber recht.
|
||||
Vektorraumes der Sesquilinearformen bildet.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
|
||||
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
|
||||
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
|
||||
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
|
||||
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
|
||||
\emph{kein} komplexer Vektorraum.
|
||||
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
|
||||
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
|
||||
komplexer Vektorraum.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
|
||||
@ -405,18 +404,18 @@ Definitionen gibt der Sache aber recht.
|
||||
tun?
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
|
||||
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
|
||||
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
||||
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
|
||||
semidefinit}\index{positiv semidefinit}, falls für alle $\vec{x} ∈ V$ die
|
||||
Ungleichung $b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
||||
\vec{0}$.
|
||||
\end{defn}
|
||||
|
||||
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
|
||||
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
|
||||
Es sei $V$ ein komplexer Vektorraum. Ein
|
||||
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
|
||||
positiv definite, Hermitesche Sesquilinearform.
|
||||
@ -454,8 +453,8 @@ Definitionen gibt der Sache aber recht.
|
||||
Sei $V = \cC⁰([0,1];ℂ)$ der komplexe Vektorraum der komplexwertigen stetigen
|
||||
Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$. Die Abbildung
|
||||
\[
|
||||
\langle •, • \rangle : V ⨯ V → ℂ, \quad (f, g) ↦ \int¹_0
|
||||
f(t)·\overline{g(t)} dt.
|
||||
\langle •, • \rangle : V⨯V → ℂ, \quad (f, g) ↦ \int¹_0
|
||||
f(t)·\overline{g(t)} dt
|
||||
\]
|
||||
ist ein Skalarprodukt.
|
||||
\end{bsp}
|
||||
@ -488,11 +487,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
|
||||
gehen, geben wir nur die Ergebnisse an.
|
||||
|
||||
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
|
||||
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis
|
||||
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
||||
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis $B
|
||||
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
||||
bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||
\begin{itemize}
|
||||
\item Gegeben eine Sesquilinearform $b : V ⨯ V → k$, dann betrachte die
|
||||
\item Gegeben eine Sesquilinearform $b : V⨯V → k$, dann betrachte die
|
||||
$n⨯n$-Matrix
|
||||
\[
|
||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
|
||||
@ -501,7 +500,7 @@ gehen, geben wir nur die Ergebnisse an.
|
||||
\item Gegeben eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte die
|
||||
Sesquilinearlinearform
|
||||
\[
|
||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
s_B(A) : V⨯V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
|
||||
\]
|
||||
\end{itemize}
|
||||
@ -514,12 +513,12 @@ $ℂ$-Vektorräumen erhalten,
|
||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
|
||||
\end{tikzcd}
|
||||
\]
|
||||
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
||||
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
||||
Außerdem gilt folgender Satz.
|
||||
|
||||
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
|
||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||
$V$, eine Sesquilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen,
|
||||
$V$, eine Sesquilinearform $b : V⨯V → k$ und zwei angeordnete Basen,
|
||||
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{•} := \Mat_{B_{•}}(b)$. Dann
|
||||
ist
|
||||
\[
|
||||
|
@ -5,42 +5,41 @@
|
||||
\label{sec:7}
|
||||
|
||||
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
|
||||
Standardskalarprodukt auf dem $ℝ^n$ kennen gelernt. Im
|
||||
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige
|
||||
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In
|
||||
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren,
|
||||
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die
|
||||
wir zuerst am Beispiel des $ℝ^n$ kennen gelernt haben, jetzt in größerer
|
||||
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge
|
||||
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein
|
||||
Erklärvideo.
|
||||
Standardskalarprodukt auf dem $ℝ^n$ kennengelernt. Im Kapitel~\ref{sec:bskalar}
|
||||
haben wir diesen Begriff auf beliebige (endlich-dimensionale) reelle und
|
||||
komplexe Vektorräume verallgemeinert. In diesem Kapitel möchte ich Vektorräume
|
||||
mit Skalarprodukt systematisch diskutieren, und Begriffe wie „Norm“, „Abstand“,
|
||||
„Metrik“ und „Orthogonalität“, die wir zuerst am Beispiel des $ℝ^n$
|
||||
kennengelernt haben, jetzt in größerer Allgemeinheit systematisch einführen.
|
||||
Zuerst einmal kommen jede Menge Definitionen und eine langweilige Rechnung,
|
||||
deshalb auch im Moment kein Erklärvideo.
|
||||
|
||||
\begin{defn}[Euklidische und unitäre Vektorräume]
|
||||
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
|
||||
symmetrischer Bilinearform) heißt \emph{Euklidischer
|
||||
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum
|
||||
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher
|
||||
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
|
||||
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum zusammen
|
||||
mit einem Skalarprodukt (=positiv definiter Hermitescher Sequilinearform)
|
||||
heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
|
||||
\end{defn}
|
||||
|
||||
|
||||
\section{Normen auf Vektorräumen}
|
||||
|
||||
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
|
||||
Abstand auf dem $ℝ^n$ definiert. Jetzt machen wir das allgemein, für
|
||||
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||
Abstand auf dem $ℝ^n$ definiert. Jetzt machen wir das allgemein, für beliebige
|
||||
reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||
|
||||
\begin{erinnerung}[Betrag einer komplexen Zahl]
|
||||
Gegeben eine komplexe Zahl $λ = a+b·i ∈ ℂ$, dann nennen wir die reelle Zahl
|
||||
$\sqrt{a²+b²} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
|
||||
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen
|
||||
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen
|
||||
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$.
|
||||
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen Zahl}
|
||||
oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen Zahl}.
|
||||
Man schreibt auch $\|λ\|$ oder $|λ|$.
|
||||
\end{erinnerung}
|
||||
|
||||
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}
|
||||
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}%
|
||||
Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$ und es sei $V$ ein $k$-Vektorraum.
|
||||
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → ℝ$, so dass
|
||||
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → ℝ$, sodass
|
||||
folgende Eigenschaften gelten.
|
||||
\begin{description}
|
||||
\item[Absolute Homogenität] Für alle $\vec{x} ∈ V$ und alle $λ ∈ k$ gilt:
|
||||
@ -55,15 +54,15 @@ beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||
\end{defn}
|
||||
|
||||
\begin{notation}[Normierte Vektorräume]
|
||||
\index{normiert!Vektorraum}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$.
|
||||
Ein normierter $k$-Vektorraum $\bigl( V, \|•\|\bigr)$ ist ein
|
||||
$k$-Vektorraum $V$ zusammen mit einer Norm $\|•\|$.
|
||||
\index{normiert!Vektorraum}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. Ein
|
||||
normierter $k$-Vektorraum $\bigl( V, \|•\|\bigr)$ ist ein $k$-Vektorraum $V$
|
||||
zusammen mit einer Norm $\|•\|$.
|
||||
\end{notation}
|
||||
|
||||
\begin{notation}[Normierte Vektorräume]
|
||||
\index{normiert!Vektor}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. und es
|
||||
sei $\bigl( V, \|•\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor
|
||||
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
|
||||
\index{normiert!Vektor}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. und es sei
|
||||
$\bigl( V, \|•\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\vec{v} ∈
|
||||
V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
|
||||
\end{notation}
|
||||
|
||||
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
|
||||
@ -79,27 +78,17 @@ unmittelbar aus der Definition folgen.
|
||||
Also ist $\| \vec{x} \| ≥ 0$ für alle $\vec{x} ∈ V$.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{bemerkung}[Satz des Pythagoras]
|
||||
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
|
||||
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
|
||||
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
|
||||
\[
|
||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
|
||||
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
|
||||
\]
|
||||
\end{bemerkung}
|
||||
|
||||
|
||||
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
|
||||
|
||||
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
|
||||
Als Erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
|
||||
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
|
||||
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
|
||||
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennengelernt haben,
|
||||
sofort Beispiele für Normen.
|
||||
|
||||
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}
|
||||
Wenn $\bigl( V, \langle•\rangle\bigr)$ irgendein Euklidischer oder
|
||||
unitärer Vektorraum ist, dann definiert die Abbildung
|
||||
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}%
|
||||
Wenn $\bigl( V, \langle•,•\rangle\bigr)$ irgendein Euklidischer oder unitärer
|
||||
Vektorraum ist, dann definiert die Abbildung
|
||||
\[
|
||||
\|•\| : V → ℝ, \quad \vec{x} ↦ \sqrt{\langle \vec{x}, \vec{x} \rangle}
|
||||
\]
|
||||
@ -107,29 +96,33 @@ sofort Beispiele für Normen.
|
||||
\end{satz}
|
||||
|
||||
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
|
||||
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung,
|
||||
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
|
||||
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige
|
||||
„Cauchy\footnote{\href{https://de.wikipedia.org/wiki/Augustin-Louis_Cauchy}{Baron
|
||||
Augustin-Louis Cauchy} (* 21.~August 1789 in Paris; † 23.~Mai 1857 in Sceaux)
|
||||
war ein französischer
|
||||
Mathematiker.}-Schwarzsche\footnote{\href{https://de.wikipedia.org/wiki/Hermann_Amandus_Schwarz}{Karl
|
||||
Hermann Amandus Schwarz} (* 25.~Januar 1843 in Hermsdorf, Provinz Schlesien; †
|
||||
30.~November 1921 in Berlin) war ein deutscher Mathematiker. } Ungleichung“, die
|
||||
sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
||||
|
||||
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
|
||||
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y}
|
||||
∈ V$
|
||||
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} ∈ V$
|
||||
\[
|
||||
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
|
||||
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
|
||||
\]
|
||||
\end{satz}
|
||||
\begin{proof}[Beweis durch unangenehme Rechnerei]
|
||||
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für
|
||||
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist
|
||||
wegen positiver Definitheit der Hermiteschen Form
|
||||
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für $\vec{y}
|
||||
= \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist wegen
|
||||
positiver Definitheit der Hermiteschen Form
|
||||
\begin{align*}
|
||||
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
|
||||
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
|
||||
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
|
||||
\end{align*}
|
||||
Jetzt betrachte den Spezialfall wo
|
||||
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y},
|
||||
\vec{y} \rangle}$ ist. Dann ergibt sich
|
||||
Jetzt betrachte den Spezialfall wo $λ= \frac{\overline{\langle \vec{y},
|
||||
\vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}$ ist. Dann ergibt sich
|
||||
\begin{align*}
|
||||
&& 0 &≤ \langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle|²}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
|
||||
⇒ && 0 &≤ \langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle|²\\
|
||||
@ -140,10 +133,10 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
|
||||
\end{proof}
|
||||
|
||||
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
|
||||
Um zu zeigen, dass die Abbildung $\|•\| : V → ℝ$ aus
|
||||
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei
|
||||
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive
|
||||
Definitheit'' zeigen. Auf geht's.
|
||||
Um zu zeigen, dass die Abbildung $\|•\| : V → ℝ$ aus Satz~\ref{satz:sin}
|
||||
tatsächlich eine Norm ist, müssen wir die drei Eigenschaften „absolute
|
||||
Homogenität“, „Dreiecksungleichung“ und „positive Definitheit“ zeigen. Auf
|
||||
geht's.
|
||||
|
||||
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
|
||||
Vektor und es sei $λ$ irgendein Skalar. Dann ist
|
||||
@ -156,7 +149,7 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
|
||||
Damit ist die absolute Homogenität gezeigt.
|
||||
|
||||
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
|
||||
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung
|
||||
beliebige Vektoren. Dann folgt mithilfe der Cauchy-Schwarzschen Ungleichung
|
||||
folgendes.
|
||||
\begin{align*}
|
||||
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
|
||||
@ -173,6 +166,16 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
|
||||
Satz~\ref{satz:sin} bewiesen.
|
||||
\end{proof}
|
||||
|
||||
\begin{bemerkung}[Satz des Pythagoras]
|
||||
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
|
||||
Satz~\ref{satz:sin} gilt der Satz des Pythagoras: gegeben Vektoren $\vec{x}$
|
||||
und $\vec{y}$ aus $V$, dann gilt
|
||||
\[
|
||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
|
||||
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
|
||||
\]
|
||||
\end{bemerkung}
|
||||
|
||||
|
||||
\subsection{Beispiele: Normen, die von Normen kommen}
|
||||
|
||||
@ -181,9 +184,9 @@ die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
|
||||
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
|
||||
ein wenig Analysis voraussetzen).
|
||||
|
||||
\begin{bsp}[Operatornorm]\label{bsp:opNorm}
|
||||
Es seien $\bigl( V, \|•\|_V\bigr)$ und $\bigl( W, \|•\|_W\bigr)$
|
||||
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
|
||||
\begin{bsp}[Operatornorm]\label{bsp:opNorm}%
|
||||
Es seien $\bigl( V, \|•\|_V\bigr)$ und $\bigl( W, \|•\|_W\bigr)$ zwei
|
||||
endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
|
||||
Abbildung
|
||||
\[
|
||||
\|•\|_{\operatorname{op}} : \Hom_{ℝ}(V,W) → ℝ, \quad %
|
||||
@ -219,7 +222,7 @@ Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
|
||||
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
|
||||
Beispiele.
|
||||
|
||||
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}
|
||||
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}%
|
||||
Die Manhattan-Norm auf dem Vektorraum $ℝ^n$ ist gegeben als
|
||||
\[
|
||||
\| • \|_1 : ℝ^n → ℝ, \quad
|
||||
@ -240,29 +243,29 @@ Beispiele.
|
||||
\end{bsp}
|
||||
|
||||
\begin{bsp}[Einschränkungen von Normen]
|
||||
Es sei $\bigl( V, \|•\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$
|
||||
sei ein Untervektorraum. Dann ist die Einschränkung $\|•\|_V|_W$ eine Norma
|
||||
auf $W$.
|
||||
Es sei $\bigl( V, \|•\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ sei ein
|
||||
Untervektorraum. Dann ist die Einschränkung $\|•\|_V|_W$ eine Norma auf $W$.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
\section{Metriken}
|
||||
|
||||
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit
|
||||
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der
|
||||
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
|
||||
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir
|
||||
mithilfe einer Norm einen Begriff von „Abstand“ oder „Metrik“ definieren. Der
|
||||
Begriff „Metrik“ ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
|
||||
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
|
||||
|
||||
\begin{defn}[Metrik]
|
||||
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung
|
||||
$d: M ⨯ M → ℝ$, so dass Folgendes gilt.
|
||||
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung $d:
|
||||
M ⨯ M → ℝ$, sodass Folgendes gilt.
|
||||
\begin{description}
|
||||
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
|
||||
|
||||
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$
|
||||
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) +
|
||||
d(y,z)$
|
||||
|
||||
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x) ≥ 0$. Zusätzlich
|
||||
gilt: $d(x,y) = 0 ⇔ x = y$.
|
||||
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x) ≥ 0$.
|
||||
Zusätzlich gilt: $d(x,y) = 0 ⇔ x = y$.
|
||||
\end{description}
|
||||
\end{defn}
|
||||
|
||||
|
@ -3,20 +3,18 @@
|
||||
|
||||
\chapter{Orthogonale Projektion}
|
||||
|
||||
In diesem Kapitel sei $\bigl( V, \langle•\rangle\bigr)$ stets ein
|
||||
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht,
|
||||
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|•\|$
|
||||
bezeichnen.
|
||||
In diesem Kapitel sei $\bigl( V, \langle•,•\rangle\bigr)$ stets ein euklidischer
|
||||
oder unitärer Vektorraum. Wenn keine Verwechslungsgefahr besteht, werden wir
|
||||
die durch das Skalarprodukt induzierte Norm einfach mit $\|•\|$ bezeichnen.
|
||||
|
||||
|
||||
\section{Orthogonalität und Orthonormalität}
|
||||
|
||||
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also
|
||||
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des
|
||||
Skalarproduktes.
|
||||
Der zentrale Begriff in diesem Kapitel ist „orthogonal“, also „steht senkrecht
|
||||
aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
||||
|
||||
\begin{defn}[Orthogonal]\label{def:orth}
|
||||
Es sei $\bigl( V, \langle•\rangle\bigr)$ ein Euklidischer oder unitärer
|
||||
\begin{defn}[Orthogonal]\label{def:orth}%
|
||||
Es sei $\bigl( V, \langle•,•\rangle\bigr)$ ein Euklidischer oder unitärer
|
||||
Vektorraum.
|
||||
\begin{enumerate}
|
||||
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
|
||||
@ -27,12 +25,12 @@ Skalarproduktes.
|
||||
|
||||
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
|
||||
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
|
||||
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung
|
||||
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt.
|
||||
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung $\langle \vec{u},
|
||||
\vec{w} \rangle = 0$ gilt.
|
||||
|
||||
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann
|
||||
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales
|
||||
Komplement} als
|
||||
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann definieren
|
||||
wir das \emph{orthogonale Komplement von $U$}\index{orthogonales Komplement}
|
||||
als
|
||||
\[
|
||||
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
|
||||
\vec{u} ∈ U \}.
|
||||
@ -45,10 +43,10 @@ Skalarproduktes.
|
||||
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
|
||||
\]
|
||||
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
|
||||
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung
|
||||
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt
|
||||
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie
|
||||
zusätzlich eine Basis ist.
|
||||
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung $\|
|
||||
\vec{v}_i \| = 1$ gilt. Falls eine orthonormale Familie zusätzlich eine
|
||||
Basis ist, dann nenne die Familie
|
||||
\emph{Orthonormalbasis}\index{Orthonormalbasis} und schreibe kurz: „ONB“.
|
||||
\end{enumerate}
|
||||
\end{defn}
|
||||
|
||||
@ -60,15 +58,15 @@ Skalarproduktes.
|
||||
\begin{beobachtung}
|
||||
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
|
||||
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
|
||||
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn
|
||||
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$.
|
||||
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn $\vec{v} \perp
|
||||
\vec{u}_i$ ist für alle Indizes $i ∈ I$.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}
|
||||
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen
|
||||
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen
|
||||
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser
|
||||
Situation war der ``orthogonale Unterraum'' der Raum
|
||||
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}%
|
||||
Wir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen
|
||||
Begriff von „orthogonalen Unterraum“. Die Situation war die, dass es einen
|
||||
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser Situation
|
||||
war der „orthogonale Unterraum“ der Raum
|
||||
\[
|
||||
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
|
||||
\]
|
||||
@ -78,11 +76,10 @@ Skalarproduktes.
|
||||
|
||||
\begin{bsp}[Der Standardraum $ℝ^n$]
|
||||
Betrachten den Vektorraum $ℝ^n$ mit dem Standardskalarprodukt. Dann ist die
|
||||
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume
|
||||
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und
|
||||
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale
|
||||
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist
|
||||
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
|
||||
Standardbasis eine Orthonormalbasis. Die Untervektorräume $\langle \vec{e}_1,
|
||||
\vec{e}_2 \rangle$ und $\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal.
|
||||
Das orthogonale Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2
|
||||
\rangle$ ist $\langle \vec{e}_3, …, \vec{e}_n \rangle$.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
@ -92,7 +89,7 @@ Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
|
||||
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
||||
|
||||
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
|
||||
Es sei $\bigl( V, \langle•\rangle\bigr)$ ein euklidischer oder unitärer
|
||||
Es sei $\bigl( V, \langle•,•\rangle\bigr)$ ein euklidischer oder unitärer
|
||||
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
|
||||
$\vec{v}_1 \ne \vec{0}$. Setze
|
||||
\[
|
||||
@ -100,19 +97,18 @@ kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
||||
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
|
||||
\]
|
||||
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
|
||||
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch
|
||||
$\{\vec{v}_1, \vec{v}\,'_2\}$.
|
||||
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1,
|
||||
\vec{v}\,'_2\}$.
|
||||
\end{bsp}
|
||||
|
||||
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und
|
||||
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
|
||||
Wir bauen das „Rezept, um Vektoren orthogonal machen“ ein wenig aus und erhalten
|
||||
einen „Basisergänzungssatz für Orthonormalbasen“.
|
||||
|
||||
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}
|
||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei
|
||||
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
|
||||
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}%
|
||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und
|
||||
sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
|
||||
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
|
||||
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$
|
||||
ergänzen.
|
||||
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ ergänzen.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
\video{11-1}
|
||||
@ -126,38 +122,35 @@ erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
|
||||
\begin{beobachtung}[Gram-Schmidt Verfahren]
|
||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
|
||||
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
|
||||
ein effektives, induktives Verfahren um aus einer gegebenen Basis
|
||||
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB
|
||||
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so:
|
||||
ein effektives, induktives Verfahren um aus einer gegebenen Basis $\{
|
||||
\vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB $\{ \vec{u}_1, …, \vec{u}_n \}$
|
||||
zu konstruieren. Man startet so:
|
||||
\begin{itemize}
|
||||
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
|
||||
|
||||
\item Definiere.
|
||||
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle·
|
||||
\vec{u}_1$.
|
||||
\item Definiere. $\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1
|
||||
\rangle· \vec{u}_1$.
|
||||
|
||||
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
|
||||
\end{itemize}
|
||||
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
|
||||
folgt vor:
|
||||
\begin{itemize}
|
||||
\item Definiere.
|
||||
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1},
|
||||
\vec{u}_j \rangle·\vec{u}_j$.
|
||||
\item Definiere. $\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle
|
||||
\vec{v}_{k+1}, \vec{u}_j \rangle·\vec{u}_j$.
|
||||
|
||||
\item Normiere.
|
||||
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
|
||||
\end{itemize}
|
||||
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für
|
||||
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen
|
||||
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …,
|
||||
\vec{v}_i \rangle$.
|
||||
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für alle
|
||||
Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen $\langle \vec{u}_1,
|
||||
…, \vec{u}_i \rangle = \langle \vec{v}_1, …, \vec{v}_i \rangle$.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}
|
||||
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}%
|
||||
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
|
||||
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor
|
||||
$\vec{v} ∈ V$ eindeutig schreiben als
|
||||
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor $\vec{v}
|
||||
∈ V$ eindeutig schreiben als
|
||||
\[
|
||||
\vec{v} = p(\vec{v}) + r(\vec{v}),
|
||||
\]
|
||||
@ -169,24 +162,24 @@ erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
|
||||
|
||||
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
|
||||
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
|
||||
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale
|
||||
Projektion'' bezeichnen.
|
||||
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als „orthogonale
|
||||
Projektion“ bezeichnen.
|
||||
|
||||
\begin{beobachtung}[Orthogonale Projektion]
|
||||
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
|
||||
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
|
||||
\[
|
||||
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i
|
||||
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i.
|
||||
\]
|
||||
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist
|
||||
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den
|
||||
Unterraum $U$}\index{orthogonale Projektion}.
|
||||
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist $\ker p =
|
||||
U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den Unterraum
|
||||
$U$}\index{orthogonale Projektion}.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
|
||||
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
|
||||
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für
|
||||
$\vec{w} ∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
|
||||
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für $\vec{w}
|
||||
∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
|
||||
\begin{align*}
|
||||
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
|
||||
& ≥ \| p(\vec{v})-\vec{v} \|².
|
||||
@ -199,13 +192,13 @@ Projektion'' bezeichnen.
|
||||
\subsection{Der Dualraum}
|
||||
\label{sec:dual}
|
||||
|
||||
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare
|
||||
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere:
|
||||
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung „Lineare
|
||||
Algebra I“ ist der des „Dualraum“. Alle Studenten lieben das. Ich erinnere:
|
||||
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
|
||||
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
|
||||
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
|
||||
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
|
||||
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
|
||||
finden, wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
|
||||
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
|
||||
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
|
||||
Abbildungen, die die Gleichungen
|
||||
@ -228,9 +221,9 @@ war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
|
||||
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
|
||||
$V^*$.
|
||||
|
||||
\begin{satz}\label{satz:8-3-1}
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung
|
||||
\begin{satz}\label{satz:8-3-1}%
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||
euklidischer Vektorraum. Dann ist die Abbildung
|
||||
\[
|
||||
s: V → V^*, \quad \vec{v} ↦ \langle • ,\vec{v} \rangle
|
||||
\]
|
||||
@ -244,20 +237,20 @@ $V^*$.
|
||||
\end{proof}
|
||||
|
||||
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
|
||||
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra
|
||||
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären.
|
||||
Der folgende Satz löst dieses Versprechen ein.
|
||||
zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“
|
||||
und dem „orthogonalen Komplement“ aus Definition~\ref{def:orth} zu klären. Der
|
||||
folgende Satz löst dieses Versprechen ein.
|
||||
|
||||
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3}
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||
\begin{satz}[Orthogonales Komplement und orthogonale
|
||||
Unterräume]\label{satz:8-3-3} Es sei $\bigl(V, \langle •, • \rangle \bigr)$
|
||||
ein endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
|
||||
Satz~\ref{satz:8-3-1}. Dann gilt folgendes.
|
||||
Satz~\ref{satz:8-3-1}. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
|
||||
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen
|
||||
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist
|
||||
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$).
|
||||
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen den
|
||||
Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist $\dim U^\perp = \dim
|
||||
U⁰$ (…nämlich gleich $\dim V - \dim U$).
|
||||
|
||||
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
|
||||
Summe $V = U ⊕ U^\perp$.
|
||||
@ -267,19 +260,19 @@ Der folgende Satz löst dieses Versprechen ein.
|
||||
\video{12-3}
|
||||
\end{proof}
|
||||
|
||||
\begin{kor}\label{kro:8-3-3}
|
||||
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit
|
||||
$\bigl( U^\perp \bigr)^\perp = U$.
|
||||
\begin{kor}\label{kro:8-3-3}%
|
||||
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit $\bigl( U^\perp
|
||||
\bigr)^\perp = U$.
|
||||
\end{kor}
|
||||
\begin{proof}
|
||||
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
|
||||
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
|
||||
Gleichheit folgt mithilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
|
||||
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
|
||||
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage
|
||||
``$\vec{u} ∈ \bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent
|
||||
dazu, ist zu zeigen, dass gilt:
|
||||
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage „$\vec{u} ∈ \bigl(
|
||||
U^\perp \bigr)^\perp$“ ist dann per Definition äquivalent dazu, ist zu zeigen,
|
||||
dass gilt:
|
||||
\[
|
||||
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp
|
||||
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp.
|
||||
\]
|
||||
Das ist aber klar nach Definition von $U^\perp$.
|
||||
\end{proof}
|
||||
@ -293,15 +286,14 @@ Der folgende Satz löst dieses Versprechen ein.
|
||||
\subsubsection{Unitäre Vektorräume}
|
||||
|
||||
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
|
||||
den Fall von unitären Vektorräumen. Falls
|
||||
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und
|
||||
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet
|
||||
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle
|
||||
Skalare $λ ∈ ℂ$ die Gleichungen
|
||||
den Fall von unitären Vektorräumen. Falls $\bigl(V, \langle •, • \rangle
|
||||
\bigr)$ ein endlich-dimensionaler unitärer Vektorraum ist, dann ist die
|
||||
Abbildung $s$ bijektiv und \emph{semi-linear}\index{semi-lineare Abbildung}.
|
||||
Dabei bedeutet „semi-linear“, dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$
|
||||
und alle Skalare $λ ∈ ℂ$ die Gleichungen
|
||||
\[
|
||||
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
|
||||
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}).
|
||||
f(λ·\vec{x}) = \overline{λ}·f(\vec{x})
|
||||
\]
|
||||
gelten.
|
||||
|
||||
@ -326,17 +318,16 @@ gelten.
|
||||
\subsection{Quotientenräume}
|
||||
|
||||
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
|
||||
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$
|
||||
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es
|
||||
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit
|
||||
einem bekannten Vektorraum.
|
||||
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ identifiziert,
|
||||
der uns aus der Vorlesung „Lineare Algebra I“ vertraut war. Es gibt noch eine
|
||||
andere kanonische Identifikation des orthogonalen Komplements mit einem
|
||||
bekannten Vektorraum.
|
||||
|
||||
\begin{satz}\label{satz:8-3-6}
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem
|
||||
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement
|
||||
$U^\perp$.
|
||||
\begin{satz}\label{satz:8-3-6}%
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||
euklidischer Vektorraum und es sei $U ⊂ V$ ein Untervektorraum. Dann gibt es
|
||||
einen kanonischen Isomorphismus zwischen dem Vektorraumquotienten
|
||||
$\factor{V}{U}$ und dem orthogonalen Komplement $U^\perp$.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
\video{12-4}
|
||||
@ -355,34 +346,33 @@ einem bekannten Vektorraum.
|
||||
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
|
||||
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
|
||||
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
|
||||
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die
|
||||
wir „selbstadjungierte Abbildungen“ diskutieren. Zuallererst legen wir die
|
||||
Situation fest, die wir in diesem Abschnitt genau betrachten.
|
||||
|
||||
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}
|
||||
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und
|
||||
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional
|
||||
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren
|
||||
Dualräumen bezeichnen wir mit
|
||||
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}%
|
||||
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und $\bigl(W, \langle •, •
|
||||
\rangle_W \bigr)$ zwei endlich-dimensional euklidische Vektorräume. Die
|
||||
kanonischen Identifikationen der Räume mit ihren Dualräumen bezeichnen wir mit
|
||||
\[
|
||||
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
|
||||
\]
|
||||
\end{situation}
|
||||
|
||||
\begin{erinnerung}
|
||||
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare
|
||||
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich
|
||||
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung „Lineare
|
||||
Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich
|
||||
\[
|
||||
f^* : W^* → V^*, \quad φ ↦ φ◦f.
|
||||
\]
|
||||
\end{erinnerung}
|
||||
|
||||
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}
|
||||
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}%
|
||||
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
||||
Betrachte das folgende Diagramm:
|
||||
\begin{equation}\label{eq:8-5-3-1}
|
||||
\begin{tikzcd}[column sep=3cm]
|
||||
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
|
||||
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"]
|
||||
V^* & W^*. \arrow[l, "f^*\text{, Rückzugsabbildung}"]
|
||||
\end{tikzcd}
|
||||
\end{equation}
|
||||
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
|
||||
@ -390,26 +380,26 @@ Situation fest, die wir in diesem Abschnitt genau betrachten.
|
||||
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
|
||||
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
|
||||
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
|
||||
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und
|
||||
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen,
|
||||
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die
|
||||
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle
|
||||
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und $f^*◦ s_W ◦
|
||||
f$ besteht. Wir interessieren uns aber für Bedingungen, die Gleichheit der
|
||||
Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen $s_V$
|
||||
und $f^*◦ s_W ◦ f$ gleich sind, falls für alle $\vec{v} ∈ V$ die folgende
|
||||
Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||
\begin{equation}\label{eq:8-5-3-2}
|
||||
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v})
|
||||
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}).
|
||||
\end{equation}
|
||||
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$,
|
||||
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und
|
||||
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die
|
||||
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||
Das lässt sich explizit hinschreiben, indem ich die Definitionen von $s_V$,
|
||||
$s_W$ und $f^*$ einsetze. Dann erhalte ich: Die Abbildungen $s_V$ und $f^*◦
|
||||
s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die folgende Gleichheit von
|
||||
Elementen im Dualraum $V^*$ gilt,
|
||||
\begin{align*}
|
||||
\langle •, \vec{v} \rangle_V %
|
||||
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
|
||||
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
|
||||
\end{align*}
|
||||
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und
|
||||
$f^*◦ s_W ◦ f$ sind gleich, falls für alle
|
||||
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt,
|
||||
Das lässt sich noch einfacher formulieren: Die Abbildungen $s_V$ und $f^*◦ s_W
|
||||
◦ f$ sind gleich, falls für alle $\vec{v}_1, \vec{v}_2 ∈ V$ die folgende
|
||||
Gleichheit von Skalaren gilt,
|
||||
\begin{align*}
|
||||
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
|
||||
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
|
||||
@ -431,9 +421,9 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
|
||||
wird mit dem Symbol $f^{\ad}$ bezeichnet.
|
||||
\end{defn}
|
||||
|
||||
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}
|
||||
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}%
|
||||
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
||||
Dann gilt folgendes.
|
||||
Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
|
||||
|
||||
@ -449,7 +439,7 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
|
||||
\sideremark{Vorlesung 13}\video{13-1}
|
||||
\end{proof}
|
||||
|
||||
\begin{prop}\label{prop:8-4-6}
|
||||
\begin{prop}\label{prop:8-4-6}%
|
||||
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
|
||||
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
|
||||
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
|
||||
@ -473,7 +463,7 @@ Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
|
||||
unitäre Vektorräume.
|
||||
|
||||
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
|
||||
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie
|
||||
Finden Sie heraus, welche Aussagen genau gelten und schreiben Sie
|
||||
schulbuchmäßige Beweise dieser Aussagen auf.
|
||||
\end{aufgabe}
|
||||
|
||||
|
@ -5,44 +5,44 @@
|
||||
|
||||
\section{Orthogonale und unitäre Abbildungen}
|
||||
|
||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
|
||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
|
||||
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
|
||||
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
|
||||
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
|
||||
die folgende Situation.
|
||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits „orthogonale
|
||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
|
||||
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
|
||||
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
|
||||
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
||||
folgende Situation.
|
||||
|
||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
|
||||
Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||
Endomorphismus.
|
||||
\end{situation}
|
||||
|
||||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
|
||||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
|
||||
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
||||
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
||||
beziehungsweise
|
||||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
|
||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
|
||||
für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||||
\[
|
||||
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
||||
\rangle.
|
||||
\]
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
|
||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
|
||||
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
|
||||
Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
|
||||
Standardskalarprodukt erhält. Damit ist klar, dass
|
||||
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands'') ein Spezialfall von
|
||||
Definition~\vref{defn-orthoTraf} („orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands“) ein Spezialfall von
|
||||
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
|
||||
vorliegende Skript einigermaßen konsistent!
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}
|
||||
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
|
||||
``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
|
||||
„orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands“
|
||||
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
|
||||
eine Matrix die an Achsen dreht oder spiegelt.
|
||||
\end{bsp}
|
||||
@ -52,13 +52,13 @@ die folgende Situation.
|
||||
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
|
||||
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
|
||||
\[
|
||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
|
||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
|
||||
\]
|
||||
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
|
||||
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
|
||||
\end{aufgabe}
|
||||
|
||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
|
||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
|
||||
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
|
||||
unitär. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
@ -80,18 +80,18 @@ die folgende Situation.
|
||||
\video{13-3}
|
||||
\end{proof}
|
||||
|
||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}
|
||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
|
||||
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
|
||||
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
|
||||
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
|
||||
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
|
||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
|
||||
Frage.
|
||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
|
||||
infrage.
|
||||
\end{rem}
|
||||
|
||||
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
|
||||
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
|
||||
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
|
||||
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
|
||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
|
||||
\[
|
||||
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
|
||||
@ -107,7 +107,7 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
|
||||
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
|
||||
Transformation eine Gruppe bilden.
|
||||
|
||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
|
||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
|
||||
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
|
||||
@ -125,21 +125,24 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
|
||||
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
||||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
|
||||
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
||||
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
||||
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
||||
In Situation~\ref{sit:9-1-1} sei
|
||||
\[
|
||||
B := \{ \vec{v}_1, …, \vec{v}_n \}
|
||||
\]
|
||||
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
|
||||
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||
\begin{enumerate}
|
||||
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
||||
|
||||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
|
||||
$Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n ⨯
|
||||
n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||||
\end{enumerate}
|
||||
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
||||
wie immer für die komplex-konjugierte Matrix.
|
||||
\end{aufgabe}
|
||||
|
||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
|
||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
|
||||
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
|
||||
erweitern.
|
||||
|
||||
@ -148,12 +151,12 @@ erweitern.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
|
||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
|
||||
$A^{-1} = A^t$ gilt.
|
||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
|
||||
A^t$ gilt.
|
||||
|
||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
|
||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
|
||||
$A^{-1} = \overline{A^t}$ gilt.
|
||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
|
||||
\overline{A^t}$ gilt.
|
||||
\end{enumerate}
|
||||
\end{defn}
|
||||
|
||||
@ -165,17 +168,16 @@ erweitern.
|
||||
\mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
|
||||
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
|
||||
\mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
|
||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
|
||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
|
||||
\end{align*}
|
||||
Der
|
||||
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
|
||||
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
|
||||
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
|
||||
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
|
||||
Gruppen handelt.
|
||||
\end{notation}
|
||||
|
||||
\begin{proposition}[Einfache Eigenschaften]
|
||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
|
||||
$A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯
|
||||
n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||
\begin{enumerate}
|
||||
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
|
||||
|
||||
@ -196,9 +198,9 @@ erweitern.
|
||||
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
|
||||
\]
|
||||
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
|
||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber
|
||||
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
|
||||
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber genau
|
||||
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
|
||||
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
|
||||
betrachte dann $A · A^t$.
|
||||
\end{proof}
|
||||
@ -243,12 +245,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
|
||||
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
|
||||
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
|
||||
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
|
||||
die orthogonalen $2⨯ 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||||
die orthogonalen $2⨯2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||||
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
|
||||
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||
|
||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
|
||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
|
||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
|
||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, sodass folgende
|
||||
Gleichung gilt.
|
||||
\[
|
||||
A =
|
||||
@ -274,15 +276,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||
\end{erkl}
|
||||
|
||||
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
|
||||
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
|
||||
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
|
||||
sind.
|
||||
|
||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
|
||||
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
|
||||
folgende Blockgestalt hat
|
||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
|
||||
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
|
||||
Blockgestalt hat
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
\Id_{a ⨯ a} & \\
|
||||
@ -292,9 +294,8 @@ sind.
|
||||
& & & & A_k \\
|
||||
\end{pmatrix}
|
||||
\]
|
||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
|
||||
$\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
|
||||
entsprechenden Größe sind.
|
||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils
|
||||
Einheitsmatrizen der entsprechenden Größe sind.
|
||||
\end{satz}
|
||||
|
||||
|
||||
@ -306,11 +307,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
|
||||
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
|
||||
einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
|
||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
|
||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
|
||||
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
|
||||
einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
|
||||
$V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
|
||||
Addition
|
||||
einen komplexen Vektorraum $V^ℂ$ wie folgt: Wir betrachten die Menge $V^ℂ :=
|
||||
V ⨯ V$ und definieren eine Addition durch komponentenweise Addition
|
||||
\[
|
||||
+ : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
|
||||
\]
|
||||
@ -318,7 +318,7 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
\[
|
||||
· : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
|
||||
\]
|
||||
Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
|
||||
Rechnen Sie nach, dass dies tatsächlich ein $ℂ$-Vektorraum ist, wen wir als
|
||||
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
|
||||
Vektorraumes} bezeichnen.
|
||||
\end{konstruktion}
|
||||
@ -326,8 +326,8 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
|
||||
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
|
||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
|
||||
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
|
||||
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||
komplexifiziertem Vektorraum}
|
||||
\[
|
||||
\overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
|
||||
@ -335,47 +335,45 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
|
||||
Vektorraum in seine Komplexifizierung}
|
||||
\[
|
||||
ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||
ι : V → V^ℂ, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||
\]
|
||||
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||
Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
|
||||
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||
Teilmenge von $V^ℂ$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
|
||||
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||
schreiben $\vec{v}^{\:ℂ}$.
|
||||
\end{notation}
|
||||
|
||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
|
||||
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
|
||||
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
|
||||
$B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
|
||||
dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist,
|
||||
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
|
||||
$f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
|
||||
$f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass
|
||||
$f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die
|
||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
|
||||
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
|
||||
nach, dass die komplexifizierte Basis $B^ℂ := \{ \vec{v}^{\:ℂ}_1, …,
|
||||
\vec{v}^{\:ℂ}_n \} ⊂ V^ℂ$ dann eine Basis von $V^ℂ$. Noch besser: wenn $f : V
|
||||
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
|
||||
Abbildung $f^ℂ : V^ℂ → V^ℂ$, sodass für alle Indizes $i$ gilt:
|
||||
$f^ℂ(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass $f^ℂ$
|
||||
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^ℂ$ die
|
||||
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
|
||||
Abbildung}.
|
||||
\end{konstruktion}
|
||||
|
||||
\begin{beobachtung}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
|
||||
Vektor $\vec{v} ∈ V$ die Gleichheit
|
||||
$f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
|
||||
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ℂ = f^ℂ(\vec{v}^{\:ℂ})$ gilt.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
|
||||
Gleichheiten
|
||||
\[
|
||||
\Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
|
||||
χ_f(t) = χ_{f^{ℂ}}(t)
|
||||
\Mat^B_B(f) = \Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ) \quad\text{und}\quad
|
||||
χ_f(t) = χ_{f^ℂ}(t)
|
||||
\]
|
||||
gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
|
||||
Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit
|
||||
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
|
||||
$\vec{v} ∈ V^{ℂ}$ die Gleichung
|
||||
gelten. Insbesondere ist $\Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ)$ eine reelle Matrix und
|
||||
$χ_{f^ℂ}$ ist ein reelles Polynom. Außerdem ist $f^ℂ$ mit der Konjugation
|
||||
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^ℂ$ die
|
||||
Gleichung
|
||||
\begin{equation}\label{eq:9-4-7-1}
|
||||
f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
|
||||
f^ℂ\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^ℂ\bigl( \vec{v} \bigr)}.
|
||||
\end{equation}
|
||||
\end{beobachtung}
|
||||
|
||||
@ -384,40 +382,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
|
||||
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
|
||||
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
|
||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
|
||||
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
|
||||
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
|
||||
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
|
||||
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
|
||||
von $U$ liefert.
|
||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
|
||||
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
|
||||
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
|
||||
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
|
||||
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
|
||||
|
||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
|
||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
|
||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
|
||||
$f(U) ⊆ U$ ist.
|
||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
|
||||
\end{lemma}
|
||||
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
|
||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
|
||||
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
|
||||
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
|
||||
Fall, dass $f$ keinen reellen Eigenwert hat.
|
||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach.
|
||||
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
|
||||
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
|
||||
keinen reellen Eigenwert hat.
|
||||
|
||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
|
||||
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
|
||||
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende
|
||||
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
|
||||
Nullstelle ist,
|
||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen
|
||||
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
|
||||
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende Rechnung zeigt, dass das
|
||||
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
|
||||
\[
|
||||
χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
|
||||
\overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
|
||||
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
|
||||
\]
|
||||
Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
|
||||
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
|
||||
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
|
||||
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
|
||||
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
|
||||
ist dann $ℂ$-linear unabhängig, ebenso die Menge
|
||||
Ich betrachte jetzt für den Endomorphismus $f^ℂ$ einen Eigenvektor $\vec{v} =
|
||||
(\vec{v}_1, \vec{v}_2) ∈ V^ℂ$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
|
||||
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
|
||||
-\vec{v}_2) ∈ V^ℂ$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
|
||||
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig,
|
||||
ebenso die Menge
|
||||
\[
|
||||
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
|
||||
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
|
||||
@ -425,8 +420,8 @@ von $U$ liefert.
|
||||
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
|
||||
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
|
||||
\begin{align*}
|
||||
f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||
& = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||
f(\vec{v}_1) & = f^ℂ(\vec{v_1}) = f^ℂ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||
& = \frac{1}{2}·\left( f^ℂ(\vec{v}) + f^ℂ(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||
& = a·\vec{v}_1 - b·\vec{v}_2.
|
||||
\end{align*}
|
||||
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
|
||||
|
@ -5,36 +5,36 @@
|
||||
|
||||
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
|
||||
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
|
||||
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
|
||||
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
|
||||
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
|
||||
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
|
||||
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
|
||||
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
||||
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
|
||||
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
|
||||
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
|
||||
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
|
||||
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
|
||||
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
||||
|
||||
\begin{quote}
|
||||
Self-adjoint operators are used in functional analysis and quantum
|
||||
mechanics. In quantum mechanics their importance lies in the Dirac–von Neumann
|
||||
formulation of quantum mechanics, in which physical observables such as
|
||||
position, momentum, angular momentum and spin are represented by self-adjoint
|
||||
operators on a Hilbert space. Of particular significance is the Hamiltonian
|
||||
operator $\what{H}$ defined by
|
||||
\foreignlanguage{english}{Self-adjoint operators are used in functional
|
||||
analysis and quantum mechanics. In quantum mechanics their importance lies in
|
||||
the Dirac–von Neumann formulation of quantum mechanics, in which physical
|
||||
observables such as position, momentum, angular momentum and spin are
|
||||
represented by self-adjoint operators on a Hilbert space. Of particular
|
||||
significance is the Hamiltonian operator $\what{H}$ defined by
|
||||
\[
|
||||
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
|
||||
\]
|
||||
which as an observable corresponds to the total energy of a particle of mass
|
||||
$m$ in a real potential field $V$.
|
||||
$m$ in a real potential field $V$.}
|
||||
|
||||
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
|
||||
(Self-adjoint operator)}
|
||||
\end{quote}
|
||||
|
||||
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
|
||||
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
|
||||
Bedingung „$f = f^{\ad}$“ in der folgenden Definition gar nicht auftaucht.
|
||||
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
|
||||
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
|
||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||
Endomorphismus. Nenne den Endomorphismus $f$
|
||||
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
|
||||
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
\]
|
||||
\end{defn}
|
||||
|
||||
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
|
||||
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
|
||||
Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
|
||||
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
|
||||
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
|
||||
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
|
||||
\overline{\vec{w}}.
|
||||
\]
|
||||
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
|
||||
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
|
||||
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
|
||||
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
|
||||
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
|
||||
Hermitesche Matrix ist.
|
||||
\end{bsp}
|
||||
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
\begin{aufgabe}
|
||||
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
|
||||
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
|
||||
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$.
|
||||
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
||||
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$. Rechnen Sie
|
||||
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
||||
\[
|
||||
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
|
||||
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
|
||||
\]
|
||||
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
||||
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
||||
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
|
||||
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
|
||||
ist.
|
||||
\end{aufgabe}
|
||||
|
||||
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
|
||||
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
|
||||
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
|
||||
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
|
||||
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
|
||||
besonders einfacher Weise.
|
||||
@ -107,7 +107,7 @@ besonders einfacher Weise.
|
||||
Der folgende Satz ist in der Literatur auch als
|
||||
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
|
||||
|
||||
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
|
||||
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
|
||||
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
|
||||
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
|
||||
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
|
||||
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
|
||||
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
|
||||
die Berechnung von $S^{-1}$ extrem einfach.
|
||||
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
|
||||
macht die Berechnung von $S^{-1}$ extrem einfach.
|
||||
|
||||
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
|
||||
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische
|
||||
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
|
||||
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
|
||||
Diagonalmatrix ist.
|
||||
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
|
||||
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische oder
|
||||
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
|
||||
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
|
||||
ist.
|
||||
\end{kor}
|
||||
\begin{proof}
|
||||
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
|
||||
|
@ -4,21 +4,21 @@
|
||||
\chapter{Hauptachsentransformation}
|
||||
|
||||
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
|
||||
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
|
||||
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
|
||||
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
|
||||
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
|
||||
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
|
||||
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
|
||||
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
|
||||
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
|
||||
immer in besonders einfache Gestalt bringen!
|
||||
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
|
||||
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
|
||||
besonders einfache Gestalt bringen!
|
||||
|
||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
|
||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
|
||||
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
|
||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
|
||||
dass Folgendes gilt.
|
||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
|
||||
Folgendes gilt.
|
||||
\begin{enumerate}
|
||||
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
|
||||
\[
|
||||
@ -27,7 +27,7 @@ immer in besonders einfache Gestalt bringen!
|
||||
λ_1 && 0\\
|
||||
&\ddots\\
|
||||
0 && λ_n
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
|
||||
\item Die Koordinatenwechselmatrix
|
||||
@ -42,20 +42,20 @@ immer in besonders einfache Gestalt bringen!
|
||||
\end{proof}
|
||||
|
||||
\begin{notation}[Hauptachsen und Hauptachsentransformation]
|
||||
In der Situation von Satz~\ref{satz:11-0-1} schreibe
|
||||
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
|
||||
Vektoren $\vec{v}_{•}$ aufgespannten 1-dimensionalen Untervektorräume
|
||||
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
|
||||
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
|
||||
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_•$
|
||||
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
|
||||
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
|
||||
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
|
||||
\end{notation}
|
||||
|
||||
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
|
||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
|
||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
|
||||
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
|
||||
ist.
|
||||
|
||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
|
||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
|
||||
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
|
||||
\begin{enumerate}
|
||||
\item Die Form $s$ ist positiv definit.
|
||||
@ -63,40 +63,44 @@ ist.
|
||||
\end{enumerate}
|
||||
\end{kor}
|
||||
|
||||
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
|
||||
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
|
||||
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
|
||||
sind.
|
||||
|
||||
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
|
||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
|
||||
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
|
||||
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$
|
||||
bzw. $ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
|
||||
größer als Null sind.
|
||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
|
||||
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
|
||||
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$ bzw.
|
||||
$ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
|
||||
als Null sind.
|
||||
\end{proof}
|
||||
|
||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
|
||||
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
|
||||
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
|
||||
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
|
||||
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
|
||||
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
|
||||
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
|
||||
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
|
||||
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
|
||||
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
|
||||
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
|
||||
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
|
||||
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
|
||||
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
|
||||
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
|
||||
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft „alle
|
||||
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
|
||||
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
|
||||
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
|
||||
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
|
||||
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
|
||||
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
|
||||
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
|
||||
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
|
||||
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
|
||||
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
|
||||
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
|
||||
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
|
||||
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
|
||||
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
|
||||
einmal auf diesen Punkt zurück.
|
||||
|
||||
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
|
||||
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
|
||||
Matrizen $A_{•} = \Mat_{\mathcal{A}_{•}}(s)$. Dann gilt folgendes.
|
||||
\begin{satz}[Trägheitssatz von
|
||||
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
|
||||
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
|
||||
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
|
||||
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
|
||||
endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und es sei $s: V ⨯
|
||||
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
|
||||
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
|
||||
\Mat_{\mathcal{A}_•}(s)$. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
||||
|
||||
@ -113,16 +117,16 @@ komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||
|
||||
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
|
||||
|
||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}
|
||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
|
||||
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
|
||||
einer Form} bezeichnet. Die Differenz
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
|
||||
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
|
||||
bezeichnet. Die Differenz
|
||||
\[
|
||||
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
|
||||
\]
|
||||
wird die \emph{Signatur von $s$}\index{Signatur einer
|
||||
Form} genannt. Der Untervektorraum
|
||||
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
|
||||
Untervektorraum
|
||||
\[
|
||||
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
|
||||
\vec{w} ∈ V \} ⊆ V
|
||||
@ -164,7 +168,7 @@ Matrix positive definit ist.
|
||||
\end{pmatrix}
|
||||
∈ \Mat(m⨯ m, k).
|
||||
\]
|
||||
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||
gilt, dass $\det A_m > 0$ ist.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
@ -182,11 +186,11 @@ Hurwitz-Kriteriums. Zum Beispiel
|
||||
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
|
||||
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
|
||||
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
|
||||
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
|
||||
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
|
||||
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
|
||||
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
|
||||
das richtig machen?
|
||||
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
|
||||
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
|
||||
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
|
||||
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
|
||||
machen?
|
||||
\end{bemerkung}
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
@ -4,20 +4,20 @@
|
||||
\chapter{Anwendungen}
|
||||
|
||||
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
|
||||
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen
|
||||
weil Sie unbedingt eine symmetrische Matrix mithilfe eines orthogonalen
|
||||
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
|
||||
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen?
|
||||
Linearkombinationen mithilfe von Skalarprodukten auszurechnen?
|
||||
|
||||
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und
|
||||
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es
|
||||
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective
|
||||
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der
|
||||
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
|
||||
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
|
||||
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
|
||||
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht
|
||||
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem
|
||||
Kapitel einige Anwendungen oberflächlich an
|
||||
Die Begriffe und Methoden des laufenden Kapitels über „Euklidische und
|
||||
Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es
|
||||
sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
|
||||
Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
|
||||
linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen
|
||||
können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es
|
||||
eine unendliche Menge von hervorragenden Tutorials, Erklärvideos,
|
||||
Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass
|
||||
Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich
|
||||
reiße in diesem Kapitel einige Anwendungen oberflächlich an
|
||||
|
||||
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
|
||||
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
|
||||
@ -26,11 +26,11 @@ machen, können aber nicht sinnvoll geprüft werden.
|
||||
|
||||
\section{Reelle Quadriken}
|
||||
|
||||
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt
|
||||
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des
|
||||
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
|
||||
Die erste „Anwendung“ ist immer noch ziemlich theoretisch und stammt mindestens
|
||||
aus der hellenistischen Antike, also etwa der Zeit Alexander des Großen.
|
||||
Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
|
||||
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
|
||||
große Rolle spielte}. Es geht um folgende Situation.
|
||||
große Rolle spielte}. Es geht um folgende Situation.
|
||||
|
||||
\begin{situation}[Quadrik im $ℝ^n$]\label{sit:12-1-1}
|
||||
Gegeben sei der $ℝ^n$ mit Koordinatenfunktionen $x_1, …, x_n$ und ein
|
||||
@ -50,15 +50,15 @@ Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt
|
||||
|
||||
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
|
||||
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
|
||||
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
|
||||
linearen Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
|
||||
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
|
||||
Translationen? Wir formulieren die Frage präziser und führen die folgende
|
||||
Notation ein.
|
||||
|
||||
\begin{defn}[Affine Abbildung]\label{def:12-1-3}
|
||||
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung
|
||||
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
|
||||
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
|
||||
\begin{defn}[Affine Abbildung]\label{def:12-1-3}%
|
||||
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung $Φ : V
|
||||
→ W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
|
||||
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, sodass für alle
|
||||
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
|
||||
\end{defn}
|
||||
|
||||
@ -73,24 +73,24 @@ Damit können wir unsere Frage präzise formulieren.
|
||||
|
||||
\begin{frage}
|
||||
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
|
||||
Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$ unter der
|
||||
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es
|
||||
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch
|
||||
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
|
||||
Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von $Q$ unter der Abbildung $Φ$
|
||||
eine Quadrik von besonders einfacher Gestalt ist? Gibt es eine (kleine)
|
||||
Mengen von „Grund-Quadriken“ aus denen alle anderen durch affine
|
||||
Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
|
||||
Verschiebung, …) entstehen?
|
||||
\end{frage}
|
||||
|
||||
|
||||
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter
|
||||
Die Antwort ist natürlich „ja“, aber Sie haben ja zum Glück noch nicht weiter
|
||||
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
|
||||
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
|
||||
und abstandserhaltende Abbildungen statt affiner Abbildungen.
|
||||
|
||||
|
||||
\subsection{Vereinfachung von Quadratischen Gleichungen}
|
||||
\subsection{Vereinfachung von quadratischen Gleichungen}
|
||||
|
||||
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
|
||||
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
|
||||
Wir bleiben in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
|
||||
bijektiven, affinen Abbildungen finden, sodass die Gleichung (der Bilder von)
|
||||
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
|
||||
Student wies mich auf
|
||||
\href{https://www.youtube.com/watch?v=wYJAggfstyI}{folgendes Video} hin.
|
||||
@ -125,15 +125,15 @@ Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
|
||||
|
||||
\subsubsection{Schritt 2: Eliminierung der gemischten Terme}
|
||||
|
||||
Wir wissen: es existiert eine orthogonale $n⨯n$-Matrix $W$, so dass die
|
||||
Wir wissen: es existiert eine orthogonale $n⨯n$-Matrix $W$, sodass die
|
||||
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
|
||||
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt
|
||||
für alle $\vec{x} ∈ ℝ^n$:
|
||||
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt für
|
||||
alle $\vec{x} ∈ ℝ^n$:
|
||||
\begin{align*}
|
||||
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
|
||||
& ⇔ f(W·\vec{x}) = 0 \\
|
||||
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
|
||||
& ⇔ \vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0
|
||||
& ⇔ \vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0.
|
||||
\end{align*}
|
||||
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
|
||||
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
|
||||
@ -169,8 +169,9 @@ gilt für alle $\vec{x} ∈ ℝ^n$:
|
||||
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
|
||||
& ⇔ \sum_{i=1}^r
|
||||
a^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
|
||||
\right)² + 2 · \sum_{i=1}^r b^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
|
||||
& ⇔ \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0
|
||||
\right)² + 2 · \sum_{i=1}^r b^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right)\\
|
||||
& \qquad + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
|
||||
& ⇔ \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0.
|
||||
\end{align*}
|
||||
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
|
||||
\[
|
||||
@ -193,7 +194,7 @@ Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
|
||||
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
|
||||
Schritt nichts und setzen
|
||||
\[
|
||||
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}
|
||||
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}.
|
||||
\]
|
||||
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
|
||||
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
|
||||
@ -213,15 +214,15 @@ gilt für alle $\vec{x} ∈ ℝ^n$:
|
||||
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
|
||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
|
||||
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
|
||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0
|
||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0.
|
||||
\end{align*}
|
||||
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
|
||||
In jedem Fall gilt: Die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
|
||||
gegeben durch ein Polynom
|
||||
\[
|
||||
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)}
|
||||
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)},
|
||||
\]
|
||||
wobei $b^{(3)}_{r+1} ∈ \{0,-2\}$ und $c^{(3)} ∈ \{0, -1\}$ ist. Weiterhin
|
||||
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
|
||||
wobei $b^{(3)}_{r+1} ∈ \{0,-2\}$ und $c^{(3)} ∈ \{0, -1\}$ ist. Weiterhin gilt:
|
||||
$b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
|
||||
|
||||
|
||||
\subsubsection{Schritt 5: Skalierung}
|
||||
@ -259,10 +260,10 @@ $b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
|
||||
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
|
||||
folgenden Satz bewiesen.
|
||||
|
||||
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}
|
||||
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}%
|
||||
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
|
||||
affine Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$
|
||||
Nullstellenmenge einer der folgenden Gleichungen ist
|
||||
affine Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von $Q$ Nullstellenmenge
|
||||
einer der folgenden Gleichungen ist
|
||||
\begin{enumerate}
|
||||
\item $x_1² + x_2² + … + x_r² - x_{r+1}² - … - x_k²$
|
||||
|
||||
@ -286,12 +287,11 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
||||
|
||||
\begin{kor}[Klassifikation der Koniken des Appollonius von
|
||||
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
|
||||
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria)
|
||||
war ein antiker griechischer Mathematiker, bekannt für sein Buch über
|
||||
Kegelschnitte.}]
|
||||
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine
|
||||
bijektive, affine Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$
|
||||
Nullstellenmenge einer der folgenden Gleichungen ist
|
||||
von Perge} (* ca.~265 v.~Chr.~in Perge; † ca.~190 v.~Chr.~in Alexandria) war
|
||||
ein antiker griechischer Mathematiker, bekannt für sein Buch über
|
||||
Kegelschnitte.}] Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann
|
||||
gibt es eine bijektive, affine Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von
|
||||
$Q$ Nullstellenmenge einer der folgenden Gleichungen ist
|
||||
\begin{enumerate}
|
||||
\item $x² = 0:$ Doppelgerade \label{Q.1}
|
||||
|
||||
@ -444,10 +444,9 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
||||
|
||||
\begin{itemize}
|
||||
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
|
||||
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen
|
||||
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die
|
||||
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier
|
||||
eigentlich Koniken auf?
|
||||
im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
|
||||
Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim
|
||||
Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf?
|
||||
|
||||
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
|
||||
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
|
||||
@ -460,7 +459,7 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
||||
|
||||
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
|
||||
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
|
||||
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
|
||||
grafisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
|
||||
zu den Vereinfachungen kommt.
|
||||
|
||||
|
||||
@ -468,21 +467,21 @@ zu den Vereinfachungen kommt.
|
||||
|
||||
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
|
||||
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
|
||||
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in
|
||||
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige
|
||||
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das
|
||||
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche
|
||||
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon
|
||||
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen
|
||||
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften
|
||||
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück.
|
||||
Baptiste Joseph Fourier} (* 21.~März 1768 bei Auxerre; † 16.~Mai 1830 in Paris)
|
||||
war ein französischer Mathematiker und Physiker.} und nenne einige Anwendungen.
|
||||
Die Fourier-Transformation ist für die Praxis vielleicht das wichtigste Stück
|
||||
Mathematik überhaupt\footnote{Sie selbst verwenden solche Transformationen
|
||||
ununterbrochen -- haben Sie schon einmal ein Mobiltelefon benutzt? Oder sind
|
||||
Sie vielleicht in einem Auto gefahren? Oder haben Sie einen Klang gehört?}.
|
||||
Manche Kollegen sprechen sogar von der „fünften Grundrechenart“. Ich komme im
|
||||
Abschnitt~\ref{ssec:Rechen} darauf zurück.
|
||||
|
||||
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
|
||||
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
|
||||
Fachhochschule Hamburg hat ebenfalls ein nettes
|
||||
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die
|
||||
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} („Warum die
|
||||
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
|
||||
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
|
||||
dahinter steht“). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
|
||||
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
|
||||
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$→$Link}). Wenn Sie ein
|
||||
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
|
||||
@ -495,9 +494,9 @@ betrachte den der Vektorraum $V = \cC⁰([-π,π], ℝ)$ der reellwertigen steti
|
||||
Funktionen auf dem Intervall $[-π,π] ⊂ ℝ$. Wir haben schon gesehen, dass die
|
||||
Abbildung
|
||||
\[
|
||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt.
|
||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt
|
||||
\]
|
||||
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten
|
||||
ein Skalarprodukt ist. Rechnen Sie sofort mithilfe der bekannten
|
||||
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
|
||||
und $m$ aus $ℕ$ die folgenden Gleichungen gelten:
|
||||
\[
|
||||
@ -505,37 +504,37 @@ und $m$ aus $ℕ$ die folgenden Gleichungen gelten:
|
||||
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
|
||||
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
|
||||
\]
|
||||
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2}}$ noch Folgendes:
|
||||
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2\pi}}$ noch Folgendes:
|
||||
\[
|
||||
\left\langle \frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} \right\rangle = 1, \quad
|
||||
\left\langle \cos(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0, \quad
|
||||
\left\langle \sin(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0.
|
||||
\left\langle \frac{1}{\sqrt{2\pi}}, \frac{1}{\sqrt{2\pi}} \right\rangle = 1, \quad
|
||||
\left\langle \cos(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0, \quad
|
||||
\left\langle \sin(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0.
|
||||
\]
|
||||
Insgesamt sehen wir, dass die Menge
|
||||
\[
|
||||
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
||||
\mathcal{F} := \left\{ \frac{1}{\sqrt{2\pi}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
||||
\]
|
||||
eine orthonormale Teilmengen des Euklidischen Vektorraumes
|
||||
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
|
||||
eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
|
||||
\rangle\bigr)$ ist.
|
||||
|
||||
|
||||
\subsubsection{Rekonstruktion von Funktionen}
|
||||
|
||||
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von
|
||||
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion
|
||||
$f ∈ F$ habe, dann kann ich die Zahlen
|
||||
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von $\mathcal{F}$
|
||||
erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion $f ∈ F$ habe, dann
|
||||
kann ich die Zahlen
|
||||
\begin{equation}\label{eq:12-2-0-1}
|
||||
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
|
||||
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
|
||||
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle
|
||||
c := \left\langle f, \frac{1}{\sqrt{2\pi}} \right\rangle
|
||||
\end{equation}
|
||||
ausrechnen und erhalte die Gleichung:
|
||||
ausrechnen und erhalte die Gleichung
|
||||
\begin{equation}\label{eq:12-2-0-2}
|
||||
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
||||
f = \frac{c}{\sqrt{2\pi}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr).
|
||||
\end{equation}
|
||||
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
|
||||
verschieden sind, so dass auf der rechten Seite der
|
||||
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht.
|
||||
verschieden sind, sodass auf der rechten Seite der Gleichung~\eqref{eq:12-2-0-2}
|
||||
tatsächlich nur eine endliche Summe steht.
|
||||
|
||||
|
||||
\subsection{Fourier-Reihen}
|
||||
@ -549,7 +548,7 @@ alle. Es gilt der folgende Satz der Analysis.
|
||||
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
|
||||
konvergiert die Funktionenreihe
|
||||
\begin{equation}\label{eq:12}
|
||||
\frac{c}{\sqrt{2}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
||||
\frac{c}{\sqrt{2\pi}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
||||
\end{equation}
|
||||
gleichmäßig (und damit punktweise) gegen $f$.
|
||||
\end{satz}
|
||||
@ -576,13 +575,13 @@ zeigt wie man eine Sprungfunktion annähert.
|
||||
|
||||
Weitere Beispiele gibt es bei
|
||||
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
|
||||
diesem phantastischem
|
||||
diesem fantastischem
|
||||
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
|
||||
Vielleicht schauen sie auch einmal in
|
||||
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
|
||||
\href{https://www.youtube.com/watch?v=spUNpyF58BY}{dieses}. Sie finden im
|
||||
Internet auch eine \href{https://www.google.com/search?q=fourier+applet}{große
|
||||
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
|
||||
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
|
||||
|
||||
\begin{figure}
|
||||
\centering
|
||||
@ -602,12 +601,12 @@ Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahez
|
||||
beliebige Funktionen machen. Allerdings erhält man statt der
|
||||
Fourier-Koeffizienten
|
||||
\[
|
||||
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt.
|
||||
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt
|
||||
\]
|
||||
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
|
||||
schreibt
|
||||
\[
|
||||
F(t) = \frac{1}{\sqrt{2π}}·\int_{-∞}^{∞} f(x)·e^{-itx}dx.
|
||||
F(t) = \int_{-∞}^{∞} f(x)·e^{-2\pi i·tx}dx.
|
||||
\]
|
||||
Aus der Reihendarstellung
|
||||
\[
|
||||
@ -615,40 +614,40 @@ Aus der Reihendarstellung
|
||||
\]
|
||||
wird dann die Formel
|
||||
\[
|
||||
f(x) = \frac{1}{\sqrt{2π}}·\int_{-∞}^{∞} F(t)·e^{-itx}dt.
|
||||
f(x) = \int_{-∞}^{∞} F(t)·e^{2\pi i·tx}dt.
|
||||
\]
|
||||
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder
|
||||
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in
|
||||
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die
|
||||
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn
|
||||
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation
|
||||
verstehen. Dann kann man super-interessante Sachen machen.
|
||||
Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
|
||||
spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein
|
||||
„Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
|
||||
eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
|
||||
verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
|
||||
super-interessante Sachen machen.
|
||||
\begin{itemize}
|
||||
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
|
||||
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
|
||||
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass
|
||||
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet
|
||||
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen.
|
||||
diesen Methoden nicht schwierig, ein kleines Computerprogramm zu bauen, dass
|
||||
ein gesprochenes „e“ von einem „a“ unterscheidet. Suchen Sie im Internet nach
|
||||
„Python“ und „SciKit“, dann finden Sie alles, was sie brauchen.
|
||||
|
||||
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
|
||||
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
|
||||
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu
|
||||
Programm machen, das ein Musikstück schneller abspielt, ohne die Tonhöhe zu
|
||||
verändern.
|
||||
|
||||
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
|
||||
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
|
||||
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
|
||||
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
|
||||
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und
|
||||
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse
|
||||
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang
|
||||
wesentlich zu verschlechtern.
|
||||
akustischen Wahrnehmung von Tonsignalen („psycho-akustisches Modell“) und
|
||||
erkenne die Teile des Spektrums, die für das Gehirn uninteressant sind. Lasse
|
||||
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern, ohne den
|
||||
Klang wesentlich zu verschlechtern.
|
||||
\end{itemize}
|
||||
|
||||
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
|
||||
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
|
||||
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
|
||||
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist
|
||||
„Heisenbergsche Unschärferelation“, über die Philosophen viel schreiben, ist
|
||||
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
||||
|
||||
|
||||
@ -656,31 +655,31 @@ eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
||||
\label{ssec:Rechen}
|
||||
|
||||
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
|
||||
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich
|
||||
falsch. Tatsache ist, dass moderne Prozessoren die
|
||||
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
|
||||
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele
|
||||
elektronischen Geräten enthalten zusätzlich Spezialchips zur
|
||||
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient
|
||||
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von
|
||||
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine
|
||||
Anwendung der schnellen Fouriertransformation.
|
||||
wegen ihrer Wichtigkeit die „fünfte Grundrechenart“. Das ist natürlich falsch.
|
||||
Tatsache ist, dass moderne Prozessoren die
|
||||
„\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
|
||||
Fouriertransformation}“ extrem effizient ausführen können. Viele elektronische
|
||||
Geräte enthalten zusätzlich Spezialchips zur Fouriertransformation. Damit lässt
|
||||
sie die Fourier-Transformation so effizient implementieren, dass Computer die
|
||||
Multiplikation ganzer Zahlen mithilfe von Fourier-Transformation durchführen;
|
||||
Multiplikation ist also nur noch eine Anwendung der schnellen
|
||||
Fouriertransformation.
|
||||
|
||||
\begin{quote}
|
||||
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
|
||||
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
|
||||
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante
|
||||
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel
|
||||
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen
|
||||
Zahlenringen.
|
||||
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen
|
||||
Variante der diskreten schnellen Fourier-Transformation sowie einem
|
||||
geschickten Wechsel zwischen der Restklassen- und der zyklischen Arithmetik in
|
||||
endlichen Zahlenringen.
|
||||
|
||||
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
|
||||
\end{quote}
|
||||
|
||||
Schauen Sie sich auch einmal
|
||||
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
|
||||
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus,
|
||||
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
|
||||
Artikel} an. Die Grundrechenarten im 21.~Jahrhundert sind also nicht „plus,
|
||||
minus, mal, geteilt“, sondern „plus, minus, Fourier-Transformation“.
|
||||
|
||||
|
||||
\subsection{Warum Sinus und Kosinus}
|
||||
@ -688,7 +687,7 @@ minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
|
||||
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
|
||||
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
|
||||
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
|
||||
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum
|
||||
gibt aber noch andere Funktionen, mit denen man etwas Ähnliches machen kann, zum
|
||||
Beispiel die
|
||||
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
|
||||
die die quantenmechanischen Gleichungen zur Beschreibung von
|
||||
@ -708,10 +707,9 @@ von Menschen fünf-dimensional ist?
|
||||
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
|
||||
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
|
||||
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
|
||||
Conscientiousness, Extraversion, Agreeableness, Neuroticism).
|
||||
|
||||
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder
|
||||
Mensch lässt sich auf folgenden Skalen einordnen:
|
||||
\foreignlanguage{english}{Conscientiousness, Extraversion, Agreeableness,
|
||||
Neuroticism}). Dem Modell zufolge existieren fünf Hauptdimensionen der
|
||||
Persönlichkeit und jeder Mensch lässt sich auf folgenden Skalen einordnen:
|
||||
|
||||
\begin{itemize}
|
||||
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
|
||||
@ -739,43 +737,43 @@ von Menschen fünf-dimensional ist?
|
||||
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
|
||||
\end{quote}
|
||||
|
||||
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist
|
||||
Die Frage nach der Persönlichkeit mag ein bisschen theoretisch vorkommen, ist
|
||||
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
|
||||
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
|
||||
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'',
|
||||
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine.
|
||||
ermitteln --- suchen Sie im Internet nach den Worten „Stryker“,
|
||||
„Bewerbungsgespräch“ und „Gallup-Test“ um zu sehen, was ich meine.
|
||||
|
||||
|
||||
\subsection{Wie kommt man auf die Zahl ``fünf''?}
|
||||
\subsection{Wie kommt man auf die Zahl „fünf“?}
|
||||
|
||||
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
|
||||
|
||||
\begin{itemize}
|
||||
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich
|
||||
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die
|
||||
\item Nimm eine Liste aller möglichen Adjektive der englischen Sprache, die sich
|
||||
auf „Persönlichkeit“ beziehen -- bei Wikipedia ist von 18.000 Begriffen die
|
||||
Rede.
|
||||
|
||||
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
|
||||
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
|
||||
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ℝ^{18000}$.
|
||||
|
||||
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum
|
||||
$V ⊂ ℝ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im
|
||||
Wesentlichen alle in $V$ liegen.
|
||||
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum $V ⊂ ℝ^{18000}$
|
||||
gibt, sodass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im Wesentlichen alle in $V$
|
||||
liegen.
|
||||
|
||||
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
|
||||
diesen Eigenschaften gibt.
|
||||
\end{itemize}
|
||||
|
||||
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
|
||||
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei
|
||||
Aufgabe der „Hauptkomponentenanalyse“. Kurz gesagt berechnet man für je zwei
|
||||
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
|
||||
|
||||
\begin{quote}
|
||||
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
|
||||
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
|
||||
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für
|
||||
die Assoziation zwischen zwei Zufallsvariablen.
|
||||
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß
|
||||
für die Assoziation zwischen zwei Zufallsvariablen.
|
||||
|
||||
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
|
||||
\end{quote}
|
||||
@ -800,16 +798,16 @@ Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
|
||||
\subsection{… und weiter?}
|
||||
|
||||
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
|
||||
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse
|
||||
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||
Wissenschaften verwendet. Suchen Sie im Internet nach „Hauptkomponentenanalyse
|
||||
und Sportwissenschaft“. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||
\begin{itemize}
|
||||
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
|
||||
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
|
||||
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
|
||||
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
|
||||
|
||||
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit
|
||||
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
|
||||
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, kann man
|
||||
mithilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
|
||||
Modell reduziert werden, was meistens die Modellqualität steigert.
|
||||
|
||||
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
|
||||
@ -817,17 +815,18 @@ und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||
analysieren und Rückschlüsse daraus ziehen.
|
||||
|
||||
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
|
||||
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der
|
||||
neuronalen Netzen. Dort dient die PCA zur Merkmals-Trennung im Rahmen der
|
||||
automatischen Klassifizierung bzw. in der Mustererkennung.
|
||||
|
||||
\item In quantitative finance, principal component analysis can be directly
|
||||
applied to the risk management of interest rate derivative portfolios. Trading
|
||||
multiple swap instruments which are usually a function of 30-500 other market
|
||||
quotable swap instruments is sought to be reduced to usually 3 or 4 principal
|
||||
components, representing the path of interest rates on a macro
|
||||
basis. Converting risks to be represented as those to factor loadings (or
|
||||
multipliers) provides assessments and understanding beyond that available to
|
||||
simply collectively viewing risks to individual 30-500 buckets.
|
||||
\item \foreignlanguage{english}{In quantitative finance, principal component
|
||||
analysis can be directly applied to the risk management of interest rate
|
||||
derivative portfolios. Trading multiple swap instruments which are usually a
|
||||
function of 30-500 other market quotable swap instruments is sought to be
|
||||
reduced to usually 3 or 4 principal components, representing the path of
|
||||
interest rates on a macro basis. Converting risks to be represented as those
|
||||
to factor loadings (or multipliers) provides assessments and understanding
|
||||
beyond that available to simply collectively viewing risks to individual
|
||||
30-500 buckets.}
|
||||
\end{itemize}
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
@ -4,9 +4,9 @@
|
||||
\chapter{Bilineare und multilineare Abbildungen}
|
||||
|
||||
\sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über
|
||||
``multilineare Algebra''. In diesem Kapitel werden wir multilineare Abbildungen
|
||||
„multilineare Algebra“. In diesem Kapitel werden wir multilineare Abbildungen
|
||||
und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das
|
||||
``Tensorprodukt''. Bevor wir richtig ``multi'' werden, diskutiere ich erst noch
|
||||
„Tensorprodukt“. Bevor wir richtig „multi“ werden, diskutiere ich erst noch
|
||||
einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität
|
||||
kennen Sie schon.
|
||||
|
||||
@ -18,18 +18,18 @@ kennen Sie schon.
|
||||
Die folgende Definition sollte jetzt keine Überraschung mehr sein.
|
||||
|
||||
\begin{defn}[Bilineare Abbildungen]
|
||||
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume. Eine
|
||||
\emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
|
||||
$s: U ⨯ V → W$, so dass Folgendes gilt.
|
||||
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume.
|
||||
Eine \emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
|
||||
$s: U ⨯ V → W$, sodass Folgendes gilt.
|
||||
\begin{description}
|
||||
\item[Linearität in der ersten Komponente] Für alle
|
||||
$\vec{u}_1, \vec{u}_2 ∈ U, \vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\item[Linearität in der ersten Komponente] Für alle $\vec{u}_1, \vec{u}_2 ∈ U,
|
||||
\vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\[
|
||||
s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) +
|
||||
λ·s(\vec{u}_2, \vec{v}).
|
||||
\]
|
||||
\item[Linearität in der zweiten Komponente] Für alle
|
||||
$\vec{u} ∈ U, \vec{v}_1, \vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\item[Linearität in der zweiten Komponente] Für alle $\vec{u} ∈ U, \vec{v}_1,
|
||||
\vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\[
|
||||
s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ
|
||||
s(\vec{u}, \vec{v}_2).
|
||||
@ -67,22 +67,22 @@ Beispiele für bilineare Abbildungen kennen wir in Hülle und Fülle.
|
||||
\subsection*{Multilineare Abbildungen}
|
||||
|
||||
Sie können es sich sicher schon denken: multilineare Abbildungen sind
|
||||
Abbildungen $V_1 ⨯ ⋯ ⨯ V_n → W$, so dass …. Ich habe vom Tippen
|
||||
schon wunde Finger und verlasse mich darauf, dass Sie die Definition selbst
|
||||
Abbildungen $V_1 ⨯ ⋯ ⨯ V_n → W$, sodass …. Ich habe vom Tippen schon wunde
|
||||
Finger und verlasse mich darauf, dass Sie die Definition selbst
|
||||
zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
|
||||
|
||||
\begin{bsp}[$n$-lineare Funktion]
|
||||
Betrachte die Determinantenabbildung
|
||||
\[
|
||||
\det : \Mat(n⨯ n, k) → k.
|
||||
\det : \Mat(n ⨯ n, k) → k.
|
||||
\]
|
||||
Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den
|
||||
Vektorraum der $n ⨯ n$-Matrizen mit dem Vektorraum
|
||||
$V ⨯ ⋯ ⨯ V$ identifizieren. Wir erhalten also eine Abbildung
|
||||
Vektorraum der $n ⨯ n$-Matrizen mit dem Vektorraum $k^n ⨯ ⋯ ⨯ k^n$
|
||||
identifizieren. Wir erhalten also eine Abbildung
|
||||
\[
|
||||
\det : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → k.
|
||||
\det : \underbrace{k^n ⨯ ⋯ ⨯ k^n}_{n ⨯} → k.
|
||||
\]
|
||||
Aus dem ersten Semester wissen wir: diese Abbildung ist in jeder Komponente
|
||||
Aus dem ersten Semester wissen wir: Diese Abbildung ist in jeder Komponente
|
||||
linear.
|
||||
\end{bsp}
|
||||
|
||||
|
@ -5,12 +5,12 @@
|
||||
|
||||
\section{Definitionen}
|
||||
|
||||
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift ``Beispiele für
|
||||
Vektorräume'' eine Methode kennen gelernt, wie man aus einem $k$-Vektorraum $V$
|
||||
neue $k$-Vektorräume macht: der Vektorraum $V ⨯ V$ ist die Menge der
|
||||
geordneten Paare von Vektoren; die Vektoraddition und skalare Multiplikation
|
||||
erfolgt komponentenweise. Alternativ könnte ich $V ⨯ V$ auch so
|
||||
definieren: der Vektorraum $V ⨯ V$ ist die Menge der Abbildungen
|
||||
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift „Beispiele für
|
||||
Vektorräume“ eine Methode kennengelernt, wie man aus einem $k$-Vektorraum $V$
|
||||
neue $k$-Vektorräume macht: Der Vektorraum $V ⨯ V$ ist die Menge der geordneten
|
||||
Paare von Vektoren; die Vektoraddition und skalare Multiplikation erfolgt
|
||||
komponentenweise. Alternativ könnte ich $V ⨯ V$ auch so definieren: Der
|
||||
Vektorraum $V ⨯ V$ ist die Menge der Abbildungen
|
||||
\[
|
||||
\{1, 2 \} → V
|
||||
\]
|
||||
@ -21,19 +21,19 @@ $V ⨯ \{\vec{0}\}$ und $\{\vec{0}\} ⨯ V$, die beide ganz offensichtlich
|
||||
isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V ⨯ V$ als
|
||||
direkte Summe,
|
||||
\[
|
||||
V ⨯ V = \bigl(V ⨯ \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} ⨯ V\bigr),
|
||||
V ⨯ V = \bigl(V ⨯ \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} ⨯ V\bigr).
|
||||
\]
|
||||
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
|
||||
mehr Komponenten. Ich erhalte so Vektorräume
|
||||
\[
|
||||
V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}
|
||||
V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}.
|
||||
\]
|
||||
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
|
||||
verallgemeinern.
|
||||
\begin{itemize}
|
||||
\item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen
|
||||
zuzulassen, also etwas wie ``$V_1 ⨯ V_2$'' zu definieren
|
||||
\item Zum anderen möchte ich die Konstruktion statt auch für unendlich viele
|
||||
zuzulassen, also etwas wie „$V_1 ⨯ V_2$“ zu definieren.
|
||||
\item Zum anderen möchte ich die Konstruktion auch für unendlich viele
|
||||
Komponenten durchzuführen.
|
||||
\end{itemize}
|
||||
Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen
|
||||
@ -52,45 +52,45 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
|
||||
\emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$.
|
||||
\end{defn}
|
||||
|
||||
\begin{bemerkung}
|
||||
Wir können die Elemente von $\prod V_i$ auch als Familie
|
||||
$(φ_i: I → V_i)_{i ∈ I}$ von Abbildungen auffassen.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{bemerkung}
|
||||
Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die
|
||||
Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{notation}
|
||||
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$- Vektorräume
|
||||
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, so dass für
|
||||
alle $i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
|
||||
\begin{notation}\label{not:14-1-3}
|
||||
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$-Vektorräume
|
||||
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, sodass für alle
|
||||
$i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
|
||||
\[
|
||||
V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V.
|
||||
\]
|
||||
Für den Fall, dass $I = ∅$ die leere Menge ist, ist in der Literatur oft
|
||||
$V^∅ = V^{(∅)} = \{ \vec{0}_V \}$ definiert.
|
||||
Für den Fall, dass $I = ∅$ die leere Menge ist, ist in der Literatur oft $V^∅
|
||||
= V^{(∅)} = \{ \vec{0}_V \}$ definiert.
|
||||
\end{notation}
|
||||
|
||||
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}
|
||||
\begin{bemerkung}
|
||||
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
|
||||
$V^I$ auch als Abbildungen $I → V$ auffassen.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
|
||||
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
|
||||
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten
|
||||
ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
|
||||
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
|
||||
betrachte den Vektor
|
||||
\[
|
||||
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I
|
||||
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I.
|
||||
\]
|
||||
Die so definierten Vektoren $\vec{e}_i$ heißen
|
||||
\emph{Einheitsvektoren}\index{Einheitsvektoren}.
|
||||
\end{notation}
|
||||
|
||||
\begin{aufgabe}\label{auf:14-1-6}
|
||||
\begin{aufgabe}\label{auf:14-1-6}%
|
||||
In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass
|
||||
die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist.
|
||||
Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine
|
||||
Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$
|
||||
phantastisch viel größer ist als der Raum $k^{(I)}$.
|
||||
fantastisch viel größer ist als der Raum $k^{(I)}$.
|
||||
\end{aufgabe}
|
||||
|
||||
|
||||
@ -125,11 +125,11 @@ eindeutig festgelegt.
|
||||
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
|
||||
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
|
||||
$\varphi_i: V_i → W$ gegeben. Dann existiert genau eine lineare Abbildung
|
||||
$\varphi: \bigoplus_{j ∈ I} V_j → W$, so dass für alle $i ∈ I$ das folgende
|
||||
$\varphi: \bigoplus_{j ∈ I} V_j → W$, sodass für alle $i ∈ I$ das folgende
|
||||
Diagramm kommutiert:
|
||||
\[
|
||||
\begin{tikzcd}[column sep=3cm]
|
||||
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon. Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
|
||||
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon.~Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
|
||||
V_i \ar[r, "\varphi_i"'] & W .
|
||||
\end{tikzcd}
|
||||
\]
|
||||
@ -139,11 +139,11 @@ eindeutig festgelegt.
|
||||
$\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien
|
||||
also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den
|
||||
Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor
|
||||
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_{•}$ mit den
|
||||
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_•$ mit den
|
||||
Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des
|
||||
Diagramm folgt:
|
||||
Diagramms folgt:
|
||||
\[
|
||||
\varphi_{•} \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
|
||||
\varphi_• \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
|
||||
\]
|
||||
Also ist schon einmal
|
||||
$\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$.
|
||||
@ -154,14 +154,14 @@ eindeutig festgelegt.
|
||||
alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist
|
||||
$\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt.
|
||||
|
||||
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
|
||||
existiert: wir können es angeben! Setzen Sie dazu
|
||||
Wie immer sagt uns der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
|
||||
existiert: Wir können es angeben! Setzen Sie dazu
|
||||
\[
|
||||
\varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I} ↦
|
||||
\sum_{i ∈ I} φ_i(\vec{v}_i)
|
||||
\]
|
||||
und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung
|
||||
ohne unendliche Summe ist, die linear ist und die die Diagramm kommutativ
|
||||
ohne unendliche Summe ist, die linear ist und die das Diagramm kommutativ
|
||||
macht.
|
||||
\end{proof}
|
||||
|
||||
@ -175,11 +175,10 @@ eindeutig festgelegt.
|
||||
\end{defn}
|
||||
|
||||
\begin{satz}[Universelle Eigenschaften des direkten Produkts]
|
||||
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
|
||||
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
|
||||
$\varphi_i: W → V_i$ gegeben. Dann existiert genau eine Abbildung
|
||||
$\varphi: W → \prod_{j ∈ I} V_j$, so dass für alle $i ∈ I$ das folgende
|
||||
Diagramm kommutiert:
|
||||
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein $k$-Vektorraum.
|
||||
Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung $\varphi_i: W → V_i$
|
||||
gegeben. Dann existiert genau eine Abbildung $\varphi: W → \prod_{j ∈ I}
|
||||
V_j$, sodass für alle $i ∈ I$ das folgende Diagramm kommutiert:
|
||||
\[
|
||||
\begin{tikzcd}
|
||||
W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\
|
||||
@ -194,26 +193,25 @@ eindeutig festgelegt.
|
||||
nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein.
|
||||
Damit ist die Eindeutigkeit schon gezeigt.
|
||||
|
||||
Wie immer sagt und der
|
||||
Eindeutigkeitsbeweis sofort auch, warum $\varphi$ existiert: wir können es
|
||||
angeben! Setzen Sie dazu
|
||||
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
|
||||
existiert: Wir können es angeben! Setzen Sie dazu
|
||||
\[
|
||||
\varphi : W → \prod_j V_j, \quad \vec{w} ↦ \left( \varphi_j(\vec{w}) \right)_{j ∈ I}
|
||||
\]
|
||||
und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die
|
||||
die Diagramm kommutativ macht.
|
||||
das Diagramm kommutativ macht.
|
||||
\end{proof}
|
||||
|
||||
|
||||
\section{Dualität}
|
||||
|
||||
In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale
|
||||
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Diese Fakt hatte den
|
||||
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls
|
||||
solange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1
|
||||
darauf hingewiesen, dass dies nicht das einzige Problem ist.
|
||||
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Dieser Fakt hatte den
|
||||
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls so
|
||||
lange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1 darauf
|
||||
hingewiesen, dass dies nicht das einzige Problem ist.
|
||||
|
||||
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}
|
||||
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}%
|
||||
Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine
|
||||
Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus
|
||||
\[
|
||||
@ -224,7 +222,7 @@ darauf hingewiesen, dass dies nicht das einzige Problem ist.
|
||||
\begin{bemerkung}
|
||||
Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass
|
||||
Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert,
|
||||
dessen Dualraum phantastisch viel größer ist als der Raum selbst.
|
||||
dessen Dualraum fantastisch viel größer ist als der Raum selbst.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{proof}[Beweis von Satz~\ref{satz:14-3-1}]
|
||||
|
143
15-tensor.tex
143
15-tensor.tex
@ -9,22 +9,22 @@
|
||||
|
||||
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
|
||||
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
|
||||
es ist, dass all bilinearen Abbildungen von $U⨯V → W$ ``von $U⊗V$ kommen'', und
|
||||
es ist, dass all bilinearen Abbildungen von $U ⨯ V → W$ „von $U⊗V$ kommen“, und
|
||||
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
|
||||
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
|
||||
präzise.
|
||||
|
||||
\begin{defn}[Tensorprodukt]
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
|
||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein
|
||||
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
|
||||
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U⨯V → T$, so
|
||||
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U⨯V → W$
|
||||
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
|
||||
kommutiert:
|
||||
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U ⨯ V → T$,
|
||||
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U ⨯ V →
|
||||
W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
|
||||
Diagramm kommutiert:
|
||||
\[
|
||||
\begin{tikzcd}[column sep=2cm]
|
||||
U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
||||
U⨯V \ar[r, "s\text{, bilinear}"'] & W .
|
||||
U ⨯ V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
||||
U ⨯ V \ar[r, "s\text{, bilinear}"'] & W .
|
||||
\end{tikzcd}
|
||||
\]
|
||||
\end{defn}
|
||||
@ -32,10 +32,10 @@ präzise.
|
||||
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
||||
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
|
||||
|
||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
|
||||
seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann
|
||||
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
|
||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
|
||||
: U ⨯ V → T_1$ und $τ_1 : U ⨯ V → T_2$ zwei Tensorprodukte. Dann gibt es
|
||||
einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
\video{21-1}
|
||||
@ -43,34 +43,34 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
||||
|
||||
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
||||
|
||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||||
existiert ein Tensorprodukt.
|
||||
\begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
|
||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
|
||||
ein Tensorprodukt.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
\video{21-2}
|
||||
\end{proof}
|
||||
|
||||
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
|
||||
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}%
|
||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen
|
||||
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
|
||||
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
|
||||
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
|
||||
Literatur oft \emph{Tensoren}\index{Tensor}.
|
||||
\end{notation}
|
||||
|
||||
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
|
||||
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}%
|
||||
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
|
||||
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
|
||||
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
|
||||
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
|
||||
und mit $\vec{u}⊗\vec{v}$ bezeichnet.
|
||||
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v})
|
||||
\bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und
|
||||
$\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}⊗\vec{v}$
|
||||
bezeichnet.
|
||||
\end{notation}
|
||||
|
||||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||||
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
|
||||
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
|
||||
dass die Tensoren
|
||||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]%
|
||||
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1,
|
||||
\vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die
|
||||
Tensoren
|
||||
\[
|
||||
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
|
||||
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
|
||||
@ -83,22 +83,22 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
||||
|
||||
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
|
||||
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
|
||||
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
|
||||
der Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal
|
||||
überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der
|
||||
Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal
|
||||
wissen, ob sie Null sind oder nicht.
|
||||
|
||||
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
|
||||
\begin{notation}[Reine Tensor]\label{not:15-1-4b}%
|
||||
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
|
||||
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
|
||||
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
|
||||
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}⊗\vec{v}$ ist.
|
||||
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u} ∈
|
||||
U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}⊗\vec{v}$ ist.
|
||||
\end{notation}
|
||||
|
||||
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
|
||||
Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor
|
||||
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
|
||||
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
|
||||
$τ : U⨯V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
||||
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
|
||||
⨯ V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
||||
\[
|
||||
\vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
|
||||
\]
|
||||
@ -110,18 +110,16 @@ wissen, ob sie Null sind oder nicht.
|
||||
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
|
||||
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
|
||||
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
|
||||
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
|
||||
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
|
||||
überraschend schwer sein.
|
||||
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1⊗\vec{v}_2 =
|
||||
\vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||||
Beweisen Sie, dass der Tensor
|
||||
$\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
|
||||
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
|
||||
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit
|
||||
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, so
|
||||
dass die Gleichheit nicht gilt!
|
||||
Beweisen Sie, dass der Tensor $\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ²
|
||||
⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
|
||||
$\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1⊗\vec{v}_2 =
|
||||
\vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht
|
||||
gilt!
|
||||
\end{aufgabe}
|
||||
|
||||
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
|
||||
@ -130,7 +128,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
|
||||
hinschreiben können.
|
||||
|
||||
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||||
Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||||
ist die Menge der reinen Tensoren,
|
||||
\[
|
||||
R := \{ \vec{u}⊗ \vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} ∈
|
||||
@ -145,17 +143,16 @@ hinschreiben können.
|
||||
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
|
||||
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
|
||||
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
|
||||
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
|
||||
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, sodass die folgende Gleichung
|
||||
gilt,
|
||||
\[
|
||||
\vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}).
|
||||
\]
|
||||
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
|
||||
Index $i$ die Gleichung
|
||||
$a_i·(\vec{u_i}⊗\vec{v_i}) = (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht
|
||||
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
|
||||
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
|
||||
Tensoren schreiben kann.
|
||||
Index $i$ die Gleichung $a_i·(\vec{u_i}⊗\vec{v_i}) =
|
||||
(a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
|
||||
Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
|
||||
sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
|
||||
@ -167,9 +164,9 @@ hinschreiben können.
|
||||
Ψ: U⊗V → X, \quad \vec{u}⊗\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
|
||||
\]
|
||||
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
|
||||
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
|
||||
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
|
||||
von reinen Tensoren,
|
||||
Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ} ∈
|
||||
U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen
|
||||
Tensoren,
|
||||
\[
|
||||
\vec{τ} = \sum a_i·\vec{v}_i⊗\vec{w}_i
|
||||
\]
|
||||
@ -178,11 +175,11 @@ hinschreiben können.
|
||||
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
|
||||
\]
|
||||
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
|
||||
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
|
||||
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
|
||||
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so
|
||||
„definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
|
||||
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
|
||||
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
|
||||
folge.
|
||||
Folge.
|
||||
\end{notation}
|
||||
|
||||
|
||||
@ -193,7 +190,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
|
||||
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
|
||||
Tensorproduktraum erhält.
|
||||
|
||||
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
|
||||
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}%
|
||||
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
|
||||
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
|
||||
folgende Menge von reinen Tensoren,
|
||||
@ -217,7 +214,7 @@ Tensorproduktraum erhält.
|
||||
\vec{u}⊗\vec{v} &= \left(\sum_{i ∈ I} a_i·\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
|
||||
&= \sum_{i ∈ I} a_i·\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
|
||||
&= \sum_{i ∈ I} a_i·\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_j·\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
|
||||
&= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
|
||||
&= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}.
|
||||
\end{align*}
|
||||
Das beweist die Behauptung.
|
||||
\end{proof}
|
||||
@ -234,11 +231,11 @@ Tensorproduktraum erhält.
|
||||
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
|
||||
beachten, dass für jedes Paar $(i,j) ∈ I⨯ J$ von Indices die Abbildung
|
||||
\[
|
||||
s_{ij} : U⨯V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
|
||||
s_{ij} : U ⨯ V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
|
||||
\vec{v}^{\:*}_i(\vec{v})
|
||||
\]
|
||||
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
|
||||
eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α,β) ∈ I⨯ J$ gilt
|
||||
eine lineare Abbildung $η_{ij}: U⊗V → k$, sodass für alle $(α,β) ∈ I⨯ J$ gilt
|
||||
\begin{align*}
|
||||
η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\
|
||||
& = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\
|
||||
@ -254,13 +251,13 @@ Tensorproduktraum erhält.
|
||||
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
|
||||
&= η_{ij} \left( \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
|
||||
&= \sum_{(α,β) ∈ I⨯ J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
|
||||
&= a_{ij}
|
||||
&= a_{ij}.
|
||||
\end{align*}
|
||||
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
|
||||
\end{proof}
|
||||
|
||||
\begin{kor}[Dimensionsformel für Tensorprodukte]
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
|
||||
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
|
||||
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
|
||||
\end{kor}
|
||||
|
||||
@ -269,7 +266,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
|
||||
Basen.
|
||||
|
||||
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
|
||||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
|
||||
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
|
||||
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
|
||||
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
|
||||
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
|
||||
@ -279,7 +276,7 @@ Basen.
|
||||
…,
|
||||
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
|
||||
\]
|
||||
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
|
||||
Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische
|
||||
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
|
||||
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
|
||||
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
|
||||
@ -294,13 +291,13 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
|
||||
induzieren. Der folgende Satz macht diese Aussage präzise.
|
||||
|
||||
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
|
||||
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
|
||||
Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
|
||||
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
|
||||
Abbildung
|
||||
\[
|
||||
ν : U_1⊗U_2 → V_1⊗V_2 ,
|
||||
ν : U_1⊗U_2 → V_1⊗V_2,
|
||||
\]
|
||||
so dass das folgende Diagramm kommutiert:
|
||||
sodass das folgende Diagramm kommutiert:
|
||||
\[
|
||||
\begin{tikzcd}[column sep=2cm]
|
||||
U_1⨯U_2 \ar[d, "τ_1"'] \ar[r, "f_1⨯f_2"] & V_1⨯V_2 \ar[d, "τ_2"]\\
|
||||
@ -329,7 +326,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
|
||||
Matrizen diskutieren.
|
||||
|
||||
\begin{konstruktion}
|
||||
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
|
||||
Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
|
||||
Matrizen
|
||||
\[
|
||||
A_1 ∈ \Mat(a_1⨯ b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2⨯ b_2, k)
|
||||
@ -338,10 +335,10 @@ Matrizen diskutieren.
|
||||
\[
|
||||
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
|
||||
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
|
||||
\varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
|
||||
\varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}.
|
||||
\]
|
||||
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
|
||||
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
|
||||
mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten
|
||||
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
|
||||
zugehörende darstellende Matrix von $\varphi_{A_1}⊗\varphi_{A_1}$ bezüglich
|
||||
dieser Produktbasen. Diese Matrix wird häufig als
|
||||
@ -357,7 +354,7 @@ Matrizen diskutieren.
|
||||
Das Kronecker-Produkt ist also eine unangenehme Abbildung
|
||||
\[
|
||||
•⊗• : \Mat(a_1⨯ b_1, k)⨯\Mat(a_2⨯ b_2,
|
||||
k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr)
|
||||
k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr).
|
||||
\]
|
||||
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
|
||||
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
|
||||
@ -368,7 +365,7 @@ Matrizen diskutieren.
|
||||
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
|
||||
$\mathcal{B}_{U, •}$ von $U_{•}$ und $\mathcal{B}_{V, •}$ von $V_{•}$ gegeben.
|
||||
Weiter seien $\mathcal{B}_{U, 1⨯ 2}$ und $\mathcal{B}_{V, 1⨯ 2}$ die
|
||||
lexikographisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann
|
||||
lexikografisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann
|
||||
gilt für die darstellenden Matrizen die Gleichung
|
||||
\[
|
||||
\Mat^{\mathcal{B}_{U,1⨯ 2}}_{\mathcal{B}_{V,1⨯ 2}}(f_1⊗ f_2) =
|
||||
@ -386,7 +383,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
|
||||
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
|
||||
Folge der universellen Eigenschaften.
|
||||
|
||||
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
|
||||
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}%
|
||||
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
|
||||
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
|
||||
es eine kanonische Isomorphie zwischen den direkten Summen
|
||||
@ -406,7 +403,7 @@ Folge der universellen Eigenschaften.
|
||||
m: k⨯V → V, \quad (λ, \vec{v}) ↦ λ·\vec{v}
|
||||
\]
|
||||
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
|
||||
Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm
|
||||
Tensorprodukts genau eine lineare Abbildung $η$, sodass das folgende Diagramm
|
||||
kommutiert,
|
||||
\[
|
||||
\begin{tikzcd}
|
||||
|
@ -4,7 +4,7 @@
|
||||
\chapter{Tensorprodukte mit mehreren Faktoren}
|
||||
\label{sec:tAlg}
|
||||
|
||||
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'',
|
||||
\sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
|
||||
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
|
||||
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
|
||||
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
|
||||
@ -17,12 +17,12 @@ nennen.
|
||||
\section{Definition, Existenz und Eindeutigkeit}
|
||||
|
||||
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
|
||||
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere
|
||||
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare
|
||||
Abbildungen''.
|
||||
Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
|
||||
von Faktoren zu definieren, betrachten wir ganz analog „multilineare
|
||||
Abbildungen“.
|
||||
|
||||
\begin{defn}[Multilineare Abbildungen]
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien seien $W$ und $V_1, …, V_n$
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $W$ und $V_1, …, V_n$
|
||||
jeweils $k$-Vektorräume. Eine Abbildung
|
||||
\[
|
||||
s: V_1⨯ V_2 ⨯ ⋯ ⨯ V_n → W
|
||||
@ -36,17 +36,16 @@ Abbildungen''.
|
||||
\end{multline*}
|
||||
\end{defn}
|
||||
|
||||
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein
|
||||
Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
|
||||
Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
||||
|
||||
\begin{defn}[Tensorprodukt]\label{def:16-1-2}
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von
|
||||
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein
|
||||
Vektorraum $T$ zusammen mit einer multilinearen Abbildung
|
||||
$τ: V_1 ⨯ ⋯ ⨯ V_n → T$, so dass für alle multilinearen Abbildungen
|
||||
$s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so
|
||||
dass das folgende Diagramm kommutiert
|
||||
\begin{defn}[Tensorprodukt]\label{def:16-1-2}%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||
V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
|
||||
V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
|
||||
zusammen mit einer multilinearen Abbildung $τ: V_1 ⨯ ⋯ ⨯ V_n → T$, sodass für
|
||||
alle multilinearen Abbildungen $s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare
|
||||
Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
|
||||
\[
|
||||
\begin{tikzcd}[column sep=2cm]
|
||||
V_1 ⨯ ⋯ ⨯ V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||||
@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
||||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||||
Existenz und Eindeutigkeit des Tensorprodukts.
|
||||
|
||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und
|
||||
$τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen
|
||||
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed
|
||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||
V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und $τ_1 : V_1 ⨯ ⋯ ⨯
|
||||
V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
|
||||
$T_1 ≅ T_2$. \qed
|
||||
\end{satz}
|
||||
|
||||
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
|
||||
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||
V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
|
||||
\end{satz}
|
||||
|
||||
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen
|
||||
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben
|
||||
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||
V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
||||
Sprache, sprechen von „dem Tensorprodukt“ und schreiben
|
||||
\[
|
||||
τ : V_1 ⨯ ⋯ ⨯ V_n → V_1 ⊗ ⋯ ⊗ V_n.
|
||||
\]
|
||||
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
||||
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als
|
||||
\emph{rein}\index{Reine Tensoren}.
|
||||
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
|
||||
⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
|
||||
Tensoren}.
|
||||
\end{notation}
|
||||
|
||||
\begin{notation}[Mehrfache Produkte]
|
||||
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz
|
||||
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$
|
||||
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen
|
||||
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt
|
||||
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
|
||||
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{⊗
|
||||
n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
|
||||
zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
|
||||
∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
|
||||
\end{notation}
|
||||
|
||||
|
||||
\section{Assoziativität}
|
||||
|
||||
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit
|
||||
Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
|
||||
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
|
||||
die Assoziativität. Der folgende Satz klärt alles.
|
||||
|
||||
\begin{satz}[Assoziativität des Tensorproduktes]
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die
|
||||
Vektorräume
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||
V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
|
||||
\[
|
||||
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
|
||||
\]
|
||||
kanonisch isomorph.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an
|
||||
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
|
||||
Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
|
||||
an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
|
||||
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
|
||||
Betrachten Sie die Abbildung
|
||||
\[
|
||||
@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
|
||||
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||
|
||||
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
|
||||
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||
lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||
|
||||
\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist
|
||||
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$
|
||||
\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
|
||||
= \prod_i \dim V_i$.
|
||||
|
||||
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
|
||||
zwischen den Tensorprodukten.
|
||||
@ -193,13 +190,12 @@ und
|
||||
& (λ,ν) & ↦ & λ·ν.
|
||||
\end{matrix}
|
||||
\]
|
||||
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}.
|
||||
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe
|
||||
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu
|
||||
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine
|
||||
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies
|
||||
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche
|
||||
Multiplikation erweitert wurde.
|
||||
Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
|
||||
Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
|
||||
die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
|
||||
Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
|
||||
relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
|
||||
eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
|
||||
|
||||
\begin{defn}[Algebra über einem Körper]
|
||||
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
|
||||
@ -212,19 +208,17 @@ Multiplikation erweitert wurde.
|
||||
\begin{itemize}
|
||||
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
|
||||
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
|
||||
$\vec{v}_2 ∈ V$ die Gleichheit
|
||||
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt.
|
||||
$\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
|
||||
\vec{v}_1)$ gilt.
|
||||
|
||||
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
|
||||
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
|
||||
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit
|
||||
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1,
|
||||
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
|
||||
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
|
||||
\vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
|
||||
|
||||
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
|
||||
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren
|
||||
$\vec{v} ∈ V$ die Gleichheit
|
||||
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
|
||||
falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v} ∈
|
||||
V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
|
||||
\end{itemize}
|
||||
\end{defn}
|
||||
|
||||
@ -244,8 +238,8 @@ Beispiele für Algebren kennen Sie schon.
|
||||
\end{bsp}
|
||||
|
||||
\begin{bsp}[Matrizen]
|
||||
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n⨯ n, k)$,
|
||||
der Vektorraum der $(n⨯ n)$-Matrizen. Die Abbildung $m$ sei die
|
||||
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n ⨯ n, k)$,
|
||||
der Vektorraum der $(n ⨯ n)$-Matrizen. Die Abbildung $m$ sei die
|
||||
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
|
||||
besitzt eine Eins.
|
||||
\end{bsp}
|
||||
|
210
17-wedge.tex
210
17-wedge.tex
@ -5,24 +5,24 @@
|
||||
\label{sec:wedge}
|
||||
|
||||
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
|
||||
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
|
||||
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
|
||||
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
|
||||
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
||||
in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
|
||||
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
|
||||
langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
|
||||
trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
||||
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
|
||||
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
|
||||
sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
|
||||
|
||||
|
||||
\section{Definition, Existenz und Eindeutigkeit}
|
||||
|
||||
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
|
||||
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
|
||||
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
|
||||
Abbildungen beschränken, die alternierend sind.
|
||||
Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
|
||||
definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
|
||||
ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
|
||||
beschränken, die alternierend sind.
|
||||
|
||||
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
|
||||
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
|
||||
$n ∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
||||
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
|
||||
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
|
||||
∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
||||
\[
|
||||
s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W
|
||||
\]
|
||||
@ -32,10 +32,10 @@ Abbildungen beschränken, die alternierend sind.
|
||||
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
|
||||
\end{equation}
|
||||
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
|
||||
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
||||
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
|
||||
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
|
||||
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
||||
Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
||||
alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
|
||||
…, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
|
||||
\ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}
|
||||
@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind.
|
||||
|
||||
\begin{prov}
|
||||
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
|
||||
``alternierende Multilineare Abbildung'' nehmen?
|
||||
„alternierende Multilineare Abbildung“ nehmen?
|
||||
\end{prov}
|
||||
|
||||
\begin{notation}[Produkte]
|
||||
@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind.
|
||||
|
||||
\begin{bsp}[Determinante]
|
||||
Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als
|
||||
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
|
||||
$\Mat(n⨯ n, k)$ der $(n⨯ n)$-Matrizen mit dem Vektorraum
|
||||
$k^n⨯ ⋯ ⨯ k^n$. Dann ist die Determinantenabbildung
|
||||
Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n⨯ n, k)$
|
||||
der $(n⨯ n)$-Matrizen mit dem Vektorraum $k^n⨯ ⋯ ⨯ k^n$. Dann ist die
|
||||
Determinantenabbildung
|
||||
\[
|
||||
\det : k^n⨯ ⋯ ⨯ k^n → k
|
||||
\]
|
||||
@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind.
|
||||
|
||||
\begin{bsp}[Kreuzprodukt]
|
||||
Das von Physiker geliebte
|
||||
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
|
||||
$ℝ³$} ist eine alternierende multilineare Abbildung.
|
||||
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
|
||||
ist eine alternierende multilineare Abbildung.
|
||||
\end{bsp}
|
||||
|
||||
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
|
||||
Vektorräumen definieren.
|
||||
|
||||
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
|
||||
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
|
||||
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, so
|
||||
dass für alle multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare
|
||||
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
|
||||
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
|
||||
∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
|
||||
Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
|
||||
Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
|
||||
einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, sodass für alle
|
||||
multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare Abbildung $η: T →
|
||||
W$ existiert, sodass das folgende Diagramm kommutiert
|
||||
\[
|
||||
\begin{tikzcd}[column sep=4cm]
|
||||
V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||||
@ -104,45 +104,42 @@ Vektorräumen definieren.
|
||||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||||
Existenz und Eindeutigkeit des äußeren Produktes.
|
||||
|
||||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
|
||||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||
gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei
|
||||
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
|
||||
$T_1 ≅ T_2$. \qed
|
||||
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅
|
||||
T_2$. \qed
|
||||
\end{satz}
|
||||
|
||||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
|
||||
\begin{satz}[Existenz des äußeren Produkts]\label{satz:17-1-9}%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
|
||||
\end{satz}
|
||||
|
||||
\begin{notation}[Notation rund um äußere Produkte]
|
||||
\begin{notation}[Notation rund um äußere Produkte]%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
||||
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
|
||||
Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
|
||||
\[
|
||||
τ : V^{⨯n} → \bigwedge^n V.
|
||||
\]
|
||||
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
|
||||
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
|
||||
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
|
||||
\emph{reinen Dächern}\index{reine Dächer}.
|
||||
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
|
||||
Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
|
||||
bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
|
||||
umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
|
||||
\end{notation}
|
||||
|
||||
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
|
||||
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
|
||||
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
|
||||
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
|
||||
Definition~\ref{def:17-1-1} die folgenden Regeln.
|
||||
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
|
||||
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
|
||||
Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
|
||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
|
||||
folgenden Regeln.
|
||||
\begin{itemize}
|
||||
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
|
||||
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
|
||||
gleich $\vec{0}_{Λ^n V}$.
|
||||
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
|
||||
\vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
|
||||
|
||||
\item Für jede Permutation $ρ ∈ S_n$ ist
|
||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
|
||||
Λ \vec{v}_{ρ(n)}$.
|
||||
\item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
|
||||
\sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
|
||||
\end{itemize}
|
||||
\end{beobachtung}
|
||||
|
||||
@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
|
||||
\end{beobachtung}
|
||||
|
||||
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
|
||||
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
|
||||
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
|
||||
Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
||||
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\} ⊂
|
||||
ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
||||
\[
|
||||
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
|
||||
⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
|
||||
@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
|
||||
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
|
||||
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
|
||||
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
|
||||
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
|
||||
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
|
||||
verzichte ich darauf.
|
||||
Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
|
||||
In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
|
||||
|
||||
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
|
||||
In der Situation von Definition~\ref{def:17-1-4} sei
|
||||
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
|
||||
ist die Menge
|
||||
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
|
||||
In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
|
||||
\vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
|
||||
\[
|
||||
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
|
||||
\]
|
||||
@ -199,7 +193,7 @@ verzichte ich darauf.
|
||||
\end{satz}
|
||||
|
||||
\begin{bemerkung}
|
||||
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
|
||||
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
|
||||
sollte!
|
||||
\end{bemerkung}
|
||||
|
||||
@ -223,8 +217,8 @@ verzichte ich darauf.
|
||||
|
||||
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
|
||||
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
|
||||
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir
|
||||
wie folgt eine Abbildung
|
||||
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
|
||||
folgt eine Abbildung
|
||||
\[
|
||||
\begin{matrix}
|
||||
m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\
|
||||
@ -252,7 +246,7 @@ und
|
||||
& (λ,ν) & ↦ & λ·ν.
|
||||
\end{matrix}
|
||||
\]
|
||||
Diese ``Definitionen'' verwenden die analog die schreckliche
|
||||
Diese „Definitionen“ verwenden die analog die schreckliche
|
||||
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
|
||||
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
||||
|
||||
@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
||||
|
||||
\begin{bemerkung}
|
||||
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
|
||||
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
|
||||
sobald $n>\dim V$ ist. Also ist
|
||||
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
|
||||
$n>\dim V$ ist. Also ist
|
||||
\[
|
||||
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
|
||||
2^{\dim V}.
|
||||
@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
||||
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
|
||||
eine Abbildung zwischen den Dachprodukten induziert.
|
||||
|
||||
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
|
||||
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
|
||||
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
|
||||
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
|
||||
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
|
||||
Diagramm kommutiert,
|
||||
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
|
||||
Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
|
||||
\[
|
||||
\begin{tikzcd}[column sep=2cm]
|
||||
V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\
|
||||
@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
|
||||
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Hier ist fast nichts zu zeigen. Die Abbildung
|
||||
$τ◦(f ⨯ ⋯ ⨯ f)$ ist alternierend und multilinear. Also
|
||||
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
|
||||
Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f ⨯ ⋯ ⨯ f)$ ist
|
||||
alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
|
||||
der universellen Eigenschaft.
|
||||
\end{proof}
|
||||
|
||||
\begin{bemerkung}
|
||||
@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
|
||||
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
|
||||
geht's.
|
||||
|
||||
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
|
||||
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
|
||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
|
||||
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
|
||||
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
||||
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
|
||||
\vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
|
||||
Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
||||
\begin{itemize}
|
||||
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
|
||||
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
|
||||
$A := (a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
||||
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
|
||||
$A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ die Matrix, die aus den Spalten
|
||||
$i_1, …,i_k$ der Matrix $A$ besteht.
|
||||
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
|
||||
(a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
||||
|
||||
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$
|
||||
die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
|
||||
\end{itemize}
|
||||
Dann ist
|
||||
\[
|
||||
@ -342,11 +335,9 @@ geht's.
|
||||
\]
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
|
||||
ausrechnen, was der Koeffizient von
|
||||
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
|
||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
|
||||
besseres ein, als das Produkt
|
||||
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
|
||||
der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
|
||||
\vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
|
||||
\[
|
||||
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
|
||||
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
|
||||
@ -361,7 +352,7 @@ geht's.
|
||||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
|
||||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
|
||||
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
|
||||
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
|
||||
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
|
||||
\end{align*}
|
||||
Damit ist der Satz dann wohl bewiesen.
|
||||
\end{proof}
|
||||
@ -382,12 +373,11 @@ geht's.
|
||||
|
||||
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
|
||||
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
|
||||
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
|
||||
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
|
||||
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
|
||||
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
|
||||
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
|
||||
Frage.
|
||||
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
|
||||
V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
|
||||
lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
|
||||
aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
|
||||
$λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
|
||||
|
||||
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
|
||||
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
|
||||
@ -398,16 +388,16 @@ Frage.
|
||||
\end{kor}
|
||||
|
||||
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
|
||||
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
|
||||
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
||||
Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
|
||||
Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
||||
geometrische Aussage.
|
||||
|
||||
|
||||
\subsection{Die Koeffizienten des charakteristischen Polynoms}
|
||||
|
||||
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
|
||||
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
|
||||
Matrix $A ∈ \Mat(n⨯ n,k)$ diskutiert,
|
||||
„Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
|
||||
$A ∈ \Mat(n ⨯ n,k)$ diskutiert,
|
||||
\[
|
||||
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
|
||||
a_{n-1}(A)·t + a_n(A) \right).
|
||||
@ -417,15 +407,15 @@ Wir hatten staunend festgestellt, dass die Funktionen
|
||||
a_i : \Mat(n⨯ n, k) → k
|
||||
\]
|
||||
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
|
||||
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
||||
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
||||
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
|
||||
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
|
||||
konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
|
||||
\[
|
||||
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
|
||||
\]
|
||||
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||
ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||
|
||||
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
|
||||
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler
|
||||
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
|
||||
Polynom von $f$ als
|
||||
@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||
\vdots & \ddots \\
|
||||
& & & & a_{(n-1)n}\\
|
||||
a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Das charakteristische Polynom ist dann die Determinante von $B$, also
|
||||
\begin{equation}\label{eq:xcydfg}
|
||||
@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||
|
||||
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
|
||||
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
|
||||
wir noch einmal daran, dass die Dachprodukte
|
||||
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
|
||||
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
|
||||
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
|
||||
wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
|
||||
\vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
|
||||
also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
|
||||
nach Satz~\ref{satz:17-4-3}
|
||||
\begin{align*}
|
||||
(Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
|
||||
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
|
||||
@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||
|
||||
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
|
||||
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
|
||||
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
|
||||
$\widetilde{A}^{i_1, …, i_k}$ ist.
|
||||
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
|
||||
i_k}$ ist.
|
||||
\end{proof}
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
90
18-dehn.tex
90
18-dehn.tex
@ -6,33 +6,31 @@
|
||||
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
|
||||
August 1900 in Paris hielt David
|
||||
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
|
||||
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
|
||||
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch
|
||||
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste
|
||||
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag
|
||||
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen
|
||||
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im
|
||||
20.~Jahrhundert.
|
||||
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
|
||||
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
|
||||
gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
|
||||
23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
|
||||
Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
|
||||
als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
|
||||
|
||||
|
||||
\section{Hilbert's drittes Problem}
|
||||
|
||||
In
|
||||
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
|
||||
drittem Problem} geht es um folgende Frage: gegeben sind zwei
|
||||
drittem Problem} geht es um folgende Frage: gegeben sind zwei
|
||||
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
|
||||
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein
|
||||
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt.
|
||||
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die
|
||||
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit}
|
||||
sind.
|
||||
$ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
|
||||
zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
|
||||
entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
|
||||
$P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
|
||||
|
||||
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
|
||||
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
||||
|
||||
\begin{beobachtung}
|
||||
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
|
||||
die Antwort ``Nein!''
|
||||
die Antwort „Nein!“
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{notation}
|
||||
@ -48,23 +46,23 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
||||
|
||||
Schauen Sie zum Thema Invarianten einmal in
|
||||
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
|
||||
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen
|
||||
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also
|
||||
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf
|
||||
Hilbert's Frage zu geben.
|
||||
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
|
||||
können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
|
||||
gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
|
||||
geben.
|
||||
|
||||
|
||||
\section{Die Dehn-Invariante}
|
||||
|
||||
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
|
||||
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
|
||||
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu
|
||||
„Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
|
||||
beantworten. Aus diesem Grund konstruierte Max
|
||||
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
|
||||
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
|
||||
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
|
||||
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
|
||||
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
|
||||
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
|
||||
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
|
||||
anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
|
||||
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
|
||||
offensichtlich ist, wie das Volumen. Die
|
||||
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
|
||||
\[
|
||||
@ -87,10 +85,10 @@ $ℚ$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
|
||||
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
||||
|
||||
\begin{bemerkung}
|
||||
Um mit dem $ℚ$-Vektorraum $ℝ$ warm zu werden, fragen wir: ist die Menge
|
||||
$\{ 1, \sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist ``Nein!'' Denn
|
||||
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale
|
||||
$ℚ$-lineare Relation gäbe,
|
||||
Um mit dem $ℚ$-Vektorraum $ℝ$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
|
||||
\sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
|
||||
zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $ℚ$-lineare
|
||||
Relation gäbe,
|
||||
\[
|
||||
p · 1 + q · \sqrt{2} = 0,
|
||||
\]
|
||||
@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
||||
aber schon, dass $\sqrt{2}$ irrational ist.
|
||||
\end{bemerkung}
|
||||
|
||||
Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl
|
||||
$π$ erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter
|
||||
betrachten wir den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der
|
||||
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt,
|
||||
Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
|
||||
erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter betrachten wir
|
||||
den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der Vektorraum $V$
|
||||
von Max Dehn ist dann gleich dem Tensorprodukt,
|
||||
\[
|
||||
V = ℝ ⊗ \left(\factor{ℝ}{\langle π \rangle}\right).
|
||||
\]
|
||||
@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $ℚ$-Vektorräumen, also selbst ein $ℚ$-Vektor
|
||||
|
||||
\subsection{Konstruktion der Invariante}
|
||||
|
||||
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
|
||||
Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
|
||||
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
|
||||
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
|
||||
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
|
||||
$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante
|
||||
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
|
||||
$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
|
||||
zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
|
||||
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
|
||||
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von
|
||||
Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
|
||||
$P$ schließlich als
|
||||
\[
|
||||
\operatorname{dehn}(P) := \sum_{k=1}^{n} ℓ(E_k) ⊗ α (E_k).
|
||||
\]
|
||||
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante
|
||||
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
||||
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
|
||||
Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
||||
|
||||
\begin{beobachtung}
|
||||
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
|
||||
@ -237,9 +235,9 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
||||
\begin{itemize}
|
||||
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
|
||||
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
|
||||
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$
|
||||
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$
|
||||
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
|
||||
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
|
||||
des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
|
||||
$α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
|
||||
bezeichnen, dann gelten die Gleichungen
|
||||
\begin{equation}
|
||||
\begin{matrix}
|
||||
@ -249,21 +247,21 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
||||
\end{equation}
|
||||
|
||||
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
|
||||
Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann
|
||||
gilt für die Längen und für die Winkel
|
||||
Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann gilt für die Längen
|
||||
und für die Winkel
|
||||
\begin{equation}
|
||||
\begin{aligned}
|
||||
ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\
|
||||
α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•})
|
||||
α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•}).
|
||||
\end{aligned}
|
||||
\end{equation}
|
||||
|
||||
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
|
||||
hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in
|
||||
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$,
|
||||
hinzugekommen sind. Eine solche Kante tritt immer zweimal auf: einmal in
|
||||
$P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$,
|
||||
$E²_{n+1}$, …, $E¹_m$, $E²_m$. Es gilt für jeden Index $i > n$
|
||||
\begin{equation}
|
||||
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π
|
||||
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
|
||||
\end{equation}
|
||||
\end{itemize}
|
||||
Mit diesen Bezeichnungen ist
|
||||
|
@ -3,15 +3,14 @@
|
||||
|
||||
\chapter{Ausblick.}
|
||||
|
||||
Wir sind am Ende der Vorlesung ``Lineare Algebra II''. Wir hoffen, dass Sie
|
||||
trotz des ungewöhnlichen Formats der Vorlesung etwas gelernt und für sich
|
||||
mitgenommen haben.
|
||||
Wir sind am Ende der Vorlesung „Lineare Algebra II“. Wir hoffen, dass Sie etwas
|
||||
gelernt und für sich mitgenommen haben.
|
||||
|
||||
\bigskip
|
||||
|
||||
\bigskip
|
||||
|
||||
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
|
||||
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium!
|
||||
|
||||
\bigskip
|
||||
|
||||
@ -24,14 +23,14 @@ Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
|
||||
\subsection*{Ein sehr persönliches Wort zum Ende}
|
||||
|
||||
\begin{quote}
|
||||
Any interested participant with basic knowledge of vector and matrix
|
||||
multiplication as linear algebra is at the core of quantum computing
|
||||
algorithms.
|
||||
\foreignlanguage{english}{Any interested participant with basic knowledge of
|
||||
vector and matrix multiplication as linear algebra is at the core of quantum
|
||||
computing algorithms.}
|
||||
|
||||
-- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro}
|
||||
\end{quote}
|
||||
|
||||
Für mich ist die Vorlesung ``Lineare Algebra II'' so etwas wie ein Schlüssel zur
|
||||
Für mich ist die Vorlesung „Lineare Algebra II“ so etwas wie ein Schlüssel zur
|
||||
Welt. Wir leben in einer Zeit, in der neue Techniken der
|
||||
Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise
|
||||
umwälzen, zum Guten wie zum
|
||||
@ -39,21 +38,21 @@ umwälzen, zum Guten wie zum
|
||||
dieser Umwälzungen ist schwer zu unterschätzen; vermutlich werden die
|
||||
langfristigen Auswirkungen am ehesten mit denen der
|
||||
\href{https://de.wikipedia.org/wiki/Industrielle_Revolution}{ersten
|
||||
industriellen Revolution} vergleichbar sein.
|
||||
industriellen Revolution} vergleichbar sein.
|
||||
|
||||
In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie
|
||||
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu
|
||||
gestalten. Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei;
|
||||
es scheint in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich
|
||||
zu ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich
|
||||
nicht gestalten! Was ich nicht verstehe, macht mir Angst!
|
||||
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu gestalten.
|
||||
Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei; es scheint
|
||||
in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich zu
|
||||
ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich nicht
|
||||
gestalten! Was ich nicht verstehe, macht mir Angst!
|
||||
|
||||
Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie
|
||||
\emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective
|
||||
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer
|
||||
Algebra. Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der
|
||||
\emph{Pole Position}, um diese Sachen zu verstehen. Sie können sich noch heute
|
||||
eine ein Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
|
||||
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer Algebra.
|
||||
Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der \emph{Pole
|
||||
Position}, um diese Sachen zu verstehen. Sie können sich noch heute eine ein
|
||||
Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
|
||||
Linux-Laptop laden, die hervorragenden
|
||||
\href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes
|
||||
\emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei
|
||||
@ -62,7 +61,7 @@ Linux-Laptop laden, die hervorragenden
|
||||
Technik erklären. Schauen Sie sich das interaktive Lehrbuch von
|
||||
\href{https://qiskit.org/textbook/preface.html}{Qiskit} an
|
||||
(\href{https://www.youtube.com/playlist?list=PLOFEBzvs-Vvp2xg9-POLJhQwtVktlYGbY}{Videos
|
||||
gibt es hier}), und stellen Sie bei IBM ihren ersten
|
||||
gibt es hier}), und stellen Sie bei IBM ihren ersten
|
||||
\href{https://quantum-computing.ibm.com/docs/start-iqx/code/first-circ}{Quanten-Schaltkreis}
|
||||
zusammen. Oder Sie benutzen den
|
||||
\href{http://www.quantumplayground.net/#/home}{Quantum Computing Playground}.
|
||||
|
@ -28,7 +28,7 @@
|
||||
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
|
||||
|
||||
\title{Lineare Algebra 2}
|
||||
\author{Prof. Dr. Stefan Kebekus}
|
||||
\author{Prof.~Dr.~Stefan Kebekus}
|
||||
|
||||
\DeclareMathOperator{\ad}{ad}
|
||||
\DeclareMathOperator{\Bij}{Bij}
|
||||
@ -93,7 +93,6 @@
|
||||
|
||||
|
||||
|
||||
|
||||
\begin{document}
|
||||
% spell checker language
|
||||
\selectlanguage{german}
|
||||
|
@ -7,6 +7,7 @@
|
||||
\usepackage{enumitem}
|
||||
\usepackage{hyperref}
|
||||
\usepackage[utf8]{inputenc}
|
||||
\usepackage[T1]{fontenc}
|
||||
\usepackage{newunicodechar}
|
||||
\usepackage{mathtools}
|
||||
\usepackage{varioref}
|
||||
@ -362,10 +363,7 @@
|
||||
% HYPENTATION
|
||||
%
|
||||
|
||||
\hyphenation{com-po-nents}
|
||||
\hyphenation{pos-i-tive}
|
||||
\hyphenation{Theo-rem}
|
||||
\hyphenation{Vojta}
|
||||
\hyphenation{uni-tärer}
|
||||
|
||||
|
||||
%
|
||||
|
Loading…
x
Reference in New Issue
Block a user