Compare commits

..

21 Commits
main ... main

Author SHA1 Message Date
Stefan Kebekus
e38830a5f0 Cleanup 2025-07-14 10:26:28 +02:00
Stefan Kebekus
75fe57af6b Working 2025-07-04 14:21:10 +02:00
Stefan Kebekus
4b1c86c1ea Working 2025-07-02 10:51:46 +02:00
Stefan Kebekus
ed0e972443 Fix error 2025-07-01 14:17:18 +02:00
Stefan Kebekus
ae3be3aa81 Update 14-direkteSumme.tex 2025-06-30 12:40:27 +02:00
Stefan Kebekus
056e054363 Fix typos 2025-06-30 08:40:53 +02:00
Stefan Kebekus
e319086277 Fix typos 2025-06-30 08:28:39 +02:00
Stefan Kebekus
b8152c6101 Update 2025-06-30 07:29:02 +02:00
Stefan Kebekus
3f631e4eaf Working 2025-06-24 13:59:10 +02:00
Stefan Kebekus
639481f8c0 Typos 2025-06-24 13:53:37 +02:00
Stefan Kebekus
37b91c5e02 Working 2025-06-23 15:13:56 +02:00
Stefan Kebekus
9a0ab78a70 Spellchecking 2025-05-23 14:48:51 +02:00
Stefan Kebekus
2bc4283c2d Fix typo 2025-05-23 14:37:08 +02:00
Stefan Kebekus
1f00cf5ea0 Cleanup 2025-05-21 11:02:50 +02:00
Stefan Kebekus
f89acb0147 Cleanup 2025-05-21 09:31:59 +02:00
Stefan Kebekus
c687df6e75 Typo 2025-05-19 13:01:09 +02:00
Stefan Kebekus
a3081c8e56 Cleanup 2025-05-13 15:03:58 +02:00
Stefan Kebekus
0dd5b65ed1 Cleanup 2025-05-09 12:25:00 +02:00
Stefan Kebekus
1c5823c039 Fix lingo 2025-05-07 14:17:36 +02:00
Stefan Kebekus
99b45276c9 Fix error 2025-05-07 11:07:12 +02:00
Stefan Kebekus
3bd5ccd104 Fix errors 2025-05-05 10:33:28 +02:00
26 changed files with 1397 additions and 1264 deletions

View File

@ -19,3 +19,92 @@ Quotientenvektorraums
Erzeugendensystem
Quotientenvektorräume
Repräsentantenniveau
Jordanscher
Matrixexponential
Matrixexponentials
Einsetzungsabbildung
Cayley-Hamilton
TFAE
Jordanblocks
Einsetzungsmorphismus
Abstandserhaltende
abstandserhaltend
metrikerhaltend
abstandserhaltenden
abstandserhaltender
abstandserhaltende
Definitheit
ONB
Kronecker-Delta
semidefinit
Bytestrings
Bilinearität
Semilinearität
Sesquilinearlinearform
Cayley
Sequilinearform
Dualräumen
Hom-Räumen
Maximumsnorm
Cauchy-Schwarzschen
Cauchy-Schwarzsche
Cauchy
Sceaux
Amandus
Orthonormalität
Identifikationen
semi-linear
Quotientenräume
Rückzugsabbildung
Determinanten-Multiplikationssatz
Komplexifizierung
komplexifizierten
komplexifizierte
Quadriken
Quadrik
Grund-Quadriken
Vereinfachungsschritten
Koniken
Perge
Hyperbelbahnen
Konik
Auxerre
Loviscach
psycho-akustisches
SciKit
Funktionalgleichung
Schönhage-Strassen-Algorithmus
Schönhage
Strassen
Thurstone
Allport
Odbert
kulturstabile
Stryker
Gallup-Test
OCEAN-Modell
PCA
massebehafteter
Sylvester
Hurwitz-Kriteriums
Hurwitz-Kriterium
Determinantenabbildung
Eindeutigkeitsbeweis
Tensorproduktraum
Trivialbeispiel
Erzeugendensysteme
Kronecker-Produkt
Kronecker
Tensorprodukträume
Tensorproduktkonstruktion
Tensorproduktabbildung
Multiplikationsabbildung
Permutationsgruppe
Erzeugendensystemen
auszumultiplizieren
inner-mathematischen
zerlegungsgleich
Zerlegungsgleichheit
Invarianteneigenschaft
Quotientenvektorraum
Kebekus

1
.vscode/ltex.dictionary.en-US.txt vendored Normal file
View File

@ -0,0 +1 @@
observables

View File

@ -1 +1,3 @@
KARDINALZAHLEN
DE_COMPOUND_COHERENCY
KLEINSCHREIBUNG_KEIN_NAME

View File

@ -7,3 +7,73 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QArthur Cayley (* 16. August 1821 in Richmond upon Thames, Surrey; † 26. Januar 1895 in Cambridge) war ein englischer Mathematiker.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Absolute Homogenität] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Dreiecksungleichung] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q [Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann ergibt sich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen Begriff von „orthogonalen Unterraum“.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir werden in Abschnitt sec:dual sehen, wie die Begriffe zusammenhängen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des “Dualraum”.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des „Dualraum“.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem “orthogonalen Komplement” aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem „orthogonalen Komplement“ aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}

View File

@ -0,0 +1,2 @@
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}

View File

@ -27,9 +27,9 @@ Diagonalgestalt hat.
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
\begin{defn}[Diagonalisierbare Matrix]
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $(n n)$-Matrix $A$ heißt
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $n n$-Matrix $A$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ GL_n(k)$, sodass $SAS^{-1}$ eine
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, sodass $SAS^{-1}$ eine
Diagonalmatrix ist.
\end{defn}
@ -85,14 +85,14 @@ Punkte abgezogen wurden.}.
$$
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
$$
Also ist $\deg(g) = 6$ und die Nullstellen von $g$ sind $i$, $2$ und $3$
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
\end{erinnerung}
\section{Algebraische und geometrische Vielfachheit}
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun einen Skalar $λ ∈ k$ gegeben
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
habe, kann ich die folgenden zwei Zahlen betrachten.
\begin{itemize}
\item Die \emph{algebraische Vielfachheit von
@ -128,9 +128,9 @@ habe, kann ich die folgenden zwei Zahlen betrachten.
$$
\end{prop}
\begin{proof}
Sei ein Skalar $λ$ gegeben. Falls die geometrische Vielfachheit von $λ$ gleich
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
größer als Null. Das bedeutet: Es gibt eine linear unabhängige (angeordnete)
größer als Null. Das bedeutet: Es gibt eine lineare unabhängige (angeordnete)
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
Matrix von der Form

View File

@ -9,7 +9,7 @@
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
sodass die dazugehörige Matrix eine besonders einfache Gestalt hat -- zumindest,
sodass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest,
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
@ -62,7 +62,7 @@ auch eine Menge Videos auf
\end{bsp}
\begin{defn}[Jordansche Normalform]
Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $(n n)$-Matrix $A =
Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $n n$-Matrix $A =
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
anderen Blöcke gleich Null sind.
@ -110,13 +110,13 @@ Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
\begin{satz}[Jordansche Normalform]\label{satz:JNF}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
$B$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
$\mathcal{B}$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
Normalform hat.
\end{satz}
\begin{notation}
Situation wie in Satz~\ref{satz:JNF}. Eine
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $B$
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
hat.
\end{notation}
@ -139,7 +139,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls eine Zahl $m ∈ $
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ $
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
solche Zahl $m$ heißt \emph{Nilpotenzindex von
$f$}\index{Nilpotenzindex!Endomorphismus}.
@ -148,7 +148,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Matrizen]
Es sei $k$ ein Körper, es sei $n ∈ $ eine Zahl und $A$ eine $( n n)$-Matrix
mit Werten in $k$. Nenne die Matrix $A$
\emph{nilpotent}\index{nilpotent!Matrix}, falls eine Zahl $m ∈ $ existiert,
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ $ existiert,
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
\end{defn}
@ -165,7 +165,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{beobachtung}
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ GL(n, k)$, sodass $N :=
Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ Gl(n, k)$, sodass $N :=
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
$$
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
@ -190,9 +190,9 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
$$
\Hau_f(λ) := \bigcup_{n ∈ } \ker \Bigl( (f - λ · \Id_V )^n \Bigr)
$$
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!Endomorphismus} oder
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!eines Endomorphismus} oder
\emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}%
\index{verallgemeinerter Eigenraum!Endomorphismus}.
\index{verallgemeinerter Eigenraum!eines Endomorphismus}.
\end{defn}
\begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}%
@ -203,8 +203,8 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\Bigr),
$$
wobei $\Id_{n n}$ die Einheitsmatrix bezeichnet. Man nennt dies den
\emph{Hauptraum}\index{Hauptraum!Matrix} oder \emph{verallgemeinerten
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!Matrix}.
\emph{Hauptraum}\index{Hauptraum!einer Matrix} oder \emph{verallgemeinerten
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!einer Matrix}.
\end{defn}
\begin{beobachtung}
@ -272,7 +272,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
0 & A
\end{array}\right).
$$
Es ist $χ_f(t) = (λ-t)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
Es ist $χ_f(t) = (t-λ)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
Nullstelle des Polynoms $χ_A$.
@ -355,7 +355,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
\begin{align*}
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
\vdots \\
\\
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
\end{align*}
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
@ -404,7 +404,7 @@ Jordansche Normalform zu zeigen. Die Korollare~\ref{kor:2-2-11} und
die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
Jordansche Normalform hat, genügt es, eine Basis zu finden, sodass die Matrix
$N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_\Id_{W_i}$ Jordansche
Normalform hat (…denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche
Normalform hat (… denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche
Normalform)
\end{enumerate}
@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
die Vektoren
\[
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
v^p_{m_p-a}
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
\]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
@ -756,8 +755,8 @@ folgt vor.
\]
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir
wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
die duale Partition

View File

@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{lem}
\begin{proof}[Beweis als Übungsaufgabe]
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n n} + J(0,n)$ und
Schreibe wieder einmal $J(λ,n) = λ·\Id_{nn} + J(0,n)$ und
\[
J(λ,n)^p =\bigl( λ·\Id_{n n} + J(0,n) \bigr)^p
J(λ,n)^p =\bigl( λ·\Id_{nn} + J(0,n) \bigr)^p
\]
Beachten Sie, dass die Matrizen $λ·\Id_{n n}$ und $J(0,n)$ kommutieren,
Beachten Sie, dass die Matrizen $λ·\Id_{nn}$ und $J(0,n)$ kommutieren,
dass also die Gleichheit
\[
λ·\Id_{n n}·J(0,n) = λ·J(0,n)·\Id_{n n}
λ·\Id_{nn}·J(0,n) = λ·J(0,n)·\Id_{nn}
\]
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{beobachtung}
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(n n)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
effizient eine invertierbare Matrix $S ∈ GL_n()$ finden, sodass $B :=
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\]
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\subsection{Wiederholung}
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
\[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}.
\]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
$(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
$(nn)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\]
Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert
in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
Dabei sei $A⁰$ stets die $(nn)$-Einheitsmatrix. Diese Reihe konvergiert in
dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung
\[
\exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n
\exp : \Mat_{nn}() → \Mat_{nn}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n,
\]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
\begin{bsp}
Es sei $A$ eine komplexe $(n n)$-Diagonalmatrix,
Es sei $A$ eine komplexe $(nn)$-Diagonalmatrix,
\[
A = \begin{pmatrix}
λ_1 & & & 0 \\
& λ_2 & \\
& & \ddots \\
0 & & & λ_n
\end{pmatrix}
\end{pmatrix}.
\]
Dann ist
\[
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\]
\end{bsp}
Etwas
weitergehende Beispiele finden Sie als
Etwas weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe
$(n n)$-Matrizen.
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n
n)$-Matrizen.
\begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt
@ -208,8 +207,8 @@ Matrixexponentials.
\exp(A+B)=\exp(A)·\exp(B).
\]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix
$S$ ist
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(nn)$-Matrix $S$
ist
\[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\]
@ -217,40 +216,40 @@ Matrixexponentials.
\end{fakt}
\begin{beobachtung}
Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
Wenn $A$ irgendeine komplexe $(nn)$-Matrix ist, dann kommutieren die Matrizen
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[
\Id_{n n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(n n)$-Matrix $A$ stets invertierbar ist, und dass
$\exp(A)^{-1} = \exp(-A)$ gilt.
$(nn)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
gilt.
\end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differentialgleichungssysteme}
\section{Lineare, homogene Differenzialgleichungssysteme}
\subsection{Erinnerung}
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, sodass für alle $t ∈ $ gilt: $y'(t)
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
Sie, dass es nur eine solche Funktion gibt:
$$
y(t) = \exp(t·a)·y_0.
$$
Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differentialgleichungssysteme}
\subsection{Lineare, homogene Differenzialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$
und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare
Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(nn)$-Matrix $A$ und ein
Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
…, $y_n : $, sodass für alle $t ∈ $ gilt:
\[
\begin{pmatrix}
y'_1(t) \\
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
y_2(t) \\
\vdots \\
y_n(t)
\end{pmatrix}
\end{pmatrix}.
\]
Außerdem soll
\[
@ -279,8 +278,8 @@ Außerdem soll
\]
sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als
\[
\begin{pmatrix}
@ -299,12 +298,12 @@ sein.
\end{bsp}
\subsection{Differentialgleichungen höherer Ordnung}
\subsection{Differenzialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
$y : $, so dass für alle $t ∈ $ gilt:
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : $,
sodass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation}
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
y_0 \\
y'_0 \\
y''_0
\end{pmatrix}
\end{pmatrix}.
\]
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp}

View File

@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
``Polynome''.
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
\begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp}
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
Selbstabbildungen des endlichen Körpers $𝔽_2$.
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
$t$, $$, $$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
@ -68,22 +67,33 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
\]
genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
Matrix $p(A)$ und eine
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
\Mat(nn, k)$ durch $s(A) = p(A)$.
\end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
Matrix $S ∈ GL_n(k)$ haben, dann ist
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
GL_n(k)$ haben, dann ist
\[
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\]
\end{beobachtung}
Der Satz von Cayley\footnote{Arthur Cayley (* 16.~August 1821 in Richmond upon
Thames, Surrey; † 26.~Januar 1895 in Cambridge) war ein englischer Mathematiker.
Er befasste sich mit sehr vielen Gebieten der Mathematik von der Analysis,
Algebra, Geometrie bis zur Astronomie und Mechanik, ist aber vor allem für seine
Rolle bei der Einführung des abstrakten Gruppenkonzepts
bekannt.}-Hamilton\footnote{Sir William Rowan Hamilton (* 4.~August 1805 in
Dublin; † 2.~September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker
und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine
Einführung und Untersuchung der Quaternionen bekannt ist.} sagt, dass jeder
Endomorphismus Nullstelle seines eigenen charakteristischen Polynoms ist. Wie
cool ist das?
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
Polynom des Endomorphismus $f$. Dann ist
@ -96,10 +106,11 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
\end{bemerkung}
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
\video{6-1}
\end{proof}
@ -108,22 +119,22 @@ Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7}
\begin{beobachtung}\label{beob:4-0-7}%
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder ein
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist.
\end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8}
\begin{beobachtung}\label{beob:4-0-8}%
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
$q := p_1-p_2$. Dann gilt Folgendes.
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
:= p_1-p_2$. Dann gilt Folgendes.
\begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
@ -151,7 +162,7 @@ Diese Beobachtungen legen folgende Definition nahe.
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
dies Minimalpolynome eindeutig bestimmt ist.
das Minimalpolynom eindeutig bestimmt ist.
\end{bemerkung}
\begin{bsp}
@ -162,9 +173,9 @@ Diese Beobachtungen legen folgende Definition nahe.
5 & 1 & 0 \\
0 & 5 & 0 \\
0 & 0 & 5
\end{pmatrix}
\end{pmatrix}.
\]
Da die Matrix $A$ kein Vielfaches von $\Id_{3 3}$, ist das
Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
\[
A² =
@ -172,9 +183,9 @@ Diese Beobachtungen legen folgende Definition nahe.
25 & 10 & 0 \\
0 & 25 & 0 \\
0 & 0 & 25
\end{pmatrix}
\end{pmatrix}.
\]
Also ist $-10·A+25·\Id_{3 3} = 0$. Also ist
Also ist $-10·A+25·\Id_{33} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
hat. Das muss dann wohl das Minimalpolynom sein.
\end{bsp}
@ -186,17 +197,17 @@ Diese Beobachtungen legen folgende Definition nahe.
\end{bsp}
\begin{beobachtung}
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe
Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe
Minimalpolynom.
\end{beobachtung}
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
\end{satz}
\begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
@ -207,9 +218,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate}
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
normiert ist und $f$ als Nullstelle hat. Also hat
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
und $f$ als Nullstelle hat. Also hat
\[
r(t) = q(t) - t^d·p(t)
\]
@ -220,8 +231,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und
$λ ∈ k$. TFAE:
Es sei $k$ ein Körper, $A$ eine $(nn)$-Matrix mit Werten in $k$ und $λ ∈ k$.
TFAE:
\begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
@ -239,7 +250,7 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
vollständig beantworten.
\begin{satz}[Beschreibung des Minimalpolynoms über $$]
Es sei $A$ eine $(n n)$-Matrix über den komplexen Zahlen. Bezeichne die
Es sei $A$ eine $(nn)$-Matrix über den komplexen Zahlen. Bezeichne die
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
\[
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.

View File

@ -7,12 +7,12 @@
\section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir
dann beliebige Vektorräume.
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann
beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -29,7 +29,7 @@ dann beliebige Vektorräume.
\end{matrix}
\]
heißt \emph{Euklidische Norm auf dem
$^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $^n$}.
$^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $^n$}.
\end{defn}
\begin{defn}[Euklidischer Abstand auf dem $^n$]
@ -42,24 +42,23 @@ dann beliebige Vektorräume.
\]
heißt \emph{Euklidischer Abstand auf dem $^n$}\index{Abstand|see{Metrik}}
oder \emph{Euklidische Metrik auf dem
$^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $^n$}.
$^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $^n$}.
\end{defn}
Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
oder \emph{metrikerhaltend bezüglich der Euklidischen
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
falls gilt:
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
\[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n.
@ -87,8 +86,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich
der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
@ -102,20 +101,20 @@ Abbildungen.
\end{enumerate}
\end{lem}
\begin{proof}
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
Wir beweisen die Teilaussage $φ$ ist injektiv“ von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
φ(\vec{v}_2)$. Dann ist
\[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage $φ$
ist surjektiv beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor}
@ -131,20 +130,20 @@ enorm.
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung
\[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
\]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
abstandserhaltende Abbildung $ψ: ^n ˝→ ^n$ mit $ψ(\vec{0}) = \vec{0}$.
bezüglich des Euklidischen Abstands}\index{Transformation des $^n$!orthogonal
bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
^n → ^n$ mit $ψ(\vec{0}) = \vec{0}$.
\end{defn}
@ -153,19 +152,19 @@ Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
Es sei $n ∈ $ eine Zahl. Die orthogonalen Transformationen bilden mit der
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
$\Bij(^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $^n$
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$
bezüglich der Euklidischen Norm}.
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$ bezüglich
der Euklidischen Norm}.
\end{defn}
\section{Das Standard-Skalarprodukt auf dem $^n$}
\section{Das Standardskalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
Hilfsmittel dabei ist das Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -192,35 +191,35 @@ Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
\end{defn}
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt folgendes:
Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes.
\begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
\]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
\]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt
$\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt
$\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$.
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x},
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
\vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
\item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
@ -233,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
scheint.
\begin{defn}[Orthogonale Vektoren]
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
$\vec{y}^n$ \emph{zueinander orthogonal}, falls
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
Vektoren}.
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y}
^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
0$ ist\index{orthogonal!Paar von Vektoren}.
\end{defn}
\begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
Kronecker-Delta bezeichnet.
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
\end{defn}
\begin{bsp}
@ -252,12 +249,12 @@ scheint.
Standardskalarprodukts.
\end{bsp}
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
$\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
sei $\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
\[
\vec{x} = \sum_{i=1}^n λ_\vec{v}_i .
\]
@ -280,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
Eine Menge, wie wir sofort sehen werden.
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y}^n$ die
Gleichung
@ -296,12 +293,12 @@ Eine Menge, wie wir sofort sehen werden.
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
\end{align*}
Damit ist das Lemma bewiesen.
\end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
@ -315,11 +312,11 @@ Eine Menge, wie wir sofort sehen werden.
\section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5}
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden
Abbildungen) vollständig beschreiben.
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
\end{satz}
@ -337,7 +334,7 @@ Abbildungen) vollständig beschreiben.
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
@ -345,7 +342,7 @@ Abbildungen) vollständig beschreiben.
Damit ist die Linearität gezeigt. \qed
\end{proof}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
Es sei $φ: ^n → ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
des $^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
\begin{enumerate}
@ -374,8 +371,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit orthogonale
Gruppe zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2

View File

@ -8,26 +8,26 @@
\section{Bilinearformen und Skalarprodukte}
\label{sec:skalar}
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
und zu diskutieren. Hier kommen alle relevanten Definitionen.
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
$b: V V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
\begin{defn}[Bilinearformen]\label{def:6-1-1}%
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: VV → k$
heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
∈ V $ und für alle $λ ∈ k$ gilt
\[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}).
\]
\item[Linearität in der zweiten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) .
@ -35,47 +35,45 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{description}
\end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $nn$-Matrix $B$.
Dann ist die Abbildung
\[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w}
\]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder
$^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser
aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind,
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$
ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren
identifizieren.
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bin nicht
mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder $^t•$ geschrieben habe.
Beim Tippen schaut $^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
$\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1
1$-Matrizen mit den Skalaren identifizieren.
\end{bsp}
\begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
$b : V V → k$ heißt
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
gilt.
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : VV → k$
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
\vec{x})$ gilt.
\end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
Ganz wie in Beobachtung~\ref{bem:6-1-2} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
Wenn eine $nn$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}.
@ -86,21 +84,22 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
$b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit}, falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x},
\vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
\vec{0}$.
\end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
$k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll.
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = $
und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei
anderen Körpern (etwa $k = $) ist gar nicht klar, was die Aussage
$b(\vec{x}, \vec{x})0$“ bedeuten soll.
\end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
@ -124,10 +123,10 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{pmatrix}, \quad
\begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2
\end{pmatrix}
\end{pmatrix}.
\]
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
``positiv semidefinit'', ``positiv definit'' und … ?
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
semidefinit“, „positiv definit“ und … ?
\end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
@ -138,17 +137,17 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
$\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt.
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W W}$ wieder
ein Skalarprodukt.
\end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration}
\begin{bsp}[Integration]\label{bsp:Integration}%
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
\]
ist ein Skalarprodukt.
\end{bsp}
@ -156,46 +155,46 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung Lineare
Algebra I jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
beschreiben. Das gibt es im Leben öfter.
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
Das gibt es im Leben öfter.
\begin{quote}
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote}
Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1}
\begin{situation}\label{sit:6-3-1}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$
gegeben. Dann betrachte die $nn$-Matrix
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : VV → k$ gegeben.
Dann betrachte die $nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\]
\end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte
die Bilinearform
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann
betrachte die Bilinearform
\[
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w})
\]
\end{konstruktion}
@ -209,10 +208,10 @@ Wir betrachten die folgende Situation.
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe}
\begin{beobachtung}
@ -221,8 +220,8 @@ Wir betrachten die folgende Situation.
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
Bilinearformen endlich-dimensional sind. Genauer:
\begin{align*}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n n$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n n$-Matrizen}) = \frac{n(n+1)}{2}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$nn$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$nn$-Matrizen}) = \frac{n(n+1)}{2}
\end{align*}
\end{beobachtung}
@ -231,7 +230,7 @@ Wir betrachten die folgende Situation.
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform
\[
b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
b : VV → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
\]
Dann ist
\[
@ -248,8 +247,8 @@ Wir betrachten die folgende Situation.
\subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
@ -267,9 +266,9 @@ $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
$M_{} := \Mat_{B_{}}(b)$. Dann ist
$V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_
:= \Mat_{B_{}}(b)$. Dann ist
\[
M_1 = S^t·M_2·S.
\]
@ -282,27 +281,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
Definition von „positiv definit“. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: V V → $, so dass Folgendes gilt.
ist eine Abbildung $b: VV → $, sodass Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt
@ -324,18 +323,18 @@ Definitionen gibt der Sache aber recht.
$x+i·y ↦ x - i·y$.
\end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
Menge der Sesquilinearformen einen reellen Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige $nn$-Matrix $B$.
Dann ist die Abbildung
\[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}}
@ -360,24 +359,24 @@ Definitionen gibt der Sache aber recht.
\end{bsp}
\begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
$b : V V → $ heißt
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : VV →
$ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
\overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
Es sei $b : V V → $ eine Hermitesche Sesquilinearform. Dann gilt
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
@ -386,12 +385,12 @@ Definitionen gibt der Sache aber recht.
Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
\emph{kein} komplexer Vektorraum.
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
komplexer Vektorraum.
\end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
@ -400,23 +399,23 @@ Definitionen gibt der Sache aber recht.
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
tun?
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit}, falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
\vec{0}$.
\end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform.
@ -454,8 +453,8 @@ Definitionen gibt der Sache aber recht.
Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt.
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt
\]
ist ein Skalarprodukt.
\end{bsp}
@ -488,11 +487,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis $B
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize}
\item Gegeben eine Sesquilinearform $b : V V → k$, dann betrachte die
\item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die
$nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
@ -501,7 +500,7 @@ gehen, geben wir nur die Ergebnisse an.
\item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die
Sesquilinearlinearform
\[
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
\]
\end{itemize}
@ -514,12 +513,12 @@ $$-Vektorräumen erhalten,
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Sesquilinearform $b : V V → k$ und zwei angeordnete Basen,
$V$, eine Sesquilinearform $b : VV → k$ und zwei angeordnete Basen,
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann
ist
\[

View File

@ -5,42 +5,41 @@
\label{sec:7}
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
Standardskalarprodukt auf dem $^n$ kennen gelernt. Im
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren,
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die
wir zuerst am Beispiel des $^n$ kennen gelernt haben, jetzt in größerer
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein
Erklärvideo.
Standardskalarprodukt auf dem $^n$ kennengelernt. Im Kapitel~\ref{sec:bskalar}
haben wir diesen Begriff auf beliebige (endlich-dimensionale) reelle und
komplexe Vektorräume verallgemeinert. In diesem Kapitel möchte ich Vektorräume
mit Skalarprodukt systematisch diskutieren, und Begriffe wie „Norm“, „Abstand“,
„Metrik“ und „Orthogonalität“, die wir zuerst am Beispiel des $^n$
kennengelernt haben, jetzt in größerer Allgemeinheit systematisch einführen.
Zuerst einmal kommen jede Menge Definitionen und eine langweilige Rechnung,
deshalb auch im Moment kein Erklärvideo.
\begin{defn}[Euklidische und unitäre Vektorräume]
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
symmetrischer Bilinearform) heißt \emph{Euklidischer
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum zusammen
mit einem Skalarprodukt (=positiv definiter Hermitescher Sequilinearform)
heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
\end{defn}
\section{Normen auf Vektorräumen}
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für beliebige
reelle oder komplexe Vektorräume, und für beliebige Mengen.
\begin{erinnerung}[Betrag einer komplexen Zahl]
Gegeben eine komplexe Zahl $λ = a+b·i ∈ $, dann nennen wir die reelle Zahl
$\sqrt{+} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$.
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen Zahl}
oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen Zahl}.
Man schreibt auch $\|λ\|$ oder $|λ|$.
\end{erinnerung}
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}%
Es sei $k = $ oder $k = $ oder $k = $ und es sei $V$ ein $k$-Vektorraum.
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, so dass
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, sodass
folgende Eigenschaften gelten.
\begin{description}
\item[Absolute Homogenität] Für alle $\vec{x} ∈ V$ und alle $λ ∈ k$ gilt:
@ -55,15 +54,15 @@ beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
\end{defn}
\begin{notation}[Normierte Vektorräume]
\index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $.
Ein normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein
$k$-Vektorraum $V$ zusammen mit einer Norm $\|\|$.
\index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $. Ein
normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein $k$-Vektorraum $V$
zusammen mit einer Norm $\|\|$.
\end{notation}
\begin{notation}[Normierte Vektorräume]
\index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es
sei $\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
\index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es sei
$\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\vec{v}
V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
\end{notation}
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
@ -79,27 +78,17 @@ unmittelbar aus der Definition folgen.
Also ist $\| \vec{x} \|0$ für alle $\vec{x} ∈ V$.
\end{bemerkung}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
Als Erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennengelernt haben,
sofort Beispiele für Normen.
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}
Wenn $\bigl( V, \langle\rangle\bigr)$ irgendein Euklidischer oder
unitärer Vektorraum ist, dann definiert die Abbildung
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}%
Wenn $\bigl( V, \langle•,•\rangle\bigr)$ irgendein Euklidischer oder unitärer
Vektorraum ist, dann definiert die Abbildung
\[
\|\| : V → , \quad \vec{x}\sqrt{\langle \vec{x}, \vec{x} \rangle}
\]
@ -107,29 +96,33 @@ sofort Beispiele für Normen.
\end{satz}
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung,
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige
„Cauchy\footnote{\href{https://de.wikipedia.org/wiki/Augustin-Louis_Cauchy}{Baron
Augustin-Louis Cauchy} (* 21.~August 1789 in Paris; † 23.~Mai 1857 in Sceaux)
war ein französischer
Mathematiker.}-Schwarzsche\footnote{\href{https://de.wikipedia.org/wiki/Hermann_Amandus_Schwarz}{Karl
Hermann Amandus Schwarz} (* 25.~Januar 1843 in Hermsdorf, Provinz Schlesien; †
30.~November 1921 in Berlin) war ein deutscher Mathematiker. } Ungleichung“, die
sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y}
∈ V$
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} ∈ V$
\[
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
\]
\end{satz}
\begin{proof}[Beweis durch unangenehme Rechnerei]
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y}0$. Dann ist
wegen positiver Definitheit der Hermiteschen Form
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für $\vec{y}
= \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist wegen
positiver Definitheit der Hermiteschen Form
\begin{align*}
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
\end{align*}
Jetzt betrachte den Spezialfall wo
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y},
\vec{y} \rangle}$ ist. Dann ergibt sich
Jetzt betrachte den Spezialfall wo $λ= \frac{\overline{\langle \vec{y},
\vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}$ ist. Dann ergibt sich
\begin{align*}
&& 0 &\langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
&& 0 &\langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle\\
@ -140,10 +133,10 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
\end{proof}
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
Um zu zeigen, dass die Abbildung $\|\| : V → $ aus
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive
Definitheit'' zeigen. Auf geht's.
Um zu zeigen, dass die Abbildung $\|\| : V → $ aus Satz~\ref{satz:sin}
tatsächlich eine Norm ist, müssen wir die drei Eigenschaften „absolute
Homogenität“, „Dreiecksungleichung“ und „positive Definitheit“ zeigen. Auf
geht's.
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
Vektor und es sei $λ$ irgendein Skalar. Dann ist
@ -156,7 +149,7 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
Damit ist die absolute Homogenität gezeigt.
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung
beliebige Vektoren. Dann folgt mithilfe der Cauchy-Schwarzschen Ungleichung
folgendes.
\begin{align*}
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
@ -173,6 +166,16 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
Satz~\ref{satz:sin} bewiesen.
\end{proof}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Satz~\ref{satz:sin} gilt der Satz des Pythagoras: gegeben Vektoren $\vec{x}$
und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Normen kommen}
@ -181,9 +184,9 @@ die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
ein wenig Analysis voraussetzen).
\begin{bsp}[Operatornorm]\label{bsp:opNorm}
Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
\begin{bsp}[Operatornorm]\label{bsp:opNorm}%
Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$ zwei
endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
Abbildung
\[
\|\|_{\operatorname{op}} : \Hom_{}(V,W) → , \quad %
@ -219,7 +222,7 @@ Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
Beispiele.
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}%
Die Manhattan-Norm auf dem Vektorraum $^n$ ist gegeben als
\[
\|\|_1 : ^n → , \quad
@ -240,29 +243,29 @@ Beispiele.
\end{bsp}
\begin{bsp}[Einschränkungen von Normen]
Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$
sei ein Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma
auf $W$.
Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ sei ein
Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma auf $W$.
\end{bsp}
\section{Metriken}
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir
mithilfe einer Norm einen Begriff von „Abstand“ oder „Metrik“ definieren. Der
Begriff „Metrik“ ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
\begin{defn}[Metrik]
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung
$d: M M → $, so dass Folgendes gilt.
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung $d:
M M → $, sodass Folgendes gilt.
\begin{description}
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) +
d(y,z)$
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$. Zusätzlich
gilt: $d(x,y) = 0 ⇔ x = y$.
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$.
Zusätzlich gilt: $d(x,y) = 0 ⇔ x = y$.
\end{description}
\end{defn}

View File

@ -3,36 +3,34 @@
\chapter{Orthogonale Projektion}
In diesem Kapitel sei $\bigl( V, \langle\rangle\bigr)$ stets ein
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht,
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$
bezeichnen.
In diesem Kapitel sei $\bigl( V, \langle•,•\rangle\bigr)$ stets ein euklidischer
oder unitärer Vektorraum. Wenn keine Verwechslungsgefahr besteht, werden wir
die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$ bezeichnen.
\section{Orthogonalität und Orthonormalität}
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des
Skalarproduktes.
Der zentrale Begriff in diesem Kapitel ist „orthogonal“, also „steht senkrecht
aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
\begin{defn}[Orthogonal]\label{def:orth}
Es sei $\bigl( V, \langle\rangle\bigr)$ ein Euklidischer oder unitärer
\begin{defn}[Orthogonal]\label{def:orth}%
Es sei $\bigl( V, \langle,•\rangle\bigr)$ ein Euklidischer oder unitärer
Vektorraum.
\begin{enumerate}
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
\emph{$\vec{x}$ und $\vec{y}$ sind orthogonal
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
Als Kurzschreibweise: $\vec{x} \perp \vec{y}$.
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt.
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung $\langle \vec{u},
\vec{w} \rangle = 0$ gilt.
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales
Komplement} als
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann definieren
wir das \emph{orthogonale Komplement von $U$}\index{orthogonales Komplement}
als
\[
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
\vec{u} ∈ U \}.
@ -45,10 +43,10 @@ Skalarproduktes.
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
\]
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie
zusätzlich eine Basis ist.
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung $\|
\vec{v}_i \| = 1$ gilt. Falls eine orthonormale Familie zusätzlich eine
Basis ist, dann nenne die Familie
\emph{Orthonormalbasis}\index{Orthonormalbasis} und schreibe kurz: „ONB“.
\end{enumerate}
\end{defn}
@ -60,15 +58,15 @@ Skalarproduktes.
\begin{beobachtung}
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$.
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn $\vec{v} \perp
\vec{u}_i$ ist für alle Indizes $i ∈ I$.
\end{beobachtung}
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser
Situation war der ``orthogonale Unterraum'' der Raum
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}%
Wir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen
Begriff von „orthogonalen Unterraum“. Die Situation war die, dass es einen
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser Situation
war der „orthogonale Unterraum“ der Raum
\[
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
\]
@ -78,11 +76,10 @@ Skalarproduktes.
\begin{bsp}[Der Standardraum $^n$]
Betrachten den Vektorraum $^n$ mit dem Standardskalarprodukt. Dann ist die
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
Standardbasis eine Orthonormalbasis. Die Untervektorräume $\langle \vec{e}_1,
\vec{e}_2 \rangle$ und $\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal.
Das orthogonale Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2
\rangle$ ist $\langle \vec{e}_3, …, \vec{e}_n \rangle$.
\end{bsp}
@ -92,7 +89,7 @@ Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
Es sei $\bigl( V, \langle\rangle\bigr)$ ein euklidischer oder unitärer
Es sei $\bigl( V, \langle,•\rangle\bigr)$ ein euklidischer oder unitärer
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
$\vec{v}_1 \ne \vec{0}$. Setze
\[
@ -100,19 +97,18 @@ kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
\]
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch
$\{\vec{v}_1, \vec{v}\,'_2\}$.
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1,
\vec{v}\,'_2\}$.
\end{bsp}
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
Wir bauen das „Rezept, um Vektoren orthogonal machen“ ein wenig aus und erhalten
einen „Basisergänzungssatz für Orthonormalbasen“.
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}%
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und
sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$
ergänzen.
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ ergänzen.
\end{satz}
\begin{proof}
\video{11-1}
@ -126,38 +122,35 @@ erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
\begin{beobachtung}[Gram-Schmidt Verfahren]
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
ein effektives, induktives Verfahren um aus einer gegebenen Basis
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so:
ein effektives, induktives Verfahren um aus einer gegebenen Basis $\{
\vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB $\{ \vec{u}_1, …, \vec{u}_n \}$
zu konstruieren. Man startet so:
\begin{itemize}
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
\item Definiere.
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle·
\vec{u}_1$.
\item Definiere. $\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1
\rangle· \vec{u}_1$.
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
\end{itemize}
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
folgt vor:
\begin{itemize}
\item Definiere.
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1},
\vec{u}_j \rangle·\vec{u}_j$.
\item Definiere. $\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle
\vec{v}_{k+1}, \vec{u}_j \rangle·\vec{u}_j$.
\item Normiere.
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
\end{itemize}
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …,
\vec{v}_i \rangle$.
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für alle
Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen $\langle \vec{u}_1,
…, \vec{u}_i \rangle = \langle \vec{v}_1, …, \vec{v}_i \rangle$.
\end{beobachtung}
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}%
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor
$\vec{v} ∈ V$ eindeutig schreiben als
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor $\vec{v}
∈ V$ eindeutig schreiben als
\[
\vec{v} = p(\vec{v}) + r(\vec{v}),
\]
@ -169,24 +162,24 @@ erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale
Projektion'' bezeichnen.
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als orthogonale
Projektion bezeichnen.
\begin{beobachtung}[Orthogonale Projektion]
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
\[
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i.
\]
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den
Unterraum $U$}\index{orthogonale Projektion}.
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist $\ker p =
U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den Unterraum
$U$}\index{orthogonale Projektion}.
\end{beobachtung}
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für
$\vec{w} ∈ U$, $\vec{w}0$ gilt mit Pythagoras die folgende Ungleichung
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für $\vec{w}
∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
\begin{align*}
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
&\| p(\vec{v})-\vec{v} \|².
@ -199,13 +192,13 @@ Projektion'' bezeichnen.
\subsection{Der Dualraum}
\label{sec:dual}
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere:
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung Lineare
Algebra I“ ist der des „Dualraum“. Alle Studenten lieben das. Ich erinnere:
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
finden, wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
Abbildungen, die die Gleichungen
@ -228,9 +221,9 @@ war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
$V^*$.
\begin{satz}\label{satz:8-3-1}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung
\begin{satz}\label{satz:8-3-1}%
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
euklidischer Vektorraum. Dann ist die Abbildung
\[
s: V → V^*, \quad \vec{v}\langle • ,\vec{v} \rangle
\]
@ -244,20 +237,20 @@ $V^*$.
\end{proof}
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären.
Der folgende Satz löst dieses Versprechen ein.
zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“
und dem „orthogonalen Komplement“ aus Definition~\ref{def:orth} zu klären. Der
folgende Satz löst dieses Versprechen ein.
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
\begin{satz}[Orthogonales Komplement und orthogonale
Unterräume]\label{satz:8-3-3} Es sei $\bigl(V, \langle •, • \rangle \bigr)$
ein endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
Satz~\ref{satz:8-3-1}. Dann gilt folgendes.
Satz~\ref{satz:8-3-1}. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$).
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen den
Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist $\dim U^\perp = \dim
U⁰$ (…nämlich gleich $\dim V - \dim U$).
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
Summe $V = U ⊕ U^\perp$.
@ -267,19 +260,19 @@ Der folgende Satz löst dieses Versprechen ein.
\video{12-3}
\end{proof}
\begin{kor}\label{kro:8-3-3}
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit
$\bigl( U^\perp \bigr)^\perp = U$.
\begin{kor}\label{kro:8-3-3}%
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit $\bigl( U^\perp
\bigr)^\perp = U$.
\end{kor}
\begin{proof}
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
Gleichheit folgt mithilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage
``$\vec{u}\bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent
dazu, ist zu zeigen, dass gilt:
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage$\vec{u}\bigl(
U^\perp \bigr)^\perp$“ ist dann per Definition äquivalent dazu, ist zu zeigen,
dass gilt:
\[
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp.
\]
Das ist aber klar nach Definition von $U^\perp$.
\end{proof}
@ -293,15 +286,14 @@ Der folgende Satz löst dieses Versprechen ein.
\subsubsection{Unitäre Vektorräume}
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
den Fall von unitären Vektorräumen. Falls
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle
Skalare $λ ∈ $ die Gleichungen
den Fall von unitären Vektorräumen. Falls $\bigl(V, \langle •, • \rangle
\bigr)$ ein endlich-dimensionaler unitärer Vektorraum ist, dann ist die
Abbildung $s$ bijektiv und \emph{semi-linear}\index{semi-lineare Abbildung}.
Dabei bedeutet „semi-linear“, dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$
und alle Skalare $λ ∈ $ die Gleichungen
\[
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}).
f(λ·\vec{x}) = \overline{λ}·f(\vec{x})
\]
gelten.
@ -326,17 +318,16 @@ gelten.
\subsection{Quotientenräume}
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit
einem bekannten Vektorraum.
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ identifiziert,
der uns aus der Vorlesung „Lineare Algebra I“ vertraut war. Es gibt noch eine
andere kanonische Identifikation des orthogonalen Komplements mit einem
bekannten Vektorraum.
\begin{satz}\label{satz:8-3-6}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement
$U^\perp$.
\begin{satz}\label{satz:8-3-6}%
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
euklidischer Vektorraum und es sei $U ⊂ V$ ein Untervektorraum. Dann gibt es
einen kanonischen Isomorphismus zwischen dem Vektorraumquotienten
$\factor{V}{U}$ und dem orthogonalen Komplement $U^\perp$.
\end{satz}
\begin{proof}
\video{12-4}
@ -355,34 +346,33 @@ einem bekannten Vektorraum.
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die
wir „selbstadjungierte Abbildungen“ diskutieren. Zuallererst legen wir die
Situation fest, die wir in diesem Abschnitt genau betrachten.
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren
Dualräumen bezeichnen wir mit
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}%
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und $\bigl(W, \langle •, •
\rangle_W \bigr)$ zwei endlich-dimensional euklidische Vektorräume. Die
kanonischen Identifikationen der Räume mit ihren Dualräumen bezeichnen wir mit
\[
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
\]
\end{situation}
\begin{erinnerung}
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung Lineare
Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich
\[
f^* : W^* → V^*, \quad φ ↦ φ◦f.
\]
\end{erinnerung}
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}%
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Betrachte das folgende Diagramm:
\begin{equation}\label{eq:8-5-3-1}
\begin{tikzcd}[column sep=3cm]
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"]
V^* & W^*. \arrow[l, "f^*\text{, Rückzugsabbildung}"]
\end{tikzcd}
\end{equation}
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
@ -390,26 +380,26 @@ Situation fest, die wir in diesem Abschnitt genau betrachten.
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen,
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und $f^*◦ s_W ◦
f$ besteht. Wir interessieren uns aber für Bedingungen, die Gleichheit der
Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen $s_V$
und $f^*◦ s_W ◦ f$ gleich sind, falls für alle $\vec{v} ∈ V$ die folgende
Gleichheit von Elementen im Dualraum $V^*$ gilt,
\begin{equation}\label{eq:8-5-3-2}
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v})
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}).
\end{equation}
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$,
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
Das lässt sich explizit hinschreiben, indem ich die Definitionen von $s_V$,
$s_W$ und $f^*$ einsetze. Dann erhalte ich: Die Abbildungen $s_V$ und $f^*
s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die folgende Gleichheit von
Elementen im Dualraum $V^*$ gilt,
\begin{align*}
\langle •, \vec{v} \rangle_V %
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
\end{align*}
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ sind gleich, falls für alle
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt,
Das lässt sich noch einfacher formulieren: Die Abbildungen $s_V$ und $f^*◦ s_W
◦ f$ sind gleich, falls für alle $\vec{v}_1, \vec{v}_2 ∈ V$ die folgende
Gleichheit von Skalaren gilt,
\begin{align*}
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
@ -431,9 +421,9 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
wird mit dem Symbol $f^{\ad}$ bezeichnet.
\end{defn}
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}%
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Dann gilt folgendes.
Dann gilt Folgendes.
\begin{enumerate}
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
@ -449,7 +439,7 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
\sideremark{Vorlesung 13}\video{13-1}
\end{proof}
\begin{prop}\label{prop:8-4-6}
\begin{prop}\label{prop:8-4-6}%
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
@ -473,7 +463,7 @@ Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
unitäre Vektorräume.
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie
Finden Sie heraus, welche Aussagen genau gelten und schreiben Sie
schulbuchmäßige Beweise dieser Aussagen auf.
\end{aufgabe}

View File

@ -5,44 +5,44 @@
\section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
die folgende Situation.
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus.
\end{situation}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
beziehungsweise
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\[
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
\rangle.
\]
\end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von
Definition~\vref{defn-orthoTraf} (orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands) ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent!
\end{beobachtung}
\begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands''
orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp}
@ -52,13 +52,13 @@ die folgende Situation.
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
\]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes.
\begin{enumerate}
@ -80,18 +80,18 @@ die folgende Situation.
\video{13-3}
\end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7}
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
Frage.
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
infrage.
\end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
@ -107,14 +107,14 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
\index{unitäre Gruppe!eines unitären Vektorraumes}.
\end{defn}
@ -125,21 +125,24 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
In Situation~\ref{sit:9-1-1} sei
\[
B := \{ \vec{v}_1, …, \vec{v}_n \}
\]
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
\begin{enumerate}
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
$Q^t·Q = \Id_{n n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n
n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\end{enumerate}
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
wie immer für die komplex-konjugierte Matrix.
\end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern.
@ -148,12 +151,12 @@ erweitern.
\begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
$A^{-1} = A^t$ gilt.
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
$A^{-1} = \overline{A^t}$ gilt.
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
\overline{A^t}$ gilt.
\end{enumerate}
\end{defn}
@ -165,17 +168,16 @@ erweitern.
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
\end{align*}
Der
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
Gruppen handelt.
\end{notation}
\begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent.
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise $A ∈ \Mat(n
n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
@ -196,9 +198,9 @@ erweitern.
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber genau
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$.
\end{proof}
@ -243,12 +245,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
die orthogonalen $22$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, so dass folgende
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, sodass folgende
Gleichung gilt.
\[
A =
@ -274,15 +276,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
folgende Blockgestalt hat
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
Blockgestalt hat
\[
\begin{pmatrix}
\Id_{a a} & \\
@ -292,9 +294,8 @@ sind.
& & & & A_k \\
\end{pmatrix}
\]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
$\Id_{}$ jeweils jeweils Einheitsmatrizen der
entsprechenden Größe sind.
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{}$ jeweils
Einheitsmatrizen der entsprechenden Größe sind.
\end{satz}
@ -306,11 +307,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge
$V^{} := V V$ und definieren eine Addition durch komponentenweise
Addition
einen komplexen Vektorraum $V^$ wie folgt: Wir betrachten die Menge $V^ :=
V V$ und definieren eine Addition durch komponentenweise Addition
\[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\]
@ -318,64 +318,62 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
\]
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als
Rechnen Sie nach, dass dies tatsächlich ein $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen.
Vektorraumes} bezeichnen.
\end{konstruktion}
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
\[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
\]
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung}
\[
ι : V → V^{}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
ι : V → V^, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\]
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$.
\end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist,
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt:
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
nach, dass die komplexifizierte Basis $B^ := \{ \vec{v}^{\:}_1, …,
\vec{v}^{\:}_n \} ⊂ V^$ dann eine Basis von $V^$. Noch besser: wenn $f : V
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
Abbildung $f^ : V^ → V^$, sodass für alle Indizes $i$ gilt:
$f^(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass $f^$
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}.
Abbildung}.
\end{konstruktion}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ = f^(\vec{v}^{\:})$ gilt.
\end{beobachtung}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten
\[
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t)
\Mat^B_B(f) = \Mat^{B^}_{B^{\:}}(f^) \quad\text{und}\quad
χ_f(t) = χ_{f^}(t)
\]
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
$\vec{v} ∈ V^{}$ die Gleichung
gelten. Insbesondere ist $\Mat^{B^}_{B^{\:}}(f^)$ eine reelle Matrix und
$χ_{f^}$ ist ein reelles Polynom. Außerdem ist $f^$ mit der Konjugation
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^$ die
Gleichung
\begin{equation}\label{eq:9-4-7-1}
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}.
f^\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^\bigl( \vec{v} \bigr)}.
\end{equation}
\end{beobachtung}
@ -384,40 +382,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
von $U$ liefert.
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
$f(U) ⊆ U$ ist.
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
\end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
Fall, dass $f$ keinen reellen Eigenwert hat.
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr einfach.
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
Nullstelle ist,
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des charakteristischen
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende Rechnung zeigt, dass das
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
\[
χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\]
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$.
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
ist dann $$-linear unabhängig, ebenso die Menge
Ich betrachte jetzt für den Endomorphismus $f^$ einen Eigenvektor $\vec{v} =
(\vec{v}_1, \vec{v}_2) ∈ V^$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
-\vec{v}_2) ∈ V^$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $$-linear unabhängig,
ebenso die Menge
\[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
@ -425,8 +420,8 @@ von $U$ liefert.
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*}
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
f(\vec{v}_1) & = f^(\vec{v_1}) = f^ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^(\vec{v}) + f^(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von

View File

@ -5,36 +5,36 @@
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
\begin{quote}
Self-adjoint operators are used in functional analysis and quantum
mechanics. In quantum mechanics their importance lies in the Diracvon Neumann
formulation of quantum mechanics, in which physical observables such as
position, momentum, angular momentum and spin are represented by self-adjoint
operators on a Hilbert space. Of particular significance is the Hamiltonian
operator $\what{H}$ defined by
\foreignlanguage{english}{Self-adjoint operators are used in functional
analysis and quantum mechanics. In quantum mechanics their importance lies in
the Diracvon Neumann formulation of quantum mechanics, in which physical
observables such as position, momentum, angular momentum and spin are
represented by self-adjoint operators on a Hilbert space. Of particular
significance is the Hamiltonian operator $\what{H}$ defined by
\[
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
\]
which as an observable corresponds to the total energy of a particle of mass
$m$ in a real potential field $V$.
$m$ in a real potential field $V$.}
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
(Self-adjoint operator)}
\end{quote}
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
Bedingung $f = f^{\ad}$ in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Nenne den Endomorphismus $f$
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\]
\end{defn}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
\overline{\vec{w}}.
\]
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
Hermitesche Matrix ist.
\end{bsp}
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{aufgabe}
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$.
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$. Rechnen Sie
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
\[
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
\]
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
ist.
\end{aufgabe}
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise.
@ -107,7 +107,7 @@ besonders einfacher Weise.
Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
die Berechnung von $S^{-1}$ extrem einfach.
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
macht die Berechnung von $S^{-1}$ extrem einfach.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
Diagonalmatrix ist.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische oder
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
ist.
\end{kor}
\begin{proof}
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was

View File

@ -4,21 +4,21 @@
\chapter{Hauptachsentransformation}
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
immer in besonders einfache Gestalt bringen!
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
besonders einfache Gestalt bringen!
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
dass Folgendes gilt.
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
Folgendes gilt.
\begin{enumerate}
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
\[
@ -27,7 +27,7 @@ immer in besonders einfache Gestalt bringen!
λ_1 && 0\\
&\ddots\\
0 && λ_n
\end{pmatrix}
\end{pmatrix}.
\]
\item Die Koordinatenwechselmatrix
@ -42,20 +42,20 @@ immer in besonders einfache Gestalt bringen!
\end{proof}
\begin{notation}[Hauptachsen und Hauptachsentransformation]
In der Situation von Satz~\ref{satz:11-0-1} schreibe
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
Vektoren $\vec{v}_{}$ aufgespannten 1-dimensionalen Untervektorräume
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_$
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
\end{notation}
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
ist.
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
\begin{enumerate}
\item Die Form $s$ ist positiv definit.
@ -63,40 +63,44 @@ ist.
\end{enumerate}
\end{kor}
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
sind.
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$
bzw. $^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
größer als Null sind.
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$ bzw.
$^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
als Null sind.
\end{proof}
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft alle
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
einmal auf diesen Punkt zurück.
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
Matrizen $A_{} = \Mat_{\mathcal{A}_{}}(s)$. Dann gilt folgendes.
\begin{satz}[Trägheitssatz von
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und es sei $s: V
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
\Mat_{\mathcal{A}_}(s)$. Dann gilt Folgendes.
\begin{enumerate}
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
@ -113,16 +117,16 @@ komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
\begin{defn}[Index und Signatur]\label{def:11-0-5}
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
einer Form} bezeichnet. Die Differenz
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
bezeichnet. Die Differenz
\[
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
\]
wird die \emph{Signatur von $s$}\index{Signatur einer
Form} genannt. Der Untervektorraum
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
Untervektorraum
\[
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
\vec{w} ∈ V \} ⊆ V
@ -164,14 +168,14 @@ Matrix positive definit ist.
\end{pmatrix}
\Mat(m m, k).
\]
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
gilt, dass $\det A_m > 0$ ist.
\end{satz}
\begin{proof}
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
von Kollegen Klaus Hulek aus Hannover}.
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
@ -182,11 +186,11 @@ Hurwitz-Kriteriums. Zum Beispiel
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
das richtig machen?
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
machen?
\end{bemerkung}
% !TEX root = LineareAlgebra2

View File

@ -4,20 +4,20 @@
\chapter{Anwendungen}
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen
weil Sie unbedingt eine symmetrische Matrix mithilfe eines orthogonalen
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen?
Linearkombinationen mithilfe von Skalarprodukten auszurechnen?
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem
Kapitel einige Anwendungen oberflächlich an
Die Begriffe und Methoden des laufenden Kapitels über Euklidische und
Hermitesche Vektorräume haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen
können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es
eine unendliche Menge von hervorragenden Tutorials, Erklärvideos,
Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass
Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich
reiße in diesem Kapitel einige Anwendungen oberflächlich an
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
@ -26,11 +26,11 @@ machen, können aber nicht sinnvoll geprüft werden.
\section{Reelle Quadriken}
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
Die erste „Anwendung“ ist immer noch ziemlich theoretisch und stammt mindestens
aus der hellenistischen Antike, also etwa der Zeit Alexander des Großen.
Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
große Rolle spielte}. Es geht um folgende Situation.
große Rolle spielte}. Es geht um folgende Situation.
\begin{situation}[Quadrik im $^n$]\label{sit:12-1-1}
Gegeben sei der $^n$ mit Koordinatenfunktionen $x_1, …, x_n$ und ein
@ -50,15 +50,15 @@ Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
linearen Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
Translationen? Wir formulieren die Frage präziser und führen die folgende
Notation ein.
\begin{defn}[Affine Abbildung]\label{def:12-1-3}
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
\begin{defn}[Affine Abbildung]\label{def:12-1-3}%
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung $Φ : V
→ W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, sodass für alle
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
\end{defn}
@ -73,24 +73,24 @@ Damit können wir unsere Frage präzise formulieren.
\begin{frage}
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$ unter der
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
Abbildung $Φ : ^n → ^n$, sodass das Bild von $Q$ unter der Abbildung $Φ$
eine Quadrik von besonders einfacher Gestalt ist? Gibt es eine (kleine)
Mengen von „Grund-Quadriken“ aus denen alle anderen durch affine
Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
Verschiebung, …) entstehen?
\end{frage}
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter
Die Antwort ist natürlich „ja“, aber Sie haben ja zum Glück noch nicht weiter
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
und abstandserhaltende Abbildungen statt affiner Abbildungen.
\subsection{Vereinfachung von Quadratischen Gleichungen}
\subsection{Vereinfachung von quadratischen Gleichungen}
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
Wir bleiben in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
bijektiven, affinen Abbildungen finden, sodass die Gleichung (der Bilder von)
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
Student wies mich auf
\href{https://www.youtube.com/watch?v=wYJAggfstyI}{folgendes Video} hin.
@ -125,15 +125,15 @@ Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
\subsubsection{Schritt 2: Eliminierung der gemischten Terme}
Wir wissen: es existiert eine orthogonale $nn$-Matrix $W$, so dass die
Wir wissen: es existiert eine orthogonale $nn$-Matrix $W$, sodass die
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt
für alle $\vec{x}^n$:
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt für
alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
& ⇔ f(W·\vec{x}) = 0 \\
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
&\vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0
&\vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0.
\end{align*}
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
@ -169,8 +169,9 @@ gilt für alle $\vec{x} ∈ ^n$:
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
&\sum_{i=1}^r
a^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
\right)² + 2 · \sum_{i=1}^r b^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
&\sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0
\right)² + 2 · \sum_{i=1}^r b^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right)\\
& \qquad + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
&\sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0.
\end{align*}
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
\[
@ -193,7 +194,7 @@ Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
Schritt nichts und setzen
\[
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}.
\]
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
@ -213,15 +214,15 @@ gilt für alle $\vec{x} ∈ ^n$:
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
&\sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
&\sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0
&\sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0.
\end{align*}
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
In jedem Fall gilt: Die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
gegeben durch ein Polynom
\[
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)}
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)},
\]
wobei $b^{(3)}_{r+1}\{0,-2\}$ und $c^{(3)}\{0, -1\}$ ist. Weiterhin
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
wobei $b^{(3)}_{r+1}\{0,-2\}$ und $c^{(3)}\{0, -1\}$ ist. Weiterhin gilt:
$b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
\subsubsection{Schritt 5: Skalierung}
@ -259,10 +260,10 @@ $b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
folgenden Satz bewiesen.
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}%
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$
Nullstellenmenge einer der folgenden Gleichungen ist
affine Abbildung $Φ : ^n → ^n$, sodass das Bild von $Q$ Nullstellenmenge
einer der folgenden Gleichungen ist
\begin{enumerate}
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_$
@ -286,12 +287,11 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{kor}[Klassifikation der Koniken des Appollonius von
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria)
war ein antiker griechischer Mathematiker, bekannt für sein Buch über
Kegelschnitte.}]
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine
bijektive, affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$
Nullstellenmenge einer der folgenden Gleichungen ist
von Perge} (* ca.~265 v.~Chr.~in Perge; † ca.~190 v.~Chr.~in Alexandria) war
ein antiker griechischer Mathematiker, bekannt für sein Buch über
Kegelschnitte.}] Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann
gibt es eine bijektive, affine Abbildung $Φ : ^n → ^n$, sodass das Bild von
$Q$ Nullstellenmenge einer der folgenden Gleichungen ist
\begin{enumerate}
\item $= 0:$ Doppelgerade \label{Q.1}
@ -444,10 +444,9 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{itemize}
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier
eigentlich Koniken auf?
im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim
Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf?
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
@ -460,7 +459,7 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
grafisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
zu den Vereinfachungen kommt.
@ -468,21 +467,21 @@ zu den Vereinfachungen kommt.
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück.
Baptiste Joseph Fourier} (* 21.~März 1768 bei Auxerre; † 16.~Mai 1830 in Paris)
war ein französischer Mathematiker und Physiker.} und nenne einige Anwendungen.
Die Fourier-Transformation ist für die Praxis vielleicht das wichtigste Stück
Mathematik überhaupt\footnote{Sie selbst verwenden solche Transformationen
ununterbrochen -- haben Sie schon einmal ein Mobiltelefon benutzt? Oder sind
Sie vielleicht in einem Auto gefahren? Oder haben Sie einen Klang gehört?}.
Manche Kollegen sprechen sogar von der „fünften Grundrechenart“. Ich komme im
Abschnitt~\ref{ssec:Rechen} darauf zurück.
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
Fachhochschule Hamburg hat ebenfalls ein nettes
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (Warum die
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
dahinter steht). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$$Link}). Wenn Sie ein
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
@ -495,9 +494,9 @@ betrachte den der Vektorraum $V = \cC⁰([-π,π], )$ der reellwertigen steti
Funktionen auf dem Intervall $[-π,π]$. Wir haben schon gesehen, dass die
Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{} f(t) · g(t) dt.
\langle •, • \rangle : V V → , \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{} f(t) · g(t) dt
\]
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten
ein Skalarprodukt ist. Rechnen Sie sofort mithilfe der bekannten
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
und $m$ aus $$ die folgenden Gleichungen gelten:
\[
@ -505,37 +504,37 @@ und $m$ aus $$ die folgenden Gleichungen gelten:
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
\]
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2}}$ noch Folgendes:
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2\pi}}$ noch Folgendes:
\[
\left\langle \frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} \right\rangle = 1, \quad
\left\langle \cos(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0, \quad
\left\langle \sin(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0.
\left\langle \frac{1}{\sqrt{2\pi}}, \frac{1}{\sqrt{2\pi}} \right\rangle = 1, \quad
\left\langle \cos(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0, \quad
\left\langle \sin(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0.
\]
Insgesamt sehen wir, dass die Menge
\[
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
\mathcal{F} := \left\{ \frac{1}{\sqrt{2\pi}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
\]
eine orthonormale Teilmengen des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
\rangle\bigr)$ ist.
\subsubsection{Rekonstruktion von Funktionen}
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion
$f ∈ F$ habe, dann kann ich die Zahlen
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von $\mathcal{F}$
erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion $f ∈ F$ habe, dann
kann ich die Zahlen
\begin{equation}\label{eq:12-2-0-1}
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle
c := \left\langle f, \frac{1}{\sqrt{2\pi}} \right\rangle
\end{equation}
ausrechnen und erhalte die Gleichung:
ausrechnen und erhalte die Gleichung
\begin{equation}\label{eq:12-2-0-2}
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
f = \frac{c}{\sqrt{2\pi}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr).
\end{equation}
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
verschieden sind, so dass auf der rechten Seite der
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht.
verschieden sind, sodass auf der rechten Seite der Gleichung~\eqref{eq:12-2-0-2}
tatsächlich nur eine endliche Summe steht.
\subsection{Fourier-Reihen}
@ -549,7 +548,7 @@ alle. Es gilt der folgende Satz der Analysis.
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
konvergiert die Funktionenreihe
\begin{equation}\label{eq:12}
\frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\frac{c}{\sqrt{2\pi}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\end{equation}
gleichmäßig (und damit punktweise) gegen $f$.
\end{satz}
@ -576,13 +575,13 @@ zeigt wie man eine Sprungfunktion annähert.
Weitere Beispiele gibt es bei
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
diesem phantastischem
diesem fantastischem
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
Vielleicht schauen sie auch einmal in
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
\href{https://www.youtube.com/watch?v=spUNpyF58BY}{dieses}. Sie finden im
Internet auch eine \href{https://www.google.com/search?q=fourier+applet}{große
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
\begin{figure}
\centering
@ -602,12 +601,12 @@ Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahez
beliebige Funktionen machen. Allerdings erhält man statt der
Fourier-Koeffizienten
\[
a_n := \frac{1}{π}·\int^{π}_{} f(t) · \sin(n·t) dt.
a_n := \frac{1}{π}·\int^{π}_{} f(t) · \sin(n·t) dt
\]
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
schreibt
\[
F(t) = \frac{1}{\sqrt{}}·\int_{-∞}^{} f(x)·e^{-itx}dx.
F(t) = \int_{-∞}^{} f(x)·e^{-2\pitx}dx.
\]
Aus der Reihendarstellung
\[
@ -615,40 +614,40 @@ Aus der Reihendarstellung
\]
wird dann die Formel
\[
f(x) = \frac{1}{\sqrt{}}·\int_{-∞}^{} F(t)·e^{-itx}dt.
f(x) = \int_{-∞}^{} F(t)·e^{2\pitx}dt.
\]
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation
verstehen. Dann kann man super-interessante Sachen machen.
Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein
„Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
super-interessante Sachen machen.
\begin{itemize}
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen.
diesen Methoden nicht schwierig, ein kleines Computerprogramm zu bauen, dass
ein gesprochenes „e“ von einem „a“ unterscheidet. Suchen Sie im Internet nach
„Python“ und „SciKit“, dann finden Sie alles, was sie brauchen.
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu
Programm machen, das ein Musikstück schneller abspielt, ohne die Tonhöhe zu
verändern.
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang
wesentlich zu verschlechtern.
akustischen Wahrnehmung von Tonsignalen („psycho-akustisches Modell“) und
erkenne die Teile des Spektrums, die für das Gehirn uninteressant sind. Lasse
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern, ohne den
Klang wesentlich zu verschlechtern.
\end{itemize}
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist
„Heisenbergsche Unschärferelation“, über die Philosophen viel schreiben, ist
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
@ -656,31 +655,31 @@ eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
\label{ssec:Rechen}
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich
falsch. Tatsache ist, dass moderne Prozessoren die
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele
elektronischen Geräten enthalten zusätzlich Spezialchips zur
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine
Anwendung der schnellen Fouriertransformation.
wegen ihrer Wichtigkeit die „fünfte Grundrechenart“. Das ist natürlich falsch.
Tatsache ist, dass moderne Prozessoren die
\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
Fouriertransformation}“ extrem effizient ausführen können. Viele elektronische
Geräte enthalten zusätzlich Spezialchips zur Fouriertransformation. Damit lässt
sie die Fourier-Transformation so effizient implementieren, dass Computer die
Multiplikation ganzer Zahlen mithilfe von Fourier-Transformation durchführen;
Multiplikation ist also nur noch eine Anwendung der schnellen
Fouriertransformation.
\begin{quote}
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen
Zahlenringen.
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen
Variante der diskreten schnellen Fourier-Transformation sowie einem
geschickten Wechsel zwischen der Restklassen- und der zyklischen Arithmetik in
endlichen Zahlenringen.
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
\end{quote}
Schauen Sie sich auch einmal
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus,
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
Artikel} an. Die Grundrechenarten im 21.~Jahrhundert sind also nicht „plus,
minus, mal, geteilt“, sondern „plus, minus, Fourier-Transformation“.
\subsection{Warum Sinus und Kosinus}
@ -688,7 +687,7 @@ minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum
gibt aber noch andere Funktionen, mit denen man etwas Ähnliches machen kann, zum
Beispiel die
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
die die quantenmechanischen Gleichungen zur Beschreibung von
@ -708,10 +707,9 @@ von Menschen fünf-dimensional ist?
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
Conscientiousness, Extraversion, Agreeableness, Neuroticism).
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder
Mensch lässt sich auf folgenden Skalen einordnen:
\foreignlanguage{english}{Conscientiousness, Extraversion, Agreeableness,
Neuroticism}). Dem Modell zufolge existieren fünf Hauptdimensionen der
Persönlichkeit und jeder Mensch lässt sich auf folgenden Skalen einordnen:
\begin{itemize}
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
@ -739,43 +737,43 @@ von Menschen fünf-dimensional ist?
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
\end{quote}
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist
Die Frage nach der Persönlichkeit mag ein bisschen theoretisch vorkommen, ist
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'',
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine.
ermitteln --- suchen Sie im Internet nach den Worten „Stryker“,
„Bewerbungsgespräch“ und „Gallup-Test“ um zu sehen, was ich meine.
\subsection{Wie kommt man auf die Zahl ``fünf''?}
\subsection{Wie kommt man auf die Zahl „fünf“?}
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
\begin{itemize}
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die
\item Nimm eine Liste aller möglichen Adjektive der englischen Sprache, die sich
auf „Persönlichkeit“ beziehen -- bei Wikipedia ist von 18.000 Begriffen die
Rede.
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ^{18000}$.
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum
$V ⊂ ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im
Wesentlichen alle in $V$ liegen.
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum $V ⊂ ^{18000}$
gibt, sodass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im Wesentlichen alle in $V$
liegen.
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
diesen Eigenschaften gibt.
\end{itemize}
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei
Aufgabe der „Hauptkomponentenanalyse“. Kurz gesagt berechnet man für je zwei
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
\begin{quote}
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für
die Assoziation zwischen zwei Zufallsvariablen.
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß
für die Assoziation zwischen zwei Zufallsvariablen.
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
\end{quote}
@ -800,16 +798,16 @@ Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
\subsection{… und weiter?}
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
Wissenschaften verwendet. Suchen Sie im Internet nach Hauptkomponentenanalyse
und Sportwissenschaft. Wikipedia nennt unter anderem noch folgende Beispiele.
\begin{itemize}
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, kann man
mithilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
Modell reduziert werden, was meistens die Modellqualität steigert.
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
@ -817,17 +815,18 @@ und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
analysieren und Rückschlüsse daraus ziehen.
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der
neuronalen Netzen. Dort dient die PCA zur Merkmals-Trennung im Rahmen der
automatischen Klassifizierung bzw. in der Mustererkennung.
\item In quantitative finance, principal component analysis can be directly
applied to the risk management of interest rate derivative portfolios. Trading
multiple swap instruments which are usually a function of 30-500 other market
quotable swap instruments is sought to be reduced to usually 3 or 4 principal
components, representing the path of interest rates on a macro
basis. Converting risks to be represented as those to factor loadings (or
multipliers) provides assessments and understanding beyond that available to
simply collectively viewing risks to individual 30-500 buckets.
\item \foreignlanguage{english}{In quantitative finance, principal component
analysis can be directly applied to the risk management of interest rate
derivative portfolios. Trading multiple swap instruments which are usually a
function of 30-500 other market quotable swap instruments is sought to be
reduced to usually 3 or 4 principal components, representing the path of
interest rates on a macro basis. Converting risks to be represented as those
to factor loadings (or multipliers) provides assessments and understanding
beyond that available to simply collectively viewing risks to individual
30-500 buckets.}
\end{itemize}
% !TEX root = LineareAlgebra2

View File

@ -4,9 +4,9 @@
\chapter{Bilineare und multilineare Abbildungen}
\sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über
``multilineare Algebra''. In diesem Kapitel werden wir multilineare Abbildungen
„multilineare Algebra“. In diesem Kapitel werden wir multilineare Abbildungen
und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das
``Tensorprodukt''. Bevor wir richtig ``multi'' werden, diskutiere ich erst noch
„Tensorprodukt“. Bevor wir richtig „multi“ werden, diskutiere ich erst noch
einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität
kennen Sie schon.
@ -18,18 +18,18 @@ kennen Sie schon.
Die folgende Definition sollte jetzt keine Überraschung mehr sein.
\begin{defn}[Bilineare Abbildungen]
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume. Eine
\emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
$s: U V → W$, so dass Folgendes gilt.
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume.
Eine \emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
$s: U V → W$, sodass Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{u}_1, \vec{u}_2 ∈ U, \vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
\item[Linearität in der ersten Komponente] Für alle $\vec{u}_1, \vec{u}_2 ∈ U,
\vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
\[
s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) +
λ·s(\vec{u}_2, \vec{v}).
\]
\item[Linearität in der zweiten Komponente] Für alle
$\vec{u} ∈ U, \vec{v}_1, \vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
\item[Linearität in der zweiten Komponente] Für alle $\vec{u} ∈ U, \vec{v}_1,
\vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
\[
s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ
s(\vec{u}, \vec{v}_2).
@ -67,22 +67,22 @@ Beispiele für bilineare Abbildungen kennen wir in Hülle und Fülle.
\subsection*{Multilineare Abbildungen}
Sie können es sich sicher schon denken: multilineare Abbildungen sind
Abbildungen $V_1 V_n → W$, so dass …. Ich habe vom Tippen
schon wunde Finger und verlasse mich darauf, dass Sie die Definition selbst
Abbildungen $V_1 V_n → W$, sodass …. Ich habe vom Tippen schon wunde
Finger und verlasse mich darauf, dass Sie die Definition selbst
zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
\begin{bsp}[$n$-lineare Funktion]
Betrachte die Determinantenabbildung
\[
\det : \Mat(n n, k) → k.
\det : \Mat(n n, k) → k.
\]
Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den
Vektorraum der $n n$-Matrizen mit dem Vektorraum
$V V$ identifizieren. Wir erhalten also eine Abbildung
Vektorraum der $n n$-Matrizen mit dem Vektorraum $k^n k^n$
identifizieren. Wir erhalten also eine Abbildung
\[
\det : \underbrace{V V}_{n } → k.
\det : \underbrace{k^n k^n}_{n } → k.
\]
Aus dem ersten Semester wissen wir: diese Abbildung ist in jeder Komponente
Aus dem ersten Semester wissen wir: Diese Abbildung ist in jeder Komponente
linear.
\end{bsp}

View File

@ -5,12 +5,12 @@
\section{Definitionen}
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift ``Beispiele für
Vektorräume'' eine Methode kennen gelernt, wie man aus einem $k$-Vektorraum $V$
neue $k$-Vektorräume macht: der Vektorraum $V V$ ist die Menge der
geordneten Paare von Vektoren; die Vektoraddition und skalare Multiplikation
erfolgt komponentenweise. Alternativ könnte ich $V V$ auch so
definieren: der Vektorraum $V V$ ist die Menge der Abbildungen
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift Beispiele für
Vektorräume“ eine Methode kennengelernt, wie man aus einem $k$-Vektorraum $V$
neue $k$-Vektorräume macht: Der Vektorraum $V V$ ist die Menge der geordneten
Paare von Vektoren; die Vektoraddition und skalare Multiplikation erfolgt
komponentenweise. Alternativ könnte ich $V V$ auch so definieren: Der
Vektorraum $V V$ ist die Menge der Abbildungen
\[
\{1, 2 \} → V
\]
@ -21,19 +21,19 @@ $V \{\vec{0}\}$ und $\{\vec{0}\} V$, die beide ganz offensichtlich
isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V V$ als
direkte Summe,
\[
V V = \bigl(V \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} V\bigr),
V V = \bigl(V \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} V\bigr).
\]
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
mehr Komponenten. Ich erhalte so Vektorräume
\[
V V V \quad\text{oder}\quad \underbrace{V V}_{n }
V V V \quad\text{oder}\quad \underbrace{V V}_{n }.
\]
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
verallgemeinern.
\begin{itemize}
\item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen
zuzulassen, also etwas wie ``$V_1 V_2$'' zu definieren
\item Zum anderen möchte ich die Konstruktion statt auch für unendlich viele
zuzulassen, also etwas wie $V_1 V_2$“ zu definieren.
\item Zum anderen möchte ich die Konstruktion auch für unendlich viele
Komponenten durchzuführen.
\end{itemize}
Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen
@ -52,45 +52,45 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
\emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$.
\end{defn}
\begin{bemerkung}
Wir können die Elemente von $\prod V_i$ auch als Familie
$(φ_i: I → V_i)_{i ∈ I}$ von Abbildungen auffassen.
\end{bemerkung}
\begin{bemerkung}
Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die
Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch.
\end{bemerkung}
\begin{notation}
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$- Vektorräume
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, so dass für
alle $i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
\begin{notation}\label{not:14-1-3}
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$-Vektorräume
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, sodass für alle
$i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
\[
V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V.
\]
Für den Fall, dass $I =$ die leere Menge ist, ist in der Literatur oft
$V^= V^{()} = \{ \vec{0}_V \}$ definiert.
Für den Fall, dass $I =$ die leere Menge ist, ist in der Literatur oft $V^
= V^{(∅)} = \{ \vec{0}_V \}$ definiert.
\end{notation}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}
\begin{bemerkung}
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
$V^I$ auch als Abbildungen $I → V$ auffassen.
\end{bemerkung}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
betrachte den Vektor
\[
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I.
\]
Die so definierten Vektoren $\vec{e}_i$ heißen
\emph{Einheitsvektoren}\index{Einheitsvektoren}.
\end{notation}
\begin{aufgabe}\label{auf:14-1-6}
\begin{aufgabe}\label{auf:14-1-6}%
In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass
die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist.
Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine
Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$
phantastisch viel größer ist als der Raum $k^{(I)}$.
fantastisch viel größer ist als der Raum $k^{(I)}$.
\end{aufgabe}
@ -125,11 +125,11 @@ eindeutig festgelegt.
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
$\varphi_i: V_i → W$ gegeben. Dann existiert genau eine lineare Abbildung
$\varphi: \bigoplus_{j ∈ I} V_j → W$, so dass für alle $i ∈ I$ das folgende
$\varphi: \bigoplus_{j ∈ I} V_j → W$, sodass für alle $i ∈ I$ das folgende
Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=3cm]
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon. Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon.~Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
V_i \ar[r, "\varphi_i"'] & W .
\end{tikzcd}
\]
@ -139,11 +139,11 @@ eindeutig festgelegt.
$\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien
also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den
Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_{}$ mit den
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_$ mit den
Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des
Diagramm folgt:
Diagramms folgt:
\[
\varphi_{} \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
\varphi_\bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
\]
Also ist schon einmal
$\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$.
@ -154,14 +154,14 @@ eindeutig festgelegt.
alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist
$\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt.
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
existiert: wir können es angeben! Setzen Sie dazu
Wie immer sagt uns der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
existiert: Wir können es angeben! Setzen Sie dazu
\[
\varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I}
\sum_{i ∈ I} φ_i(\vec{v}_i)
\]
und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung
ohne unendliche Summe ist, die linear ist und die die Diagramm kommutativ
ohne unendliche Summe ist, die linear ist und die das Diagramm kommutativ
macht.
\end{proof}
@ -175,11 +175,10 @@ eindeutig festgelegt.
\end{defn}
\begin{satz}[Universelle Eigenschaften des direkten Produkts]
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
$\varphi_i: W → V_i$ gegeben. Dann existiert genau eine Abbildung
$\varphi: W → \prod_{j ∈ I} V_j$, so dass für alle $i ∈ I$ das folgende
Diagramm kommutiert:
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein $k$-Vektorraum.
Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung $\varphi_i: W → V_i$
gegeben. Dann existiert genau eine Abbildung $\varphi: W → \prod_{j ∈ I}
V_j$, sodass für alle $i ∈ I$ das folgende Diagramm kommutiert:
\[
\begin{tikzcd}
W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\
@ -194,26 +193,25 @@ eindeutig festgelegt.
nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein.
Damit ist die Eindeutigkeit schon gezeigt.
Wie immer sagt und der
Eindeutigkeitsbeweis sofort auch, warum $\varphi$ existiert: wir können es
angeben! Setzen Sie dazu
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
existiert: Wir können es angeben! Setzen Sie dazu
\[
\varphi : W → \prod_j V_j, \quad \vec{w}\left( \varphi_j(\vec{w}) \right)_{j ∈ I}
\]
und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die
die Diagramm kommutativ macht.
das Diagramm kommutativ macht.
\end{proof}
\section{Dualität}
In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Diese Fakt hatte den
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls
solange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1
darauf hingewiesen, dass dies nicht das einzige Problem ist.
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Dieser Fakt hatte den
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls so
lange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1 darauf
hingewiesen, dass dies nicht das einzige Problem ist.
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}%
Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine
Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus
\[
@ -224,7 +222,7 @@ darauf hingewiesen, dass dies nicht das einzige Problem ist.
\begin{bemerkung}
Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass
Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert,
dessen Dualraum phantastisch viel größer ist als der Raum selbst.
dessen Dualraum fantastisch viel größer ist als der Raum selbst.
\end{bemerkung}
\begin{proof}[Beweis von Satz~\ref{satz:14-3-1}]

View File

@ -9,22 +9,22 @@
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
es ist, dass all bilinearen Abbildungen von $UV → W$ ``von $U⊗V$ kommen'', und
es ist, dass all bilinearen Abbildungen von $U V → W$ „von $U⊗V$ kommen“, und
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
\begin{defn}[Tensorprodukt]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: UV → T$, so
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: UV → W$
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
kommutiert:
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$,
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V →
W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
UV \ar[r, "s\text{, bilinear}"'] & W .
U V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
U V \ar[r, "s\text{, bilinear}"'] & W .
\end{tikzcd}
\]
\end{defn}
@ -32,10 +32,10 @@ präzise.
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
: U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann gibt es
einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz}
\begin{proof}
\video{21-1}
@ -43,34 +43,34 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
existiert ein Tensorprodukt.
\begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
ein Tensorprodukt.
\end{satz}
\begin{proof}
\video{21-2}
\end{proof}
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
Literatur oft \emph{Tensoren}\index{Tensor}.
\end{notation}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}%
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
und mit $\vec{u}\vec{v}$ bezeichnet.
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v})
\bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und
$\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}\vec{v}$
bezeichnet.
\end{notation}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
dass die Tensoren
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]%
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1,
\vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die
Tensoren
\[
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
@ -83,22 +83,22 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
der Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der
Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht.
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
\begin{notation}[Reine Tensor]\label{not:15-1-4b}%
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}\vec{v}$ ist.
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u}
U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}\vec{v}$ ist.
\end{notation}
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
$τ : UV → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
V → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
\[
\vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
\]
@ -110,18 +110,16 @@ wissen, ob sie Null sind oder nicht.
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
überraschend schwer sein.
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1\vec{v}_2 =
\vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
\end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor
$\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ gilt! Finden Sie Vektoren, so
dass die Gleichheit nicht gilt!
Beweisen Sie, dass der Tensor $\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ²
⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1\vec{v}_2 =
\vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht
gilt!
\end{aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
@ -130,7 +128,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können.
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann
ist die Menge der reinen Tensoren,
\[
R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v}
@ -145,17 +143,16 @@ hinschreiben können.
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, sodass die folgende Gleichung
gilt,
\[
\vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}).
\]
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
Index $i$ die Gleichung
$a_(\vec{u_i}\vec{v_i}) = (a_\vec{u_i})\vec{v_i}$. Es ist also nicht
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
Tensoren schreiben kann.
Index $i$ die Gleichung $a_(\vec{u_i}\vec{v_i}) =
(a_\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
\end{bemerkung}
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
@ -167,9 +164,9 @@ hinschreiben können.
Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
\]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
von reinen Tensoren,
Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ}
U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen
Tensoren,
\[
\vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i
\]
@ -178,11 +175,11 @@ hinschreiben können.
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
\]
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so
„definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
folge.
Folge.
\end{notation}
@ -193,7 +190,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält.
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}%
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren,
@ -217,7 +214,7 @@ Tensorproduktraum erhält.
\vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
&= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
&= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}.
\end{align*}
Das beweist die Behauptung.
\end{proof}
@ -234,11 +231,11 @@ Tensorproduktraum erhält.
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
beachten, dass für jedes Paar $(i,j) ∈ I J$ von Indices die Abbildung
\[
s_{ij} : UV → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
s_{ij} : U V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
\vec{v}^{\:*}_i(\vec{v})
\]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α) ∈ I J$ gilt
eine lineare Abbildung $η_{ij}: U⊗V → k$, sodass für alle $(α) ∈ I J$ gilt
\begin{align*}
η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\
& = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\
@ -254,13 +251,13 @@ Tensorproduktraum erhält.
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
&= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
&= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
&= a_{ij}
&= a_{ij}.
\end{align*}
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
\end{proof}
\begin{kor}[Dimensionsformel für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
\end{kor}
@ -269,7 +266,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen.
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
@ -279,9 +276,9 @@ Basen.
…,
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
\]
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind.
\end{konstruktion}
@ -294,13 +291,13 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise.
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
Abbildung
\[
ν : U_1⊗U_2 → V_1⊗V_2 ,
ν : U_1⊗U_2 → V_1⊗V_2,
\]
so dass das folgende Diagramm kommutiert:
sodass das folgende Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
U_1U_2 \ar[d, "τ_1"'] \ar[r, "f_1f_2"] & V_1V_2 \ar[d, "τ_2"]\\
@ -329,7 +326,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren.
\begin{konstruktion}
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Matrizen
\[
A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k)
@ -338,10 +335,10 @@ Matrizen diskutieren.
\[
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}.
\]
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als
@ -357,7 +354,7 @@ Matrizen diskutieren.
Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[
•⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2,
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr)
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr).
\]
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
@ -368,7 +365,7 @@ Matrizen diskutieren.
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
$\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben.
Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die
lexikographisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
lexikografisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
gilt für die darstellenden Matrizen die Gleichung
\[
\Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) =
@ -386,7 +383,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften.
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}%
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen
@ -406,7 +403,7 @@ Folge der universellen Eigenschaften.
m: kV → V, \quad (λ, \vec{v}) ↦ λ·\vec{v}
\]
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm
Tensorprodukts genau eine lineare Abbildung $η$, sodass das folgende Diagramm
kommutiert,
\[
\begin{tikzcd}

View File

@ -4,7 +4,7 @@
\chapter{Tensorprodukte mit mehreren Faktoren}
\label{sec:tAlg}
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'',
\sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
@ -17,12 +17,12 @@ nennen.
\section{Definition, Existenz und Eindeutigkeit}
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare
Abbildungen''.
Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
von Faktoren zu definieren, betrachten wir ganz analog multilineare
Abbildungen.
\begin{defn}[Multilineare Abbildungen]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien seien $W$ und $V_1, …, V_n$
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $W$ und $V_1, …, V_n$
jeweils $k$-Vektorräume. Eine Abbildung
\[
s: V_1 V_2 V_n → W
@ -36,17 +36,16 @@ Abbildungen''.
\end{multline*}
\end{defn}
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein
Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
Tensorprodukte von mehr als zwei Vektorräumen definieren.
\begin{defn}[Tensorprodukt]\label{def:16-1-2}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein
Vektorraum $T$ zusammen mit einer multilinearen Abbildung
$τ: V_1 V_n → T$, so dass für alle multilinearen Abbildungen
$s: V_1 V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so
dass das folgende Diagramm kommutiert
\begin{defn}[Tensorprodukt]\label{def:16-1-2}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
zusammen mit einer multilinearen Abbildung $τ: V_1 V_n → T$, sodass für
alle multilinearen Abbildungen $s: V_1 V_n → W$ genau eine lineare
Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=2cm]
V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des Tensorprodukts.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und
$τ_1 : V_1 V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und $τ_1 : V_1
V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
$T_1 ≅ T_2$. \qed
\end{satz}
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\end{satz}
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von „dem Tensorprodukt“ und schreiben
\[
τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n.
\]
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als
\emph{rein}\index{Reine Tensoren}.
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
Tensoren}.
\end{notation}
\begin{notation}[Mehrfache Produkte]
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{
n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
\end{notation}
\section{Assoziativität}
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit
Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
die Assoziativität. Der folgende Satz klärt alles.
\begin{satz}[Assoziativität des Tensorproduktes]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die
Vektorräume
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
\[
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
\]
kanonisch isomorph.
\end{satz}
\begin{proof}
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
Betrachten Sie die Abbildung
\[
@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
= \prod_i \dim V_i$.
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
zwischen den Tensorprodukten.
@ -193,13 +190,12 @@ und
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}.
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche
Multiplikation erweitert wurde.
Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
\begin{defn}[Algebra über einem Körper]
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
@ -211,20 +207,18 @@ Multiplikation erweitert wurde.
Zusätzlich:
\begin{itemize}
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ V$ die Gleichheit
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt.
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
\vec{v}_1)$ gilt.
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1,
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
\vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren
$\vec{v} ∈ V$ die Gleichheit
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v}
V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
\end{itemize}
\end{defn}
@ -244,8 +238,8 @@ Beispiele für Algebren kennen Sie schon.
\end{bsp}
\begin{bsp}[Matrizen]
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$,
der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$,
der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
besitzt eine Eins.
\end{bsp}

View File

@ -5,37 +5,37 @@
\label{sec:wedge}
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
\section{Definition, Existenz und Eindeutigkeit}
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
Abbildungen beschränken, die alternierend sind.
Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
beschränken, die alternierend sind.
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
$n $ eine Zahl. Eine multilineare Abbildung
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
$ eine Zahl. Eine multilineare Abbildung
\[
s : \underbrace{V V}_{n } → W
\]
heißt \emph{alternierend}\index{alternierende multilineare
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
\begin{equation}\label{eq:dfjgh}
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
\end{equation}
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
…, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
\ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
\end{defn}
\begin{beobachtung}
@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind.
\begin{prov}
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
``alternierende Multilineare Abbildung'' nehmen?
„alternierende Multilineare Abbildung“ nehmen?
\end{prov}
\begin{notation}[Produkte]
@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Determinante]
Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
$\Mat(n n, k)$ der $(n n)$-Matrizen mit dem Vektorraum
$k^n k^n$. Dann ist die Determinantenabbildung
Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n n, k)$
der $(n n)$-Matrizen mit dem Vektorraum $k^n k^n$. Dann ist die
Determinantenabbildung
\[
\det : k^n k^n → k
\]
@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Kreuzprodukt]
Das von Physiker geliebte
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
$ℝ³$} ist eine alternierende multilineare Abbildung.
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
ist eine alternierende multilineare Abbildung.
\end{bsp}
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
Vektorräumen definieren.
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, so
dass für alle multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, sodass für alle
multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare Abbildung $η: T →
W$ existiert, sodass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=4cm]
V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -104,45 +104,42 @@ Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des äußeren Produktes.
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
$T_1 ≅ T_2$. \qed
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1
T_2$. \qed
\end{satz}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
\begin{satz}[Existenz des äußeren Produkts]\label{satz:17-1-9}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
\end{satz}
\begin{notation}[Notation rund um äußere Produkte]
\begin{notation}[Notation rund um äußere Produkte]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
\[
τ : V^{n}\bigwedge^n V.
\]
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
\emph{reinen Dächern}\index{reine Dächer}.
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
\end{notation}
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
Definition~\ref{def:17-1-1} die folgenden Regeln.
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
folgenden Regeln.
\begin{itemize}
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
gleich $\vec{0}_{Λ^n V}$.
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
\vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
\item Für jede Permutation $ρ ∈ S_n$ ist
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
Λ \vec{v}_{ρ(n)}$.
\item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
\sgn(ρ\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
\end{itemize}
\end{beobachtung}
@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
\end{beobachtung}
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
Basis von $(ℝ²)^{2}$ durch die Menge
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\}
ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
\[
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
\vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
verzichte ich darauf.
Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
In der Situation von Definition~\ref{def:17-1-4} sei
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
ist die Menge
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
\vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
\[
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
\]
@ -199,7 +193,7 @@ verzichte ich darauf.
\end{satz}
\begin{bemerkung}
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
sollte!
\end{bemerkung}
@ -223,8 +217,8 @@ verzichte ich darauf.
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir
wie folgt eine Abbildung
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
folgt eine Abbildung
\[
\begin{matrix}
m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\
@ -252,7 +246,7 @@ und
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die analog die schreckliche
Diese „Definitionen“ verwenden die analog die schreckliche
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
\begin{bemerkung}
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
sobald $n>\dim V$ ist. Also ist
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
$n>\dim V$ ist. Also ist
\[
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
2^{\dim V}.
@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
eine Abbildung zwischen den Dachprodukten induziert.
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
Diagramm kommutiert,
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
\[
\begin{tikzcd}[column sep=2cm]
V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\
@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
\end{satz}
\begin{proof}
Hier ist fast nichts zu zeigen. Die Abbildung
$τ◦(f f)$ ist alternierend und multilinear. Also
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f f)$ ist
alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
der universellen Eigenschaft.
\end{proof}
\begin{bemerkung}
@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
geht's.
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
\vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
Λ ⋯ Λ \vec{v}_k$ wie folgt.
\begin{itemize}
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
$A := (a_{ij})\Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
$A_{i_1, …,i_k}\Mat(k k, k)$ die Matrix, die aus den Spalten
$i_1, …,i_k$ der Matrix $A$ besteht.
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
(a_{ij}) ∈ \Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k}\Mat(k k, k)$
die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
\end{itemize}
Dann ist
\[
@ -342,11 +335,9 @@ geht's.
\]
\end{satz}
\begin{proof}
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
ausrechnen, was der Koeffizient von
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
besseres ein, als das Produkt
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
\vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
\[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
@ -361,7 +352,7 @@ geht's.
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
\end{align*}
Damit ist der Satz dann wohl bewiesen.
\end{proof}
@ -382,12 +373,11 @@ geht's.
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
Frage.
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
$λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
@ -398,16 +388,16 @@ Frage.
\end{kor}
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
geometrische Aussage.
\subsection{Die Koeffizienten des charakteristischen Polynoms}
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
Matrix $A ∈ \Mat(n n,k)$ diskutiert,
„Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
$A ∈ \Mat(n n,k)$ diskutiert,
\[
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
a_{n-1}(A)·t + a_n(A) \right).
@ -417,15 +407,15 @@ Wir hatten staunend festgestellt, dass die Funktionen
a_i : \Mat(n n, k) → k
\]
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
\[
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
\]
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
Polynom von $f$ als
@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\vdots & \ddots \\
& & & & a_{(n-1)n}\\
a_{n1} && & a_{n(n-1)} & a_{nn}-t
\end{pmatrix}
\end{pmatrix}.
\]
Das charakteristische Polynom ist dann die Determinante von $B$, also
\begin{equation}\label{eq:xcydfg}
@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
wir noch einmal daran, dass die Dachprodukte
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
\vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
nach Satz~\ref{satz:17-4-3}
\begin{align*}
^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
$\widetilde{A}^{i_1, …, i_k}$ ist.
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
i_k}$ ist.
\end{proof}
% !TEX root = LineareAlgebra2

View File

@ -6,33 +6,31 @@
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
August 1900 in Paris hielt David
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im
20.~Jahrhundert.
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
\section{Hilbert's drittes Problem}
In
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
drittem Problem} geht es um folgende Frage: gegeben sind zwei
drittem Problem} geht es um folgende Frage: gegeben sind zwei
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt.
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit}
sind.
$ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
$P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
\begin{beobachtung}
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
die Antwort ``Nein!''
die Antwort „Nein!“
\end{beobachtung}
\begin{notation}
@ -48,23 +46,23 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
Schauen Sie zum Thema Invarianten einmal in
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf
Hilbert's Frage zu geben.
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
geben.
\section{Die Dehn-Invariante}
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu
„Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
beantworten. Aus diesem Grund konstruierte Max
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
offensichtlich ist, wie das Volumen. Die
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
\[
@ -87,10 +85,10 @@ $$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
\begin{bemerkung}
Um mit dem $$-Vektorraum $$ warm zu werden, fragen wir: ist die Menge
$\{ 1, \sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist ``Nein!'' Denn
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale
$$-lineare Relation gäbe,
Um mit dem $$-Vektorraum $$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
\sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $$-lineare
Relation gäbe,
\[
p · 1 + q · \sqrt{2} = 0,
\]
@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
aber schon, dass $\sqrt{2}$ irrational ist.
\end{bemerkung}
Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl
$π$ erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter
betrachten wir den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt,
Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter betrachten wir
den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der Vektorraum $V$
von Max Dehn ist dann gleich dem Tensorprodukt,
\[
V = \left(\factor{}{\langle π \rangle}\right).
\]
@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $$-Vektorräumen, also selbst ein $$-Vektor
\subsection{Konstruktion der Invariante}
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
$(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von
Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
$P$ schließlich als
\[
\operatorname{dehn}(P) := \sum_{k=1}^{n} (E_k) ⊗ α (E_k).
\]
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{beobachtung}
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
@ -228,7 +226,7 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün).
\item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der
Abbildung schwarz).
Abbildung schwarz).
\end{itemize}
Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen,
dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$
@ -236,34 +234,34 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
gibt es drei unterschiedliche Arten von Kanten.
\begin{itemize}
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
bezeichnen, dann gelten die Gleichungen
\begin{equation}
\begin{matrix}
α(E_1) = α¹(E_1) && α(E_a) = α¹(E_a) \\
α(E_{a+1}) = α²(E_{a+1}) && α(E_b) = α²(E_b)
\end{matrix}
\end{equation}
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
$α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
bezeichnen, dann gelten die Gleichungen
\begin{equation}
\begin{matrix}
α(E_1) = α¹(E_1) && α(E_a) = α¹(E_a) \\
α(E_{a+1}) = α²(E_{a+1}) && α(E_b) = α²(E_b)
\end{matrix}
\end{equation}
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann
gilt für die Längen und für die Winkel
\begin{equation}
\begin{aligned}
(E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\
α(E_{}) & = α¹(E¹_{}) = α²(E²_{})
\end{aligned}
\end{equation}
Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann gilt für die Längen
und für die Winkel
\begin{equation}
\begin{aligned}
(E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\
α(E_{}) & = α¹(E¹_{}) = α²(E²_{}).
\end{aligned}
\end{equation}
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$,
hinzugekommen sind. Eine solche Kante tritt immer zweimal auf: einmal in
$P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$,
$_{n+1}$, …, $_m$, $_m$. Es gilt für jeden Index $i > n$
\begin{equation}
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
\end{equation}
\end{itemize}
Mit diesen Bezeichnungen ist

View File

@ -3,15 +3,14 @@
\chapter{Ausblick.}
Wir sind am Ende der Vorlesung ``Lineare Algebra II''. Wir hoffen, dass Sie
trotz des ungewöhnlichen Formats der Vorlesung etwas gelernt und für sich
mitgenommen haben.
Wir sind am Ende der Vorlesung „Lineare Algebra II“. Wir hoffen, dass Sie etwas
gelernt und für sich mitgenommen haben.
\bigskip
\bigskip
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium!
\bigskip
@ -24,14 +23,14 @@ Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
\subsection*{Ein sehr persönliches Wort zum Ende}
\begin{quote}
Any interested participant with basic knowledge of vector and matrix
multiplication as linear algebra is at the core of quantum computing
algorithms.
\foreignlanguage{english}{Any interested participant with basic knowledge of
vector and matrix multiplication as linear algebra is at the core of quantum
computing algorithms.}
-- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro}
\end{quote}
Für mich ist die Vorlesung ``Lineare Algebra II'' so etwas wie ein Schlüssel zur
Für mich ist die Vorlesung „Lineare Algebra II“ so etwas wie ein Schlüssel zur
Welt. Wir leben in einer Zeit, in der neue Techniken der
Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise
umwälzen, zum Guten wie zum
@ -39,21 +38,21 @@ umwälzen, zum Guten wie zum
dieser Umwälzungen ist schwer zu unterschätzen; vermutlich werden die
langfristigen Auswirkungen am ehesten mit denen der
\href{https://de.wikipedia.org/wiki/Industrielle_Revolution}{ersten
industriellen Revolution} vergleichbar sein.
industriellen Revolution} vergleichbar sein.
In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu
gestalten. Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei;
es scheint in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich
zu ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich
nicht gestalten! Was ich nicht verstehe, macht mir Angst!
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu gestalten.
Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei; es scheint
in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich zu
ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich nicht
gestalten! Was ich nicht verstehe, macht mir Angst!
Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie
\emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer
Algebra. Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der
\emph{Pole Position}, um diese Sachen zu verstehen. Sie können sich noch heute
eine ein Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer Algebra.
Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der \emph{Pole
Position}, um diese Sachen zu verstehen. Sie können sich noch heute eine ein
Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
Linux-Laptop laden, die hervorragenden
\href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes
\emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei
@ -62,7 +61,7 @@ Linux-Laptop laden, die hervorragenden
Technik erklären. Schauen Sie sich das interaktive Lehrbuch von
\href{https://qiskit.org/textbook/preface.html}{Qiskit} an
(\href{https://www.youtube.com/playlist?list=PLOFEBzvs-Vvp2xg9-POLJhQwtVktlYGbY}{Videos
gibt es hier}), und stellen Sie bei IBM ihren ersten
gibt es hier}), und stellen Sie bei IBM ihren ersten
\href{https://quantum-computing.ibm.com/docs/start-iqx/code/first-circ}{Quanten-Schaltkreis}
zusammen. Oder Sie benutzen den
\href{http://www.quantumplayground.net/#/home}{Quantum Computing Playground}.

View File

@ -28,7 +28,7 @@
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
\title{Lineare Algebra 2}
\author{Prof. Dr. Stefan Kebekus}
\author{Prof.~Dr.~Stefan Kebekus}
\DeclareMathOperator{\ad}{ad}
\DeclareMathOperator{\Bij}{Bij}
@ -93,7 +93,6 @@
\begin{document}
% spell checker language
\selectlanguage{german}

View File

@ -7,6 +7,7 @@
\usepackage{enumitem}
\usepackage{hyperref}
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}
\usepackage{newunicodechar}
\usepackage{mathtools}
\usepackage{varioref}
@ -362,10 +363,7 @@
% HYPENTATION
%
\hyphenation{com-po-nents}
\hyphenation{pos-i-tive}
\hyphenation{Theo-rem}
\hyphenation{Vojta}
\hyphenation{uni-tärer}
%