Compare commits

...

21 Commits
main ... main

Author SHA1 Message Date
Stefan Kebekus
e38830a5f0 Cleanup 2025-07-14 10:26:28 +02:00
Stefan Kebekus
75fe57af6b Working 2025-07-04 14:21:10 +02:00
Stefan Kebekus
4b1c86c1ea Working 2025-07-02 10:51:46 +02:00
Stefan Kebekus
ed0e972443 Fix error 2025-07-01 14:17:18 +02:00
Stefan Kebekus
ae3be3aa81 Update 14-direkteSumme.tex 2025-06-30 12:40:27 +02:00
Stefan Kebekus
056e054363 Fix typos 2025-06-30 08:40:53 +02:00
Stefan Kebekus
e319086277 Fix typos 2025-06-30 08:28:39 +02:00
Stefan Kebekus
b8152c6101 Update 2025-06-30 07:29:02 +02:00
Stefan Kebekus
3f631e4eaf Working 2025-06-24 13:59:10 +02:00
Stefan Kebekus
639481f8c0 Typos 2025-06-24 13:53:37 +02:00
Stefan Kebekus
37b91c5e02 Working 2025-06-23 15:13:56 +02:00
Stefan Kebekus
9a0ab78a70 Spellchecking 2025-05-23 14:48:51 +02:00
Stefan Kebekus
2bc4283c2d Fix typo 2025-05-23 14:37:08 +02:00
Stefan Kebekus
1f00cf5ea0 Cleanup 2025-05-21 11:02:50 +02:00
Stefan Kebekus
f89acb0147 Cleanup 2025-05-21 09:31:59 +02:00
Stefan Kebekus
c687df6e75 Typo 2025-05-19 13:01:09 +02:00
Stefan Kebekus
a3081c8e56 Cleanup 2025-05-13 15:03:58 +02:00
Stefan Kebekus
0dd5b65ed1 Cleanup 2025-05-09 12:25:00 +02:00
Stefan Kebekus
1c5823c039 Fix lingo 2025-05-07 14:17:36 +02:00
Stefan Kebekus
99b45276c9 Fix error 2025-05-07 11:07:12 +02:00
Stefan Kebekus
3bd5ccd104 Fix errors 2025-05-05 10:33:28 +02:00
26 changed files with 1382 additions and 1249 deletions

View File

@ -19,3 +19,92 @@ Quotientenvektorraums
Erzeugendensystem Erzeugendensystem
Quotientenvektorräume Quotientenvektorräume
Repräsentantenniveau Repräsentantenniveau
Jordanscher
Matrixexponential
Matrixexponentials
Einsetzungsabbildung
Cayley-Hamilton
TFAE
Jordanblocks
Einsetzungsmorphismus
Abstandserhaltende
abstandserhaltend
metrikerhaltend
abstandserhaltenden
abstandserhaltender
abstandserhaltende
Definitheit
ONB
Kronecker-Delta
semidefinit
Bytestrings
Bilinearität
Semilinearität
Sesquilinearlinearform
Cayley
Sequilinearform
Dualräumen
Hom-Räumen
Maximumsnorm
Cauchy-Schwarzschen
Cauchy-Schwarzsche
Cauchy
Sceaux
Amandus
Orthonormalität
Identifikationen
semi-linear
Quotientenräume
Rückzugsabbildung
Determinanten-Multiplikationssatz
Komplexifizierung
komplexifizierten
komplexifizierte
Quadriken
Quadrik
Grund-Quadriken
Vereinfachungsschritten
Koniken
Perge
Hyperbelbahnen
Konik
Auxerre
Loviscach
psycho-akustisches
SciKit
Funktionalgleichung
Schönhage-Strassen-Algorithmus
Schönhage
Strassen
Thurstone
Allport
Odbert
kulturstabile
Stryker
Gallup-Test
OCEAN-Modell
PCA
massebehafteter
Sylvester
Hurwitz-Kriteriums
Hurwitz-Kriterium
Determinantenabbildung
Eindeutigkeitsbeweis
Tensorproduktraum
Trivialbeispiel
Erzeugendensysteme
Kronecker-Produkt
Kronecker
Tensorprodukträume
Tensorproduktkonstruktion
Tensorproduktabbildung
Multiplikationsabbildung
Permutationsgruppe
Erzeugendensystemen
auszumultiplizieren
inner-mathematischen
zerlegungsgleich
Zerlegungsgleichheit
Invarianteneigenschaft
Quotientenvektorraum
Kebekus

1
.vscode/ltex.dictionary.en-US.txt vendored Normal file
View File

@ -0,0 +1 @@
observables

View File

@ -1 +1,3 @@
KARDINALZAHLEN KARDINALZAHLEN
DE_COMPOUND_COHERENCY
KLEINSCHREIBUNG_KEIN_NAME

View File

@ -7,3 +7,73 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QArthur Cayley (* 16. August 1821 in Richmond upon Thames, Surrey; † 26. Januar 1895 in Cambridge) war ein englischer Mathematiker.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Absolute Homogenität] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Dreiecksungleichung] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q [Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann ergibt sich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen Begriff von „orthogonalen Unterraum“.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir werden in Abschnitt sec:dual sehen, wie die Begriffe zusammenhängen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des “Dualraum”.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des „Dualraum“.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem “orthogonalen Komplement” aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem „orthogonalen Komplement“ aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}

View File

@ -0,0 +1,2 @@
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}

View File

@ -21,7 +21,7 @@ Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus] \begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine \emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist. Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist.
\end{defn} \end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert. Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.

View File

@ -190,9 +190,9 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
$$ $$
\Hau_f(λ) := \bigcup_{n ∈ } \ker \Bigl( (f - λ · \Id_V )^n \Bigr) \Hau_f(λ) := \bigcup_{n ∈ } \ker \Bigl( (f - λ · \Id_V )^n \Bigr)
$$ $$
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!Endomorphismus} oder Man nennt dies den \emph{Hauptraum}\index{Hauptraum!eines Endomorphismus} oder
\emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}% \emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}%
\index{verallgemeinerter Eigenraum!Endomorphismus}. \index{verallgemeinerter Eigenraum!eines Endomorphismus}.
\end{defn} \end{defn}
\begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}% \begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}%
@ -203,8 +203,8 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\Bigr), \Bigr),
$$ $$
wobei $\Id_{n n}$ die Einheitsmatrix bezeichnet. Man nennt dies den wobei $\Id_{n n}$ die Einheitsmatrix bezeichnet. Man nennt dies den
\emph{Hauptraum}\index{Hauptraum!Matrix} oder \emph{verallgemeinerten \emph{Hauptraum}\index{Hauptraum!einer Matrix} oder \emph{verallgemeinerten
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!Matrix}. Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!einer Matrix}.
\end{defn} \end{defn}
\begin{beobachtung} \begin{beobachtung}
@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
die Vektoren die Vektoren
\[ \[
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
v^p_{m_p-a}
\] \]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$. Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
@ -756,8 +755,8 @@ folgt vor.
\] \]
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$. Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen \item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist. wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und \item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
die duale Partition die duale Partition

View File

@ -117,9 +117,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen] \begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$ effizient eine invertierbare Matrix $S ∈ GL_n()$ finden, sodass $B :=
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[ \[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S. A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\] \]
@ -133,7 +133,7 @@ macht die Formel kurz und in der Praxis gut berechenbar.
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt, In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
\[ \[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!} \exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}.
\] \]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt wissen, dass für jede reelle Zahl $t$ gilt
@ -152,12 +152,12 @@ $(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[ \[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n. \exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\] \]
Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert Dabei sei $A⁰$ stets die $(nn)$-Einheitsmatrix. Diese Reihe konvergiert in
in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert -- dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung Operatornorm, …. Ich erhalte so eine Abbildung
\[ \[
\exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n \exp : \Mat_{nn}() → \Mat_{nn}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n,
\] \]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei wird. Sie finden weitere Erläuterungen und erste Beispiele bei
@ -171,7 +171,7 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
& λ_2 & \\ & λ_2 & \\
& & \ddots \\ & & \ddots \\
0 & & & λ_n 0 & & & λ_n
\end{pmatrix} \end{pmatrix}.
\] \]
Dann ist Dann ist
\[ \[
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\] \]
\end{bsp} \end{bsp}
Etwas Etwas weitergehende Beispiele finden Sie als
weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel \href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des 1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials. Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential] \begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n
$(n n)$-Matrizen. n)$-Matrizen.
\begin{enumerate} \begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$ \item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt ist), dann gilt
@ -208,8 +207,8 @@ Matrixexponentials.
\exp(A+B)=\exp(A)·\exp(B). \exp(A+B)=\exp(A)·\exp(B).
\] \]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix \item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(nn)$-Matrix $S$
$S$ ist ist
\[ \[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed \exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\] \]
@ -217,40 +216,40 @@ Matrixexponentials.
\end{fakt} \end{fakt}
\begin{beobachtung} \begin{beobachtung}
Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die Wenn $A$ irgendeine komplexe $(nn)$-Matrix ist, dann kommutieren die Matrizen
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1} $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[ \[
\Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A). \Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\] \]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(n n)$-Matrix $A$ stets invertierbar ist, und dass $(nn)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
$\exp(A)^{-1} = \exp(-A)$ gilt. gilt.
\end{beobachtung} \end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot} Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen. jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differentialgleichungssysteme} \section{Lineare, homogene Differenzialgleichungssysteme}
\subsection{Erinnerung} \subsection{Erinnerung}
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $ eine differenzierbare Funktion $y : $, sodass für alle $t ∈ $ gilt: $y'(t)
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
Analysis wissen Sie, dass es nur eine solche Funktion gibt: Sie, dass es nur eine solche Funktion gibt:
$$ $$
y(t) = \exp(t·a)·y_0. y(t) = \exp(t·a)·y_0.
$$ $$
Dasselbe funktioniert genau so mit komplexen Zahlen. Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differentialgleichungssysteme} \subsection{Lineare, homogene Differenzialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$ Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(nn)$-Matrix $A$ und ein
und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt: …, $y_n : $, sodass für alle $t ∈ $ gilt:
\[ \[
\begin{pmatrix} \begin{pmatrix}
y'_1(t) \\ y'_1(t) \\
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
y_2(t) \\ y_2(t) \\
\vdots \\ \vdots \\
y_n(t) y_n(t)
\end{pmatrix} \end{pmatrix}.
\] \]
Außerdem soll Außerdem soll
\[ \[
@ -279,8 +278,8 @@ Außerdem soll
\] \]
sein. sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1} \begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als gegeben als
\[ \[
\begin{pmatrix} \begin{pmatrix}
@ -299,12 +298,12 @@ sein.
\end{bsp} \end{bsp}
\subsection{Differentialgleichungen höherer Ordnung} \subsection{Differenzialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : $,
$y : $, so dass für alle $t ∈ $ gilt: sodass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1} \begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t). y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation} \end{equation}
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
y_0 \\ y_0 \\
y'_0 \\ y'_0 \\
y''_0 y''_0
\end{pmatrix} \end{pmatrix}.
\] \]
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme, Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen. Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp} \begin{bsp}

View File

@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰. f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\] \]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt $x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
``Polynome''.
\begin{defn}[Polynome] \begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$. Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp} \end{bsp}
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben $t$, $$, $$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich. Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
Selbstabbildungen des endlichen Körpers $𝔽_2$. des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen] \begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
@ -68,22 +67,33 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
\] \]
genannt genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}. \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
Matrix $p(A)$ und eine eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} \Mat(nn, k)$ durch $s(A) = p(A)$.
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
\end{defn} \end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6} \begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
Matrix $S ∈ GL_n(k)$ haben, dann ist GL_n(k)$ haben, dann ist
\[ \[
p(S·A·S^{-1}) = S·p(A)·S^{-1}. p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\] \]
\end{beobachtung} \end{beobachtung}
Der Satz von Cayley\footnote{Arthur Cayley (* 16.~August 1821 in Richmond upon
Thames, Surrey; † 26.~Januar 1895 in Cambridge) war ein englischer Mathematiker.
Er befasste sich mit sehr vielen Gebieten der Mathematik von der Analysis,
Algebra, Geometrie bis zur Astronomie und Mechanik, ist aber vor allem für seine
Rolle bei der Einführung des abstrakten Gruppenkonzepts
bekannt.}-Hamilton\footnote{Sir William Rowan Hamilton (* 4.~August 1805 in
Dublin; † 2.~September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker
und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine
Einführung und Untersuchung der Quaternionen bekannt ist.} sagt, dass jeder
Endomorphismus Nullstelle seines eigenen charakteristischen Polynoms ist. Wie
cool ist das?
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton} \begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
Polynom des Endomorphismus $f$. Dann ist Polynom des Endomorphismus $f$. Dann ist
@ -96,10 +106,11 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen. Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
\end{bemerkung} \end{bemerkung}
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}] \begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
\video{6-1} \video{6-1}
\end{proof} \end{proof}
@ -111,19 +122,19 @@ Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten. das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7} \begin{beobachtung}\label{beob:4-0-7}%
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder $p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder ein
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist. 1 ist.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8} \begin{beobachtung}\label{beob:4-0-8}%
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
$q := p_1-p_2$. Dann gilt Folgendes. := p_1-p_2$. Dann gilt Folgendes.
\begin{itemize} \begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom. \item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$. \item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
@ -151,7 +162,7 @@ Diese Beobachtungen legen folgende Definition nahe.
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
dies Minimalpolynome eindeutig bestimmt ist. das Minimalpolynom eindeutig bestimmt ist.
\end{bemerkung} \end{bemerkung}
\begin{bsp} \begin{bsp}
@ -162,7 +173,7 @@ Diese Beobachtungen legen folgende Definition nahe.
5 & 1 & 0 \\ 5 & 1 & 0 \\
0 & 5 & 0 \\ 0 & 5 & 0 \\
0 & 0 & 5 0 & 0 & 5
\end{pmatrix} \end{pmatrix}.
\] \]
Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
@ -172,7 +183,7 @@ Diese Beobachtungen legen folgende Definition nahe.
25 & 10 & 0 \\ 25 & 10 & 0 \\
0 & 25 & 0 \\ 0 & 25 & 0 \\
0 & 0 & 25 0 & 0 & 25
\end{pmatrix} \end{pmatrix}.
\] \]
Also ist $-10·A+25·\Id_{33} = 0$. Also ist Also ist $-10·A+25·\Id_{33} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle $p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
@ -186,17 +197,17 @@ Diese Beobachtungen legen folgende Definition nahe.
\end{bsp} \end{bsp}
\begin{beobachtung} \begin{beobachtung}
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe
Minimalpolynom. Minimalpolynom.
\end{beobachtung} \end{beobachtung}
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms. Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle] \begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$ In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist. ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
@ -207,9 +218,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$ \item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind. als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate} \end{enumerate}
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
normiert ist und $f$ als Nullstelle hat. Also hat und $f$ als Nullstelle hat. Also hat
\[ \[
r(t) = q(t) - t^d·p(t) r(t) = q(t) - t^d·p(t)
\] \]
@ -220,8 +231,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\end{proof} \end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms] \begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und Es sei $k$ ein Körper, $A$ eine $(nn)$-Matrix mit Werten in $k$ und $λ ∈ k$.
$λ ∈ k$. TFAE: TFAE:
\begin{enumerate} \begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$. \item Das Skalar $λ$ ist ein Eigenwert von $A$.

View File

@ -7,12 +7,12 @@
\section{Die Euklidische Norm und der Euklidische Abstand} \section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end} \label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume \sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann
dann beliebige Vektorräume. beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$] \begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -49,17 +49,16 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen} \section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren. beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn} \begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen \emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
oder \emph{metrikerhaltend bezüglich der Euklidischen \emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm}, Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
falls gilt:
\[ \[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x}, d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n. \vec{y}^n.
@ -87,8 +86,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen. Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen] \begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich
bezüglich der Euklidischen Norm. Dann gilt Folgendes. der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv. \item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
@ -102,20 +101,20 @@ Abbildungen.
\end{enumerate} \end{enumerate}
\end{lem} \end{lem}
\begin{proof} \begin{proof}
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}: Wir beweisen die Teilaussage $φ$ ist injektiv“ von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist φ(\vec{v}_2)$. Dann ist
\[ \[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0. d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\] \]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$ Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage $φ$
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und ist surjektiv beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe. \ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof} \end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5} \begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor} \end{kor}
@ -131,20 +130,20 @@ enorm.
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung Abbildung
\[ \[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} . ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
\] \]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$. wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung} \end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''. Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf} \begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$ Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des bezüglich des Euklidischen Abstands}\index{Transformation des $^n$!orthogonal
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
abstandserhaltende Abbildung $ψ: ^n ˝→ ^n$ mit $ψ(\vec{0}) = \vec{0}$. ^n → ^n$ mit $ψ(\vec{0}) = \vec{0}$.
\end{defn} \end{defn}
@ -153,19 +152,19 @@ Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
Transformation eine Gruppe bilden. Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3} \begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
Es sei $n ∈ $ eine Zahl. Die orthogonalen Transformationen bilden mit der Es sei $n ∈ $ eine Zahl. Die orthogonalen Transformationen bilden mit der
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
$\Bij(^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $^n$ $\Bij(^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $^n$
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$ bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$ bezüglich
bezüglich der Euklidischen Norm}. der Euklidischen Norm}.
\end{defn} \end{defn}
\section{Das Standard-Skalarprodukt auf dem $^n$} \section{Das Standardskalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$. Hilfsmittel dabei ist das Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$] \begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -192,35 +191,35 @@ Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
\end{defn} \end{defn}
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst? Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts] \begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt folgendes: Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes.
\begin{description} \begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und \item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt $\vec{z}^n$ und alle $λ ∈ $ gilt
\[ \[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z} \langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle \rangle + λ·\langle \vec{y}, \vec{z} \rangle.
\] \]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und \item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt $\vec{z}^n$ und alle $λ ∈ $ gilt
\[ \[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y} \langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle \rangle + λ·\langle \vec{x}, \vec{z} \rangle.
\] \]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt \item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x},
$\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt \vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
$\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$. \vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt \item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$. $\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$ \item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt und $\vec{y}^n$ gilt
\[ \[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y} \| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
@ -233,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
scheint. scheint.
\begin{defn}[Orthogonale Vektoren] \begin{defn}[Orthogonale Vektoren]
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y}
$\vec{y}^n$ \emph{zueinander orthogonal}, falls ^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von 0$ ist\index{orthogonal!Paar von Vektoren}.
Vektoren}.
\end{defn} \end{defn}
\begin{defn}[Orthonormalbasis] \begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
Freunden: ONB), falls für alle $i, j$ gilt, dass ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
Kronecker-Delta bezeichnet.
\end{defn} \end{defn}
\begin{bsp} \begin{bsp}
@ -252,12 +249,12 @@ scheint.
Standardskalarprodukts. Standardskalarprodukts.
\end{bsp} \end{bsp}
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral. Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho} \begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$ Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
$\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann: sei $\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
\[ \[
\vec{x} = \sum_{i=1}^n λ_\vec{v}_i . \vec{x} = \sum_{i=1}^n λ_\vec{v}_i .
\] \]
@ -280,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun? Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
Eine Menge, wie wir sofort sehen werden. Eine Menge, wie wir sofort sehen werden.
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7} \begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y}^n$ die Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y}^n$ die
Gleichung Gleichung
@ -296,12 +293,12 @@ Eine Menge, wie wir sofort sehen werden.
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\ &= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\ &= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\ &= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras} &= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
\end{align*} \end{align*}
Damit ist das Lemma bewiesen. Damit ist das Lemma bewiesen.
\end{proof} \end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8} \begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
@ -315,11 +312,11 @@ Eine Menge, wie wir sofort sehen werden.
\section{Beschreibung der orthogonalen Transformationen} \section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5} \label{sec:5-5}
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
Abbildungen) vollständig beschreiben. vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1} \begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear. Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
\end{satz} \end{satz}
@ -337,7 +334,7 @@ Abbildungen) vollständig beschreiben.
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\ η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\ &= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\ &= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\ &= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\ &= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\ &= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}). &= η_j(\vec{x}) + λ·η_j(\vec{y}).
@ -345,7 +342,7 @@ Abbildungen) vollständig beschreiben.
Damit ist die Linearität gezeigt. \qed Damit ist die Linearität gezeigt. \qed
\end{proof} \end{proof}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2} \begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
Es sei $φ: ^n → ^n$ eine lineare Abbildung, die bezüglich der Standardbasis Es sei $φ: ^n → ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
des $^n$ durch die Matrix $Q$ dargestellt wird. TFAE: des $^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
\begin{enumerate} \begin{enumerate}
@ -374,8 +371,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}. \emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn} \end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit orthogonale
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3} Gruppe zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form. überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -8,26 +8,26 @@
\section{Bilinearformen und Skalarprodukte} \section{Bilinearformen und Skalarprodukte}
\label{sec:skalar} \label{sec:skalar}
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es \sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen (und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
und zu diskutieren. Hier kommen alle relevanten Definitionen. diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1} \begin{defn}[Bilinearformen]\label{def:6-1-1}%
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: VV → k$
$b: V V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt. \emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description} \begin{description}
\item[Linearität in der ersten Komponente] Für alle \item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt ∈ V $ und für alle $λ ∈ k$ gilt
\[ \[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) + b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}). λ·b(\vec{y}, \vec{z}).
\] \]
\item[Linearität in der zweiten Komponente] Für alle \item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[ \[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) + b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) . λ·b(\vec{x}, \vec{z}) .
@ -35,47 +35,45 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{description} \end{description}
\end{defn} \end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2} \begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum. Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba} \begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $nn$-Matrix $B$.
$n n$-Matrix $B$. Dann ist die Abbildung Dann ist die Abbildung
\[ \[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦ b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w} \vec{v}^{\:t}·B·\vec{w}
\] \]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bin nicht
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder $^t•$ geschrieben habe.
$^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser Beim Tippen schaut $^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind, $\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1
mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$ 1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1
ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren 1$-Matrizen mit den Skalaren identifizieren.
identifizieren.
\end{bsp} \end{bsp}
\begin{defn}[Symmetrische Bilinearform] \begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : VV → k$
$b : V V → k$ heißt heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$, $\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$ \vec{x})$ gilt.
gilt.
\end{defn} \end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4} \begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen Ganz wie in Beobachtung~\ref{bem:6-1-2} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen. Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA} \begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$ Wenn eine $nn$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[ \[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} = \Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}. \vec{w}^{\:t}·B^\vec{v}.
@ -86,21 +84,22 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}. \emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp} \end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5} \begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung semidefinit}, falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x},
$b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$. \vec{0}$.
\end{defn} \end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$] \begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = $
$k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll. anderen Körpern (etwa $k = $) ist gar nicht klar, was die Aussage
$b(\vec{x}, \vec{x})0$“ bedeuten soll.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum] \begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
@ -124,10 +123,10 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{pmatrix}, \quad \end{pmatrix}, \quad
\begin{pmatrix} \begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2 π & -e \\ \frac{-256}{257} & 2
\end{pmatrix} \end{pmatrix}.
\] \]
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'', Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
``positiv semidefinit'', ``positiv definit'' und … ? semidefinit“, „positiv definit“ und … ?
\end{bsp} \end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum] \begin{defn}[Skalarprodukt auf reellem Vektorraum]
@ -138,17 +137,17 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{bsp}[Standardskalarprodukt, Einschränkung] \begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist ⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W W}$ wieder
$\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt. ein Skalarprodukt.
\end{bsp} \end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration} \begin{bsp}[Integration]\label{bsp:Integration}%
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
\[ \[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt. \langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
\] \]
ist ein Skalarprodukt. ist ein Skalarprodukt.
\end{bsp} \end{bsp}
@ -156,44 +155,44 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\subsection{Beschreibung von Bilinearformen durch Matrizen} \subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen. Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung Lineare
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen Algebra I jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: ``Ja!'' wir das mit Bilinearformen? Kurz gesagt: „Ja!“
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
beschreiben. Das gibt es im Leben öfter. Das gibt es im Leben öfter.
\begin{quote} \begin{quote}
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch „Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren'' beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}). \href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote} \end{quote}
Wir betrachten die folgende Situation. Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1} \begin{situation}\label{sit:6-3-1}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$. Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation} \end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2} \begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$ In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : VV → k$ gegeben.
gegeben. Dann betrachte die $nn$-Matrix Dann betrachte die $nn$-Matrix
\[ \[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n} \Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\] \]
\end{konstruktion} \end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3} \begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann
die Bilinearform betrachte die Bilinearform
\[ \[
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦ s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w}) φ_B(\vec{v})^t·A·φ_B(\vec{w})
@ -209,10 +208,10 @@ Wir betrachten die folgende Situation.
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"] \text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd} \end{tikzcd}
\] \]
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen. ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe} \end{aufgabe}
\begin{beobachtung} \begin{beobachtung}
@ -231,7 +230,7 @@ Wir betrachten die folgende Situation.
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform Bilinearform
\[ \[
b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt b : VV → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
\] \]
Dann ist Dann ist
\[ \[
@ -248,8 +247,8 @@ Wir betrachten die folgende Situation.
\subsection{Basiswechsel} \subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$, Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$? Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung} \begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
@ -268,8 +267,8 @@ $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen] \begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_
$M_{} := \Mat_{B_{}}(b)$. Dann ist := \Mat_{B_{}}(b)$. Dann ist
\[ \[
M_1 = S^t·M_2·S. M_1 = S^t·M_2·S.
\] \]
@ -282,25 +281,25 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern, Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$ Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss. nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte} \section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man \sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung: Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden Definition von „positiv definit“. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht. Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1} \begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb} \emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: VV → $, sodass Folgendes gilt. ist eine Abbildung $b: VV → $, sodass Folgendes gilt.
\begin{description} \begin{description}
@ -324,18 +323,18 @@ Definitionen gibt der Sache aber recht.
$x+i·y ↦ x - i·y$. $x+i·y ↦ x - i·y$.
\end{defn} \end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2} \begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum. Menge der Sesquilinearformen einen reellen Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC} \begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige $nn$-Matrix $B$.
$n n$-Matrix $B$. Dann ist die Abbildung Dann ist die Abbildung
\[ \[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦ b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}} \vec{v}^{\:t}·B·\overline{\vec{w}}
@ -360,24 +359,24 @@ Definitionen gibt der Sache aber recht.
\end{bsp} \end{bsp}
\begin{defn}[Hermitesche Sesquilinearform] \begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : VV →
$b : V V → $ heißt $ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles \emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$, Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt. \overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn} \end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs} \begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss. imaginäre Anteil verschwinden muss.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4} \begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
@ -386,12 +385,12 @@ Definitionen gibt der Sache aber recht.
Vektorraumes der Sesquilinearformen bildet. Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5} \begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
\emph{kein} komplexer Vektorraum. komplexer Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen] \begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
@ -405,18 +404,18 @@ Definitionen gibt der Sache aber recht.
tun? tun?
\end{bsp} \end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5} \begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die semidefinit}\index{positiv semidefinit}, falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$. \vec{0}$.
\end{defn} \end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8} \begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
Es sei $V$ ein komplexer Vektorraum. Ein Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform. positiv definite, Hermitesche Sesquilinearform.
@ -455,7 +454,7 @@ Definitionen gibt der Sache aber recht.
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[ \[
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 \langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt. f(t)·\overline{g(t)} dt
\] \]
ist ein Skalarprodukt. ist ein Skalarprodukt.
\end{bsp} \end{bsp}
@ -488,8 +487,8 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an. gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen] \begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis $B
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$. bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize} \begin{itemize}
\item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die \item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die
@ -514,7 +513,7 @@ $$-Vektorräumen erhalten,
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"] \text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd} \end{tikzcd}
\] \]
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren. welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz. Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen] \begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]

View File

@ -5,40 +5,39 @@
\label{sec:7} \label{sec:7}
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das \sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
Standardskalarprodukt auf dem $^n$ kennen gelernt. Im Standardskalarprodukt auf dem $^n$ kennengelernt. Im Kapitel~\ref{sec:bskalar}
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige haben wir diesen Begriff auf beliebige (endlich-dimensionale) reelle und
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In komplexe Vektorräume verallgemeinert. In diesem Kapitel möchte ich Vektorräume
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren, mit Skalarprodukt systematisch diskutieren, und Begriffe wie „Norm“, „Abstand“,
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die „Metrik“ und „Orthogonalität“, die wir zuerst am Beispiel des $^n$
wir zuerst am Beispiel des $^n$ kennen gelernt haben, jetzt in größerer kennengelernt haben, jetzt in größerer Allgemeinheit systematisch einführen.
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge Zuerst einmal kommen jede Menge Definitionen und eine langweilige Rechnung,
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein deshalb auch im Moment kein Erklärvideo.
Erklärvideo.
\begin{defn}[Euklidische und unitäre Vektorräume] \begin{defn}[Euklidische und unitäre Vektorräume]
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
symmetrischer Bilinearform) heißt \emph{Euklidischer symmetrischer Bilinearform) heißt \emph{Euklidischer
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum zusammen
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher mit einem Skalarprodukt (=positiv definiter Hermitescher Sequilinearform)
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}. heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
\end{defn} \end{defn}
\section{Normen auf Vektorräumen} \section{Normen auf Vektorräumen}
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für beliebige
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen. reelle oder komplexe Vektorräume, und für beliebige Mengen.
\begin{erinnerung}[Betrag einer komplexen Zahl] \begin{erinnerung}[Betrag einer komplexen Zahl]
Gegeben eine komplexe Zahl $λ = a+b·i ∈ $, dann nennen wir die reelle Zahl Gegeben eine komplexe Zahl $λ = a+b·i ∈ $, dann nennen wir die reelle Zahl
$\sqrt{+} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer $\sqrt{+} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen Zahl}
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen Zahl}.
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$. Man schreibt auch $\|λ\|$ oder $|λ|$.
\end{erinnerung} \end{erinnerung}
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm} \begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}%
Es sei $k = $ oder $k = $ oder $k = $ und es sei $V$ ein $k$-Vektorraum. Es sei $k = $ oder $k = $ oder $k = $ und es sei $V$ ein $k$-Vektorraum.
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, sodass Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, sodass
folgende Eigenschaften gelten. folgende Eigenschaften gelten.
@ -55,15 +54,15 @@ beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
\end{defn} \end{defn}
\begin{notation}[Normierte Vektorräume] \begin{notation}[Normierte Vektorräume]
\index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $. \index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $. Ein
Ein normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein $k$-Vektorraum $V$
$k$-Vektorraum $V$ zusammen mit einer Norm $\|\|$. zusammen mit einer Norm $\|\|$.
\end{notation} \end{notation}
\begin{notation}[Normierte Vektorräume] \begin{notation}[Normierte Vektorräume]
\index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es \index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es sei
sei $\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\vec{v}
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist. V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
\end{notation} \end{notation}
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
@ -79,27 +78,17 @@ unmittelbar aus der Definition folgen.
Also ist $\| \vec{x} \|0$ für alle $\vec{x} ∈ V$. Also ist $\| \vec{x} \|0$ für alle $\vec{x} ∈ V$.
\end{bemerkung} \end{bemerkung}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Skalarprodukten kommen} \subsection{Beispiele: Normen, die von Skalarprodukten kommen}
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes Als Erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennengelernt haben, Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennengelernt haben,
sofort Beispiele für Normen. sofort Beispiele für Normen.
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin} \begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}%
Wenn $\bigl( V, \langle\rangle\bigr)$ irgendein Euklidischer oder Wenn $\bigl( V, \langle•,•\rangle\bigr)$ irgendein Euklidischer oder unitärer
unitärer Vektorraum ist, dann definiert die Abbildung Vektorraum ist, dann definiert die Abbildung
\[ \[
\|\| : V → , \quad \vec{x}\sqrt{\langle \vec{x}, \vec{x} \rangle} \|\| : V → , \quad \vec{x}\sqrt{\langle \vec{x}, \vec{x} \rangle}
\] \]
@ -107,29 +96,33 @@ sofort Beispiele für Normen.
\end{satz} \end{satz}
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung, ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen. „Cauchy\footnote{\href{https://de.wikipedia.org/wiki/Augustin-Louis_Cauchy}{Baron
Augustin-Louis Cauchy} (* 21.~August 1789 in Paris; † 23.~Mai 1857 in Sceaux)
war ein französischer
Mathematiker.}-Schwarzsche\footnote{\href{https://de.wikipedia.org/wiki/Hermann_Amandus_Schwarz}{Karl
Hermann Amandus Schwarz} (* 25.~Januar 1843 in Hermsdorf, Provinz Schlesien; †
30.~November 1921 in Berlin) war ein deutscher Mathematiker. } Ungleichung“, die
sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
\begin{satz}[Cauchy-Schwarzsche Ungleichung] \begin{satz}[Cauchy-Schwarzsche Ungleichung]
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} ∈ V$
∈ V$
\[ \[
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x}, |\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} . \vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
\] \]
\end{satz} \end{satz}
\begin{proof}[Beweis durch unangenehme Rechnerei] \begin{proof}[Beweis durch unangenehme Rechnerei]
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für $\vec{y}
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y}0$. Dann ist = \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist wegen
wegen positiver Definitheit der Hermiteschen Form positiver Definitheit der Hermiteschen Form
\begin{align*} \begin{align*}
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\ 0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\ &= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle. &= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
\end{align*} \end{align*}
Jetzt betrachte den Spezialfall wo Jetzt betrachte den Spezialfall wo $λ= \frac{\overline{\langle \vec{y},
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}$ ist. Dann ergibt sich
\vec{y} \rangle}$ ist. Dann ergibt sich
\begin{align*} \begin{align*}
&& 0 &\langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\ && 0 &\langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
&& 0 &\langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle\\ && 0 &\langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle\\
@ -140,10 +133,10 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
\end{proof} \end{proof}
\begin{proof}[Beweis von Satz~\ref{satz:sin}] \begin{proof}[Beweis von Satz~\ref{satz:sin}]
Um zu zeigen, dass die Abbildung $\|\| : V → $ aus Um zu zeigen, dass die Abbildung $\|\| : V → $ aus Satz~\ref{satz:sin}
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei tatsächlich eine Norm ist, müssen wir die drei Eigenschaften „absolute
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive Homogenität“, „Dreiecksungleichung“ und „positive Definitheit“ zeigen. Auf
Definitheit'' zeigen. Auf geht's. geht's.
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein \bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
Vektor und es sei $λ$ irgendein Skalar. Dann ist Vektor und es sei $λ$ irgendein Skalar. Dann ist
@ -156,7 +149,7 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
Damit ist die absolute Homogenität gezeigt. Damit ist die absolute Homogenität gezeigt.
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$ \bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung beliebige Vektoren. Dann folgt mithilfe der Cauchy-Schwarzschen Ungleichung
folgendes. folgendes.
\begin{align*} \begin{align*}
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\ \| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
@ -173,6 +166,16 @@ die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
Satz~\ref{satz:sin} bewiesen. Satz~\ref{satz:sin} bewiesen.
\end{proof} \end{proof}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Satz~\ref{satz:sin} gilt der Satz des Pythagoras: gegeben Vektoren $\vec{x}$
und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Normen kommen} \subsection{Beispiele: Normen, die von Normen kommen}
@ -181,9 +184,9 @@ die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
ein wenig Analysis voraussetzen). ein wenig Analysis voraussetzen).
\begin{bsp}[Operatornorm]\label{bsp:opNorm} \begin{bsp}[Operatornorm]\label{bsp:opNorm}%
Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$ Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$ zwei
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
Abbildung Abbildung
\[ \[
\|\|_{\operatorname{op}} : \Hom_{}(V,W) → , \quad % \|\|_{\operatorname{op}} : \Hom_{}(V,W) → , \quad %
@ -219,7 +222,7 @@ Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
Beispiele. Beispiele.
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm} \begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}%
Die Manhattan-Norm auf dem Vektorraum $^n$ ist gegeben als Die Manhattan-Norm auf dem Vektorraum $^n$ ist gegeben als
\[ \[
\|\|_1 : ^n → , \quad \|\|_1 : ^n → , \quad
@ -240,29 +243,29 @@ Beispiele.
\end{bsp} \end{bsp}
\begin{bsp}[Einschränkungen von Normen] \begin{bsp}[Einschränkungen von Normen]
Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ sei ein
sei ein Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma auf $W$.
auf $W$.
\end{bsp} \end{bsp}
\section{Metriken} \section{Metriken}
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit \sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der mithilfe einer Norm einen Begriff von „Abstand“ oder „Metrik“ definieren. Der
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu Begriff „Metrik“ ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen. tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
\begin{defn}[Metrik] \begin{defn}[Metrik]
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung $d:
$d: M M → $, so dass Folgendes gilt. M M → $, sodass Folgendes gilt.
\begin{description} \begin{description}
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$. \item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$ \item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) +
d(y,z)$
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$. Zusätzlich \item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$.
gilt: $d(x,y) = 0 ⇔ x = y$. Zusätzlich gilt: $d(x,y) = 0 ⇔ x = y$.
\end{description} \end{description}
\end{defn} \end{defn}

View File

@ -3,20 +3,18 @@
\chapter{Orthogonale Projektion} \chapter{Orthogonale Projektion}
In diesem Kapitel sei $\bigl( V, \langle\rangle\bigr)$ stets ein In diesem Kapitel sei $\bigl( V, \langle•,•\rangle\bigr)$ stets ein euklidischer
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht, oder unitärer Vektorraum. Wenn keine Verwechslungsgefahr besteht, werden wir
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$ die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$ bezeichnen.
bezeichnen.
\section{Orthogonalität und Orthonormalität} \section{Orthogonalität und Orthonormalität}
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also Der zentrale Begriff in diesem Kapitel ist „orthogonal“, also „steht senkrecht
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
Skalarproduktes.
\begin{defn}[Orthogonal]\label{def:orth} \begin{defn}[Orthogonal]\label{def:orth}%
Es sei $\bigl( V, \langle\rangle\bigr)$ ein Euklidischer oder unitärer Es sei $\bigl( V, \langle,•\rangle\bigr)$ ein Euklidischer oder unitärer
Vektorraum. Vektorraum.
\begin{enumerate} \begin{enumerate}
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt, \item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
@ -27,12 +25,12 @@ Skalarproduktes.
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$ \item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für \emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung $\langle \vec{u},
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt. \vec{w} \rangle = 0$ gilt.
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann \item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann definieren
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales wir das \emph{orthogonale Komplement von $U$}\index{orthogonales Komplement}
Komplement} als als
\[ \[
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle } U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
\vec{u} ∈ U \}. \vec{u} ∈ U \}.
@ -45,10 +43,10 @@ Skalarproduktes.
\langle \vec{v}_i, \vec{v}_j \rangle = 0. \langle \vec{v}_i, \vec{v}_j \rangle = 0.
\] \]
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung $\|
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt \vec{v}_i \| = 1$ gilt. Falls eine orthonormale Familie zusätzlich eine
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie Basis ist, dann nenne die Familie
zusätzlich eine Basis ist. \emph{Orthonormalbasis}\index{Orthonormalbasis} und schreibe kurz: „ONB“.
\end{enumerate} \end{enumerate}
\end{defn} \end{defn}
@ -60,15 +58,15 @@ Skalarproduktes.
\begin{beobachtung} \begin{beobachtung}
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$ folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn $\vec{v} \perp
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$. \vec{u}_i$ ist für alle Indizes $i ∈ I$.
\end{beobachtung} \end{beobachtung}
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4} \begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}%
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen Wir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen Begriff von „orthogonalen Unterraum“. Die Situation war die, dass es einen
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser $k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser Situation
Situation war der ``orthogonale Unterraum'' der Raum war der „orthogonale Unterraum“ der Raum
\[ \[
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}. W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
\] \]
@ -78,11 +76,10 @@ Skalarproduktes.
\begin{bsp}[Der Standardraum $^n$] \begin{bsp}[Der Standardraum $^n$]
Betrachten den Vektorraum $^n$ mit dem Standardskalarprodukt. Dann ist die Betrachten den Vektorraum $^n$ mit dem Standardskalarprodukt. Dann ist die
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume Standardbasis eine Orthonormalbasis. Die Untervektorräume $\langle \vec{e}_1,
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und \vec{e}_2 \rangle$ und $\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal.
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale Das orthogonale Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist \rangle$ ist $\langle \vec{e}_3, …, \vec{e}_n \rangle$.
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
\end{bsp} \end{bsp}
@ -92,7 +89,7 @@ Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral. kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\begin{bsp}[Rezept, um Vektoren orthogonal machen] \begin{bsp}[Rezept, um Vektoren orthogonal machen]
Es sei $\bigl( V, \langle\rangle\bigr)$ ein euklidischer oder unitärer Es sei $\bigl( V, \langle,•\rangle\bigr)$ ein euklidischer oder unitärer
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
$\vec{v}_1 \ne \vec{0}$. Setze $\vec{v}_1 \ne \vec{0}$. Setze
\[ \[
@ -100,19 +97,18 @@ kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1. \rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
\] \]
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1,
$\{\vec{v}_1, \vec{v}\,'_2\}$. \vec{v}\,'_2\}$.
\end{bsp} \end{bsp}
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und Wir bauen das „Rezept, um Vektoren orthogonal machen“ ein wenig aus und erhalten
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''. einen „Basisergänzungssatz für Orthonormalbasen“.
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2} \begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}%
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis $\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ $\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ ergänzen.
ergänzen.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{11-1} \video{11-1}
@ -126,38 +122,35 @@ erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
\begin{beobachtung}[Gram-Schmidt Verfahren] \begin{beobachtung}[Gram-Schmidt Verfahren]
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
ein effektives, induktives Verfahren um aus einer gegebenen Basis ein effektives, induktives Verfahren um aus einer gegebenen Basis $\{
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB $\{ \vec{u}_1, …, \vec{u}_n \}$
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so: zu konstruieren. Man startet so:
\begin{itemize} \begin{itemize}
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$. \item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
\item Definiere. \item Definiere. $\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle· \rangle· \vec{u}_1$.
\vec{u}_1$.
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$. \item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
\end{itemize} \end{itemize}
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
folgt vor: folgt vor:
\begin{itemize} \begin{itemize}
\item Definiere. \item Definiere. $\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1}, \vec{v}_{k+1}, \vec{u}_j \rangle·\vec{u}_j$.
\vec{u}_j \rangle·\vec{u}_j$.
\item Normiere. \item Normiere.
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$. $\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
\end{itemize} \end{itemize}
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für alle
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen $\langle \vec{u}_1,
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …, …, \vec{u}_i \rangle = \langle \vec{v}_1, …, \vec{v}_i \rangle$.
\vec{v}_i \rangle$.
\end{beobachtung} \end{beobachtung}
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5} \begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}%
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum. Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor $\vec{v}
$\vec{v} ∈ V$ eindeutig schreiben als ∈ V$ eindeutig schreiben als
\[ \[
\vec{v} = p(\vec{v}) + r(\vec{v}), \vec{v} = p(\vec{v}) + r(\vec{v}),
\] \]
@ -169,24 +162,24 @@ erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als orthogonale
Projektion'' bezeichnen. Projektion bezeichnen.
\begin{beobachtung}[Orthogonale Projektion] \begin{beobachtung}[Orthogonale Projektion]
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
\[ \[
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i.
\] \]
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist $\ker p =
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den Unterraum
Unterraum $U$}\index{orthogonale Projektion}. $U$}\index{orthogonale Projektion}.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum] \begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für $\vec{w}
$\vec{w} ∈ U$, $\vec{w}0$ gilt mit Pythagoras die folgende Ungleichung ∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
\begin{align*} \begin{align*}
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\ \| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
&\| p(\vec{v})-\vec{v} \|². &\| p(\vec{v})-\vec{v} \|².
@ -199,13 +192,13 @@ Projektion'' bezeichnen.
\subsection{Der Dualraum} \subsection{Der Dualraum}
\label{sec:dual} \label{sec:dual}
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare \sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung Lineare
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere: Algebra I“ ist der des „Dualraum“. Alle Studenten lieben das. Ich erinnere:
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$ wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen: genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass $V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu $V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und finden, wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$ betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
Abbildungen, die die Gleichungen Abbildungen, die die Gleichungen
@ -228,9 +221,9 @@ war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
$V^*$. $V^*$.
\begin{satz}\label{satz:8-3-1} \begin{satz}\label{satz:8-3-1}%
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung euklidischer Vektorraum. Dann ist die Abbildung
\[ \[
s: V → V^*, \quad \vec{v}\langle • ,\vec{v} \rangle s: V → V^*, \quad \vec{v}\langle • ,\vec{v} \rangle
\] \]
@ -244,20 +237,20 @@ $V^*$.
\end{proof} \end{proof}
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären. und dem „orthogonalen Komplement“ aus Definition~\ref{def:orth} zu klären. Der
Der folgende Satz löst dieses Versprechen ein. folgende Satz löst dieses Versprechen ein.
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3} \begin{satz}[Orthogonales Komplement und orthogonale
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein Unterräume]\label{satz:8-3-3} Es sei $\bigl(V, \langle •, • \rangle \bigr)$
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein ein endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
Satz~\ref{satz:8-3-1}. Dann gilt folgendes. Satz~\ref{satz:8-3-1}. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die \item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen den
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist $\dim U^\perp = \dim
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$). U⁰$ (…nämlich gleich $\dim V - \dim U$).
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte \item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
Summe $V = U ⊕ U^\perp$. Summe $V = U ⊕ U^\perp$.
@ -267,19 +260,19 @@ Der folgende Satz löst dieses Versprechen ein.
\video{12-3} \video{12-3}
\end{proof} \end{proof}
\begin{kor}\label{kro:8-3-3} \begin{kor}\label{kro:8-3-3}%
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit $\bigl( U^\perp
$\bigl( U^\perp \bigr)^\perp = U$. \bigr)^\perp = U$.
\end{kor} \end{kor}
\begin{proof} \begin{proof}
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der Gleichheit folgt mithilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage$\vec{u}\bigl(
``$\vec{u}\bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent U^\perp \bigr)^\perp$“ ist dann per Definition äquivalent dazu, ist zu zeigen,
dazu, ist zu zeigen, dass gilt: dass gilt:
\[ \[
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp.
\] \]
Das ist aber klar nach Definition von $U^\perp$. Das ist aber klar nach Definition von $U^\perp$.
\end{proof} \end{proof}
@ -293,15 +286,14 @@ Der folgende Satz löst dieses Versprechen ein.
\subsubsection{Unitäre Vektorräume} \subsubsection{Unitäre Vektorräume}
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
den Fall von unitären Vektorräumen. Falls den Fall von unitären Vektorräumen. Falls $\bigl(V, \langle •, • \rangle
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler \bigr)$ ein endlich-dimensionaler unitärer Vektorraum ist, dann ist die
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und Abbildung $s$ bijektiv und \emph{semi-linear}\index{semi-lineare Abbildung}.
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet Dabei bedeutet „semi-linear“, dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle und alle Skalare $λ ∈ $ die Gleichungen
Skalare $λ ∈ $ die Gleichungen
\[ \[
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}). f(λ·\vec{x}) = \overline{λ}·f(\vec{x})
\] \]
gelten. gelten.
@ -326,17 +318,16 @@ gelten.
\subsection{Quotientenräume} \subsection{Quotientenräume}
Wir hatten in letzten Abschnitt das orthogonale Komplement eines Wir hatten in letzten Abschnitt das orthogonale Komplement eines
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ identifiziert,
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es der uns aus der Vorlesung „Lineare Algebra I“ vertraut war. Es gibt noch eine
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit andere kanonische Identifikation des orthogonalen Komplements mit einem
einem bekannten Vektorraum. bekannten Vektorraum.
\begin{satz}\label{satz:8-3-6} \begin{satz}\label{satz:8-3-6}%
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein euklidischer Vektorraum und es sei $U ⊂ V$ ein Untervektorraum. Dann gibt es
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem einen kanonischen Isomorphismus zwischen dem Vektorraumquotienten
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement $\factor{V}{U}$ und dem orthogonalen Komplement $U^\perp$.
$U^\perp$.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{12-4} \video{12-4}
@ -355,34 +346,33 @@ einem bekannten Vektorraum.
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die wir „selbstadjungierte Abbildungen“ diskutieren. Zuallererst legen wir die
Situation fest, die wir in diesem Abschnitt genau betrachten. Situation fest, die wir in diesem Abschnitt genau betrachten.
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1} \begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}%
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und $\bigl(W, \langle •, •
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional \rangle_W \bigr)$ zwei endlich-dimensional euklidische Vektorräume. Die
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren kanonischen Identifikationen der Räume mit ihren Dualräumen bezeichnen wir mit
Dualräumen bezeichnen wir mit
\[ \[
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*. s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
\] \]
\end{situation} \end{situation}
\begin{erinnerung} \begin{erinnerung}
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung Lineare
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich
\[ \[
f^* : W^* → V^*, \quad φ ↦ φ◦f. f^* : W^* → V^*, \quad φ ↦ φ◦f.
\] \]
\end{erinnerung} \end{erinnerung}
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3} \begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}%
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben. In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Betrachte das folgende Diagramm: Betrachte das folgende Diagramm:
\begin{equation}\label{eq:8-5-3-1} \begin{equation}\label{eq:8-5-3-1}
\begin{tikzcd}[column sep=3cm] \begin{tikzcd}[column sep=3cm]
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\ V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"] V^* & W^*. \arrow[l, "f^*\text{, Rückzugsabbildung}"]
\end{tikzcd} \end{tikzcd}
\end{equation} \end{equation}
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
@ -390,26 +380,26 @@ Situation fest, die wir in diesem Abschnitt genau betrachten.
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab. Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und $f^*◦ s_W ◦
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen, f$ besteht. Wir interessieren uns aber für Bedingungen, die Gleichheit der
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen $s_V$
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle und $f^*◦ s_W ◦ f$ gleich sind, falls für alle $\vec{v} ∈ V$ die folgende
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt, Gleichheit von Elementen im Dualraum $V^*$ gilt,
\begin{equation}\label{eq:8-5-3-2} \begin{equation}\label{eq:8-5-3-2}
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}) s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}).
\end{equation} \end{equation}
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$, Das lässt sich explizit hinschreiben, indem ich die Definitionen von $s_V$,
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und $s_W$ und $f^*$ einsetze. Dann erhalte ich: Die Abbildungen $s_V$ und $f^*
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die folgende Gleichheit von
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt, Elementen im Dualraum $V^*$ gilt,
\begin{align*} \begin{align*}
\langle •, \vec{v} \rangle_V % \langle •, \vec{v} \rangle_V %
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W % = f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W. = \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
\end{align*} \end{align*}
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und Das lässt sich noch einfacher formulieren: Die Abbildungen $s_V$ und $f^*◦ s_W
$f^*◦ s_W ◦ f$ sind gleich, falls für alle ◦ f$ sind gleich, falls für alle $\vec{v}_1, \vec{v}_2 ∈ V$ die folgende
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt, Gleichheit von Skalaren gilt,
\begin{align*} \begin{align*}
\langle \vec{v}_1, \vec{v}_2 \rangle_V % \langle \vec{v}_1, \vec{v}_2 \rangle_V %
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W. = \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
@ -431,9 +421,9 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
wird mit dem Symbol $f^{\ad}$ bezeichnet. wird mit dem Symbol $f^{\ad}$ bezeichnet.
\end{defn} \end{defn}
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5} \begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}%
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben. In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Dann gilt folgendes. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
\item Die Abbildung $f^{\ad} : W → V$ ist linear. \item Die Abbildung $f^{\ad} : W → V$ ist linear.
@ -449,7 +439,7 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
\sideremark{Vorlesung 13}\video{13-1} \sideremark{Vorlesung 13}\video{13-1}
\end{proof} \end{proof}
\begin{prop}\label{prop:8-4-6} \begin{prop}\label{prop:8-4-6}%
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$, gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
die Eigenschaft~\ref{il:8-5-4-2} erfüllt. die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
@ -473,7 +463,7 @@ Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
unitäre Vektorräume. unitäre Vektorräume.
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume] \begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie Finden Sie heraus, welche Aussagen genau gelten und schreiben Sie
schulbuchmäßige Beweise dieser Aussagen auf. schulbuchmäßige Beweise dieser Aussagen auf.
\end{aufgabe} \end{aufgabe}

View File

@ -5,44 +5,44 @@
\section{Orthogonale und unitäre Abbildungen} \section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen Transformationen des $^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg „orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
die folgende Situation. folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1} \begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Endomorphismus.
\end{situation} \end{situation}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2} \begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$ In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation} \emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
beziehungsweise beziehungsweise
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, \emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt: für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\[ \[
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w} \bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
\rangle. \rangle.
\] \]
\end{defn} \end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3} \begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$ Definition~\vref{defn-orthoTraf} (orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von bezüglich des Euklidischen Abstands) ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent! vorliegende Skript einigermaßen konsistent!
\end{beobachtung} \end{beobachtung}
\begin{bsp} \begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands'' orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$ Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt. eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp} \end{bsp}
@ -52,13 +52,13 @@ die folgende Situation.
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[ \[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|. \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
\] \]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt. zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe} \end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6} \begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes. unitär. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
@ -80,18 +80,18 @@ die folgende Situation.
\video{13-3} \video{13-3}
\end{proof} \end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7} \begin{rem}[Die Determinante]\label{rem:9-1-7}%
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung \ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
Frage. infrage.
\end{rem} \end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten] \begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär'' folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt: falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[ \[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}). \vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
@ -107,7 +107,7 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden. Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9} \begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
@ -125,21 +125,24 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen $^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so. beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1} \begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine In Situation~\ref{sit:9-1-1} sei
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu \[
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind. B := \{ \vec{v}_1, …, \vec{v}_n \}
\]
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
\begin{enumerate} \begin{enumerate}
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär. \item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung \item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n
$Q^t·Q = \Id_{n n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$. n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\end{enumerate} \end{enumerate}
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
wie immer für die komplex-konjugierte Matrix. wie immer für die komplex-konjugierte Matrix.
\end{aufgabe} \end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'', Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern. erweitern.
@ -148,12 +151,12 @@ erweitern.
\begin{enumerate} \begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt \item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
$A^{-1} = A^t$ gilt. A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt \item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung \emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
$A^{-1} = \overline{A^t}$ gilt. \overline{A^t}$ gilt.
\end{enumerate} \end{enumerate}
\end{defn} \end{defn}
@ -165,17 +168,16 @@ erweitern.
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\ \mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\ \mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\ \mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe} \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
\end{align*} \end{align*}
Der Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$} B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Gruppen handelt. Gruppen handelt.
\end{notation} \end{notation}
\begin{proposition}[Einfache Eigenschaften] \begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise $A ∈ \Mat(n
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent. n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate} \begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär. \item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
@ -196,9 +198,9 @@ erweitern.
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij} A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\] \]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber genau
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und \ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$. betrachte dann $A · A^t$.
\end{proof} \end{proof}
@ -247,7 +249,7 @@ die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist. sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7} \begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, sodass folgende Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, sodass folgende
Gleichung gilt. Gleichung gilt.
\[ \[
@ -274,15 +276,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\end{erkl} \end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind. sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9} \begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
folgende Blockgestalt hat Blockgestalt hat
\[ \[
\begin{pmatrix} \begin{pmatrix}
\Id_{a a} & \\ \Id_{a a} & \\
@ -292,9 +294,8 @@ sind.
& & & & A_k \\ & & & & A_k \\
\end{pmatrix} \end{pmatrix}
\] \]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{}$ jeweils
$\Id_{}$ jeweils jeweils Einheitsmatrizen der Einheitsmatrizen der entsprechenden Größe sind.
entsprechenden Größe sind.
\end{satz} \end{satz}
@ -306,11 +307,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht. einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4} \begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge einen komplexen Vektorraum $V^$ wie folgt: Wir betrachten die Menge $V^ :=
$V^{} := V V$ und definieren eine Addition durch komponentenweise V V$ und definieren eine Addition durch komponentenweise Addition
Addition
\[ \[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2) + : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\] \]
@ -318,7 +318,7 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\[ \[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}). · : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
\] \]
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als Rechnen Sie nach, dass dies tatsächlich ein $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines \emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen. Vektorraumes} bezeichnen.
\end{konstruktion} \end{konstruktion}
@ -326,8 +326,8 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{notation}[Konjugation und komplexifizierung von Vektoren] \begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher. wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum} komplexifiziertem Vektorraum}
\[ \[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr) \overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
@ -335,47 +335,45 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung} Vektorraum in seine Komplexifizierung}
\[ \[
ι : V → V^{}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr). ι : V → V^, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\] \]
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ Teilmenge von $V^$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$. schreiben $\vec{v}^{\:}$.
\end{notation} \end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6} \begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
In der Situation von Konstruktion~\ref{kons:9-4-4} sei In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen \vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis nach, dass die komplexifizierte Basis $B^ := \{ \vec{v}^{\:}_1, …,
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$ \vec{v}^{\:}_n \} ⊂ V^$ dann eine Basis von $V^$. Noch besser: wenn $f : V
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist, → V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung Abbildung $f^ : V^ → V^$, sodass für alle Indizes $i$ gilt:
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt: $f^(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass $f^$
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^$ die
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer \emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}. Abbildung}.
\end{konstruktion} \end{konstruktion}
\begin{beobachtung} \begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ = f^(\vec{v}^{\:})$ gilt.
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung} \begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten Gleichheiten
\[ \[
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad \Mat^B_B(f) = \Mat^{B^}_{B^{\:}}(f^) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t) χ_f(t) = χ_{f^}(t)
\] \]
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle gelten. Insbesondere ist $\Mat^{B^}_{B^{\:}}(f^)$ eine reelle Matrix und
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit $χ_{f^}$ ist ein reelles Polynom. Außerdem ist $f^$ mit der Konjugation
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^$ die
$\vec{v} ∈ V^{}$ die Gleichung Gleichung
\begin{equation}\label{eq:9-4-7-1} \begin{equation}\label{eq:9-4-7-1}
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}. f^\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^\bigl( \vec{v} \bigr)}.
\end{equation} \end{equation}
\end{beobachtung} \end{beobachtung}
@ -384,40 +382,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$ Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus $f|_U : U → U$ einen Isomorphismus von $U$ liefert.
von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10} \begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
$f(U) ⊆ U$ ist.
\end{lemma} \end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}] \begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr einfach.
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
Fall, dass $f$ keinen reellen Eigenwert hat. keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des charakteristischen
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell, Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende Rechnung zeigt, dass das
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
Nullstelle ist,
\[ \[
χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ} χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum \overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0. a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\] \]
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor Ich betrachte jetzt für den Endomorphismus $f^$ einen Eigenvektor $\vec{v} =
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$. (\vec{v}_1, \vec{v}_2) ∈ V^$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum -\vec{v}_2) ∈ V^$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$ Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $$-linear unabhängig,
ist dann $$-linear unabhängig, ebenso die Menge ebenso die Menge
\[ \[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} % \left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}. = \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
@ -425,8 +420,8 @@ von $U$ liefert.
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*} \begin{align*}
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\ f(\vec{v}_1) & = f^(\vec{v_1}) = f^ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\ & = \frac{1}{2}·\left( f^(\vec{v}) + f^(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2. & = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*} \end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von

View File

@ -5,36 +5,36 @@
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass \sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten'' vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen. Zusammenhang mit unendlich-dimensionalen Vektorräumen.
\begin{quote} \begin{quote}
Self-adjoint operators are used in functional analysis and quantum \foreignlanguage{english}{Self-adjoint operators are used in functional
mechanics. In quantum mechanics their importance lies in the Diracvon Neumann analysis and quantum mechanics. In quantum mechanics their importance lies in
formulation of quantum mechanics, in which physical observables such as the Diracvon Neumann formulation of quantum mechanics, in which physical
position, momentum, angular momentum and spin are represented by self-adjoint observables such as position, momentum, angular momentum and spin are
operators on a Hilbert space. Of particular significance is the Hamiltonian represented by self-adjoint operators on a Hilbert space. Of particular
operator $\what{H}$ defined by significance is the Hamiltonian operator $\what{H}$ defined by
\[ \[
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ \what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
\] \]
which as an observable corresponds to the total energy of a particle of mass which as an observable corresponds to the total energy of a particle of mass
$m$ in a real potential field $V$. $m$ in a real potential field $V$.}
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia -- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
(Self-adjoint operator)} (Self-adjoint operator)}
\end{quote} \end{quote}
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht. Bedingung $f = f^{\ad}$ in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an. Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1} \begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Nenne den Endomorphismus $f$ Endomorphismus. Nenne den Endomorphismus $f$
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert}, \emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\] \]
\end{defn} \end{defn}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2} \begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} · = \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
\overline{\vec{w}}. \overline{\vec{w}}.
\] \]
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
Hermitesche Matrix ist. Hermitesche Matrix ist.
\end{bsp} \end{bsp}
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{aufgabe} \begin{aufgabe}
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$. $Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$. Rechnen Sie
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
\[ \[
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = % \underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}} \underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
\] \]
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix $\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
ist. ist.
\end{aufgabe} \end{aufgabe}
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise. besonders einfacher Weise.
@ -107,7 +107,7 @@ besonders einfacher Weise.
Der folgende Satz ist in der Literatur auch als Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt. \emph{Spektralsatz}\index{Spektralsatz} bekannt.
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5} \begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind. damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
die Berechnung von $S^{-1}$ extrem einfach. macht die Berechnung von $S^{-1}$ extrem einfach.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen] \begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische oder
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
Diagonalmatrix ist. ist.
\end{kor} \end{kor}
\begin{proof} \begin{proof}
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was

View File

@ -4,21 +4,21 @@
\chapter{Hauptachsentransformation} \chapter{Hauptachsentransformation}
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das \sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist. Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist: Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den „fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
immer in besonders einfache Gestalt bringen! besonders einfache Gestalt bringen!
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1} \begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$ $\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
dass Folgendes gilt. Folgendes gilt.
\begin{enumerate} \begin{enumerate}
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal, \item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
\[ \[
@ -27,7 +27,7 @@ immer in besonders einfache Gestalt bringen!
λ_1 && 0\\ λ_1 && 0\\
&\ddots\\ &\ddots\\
0 && λ_n 0 && λ_n
\end{pmatrix} \end{pmatrix}.
\] \]
\item Die Koordinatenwechselmatrix \item Die Koordinatenwechselmatrix
@ -42,20 +42,20 @@ immer in besonders einfache Gestalt bringen!
\end{proof} \end{proof}
\begin{notation}[Hauptachsen und Hauptachsentransformation] \begin{notation}[Hauptachsen und Hauptachsentransformation]
In der Situation von Satz~\ref{satz:11-0-1} schreibe In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_$
Vektoren $\vec{v}_{}$ aufgespannten 1-dimensionalen Untervektorräume aufgespannten 1-dimensionalen Untervektorräume von $V$ die
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}. \emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
\end{notation} \end{notation}
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
ist. ist.
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3} \begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent. In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
\begin{enumerate} \begin{enumerate}
\item Die Form $s$ ist positiv definit. \item Die Form $s$ ist positiv definit.
@ -63,40 +63,44 @@ ist.
\end{enumerate} \end{enumerate}
\end{kor} \end{kor}
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
sind. sind.
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}] \begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$ bzw.
bzw. $^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ $^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
größer als Null sind. als Null sind.
\end{proof} \end{proof}
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft alle
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$ verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück. einmal auf diesen Punkt zurück.
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5} \begin{satz}[Trägheitssatz von
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter seien Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
Matrizen $A_{} = \Mat_{\mathcal{A}_{}}(s)$. Dann gilt folgendes. Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und es sei $s: V
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
\Mat_{\mathcal{A}_}(s)$. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich. \item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
@ -113,16 +117,16 @@ komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist. Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
\begin{defn}[Index und Signatur]\label{def:11-0-5} \begin{defn}[Index und Signatur]\label{def:11-0-5}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
einer Form} bezeichnet. Die Differenz bezeichnet. Die Differenz
\[ \[
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte} \text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
\] \]
wird die \emph{Signatur von $s$}\index{Signatur einer wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
Form} genannt. Der Untervektorraum Untervektorraum
\[ \[
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle } V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
\vec{w} ∈ V \} ⊆ V \vec{w} ∈ V \} ⊆ V
@ -164,7 +168,7 @@ Matrix positive definit ist.
\end{pmatrix} \end{pmatrix}
\Mat(m m, k). \Mat(m m, k).
\] \]
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$ Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
gilt, dass $\det A_m > 0$ ist. gilt, dass $\det A_m > 0$ ist.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
@ -182,11 +186,11 @@ Hurwitz-Kriteriums. Zum Beispiel
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie \emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist'' negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
das richtig machen? machen?
\end{bemerkung} \end{bemerkung}
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -4,20 +4,20 @@
\chapter{Anwendungen} \chapter{Anwendungen}
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen, \sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen weil Sie unbedingt eine symmetrische Matrix mithilfe eines orthogonalen
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen? Linearkombinationen mithilfe von Skalarprodukten auszurechnen?
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und Die Begriffe und Methoden des laufenden Kapitels über Euklidische und
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es Hermitesche Vektorräume haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können -- linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen eine unendliche Menge von hervorragenden Tutorials, Erklärvideos,
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich
Kapitel einige Anwendungen oberflächlich an reiße in diesem Kapitel einige Anwendungen oberflächlich an
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
@ -26,9 +26,9 @@ machen, können aber nicht sinnvoll geprüft werden.
\section{Reelle Quadriken} \section{Reelle Quadriken}
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt Die erste „Anwendung“ ist immer noch ziemlich theoretisch und stammt mindestens
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des aus der hellenistischen Antike, also etwa der Zeit Alexander des Großen.
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt, Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine \href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
große Rolle spielte}. Es geht um folgende Situation. große Rolle spielte}. Es geht um folgende Situation.
@ -50,14 +50,14 @@ Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir linearen Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
Translationen? Wir formulieren die Frage präziser und führen die folgende Translationen? Wir formulieren die Frage präziser und führen die folgende
Notation ein. Notation ein.
\begin{defn}[Affine Abbildung]\label{def:12-1-3} \begin{defn}[Affine Abbildung]\label{def:12-1-3}%
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung $Φ : V
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, sodass für alle Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, sodass für alle
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt. $\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
\end{defn} \end{defn}
@ -73,23 +73,23 @@ Damit können wir unsere Frage präzise formulieren.
\begin{frage} \begin{frage}
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$ unter der Abbildung $Φ : ^n → ^n$, sodass das Bild von $Q$ unter der Abbildung $Φ$
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es eine Quadrik von besonders einfacher Gestalt ist? Gibt es eine (kleine)
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch Mengen von „Grund-Quadriken“ aus denen alle anderen durch affine
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung, Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
Verschiebung, …) entstehen? Verschiebung, …) entstehen?
\end{frage} \end{frage}
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter Die Antwort ist natürlich „ja“, aber Sie haben ja zum Glück noch nicht weiter
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
und abstandserhaltende Abbildungen statt affiner Abbildungen. und abstandserhaltende Abbildungen statt affiner Abbildungen.
\subsection{Vereinfachung von Quadratischen Gleichungen} \subsection{Vereinfachung von quadratischen Gleichungen}
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von Wir bleiben in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
bijektiven, affinen Abbildungen finden, sodass die Gleichung (der Bilder von) bijektiven, affinen Abbildungen finden, sodass die Gleichung (der Bilder von)
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein $Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
Student wies mich auf Student wies mich auf
@ -127,13 +127,13 @@ Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
Wir wissen: es existiert eine orthogonale $nn$-Matrix $W$, sodass die Wir wissen: es existiert eine orthogonale $nn$-Matrix $W$, sodass die
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt für
für alle $\vec{x}^n$: alle $\vec{x}^n$:
\begin{align*} \begin{align*}
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\ \vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
& ⇔ f(W·\vec{x}) = 0 \\ & ⇔ f(W·\vec{x}) = 0 \\
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\ & ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
&\vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0 &\vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0.
\end{align*} \end{align*}
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist. Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
@ -169,8 +169,9 @@ gilt für alle $\vec{x} ∈ ^n$:
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\ \vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
&\sum_{i=1}^r &\sum_{i=1}^r
a^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} a^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
\right)² + 2 · \sum_{i=1}^r b^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\ \right)² + 2 · \sum_{i=1}^r b^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right)\\
&\sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0 & \qquad + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
&\sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0.
\end{align*} \end{align*}
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
\[ \[
@ -193,7 +194,7 @@ Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
Schritt nichts und setzen Schritt nichts und setzen
\[ \[
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)} Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}.
\] \]
Ansonsten können wir nach umnummerieren der Variable annehmen, dass Ansonsten können wir nach umnummerieren der Variable annehmen, dass
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion $b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
@ -213,15 +214,15 @@ gilt für alle $\vec{x} ∈ ^n$:
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\ \vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
&\sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\ &\sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\ & \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
&\sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0 &\sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0.
\end{align*} \end{align*}
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik, In jedem Fall gilt: Die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
gegeben durch ein Polynom gegeben durch ein Polynom
\[ \[
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)} f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)},
\] \]
wobei $b^{(3)}_{r+1}\{0,-2\}$ und $c^{(3)}\{0, -1\}$ ist. Weiterhin wobei $b^{(3)}_{r+1}\{0,-2\}$ und $c^{(3)}\{0, -1\}$ ist. Weiterhin gilt:
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$. $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
\subsubsection{Schritt 5: Skalierung} \subsubsection{Schritt 5: Skalierung}
@ -259,10 +260,10 @@ $b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
folgenden Satz bewiesen. folgenden Satz bewiesen.
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6} \begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}%
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive, In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$ affine Abbildung $Φ : ^n → ^n$, sodass das Bild von $Q$ Nullstellenmenge
Nullstellenmenge einer der folgenden Gleichungen ist einer der folgenden Gleichungen ist
\begin{enumerate} \begin{enumerate}
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_$ \item $x_1² + x_2² ++ x_- x_{r+1}² -- x_$
@ -286,12 +287,11 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{kor}[Klassifikation der Koniken des Appollonius von \begin{kor}[Klassifikation der Koniken des Appollonius von
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria) von Perge} (* ca.~265 v.~Chr.~in Perge; † ca.~190 v.~Chr.~in Alexandria) war
war ein antiker griechischer Mathematiker, bekannt für sein Buch über ein antiker griechischer Mathematiker, bekannt für sein Buch über
Kegelschnitte.}] Kegelschnitte.}] Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine gibt es eine bijektive, affine Abbildung $Φ : ^n → ^n$, sodass das Bild von
bijektive, affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$ $Q$ Nullstellenmenge einer der folgenden Gleichungen ist
Nullstellenmenge einer der folgenden Gleichungen ist
\begin{enumerate} \begin{enumerate}
\item $= 0:$ Doppelgerade \label{Q.1} \item $= 0:$ Doppelgerade \label{Q.1}
@ -444,10 +444,9 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{itemize} \begin{itemize}
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper \item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf?
eigentlich Koniken auf?
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass \item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
@ -460,7 +459,7 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
vereinfachende affine Transformation liefert. Stellen Sie die Transformation vereinfachende affine Transformation liefert. Stellen Sie die Transformation
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es grafisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
zu den Vereinfachungen kommt. zu den Vereinfachungen kommt.
@ -468,21 +467,21 @@ zu den Vereinfachungen kommt.
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die \sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in Baptiste Joseph Fourier} (* 21.~März 1768 bei Auxerre; † 16.~Mai 1830 in Paris)
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige war ein französischer Mathematiker und Physiker.} und nenne einige Anwendungen.
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das Die Fourier-Transformation ist für die Praxis vielleicht das wichtigste Stück
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche Mathematik überhaupt\footnote{Sie selbst verwenden solche Transformationen
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon ununterbrochen -- haben Sie schon einmal ein Mobiltelefon benutzt? Oder sind
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen Sie vielleicht in einem Auto gefahren? Oder haben Sie einen Klang gehört?}.
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften Manche Kollegen sprechen sogar von der „fünften Grundrechenart“. Ich komme im
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück. Abschnitt~\ref{ssec:Rechen} darauf zurück.
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die \href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
Fachhochschule Hamburg hat ebenfalls ein nettes Fachhochschule Hamburg hat ebenfalls ein nettes
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die \href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (Warum die
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch dahinter steht). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$$Link}). Wenn Sie ein (\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$$Link}). Wenn Sie ein
wenig im Internet suchen, finden Sie noch sehr viel mehr Material. wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
@ -495,9 +494,9 @@ betrachte den der Vektorraum $V = \cC⁰([-π,π], )$ der reellwertigen steti
Funktionen auf dem Intervall $[-π,π]$. Wir haben schon gesehen, dass die Funktionen auf dem Intervall $[-π,π]$. Wir haben schon gesehen, dass die
Abbildung Abbildung
\[ \[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{} f(t) · g(t) dt. \langle •, • \rangle : V V → , \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{} f(t) · g(t) dt
\] \]
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten ein Skalarprodukt ist. Rechnen Sie sofort mithilfe der bekannten
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$ Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
und $m$ aus $$ die folgenden Gleichungen gelten: und $m$ aus $$ die folgenden Gleichungen gelten:
\[ \[
@ -505,37 +504,37 @@ und $m$ aus $$ die folgenden Gleichungen gelten:
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad \bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0. \bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
\] \]
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2}}$ noch Folgendes: Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2\pi}}$ noch Folgendes:
\[ \[
\left\langle \frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} \right\rangle = 1, \quad \left\langle \frac{1}{\sqrt{2\pi}}, \frac{1}{\sqrt{2\pi}} \right\rangle = 1, \quad
\left\langle \cos(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0, \quad \left\langle \cos(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0, \quad
\left\langle \sin(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0. \left\langle \sin(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0.
\] \]
Insgesamt sehen wir, dass die Menge Insgesamt sehen wir, dass die Menge
\[ \[
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\} \mathcal{F} := \left\{ \frac{1}{\sqrt{2\pi}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
\] \]
eine orthonormale Teilmengen des Euklidischen Vektorraumes eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
$\bigl( V, \langle •,• \rangle\bigr)$ ist. \rangle\bigr)$ ist.
\subsubsection{Rekonstruktion von Funktionen} \subsubsection{Rekonstruktion von Funktionen}
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von $\mathcal{F}$
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion $f ∈ F$ habe, dann
$f ∈ F$ habe, dann kann ich die Zahlen kann ich die Zahlen
\begin{equation}\label{eq:12-2-0-1} \begin{equation}\label{eq:12-2-0-1}
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle c := \left\langle f, \frac{1}{\sqrt{2\pi}} \right\rangle
\end{equation} \end{equation}
ausrechnen und erhalte die Gleichung: ausrechnen und erhalte die Gleichung
\begin{equation}\label{eq:12-2-0-2} \begin{equation}\label{eq:12-2-0-2}
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr) f = \frac{c}{\sqrt{2\pi}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr).
\end{equation} \end{equation}
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
verschieden sind, so dass auf der rechten Seite der verschieden sind, sodass auf der rechten Seite der Gleichung~\eqref{eq:12-2-0-2}
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht. tatsächlich nur eine endliche Summe steht.
\subsection{Fourier-Reihen} \subsection{Fourier-Reihen}
@ -549,7 +548,7 @@ alle. Es gilt der folgende Satz der Analysis.
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
konvergiert die Funktionenreihe konvergiert die Funktionenreihe
\begin{equation}\label{eq:12} \begin{equation}\label{eq:12}
\frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr) \frac{c}{\sqrt{2\pi}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\end{equation} \end{equation}
gleichmäßig (und damit punktweise) gegen $f$. gleichmäßig (und damit punktweise) gegen $f$.
\end{satz} \end{satz}
@ -576,7 +575,7 @@ zeigt wie man eine Sprungfunktion annähert.
Weitere Beispiele gibt es bei Weitere Beispiele gibt es bei
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in \href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
diesem phantastischem diesem fantastischem
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}. \href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
Vielleicht schauen sie auch einmal in Vielleicht schauen sie auch einmal in
\href{https://av.tib.eu/media/10336}{dieses Video} oder in \href{https://av.tib.eu/media/10336}{dieses Video} oder in
@ -602,12 +601,12 @@ Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahez
beliebige Funktionen machen. Allerdings erhält man statt der beliebige Funktionen machen. Allerdings erhält man statt der
Fourier-Koeffizienten Fourier-Koeffizienten
\[ \[
a_n := \frac{1}{π}·\int^{π}_{} f(t) · \sin(n·t) dt. a_n := \frac{1}{π}·\int^{π}_{} f(t) · \sin(n·t) dt
\] \]
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
schreibt schreibt
\[ \[
F(t) = \frac{1}{\sqrt{}}·\int_{-∞}^{} f(x)·e^{-itx}dx. F(t) = \int_{-∞}^{} f(x)·e^{-2\pitx}dx.
\] \]
Aus der Reihendarstellung Aus der Reihendarstellung
\[ \[
@ -615,40 +614,40 @@ Aus der Reihendarstellung
\] \]
wird dann die Formel wird dann die Formel
\[ \[
f(x) = \frac{1}{\sqrt{}}·\int_{-∞}^{} F(t)·e^{-itx}dt. f(x) = \int_{-∞}^{} F(t)·e^{2\pitx}dt.
\] \]
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die „Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
verstehen. Dann kann man super-interessante Sachen machen. super-interessante Sachen machen.
\begin{itemize} \begin{itemize}
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu \item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass diesen Methoden nicht schwierig, ein kleines Computerprogramm zu bauen, dass
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet ein gesprochenes „e“ von einem „a“ unterscheidet. Suchen Sie im Internet nach
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen. „Python“ und „SciKit“, dann finden Sie alles, was sie brauchen.
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach, \item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu Programm machen, das ein Musikstück schneller abspielt, ohne die Tonhöhe zu
verändern. verändern.
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das \item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
das Spektrum an, verwende ein mathematisch beschriebenes Modell der das Spektrum an, verwende ein mathematisch beschriebenes Modell der
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und akustischen Wahrnehmung von Tonsignalen („psycho-akustisches Modell“) und
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse erkenne die Teile des Spektrums, die für das Gehirn uninteressant sind. Lasse
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang diese Teile des Spektrums weg, um die Dateigröße zu verkleinern, ohne den
wesentlich zu verschlechtern. Klang wesentlich zu verschlechtern.
\end{itemize} \end{itemize}
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf: Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist „Heisenbergsche Unschärferelation“, über die Philosophen viel schreiben, ist
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt! eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
@ -656,31 +655,31 @@ eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
\label{ssec:Rechen} \label{ssec:Rechen}
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich wegen ihrer Wichtigkeit die „fünfte Grundrechenart“. Das ist natürlich falsch.
falsch. Tatsache ist, dass moderne Prozessoren die Tatsache ist, dass moderne Prozessoren die
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle \href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele Fouriertransformation}“ extrem effizient ausführen können. Viele elektronische
elektronischen Geräten enthalten zusätzlich Spezialchips zur Geräte enthalten zusätzlich Spezialchips zur Fouriertransformation. Damit lässt
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient sie die Fourier-Transformation so effizient implementieren, dass Computer die
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von Multiplikation ganzer Zahlen mithilfe von Fourier-Transformation durchführen;
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine Multiplikation ist also nur noch eine Anwendung der schnellen
Anwendung der schnellen Fouriertransformation. Fouriertransformation.
\begin{quote} \begin{quote}
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel Variante der diskreten schnellen Fourier-Transformation sowie einem
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen geschickten Wechsel zwischen der Restklassen- und der zyklischen Arithmetik in
Zahlenringen. endlichen Zahlenringen.
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia} -- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
\end{quote} \end{quote}
Schauen Sie sich auch einmal Schauen Sie sich auch einmal
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen \href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus, Artikel} an. Die Grundrechenarten im 21.~Jahrhundert sind also nicht „plus,
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''. minus, mal, geteilt“, sondern „plus, minus, Fourier-Transformation“.
\subsection{Warum Sinus und Kosinus} \subsection{Warum Sinus und Kosinus}
@ -688,7 +687,7 @@ minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum gibt aber noch andere Funktionen, mit denen man etwas Ähnliches machen kann, zum
Beispiel die Beispiel die
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen}, \href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
die die quantenmechanischen Gleichungen zur Beschreibung von die die quantenmechanischen Gleichungen zur Beschreibung von
@ -708,10 +707,9 @@ von Menschen fünf-dimensional ist?
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness, OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
Conscientiousness, Extraversion, Agreeableness, Neuroticism). \foreignlanguage{english}{Conscientiousness, Extraversion, Agreeableness,
Neuroticism}). Dem Modell zufolge existieren fünf Hauptdimensionen der
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder Persönlichkeit und jeder Mensch lässt sich auf folgenden Skalen einordnen:
Mensch lässt sich auf folgenden Skalen einordnen:
\begin{itemize} \begin{itemize}
\item Offenheit für Erfahrungen (Aufgeschlossenheit), \item Offenheit für Erfahrungen (Aufgeschlossenheit),
@ -739,43 +737,43 @@ von Menschen fünf-dimensional ist?
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia} --- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
\end{quote} \end{quote}
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist Die Frage nach der Persönlichkeit mag ein bisschen theoretisch vorkommen, ist
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'', ermitteln --- suchen Sie im Internet nach den Worten „Stryker“,
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine. „Bewerbungsgespräch“ und „Gallup-Test“ um zu sehen, was ich meine.
\subsection{Wie kommt man auf die Zahl ``fünf''?} \subsection{Wie kommt man auf die Zahl „fünf“?}
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so. Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
\begin{itemize} \begin{itemize}
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich \item Nimm eine Liste aller möglichen Adjektive der englischen Sprache, die sich
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die auf „Persönlichkeit“ beziehen -- bei Wikipedia ist von 18.000 Begriffen die
Rede. Rede.
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden \item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ^{18000}$. für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ^{18000}$.
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum \item Stelle fest, dass es einen fünf-dimensionalen Vektorraum $V ⊂ ^{18000}$
$V ⊂ ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im gibt, sodass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im Wesentlichen alle in $V$
Wesentlichen alle in $V$ liegen. liegen.
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit \item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
diesen Eigenschaften gibt. diesen Eigenschaften gibt.
\end{itemize} \end{itemize}
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei Aufgabe der „Hauptkomponentenanalyse“. Kurz gesagt berechnet man für je zwei
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$. Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
\begin{quote} \begin{quote}
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß
die Assoziation zwischen zwei Zufallsvariablen. für die Assoziation zwischen zwei Zufallsvariablen.
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia} --- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
\end{quote} \end{quote}
@ -800,16 +798,16 @@ Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
\subsection{… und weiter?} \subsection{… und weiter?}
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse Wissenschaften verwendet. Suchen Sie im Internet nach Hauptkomponentenanalyse
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele. und Sportwissenschaft. Wikipedia nennt unter anderem noch folgende Beispiele.
\begin{itemize} \begin{itemize}
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von \item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status, Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
durch gezielte Werbung die Kauflust entsprechend kanalisieren. durch gezielte Werbung die Kauflust entsprechend kanalisieren.
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit \item Hat man ein statistisches Modell mit sehr vielen Merkmalen, kann man
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im mithilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
Modell reduziert werden, was meistens die Modellqualität steigert. Modell reduziert werden, was meistens die Modellqualität steigert.
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung \item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
@ -817,17 +815,18 @@ und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
analysieren und Rückschlüsse daraus ziehen. analysieren und Rückschlüsse daraus ziehen.
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den \item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der neuronalen Netzen. Dort dient die PCA zur Merkmals-Trennung im Rahmen der
automatischen Klassifizierung bzw. in der Mustererkennung. automatischen Klassifizierung bzw. in der Mustererkennung.
\item In quantitative finance, principal component analysis can be directly \item \foreignlanguage{english}{In quantitative finance, principal component
applied to the risk management of interest rate derivative portfolios. Trading analysis can be directly applied to the risk management of interest rate
multiple swap instruments which are usually a function of 30-500 other market derivative portfolios. Trading multiple swap instruments which are usually a
quotable swap instruments is sought to be reduced to usually 3 or 4 principal function of 30-500 other market quotable swap instruments is sought to be
components, representing the path of interest rates on a macro reduced to usually 3 or 4 principal components, representing the path of
basis. Converting risks to be represented as those to factor loadings (or interest rates on a macro basis. Converting risks to be represented as those
multipliers) provides assessments and understanding beyond that available to to factor loadings (or multipliers) provides assessments and understanding
simply collectively viewing risks to individual 30-500 buckets. beyond that available to simply collectively viewing risks to individual
30-500 buckets.}
\end{itemize} \end{itemize}
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -4,9 +4,9 @@
\chapter{Bilineare und multilineare Abbildungen} \chapter{Bilineare und multilineare Abbildungen}
\sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über \sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über
``multilineare Algebra''. In diesem Kapitel werden wir multilineare Abbildungen „multilineare Algebra“. In diesem Kapitel werden wir multilineare Abbildungen
und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das
``Tensorprodukt''. Bevor wir richtig ``multi'' werden, diskutiere ich erst noch „Tensorprodukt“. Bevor wir richtig „multi“ werden, diskutiere ich erst noch
einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität
kennen Sie schon. kennen Sie schon.
@ -18,18 +18,18 @@ kennen Sie schon.
Die folgende Definition sollte jetzt keine Überraschung mehr sein. Die folgende Definition sollte jetzt keine Überraschung mehr sein.
\begin{defn}[Bilineare Abbildungen] \begin{defn}[Bilineare Abbildungen]
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume. Eine Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume.
\emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung Eine \emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
$s: U V → W$, sodass Folgendes gilt. $s: U V → W$, sodass Folgendes gilt.
\begin{description} \begin{description}
\item[Linearität in der ersten Komponente] Für alle \item[Linearität in der ersten Komponente] Für alle $\vec{u}_1, \vec{u}_2 ∈ U,
$\vec{u}_1, \vec{u}_2 ∈ U, \vec{v} ∈ V$ und für alle $λ ∈ k$ gilt \vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
\[ \[
s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) + s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) +
λ·s(\vec{u}_2, \vec{v}). λ·s(\vec{u}_2, \vec{v}).
\] \]
\item[Linearität in der zweiten Komponente] Für alle \item[Linearität in der zweiten Komponente] Für alle $\vec{u} ∈ U, \vec{v}_1,
$\vec{u} ∈ U, \vec{v}_1, \vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt \vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
\[ \[
s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ
s(\vec{u}, \vec{v}_2). s(\vec{u}, \vec{v}_2).
@ -67,8 +67,8 @@ Beispiele für bilineare Abbildungen kennen wir in Hülle und Fülle.
\subsection*{Multilineare Abbildungen} \subsection*{Multilineare Abbildungen}
Sie können es sich sicher schon denken: multilineare Abbildungen sind Sie können es sich sicher schon denken: multilineare Abbildungen sind
Abbildungen $V_1 V_n → W$, so dass …. Ich habe vom Tippen Abbildungen $V_1 V_n → W$, sodass …. Ich habe vom Tippen schon wunde
schon wunde Finger und verlasse mich darauf, dass Sie die Definition selbst Finger und verlasse mich darauf, dass Sie die Definition selbst
zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel. zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
\begin{bsp}[$n$-lineare Funktion] \begin{bsp}[$n$-lineare Funktion]
@ -77,12 +77,12 @@ zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
\det : \Mat(n n, k) → k. \det : \Mat(n n, k) → k.
\] \]
Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den
Vektorraum der $n n$-Matrizen mit dem Vektorraum Vektorraum der $n n$-Matrizen mit dem Vektorraum $k^n k^n$
$V V$ identifizieren. Wir erhalten also eine Abbildung identifizieren. Wir erhalten also eine Abbildung
\[ \[
\det : \underbrace{V V}_{n } → k. \det : \underbrace{k^n k^n}_{n } → k.
\] \]
Aus dem ersten Semester wissen wir: diese Abbildung ist in jeder Komponente Aus dem ersten Semester wissen wir: Diese Abbildung ist in jeder Komponente
linear. linear.
\end{bsp} \end{bsp}

View File

@ -5,12 +5,12 @@
\section{Definitionen} \section{Definitionen}
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift ``Beispiele für Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift Beispiele für
Vektorräume'' eine Methode kennen gelernt, wie man aus einem $k$-Vektorraum $V$ Vektorräume“ eine Methode kennengelernt, wie man aus einem $k$-Vektorraum $V$
neue $k$-Vektorräume macht: der Vektorraum $V V$ ist die Menge der neue $k$-Vektorräume macht: Der Vektorraum $V V$ ist die Menge der geordneten
geordneten Paare von Vektoren; die Vektoraddition und skalare Multiplikation Paare von Vektoren; die Vektoraddition und skalare Multiplikation erfolgt
erfolgt komponentenweise. Alternativ könnte ich $V V$ auch so komponentenweise. Alternativ könnte ich $V V$ auch so definieren: Der
definieren: der Vektorraum $V V$ ist die Menge der Abbildungen Vektorraum $V V$ ist die Menge der Abbildungen
\[ \[
\{1, 2 \} → V \{1, 2 \} → V
\] \]
@ -21,19 +21,19 @@ $V \{\vec{0}\}$ und $\{\vec{0}\} V$, die beide ganz offensichtlich
isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V V$ als isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V V$ als
direkte Summe, direkte Summe,
\[ \[
V V = \bigl(V \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} V\bigr), V V = \bigl(V \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} V\bigr).
\] \]
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
mehr Komponenten. Ich erhalte so Vektorräume mehr Komponenten. Ich erhalte so Vektorräume
\[ \[
V V V \quad\text{oder}\quad \underbrace{V V}_{n } V V V \quad\text{oder}\quad \underbrace{V V}_{n }.
\] \]
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
verallgemeinern. verallgemeinern.
\begin{itemize} \begin{itemize}
\item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen \item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen
zuzulassen, also etwas wie ``$V_1 V_2$'' zu definieren zuzulassen, also etwas wie $V_1 V_2$“ zu definieren.
\item Zum anderen möchte ich die Konstruktion statt auch für unendlich viele \item Zum anderen möchte ich die Konstruktion auch für unendlich viele
Komponenten durchzuführen. Komponenten durchzuführen.
\end{itemize} \end{itemize}
Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen
@ -52,45 +52,45 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
\emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$. \emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$.
\end{defn} \end{defn}
\begin{bemerkung}
Wir können die Elemente von $\prod V_i$ auch als Familie
$(φ_i: I → V_i)_{i ∈ I}$ von Abbildungen auffassen.
\end{bemerkung}
\begin{bemerkung} \begin{bemerkung}
Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die
Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch. Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch.
\end{bemerkung} \end{bemerkung}
\begin{notation} \begin{notation}\label{not:14-1-3}
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$-Vektorräume Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$-Vektorräume
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, so dass für $V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, sodass für alle
alle $i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch $i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
\[ \[
V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V. V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V.
\] \]
Für den Fall, dass $I =$ die leere Menge ist, ist in der Literatur oft Für den Fall, dass $I =$ die leere Menge ist, ist in der Literatur oft $V^
$V^= V^{()} = \{ \vec{0}_V \}$ definiert. = V^{(∅)} = \{ \vec{0}_V \}$ definiert.
\end{notation} \end{notation}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5} \begin{bemerkung}
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
$V^I$ auch als Abbildungen $I → V$ auffassen.
\end{bemerkung}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$ Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$, Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
betrachte den Vektor betrachte den Vektor
\[ \[
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I \vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I.
\] \]
Die so definierten Vektoren $\vec{e}_i$ heißen Die so definierten Vektoren $\vec{e}_i$ heißen
\emph{Einheitsvektoren}\index{Einheitsvektoren}. \emph{Einheitsvektoren}\index{Einheitsvektoren}.
\end{notation} \end{notation}
\begin{aufgabe}\label{auf:14-1-6} \begin{aufgabe}\label{auf:14-1-6}%
In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass
die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist. die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist.
Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine
Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$ Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$
phantastisch viel größer ist als der Raum $k^{(I)}$. fantastisch viel größer ist als der Raum $k^{(I)}$.
\end{aufgabe} \end{aufgabe}
@ -129,7 +129,7 @@ eindeutig festgelegt.
Diagramm kommutiert: Diagramm kommutiert:
\[ \[
\begin{tikzcd}[column sep=3cm] \begin{tikzcd}[column sep=3cm]
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon. Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\ V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon.~Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
V_i \ar[r, "\varphi_i"'] & W . V_i \ar[r, "\varphi_i"'] & W .
\end{tikzcd} \end{tikzcd}
\] \]
@ -139,11 +139,11 @@ eindeutig festgelegt.
$\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien $\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien
also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den
Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_{}$ mit den $\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_$ mit den
Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des
Diagramm folgt: Diagramms folgt:
\[ \[
\varphi_{} \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}). \varphi_\bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
\] \]
Also ist schon einmal Also ist schon einmal
$\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$. $\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$.
@ -154,14 +154,14 @@ eindeutig festgelegt.
alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist
$\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt. $\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt.
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$ Wie immer sagt uns der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
existiert: wir können es angeben! Setzen Sie dazu existiert: Wir können es angeben! Setzen Sie dazu
\[ \[
\varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I} \varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I}
\sum_{i ∈ I} φ_i(\vec{v}_i) \sum_{i ∈ I} φ_i(\vec{v}_i)
\] \]
und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung
ohne unendliche Summe ist, die linear ist und die die Diagramm kommutativ ohne unendliche Summe ist, die linear ist und die das Diagramm kommutativ
macht. macht.
\end{proof} \end{proof}
@ -175,11 +175,10 @@ eindeutig festgelegt.
\end{defn} \end{defn}
\begin{satz}[Universelle Eigenschaften des direkten Produkts] \begin{satz}[Universelle Eigenschaften des direkten Produkts]
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein $k$-Vektorraum.
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung $\varphi_i: W → V_i$
$\varphi_i: W → V_i$ gegeben. Dann existiert genau eine Abbildung gegeben. Dann existiert genau eine Abbildung $\varphi: W → \prod_{j ∈ I}
$\varphi: W → \prod_{j ∈ I} V_j$, so dass für alle $i ∈ I$ das folgende V_j$, sodass für alle $i ∈ I$ das folgende Diagramm kommutiert:
Diagramm kommutiert:
\[ \[
\begin{tikzcd} \begin{tikzcd}
W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\ W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\
@ -194,26 +193,25 @@ eindeutig festgelegt.
nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein. nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein.
Damit ist die Eindeutigkeit schon gezeigt. Damit ist die Eindeutigkeit schon gezeigt.
Wie immer sagt und der Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
Eindeutigkeitsbeweis sofort auch, warum $\varphi$ existiert: wir können es existiert: Wir können es angeben! Setzen Sie dazu
angeben! Setzen Sie dazu
\[ \[
\varphi : W → \prod_j V_j, \quad \vec{w}\left( \varphi_j(\vec{w}) \right)_{j ∈ I} \varphi : W → \prod_j V_j, \quad \vec{w}\left( \varphi_j(\vec{w}) \right)_{j ∈ I}
\] \]
und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die
die Diagramm kommutativ macht. das Diagramm kommutativ macht.
\end{proof} \end{proof}
\section{Dualität} \section{Dualität}
In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Diese Fakt hatte den Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Dieser Fakt hatte den
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls so
solange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1 lange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1 darauf
darauf hingewiesen, dass dies nicht das einzige Problem ist. hingewiesen, dass dies nicht das einzige Problem ist.
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1} \begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}%
Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine
Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus
\[ \[
@ -224,7 +222,7 @@ darauf hingewiesen, dass dies nicht das einzige Problem ist.
\begin{bemerkung} \begin{bemerkung}
Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass
Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert, Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert,
dessen Dualraum phantastisch viel größer ist als der Raum selbst. dessen Dualraum fantastisch viel größer ist als der Raum selbst.
\end{bemerkung} \end{bemerkung}
\begin{proof}[Beweis von Satz~\ref{satz:14-3-1}] \begin{proof}[Beweis von Satz~\ref{satz:14-3-1}]

View File

@ -9,18 +9,18 @@
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$ Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
es ist, dass all bilinearen Abbildungen von $UV → W$ ``von $U⊗V$ kommen'', und es ist, dass all bilinearen Abbildungen von $U V → W$ „von $U⊗V$ kommen“, und
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise. präzise.
\begin{defn}[Tensorprodukt] \begin{defn}[Tensorprodukt]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist \emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: UV → T$, so ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$,
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: UV → W$ sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V →
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
kommutiert: Diagramm kommutiert:
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
U V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ U V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
@ -32,10 +32,10 @@ präzise.
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie. überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2} \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann gibt es
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{21-1} \video{21-1}
@ -43,34 +43,34 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3} \begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
existiert ein Tensorprodukt. ein Tensorprodukt.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{21-2} \video{21-2}
\end{proof} \end{proof}
\begin{notation}[Tensorproduktraum]\label{not:15-1-3} \begin{notation}[Tensorproduktraum]\label{not:15-1-3}%
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
Literatur oft \emph{Tensoren}\index{Tensor}. Literatur oft \emph{Tensoren}\index{Tensor}.
\end{notation} \end{notation}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a} \begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}%
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$ In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v})
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}\vec{v}$
und mit $\vec{u}\vec{v}$ bezeichnet. bezeichnet.
\end{notation} \end{notation}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]%
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1,
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition, \vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die
dass die Tensoren Tensoren
\[ \[
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1, \vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2 \quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
@ -83,22 +83,22 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum $T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der
der Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht. wissen, ob sie Null sind oder nicht.
\begin{notation}[Reine Tensor]\label{not:15-1-4b} \begin{notation}[Reine Tensor]\label{not:15-1-4b}%
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$ In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u}
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}\vec{v}$ ist. U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}\vec{v}$ ist.
\end{notation} \end{notation}
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig] \begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig. ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
$τ : UV → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit V → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
\[ \[
\vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v}) \vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
\] \]
@ -110,18 +110,16 @@ wissen, ob sie Null sind oder nicht.
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten. Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1\vec{v}_2 =
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ in $V⊗V$ gilt, ebenfalls \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
überraschend schwer sein.
\end{bemerkung} \end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor Beweisen Sie, dass der Tensor $\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ²
$\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner ⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$, $\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1\vec{v}_2 =
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ gilt! Finden Sie Vektoren, so gilt!
dass die Gleichheit nicht gilt!
\end{aufgabe} \end{aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
@ -130,7 +128,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können. hinschreiben können.
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5} \begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann
ist die Menge der reinen Tensoren, ist die Menge der reinen Tensoren,
\[ \[
R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v}
@ -151,11 +149,10 @@ hinschreiben können.
\vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}). \vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}).
\] \]
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
Index $i$ die Gleichung Index $i$ die Gleichung $a_(\vec{u_i}\vec{v_i}) =
$a_(\vec{u_i}\vec{v_i}) = (a_\vec{u_i})\vec{v_i}$. Es ist also nicht (a_\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
Tensoren schreiben kann.
\end{bemerkung} \end{bemerkung}
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7} \begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
@ -167,9 +164,9 @@ hinschreiben können.
Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}). Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
\] \]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen! Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ}
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen
von reinen Tensoren, Tensoren,
\[ \[
\vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i \vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i
\] \]
@ -178,11 +175,11 @@ hinschreiben können.
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i). Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
\] \]
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der „definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
folge. Folge.
\end{notation} \end{notation}
@ -193,7 +190,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält. Tensorproduktraum erhält.
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6} \begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}%
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$ In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren, folgende Menge von reinen Tensoren,
@ -217,7 +214,7 @@ Tensorproduktraum erhält.
\vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\ \vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
&= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\ &= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
&= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\ &= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente} &= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}.
\end{align*} \end{align*}
Das beweist die Behauptung. Das beweist die Behauptung.
\end{proof} \end{proof}
@ -254,13 +251,13 @@ Tensorproduktraum erhält.
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\ 0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
&= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\ &= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
&= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\ &= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
&= a_{ij} &= a_{ij}.
\end{align*} \end{align*}
Damit ist die Relation \eqref{eq:fgh} offenbar trivial. Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
\end{proof} \end{proof}
\begin{kor}[Dimensionsformel für Tensorprodukte] \begin{kor}[Dimensionsformel für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed $k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
\end{kor} \end{kor}
@ -269,7 +266,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen. Basen.
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte] \begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und $k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für $\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
das Tensorprodukt $U⊗ V$ wie folgt anordnen: das Tensorprodukt $U⊗ V$ wie folgt anordnen:
@ -279,7 +276,7 @@ Basen.
…, …,
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}. \underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
\] \]
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}. Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
@ -294,7 +291,7 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise. induzieren. Der folgende Satz macht diese Aussage präzise.
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1} \begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$ Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
Abbildung Abbildung
\[ \[
@ -329,7 +326,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren. Matrizen diskutieren.
\begin{konstruktion} \begin{konstruktion}
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Matrizen Matrizen
\[ \[
A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k) A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k)
@ -338,10 +335,10 @@ Matrizen diskutieren.
\[ \[
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad % \varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad % \varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2} \varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}.
\] \]
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als dieser Produktbasen. Diese Matrix wird häufig als
@ -357,7 +354,7 @@ Matrizen diskutieren.
Das Kronecker-Produkt ist also eine unangenehme Abbildung Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[ \[
•⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2, •⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2,
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr) k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr).
\] \]
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
@ -368,7 +365,7 @@ Matrizen diskutieren.
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
$\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben. $\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben.
Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die
lexikographisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann lexikografisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
gilt für die darstellenden Matrizen die Gleichung gilt für die darstellenden Matrizen die Gleichung
\[ \[
\Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) = \Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) =
@ -386,7 +383,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften. Folge der universellen Eigenschaften.
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1} \begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}%
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt $k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen es eine kanonische Isomorphie zwischen den direkten Summen

View File

@ -4,7 +4,7 @@
\chapter{Tensorprodukte mit mehreren Faktoren} \chapter{Tensorprodukte mit mehreren Faktoren}
\label{sec:tAlg} \label{sec:tAlg}
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'', \sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
@ -17,12 +17,12 @@ nennen.
\section{Definition, Existenz und Eindeutigkeit} \section{Definition, Existenz und Eindeutigkeit}
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare von Faktoren zu definieren, betrachten wir ganz analog multilineare
Abbildungen''. Abbildungen.
\begin{defn}[Multilineare Abbildungen] \begin{defn}[Multilineare Abbildungen]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien seien $W$ und $V_1, …, V_n$ Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $W$ und $V_1, …, V_n$
jeweils $k$-Vektorräume. Eine Abbildung jeweils $k$-Vektorräume. Eine Abbildung
\[ \[
s: V_1 V_2 V_n → W s: V_1 V_2 V_n → W
@ -36,17 +36,16 @@ Abbildungen''.
\end{multline*} \end{multline*}
\end{defn} \end{defn}
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
Tensorprodukte von mehr als zwei Vektorräumen definieren. Tensorprodukte von mehr als zwei Vektorräumen definieren.
\begin{defn}[Tensorprodukt]\label{def:16-1-2} \begin{defn}[Tensorprodukt]\label{def:16-1-2}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
Vektorraum $T$ zusammen mit einer multilinearen Abbildung zusammen mit einer multilinearen Abbildung $τ: V_1 V_n → T$, sodass für
$τ: V_1 V_n → T$, so dass für alle multilinearen Abbildungen alle multilinearen Abbildungen $s: V_1 V_n → W$ genau eine lineare
$s: V_1 V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
dass das folgende Diagramm kommutiert
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des Tensorprodukts. Existenz und Eindeutigkeit des Tensorprodukts.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3} \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und $τ_1 : V_1
$τ_1 : V_1 V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed $T_1 ≅ T_2$. \qed
\end{satz} \end{satz}
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4} \begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\end{satz} \end{satz}
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren] \begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben Sprache, sprechen von „dem Tensorprodukt“ und schreiben
\[ \[
τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n. τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n.
\] \]
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
\emph{rein}\index{Reine Tensoren}. Tensoren}.
\end{notation} \end{notation}
\begin{notation}[Mehrfache Produkte] \begin{notation}[Mehrfache Produkte]
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
\end{notation} \end{notation}
\section{Assoziativität} \section{Assoziativität}
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist: mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
die Assoziativität. Der folgende Satz klärt alles. die Assoziativität. Der folgende Satz klärt alles.
\begin{satz}[Assoziativität des Tensorproduktes] \begin{satz}[Assoziativität des Tensorproduktes]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
Vektorräume
\[ \[
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
\] \]
kanonisch isomorph. kanonisch isomorph.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben. aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
Betrachten Sie die Abbildung Betrachten Sie die Abbildung
\[ \[
@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$. Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine \item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$. lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist \item Falls alle $V_{}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$ = \prod_i \dim V_i$.
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen \item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
zwischen den Tensorprodukten. zwischen den Tensorprodukten.
@ -193,13 +190,12 @@ und
& (λ,ν) && λ·ν. & (λ,ν) && λ·ν.
\end{matrix} \end{matrix}
\] \]
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}. Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
Multiplikation erweitert wurde.
\begin{defn}[Algebra über einem Körper] \begin{defn}[Algebra über einem Körper]
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
@ -212,19 +208,17 @@ Multiplikation erweitert wurde.
\begin{itemize} \begin{itemize}
\item Die Algebra heißt \emph{kommutativ}\index{kommutative \item Die Algebra heißt \emph{kommutativ}\index{kommutative
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$, Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt. \vec{v}_1)$ gilt.
\item Die Algebra heißt \emph{assoziativ}\index{assoziative \item Die Algebra heißt \emph{assoziativ}\index{assoziative
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$, Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins}, \item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v}
$\vec{v} ∈ V$ die Gleichheit V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
\end{itemize} \end{itemize}
\end{defn} \end{defn}

View File

@ -5,24 +5,24 @@
\label{sec:wedge} \label{sec:wedge}
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten? sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
\section{Definition, Existenz und Eindeutigkeit} \section{Definition, Existenz und Eindeutigkeit}
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
Abbildungen beschränken, die alternierend sind. beschränken, die alternierend sind.
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1} \begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
$n $ eine Zahl. Eine multilineare Abbildung $ eine Zahl. Eine multilineare Abbildung
\[ \[
s : \underbrace{V V}_{n } → W s : \underbrace{V V}_{n } → W
\] \]
@ -32,10 +32,10 @@ Abbildungen beschränken, die alternierend sind.
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
\end{equation} \end{equation}
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei …, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$. \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
\end{defn} \end{defn}
\begin{beobachtung} \begin{beobachtung}
@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind.
\begin{prov} \begin{prov}
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
``alternierende Multilineare Abbildung'' nehmen? „alternierende Multilineare Abbildung“ nehmen?
\end{prov} \end{prov}
\begin{notation}[Produkte] \begin{notation}[Produkte]
@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Determinante] \begin{bsp}[Determinante]
Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als
Tupel von Spaltenvektoren und identifiziere so den Vektorraum Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n n, k)$
$\Mat(n n, k)$ der $(n n)$-Matrizen mit dem Vektorraum der $(n n)$-Matrizen mit dem Vektorraum $k^n k^n$. Dann ist die
$k^n k^n$. Dann ist die Determinantenabbildung Determinantenabbildung
\[ \[
\det : k^n k^n → k \det : k^n k^n → k
\] \]
@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Kreuzprodukt] \begin{bsp}[Kreuzprodukt]
Das von Physiker geliebte Das von Physiker geliebte
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem \href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
$ℝ³$} ist eine alternierende multilineare Abbildung. ist eine alternierende multilineare Abbildung.
\end{bsp} \end{bsp}
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
Vektorräumen definieren. Vektorräumen definieren.
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} \begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ $ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, so einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, sodass für alle
dass für alle multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare Abbildung $η: T →
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert W$ existiert, sodass das folgende Diagramm kommutiert
\[ \[
\begin{tikzcd}[column sep=4cm] \begin{tikzcd}[column sep=4cm]
V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -104,45 +104,42 @@ Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des äußeren Produktes. Existenz und Eindeutigkeit des äußeren Produktes.
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6} \begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1
$T_1 ≅ T_2$. \qed T_2$. \qed
\end{satz} \end{satz}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9} \begin{satz}[Existenz des äußeren Produkts]\label{satz:17-1-9}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
\end{satz} \end{satz}
\begin{notation}[Notation rund um äußere Produkte] \begin{notation}[Notation rund um äußere Produkte]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
\[ \[
τ : V^{n}\bigwedge^n V. τ : V^{n}\bigwedge^n V.
\] \]
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
\emph{reinen Dächern}\index{reine Dächer}.
\end{notation} \end{notation}
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11} \begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
Definition~\ref{def:17-1-1} die folgenden Regeln. folgenden Regeln.
\begin{itemize} \begin{itemize}
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit \item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
gleich $\vec{0}_{Λ^n V}$.
\item Für jede Permutation $ρ ∈ S_n$ ist \item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ \sgn(ρ\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
Λ \vec{v}_{ρ(n)}$.
\end{itemize} \end{itemize}
\end{beobachtung} \end{beobachtung}
@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
\end{beobachtung} \end{beobachtung}
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\}
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
Basis von $(ℝ²)^{2}$ durch die Menge
\[ \[
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2 \{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
\vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2} \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet. verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …) In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
verzichte ich darauf.
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2} \begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
In der Situation von Definition~\ref{def:17-1-4} sei In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
ist die Menge
\[ \[
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \} \{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
\] \]
@ -199,7 +193,7 @@ verzichte ich darauf.
\end{satz} \end{satz}
\begin{bemerkung} \begin{bemerkung}
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
sollte! sollte!
\end{bemerkung} \end{bemerkung}
@ -223,8 +217,8 @@ verzichte ich darauf.
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2} Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir $k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
wie folgt eine Abbildung folgt eine Abbildung
\[ \[
\begin{matrix} \begin{matrix}
m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\ m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\
@ -252,7 +246,7 @@ und
& (λ,ν) && λ·ν. & (λ,ν) && λ·ν.
\end{matrix} \end{matrix}
\] \]
Diese ``Definitionen'' verwenden die analog die schreckliche Diese „Definitionen“ verwenden die analog die schreckliche
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
wohldefiniert ist! Jetzt definieren wir die äußere Algebra. wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
\begin{bemerkung} \begin{bemerkung}
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
sobald $n>\dim V$ ist. Also ist $n>\dim V$ ist. Also ist
\[ \[
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=} \dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
2^{\dim V}. 2^{\dim V}.
@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
eine Abbildung zwischen den Dachprodukten induziert. eine Abbildung zwischen den Dachprodukten induziert.
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva} \begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau $n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
Diagramm kommutiert,
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\ V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\
@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet. Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Hier ist fast nichts zu zeigen. Die Abbildung Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f f)$ ist
$τ◦(f f)$ ist alternierend und multilinear. Also alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft. der universellen Eigenschaft.
\end{proof} \end{proof}
\begin{bemerkung} \begin{bemerkung}
@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
geht's. geht's.
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3} \begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt. Λ ⋯ Λ \vec{v}_k$ wie folgt.
\begin{itemize} \begin{itemize}
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten, \item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
$A := (a_{ij})\Mat(n k, k)$. (a_{ij}) ∈ \Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
$A_{i_1, …,i_k}\Mat(k k, k)$ die Matrix, die aus den Spalten \item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k}\Mat(k k, k)$
$i_1, …,i_k$ der Matrix $A$ besteht. die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
\end{itemize} \end{itemize}
Dann ist Dann ist
\[ \[
@ -342,11 +335,9 @@ geht's.
\] \]
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
ausrechnen, was der Koeffizient von der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in \vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
besseres ein, als das Produkt
\[ \[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k % \vec{v}_1 Λ ⋯ Λ \vec{v}_k %
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
@ -361,7 +352,7 @@ geht's.
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\ & = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) & = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
\end{align*} \end{align*}
Damit ist der Satz dann wohl bewiesen. Damit ist der Satz dann wohl bewiesen.
\end{proof} \end{proof}
@ -382,12 +373,11 @@ geht's.
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese $λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
Frage.
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1} \begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
@ -398,16 +388,16 @@ Frage.
\end{kor} \end{kor}
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
geometrische Aussage. geometrische Aussage.
\subsection{Die Koeffizienten des charakteristischen Polynoms} \subsection{Die Koeffizienten des charakteristischen Polynoms}
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer „Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
Matrix $A ∈ \Mat(n n,k)$ diskutiert, $A ∈ \Mat(n n,k)$ diskutiert,
\[ \[
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ + χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
a_{n-1}(A)·t + a_n(A) \right). a_{n-1}(A)·t + a_n(A) \right).
@ -419,13 +409,13 @@ Wir hatten staunend festgestellt, dass die Funktionen
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und $A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
\[ \[
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A) a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
\] \]
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms] \begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische $k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
Polynom von $f$ als Polynom von $f$ als
@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\vdots & \ddots \\ \vdots & \ddots \\
& & & & a_{(n-1)n}\\ & & & & a_{(n-1)n}\\
a_{n1} && & a_{n(n-1)} & a_{nn}-t a_{n1} && & a_{n(n-1)} & a_{nn}-t
\end{pmatrix} \end{pmatrix}.
\] \]
Das charakteristische Polynom ist dann die Determinante von $B$, also Das charakteristische Polynom ist dann die Determinante von $B$, also
\begin{equation}\label{eq:xcydfg} \begin{equation}\label{eq:xcydfg}
@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der \noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
wir noch einmal daran, dass die Dachprodukte wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
$Λ^k V$ bilden. Gegeben also ein solches Basiselement also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3} nach Satz~\ref{satz:17-4-3}
\begin{align*} \begin{align*}
^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\ ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\ & = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche \noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$ \eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
$\widetilde{A}^{i_1, …, i_k}$ ist. i_k}$ ist.
\end{proof} \end{proof}
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -7,12 +7,11 @@
August 1900 in Paris hielt David August 1900 in Paris hielt David
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen) Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
20.~Jahrhundert.
\section{Hilbert's drittes Problem} \section{Hilbert's drittes Problem}
@ -21,18 +20,17 @@ In
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
drittem Problem} geht es um folgende Frage: gegeben sind zwei drittem Problem} geht es um folgende Frage: gegeben sind zwei
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum \href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein $ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt. zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
sind.
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar. werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
\begin{beobachtung} \begin{beobachtung}
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
die Antwort ``Nein!'' die Antwort „Nein!“
\end{beobachtung} \end{beobachtung}
\begin{notation} \begin{notation}
@ -48,22 +46,22 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
Schauen Sie zum Thema Invarianten einmal in Schauen Sie zum Thema Invarianten einmal in
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen \href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
Hilbert's Frage zu geben. geben.
\section{Die Dehn-Invariante} \section{Die Dehn-Invariante}
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$ Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu „Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
beantworten. Aus diesem Grund konstruierte Max beantworten. Aus diesem Grund konstruierte Max
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (* Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North 13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
offensichtlich ist, wie das Volumen. Die offensichtlich ist, wie das Volumen. Die
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung \emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
@ -87,10 +85,10 @@ $$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional. $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
\begin{bemerkung} \begin{bemerkung}
Um mit dem $$-Vektorraum $$ warm zu werden, fragen wir: ist die Menge Um mit dem $$-Vektorraum $$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
$\{ 1, \sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist ``Nein!'' Denn \sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $$-lineare
$$-lineare Relation gäbe, Relation gäbe,
\[ \[
p · 1 + q · \sqrt{2} = 0, p · 1 + q · \sqrt{2} = 0,
\] \]
@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
aber schon, dass $\sqrt{2}$ irrational ist. aber schon, dass $\sqrt{2}$ irrational ist.
\end{bemerkung} \end{bemerkung}
Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
$π$ erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter betrachten wir
betrachten wir den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der Vektorraum $V$
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt, von Max Dehn ist dann gleich dem Tensorprodukt,
\[ \[
V = \left(\factor{}{\langle π \rangle}\right). V = \left(\factor{}{\langle π \rangle}\right).
\] \]
@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $$-Vektorräumen, also selbst ein $$-Vektor
\subsection{Konstruktion der Invariante} \subsection{Konstruktion der Invariante}
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$ Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
$(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante $(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das $α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
$P$ schließlich als $P$ schließlich als
\[ \[
\operatorname{dehn}(P) := \sum_{k=1}^{n} (E_k) ⊗ α (E_k). \operatorname{dehn}(P) := \sum_{k=1}^{n} (E_k) ⊗ α (E_k).
\] \]
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{beobachtung} \begin{beobachtung}
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
@ -237,9 +235,9 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{itemize} \begin{itemize}
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne \item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$ Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
bezeichnen, dann gelten die Gleichungen bezeichnen, dann gelten die Gleichungen
\begin{equation} \begin{equation}
\begin{matrix} \begin{matrix}
@ -249,12 +247,12 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\end{equation} \end{equation}
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen \item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann gilt für die Längen
gilt für die Längen und für die Winkel und für die Winkel
\begin{equation} \begin{equation}
\begin{aligned} \begin{aligned}
(E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\ (E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\
α(E_{}) & = α¹(E¹_{}) = α²(E²_{}) α(E_{}) & = α¹(E¹_{}) = α²(E²_{}).
\end{aligned} \end{aligned}
\end{equation} \end{equation}
@ -263,7 +261,7 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
$P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$, $P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$,
$_{n+1}$, …, $_m$, $_m$. Es gilt für jeden Index $i > n$ $_{n+1}$, …, $_m$, $_m$. Es gilt für jeden Index $i > n$
\begin{equation} \begin{equation}
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
\end{equation} \end{equation}
\end{itemize} \end{itemize}
Mit diesen Bezeichnungen ist Mit diesen Bezeichnungen ist

View File

@ -3,15 +3,14 @@
\chapter{Ausblick.} \chapter{Ausblick.}
Wir sind am Ende der Vorlesung ``Lineare Algebra II''. Wir hoffen, dass Sie Wir sind am Ende der Vorlesung „Lineare Algebra II“. Wir hoffen, dass Sie etwas
trotz des ungewöhnlichen Formats der Vorlesung etwas gelernt und für sich gelernt und für sich mitgenommen haben.
mitgenommen haben.
\bigskip \bigskip
\bigskip \bigskip
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund. Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium!
\bigskip \bigskip
@ -24,14 +23,14 @@ Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
\subsection*{Ein sehr persönliches Wort zum Ende} \subsection*{Ein sehr persönliches Wort zum Ende}
\begin{quote} \begin{quote}
Any interested participant with basic knowledge of vector and matrix \foreignlanguage{english}{Any interested participant with basic knowledge of
multiplication as linear algebra is at the core of quantum computing vector and matrix multiplication as linear algebra is at the core of quantum
algorithms. computing algorithms.}
-- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro} -- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro}
\end{quote} \end{quote}
Für mich ist die Vorlesung ``Lineare Algebra II'' so etwas wie ein Schlüssel zur Für mich ist die Vorlesung „Lineare Algebra II“ so etwas wie ein Schlüssel zur
Welt. Wir leben in einer Zeit, in der neue Techniken der Welt. Wir leben in einer Zeit, in der neue Techniken der
Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise
umwälzen, zum Guten wie zum umwälzen, zum Guten wie zum
@ -42,18 +41,18 @@ langfristigen Auswirkungen am ehesten mit denen der
industriellen Revolution} vergleichbar sein. industriellen Revolution} vergleichbar sein.
In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu gestalten.
gestalten. Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei; Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei; es scheint
es scheint in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich zu
zu ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich nicht
nicht gestalten! Was ich nicht verstehe, macht mir Angst! gestalten! Was ich nicht verstehe, macht mir Angst!
Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie
\emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective \emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer Algebra.
Algebra. Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der \emph{Pole
\emph{Pole Position}, um diese Sachen zu verstehen. Sie können sich noch heute Position}, um diese Sachen zu verstehen. Sie können sich noch heute eine ein
eine ein Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
Linux-Laptop laden, die hervorragenden Linux-Laptop laden, die hervorragenden
\href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes \href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes
\emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei \emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei

View File

@ -28,7 +28,7 @@
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table} %\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
\title{Lineare Algebra 2} \title{Lineare Algebra 2}
\author{Prof. Dr. Stefan Kebekus} \author{Prof.~Dr.~Stefan Kebekus}
\DeclareMathOperator{\ad}{ad} \DeclareMathOperator{\ad}{ad}
\DeclareMathOperator{\Bij}{Bij} \DeclareMathOperator{\Bij}{Bij}
@ -93,7 +93,6 @@
\begin{document} \begin{document}
% spell checker language % spell checker language
\selectlanguage{german} \selectlanguage{german}

View File

@ -7,6 +7,7 @@
\usepackage{enumitem} \usepackage{enumitem}
\usepackage{hyperref} \usepackage{hyperref}
\usepackage[utf8]{inputenc} \usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}
\usepackage{newunicodechar} \usepackage{newunicodechar}
\usepackage{mathtools} \usepackage{mathtools}
\usepackage{varioref} \usepackage{varioref}
@ -362,10 +363,7 @@
% HYPENTATION % HYPENTATION
% %
\hyphenation{com-po-nents} \hyphenation{uni-tärer}
\hyphenation{pos-i-tive}
\hyphenation{Theo-rem}
\hyphenation{Vojta}
% %