Compare commits
2 Commits
Author | SHA1 | Date | |
---|---|---|---|
dc56cc0ff6 | |||
07dfa95c9c |
89
.vscode/ltex.dictionary.de-DE.txt
vendored
89
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -19,92 +19,3 @@ Quotientenvektorraums
|
|||||||
Erzeugendensystem
|
Erzeugendensystem
|
||||||
Quotientenvektorräume
|
Quotientenvektorräume
|
||||||
Repräsentantenniveau
|
Repräsentantenniveau
|
||||||
Jordanscher
|
|
||||||
Matrixexponential
|
|
||||||
Matrixexponentials
|
|
||||||
Einsetzungsabbildung
|
|
||||||
Cayley-Hamilton
|
|
||||||
TFAE
|
|
||||||
Jordanblocks
|
|
||||||
Einsetzungsmorphismus
|
|
||||||
Abstandserhaltende
|
|
||||||
abstandserhaltend
|
|
||||||
metrikerhaltend
|
|
||||||
abstandserhaltenden
|
|
||||||
abstandserhaltender
|
|
||||||
abstandserhaltende
|
|
||||||
Definitheit
|
|
||||||
ONB
|
|
||||||
Kronecker-Delta
|
|
||||||
semidefinit
|
|
||||||
Bytestrings
|
|
||||||
Bilinearität
|
|
||||||
Semilinearität
|
|
||||||
Sesquilinearlinearform
|
|
||||||
Cayley
|
|
||||||
Sequilinearform
|
|
||||||
Dualräumen
|
|
||||||
Hom-Räumen
|
|
||||||
Maximumsnorm
|
|
||||||
Cauchy-Schwarzschen
|
|
||||||
Cauchy-Schwarzsche
|
|
||||||
Cauchy
|
|
||||||
Sceaux
|
|
||||||
Amandus
|
|
||||||
Orthonormalität
|
|
||||||
Identifikationen
|
|
||||||
semi-linear
|
|
||||||
Quotientenräume
|
|
||||||
Rückzugsabbildung
|
|
||||||
Determinanten-Multiplikationssatz
|
|
||||||
Komplexifizierung
|
|
||||||
komplexifizierten
|
|
||||||
komplexifizierte
|
|
||||||
Quadriken
|
|
||||||
Quadrik
|
|
||||||
Grund-Quadriken
|
|
||||||
Vereinfachungsschritten
|
|
||||||
Koniken
|
|
||||||
Perge
|
|
||||||
Hyperbelbahnen
|
|
||||||
Konik
|
|
||||||
Auxerre
|
|
||||||
Loviscach
|
|
||||||
psycho-akustisches
|
|
||||||
SciKit
|
|
||||||
Funktionalgleichung
|
|
||||||
Schönhage-Strassen-Algorithmus
|
|
||||||
Schönhage
|
|
||||||
Strassen
|
|
||||||
Thurstone
|
|
||||||
Allport
|
|
||||||
Odbert
|
|
||||||
kulturstabile
|
|
||||||
Stryker
|
|
||||||
Gallup-Test
|
|
||||||
OCEAN-Modell
|
|
||||||
PCA
|
|
||||||
massebehafteter
|
|
||||||
Sylvester
|
|
||||||
Hurwitz-Kriteriums
|
|
||||||
Hurwitz-Kriterium
|
|
||||||
Determinantenabbildung
|
|
||||||
Eindeutigkeitsbeweis
|
|
||||||
Tensorproduktraum
|
|
||||||
Trivialbeispiel
|
|
||||||
Erzeugendensysteme
|
|
||||||
Kronecker-Produkt
|
|
||||||
Kronecker
|
|
||||||
Tensorprodukträume
|
|
||||||
Tensorproduktkonstruktion
|
|
||||||
Tensorproduktabbildung
|
|
||||||
Multiplikationsabbildung
|
|
||||||
Permutationsgruppe
|
|
||||||
Erzeugendensystemen
|
|
||||||
auszumultiplizieren
|
|
||||||
inner-mathematischen
|
|
||||||
zerlegungsgleich
|
|
||||||
Zerlegungsgleichheit
|
|
||||||
Invarianteneigenschaft
|
|
||||||
Quotientenvektorraum
|
|
||||||
Kebekus
|
|
||||||
|
1
.vscode/ltex.dictionary.en-US.txt
vendored
1
.vscode/ltex.dictionary.en-US.txt
vendored
@ -1 +0,0 @@
|
|||||||
observables
|
|
2
.vscode/ltex.disabledRules.de-DE.txt
vendored
2
.vscode/ltex.disabledRules.de-DE.txt
vendored
@ -1,3 +1 @@
|
|||||||
KARDINALZAHLEN
|
KARDINALZAHLEN
|
||||||
DE_COMPOUND_COHERENCY
|
|
||||||
KLEINSCHREIBUNG_KEIN_NAME
|
|
||||||
|
70
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
70
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -7,73 +7,3 @@
|
|||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
||||||
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
|
|
||||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
|
||||||
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe – wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
|
|
||||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QArthur Cayley (* 16. August 1821 in Richmond upon Thames, Surrey; † 26. Januar 1895 in Cambridge) war ein englischer Mathematiker.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Absolute Homogenität] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Dreiecksungleichung] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q [Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann ergibt sich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen Begriff von „orthogonalen Unterraum“.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir werden in Abschnitt sec:dual sehen, wie die Begriffe zusammenhängen.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des “Dualraum”.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des „Dualraum“.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem “orthogonalen Komplement” aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem „orthogonalen Komplement“ aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
|
||||||
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
|
||||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
|
|
||||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
|
|
||||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
|
|
||||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
|
|
||||||
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
|
|
||||||
{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
|
|
||||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
|
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
|
|
||||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}
|
|
||||||
|
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
@ -1,2 +0,0 @@
|
|||||||
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
|
||||||
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
|
@ -27,9 +27,9 @@ Diagonalgestalt hat.
|
|||||||
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
|
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
|
||||||
|
|
||||||
\begin{defn}[Diagonalisierbare Matrix]
|
\begin{defn}[Diagonalisierbare Matrix]
|
||||||
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $n ⨯ n$-Matrix $A$ heißt
|
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $(n ⨯ n)$-Matrix $A$ heißt
|
||||||
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
|
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
|
||||||
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, sodass $SAS^{-1}$ eine
|
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ GL_n(k)$, sodass $SAS^{-1}$ eine
|
||||||
Diagonalmatrix ist.
|
Diagonalmatrix ist.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
@ -85,14 +85,14 @@ Punkte abgezogen wurden.}.
|
|||||||
$$
|
$$
|
||||||
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
|
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
|
||||||
$$
|
$$
|
||||||
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
|
Also ist $\deg(g) = 6$ und die Nullstellen von $g$ sind $i$, $2$ und $3$
|
||||||
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
|
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
|
||||||
\end{erinnerung}
|
\end{erinnerung}
|
||||||
|
|
||||||
|
|
||||||
\section{Algebraische und geometrische Vielfachheit}
|
\section{Algebraische und geometrische Vielfachheit}
|
||||||
|
|
||||||
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
|
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun einen Skalar $λ ∈ k$ gegeben
|
||||||
habe, kann ich die folgenden zwei Zahlen betrachten.
|
habe, kann ich die folgenden zwei Zahlen betrachten.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Die \emph{algebraische Vielfachheit von
|
\item Die \emph{algebraische Vielfachheit von
|
||||||
@ -128,9 +128,9 @@ habe, kann ich die folgenden zwei Zahlen betrachten.
|
|||||||
$$
|
$$
|
||||||
\end{prop}
|
\end{prop}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
|
Sei ein Skalar $λ$ gegeben. Falls die geometrische Vielfachheit von $λ$ gleich
|
||||||
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
|
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
|
||||||
größer als Null. Das bedeutet: Es gibt eine lineare unabhängige (angeordnete)
|
größer als Null. Das bedeutet: Es gibt eine linear unabhängige (angeordnete)
|
||||||
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
|
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
|
||||||
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
|
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
|
||||||
Matrix von der Form
|
Matrix von der Form
|
||||||
|
@ -9,7 +9,7 @@
|
|||||||
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
|
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
|
||||||
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
|
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
|
||||||
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
|
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
|
||||||
sodass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest,
|
sodass die dazugehörige Matrix eine besonders einfache Gestalt hat -- zumindest,
|
||||||
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
|
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
|
||||||
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
|
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
|
||||||
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
|
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
|
||||||
@ -62,7 +62,7 @@ auch eine Menge Videos auf
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Jordansche Normalform]
|
\begin{defn}[Jordansche Normalform]
|
||||||
Es sei $k$ ein Körper und $n ∈ ℕ$ sei eine Zahl. Eine $n ⨯ n$-Matrix $A =
|
Es sei $k$ ein Körper und $n ∈ ℕ$ sei eine Zahl. Eine $(n ⨯ n)$-Matrix $A =
|
||||||
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
|
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
|
||||||
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
|
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
|
||||||
anderen Blöcke gleich Null sind.
|
anderen Blöcke gleich Null sind.
|
||||||
@ -110,13 +110,13 @@ Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
|
|||||||
\begin{satz}[Jordansche Normalform]\label{satz:JNF}%
|
\begin{satz}[Jordansche Normalform]\label{satz:JNF}%
|
||||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
|
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
|
||||||
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
|
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
|
||||||
$\mathcal{B}$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
|
$B$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
|
||||||
Normalform hat.
|
Normalform hat.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{notation}
|
\begin{notation}
|
||||||
Situation wie in Satz~\ref{satz:JNF}. Eine
|
Situation wie in Satz~\ref{satz:JNF}. Eine
|
||||||
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$
|
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $B$
|
||||||
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
|
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
|
||||||
hat.
|
hat.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
@ -139,7 +139,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
|||||||
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
|
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
|
||||||
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
|
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
|
||||||
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
|
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
|
||||||
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ ℕ$
|
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls eine Zahl $m ∈ ℕ$
|
||||||
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
|
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
|
||||||
solche Zahl $m$ heißt \emph{Nilpotenzindex von
|
solche Zahl $m$ heißt \emph{Nilpotenzindex von
|
||||||
$f$}\index{Nilpotenzindex!Endomorphismus}.
|
$f$}\index{Nilpotenzindex!Endomorphismus}.
|
||||||
@ -148,7 +148,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
|||||||
\begin{defn}[Nilpotente Matrizen]
|
\begin{defn}[Nilpotente Matrizen]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ eine Zahl und $A$ eine $( n⨯ n)$-Matrix
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ eine Zahl und $A$ eine $( n⨯ n)$-Matrix
|
||||||
mit Werten in $k$. Nenne die Matrix $A$
|
mit Werten in $k$. Nenne die Matrix $A$
|
||||||
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ ℕ$ existiert,
|
\emph{nilpotent}\index{nilpotent!Matrix}, falls eine Zahl $m ∈ ℕ$ existiert,
|
||||||
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
|
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
|
||||||
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
|
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
@ -165,7 +165,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
|||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
|
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
|
||||||
Genauer: Sei $A$ eine $(n ⨯ n)$-Matrix und sei $S ∈ Gl(n, k)$, sodass $N :=
|
Genauer: Sei $A$ eine $(n ⨯ n)$-Matrix und sei $S ∈ GL(n, k)$, sodass $N :=
|
||||||
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
|
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
|
||||||
$$
|
$$
|
||||||
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
|
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
|
||||||
@ -190,9 +190,9 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
|||||||
$$
|
$$
|
||||||
\Hau_f(λ) := \bigcup_{n ∈ ℕ} \ker \Bigl( (f - λ · \Id_V )^n \Bigr)
|
\Hau_f(λ) := \bigcup_{n ∈ ℕ} \ker \Bigl( (f - λ · \Id_V )^n \Bigr)
|
||||||
$$
|
$$
|
||||||
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!eines Endomorphismus} oder
|
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!Endomorphismus} oder
|
||||||
\emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}%
|
\emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}%
|
||||||
\index{verallgemeinerter Eigenraum!eines Endomorphismus}.
|
\index{verallgemeinerter Eigenraum!Endomorphismus}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}%
|
\begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}%
|
||||||
@ -203,8 +203,8 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
|||||||
\Bigr),
|
\Bigr),
|
||||||
$$
|
$$
|
||||||
wobei $\Id_{n⨯ n}$ die Einheitsmatrix bezeichnet. Man nennt dies den
|
wobei $\Id_{n⨯ n}$ die Einheitsmatrix bezeichnet. Man nennt dies den
|
||||||
\emph{Hauptraum}\index{Hauptraum!einer Matrix} oder \emph{verallgemeinerten
|
\emph{Hauptraum}\index{Hauptraum!Matrix} oder \emph{verallgemeinerten
|
||||||
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!einer Matrix}.
|
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!Matrix}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
@ -272,7 +272,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
|
|||||||
0 & A
|
0 & A
|
||||||
\end{array}\right).
|
\end{array}\right).
|
||||||
$$
|
$$
|
||||||
Es ist $χ_f(t) = (t-λ)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
|
Es ist $χ_f(t) = (λ-t)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
|
||||||
Nullstelle des Polynoms $χ_A$.
|
Nullstelle des Polynoms $χ_A$.
|
||||||
|
|
||||||
|
|
||||||
@ -355,7 +355,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
|
|||||||
\begin{align*}
|
\begin{align*}
|
||||||
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
|
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
|
||||||
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
|
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
|
||||||
… \\
|
\vdots \\
|
||||||
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
|
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
|
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
|
||||||
@ -626,7 +626,8 @@ zur „dualen Partition“ übergehen.
|
|||||||
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
||||||
die Vektoren
|
die Vektoren
|
||||||
\[
|
\[
|
||||||
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
|
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
|
||||||
|
v^p_{m_p-a}
|
||||||
\]
|
\]
|
||||||
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
||||||
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
||||||
@ -755,8 +756,8 @@ folgt vor.
|
|||||||
\]
|
\]
|
||||||
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
|
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
|
||||||
|
|
||||||
\item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir
|
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen
|
||||||
wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
|
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
|
||||||
|
|
||||||
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
|
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
|
||||||
die duale Partition
|
die duale Partition
|
||||||
|
@ -117,9 +117,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
|||||||
|
|
||||||
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
||||||
Es sei $A$ eine beliebige quadratische $(n⨯ n)$-Matrix über den komplexen
|
Es sei $A$ eine beliebige quadratische $(n⨯ n)$-Matrix über den komplexen
|
||||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
|
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
|
||||||
effizient eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, sodass $B :=
|
eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, so dass $B := S·A·S^{-1}$
|
||||||
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||||
\[
|
\[
|
||||||
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
||||||
\]
|
\]
|
||||||
@ -133,7 +133,7 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
|||||||
|
|
||||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
|
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
|
||||||
\[
|
\[
|
||||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}.
|
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}
|
||||||
\]
|
\]
|
||||||
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
||||||
wissen, dass für jede reelle Zahl $t$ gilt
|
wissen, dass für jede reelle Zahl $t$ gilt
|
||||||
@ -152,12 +152,12 @@ $(n⨯n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
|||||||
\[
|
\[
|
||||||
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
||||||
\]
|
\]
|
||||||
Dabei sei $A⁰$ stets die $(n⨯n)$-Einheitsmatrix. Diese Reihe konvergiert in
|
Dabei sei $A⁰$ stets die $(n⨯ n)$-Einheitsmatrix. Diese Reihe konvergiert
|
||||||
dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
in dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||||
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
||||||
Operatornorm, …. Ich erhalte so eine Abbildung
|
Operatornorm, …. Ich erhalte so eine Abbildung
|
||||||
\[
|
\[
|
||||||
\exp : \Mat_{n⨯n}(ℂ) → \Mat_{n⨯n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n,
|
\exp : \Mat_{n⨯ n}(ℂ) → \Mat_{n⨯ n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n
|
||||||
\]
|
\]
|
||||||
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
||||||
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||||
@ -171,7 +171,7 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
|||||||
& λ_2 & \\
|
& λ_2 & \\
|
||||||
& & \ddots \\
|
& & \ddots \\
|
||||||
0 & & & λ_n
|
0 & & & λ_n
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Dann ist
|
Dann ist
|
||||||
\[
|
\[
|
||||||
@ -192,14 +192,15 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
|||||||
\]
|
\]
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Etwas weitergehende Beispiele finden Sie als
|
Etwas
|
||||||
|
weitergehende Beispiele finden Sie als
|
||||||
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
||||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||||
Matrixexponentials.
|
Matrixexponentials.
|
||||||
|
|
||||||
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n⨯
|
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe
|
||||||
n)$-Matrizen.
|
$(n⨯ n)$-Matrizen.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
||||||
ist), dann gilt
|
ist), dann gilt
|
||||||
@ -207,8 +208,8 @@ Matrixexponentials.
|
|||||||
\exp(A+B)=\exp(A)·\exp(B).
|
\exp(A+B)=\exp(A)·\exp(B).
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯n)$-Matrix $S$
|
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯ n)$-Matrix
|
||||||
ist
|
$S$ ist
|
||||||
\[
|
\[
|
||||||
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
||||||
\]
|
\]
|
||||||
@ -216,40 +217,40 @@ Matrixexponentials.
|
|||||||
\end{fakt}
|
\end{fakt}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Wenn $A$ irgendeine komplexe $(n⨯n)$-Matrix ist, dann kommutieren die Matrizen
|
Wenn $A$ irgendeine komplexe $(n⨯ n)$-Matrix ist, dann kommutieren die
|
||||||
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||||
\[
|
\[
|
||||||
\Id_{n⨯ n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
\Id_{n⨯ n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||||
\]
|
\]
|
||||||
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
||||||
$(n⨯n)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
|
$(n⨯ n)$-Matrix $A$ stets invertierbar ist, und dass
|
||||||
gilt.
|
$\exp(A)^{-1} = \exp(-A)$ gilt.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
||||||
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
||||||
|
|
||||||
|
|
||||||
\section{Lineare, homogene Differenzialgleichungssysteme}
|
\section{Lineare, homogene Differentialgleichungssysteme}
|
||||||
|
|
||||||
\subsection{Erinnerung}
|
\subsection{Erinnerung}
|
||||||
|
|
||||||
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
|
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
|
||||||
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||||
eine differenzierbare Funktion $y : ℝ → ℝ$, sodass für alle $t ∈ ℝ$ gilt: $y'(t)
|
eine differenzierbare Funktion $y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$
|
||||||
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
|
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
|
||||||
Sie, dass es nur eine solche Funktion gibt:
|
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
|
||||||
$$
|
$$
|
||||||
y(t) = \exp(t·a)·y_0.
|
y(t) = \exp(t·a)·y_0.
|
||||||
$$
|
$$
|
||||||
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Lineare, homogene Differenzialgleichungssysteme}
|
\subsection{Lineare, homogene Differentialgleichungssysteme}
|
||||||
|
|
||||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯n)$-Matrix $A$ und ein
|
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯ n)$-Matrix $A$
|
||||||
Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
|
und ein Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare
|
||||||
…, $y_n : ℂ → ℂ$, sodass für alle $t ∈ ℂ$ gilt:
|
Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
||||||
\[
|
\[
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
y'_1(t) \\
|
y'_1(t) \\
|
||||||
@ -264,7 +265,7 @@ Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1
|
|||||||
y_2(t) \\
|
y_2(t) \\
|
||||||
\vdots \\
|
\vdots \\
|
||||||
y_n(t)
|
y_n(t)
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Außerdem soll
|
Außerdem soll
|
||||||
\[
|
\[
|
||||||
@ -278,8 +279,8 @@ Außerdem soll
|
|||||||
\]
|
\]
|
||||||
sein.
|
sein.
|
||||||
|
|
||||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
|
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
|
||||||
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||||
gegeben als
|
gegeben als
|
||||||
\[
|
\[
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
@ -298,12 +299,12 @@ sein.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
|
|
||||||
\subsection{Differenzialgleichungen höherer Ordnung}
|
\subsection{Differentialgleichungen höherer Ordnung}
|
||||||
|
|
||||||
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
||||||
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : ℝ → ℝ$,
|
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
|
||||||
sodass für alle $t ∈ ℝ$ gilt:
|
$y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$ gilt:
|
||||||
\begin{equation}\label{eq:3-3-2-1}
|
\begin{equation}\label{eq:3-3-2-1}
|
||||||
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
||||||
\end{equation}
|
\end{equation}
|
||||||
@ -343,9 +344,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
|
|||||||
y_0 \\
|
y_0 \\
|
||||||
y'_0 \\
|
y'_0 \\
|
||||||
y''_0
|
y''_0
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
|
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
|
||||||
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
|
@ -18,8 +18,9 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
|
|||||||
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
||||||
\]
|
\]
|
||||||
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
||||||
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
|
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
|
||||||
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
|
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
||||||
|
``Polynome''.
|
||||||
|
|
||||||
\begin{defn}[Polynome]
|
\begin{defn}[Polynome]
|
||||||
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
||||||
@ -44,15 +45,15 @@ aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome
|
|||||||
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
|
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
|
||||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
|
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
|
||||||
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
|
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
|
||||||
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
|
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
|
||||||
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
|
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
|
||||||
$t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
|
dann sind die Polynome $t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben
|
||||||
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
|
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
|
||||||
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
|
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
|
||||||
des endlichen Körpers $𝔽_2$.
|
Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||||
|
|
||||||
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
||||||
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
||||||
@ -67,33 +68,22 @@ des endlichen Körpers $𝔽_2$.
|
|||||||
\]
|
\]
|
||||||
genannt
|
genannt
|
||||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
||||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||||
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
|
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
|
||||||
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
|
Matrix $p(A)$ und eine
|
||||||
→ \Mat(n⨯n, k)$ durch $s(A) = p(A)$.
|
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
|
||||||
|
$s: k[t] → \Mat(n⨯ n, k)$ durch $s(A) = p(A)$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
|
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
|
||||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||||
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
|
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
|
||||||
GL_n(k)$ haben, dann ist
|
Matrix $S ∈ GL_n(k)$ haben, dann ist
|
||||||
\[
|
\[
|
||||||
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
||||||
\]
|
\]
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Der Satz von Cayley\footnote{Arthur Cayley (* 16.~August 1821 in Richmond upon
|
|
||||||
Thames, Surrey; † 26.~Januar 1895 in Cambridge) war ein englischer Mathematiker.
|
|
||||||
Er befasste sich mit sehr vielen Gebieten der Mathematik von der Analysis,
|
|
||||||
Algebra, Geometrie bis zur Astronomie und Mechanik, ist aber vor allem für seine
|
|
||||||
Rolle bei der Einführung des abstrakten Gruppenkonzepts
|
|
||||||
bekannt.}-Hamilton\footnote{Sir William Rowan Hamilton (* 4.~August 1805 in
|
|
||||||
Dublin; † 2.~September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker
|
|
||||||
und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine
|
|
||||||
Einführung und Untersuchung der Quaternionen bekannt ist.} sagt, dass jeder
|
|
||||||
Endomorphismus Nullstelle seines eigenen charakteristischen Polynoms ist. Wie
|
|
||||||
cool ist das?
|
|
||||||
|
|
||||||
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
|
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
|
||||||
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
|
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
|
||||||
Polynom des Endomorphismus $f$. Dann ist
|
Polynom des Endomorphismus $f$. Dann ist
|
||||||
@ -106,11 +96,10 @@ cool ist das?
|
|||||||
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
|
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
|
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
|
||||||
|
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
||||||
|
|
||||||
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
|
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
|
||||||
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
|
|
||||||
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
|
|
||||||
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
|
|
||||||
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
|
|
||||||
\video{6-1}
|
\video{6-1}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
@ -122,19 +111,19 @@ Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
|
|||||||
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||||
das Nullpolynom betrachten.
|
das Nullpolynom betrachten.
|
||||||
|
|
||||||
\begin{beobachtung}\label{beob:4-0-7}%
|
\begin{beobachtung}\label{beob:4-0-7}
|
||||||
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
||||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder ein
|
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder
|
||||||
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||||
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
||||||
1 ist.
|
1 ist.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}\label{beob:4-0-8}%
|
\begin{beobachtung}\label{beob:4-0-8}
|
||||||
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
||||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
|
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
|
||||||
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
|
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
|
||||||
:= p_1-p_2$. Dann gilt Folgendes.
|
$q := p_1-p_2$. Dann gilt Folgendes.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
||||||
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
||||||
@ -162,7 +151,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
||||||
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
||||||
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
||||||
das Minimalpolynom eindeutig bestimmt ist.
|
dies Minimalpolynome eindeutig bestimmt ist.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
@ -173,7 +162,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
5 & 1 & 0 \\
|
5 & 1 & 0 \\
|
||||||
0 & 5 & 0 \\
|
0 & 5 & 0 \\
|
||||||
0 & 0 & 5
|
0 & 0 & 5
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯ 3}$, ist das
|
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯ 3}$, ist das
|
||||||
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
||||||
@ -183,7 +172,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
25 & 10 & 0 \\
|
25 & 10 & 0 \\
|
||||||
0 & 25 & 0 \\
|
0 & 25 & 0 \\
|
||||||
0 & 0 & 25
|
0 & 0 & 25
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Also ist $A²-10·A+25·\Id_{3⨯ 3} = 0$. Also ist
|
Also ist $A²-10·A+25·\Id_{3⨯ 3} = 0$. Also ist
|
||||||
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
||||||
@ -197,17 +186,17 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe
|
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe
|
||||||
Minimalpolynom.
|
Minimalpolynom.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||||
|
|
||||||
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
||||||
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
||||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
|
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
|
||||||
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
|
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
|
||||||
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
|
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
||||||
@ -218,9 +207,9 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
|||||||
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
||||||
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
|
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
|
||||||
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
|
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
|
||||||
und $f$ als Nullstelle hat. Also hat
|
normiert ist und $f$ als Nullstelle hat. Also hat
|
||||||
\[
|
\[
|
||||||
r(t) = q(t) - t^d·p(t)
|
r(t) = q(t) - t^d·p(t)
|
||||||
\]
|
\]
|
||||||
@ -231,8 +220,8 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{satz}[Nullstellen des Minimalpolynoms]
|
\begin{satz}[Nullstellen des Minimalpolynoms]
|
||||||
Es sei $k$ ein Körper, $A$ eine $(n⨯n)$-Matrix mit Werten in $k$ und $λ ∈ k$.
|
Es sei $k$ eine Körper, $A$ eine $(n⨯ n)$-Matrix mit Werten in $k$ und
|
||||||
TFAE:
|
$λ ∈ k$. TFAE:
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
||||||
|
|
||||||
|
@ -7,12 +7,12 @@
|
|||||||
\section{Die Euklidische Norm und der Euklidische Abstand}
|
\section{Die Euklidische Norm und der Euklidische Abstand}
|
||||||
\label{sec:end}
|
\label{sec:end}
|
||||||
|
|
||||||
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
|
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
|
||||||
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
|
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
|
||||||
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
|
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
|
||||||
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
|
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
|
||||||
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir dann
|
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir
|
||||||
beliebige Vektorräume.
|
dann beliebige Vektorräume.
|
||||||
|
|
||||||
\begin{defn}[Euklidische Norm auf dem $ℝ^n$]
|
\begin{defn}[Euklidische Norm auf dem $ℝ^n$]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||||
@ -49,16 +49,17 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
|||||||
|
|
||||||
\section{Abstandserhaltende Abbildungen}
|
\section{Abstandserhaltende Abbildungen}
|
||||||
|
|
||||||
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
|
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
|
||||||
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
|
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
|
||||||
beziehungsweise den Euklidischen Abstand respektieren.
|
beziehungsweise den Euklidischen Abstand respektieren.
|
||||||
|
|
||||||
\begin{defn}
|
\begin{defn}
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Eine Abbildung $φ: ℝ^n → ℝ^n$ heißt
|
Es sei $n ∈ ℕ$ eine Zahl. Eine Abbildung $φ: ℝ^n → ℝ^n$ heißt
|
||||||
\emph{abstandserhaltend bezüglich der Euklidischen
|
\emph{abstandserhaltend bezüglich der Euklidischen
|
||||||
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
|
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
|
||||||
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
|
oder \emph{metrikerhaltend bezüglich der Euklidischen
|
||||||
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
|
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
|
||||||
|
falls gilt:
|
||||||
\[
|
\[
|
||||||
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
|
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
|
||||||
\vec{y} ∈ ℝ^n.
|
\vec{y} ∈ ℝ^n.
|
||||||
@ -86,8 +87,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
|
|||||||
Abbildungen.
|
Abbildungen.
|
||||||
|
|
||||||
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
|
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend bezüglich
|
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend
|
||||||
der Euklidischen Norm. Dann gilt Folgendes.
|
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
|
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
|
||||||
|
|
||||||
@ -101,20 +102,20 @@ Abbildungen.
|
|||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
\end{lem}
|
\end{lem}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Wir beweisen die Teilaussage „$φ$ ist injektiv“ von \ref{il:5-2-4-1}:
|
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
|
||||||
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
|
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
|
||||||
φ(\vec{v}_2)$. Dann ist
|
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
|
||||||
\[
|
\[
|
||||||
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
|
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
|
||||||
\]
|
\]
|
||||||
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage „$φ$
|
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
|
||||||
ist surjektiv“ beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
||||||
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
|
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
|
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
|
||||||
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
|
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
|
||||||
Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
||||||
\end{kor}
|
\end{kor}
|
||||||
|
|
||||||
|
|
||||||
@ -130,20 +131,20 @@ enorm.
|
|||||||
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
|
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
|
||||||
Abbildung
|
Abbildung
|
||||||
\[
|
\[
|
||||||
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
|
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
|
||||||
\]
|
\]
|
||||||
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
|
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
|
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
|
||||||
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
|
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
|
||||||
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
|
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
||||||
bezüglich des Euklidischen Abstands}\index{Transformation des $ℝ^n$!orthogonal
|
bezüglich des Euklidischen Abstands}\index{Transformation des
|
||||||
bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
|
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
||||||
ℝ^n → ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
abstandserhaltende Abbildung $ψ: ℝ^n ˝→ ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
|
||||||
@ -152,19 +153,19 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
|
|||||||
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
|
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
|
||||||
Transformation eine Gruppe bilden.
|
Transformation eine Gruppe bilden.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
|
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der
|
Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der
|
||||||
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
|
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
|
||||||
$\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$
|
$\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$
|
||||||
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$ bezüglich
|
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$
|
||||||
der Euklidischen Norm}.
|
bezüglich der Euklidischen Norm}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
|
||||||
\section{Das Standardskalarprodukt auf dem $ℝ^n$}
|
\section{Das Standard-Skalarprodukt auf dem $ℝ^n$}
|
||||||
|
|
||||||
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
|
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
|
||||||
Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $ℝ^n$.
|
||||||
|
|
||||||
\begin{defn}[Standardskalarprodukt $ℝ^n$]
|
\begin{defn}[Standardskalarprodukt $ℝ^n$]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||||
@ -191,35 +192,35 @@ Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
|||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
|
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
|
||||||
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
|
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
|
||||||
einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||||
Eigenschaft einmal selbst?
|
Eigenschaft einmal selbst?
|
||||||
|
|
||||||
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt Folgendes.
|
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt folgendes:
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
|
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||||
\[
|
\[
|
||||||
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
|
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
|
||||||
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
|
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
|
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||||
\[
|
\[
|
||||||
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
|
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
|
||||||
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
|
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt $\langle \vec{x},
|
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt
|
||||||
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
|
$\langle \vec{x}, \vec{x} \rangle ≥ 0$. Außerdem gilt
|
||||||
\vec{x} = \vec{0}$.
|
$\langle \vec{x}, \vec{x} \rangle = 0 ⇔ \vec{x} = \vec{0}$.
|
||||||
|
|
||||||
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ gilt
|
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ gilt
|
||||||
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
|
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
|
||||||
|
|
||||||
\item[Satz des Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
\item[Satz von Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
||||||
und $\vec{y} ∈ ℝ^n$ gilt
|
und $\vec{y} ∈ ℝ^n$ gilt
|
||||||
\[
|
\[
|
||||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
|
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
|
||||||
@ -232,16 +233,18 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
|
|||||||
scheint.
|
scheint.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale Vektoren]
|
\begin{defn}[Orthogonale Vektoren]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y} ∈
|
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
|
||||||
ℝ^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
|
$\vec{y} ∈ ℝ^n$ \emph{zueinander orthogonal}, falls
|
||||||
0$ ist\index{orthogonal!Paar von Vektoren}.
|
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
|
||||||
|
Vektoren}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{defn}[Orthonormalbasis]
|
\begin{defn}[Orthonormalbasis]
|
||||||
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
||||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
|
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
||||||
ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
|
Freunden: ONB), falls für alle $i, j$ gilt, dass
|
||||||
δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
|
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
|
||||||
|
Kronecker-Delta bezeichnet.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
@ -249,12 +252,12 @@ scheint.
|
|||||||
Standardskalarprodukts.
|
Standardskalarprodukts.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
|
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
||||||
|
|
||||||
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
|
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
|
||||||
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$
|
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$
|
||||||
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
|
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
|
||||||
sei $\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
$\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
||||||
\[
|
\[
|
||||||
\vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i .
|
\vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i .
|
||||||
\]
|
\]
|
||||||
@ -277,7 +280,7 @@ Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
|
|||||||
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
|
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
|
||||||
Eine Menge, wie wir sofort sehen werden.
|
Eine Menge, wie wir sofort sehen werden.
|
||||||
|
|
||||||
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
|
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die
|
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die
|
||||||
Gleichung
|
Gleichung
|
||||||
@ -293,12 +296,12 @@ Eine Menge, wie wir sofort sehen werden.
|
|||||||
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr)² \Bigr) && \text{Definition}\\
|
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr)² \Bigr) && \text{Definition}\\
|
||||||
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr)² \Bigr) && φ\text{ ist abstandserhaltend}\\
|
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr)² \Bigr) && φ\text{ ist abstandserhaltend}\\
|
||||||
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
|
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
|
||||||
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
|
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Damit ist das Lemma bewiesen.
|
Damit ist das Lemma bewiesen.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
|
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
|
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
|
||||||
Orthonormalbasis des $ℝ^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
|
Orthonormalbasis des $ℝ^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
|
||||||
@ -312,11 +315,11 @@ Eine Menge, wie wir sofort sehen werden.
|
|||||||
\section{Beschreibung der orthogonalen Transformationen}
|
\section{Beschreibung der orthogonalen Transformationen}
|
||||||
\label{sec:5-5}
|
\label{sec:5-5}
|
||||||
|
|
||||||
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden
|
||||||
vollständig beschreiben.
|
Abbildungen) vollständig beschreiben.
|
||||||
|
|
||||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
|
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
|
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
@ -334,7 +337,7 @@ vollständig beschreiben.
|
|||||||
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
|
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
|
||||||
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
|
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
|
||||||
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||||
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
|
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
|
||||||
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||||
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
|
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
|
||||||
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
|
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
|
||||||
@ -342,7 +345,7 @@ vollständig beschreiben.
|
|||||||
Damit ist die Linearität gezeigt. \qed
|
Damit ist die Linearität gezeigt. \qed
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
|
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
|
Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
|
||||||
des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
|
des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
@ -371,8 +374,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
|
|||||||
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
|
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit „orthogonale
|
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
|
||||||
Gruppe“ zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
||||||
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
|
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
|
||||||
|
|
||||||
% !TEX root = LineareAlgebra2
|
% !TEX root = LineareAlgebra2
|
||||||
|
227
06-Produkte.tex
227
06-Produkte.tex
@ -8,26 +8,26 @@
|
|||||||
\section{Bilinearformen und Skalarprodukte}
|
\section{Bilinearformen und Skalarprodukte}
|
||||||
\label{sec:skalar}
|
\label{sec:skalar}
|
||||||
|
|
||||||
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
|
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
|
||||||
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
|
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
|
||||||
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
|
||||||
diskutieren. Hier kommen alle relevanten Definitionen.
|
und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||||
|
|
||||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}%
|
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
||||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: V⨯V → k$
|
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
||||||
heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
$b: V ⨯ V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||||
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
||||||
|
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
|
\item[Linearität in der ersten Komponente] Für alle
|
||||||
∈ V $ und für alle $λ ∈ k$ gilt
|
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
|
||||||
\[
|
\[
|
||||||
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
|
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
|
||||||
λ·b(\vec{y}, \vec{z}).
|
λ·b(\vec{y}, \vec{z}).
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
|
\item[Linearität in der zweiten Komponente] Für alle
|
||||||
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||||
\[
|
\[
|
||||||
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
|
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
|
||||||
λ·b(\vec{x}, \vec{z}) .
|
λ·b(\vec{x}, \vec{z}) .
|
||||||
@ -35,45 +35,47 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
\end{description}
|
\end{description}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
|
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
|
||||||
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
|
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
|
||||||
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
|
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
|
||||||
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
|
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
|
||||||
Verknüpfungen einen $k$-Vektorraum.
|
Verknüpfungen einen $k$-Vektorraum.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
|
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
|
||||||
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
|
||||||
Dann ist die Abbildung
|
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
||||||
\[
|
\[
|
||||||
b : k^n ⨯ k^n → k, \quad (\vec{v},\vec{w}) ↦
|
b : k^n ⨯ k^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||||
\vec{v}^{\:t}·B·\vec{w}
|
\vec{v}^{\:t}·B·\vec{w}
|
||||||
\]
|
\]
|
||||||
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich bin nicht
|
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich
|
||||||
mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder $^t•$ geschrieben habe.
|
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder
|
||||||
Beim Tippen schaut $•^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
|
$^t•$ geschrieben habe. Beim Tippen schaut $•^t$ viel besser
|
||||||
$B·\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
|
aus.}. Beachte dazu, dass $\vec{w}$ und $B·\vec{w}$ Spaltenvektoren sind,
|
||||||
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1⨯
|
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
|
||||||
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1⨯
|
mit einem Spaltenvektor ist eine $1⨯ 1$-Matrix; die Definition von $b$
|
||||||
1$-Matrizen mit den Skalaren identifizieren.
|
ist so zu verstehen, dass wir $1⨯ 1$-Matrizen mit den Skalaren
|
||||||
|
identifizieren.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Symmetrische Bilinearform]
|
\begin{defn}[Symmetrische Bilinearform]
|
||||||
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : V⨯V → k$
|
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
|
||||||
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
|
$b : V ⨯ V → k$ heißt
|
||||||
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
|
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
|
||||||
\vec{x})$ gilt.
|
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
|
||||||
|
gilt.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
|
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
|
||||||
Ganz wie in Beobachtung~\ref{bem:6-1-2} bildet die Menge der symmetrischen
|
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
|
||||||
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
|
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
|
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
|
||||||
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
|
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
|
||||||
Wenn eine $n⨯n$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
|
``Matrixprodukt''. Wenn eine $n⨯ n$-Matrix $B$ die Gleichung $B^t=B$
|
||||||
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
||||||
\[
|
\[
|
||||||
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^t·\vec{v}^{\:tt} =
|
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^t·\vec{v}^{\:tt} =
|
||||||
\vec{w}^{\:t}·B^t·\vec{v}.
|
\vec{w}^{\:t}·B^t·\vec{v}.
|
||||||
@ -84,22 +86,21 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
|
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
|
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
|
||||||
Es sei $k=ℝ$ oder $k=ℚ$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
|
Es sei $k=ℝ$ oder $k=ℚ$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
|
||||||
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
|
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||||
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
||||||
semidefinit}, falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x},
|
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
|
||||||
\vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
$b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
|
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||||
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||||
\vec{0}$.
|
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $ℚ$ und $ℝ$]
|
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $ℚ$ und $ℝ$]
|
||||||
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = ℝ$
|
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
|
||||||
und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei
|
$k = ℝ$ und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei anderen Körpern (etwa $k = ℂ$) ist
|
||||||
anderen Körpern (etwa $k = ℂ$) ist gar nicht klar, was die Aussage
|
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x}) ≥ 0$'' bedeuten soll.
|
||||||
„$b(\vec{x}, \vec{x}) ≥ 0$“ bedeuten soll.
|
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
|
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
|
||||||
@ -123,10 +124,10 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
\end{pmatrix}, \quad
|
\end{pmatrix}, \quad
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
π & -e \\ \frac{-256}{257} & 2
|
π & -e \\ \frac{-256}{257} & 2
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
|
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
|
||||||
semidefinit“, „positiv definit“ und … ?
|
``positiv semidefinit'', ``positiv definit'' und … ?
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
|
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
|
||||||
@ -137,17 +138,17 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
|
|
||||||
\begin{bsp}[Standardskalarprodukt, Einschränkung]
|
\begin{bsp}[Standardskalarprodukt, Einschränkung]
|
||||||
Das Standardskalarprodukt auf dem $ℝ^n$ ist ein Skalarprodukt. Es sei $V$ ein
|
Das Standardskalarprodukt auf dem $ℝ^n$ ist ein Skalarprodukt. Es sei $V$ ein
|
||||||
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
|
reeller Vektorraum und $\langle •, • \rangle$ sei ein
|
||||||
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W⨯ W}$ wieder
|
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
|
||||||
ein Skalarprodukt.
|
$\langle •, • \rangle|_{W⨯ W}$ wieder ein Skalarprodukt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{bsp}[Integration]\label{bsp:Integration}%
|
\begin{bsp}[Integration]\label{bsp:Integration}
|
||||||
Es sei $k = ℝ$ und es sei $V = \cC⁰([0,1], ℝ)$ der Vektorraum der
|
Es sei $k = ℝ$ und es sei $V = \cC⁰([0,1], ℝ)$ der Vektorraum der
|
||||||
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$, wie
|
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$, wie
|
||||||
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
|
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
|
||||||
\[
|
\[
|
||||||
\langle •, • \rangle : V⨯V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
|
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
|
||||||
\]
|
\]
|
||||||
ist ein Skalarprodukt.
|
ist ein Skalarprodukt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -155,44 +156,44 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
|
|
||||||
\subsection{Beschreibung von Bilinearformen durch Matrizen}
|
\subsection{Beschreibung von Bilinearformen durch Matrizen}
|
||||||
|
|
||||||
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
|
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
|
||||||
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
|
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
|
||||||
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung „Lineare
|
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
|
||||||
Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
||||||
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
|
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
|
||||||
|
|
||||||
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
|
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
|
||||||
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
|
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
|
||||||
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
|
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
|
||||||
Das gibt es im Leben öfter.
|
beschreiben. Das gibt es im Leben öfter.
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
|
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
|
||||||
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
|
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
|
||||||
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
|
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
|
||||||
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
||||||
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
|
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Wir betrachten die folgende Situation.
|
Wir betrachten die folgende Situation.
|
||||||
|
|
||||||
\begin{situation}\label{sit:6-3-1}%
|
\begin{situation}\label{sit:6-3-1}
|
||||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||||
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
|
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
|
||||||
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||||
\end{situation}
|
\end{situation}
|
||||||
|
|
||||||
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
|
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
|
||||||
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V⨯V → k$ gegeben.
|
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V ⨯ V → k$
|
||||||
Dann betrachte die $n⨯n$-Matrix
|
gegeben. Dann betrachte die $n⨯n$-Matrix
|
||||||
\[
|
\[
|
||||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
|
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
|
||||||
\]
|
\]
|
||||||
\end{konstruktion}
|
\end{konstruktion}
|
||||||
|
|
||||||
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
|
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
|
||||||
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann
|
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte
|
||||||
betrachte die Bilinearform
|
die Bilinearform
|
||||||
\[
|
\[
|
||||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||||
φ_B(\vec{v})^t·A·φ_B(\vec{w})
|
φ_B(\vec{v})^t·A·φ_B(\vec{w})
|
||||||
@ -208,10 +209,10 @@ Wir betrachten die folgende Situation.
|
|||||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
|
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
|
||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\]
|
\]
|
||||||
Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen $a_{ij}$, dann gibt
|
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
|
||||||
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
|
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
|
||||||
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
|
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
|
||||||
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
@ -230,7 +231,7 @@ Wir betrachten die folgende Situation.
|
|||||||
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
|
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
|
||||||
Bilinearform
|
Bilinearform
|
||||||
\[
|
\[
|
||||||
b : V⨯V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
|
b : V ⨯ V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
|
||||||
\]
|
\]
|
||||||
Dann ist
|
Dann ist
|
||||||
\[
|
\[
|
||||||
@ -247,8 +248,8 @@ Wir betrachten die folgende Situation.
|
|||||||
\subsection{Basiswechsel}
|
\subsection{Basiswechsel}
|
||||||
|
|
||||||
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
|
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
|
||||||
eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
|
eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||||
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||||
|
|
||||||
\begin{erinnerung}
|
\begin{erinnerung}
|
||||||
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
|
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
|
||||||
@ -267,8 +268,8 @@ Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
|||||||
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
|
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
|
||||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||||
$V$, eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
$V$, eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||||
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_•
|
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
|
||||||
:= \Mat_{B_{•}}(b)$. Dann ist
|
$M_{•} := \Mat_{B_{•}}(b)$. Dann ist
|
||||||
\[
|
\[
|
||||||
M_1 = S^t·M_2·S.
|
M_1 = S^t·M_2·S.
|
||||||
\]
|
\]
|
||||||
@ -281,25 +282,25 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
|
|||||||
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
|
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
|
||||||
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
|
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
|
||||||
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
|
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
|
||||||
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
|
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
|
||||||
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
|
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
|
||||||
nur die Transponierte $S^t$ ausrechnen muss.
|
nur die Transponierte $S^t$ ausrechnen muss.
|
||||||
|
|
||||||
|
|
||||||
\section{Sesquilinearformen und Hermitesche Produkte}
|
\section{Sesquilinearformen und Hermitesche Produkte}
|
||||||
|
|
||||||
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
|
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
|
||||||
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
|
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
|
||||||
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
|
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
|
||||||
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
|
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
|
||||||
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
|
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
|
||||||
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
|
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
|
||||||
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
|
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
|
||||||
Definition von „positiv definit“. Der praktische Erfolg der folgenden
|
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
|
||||||
Definitionen gibt der Sache aber recht.
|
Definitionen gibt der Sache aber recht.
|
||||||
|
|
||||||
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
|
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
|
||||||
den komplexen Zahlen. Eine
|
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
|
||||||
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
|
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
|
||||||
ist eine Abbildung $b: V ⨯ V → ℂ$, so dass Folgendes gilt.
|
ist eine Abbildung $b: V ⨯ V → ℂ$, so dass Folgendes gilt.
|
||||||
\begin{description}
|
\begin{description}
|
||||||
@ -323,18 +324,18 @@ Definitionen gibt der Sache aber recht.
|
|||||||
$x+i·y ↦ x - i·y$.
|
$x+i·y ↦ x - i·y$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
|
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
|
||||||
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
|
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
|
||||||
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
|
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
|
||||||
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
|
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
|
||||||
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
|
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
|
||||||
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
|
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
|
||||||
Menge der Sesquilinearformen einen reellen Vektorraum.
|
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
|
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
|
||||||
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige
|
||||||
Dann ist die Abbildung
|
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
||||||
\[
|
\[
|
||||||
b : ℂ^n ⨯ ℂ^n → k, \quad (\vec{v},\vec{w}) ↦
|
b : ℂ^n ⨯ ℂ^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||||
\vec{v}^{\:t}·B·\overline{\vec{w}}
|
\vec{v}^{\:t}·B·\overline{\vec{w}}
|
||||||
@ -359,24 +360,24 @@ Definitionen gibt der Sache aber recht.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Hermitesche Sesquilinearform]
|
\begin{defn}[Hermitesche Sesquilinearform]
|
||||||
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : V⨯V →
|
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
|
||||||
ℂ$ heißt
|
$b : V ⨯ V → ℂ$ heißt
|
||||||
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
|
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
|
||||||
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
||||||
Paris) war ein französischer
|
Paris) war ein französischer
|
||||||
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
||||||
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
|
$\vec{y} ∈ V$ die Gleichung
|
||||||
\overline{b(\vec{y},\vec{x})}$ gilt.
|
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
|
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
|
||||||
Es sei $b : V ⨯ V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
Es sei $b : V ⨯ V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
||||||
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
|
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
|
||||||
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
|
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
|
||||||
imaginäre Anteil verschwinden muss.
|
imaginäre Anteil verschwinden muss.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
|
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
|
||||||
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
|
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
|
||||||
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
|
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
|
||||||
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
|
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
|
||||||
@ -385,12 +386,12 @@ Definitionen gibt der Sache aber recht.
|
|||||||
Vektorraumes der Sesquilinearformen bildet.
|
Vektorraumes der Sesquilinearformen bildet.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
|
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
|
||||||
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
|
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
|
||||||
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
|
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
|
||||||
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
|
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
|
||||||
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
|
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
|
||||||
komplexer Vektorraum.
|
\emph{kein} komplexer Vektorraum.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
|
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
|
||||||
@ -404,18 +405,18 @@ Definitionen gibt der Sache aber recht.
|
|||||||
tun?
|
tun?
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
|
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
|
||||||
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
|
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
|
||||||
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
|
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||||
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
||||||
semidefinit}\index{positiv semidefinit}, falls für alle $\vec{x} ∈ V$ die
|
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
|
||||||
Ungleichung $b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
Ungleichung $b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
|
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||||
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||||
\vec{0}$.
|
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
|
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
|
||||||
Es sei $V$ ein komplexer Vektorraum. Ein
|
Es sei $V$ ein komplexer Vektorraum. Ein
|
||||||
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
|
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
|
||||||
positiv definite, Hermitesche Sesquilinearform.
|
positiv definite, Hermitesche Sesquilinearform.
|
||||||
@ -454,7 +455,7 @@ Definitionen gibt der Sache aber recht.
|
|||||||
Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$. Die Abbildung
|
Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$. Die Abbildung
|
||||||
\[
|
\[
|
||||||
\langle •, • \rangle : V ⨯ V → ℂ, \quad (f, g) ↦ \int¹_0
|
\langle •, • \rangle : V ⨯ V → ℂ, \quad (f, g) ↦ \int¹_0
|
||||||
f(t)·\overline{g(t)} dt
|
f(t)·\overline{g(t)} dt.
|
||||||
\]
|
\]
|
||||||
ist ein Skalarprodukt.
|
ist ein Skalarprodukt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -487,8 +488,8 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
|
|||||||
gehen, geben wir nur die Ergebnisse an.
|
gehen, geben wir nur die Ergebnisse an.
|
||||||
|
|
||||||
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
|
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
|
||||||
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis $B
|
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis
|
||||||
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
||||||
bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Gegeben eine Sesquilinearform $b : V ⨯ V → k$, dann betrachte die
|
\item Gegeben eine Sesquilinearform $b : V ⨯ V → k$, dann betrachte die
|
||||||
@ -513,7 +514,7 @@ $ℂ$-Vektorräumen erhalten,
|
|||||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
|
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
|
||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\]
|
\]
|
||||||
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
||||||
Außerdem gilt folgender Satz.
|
Außerdem gilt folgender Satz.
|
||||||
|
|
||||||
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
|
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
|
||||||
|
@ -5,39 +5,40 @@
|
|||||||
\label{sec:7}
|
\label{sec:7}
|
||||||
|
|
||||||
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
|
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
|
||||||
Standardskalarprodukt auf dem $ℝ^n$ kennengelernt. Im Kapitel~\ref{sec:bskalar}
|
Standardskalarprodukt auf dem $ℝ^n$ kennen gelernt. Im
|
||||||
haben wir diesen Begriff auf beliebige (endlich-dimensionale) reelle und
|
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige
|
||||||
komplexe Vektorräume verallgemeinert. In diesem Kapitel möchte ich Vektorräume
|
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In
|
||||||
mit Skalarprodukt systematisch diskutieren, und Begriffe wie „Norm“, „Abstand“,
|
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren,
|
||||||
„Metrik“ und „Orthogonalität“, die wir zuerst am Beispiel des $ℝ^n$
|
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die
|
||||||
kennengelernt haben, jetzt in größerer Allgemeinheit systematisch einführen.
|
wir zuerst am Beispiel des $ℝ^n$ kennen gelernt haben, jetzt in größerer
|
||||||
Zuerst einmal kommen jede Menge Definitionen und eine langweilige Rechnung,
|
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge
|
||||||
deshalb auch im Moment kein Erklärvideo.
|
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein
|
||||||
|
Erklärvideo.
|
||||||
|
|
||||||
\begin{defn}[Euklidische und unitäre Vektorräume]
|
\begin{defn}[Euklidische und unitäre Vektorräume]
|
||||||
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
|
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
|
||||||
symmetrischer Bilinearform) heißt \emph{Euklidischer
|
symmetrischer Bilinearform) heißt \emph{Euklidischer
|
||||||
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum zusammen
|
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum
|
||||||
mit einem Skalarprodukt (=positiv definiter Hermitescher Sequilinearform)
|
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher
|
||||||
heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
|
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
|
||||||
\section{Normen auf Vektorräumen}
|
\section{Normen auf Vektorräumen}
|
||||||
|
|
||||||
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
|
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
|
||||||
Abstand auf dem $ℝ^n$ definiert. Jetzt machen wir das allgemein, für beliebige
|
Abstand auf dem $ℝ^n$ definiert. Jetzt machen wir das allgemein, für
|
||||||
reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||||
|
|
||||||
\begin{erinnerung}[Betrag einer komplexen Zahl]
|
\begin{erinnerung}[Betrag einer komplexen Zahl]
|
||||||
Gegeben eine komplexe Zahl $λ = a+b·i ∈ ℂ$, dann nennen wir die reelle Zahl
|
Gegeben eine komplexe Zahl $λ = a+b·i ∈ ℂ$, dann nennen wir die reelle Zahl
|
||||||
$\sqrt{a²+b²} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
|
$\sqrt{a²+b²} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
|
||||||
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen Zahl}
|
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen
|
||||||
oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen Zahl}.
|
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen
|
||||||
Man schreibt auch $\|λ\|$ oder $|λ|$.
|
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$.
|
||||||
\end{erinnerung}
|
\end{erinnerung}
|
||||||
|
|
||||||
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}%
|
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}
|
||||||
Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$ und es sei $V$ ein $k$-Vektorraum.
|
Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$ und es sei $V$ ein $k$-Vektorraum.
|
||||||
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → ℝ$, so dass
|
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → ℝ$, so dass
|
||||||
folgende Eigenschaften gelten.
|
folgende Eigenschaften gelten.
|
||||||
@ -54,15 +55,15 @@ reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
|||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{notation}[Normierte Vektorräume]
|
\begin{notation}[Normierte Vektorräume]
|
||||||
\index{normiert!Vektorraum}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. Ein
|
\index{normiert!Vektorraum}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$.
|
||||||
normierter $k$-Vektorraum $\bigl( V, \|•\|\bigr)$ ist ein $k$-Vektorraum $V$
|
Ein normierter $k$-Vektorraum $\bigl( V, \|•\|\bigr)$ ist ein
|
||||||
zusammen mit einer Norm $\|•\|$.
|
$k$-Vektorraum $V$ zusammen mit einer Norm $\|•\|$.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{notation}[Normierte Vektorräume]
|
\begin{notation}[Normierte Vektorräume]
|
||||||
\index{normiert!Vektor}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. und es sei
|
\index{normiert!Vektor}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. und es
|
||||||
$\bigl( V, \|•\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\vec{v} ∈
|
sei $\bigl( V, \|•\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor
|
||||||
V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
|
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
|
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
|
||||||
@ -78,17 +79,27 @@ unmittelbar aus der Definition folgen.
|
|||||||
Also ist $\| \vec{x} \| ≥ 0$ für alle $\vec{x} ∈ V$.
|
Also ist $\| \vec{x} \| ≥ 0$ für alle $\vec{x} ∈ V$.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
|
\begin{bemerkung}[Satz des Pythagoras]
|
||||||
|
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
|
||||||
|
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
|
||||||
|
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
|
||||||
|
\[
|
||||||
|
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
|
||||||
|
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
|
||||||
|
\]
|
||||||
|
\end{bemerkung}
|
||||||
|
|
||||||
|
|
||||||
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
|
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
|
||||||
|
|
||||||
Als Erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
|
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
|
||||||
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
|
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
|
||||||
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
|
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
|
||||||
sofort Beispiele für Normen.
|
sofort Beispiele für Normen.
|
||||||
|
|
||||||
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}%
|
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}
|
||||||
Wenn $\bigl( V, \langle•,•\rangle\bigr)$ irgendein Euklidischer oder unitärer
|
Wenn $\bigl( V, \langle•\rangle\bigr)$ irgendein Euklidischer oder
|
||||||
Vektorraum ist, dann definiert die Abbildung
|
unitärer Vektorraum ist, dann definiert die Abbildung
|
||||||
\[
|
\[
|
||||||
\|•\| : V → ℝ, \quad \vec{x} ↦ \sqrt{\langle \vec{x}, \vec{x} \rangle}
|
\|•\| : V → ℝ, \quad \vec{x} ↦ \sqrt{\langle \vec{x}, \vec{x} \rangle}
|
||||||
\]
|
\]
|
||||||
@ -96,33 +107,29 @@ sofort Beispiele für Normen.
|
|||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
|
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
|
||||||
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige
|
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung,
|
||||||
„Cauchy\footnote{\href{https://de.wikipedia.org/wiki/Augustin-Louis_Cauchy}{Baron
|
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
|
||||||
Augustin-Louis Cauchy} (* 21.~August 1789 in Paris; † 23.~Mai 1857 in Sceaux)
|
|
||||||
war ein französischer
|
|
||||||
Mathematiker.}-Schwarzsche\footnote{\href{https://de.wikipedia.org/wiki/Hermann_Amandus_Schwarz}{Karl
|
|
||||||
Hermann Amandus Schwarz} (* 25.~Januar 1843 in Hermsdorf, Provinz Schlesien; †
|
|
||||||
30.~November 1921 in Berlin) war ein deutscher Mathematiker. } Ungleichung“, die
|
|
||||||
sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
|
||||||
|
|
||||||
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
|
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
|
||||||
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} ∈ V$
|
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y}
|
||||||
|
∈ V$
|
||||||
\[
|
\[
|
||||||
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
|
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
|
||||||
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
|
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
|
||||||
\]
|
\]
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}[Beweis durch unangenehme Rechnerei]
|
\begin{proof}[Beweis durch unangenehme Rechnerei]
|
||||||
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für $\vec{y}
|
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für
|
||||||
= \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist wegen
|
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist
|
||||||
positiver Definitheit der Hermiteschen Form
|
wegen positiver Definitheit der Hermiteschen Form
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
|
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
|
||||||
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
|
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
|
||||||
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
|
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Jetzt betrachte den Spezialfall wo $λ= \frac{\overline{\langle \vec{y},
|
Jetzt betrachte den Spezialfall wo
|
||||||
\vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}$ ist. Dann ergibt sich
|
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y},
|
||||||
|
\vec{y} \rangle}$ ist. Dann ergibt sich
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
&& 0 &≤ \langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle|²}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
|
&& 0 &≤ \langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle|²}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
|
||||||
⇒ && 0 &≤ \langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle|²\\
|
⇒ && 0 &≤ \langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle|²\\
|
||||||
@ -133,10 +140,10 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
|
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
|
||||||
Um zu zeigen, dass die Abbildung $\|•\| : V → ℝ$ aus Satz~\ref{satz:sin}
|
Um zu zeigen, dass die Abbildung $\|•\| : V → ℝ$ aus
|
||||||
tatsächlich eine Norm ist, müssen wir die drei Eigenschaften „absolute
|
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei
|
||||||
Homogenität“, „Dreiecksungleichung“ und „positive Definitheit“ zeigen. Auf
|
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive
|
||||||
geht's.
|
Definitheit'' zeigen. Auf geht's.
|
||||||
|
|
||||||
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
|
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
|
||||||
Vektor und es sei $λ$ irgendein Skalar. Dann ist
|
Vektor und es sei $λ$ irgendein Skalar. Dann ist
|
||||||
@ -149,7 +156,7 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
|||||||
Damit ist die absolute Homogenität gezeigt.
|
Damit ist die absolute Homogenität gezeigt.
|
||||||
|
|
||||||
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
|
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
|
||||||
beliebige Vektoren. Dann folgt mithilfe der Cauchy-Schwarzschen Ungleichung
|
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung
|
||||||
folgendes.
|
folgendes.
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
|
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
|
||||||
@ -166,16 +173,6 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
|||||||
Satz~\ref{satz:sin} bewiesen.
|
Satz~\ref{satz:sin} bewiesen.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{bemerkung}[Satz des Pythagoras]
|
|
||||||
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
|
|
||||||
Satz~\ref{satz:sin} gilt der Satz des Pythagoras: gegeben Vektoren $\vec{x}$
|
|
||||||
und $\vec{y}$ aus $V$, dann gilt
|
|
||||||
\[
|
|
||||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
|
|
||||||
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
|
|
||||||
\]
|
|
||||||
\end{bemerkung}
|
|
||||||
|
|
||||||
|
|
||||||
\subsection{Beispiele: Normen, die von Normen kommen}
|
\subsection{Beispiele: Normen, die von Normen kommen}
|
||||||
|
|
||||||
@ -184,9 +181,9 @@ die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
|
|||||||
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
|
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
|
||||||
ein wenig Analysis voraussetzen).
|
ein wenig Analysis voraussetzen).
|
||||||
|
|
||||||
\begin{bsp}[Operatornorm]\label{bsp:opNorm}%
|
\begin{bsp}[Operatornorm]\label{bsp:opNorm}
|
||||||
Es seien $\bigl( V, \|•\|_V\bigr)$ und $\bigl( W, \|•\|_W\bigr)$ zwei
|
Es seien $\bigl( V, \|•\|_V\bigr)$ und $\bigl( W, \|•\|_W\bigr)$
|
||||||
endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
|
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
|
||||||
Abbildung
|
Abbildung
|
||||||
\[
|
\[
|
||||||
\|•\|_{\operatorname{op}} : \Hom_{ℝ}(V,W) → ℝ, \quad %
|
\|•\|_{\operatorname{op}} : \Hom_{ℝ}(V,W) → ℝ, \quad %
|
||||||
@ -222,7 +219,7 @@ Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
|
|||||||
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
|
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
|
||||||
Beispiele.
|
Beispiele.
|
||||||
|
|
||||||
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}%
|
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}
|
||||||
Die Manhattan-Norm auf dem Vektorraum $ℝ^n$ ist gegeben als
|
Die Manhattan-Norm auf dem Vektorraum $ℝ^n$ ist gegeben als
|
||||||
\[
|
\[
|
||||||
\| • \|_1 : ℝ^n → ℝ, \quad
|
\| • \|_1 : ℝ^n → ℝ, \quad
|
||||||
@ -243,29 +240,29 @@ Beispiele.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{bsp}[Einschränkungen von Normen]
|
\begin{bsp}[Einschränkungen von Normen]
|
||||||
Es sei $\bigl( V, \|•\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ sei ein
|
Es sei $\bigl( V, \|•\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$
|
||||||
Untervektorraum. Dann ist die Einschränkung $\|•\|_V|_W$ eine Norma auf $W$.
|
sei ein Untervektorraum. Dann ist die Einschränkung $\|•\|_V|_W$ eine Norma
|
||||||
|
auf $W$.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
|
|
||||||
\section{Metriken}
|
\section{Metriken}
|
||||||
|
|
||||||
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir
|
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit
|
||||||
mithilfe einer Norm einen Begriff von „Abstand“ oder „Metrik“ definieren. Der
|
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der
|
||||||
Begriff „Metrik“ ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
|
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
|
||||||
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
|
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
|
||||||
|
|
||||||
\begin{defn}[Metrik]
|
\begin{defn}[Metrik]
|
||||||
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung $d:
|
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung
|
||||||
M ⨯ M → ℝ$, sodass Folgendes gilt.
|
$d: M ⨯ M → ℝ$, so dass Folgendes gilt.
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
|
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
|
||||||
|
|
||||||
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) +
|
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$
|
||||||
d(y,z)$
|
|
||||||
|
|
||||||
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x) ≥ 0$.
|
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x) ≥ 0$. Zusätzlich
|
||||||
Zusätzlich gilt: $d(x,y) = 0 ⇔ x = y$.
|
gilt: $d(x,y) = 0 ⇔ x = y$.
|
||||||
\end{description}
|
\end{description}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
@ -3,18 +3,20 @@
|
|||||||
|
|
||||||
\chapter{Orthogonale Projektion}
|
\chapter{Orthogonale Projektion}
|
||||||
|
|
||||||
In diesem Kapitel sei $\bigl( V, \langle•,•\rangle\bigr)$ stets ein euklidischer
|
In diesem Kapitel sei $\bigl( V, \langle•\rangle\bigr)$ stets ein
|
||||||
oder unitärer Vektorraum. Wenn keine Verwechslungsgefahr besteht, werden wir
|
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht,
|
||||||
die durch das Skalarprodukt induzierte Norm einfach mit $\|•\|$ bezeichnen.
|
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|•\|$
|
||||||
|
bezeichnen.
|
||||||
|
|
||||||
|
|
||||||
\section{Orthogonalität und Orthonormalität}
|
\section{Orthogonalität und Orthonormalität}
|
||||||
|
|
||||||
Der zentrale Begriff in diesem Kapitel ist „orthogonal“, also „steht senkrecht
|
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also
|
||||||
aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des
|
||||||
|
Skalarproduktes.
|
||||||
|
|
||||||
\begin{defn}[Orthogonal]\label{def:orth}%
|
\begin{defn}[Orthogonal]\label{def:orth}
|
||||||
Es sei $\bigl( V, \langle•,•\rangle\bigr)$ ein Euklidischer oder unitärer
|
Es sei $\bigl( V, \langle•\rangle\bigr)$ ein Euklidischer oder unitärer
|
||||||
Vektorraum.
|
Vektorraum.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
|
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
|
||||||
@ -25,12 +27,12 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
|||||||
|
|
||||||
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
|
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
|
||||||
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
|
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
|
||||||
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung $\langle \vec{u},
|
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung
|
||||||
\vec{w} \rangle = 0$ gilt.
|
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt.
|
||||||
|
|
||||||
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann definieren
|
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann
|
||||||
wir das \emph{orthogonale Komplement von $U$}\index{orthogonales Komplement}
|
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales
|
||||||
als
|
Komplement} als
|
||||||
\[
|
\[
|
||||||
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
|
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
|
||||||
\vec{u} ∈ U \}.
|
\vec{u} ∈ U \}.
|
||||||
@ -43,10 +45,10 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
|||||||
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
|
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
|
||||||
\]
|
\]
|
||||||
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
|
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
|
||||||
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung $\|
|
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung
|
||||||
\vec{v}_i \| = 1$ gilt. Falls eine orthonormale Familie zusätzlich eine
|
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt
|
||||||
Basis ist, dann nenne die Familie
|
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie
|
||||||
\emph{Orthonormalbasis}\index{Orthonormalbasis} und schreibe kurz: „ONB“.
|
zusätzlich eine Basis ist.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
@ -58,15 +60,15 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
|||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
|
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
|
||||||
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
|
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
|
||||||
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn $\vec{v} \perp
|
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn
|
||||||
\vec{u}_i$ ist für alle Indizes $i ∈ I$.
|
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}%
|
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}
|
||||||
Wir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen
|
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen
|
||||||
Begriff von „orthogonalen Unterraum“. Die Situation war die, dass es einen
|
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen
|
||||||
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser Situation
|
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser
|
||||||
war der „orthogonale Unterraum“ der Raum
|
Situation war der ``orthogonale Unterraum'' der Raum
|
||||||
\[
|
\[
|
||||||
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
|
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
|
||||||
\]
|
\]
|
||||||
@ -76,10 +78,11 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
|||||||
|
|
||||||
\begin{bsp}[Der Standardraum $ℝ^n$]
|
\begin{bsp}[Der Standardraum $ℝ^n$]
|
||||||
Betrachten den Vektorraum $ℝ^n$ mit dem Standardskalarprodukt. Dann ist die
|
Betrachten den Vektorraum $ℝ^n$ mit dem Standardskalarprodukt. Dann ist die
|
||||||
Standardbasis eine Orthonormalbasis. Die Untervektorräume $\langle \vec{e}_1,
|
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume
|
||||||
\vec{e}_2 \rangle$ und $\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal.
|
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und
|
||||||
Das orthogonale Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2
|
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale
|
||||||
\rangle$ ist $\langle \vec{e}_3, …, \vec{e}_n \rangle$.
|
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist
|
||||||
|
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
|
|
||||||
@ -89,7 +92,7 @@ Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
|
|||||||
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
||||||
|
|
||||||
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
|
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
|
||||||
Es sei $\bigl( V, \langle•,•\rangle\bigr)$ ein euklidischer oder unitärer
|
Es sei $\bigl( V, \langle•\rangle\bigr)$ ein euklidischer oder unitärer
|
||||||
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
|
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
|
||||||
$\vec{v}_1 \ne \vec{0}$. Setze
|
$\vec{v}_1 \ne \vec{0}$. Setze
|
||||||
\[
|
\[
|
||||||
@ -97,18 +100,19 @@ kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
|||||||
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
|
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
|
||||||
\]
|
\]
|
||||||
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
|
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
|
||||||
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1,
|
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch
|
||||||
\vec{v}\,'_2\}$.
|
$\{\vec{v}_1, \vec{v}\,'_2\}$.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Wir bauen das „Rezept, um Vektoren orthogonal machen“ ein wenig aus und erhalten
|
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und
|
||||||
einen „Basisergänzungssatz für Orthonormalbasen“.
|
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
|
||||||
|
|
||||||
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}%
|
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}
|
||||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und
|
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei
|
||||||
sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
|
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
|
||||||
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
|
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
|
||||||
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ ergänzen.
|
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$
|
||||||
|
ergänzen.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\video{11-1}
|
\video{11-1}
|
||||||
@ -122,35 +126,38 @@ einen „Basisergänzungssatz für Orthonormalbasen“.
|
|||||||
\begin{beobachtung}[Gram-Schmidt Verfahren]
|
\begin{beobachtung}[Gram-Schmidt Verfahren]
|
||||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
|
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
|
||||||
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
|
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
|
||||||
ein effektives, induktives Verfahren um aus einer gegebenen Basis $\{
|
ein effektives, induktives Verfahren um aus einer gegebenen Basis
|
||||||
\vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB $\{ \vec{u}_1, …, \vec{u}_n \}$
|
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB
|
||||||
zu konstruieren. Man startet so:
|
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
|
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
|
||||||
|
|
||||||
\item Definiere. $\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1
|
\item Definiere.
|
||||||
\rangle· \vec{u}_1$.
|
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle·
|
||||||
|
\vec{u}_1$.
|
||||||
|
|
||||||
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
|
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
|
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
|
||||||
folgt vor:
|
folgt vor:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Definiere. $\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle
|
\item Definiere.
|
||||||
\vec{v}_{k+1}, \vec{u}_j \rangle·\vec{u}_j$.
|
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1},
|
||||||
|
\vec{u}_j \rangle·\vec{u}_j$.
|
||||||
|
|
||||||
\item Normiere.
|
\item Normiere.
|
||||||
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
|
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für alle
|
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für
|
||||||
Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen $\langle \vec{u}_1,
|
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen
|
||||||
…, \vec{u}_i \rangle = \langle \vec{v}_1, …, \vec{v}_i \rangle$.
|
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …,
|
||||||
|
\vec{v}_i \rangle$.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}%
|
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}
|
||||||
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
|
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
|
||||||
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor $\vec{v}
|
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor
|
||||||
∈ V$ eindeutig schreiben als
|
$\vec{v} ∈ V$ eindeutig schreiben als
|
||||||
\[
|
\[
|
||||||
\vec{v} = p(\vec{v}) + r(\vec{v}),
|
\vec{v} = p(\vec{v}) + r(\vec{v}),
|
||||||
\]
|
\]
|
||||||
@ -162,24 +169,24 @@ einen „Basisergänzungssatz für Orthonormalbasen“.
|
|||||||
|
|
||||||
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
|
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
|
||||||
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
|
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
|
||||||
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als „orthogonale
|
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale
|
||||||
Projektion“ bezeichnen.
|
Projektion'' bezeichnen.
|
||||||
|
|
||||||
\begin{beobachtung}[Orthogonale Projektion]
|
\begin{beobachtung}[Orthogonale Projektion]
|
||||||
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
|
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
|
||||||
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
|
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
|
||||||
\[
|
\[
|
||||||
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i.
|
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i
|
||||||
\]
|
\]
|
||||||
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist $\ker p =
|
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist
|
||||||
U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den Unterraum
|
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den
|
||||||
$U$}\index{orthogonale Projektion}.
|
Unterraum $U$}\index{orthogonale Projektion}.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
|
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
|
||||||
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
|
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
|
||||||
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für $\vec{w}
|
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für
|
||||||
∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
|
$\vec{w} ∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
|
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
|
||||||
& ≥ \| p(\vec{v})-\vec{v} \|².
|
& ≥ \| p(\vec{v})-\vec{v} \|².
|
||||||
@ -192,13 +199,13 @@ Projektion“ bezeichnen.
|
|||||||
\subsection{Der Dualraum}
|
\subsection{Der Dualraum}
|
||||||
\label{sec:dual}
|
\label{sec:dual}
|
||||||
|
|
||||||
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung „Lineare
|
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare
|
||||||
Algebra I“ ist der des „Dualraum“. Alle Studenten lieben das. Ich erinnere:
|
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere:
|
||||||
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
|
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
|
||||||
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
|
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
|
||||||
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
|
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
|
||||||
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
|
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
|
||||||
finden, wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
|
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
|
||||||
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
|
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
|
||||||
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
|
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
|
||||||
Abbildungen, die die Gleichungen
|
Abbildungen, die die Gleichungen
|
||||||
@ -221,9 +228,9 @@ war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
|
|||||||
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
|
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
|
||||||
$V^*$.
|
$V^*$.
|
||||||
|
|
||||||
\begin{satz}\label{satz:8-3-1}%
|
\begin{satz}\label{satz:8-3-1}
|
||||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||||
euklidischer Vektorraum. Dann ist die Abbildung
|
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung
|
||||||
\[
|
\[
|
||||||
s: V → V^*, \quad \vec{v} ↦ \langle • ,\vec{v} \rangle
|
s: V → V^*, \quad \vec{v} ↦ \langle • ,\vec{v} \rangle
|
||||||
\]
|
\]
|
||||||
@ -237,20 +244,20 @@ $V^*$.
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
|
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
|
||||||
zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“
|
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra
|
||||||
und dem „orthogonalen Komplement“ aus Definition~\ref{def:orth} zu klären. Der
|
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären.
|
||||||
folgende Satz löst dieses Versprechen ein.
|
Der folgende Satz löst dieses Versprechen ein.
|
||||||
|
|
||||||
\begin{satz}[Orthogonales Komplement und orthogonale
|
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3}
|
||||||
Unterräume]\label{satz:8-3-3} Es sei $\bigl(V, \langle •, • \rangle \bigr)$
|
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||||
ein endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||||
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
|
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
|
||||||
Satz~\ref{satz:8-3-1}. Dann gilt Folgendes.
|
Satz~\ref{satz:8-3-1}. Dann gilt folgendes.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
|
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
|
||||||
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen den
|
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen
|
||||||
Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist $\dim U^\perp = \dim
|
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist
|
||||||
U⁰$ (…nämlich gleich $\dim V - \dim U$).
|
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$).
|
||||||
|
|
||||||
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
|
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
|
||||||
Summe $V = U ⊕ U^\perp$.
|
Summe $V = U ⊕ U^\perp$.
|
||||||
@ -260,19 +267,19 @@ folgende Satz löst dieses Versprechen ein.
|
|||||||
\video{12-3}
|
\video{12-3}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{kor}\label{kro:8-3-3}%
|
\begin{kor}\label{kro:8-3-3}
|
||||||
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit $\bigl( U^\perp
|
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit
|
||||||
\bigr)^\perp = U$.
|
$\bigl( U^\perp \bigr)^\perp = U$.
|
||||||
\end{kor}
|
\end{kor}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
|
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
|
||||||
Gleichheit folgt mithilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
|
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
|
||||||
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
|
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
|
||||||
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage „$\vec{u} ∈ \bigl(
|
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage
|
||||||
U^\perp \bigr)^\perp$“ ist dann per Definition äquivalent dazu, ist zu zeigen,
|
``$\vec{u} ∈ \bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent
|
||||||
dass gilt:
|
dazu, ist zu zeigen, dass gilt:
|
||||||
\[
|
\[
|
||||||
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp.
|
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp
|
||||||
\]
|
\]
|
||||||
Das ist aber klar nach Definition von $U^\perp$.
|
Das ist aber klar nach Definition von $U^\perp$.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
@ -286,14 +293,15 @@ folgende Satz löst dieses Versprechen ein.
|
|||||||
\subsubsection{Unitäre Vektorräume}
|
\subsubsection{Unitäre Vektorräume}
|
||||||
|
|
||||||
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
|
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
|
||||||
den Fall von unitären Vektorräumen. Falls $\bigl(V, \langle •, • \rangle
|
den Fall von unitären Vektorräumen. Falls
|
||||||
\bigr)$ ein endlich-dimensionaler unitärer Vektorraum ist, dann ist die
|
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||||
Abbildung $s$ bijektiv und \emph{semi-linear}\index{semi-lineare Abbildung}.
|
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und
|
||||||
Dabei bedeutet „semi-linear“, dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$
|
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet
|
||||||
und alle Skalare $λ ∈ ℂ$ die Gleichungen
|
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle
|
||||||
|
Skalare $λ ∈ ℂ$ die Gleichungen
|
||||||
\[
|
\[
|
||||||
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
|
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
|
||||||
f(λ·\vec{x}) = \overline{λ}·f(\vec{x})
|
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}).
|
||||||
\]
|
\]
|
||||||
gelten.
|
gelten.
|
||||||
|
|
||||||
@ -318,16 +326,17 @@ gelten.
|
|||||||
\subsection{Quotientenräume}
|
\subsection{Quotientenräume}
|
||||||
|
|
||||||
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
|
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
|
||||||
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ identifiziert,
|
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$
|
||||||
der uns aus der Vorlesung „Lineare Algebra I“ vertraut war. Es gibt noch eine
|
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es
|
||||||
andere kanonische Identifikation des orthogonalen Komplements mit einem
|
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit
|
||||||
bekannten Vektorraum.
|
einem bekannten Vektorraum.
|
||||||
|
|
||||||
\begin{satz}\label{satz:8-3-6}%
|
\begin{satz}\label{satz:8-3-6}
|
||||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||||
euklidischer Vektorraum und es sei $U ⊂ V$ ein Untervektorraum. Dann gibt es
|
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||||
einen kanonischen Isomorphismus zwischen dem Vektorraumquotienten
|
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem
|
||||||
$\factor{V}{U}$ und dem orthogonalen Komplement $U^\perp$.
|
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement
|
||||||
|
$U^\perp$.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\video{12-4}
|
\video{12-4}
|
||||||
@ -346,33 +355,34 @@ bekannten Vektorraum.
|
|||||||
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
|
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
|
||||||
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
|
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
|
||||||
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
|
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
|
||||||
wir „selbstadjungierte Abbildungen“ diskutieren. Zuallererst legen wir die
|
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die
|
||||||
Situation fest, die wir in diesem Abschnitt genau betrachten.
|
Situation fest, die wir in diesem Abschnitt genau betrachten.
|
||||||
|
|
||||||
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}%
|
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}
|
||||||
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und $\bigl(W, \langle •, •
|
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und
|
||||||
\rangle_W \bigr)$ zwei endlich-dimensional euklidische Vektorräume. Die
|
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional
|
||||||
kanonischen Identifikationen der Räume mit ihren Dualräumen bezeichnen wir mit
|
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren
|
||||||
|
Dualräumen bezeichnen wir mit
|
||||||
\[
|
\[
|
||||||
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
|
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
|
||||||
\]
|
\]
|
||||||
\end{situation}
|
\end{situation}
|
||||||
|
|
||||||
\begin{erinnerung}
|
\begin{erinnerung}
|
||||||
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung „Lineare
|
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare
|
||||||
Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich
|
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich
|
||||||
\[
|
\[
|
||||||
f^* : W^* → V^*, \quad φ ↦ φ◦f.
|
f^* : W^* → V^*, \quad φ ↦ φ◦f.
|
||||||
\]
|
\]
|
||||||
\end{erinnerung}
|
\end{erinnerung}
|
||||||
|
|
||||||
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}%
|
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}
|
||||||
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
||||||
Betrachte das folgende Diagramm:
|
Betrachte das folgende Diagramm:
|
||||||
\begin{equation}\label{eq:8-5-3-1}
|
\begin{equation}\label{eq:8-5-3-1}
|
||||||
\begin{tikzcd}[column sep=3cm]
|
\begin{tikzcd}[column sep=3cm]
|
||||||
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
|
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
|
||||||
V^* & W^*. \arrow[l, "f^*\text{, Rückzugsabbildung}"]
|
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"]
|
||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\end{equation}
|
\end{equation}
|
||||||
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
|
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
|
||||||
@ -380,26 +390,26 @@ Situation fest, die wir in diesem Abschnitt genau betrachten.
|
|||||||
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
|
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
|
||||||
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
|
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
|
||||||
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
|
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
|
||||||
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und $f^*◦ s_W ◦
|
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und
|
||||||
f$ besteht. Wir interessieren uns aber für Bedingungen, die Gleichheit der
|
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen,
|
||||||
Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen $s_V$
|
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die
|
||||||
und $f^*◦ s_W ◦ f$ gleich sind, falls für alle $\vec{v} ∈ V$ die folgende
|
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle
|
||||||
Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||||
\begin{equation}\label{eq:8-5-3-2}
|
\begin{equation}\label{eq:8-5-3-2}
|
||||||
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}).
|
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v})
|
||||||
\end{equation}
|
\end{equation}
|
||||||
Das lässt sich explizit hinschreiben, indem ich die Definitionen von $s_V$,
|
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$,
|
||||||
$s_W$ und $f^*$ einsetze. Dann erhalte ich: Die Abbildungen $s_V$ und $f^*◦
|
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und
|
||||||
s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die folgende Gleichheit von
|
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die
|
||||||
Elementen im Dualraum $V^*$ gilt,
|
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\langle •, \vec{v} \rangle_V %
|
\langle •, \vec{v} \rangle_V %
|
||||||
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
|
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
|
||||||
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
|
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Das lässt sich noch einfacher formulieren: Die Abbildungen $s_V$ und $f^*◦ s_W
|
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und
|
||||||
◦ f$ sind gleich, falls für alle $\vec{v}_1, \vec{v}_2 ∈ V$ die folgende
|
$f^*◦ s_W ◦ f$ sind gleich, falls für alle
|
||||||
Gleichheit von Skalaren gilt,
|
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt,
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
|
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
|
||||||
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
|
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
|
||||||
@ -421,9 +431,9 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
|
|||||||
wird mit dem Symbol $f^{\ad}$ bezeichnet.
|
wird mit dem Symbol $f^{\ad}$ bezeichnet.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}%
|
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}
|
||||||
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
||||||
Dann gilt Folgendes.
|
Dann gilt folgendes.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
|
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
|
||||||
|
|
||||||
@ -439,7 +449,7 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
|
|||||||
\sideremark{Vorlesung 13}\video{13-1}
|
\sideremark{Vorlesung 13}\video{13-1}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{prop}\label{prop:8-4-6}%
|
\begin{prop}\label{prop:8-4-6}
|
||||||
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
|
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
|
||||||
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
|
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
|
||||||
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
|
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
|
||||||
@ -463,7 +473,7 @@ Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
|
|||||||
unitäre Vektorräume.
|
unitäre Vektorräume.
|
||||||
|
|
||||||
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
|
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
|
||||||
Finden Sie heraus, welche Aussagen genau gelten und schreiben Sie
|
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie
|
||||||
schulbuchmäßige Beweise dieser Aussagen auf.
|
schulbuchmäßige Beweise dieser Aussagen auf.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
|
@ -5,44 +5,44 @@
|
|||||||
|
|
||||||
\section{Orthogonale und unitäre Abbildungen}
|
\section{Orthogonale und unitäre Abbildungen}
|
||||||
|
|
||||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits „orthogonale
|
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
|
||||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
|
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
|
||||||
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
|
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
|
||||||
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
|
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
|
||||||
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
|
||||||
folgende Situation.
|
die folgende Situation.
|
||||||
|
|
||||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
|
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
||||||
Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||||
Endomorphismus.
|
Endomorphismus.
|
||||||
\end{situation}
|
\end{situation}
|
||||||
|
|
||||||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
|
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
|
||||||
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
||||||
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
||||||
beziehungsweise
|
beziehungsweise
|
||||||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
|
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
|
||||||
für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||||||
\[
|
\[
|
||||||
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
||||||
\rangle.
|
\rangle.
|
||||||
\]
|
\]
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
|
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
|
||||||
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
|
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
|
||||||
Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
|
Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
|
||||||
Standardskalarprodukt erhält. Damit ist klar, dass
|
Standardskalarprodukt erhält. Damit ist klar, dass
|
||||||
Definition~\vref{defn-orthoTraf} („orthogonale Transformation des $ℝ^n$
|
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
|
||||||
bezüglich des Euklidischen Abstands“) ein Spezialfall von
|
bezüglich des Euklidischen Abstands'') ein Spezialfall von
|
||||||
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
|
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
|
||||||
vorliegende Skript einigermaßen konsistent!
|
vorliegende Skript einigermaßen konsistent!
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
|
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
|
||||||
„orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands“
|
``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
|
||||||
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
|
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
|
||||||
eine Matrix die an Achsen dreht oder spiegelt.
|
eine Matrix die an Achsen dreht oder spiegelt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -52,13 +52,13 @@ folgende Situation.
|
|||||||
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
|
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
|
||||||
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
|
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
|
||||||
\[
|
\[
|
||||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
|
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
|
||||||
\]
|
\]
|
||||||
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
|
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
|
||||||
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
|
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
|
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
|
||||||
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
|
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
|
||||||
unitär. Dann gilt Folgendes.
|
unitär. Dann gilt Folgendes.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
@ -80,18 +80,18 @@ folgende Situation.
|
|||||||
\video{13-3}
|
\video{13-3}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
|
\begin{rem}[Die Determinante]\label{rem:9-1-7}
|
||||||
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
|
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
|
||||||
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
|
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
|
||||||
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
|
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
|
||||||
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
|
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
|
||||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
|
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
|
||||||
infrage.
|
Frage.
|
||||||
\end{rem}
|
\end{rem}
|
||||||
|
|
||||||
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
|
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
|
||||||
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
|
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
|
||||||
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
|
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
|
||||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
|
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
|
||||||
\[
|
\[
|
||||||
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
|
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
|
||||||
@ -107,7 +107,7 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
|
|||||||
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
|
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
|
||||||
Transformation eine Gruppe bilden.
|
Transformation eine Gruppe bilden.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
|
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
|
||||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
|
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
|
||||||
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
|
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
|
||||||
@ -125,24 +125,21 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
|
|||||||
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
||||||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||||
|
|
||||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
|
||||||
In Situation~\ref{sit:9-1-1} sei
|
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
||||||
\[
|
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
||||||
B := \{ \vec{v}_1, …, \vec{v}_n \}
|
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||||
\]
|
|
||||||
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
|
|
||||||
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
||||||
|
|
||||||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n ⨯
|
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
|
||||||
n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
$Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
||||||
wie immer für die komplex-konjugierte Matrix.
|
wie immer für die komplex-konjugierte Matrix.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
|
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
|
||||||
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
|
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
|
||||||
erweitern.
|
erweitern.
|
||||||
|
|
||||||
@ -151,12 +148,12 @@ erweitern.
|
|||||||
|
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
|
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
|
||||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
|
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
|
||||||
A^t$ gilt.
|
$A^{-1} = A^t$ gilt.
|
||||||
|
|
||||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
|
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
|
||||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
|
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
|
||||||
\overline{A^t}$ gilt.
|
$A^{-1} = \overline{A^t}$ gilt.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
@ -168,16 +165,17 @@ erweitern.
|
|||||||
\mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
|
\mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
|
||||||
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
|
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
|
||||||
\mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
|
\mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
|
||||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
|
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
|
Der
|
||||||
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
|
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
|
||||||
|
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
|
||||||
Gruppen handelt.
|
Gruppen handelt.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{proposition}[Einfache Eigenschaften]
|
\begin{proposition}[Einfache Eigenschaften]
|
||||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯
|
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
|
||||||
n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
$A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
|
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
|
||||||
|
|
||||||
@ -198,9 +196,9 @@ erweitern.
|
|||||||
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
|
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
|
||||||
\]
|
\]
|
||||||
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
|
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
|
||||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber genau
|
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber
|
||||||
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
|
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
|
||||||
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||||
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
|
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
|
||||||
betrachte dann $A · A^t$.
|
betrachte dann $A · A^t$.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
@ -249,7 +247,7 @@ die orthogonalen $2⨯2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
|||||||
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
|
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
|
||||||
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||||
|
|
||||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
|
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
|
||||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
|
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
|
||||||
Gleichung gilt.
|
Gleichung gilt.
|
||||||
\[
|
\[
|
||||||
@ -276,15 +274,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
|||||||
\end{erkl}
|
\end{erkl}
|
||||||
|
|
||||||
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
|
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
|
||||||
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||||
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
|
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
|
||||||
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
|
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
|
||||||
sind.
|
sind.
|
||||||
|
|
||||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
|
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
|
||||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
|
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
|
||||||
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
|
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
|
||||||
Blockgestalt hat
|
folgende Blockgestalt hat
|
||||||
\[
|
\[
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
\Id_{a ⨯ a} & \\
|
\Id_{a ⨯ a} & \\
|
||||||
@ -294,8 +292,9 @@ sind.
|
|||||||
& & & & A_k \\
|
& & & & A_k \\
|
||||||
\end{pmatrix}
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils
|
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
|
||||||
Einheitsmatrizen der entsprechenden Größe sind.
|
$\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
|
||||||
|
entsprechenden Größe sind.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
|
|
||||||
@ -307,10 +306,11 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
|
|||||||
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
|
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
|
||||||
einem reellen Vektorraum einen komplexen Vektorraum macht.
|
einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||||
|
|
||||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
|
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
|
||||||
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
|
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
|
||||||
einen komplexen Vektorraum $V^ℂ$ wie folgt: Wir betrachten die Menge $V^ℂ :=
|
einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
|
||||||
V ⨯ V$ und definieren eine Addition durch komponentenweise Addition
|
$V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
|
||||||
|
Addition
|
||||||
\[
|
\[
|
||||||
+ : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
|
+ : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
|
||||||
\]
|
\]
|
||||||
@ -318,7 +318,7 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
|||||||
\[
|
\[
|
||||||
· : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
|
· : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
|
||||||
\]
|
\]
|
||||||
Rechnen Sie nach, dass dies tatsächlich ein $ℂ$-Vektorraum ist, wen wir als
|
Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
|
||||||
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
|
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
|
||||||
Vektorraumes} bezeichnen.
|
Vektorraumes} bezeichnen.
|
||||||
\end{konstruktion}
|
\end{konstruktion}
|
||||||
@ -326,8 +326,8 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
|||||||
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
|
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
|
||||||
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
|
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
|
||||||
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
|
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
|
||||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
|
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
|
||||||
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||||
komplexifiziertem Vektorraum}
|
komplexifiziertem Vektorraum}
|
||||||
\[
|
\[
|
||||||
\overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
|
\overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
|
||||||
@ -335,45 +335,47 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
|||||||
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
|
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
|
||||||
Vektorraum in seine Komplexifizierung}
|
Vektorraum in seine Komplexifizierung}
|
||||||
\[
|
\[
|
||||||
ι : V → V^ℂ, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||||
\]
|
\]
|
||||||
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||||
Teilmenge von $V^ℂ$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
|
Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
|
||||||
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||||
schreiben $\vec{v}^{\:ℂ}$.
|
schreiben $\vec{v}^{\:ℂ}$.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
|
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
|
||||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
|
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
|
||||||
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
|
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
|
||||||
nach, dass die komplexifizierte Basis $B^ℂ := \{ \vec{v}^{\:ℂ}_1, …,
|
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
|
||||||
\vec{v}^{\:ℂ}_n \} ⊂ V^ℂ$ dann eine Basis von $V^ℂ$. Noch besser: wenn $f : V
|
$B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
|
||||||
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
|
dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist,
|
||||||
Abbildung $f^ℂ : V^ℂ → V^ℂ$, sodass für alle Indizes $i$ gilt:
|
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
|
||||||
$f^ℂ(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass $f^ℂ$
|
$f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
|
||||||
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^ℂ$ die
|
$f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass
|
||||||
|
$f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die
|
||||||
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
|
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
|
||||||
Abbildung}.
|
Abbildung}.
|
||||||
\end{konstruktion}
|
\end{konstruktion}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
|
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
|
||||||
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ℂ = f^ℂ(\vec{v}^{\:ℂ})$ gilt.
|
Vektor $\vec{v} ∈ V$ die Gleichheit
|
||||||
|
$f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
|
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
|
||||||
Gleichheiten
|
Gleichheiten
|
||||||
\[
|
\[
|
||||||
\Mat^B_B(f) = \Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ) \quad\text{und}\quad
|
\Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
|
||||||
χ_f(t) = χ_{f^ℂ}(t)
|
χ_f(t) = χ_{f^{ℂ}}(t)
|
||||||
\]
|
\]
|
||||||
gelten. Insbesondere ist $\Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ)$ eine reelle Matrix und
|
gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
|
||||||
$χ_{f^ℂ}$ ist ein reelles Polynom. Außerdem ist $f^ℂ$ mit der Konjugation
|
Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit
|
||||||
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^ℂ$ die
|
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
|
||||||
Gleichung
|
$\vec{v} ∈ V^{ℂ}$ die Gleichung
|
||||||
\begin{equation}\label{eq:9-4-7-1}
|
\begin{equation}\label{eq:9-4-7-1}
|
||||||
f^ℂ\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^ℂ\bigl( \vec{v} \bigr)}.
|
f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
|
||||||
\end{equation}
|
\end{equation}
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
@ -382,37 +384,40 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
|||||||
|
|
||||||
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
|
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
|
||||||
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
|
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
|
||||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
|
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
|
||||||
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
|
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
|
||||||
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
|
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
|
||||||
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
|
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
|
||||||
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
|
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
|
||||||
|
von $U$ liefert.
|
||||||
|
|
||||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
|
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
|
||||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
|
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
|
||||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
|
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
|
||||||
|
$f(U) ⊆ U$ ist.
|
||||||
\end{lemma}
|
\end{lemma}
|
||||||
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
|
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
|
||||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach.
|
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
|
||||||
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
|
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
|
||||||
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
|
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
|
||||||
keinen reellen Eigenwert hat.
|
Fall, dass $f$ keinen reellen Eigenwert hat.
|
||||||
|
|
||||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen
|
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
|
||||||
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
|
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
|
||||||
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende Rechnung zeigt, dass das
|
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende
|
||||||
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
|
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
|
||||||
|
Nullstelle ist,
|
||||||
\[
|
\[
|
||||||
χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
|
χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
|
||||||
\overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
|
\overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
|
||||||
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
|
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
|
||||||
\]
|
\]
|
||||||
Ich betrachte jetzt für den Endomorphismus $f^ℂ$ einen Eigenvektor $\vec{v} =
|
Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
|
||||||
(\vec{v}_1, \vec{v}_2) ∈ V^ℂ$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
|
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
|
||||||
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
|
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
|
||||||
-\vec{v}_2) ∈ V^ℂ$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
|
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
|
||||||
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig,
|
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
|
||||||
ebenso die Menge
|
ist dann $ℂ$-linear unabhängig, ebenso die Menge
|
||||||
\[
|
\[
|
||||||
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
|
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
|
||||||
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
|
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
|
||||||
@ -420,8 +425,8 @@ $f|_U : U → U$ einen Isomorphismus von $U$ liefert.
|
|||||||
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
|
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
|
||||||
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
|
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
f(\vec{v}_1) & = f^ℂ(\vec{v_1}) = f^ℂ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||||
& = \frac{1}{2}·\left( f^ℂ(\vec{v}) + f^ℂ(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
& = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||||
& = a·\vec{v}_1 - b·\vec{v}_2.
|
& = a·\vec{v}_1 - b·\vec{v}_2.
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
|
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
|
||||||
|
@ -5,36 +5,36 @@
|
|||||||
|
|
||||||
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
|
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
|
||||||
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
|
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
|
||||||
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
|
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
|
||||||
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
|
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
|
||||||
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
|
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
|
||||||
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
|
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
|
||||||
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
|
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
|
||||||
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
\foreignlanguage{english}{Self-adjoint operators are used in functional
|
Self-adjoint operators are used in functional analysis and quantum
|
||||||
analysis and quantum mechanics. In quantum mechanics their importance lies in
|
mechanics. In quantum mechanics their importance lies in the Dirac–von Neumann
|
||||||
the Dirac–von Neumann formulation of quantum mechanics, in which physical
|
formulation of quantum mechanics, in which physical observables such as
|
||||||
observables such as position, momentum, angular momentum and spin are
|
position, momentum, angular momentum and spin are represented by self-adjoint
|
||||||
represented by self-adjoint operators on a Hilbert space. Of particular
|
operators on a Hilbert space. Of particular significance is the Hamiltonian
|
||||||
significance is the Hamiltonian operator $\what{H}$ defined by
|
operator $\what{H}$ defined by
|
||||||
\[
|
\[
|
||||||
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
|
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
|
||||||
\]
|
\]
|
||||||
which as an observable corresponds to the total energy of a particle of mass
|
which as an observable corresponds to the total energy of a particle of mass
|
||||||
$m$ in a real potential field $V$.}
|
$m$ in a real potential field $V$.
|
||||||
|
|
||||||
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
|
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
|
||||||
(Self-adjoint operator)}
|
(Self-adjoint operator)}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
|
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
|
||||||
Bedingung „$f = f^{\ad}$“ in der folgenden Definition gar nicht auftaucht.
|
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
|
||||||
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||||
|
|
||||||
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
|
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
|
||||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
|
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||||
Endomorphismus. Nenne den Endomorphismus $f$
|
Endomorphismus. Nenne den Endomorphismus $f$
|
||||||
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
|
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
|
||||||
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
|||||||
\]
|
\]
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
|
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
|
||||||
Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
|
Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
|
||||||
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
|
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
|
||||||
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
|
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
|
||||||
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
|||||||
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
|
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
|
||||||
\overline{\vec{w}}.
|
\overline{\vec{w}}.
|
||||||
\]
|
\]
|
||||||
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
|
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
|
||||||
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
|
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
|
||||||
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
|
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
|
||||||
Hermitesche Matrix ist.
|
Hermitesche Matrix ist.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
|||||||
\begin{aufgabe}
|
\begin{aufgabe}
|
||||||
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
|
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
|
||||||
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
|
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
|
||||||
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$. Rechnen Sie
|
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$.
|
||||||
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
||||||
\[
|
\[
|
||||||
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
|
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
|
||||||
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
|
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
|
||||||
\]
|
\]
|
||||||
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
||||||
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
|
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
|
||||||
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
|
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
|
||||||
ist.
|
ist.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
|
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
|
||||||
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
|
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
|
||||||
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
|
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
|
||||||
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
|
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
|
||||||
besonders einfacher Weise.
|
besonders einfacher Weise.
|
||||||
@ -107,7 +107,7 @@ besonders einfacher Weise.
|
|||||||
Der folgende Satz ist in der Literatur auch als
|
Der folgende Satz ist in der Literatur auch als
|
||||||
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
|
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
|
||||||
|
|
||||||
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
|
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
|
||||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||||
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
|
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
|
||||||
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
|
|||||||
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
|
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
|
||||||
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
|
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
|
||||||
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
|
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
|
||||||
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
|
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
|
||||||
macht die Berechnung von $S^{-1}$ extrem einfach.
|
die Berechnung von $S^{-1}$ extrem einfach.
|
||||||
|
|
||||||
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
|
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
|
||||||
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische oder
|
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische
|
||||||
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
|
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
|
||||||
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
|
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
|
||||||
ist.
|
Diagonalmatrix ist.
|
||||||
\end{kor}
|
\end{kor}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
|
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
|
||||||
|
@ -4,21 +4,21 @@
|
|||||||
\chapter{Hauptachsentransformation}
|
\chapter{Hauptachsentransformation}
|
||||||
|
|
||||||
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
|
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
|
||||||
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
|
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
|
||||||
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
|
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
|
||||||
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
|
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
|
||||||
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
|
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
|
||||||
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
|
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
|
||||||
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
|
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
|
||||||
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
|
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
|
||||||
besonders einfache Gestalt bringen!
|
immer in besonders einfache Gestalt bringen!
|
||||||
|
|
||||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
|
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
|
||||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
|
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
|
||||||
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
|
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
|
||||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
|
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
|
||||||
Folgendes gilt.
|
dass Folgendes gilt.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
|
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
|
||||||
\[
|
\[
|
||||||
@ -27,7 +27,7 @@ besonders einfache Gestalt bringen!
|
|||||||
λ_1 && 0\\
|
λ_1 && 0\\
|
||||||
&\ddots\\
|
&\ddots\\
|
||||||
0 && λ_n
|
0 && λ_n
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item Die Koordinatenwechselmatrix
|
\item Die Koordinatenwechselmatrix
|
||||||
@ -42,20 +42,20 @@ besonders einfache Gestalt bringen!
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{notation}[Hauptachsen und Hauptachsentransformation]
|
\begin{notation}[Hauptachsen und Hauptachsentransformation]
|
||||||
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
|
In der Situation von Satz~\ref{satz:11-0-1} schreibe
|
||||||
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_•$
|
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
|
||||||
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
|
Vektoren $\vec{v}_{•}$ aufgespannten 1-dimensionalen Untervektorräume
|
||||||
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
|
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
|
||||||
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||||
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
|
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
|
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
|
||||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
|
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
|
||||||
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
|
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
|
||||||
ist.
|
ist.
|
||||||
|
|
||||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
|
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
|
||||||
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
|
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Die Form $s$ ist positiv definit.
|
\item Die Form $s$ ist positiv definit.
|
||||||
@ -63,44 +63,40 @@ ist.
|
|||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
\end{kor}
|
\end{kor}
|
||||||
|
|
||||||
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
|
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
|
||||||
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
|
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
|
||||||
sind.
|
sind.
|
||||||
|
|
||||||
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
|
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
|
||||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
|
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
|
||||||
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
|
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
|
||||||
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$ bzw.
|
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$
|
||||||
$ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
|
bzw. $ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
|
||||||
als Null sind.
|
größer als Null sind.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft „alle
|
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
|
||||||
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
|
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
|
||||||
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
|
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
|
||||||
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
|
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
|
||||||
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
|
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
|
||||||
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
|
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
|
||||||
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
|
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
|
||||||
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
|
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
|
||||||
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
|
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
|
||||||
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
|
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
|
||||||
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
|
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
|
||||||
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
|
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
|
||||||
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
|
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
|
||||||
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
|
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
|
||||||
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
|
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
|
||||||
einmal auf diesen Punkt zurück.
|
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||||
|
|
||||||
\begin{satz}[Trägheitssatz von
|
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
|
||||||
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
|
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||||
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
|
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
|
||||||
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
|
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
|
||||||
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
|
Matrizen $A_{•} = \Mat_{\mathcal{A}_{•}}(s)$. Dann gilt folgendes.
|
||||||
endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und es sei $s: V ⨯
|
|
||||||
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
|
|
||||||
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
|
|
||||||
\Mat_{\mathcal{A}_•}(s)$. Dann gilt Folgendes.
|
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
||||||
|
|
||||||
@ -117,16 +113,16 @@ einmal auf diesen Punkt zurück.
|
|||||||
|
|
||||||
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
|
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
|
||||||
|
|
||||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
|
\begin{defn}[Index und Signatur]\label{def:11-0-5}
|
||||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
|
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
|
||||||
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
|
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
|
||||||
bezeichnet. Die Differenz
|
einer Form} bezeichnet. Die Differenz
|
||||||
\[
|
\[
|
||||||
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
|
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
|
||||||
\]
|
\]
|
||||||
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
|
wird die \emph{Signatur von $s$}\index{Signatur einer
|
||||||
Untervektorraum
|
Form} genannt. Der Untervektorraum
|
||||||
\[
|
\[
|
||||||
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
|
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
|
||||||
\vec{w} ∈ V \} ⊆ V
|
\vec{w} ∈ V \} ⊆ V
|
||||||
@ -168,7 +164,7 @@ Matrix positive definit ist.
|
|||||||
\end{pmatrix}
|
\end{pmatrix}
|
||||||
∈ \Mat(m⨯ m, k).
|
∈ \Mat(m⨯ m, k).
|
||||||
\]
|
\]
|
||||||
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||||
gilt, dass $\det A_m > 0$ ist.
|
gilt, dass $\det A_m > 0$ ist.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
@ -186,11 +182,11 @@ Hurwitz-Kriteriums. Zum Beispiel
|
|||||||
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
|
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
|
||||||
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
|
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
|
||||||
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
|
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
|
||||||
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
|
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
|
||||||
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
|
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
|
||||||
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
|
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
|
||||||
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
|
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
|
||||||
machen?
|
das richtig machen?
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
% !TEX root = LineareAlgebra2
|
% !TEX root = LineareAlgebra2
|
||||||
|
@ -4,20 +4,20 @@
|
|||||||
\chapter{Anwendungen}
|
\chapter{Anwendungen}
|
||||||
|
|
||||||
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
|
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
|
||||||
weil Sie unbedingt eine symmetrische Matrix mithilfe eines orthogonalen
|
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen
|
||||||
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
|
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
|
||||||
Linearkombinationen mithilfe von Skalarprodukten auszurechnen?
|
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen?
|
||||||
|
|
||||||
Die Begriffe und Methoden des laufenden Kapitels über „Euklidische und
|
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und
|
||||||
Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es
|
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es
|
||||||
sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
|
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective
|
||||||
Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
|
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der
|
||||||
linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen
|
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
|
||||||
können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es
|
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
|
||||||
eine unendliche Menge von hervorragenden Tutorials, Erklärvideos,
|
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
|
||||||
Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass
|
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht
|
||||||
Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich
|
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem
|
||||||
reiße in diesem Kapitel einige Anwendungen oberflächlich an
|
Kapitel einige Anwendungen oberflächlich an
|
||||||
|
|
||||||
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
|
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
|
||||||
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
|
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
|
||||||
@ -26,9 +26,9 @@ machen, können aber nicht sinnvoll geprüft werden.
|
|||||||
|
|
||||||
\section{Reelle Quadriken}
|
\section{Reelle Quadriken}
|
||||||
|
|
||||||
Die erste „Anwendung“ ist immer noch ziemlich theoretisch und stammt mindestens
|
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt
|
||||||
aus der hellenistischen Antike, also etwa der Zeit Alexander des Großen.
|
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des
|
||||||
Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
|
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
|
||||||
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
|
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
|
||||||
große Rolle spielte}. Es geht um folgende Situation.
|
große Rolle spielte}. Es geht um folgende Situation.
|
||||||
|
|
||||||
@ -50,14 +50,14 @@ große Rolle spielte}. Es geht um folgende Situation.
|
|||||||
|
|
||||||
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
|
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
|
||||||
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
|
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
|
||||||
linearen Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
|
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
|
||||||
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
|
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
|
||||||
Translationen? Wir formulieren die Frage präziser und führen die folgende
|
Translationen? Wir formulieren die Frage präziser und führen die folgende
|
||||||
Notation ein.
|
Notation ein.
|
||||||
|
|
||||||
\begin{defn}[Affine Abbildung]\label{def:12-1-3}%
|
\begin{defn}[Affine Abbildung]\label{def:12-1-3}
|
||||||
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung $Φ : V
|
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung
|
||||||
→ W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
|
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
|
||||||
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
|
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
|
||||||
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
|
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
@ -73,23 +73,23 @@ Damit können wir unsere Frage präzise formulieren.
|
|||||||
|
|
||||||
\begin{frage}
|
\begin{frage}
|
||||||
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
|
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
|
||||||
Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von $Q$ unter der Abbildung $Φ$
|
Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$ unter der
|
||||||
eine Quadrik von besonders einfacher Gestalt ist? Gibt es eine (kleine)
|
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es
|
||||||
Mengen von „Grund-Quadriken“ aus denen alle anderen durch affine
|
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch
|
||||||
Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
|
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
|
||||||
Verschiebung, …) entstehen?
|
Verschiebung, …) entstehen?
|
||||||
\end{frage}
|
\end{frage}
|
||||||
|
|
||||||
|
|
||||||
Die Antwort ist natürlich „ja“, aber Sie haben ja zum Glück noch nicht weiter
|
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter
|
||||||
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
|
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
|
||||||
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
|
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
|
||||||
und abstandserhaltende Abbildungen statt affiner Abbildungen.
|
und abstandserhaltende Abbildungen statt affiner Abbildungen.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Vereinfachung von quadratischen Gleichungen}
|
\subsection{Vereinfachung von Quadratischen Gleichungen}
|
||||||
|
|
||||||
Wir bleiben in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
|
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
|
||||||
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
|
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
|
||||||
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
|
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
|
||||||
Student wies mich auf
|
Student wies mich auf
|
||||||
@ -127,13 +127,13 @@ Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
|
|||||||
|
|
||||||
Wir wissen: es existiert eine orthogonale $n⨯n$-Matrix $W$, so dass die
|
Wir wissen: es existiert eine orthogonale $n⨯n$-Matrix $W$, so dass die
|
||||||
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
|
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
|
||||||
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt für
|
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt
|
||||||
alle $\vec{x} ∈ ℝ^n$:
|
für alle $\vec{x} ∈ ℝ^n$:
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
|
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
|
||||||
& ⇔ f(W·\vec{x}) = 0 \\
|
& ⇔ f(W·\vec{x}) = 0 \\
|
||||||
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
|
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
|
||||||
& ⇔ \vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0.
|
& ⇔ \vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
|
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
|
||||||
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
|
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
|
||||||
@ -169,9 +169,8 @@ gilt für alle $\vec{x} ∈ ℝ^n$:
|
|||||||
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
|
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
|
||||||
& ⇔ \sum_{i=1}^r
|
& ⇔ \sum_{i=1}^r
|
||||||
a^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
|
a^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
|
||||||
\right)² + 2 · \sum_{i=1}^r b^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right)\\
|
\right)² + 2 · \sum_{i=1}^r b^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
|
||||||
& \qquad + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
|
& ⇔ \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0
|
||||||
& ⇔ \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0.
|
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
|
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
|
||||||
\[
|
\[
|
||||||
@ -194,7 +193,7 @@ Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
|
|||||||
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
|
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
|
||||||
Schritt nichts und setzen
|
Schritt nichts und setzen
|
||||||
\[
|
\[
|
||||||
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}.
|
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}
|
||||||
\]
|
\]
|
||||||
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
|
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
|
||||||
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
|
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
|
||||||
@ -214,15 +213,15 @@ gilt für alle $\vec{x} ∈ ℝ^n$:
|
|||||||
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
|
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
|
||||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
|
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
|
||||||
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
|
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
|
||||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0.
|
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0
|
||||||
\end{align*}
|
\end{align*}
|
||||||
In jedem Fall gilt: Die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
|
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
|
||||||
gegeben durch ein Polynom
|
gegeben durch ein Polynom
|
||||||
\[
|
\[
|
||||||
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)},
|
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)}
|
||||||
\]
|
\]
|
||||||
wobei $b^{(3)}_{r+1} ∈ \{0,-2\}$ und $c^{(3)} ∈ \{0, -1\}$ ist. Weiterhin gilt:
|
wobei $b^{(3)}_{r+1} ∈ \{0,-2\}$ und $c^{(3)} ∈ \{0, -1\}$ ist. Weiterhin
|
||||||
$b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
|
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
|
||||||
|
|
||||||
|
|
||||||
\subsubsection{Schritt 5: Skalierung}
|
\subsubsection{Schritt 5: Skalierung}
|
||||||
@ -260,10 +259,10 @@ $b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
|
|||||||
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
|
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
|
||||||
folgenden Satz bewiesen.
|
folgenden Satz bewiesen.
|
||||||
|
|
||||||
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}%
|
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}
|
||||||
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
|
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
|
||||||
affine Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von $Q$ Nullstellenmenge
|
affine Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$
|
||||||
einer der folgenden Gleichungen ist
|
Nullstellenmenge einer der folgenden Gleichungen ist
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item $x_1² + x_2² + … + x_r² - x_{r+1}² - … - x_k²$
|
\item $x_1² + x_2² + … + x_r² - x_{r+1}² - … - x_k²$
|
||||||
|
|
||||||
@ -287,11 +286,12 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
|||||||
|
|
||||||
\begin{kor}[Klassifikation der Koniken des Appollonius von
|
\begin{kor}[Klassifikation der Koniken des Appollonius von
|
||||||
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
|
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
|
||||||
von Perge} (* ca.~265 v.~Chr.~in Perge; † ca.~190 v.~Chr.~in Alexandria) war
|
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria)
|
||||||
ein antiker griechischer Mathematiker, bekannt für sein Buch über
|
war ein antiker griechischer Mathematiker, bekannt für sein Buch über
|
||||||
Kegelschnitte.}] Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann
|
Kegelschnitte.}]
|
||||||
gibt es eine bijektive, affine Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von
|
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine
|
||||||
$Q$ Nullstellenmenge einer der folgenden Gleichungen ist
|
bijektive, affine Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$
|
||||||
|
Nullstellenmenge einer der folgenden Gleichungen ist
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item $x² = 0:$ Doppelgerade \label{Q.1}
|
\item $x² = 0:$ Doppelgerade \label{Q.1}
|
||||||
|
|
||||||
@ -444,9 +444,10 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
|||||||
|
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
|
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
|
||||||
im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
|
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen
|
||||||
Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim
|
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die
|
||||||
Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf?
|
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier
|
||||||
|
eigentlich Koniken auf?
|
||||||
|
|
||||||
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
|
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
|
||||||
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
|
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
|
||||||
@ -459,7 +460,7 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
|||||||
|
|
||||||
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
|
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
|
||||||
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
|
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
|
||||||
grafisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
|
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
|
||||||
zu den Vereinfachungen kommt.
|
zu den Vereinfachungen kommt.
|
||||||
|
|
||||||
|
|
||||||
@ -467,21 +468,21 @@ zu den Vereinfachungen kommt.
|
|||||||
|
|
||||||
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
|
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
|
||||||
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
|
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
|
||||||
Baptiste Joseph Fourier} (* 21.~März 1768 bei Auxerre; † 16.~Mai 1830 in Paris)
|
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in
|
||||||
war ein französischer Mathematiker und Physiker.} und nenne einige Anwendungen.
|
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige
|
||||||
Die Fourier-Transformation ist für die Praxis vielleicht das wichtigste Stück
|
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das
|
||||||
Mathematik überhaupt\footnote{Sie selbst verwenden solche Transformationen
|
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche
|
||||||
ununterbrochen -- haben Sie schon einmal ein Mobiltelefon benutzt? Oder sind
|
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon
|
||||||
Sie vielleicht in einem Auto gefahren? Oder haben Sie einen Klang gehört?}.
|
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen
|
||||||
Manche Kollegen sprechen sogar von der „fünften Grundrechenart“. Ich komme im
|
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften
|
||||||
Abschnitt~\ref{ssec:Rechen} darauf zurück.
|
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück.
|
||||||
|
|
||||||
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
|
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
|
||||||
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
|
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
|
||||||
Fachhochschule Hamburg hat ebenfalls ein nettes
|
Fachhochschule Hamburg hat ebenfalls ein nettes
|
||||||
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} („Warum die
|
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die
|
||||||
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
|
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
|
||||||
dahinter steht“). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
|
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
|
||||||
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
|
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
|
||||||
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$→$Link}). Wenn Sie ein
|
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$→$Link}). Wenn Sie ein
|
||||||
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
|
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
|
||||||
@ -494,9 +495,9 @@ betrachte den der Vektorraum $V = \cC⁰([-π,π], ℝ)$ der reellwertigen steti
|
|||||||
Funktionen auf dem Intervall $[-π,π] ⊂ ℝ$. Wir haben schon gesehen, dass die
|
Funktionen auf dem Intervall $[-π,π] ⊂ ℝ$. Wir haben schon gesehen, dass die
|
||||||
Abbildung
|
Abbildung
|
||||||
\[
|
\[
|
||||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt
|
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt.
|
||||||
\]
|
\]
|
||||||
ein Skalarprodukt ist. Rechnen Sie sofort mithilfe der bekannten
|
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten
|
||||||
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
|
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
|
||||||
und $m$ aus $ℕ$ die folgenden Gleichungen gelten:
|
und $m$ aus $ℕ$ die folgenden Gleichungen gelten:
|
||||||
\[
|
\[
|
||||||
@ -504,37 +505,37 @@ und $m$ aus $ℕ$ die folgenden Gleichungen gelten:
|
|||||||
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
|
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
|
||||||
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
|
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
|
||||||
\]
|
\]
|
||||||
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2\pi}}$ noch Folgendes:
|
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2}}$ noch Folgendes:
|
||||||
\[
|
\[
|
||||||
\left\langle \frac{1}{\sqrt{2\pi}}, \frac{1}{\sqrt{2\pi}} \right\rangle = 1, \quad
|
\left\langle \frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} \right\rangle = 1, \quad
|
||||||
\left\langle \cos(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0, \quad
|
\left\langle \cos(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0, \quad
|
||||||
\left\langle \sin(n·x), \frac{1}{\sqrt{2\pi}} \right\rangle = 0.
|
\left\langle \sin(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0.
|
||||||
\]
|
\]
|
||||||
Insgesamt sehen wir, dass die Menge
|
Insgesamt sehen wir, dass die Menge
|
||||||
\[
|
\[
|
||||||
\mathcal{F} := \left\{ \frac{1}{\sqrt{2\pi}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
||||||
\]
|
\]
|
||||||
eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
|
eine orthonormale Teilmengen des Euklidischen Vektorraumes
|
||||||
\rangle\bigr)$ ist.
|
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
|
||||||
|
|
||||||
|
|
||||||
\subsubsection{Rekonstruktion von Funktionen}
|
\subsubsection{Rekonstruktion von Funktionen}
|
||||||
|
|
||||||
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von $\mathcal{F}$
|
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von
|
||||||
erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion $f ∈ F$ habe, dann
|
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion
|
||||||
kann ich die Zahlen
|
$f ∈ F$ habe, dann kann ich die Zahlen
|
||||||
\begin{equation}\label{eq:12-2-0-1}
|
\begin{equation}\label{eq:12-2-0-1}
|
||||||
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
|
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
|
||||||
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
|
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
|
||||||
c := \left\langle f, \frac{1}{\sqrt{2\pi}} \right\rangle
|
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle
|
||||||
\end{equation}
|
\end{equation}
|
||||||
ausrechnen und erhalte die Gleichung
|
ausrechnen und erhalte die Gleichung:
|
||||||
\begin{equation}\label{eq:12-2-0-2}
|
\begin{equation}\label{eq:12-2-0-2}
|
||||||
f = \frac{c}{\sqrt{2\pi}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr).
|
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
||||||
\end{equation}
|
\end{equation}
|
||||||
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
|
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
|
||||||
verschieden sind, sodass auf der rechten Seite der Gleichung~\eqref{eq:12-2-0-2}
|
verschieden sind, so dass auf der rechten Seite der
|
||||||
tatsächlich nur eine endliche Summe steht.
|
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Fourier-Reihen}
|
\subsection{Fourier-Reihen}
|
||||||
@ -548,7 +549,7 @@ alle. Es gilt der folgende Satz der Analysis.
|
|||||||
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
|
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
|
||||||
konvergiert die Funktionenreihe
|
konvergiert die Funktionenreihe
|
||||||
\begin{equation}\label{eq:12}
|
\begin{equation}\label{eq:12}
|
||||||
\frac{c}{\sqrt{2\pi}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
\frac{c}{\sqrt{2}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
||||||
\end{equation}
|
\end{equation}
|
||||||
gleichmäßig (und damit punktweise) gegen $f$.
|
gleichmäßig (und damit punktweise) gegen $f$.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
@ -575,7 +576,7 @@ zeigt wie man eine Sprungfunktion annähert.
|
|||||||
|
|
||||||
Weitere Beispiele gibt es bei
|
Weitere Beispiele gibt es bei
|
||||||
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
|
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
|
||||||
diesem fantastischem
|
diesem phantastischem
|
||||||
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
|
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
|
||||||
Vielleicht schauen sie auch einmal in
|
Vielleicht schauen sie auch einmal in
|
||||||
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
|
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
|
||||||
@ -601,12 +602,12 @@ Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahez
|
|||||||
beliebige Funktionen machen. Allerdings erhält man statt der
|
beliebige Funktionen machen. Allerdings erhält man statt der
|
||||||
Fourier-Koeffizienten
|
Fourier-Koeffizienten
|
||||||
\[
|
\[
|
||||||
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt
|
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt.
|
||||||
\]
|
\]
|
||||||
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
|
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
|
||||||
schreibt
|
schreibt
|
||||||
\[
|
\[
|
||||||
F(t) = \int_{-∞}^{∞} f(x)·e^{-2\pi i·tx}dx.
|
F(t) = \frac{1}{\sqrt{2π}}·\int_{-∞}^{∞} f(x)·e^{-itx}dx.
|
||||||
\]
|
\]
|
||||||
Aus der Reihendarstellung
|
Aus der Reihendarstellung
|
||||||
\[
|
\[
|
||||||
@ -614,40 +615,40 @@ Aus der Reihendarstellung
|
|||||||
\]
|
\]
|
||||||
wird dann die Formel
|
wird dann die Formel
|
||||||
\[
|
\[
|
||||||
f(x) = \int_{-∞}^{∞} F(t)·e^{2\pi i·tx}dt.
|
f(x) = \frac{1}{\sqrt{2π}}·\int_{-∞}^{∞} F(t)·e^{-itx}dt.
|
||||||
\]
|
\]
|
||||||
Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
|
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder
|
||||||
spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein
|
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in
|
||||||
„Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
|
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die
|
||||||
eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
|
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn
|
||||||
verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
|
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation
|
||||||
super-interessante Sachen machen.
|
verstehen. Dann kann man super-interessante Sachen machen.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
|
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
|
||||||
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
|
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
|
||||||
diesen Methoden nicht schwierig, ein kleines Computerprogramm zu bauen, dass
|
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass
|
||||||
ein gesprochenes „e“ von einem „a“ unterscheidet. Suchen Sie im Internet nach
|
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet
|
||||||
„Python“ und „SciKit“, dann finden Sie alles, was sie brauchen.
|
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen.
|
||||||
|
|
||||||
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
|
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
|
||||||
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
|
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
|
||||||
Programm machen, das ein Musikstück schneller abspielt, ohne die Tonhöhe zu
|
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu
|
||||||
verändern.
|
verändern.
|
||||||
|
|
||||||
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
|
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
|
||||||
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
|
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
|
||||||
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
|
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
|
||||||
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
|
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
|
||||||
akustischen Wahrnehmung von Tonsignalen („psycho-akustisches Modell“) und
|
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und
|
||||||
erkenne die Teile des Spektrums, die für das Gehirn uninteressant sind. Lasse
|
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse
|
||||||
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern, ohne den
|
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang
|
||||||
Klang wesentlich zu verschlechtern.
|
wesentlich zu verschlechtern.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
|
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
|
||||||
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
|
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
|
||||||
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
|
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
|
||||||
„Heisenbergsche Unschärferelation“, über die Philosophen viel schreiben, ist
|
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist
|
||||||
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
||||||
|
|
||||||
|
|
||||||
@ -655,31 +656,31 @@ eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
|||||||
\label{ssec:Rechen}
|
\label{ssec:Rechen}
|
||||||
|
|
||||||
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
|
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
|
||||||
wegen ihrer Wichtigkeit die „fünfte Grundrechenart“. Das ist natürlich falsch.
|
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich
|
||||||
Tatsache ist, dass moderne Prozessoren die
|
falsch. Tatsache ist, dass moderne Prozessoren die
|
||||||
„\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
|
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
|
||||||
Fouriertransformation}“ extrem effizient ausführen können. Viele elektronische
|
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele
|
||||||
Geräte enthalten zusätzlich Spezialchips zur Fouriertransformation. Damit lässt
|
elektronischen Geräten enthalten zusätzlich Spezialchips zur
|
||||||
sie die Fourier-Transformation so effizient implementieren, dass Computer die
|
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient
|
||||||
Multiplikation ganzer Zahlen mithilfe von Fourier-Transformation durchführen;
|
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von
|
||||||
Multiplikation ist also nur noch eine Anwendung der schnellen
|
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine
|
||||||
Fouriertransformation.
|
Anwendung der schnellen Fouriertransformation.
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
|
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
|
||||||
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
|
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
|
||||||
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen
|
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante
|
||||||
Variante der diskreten schnellen Fourier-Transformation sowie einem
|
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel
|
||||||
geschickten Wechsel zwischen der Restklassen- und der zyklischen Arithmetik in
|
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen
|
||||||
endlichen Zahlenringen.
|
Zahlenringen.
|
||||||
|
|
||||||
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
|
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Schauen Sie sich auch einmal
|
Schauen Sie sich auch einmal
|
||||||
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
|
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
|
||||||
Artikel} an. Die Grundrechenarten im 21.~Jahrhundert sind also nicht „plus,
|
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus,
|
||||||
minus, mal, geteilt“, sondern „plus, minus, Fourier-Transformation“.
|
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Warum Sinus und Kosinus}
|
\subsection{Warum Sinus und Kosinus}
|
||||||
@ -687,7 +688,7 @@ minus, mal, geteilt“, sondern „plus, minus, Fourier-Transformation“.
|
|||||||
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
|
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
|
||||||
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
|
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
|
||||||
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
|
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
|
||||||
gibt aber noch andere Funktionen, mit denen man etwas Ähnliches machen kann, zum
|
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum
|
||||||
Beispiel die
|
Beispiel die
|
||||||
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
|
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
|
||||||
die die quantenmechanischen Gleichungen zur Beschreibung von
|
die die quantenmechanischen Gleichungen zur Beschreibung von
|
||||||
@ -707,9 +708,10 @@ von Menschen fünf-dimensional ist?
|
|||||||
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
|
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
|
||||||
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
|
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
|
||||||
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
|
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
|
||||||
\foreignlanguage{english}{Conscientiousness, Extraversion, Agreeableness,
|
Conscientiousness, Extraversion, Agreeableness, Neuroticism).
|
||||||
Neuroticism}). Dem Modell zufolge existieren fünf Hauptdimensionen der
|
|
||||||
Persönlichkeit und jeder Mensch lässt sich auf folgenden Skalen einordnen:
|
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder
|
||||||
|
Mensch lässt sich auf folgenden Skalen einordnen:
|
||||||
|
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
|
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
|
||||||
@ -737,43 +739,43 @@ von Menschen fünf-dimensional ist?
|
|||||||
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
|
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Die Frage nach der Persönlichkeit mag ein bisschen theoretisch vorkommen, ist
|
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist
|
||||||
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
|
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
|
||||||
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
|
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
|
||||||
ermitteln --- suchen Sie im Internet nach den Worten „Stryker“,
|
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'',
|
||||||
„Bewerbungsgespräch“ und „Gallup-Test“ um zu sehen, was ich meine.
|
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Wie kommt man auf die Zahl „fünf“?}
|
\subsection{Wie kommt man auf die Zahl ``fünf''?}
|
||||||
|
|
||||||
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
|
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
|
||||||
|
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Nimm eine Liste aller möglichen Adjektive der englischen Sprache, die sich
|
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich
|
||||||
auf „Persönlichkeit“ beziehen -- bei Wikipedia ist von 18.000 Begriffen die
|
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die
|
||||||
Rede.
|
Rede.
|
||||||
|
|
||||||
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
|
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
|
||||||
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
|
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
|
||||||
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ℝ^{18000}$.
|
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ℝ^{18000}$.
|
||||||
|
|
||||||
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum $V ⊂ ℝ^{18000}$
|
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum
|
||||||
gibt, sodass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im Wesentlichen alle in $V$
|
$V ⊂ ℝ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im
|
||||||
liegen.
|
Wesentlichen alle in $V$ liegen.
|
||||||
|
|
||||||
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
|
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
|
||||||
diesen Eigenschaften gibt.
|
diesen Eigenschaften gibt.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
|
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
|
||||||
Aufgabe der „Hauptkomponentenanalyse“. Kurz gesagt berechnet man für je zwei
|
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei
|
||||||
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
|
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
|
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
|
||||||
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
|
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
|
||||||
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß
|
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für
|
||||||
für die Assoziation zwischen zwei Zufallsvariablen.
|
die Assoziation zwischen zwei Zufallsvariablen.
|
||||||
|
|
||||||
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
|
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
@ -798,16 +800,16 @@ Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
|
|||||||
\subsection{… und weiter?}
|
\subsection{… und weiter?}
|
||||||
|
|
||||||
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
|
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
|
||||||
Wissenschaften verwendet. Suchen Sie im Internet nach „Hauptkomponentenanalyse
|
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse
|
||||||
und Sportwissenschaft“. Wikipedia nennt unter anderem noch folgende Beispiele.
|
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
|
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
|
||||||
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
|
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
|
||||||
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
|
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
|
||||||
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
|
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
|
||||||
|
|
||||||
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, kann man
|
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit
|
||||||
mithilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
|
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
|
||||||
Modell reduziert werden, was meistens die Modellqualität steigert.
|
Modell reduziert werden, was meistens die Modellqualität steigert.
|
||||||
|
|
||||||
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
|
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
|
||||||
@ -815,18 +817,17 @@ und Sportwissenschaft“. Wikipedia nennt unter anderem noch folgende Beispiele
|
|||||||
analysieren und Rückschlüsse daraus ziehen.
|
analysieren und Rückschlüsse daraus ziehen.
|
||||||
|
|
||||||
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
|
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
|
||||||
neuronalen Netzen. Dort dient die PCA zur Merkmals-Trennung im Rahmen der
|
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der
|
||||||
automatischen Klassifizierung bzw. in der Mustererkennung.
|
automatischen Klassifizierung bzw. in der Mustererkennung.
|
||||||
|
|
||||||
\item \foreignlanguage{english}{In quantitative finance, principal component
|
\item In quantitative finance, principal component analysis can be directly
|
||||||
analysis can be directly applied to the risk management of interest rate
|
applied to the risk management of interest rate derivative portfolios. Trading
|
||||||
derivative portfolios. Trading multiple swap instruments which are usually a
|
multiple swap instruments which are usually a function of 30-500 other market
|
||||||
function of 30-500 other market quotable swap instruments is sought to be
|
quotable swap instruments is sought to be reduced to usually 3 or 4 principal
|
||||||
reduced to usually 3 or 4 principal components, representing the path of
|
components, representing the path of interest rates on a macro
|
||||||
interest rates on a macro basis. Converting risks to be represented as those
|
basis. Converting risks to be represented as those to factor loadings (or
|
||||||
to factor loadings (or multipliers) provides assessments and understanding
|
multipliers) provides assessments and understanding beyond that available to
|
||||||
beyond that available to simply collectively viewing risks to individual
|
simply collectively viewing risks to individual 30-500 buckets.
|
||||||
30-500 buckets.}
|
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
% !TEX root = LineareAlgebra2
|
% !TEX root = LineareAlgebra2
|
||||||
|
@ -4,9 +4,9 @@
|
|||||||
\chapter{Bilineare und multilineare Abbildungen}
|
\chapter{Bilineare und multilineare Abbildungen}
|
||||||
|
|
||||||
\sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über
|
\sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über
|
||||||
„multilineare Algebra“. In diesem Kapitel werden wir multilineare Abbildungen
|
``multilineare Algebra''. In diesem Kapitel werden wir multilineare Abbildungen
|
||||||
und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das
|
und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das
|
||||||
„Tensorprodukt“. Bevor wir richtig „multi“ werden, diskutiere ich erst noch
|
``Tensorprodukt''. Bevor wir richtig ``multi'' werden, diskutiere ich erst noch
|
||||||
einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität
|
einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität
|
||||||
kennen Sie schon.
|
kennen Sie schon.
|
||||||
|
|
||||||
@ -18,18 +18,18 @@ kennen Sie schon.
|
|||||||
Die folgende Definition sollte jetzt keine Überraschung mehr sein.
|
Die folgende Definition sollte jetzt keine Überraschung mehr sein.
|
||||||
|
|
||||||
\begin{defn}[Bilineare Abbildungen]
|
\begin{defn}[Bilineare Abbildungen]
|
||||||
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume.
|
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume. Eine
|
||||||
Eine \emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
|
\emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
|
||||||
$s: U ⨯ V → W$, so dass Folgendes gilt.
|
$s: U ⨯ V → W$, so dass Folgendes gilt.
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Linearität in der ersten Komponente] Für alle $\vec{u}_1, \vec{u}_2 ∈ U,
|
\item[Linearität in der ersten Komponente] Für alle
|
||||||
\vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
|
$\vec{u}_1, \vec{u}_2 ∈ U, \vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||||
\[
|
\[
|
||||||
s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) +
|
s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) +
|
||||||
λ·s(\vec{u}_2, \vec{v}).
|
λ·s(\vec{u}_2, \vec{v}).
|
||||||
\]
|
\]
|
||||||
\item[Linearität in der zweiten Komponente] Für alle $\vec{u} ∈ U, \vec{v}_1,
|
\item[Linearität in der zweiten Komponente] Für alle
|
||||||
\vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
|
$\vec{u} ∈ U, \vec{v}_1, \vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
|
||||||
\[
|
\[
|
||||||
s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ
|
s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ
|
||||||
s(\vec{u}, \vec{v}_2).
|
s(\vec{u}, \vec{v}_2).
|
||||||
@ -67,8 +67,8 @@ Beispiele für bilineare Abbildungen kennen wir in Hülle und Fülle.
|
|||||||
\subsection*{Multilineare Abbildungen}
|
\subsection*{Multilineare Abbildungen}
|
||||||
|
|
||||||
Sie können es sich sicher schon denken: multilineare Abbildungen sind
|
Sie können es sich sicher schon denken: multilineare Abbildungen sind
|
||||||
Abbildungen $V_1 ⨯ ⋯ ⨯ V_n → W$, sodass …. Ich habe vom Tippen schon wunde
|
Abbildungen $V_1 ⨯ ⋯ ⨯ V_n → W$, so dass …. Ich habe vom Tippen
|
||||||
Finger und verlasse mich darauf, dass Sie die Definition selbst
|
schon wunde Finger und verlasse mich darauf, dass Sie die Definition selbst
|
||||||
zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
|
zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
|
||||||
|
|
||||||
\begin{bsp}[$n$-lineare Funktion]
|
\begin{bsp}[$n$-lineare Funktion]
|
||||||
@ -77,12 +77,12 @@ zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
|
|||||||
\det : \Mat(n⨯ n, k) → k.
|
\det : \Mat(n⨯ n, k) → k.
|
||||||
\]
|
\]
|
||||||
Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den
|
Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den
|
||||||
Vektorraum der $n ⨯ n$-Matrizen mit dem Vektorraum $k^n ⨯ ⋯ ⨯ k^n$
|
Vektorraum der $n ⨯ n$-Matrizen mit dem Vektorraum
|
||||||
identifizieren. Wir erhalten also eine Abbildung
|
$V ⨯ ⋯ ⨯ V$ identifizieren. Wir erhalten also eine Abbildung
|
||||||
\[
|
\[
|
||||||
\det : \underbrace{k^n ⨯ ⋯ ⨯ k^n}_{n ⨯} → k.
|
\det : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → k.
|
||||||
\]
|
\]
|
||||||
Aus dem ersten Semester wissen wir: Diese Abbildung ist in jeder Komponente
|
Aus dem ersten Semester wissen wir: diese Abbildung ist in jeder Komponente
|
||||||
linear.
|
linear.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
|
@ -5,12 +5,12 @@
|
|||||||
|
|
||||||
\section{Definitionen}
|
\section{Definitionen}
|
||||||
|
|
||||||
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift „Beispiele für
|
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift ``Beispiele für
|
||||||
Vektorräume“ eine Methode kennengelernt, wie man aus einem $k$-Vektorraum $V$
|
Vektorräume'' eine Methode kennen gelernt, wie man aus einem $k$-Vektorraum $V$
|
||||||
neue $k$-Vektorräume macht: Der Vektorraum $V ⨯ V$ ist die Menge der geordneten
|
neue $k$-Vektorräume macht: der Vektorraum $V ⨯ V$ ist die Menge der
|
||||||
Paare von Vektoren; die Vektoraddition und skalare Multiplikation erfolgt
|
geordneten Paare von Vektoren; die Vektoraddition und skalare Multiplikation
|
||||||
komponentenweise. Alternativ könnte ich $V ⨯ V$ auch so definieren: Der
|
erfolgt komponentenweise. Alternativ könnte ich $V ⨯ V$ auch so
|
||||||
Vektorraum $V ⨯ V$ ist die Menge der Abbildungen
|
definieren: der Vektorraum $V ⨯ V$ ist die Menge der Abbildungen
|
||||||
\[
|
\[
|
||||||
\{1, 2 \} → V
|
\{1, 2 \} → V
|
||||||
\]
|
\]
|
||||||
@ -21,19 +21,19 @@ $V ⨯ \{\vec{0}\}$ und $\{\vec{0}\} ⨯ V$, die beide ganz offensichtlich
|
|||||||
isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V ⨯ V$ als
|
isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V ⨯ V$ als
|
||||||
direkte Summe,
|
direkte Summe,
|
||||||
\[
|
\[
|
||||||
V ⨯ V = \bigl(V ⨯ \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} ⨯ V\bigr).
|
V ⨯ V = \bigl(V ⨯ \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} ⨯ V\bigr),
|
||||||
\]
|
\]
|
||||||
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
|
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
|
||||||
mehr Komponenten. Ich erhalte so Vektorräume
|
mehr Komponenten. Ich erhalte so Vektorräume
|
||||||
\[
|
\[
|
||||||
V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}.
|
V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}
|
||||||
\]
|
\]
|
||||||
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
|
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
|
||||||
verallgemeinern.
|
verallgemeinern.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen
|
\item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen
|
||||||
zuzulassen, also etwas wie „$V_1 ⨯ V_2$“ zu definieren.
|
zuzulassen, also etwas wie ``$V_1 ⨯ V_2$'' zu definieren
|
||||||
\item Zum anderen möchte ich die Konstruktion auch für unendlich viele
|
\item Zum anderen möchte ich die Konstruktion statt auch für unendlich viele
|
||||||
Komponenten durchzuführen.
|
Komponenten durchzuführen.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen
|
Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen
|
||||||
@ -52,45 +52,45 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
|
|||||||
\emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$.
|
\emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
\begin{bemerkung}
|
||||||
|
Wir können die Elemente von $\prod V_i$ auch als Familie
|
||||||
|
$(φ_i: I → V_i)_{i ∈ I}$ von Abbildungen auffassen.
|
||||||
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die
|
Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die
|
||||||
Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch.
|
Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{notation}\label{not:14-1-3}
|
\begin{notation}
|
||||||
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$- Vektorräume
|
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$- Vektorräume
|
||||||
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, sodass für alle
|
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, so dass für
|
||||||
$i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
|
alle $i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
|
||||||
\[
|
\[
|
||||||
V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V.
|
V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V.
|
||||||
\]
|
\]
|
||||||
Für den Fall, dass $I = ∅$ die leere Menge ist, ist in der Literatur oft $V^∅
|
Für den Fall, dass $I = ∅$ die leere Menge ist, ist in der Literatur oft
|
||||||
= V^{(∅)} = \{ \vec{0}_V \}$ definiert.
|
$V^∅ = V^{(∅)} = \{ \vec{0}_V \}$ definiert.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}
|
||||||
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
|
|
||||||
$V^I$ auch als Abbildungen $I → V$ auffassen.
|
|
||||||
\end{bemerkung}
|
|
||||||
|
|
||||||
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
|
|
||||||
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
|
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
|
||||||
ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
|
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten
|
||||||
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
|
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
|
||||||
betrachte den Vektor
|
betrachte den Vektor
|
||||||
\[
|
\[
|
||||||
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I.
|
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I
|
||||||
\]
|
\]
|
||||||
Die so definierten Vektoren $\vec{e}_i$ heißen
|
Die so definierten Vektoren $\vec{e}_i$ heißen
|
||||||
\emph{Einheitsvektoren}\index{Einheitsvektoren}.
|
\emph{Einheitsvektoren}\index{Einheitsvektoren}.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{aufgabe}\label{auf:14-1-6}%
|
\begin{aufgabe}\label{auf:14-1-6}
|
||||||
In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass
|
In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass
|
||||||
die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist.
|
die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist.
|
||||||
Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine
|
Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine
|
||||||
Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$
|
Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$
|
||||||
fantastisch viel größer ist als der Raum $k^{(I)}$.
|
phantastisch viel größer ist als der Raum $k^{(I)}$.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
|
|
||||||
@ -129,7 +129,7 @@ eindeutig festgelegt.
|
|||||||
Diagramm kommutiert:
|
Diagramm kommutiert:
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=3cm]
|
\begin{tikzcd}[column sep=3cm]
|
||||||
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon.~Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
|
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon. Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
|
||||||
V_i \ar[r, "\varphi_i"'] & W .
|
V_i \ar[r, "\varphi_i"'] & W .
|
||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\]
|
\]
|
||||||
@ -139,11 +139,11 @@ eindeutig festgelegt.
|
|||||||
$\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien
|
$\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien
|
||||||
also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den
|
also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den
|
||||||
Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor
|
Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor
|
||||||
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_•$ mit den
|
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_{•}$ mit den
|
||||||
Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des
|
Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des
|
||||||
Diagramms folgt:
|
Diagramm folgt:
|
||||||
\[
|
\[
|
||||||
\varphi_• \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
|
\varphi_{•} \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
|
||||||
\]
|
\]
|
||||||
Also ist schon einmal
|
Also ist schon einmal
|
||||||
$\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$.
|
$\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$.
|
||||||
@ -154,14 +154,14 @@ eindeutig festgelegt.
|
|||||||
alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist
|
alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist
|
||||||
$\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt.
|
$\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt.
|
||||||
|
|
||||||
Wie immer sagt uns der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
|
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
|
||||||
existiert: Wir können es angeben! Setzen Sie dazu
|
existiert: wir können es angeben! Setzen Sie dazu
|
||||||
\[
|
\[
|
||||||
\varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I} ↦
|
\varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I} ↦
|
||||||
\sum_{i ∈ I} φ_i(\vec{v}_i)
|
\sum_{i ∈ I} φ_i(\vec{v}_i)
|
||||||
\]
|
\]
|
||||||
und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung
|
und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung
|
||||||
ohne unendliche Summe ist, die linear ist und die das Diagramm kommutativ
|
ohne unendliche Summe ist, die linear ist und die die Diagramm kommutativ
|
||||||
macht.
|
macht.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
@ -175,10 +175,11 @@ eindeutig festgelegt.
|
|||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{satz}[Universelle Eigenschaften des direkten Produkts]
|
\begin{satz}[Universelle Eigenschaften des direkten Produkts]
|
||||||
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein $k$-Vektorraum.
|
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
|
||||||
Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung $\varphi_i: W → V_i$
|
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
|
||||||
gegeben. Dann existiert genau eine Abbildung $\varphi: W → \prod_{j ∈ I}
|
$\varphi_i: W → V_i$ gegeben. Dann existiert genau eine Abbildung
|
||||||
V_j$, sodass für alle $i ∈ I$ das folgende Diagramm kommutiert:
|
$\varphi: W → \prod_{j ∈ I} V_j$, so dass für alle $i ∈ I$ das folgende
|
||||||
|
Diagramm kommutiert:
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}
|
\begin{tikzcd}
|
||||||
W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\
|
W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\
|
||||||
@ -193,25 +194,26 @@ eindeutig festgelegt.
|
|||||||
nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein.
|
nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein.
|
||||||
Damit ist die Eindeutigkeit schon gezeigt.
|
Damit ist die Eindeutigkeit schon gezeigt.
|
||||||
|
|
||||||
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
|
Wie immer sagt und der
|
||||||
existiert: Wir können es angeben! Setzen Sie dazu
|
Eindeutigkeitsbeweis sofort auch, warum $\varphi$ existiert: wir können es
|
||||||
|
angeben! Setzen Sie dazu
|
||||||
\[
|
\[
|
||||||
\varphi : W → \prod_j V_j, \quad \vec{w} ↦ \left( \varphi_j(\vec{w}) \right)_{j ∈ I}
|
\varphi : W → \prod_j V_j, \quad \vec{w} ↦ \left( \varphi_j(\vec{w}) \right)_{j ∈ I}
|
||||||
\]
|
\]
|
||||||
und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die
|
und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die
|
||||||
das Diagramm kommutativ macht.
|
die Diagramm kommutativ macht.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
|
|
||||||
\section{Dualität}
|
\section{Dualität}
|
||||||
|
|
||||||
In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale
|
In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale
|
||||||
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Dieser Fakt hatte den
|
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Diese Fakt hatte den
|
||||||
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls so
|
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls
|
||||||
lange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1 darauf
|
solange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1
|
||||||
hingewiesen, dass dies nicht das einzige Problem ist.
|
darauf hingewiesen, dass dies nicht das einzige Problem ist.
|
||||||
|
|
||||||
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}%
|
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}
|
||||||
Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine
|
Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine
|
||||||
Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus
|
Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus
|
||||||
\[
|
\[
|
||||||
@ -222,7 +224,7 @@ hingewiesen, dass dies nicht das einzige Problem ist.
|
|||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass
|
Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass
|
||||||
Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert,
|
Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert,
|
||||||
dessen Dualraum fantastisch viel größer ist als der Raum selbst.
|
dessen Dualraum phantastisch viel größer ist als der Raum selbst.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{proof}[Beweis von Satz~\ref{satz:14-3-1}]
|
\begin{proof}[Beweis von Satz~\ref{satz:14-3-1}]
|
||||||
|
127
15-tensor.tex
127
15-tensor.tex
@ -9,18 +9,18 @@
|
|||||||
|
|
||||||
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
|
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
|
||||||
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
|
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
|
||||||
es ist, dass all bilinearen Abbildungen von $U ⨯ V → W$ „von $U⊗V$ kommen“, und
|
es ist, dass all bilinearen Abbildungen von $U⨯V → W$ ``von $U⊗V$ kommen'', und
|
||||||
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
|
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
|
||||||
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
|
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
|
||||||
präzise.
|
präzise.
|
||||||
|
|
||||||
\begin{defn}[Tensorprodukt]
|
\begin{defn}[Tensorprodukt]
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
|
||||||
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
|
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
|
||||||
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U ⨯ V → T$,
|
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U⨯V → T$, so
|
||||||
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U ⨯ V →
|
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U⨯V → W$
|
||||||
W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
|
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
|
||||||
Diagramm kommutiert:
|
kommutiert:
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=2cm]
|
\begin{tikzcd}[column sep=2cm]
|
||||||
U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
||||||
@ -32,10 +32,10 @@ präzise.
|
|||||||
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
||||||
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
|
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
|
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
|
||||||
: U ⨯ V → T_1$ und $τ_1 : U ⨯ V → T_2$ zwei Tensorprodukte. Dann gibt es
|
seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann
|
||||||
einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\video{21-1}
|
\video{21-1}
|
||||||
@ -43,34 +43,34 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
|||||||
|
|
||||||
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
||||||
|
|
||||||
\begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
|
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||||||
ein Tensorprodukt.
|
existiert ein Tensorprodukt.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\video{21-2}
|
\video{21-2}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}%
|
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
|
||||||
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
|
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
|
||||||
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
|
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
|
||||||
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
|
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
|
||||||
Literatur oft \emph{Tensoren}\index{Tensor}.
|
Literatur oft \emph{Tensoren}\index{Tensor}.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}%
|
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
|
||||||
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
|
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
|
||||||
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v})
|
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
|
||||||
\bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und
|
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
|
||||||
$\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}⊗\vec{v}$
|
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
|
||||||
bezeichnet.
|
und mit $\vec{u}⊗\vec{v}$ bezeichnet.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]%
|
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||||||
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1,
|
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
|
||||||
\vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die
|
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
|
||||||
Tensoren
|
dass die Tensoren
|
||||||
\[
|
\[
|
||||||
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
|
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
|
||||||
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
|
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
|
||||||
@ -83,22 +83,22 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
|||||||
|
|
||||||
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
|
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
|
||||||
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
|
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
|
||||||
überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der
|
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
|
||||||
Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal
|
der Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal
|
||||||
wissen, ob sie Null sind oder nicht.
|
wissen, ob sie Null sind oder nicht.
|
||||||
|
|
||||||
\begin{notation}[Reine Tensor]\label{not:15-1-4b}%
|
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
|
||||||
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
|
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
|
||||||
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
|
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
|
||||||
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u} ∈
|
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
|
||||||
U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}⊗\vec{v}$ ist.
|
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}⊗\vec{v}$ ist.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
|
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
|
||||||
Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor
|
Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor
|
||||||
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
|
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
|
||||||
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
|
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
|
||||||
⨯ V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
$τ : U⨯V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
||||||
\[
|
\[
|
||||||
\vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
|
\vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
|
||||||
\]
|
\]
|
||||||
@ -110,16 +110,18 @@ wissen, ob sie Null sind oder nicht.
|
|||||||
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
|
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
|
||||||
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
|
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
|
||||||
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
|
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
|
||||||
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1⊗\vec{v}_2 =
|
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
|
||||||
\vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
|
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
|
||||||
|
überraschend schwer sein.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||||||
Beweisen Sie, dass der Tensor $\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ²
|
Beweisen Sie, dass der Tensor
|
||||||
⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
|
$\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
|
||||||
$\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1⊗\vec{v}_2 =
|
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
|
||||||
\vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht
|
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit
|
||||||
gilt!
|
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, so
|
||||||
|
dass die Gleichheit nicht gilt!
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
|
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
|
||||||
@ -128,7 +130,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
|
|||||||
hinschreiben können.
|
hinschreiben können.
|
||||||
|
|
||||||
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
|
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
|
||||||
Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||||||
ist die Menge der reinen Tensoren,
|
ist die Menge der reinen Tensoren,
|
||||||
\[
|
\[
|
||||||
R := \{ \vec{u}⊗ \vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} ∈
|
R := \{ \vec{u}⊗ \vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} ∈
|
||||||
@ -149,10 +151,11 @@ hinschreiben können.
|
|||||||
\vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}).
|
\vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}).
|
||||||
\]
|
\]
|
||||||
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
|
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
|
||||||
Index $i$ die Gleichung $a_i·(\vec{u_i}⊗\vec{v_i}) =
|
Index $i$ die Gleichung
|
||||||
(a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
|
$a_i·(\vec{u_i}⊗\vec{v_i}) = (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht
|
||||||
Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
|
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
|
||||||
sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
|
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
|
||||||
|
Tensoren schreiben kann.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
|
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
|
||||||
@ -164,9 +167,9 @@ hinschreiben können.
|
|||||||
Ψ: U⊗V → X, \quad \vec{u}⊗\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
|
Ψ: U⊗V → X, \quad \vec{u}⊗\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
|
||||||
\]
|
\]
|
||||||
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
|
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
|
||||||
Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ} ∈
|
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
|
||||||
U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen
|
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
|
||||||
Tensoren,
|
von reinen Tensoren,
|
||||||
\[
|
\[
|
||||||
\vec{τ} = \sum a_i·\vec{v}_i⊗\vec{w}_i
|
\vec{τ} = \sum a_i·\vec{v}_i⊗\vec{w}_i
|
||||||
\]
|
\]
|
||||||
@ -175,11 +178,11 @@ hinschreiben können.
|
|||||||
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
|
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
|
||||||
\]
|
\]
|
||||||
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
|
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
|
||||||
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so
|
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
|
||||||
„definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
|
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
|
||||||
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
|
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
|
||||||
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
|
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
|
||||||
Folge.
|
folge.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
|
|
||||||
@ -190,7 +193,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
|
|||||||
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
|
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
|
||||||
Tensorproduktraum erhält.
|
Tensorproduktraum erhält.
|
||||||
|
|
||||||
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}%
|
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
|
||||||
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
|
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
|
||||||
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
|
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
|
||||||
folgende Menge von reinen Tensoren,
|
folgende Menge von reinen Tensoren,
|
||||||
@ -214,7 +217,7 @@ Tensorproduktraum erhält.
|
|||||||
\vec{u}⊗\vec{v} &= \left(\sum_{i ∈ I} a_i·\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
|
\vec{u}⊗\vec{v} &= \left(\sum_{i ∈ I} a_i·\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
|
||||||
&= \sum_{i ∈ I} a_i·\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
|
&= \sum_{i ∈ I} a_i·\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
|
||||||
&= \sum_{i ∈ I} a_i·\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_j·\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
|
&= \sum_{i ∈ I} a_i·\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_j·\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
|
||||||
&= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}.
|
&= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Das beweist die Behauptung.
|
Das beweist die Behauptung.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
@ -251,13 +254,13 @@ Tensorproduktraum erhält.
|
|||||||
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
|
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
|
||||||
&= η_{ij} \left( \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
|
&= η_{ij} \left( \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
|
||||||
&= \sum_{(α,β) ∈ I⨯ J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
|
&= \sum_{(α,β) ∈ I⨯ J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
|
||||||
&= a_{ij}.
|
&= a_{ij}
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
|
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{kor}[Dimensionsformel für Tensorprodukte]
|
\begin{kor}[Dimensionsformel für Tensorprodukte]
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
|
||||||
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
|
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
|
||||||
\end{kor}
|
\end{kor}
|
||||||
|
|
||||||
@ -266,7 +269,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
|
|||||||
Basen.
|
Basen.
|
||||||
|
|
||||||
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
|
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
|
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
|
||||||
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
|
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
|
||||||
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
|
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
|
||||||
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
|
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
|
||||||
@ -276,7 +279,7 @@ Basen.
|
|||||||
…,
|
…,
|
||||||
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
|
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
|
||||||
\]
|
\]
|
||||||
Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische
|
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
|
||||||
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
|
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
|
||||||
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
|
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
|
||||||
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
|
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
|
||||||
@ -291,7 +294,7 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
|
|||||||
induzieren. Der folgende Satz macht diese Aussage präzise.
|
induzieren. Der folgende Satz macht diese Aussage präzise.
|
||||||
|
|
||||||
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
|
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
|
||||||
Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
|
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
|
||||||
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
|
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
|
||||||
Abbildung
|
Abbildung
|
||||||
\[
|
\[
|
||||||
@ -326,7 +329,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
|
|||||||
Matrizen diskutieren.
|
Matrizen diskutieren.
|
||||||
|
|
||||||
\begin{konstruktion}
|
\begin{konstruktion}
|
||||||
Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
|
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
|
||||||
Matrizen
|
Matrizen
|
||||||
\[
|
\[
|
||||||
A_1 ∈ \Mat(a_1⨯ b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2⨯ b_2, k)
|
A_1 ∈ \Mat(a_1⨯ b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2⨯ b_2, k)
|
||||||
@ -335,10 +338,10 @@ Matrizen diskutieren.
|
|||||||
\[
|
\[
|
||||||
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
|
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
|
||||||
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
|
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
|
||||||
\varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}.
|
\varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
|
||||||
\]
|
\]
|
||||||
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
|
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
|
||||||
mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten
|
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
|
||||||
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
|
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
|
||||||
zugehörende darstellende Matrix von $\varphi_{A_1}⊗\varphi_{A_1}$ bezüglich
|
zugehörende darstellende Matrix von $\varphi_{A_1}⊗\varphi_{A_1}$ bezüglich
|
||||||
dieser Produktbasen. Diese Matrix wird häufig als
|
dieser Produktbasen. Diese Matrix wird häufig als
|
||||||
@ -354,7 +357,7 @@ Matrizen diskutieren.
|
|||||||
Das Kronecker-Produkt ist also eine unangenehme Abbildung
|
Das Kronecker-Produkt ist also eine unangenehme Abbildung
|
||||||
\[
|
\[
|
||||||
•⊗• : \Mat(a_1⨯ b_1, k)⨯\Mat(a_2⨯ b_2,
|
•⊗• : \Mat(a_1⨯ b_1, k)⨯\Mat(a_2⨯ b_2,
|
||||||
k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr).
|
k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr)
|
||||||
\]
|
\]
|
||||||
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
|
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
|
||||||
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
|
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
|
||||||
@ -365,7 +368,7 @@ Matrizen diskutieren.
|
|||||||
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
|
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
|
||||||
$\mathcal{B}_{U, •}$ von $U_{•}$ und $\mathcal{B}_{V, •}$ von $V_{•}$ gegeben.
|
$\mathcal{B}_{U, •}$ von $U_{•}$ und $\mathcal{B}_{V, •}$ von $V_{•}$ gegeben.
|
||||||
Weiter seien $\mathcal{B}_{U, 1⨯ 2}$ und $\mathcal{B}_{V, 1⨯ 2}$ die
|
Weiter seien $\mathcal{B}_{U, 1⨯ 2}$ und $\mathcal{B}_{V, 1⨯ 2}$ die
|
||||||
lexikografisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann
|
lexikographisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann
|
||||||
gilt für die darstellenden Matrizen die Gleichung
|
gilt für die darstellenden Matrizen die Gleichung
|
||||||
\[
|
\[
|
||||||
\Mat^{\mathcal{B}_{U,1⨯ 2}}_{\mathcal{B}_{V,1⨯ 2}}(f_1⊗ f_2) =
|
\Mat^{\mathcal{B}_{U,1⨯ 2}}_{\mathcal{B}_{V,1⨯ 2}}(f_1⊗ f_2) =
|
||||||
@ -383,7 +386,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
|
|||||||
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
|
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
|
||||||
Folge der universellen Eigenschaften.
|
Folge der universellen Eigenschaften.
|
||||||
|
|
||||||
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}%
|
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
|
||||||
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
|
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
|
||||||
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
|
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
|
||||||
es eine kanonische Isomorphie zwischen den direkten Summen
|
es eine kanonische Isomorphie zwischen den direkten Summen
|
||||||
|
@ -4,7 +4,7 @@
|
|||||||
\chapter{Tensorprodukte mit mehreren Faktoren}
|
\chapter{Tensorprodukte mit mehreren Faktoren}
|
||||||
\label{sec:tAlg}
|
\label{sec:tAlg}
|
||||||
|
|
||||||
\sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
|
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'',
|
||||||
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
|
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
|
||||||
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
|
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
|
||||||
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
|
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
|
||||||
@ -17,12 +17,12 @@ nennen.
|
|||||||
\section{Definition, Existenz und Eindeutigkeit}
|
\section{Definition, Existenz und Eindeutigkeit}
|
||||||
|
|
||||||
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
|
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
|
||||||
Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
|
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere
|
||||||
von Faktoren zu definieren, betrachten wir ganz analog „multilineare
|
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare
|
||||||
Abbildungen“.
|
Abbildungen''.
|
||||||
|
|
||||||
\begin{defn}[Multilineare Abbildungen]
|
\begin{defn}[Multilineare Abbildungen]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $W$ und $V_1, …, V_n$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien seien $W$ und $V_1, …, V_n$
|
||||||
jeweils $k$-Vektorräume. Eine Abbildung
|
jeweils $k$-Vektorräume. Eine Abbildung
|
||||||
\[
|
\[
|
||||||
s: V_1⨯ V_2 ⨯ ⋯ ⨯ V_n → W
|
s: V_1⨯ V_2 ⨯ ⋯ ⨯ V_n → W
|
||||||
@ -36,16 +36,17 @@ Abbildungen“.
|
|||||||
\end{multline*}
|
\end{multline*}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
|
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein
|
||||||
Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
||||||
|
|
||||||
\begin{defn}[Tensorprodukt]\label{def:16-1-2}%
|
\begin{defn}[Tensorprodukt]\label{def:16-1-2}
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||||
V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
|
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von
|
||||||
V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
|
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein
|
||||||
zusammen mit einer multilinearen Abbildung $τ: V_1 ⨯ ⋯ ⨯ V_n → T$, sodass für
|
Vektorraum $T$ zusammen mit einer multilinearen Abbildung
|
||||||
alle multilinearen Abbildungen $s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare
|
$τ: V_1 ⨯ ⋯ ⨯ V_n → T$, so dass für alle multilinearen Abbildungen
|
||||||
Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
|
$s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so
|
||||||
|
dass das folgende Diagramm kommutiert
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=2cm]
|
\begin{tikzcd}[column sep=2cm]
|
||||||
V_1 ⨯ ⋯ ⨯ V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
V_1 ⨯ ⋯ ⨯ V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||||||
@ -57,55 +58,57 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
|||||||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||||||
Existenz und Eindeutigkeit des Tensorprodukts.
|
Existenz und Eindeutigkeit des Tensorprodukts.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
|
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||||
V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und $τ_1 : V_1 ⨯ ⋯ ⨯
|
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und
|
||||||
V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
|
$τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen
|
||||||
$T_1 ≅ T_2$. \qed
|
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
|
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||||
V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
|
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
|
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||||
V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen
|
||||||
Sprache, sprechen von „dem Tensorprodukt“ und schreiben
|
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben
|
||||||
\[
|
\[
|
||||||
τ : V_1 ⨯ ⋯ ⨯ V_n → V_1 ⊗ ⋯ ⊗ V_n.
|
τ : V_1 ⨯ ⋯ ⨯ V_n → V_1 ⊗ ⋯ ⊗ V_n.
|
||||||
\]
|
\]
|
||||||
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
|
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
||||||
⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
|
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als
|
||||||
Tensoren}.
|
\emph{rein}\index{Reine Tensoren}.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{notation}[Mehrfache Produkte]
|
\begin{notation}[Mehrfache Produkte]
|
||||||
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{⊗
|
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz
|
||||||
n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
|
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$
|
||||||
zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
|
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen
|
||||||
∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
|
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt
|
||||||
|
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
|
|
||||||
\section{Assoziativität}
|
\section{Assoziativität}
|
||||||
|
|
||||||
Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
|
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit
|
||||||
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
|
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
|
||||||
die Assoziativität. Der folgende Satz klärt alles.
|
die Assoziativität. Der folgende Satz klärt alles.
|
||||||
|
|
||||||
\begin{satz}[Assoziativität des Tensorproduktes]
|
\begin{satz}[Assoziativität des Tensorproduktes]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
||||||
V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
|
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die
|
||||||
|
Vektorräume
|
||||||
\[
|
\[
|
||||||
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
|
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
|
||||||
\]
|
\]
|
||||||
kanonisch isomorph.
|
kanonisch isomorph.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
|
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an
|
||||||
an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
|
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
|
||||||
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
|
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
|
||||||
Betrachten Sie die Abbildung
|
Betrachten Sie die Abbildung
|
||||||
\[
|
\[
|
||||||
@ -141,10 +144,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
|
|||||||
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
|
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||||
|
|
||||||
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
|
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
|
||||||
lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
|
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||||
|
|
||||||
\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
|
\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist
|
||||||
= \prod_i \dim V_i$.
|
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$
|
||||||
|
|
||||||
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
|
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
|
||||||
zwischen den Tensorprodukten.
|
zwischen den Tensorprodukten.
|
||||||
@ -190,12 +193,13 @@ und
|
|||||||
& (λ,ν) & ↦ & λ·ν.
|
& (λ,ν) & ↦ & λ·ν.
|
||||||
\end{matrix}
|
\end{matrix}
|
||||||
\]
|
\]
|
||||||
Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
|
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}.
|
||||||
Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
|
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe
|
||||||
die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
|
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu
|
||||||
Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
|
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine
|
||||||
relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
|
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies
|
||||||
eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
|
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche
|
||||||
|
Multiplikation erweitert wurde.
|
||||||
|
|
||||||
\begin{defn}[Algebra über einem Körper]
|
\begin{defn}[Algebra über einem Körper]
|
||||||
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
|
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
|
||||||
@ -208,17 +212,19 @@ eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
|
|||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
|
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
|
||||||
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
|
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
|
||||||
$\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
|
$\vec{v}_2 ∈ V$ die Gleichheit
|
||||||
\vec{v}_1)$ gilt.
|
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt.
|
||||||
|
|
||||||
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
|
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
|
||||||
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
|
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
|
||||||
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
|
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit
|
||||||
\vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
|
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1,
|
||||||
|
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
|
||||||
|
|
||||||
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
|
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
|
||||||
falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v} ∈
|
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren
|
||||||
V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
|
$\vec{v} ∈ V$ die Gleichheit
|
||||||
|
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
208
17-wedge.tex
208
17-wedge.tex
@ -5,24 +5,24 @@
|
|||||||
\label{sec:wedge}
|
\label{sec:wedge}
|
||||||
|
|
||||||
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
|
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
|
||||||
in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
|
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
|
||||||
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
|
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
|
||||||
langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
|
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
|
||||||
trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
||||||
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
|
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
|
||||||
sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
|
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
|
||||||
|
|
||||||
|
|
||||||
\section{Definition, Existenz und Eindeutigkeit}
|
\section{Definition, Existenz und Eindeutigkeit}
|
||||||
|
|
||||||
Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
|
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
|
||||||
definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
|
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
|
||||||
ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
|
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
|
||||||
beschränken, die alternierend sind.
|
Abbildungen beschränken, die alternierend sind.
|
||||||
|
|
||||||
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
|
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
|
||||||
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
|
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
|
||||||
∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
$n ∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
||||||
\[
|
\[
|
||||||
s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W
|
s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W
|
||||||
\]
|
\]
|
||||||
@ -32,10 +32,10 @@ beschränken, die alternierend sind.
|
|||||||
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
|
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
|
||||||
\end{equation}
|
\end{equation}
|
||||||
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
|
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
|
||||||
Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
||||||
alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
|
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
|
||||||
…, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
|
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
|
||||||
\ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
@ -56,7 +56,7 @@ beschränken, die alternierend sind.
|
|||||||
|
|
||||||
\begin{prov}
|
\begin{prov}
|
||||||
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
|
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
|
||||||
„alternierende Multilineare Abbildung“ nehmen?
|
``alternierende Multilineare Abbildung'' nehmen?
|
||||||
\end{prov}
|
\end{prov}
|
||||||
|
|
||||||
\begin{notation}[Produkte]
|
\begin{notation}[Produkte]
|
||||||
@ -68,9 +68,9 @@ beschränken, die alternierend sind.
|
|||||||
|
|
||||||
\begin{bsp}[Determinante]
|
\begin{bsp}[Determinante]
|
||||||
Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als
|
Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als
|
||||||
Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n⨯ n, k)$
|
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
|
||||||
der $(n⨯ n)$-Matrizen mit dem Vektorraum $k^n⨯ ⋯ ⨯ k^n$. Dann ist die
|
$\Mat(n⨯ n, k)$ der $(n⨯ n)$-Matrizen mit dem Vektorraum
|
||||||
Determinantenabbildung
|
$k^n⨯ ⋯ ⨯ k^n$. Dann ist die Determinantenabbildung
|
||||||
\[
|
\[
|
||||||
\det : k^n⨯ ⋯ ⨯ k^n → k
|
\det : k^n⨯ ⋯ ⨯ k^n → k
|
||||||
\]
|
\]
|
||||||
@ -79,20 +79,20 @@ beschränken, die alternierend sind.
|
|||||||
|
|
||||||
\begin{bsp}[Kreuzprodukt]
|
\begin{bsp}[Kreuzprodukt]
|
||||||
Das von Physiker geliebte
|
Das von Physiker geliebte
|
||||||
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
|
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
|
||||||
ist eine alternierende multilineare Abbildung.
|
$ℝ³$} ist eine alternierende multilineare Abbildung.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
|
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
|
||||||
Vektorräumen definieren.
|
Vektorräumen definieren.
|
||||||
|
|
||||||
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
|
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
|
||||||
∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
|
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
|
||||||
Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
|
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
|
||||||
einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, sodass für alle
|
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, so
|
||||||
multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare Abbildung $η: T →
|
dass für alle multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare
|
||||||
W$ existiert, sodass das folgende Diagramm kommutiert
|
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=4cm]
|
\begin{tikzcd}[column sep=4cm]
|
||||||
V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||||||
@ -104,42 +104,45 @@ Vektorräumen definieren.
|
|||||||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||||||
Existenz und Eindeutigkeit des äußeren Produktes.
|
Existenz und Eindeutigkeit des äußeren Produktes.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
|
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei
|
gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei
|
||||||
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅
|
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
|
||||||
T_2$. \qed
|
$T_1 ≅ T_2$. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{satz}[Existenz des äußeren Produkts]\label{satz:17-1-9}%
|
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
|
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{notation}[Notation rund um äußere Produkte]%
|
\begin{notation}[Notation rund um äußere Produkte]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
||||||
Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
|
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
|
||||||
\[
|
\[
|
||||||
τ : V^{⨯n} → \bigwedge^n V.
|
τ : V^{⨯n} → \bigwedge^n V.
|
||||||
\]
|
\]
|
||||||
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
|
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
|
||||||
Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
|
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
||||||
bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
|
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
|
||||||
umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
|
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
|
||||||
|
\emph{reinen Dächern}\index{reine Dächer}.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
|
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
|
||||||
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
|
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
|
||||||
Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
|
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
|
||||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
|
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
|
||||||
folgenden Regeln.
|
Definition~\ref{def:17-1-1} die folgenden Regeln.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
|
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
|
||||||
\vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
|
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
|
||||||
|
gleich $\vec{0}_{Λ^n V}$.
|
||||||
|
|
||||||
\item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
|
\item Für jede Permutation $ρ ∈ S_n$ ist
|
||||||
\sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
|
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
|
||||||
|
Λ \vec{v}_{ρ(n)}$.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
@ -160,8 +163,9 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
|
|||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
|
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
|
||||||
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\} ⊂
|
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
|
||||||
ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
|
||||||
|
Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
||||||
\[
|
\[
|
||||||
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
|
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
|
||||||
⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
|
⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
|
||||||
@ -180,12 +184,14 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
|
|||||||
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
|
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
|
||||||
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
|
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
|
||||||
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
|
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
|
||||||
Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
|
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
|
||||||
In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
|
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
|
||||||
|
verzichte ich darauf.
|
||||||
|
|
||||||
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
|
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
|
||||||
In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
|
In der Situation von Definition~\ref{def:17-1-4} sei
|
||||||
\vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
|
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
|
||||||
|
ist die Menge
|
||||||
\[
|
\[
|
||||||
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
|
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
|
||||||
\]
|
\]
|
||||||
@ -193,7 +199,7 @@ In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
|
|||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
|
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
|
||||||
sollte!
|
sollte!
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
@ -217,8 +223,8 @@ In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
|
|||||||
|
|
||||||
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
|
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
|
||||||
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
|
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
|
||||||
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
|
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir
|
||||||
folgt eine Abbildung
|
wie folgt eine Abbildung
|
||||||
\[
|
\[
|
||||||
\begin{matrix}
|
\begin{matrix}
|
||||||
m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\
|
m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\
|
||||||
@ -246,7 +252,7 @@ und
|
|||||||
& (λ,ν) & ↦ & λ·ν.
|
& (λ,ν) & ↦ & λ·ν.
|
||||||
\end{matrix}
|
\end{matrix}
|
||||||
\]
|
\]
|
||||||
Diese „Definitionen“ verwenden die analog die schreckliche
|
Diese ``Definitionen'' verwenden die analog die schreckliche
|
||||||
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
|
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
|
||||||
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
||||||
|
|
||||||
@ -269,8 +275,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
|||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
|
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
|
||||||
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
|
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
|
||||||
$n>\dim V$ ist. Also ist
|
sobald $n>\dim V$ ist. Also ist
|
||||||
\[
|
\[
|
||||||
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
|
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
|
||||||
2^{\dim V}.
|
2^{\dim V}.
|
||||||
@ -284,10 +290,11 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
|||||||
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
|
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
|
||||||
eine Abbildung zwischen den Dachprodukten induziert.
|
eine Abbildung zwischen den Dachprodukten induziert.
|
||||||
|
|
||||||
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
|
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
|
||||||
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
|
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
|
||||||
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
|
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
|
||||||
Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
|
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
|
||||||
|
Diagramm kommutiert,
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=2cm]
|
\begin{tikzcd}[column sep=2cm]
|
||||||
V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\
|
V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\
|
||||||
@ -297,9 +304,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
|
|||||||
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
|
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f ⨯ ⋯ ⨯ f)$ ist
|
Hier ist fast nichts zu zeigen. Die Abbildung
|
||||||
alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
|
$τ◦(f ⨯ ⋯ ⨯ f)$ ist alternierend und multilinear. Also
|
||||||
der universellen Eigenschaft.
|
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
@ -314,18 +321,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
|
|||||||
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
|
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
|
||||||
geht's.
|
geht's.
|
||||||
|
|
||||||
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
|
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
|
||||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||||
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
|
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
|
||||||
\vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
|
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
|
||||||
Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
|
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
|
||||||
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
|
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
|
||||||
(a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
$A := (a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
||||||
|
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
|
||||||
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$
|
$A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ die Matrix, die aus den Spalten
|
||||||
die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
|
$i_1, …,i_k$ der Matrix $A$ besteht.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Dann ist
|
Dann ist
|
||||||
\[
|
\[
|
||||||
@ -335,9 +342,11 @@ geht's.
|
|||||||
\]
|
\]
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
|
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
|
||||||
der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
|
ausrechnen, was der Koeffizient von
|
||||||
\vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
|
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
|
||||||
|
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
|
||||||
|
besseres ein, als das Produkt
|
||||||
\[
|
\[
|
||||||
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
|
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
|
||||||
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
|
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
|
||||||
@ -352,7 +361,7 @@ geht's.
|
|||||||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
|
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
|
||||||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
|
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
|
||||||
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
|
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
|
||||||
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
|
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Damit ist der Satz dann wohl bewiesen.
|
Damit ist der Satz dann wohl bewiesen.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
@ -373,11 +382,12 @@ geht's.
|
|||||||
|
|
||||||
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
|
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
|
||||||
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
|
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
|
||||||
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
|
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
|
||||||
V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
|
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
|
||||||
lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
|
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
|
||||||
aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
|
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
|
||||||
$λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
|
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
|
||||||
|
Frage.
|
||||||
|
|
||||||
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
|
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
|
||||||
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
|
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
|
||||||
@ -388,16 +398,16 @@ $λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
|
|||||||
\end{kor}
|
\end{kor}
|
||||||
|
|
||||||
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
|
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
|
||||||
Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
|
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
|
||||||
Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
||||||
geometrische Aussage.
|
geometrische Aussage.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Die Koeffizienten des charakteristischen Polynoms}
|
\subsection{Die Koeffizienten des charakteristischen Polynoms}
|
||||||
|
|
||||||
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
|
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
|
||||||
„Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
|
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
|
||||||
$A ∈ \Mat(n ⨯ n,k)$ diskutiert,
|
Matrix $A ∈ \Mat(n⨯ n,k)$ diskutiert,
|
||||||
\[
|
\[
|
||||||
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
|
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
|
||||||
a_{n-1}(A)·t + a_n(A) \right).
|
a_{n-1}(A)·t + a_n(A) \right).
|
||||||
@ -409,13 +419,13 @@ Wir hatten staunend festgestellt, dass die Funktionen
|
|||||||
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
|
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
|
||||||
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
||||||
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
|
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
|
||||||
konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
|
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
|
||||||
\[
|
\[
|
||||||
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
|
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
|
||||||
\]
|
\]
|
||||||
ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||||
|
|
||||||
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
|
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler
|
||||||
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
|
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
|
||||||
Polynom von $f$ als
|
Polynom von $f$ als
|
||||||
@ -445,7 +455,7 @@ ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
|||||||
\vdots & \ddots \\
|
\vdots & \ddots \\
|
||||||
& & & & a_{(n-1)n}\\
|
& & & & a_{(n-1)n}\\
|
||||||
a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t
|
a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t
|
||||||
\end{pmatrix}.
|
\end{pmatrix}
|
||||||
\]
|
\]
|
||||||
Das charakteristische Polynom ist dann die Determinante von $B$, also
|
Das charakteristische Polynom ist dann die Determinante von $B$, also
|
||||||
\begin{equation}\label{eq:xcydfg}
|
\begin{equation}\label{eq:xcydfg}
|
||||||
@ -482,10 +492,10 @@ ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
|||||||
|
|
||||||
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
|
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
|
||||||
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
|
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
|
||||||
wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
|
wir noch einmal daran, dass die Dachprodukte
|
||||||
\vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
|
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
|
||||||
also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
|
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
|
||||||
nach Satz~\ref{satz:17-4-3}
|
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
(Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
|
(Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
|
||||||
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
|
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
|
||||||
@ -503,8 +513,8 @@ ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
|||||||
|
|
||||||
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
|
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
|
||||||
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
|
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
|
||||||
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
|
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
|
||||||
i_k}$ ist.
|
$\widetilde{A}^{i_1, …, i_k}$ ist.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
% !TEX root = LineareAlgebra2
|
% !TEX root = LineareAlgebra2
|
||||||
|
76
18-dehn.tex
76
18-dehn.tex
@ -7,11 +7,12 @@
|
|||||||
August 1900 in Paris hielt David
|
August 1900 in Paris hielt David
|
||||||
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
|
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
|
||||||
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
|
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
|
||||||
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
|
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch
|
||||||
gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
|
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste
|
||||||
23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
|
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag
|
||||||
Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
|
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen
|
||||||
als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
|
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im
|
||||||
|
20.~Jahrhundert.
|
||||||
|
|
||||||
|
|
||||||
\section{Hilbert's drittes Problem}
|
\section{Hilbert's drittes Problem}
|
||||||
@ -20,17 +21,18 @@ In
|
|||||||
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
|
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
|
||||||
drittem Problem} geht es um folgende Frage: gegeben sind zwei
|
drittem Problem} geht es um folgende Frage: gegeben sind zwei
|
||||||
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
|
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
|
||||||
$ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
|
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein
|
||||||
zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
|
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt.
|
||||||
entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
|
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die
|
||||||
$P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
|
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit}
|
||||||
|
sind.
|
||||||
|
|
||||||
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
|
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
|
||||||
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
|
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
|
||||||
die Antwort „Nein!“
|
die Antwort ``Nein!''
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{notation}
|
\begin{notation}
|
||||||
@ -46,22 +48,22 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
|||||||
|
|
||||||
Schauen Sie zum Thema Invarianten einmal in
|
Schauen Sie zum Thema Invarianten einmal in
|
||||||
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
|
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
|
||||||
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
|
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen
|
||||||
können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
|
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also
|
||||||
gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
|
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf
|
||||||
geben.
|
Hilbert's Frage zu geben.
|
||||||
|
|
||||||
|
|
||||||
\section{Die Dehn-Invariante}
|
\section{Die Dehn-Invariante}
|
||||||
|
|
||||||
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
|
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
|
||||||
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
|
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
|
||||||
„Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
|
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu
|
||||||
beantworten. Aus diesem Grund konstruierte Max
|
beantworten. Aus diesem Grund konstruierte Max
|
||||||
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
|
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
|
||||||
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
|
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
|
||||||
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
|
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
|
||||||
anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
|
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
|
||||||
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
|
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
|
||||||
offensichtlich ist, wie das Volumen. Die
|
offensichtlich ist, wie das Volumen. Die
|
||||||
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
|
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
|
||||||
@ -85,10 +87,10 @@ $ℚ$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
|
|||||||
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
Um mit dem $ℚ$-Vektorraum $ℝ$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
|
Um mit dem $ℚ$-Vektorraum $ℝ$ warm zu werden, fragen wir: ist die Menge
|
||||||
\sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
|
$\{ 1, \sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist ``Nein!'' Denn
|
||||||
zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $ℚ$-lineare
|
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale
|
||||||
Relation gäbe,
|
$ℚ$-lineare Relation gäbe,
|
||||||
\[
|
\[
|
||||||
p · 1 + q · \sqrt{2} = 0,
|
p · 1 + q · \sqrt{2} = 0,
|
||||||
\]
|
\]
|
||||||
@ -96,10 +98,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
|||||||
aber schon, dass $\sqrt{2}$ irrational ist.
|
aber schon, dass $\sqrt{2}$ irrational ist.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
|
Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl
|
||||||
erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter betrachten wir
|
$π$ erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter
|
||||||
den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der Vektorraum $V$
|
betrachten wir den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der
|
||||||
von Max Dehn ist dann gleich dem Tensorprodukt,
|
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt,
|
||||||
\[
|
\[
|
||||||
V = ℝ ⊗ \left(\factor{ℝ}{\langle π \rangle}\right).
|
V = ℝ ⊗ \left(\factor{ℝ}{\langle π \rangle}\right).
|
||||||
\]
|
\]
|
||||||
@ -108,20 +110,20 @@ Dies ist ein Tensorprodukt von $ℚ$-Vektorräumen, also selbst ein $ℚ$-Vektor
|
|||||||
|
|
||||||
\subsection{Konstruktion der Invariante}
|
\subsection{Konstruktion der Invariante}
|
||||||
|
|
||||||
Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
|
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
|
||||||
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
|
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
|
||||||
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
|
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
|
||||||
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
|
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
|
||||||
$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
|
$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante
|
||||||
zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
|
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
|
||||||
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
|
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
|
||||||
Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
|
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von
|
||||||
$P$ schließlich als
|
$P$ schließlich als
|
||||||
\[
|
\[
|
||||||
\operatorname{dehn}(P) := \sum_{k=1}^{n} ℓ(E_k) ⊗ α (E_k).
|
\operatorname{dehn}(P) := \sum_{k=1}^{n} ℓ(E_k) ⊗ α (E_k).
|
||||||
\]
|
\]
|
||||||
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
|
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante
|
||||||
Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
|
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
|
||||||
@ -235,9 +237,9 @@ Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
|||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
|
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
|
||||||
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
|
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
|
||||||
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
|
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$
|
||||||
des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
|
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$
|
||||||
$α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
|
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
|
||||||
bezeichnen, dann gelten die Gleichungen
|
bezeichnen, dann gelten die Gleichungen
|
||||||
\begin{equation}
|
\begin{equation}
|
||||||
\begin{matrix}
|
\begin{matrix}
|
||||||
@ -247,12 +249,12 @@ Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
|||||||
\end{equation}
|
\end{equation}
|
||||||
|
|
||||||
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
|
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
|
||||||
Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann gilt für die Längen
|
Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann
|
||||||
und für die Winkel
|
gilt für die Längen und für die Winkel
|
||||||
\begin{equation}
|
\begin{equation}
|
||||||
\begin{aligned}
|
\begin{aligned}
|
||||||
ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\
|
ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\
|
||||||
α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•}).
|
α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•})
|
||||||
\end{aligned}
|
\end{aligned}
|
||||||
\end{equation}
|
\end{equation}
|
||||||
|
|
||||||
@ -261,7 +263,7 @@ Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
|||||||
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$,
|
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$,
|
||||||
$E²_{n+1}$, …, $E¹_m$, $E²_m$. Es gilt für jeden Index $i > n$
|
$E²_{n+1}$, …, $E¹_m$, $E²_m$. Es gilt für jeden Index $i > n$
|
||||||
\begin{equation}
|
\begin{equation}
|
||||||
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
|
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π
|
||||||
\end{equation}
|
\end{equation}
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Mit diesen Bezeichnungen ist
|
Mit diesen Bezeichnungen ist
|
||||||
|
@ -3,14 +3,15 @@
|
|||||||
|
|
||||||
\chapter{Ausblick.}
|
\chapter{Ausblick.}
|
||||||
|
|
||||||
Wir sind am Ende der Vorlesung „Lineare Algebra II“. Wir hoffen, dass Sie etwas
|
Wir sind am Ende der Vorlesung ``Lineare Algebra II''. Wir hoffen, dass Sie
|
||||||
gelernt und für sich mitgenommen haben.
|
trotz des ungewöhnlichen Formats der Vorlesung etwas gelernt und für sich
|
||||||
|
mitgenommen haben.
|
||||||
|
|
||||||
\bigskip
|
\bigskip
|
||||||
|
|
||||||
\bigskip
|
\bigskip
|
||||||
|
|
||||||
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium!
|
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
|
||||||
|
|
||||||
\bigskip
|
\bigskip
|
||||||
|
|
||||||
@ -23,14 +24,14 @@ Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium!
|
|||||||
\subsection*{Ein sehr persönliches Wort zum Ende}
|
\subsection*{Ein sehr persönliches Wort zum Ende}
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
\foreignlanguage{english}{Any interested participant with basic knowledge of
|
Any interested participant with basic knowledge of vector and matrix
|
||||||
vector and matrix multiplication as linear algebra is at the core of quantum
|
multiplication as linear algebra is at the core of quantum computing
|
||||||
computing algorithms.}
|
algorithms.
|
||||||
|
|
||||||
-- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro}
|
-- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Für mich ist die Vorlesung „Lineare Algebra II“ so etwas wie ein Schlüssel zur
|
Für mich ist die Vorlesung ``Lineare Algebra II'' so etwas wie ein Schlüssel zur
|
||||||
Welt. Wir leben in einer Zeit, in der neue Techniken der
|
Welt. Wir leben in einer Zeit, in der neue Techniken der
|
||||||
Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise
|
Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise
|
||||||
umwälzen, zum Guten wie zum
|
umwälzen, zum Guten wie zum
|
||||||
@ -41,18 +42,18 @@ langfristigen Auswirkungen am ehesten mit denen der
|
|||||||
industriellen Revolution} vergleichbar sein.
|
industriellen Revolution} vergleichbar sein.
|
||||||
|
|
||||||
In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie
|
In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie
|
||||||
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu gestalten.
|
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu
|
||||||
Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei; es scheint
|
gestalten. Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei;
|
||||||
in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich zu
|
es scheint in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich
|
||||||
ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich nicht
|
zu ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich
|
||||||
gestalten! Was ich nicht verstehe, macht mir Angst!
|
nicht gestalten! Was ich nicht verstehe, macht mir Angst!
|
||||||
|
|
||||||
Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie
|
Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie
|
||||||
\emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective
|
\emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective
|
||||||
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer Algebra.
|
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer
|
||||||
Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der \emph{Pole
|
Algebra. Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der
|
||||||
Position}, um diese Sachen zu verstehen. Sie können sich noch heute eine ein
|
\emph{Pole Position}, um diese Sachen zu verstehen. Sie können sich noch heute
|
||||||
Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
|
eine ein Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
|
||||||
Linux-Laptop laden, die hervorragenden
|
Linux-Laptop laden, die hervorragenden
|
||||||
\href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes
|
\href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes
|
||||||
\emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei
|
\emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei
|
||||||
|
@ -28,7 +28,7 @@
|
|||||||
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
|
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
|
||||||
|
|
||||||
\title{Lineare Algebra 2}
|
\title{Lineare Algebra 2}
|
||||||
\author{Prof.~Dr.~Stefan Kebekus}
|
\author{Prof. Dr. Stefan Kebekus}
|
||||||
|
|
||||||
\DeclareMathOperator{\ad}{ad}
|
\DeclareMathOperator{\ad}{ad}
|
||||||
\DeclareMathOperator{\Bij}{Bij}
|
\DeclareMathOperator{\Bij}{Bij}
|
||||||
@ -93,6 +93,7 @@
|
|||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
\begin{document}
|
\begin{document}
|
||||||
% spell checker language
|
% spell checker language
|
||||||
\selectlanguage{german}
|
\selectlanguage{german}
|
||||||
|
@ -7,7 +7,6 @@
|
|||||||
\usepackage{enumitem}
|
\usepackage{enumitem}
|
||||||
\usepackage{hyperref}
|
\usepackage{hyperref}
|
||||||
\usepackage[utf8]{inputenc}
|
\usepackage[utf8]{inputenc}
|
||||||
\usepackage[T1]{fontenc}
|
|
||||||
\usepackage{newunicodechar}
|
\usepackage{newunicodechar}
|
||||||
\usepackage{mathtools}
|
\usepackage{mathtools}
|
||||||
\usepackage{varioref}
|
\usepackage{varioref}
|
||||||
@ -363,7 +362,10 @@
|
|||||||
% HYPENTATION
|
% HYPENTATION
|
||||||
%
|
%
|
||||||
|
|
||||||
\hyphenation{uni-tärer}
|
\hyphenation{com-po-nents}
|
||||||
|
\hyphenation{pos-i-tive}
|
||||||
|
\hyphenation{Theo-rem}
|
||||||
|
\hyphenation{Vojta}
|
||||||
|
|
||||||
|
|
||||||
%
|
%
|
||||||
|
Loading…
x
Reference in New Issue
Block a user