Compare commits
2 Commits
Author | SHA1 | Date | |
---|---|---|---|
dc56cc0ff6 | |||
07dfa95c9c |
41
.vscode/ltex.dictionary.de-DE.txt
vendored
41
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -19,44 +19,3 @@ Quotientenvektorraums
|
||||
Erzeugendensystem
|
||||
Quotientenvektorräume
|
||||
Repräsentantenniveau
|
||||
Jordanscher
|
||||
Matrixexponential
|
||||
Matrixexponentials
|
||||
Einsetzungsabbildung
|
||||
Cayley-Hamilton
|
||||
TFAE
|
||||
Jordanblocks
|
||||
Einsetzungsmorphismus
|
||||
Abstandserhaltende
|
||||
abstandserhaltend
|
||||
metrikerhaltend
|
||||
abstandserhaltenden
|
||||
abstandserhaltender
|
||||
abstandserhaltende
|
||||
Definitheit
|
||||
ONB
|
||||
Kronecker-Delta
|
||||
semidefinit
|
||||
Bytestrings
|
||||
Bilinearität
|
||||
Semilinearität
|
||||
Sesquilinearlinearform
|
||||
Cayley
|
||||
Sequilinearform
|
||||
Dualräumen
|
||||
Hom-Räumen
|
||||
Maximumsnorm
|
||||
Cauchy-Schwarzschen
|
||||
Cauchy-Schwarzsche
|
||||
Cauchy
|
||||
Sceaux
|
||||
Amandus
|
||||
Orthonormalität
|
||||
Identifikationen
|
||||
semi-linear
|
||||
Quotientenräume
|
||||
Rückzugsabbildung
|
||||
Determinanten-Multiplikationssatz
|
||||
Komplexifizierung
|
||||
komplexifizierten
|
||||
komplexifizierte
|
||||
|
45
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
45
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -7,48 +7,3 @@
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
||||
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
||||
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe – wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QArthur Cayley (* 16. August 1821 in Richmond upon Thames, Surrey; † 26. Januar 1895 in Cambridge) war ein englischer Mathematiker.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Absolute Homogenität] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Dreiecksungleichung] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q [Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann ergibt sich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen Begriff von „orthogonalen Unterraum“.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir werden in Abschnitt sec:dual sehen, wie die Begriffe zusammenhängen.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des “Dualraum”.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des „Dualraum“.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem “orthogonalen Komplement” aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem „orthogonalen Komplement“ aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
||||
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
||||
|
@ -21,15 +21,15 @@ Diagonalgestalt hat.
|
||||
\begin{defn}[Diagonalisierbarer Endomorphismus]
|
||||
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
|
||||
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
|
||||
Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist.
|
||||
Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist.
|
||||
\end{defn}
|
||||
|
||||
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
|
||||
|
||||
\begin{defn}[Diagonalisierbare Matrix]
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $n ⨯ n$-Matrix $A$ heißt
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $(n ⨯ n)$-Matrix $A$ heißt
|
||||
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
|
||||
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, sodass $SAS^{-1}$ eine
|
||||
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ GL_n(k)$, sodass $SAS^{-1}$ eine
|
||||
Diagonalmatrix ist.
|
||||
\end{defn}
|
||||
|
||||
@ -85,14 +85,14 @@ Punkte abgezogen wurden.}.
|
||||
$$
|
||||
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
|
||||
$$
|
||||
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
|
||||
Also ist $\deg(g) = 6$ und die Nullstellen von $g$ sind $i$, $2$ und $3$
|
||||
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
|
||||
\end{erinnerung}
|
||||
|
||||
|
||||
\section{Algebraische und geometrische Vielfachheit}
|
||||
|
||||
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
|
||||
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun einen Skalar $λ ∈ k$ gegeben
|
||||
habe, kann ich die folgenden zwei Zahlen betrachten.
|
||||
\begin{itemize}
|
||||
\item Die \emph{algebraische Vielfachheit von
|
||||
@ -128,9 +128,9 @@ habe, kann ich die folgenden zwei Zahlen betrachten.
|
||||
$$
|
||||
\end{prop}
|
||||
\begin{proof}
|
||||
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
|
||||
Sei ein Skalar $λ$ gegeben. Falls die geometrische Vielfachheit von $λ$ gleich
|
||||
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
|
||||
größer als Null. Das bedeutet: Es gibt eine lineare unabhängige (angeordnete)
|
||||
größer als Null. Das bedeutet: Es gibt eine linear unabhängige (angeordnete)
|
||||
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
|
||||
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
|
||||
Matrix von der Form
|
||||
|
@ -9,7 +9,7 @@
|
||||
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
|
||||
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
|
||||
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
|
||||
sodass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest,
|
||||
sodass die dazugehörige Matrix eine besonders einfache Gestalt hat -- zumindest,
|
||||
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
|
||||
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
|
||||
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
|
||||
@ -62,7 +62,7 @@ auch eine Menge Videos auf
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Jordansche Normalform]
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ sei eine Zahl. Eine $n ⨯ n$-Matrix $A =
|
||||
Es sei $k$ ein Körper und $n ∈ ℕ$ sei eine Zahl. Eine $(n ⨯ n)$-Matrix $A =
|
||||
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
|
||||
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
|
||||
anderen Blöcke gleich Null sind.
|
||||
@ -110,13 +110,13 @@ Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
|
||||
\begin{satz}[Jordansche Normalform]\label{satz:JNF}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
|
||||
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
|
||||
$\mathcal{B}$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
|
||||
$B$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
|
||||
Normalform hat.
|
||||
\end{satz}
|
||||
|
||||
\begin{notation}
|
||||
Situation wie in Satz~\ref{satz:JNF}. Eine
|
||||
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$
|
||||
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $B$
|
||||
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
|
||||
hat.
|
||||
\end{notation}
|
||||
@ -139,7 +139,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
|
||||
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
|
||||
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
|
||||
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ ℕ$
|
||||
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls eine Zahl $m ∈ ℕ$
|
||||
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
|
||||
solche Zahl $m$ heißt \emph{Nilpotenzindex von
|
||||
$f$}\index{Nilpotenzindex!Endomorphismus}.
|
||||
@ -148,7 +148,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
\begin{defn}[Nilpotente Matrizen]
|
||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ eine Zahl und $A$ eine $( n⨯ n)$-Matrix
|
||||
mit Werten in $k$. Nenne die Matrix $A$
|
||||
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ ℕ$ existiert,
|
||||
\emph{nilpotent}\index{nilpotent!Matrix}, falls eine Zahl $m ∈ ℕ$ existiert,
|
||||
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
|
||||
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
|
||||
\end{defn}
|
||||
@ -165,7 +165,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
|
||||
|
||||
\begin{beobachtung}
|
||||
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
|
||||
Genauer: Sei $A$ eine $(n ⨯ n)$-Matrix und sei $S ∈ Gl(n, k)$, sodass $N :=
|
||||
Genauer: Sei $A$ eine $(n ⨯ n)$-Matrix und sei $S ∈ GL(n, k)$, sodass $N :=
|
||||
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
|
||||
$$
|
||||
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
|
||||
@ -272,7 +272,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
|
||||
0 & A
|
||||
\end{array}\right).
|
||||
$$
|
||||
Es ist $χ_f(t) = (t-λ)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
|
||||
Es ist $χ_f(t) = (λ-t)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
|
||||
Nullstelle des Polynoms $χ_A$.
|
||||
|
||||
|
||||
@ -355,7 +355,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
|
||||
\begin{align*}
|
||||
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
|
||||
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
|
||||
… \\
|
||||
\vdots \\
|
||||
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
|
||||
\end{align*}
|
||||
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
|
||||
@ -404,7 +404,7 @@ Jordansche Normalform zu zeigen. Die Korollare~\ref{kor:2-2-11} und
|
||||
die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
|
||||
Jordansche Normalform hat, genügt es, eine Basis zu finden, sodass die Matrix
|
||||
$N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_i·\Id_{W_i}$ Jordansche
|
||||
Normalform hat (… denn dann hat auch $A_i = λ_i·\Id_{r_i} + N_i$ Jordansche
|
||||
Normalform hat (…denn dann hat auch $A_i = λ_i·\Id_{r_i} + N_i$ Jordansche
|
||||
Normalform)
|
||||
\end{enumerate}
|
||||
|
||||
@ -626,7 +626,8 @@ zur „dualen Partition“ übergehen.
|
||||
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
||||
die Vektoren
|
||||
\[
|
||||
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
|
||||
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
|
||||
v^p_{m_p-a}
|
||||
\]
|
||||
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
||||
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
||||
|
@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
\end{lem}
|
||||
|
||||
\begin{proof}[Beweis als Übungsaufgabe]
|
||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯n} + J(0,n)$ und
|
||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯ n} + J(0,n)$ und
|
||||
\[
|
||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯n} + J(0,n) \bigr)^p
|
||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯ n} + J(0,n) \bigr)^p
|
||||
\]
|
||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯n}$ und $J(0,n)$ kommutieren,
|
||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯ n}$ und $J(0,n)$ kommutieren,
|
||||
dass also die Gleichheit
|
||||
\[
|
||||
λ·\Id_{n⨯n}·J(0,n) = λ·J(0,n)·\Id_{n⨯n}
|
||||
λ·\Id_{n⨯ n}·J(0,n) = λ·J(0,n)·\Id_{n⨯ n}
|
||||
\]
|
||||
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
|
||||
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
|
||||
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
||||
Es sei $A$ eine beliebige quadratische $(n⨯n)$-Matrix über den komplexen
|
||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
|
||||
effizient eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, sodass $B :=
|
||||
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||
Es sei $A$ eine beliebige quadratische $(n⨯ n)$-Matrix über den komplexen
|
||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
|
||||
eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, so dass $B := S·A·S^{-1}$
|
||||
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||
\[
|
||||
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
||||
\]
|
||||
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
|
||||
\subsection{Wiederholung}
|
||||
|
||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
|
||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
|
||||
\[
|
||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}.
|
||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}
|
||||
\]
|
||||
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
||||
wissen, dass für jede reelle Zahl $t$ gilt
|
||||
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
|
||||
|
||||
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
|
||||
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
|
||||
$(n⨯n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||
$(n⨯ n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||
\[
|
||||
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
||||
\]
|
||||
Dabei sei $A⁰$ stets die $(n⨯n)$-Einheitsmatrix. Diese Reihe konvergiert in
|
||||
dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||
Dabei sei $A⁰$ stets die $(n⨯ n)$-Einheitsmatrix. Diese Reihe konvergiert
|
||||
in dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
||||
Operatornorm, …. Ich erhalte so eine Abbildung
|
||||
\[
|
||||
\exp : \Mat_{n⨯n}(ℂ) → \Mat_{n⨯n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n,
|
||||
\exp : \Mat_{n⨯ n}(ℂ) → \Mat_{n⨯ n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n
|
||||
\]
|
||||
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
||||
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
|
||||
|
||||
\begin{bsp}
|
||||
Es sei $A$ eine komplexe $(n⨯n)$-Diagonalmatrix,
|
||||
Es sei $A$ eine komplexe $(n⨯ n)$-Diagonalmatrix,
|
||||
\[
|
||||
A = \begin{pmatrix}
|
||||
λ_1 & & & 0 \\
|
||||
& λ_2 & \\
|
||||
& & \ddots \\
|
||||
0 & & & λ_n
|
||||
\end{pmatrix}.
|
||||
\end{pmatrix}
|
||||
\]
|
||||
Dann ist
|
||||
\[
|
||||
@ -192,14 +192,15 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||
\]
|
||||
\end{bsp}
|
||||
|
||||
Etwas weitergehende Beispiele finden Sie als
|
||||
Etwas
|
||||
weitergehende Beispiele finden Sie als
|
||||
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||
Matrixexponentials.
|
||||
|
||||
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n⨯
|
||||
n)$-Matrizen.
|
||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe
|
||||
$(n⨯ n)$-Matrizen.
|
||||
\begin{enumerate}
|
||||
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
||||
ist), dann gilt
|
||||
@ -207,8 +208,8 @@ Matrixexponentials.
|
||||
\exp(A+B)=\exp(A)·\exp(B).
|
||||
\]
|
||||
|
||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯n)$-Matrix $S$
|
||||
ist
|
||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯ n)$-Matrix
|
||||
$S$ ist
|
||||
\[
|
||||
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
||||
\]
|
||||
@ -216,40 +217,40 @@ Matrixexponentials.
|
||||
\end{fakt}
|
||||
|
||||
\begin{beobachtung}
|
||||
Wenn $A$ irgendeine komplexe $(n⨯n)$-Matrix ist, dann kommutieren die Matrizen
|
||||
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||
Wenn $A$ irgendeine komplexe $(n⨯ n)$-Matrix ist, dann kommutieren die
|
||||
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||
\[
|
||||
\Id_{n⨯n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||
\Id_{n⨯ n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||
\]
|
||||
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
||||
$(n⨯n)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
|
||||
gilt.
|
||||
$(n⨯ n)$-Matrix $A$ stets invertierbar ist, und dass
|
||||
$\exp(A)^{-1} = \exp(-A)$ gilt.
|
||||
\end{beobachtung}
|
||||
|
||||
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
||||
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
||||
|
||||
|
||||
\section{Lineare, homogene Differenzialgleichungssysteme}
|
||||
\section{Lineare, homogene Differentialgleichungssysteme}
|
||||
|
||||
\subsection{Erinnerung}
|
||||
|
||||
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
|
||||
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||
eine differenzierbare Funktion $y : ℝ → ℝ$, sodass für alle $t ∈ ℝ$ gilt: $y'(t)
|
||||
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
|
||||
Sie, dass es nur eine solche Funktion gibt:
|
||||
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
|
||||
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||
eine differenzierbare Funktion $y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$
|
||||
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
|
||||
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
|
||||
$$
|
||||
y(t) = \exp(t·a)·y_0.
|
||||
$$
|
||||
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
||||
|
||||
|
||||
\subsection{Lineare, homogene Differenzialgleichungssysteme}
|
||||
\subsection{Lineare, homogene Differentialgleichungssysteme}
|
||||
|
||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯n)$-Matrix $A$ und ein
|
||||
Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
|
||||
…, $y_n : ℂ → ℂ$, sodass für alle $t ∈ ℂ$ gilt:
|
||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯ n)$-Matrix $A$
|
||||
und ein Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare
|
||||
Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
y'_1(t) \\
|
||||
@ -264,7 +265,7 @@ Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1
|
||||
y_2(t) \\
|
||||
\vdots \\
|
||||
y_n(t)
|
||||
\end{pmatrix}.
|
||||
\end{pmatrix}
|
||||
\]
|
||||
Außerdem soll
|
||||
\[
|
||||
@ -278,8 +279,8 @@ Außerdem soll
|
||||
\]
|
||||
sein.
|
||||
|
||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
|
||||
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
|
||||
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||
gegeben als
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
@ -298,12 +299,12 @@ sein.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
\subsection{Differenzialgleichungen höherer Ordnung}
|
||||
\subsection{Differentialgleichungen höherer Ordnung}
|
||||
|
||||
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
||||
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : ℝ → ℝ$,
|
||||
sodass für alle $t ∈ ℝ$ gilt:
|
||||
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
|
||||
$y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$ gilt:
|
||||
\begin{equation}\label{eq:3-3-2-1}
|
||||
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
||||
\end{equation}
|
||||
@ -343,9 +344,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
|
||||
y_0 \\
|
||||
y'_0 \\
|
||||
y''_0
|
||||
\end{pmatrix}.
|
||||
\end{pmatrix}
|
||||
\]
|
||||
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
|
||||
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
|
||||
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
||||
|
||||
\begin{bsp}
|
||||
|
@ -18,8 +18,9 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
|
||||
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
||||
\]
|
||||
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
||||
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
|
||||
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
|
||||
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
|
||||
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
||||
``Polynome''.
|
||||
|
||||
\begin{defn}[Polynome]
|
||||
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
||||
@ -44,15 +45,15 @@ aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome
|
||||
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
||||
\end{bsp}
|
||||
|
||||
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
|
||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
|
||||
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
|
||||
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
|
||||
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
|
||||
$t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
|
||||
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
|
||||
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
|
||||
des endlichen Körpers $𝔽_2$.
|
||||
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
|
||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
|
||||
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
|
||||
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
|
||||
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
|
||||
dann sind die Polynome $t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben
|
||||
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
|
||||
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
|
||||
Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||
|
||||
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
||||
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
||||
@ -67,33 +68,22 @@ des endlichen Körpers $𝔽_2$.
|
||||
\]
|
||||
genannt
|
||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
|
||||
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
|
||||
→ \Mat(n⨯n, k)$ durch $s(A) = p(A)$.
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
|
||||
Matrix $p(A)$ und eine
|
||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
|
||||
$s: k[t] → \Mat(n⨯ n, k)$ durch $s(A) = p(A)$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
|
||||
GL_n(k)$ haben, dann ist
|
||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
|
||||
Matrix $S ∈ GL_n(k)$ haben, dann ist
|
||||
\[
|
||||
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
||||
\]
|
||||
\end{beobachtung}
|
||||
|
||||
Der Satz von Cayley\footnote{Arthur Cayley (* 16.~August 1821 in Richmond upon
|
||||
Thames, Surrey; † 26.~Januar 1895 in Cambridge) war ein englischer Mathematiker.
|
||||
Er befasste sich mit sehr vielen Gebieten der Mathematik von der Analysis,
|
||||
Algebra, Geometrie bis zur Astronomie und Mechanik, ist aber vor allem für seine
|
||||
Rolle bei der Einführung des abstrakten Gruppenkonzepts
|
||||
bekannt.}-Hamilton\footnote{Sir William Rowan Hamilton (* 4.~August 1805 in
|
||||
Dublin; † 2.~September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker
|
||||
und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine
|
||||
Einführung und Untersuchung der Quaternionen bekannt ist.} sagt, dass jeder
|
||||
Endomorphismus Nullstelle seines eigenen charakteristischen Polynoms ist. Wie
|
||||
cool ist das?
|
||||
|
||||
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
|
||||
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
|
||||
Polynom des Endomorphismus $f$. Dann ist
|
||||
@ -106,11 +96,10 @@ cool ist das?
|
||||
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
|
||||
\end{bemerkung}
|
||||
|
||||
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
|
||||
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
||||
|
||||
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
|
||||
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
|
||||
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
|
||||
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
|
||||
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
|
||||
\video{6-1}
|
||||
\end{proof}
|
||||
|
||||
@ -119,22 +108,22 @@ cool ist das?
|
||||
|
||||
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
|
||||
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
|
||||
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||
das Nullpolynom betrachten.
|
||||
|
||||
\begin{beobachtung}\label{beob:4-0-7}%
|
||||
\begin{beobachtung}\label{beob:4-0-7}
|
||||
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder ein
|
||||
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder
|
||||
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
||||
1 ist.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}\label{beob:4-0-8}%
|
||||
\begin{beobachtung}\label{beob:4-0-8}
|
||||
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
|
||||
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
|
||||
:= p_1-p_2$. Dann gilt Folgendes.
|
||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
|
||||
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
|
||||
$q := p_1-p_2$. Dann gilt Folgendes.
|
||||
\begin{itemize}
|
||||
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
||||
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
||||
@ -162,7 +151,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
||||
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
||||
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
||||
das Minimalpolynom eindeutig bestimmt ist.
|
||||
dies Minimalpolynome eindeutig bestimmt ist.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{bsp}
|
||||
@ -173,9 +162,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
5 & 1 & 0 \\
|
||||
0 & 5 & 0 \\
|
||||
0 & 0 & 5
|
||||
\end{pmatrix}.
|
||||
\end{pmatrix}
|
||||
\]
|
||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯3}$, ist das
|
||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯ 3}$, ist das
|
||||
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
||||
\[
|
||||
A² =
|
||||
@ -183,9 +172,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
25 & 10 & 0 \\
|
||||
0 & 25 & 0 \\
|
||||
0 & 0 & 25
|
||||
\end{pmatrix}.
|
||||
\end{pmatrix}
|
||||
\]
|
||||
Also ist $A²-10·A+25·\Id_{3⨯3} = 0$. Also ist
|
||||
Also ist $A²-10·A+25·\Id_{3⨯ 3} = 0$. Also ist
|
||||
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
||||
hat. Das muss dann wohl das Minimalpolynom sein.
|
||||
\end{bsp}
|
||||
@ -201,13 +190,13 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
Minimalpolynom.
|
||||
\end{beobachtung}
|
||||
|
||||
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
|
||||
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
||||
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
|
||||
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
|
||||
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
|
||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
|
||||
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
|
||||
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
||||
@ -218,9 +207,9 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
||||
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
||||
\end{enumerate}
|
||||
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
|
||||
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
|
||||
und $f$ als Nullstelle hat. Also hat
|
||||
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
|
||||
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
|
||||
normiert ist und $f$ als Nullstelle hat. Also hat
|
||||
\[
|
||||
r(t) = q(t) - t^d·p(t)
|
||||
\]
|
||||
@ -231,8 +220,8 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||
\end{proof}
|
||||
|
||||
\begin{satz}[Nullstellen des Minimalpolynoms]
|
||||
Es sei $k$ ein Körper, $A$ eine $(n⨯n)$-Matrix mit Werten in $k$ und $λ ∈ k$.
|
||||
TFAE:
|
||||
Es sei $k$ eine Körper, $A$ eine $(n⨯ n)$-Matrix mit Werten in $k$ und
|
||||
$λ ∈ k$. TFAE:
|
||||
\begin{enumerate}
|
||||
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
||||
|
||||
@ -250,7 +239,7 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||
vollständig beantworten.
|
||||
|
||||
\begin{satz}[Beschreibung des Minimalpolynoms über $ℂ$]
|
||||
Es sei $A$ eine $(n⨯n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||
Es sei $A$ eine $(n⨯ n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
|
||||
\[
|
||||
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.
|
||||
|
@ -7,12 +7,12 @@
|
||||
\section{Die Euklidische Norm und der Euklidische Abstand}
|
||||
\label{sec:end}
|
||||
|
||||
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
|
||||
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
|
||||
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
|
||||
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
|
||||
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
|
||||
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir dann
|
||||
beliebige Vektorräume.
|
||||
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
|
||||
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir
|
||||
dann beliebige Vektorräume.
|
||||
|
||||
\begin{defn}[Euklidische Norm auf dem $ℝ^n$]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||
@ -49,16 +49,17 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
||||
|
||||
\section{Abstandserhaltende Abbildungen}
|
||||
|
||||
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
|
||||
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
|
||||
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
|
||||
beziehungsweise den Euklidischen Abstand respektieren.
|
||||
|
||||
\begin{defn}
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Eine Abbildung $φ: ℝ^n → ℝ^n$ heißt
|
||||
\emph{abstandserhaltend bezüglich der Euklidischen
|
||||
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
|
||||
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
|
||||
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
|
||||
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
|
||||
oder \emph{metrikerhaltend bezüglich der Euklidischen
|
||||
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
|
||||
falls gilt:
|
||||
\[
|
||||
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
|
||||
\vec{y} ∈ ℝ^n.
|
||||
@ -86,8 +87,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
|
||||
Abbildungen.
|
||||
|
||||
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
|
||||
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend bezüglich
|
||||
der Euklidischen Norm. Dann gilt Folgendes.
|
||||
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend
|
||||
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
|
||||
|
||||
@ -101,20 +102,20 @@ Abbildungen.
|
||||
\end{enumerate}
|
||||
\end{lem}
|
||||
\begin{proof}
|
||||
Wir beweisen die Teilaussage „$φ$ ist injektiv“ von \ref{il:5-2-4-1}:
|
||||
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
|
||||
φ(\vec{v}_2)$. Dann ist
|
||||
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
|
||||
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
|
||||
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
|
||||
\[
|
||||
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
|
||||
\]
|
||||
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage „$φ$
|
||||
ist surjektiv“ beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
||||
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
|
||||
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
||||
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
|
||||
\end{proof}
|
||||
|
||||
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
|
||||
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
|
||||
Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
||||
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
|
||||
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
||||
\end{kor}
|
||||
|
||||
|
||||
@ -130,16 +131,16 @@ enorm.
|
||||
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
|
||||
Abbildung
|
||||
\[
|
||||
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
|
||||
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
|
||||
\]
|
||||
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
|
||||
\end{beobachtung}
|
||||
|
||||
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
|
||||
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
|
||||
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
|
||||
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
|
||||
|
||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands}\index{Transformation des
|
||||
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
||||
@ -161,10 +162,10 @@ Transformation eine Gruppe bilden.
|
||||
\end{defn}
|
||||
|
||||
|
||||
\section{Das Standardskalarprodukt auf dem $ℝ^n$}
|
||||
\section{Das Standard-Skalarprodukt auf dem $ℝ^n$}
|
||||
|
||||
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
|
||||
Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
||||
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $ℝ^n$.
|
||||
|
||||
\begin{defn}[Standardskalarprodukt $ℝ^n$]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||
@ -196,30 +197,30 @@ Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||
Eigenschaft einmal selbst?
|
||||
|
||||
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt Folgendes.
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt folgendes:
|
||||
\begin{description}
|
||||
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||
\[
|
||||
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
|
||||
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
|
||||
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
|
||||
\]
|
||||
|
||||
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||
\[
|
||||
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
|
||||
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
|
||||
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
|
||||
\]
|
||||
|
||||
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt $\langle \vec{x},
|
||||
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
|
||||
\vec{x} = \vec{0}$.
|
||||
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt
|
||||
$\langle \vec{x}, \vec{x} \rangle ≥ 0$. Außerdem gilt
|
||||
$\langle \vec{x}, \vec{x} \rangle = 0 ⇔ \vec{x} = \vec{0}$.
|
||||
|
||||
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ gilt
|
||||
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
|
||||
|
||||
\item[Satz des Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
||||
\item[Satz von Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
||||
und $\vec{y} ∈ ℝ^n$ gilt
|
||||
\[
|
||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
|
||||
@ -241,9 +242,9 @@ scheint.
|
||||
\begin{defn}[Orthonormalbasis]
|
||||
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
||||
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
|
||||
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
|
||||
bezeichnet.
|
||||
Freunden: ONB), falls für alle $i, j$ gilt, dass
|
||||
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
|
||||
Kronecker-Delta bezeichnet.
|
||||
\end{defn}
|
||||
|
||||
\begin{bsp}
|
||||
@ -295,12 +296,12 @@ Eine Menge, wie wir sofort sehen werden.
|
||||
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr)² \Bigr) && \text{Definition}\\
|
||||
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr)² \Bigr) && φ\text{ ist abstandserhaltend}\\
|
||||
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
|
||||
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
|
||||
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
|
||||
\end{align*}
|
||||
Damit ist das Lemma bewiesen.
|
||||
\end{proof}
|
||||
|
||||
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
|
||||
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
|
||||
Orthonormalbasis des $ℝ^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
|
||||
@ -314,9 +315,9 @@ Eine Menge, wie wir sofort sehen werden.
|
||||
\section{Beschreibung der orthogonalen Transformationen}
|
||||
\label{sec:5-5}
|
||||
|
||||
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
||||
vollständig beschreiben.
|
||||
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden
|
||||
Abbildungen) vollständig beschreiben.
|
||||
|
||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
@ -336,7 +337,7 @@ vollständig beschreiben.
|
||||
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
|
||||
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
|
||||
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
|
||||
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
|
||||
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
|
||||
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
|
||||
@ -373,8 +374,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
|
||||
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
|
||||
\end{defn}
|
||||
|
||||
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit „orthogonale
|
||||
Gruppe“ zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
||||
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
|
||||
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
|
||||
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
||||
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
255
06-Produkte.tex
255
06-Produkte.tex
@ -8,26 +8,26 @@
|
||||
\section{Bilinearformen und Skalarprodukte}
|
||||
\label{sec:skalar}
|
||||
|
||||
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
|
||||
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
|
||||
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
||||
diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
|
||||
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
|
||||
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
|
||||
und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
||||
$b: V⨯V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||
$b: V ⨯ V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
||||
|
||||
\begin{description}
|
||||
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
|
||||
∈ V $ und für alle $λ ∈ k$ gilt
|
||||
\item[Linearität in der ersten Komponente] Für alle
|
||||
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
|
||||
\[
|
||||
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
|
||||
λ·b(\vec{y}, \vec{z}).
|
||||
\]
|
||||
|
||||
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
|
||||
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\item[Linearität in der zweiten Komponente] Für alle
|
||||
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||
\[
|
||||
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
|
||||
λ·b(\vec{x}, \vec{z}) .
|
||||
@ -35,45 +35,47 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\end{description}
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
|
||||
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
|
||||
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
|
||||
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
|
||||
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
|
||||
Verknüpfungen einen $k$-Vektorraum.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
|
||||
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
||||
Dann ist die Abbildung
|
||||
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
|
||||
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
|
||||
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
||||
\[
|
||||
b : k^n ⨯ k^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||
\vec{v}^{\:t}·B·\vec{w}
|
||||
\]
|
||||
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich bin nicht
|
||||
mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder $^t•$ geschrieben habe.
|
||||
Beim Tippen schaut $•^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
|
||||
$B·\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
|
||||
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1⨯
|
||||
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1⨯
|
||||
1$-Matrizen mit den Skalaren identifizieren.
|
||||
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich
|
||||
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder
|
||||
$^t•$ geschrieben habe. Beim Tippen schaut $•^t$ viel besser
|
||||
aus.}. Beachte dazu, dass $\vec{w}$ und $B·\vec{w}$ Spaltenvektoren sind,
|
||||
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
|
||||
mit einem Spaltenvektor ist eine $1⨯ 1$-Matrix; die Definition von $b$
|
||||
ist so zu verstehen, dass wir $1⨯ 1$-Matrizen mit den Skalaren
|
||||
identifizieren.
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Symmetrische Bilinearform]
|
||||
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : V⨯V → k$
|
||||
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
|
||||
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
|
||||
\vec{x})$ gilt.
|
||||
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
|
||||
$b : V ⨯ V → k$ heißt
|
||||
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
|
||||
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
|
||||
gilt.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
|
||||
Ganz wie in Beobachtung~\ref{bem:6-1-2} bildet die Menge der symmetrischen
|
||||
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
|
||||
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
|
||||
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
|
||||
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
|
||||
Wenn eine $n⨯n$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
|
||||
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
||||
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
|
||||
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
|
||||
``Matrixprodukt''. Wenn eine $n⨯ n$-Matrix $B$ die Gleichung $B^t=B$
|
||||
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
||||
\[
|
||||
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^t·\vec{v}^{\:tt} =
|
||||
\vec{w}^{\:t}·B^t·\vec{v}.
|
||||
@ -84,22 +86,21 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
|
||||
Es sei $k=ℝ$ oder $k=ℚ$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
|
||||
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
||||
semidefinit}, falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x},
|
||||
\vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
||||
\vec{0}$.
|
||||
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
||||
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
|
||||
$b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $ℚ$ und $ℝ$]
|
||||
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = ℝ$
|
||||
und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei
|
||||
anderen Körpern (etwa $k = ℂ$) ist gar nicht klar, was die Aussage
|
||||
„$b(\vec{x}, \vec{x}) ≥ 0$“ bedeuten soll.
|
||||
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
|
||||
$k = ℝ$ und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei anderen Körpern (etwa $k = ℂ$) ist
|
||||
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x}) ≥ 0$'' bedeuten soll.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
|
||||
@ -123,10 +124,10 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
\end{pmatrix}, \quad
|
||||
\begin{pmatrix}
|
||||
π & -e \\ \frac{-256}{257} & 2
|
||||
\end{pmatrix}.
|
||||
\end{pmatrix}
|
||||
\]
|
||||
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
|
||||
semidefinit“, „positiv definit“ und … ?
|
||||
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
|
||||
``positiv semidefinit'', ``positiv definit'' und … ?
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
|
||||
@ -137,17 +138,17 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\begin{bsp}[Standardskalarprodukt, Einschränkung]
|
||||
Das Standardskalarprodukt auf dem $ℝ^n$ ist ein Skalarprodukt. Es sei $V$ ein
|
||||
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
|
||||
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W⨯ W}$ wieder
|
||||
ein Skalarprodukt.
|
||||
reeller Vektorraum und $\langle •, • \rangle$ sei ein
|
||||
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
|
||||
$\langle •, • \rangle|_{W⨯ W}$ wieder ein Skalarprodukt.
|
||||
\end{bsp}
|
||||
|
||||
\begin{bsp}[Integration]\label{bsp:Integration}%
|
||||
\begin{bsp}[Integration]\label{bsp:Integration}
|
||||
Es sei $k = ℝ$ und es sei $V = \cC⁰([0,1], ℝ)$ der Vektorraum der
|
||||
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$, wie
|
||||
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
|
||||
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
|
||||
\[
|
||||
\langle •, • \rangle : V⨯V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
|
||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
|
||||
\]
|
||||
ist ein Skalarprodukt.
|
||||
\end{bsp}
|
||||
@ -155,46 +156,46 @@ diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\subsection{Beschreibung von Bilinearformen durch Matrizen}
|
||||
|
||||
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
|
||||
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
|
||||
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
|
||||
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung „Lineare
|
||||
Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
||||
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
|
||||
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
|
||||
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
||||
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
|
||||
|
||||
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
|
||||
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
|
||||
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
|
||||
Das gibt es im Leben öfter.
|
||||
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
|
||||
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
|
||||
beschreiben. Das gibt es im Leben öfter.
|
||||
|
||||
\begin{quote}
|
||||
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
|
||||
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
|
||||
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
|
||||
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
||||
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
|
||||
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
|
||||
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
|
||||
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
||||
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
|
||||
\end{quote}
|
||||
|
||||
Wir betrachten die folgende Situation.
|
||||
|
||||
\begin{situation}\label{sit:6-3-1}%
|
||||
\begin{situation}\label{sit:6-3-1}
|
||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
|
||||
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||
\end{situation}
|
||||
|
||||
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
|
||||
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V⨯V → k$ gegeben.
|
||||
Dann betrachte die $n⨯n$-Matrix
|
||||
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
|
||||
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V ⨯ V → k$
|
||||
gegeben. Dann betrachte die $n⨯n$-Matrix
|
||||
\[
|
||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
|
||||
\]
|
||||
\end{konstruktion}
|
||||
|
||||
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
|
||||
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann
|
||||
betrachte die Bilinearform
|
||||
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
|
||||
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte
|
||||
die Bilinearform
|
||||
\[
|
||||
s_B(A) : V⨯V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
φ_B(\vec{v})^t·A·φ_B(\vec{w})
|
||||
\]
|
||||
\end{konstruktion}
|
||||
@ -208,10 +209,10 @@ Wir betrachten die folgende Situation.
|
||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
|
||||
\end{tikzcd}
|
||||
\]
|
||||
Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen $a_{ij}$, dann gibt
|
||||
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
|
||||
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
|
||||
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
||||
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
|
||||
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
|
||||
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
|
||||
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
||||
\end{aufgabe}
|
||||
|
||||
\begin{beobachtung}
|
||||
@ -220,8 +221,8 @@ Wir betrachten die folgende Situation.
|
||||
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
|
||||
Bilinearformen endlich-dimensional sind. Genauer:
|
||||
\begin{align*}
|
||||
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n⨯n$-Matrizen}) = n² \\
|
||||
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n⨯n$-Matrizen}) = \frac{n(n+1)}{2}
|
||||
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n⨯ n$-Matrizen}) = n² \\
|
||||
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n⨯ n$-Matrizen}) = \frac{n(n+1)}{2}
|
||||
\end{align*}
|
||||
\end{beobachtung}
|
||||
|
||||
@ -230,7 +231,7 @@ Wir betrachten die folgende Situation.
|
||||
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
|
||||
Bilinearform
|
||||
\[
|
||||
b : V⨯V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
|
||||
b : V ⨯ V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
|
||||
\]
|
||||
Dann ist
|
||||
\[
|
||||
@ -247,8 +248,8 @@ Wir betrachten die folgende Situation.
|
||||
\subsection{Basiswechsel}
|
||||
|
||||
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
|
||||
eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
|
||||
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||
eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||
|
||||
\begin{erinnerung}
|
||||
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
|
||||
@ -266,9 +267,9 @@ Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||
|
||||
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
|
||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||
$V$, eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_•
|
||||
:= \Mat_{B_{•}}(b)$. Dann ist
|
||||
$V$, eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
|
||||
$M_{•} := \Mat_{B_{•}}(b)$. Dann ist
|
||||
\[
|
||||
M_1 = S^t·M_2·S.
|
||||
\]
|
||||
@ -281,27 +282,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
|
||||
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
|
||||
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
|
||||
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
|
||||
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
|
||||
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
|
||||
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
|
||||
nur die Transponierte $S^t$ ausrechnen muss.
|
||||
|
||||
|
||||
\section{Sesquilinearformen und Hermitesche Produkte}
|
||||
|
||||
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
|
||||
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
|
||||
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
|
||||
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
|
||||
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
|
||||
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
|
||||
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
|
||||
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
|
||||
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
|
||||
Definition von „positiv definit“. Der praktische Erfolg der folgenden
|
||||
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
|
||||
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
|
||||
Definitionen gibt der Sache aber recht.
|
||||
|
||||
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
|
||||
den komplexen Zahlen. Eine
|
||||
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
|
||||
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
|
||||
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
|
||||
ist eine Abbildung $b: V⨯V → ℂ$, sodass Folgendes gilt.
|
||||
ist eine Abbildung $b: V ⨯ V → ℂ$, so dass Folgendes gilt.
|
||||
\begin{description}
|
||||
\item[Linearität in der ersten Komponente] Für alle
|
||||
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ ℂ$ gilt
|
||||
@ -323,18 +324,18 @@ Definitionen gibt der Sache aber recht.
|
||||
$x+i·y ↦ x - i·y$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
|
||||
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
|
||||
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
|
||||
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
|
||||
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
|
||||
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
|
||||
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
|
||||
Menge der Sesquilinearformen einen reellen Vektorraum.
|
||||
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
|
||||
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
|
||||
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
|
||||
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
|
||||
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
||||
Dann ist die Abbildung
|
||||
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
|
||||
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige
|
||||
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
||||
\[
|
||||
b : ℂ^n ⨯ ℂ^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||
\vec{v}^{\:t}·B·\overline{\vec{w}}
|
||||
@ -359,24 +360,24 @@ Definitionen gibt der Sache aber recht.
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Hermitesche Sesquilinearform]
|
||||
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : V⨯V →
|
||||
ℂ$ heißt
|
||||
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
|
||||
$b : V ⨯ V → ℂ$ heißt
|
||||
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
|
||||
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
||||
Paris) war ein französischer
|
||||
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
||||
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
|
||||
\overline{b(\vec{y},\vec{x})}$ gilt.
|
||||
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
||||
Paris) war ein französischer
|
||||
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
||||
$\vec{y} ∈ V$ die Gleichung
|
||||
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
|
||||
Es sei $b : V⨯V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
||||
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
|
||||
Es sei $b : V ⨯ V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
||||
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
|
||||
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
|
||||
imaginäre Anteil verschwinden muss.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
|
||||
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
|
||||
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
|
||||
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
|
||||
@ -385,12 +386,12 @@ Definitionen gibt der Sache aber recht.
|
||||
Vektorraumes der Sesquilinearformen bildet.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
|
||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
|
||||
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
|
||||
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
|
||||
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
|
||||
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
|
||||
komplexer Vektorraum.
|
||||
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
|
||||
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
|
||||
\emph{kein} komplexer Vektorraum.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
|
||||
@ -399,23 +400,23 @@ Definitionen gibt der Sache aber recht.
|
||||
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
|
||||
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
|
||||
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
|
||||
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
|
||||
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
|
||||
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
|
||||
tun?
|
||||
\end{bsp}
|
||||
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
|
||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
|
||||
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
|
||||
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
||||
semidefinit}\index{positiv semidefinit}, falls für alle $\vec{x} ∈ V$ die
|
||||
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
||||
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
|
||||
Ungleichung $b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
||||
\vec{0}$.
|
||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||
\end{defn}
|
||||
|
||||
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
|
||||
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
|
||||
Es sei $V$ ein komplexer Vektorraum. Ein
|
||||
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
|
||||
positiv definite, Hermitesche Sesquilinearform.
|
||||
@ -453,8 +454,8 @@ Definitionen gibt der Sache aber recht.
|
||||
Sei $V = \cC⁰([0,1];ℂ)$ der komplexe Vektorraum der komplexwertigen stetigen
|
||||
Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$. Die Abbildung
|
||||
\[
|
||||
\langle •, • \rangle : V⨯V → ℂ, \quad (f, g) ↦ \int¹_0
|
||||
f(t)·\overline{g(t)} dt
|
||||
\langle •, • \rangle : V ⨯ V → ℂ, \quad (f, g) ↦ \int¹_0
|
||||
f(t)·\overline{g(t)} dt.
|
||||
\]
|
||||
ist ein Skalarprodukt.
|
||||
\end{bsp}
|
||||
@ -487,11 +488,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
|
||||
gehen, geben wir nur die Ergebnisse an.
|
||||
|
||||
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
|
||||
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis $B
|
||||
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
||||
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis
|
||||
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
||||
bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||
\begin{itemize}
|
||||
\item Gegeben eine Sesquilinearform $b : V⨯V → k$, dann betrachte die
|
||||
\item Gegeben eine Sesquilinearform $b : V ⨯ V → k$, dann betrachte die
|
||||
$n⨯n$-Matrix
|
||||
\[
|
||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
|
||||
@ -500,7 +501,7 @@ gehen, geben wir nur die Ergebnisse an.
|
||||
\item Gegeben eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte die
|
||||
Sesquilinearlinearform
|
||||
\[
|
||||
s_B(A) : V⨯V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
|
||||
\]
|
||||
\end{itemize}
|
||||
@ -513,12 +514,12 @@ $ℂ$-Vektorräumen erhalten,
|
||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
|
||||
\end{tikzcd}
|
||||
\]
|
||||
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
||||
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
||||
Außerdem gilt folgender Satz.
|
||||
|
||||
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
|
||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||
$V$, eine Sesquilinearform $b : V⨯V → k$ und zwei angeordnete Basen,
|
||||
$V$, eine Sesquilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen,
|
||||
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{•} := \Mat_{B_{•}}(b)$. Dann
|
||||
ist
|
||||
\[
|
||||
|
@ -5,41 +5,42 @@
|
||||
\label{sec:7}
|
||||
|
||||
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
|
||||
Standardskalarprodukt auf dem $ℝ^n$ kennengelernt. Im Kapitel~\ref{sec:bskalar}
|
||||
haben wir diesen Begriff auf beliebige (endlich-dimensionale) reelle und
|
||||
komplexe Vektorräume verallgemeinert. In diesem Kapitel möchte ich Vektorräume
|
||||
mit Skalarprodukt systematisch diskutieren, und Begriffe wie „Norm“, „Abstand“,
|
||||
„Metrik“ und „Orthogonalität“, die wir zuerst am Beispiel des $ℝ^n$
|
||||
kennengelernt haben, jetzt in größerer Allgemeinheit systematisch einführen.
|
||||
Zuerst einmal kommen jede Menge Definitionen und eine langweilige Rechnung,
|
||||
deshalb auch im Moment kein Erklärvideo.
|
||||
Standardskalarprodukt auf dem $ℝ^n$ kennen gelernt. Im
|
||||
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige
|
||||
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In
|
||||
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren,
|
||||
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die
|
||||
wir zuerst am Beispiel des $ℝ^n$ kennen gelernt haben, jetzt in größerer
|
||||
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge
|
||||
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein
|
||||
Erklärvideo.
|
||||
|
||||
\begin{defn}[Euklidische und unitäre Vektorräume]
|
||||
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
|
||||
symmetrischer Bilinearform) heißt \emph{Euklidischer
|
||||
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum zusammen
|
||||
mit einem Skalarprodukt (=positiv definiter Hermitescher Sequilinearform)
|
||||
heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
|
||||
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum
|
||||
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher
|
||||
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
|
||||
\end{defn}
|
||||
|
||||
|
||||
\section{Normen auf Vektorräumen}
|
||||
|
||||
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
|
||||
Abstand auf dem $ℝ^n$ definiert. Jetzt machen wir das allgemein, für beliebige
|
||||
reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||
Abstand auf dem $ℝ^n$ definiert. Jetzt machen wir das allgemein, für
|
||||
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||
|
||||
\begin{erinnerung}[Betrag einer komplexen Zahl]
|
||||
Gegeben eine komplexe Zahl $λ = a+b·i ∈ ℂ$, dann nennen wir die reelle Zahl
|
||||
$\sqrt{a²+b²} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
|
||||
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen Zahl}
|
||||
oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen Zahl}.
|
||||
Man schreibt auch $\|λ\|$ oder $|λ|$.
|
||||
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen
|
||||
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen
|
||||
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$.
|
||||
\end{erinnerung}
|
||||
|
||||
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}%
|
||||
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}
|
||||
Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$ und es sei $V$ ein $k$-Vektorraum.
|
||||
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → ℝ$, sodass
|
||||
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → ℝ$, so dass
|
||||
folgende Eigenschaften gelten.
|
||||
\begin{description}
|
||||
\item[Absolute Homogenität] Für alle $\vec{x} ∈ V$ und alle $λ ∈ k$ gilt:
|
||||
@ -54,15 +55,15 @@ reelle oder komplexe Vektorräume, und für beliebige Mengen.
|
||||
\end{defn}
|
||||
|
||||
\begin{notation}[Normierte Vektorräume]
|
||||
\index{normiert!Vektorraum}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. Ein
|
||||
normierter $k$-Vektorraum $\bigl( V, \|•\|\bigr)$ ist ein $k$-Vektorraum $V$
|
||||
zusammen mit einer Norm $\|•\|$.
|
||||
\index{normiert!Vektorraum}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$.
|
||||
Ein normierter $k$-Vektorraum $\bigl( V, \|•\|\bigr)$ ist ein
|
||||
$k$-Vektorraum $V$ zusammen mit einer Norm $\|•\|$.
|
||||
\end{notation}
|
||||
|
||||
\begin{notation}[Normierte Vektorräume]
|
||||
\index{normiert!Vektor}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. und es sei
|
||||
$\bigl( V, \|•\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\vec{v} ∈
|
||||
V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
|
||||
\index{normiert!Vektor}Es sei $k = ℚ$ oder $k = ℝ$ oder $k = ℂ$. und es
|
||||
sei $\bigl( V, \|•\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor
|
||||
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
|
||||
\end{notation}
|
||||
|
||||
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
|
||||
@ -78,17 +79,27 @@ unmittelbar aus der Definition folgen.
|
||||
Also ist $\| \vec{x} \| ≥ 0$ für alle $\vec{x} ∈ V$.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{bemerkung}[Satz des Pythagoras]
|
||||
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
|
||||
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
|
||||
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
|
||||
\[
|
||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
|
||||
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
|
||||
\]
|
||||
\end{bemerkung}
|
||||
|
||||
|
||||
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
|
||||
|
||||
Als Erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
|
||||
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
|
||||
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
|
||||
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennengelernt haben,
|
||||
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
|
||||
sofort Beispiele für Normen.
|
||||
|
||||
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}%
|
||||
Wenn $\bigl( V, \langle•,•\rangle\bigr)$ irgendein Euklidischer oder unitärer
|
||||
Vektorraum ist, dann definiert die Abbildung
|
||||
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}
|
||||
Wenn $\bigl( V, \langle•\rangle\bigr)$ irgendein Euklidischer oder
|
||||
unitärer Vektorraum ist, dann definiert die Abbildung
|
||||
\[
|
||||
\|•\| : V → ℝ, \quad \vec{x} ↦ \sqrt{\langle \vec{x}, \vec{x} \rangle}
|
||||
\]
|
||||
@ -96,33 +107,29 @@ sofort Beispiele für Normen.
|
||||
\end{satz}
|
||||
|
||||
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
|
||||
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige
|
||||
„Cauchy\footnote{\href{https://de.wikipedia.org/wiki/Augustin-Louis_Cauchy}{Baron
|
||||
Augustin-Louis Cauchy} (* 21.~August 1789 in Paris; † 23.~Mai 1857 in Sceaux)
|
||||
war ein französischer
|
||||
Mathematiker.}-Schwarzsche\footnote{\href{https://de.wikipedia.org/wiki/Hermann_Amandus_Schwarz}{Karl
|
||||
Hermann Amandus Schwarz} (* 25.~Januar 1843 in Hermsdorf, Provinz Schlesien; †
|
||||
30.~November 1921 in Berlin) war ein deutscher Mathematiker. } Ungleichung“, die
|
||||
sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
||||
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung,
|
||||
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
|
||||
|
||||
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
|
||||
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} ∈ V$
|
||||
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y}
|
||||
∈ V$
|
||||
\[
|
||||
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
|
||||
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
|
||||
\]
|
||||
\end{satz}
|
||||
\begin{proof}[Beweis durch unangenehme Rechnerei]
|
||||
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für $\vec{y}
|
||||
= \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist wegen
|
||||
positiver Definitheit der Hermiteschen Form
|
||||
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für
|
||||
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist
|
||||
wegen positiver Definitheit der Hermiteschen Form
|
||||
\begin{align*}
|
||||
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
|
||||
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
|
||||
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
|
||||
\end{align*}
|
||||
Jetzt betrachte den Spezialfall wo $λ= \frac{\overline{\langle \vec{y},
|
||||
\vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}$ ist. Dann ergibt sich
|
||||
Jetzt betrachte den Spezialfall wo
|
||||
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y},
|
||||
\vec{y} \rangle}$ ist. Dann ergibt sich
|
||||
\begin{align*}
|
||||
&& 0 &≤ \langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle|²}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
|
||||
⇒ && 0 &≤ \langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle|²\\
|
||||
@ -133,10 +140,10 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
||||
\end{proof}
|
||||
|
||||
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
|
||||
Um zu zeigen, dass die Abbildung $\|•\| : V → ℝ$ aus Satz~\ref{satz:sin}
|
||||
tatsächlich eine Norm ist, müssen wir die drei Eigenschaften „absolute
|
||||
Homogenität“, „Dreiecksungleichung“ und „positive Definitheit“ zeigen. Auf
|
||||
geht's.
|
||||
Um zu zeigen, dass die Abbildung $\|•\| : V → ℝ$ aus
|
||||
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei
|
||||
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive
|
||||
Definitheit'' zeigen. Auf geht's.
|
||||
|
||||
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
|
||||
Vektor und es sei $λ$ irgendein Skalar. Dann ist
|
||||
@ -149,7 +156,7 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
||||
Damit ist die absolute Homogenität gezeigt.
|
||||
|
||||
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
|
||||
beliebige Vektoren. Dann folgt mithilfe der Cauchy-Schwarzschen Ungleichung
|
||||
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung
|
||||
folgendes.
|
||||
\begin{align*}
|
||||
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
|
||||
@ -166,16 +173,6 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
|
||||
Satz~\ref{satz:sin} bewiesen.
|
||||
\end{proof}
|
||||
|
||||
\begin{bemerkung}[Satz des Pythagoras]
|
||||
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
|
||||
Satz~\ref{satz:sin} gilt der Satz des Pythagoras: gegeben Vektoren $\vec{x}$
|
||||
und $\vec{y}$ aus $V$, dann gilt
|
||||
\[
|
||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
|
||||
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
|
||||
\]
|
||||
\end{bemerkung}
|
||||
|
||||
|
||||
\subsection{Beispiele: Normen, die von Normen kommen}
|
||||
|
||||
@ -184,9 +181,9 @@ die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
|
||||
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
|
||||
ein wenig Analysis voraussetzen).
|
||||
|
||||
\begin{bsp}[Operatornorm]\label{bsp:opNorm}%
|
||||
Es seien $\bigl( V, \|•\|_V\bigr)$ und $\bigl( W, \|•\|_W\bigr)$ zwei
|
||||
endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
|
||||
\begin{bsp}[Operatornorm]\label{bsp:opNorm}
|
||||
Es seien $\bigl( V, \|•\|_V\bigr)$ und $\bigl( W, \|•\|_W\bigr)$
|
||||
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
|
||||
Abbildung
|
||||
\[
|
||||
\|•\|_{\operatorname{op}} : \Hom_{ℝ}(V,W) → ℝ, \quad %
|
||||
@ -222,7 +219,7 @@ Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
|
||||
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
|
||||
Beispiele.
|
||||
|
||||
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}%
|
||||
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}
|
||||
Die Manhattan-Norm auf dem Vektorraum $ℝ^n$ ist gegeben als
|
||||
\[
|
||||
\| • \|_1 : ℝ^n → ℝ, \quad
|
||||
@ -243,29 +240,29 @@ Beispiele.
|
||||
\end{bsp}
|
||||
|
||||
\begin{bsp}[Einschränkungen von Normen]
|
||||
Es sei $\bigl( V, \|•\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ sei ein
|
||||
Untervektorraum. Dann ist die Einschränkung $\|•\|_V|_W$ eine Norma auf $W$.
|
||||
Es sei $\bigl( V, \|•\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$
|
||||
sei ein Untervektorraum. Dann ist die Einschränkung $\|•\|_V|_W$ eine Norma
|
||||
auf $W$.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
\section{Metriken}
|
||||
|
||||
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir
|
||||
mithilfe einer Norm einen Begriff von „Abstand“ oder „Metrik“ definieren. Der
|
||||
Begriff „Metrik“ ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
|
||||
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit
|
||||
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der
|
||||
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
|
||||
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
|
||||
|
||||
\begin{defn}[Metrik]
|
||||
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung $d:
|
||||
M ⨯ M → ℝ$, sodass Folgendes gilt.
|
||||
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung
|
||||
$d: M ⨯ M → ℝ$, so dass Folgendes gilt.
|
||||
\begin{description}
|
||||
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
|
||||
|
||||
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) +
|
||||
d(y,z)$
|
||||
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$
|
||||
|
||||
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x) ≥ 0$.
|
||||
Zusätzlich gilt: $d(x,y) = 0 ⇔ x = y$.
|
||||
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x) ≥ 0$. Zusätzlich
|
||||
gilt: $d(x,y) = 0 ⇔ x = y$.
|
||||
\end{description}
|
||||
\end{defn}
|
||||
|
||||
|
@ -3,34 +3,36 @@
|
||||
|
||||
\chapter{Orthogonale Projektion}
|
||||
|
||||
In diesem Kapitel sei $\bigl( V, \langle•,•\rangle\bigr)$ stets ein euklidischer
|
||||
oder unitärer Vektorraum. Wenn keine Verwechslungsgefahr besteht, werden wir
|
||||
die durch das Skalarprodukt induzierte Norm einfach mit $\|•\|$ bezeichnen.
|
||||
In diesem Kapitel sei $\bigl( V, \langle•\rangle\bigr)$ stets ein
|
||||
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht,
|
||||
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|•\|$
|
||||
bezeichnen.
|
||||
|
||||
|
||||
\section{Orthogonalität und Orthonormalität}
|
||||
|
||||
Der zentrale Begriff in diesem Kapitel ist „orthogonal“, also „steht senkrecht
|
||||
aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
||||
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also
|
||||
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des
|
||||
Skalarproduktes.
|
||||
|
||||
\begin{defn}[Orthogonal]\label{def:orth}%
|
||||
Es sei $\bigl( V, \langle•,•\rangle\bigr)$ ein Euklidischer oder unitärer
|
||||
\begin{defn}[Orthogonal]\label{def:orth}
|
||||
Es sei $\bigl( V, \langle•\rangle\bigr)$ ein Euklidischer oder unitärer
|
||||
Vektorraum.
|
||||
\begin{enumerate}
|
||||
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
|
||||
\emph{$\vec{x}$ und $\vec{y}$ sind orthogonal
|
||||
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
|
||||
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
|
||||
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
|
||||
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
|
||||
Als Kurzschreibweise: $\vec{x} \perp \vec{y}$.
|
||||
|
||||
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
|
||||
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
|
||||
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung $\langle \vec{u},
|
||||
\vec{w} \rangle = 0$ gilt.
|
||||
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung
|
||||
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt.
|
||||
|
||||
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann definieren
|
||||
wir das \emph{orthogonale Komplement von $U$}\index{orthogonales Komplement}
|
||||
als
|
||||
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann
|
||||
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales
|
||||
Komplement} als
|
||||
\[
|
||||
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
|
||||
\vec{u} ∈ U \}.
|
||||
@ -43,10 +45,10 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
||||
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
|
||||
\]
|
||||
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
|
||||
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung $\|
|
||||
\vec{v}_i \| = 1$ gilt. Falls eine orthonormale Familie zusätzlich eine
|
||||
Basis ist, dann nenne die Familie
|
||||
\emph{Orthonormalbasis}\index{Orthonormalbasis} und schreibe kurz: „ONB“.
|
||||
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung
|
||||
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt
|
||||
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie
|
||||
zusätzlich eine Basis ist.
|
||||
\end{enumerate}
|
||||
\end{defn}
|
||||
|
||||
@ -58,15 +60,15 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
||||
\begin{beobachtung}
|
||||
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
|
||||
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
|
||||
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn $\vec{v} \perp
|
||||
\vec{u}_i$ ist für alle Indizes $i ∈ I$.
|
||||
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn
|
||||
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}%
|
||||
Wir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen
|
||||
Begriff von „orthogonalen Unterraum“. Die Situation war die, dass es einen
|
||||
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser Situation
|
||||
war der „orthogonale Unterraum“ der Raum
|
||||
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}
|
||||
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen
|
||||
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen
|
||||
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser
|
||||
Situation war der ``orthogonale Unterraum'' der Raum
|
||||
\[
|
||||
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
|
||||
\]
|
||||
@ -76,10 +78,11 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
|
||||
|
||||
\begin{bsp}[Der Standardraum $ℝ^n$]
|
||||
Betrachten den Vektorraum $ℝ^n$ mit dem Standardskalarprodukt. Dann ist die
|
||||
Standardbasis eine Orthonormalbasis. Die Untervektorräume $\langle \vec{e}_1,
|
||||
\vec{e}_2 \rangle$ und $\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal.
|
||||
Das orthogonale Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2
|
||||
\rangle$ ist $\langle \vec{e}_3, …, \vec{e}_n \rangle$.
|
||||
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume
|
||||
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und
|
||||
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale
|
||||
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist
|
||||
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
@ -89,7 +92,7 @@ Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
|
||||
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
||||
|
||||
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
|
||||
Es sei $\bigl( V, \langle•,•\rangle\bigr)$ ein euklidischer oder unitärer
|
||||
Es sei $\bigl( V, \langle•\rangle\bigr)$ ein euklidischer oder unitärer
|
||||
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
|
||||
$\vec{v}_1 \ne \vec{0}$. Setze
|
||||
\[
|
||||
@ -97,18 +100,19 @@ kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
|
||||
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
|
||||
\]
|
||||
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
|
||||
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1,
|
||||
\vec{v}\,'_2\}$.
|
||||
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch
|
||||
$\{\vec{v}_1, \vec{v}\,'_2\}$.
|
||||
\end{bsp}
|
||||
|
||||
Wir bauen das „Rezept, um Vektoren orthogonal machen“ ein wenig aus und erhalten
|
||||
einen „Basisergänzungssatz für Orthonormalbasen“.
|
||||
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und
|
||||
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
|
||||
|
||||
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}%
|
||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und
|
||||
sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
|
||||
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}
|
||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei
|
||||
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
|
||||
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
|
||||
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ ergänzen.
|
||||
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$
|
||||
ergänzen.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
\video{11-1}
|
||||
@ -122,35 +126,38 @@ einen „Basisergänzungssatz für Orthonormalbasen“.
|
||||
\begin{beobachtung}[Gram-Schmidt Verfahren]
|
||||
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
|
||||
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
|
||||
ein effektives, induktives Verfahren um aus einer gegebenen Basis $\{
|
||||
\vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB $\{ \vec{u}_1, …, \vec{u}_n \}$
|
||||
zu konstruieren. Man startet so:
|
||||
ein effektives, induktives Verfahren um aus einer gegebenen Basis
|
||||
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB
|
||||
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so:
|
||||
\begin{itemize}
|
||||
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
|
||||
|
||||
\item Definiere. $\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1
|
||||
\rangle· \vec{u}_1$.
|
||||
\item Definiere.
|
||||
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle·
|
||||
\vec{u}_1$.
|
||||
|
||||
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
|
||||
\end{itemize}
|
||||
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
|
||||
folgt vor:
|
||||
\begin{itemize}
|
||||
\item Definiere. $\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle
|
||||
\vec{v}_{k+1}, \vec{u}_j \rangle·\vec{u}_j$.
|
||||
\item Definiere.
|
||||
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1},
|
||||
\vec{u}_j \rangle·\vec{u}_j$.
|
||||
|
||||
\item Normiere.
|
||||
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
|
||||
\end{itemize}
|
||||
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für alle
|
||||
Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen $\langle \vec{u}_1,
|
||||
…, \vec{u}_i \rangle = \langle \vec{v}_1, …, \vec{v}_i \rangle$.
|
||||
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für
|
||||
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen
|
||||
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …,
|
||||
\vec{v}_i \rangle$.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}%
|
||||
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}
|
||||
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
|
||||
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor $\vec{v}
|
||||
∈ V$ eindeutig schreiben als
|
||||
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor
|
||||
$\vec{v} ∈ V$ eindeutig schreiben als
|
||||
\[
|
||||
\vec{v} = p(\vec{v}) + r(\vec{v}),
|
||||
\]
|
||||
@ -162,24 +169,24 @@ einen „Basisergänzungssatz für Orthonormalbasen“.
|
||||
|
||||
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
|
||||
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
|
||||
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als „orthogonale
|
||||
Projektion“ bezeichnen.
|
||||
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale
|
||||
Projektion'' bezeichnen.
|
||||
|
||||
\begin{beobachtung}[Orthogonale Projektion]
|
||||
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
|
||||
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
|
||||
\[
|
||||
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i.
|
||||
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i
|
||||
\]
|
||||
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist $\ker p =
|
||||
U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den Unterraum
|
||||
$U$}\index{orthogonale Projektion}.
|
||||
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist
|
||||
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den
|
||||
Unterraum $U$}\index{orthogonale Projektion}.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
|
||||
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
|
||||
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für $\vec{w}
|
||||
∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
|
||||
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für
|
||||
$\vec{w} ∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
|
||||
\begin{align*}
|
||||
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
|
||||
& ≥ \| p(\vec{v})-\vec{v} \|².
|
||||
@ -192,13 +199,13 @@ Projektion“ bezeichnen.
|
||||
\subsection{Der Dualraum}
|
||||
\label{sec:dual}
|
||||
|
||||
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung „Lineare
|
||||
Algebra I“ ist der des „Dualraum“. Alle Studenten lieben das. Ich erinnere:
|
||||
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare
|
||||
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere:
|
||||
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
|
||||
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
|
||||
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
|
||||
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
|
||||
finden, wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
|
||||
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
|
||||
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
|
||||
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
|
||||
Abbildungen, die die Gleichungen
|
||||
@ -221,9 +228,9 @@ war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
|
||||
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
|
||||
$V^*$.
|
||||
|
||||
\begin{satz}\label{satz:8-3-1}%
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||
euklidischer Vektorraum. Dann ist die Abbildung
|
||||
\begin{satz}\label{satz:8-3-1}
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung
|
||||
\[
|
||||
s: V → V^*, \quad \vec{v} ↦ \langle • ,\vec{v} \rangle
|
||||
\]
|
||||
@ -237,20 +244,20 @@ $V^*$.
|
||||
\end{proof}
|
||||
|
||||
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
|
||||
zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“
|
||||
und dem „orthogonalen Komplement“ aus Definition~\ref{def:orth} zu klären. Der
|
||||
folgende Satz löst dieses Versprechen ein.
|
||||
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra
|
||||
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären.
|
||||
Der folgende Satz löst dieses Versprechen ein.
|
||||
|
||||
\begin{satz}[Orthogonales Komplement und orthogonale
|
||||
Unterräume]\label{satz:8-3-3} Es sei $\bigl(V, \langle •, • \rangle \bigr)$
|
||||
ein endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3}
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
|
||||
Satz~\ref{satz:8-3-1}. Dann gilt Folgendes.
|
||||
Satz~\ref{satz:8-3-1}. Dann gilt folgendes.
|
||||
\begin{enumerate}
|
||||
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
|
||||
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen den
|
||||
Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist $\dim U^\perp = \dim
|
||||
U⁰$ (…nämlich gleich $\dim V - \dim U$).
|
||||
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen
|
||||
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist
|
||||
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$).
|
||||
|
||||
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
|
||||
Summe $V = U ⊕ U^\perp$.
|
||||
@ -260,19 +267,19 @@ folgende Satz löst dieses Versprechen ein.
|
||||
\video{12-3}
|
||||
\end{proof}
|
||||
|
||||
\begin{kor}\label{kro:8-3-3}%
|
||||
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit $\bigl( U^\perp
|
||||
\bigr)^\perp = U$.
|
||||
\begin{kor}\label{kro:8-3-3}
|
||||
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit
|
||||
$\bigl( U^\perp \bigr)^\perp = U$.
|
||||
\end{kor}
|
||||
\begin{proof}
|
||||
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
|
||||
Gleichheit folgt mithilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
|
||||
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
|
||||
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
|
||||
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage „$\vec{u} ∈ \bigl(
|
||||
U^\perp \bigr)^\perp$“ ist dann per Definition äquivalent dazu, ist zu zeigen,
|
||||
dass gilt:
|
||||
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage
|
||||
``$\vec{u} ∈ \bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent
|
||||
dazu, ist zu zeigen, dass gilt:
|
||||
\[
|
||||
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp.
|
||||
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp
|
||||
\]
|
||||
Das ist aber klar nach Definition von $U^\perp$.
|
||||
\end{proof}
|
||||
@ -286,14 +293,15 @@ folgende Satz löst dieses Versprechen ein.
|
||||
\subsubsection{Unitäre Vektorräume}
|
||||
|
||||
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
|
||||
den Fall von unitären Vektorräumen. Falls $\bigl(V, \langle •, • \rangle
|
||||
\bigr)$ ein endlich-dimensionaler unitärer Vektorraum ist, dann ist die
|
||||
Abbildung $s$ bijektiv und \emph{semi-linear}\index{semi-lineare Abbildung}.
|
||||
Dabei bedeutet „semi-linear“, dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$
|
||||
und alle Skalare $λ ∈ ℂ$ die Gleichungen
|
||||
den Fall von unitären Vektorräumen. Falls
|
||||
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und
|
||||
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet
|
||||
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle
|
||||
Skalare $λ ∈ ℂ$ die Gleichungen
|
||||
\[
|
||||
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
|
||||
f(λ·\vec{x}) = \overline{λ}·f(\vec{x})
|
||||
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}).
|
||||
\]
|
||||
gelten.
|
||||
|
||||
@ -318,16 +326,17 @@ gelten.
|
||||
\subsection{Quotientenräume}
|
||||
|
||||
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
|
||||
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ identifiziert,
|
||||
der uns aus der Vorlesung „Lineare Algebra I“ vertraut war. Es gibt noch eine
|
||||
andere kanonische Identifikation des orthogonalen Komplements mit einem
|
||||
bekannten Vektorraum.
|
||||
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$
|
||||
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es
|
||||
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit
|
||||
einem bekannten Vektorraum.
|
||||
|
||||
\begin{satz}\label{satz:8-3-6}%
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
|
||||
euklidischer Vektorraum und es sei $U ⊂ V$ ein Untervektorraum. Dann gibt es
|
||||
einen kanonischen Isomorphismus zwischen dem Vektorraumquotienten
|
||||
$\factor{V}{U}$ und dem orthogonalen Komplement $U^\perp$.
|
||||
\begin{satz}\label{satz:8-3-6}
|
||||
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
|
||||
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
|
||||
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem
|
||||
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement
|
||||
$U^\perp$.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
\video{12-4}
|
||||
@ -346,33 +355,34 @@ bekannten Vektorraum.
|
||||
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
|
||||
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
|
||||
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
|
||||
wir „selbstadjungierte Abbildungen“ diskutieren. Zuallererst legen wir die
|
||||
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die
|
||||
Situation fest, die wir in diesem Abschnitt genau betrachten.
|
||||
|
||||
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}%
|
||||
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und $\bigl(W, \langle •, •
|
||||
\rangle_W \bigr)$ zwei endlich-dimensional euklidische Vektorräume. Die
|
||||
kanonischen Identifikationen der Räume mit ihren Dualräumen bezeichnen wir mit
|
||||
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}
|
||||
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und
|
||||
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional
|
||||
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren
|
||||
Dualräumen bezeichnen wir mit
|
||||
\[
|
||||
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
|
||||
\]
|
||||
\end{situation}
|
||||
|
||||
\begin{erinnerung}
|
||||
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung „Lineare
|
||||
Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich
|
||||
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare
|
||||
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich
|
||||
\[
|
||||
f^* : W^* → V^*, \quad φ ↦ φ◦f.
|
||||
\]
|
||||
\end{erinnerung}
|
||||
|
||||
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}%
|
||||
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}
|
||||
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
||||
Betrachte das folgende Diagramm:
|
||||
\begin{equation}\label{eq:8-5-3-1}
|
||||
\begin{tikzcd}[column sep=3cm]
|
||||
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
|
||||
V^* & W^*. \arrow[l, "f^*\text{, Rückzugsabbildung}"]
|
||||
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"]
|
||||
\end{tikzcd}
|
||||
\end{equation}
|
||||
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
|
||||
@ -380,26 +390,26 @@ Situation fest, die wir in diesem Abschnitt genau betrachten.
|
||||
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
|
||||
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
|
||||
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
|
||||
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und $f^*◦ s_W ◦
|
||||
f$ besteht. Wir interessieren uns aber für Bedingungen, die Gleichheit der
|
||||
Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen $s_V$
|
||||
und $f^*◦ s_W ◦ f$ gleich sind, falls für alle $\vec{v} ∈ V$ die folgende
|
||||
Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und
|
||||
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen,
|
||||
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die
|
||||
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle
|
||||
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||
\begin{equation}\label{eq:8-5-3-2}
|
||||
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}).
|
||||
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v})
|
||||
\end{equation}
|
||||
Das lässt sich explizit hinschreiben, indem ich die Definitionen von $s_V$,
|
||||
$s_W$ und $f^*$ einsetze. Dann erhalte ich: Die Abbildungen $s_V$ und $f^*◦
|
||||
s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die folgende Gleichheit von
|
||||
Elementen im Dualraum $V^*$ gilt,
|
||||
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$,
|
||||
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und
|
||||
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die
|
||||
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
|
||||
\begin{align*}
|
||||
\langle •, \vec{v} \rangle_V %
|
||||
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
|
||||
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
|
||||
\end{align*}
|
||||
Das lässt sich noch einfacher formulieren: Die Abbildungen $s_V$ und $f^*◦ s_W
|
||||
◦ f$ sind gleich, falls für alle $\vec{v}_1, \vec{v}_2 ∈ V$ die folgende
|
||||
Gleichheit von Skalaren gilt,
|
||||
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und
|
||||
$f^*◦ s_W ◦ f$ sind gleich, falls für alle
|
||||
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt,
|
||||
\begin{align*}
|
||||
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
|
||||
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
|
||||
@ -421,9 +431,9 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
|
||||
wird mit dem Symbol $f^{\ad}$ bezeichnet.
|
||||
\end{defn}
|
||||
|
||||
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}%
|
||||
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}
|
||||
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
|
||||
Dann gilt Folgendes.
|
||||
Dann gilt folgendes.
|
||||
\begin{enumerate}
|
||||
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
|
||||
|
||||
@ -439,7 +449,7 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
|
||||
\sideremark{Vorlesung 13}\video{13-1}
|
||||
\end{proof}
|
||||
|
||||
\begin{prop}\label{prop:8-4-6}%
|
||||
\begin{prop}\label{prop:8-4-6}
|
||||
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
|
||||
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
|
||||
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
|
||||
@ -463,7 +473,7 @@ Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
|
||||
unitäre Vektorräume.
|
||||
|
||||
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
|
||||
Finden Sie heraus, welche Aussagen genau gelten und schreiben Sie
|
||||
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie
|
||||
schulbuchmäßige Beweise dieser Aussagen auf.
|
||||
\end{aufgabe}
|
||||
|
||||
|
@ -5,12 +5,12 @@
|
||||
|
||||
\section{Orthogonale und unitäre Abbildungen}
|
||||
|
||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits „orthogonale
|
||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
|
||||
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
|
||||
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
|
||||
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
||||
folgende Situation.
|
||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
|
||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
|
||||
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
|
||||
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
|
||||
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
|
||||
die folgende Situation.
|
||||
|
||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
@ -30,19 +30,19 @@ folgende Situation.
|
||||
\]
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
|
||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
|
||||
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
|
||||
Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
|
||||
Standardskalarprodukt erhält. Damit ist klar, dass
|
||||
Definition~\vref{defn-orthoTraf} („orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands“) ein Spezialfall von
|
||||
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands'') ein Spezialfall von
|
||||
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
|
||||
vorliegende Skript einigermaßen konsistent!
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}
|
||||
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
|
||||
„orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands“
|
||||
``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
|
||||
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
|
||||
eine Matrix die an Achsen dreht oder spiegelt.
|
||||
\end{bsp}
|
||||
@ -52,13 +52,13 @@ folgende Situation.
|
||||
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
|
||||
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
|
||||
\[
|
||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
|
||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
|
||||
\]
|
||||
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
|
||||
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
|
||||
\end{aufgabe}
|
||||
|
||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
|
||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
|
||||
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
|
||||
unitär. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
@ -80,18 +80,18 @@ folgende Situation.
|
||||
\video{13-3}
|
||||
\end{proof}
|
||||
|
||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
|
||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}
|
||||
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
|
||||
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
|
||||
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
|
||||
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
|
||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
|
||||
infrage.
|
||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
|
||||
Frage.
|
||||
\end{rem}
|
||||
|
||||
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
|
||||
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
|
||||
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
|
||||
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
|
||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
|
||||
\[
|
||||
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
|
||||
@ -107,14 +107,14 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
|
||||
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
|
||||
Transformation eine Gruppe bilden.
|
||||
|
||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
|
||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
|
||||
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
|
||||
nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
|
||||
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
|
||||
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
|
||||
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
|
||||
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
|
||||
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
|
||||
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
|
||||
\index{unitäre Gruppe!eines unitären Vektorraumes}.
|
||||
\end{defn}
|
||||
|
||||
@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
|
||||
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
||||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
|
||||
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
||||
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
||||
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||
@ -139,7 +139,7 @@ beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||
wie immer für die komplex-konjugierte Matrix.
|
||||
\end{aufgabe}
|
||||
|
||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
|
||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
|
||||
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
|
||||
erweitern.
|
||||
|
||||
@ -148,12 +148,12 @@ erweitern.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
|
||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
|
||||
A^t$ gilt.
|
||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
|
||||
$A^{-1} = A^t$ gilt.
|
||||
|
||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
|
||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
|
||||
\overline{A^t}$ gilt.
|
||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
|
||||
$A^{-1} = \overline{A^t}$ gilt.
|
||||
\end{enumerate}
|
||||
\end{defn}
|
||||
|
||||
@ -165,16 +165,17 @@ erweitern.
|
||||
\mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
|
||||
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
|
||||
\mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
|
||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
|
||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
|
||||
\end{align*}
|
||||
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
|
||||
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
|
||||
Der
|
||||
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
|
||||
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
|
||||
Gruppen handelt.
|
||||
\end{notation}
|
||||
|
||||
\begin{proposition}[Einfache Eigenschaften]
|
||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯
|
||||
n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
|
||||
$A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||
\begin{enumerate}
|
||||
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
|
||||
|
||||
@ -195,9 +196,9 @@ erweitern.
|
||||
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
|
||||
\]
|
||||
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
|
||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber genau
|
||||
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
|
||||
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber
|
||||
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
|
||||
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
|
||||
betrachte dann $A · A^t$.
|
||||
\end{proof}
|
||||
@ -242,12 +243,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
|
||||
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
|
||||
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
|
||||
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
|
||||
die orthogonalen $2⨯2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||||
die orthogonalen $2⨯ 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||||
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
|
||||
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||
|
||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
|
||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, sodass folgende
|
||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
|
||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
|
||||
Gleichung gilt.
|
||||
\[
|
||||
A =
|
||||
@ -273,15 +274,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||
\end{erkl}
|
||||
|
||||
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
|
||||
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
|
||||
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
|
||||
sind.
|
||||
|
||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
|
||||
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
|
||||
Blockgestalt hat
|
||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
|
||||
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
|
||||
folgende Blockgestalt hat
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
\Id_{a ⨯ a} & \\
|
||||
@ -291,8 +292,9 @@ sind.
|
||||
& & & & A_k \\
|
||||
\end{pmatrix}
|
||||
\]
|
||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils
|
||||
Einheitsmatrizen der entsprechenden Größe sind.
|
||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
|
||||
$\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
|
||||
entsprechenden Größe sind.
|
||||
\end{satz}
|
||||
|
||||
|
||||
@ -304,10 +306,11 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
|
||||
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
|
||||
einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
|
||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
|
||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
|
||||
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
|
||||
einen komplexen Vektorraum $V^ℂ$ wie folgt: Wir betrachten die Menge $V^ℂ :=
|
||||
V ⨯ V$ und definieren eine Addition durch komponentenweise Addition
|
||||
einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
|
||||
$V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
|
||||
Addition
|
||||
\[
|
||||
+ : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
|
||||
\]
|
||||
@ -315,62 +318,64 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
\[
|
||||
· : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
|
||||
\]
|
||||
Rechnen Sie nach, dass dies tatsächlich ein $ℂ$-Vektorraum ist, wen wir als
|
||||
Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
|
||||
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
|
||||
Vektorraumes} bezeichnen.
|
||||
Vektorraumes} bezeichnen.
|
||||
\end{konstruktion}
|
||||
|
||||
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
|
||||
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
|
||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
|
||||
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||
komplexifiziertem Vektorraum}
|
||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
|
||||
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||
komplexifiziertem Vektorraum}
|
||||
\[
|
||||
\overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
|
||||
\]
|
||||
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
|
||||
Vektorraum in seine Komplexifizierung}
|
||||
\[
|
||||
ι : V → V^ℂ, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||
ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||
\]
|
||||
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||
Teilmenge von $V^ℂ$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
|
||||
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||
Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
|
||||
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||
schreiben $\vec{v}^{\:ℂ}$.
|
||||
\end{notation}
|
||||
|
||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
|
||||
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
|
||||
nach, dass die komplexifizierte Basis $B^ℂ := \{ \vec{v}^{\:ℂ}_1, …,
|
||||
\vec{v}^{\:ℂ}_n \} ⊂ V^ℂ$ dann eine Basis von $V^ℂ$. Noch besser: wenn $f : V
|
||||
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
|
||||
Abbildung $f^ℂ : V^ℂ → V^ℂ$, sodass für alle Indizes $i$ gilt:
|
||||
$f^ℂ(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass $f^ℂ$
|
||||
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^ℂ$ die
|
||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
|
||||
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
|
||||
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
|
||||
$B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
|
||||
dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist,
|
||||
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
|
||||
$f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
|
||||
$f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass
|
||||
$f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die
|
||||
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
|
||||
Abbildung}.
|
||||
Abbildung}.
|
||||
\end{konstruktion}
|
||||
|
||||
\begin{beobachtung}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
|
||||
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ℂ = f^ℂ(\vec{v}^{\:ℂ})$ gilt.
|
||||
Vektor $\vec{v} ∈ V$ die Gleichheit
|
||||
$f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
|
||||
Gleichheiten
|
||||
\[
|
||||
\Mat^B_B(f) = \Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ) \quad\text{und}\quad
|
||||
χ_f(t) = χ_{f^ℂ}(t)
|
||||
\Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
|
||||
χ_f(t) = χ_{f^{ℂ}}(t)
|
||||
\]
|
||||
gelten. Insbesondere ist $\Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ)$ eine reelle Matrix und
|
||||
$χ_{f^ℂ}$ ist ein reelles Polynom. Außerdem ist $f^ℂ$ mit der Konjugation
|
||||
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^ℂ$ die
|
||||
Gleichung
|
||||
gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
|
||||
Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit
|
||||
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
|
||||
$\vec{v} ∈ V^{ℂ}$ die Gleichung
|
||||
\begin{equation}\label{eq:9-4-7-1}
|
||||
f^ℂ\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^ℂ\bigl( \vec{v} \bigr)}.
|
||||
f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
|
||||
\end{equation}
|
||||
\end{beobachtung}
|
||||
|
||||
@ -379,37 +384,40 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
|
||||
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
|
||||
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
|
||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
|
||||
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
|
||||
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
|
||||
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
|
||||
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
|
||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
|
||||
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
|
||||
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
|
||||
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
|
||||
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
|
||||
von $U$ liefert.
|
||||
|
||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
|
||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
|
||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
|
||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
|
||||
$f(U) ⊆ U$ ist.
|
||||
\end{lemma}
|
||||
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
|
||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach.
|
||||
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
|
||||
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
|
||||
keinen reellen Eigenwert hat.
|
||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
|
||||
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
|
||||
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
|
||||
Fall, dass $f$ keinen reellen Eigenwert hat.
|
||||
|
||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen
|
||||
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
|
||||
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende Rechnung zeigt, dass das
|
||||
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
|
||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
|
||||
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
|
||||
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende
|
||||
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
|
||||
Nullstelle ist,
|
||||
\[
|
||||
χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
|
||||
\overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
|
||||
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
|
||||
\]
|
||||
Ich betrachte jetzt für den Endomorphismus $f^ℂ$ einen Eigenvektor $\vec{v} =
|
||||
(\vec{v}_1, \vec{v}_2) ∈ V^ℂ$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
|
||||
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
|
||||
-\vec{v}_2) ∈ V^ℂ$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
|
||||
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig,
|
||||
ebenso die Menge
|
||||
Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
|
||||
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
|
||||
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
|
||||
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
|
||||
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
|
||||
ist dann $ℂ$-linear unabhängig, ebenso die Menge
|
||||
\[
|
||||
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
|
||||
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
|
||||
@ -417,8 +425,8 @@ $f|_U : U → U$ einen Isomorphismus von $U$ liefert.
|
||||
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
|
||||
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
|
||||
\begin{align*}
|
||||
f(\vec{v}_1) & = f^ℂ(\vec{v_1}) = f^ℂ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||
& = \frac{1}{2}·\left( f^ℂ(\vec{v}) + f^ℂ(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||
f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||
& = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||
& = a·\vec{v}_1 - b·\vec{v}_2.
|
||||
\end{align*}
|
||||
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
|
||||
|
@ -28,7 +28,7 @@
|
||||
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
|
||||
|
||||
\title{Lineare Algebra 2}
|
||||
\author{Prof.~Dr.~Stefan Kebekus}
|
||||
\author{Prof. Dr. Stefan Kebekus}
|
||||
|
||||
\DeclareMathOperator{\ad}{ad}
|
||||
\DeclareMathOperator{\Bij}{Bij}
|
||||
@ -93,6 +93,7 @@
|
||||
|
||||
|
||||
|
||||
|
||||
\begin{document}
|
||||
% spell checker language
|
||||
\selectlanguage{german}
|
||||
|
@ -7,7 +7,6 @@
|
||||
\usepackage{enumitem}
|
||||
\usepackage{hyperref}
|
||||
\usepackage[utf8]{inputenc}
|
||||
\usepackage[T1]{fontenc}
|
||||
\usepackage{newunicodechar}
|
||||
\usepackage{mathtools}
|
||||
\usepackage{varioref}
|
||||
@ -363,7 +362,10 @@
|
||||
% HYPENTATION
|
||||
%
|
||||
|
||||
\hyphenation{uni-tärer}
|
||||
\hyphenation{com-po-nents}
|
||||
\hyphenation{pos-i-tive}
|
||||
\hyphenation{Theo-rem}
|
||||
\hyphenation{Vojta}
|
||||
|
||||
|
||||
%
|
||||
|
Loading…
x
Reference in New Issue
Block a user