Compare commits

..

2 Commits
main ... main

Author SHA1 Message Date
dc56cc0ff6 Minimale Anpassungen in Abschnitt 2.1 und 2.2 2025-05-02 18:42:02 +02:00
07dfa95c9c Kleine Tippfehler ausgemerzt 2025-05-02 18:25:17 +02:00
13 changed files with 598 additions and 673 deletions

View File

@ -19,44 +19,3 @@ Quotientenvektorraums
Erzeugendensystem
Quotientenvektorräume
Repräsentantenniveau
Jordanscher
Matrixexponential
Matrixexponentials
Einsetzungsabbildung
Cayley-Hamilton
TFAE
Jordanblocks
Einsetzungsmorphismus
Abstandserhaltende
abstandserhaltend
metrikerhaltend
abstandserhaltenden
abstandserhaltender
abstandserhaltende
Definitheit
ONB
Kronecker-Delta
semidefinit
Bytestrings
Bilinearität
Semilinearität
Sesquilinearlinearform
Cayley
Sequilinearform
Dualräumen
Hom-Räumen
Maximumsnorm
Cauchy-Schwarzschen
Cauchy-Schwarzsche
Cauchy
Sceaux
Amandus
Orthonormalität
Identifikationen
semi-linear
Quotientenräume
Rückzugsabbildung
Determinanten-Multiplikationssatz
Komplexifizierung
komplexifizierten
komplexifizierte

View File

@ -7,48 +7,3 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QArthur Cayley (* 16. August 1821 in Richmond upon Thames, Surrey; † 26. Januar 1895 in Cambridge) war ein englischer Mathematiker.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSir William Rowan Hamilton (* 4. August 1805 in Dublin; † 2. September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine Einführung und Untersuchung der Quaternionen bekannt ist.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Absolute Homogenität] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Dreiecksungleichung] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q [Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann ergibt sich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen Begriff von „orthogonalen Unterraum“.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir werden in Abschnitt sec:dual sehen, wie die Begriffe zusammenhängen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des “Dualraum”.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVorlesung 12Einer der beliebtesten Begriffe der Vorlesung „Lineare Algebra I“ ist der des „Dualraum“.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem “orthogonalen Komplement” aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIn Bemerkung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q hatte ich schon versprochen, den Zusammenhang zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“ und dem „orthogonalen Komplement“ aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zu klären.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}

View File

@ -21,15 +21,15 @@ Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist.
Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist.
\end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
\begin{defn}[Diagonalisierbare Matrix]
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $n n$-Matrix $A$ heißt
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $(n n)$-Matrix $A$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, sodass $SAS^{-1}$ eine
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ GL_n(k)$, sodass $SAS^{-1}$ eine
Diagonalmatrix ist.
\end{defn}
@ -85,14 +85,14 @@ Punkte abgezogen wurden.}.
$$
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
$$
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
Also ist $\deg(g) = 6$ und die Nullstellen von $g$ sind $i$, $2$ und $3$
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
\end{erinnerung}
\section{Algebraische und geometrische Vielfachheit}
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun einen Skalar $λ ∈ k$ gegeben
habe, kann ich die folgenden zwei Zahlen betrachten.
\begin{itemize}
\item Die \emph{algebraische Vielfachheit von
@ -128,9 +128,9 @@ habe, kann ich die folgenden zwei Zahlen betrachten.
$$
\end{prop}
\begin{proof}
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
Sei ein Skalar $λ$ gegeben. Falls die geometrische Vielfachheit von $λ$ gleich
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
größer als Null. Das bedeutet: Es gibt eine lineare unabhängige (angeordnete)
größer als Null. Das bedeutet: Es gibt eine linear unabhängige (angeordnete)
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
Matrix von der Form

View File

@ -9,7 +9,7 @@
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
sodass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest,
sodass die dazugehörige Matrix eine besonders einfache Gestalt hat -- zumindest,
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
@ -62,7 +62,7 @@ auch eine Menge Videos auf
\end{bsp}
\begin{defn}[Jordansche Normalform]
Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $n n$-Matrix $A =
Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $(n n)$-Matrix $A =
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
anderen Blöcke gleich Null sind.
@ -110,13 +110,13 @@ Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
\begin{satz}[Jordansche Normalform]\label{satz:JNF}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
$\mathcal{B}$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
$B$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
Normalform hat.
\end{satz}
\begin{notation}
Situation wie in Satz~\ref{satz:JNF}. Eine
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $B$
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
hat.
\end{notation}
@ -139,7 +139,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ $
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls eine Zahl $m ∈ $
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
solche Zahl $m$ heißt \emph{Nilpotenzindex von
$f$}\index{Nilpotenzindex!Endomorphismus}.
@ -148,7 +148,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Matrizen]
Es sei $k$ ein Körper, es sei $n ∈ $ eine Zahl und $A$ eine $( n n)$-Matrix
mit Werten in $k$. Nenne die Matrix $A$
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ $ existiert,
\emph{nilpotent}\index{nilpotent!Matrix}, falls eine Zahl $m ∈ $ existiert,
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
\end{defn}
@ -165,7 +165,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{beobachtung}
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ Gl(n, k)$, sodass $N :=
Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ GL(n, k)$, sodass $N :=
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
$$
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
@ -272,7 +272,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
0 & A
\end{array}\right).
$$
Es ist $χ_f(t) = (t-λ)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
Es ist $χ_f(t) = (λ-t)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
Nullstelle des Polynoms $χ_A$.
@ -355,7 +355,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
\begin{align*}
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
\\
\vdots \\
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
\end{align*}
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
@ -404,7 +404,7 @@ Jordansche Normalform zu zeigen. Die Korollare~\ref{kor:2-2-11} und
die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
Jordansche Normalform hat, genügt es, eine Basis zu finden, sodass die Matrix
$N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_\Id_{W_i}$ Jordansche
Normalform hat (… denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche
Normalform hat (…denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche
Normalform)
\end{enumerate}
@ -626,7 +626,8 @@ zur „dualen Partition“ übergehen.
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
die Vektoren
\[
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
v^p_{m_p-a}
\]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.

View File

@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{lem}
\begin{proof}[Beweis als Übungsaufgabe]
Schreibe wieder einmal $J(λ,n) = λ·\Id_{nn} + J(0,n)$ und
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n n} + J(0,n)$ und
\[
J(λ,n)^p =\bigl( λ·\Id_{nn} + J(0,n) \bigr)^p
J(λ,n)^p =\bigl( λ·\Id_{n n} + J(0,n) \bigr)^p
\]
Beachten Sie, dass die Matrizen $λ·\Id_{nn}$ und $J(0,n)$ kommutieren,
Beachten Sie, dass die Matrizen $λ·\Id_{n n}$ und $J(0,n)$ kommutieren,
dass also die Gleichheit
\[
λ·\Id_{nn}·J(0,n) = λ·J(0,n)·\Id_{nn}
λ·\Id_{n n}·J(0,n) = λ·J(0,n)·\Id_{n n}
\]
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{beobachtung}
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
effizient eine invertierbare Matrix $S ∈ GL_n()$ finden, sodass $B :=
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
Es sei $A$ eine beliebige quadratische $(n n)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\]
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\subsection{Wiederholung}
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
\[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}.
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}
\]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
$(nn)$-Matrix $A$ über den komplexen Zahlen, definiere ich
$(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\]
Dabei sei $A⁰$ stets die $(nn)$-Einheitsmatrix. Diese Reihe konvergiert in
dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert
in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung
\[
\exp : \Mat_{nn}() → \Mat_{nn}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n,
\exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n
\]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
\begin{bsp}
Es sei $A$ eine komplexe $(nn)$-Diagonalmatrix,
Es sei $A$ eine komplexe $(n n)$-Diagonalmatrix,
\[
A = \begin{pmatrix}
λ_1 & & & 0 \\
& λ_2 & \\
& & \ddots \\
0 & & & λ_n
\end{pmatrix}.
\end{pmatrix}
\]
Dann ist
\[
@ -192,14 +192,15 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\]
\end{bsp}
Etwas weitergehende Beispiele finden Sie als
Etwas
weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n
n)$-Matrizen.
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe
$(n n)$-Matrizen.
\begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt
@ -207,8 +208,8 @@ Matrixexponentials.
\exp(A+B)=\exp(A)·\exp(B).
\]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(nn)$-Matrix $S$
ist
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix
$S$ ist
\[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\]
@ -216,40 +217,40 @@ Matrixexponentials.
\end{fakt}
\begin{beobachtung}
Wenn $A$ irgendeine komplexe $(nn)$-Matrix ist, dann kommutieren die Matrizen
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[
\Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\Id_{n n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(nn)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
gilt.
$(n n)$-Matrix $A$ stets invertierbar ist, und dass
$\exp(A)^{-1} = \exp(-A)$ gilt.
\end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differenzialgleichungssysteme}
\section{Lineare, homogene Differentialgleichungssysteme}
\subsection{Erinnerung}
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, sodass für alle $t ∈ $ gilt: $y'(t)
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
Sie, dass es nur eine solche Funktion gibt:
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
$$
y(t) = \exp(t·a)·y_0.
$$
Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differenzialgleichungssysteme}
\subsection{Lineare, homogene Differentialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(nn)$-Matrix $A$ und ein
Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
…, $y_n : $, sodass für alle $t ∈ $ gilt:
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$
und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare
Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
\[
\begin{pmatrix}
y'_1(t) \\
@ -264,7 +265,7 @@ Vektor $\vec{y}_0 ∈ ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1
y_2(t) \\
\vdots \\
y_n(t)
\end{pmatrix}.
\end{pmatrix}
\]
Außerdem soll
\[
@ -278,8 +279,8 @@ Außerdem soll
\]
sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als
\[
\begin{pmatrix}
@ -298,12 +299,12 @@ sein.
\end{bsp}
\subsection{Differenzialgleichungen höherer Ordnung}
\subsection{Differentialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : $,
sodass für alle $t ∈ $ gilt:
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
$y : $, so dass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation}
@ -343,9 +344,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
y_0 \\
y'_0 \\
y''_0
\end{pmatrix}.
\end{pmatrix}
\]
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp}

View File

@ -18,8 +18,9 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
``Polynome''.
\begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
@ -44,15 +45,15 @@ aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp}
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
$t$, $$, $$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
des endlichen Körpers $𝔽_2$.
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
Selbstabbildungen des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
@ -67,33 +68,22 @@ des endlichen Körpers $𝔽_2$.
\]
genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
\Mat(nn, k)$ durch $s(A) = p(A)$.
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
Matrix $p(A)$ und eine
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
\end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
GL_n(k)$ haben, dann ist
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
Matrix $S ∈ GL_n(k)$ haben, dann ist
\[
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\]
\end{beobachtung}
Der Satz von Cayley\footnote{Arthur Cayley (* 16.~August 1821 in Richmond upon
Thames, Surrey; † 26.~Januar 1895 in Cambridge) war ein englischer Mathematiker.
Er befasste sich mit sehr vielen Gebieten der Mathematik von der Analysis,
Algebra, Geometrie bis zur Astronomie und Mechanik, ist aber vor allem für seine
Rolle bei der Einführung des abstrakten Gruppenkonzepts
bekannt.}-Hamilton\footnote{Sir William Rowan Hamilton (* 4.~August 1805 in
Dublin; † 2.~September 1865 in Dunsink bei Dublin) war ein irischer Mathematiker
und Physiker, der vor allem für seine Beiträge zur Mechanik und für seine
Einführung und Untersuchung der Quaternionen bekannt ist.} sagt, dass jeder
Endomorphismus Nullstelle seines eigenen charakteristischen Polynoms ist. Wie
cool ist das?
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
Polynom des Endomorphismus $f$. Dann ist
@ -106,11 +96,10 @@ cool ist das?
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
\end{bemerkung}
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
\video{6-1}
\end{proof}
@ -119,22 +108,22 @@ cool ist das?
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7}%
\begin{beobachtung}\label{beob:4-0-7}
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder ein
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist.
\end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8}%
\begin{beobachtung}\label{beob:4-0-8}
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
:= p_1-p_2$. Dann gilt Folgendes.
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
$q := p_1-p_2$. Dann gilt Folgendes.
\begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
@ -162,7 +151,7 @@ Diese Beobachtungen legen folgende Definition nahe.
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
das Minimalpolynom eindeutig bestimmt ist.
dies Minimalpolynome eindeutig bestimmt ist.
\end{bemerkung}
\begin{bsp}
@ -173,9 +162,9 @@ Diese Beobachtungen legen folgende Definition nahe.
5 & 1 & 0 \\
0 & 5 & 0 \\
0 & 0 & 5
\end{pmatrix}.
\end{pmatrix}
\]
Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das
Da die Matrix $A$ kein Vielfaches von $\Id_{3 3}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
\[
A² =
@ -183,9 +172,9 @@ Diese Beobachtungen legen folgende Definition nahe.
25 & 10 & 0 \\
0 & 25 & 0 \\
0 & 0 & 25
\end{pmatrix}.
\end{pmatrix}
\]
Also ist $-10·A+25·\Id_{33} = 0$. Also ist
Also ist $-10·A+25·\Id_{3 3} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
hat. Das muss dann wohl das Minimalpolynom sein.
\end{bsp}
@ -201,13 +190,13 @@ Diese Beobachtungen legen folgende Definition nahe.
Minimalpolynom.
\end{beobachtung}
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
\end{satz}
\begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
@ -218,9 +207,9 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate}
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
und $f$ als Nullstelle hat. Also hat
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
normiert ist und $f$ als Nullstelle hat. Also hat
\[
r(t) = q(t) - t^d·p(t)
\]
@ -231,8 +220,8 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ ein Körper, $A$ eine $(nn)$-Matrix mit Werten in $k$ und $λ ∈ k$.
TFAE:
Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und
$λ ∈ k$. TFAE:
\begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
@ -250,7 +239,7 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
vollständig beantworten.
\begin{satz}[Beschreibung des Minimalpolynoms über $$]
Es sei $A$ eine $(nn)$-Matrix über den komplexen Zahlen. Bezeichne die
Es sei $A$ eine $(n n)$-Matrix über den komplexen Zahlen. Bezeichne die
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
\[
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.

View File

@ -7,12 +7,12 @@
\section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann
beliebige Vektorräume.
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir
dann beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -49,16 +49,17 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
oder \emph{metrikerhaltend bezüglich der Euklidischen
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
falls gilt:
\[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n.
@ -86,8 +87,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich
der Euklidischen Norm. Dann gilt Folgendes.
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
@ -101,20 +102,20 @@ Abbildungen.
\end{enumerate}
\end{lem}
\begin{proof}
Wir beweisen die Teilaussage $φ$ ist injektiv“ von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
φ(\vec{v}_2)$. Dann ist
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
\[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage $φ$
ist surjektiv beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor}
@ -130,16 +131,16 @@ enorm.
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung
\[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
\]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
@ -161,10 +162,10 @@ Transformation eine Gruppe bilden.
\end{defn}
\section{Das Standardskalarprodukt auf dem $^n$}
\section{Das Standard-Skalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das Standardskalarprodukt auf dem $^n$.
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -196,30 +197,30 @@ Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes.
Es sei $n ∈ $ eine Zahl. Dann gilt folgendes:
\begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
\]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
\]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x},
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
\vec{x} = \vec{0}$.
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt
$\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt
$\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
\item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
@ -241,9 +242,9 @@ scheint.
\begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
bezeichnet.
Freunden: ONB), falls für alle $i, j$ gilt, dass
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
Kronecker-Delta bezeichnet.
\end{defn}
\begin{bsp}
@ -295,12 +296,12 @@ Eine Menge, wie wir sofort sehen werden.
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
\end{align*}
Damit ist das Lemma bewiesen.
\end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
@ -314,9 +315,9 @@ Eine Menge, wie wir sofort sehen werden.
\section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5}
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
vollständig beschreiben.
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden
Abbildungen) vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
@ -336,7 +337,7 @@ vollständig beschreiben.
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
@ -373,8 +374,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit orthogonale
Gruppe zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2

View File

@ -8,26 +8,26 @@
\section{Bilinearformen und Skalarprodukte}
\label{sec:skalar}
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
diskutieren. Hier kommen alle relevanten Definitionen.
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
$b: VV → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
$b: V V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
∈ V $ und für alle $λ ∈ k$ gilt
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
\[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}).
\]
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\item[Linearität in der zweiten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) .
@ -35,45 +35,47 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\end{description}
\end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $nn$-Matrix $B$.
Dann ist die Abbildung
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w}
\]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bin nicht
mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder $^t•$ geschrieben habe.
Beim Tippen schaut $^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
$\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1
1$-Matrizen mit den Skalaren identifizieren.
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder
$^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser
aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind,
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$
ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren
identifizieren.
\end{bsp}
\begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : VV → k$
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
\vec{x})$ gilt.
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
$b : V V → k$ heißt
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
gilt.
\end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
Ganz wie in Beobachtung~\ref{bem:6-1-2} bildet die Menge der symmetrischen
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
Wenn eine $nn$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}.
@ -84,22 +86,21 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit}, falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x},
\vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
\vec{0}$.
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
$b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = $
und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei
anderen Körpern (etwa $k = $) ist gar nicht klar, was die Aussage
$b(\vec{x}, \vec{x})0$“ bedeuten soll.
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
$k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll.
\end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
@ -123,10 +124,10 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\end{pmatrix}, \quad
\begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2
\end{pmatrix}.
\end{pmatrix}
\]
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
semidefinit“, „positiv definit“ und … ?
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
``positiv semidefinit'', ``positiv definit'' und … ?
\end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
@ -137,17 +138,17 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W W}$ wieder
ein Skalarprodukt.
reeller Vektorraum und $\langle •, • \rangle$ sei ein
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
$\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt.
\end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration}%
\begin{bsp}[Integration]\label{bsp:Integration}
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
\[
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
\]
ist ein Skalarprodukt.
\end{bsp}
@ -155,46 +156,46 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung Lineare
Algebra I jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
Das gibt es im Leben öfter.
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
beschreiben. Das gibt es im Leben öfter.
\begin{quote}
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote}
Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1}%
\begin{situation}\label{sit:6-3-1}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : VV → k$ gegeben.
Dann betrachte die $nn$-Matrix
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$
gegeben. Dann betrachte die $nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\]
\end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann
betrachte die Bilinearform
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte
die Bilinearform
\[
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w})
\]
\end{konstruktion}
@ -208,10 +209,10 @@ Wir betrachten die folgende Situation.
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
Damit beweisen Sie unter anderem Folgendes: Gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe}
\begin{beobachtung}
@ -220,8 +221,8 @@ Wir betrachten die folgende Situation.
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
Bilinearformen endlich-dimensional sind. Genauer:
\begin{align*}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$nn$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$nn$-Matrizen}) = \frac{n(n+1)}{2}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n n$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n n$-Matrizen}) = \frac{n(n+1)}{2}
\end{align*}
\end{beobachtung}
@ -230,7 +231,7 @@ Wir betrachten die folgende Situation.
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform
\[
b : VV → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
\]
Dann ist
\[
@ -247,8 +248,8 @@ Wir betrachten die folgende Situation.
\subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
@ -266,9 +267,9 @@ Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_
:= \Mat_{B_{}}(b)$. Dann ist
$V$, eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
$M_{} := \Mat_{B_{}}(b)$. Dann ist
\[
M_1 = S^t·M_2·S.
\]
@ -281,27 +282,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
Definition von „positiv definit“. Der praktische Erfolg der folgenden
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
den komplexen Zahlen. Eine
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: VV → $, sodass Folgendes gilt.
ist eine Abbildung $b: V V → $, so dass Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt
@ -323,18 +324,18 @@ Definitionen gibt der Sache aber recht.
$x+i·y ↦ x - i·y$.
\end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
Menge der Sesquilinearformen einen reellen Vektorraum.
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige $nn$-Matrix $B$.
Dann ist die Abbildung
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}}
@ -359,24 +360,24 @@ Definitionen gibt der Sache aber recht.
\end{bsp}
\begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : VV →
$ heißt
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
$b : V V → $ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
\overline{b(\vec{y},\vec{x})}$ gilt.
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
Es sei $b : V V → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
@ -385,12 +386,12 @@ Definitionen gibt der Sache aber recht.
Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
komplexer Vektorraum.
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
\emph{kein} komplexer Vektorraum.
\end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
@ -399,23 +400,23 @@ Definitionen gibt der Sache aber recht.
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
tun?
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit}, falls für alle $\vec{x} ∈ V$ die
semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit}, falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
\vec{0}$.
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform.
@ -453,8 +454,8 @@ Definitionen gibt der Sache aber recht.
Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt.
\]
ist ein Skalarprodukt.
\end{bsp}
@ -487,11 +488,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis $B
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize}
\item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die
\item Gegeben eine Sesquilinearform $b : V V → k$, dann betrachte die
$nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
@ -500,7 +501,7 @@ gehen, geben wir nur die Ergebnisse an.
\item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die
Sesquilinearlinearform
\[
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
\]
\end{itemize}
@ -513,12 +514,12 @@ $$-Vektorräumen erhalten,
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Sesquilinearform $b : VV → k$ und zwei angeordnete Basen,
$V$, eine Sesquilinearform $b : V V → k$ und zwei angeordnete Basen,
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann
ist
\[

View File

@ -5,41 +5,42 @@
\label{sec:7}
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
Standardskalarprodukt auf dem $^n$ kennengelernt. Im Kapitel~\ref{sec:bskalar}
haben wir diesen Begriff auf beliebige (endlich-dimensionale) reelle und
komplexe Vektorräume verallgemeinert. In diesem Kapitel möchte ich Vektorräume
mit Skalarprodukt systematisch diskutieren, und Begriffe wie „Norm“, „Abstand“,
„Metrik“ und „Orthogonalität“, die wir zuerst am Beispiel des $^n$
kennengelernt haben, jetzt in größerer Allgemeinheit systematisch einführen.
Zuerst einmal kommen jede Menge Definitionen und eine langweilige Rechnung,
deshalb auch im Moment kein Erklärvideo.
Standardskalarprodukt auf dem $^n$ kennen gelernt. Im
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren,
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die
wir zuerst am Beispiel des $^n$ kennen gelernt haben, jetzt in größerer
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein
Erklärvideo.
\begin{defn}[Euklidische und unitäre Vektorräume]
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
symmetrischer Bilinearform) heißt \emph{Euklidischer
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum zusammen
mit einem Skalarprodukt (=positiv definiter Hermitescher Sequilinearform)
heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
\end{defn}
\section{Normen auf Vektorräumen}
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für beliebige
reelle oder komplexe Vektorräume, und für beliebige Mengen.
Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
\begin{erinnerung}[Betrag einer komplexen Zahl]
Gegeben eine komplexe Zahl $λ = a+b·i ∈ $, dann nennen wir die reelle Zahl
$\sqrt{+} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen Zahl}
oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen Zahl}.
Man schreibt auch $\|λ\|$ oder $|λ|$.
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$.
\end{erinnerung}
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}%
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}
Es sei $k = $ oder $k = $ oder $k = $ und es sei $V$ ein $k$-Vektorraum.
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, sodass
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, so dass
folgende Eigenschaften gelten.
\begin{description}
\item[Absolute Homogenität] Für alle $\vec{x} ∈ V$ und alle $λ ∈ k$ gilt:
@ -54,15 +55,15 @@ reelle oder komplexe Vektorräume, und für beliebige Mengen.
\end{defn}
\begin{notation}[Normierte Vektorräume]
\index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $. Ein
normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein $k$-Vektorraum $V$
zusammen mit einer Norm $\|\|$.
\index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $.
Ein normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein
$k$-Vektorraum $V$ zusammen mit einer Norm $\|\|$.
\end{notation}
\begin{notation}[Normierte Vektorräume]
\index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es sei
$\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor $\vec{v}
V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
\index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es
sei $\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
\end{notation}
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
@ -78,17 +79,27 @@ unmittelbar aus der Definition folgen.
Also ist $\| \vec{x} \|0$ für alle $\vec{x} ∈ V$.
\end{bemerkung}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
Als Erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennengelernt haben,
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
sofort Beispiele für Normen.
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}%
Wenn $\bigl( V, \langle•,•\rangle\bigr)$ irgendein Euklidischer oder unitärer
Vektorraum ist, dann definiert die Abbildung
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}
Wenn $\bigl( V, \langle\rangle\bigr)$ irgendein Euklidischer oder
unitärer Vektorraum ist, dann definiert die Abbildung
\[
\|\| : V → , \quad \vec{x}\sqrt{\langle \vec{x}, \vec{x} \rangle}
\]
@ -96,33 +107,29 @@ sofort Beispiele für Normen.
\end{satz}
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige
„Cauchy\footnote{\href{https://de.wikipedia.org/wiki/Augustin-Louis_Cauchy}{Baron
Augustin-Louis Cauchy} (* 21.~August 1789 in Paris; † 23.~Mai 1857 in Sceaux)
war ein französischer
Mathematiker.}-Schwarzsche\footnote{\href{https://de.wikipedia.org/wiki/Hermann_Amandus_Schwarz}{Karl
Hermann Amandus Schwarz} (* 25.~Januar 1843 in Hermsdorf, Provinz Schlesien; †
30.~November 1921 in Berlin) war ein deutscher Mathematiker. } Ungleichung“, die
sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung,
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y} ∈ V$
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y}
∈ V$
\[
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
\]
\end{satz}
\begin{proof}[Beweis durch unangenehme Rechnerei]
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für $\vec{y}
= \vec{0}$ ist die Aussage klar. Sei also $\vec{y} ≠ 0$. Dann ist wegen
positiver Definitheit der Hermiteschen Form
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y}0$. Dann ist
wegen positiver Definitheit der Hermiteschen Form
\begin{align*}
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
\end{align*}
Jetzt betrachte den Spezialfall wo $λ= \frac{\overline{\langle \vec{y},
\vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}$ ist. Dann ergibt sich
Jetzt betrachte den Spezialfall wo
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y},
\vec{y} \rangle}$ ist. Dann ergibt sich
\begin{align*}
&& 0 &\langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
&& 0 &\langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle\\
@ -133,10 +140,10 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
\end{proof}
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
Um zu zeigen, dass die Abbildung $\|\| : V → $ aus Satz~\ref{satz:sin}
tatsächlich eine Norm ist, müssen wir die drei Eigenschaften „absolute
Homogenität“, „Dreiecksungleichung“ und „positive Definitheit“ zeigen. Auf
geht's.
Um zu zeigen, dass die Abbildung $\|\| : V → $ aus
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive
Definitheit'' zeigen. Auf geht's.
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
Vektor und es sei $λ$ irgendein Skalar. Dann ist
@ -149,7 +156,7 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
Damit ist die absolute Homogenität gezeigt.
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
beliebige Vektoren. Dann folgt mithilfe der Cauchy-Schwarzschen Ungleichung
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung
folgendes.
\begin{align*}
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
@ -166,16 +173,6 @@ sie vielleicht aus der Vorlesung „Analysis“ schon kennen.
Satz~\ref{satz:sin} bewiesen.
\end{proof}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Satz~\ref{satz:sin} gilt der Satz des Pythagoras: gegeben Vektoren $\vec{x}$
und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Normen kommen}
@ -184,9 +181,9 @@ die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
ein wenig Analysis voraussetzen).
\begin{bsp}[Operatornorm]\label{bsp:opNorm}%
Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$ zwei
endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
\begin{bsp}[Operatornorm]\label{bsp:opNorm}
Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
Abbildung
\[
\|\|_{\operatorname{op}} : \Hom_{}(V,W) → , \quad %
@ -222,7 +219,7 @@ Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
Beispiele.
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}%
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}
Die Manhattan-Norm auf dem Vektorraum $^n$ ist gegeben als
\[
\|\|_1 : ^n → , \quad
@ -243,29 +240,29 @@ Beispiele.
\end{bsp}
\begin{bsp}[Einschränkungen von Normen]
Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$ sei ein
Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma auf $W$.
Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$
sei ein Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma
auf $W$.
\end{bsp}
\section{Metriken}
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir
mithilfe einer Norm einen Begriff von „Abstand“ oder „Metrik“ definieren. Der
Begriff „Metrik“ ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
\begin{defn}[Metrik]
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung $d:
M M → $, sodass Folgendes gilt.
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung
$d: M M → $, so dass Folgendes gilt.
\begin{description}
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) +
d(y,z)$
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$.
Zusätzlich gilt: $d(x,y) = 0 ⇔ x = y$.
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$. Zusätzlich
gilt: $d(x,y) = 0 ⇔ x = y$.
\end{description}
\end{defn}

View File

@ -3,34 +3,36 @@
\chapter{Orthogonale Projektion}
In diesem Kapitel sei $\bigl( V, \langle•,•\rangle\bigr)$ stets ein euklidischer
oder unitärer Vektorraum. Wenn keine Verwechslungsgefahr besteht, werden wir
die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$ bezeichnen.
In diesem Kapitel sei $\bigl( V, \langle\rangle\bigr)$ stets ein
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht,
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$
bezeichnen.
\section{Orthogonalität und Orthonormalität}
Der zentrale Begriff in diesem Kapitel ist „orthogonal“, also „steht senkrecht
aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des
Skalarproduktes.
\begin{defn}[Orthogonal]\label{def:orth}%
Es sei $\bigl( V, \langle,•\rangle\bigr)$ ein Euklidischer oder unitärer
\begin{defn}[Orthogonal]\label{def:orth}
Es sei $\bigl( V, \langle\rangle\bigr)$ ein Euklidischer oder unitärer
Vektorraum.
\begin{enumerate}
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
\emph{$\vec{x}$ und $\vec{y}$ sind orthogonal
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
Als Kurzschreibweise: $\vec{x} \perp \vec{y}$.
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung $\langle \vec{u},
\vec{w} \rangle = 0$ gilt.
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt.
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann definieren
wir das \emph{orthogonale Komplement von $U$}\index{orthogonales Komplement}
als
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales
Komplement} als
\[
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
\vec{u} ∈ U \}.
@ -43,10 +45,10 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
\]
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung $\|
\vec{v}_i \| = 1$ gilt. Falls eine orthonormale Familie zusätzlich eine
Basis ist, dann nenne die Familie
\emph{Orthonormalbasis}\index{Orthonormalbasis} und schreibe kurz: „ONB“.
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie
zusätzlich eine Basis ist.
\end{enumerate}
\end{defn}
@ -58,15 +60,15 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
\begin{beobachtung}
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn $\vec{v} \perp
\vec{u}_i$ ist für alle Indizes $i ∈ I$.
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$.
\end{beobachtung}
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}%
Wir hatten in Kapitel 12 der Vorlesung „Lineare Algebra I“ bereits einen
Begriff von „orthogonalen Unterraum“. Die Situation war die, dass es einen
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser Situation
war der „orthogonale Unterraum“ der Raum
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser
Situation war der ``orthogonale Unterraum'' der Raum
\[
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
\]
@ -76,10 +78,11 @@ aufeinander“. Wir definieren „orthogonal“ mithilfe des Skalarproduktes.
\begin{bsp}[Der Standardraum $^n$]
Betrachten den Vektorraum $^n$ mit dem Standardskalarprodukt. Dann ist die
Standardbasis eine Orthonormalbasis. Die Untervektorräume $\langle \vec{e}_1,
\vec{e}_2 \rangle$ und $\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal.
Das orthogonale Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2
\rangle$ ist $\langle \vec{e}_3, …, \vec{e}_n \rangle$.
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
\end{bsp}
@ -89,7 +92,7 @@ Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
Es sei $\bigl( V, \langle,•\rangle\bigr)$ ein euklidischer oder unitärer
Es sei $\bigl( V, \langle\rangle\bigr)$ ein euklidischer oder unitärer
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
$\vec{v}_1 \ne \vec{0}$. Setze
\[
@ -97,18 +100,19 @@ kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
\]
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch $\{\vec{v}_1,
\vec{v}\,'_2\}$.
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch
$\{\vec{v}_1, \vec{v}\,'_2\}$.
\end{bsp}
Wir bauen das „Rezept, um Vektoren orthogonal machen“ ein wenig aus und erhalten
einen „Basisergänzungssatz für Orthonormalbasen“.
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}%
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und
sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$ ergänzen.
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$
ergänzen.
\end{satz}
\begin{proof}
\video{11-1}
@ -122,35 +126,38 @@ einen „Basisergänzungssatz für Orthonormalbasen“.
\begin{beobachtung}[Gram-Schmidt Verfahren]
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
ein effektives, induktives Verfahren um aus einer gegebenen Basis $\{
\vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB $\{ \vec{u}_1, …, \vec{u}_n \}$
zu konstruieren. Man startet so:
ein effektives, induktives Verfahren um aus einer gegebenen Basis
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so:
\begin{itemize}
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
\item Definiere. $\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1
\rangle· \vec{u}_1$.
\item Definiere.
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle·
\vec{u}_1$.
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
\end{itemize}
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
folgt vor:
\begin{itemize}
\item Definiere. $\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle
\vec{v}_{k+1}, \vec{u}_j \rangle·\vec{u}_j$.
\item Definiere.
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1},
\vec{u}_j \rangle·\vec{u}_j$.
\item Normiere.
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
\end{itemize}
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für alle
Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen $\langle \vec{u}_1,
…, \vec{u}_i \rangle = \langle \vec{v}_1, …, \vec{v}_i \rangle$.
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …,
\vec{v}_i \rangle$.
\end{beobachtung}
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}%
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor $\vec{v}
∈ V$ eindeutig schreiben als
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor
$\vec{v} ∈ V$ eindeutig schreiben als
\[
\vec{v} = p(\vec{v}) + r(\vec{v}),
\]
@ -162,24 +169,24 @@ einen „Basisergänzungssatz für Orthonormalbasen“.
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als orthogonale
Projektion bezeichnen.
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale
Projektion'' bezeichnen.
\begin{beobachtung}[Orthogonale Projektion]
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
\[
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i.
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i
\]
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist $\ker p =
U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den Unterraum
$U$}\index{orthogonale Projektion}.
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den
Unterraum $U$}\index{orthogonale Projektion}.
\end{beobachtung}
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für $\vec{w}
∈ U$, $\vec{w} ≠ 0$ gilt mit Pythagoras die folgende Ungleichung
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für
$\vec{w} ∈ U$, $\vec{w}0$ gilt mit Pythagoras die folgende Ungleichung
\begin{align*}
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
&\| p(\vec{v})-\vec{v} \|².
@ -192,13 +199,13 @@ Projektion“ bezeichnen.
\subsection{Der Dualraum}
\label{sec:dual}
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung Lineare
Algebra I“ ist der des „Dualraum“. Alle Studenten lieben das. Ich erinnere:
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere:
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
finden, wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
Abbildungen, die die Gleichungen
@ -221,9 +228,9 @@ war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
$V^*$.
\begin{satz}\label{satz:8-3-1}%
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
euklidischer Vektorraum. Dann ist die Abbildung
\begin{satz}\label{satz:8-3-1}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung
\[
s: V → V^*, \quad \vec{v}\langle • ,\vec{v} \rangle
\]
@ -237,20 +244,20 @@ $V^*$.
\end{proof}
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
zwischen den „orthogonalen Unterräumen“ aus der Vorlesung „Lineare Algebra I“
und dem „orthogonalen Komplement“ aus Definition~\ref{def:orth} zu klären. Der
folgende Satz löst dieses Versprechen ein.
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären.
Der folgende Satz löst dieses Versprechen ein.
\begin{satz}[Orthogonales Komplement und orthogonale
Unterräume]\label{satz:8-3-3} Es sei $\bigl(V, \langle •, • \rangle \bigr)$
ein endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
Satz~\ref{satz:8-3-1}. Dann gilt Folgendes.
Satz~\ref{satz:8-3-1}. Dann gilt folgendes.
\begin{enumerate}
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen den
Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist $\dim U^\perp = \dim
U⁰$ (…nämlich gleich $\dim V - \dim U$).
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$).
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
Summe $V = U ⊕ U^\perp$.
@ -260,19 +267,19 @@ folgende Satz löst dieses Versprechen ein.
\video{12-3}
\end{proof}
\begin{kor}\label{kro:8-3-3}%
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit $\bigl( U^\perp
\bigr)^\perp = U$.
\begin{kor}\label{kro:8-3-3}
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit
$\bigl( U^\perp \bigr)^\perp = U$.
\end{kor}
\begin{proof}
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
Gleichheit folgt mithilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage$\vec{u}\bigl(
U^\perp \bigr)^\perp$“ ist dann per Definition äquivalent dazu, ist zu zeigen,
dass gilt:
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage
``$\vec{u}\bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent
dazu, ist zu zeigen, dass gilt:
\[
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp.
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp
\]
Das ist aber klar nach Definition von $U^\perp$.
\end{proof}
@ -286,14 +293,15 @@ folgende Satz löst dieses Versprechen ein.
\subsubsection{Unitäre Vektorräume}
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
den Fall von unitären Vektorräumen. Falls $\bigl(V, \langle •, • \rangle
\bigr)$ ein endlich-dimensionaler unitärer Vektorraum ist, dann ist die
Abbildung $s$ bijektiv und \emph{semi-linear}\index{semi-lineare Abbildung}.
Dabei bedeutet „semi-linear“, dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$
und alle Skalare $λ ∈ $ die Gleichungen
den Fall von unitären Vektorräumen. Falls
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle
Skalare $λ ∈ $ die Gleichungen
\[
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
f(λ·\vec{x}) = \overline{λ}·f(\vec{x})
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}).
\]
gelten.
@ -318,16 +326,17 @@ gelten.
\subsection{Quotientenräume}
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$ identifiziert,
der uns aus der Vorlesung „Lineare Algebra I“ vertraut war. Es gibt noch eine
andere kanonische Identifikation des orthogonalen Komplements mit einem
bekannten Vektorraum.
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit
einem bekannten Vektorraum.
\begin{satz}\label{satz:8-3-6}%
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
euklidischer Vektorraum und es sei $U ⊂ V$ ein Untervektorraum. Dann gibt es
einen kanonischen Isomorphismus zwischen dem Vektorraumquotienten
$\factor{V}{U}$ und dem orthogonalen Komplement $U^\perp$.
\begin{satz}\label{satz:8-3-6}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement
$U^\perp$.
\end{satz}
\begin{proof}
\video{12-4}
@ -346,33 +355,34 @@ bekannten Vektorraum.
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
wir „selbstadjungierte Abbildungen“ diskutieren. Zuallererst legen wir die
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die
Situation fest, die wir in diesem Abschnitt genau betrachten.
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}%
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und $\bigl(W, \langle •, •
\rangle_W \bigr)$ zwei endlich-dimensional euklidische Vektorräume. Die
kanonischen Identifikationen der Räume mit ihren Dualräumen bezeichnen wir mit
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren
Dualräumen bezeichnen wir mit
\[
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
\]
\end{situation}
\begin{erinnerung}
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung Lineare
Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich
\[
f^* : W^* → V^*, \quad φ ↦ φ◦f.
\]
\end{erinnerung}
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}%
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Betrachte das folgende Diagramm:
\begin{equation}\label{eq:8-5-3-1}
\begin{tikzcd}[column sep=3cm]
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
V^* & W^*. \arrow[l, "f^*\text{, Rückzugsabbildung}"]
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"]
\end{tikzcd}
\end{equation}
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
@ -380,26 +390,26 @@ Situation fest, die wir in diesem Abschnitt genau betrachten.
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und $f^*◦ s_W ◦
f$ besteht. Wir interessieren uns aber für Bedingungen, die Gleichheit der
Abbildungen sicherstellen! Dazu beobachten wir, dass die Abbildungen $s_V$
und $f^*◦ s_W ◦ f$ gleich sind, falls für alle $\vec{v} ∈ V$ die folgende
Gleichheit von Elementen im Dualraum $V^*$ gilt,
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen,
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
\begin{equation}\label{eq:8-5-3-2}
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v}).
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v})
\end{equation}
Das lässt sich explizit hinschreiben, indem ich die Definitionen von $s_V$,
$s_W$ und $f^*$ einsetze. Dann erhalte ich: Die Abbildungen $s_V$ und $f^*
s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die folgende Gleichheit von
Elementen im Dualraum $V^*$ gilt,
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$,
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
\begin{align*}
\langle •, \vec{v} \rangle_V %
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
\end{align*}
Das lässt sich noch einfacher formulieren: Die Abbildungen $s_V$ und $f^*◦ s_W
◦ f$ sind gleich, falls für alle $\vec{v}_1, \vec{v}_2 ∈ V$ die folgende
Gleichheit von Skalaren gilt,
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ sind gleich, falls für alle
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt,
\begin{align*}
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
@ -421,9 +431,9 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
wird mit dem Symbol $f^{\ad}$ bezeichnet.
\end{defn}
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}%
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Dann gilt Folgendes.
Dann gilt folgendes.
\begin{enumerate}
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
@ -439,7 +449,7 @@ Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
\sideremark{Vorlesung 13}\video{13-1}
\end{proof}
\begin{prop}\label{prop:8-4-6}%
\begin{prop}\label{prop:8-4-6}
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
@ -463,7 +473,7 @@ Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
unitäre Vektorräume.
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
Finden Sie heraus, welche Aussagen genau gelten und schreiben Sie
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie
schulbuchmäßige Beweise dieser Aussagen auf.
\end{aufgabe}

View File

@ -5,12 +5,12 @@
\section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
folgende Situation.
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
die folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
@ -30,19 +30,19 @@ folgende Situation.
\]
\end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands) ein Spezialfall von
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent!
\end{beobachtung}
\begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands''
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp}
@ -52,13 +52,13 @@ folgende Situation.
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
\]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes.
\begin{enumerate}
@ -80,18 +80,18 @@ folgende Situation.
\video{13-3}
\end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
\begin{rem}[Die Determinante]\label{rem:9-1-7}
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
infrage.
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
Frage.
\end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
@ -107,14 +107,14 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
\index{unitäre Gruppe!eines unitären Vektorraumes}.
\end{defn}
@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
@ -139,7 +139,7 @@ beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
wie immer für die komplex-konjugierte Matrix.
\end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern.
@ -148,12 +148,12 @@ erweitern.
\begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
A^t$ gilt.
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
$A^{-1} = A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
\overline{A^t}$ gilt.
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
$A^{-1} = \overline{A^t}$ gilt.
\end{enumerate}
\end{defn}
@ -165,16 +165,17 @@ erweitern.
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
\end{align*}
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
Der
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Gruppen handelt.
\end{notation}
\begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise $A ∈ \Mat(n
n, )$. Dann sind folgende Aussagen äquivalent.
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
@ -195,9 +196,9 @@ erweitern.
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber genau
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$.
\end{proof}
@ -242,12 +243,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
die orthogonalen $22$-Matrizen beschreibe. Um die Fallunterscheidung zu
die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, sodass folgende
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, so dass folgende
Gleichung gilt.
\[
A =
@ -273,15 +274,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
Blockgestalt hat
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
folgende Blockgestalt hat
\[
\begin{pmatrix}
\Id_{a a} & \\
@ -291,8 +292,9 @@ sind.
& & & & A_k \\
\end{pmatrix}
\]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{}$ jeweils
Einheitsmatrizen der entsprechenden Größe sind.
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
$\Id_{}$ jeweils jeweils Einheitsmatrizen der
entsprechenden Größe sind.
\end{satz}
@ -304,10 +306,11 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^$ wie folgt: Wir betrachten die Menge $V^ :=
V V$ und definieren eine Addition durch komponentenweise Addition
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge
$V^{} := V V$ und definieren eine Addition durch komponentenweise
Addition
\[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\]
@ -315,62 +318,64 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
\]
Rechnen Sie nach, dass dies tatsächlich ein $$-Vektorraum ist, wen wir als
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen.
Vektorraumes} bezeichnen.
\end{konstruktion}
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
\[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
\]
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung}
\[
ι : V → V^, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
ι : V → V^{}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\]
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$.
\end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
nach, dass die komplexifizierte Basis $B^ := \{ \vec{v}^{\:}_1, …,
\vec{v}^{\:}_n \} ⊂ V^$ dann eine Basis von $V^$. Noch besser: wenn $f : V
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
Abbildung $f^ : V^ → V^$, sodass für alle Indizes $i$ gilt:
$f^(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass $f^$
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^$ die
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist,
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt:
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}.
Abbildung}.
\end{konstruktion}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ = f^(\vec{v}^{\:})$ gilt.
Vektor $\vec{v} ∈ V$ die Gleichheit
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
\end{beobachtung}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten
\[
\Mat^B_B(f) = \Mat^{B^}_{B^{\:}}(f^) \quad\text{und}\quad
χ_f(t) = χ_{f^}(t)
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t)
\]
gelten. Insbesondere ist $\Mat^{B^}_{B^{\:}}(f^)$ eine reelle Matrix und
$χ_{f^}$ ist ein reelles Polynom. Außerdem ist $f^$ mit der Konjugation
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^$ die
Gleichung
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
$\vec{v} ∈ V^{}$ die Gleichung
\begin{equation}\label{eq:9-4-7-1}
f^\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^\bigl( \vec{v} \bigr)}.
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}.
\end{equation}
\end{beobachtung}
@ -379,37 +384,40 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
$f(U) ⊆ U$ ist.
\end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr einfach.
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
keinen reellen Eigenwert hat.
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
Fall, dass $f$ keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des charakteristischen
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende Rechnung zeigt, dass das
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
Nullstelle ist,
\[
χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\]
Ich betrachte jetzt für den Endomorphismus $f^$ einen Eigenvektor $\vec{v} =
(\vec{v}_1, \vec{v}_2) ∈ V^$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
-\vec{v}_2) ∈ V^$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $$-linear unabhängig,
ebenso die Menge
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$.
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
ist dann $$-linear unabhängig, ebenso die Menge
\[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
@ -417,8 +425,8 @@ $f|_U : U → U$ einen Isomorphismus von $U$ liefert.
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*}
f(\vec{v}_1) & = f^(\vec{v_1}) = f^ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^(\vec{v}) + f^(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von

View File

@ -28,7 +28,7 @@
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
\title{Lineare Algebra 2}
\author{Prof.~Dr.~Stefan Kebekus}
\author{Prof. Dr. Stefan Kebekus}
\DeclareMathOperator{\ad}{ad}
\DeclareMathOperator{\Bij}{Bij}
@ -93,6 +93,7 @@
\begin{document}
% spell checker language
\selectlanguage{german}

View File

@ -7,7 +7,6 @@
\usepackage{enumitem}
\usepackage{hyperref}
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}
\usepackage{newunicodechar}
\usepackage{mathtools}
\usepackage{varioref}
@ -363,7 +362,10 @@
% HYPENTATION
%
\hyphenation{uni-tärer}
\hyphenation{com-po-nents}
\hyphenation{pos-i-tive}
\hyphenation{Theo-rem}
\hyphenation{Vojta}
%